Journées des OVE L`OVE de Tours - Blogs
Transcription
Journées des OVE L`OVE de Tours - Blogs
Journées des OVE Strasbourg, juin 2010 Le réseau des Observatoires de l’enseignement supérieur (RESOSUP) tient ses 6èmes journées nationales à Strasbourg, les 2, 3, et 4 juin 2010 (le programme). La thématique générale : “De l’observation à l’action : information, orientation, pilotage“. “La question de l’impact et de l’usage des études réalisées par les observatoires servira de fil conducteur à ces journées”. Ce blog a consacré, depuis janvier 2009, 58 chroniques à l’orientation et à l’insertion professionnelle : “Insertion : 43 chroniques” (21 janvier 2010), “Insertion : 15 chroniques” (10 mai 2010). 2 juin de 14 à 18 heures (cliquer ici). Trois interventions particulièrement attendues : Patrick Hetzel, directeur de la DGESIP (chronique : “Hetzel et l’insertion“), Michel Cormier, directeur de la section des établissements à l’AERES, Jean-Richard Cytermann, IGAENR, adjoint au directeur DGRI (chronique : “Evaluer le Supérieur“). 3 juin de 9 à 12 heures (cliquer ici). Deux ateliers. 1. Parcours d’études et insertion professionnelle des étudiants - information, orientation, aide à la réussite. Je participerai à ce premier atelier. 2. Évaluation des formations et des enseignements : management de la qualité. 4 juin de 9 à 12 heures 30 (cliquer ici). Table ronde. Regard de présidents d’université sur les Observatoires. Bernard Saint-Girons est annoncé (chronique : “Présider Paris-Est“). 01 juin 2010 L’OVE de Tours RESOSUP, 6èmes Journées nationales, Strasbourg, 2 au 4 juin 2010 (ici). Université de Tours (ici), Observatoire de la vie étudiante (ici), présentation par Bénédicte Froment : “Rabelaisiens 2008. Saison 2“. Derrière ce titre en clin d’oeil, il y a un remarquable dispositif d’enquêtes de suivi des étudiants entrés en 1ère année de Licence à l’université de Tours en 2008. En quoi remarquable ? Il s’agit non seulement d’un suivi de cohorte appuyé sur les données statistiques de scolarité (inscription et résultats), mais aussi d’un suivi accompagné par des enquêtes quantitatives et qualitatives auprès des étudiants de la cohorte. Dispositif classique d’étude de cohorte : le devenir des entrants 2008 sera suivi pendant 5 ans ; il permettra de calculer le taux d’obtention de la licence en 3, 4 ou 5 ans (rappelons qu’il s’agit d’un des indicateurs de performance du programme 150 de la loi de finances 2010). Dispositif original : les données collectées par les enquêtes sont mobilisées pour interpréter le parcours des étudiants. Celui-ci ne sera donc plus seulement interprété par les variables existant dans la base de données de scolarité (caractéristiques du baccalauréat, âge au bac, mention, genre, origine sociale et diplôme d’inscription), mais aussi par d’autres variables, d’autres facteurs de réussite ou d’échec : le projet personnel et professionnel, le travail salarié, les conditions de vie, l’usage du temps libre. A ma connaissance, aucun Observatoire n’avait eu l’idée ou la possibilité de conjuguer ces deux types d’enquêtes, de positionner les enquêtes dans un calendrier pertinent, bref d’enrichir le modèle explicatif. Bravo l’OVE de Tours ! Rabelaisiens 2008, Saison 1, acte 1 ou ”Le devenir de 4.645 entrants en L1 au cours de l’année 20082009“. Première enquête effectuée au moment de l’inscription : “votre projet à l’entrée de l’université” (cliquer ici)… en matière de logement, d’activités rémunérées, de possibilité d’utiliser les NTIC. Questions sur les raisons du choix de s’inscrire à l’université, sur la collecte d’informations pour l’orientation, sur le nombre d’années d’études projeté, sur des pistes de projets professionnels, sur un éventuel changement d’université au cours du parcours, sur les représentations de l’université. Quelques résultats (ceux-ci sont disponibles pour les 8 grands types de formation de l’université) : 25% des entrants en L1 visent un bac+3, 61% comptent aller au-delà (14% ne savent pas) ; les projets sont fortement corrélés à la mention obtenue au bac. Les projets sont connus : le “décor” est planté… Saison 1, acte 2 ou “Les projets à l’épreuve des premières réalités“. Deuxième enquête : “Le décrochage au cours du 1er semestre” (Enquête en février-mars 2009, Ove Tours Actu’, n°8, septembre 2009, cliquer ici). 424 abandons (6% de l’ensemble de la cohorte) des études entreprises au cours du 1er semestre ou juste après les examens de ce semestre. Abandons ? Pas vraiment car 30% des étudiants concernés ont déjà réentrepris d’autres études supérieures et la presque totalité des autres comptent poursuivre des études supérieures à la rentrée suivante. “Abandons” plus fréquents en Lettres et langues, abandons classiquement liés au parcours scolaire antérieur (type de bac et âge au bac), mais aussi à des facteurs recensés lors de la 1ère enquête. Et donc abandons liés au choix de l’université faute de n’avoir pas été pris dans une filière sélective, au travail rémunéré (en 1ère année détudes e santé), à l’éloignement des parents (abandons plus fréquents quand les étudiants vivent seuls), aux conditions d’études et d’encadrement dans la filière de formation… Saison 1, acte 3 ou “Les conditions de logement“. Enquête en avril-juin 2009, OVE Tours Actu’, n°10, mai 2010 (cliquer ici) : comparaisons des conditions de logement des étudiants en L1 et de ceux en Master 1. “70% des étudiants de L1 ont un logement indépendant de celui de leurs parents. Cette situation leur a essentiellement permis de se rapprocher de leur lieu d’études, sans pour autant rompre le contact avec eux. Une proportion importante d’entre eux (42%) garde un lien étroit avec leurs parents en retournant régulièrement chez eux le week-end ou en cours de semaine”. Dans ce numéro d’OVE Actu, les conditions de logement ne sont pas encore mises en relation avec les résultats obtenus en fin de 1ère année : toutes choses étant égales par ailleurs, décohabiter est-il un facteur d’échec ou de succès ? Autre publication issue de cette enquête. L’effet du travail salarié sur la poursuite d’études en 2009-2010 (Info flash OVE Tours, N°1, février 2010, cliquer ici). ”Plus de 25% des étudiants de L1 en formation initiale ont eu une activité salariée entre les mois de septembre 2008 et de février 2009, mais pour 74% d’entre eux, il s’est agi d’une activité réduite” (moins de 20 heures par mois, de 5 heures par semaine). Le taux est plus fort en Arts, Sciences humaines, AES (entre 35 et 40%). Il n’y a pas de lien entre activité envisagée dans le projet de départ et l’activité réellement exercée ! Que sont devenus ces étudiants en septembre 2009 ? Ont-ils été pénalisés dans leurs études, comme on le croit a priori ? 56,6% d’entre eux se sont inscrits en L2 pour l’année 2009-2010 ; ce n’est le cas que de 48,3% de ceux qui n’ont pas exercé d’activité rémunérée en L1. Hypothèse : “l’activité rémunérée n’est pas nécessairement un obstacle à la réussite. Elle pourrait même constituer un indice d’une certaine capacité à l’autonomie, et peut-être aussi de la motivation de ces étudiants à développer leurs ressources économiques ou professionnelles pour se donner des moyens de mieux réussir”. Saison 2, acte 1 ou “Les étudiants non réinscrits après la 1ère année d’études (enquête réalisée en octobre 2009, résultats non encore en ligne). Bénédicte Froment en donne quelques résultats de vive voix. 33% des inscrits en L1 en 2008-2009 ne se sont pas réinscrits à l’université de Tours en 20092010. Seulement 12% d’entre eux sont en emploi. Les autres sont en formation (autre licence, BTS, école paramédicale ou sociale…). Il y a un lien entre le projet de départ (saison 1, acte 1) et la non-réinscription : elle concerne davantage ceux qui n’avaient pas mis l’université en 1er choix ; les non-réinscrtis visent un diplôme plus court que les réinscrits. A noter l’existence d’un OVE Spécial réussite (cliquer ici) : “ce document présente les taux de réussite des nouveaux bacheliers inscrits en 1ère année en fonction du diplôme préparé mais aussi par bac et selon la mention obtenue au bac”. Il peut être obtenu par mail. Je n’ai pas réussi, hélas, à le trouver en ligne. Saison 2, acte 2 ou ”Et votre temps libre ?” (enquête lancée début mai 2010 et comparant les L1 et les M1). Enquête en ligne : cliquer ici. “Que faites-vous lorsque vous n’êtes pas à l’université, en dehors des moments de travail pesonnel sur vos études ? Voyez-vous souvent vos amis ? Lisez-vous ? Avez-vous des hobbies ? Faites-vous du sport ? Etes-vous musicien ? Etes-vous féru de nouvelles technologies” ? Saison 3, acte 1. Enquête qui sera réalisée en 2010-2011 : “Construction de projet de formation et/ou professionnel“. “Les résultats seront comparés à ceux de la première enquête (saison 1, acte 1) pour mesurer l’évolution du projet au fur et à mesure de la progression dans les études”. A suivre et en attendant les projets pour les saisons 4 et 5 ! Quel sera alors l’effectif de la cohorte ? L’Observatoire de la vie étudiante de l’université de Tours mène également des enquêtes sur les conditions d’études (ici), sur le devenir professionnel des diplômés de Master. Lire les résultats de l’enquête sur les masters de 2006, 30 mois après l’obtention de leur diplôme, les fiches “Parcours”, et aussi les répertoires très détaillés des emplois occupés. L’OVE a participé à l’enquête de la DGESIP sur le devenir des masters 2007. Enfin, tableau de bord des effectifs étudiants (depuis 2004) : cliquer ici. Et l’OVE de Tours fait tout cela avec quelles ressources humaines et matérielles ? Trop peu : l’organigramme. Photos de 3 des membres de l’équipe de l’OVE. 03 juin 2010 Cheminat, l’ORESIPE Annie Cheminat, le temps de la retraite venu, termine son mandat à la tête de l’Observatoire régional de l’enseignement supérieur et de l’insertion professionnelle des étudiants (ORESIPE). Elle en était la directrice depuis sa création en 2002. L’ORESIPE organisait, du 2 au 4 juin à Strasbourg, les 6èmes journées nationales des Observatoires (chroniques “Journées des OVE” et “Rabelaisiens de Tours“). Ces journées des OVE ont fourni l’occasion d’adresser des remerciements mérités à Annie Cheminat. Cette chronique et les 70 photos qui l’accompagnent sont l’hommage de ce blog à une personnalité qui a incarné, tout au long de sa vie, le passage de l’observation à l’action, thème traité au cours de ces 3 jours d’analyses, de discussions, de propositions. Alain Beretz, président de l’université de Strasbourg, dans ses louanges et remerciements adressés à sa collègue, résume parfaitement le rapport entre la direction d’université et son observatoire. 1. Celui-ci remplit une mission-clé car il apporte les données indispensables au pilotage stratégique (ce n’est pas un hasard si l’ORESIP est rattaché au Service d’aide au pilotage), et ce d’amont (données pour l’orientation des lycéens, sur les voeux des futurs bacheliers) en aval (données sur les trajectoires professionnelles des diplômés), en passant par toutes les maillons d’une chaîne de qualité : accueil dans l’université, connaissance des parcours de formation, évaluation des formations et des enseignements, accompagnement vers l’emploi, réflexion sur l’offre de formation et l’évolution des métiers. 2. L’observatoire est indispensable mais ses travaux sont insuffisamment pris en compte par les décideurs de l’université et des composantes d’enseignement. C’est, rappelle le Président Beretz, au directeur de l’Observatoire de faire pression, de rappeler sans cesse les données, de proposer les points où porter l’effort, où gagner des points de qualité, où expérimenter de bonnes pratiques observées ailleurs. La construction des données et les actions à entreprendre supposent des enquêtes, des interactions, des contacts, des relations permanentes avec un grand nombre de partenaires. Partenaires ? Ils étaient presque tous présents dans ces 6èmes journées. Partenaires nationaux : Ministère de l’enseignement supérieur et de la recherche (Patrick Hetzel, DGESIP, Jean-Richard Cytermann, DGRI), Agence d’évaluation de la recherche et de l’enseignement supérieur (Michel Cormier, AERES), Conférence des présidents d’universié (CPU, Simone Bonnafous). Partenaires locaux et régionaux : Rectorat (Claire Lovisi, recteur), Services académiques d’information et d’orientation (Emmanuel Percq), Lycées (Jean-Claude André, proviseur du lycée Marc Bloch), Région (Sophie Rohfritsch, viceprésidente Enseignement supérieur et recherche), Communauté urbaine de Strasbourg (Catherine Trautmann, vice-présidente). Partenaires internes : Espace Avenir (chronique : “le BAIP de Strasbourg“), composantes de formation (Jean-Alain Heraud, doyen de la Faculté d’économie et de gestion). Par leur présence et leurs interventions, toutes et tous ont confirmé la nécessité d’un Observatoire et loué la qualité des travaux de l’ORESIPE. Mais qui manquait-il donc dans ces 6èmes journées ? Les données et analyses des Observatoires sont indispensables pour le pilotage des universités par l’Etat, par les Régions, par les équipes de direction des universités. Ne sont-elles pas aussi destinées à éclairer les choix d’orientation des étudiants, le recrutement des diplômés par les entreprises ? Il ne faut jamais oublier que les Observatoires doivent être aussi au service des usagers, des clients. Pas de représentants des employeurs, pas de présidents d’associations d’anciens dans les 6èmes journées. Dommage. Les Observatoires doivent communiquer, en toute transparence, les résultats de leurs analyses. Le Président du réseau des Observatoires, Marc Boudier, n’en est pas persuadé : chronique ”Insertion. Transparence !“. Se pose donc la question de la direction des Observatoires. Dans une discussion en a parte avec Annie Cheminat, nous constatons un accord sur le profil du directeur d’observatoire. Je le résume ainsi. Le directeur d’un observatoire doit être un enseignant chevronné, être persuadé de l’utilité des chiffres, avoir lui-même utilisé, dans les formations dans lesquelles il enseigne, les données de l’observatoire et y avoir entrepris des démarches de progrès. Il doit pouvoir discuter d’égal à égal avec le Président, pouvoir lui imposer la publication de résultats de parcours de formation ou d’insertion professionnelle mauvais de manière récurrente. Les ingénieurs d’études ou de recherche, indispensables pour assurer la qualité des données, n’ont pas les moyens de jouer ce rôle politique ; laissés à eux-mêmes ou seulement formellement sous la dépendance d’un vice-président, ils deviennent aigris de constater que leurs travaux ne sont guère utilisés. Un directeur d’observatoire doit travailler avec eux au quotidien, s’impliquer, y compris dans la rédaction des analyses. Ces profils existent-ils dans les universités ? Certainement oui parmi les professeurs en fin de carrière. Mais, dans un contexte financier, austérité financière de l’Etat et RCE obligeant, contexte qui obligera à resserrer l’offre de formation, celle ou celui qui accepte la direction d’un observatoire doit posséder un très grand sens du service public. Mais revenons sur le parcours professionnel d’Annie Cheminat. Il n’est pas terminé car le Président Beretz compte bien confier de nouvelles missions à un professeur émérite ! Professeur de chimie à l’université Louis Pasteur (ULP), puis à l’université de Strasbourg réunifiée, Annie Cheminat est, depuis fort longtemps partisane de l’évaluation, source de démarches de progrès conduisant à une qualité toujours plus élevée. De 1992 à 1999, elle est vice-présidente à la formation initiale et continue de l’ULP. Le 8 décembre 1999, Lionel Jospin étant Premier ministre et Claude Allègre encore Ministre de Education nationale, de la recherche et de l’enseignement supérieur, Annie Cheminat est nommée Recteur de l’académie de Nantes, mais, dès le 4 juillet 2002, le nouveau gouvernement la remplace par Bernard Dubreuil. Annie Cheminat ne figure pas parmi ceux qui sont Recteurs sous la gauche ou sous la droite (chronique : “Président Marois“). 2002 : deux nouvelles missions lui sont confiées, la direction de l’ORESIPE de l’université Louis Pasteur et la participation au Comité national d’évaluation (CNE) ; elle en est membre ou consultante jusqu’en 2006 (ici)…; fin 2006, le CNE est remplacé par l’AERES (cliquer ici). Quelques interventions récentes d’Annie Cheminat, vice-présidente déléguée “Evaluation et qualité”. Janvier 2010 : “L’université de Strasbourg à l’heure de l’autonomie” (cliquer ici). Mars 2010 : “la mise en place d’une démarche qualité est devenue indispensable” (cliquer ici), “démarche qualité, c’est-à-dire un ensemble de dispositifs et de pratiques qui permettent d’attester de la qualité d’une formation en fonction de références, en l’occurrence des “références et lignes directrices pour le management de la qualité dans l’espace européens de l’enseignement supérieur”… ”Nous espérons que la charte pour le management de la qualité des formations sera rédigée à la fin de l’année universitaire”. A suivre ! Merci, Annie Cheminat, et bon vent ! Réseaux d’anciens Les 6èmes Journées nationales des OVE ne se sont guère focalisées sur les Associations d’anciens, sur les liens qu’elles peuvent tisser avec les Observatoires, en amont, en cours et en aval des enquêtes sur le devenir professionnel. Elles peuvent enrichir et actualiser le fichier d’adresses aux fins d’obtenir de meilleurs taux de réponses (chronique : “Docteur “X” wanted !“). Elles peuvent intervenir en cours d’enquêtes, en servant de relais d’information, de relance, d’incitation à répondre. Elles peuvent utiliser les résultats des enquêtes pour peser sur les évolutions de la formation par des interventions dans les conseils de perfectionnement. Dans un autre ordre : l’association d’anciens peut être, elle-même, un des fruits de l’enquête. Les universités, les observatoires, les responsables de formation, à l’instar de ce qui est pratiqué par les “grandes écoles”, doivent-ils consacrer des moyens et du temps à la création et au soutien des associations d’anciens ? J’ai été surpris, lors des journées, de rencontrer un jeune contractuel de l’université de Picardie dont la mission était la création de réseaux d’anciens et non celle de faire des enquêtes d’insertion. Autres universités qui ont des réseaux d’anciens (”Alumni”) ou qui sont en train de les constituer : Paris 9 Dauphine, Paris 2 Panthéon Assas, Nice Sophia Antipolis, Nantes, Université de Technologie de Troyes… Pourquoi s’engager dans la voie des réseaux d’Alumni ? Le réseau est a priori paré de toutes les qualités : il peut fournir des indications sur les trajectoires professionnelles d’un maximum de diplômés, de diplômés bien plus anciens que ceux concernés par les enquêtes habituelles ; il peut servir de lobby dans la négociation de la position du diplôme dans les grilles de classification ; il peut être mobilisé dans le conseil de perfectionnement de la formation, comme vivier de professionnels assurant des cours, accueillant des stagiaires et/ou des apprentis, relayant aux futurs et aux jeunes diplômés les offres d’emplois de leur entreprise. Enfin, en période de “vaches maigres”, il peut être le support d’une campagne de “Fundraising” : de plus en plus d’universités créent des Fondations pour rechercher des ressources autres que celles de l’Etat et des collectivités territoriales. Les réseaux ont-ils toutes les qualités ? Sont-ils des vecteurs de l’insertion sur le marché du travail des jeunes diplômés ? Oui, certainement, mais de manière limitée, tout au moins pour ce qui concerne les diplômes universitaires. Toutes les enquêtes révèlent que le réseau de relations est le moyen le plus utilisé et le plus efficace pour rechercher et trouver un emploi. Mais elles n’indiquent pas le poids du réseau des anciens dans l’ensemble des réseaux de relations familiaux et professionnels. Les réseaux d’anciens, diplômés des Ecoles d’ingénieur, de management ou de commerce, sont sans doute aussi nombreux que les Ecoles elles-mêmes. Un réseau de diplômés de licence professionnelle est par définition plus nouveau : ce diplôme a à peine 10 ans. Celui des 200 diplômés de la licence professionnelle “Management des organisations de l’économie sociale” (LP MOES), licence que j’ai dirigée avec Michel Abhervé, est né en 2008, a ”hiberné, pour redémarrer aujourd’hui (réseau RESPROES) par la publication du premier numéro de sa Lettre interne. Deux profils sont présentés : Mathias, consultant en intelligence économique et stratégique, Sébastien, entrepreneur salarié de Coopaname, apiculteur et animateur d’un rucher pédagogique. La convivialité renforce le réseau : prochain “Apéro”, jeudi 24 juin à la Dame du Canton, Paris. 06 juin 2010 Publié Insertion professionnelle | Pas de commentaire » | Lien permanent | Modifier Enquête Masters 2007 Suite des chroniques sur les 6èmes Journées nationales des Observatoires de la Vie Etudiante (OVE), organisées par RESOSUP, les 2, 3 et 4 juin 2010 à Strasbourg. Chroniques précédentes : “Journées des OVE“, “L’OVE de Tours“, “Annie Cheminat et l’ORESIPE“, “Réseaux d’anciens“. Les journées ont largement débattu de l’Enquête nationale sur le devenir professionnel en 2010 des diplômés de Master en 2007, enquête aussi appelée “DGESIP” et que je nomme, pour ma part, “Enquête Pécresse”. Dans ma première chronique sur cette enquête (27 octobre 2009, “Insertion performante ?“), j’écrivais : “Le dispositif d’enquêtes d’insertion, lancé par Valérie Pécresse et présenté sur le site de son ministère, ne permettra ni de connaître vraiment l’insertion des diplômés, ni a fortiori la performance des universités dans le champ (Valérie Pécresse ne dit d’ailleurs rien du seuil de performance qui enclenchera le financement !). Il s’agit seulement d’une opération de communication idéologique, de poudre aux yeux, de gaspillage d’argent public“. Je critiquais le calendrier resserré de l’enquête, son mode d’exploitation en central, son questionnaire en partie réducteur, son financement. Critique également à l’égard du choix de la population : les diplômés 2007. L’enquête s’est déroulée mieux que je ne croyais : à vrai dire, les universités n’ont pas eu le choix, “enquête ministérielle oblige”. Patrick Hetzel dans son intervention à Strasbourg a été fort content d’annoncer des taux de réponses satisfaisants : 64% en moyenne (plus de 72% dans 21 universités). En fait, l’enquête a pu se dérouler plutôt bien car elle a été limitée aux seuls diplômés de master (à l’origine, elle devait concerner également les diplômés de DUT et de Licence professionnelle), aux seuls diplômés français inscrits en formation initiale. Les premiers résultats devraient être présentés à l’automne, Patrick Hetzel l’ayant confirmé (chronique “Hetzel et l’insertion“)… Ces résultats ne pourront sérieusement servir au pilotage de la performance des universités par le ministère, au pilotage de l’offre de formation par celle-ci, à l’information et orientation des futurs candidats aux masters. Quel dommage et que gâchis ! L’enquête a été plutôt une réussite technique, grâce à l’implication professionnelle des OVE, mais elle est un échec politique. Nous développerons cette analyse dans la prochaine chronique : “Enquêtes, indicateurs de performance, pilotage stratégique et financement”. Comment l’enquête a-t-elle été réalisée ? “Quel impact de la mise en oeuvre de l’enquête DGESIP sur les observatoires” ? Résosup a présenté et commenté les résultats de son enquête auprès de 82 observatoires (58 ont répondu) ; 19 avaient déjà réalisé une enquête sur les diplômés 2007 (enquête à 18 mois), ce qui a “entraîné une diminution des taux de réponse”. Réponses dans le n°4/1 de Résosup Info (juin 2010), non encore en ligne sur le site et présentées en powerpoint le 4 juin : cliquer ici pour lire ces résultats (20 photos). Impacts de l’enquête : recrutement de personnel et/ou recours aux heures supplémentaires dans 40 structures sur 58, élargissement de la population enquêtée (35 cas), abandon d’autres travaux prévus (18 cas), ajout de questions supplémentaires (15 cas), difficultés pour mettre en forme le fichier à ”remonter au ministère” (19 cas). Près d’une cinquantaine de commentaires concernant le questionnaire, le calendrier, l’implication de Résosup. “En guise de conclusion … ou de futur” ? Un bilan plutôt sévère fait par le réseau. “Le dispositif a été ressenti comme étant particulièrement lourd à gérer, fastidieux dans le codage et recodage des variables et la mise en forme du fichier à remonter”… “Il a été mal vécu parce qu’il manquait de pertinence par rapport à la problématique de l’insertion professionnelle, qu’il a demandé une forte mobilisation afin de retrouver le maximum de “a-enqueter“… “Par ailleurs, nous ne connaissons toujours pas le mode de calcul des indicateurs qu’utilisera le MESR, ni à quelle fin”… “Quelles conséquences pour les établissements” ?… “Et quelle sera la pérennité des fonds alloués pour la 1ère enquête” ? Comme l’a résumé Marc Boudier, président de Résosup : “par cette enquête, les observatoires sont devenus des opérateurs directs du ministère“. Evidemment, ce n’est pas leur rôle ! 07 juin 2010 Observatoires en photos Suite des chroniques sur les 6èmes Journées nationales des Observatoires, organisées par RESOSUP, les 2, 3 et 4 juin 2010 à Strasbourg. Chroniques précédentes : “Journées des OVE“, “L’OVE de Tours“, “Annie Cheminat et l’ORESIPE“, “Réseaux d’anciens“, “Enquête Masters 2007“. Observatoires de l’enseignement supérieur en photos. 70 photos des intervenants : cliquer ici. 20 photos du powerpoint de l’enquête “Masters” : cliquer ici. 60 photos des participants : cliquer ici. 08 juin 2010 Performance : 86% ! 86% : ce pourcentage n’a pas été prononcé une seule fois au cours des Journées nationales des Observatoires de l’enseignement supérieur, ni par Patrick Hetzel (chronique : “Hetzel. L’insertion“), ni par Simone Bonnafous (CPU. Chronique : “Annie Cheminat. L’ORESIPE“). Etonnant car 86% c’est le niveau que doit atteindre l’indicateur de performance n°1.2 du Programme 150 de la Loi de finances pour 2010 (cliquer ici) ! 86% : taux de cadres et de professions intermédiaires visé pour 2010 pour les titulaires de master, trois ans après leur sortie de formation initiale, i.e. pour les titulaires de master obtenus en 2007. L’Enquête Masters 2007 (cliquer ici) va-t-elle permettre de répondre à la question : les universités, prises globalement, ont-elles atteint l’objectif de performance ? Lire aussi la chronique : “PAP du PLF de la LOLF“. J’ai déjà critiqué cet indicateur de performance (chronique “Insertion performante ?“) pour 4 raisons. 1. L’objectif de 86% est en progression de 4 points par rapport à l’observation de 2007 (diplômés de master 2004) : cette progression n’est nulle part argumentée. 2. 86% agrège “cadres et professions intermédiaires” : si les universités atteignent le taux global prescrit mais avec une progression du taux de professions intermédiaires et une diminution du taux de cadres, on ne pourra pas dire qu’elles ont amélioré leurs performances ! Regrouper “cadres et professions intermédiaires” masque d’éventuels déclassements d’une partie significative des diplômés de master. 3. Le taux peut avoir effectivement progressé pour les diplômés 2007 par rapport aux diplômés 2004 ; mais qu’en sera-t-il pour les diplômés 2008 et 2009, les diplômés de la crise ? 4. 86% est un taux moyen. Le taux obtenu par chaque université dépend de la situation du marché du travail régional, de l’offre de formation, des caractéristiques de la population inscrite en master. Pour comparer la performance de deux universités en matière d’insertion des masters, il faut raisonner “toutes choses étant égales par ailleurs” : il semble que ce n’est plus prévu pour l’enquête Masters 2007, alors que ça l’était à l’origine. Alors, à quoi et à qui va donc servir cette enquête ? Dans la chronique d’hier, j’ai écrit : “les résultats ne pourront sérieusement servir au pilotage de la performance des universités par le ministère, au pilotage de l’offre de formation par celles-ci, à l’information et orientation des futurs candidats aux masters. Quel dommage et quel gâchis” ! 1. Bénéficiaires de l’enquête Master 2007 : Valérie Pécresse, Patrick Hetzel, le bureau de la CPU. L’enquête a été réalisée dans des conditions techniques acceptables : chose annoncée, chose réalisée ! Si la cible de 86% de cadres et de professions intermédiaires est observée par l’enquête, nous assisterons à des embrassades générales. Le Parlement sera content : “l’argent du programme 150 n’a pas été dépensé en vain”. La Ministre et son Directeur général seront contents : “nos universités ont amélioré l’insertion de leurs diplômés de 2004 à 2007″ ; ils seront donc confirmés dans leurs fonctions. Le bureau de la CPU - trio constitué par le président et les deux vice-présidents - sera content et attendra sa récompense de “soldat obéissant au chef” : une place de plus, ouverte dans un cabinet ministériel. Autres bénéficiaires de l’enquête ? Personne d’autre ! 2. Les résultats de l’enquête seront-ils utilisés pour financer les universités selon leur performance observée ? Dit d’une autre manière : les résultats amélioreront-ils le pilotage de l’offre de formation par le ministère ? Non ! Pour plusieurs raisons. 2.1. La performance affichée par une université donnée en matière d’insertion de ses diplômés de master ne pourra pas être interprétée rigoureusement. 2.2. Simone Bonnafous a annoncé à Strasbourg - scoop ! -que le financement selon la performance en matière d’insertion était au moins temporairement - abandonné car l’indicateur retenu par la loi de finances ne faisait pas consensus. Il est temps de s’en apercevoir alors que l’enquête a été réalisée ! Gâchis ! 2.3. La vice-présidente de la CPU a fait état d’un autre indicateur de performance en cours de discussion : financement selon les progrès réalisés entre le début et la fin du quadriennal. Intéressant ! Serait performante - et financée comme telle - l’université qui verrait, par exemple, le taux d’insertion de ses diplômés de master progresser de 80 à 83% au cours de son contrat. Ce qui entraînerait immédiatement de nouvelles polémiques car les universités classées par “vagues” ne commencent pas leur contrat en même temps. Seraient favorisées les universités dont le contrat débute en période de forte crise de l’emploi (contrats 2009-2012 et 2010-2013). Et pas de chances pour les universités des contrats 20072010 : c’est sûr que leur taux d’insertion des masters a dû décroître d’une date à l’autre ! 2.4. L’existence de “vagues” contractuelles rend, de ce fait, inopérant tout indicateur de financement selon la performance de l’insertion. 2.5. L’écart acceptable au taux moyen de performance n’a jamais été discuté et annoncé : une université ayant obtenu 85% (en non 86) serait-elle pénalisée financièrement ? 2.6. Le pilotage de l’offre de formation par la DGESIP du ministère ne pourra s’appuyer sur cette enquête : les experts de l’AERES qui vont évaluer, à partir de fin 2010, les propositions d’offre de formation des universités de la vague 20122015, disposeront certes des résultats de l’enquête DGESIP, mais ceux-ci ne seront comparables ni d’une université à l’autre, ni dans le temps ! 3. Les résultats de l’enquête nationale Masters 2007 renforceront-ils le pilotage de l’offre de formation par les universités elles-mêmes ? Non ! 3.1. Les universités de la vague 2012-2015 sont en train de boucler leur offre de formation et de la faire valider par leurs conseils, leur projet d’offre devant parvenir à l’AERES au plus tard le 15 octobre prochain. Ces universités n’ont pu mobiliser les résultats de l’enquête “Pécresse”. Par contre, leurs observatoires ont pu fournir des données d’enquêtes de devenir professionnel pour les diplômés de l’université jusqu’à ceux de l’année 2007-2008. 3.2. Les universités de la vague 2013-2016 pourraient utiliser les données de cette “enquête Masters” pour faire évoluer et rendre plus pertinente leur offre de formation. Mais il ne faut pas se moquer des gens ! Mobiliser des donnés sur les diplômés 2007 pour penser une offre de formation 20132016 serait évidemment “n’importe quoi” ! 3.3. Rappel : l’enquête 2007 ne concerne que les masters (et non le niveau bac+2 et bac+3) ; de plus, elle a exclu les étudiants étrangers et ceux en formation continue. Concevoir l’offre de formation exige de prendre en compte tous les diplômes et toute la population étudiante concernée. Gâchis que cette enquête nationale ! 4. L’enquête nationale Masters 2007 améliorera-t-elle l’information et l’orientation des candidats à tel ou tel master ? Encore une fois : Non ! L’étudiant qui s’informe sur une formation de master souhaite des chiffres précis et rigoureux. L’étudiant plus exigeant encore veut même connaître les emplois précis occupés par les anciens diplômés ; seuls des répertoires d’emplois peuvent lui fournir les informations qu’il attend. L’enquête nationale n’a jamais eu l’ambition de fournir et de valider des répertoires d’emplois diplôme par diplôme. La plupart des Observatoires universitaires, mobilisés par l’enquête DGESIP, ont eu l’intelligence d’élargir la population a-enqueter pour la rendre quasiexhaustive et d’ajouter des questions (intitulé précis de la fonction occupée, salaire mensuel…). Mettront-ils leurs résultats en commun pour fournir des informations utile et comparables aux candidats aux Masters ? Non ! Faute de moyens et de temps, faute d’ambition du réseau “Résosup”, faute de volonté politique des présidents d’université… Je suis partisan d’un financement partiel des universités selon leur performance : six chroniques en témoignent sur mon blog d’EducPros (cliquer ici). L’enquête nationale sur les diplômés de Master 2007 ne pourra pas être utilisée à cette fin : tous - ministère, présidents d’université, responsables des observatoires - en conviennent aujourd’hui. A quoi donc aura servi cette enquête ? En profiteront, pour leur trajectoire politique ou professionnelle à venir, quelques personnes seulement. Gâchis économique car l’enquête aura coûté, en coûts complets, environ une dizaine de millions d’euros ! Plus gravement, cette enquête aura bousculé, une fois de plus, l’autonomie des universités : les observatoires l’ont vécue comme une instrumentalisation de leur rôle. Gâchis politique ! Et n’oublions pas que le pire est toujours possible. L’enquête CEREQ “Génération 2007″ est en cours : des diplômés de l’enquête Masters 2007 ont été interviewés par leur observatoire en 2009, à nouveau par leur observatoire en 2010 (enquête DGESIP), et, avec un peu de chance-malchance, ils l’ont été par l’enquête CEREQ. Chroniques : “Génération 2007“, “Diriger le CEREQ“. Mais au moins le CEREQ n’a jamais prétendu que son enquête était un outil de pilotage de l’offre de formation ! Que faire ? Pour piloter l’offre de formation, le ministère, les experts de l’AERES, les présidents d’université, les responsables de formation ont besoin d’outils rigoureux, de résultats d’enquêtes reproduits dans la durée. L’objectif demeure et est incontournable ! Je pense que la seule solution est de repenser totalement le système de collecte des informations pertinentes, de pratiquer en actes la subsidiarité (ce que fait mieux le ministère, ce que font mieux les observatoires). Il faux deux niveaux de collecte, d’agrégation, de traitement des données. J’estime que le dispositif italien AlmaLaurea remplit cet objectif. Je vais donc y revenir dans une prochaine chronique, même si, de nouveau, je vais m’attirer l’hostilité des responsables du réseau Résosup. 08 juin 2010 Labelliser les OVE ? Lors des 6èmes journées nationales des Observatoires à Strasbourg (chroniques précédentes), la question de la labellisation des OVE a été évoquée par plusieurs responsables. Un label serait accordé aux Observatoires réalisant des travaux de qualité et pouvant, en retour, bénéficier de moyens additionnels. Pour plus d’informations sur les moyens mobilisés par les enquêtes, lire la chronique “Enquête Masters 2007“. La labellisation n’est plus à l’ordre du jour, au grand dam, sans doute, du réseau Résosup. Les observatoires se sont également inquiétés des moyens à venir. Y aura-t-il, en 2011, une enquête sur les diplômés de “Masters” obtenus en 2008 ? Les moyens financiers accordés en 2010 (700.000 euros) seront-ils reconduits en 2011 ? Le directeur de la DGESIP, Patrick Hetzel, n’a pas répondu à ces questions. Mais, affirmant que les fonds de roulement des universités avaient significativement progressé, il a voulu dire : celles-ci ne manquent pas de moyens ! Donc : pas de financement pour une enquête 2011. Deux jours plus tard, les mêmes questions ont été posées à Simone Bonnafous, viceprésidente de la la CPU. Sa réponse n’a pas été différente : le budget de l’enseignement supérieur ne sera plus sanctuarisé à partir de 2012 (ou 2011 ?). Lui sera appliquée la règle du non-remplacement d’un fonctionnaire sur deux partant en retraite. Dans le cadre de ses responsabilités et compétences élargies (RCE), chaque université doit fixer des priorités, procéder à des arbitrages, à des redéploiements de postes. Bref, les Observatoires ont mangé leur pain blanc. Le MESR ne leur attribuera plus de postes et de moyens. Fini le temps, initié avec la contractualisation de la fin des années 80, où le ministère affectait aux OVE des moyens “fléchés” ; cette politique s’est poursuivie avec les appels d’offres pour la création de plates-formes d’insertion professionnelle (2006-2007), les Schémas directeurs de l’insertion professionnelle et la création des BAIP (2008), l’enquête “Masters 2007″. L’OVE qui veut des moyens plus importants doit les négocier avec la direction de son université ; d’où l’importance d’avoir un professeur chevronné à la tête de l’observatoire et non un jeune ingénieur d’études nouvellement recruté (chronique : “Annie Cheminat. L’ORESIPE“). L’observatoire peut, évidemment, tenter de rechercher des ressources additionnelles auprès des collectivités territoriales… Labelliser les OVE, les doter de moyens pertinents mais toujours insuffisants, est-ce encore opportun ? Autrement dit, les OVE ont-ils un avenir devant eux ? La réponse est “oui”, car, en France, il est exceptionnel de fermer une structure même si elle n’a plus de missions réelles. La réponse pourrait être “non”, si les OVE perdaient leur mission de collecte et d’analyse de données, d’enquêtes. Les personnels des OVE seraient alors “redéployés” vers les BAIP (missions d’accompagnement des étudiants vers l’emploi) et/ou vers les cellules d’aide au pilotage. Si la logique de la performance perdure au niveau de l’Etat et dans les universités (et rien n’indique qu’elle ne va pas perdurer !), il faudra bien un jour avoir des indicateurs plus robustes et plus fins que ceux actuellement retenus dans le programme 150 du budget (chronique “Performance : 86% !“). Il faudra surtout des indicateurs permettant des comparaisons rigoureuses entre les performances des diverses universités. Discutant jeudi dernier avec Claude Thélot, ancien directeur de la DEP, des évolutions de la statistique publique dans le champ de l’éducation, nous nous sommes trouvés d’accord sur un grand nombre de points, dont celui de la répartition des tâches entre le national (DEPP et service statistique de la DGESIP) et le local (observatoires). Les suivis de cohortes (devenir des entrants en première année de licence et calcul du taux d’obtention de la licence en 3 ans ou davantage), et les enquêtes sur les devenirs professionnels des diplômés doivent être pris directement en charge par le niveau national et non plus par les Observatoires. Seul le “national” est à même de contextualiser les résultats bruts obtenus, de calculer les valeurs ajoutées (”toutes choses étant égales par ailleurs”), de reproduire ce type de travail chaque année pour une nouvelle “cohorte d’entrants” et une nouvelle “cohorte de sortants”. Pour que ce nouveau dispositif de répartition des tâches entre le national et le local tiennne la route dans la durée et soit acceptable, le national devra transmettre au “local” toutes les données ”contextualisées” de l’établissement, pour que celles-ci puissent être mobilisées pour le pilotage stratégique et pour l’information des usagers. 13 juin 2010