Journées des OVE L`OVE de Tours - Blogs

Transcription

Journées des OVE L`OVE de Tours - Blogs
Journées des OVE
Strasbourg, juin 2010
Le réseau des Observatoires de l’enseignement supérieur (RESOSUP) tient ses 6èmes
journées nationales à Strasbourg, les 2, 3, et 4 juin 2010 (le programme). La thématique
générale : “De l’observation à l’action : information, orientation, pilotage“. “La question
de l’impact et de l’usage des études réalisées par les observatoires servira de fil conducteur à
ces journées”. Ce blog a consacré, depuis janvier 2009, 58 chroniques à l’orientation et à
l’insertion professionnelle : “Insertion : 43 chroniques” (21 janvier 2010), “Insertion : 15
chroniques” (10 mai 2010).
2 juin de 14 à 18 heures (cliquer ici). Trois interventions particulièrement attendues :
Patrick Hetzel, directeur de la DGESIP (chronique : “Hetzel et l’insertion“), Michel Cormier,
directeur de la section des établissements à l’AERES, Jean-Richard Cytermann, IGAENR,
adjoint au directeur DGRI (chronique : “Evaluer le Supérieur“).
3 juin de 9 à 12 heures (cliquer ici). Deux ateliers. 1. Parcours d’études et insertion
professionnelle des étudiants - information, orientation, aide à la réussite. Je participerai à ce
premier atelier. 2. Évaluation des formations et des enseignements : management de la
qualité.
4 juin de 9 à 12 heures 30 (cliquer ici). Table ronde. Regard de présidents d’université sur
les Observatoires. Bernard Saint-Girons est annoncé (chronique : “Présider Paris-Est“).
01 juin 2010
L’OVE de Tours
RESOSUP, 6èmes Journées nationales,
Strasbourg, 2 au 4 juin 2010 (ici). Université
de Tours (ici), Observatoire de la vie
étudiante (ici), présentation par Bénédicte
Froment : “Rabelaisiens 2008. Saison 2“.
Derrière ce titre en clin d’oeil, il y a un
remarquable dispositif d’enquêtes de suivi
des étudiants entrés en 1ère année de Licence
à l’université de Tours en 2008. En quoi
remarquable ? Il s’agit non seulement d’un
suivi de cohorte appuyé sur les données
statistiques de scolarité (inscription et
résultats), mais aussi d’un suivi accompagné
par des enquêtes quantitatives et qualitatives
auprès des étudiants de la cohorte.
Dispositif classique d’étude de cohorte : le devenir des entrants 2008 sera suivi pendant
5 ans ; il permettra de calculer le taux d’obtention de la licence en 3, 4 ou 5 ans (rappelons
qu’il s’agit d’un des indicateurs de performance du programme 150 de la loi de finances
2010). Dispositif original : les données collectées par les enquêtes sont mobilisées pour
interpréter le parcours des étudiants. Celui-ci ne sera donc plus seulement interprété par
les variables existant dans la base de données de scolarité (caractéristiques du baccalauréat,
âge au bac, mention, genre, origine sociale et diplôme d’inscription), mais aussi par d’autres
variables, d’autres facteurs de réussite ou d’échec : le projet personnel et professionnel, le
travail salarié, les conditions de vie, l’usage du temps libre. A ma connaissance, aucun
Observatoire n’avait eu l’idée ou la possibilité de conjuguer ces deux types d’enquêtes,
de positionner les enquêtes dans un calendrier pertinent, bref d’enrichir le modèle
explicatif. Bravo l’OVE de Tours !
Rabelaisiens 2008, Saison 1, acte
1 ou ”Le devenir de 4.645 entrants
en L1 au cours de l’année 20082009“. Première enquête effectuée au
moment de l’inscription : “votre
projet à l’entrée de l’université”
(cliquer ici)… en matière de logement,
d’activités rémunérées, de possibilité
d’utiliser les NTIC. Questions sur les
raisons du choix de s’inscrire à
l’université, sur la collecte
d’informations pour l’orientation, sur le nombre d’années d’études projeté, sur des pistes de
projets professionnels, sur un éventuel changement d’université au cours du parcours, sur les
représentations de l’université. Quelques résultats (ceux-ci sont disponibles pour les 8
grands types de formation de l’université) : 25% des entrants en L1 visent un bac+3, 61%
comptent aller au-delà (14% ne savent pas) ; les projets sont fortement corrélés à la mention
obtenue au bac. Les projets sont connus : le “décor” est planté…
Saison 1, acte 2 ou “Les projets à l’épreuve des premières réalités“. Deuxième enquête :
“Le décrochage au cours du 1er semestre” (Enquête en février-mars 2009, Ove Tours
Actu’, n°8, septembre 2009, cliquer ici). 424 abandons (6% de l’ensemble de la cohorte) des
études entreprises au cours du 1er semestre ou juste après les examens de ce semestre.
Abandons ? Pas vraiment car 30% des étudiants concernés ont déjà réentrepris d’autres
études supérieures et la presque totalité des autres comptent poursuivre des études supérieures
à la rentrée suivante. “Abandons” plus fréquents en Lettres et langues, abandons
classiquement liés au parcours scolaire antérieur (type de bac et âge au bac), mais aussi à
des facteurs recensés lors de la 1ère enquête. Et donc abandons liés au choix de l’université
faute de n’avoir pas été pris dans une filière sélective, au travail rémunéré (en 1ère année
détudes e santé), à l’éloignement des parents (abandons plus fréquents quand les étudiants
vivent seuls), aux conditions d’études et d’encadrement dans la filière de formation…
Saison 1, acte 3 ou “Les conditions de
logement“. Enquête en avril-juin 2009,
OVE Tours Actu’, n°10, mai 2010
(cliquer ici) : comparaisons des
conditions de logement des étudiants en
L1 et de ceux en Master 1. “70% des
étudiants de L1 ont un logement
indépendant de celui de leurs parents.
Cette situation leur a essentiellement
permis de se rapprocher de leur lieu
d’études, sans pour autant rompre le
contact avec eux. Une proportion
importante d’entre eux (42%) garde un
lien étroit avec leurs parents en
retournant régulièrement chez eux le
week-end ou en cours de semaine”. Dans ce numéro d’OVE Actu, les conditions de
logement ne sont pas encore mises en relation avec les résultats obtenus en fin de 1ère
année : toutes choses étant égales par ailleurs, décohabiter est-il un facteur d’échec ou de
succès ?
Autre publication issue de cette enquête. L’effet du travail salarié sur la poursuite
d’études en 2009-2010 (Info flash OVE Tours, N°1, février 2010, cliquer ici). ”Plus de 25%
des étudiants de L1 en formation initiale ont eu une activité salariée entre les mois de
septembre 2008 et de février 2009, mais pour 74% d’entre eux, il s’est agi d’une activité
réduite” (moins de 20 heures par mois, de 5 heures par semaine). Le taux est plus fort en Arts,
Sciences humaines, AES (entre 35 et 40%). Il n’y a pas de lien entre activité envisagée dans le
projet de départ et l’activité réellement exercée ! Que sont devenus ces étudiants en septembre
2009 ? Ont-ils été pénalisés dans leurs études, comme on le croit a priori ? 56,6% d’entre eux
se sont inscrits en L2 pour l’année 2009-2010 ; ce n’est le cas que de 48,3% de ceux qui n’ont
pas exercé d’activité rémunérée en L1. Hypothèse : “l’activité rémunérée n’est pas
nécessairement un obstacle à la réussite. Elle pourrait même constituer un indice d’une
certaine capacité à l’autonomie, et peut-être aussi de la motivation de ces étudiants à
développer leurs ressources économiques ou professionnelles pour se donner des moyens de
mieux réussir”.
Saison 2, acte 1 ou “Les étudiants
non réinscrits après la 1ère année
d’études (enquête réalisée en octobre
2009, résultats non encore en ligne).
Bénédicte Froment en
donne quelques résultats de vive
voix. 33% des inscrits en L1 en
2008-2009 ne se sont pas réinscrits
à l’université de Tours en 20092010. Seulement 12% d’entre eux sont en emploi. Les autres sont en formation (autre licence,
BTS, école paramédicale ou sociale…). Il y a un lien entre le projet de départ (saison 1, acte
1) et la non-réinscription : elle concerne davantage ceux qui n’avaient pas mis l’université en
1er choix ; les non-réinscrtis visent un diplôme plus court que les réinscrits. A noter
l’existence d’un OVE Spécial réussite (cliquer ici) : “ce document présente les taux de
réussite des nouveaux bacheliers inscrits en 1ère année en fonction du diplôme préparé mais
aussi par bac et selon la mention obtenue au bac”. Il peut être obtenu par mail. Je n’ai pas
réussi, hélas, à le trouver en ligne.
Saison 2, acte 2 ou ”Et votre temps libre ?” (enquête lancée début mai 2010 et comparant
les L1 et les M1). Enquête en ligne : cliquer ici. “Que faites-vous lorsque vous n’êtes pas à
l’université, en dehors des moments de travail pesonnel sur vos études ? Voyez-vous souvent
vos amis ? Lisez-vous ? Avez-vous des hobbies ? Faites-vous du sport ? Etes-vous musicien ?
Etes-vous féru de nouvelles technologies” ?
Saison 3, acte 1. Enquête qui sera réalisée
en 2010-2011 : “Construction de projet
de formation et/ou professionnel“. “Les
résultats seront comparés à ceux de la
première enquête (saison 1, acte 1) pour
mesurer l’évolution du projet au fur et à
mesure de la progression dans les
études”. A suivre et en attendant les
projets pour les saisons 4 et 5 ! Quel sera
alors l’effectif de la cohorte ?
L’Observatoire de la vie étudiante de
l’université de Tours mène également des
enquêtes sur les conditions d’études
(ici), sur le devenir professionnel des
diplômés de Master. Lire les résultats de
l’enquête sur les masters de 2006, 30 mois après l’obtention de leur diplôme, les fiches
“Parcours”, et aussi les répertoires très détaillés des emplois occupés. L’OVE a participé à
l’enquête de la DGESIP sur le devenir des masters 2007. Enfin, tableau de bord des effectifs
étudiants (depuis 2004) : cliquer ici. Et l’OVE de Tours fait tout cela avec quelles ressources
humaines et matérielles ? Trop peu : l’organigramme. Photos de 3 des membres de l’équipe
de l’OVE.
03 juin 2010
Cheminat, l’ORESIPE
Annie Cheminat, le temps de la retraite
venu, termine son mandat à la tête de
l’Observatoire régional de l’enseignement
supérieur et de l’insertion professionnelle
des étudiants (ORESIPE). Elle en était la
directrice depuis sa création en 2002.
L’ORESIPE organisait, du 2 au 4 juin à
Strasbourg, les 6èmes journées nationales des
Observatoires (chroniques “Journées des
OVE” et “Rabelaisiens de Tours“).
Ces journées des OVE ont fourni l’occasion d’adresser des remerciements mérités à Annie
Cheminat. Cette chronique et les 70 photos qui l’accompagnent sont l’hommage de ce blog
à une personnalité qui a incarné, tout au long de sa vie, le passage de l’observation à
l’action, thème traité au cours de ces 3 jours d’analyses, de discussions, de propositions.
Alain Beretz, président de l’université de Strasbourg, dans ses louanges et remerciements
adressés à sa collègue, résume parfaitement le rapport entre la direction d’université et
son observatoire. 1. Celui-ci remplit une mission-clé car il apporte les données
indispensables au pilotage stratégique (ce n’est pas un hasard si l’ORESIP est rattaché au
Service d’aide au pilotage), et ce d’amont (données pour l’orientation des lycéens, sur les
voeux des futurs bacheliers) en aval (données sur les trajectoires professionnelles des
diplômés), en passant par toutes les maillons d’une chaîne de qualité : accueil dans
l’université, connaissance des parcours de formation, évaluation des formations et des
enseignements, accompagnement vers l’emploi, réflexion sur l’offre de formation et
l’évolution des métiers.
2. L’observatoire est indispensable mais
ses travaux sont insuffisamment pris en
compte par les décideurs de l’université
et des composantes d’enseignement.
C’est, rappelle le Président Beretz, au
directeur de l’Observatoire de faire
pression, de rappeler sans cesse les
données, de proposer les points où porter
l’effort, où gagner des points de qualité, où
expérimenter de bonnes pratiques
observées ailleurs. La construction des
données et les actions à entreprendre
supposent des enquêtes, des interactions,
des contacts, des relations permanentes
avec un grand nombre de
partenaires. Partenaires ? Ils étaient
presque tous présents dans ces 6èmes journées.
Partenaires nationaux : Ministère de l’enseignement supérieur et de la recherche (Patrick
Hetzel, DGESIP, Jean-Richard Cytermann, DGRI), Agence d’évaluation de la recherche et de
l’enseignement supérieur (Michel Cormier, AERES), Conférence des présidents d’universié
(CPU, Simone Bonnafous). Partenaires locaux et régionaux : Rectorat (Claire Lovisi,
recteur), Services académiques d’information et d’orientation (Emmanuel Percq), Lycées
(Jean-Claude André, proviseur du lycée Marc Bloch), Région (Sophie Rohfritsch, viceprésidente Enseignement supérieur et recherche), Communauté urbaine de Strasbourg
(Catherine Trautmann, vice-présidente). Partenaires internes : Espace Avenir (chronique :
“le BAIP de Strasbourg“), composantes de formation (Jean-Alain Heraud, doyen de la Faculté
d’économie et de gestion). Par leur présence et leurs interventions, toutes et tous ont confirmé
la nécessité d’un Observatoire et loué la qualité des travaux de l’ORESIPE.
Mais qui manquait-il donc dans ces 6èmes journées ? Les données et analyses des
Observatoires sont indispensables pour le pilotage des universités par l’Etat, par les Régions,
par les équipes de direction des universités. Ne sont-elles pas aussi destinées à éclairer les
choix d’orientation des étudiants, le recrutement des diplômés par les entreprises ? Il ne faut
jamais oublier que les Observatoires doivent être aussi au service des usagers, des
clients. Pas de représentants des employeurs, pas de présidents d’associations d’anciens dans
les 6èmes journées. Dommage. Les Observatoires doivent communiquer, en toute
transparence, les résultats de leurs analyses. Le Président du réseau des Observatoires, Marc
Boudier, n’en est pas persuadé : chronique ”Insertion. Transparence !“.
Se pose donc la question de la direction des Observatoires. Dans une discussion en a parte
avec Annie Cheminat, nous constatons un accord sur le profil du directeur d’observatoire.
Je le résume ainsi. Le directeur d’un observatoire doit être un enseignant chevronné, être
persuadé de l’utilité des chiffres, avoir lui-même utilisé, dans les formations dans lesquelles il
enseigne, les données de l’observatoire et y avoir entrepris des démarches de progrès. Il doit
pouvoir discuter d’égal à égal avec le Président, pouvoir lui imposer la publication de
résultats de parcours de formation ou d’insertion professionnelle mauvais de manière
récurrente. Les ingénieurs d’études ou de recherche, indispensables pour assurer la qualité
des données, n’ont pas les moyens de jouer ce rôle politique ; laissés à eux-mêmes ou
seulement formellement sous la dépendance d’un vice-président, ils deviennent aigris
de constater que leurs travaux ne sont guère utilisés. Un directeur d’observatoire doit
travailler avec eux au quotidien, s’impliquer, y compris dans la rédaction des analyses. Ces
profils existent-ils dans les universités ? Certainement oui parmi les professeurs en fin de
carrière. Mais, dans un contexte financier, austérité financière de l’Etat et RCE obligeant,
contexte qui obligera à resserrer l’offre de formation, celle ou celui qui accepte la direction
d’un observatoire doit posséder un très grand sens du service public.
Mais revenons sur le parcours professionnel d’Annie Cheminat. Il n’est pas terminé car le
Président Beretz compte bien confier de nouvelles missions à un professeur émérite !
Professeur de chimie à l’université Louis Pasteur (ULP), puis à l’université de Strasbourg
réunifiée, Annie Cheminat est, depuis fort longtemps partisane de l’évaluation, source de
démarches de progrès conduisant à une qualité toujours plus élevée. De 1992 à 1999, elle est
vice-présidente à la formation initiale et continue de l’ULP.
Le 8 décembre 1999, Lionel Jospin étant Premier ministre et Claude Allègre encore Ministre
de Education nationale, de la recherche et de l’enseignement supérieur, Annie Cheminat est
nommée Recteur de l’académie de Nantes, mais, dès le 4 juillet 2002, le nouveau
gouvernement la remplace par Bernard Dubreuil. Annie Cheminat ne figure pas parmi ceux
qui sont Recteurs sous la gauche ou sous la droite (chronique : “Président Marois“). 2002
: deux nouvelles missions lui sont confiées, la direction de l’ORESIPE de l’université Louis
Pasteur et la participation au Comité national d’évaluation (CNE) ; elle en est membre ou
consultante jusqu’en 2006 (ici)…; fin 2006, le CNE est remplacé par l’AERES (cliquer ici).
Quelques interventions récentes d’Annie Cheminat, vice-présidente déléguée “Evaluation
et qualité”. Janvier 2010 : “L’université de Strasbourg à l’heure de l’autonomie” (cliquer
ici). Mars 2010 : “la mise en place d’une démarche qualité est devenue indispensable”
(cliquer ici), “démarche qualité, c’est-à-dire un ensemble de dispositifs et de pratiques qui
permettent d’attester de la qualité d’une formation en fonction de références, en l’occurrence
des “références et lignes directrices pour le management de la qualité dans l’espace européens
de l’enseignement supérieur”… ”Nous espérons que la charte pour le management de la
qualité des formations sera rédigée à la fin de l’année universitaire”. A suivre !
Merci, Annie Cheminat, et bon vent !
Réseaux d’anciens
Les 6èmes Journées nationales des OVE ne se sont guère focalisées sur les Associations
d’anciens, sur les liens qu’elles peuvent tisser avec les Observatoires, en amont, en cours
et en aval des enquêtes sur le devenir professionnel. Elles peuvent enrichir et actualiser le
fichier d’adresses aux fins d’obtenir de meilleurs taux de réponses (chronique : “Docteur “X”
wanted !“). Elles peuvent intervenir en cours d’enquêtes, en servant de relais d’information,
de relance, d’incitation à répondre. Elles peuvent utiliser les résultats des enquêtes pour peser
sur les évolutions de la formation par des interventions dans les conseils de perfectionnement.
Dans un autre ordre : l’association d’anciens peut être, elle-même, un des fruits de l’enquête.
Les universités, les observatoires, les responsables de formation, à l’instar de ce qui est
pratiqué par les “grandes écoles”, doivent-ils consacrer des moyens et du temps à la
création et au soutien des associations d’anciens ? J’ai été surpris, lors des journées, de
rencontrer un jeune contractuel de l’université de Picardie dont la mission était la création de
réseaux d’anciens et non celle de faire des enquêtes d’insertion. Autres universités qui ont
des réseaux d’anciens (”Alumni”) ou qui sont en train de les constituer : Paris 9
Dauphine, Paris 2 Panthéon Assas, Nice Sophia Antipolis, Nantes, Université de Technologie
de Troyes…
Pourquoi s’engager dans la voie des réseaux d’Alumni ? Le réseau est a priori paré de
toutes les qualités : il peut fournir des indications sur les trajectoires professionnelles d’un
maximum de diplômés, de diplômés bien plus anciens que ceux concernés par les enquêtes
habituelles ; il peut servir de lobby dans la négociation de la position du diplôme dans les
grilles de classification ; il peut être mobilisé dans le conseil de perfectionnement de la
formation, comme vivier de professionnels assurant des cours, accueillant des stagiaires et/ou
des apprentis, relayant aux futurs et aux jeunes diplômés les offres d’emplois de leur
entreprise. Enfin, en période de “vaches maigres”, il peut être le support d’une campagne
de “Fundraising” : de plus en plus d’universités créent des Fondations pour rechercher des
ressources autres que celles de l’Etat et des collectivités territoriales.
Les réseaux ont-ils toutes les qualités ? Sont-ils des vecteurs de l’insertion sur le marché
du travail des jeunes diplômés ? Oui, certainement, mais de manière limitée, tout au moins
pour ce qui concerne les diplômes universitaires. Toutes les enquêtes révèlent que le réseau de
relations est le moyen le plus utilisé et le plus efficace pour rechercher et trouver un emploi.
Mais elles n’indiquent pas le poids du réseau des anciens dans l’ensemble des réseaux de
relations familiaux et professionnels.
Les réseaux d’anciens, diplômés des Ecoles d’ingénieur, de management ou de commerce,
sont sans doute aussi nombreux que les Ecoles elles-mêmes. Un réseau de diplômés de licence
professionnelle est par définition plus nouveau : ce diplôme a à peine 10 ans. Celui des 200
diplômés de la licence professionnelle “Management des organisations de l’économie
sociale” (LP MOES), licence que j’ai dirigée avec Michel Abhervé, est né en 2008,
a ”hiberné, pour redémarrer aujourd’hui (réseau RESPROES) par la publication du premier
numéro de sa Lettre interne. Deux profils sont présentés : Mathias, consultant en intelligence
économique et stratégique, Sébastien, entrepreneur salarié de Coopaname, apiculteur et
animateur d’un rucher pédagogique. La convivialité renforce le réseau : prochain “Apéro”,
jeudi 24 juin à la Dame du Canton, Paris.
06 juin 2010 Publié Insertion professionnelle | Pas de commentaire » | Lien permanent |
Modifier
Enquête Masters 2007
Suite des chroniques sur les 6èmes Journées nationales des Observatoires de la Vie
Etudiante (OVE), organisées par RESOSUP, les 2, 3 et 4 juin 2010 à Strasbourg. Chroniques
précédentes : “Journées des OVE“, “L’OVE de Tours“, “Annie Cheminat et l’ORESIPE“,
“Réseaux d’anciens“. Les journées ont largement débattu de l’Enquête nationale sur le
devenir professionnel en 2010 des diplômés de Master en 2007, enquête aussi appelée
“DGESIP” et que je nomme, pour ma part, “Enquête Pécresse”.
Dans ma première chronique sur cette enquête (27 octobre 2009, “Insertion performante ?“),
j’écrivais : “Le dispositif d’enquêtes d’insertion, lancé par Valérie Pécresse et présenté sur le
site de son ministère, ne permettra ni de connaître vraiment l’insertion des diplômés, ni a
fortiori la performance des universités dans le champ (Valérie Pécresse ne dit d’ailleurs rien
du seuil de performance qui enclenchera le financement !). Il s’agit seulement d’une
opération de communication idéologique, de poudre aux yeux, de gaspillage d’argent
public“. Je critiquais le calendrier resserré de l’enquête, son mode d’exploitation en central,
son questionnaire en partie réducteur, son financement. Critique également à l’égard du choix
de la population : les diplômés 2007.
L’enquête s’est déroulée mieux que je ne croyais : à vrai dire, les universités n’ont pas eu le
choix, “enquête ministérielle oblige”. Patrick Hetzel dans son intervention à Strasbourg a
été fort content d’annoncer des taux de réponses satisfaisants : 64% en moyenne (plus de
72% dans 21 universités). En fait, l’enquête a pu se dérouler plutôt bien car elle a été limitée
aux seuls diplômés de master (à l’origine, elle devait concerner également les diplômés de
DUT et de Licence professionnelle), aux seuls diplômés français inscrits en formation initiale.
Les premiers résultats devraient être présentés à l’automne, Patrick Hetzel l’ayant
confirmé (chronique “Hetzel et l’insertion“)…
Ces résultats ne pourront sérieusement servir au pilotage de la performance des
universités par le ministère, au pilotage de l’offre de formation par celle-ci, à l’information et
orientation des futurs candidats aux masters. Quel dommage et que gâchis ! L’enquête a
été plutôt une réussite technique, grâce à l’implication professionnelle des OVE, mais elle
est un échec politique. Nous développerons cette analyse dans la prochaine chronique :
“Enquêtes, indicateurs de performance, pilotage stratégique et financement”.
Comment l’enquête a-t-elle été réalisée ? “Quel impact de la mise en oeuvre de l’enquête
DGESIP sur les observatoires” ? Résosup a présenté et commenté les résultats de son
enquête auprès de 82 observatoires (58 ont répondu) ; 19 avaient déjà réalisé une enquête sur
les diplômés 2007 (enquête à 18 mois), ce qui a “entraîné une diminution des taux de
réponse”. Réponses dans le n°4/1 de Résosup Info (juin 2010), non encore en ligne sur le site
et présentées en powerpoint le 4 juin : cliquer ici pour lire ces résultats (20 photos).
Impacts de l’enquête : recrutement de personnel et/ou recours aux heures supplémentaires
dans 40 structures sur 58, élargissement de la population enquêtée (35 cas), abandon d’autres
travaux prévus (18 cas), ajout de questions supplémentaires (15 cas), difficultés pour mettre
en forme le fichier à ”remonter au ministère” (19 cas). Près d’une cinquantaine de
commentaires concernant le questionnaire, le calendrier, l’implication de Résosup.
“En guise de conclusion … ou de futur” ? Un bilan plutôt sévère fait par le réseau. “Le
dispositif a été ressenti comme étant particulièrement lourd à gérer, fastidieux dans le codage
et recodage des variables et la mise en forme du fichier à remonter”… “Il a été mal vécu parce
qu’il manquait de pertinence par rapport à la problématique de l’insertion professionnelle,
qu’il a demandé une forte mobilisation afin de retrouver le maximum de “a-enqueter“… “Par
ailleurs, nous ne connaissons toujours pas le mode de calcul des indicateurs qu’utilisera le
MESR, ni à quelle fin”… “Quelles conséquences pour les établissements” ?… “Et quelle sera
la pérennité des fonds alloués pour la 1ère enquête” ? Comme l’a résumé Marc Boudier,
président de Résosup : “par cette enquête, les observatoires sont devenus des opérateurs
directs du ministère“. Evidemment, ce n’est pas leur rôle !
07 juin 2010
Observatoires en photos
Suite des chroniques sur les 6èmes Journées nationales des Observatoires, organisées par
RESOSUP, les 2, 3 et 4 juin 2010 à Strasbourg. Chroniques précédentes : “Journées des
OVE“, “L’OVE de Tours“, “Annie Cheminat et l’ORESIPE“, “Réseaux d’anciens“, “Enquête
Masters 2007“.
Observatoires de l’enseignement supérieur en photos. 70 photos des intervenants : cliquer
ici. 20 photos du powerpoint de l’enquête “Masters” : cliquer ici. 60 photos des
participants : cliquer ici.
08 juin 2010
Performance : 86% !
86% : ce pourcentage n’a pas été prononcé une seule fois au cours des Journées nationales
des Observatoires de l’enseignement supérieur, ni par Patrick Hetzel (chronique : “Hetzel.
L’insertion“), ni par Simone Bonnafous (CPU. Chronique : “Annie Cheminat.
L’ORESIPE“).
Etonnant car 86% c’est le niveau que doit atteindre l’indicateur de performance n°1.2
du Programme 150 de la Loi de finances pour 2010 (cliquer ici) ! 86% : taux de cadres et de
professions intermédiaires visé pour 2010 pour les titulaires de master, trois ans après leur
sortie de formation initiale, i.e. pour les titulaires de master obtenus en 2007. L’Enquête
Masters 2007 (cliquer ici) va-t-elle permettre de répondre à la question : les universités,
prises globalement, ont-elles atteint l’objectif de performance ? Lire aussi la chronique :
“PAP du PLF de la LOLF“.
J’ai déjà critiqué cet indicateur de performance (chronique “Insertion performante ?“)
pour 4 raisons. 1. L’objectif de 86% est en progression de 4 points par rapport à
l’observation de 2007 (diplômés de master 2004) : cette progression n’est nulle part
argumentée. 2. 86% agrège “cadres et professions intermédiaires” : si les universités
atteignent le taux global prescrit mais avec une progression du taux de professions
intermédiaires et une diminution du taux de cadres, on ne pourra pas dire qu’elles ont
amélioré leurs performances ! Regrouper “cadres et professions intermédiaires” masque
d’éventuels déclassements d’une partie significative des diplômés de master. 3. Le taux peut
avoir effectivement progressé pour les diplômés 2007 par rapport aux diplômés 2004 ; mais
qu’en sera-t-il pour les diplômés 2008 et 2009, les diplômés de la crise ? 4. 86% est un
taux moyen. Le taux obtenu par chaque université dépend de la situation du marché du travail
régional, de l’offre de formation, des caractéristiques de la population inscrite en master. Pour
comparer la performance de deux universités en matière d’insertion des masters, il faut
raisonner “toutes choses étant égales par ailleurs” : il semble que ce n’est plus prévu pour
l’enquête Masters 2007, alors que ça l’était à l’origine.
Alors, à quoi et à qui va donc servir cette enquête ? Dans la chronique d’hier, j’ai écrit :
“les résultats ne pourront sérieusement servir au pilotage de la performance des
universités par le ministère, au pilotage de l’offre de formation par celles-ci, à l’information et
orientation des futurs candidats aux masters. Quel dommage et quel gâchis” !
1. Bénéficiaires de l’enquête Master 2007 : Valérie Pécresse, Patrick Hetzel, le bureau de
la CPU. L’enquête a été réalisée dans des conditions techniques acceptables : chose
annoncée, chose réalisée ! Si la cible de 86% de cadres et de professions intermédiaires est
observée par l’enquête, nous assisterons à des embrassades générales. Le Parlement sera
content : “l’argent du programme 150 n’a pas été dépensé en vain”. La Ministre et son
Directeur général seront contents : “nos universités ont amélioré l’insertion de leurs
diplômés de 2004 à 2007″ ; ils seront donc confirmés dans leurs fonctions. Le bureau de la
CPU - trio constitué par le président et les deux vice-présidents - sera content et attendra sa
récompense de “soldat obéissant au chef” : une place de plus, ouverte dans un cabinet
ministériel. Autres bénéficiaires de l’enquête ? Personne d’autre !
2. Les résultats de l’enquête seront-ils utilisés pour financer les universités selon
leur performance observée ? Dit d’une autre manière : les résultats amélioreront-ils le
pilotage de l’offre de formation par le ministère ? Non ! Pour plusieurs raisons. 2.1. La
performance affichée par une université donnée en matière d’insertion de ses diplômés de
master ne pourra pas être interprétée rigoureusement. 2.2. Simone Bonnafous a annoncé à
Strasbourg - scoop ! -que le financement selon la performance en matière d’insertion était au moins temporairement - abandonné car l’indicateur retenu par la loi de finances ne faisait
pas consensus. Il est temps de s’en apercevoir alors que l’enquête a été réalisée ! Gâchis !
2.3. La vice-présidente de la CPU a fait état d’un autre indicateur de performance en
cours de discussion : financement selon les progrès réalisés entre le début et la fin du
quadriennal. Intéressant ! Serait performante - et financée comme telle - l’université qui
verrait, par exemple, le taux d’insertion de ses diplômés de master progresser de 80 à 83% au
cours de son contrat. Ce qui entraînerait immédiatement de nouvelles polémiques car les
universités classées par “vagues” ne commencent pas leur contrat en même temps.
Seraient favorisées les universités dont le contrat débute en période de forte crise de l’emploi
(contrats 2009-2012 et 2010-2013). Et pas de chances pour les universités des contrats 20072010 : c’est sûr que leur taux d’insertion des masters a dû décroître d’une date à l’autre !
2.4. L’existence de “vagues” contractuelles rend, de ce fait, inopérant tout indicateur de
financement selon la performance de l’insertion. 2.5. L’écart acceptable au taux moyen de
performance n’a jamais été discuté et annoncé : une université ayant obtenu 85% (en non 86)
serait-elle pénalisée financièrement ? 2.6. Le pilotage de l’offre de formation par la DGESIP
du ministère ne pourra s’appuyer sur cette enquête : les experts de l’AERES qui vont évaluer,
à partir de fin 2010, les propositions d’offre de formation des universités de la vague 20122015, disposeront certes des résultats de l’enquête DGESIP, mais ceux-ci ne seront
comparables ni d’une université à l’autre, ni dans le temps !
3. Les résultats de l’enquête nationale Masters 2007 renforceront-ils le pilotage de l’offre
de formation par les universités elles-mêmes ? Non ! 3.1. Les universités de la vague
2012-2015 sont en train de boucler leur offre de formation et de la faire valider par leurs
conseils, leur projet d’offre devant parvenir à l’AERES au plus tard le 15 octobre prochain.
Ces universités n’ont pu mobiliser les résultats de l’enquête “Pécresse”. Par contre, leurs
observatoires ont pu fournir des données d’enquêtes de devenir professionnel pour les
diplômés de l’université jusqu’à ceux de l’année 2007-2008. 3.2. Les universités de la vague
2013-2016 pourraient utiliser les données de cette “enquête Masters” pour faire évoluer et
rendre plus pertinente leur offre de formation. Mais il ne faut pas se moquer des
gens ! Mobiliser des donnés sur les diplômés 2007 pour penser une offre de formation 20132016 serait évidemment “n’importe quoi” ! 3.3. Rappel : l’enquête 2007 ne concerne que
les masters (et non le niveau bac+2 et bac+3) ; de plus, elle a exclu les étudiants étrangers et
ceux en formation continue. Concevoir l’offre de formation exige de prendre en compte tous
les diplômes et toute la population étudiante concernée. Gâchis que cette enquête nationale !
4. L’enquête nationale Masters 2007 améliorera-t-elle l’information et l’orientation des
candidats à tel ou tel master ? Encore une fois : Non ! L’étudiant qui s’informe sur une
formation de master souhaite des chiffres précis et rigoureux. L’étudiant plus exigeant encore
veut même connaître les emplois précis occupés par les anciens diplômés ; seuls des
répertoires d’emplois peuvent lui fournir les informations qu’il attend. L’enquête
nationale n’a jamais eu l’ambition de fournir et de valider des répertoires d’emplois diplôme
par diplôme. La plupart des Observatoires universitaires, mobilisés par l’enquête
DGESIP, ont eu l’intelligence d’élargir la population a-enqueter pour la rendre quasiexhaustive et d’ajouter des questions (intitulé précis de la fonction occupée, salaire
mensuel…). Mettront-ils leurs résultats en commun pour fournir des informations utile
et comparables aux candidats aux Masters ? Non ! Faute de moyens et de temps, faute
d’ambition du réseau “Résosup”, faute de volonté politique des présidents d’université…
Je suis partisan d’un financement partiel des universités selon leur performance : six
chroniques en témoignent sur mon blog d’EducPros (cliquer ici). L’enquête nationale sur les
diplômés de Master 2007 ne pourra pas être utilisée à cette fin : tous - ministère, présidents
d’université, responsables des observatoires - en conviennent aujourd’hui. A quoi donc aura
servi cette enquête ? En profiteront, pour leur trajectoire politique ou professionnelle à
venir, quelques personnes seulement. Gâchis économique car l’enquête aura coûté, en coûts
complets, environ une dizaine de millions d’euros ! Plus gravement, cette enquête aura
bousculé, une fois de plus, l’autonomie des universités : les observatoires l’ont vécue
comme une instrumentalisation de leur rôle. Gâchis politique !
Et n’oublions pas que le pire est toujours possible. L’enquête CEREQ “Génération
2007″ est en cours : des diplômés de l’enquête Masters 2007 ont été interviewés par leur
observatoire en 2009, à nouveau par leur observatoire en 2010 (enquête DGESIP), et, avec un
peu de chance-malchance, ils l’ont été par l’enquête CEREQ. Chroniques : “Génération
2007“, “Diriger le CEREQ“. Mais au moins le CEREQ n’a jamais prétendu que son enquête
était un outil de pilotage de l’offre de formation !
Que faire ? Pour piloter l’offre de formation, le ministère, les experts de l’AERES, les
présidents d’université, les responsables de formation ont besoin d’outils rigoureux, de
résultats d’enquêtes reproduits dans la durée. L’objectif demeure et est incontournable ! Je
pense que la seule solution est de repenser totalement le système de collecte des
informations pertinentes, de pratiquer en actes la subsidiarité (ce que fait mieux le
ministère, ce que font mieux les observatoires). Il faux deux niveaux de collecte, d’agrégation,
de traitement des données. J’estime que le dispositif italien AlmaLaurea remplit cet
objectif. Je vais donc y revenir dans une prochaine chronique, même si, de nouveau, je vais
m’attirer l’hostilité des responsables du réseau Résosup.
08 juin 2010
Labelliser les OVE ?
Lors des 6èmes journées nationales des Observatoires à Strasbourg (chroniques précédentes),
la question de la labellisation des OVE a été évoquée par plusieurs responsables. Un
label serait accordé aux Observatoires réalisant des travaux de qualité et pouvant, en
retour, bénéficier de moyens additionnels. Pour plus d’informations sur les moyens
mobilisés par les enquêtes, lire la chronique “Enquête Masters 2007“.
La labellisation n’est plus à l’ordre du jour, au grand dam, sans doute, du réseau Résosup.
Les observatoires se sont également inquiétés des moyens à venir. Y aura-t-il, en 2011, une
enquête sur les diplômés de “Masters” obtenus en 2008 ? Les moyens financiers accordés en
2010 (700.000 euros) seront-ils reconduits en 2011 ? Le directeur de la DGESIP, Patrick
Hetzel, n’a pas répondu à ces questions. Mais, affirmant que les fonds de roulement des
universités avaient significativement progressé, il a voulu dire : celles-ci ne manquent pas
de moyens ! Donc : pas de financement pour une enquête 2011.
Deux jours plus tard, les mêmes questions ont été posées à Simone Bonnafous, viceprésidente de la la CPU. Sa réponse n’a pas été différente : le budget de l’enseignement
supérieur ne sera plus sanctuarisé à partir de 2012 (ou 2011 ?). Lui sera appliquée la règle
du non-remplacement d’un fonctionnaire sur deux partant en retraite. Dans le cadre de ses
responsabilités et compétences élargies (RCE), chaque université doit fixer des priorités,
procéder à des arbitrages, à des redéploiements de postes.
Bref, les Observatoires ont mangé leur pain blanc. Le MESR ne leur attribuera plus de
postes et de moyens. Fini le temps, initié avec la contractualisation de la fin des années 80, où
le ministère affectait aux OVE des moyens “fléchés” ; cette politique s’est poursuivie avec les
appels d’offres pour la création de plates-formes d’insertion professionnelle (2006-2007), les
Schémas directeurs de l’insertion professionnelle et la création des BAIP (2008), l’enquête
“Masters 2007″. L’OVE qui veut des moyens plus importants doit les négocier avec la
direction de son université ; d’où l’importance d’avoir un professeur chevronné à la tête de
l’observatoire et non un jeune ingénieur d’études nouvellement recruté (chronique : “Annie
Cheminat. L’ORESIPE“). L’observatoire peut, évidemment, tenter de rechercher des
ressources additionnelles auprès des collectivités territoriales…
Labelliser les OVE, les doter de moyens pertinents mais toujours insuffisants, est-ce encore
opportun ? Autrement dit, les OVE ont-ils un avenir devant eux ? La réponse est “oui”,
car, en France, il est exceptionnel de fermer une structure même si elle n’a plus de missions
réelles. La réponse pourrait être “non”, si les OVE perdaient leur mission de collecte et
d’analyse de données, d’enquêtes. Les personnels des OVE seraient alors “redéployés” vers
les BAIP (missions d’accompagnement des étudiants vers l’emploi) et/ou vers les cellules
d’aide au pilotage.
Si la logique de la performance perdure au niveau de l’Etat et dans les universités (et rien
n’indique qu’elle ne va pas perdurer !), il faudra bien un jour avoir des indicateurs plus
robustes et plus fins que ceux actuellement retenus dans le programme 150 du
budget (chronique “Performance : 86% !“). Il faudra surtout des indicateurs permettant des
comparaisons rigoureuses entre les performances des diverses universités.
Discutant jeudi dernier avec Claude Thélot, ancien directeur de la DEP, des évolutions de la
statistique publique dans le champ de l’éducation, nous nous sommes trouvés d’accord sur
un grand nombre de points, dont celui de la répartition des tâches entre le national (DEPP
et service statistique de la DGESIP) et le local (observatoires). Les suivis de cohortes
(devenir des entrants en première année de licence et calcul du taux d’obtention de la licence
en 3 ans ou davantage), et les enquêtes sur les devenirs professionnels des diplômés doivent
être pris directement en charge par le niveau national et non plus par les Observatoires. Seul
le “national” est à même de contextualiser les résultats bruts obtenus, de calculer
les valeurs ajoutées (”toutes choses étant égales par ailleurs”), de reproduire ce type de
travail chaque année pour une nouvelle “cohorte d’entrants” et une nouvelle “cohorte de
sortants”.
Pour que ce nouveau dispositif de répartition des tâches entre le national et le local tiennne la
route dans la durée et soit acceptable, le national devra transmettre au “local” toutes les
données ”contextualisées” de l’établissement, pour que celles-ci puissent être mobilisées
pour le pilotage stratégique et pour l’information des usagers.
13 juin 2010

Documents pareils