WP12 RapportPISA Belgium Educ VF
Transcription
WP12 RapportPISA Belgium Educ VF
Réception, usage et circulation au niveau national d’un instrument supranational de régulation basé sur la connaissance : les enquêtes PISA Le cas de la Communauté française de Belgique B. Cattonar, E. Mangez, B. Delvaux, C. Mangez, C. Maroy Cerisis - Girsef UCL Project KNOWandPOL Orientation 3 WP 12 www.knowandpol.eu March 2009 Project n° 0288848-2 co funded by the European Commission within the Sixth Framework Program Table des matières Table des matières 1. Le contexte, le cadre d’analyse et la méthode Eric Mangez 6 1.1 Le contexte : les enquêtes PISA et la politique éducative en Communauté française de Belgique 1.1.1 Contexte et culture dans une histoire longue 1.1.2 Transformations récentes 6 7 10 1.2 Cadre conceptuel de la recherche 11 1.3 Méthodologie et sources des données 13 2. L’histoire, la carte sociale et la structure organisationnelle de PISA Eric Mangez et Branka Cattonar 15 2.1 Le réseau organisationnel au niveau national : l’instrument et ses acteurs 2.1.1 Le Centre national de recherche et le National Project Manager 2.1.2 Les acteurs nationaux impliqués 15 16 22 2.2 La décision de participer au programme Pisa 2.2.1 Les personnes et le lieu de la décision de participer aux enquêtes PISA 2.2.2 Le manque de données au niveau national comme facteur favorable à l’acception de PISA 2.2.3 La participation au projet 26 26 27 29 3. PISA, savoir et pouvoir Branka Cattonar 31 3.1 Les rapports PISA nationaux 3.1.1 Les supports à la diffusion officielle des résultats de la CFB à PISA 3.1.2 Les rapports PISA et le débat public en éducation 31 32 36 3.2 Le débat sur PISA 3.2.1 L’ampleur, les acteurs et les objets du débat 3.2.2 Le débat sur l’instrument PISA 3.2.3 Le débat sur l’orientation idéologique de PISA 3.2.4 Le débat sur l’utilité et la pertinence politiques de PISA 3.2.5 Les débats sur l’interprétation des résultats de PISA et ses « leçons » 50 50 53 56 58 64 3.3 PISA et la fabrication politique en éducation 3.3.1 PISA dans le débat politique en éducation 3.3.2 PISA comme source de légitimité pour les politiques 3.3.3 PISA comme modèle pour la production d’autres outils de régulation basés sur la connaissance 3.3.4 L’usage et les effets de PISA sur la politique éducative 81 81 86 95 96 4. Transformation des données en connaissances et en arguments Bernard Delvaux 4.1 Les acteurs 4.1.1 Sept groupes d’acteurs 100 102 102 2 Table des matières 4.1.2 4.1.3 4.1.4 5. Acteur prédominant Acteurs présents Acteurs absents 104 105 106 4.2 Transformation des données en connaissances 4.2.1 Comparer / classer 4.2.2 Associer / expliquer 107 109 122 4.3 Transformation des connaissances en arguments 4.3.1 Enoncer des problèmes 4.3.2 Enoncer des préconisations 129 130 134 4.4 Processus de transformation et action publique 4.4.1 Sélection et auto-élection des acteurs traitant les données 4.4.2 Processus de transformation et d’estompement 4.4.3 Classer davantage qu’expliquer énoncer des problèmes davantage que des préconisations 4.4.4 Thèmes des analyses et orientation du débat politique 4.4.5 Reconfiguration partielle de la circulation des connaissances 139 140 142 143 145 146 4.5 147 Conclusion : légitimité renforcée ou début d’interrogation ? Conclusion 151 Le contexte et l’instrument 151 PISA dans l’espace public 154 Des orientations pédagogiques et curriculaires 156 Un espace européen de l’éducation … 157 La force propre de l’instrument 158 6. Bibliographie 160 7. Signification des acronymes et sigles utilisés 162 8. Annexes 163 8.1 Annexe 1 : La liste des entretiens réalisés 163 8.2 Annexe 2 : La liste des supports à la diffusion officielle des enquêtes PISA en CFB (rapports nationaux et autres documents) 164 8.3 203 Annexe 3 : Sources de l’analyse documentaire (partie 3 du rapport) 8.4 Annexe 4 : La liste des publications analysés dans la partie 4 du rapport (travaux d’analyse des données PISA en Communauté française) 207 3 Plan du rapport Les auteurs remercient vivement les nombreuses personnes qui ont bien voulu, à titre de témoins ou de protagonistes, leur livrer leur vision et partager leurs informations. Leur apport est inestimable et a constitué une source décisive dans l’élaboration de ce rapport. 4 Plan du rapport Le rapport est organisé de la manière suivante. Nous commencerons, dans une introduction générale, par poser les repères nécessaires à la compréhension du contexte belge. Ce sera également l’occasion de définir un cadre conceptuel ouvert pour organiser l’analyse du rôle d’un instrument comme PISA dans différents contextes nationaux. Nous fournirons ensuite les informations relatives à notre méthode de travail et aux matériaux investigués. Dans une seconde partie, nous identifierons les principaux acteurs qui gravitent autour de l’instrument, en distinguant ceux qui jouent un rôle central de ceux qui restent à la périphérie du dispositif. Une attention particulière sera accordée aux acteurs du « centre national » à partir duquel les enquêtes PISA sont pilotées en Communauté française de Belgique (CFB). C’est également dans ce point que nous détaillerons les circonstances qui ont présidé à la décision d’« entrer » dans le dispositif. La partie suivante, qui constitue le cœur du rapport, sera consacrée à l’analyse empirique de différents aspects liés aux enquêtes PISA. L’analyse se dirigera d’abord vers les rapports nationaux, sur leur diffusion et leur réception. Un second point important sera centré sur les débats qui ont fait suite aux enquêtes PISA. Au-delà des divergences de vues quant à l’interprétation des résultats par différents acteurs porteurs d’intérêts divergents, on mettra aussi en évidence une relative convergence dans le mode d’utilisation des enquêtes PISA et le cadre mental mobilisé pour penser les questions d’éducation. Une partie spécifique sera ensuite consacrée aux usages que certains acteurs ont fait des bases de données PISA. On soulignera que leur nombre n’est guère élevé et que ceux qui ont exploité ces données de la manière la plus intensive occupent une position spécifique sur l’échiquier institutionnel et politique belge. Enfin, dans une dernière partie, conclusive et synthétique, nous tenterons de donner sens aux observations accumulées et de rassembler les efforts d’analyse situés en différents endroits du rapport. *** 5 1. Le contexte, le cadre d’analyse et la méthode 1. Le contexte, le cadre d’analyse et la méthode Par Eric Mangez 1.1 Le contexte : les enquêtes PISA et la politique éducative en Communauté française de Belgique Pour saisir les relations entre connaissance et action publique dans le contexte belge, comme ailleurs, il est essentiel de prendre en compte la culture politique propre au contexte en question. Il est évident que l’on ne fabrique pas des politiques publiques de la même manière dans tous les pays européens. On montrera par exemple que, de plusieurs points de vue, la manière de construire des politiques publiques en Belgique est diamétralement opposée à la manière de procéder en France. Ces formes et ces modalités différentes de policy-making doivent être pleinement prises en compte pour l’analyse d’un instrument tel que PISA et du rôle qu’il est amené à jouer dans tel ou tel contexte national. L’instrument PISA est en effet pensé par ses concepteurs comme un outil d’aide à la décision politique. L’OCDE définit en effet PISA comme un outil qui « identifie les points faibles et les points forts » des systèmes éducatifs (OCDE, 2001, p. 30) et comme un « instrument de régulation » qui vise à « aider les pays à mieux comprendre les processus qui déterminent la qualité et l’équité des résultats de l’apprentissage dans les contextes éducatifs, sociaux et culturels des systèmes d’éducation » (OCDE, 2004, p. 10), qui doit « permettre aux gouvernements de tirer des enseignements politiques des résultats » (OCDE, 2004, p. 7), et qui « fournit une large évaluation (…) (pour) à la fois orienter les décisions politiques et l’affectation des ressources » (OCDE, 2001, p. 29). PISA est sous-tendu par une certaine représentation de la manière de concevoir des politiques publiques et d’organiser les rapports entre gouvernants et gouvernés (Lascousmes et Le gales 2004). Or, si la décision politique se construit selon des modalités différentes en fonction des pays, alors il est clair que la manière dont PISA peut être reçu et utilisé doit connaitre des variations entre pays. L’hypothèse selon laquelle l’usage qui est fait de PISA dépend en partie de la culture et du contexte politique doit alors être posée. Plus généralement, il s’agit simplement de rappeler qu’on ne peut comprendre l’usage fait de tel ou tel instrument si on ne saisit pas le contexte de cet usage, c’est-à-dire l’ensemble des conditions sociales et politiques de cet usage. Cette première section a dès lors pour objectif de documenter la spécificité du contexte 6 1. Le contexte, le cadre d’analyse et la méthode et de la culture politique belge, d’abord en les situant dans une histoire longue, puis en identifiant des changements récents. Il ne s’agit pas de procéder à une description méthodique des institutions politiques qui composent le paysage belge (francophone), mais plutôt de faire sentir quelle est la culture politique, c’est-à-dire quelles sont les manières de faire, les habitudes, voire les habitus politiques qui s’y développent : comment construit-on des politiques publiques en Belgique ? On prendra par moment la France comme point de référence dans le but de souligner les différences entre les deux pays et de mettre ainsi en évidence les caractéristiques fondamentales relatives au contexte belge. On doit souligner que la culture politique belge, et avec elle certaines institutions, est en train de se transformer. Ainsi, par exemple, l’Etat consolide quelque peu sa position et tend à encourager une certaine accumulation d’expertise au sein de ses administrations ou au travers de relations plus étroites avec le monde de la recherche (dans le domaine de la santé comme dans le secteur de l’éducation). Ces éléments, qui vont à l’encontre des caractéristiques traditionnelles de la Belgique, ne sont ni aboutis ni complets. Par ailleurs, les transformations à l’œuvre ne dessinent pas une rupture nette avec l’histoire : elles se situent dans une forme de continuité et de réinvention. Il n’est dès lors pas possible de les comprendre sans les situer relativement aux traits marquants de la culture politique belge. On commencera dès lors par là. 1.1.1 Contexte et culture dans une histoire longue Depuis 1988, la Belgique est un Etat fédéral. On y distingue des communautés linguistiques et des régions. Mais sa culture politique ne vient pas de là, spécifiquement. Elle s’est constituée dans une histoire beaucoup plus longue. Une des principales conditions de possibilité de la Belgique comme Etat-Nation a consisté en la construction, en 1830, d’un accord fondamental entre deux communautés sociologiques, l’une laïque, l’autre catholique, qui n’acceptent de vivre ensemble qu’à la condition de se voir accorder un certain nombre de libertés pour organiser leur propre vie collective (dont la liberté d’enseignement). Ceci constitue un acte fondateur qui établit les bases d’une relation spécifique entre, d’une part, l’Etat (les pouvoirs publics), et d’autre part, une société au sein de laquelle cohabitent différentes communautés. Chacune de ces communautés s’est effectivement organisée et, dans une diversité de secteurs (santé, éducation, loisirs, mutualités, assurances, banques, politiques familiales,…), la Belgique s’est structurée, progressivement, autour de différents piliers. S’il est évident que ces derniers ont perdu une partie de leur solidité institutionnelle, s’il est évident également qu’on assiste à une forme de dissociation entre les organisations propres aux piliers et leurs bases sociologiques, il n’en demeure pas moins qu’ils ont donné une certaine épaisseur et une certaine consistance à la culture politique belge. 7 1. Le contexte, le cadre d’analyse et la méthode Rapport Etat / Société Historiquement, cette culture s’est construite sur le principe selon lequel il faut trouver des manières d’agir qui permettent à des groupes différents de vivre ensemble tout en préservant, au moins en partie, leur autonomie d’existence collective. Ces manières d’agir qui permettent le vivre ensemble dans une société segmentée sont, par exemple, le scrutin proportionnel (plutôt que majoritaire), l’octroi et le maintien d’une certaine autonomie aux acteurs collectifs organisés (notamment au travers de libertés constitutionnelles), le financement par les pouvoirs publics des activités organisées par ces collectifs lorsqu’elles sont considérées d’utilité publique (selon le principe de la liberté subsidiée). On peut ainsi comprendre que les pouvoirs publics belges définissent leur relation avec la société civile organisée comme une relation de « complémentarité ». Cette manière de poser les relations entre l’Etat et la société, qui est diamétralement opposée au modèle français, doit être prise en compte dans l’analyse des rapports entre connaissance et politique. La cohabitation démocratique de différentes communautés, sur un même territoire, ne peut se réaliser qu’à certaines conditions, qui sont celles de la démocratie consociative (Lijphart, 1979). La construction des politiques publiques dans ce type de démocratie se caractérise en effet par différents traits, que les spécialistes de la vie politique belge ont bien identifiés : (1) En général, l’Etat – ou plus largement, les pouvoirs publics - est relativement faible et « mis en position de subordination par rapport à [la] société civile organisée » (De Munck, 2002) ; (2) Les savoirs pertinents dans la plupart des secteurs de l’action publique ne se situent pas dans les administrations officielles de l’Etat (De Munck, 2002) ; (3) L’autonomie segmentaire des acteurs organisés est importante et prévaut à défaut d’accords intersegmentaires (Seilier, 1997) ; (4) Les politiques publiques se construisent du « bas vers le haut » au travers la fabrication de compromis intersegmentaires par les acteurs institués (Dumont et Delgrange, 2008). La caractéristique essentielle de ce type de modèle démocratique est la place accordée aux acteurs organisés situés « entre » les pouvoirs publics et les citoyens individuels. Dans un article récent, Dumont et Delgrange synthétisent bien certains aspects du modèle de démocratie à l’œuvre en Belgique, notamment en soulignant le contraste entre la France et la Belgique. « (…) le modèle de constitution de la culture politique démocratique propre au républicanisme français est "monoculturaliste" : il est conçu selon un mouvement "déterminant" qui "procède du haut vers le bas, de 8 1. Le contexte, le cadre d’analyse et la méthode l’État vers la société, de la politique vers la culture". En Belgique, même si la loi est formellement un acte unilatéral, elle est plus souvent présentée comme le fruit d’un accord contractuel entre des groupements. Au lieu de partir de l’État pour descendre dans la société, la culture politique s’y construit à partir du bas, de la pluralité des traditions religieuses, idéologiques et régionales, pour remonter vers le politique et l’État. En effet, même si les sources supérieures du droit public, en Belgique comme ailleurs, sont toutes marquées du sceau de l’unilatéralité, la réalité sociopolitique du système belge de la décision publique est caractérisée de manière massive par la logique de la négociation et du compromis. » (Dumont et Delgrange, 2008 : 82-83) Les mêmes auteurs précisent que dans le contexte belge, « les autorités publiques doivent intervenir de manière positive pour aider les diverses tendances idéologiques et philosophiques représentatives à développer leurs activités d’utilité publique, et les associer à l’élaboration des politiques et à la gestion des services publics relevant de leur domaine d’intervention » (Dumont, Delgange, 2008)1. « Contrairement à la « démocratie compétitive » où les décisions peuvent être prises unilatéralement par la majorité sans grand danger pour la stabilité du système parce que la culture politique y est assez homogène, la « démocratie consociative» adopte régulièrement le principe de proportionnalité. Pour conjurer la fragmentation de la culture politique, les minorités sont introduites dans le processus décisionnel lui-même, chaque camp étant représenté dans les institutions proportionnellement à sa force électorale. Les décisions sont alors le fruit de compromis patiemment négociés. » (Dumont et Delgange, 2008 : 83) S’il est vrai que la culture politique suit des chemins si différents selon que l’on se situe dans un contexte ou un autre (en France ou en Belgique, par exemple), on peut et on doit penser qu’y introduire un instrument tel que PISA génère des effets potentiellement différents. Cette hypothèse doit en tous cas être posée. Le principe même qui consiste à accorder non seulement une reconnaissance mais aussi une certaine autonomie d’action à différents acteurs sur un même territoire a des implications, en particulier en ce qui concerne le rapport entre politiques publiques et connaissances. La place des savoirs Il nous semble que la manière belge d’organiser une forme de cohabitation pacifique entre groupes va de pair avec un principe de discrétion. Cette nécessité de discrétion ne doit pas être entendue comme une forme de frilosité à l’égard de la « divulgation » de connaissances qui, en tant que telles, mettraient qui que ce soit en péril. Il s’agit plutôt d’une habitude ; on pourrait presque dire qu’il s’agit, dans le contexte consociatif, d’une forme de courtoisie, de prudence ou de diplomatie, qui est porteuse d’une utilité politique fondamentale, à la fois en acte et en puissance : elle met en acte l’autonomie segmentaire et, en même temps, elle pose en puissance le compromis inter segmentaire. La notion de discrétion s’entend alors au double sens du terme : il s’agit à la fois de laisser un certain nombre de choix à la discrétion des acteurs organisés (ce qui garantit leur autonomie en pratique), mais aussi de maintenir une certaine discrétion au sens où on ne se mêle pas des affaires de son voisin (ce qui rend le compromis possible en puissance). 1 C’est nous qui soulignons. 9 1. Le contexte, le cadre d’analyse et la méthode C’est dans la même ligne d’idée que Varone et Jacob (2004) indiquent que « l’évaluation aurait ainsi tendance à être plus institutionnalisée dans les démocraties majoritaires (soit le modèle de Westminster ou un régime présidentiel) que dans les démocraties dites de consensus, de négociation ou de concordance ». Le développement de l’évaluation des politiques publiques se réalise plus lentement et plus difficilement au sein des démocraties consociatives, notamment parce qu’un tel développement risque de nuire à l’autonomie des différents acteurs et parce qu’elle n’est pas perçue comme un élément nécessaire à la construction de compromis. Au sein d’une démocratie consociative, dans le travail de construction de politiques publiques, il ne s’agit pas tant de « trancher » entre des alternatives que d’ « assembler » et de mettre ensemble des idées et des intérêts parfois contradictoires. Si la mobilisation de connaissances objectivées n’est pas en soi nécessairement contradictoire avec cette culture politique, elle ne parait pas non plus s’y inscrire avec la force de la nécessité. Ces différents éléments doivent nous aider à comprendre pourquoi les acteurs politiques belges (« politique » au sens large du terme) font un usage limité des données issues de PISA. En effet, la maîtrise fine et complète de données statistiques ne constitue pas un ingrédient fondamental dans la construction des politiques : ces dernières sont presque nécessairement le résultat de transactions, de compromis, « d’arrangements » qui ne se réalisent pas en fonction d’une rationalité objectivante, mais bien en fonction d’une capacité et d’une habileté à générer des compromis que « l’évidence » de données objectivées ne favorisent pas nécessairement. La nécessité de satisfaire des intérêts différents, éventuellement divergents, peut se faire au prix de la cohérence. 1.1.2 Transformations récentes Historiquement, c’est dans le secteur de l’éducation que le modèle consociatif s’est maintenu avec le plus de force. Dans le secteur de l’éducation, l’autonomie des réseaux (publics ou privés) n’a guère favorisé l’accumulation de données à propos de l’ensemble du système. On peut ainsi penser que les démocraties consociatives ne constituent pas des terrains très favorables au développement de l’evidence based policy. Dès la première moitié des années 1990, plusieurs acteurs, dont l’OCDE, ont d’ailleurs souligné le déficit d’évaluation et de pilotage du système éducatif belge (on doit souligner que le terme de pilotage est lui-même implicitement mais fermement inscrit dans le modèle de l’evidence based policy en ce qu’il présuppose que gouverner, c’est piloter et que tout pilotage nécessite une évaluation). Depuis la seconde moitié des années 1990, le système éducatif est marqué par des transformations significatives. On assiste ainsi à un relatif affaiblissement de l’autonomie segmentaire, à une intensification du compromis intersegmentaire et à une consolidation du rôle de l’Etat. Ces trois transformations d’équilibres sont bien entendu liées entre 10 1. Le contexte, le cadre d’analyse et la méthode elles : c’est dans une certaine mesure le compromis intersegmentaire qui permet l’affaiblissement de l’autonomie segmentaire. Ces transformations résultent et expriment en partie un changement de paradigme qui définit l’action éducative en termes de résultats mesurables (plutôt qu’en termes de valeurs) et qui attribue à l’Etat un rôle de pilotage et d’évaluation. Il importe cependant de souligner que l’Etat et les espaces de décisions au sein de ses administrations se constituent d’une manière spécifique à la Belgique durant les années 1990. Ainsi par exemple, s’il existe bien une commission de pilotage en CFB, celle-ci est constituée de représentants des différents « acteurs de l’enseignement » (l’administration de la CFB, les réseaux, les syndicats, les associations de parents des différents réseaux, etc.). Cette manière de gouverner, en mettant en place des « commissions », des « conseils », des « comités », des « groupes de travail » composés des représentants des différents intérêts est typique des démocraties consociatives : il s’agit de construire des espaces de concertation où des compromis intersegmentaires peuvent se tisser. 1.2 Cadre conceptuel de la recherche Le cadre conceptuel de notre travail à propos de l’enquête PISA (son déploiement, ses usages, ses effets) dans le contexte belge s’inscrit dans une démarche de recherche plus vaste qui interroge le rapport entre connaissance et action publique. Le cadre d’analyse accorde une attention spécifique au contexte politique et institutionnel : on ne peut pas comprendre l’inscription des enquêtes PISA dans un contexte donné sans saisir les différents acteurs institutionnels qui y agissent, de même que l’histoire et la structure des relations qui les lient. La signification sociale et politique d’un instrument comme PISA se construit dans un contexte, au sein d’une histoire et en fonction de cette histoire, histoire qui peut elle-même s’en trouvée modifiée. On considère cependant également que les instruments de politique publique sont aussi porteurs d’une certaine manière d’organiser les rapports entre acteurs (gouvernants, acteurs organisés, gouvernés, usagers,…) et de concevoir le monde dans lequel ils interagissent. Leur forme, leur mode de fonctionnement, leur rationalité propre résultent de rapports sociaux, en même temps qu’ils en sont les dépositaires : ils promeuvent implicitement une certaine manière d’organiser l’action des acteurs et leurs interactions. Les instruments de l’Etat évaluateur ne sont pas ceux de l’Etat pourvoyeur de services. Cette proposition étend la position théorique de Lascousmes et Le Gales (2005) qui conçoivent les instruments comme véhicules d’une relation entre gouvernants et gouvernés. En étendant la proposition à d’autres acteurs (acteurs organisés, usagers,…), 11 1. Le contexte, le cadre d’analyse et la méthode nous la complexifions et nous l’ajustons à des contextes autres que celui de la France. Ainsi conçus, les instruments contribuent à instituer des systèmes de relation entre acteurs. Ils agencent des acteurs et définissent des formes de relations entre eux. Comme on l’a laissé entendre, il ne faut cependant pas attribuer théoriquement trop de pouvoir aux instruments. Si ces derniers ne sont jamais neutres, ils n’ont pas le pouvoir de redéfinir le monde. S’ils portent en eux une manière d’organiser le monde, cette dernière n’est là qu’en puissance : les instruments s’inscrivent en effet toujours dans un contexte, lui-même inscrit dans une histoire. Le cadre conceptuel conçu pour étudier le rôle et la place de PISA consiste donc à penser ce rôle comme le résultat d’une rencontre entre un contexte (marqué par une histoire et où existe un système de relations entre acteurs) et un instrument qui véhicule une rationalité propre. Les éléments du contexte de la Belgique francophone ont été présentés dans la première section de ce rapport : on avait suggéré que les modalités consociatives de construction des politiques publiques ne s’accommodaient pas nécessairement aisément au modèle de l’evidence based policy. Ce modèle a été élaboré dans des contextes différents, principalement anglo-saxons, marqués par une dynamique de démocratie compétitive. Il est en partie l’expression de ce type de contexte. PISA fait partie de cette dynamique de l’evidence based policy. PISA est un instrument de mesure, dont l’unité d’observation est nationale. A l’évidence, il présuppose que les pays sont comparables et qu’il existe un outil capable de procéder à la comparaison, c’est-à-dire d’étalonner les systèmes éducatifs nationaux (en fonction de différentes dimensions). En définissant des étalons communs, il situe les pays dans un espace commun et le constitue comme un espace de comparaison. On peut ainsi noter qu’il ne s’agit pas d’un instrument construit pour rendre des services, mais plutôt pour évaluer la qualité de services rendus et les comparer. En ce sens, il n’appartient pas à la famille des instruments de l’Etat-Providence mais s’apparente plutôt aux dispositifs de l’Etat évaluateur. Encore faut-il ajouter qu’il n’appartient pas véritablement à l’Etat, mais bien à une agence intergouvernementale. S’il est évident qu’en soi, des données ne produisent pas d’effet et que tout dépend de l’usage que les acteurs en font, on peut cependant considérer que, dans une mesure certes limitée, les données elles-mêmes prédéfinissent les usages qui peuvent potentiellement en être fait ; elles invitent les acteurs à en faire certains usages. Les données générées par les enquêtes PISA se présentent surtout sous la forme de mesures de grandeur attribuées à des Etats nations. De telles données sont susceptibles d’amener les acteurs à se mesurer les uns aux autres, à se comparer, à s’évaluer, à se classer. Elles rendent en tous cas possible la comparaison et le classement. 12 1. Le contexte, le cadre d’analyse et la méthode 1.3 Méthodologie et sources des données Les principales sources de données de notre analyse sont des entretiens et des documents. Il est par ailleurs évident que notre propre connaissance du terrain de l’éducation dans notre contexte national participe à l’intelligibilité que nous avons tenté de construire à propos de la place qu’y occupe un dispositif comme les enquêtes PISA. Des entretiens ont été réalisés avec un échantillon d’acteurs déterminé en fonction du contexte belge et de la localisation du centre de management de l’instrument. De manière à reconstituer l’histoire, nous avons également rencontré les acteurs qui ne sont plus actifs aujourd’hui mais qui l’ont été à certains moments cruciaux de l’histoire. La liste des acteurs interviewés figure en annexe (annexe 1). Nous avons également procédé à l’analyse de documents issus de différentes sources : l’OCDE, l’administration et le Centre national de PISA (le SPE à l’Université de Liège) (pour tout ce qui concerne les rapports internationaux et nationaux), le Parlement de la CFB, la presse et les chercheurs. Dans tous les cas, on a veillé à rapporter l’analyse des prises de position qui se dégageaient des discours aux positions occupées par les acteurs impliqués. Les discours sont nécessairement toujours situés dans un espace social : ils se construisent à partir d’un « point de vue » qu’il convient de prendre en compte pour rendre compte de leurs contenus. Les documents pris en compte sont les suivants : - l’ensemble des rapports nationaux et internationaux directement liés à l’enquête, c’est-à-dire les rapports publiés par l’OCDE, les rapports nationaux issus de l’administration et les rapports nationaux publiés par le Centre national de PISA (le SPE à l’Université de Liège) (voir la liste à l’annexe 2) ; - les retranscriptions de débats parlementaires (voir la liste à l’annexe 3). La sélection des documents parlementaires s’est réalisée de la manière suivante. Nous nous sommes concentrés sur les débats parlementaires de la session parlementaire (septembre à septembre) faisant suite à la publication de chaque enquête PISA. Parmi l’ensemble des documents parlementaires, nous avons opéré une recherche par mots clés (« PISA » ou « OCDE »), ce qui a permis de constituer un corpus de documents parlementaires sur lequel nous avons réalisé une analyse de contenu ; - les articles de la presse quotidienne. Pour constituer notre corpus, nous avons sélectionné tous les articles qui faisaient référence à PISA pendant les trois mois suivant la diffusion officielle des résultats de PISA. Lors de l’analyse des articles de presse, nous avons été attentifs à distinguer les différentes catégories 13 1. Le contexte, le cadre d’analyse et la méthode d’acteurs s’exprimant. Pour compléter ce corpus, nous y avons joint quelques articles issus de publications plus spécifiques à certaines catégories d’acteurs (voir la liste à l’annexe 3) ; - enfin, nous avons également pris en compte des travaux (rédigés par des chercheurs pour la plupart) qui exploitaient les bases de données PISA en Communauté française de Belgique (voir l’annexe 4). *** Le cadre d’analyse accorde au contexte un statut central : celui-ci est en effet considéré comme un élément essentiel qui permet de comprendre la manière dont la connaissance est utilisée en CFB. Il est évident que les acteurs interrogés, dans les propos qu’ils tiennent (ou les documents analysés, dans le contenu dont ils sont les dépositaires) sont eux-mêmes constitués par le contexte dans lequel ils agissent et par la position qu’ils y occupent : de nombreux éléments vont, pour eux, de soi. Ils peuvent donc considérer comme normales des pratiques qui, d’un autre point de vue, pourraient apparaitre plus ou moins étonnantes ou spécifiques. Ceci pose la question du statut méthodologique à accorder aux propos tenus par les acteurs. Il ne s’agit pas tant de se poser la question de savoir si les propos en question sont « fiables » ou non ; il s’agit plutôt de les comprendre et les interpréter notamment comme expression de la position qu’ils occupent dans un contexte dont ils ne maîtrisent pas nécessairement réflexivement tous les paramètres. D’un point de vue méthodologique, il est dès lors fondamental d’interpréter leur propos en les rapportant à un contexte de leur énonciation. L’interprétation que nous faisons des matériaux qualitatifs s’appuie dès lors nécessairement sur la connaissance du contexte, qui, ellemême, résulte de notre propre expérience de recherche ou de travaux issus de la littérature. Ces éléments d’analyse - qui ne nous viennent pas des acteurs interviewés ou des documents analysés, mais bien de la littérature (en sociologie, en histoire, en science politique) – sont essentiels à l’interprétation des matériaux. 14 2. L’histoire, la carte sociale et la structure organisationnelle de PISA 2. L’histoire, la carte sociale et la structure organisationnelle de PISA Par Eric Mangez et Branka Cattonar 2.1 Le réseau organisationnel au niveau national : l’instrument et ses acteurs Le « management » d’une enquête telle que PISA nécessite la mobilisation de divers acteurs. Cette section a pour objectif non seulement d’identifier les acteurs (nationaux) mobilisés dans la mise en œuvre des enquêtes PISA, mais aussi de comprendre comment ils ont été impliqués dans le processus. On veut ainsi dessiner la cartographie sociale des acteurs en tenant compte à la fois des propriétés de l’instrument et de l’épaisseur historique propre au contexte belge. On doit ici rappeler les propositions théoriques formulées dans le point consacré au cadre d’analyse. On y posait notamment l’hypothèse selon laquelle c’est dans une certaine mesure l’instrument qui – étant donné sa propre rationalité - définit les acteurs pertinents et le rôle qu’ils doivent jouer – ce qui peut éventuellement conduire à la constitution de nouveaux acteurs et/ou à la transformation (déplacement, consolidation, glissement, affaiblissement) du rôle d’anciens acteurs. En même temps, il convient aussi de tenir compte du fait que les acteurs historiques en présence dans le champ, et la structure (topologique et généalogique) des relations qui les lient, peuvent en partie expliquer la manière dont l’instrument est utilisé, médiatisé, interprété, etc. Ces deux propositions ne sont pas contradictoires : elles indiquent une tension théorique entre, d’une part, les instruments qui sont nécessairement porteurs d’une forme spécifique de rationalité (qui définit des rôles, des positions, des procédures, etc. et qui est elle-même héritage et expression de la structure des relations des acteurs qui ont fabriqué l’instrument) et, d’autre part, le contexte institutionnel qui, bien évidemment, est inscrit dans une histoire qui interdit de le réduire à n’être qu’un simple réceptacle malléable. Cette tension théorique s’impose d’autant plus lorsque l’on étudie des situations pratiques où des instruments sont exportés vers - et utilisés dans - des contextes qui ne correspondent pas à celui de leur constitution. Un instrument comme PISA porte en lui une certaine forme de rationalité. Il s’agit d’un instrument conçu pour opérer des comparaisons, ce qui en soi a un certain nombre d’implications, indissociablement techniques et politiques, notamment en termes de 15 2. L’histoire, la carte sociale et la structure organisationnelle de PISA dispositifs de surveillance et de contrôle et en termes d’experts et d’expertise requis. Les comparaisons sont en outre conçues au niveau national, ce qui présuppose que le découpage en différentes nations est un découpage pertinent pour l’étude du secteur éducatif. Ce présupposé est évidemment inégalement pertinent selon que l’on se situe dans un contexte ou un autre. Mais surtout il impose logiquement la constitution d’un pôle central dans chaque pays : il est nécessaire de définir un centre à partir duquel le « management » de l’enquête se réalise dans chaque pays. En réalité, l’ensemble du dispositif de l’OCDE autour de PISA implique de distinguer deux dimension du travail : une dimension politique et une dimension scientifique, technique et logistique. La dimension politique impose à chaque pays de définir un représentant mandaté pour siéger au PGB (PISA Governing Board). La dimension scientifique, technique et logistique implique de définir un centre national et un national project manager. Désigner un centre est une opération qui a la force de l’évidence dans des pays centralisés. Mais dans un contexte comme le contexte belge où il n’existe pas de centre à proprement parler, les choses sont moins évidentes. Où situer le centre national des enquêtes PISA ? Au niveau fédéral ou communautaire ? Au niveau des pouvoirs publics, c’est-à-dire dans l’administration, ou ailleurs ? 2.1.1 Le Centre national de recherche et le National Project Manager Le choix du centre en question doit se comprendre en examinant à la fois les contraintes propres au contexte et les exigences propres à l’instrument. Dans le contexte communautarisé, la plupart des acteurs belges considèrent comme évident qu’il faut traiter séparément les différentes communautés (française, flamande et germanophone). L’OCDE, de son côté, tente plutôt de traiter tous ses membres et partenaires sur base nationale. Le statut accordé par l’OCDE à la Belgique et à ses Communautés est en réalité variable. D’un côté, la Belgique ne bénéficie que d’une seule voix au sein du Bureau des pays participants et les rapports internationaux de PISA publiés par l’OCDE ne traitent que de la Belgique dans son ensemble2. D’un autre côté, la Communauté flamande et la Communauté française envoient chacune leur propre représentant au Bureau des pays participants et chacune des deux Communautés se charge de l’organisation du test PISA au sein de sa propre population d’élèves. Au niveau de la Belgique, on retrouve ainsi deux gestionnaires du projet PISA (National Project Manager) et deux centres de recherche responsables de la mise en œuvre de PISA pour leur propre Communauté linguistique – depuis l’élaboration de l’échantillon jusqu’à l’analyse des données récoltées, en passant par la passation du test et la publication des résultats. 2 Cette situation n’est pas spécifique à PISA et « reflète une volonté de l’OCDE de travailler pays par pays et d’éviter (…) une vision trop fragmentée des systèmes éducatifs ». Dans la plupart des indicateurs de Regards sur l’Education produits par l’OCDE, les données sont ainsi le plus souvent agrégées à l’ensemble de la Belgique. De plus en plus, une présentation fragmentée des données selon les Communautés apparaît en raison de leur participation distincte à des enquêtes internationales (par exemple, celles organisées par l’IEA) (DRI, 1998, p. 6 ; DRI, 2001, p. 6 ; DRI, 2004, p. 6). 16 2. L’histoire, la carte sociale et la structure organisationnelle de PISA Dans le cadre de la recherche KnowandPol, nous traiterons uniquement de la communauté française. La mise en place de deux centres (un flamand, un francophone) ne règle pas totalement la question de la détermination des centres en question. Même en se limitant à la Communauté française, la détermination d’un lieu central de pilotage des enquêtes PISA ne va pas de soi. Les exigences propres à l’instrument imposent que le centre national soit dépositaire d’une expertise suffisante et spécifique à l’instrument, c’est-à-dire en l’occurrence une expertise dans le domaine de la mesure en éducation et dans le traitement statistique de données. Une des caractéristiques du pays tient au fait que l’accumulation d’expertise ne s’est généralement pas réalisée au niveau de l’administration, comme cela peut être le cas en France par exemple. Comme nous le rappelle De Munck, dans le contexte belge, « tout le monde sait que le savoir pertinent dans de multiples secteurs (santé, éducation, culture…) ne se trouve pas dans les administrations officielles de l’Etat » (De Munck 2002). En Belgique, la notion de savoirs d’Etat, accumulés dans les administrations, ou dans des services spécifiques d’Etat, n’a pas la même centralité qu’en France par exemple. On peut dès lors comprendre que le centre national (pour le CFB) se situe en dehors de l’administration : c’est en effet au sein de l’Université de Liège (ULg) que se situent le centre national et le national project manager depuis le début des opérations PISA. En CFB, le centre en charge de PISA est donc un centre de recherche situé dans une université ; et le NPM est un chercheur de ce centre. Comme toutes les universités belges, l’ULg poursuit des objectifs d’enseignement, de recherche et de service à la société. L’ULg présente cependant la particularité d’être une université d’Etat. Pour ce qui concerne le secteur de l’éducation, parmi les différentes universités situées sur le territoire de la Belgique francophone, l’ULg est celle qui entretient les liens les plus étroits à la fois avec l’administration et avec le réseau de la Communauté française – à l’inverse du réseau libre catholique dont les cadres sont souvent en relation plus régulière avec les chercheurs de l’Université catholique de Louvain ou d’autres universités. Au sein de l’ULg, c’est le Service de Pédagogie Expérimentale (SPE) (aujourd’hui rebaptisé Unité d’Analyse des systèmes et des pratiques d’enseignement3) qui, au niveau national, s’occupe de la mise en œuvre de PISA (notamment de l’échantillonnage, de la passation du test, de l’analyse des résultats et de leur diffusion). Si le SPE a été choisi par la DRI (Direction des Relations Internationales), c’est bien sûr parce qu’il avait accumulé l’expertise nécessaire et constituait alors le « centre 3 L’unité d’Analyse des systèmes et des pratiques d’enseignement est composée d’une vingtaine de chercheurs. Les recherches qui y sont menées visent à « comprendre et optimiser le fonctionnement des systèmes d’enseignement et de formation à travers des recherches théoriques, des évaluations mesurant l’efficacité et l’équité des systèmes scolaires, des interventions sur le terrain, la construction d’outils pédagogiques ». Parmi les domaines d’expertise, on retrouve « l’évaluation du rendement scolaire » (participation aux études de l’IEA et de l’OCDE), la conception et la réalisation des évaluations externes en CFB, la mise au point d’indicateurs statistiques (présentation de l’aSPE : http://www.aspe.ulg.ac.be/presentation.html, page consultée le 12 janvier 2009). 17 2. L’histoire, la carte sociale et la structure organisationnelle de PISA d’excellence » pour les enquêtes comparatives. Et si la décision a été prise de participer au dispositif PISA, c’est en partie en raison de l’influence que des chercheurs de l’ULg ont pu exercer en ce sens. Nous montrerons plus loin qu’à l’origine, la décision de participer à PISA a été davantage le fait d’acteurs scientifiques que d’acteurs politiques ou de fonctionnaires. De diverses manières, le SPE occupait et continue à occuper une position charnière à la fois dans le contexte institutionnel et politique belge et dans le contexte international. Il se situe à la croisée de différentes instances. Il est en effet en relation avec différents acteurs importants dont notamment le consortium international en charge de PISA, l’administration de la CFB et le monde politique. Le positionnement national et international du SPE En plus de jouer le rôle de centre national pour la Belgique francophone, le SPE, à plusieurs moments de son histoire, a été impliqué dans le consortium international, piloté depuis l’Australie. Ainsi, lors du premier cycle PISA, le SPE était impliqué dans le consortium, notamment en ce qui concerne la construction de grilles et de questionnaires destinés aux administrateurs de tests. Comme membre du consortium, le SPE a également été engagé dans des activités de contrôle de la qualité de différents centres nationaux (National Control Quality Monitoring) (par exemple, en Espagne, en Italie,…). La participation du SPE au Consortium s’est interrompue lors de la deuxième phase de PISA, en raison du départ de deux chercheurs (dont un vers l’Australie). Aujourd’hui, le SPE fait à nouveau partie du consortium mais son rôle y est relativement limité, et correspond à moins d’un temps plein consacré à la vérification des traductions et au développement de questions en lecture. La représentation politique de la Communauté française au Governing Board de PISA Comme on l’a indiqué, le dispositif conçu par l’OCDE comprend une branche technique et une branche politique. Si le centre technique est situé en dehors de l’administration, à l’Université de Liège, l’interlocuteur « politique » est quant à lui situé dans l’administration, au sein de la Direction des relations internationales (DRI). C’est à partir de la DRI que s’organise le financement de PISA en Belgique francophone. Et c’est théoriquement un membre de la DRI qui représente la CFB au PGB. La branche politique rassemble en effet des représentants de chaque pays au sein d’un bureau exécutif (PGB). Le Comité Directeur de PISA, plus communément appelé « Bureau des Pays participants », est l’organe décisionnel de PISA (governing board), composé des représentants des Etats-membres de l’OCDE qui participent à PISA, le plus souvent issus d’instances politico-administratives responsables en matière d’éducation (Lafontaine, Baye et Matoul, 2000, p. 12). Chaque pays y dispose d’une voix. C’est le PGB qui, au 18 2. L’histoire, la carte sociale et la structure organisationnelle de PISA début de chaque cycle PISA, détermine le profil et désigne les Gestionnaires de Projets Nationaux de PISA (National Project Manager) qui vont travailler sous sa responsabilité. C’est lui aussi qui approuve les appels d’offre rédigés par le Réseau Ines A et sélectionne le consortium qui mettra en œuvre PISA. Enfin, il dirige en son sein un « groupe éditorial qui oriente et contrôle l’élaboration des rapports thématiques » (Moyson et Termine, 2007, p. 28). Dans le contexte belge, les relations de travail existant entre l’administration et le SPE explique que ce sont aujourd’hui des chercheurs de l’ULg qui jouent le rôle de représentant de la CFB au PGB. C’est en effet un chercheur du SPE, qui, depuis 2000, remplace le haut fonctionnaire (directeur de la DRI) aux réunions du PGB à l’OCDE, alors que dans les autres pays, c’est le plus souvent un membre de l’administration qui participe à ces réunions. La raison avancée pour cette délégation est pratique : le manque de temps du haut fonctionnaire, le fait que le chercheur du SPE participait déjà aux réunions du « réseau Ines A » (qui travaillait sur les indicateurs), le fait que les deux réunions se déroulaient le plus souvent au même moment et au même endroit. Cette délégation implique un dialogue et une concertation entre la DRI et le chercheur en charge de sa représentation. Un des effets de PISA consiste à fabriquer des réseaux de relations entre différents types d’acteurs au niveau international. La situation belge que l’on vient d’évoquer, où c’est un acteur scientifique qui remplit un rôle politique de représentation, illustre l’affaiblissement des frontières bureaucratiques classiques et la constitution au niveau international de relations de proximité entre des acteurs issus de pays et de « mondes » différents (la recherche, l’administration, la politique,…). Ces acteurs partagent des points de vue sur l’éducation et participent à la construction d’un espace européen de l’éducation. Autrement dit, un système de relations internationales centrées sur des questions éducatives se construit ainsi progressivement, notamment au travers du travail de l’OCDE (Lingard et alii, 2005). Le centre national de PISA et le monde politique Au-delà de ses relations avec l’administration, le SPE et ses membres entretiennent des relations avec certains décideurs politiques. Ces relations avec l’administration ou avec le monde politique s’inscrivent dans la durée. Dans le cadre de la Belgique francophone, en matière d’évaluation du système éducatif, c’est l’ULg qui constitue le pôle universitaire principal aux yeux des acteurs politiques, en ce compris pour les acteurs politiques catholiques (même si ces derniers entretiennent aussi des relations avec les chercheurs des universités catholiques, notamment avec des centres de recherche de l’UCL comme le Cerisis et le Girsef). La combinaison de phénomènes cognitifs, politiques et sociologiques permet de 19 2. L’histoire, la carte sociale et la structure organisationnelle de PISA comprendre la position spécifique du SPE et ses relations avec le monde politique mais aussi avec le consortium international en charge de PISA. En effet, si le SPE a été et reste en relation avec ledit consortium, c’est parce qu’il a accumulé une forte expertise en matière d’évaluation et de comparaison. On peut penser que cette expertise s’est surtout développée dans cette université (plutôt que dans une autre) en raison de sa position institutionnelle liée à l’histoire des piliers en Belgique. Il est assez logique que les universités catholiques n’aient pas été historiquement les premières à investir des questions de mesures et d’évaluation puisqu’elles font historiquement partie d’un « monde » qui tend plutôt à défendre une certaine autonomie et à bénéficier du pouvoir discrétionnaire que les pouvoirs publics veulent bien lui accorder. Le travail du NPM et de son équipe Cette section veut décrire brièvement le travail réalisé par le SPE dans la gestion de l’enquête PISA au niveau de la CFB. Le NPM est l’interface entre le Consortium international et les instances nationales. Il est chargé d’exécuter le programme. Le centre fonctionne avec un nombre relativement limité de personnes travaillant au projet PISA. Les aspects logistiques sont pris en charge par un équivalent temps plein. D’autres chercheurs interviennent de manière ponctuelle, parfois intensivement, à différents moments du processus. La passation, l’encodage et le « management » de PISA nécessitent également la mobilisation (ponctuelle) d’un nombre plus important de personnes (par exemple, des correcteurs, des personnes chargées de se rendre dans les établissements, divers jobistes…). Au niveau international, le NPM est tout d’abord chargé du suivi et de la communication avec les instances supranationales (le Consortium international). Dans ce cadre, le NPM participe à deux réunions par an (d’une durée d’une semaine). Lors de la première réunion, le Consortium communique aux NPM des différents pays les divers aspects du test et consignes pratiques, sans que ces derniers n’aient véritablement un rôle actif : présentation du « framework » (le cadre théorique de l’étude), présentation et discussion des items (par rapport auxquels les pays ont un droit de veto), présentation du logiciel de saisie des données, présentation et discussion des questionnaires adressés aux élèves et chefs d’établissement, présentation du plan de codage, etc. Dans ce cadre, les NPM ont un rôle relativement « réceptif » et il s’agit notamment « de suivre ce qui a été décidé par le PGB » présenté comme « le vrai organe de décision de PISA ». Lors du prétest, les NPM ont cependant un rôle plus « actif » lorsqu’il s’agit d’analyser les résultats pour identifier les éventuels « bugs » dans les questions. Lors de la deuxième réunion, le Consortium présente les premiers résultats du test. Etant donné la participation du centre national de recherche au Consortium, le rôle du NPM en Communauté française est cependant décrit comme plus « impliqué » dans le processus dans la mesure où il participe à la création du futur test (création et sélection des 20 2. L’histoire, la carte sociale et la structure organisationnelle de PISA questions et textes, choix des critères de correction et de formation des correcteurs). Au niveau national, le rôle du NPM consiste tout d’abord à avoir des relations avec l’administration et les inspecteurs, notamment au Comité d’accompagnement, pour leur présenter le déroulement du test et obtenir leur aval. Ensuite, le travail du NPM consiste à réaliser l’échantillonnage et à proposer au niveau international des variables d’échantillonnage pertinentes par rapport à notre système éducatif. L’échantillon est alors constitué par le Consortium qui l’envoie au NPM. Son travail consiste à contacter les écoles et, lorsque c’est nécessaire, à les « convaincre » de participer au test, à l’aide d’arguments scientifiques ou politiques. Certaines écoles sont réticentes à participer (elles veulent d’abord obtenir l’accord officiel de leur PO, soit elles se disent trop occupées pour participer), mais dans l’ensemble l’adhésion des écoles semble s’obtenir assez facilement. Le Centre national de recherche s’occupe alors de faire passer l’enquête dans les écoles au courant du mois de mai, d’organiser la correction du test, de faire encoder les réponses, de nettoyer les données et de procéder à une série de vérifications prévues et standardisées au niveau international, puis d’envoyer la base de données ainsi constituée au mois d’août au Consortium international qui procède à des vérifications supplémentaires et à l’analyse des données. Le centre national de recherche reçoit les premiers résultats à partir du mois de mars. En septembre, les chercheurs du Centre national reçoivent une base de données « traitable » et ils commencent à analyser eux-mêmes les données, en premier lieu pour se préparer à répondre aux questions spécifiques à la Communauté française qui pourront leur être posées après la présentation publique des résultats lors de la conférence de presse officielle. En particulier, ils doivent refaire les analyses produites par le Consortium international pour la Communauté française (le Consortium produit les analyses pour la Belgique, et non pour les Communautés ; aujourd’hui, certaines analyses sont néanmoins produites pour chaque communauté et placées en annexe du rapport international). Ils ne peuvent diffuser aucune information avant la diffusion officielle des résultats de PISA par l’OCDE qui a lieu en décembre. Le mois de décembre et de janvier sont alors consacrés à la présentation des premiers résultats aux médias et à répondre à des demandes spécifiques d’information. Ensuite, ils commencent des analyses plus détaillées qui seront publiées un an plus tard, notamment dans les Cahiers du SPE. 21 2. L’histoire, la carte sociale et la structure organisationnelle de PISA 2.1.2 Les acteurs nationaux impliqués Au niveau national, la mise en œuvre de PISA est assurée par le « Gestionnaire de projet national » (National Project Manager) et un Centre national. D’autres acteurs sont néanmoins impliqués, à des degrés divers, dans le processus de mise en œuvre des enquêtes. Le cabinet ministériel Dans les gouvernements successifs depuis le premier cycle de PISA, le ministre et son cabinet ont tendance à ne pas investir fortement dans la gestion du dispositif. Le ministère, selon un conseiller actuel au cabinet ministériel, « se refuse à entrer dans l’épreuve ». Le Ministre n’est lui-même prévenu que 24 heures avant la divulgation officielle des résultats. Le rôle du Ministre de l’éducation, dans la mise en œuvre de PISA, parait donc plutôt limité et consiste à écrire aux écoles pour les prévenir qu’elles vont être contactées et leur demander de participer à l’enquête. Soulignons toutefois que les acteurs politiques sont représentés au sein du PGB et ont la possibilité de peser, de manière limitée, sur le processus de fabrication de l’outil. Le cabinet ministériel intervient aussi en amont, lors des choix à réaliser concernant les activités payantes proposées par l’OCDE. Ces positions sont discutées avec le directeur de la DRI, en concertation avec l’administration (voir ci-après). En définitive, c’est le ministère de l’enseignement qui prend la décision de participer à l’enquête (Moyson et Termine, 2007). La Direction des Relations internationales De manière générale, la Direction des Relations internationales (DRI) du Secrétariat général du Ministère de la Communauté française est présentée comme une « structure de coordination » des activités de la Communauté française qui se situent dans une dimension internationale. En ce qui concerne l’enseignement, cette coordination est réalisée en relation avec l’AGERS (Administration générale de l’Enseignement et de la Recherche scientifique) et le CGRI (Commissariat général aux Relations internationales). Il s’agit là des lieux qui assurent en pratique les relations internationales de la CFB. C’est donc un espace important, notamment pour ce qui concerne la dimension européenne de l’éducation, même si, en soi, ces lieux ne sont pas exclusivement concentrés sur des questions d’éducation. Autrement dit, nous soulignons ici le fait que la dimension internationale des questions d’éducation en CFB semble en partie échapper aux acteurs de l’administration qui sont spécialisés dans les questions d’éducation. La DRI assure également la représentation de la Communauté française aux différentes 22 2. L’histoire, la carte sociale et la structure organisationnelle de PISA instances internationales (Comités de l’éducation du Conseil de l’Europe, OCDE, etc.) en tant que « porte-parole ». Le rôle du directeur de la DRI est de s’assurer que « la voix de la Communauté française soit la plus homogène possible » sur la scène internationale. Leur travail consiste également à mobiliser les personnes adéquates, « spécialistes de la question », pour les envoyer en représentation aux différents comités internationaux. En ce qui concerne PISA, c’est à la DRI que se situent les budgets de fonctionnement et que se rédigent les conventions. Au sein du Comité de l’OCDE, c’est également le directeur de la DRI qui est le « porte-parole de la partie francophone », « relayant les positions » de la Communauté française4, après un travail interne de coordination, notamment avec l’AGERS (Administration générale de l’Enseignement et de la Recherche scientifique) ou l’AGPE (Administration générale des Personnels de l’enseignement), visant, par exemple, à choisir les activités (payantes) à mener parmi le « programme à la carte » proposé par l’OCDE. Ce choix se fait en fonction des « priorités politiques » et celles de l’administration. Après avoir participé aux réunions du Comité de l’OCDE, le directeur de la DRI fait un compte-rendu et se réunit avec le Cabinet ministériel et l’administration. La DRI est présentée comme le principal interlocuteur du Centre national de recherche au niveau de l’administration. C’est normalement la DRI qui représente la CFB au PGB, même si, comme on l’a indiqué, en pratique, ce sont des chercheurs de l’ULg qui remplissent cette mission de représentation. C’est également la DRI qui est responsable de convoquer le Comité d’accompagnement (cf. infra) et qui est responsable du budget. Le Centre national de recherche participe également aux publications de la DRI (« Les clés de lecture ») qui diffusent certains résultats de PISA. Si la DRI semble jouer un certain rôle dans le processus de construction et de mise en œuvre de PISA, on doit cependant souligner que l’administration du pilotage – qui constitue aujourd’hui un lieu central du système éducatif de la CFB - n’est pas pour autant hors jeu en ce qui concerne PISA (voir ci-après). En réalité, la DRI semble surtout en charge des aspects « relations internationales » alors que les aspects de la gestion de PISA qui sont plutôt nationaux, sont davantage investis par le service de pilotage. Le « pilotage » est en outre membre du comité d’accompagnement (infra). 4 A l’OCDE et au Conseil de l’Europe, la Belgique a “deux voix”. Par contre, au Comité de l’Education de l’Union Européenne, la Belgique a une seule voix (pour les communautés flamandes, francophones et germanophones – tous les six mois, une des trois communautés est porte-parole pour la Belgique). Il peut arriver que les deux communautés ne s’expriment pas de la même manière. 23 2. L’histoire, la carte sociale et la structure organisationnelle de PISA Le service de pilotage Dans l’administration, le principal interlocuteur du SPE est la DRI. Le service de pilotage constitue le deuxième interlocuteur principal du NPM au niveau de l’administration. En particulier, le NPM a des contacts avec le service pilotage à propos de la diffusion des résultats de PISA et la création d’indicateurs à partir des données de PISA. Par ailleurs, c’est le service de pilotage qui désigne les groupes d’experts. Notons que l’administration du pilotage constitue un lieu tout à fait central pour la gestion des questions d’éducation. Simplement, en ce qui concerne PISA, son rôle paraît moins directement situé en première ligne. Ainsi, par exemple, le service de pilotage est représenté au sein du comité d’accompagnement (mais n’en assure pas la présidence qui revient à la DRI). Le représentant de la Communauté française au Bureau des pays participants On a souligné plus haut la particularité belge qui fait que ce sont souvent des chercheurs de l’ULG qui jouent le rôle de représentant de l’administration au sein du PGB. Nous n’y revenons pas ici. Il nous parait par contre important de souligner combien le travail réalisé au sein du PGB, tel qu’il est décrit par nos interlocuteurs, apparait consensuel et finalement peu politisé. Dans la plupart des cas, il semble que les décisions se prennent par écrit, via un courrier, en particulier lorsqu’il s’agit de questions « délicates » (comme les mesures à prendre à l’égard de pays qui n’ont pas respectés l’embargo à l’égard des résultats de PISA). Les décisions se prennent surtout « par consensus » et il n’y aurait jamais eu de vote en séance au sein du PGB. Selon les personnes que nous avons interviewées, les réunions au sein du PGB sont assez « feutrées », « les gens sont très positifs », même s’il y a parfois des « incidents » qui surviennent (par exemple, le représentant de la France qui quitte la réunion parce qu’il n’y a pas de traduction simultanée prévue) ou des « débats assez chauds » (par exemple, le représentant de l’Italie qui critique les critères d’évaluation des candidats au poste de consortium ou des débats sur la durée des cycles de PISA). Le Comité d’accompagnement et les groupes d’experts PISA suppose aussi que chaque NPM soit entouré d’un comité national et de trois comités disciplinaires5 (Moyson et Termine, 2007, p. 28). Autour du projet PISA, il y a un Comité d’accompagnement qui regroupe le NPM, le représentant de la CFB au PGB, le directeur de la DRI, le responsable du pilotage, des chercheurs du SPE, des personnels d’ETNIC 5 Les comités d’experts sont composés d’experts désignés par les réseaux (qui peuvent être des chargés de mission dans le cas du réseau catholique ou d’enseignants partiellement en fonction dans le cas du réseau des villes et provinces), d’un représentant du service de pilotage et d’inspecteurs. Selon le domaine majeur du test, la composition du groupe d’experts varie (on ne mobilise que des experts du domaine majeur). 24 2. L’histoire, la carte sociale et la structure organisationnelle de PISA (Service de Statistiques de la CFB), des membres du cabinet ministériel. Les membres des réseaux sont représentés dans les groupes d’experts disciplinaires. D’après nos informations, la manière d’organiser et de mobiliser ces comités (comité national et comité d’experts) varie fortement selon les pays. Certains pays ont véritablement professionnalisé cette fonction, notamment en rémunérant les membres des comités. En CFB par contre, les membres du comité national sont des représentants de différents « lieux » susmentionnés qui remplissent par ailleurs d’autres missions et qui ne sont pas rémunérés pour leur implication dans le comité national ou dans les comités d’experts. Une bonne partie du travail qui incombe théoriquement à ce comité est dès lors de facto assumé non pas par le comité mais bien par le NPM et ses collaborateurs. Ces tâches sont considérées comme plus techniques que politiques : il s’agit, par exemple, de rendre des avis sur les différents items en construction. Le comité se réunit en réalité une ou deux fois par an pour examiner le rapport d’activité présenté par le NPM : Chaque année, le Comité d’accompagnement de PISA reçoit un rapport rédigé par le Centre national de recherche qui reprend l’ensemble des activités nationales et internationales liées à PISA. Il reprend notamment les comptes-rendus des réunions au PGB et les courriers les plus importants échangés avec l’OCDE. Ce Comité vérifie que le centre national de recherche a rempli les tâches qu’il était supposé remplir. Ce Comité peut méthodologiques poser (par des questions exemple, sur les variées critères aux chercheurs : retenus pour des questions l’échantillonnage), concernant la diffusion des résultats, etc. C’est également ce Comité qui donne l’aval autorisant le paiement du Centre de recherche (le budget étant approuvé et sous la responsabilité de la DRI). Ce Comité traite en même temps des questions liées aux réseaux Ines A, B et C. Lors des réunions de ce Comité, le représentant de la CFB au PGB peut soumettre certaines questions relatives à des orientations à prendre. Le Comité émet un avis et prend les décisions officielles concernant les options internationales. Les réseaux PISA véhicule une certaine représentation de l’organisation des systèmes éducatifs. Il présuppose que chaque pays dispose d’un système éducatif constitué schématiquement d’un centre, avec ses acteurs politiques et administratifs, d’une part, et d’établissements scolaires locaux, d’autre part. Dans ce schéma, les établissements scolaires sont soumis à une même autorité. Qu’il puisse exister des autorités intermédiaires ou des réseaux éducatifs différents constitue une particularité qui ne parait pas trouver sa place dans la schématisation de l’action éducative que PISA véhicule implicitement en référence à l’image de l’Etat-Nation monolithique, unifié autour d’une langue et d’une culture. Disposer sur un même territoire de différentes communautés linguistiques et de différents réseaux éducatifs, disposant d’une relative autonomie pédagogique, parait étranger à la rationalité de l’instrument, non seulement au niveau de son organisation 25 2. L’histoire, la carte sociale et la structure organisationnelle de PISA pratique, mais aussi au niveau de ses présupposés culturels. On peut dès lors comprendre que les réseaux ne trouvent pas véritablement une place en tant qu’acteurs institués dans la mise en œuvre et le management de PISA. Ils sont peu présents et le rôle qu’ils jouent est peu visible. Ils sont représentés dans le groupe d’experts. Ils sont également représentés dans l’échantillon, de manière proportionnée à leur recrutement d’élèves. Le pouvoir organisateur de la CFB, de même que la fédération de l’enseignement libre catholique, ont également joué un rôle en encourageant leurs établissements à participer aux enquêtes PISA. On peut souligner ici un élément particulier en ce qui concerne la prise en compte de la variable « réseau » parmi les variables d’échantillonnage. Du point de vue de la rationalité statistique, les variables d’échantillonnage sont des variables dont il faut tenir compte pour garantir la constitution d’un échantillon représentatif. Dans un pays comme le notre, avec une forte ségrégation scolaire, on tient par exemple compte de cette variable pour constituer l’échantillon. Selon les chercheurs du SPE, il n’y a aucune raison statistique qui justifie que la variable « réseau » soit prise en compte dans l’échantillon. Si la variable est prise en compte, c’est pour une raison politique : dans une logique consociative, il convient de respecter les équilibres. Le contexte politique belge définit ainsi en partie le choix d’une variable d’échantillonnage dont on sait par ailleurs qu’elle n’est pas statistiquement pertinente ou utile. Dans l’ensemble cependant, les réseaux apparaissent comme un acteur absent de l’acceptation et de la mise en œuvre de PISA. Il ne semble pas y avoir eu de négociations, ni de conflits autour de la mise en œuvre de PISA. Ils interviennent simplement pour encourager les écoles de leur fédération à participer à l’enquête, mais aucun rôle spécifique ne leur est attribué. 2.2 La décision de participer au programme Pisa 2.2.1 Les personnes et le lieu de la décision de participer aux enquêtes PISA Comme on l’a montré, le contexte scolaire belge se caractérise par un « pluralisme institutionnel » et s’est historiquement constitué comme un système relativement décentralisé, en lien avec la communautarisation de l’enseignement et sa structuration en divers réseaux. Dans ce contexte, la question de la détermination d’un lieu de décision relatif aux enquêtes PISA ne va pas de soi. Il n’existe en effet pas d’autorité centrale disposant du pouvoir nécessaire pour imposer la participation aux pouvoirs organisateurs et aux établissements. Le Ministère de l’Education ne dispose pas de la même autorité 26 2. L’histoire, la carte sociale et la structure organisationnelle de PISA sur tous les établissements : son pouvoir existe surtout vis-à-vis des établissements dont il est le pouvoir organisateur. Ceci étant dit et précisé, il semble que la participation aux enquêtes PISA s’est discutée au niveau de chaque Communauté linguistique (flamande et française) et des ministères de l’éducation respectifs, et non au niveau de l’Etat fédéral. En Communauté française de Belgique, la décision de participer à Pisa s’est inscrite dans un réseau reliant des membres de l’administration scolaire et des chercheurs de l’Université de Liège. On rappelle ici que l’Université de Liège occupe une position particulière dans ce processus pour au plusieurs raisons: tout d'abord, l'ULG était à l'époque l'un des quatre membres du consortium international qui avait décroché le contrat au niveau de l'OCDE. Par ailleurs, dans le contexte belge francophone, l'Université est une des seules et certainement la principale université d'Etat. Enfin, il faut souligner que d’éminents professeurs de l’ULg avaient également été membres associés à l’OCDE (le prof. De Landsheere, notamment). L’ULg était donc de longue date en relation avec l’OCDE, et plus précisément avec les actions et réflexions de l’OCDE en matière d’éducation et de mesures en éducation (notamment au sein du CERI). Ces différentes raisons ont fait de cette université un acteur privilégié dans les opérations liées à PISA. A l’époque, des chercheurs du SPE étaient impliqués dans des réseaux organisés par l’OCDE, notamment dans le réseau INES travaillant sur la question de la constitution d’indicateurs pour l’éducation. Il apparait que ce sont ces chercheurs - en particulier l’un d’entre eux - qui ont « porté PISA sur les fonds baptismaux » et qui ont convaincu l’administration de la Communauté française d’y participer. Ces chercheurs ont trouvé au niveau de la Direction des Relations internationales (DRI) des personnes sensibles au projet PISA. La force de conviction des chercheurs a contribué à convaincre les quelques personnes qui dans l’administration étaient rebutées, non pas par le principe de l’opération, mais bien par son coût. 2.2.2 Le manque de données au niveau national comme facteur favorable à l’acception de PISA Pisa apparaît dans un contexte où il n’existe pas encore véritablement de tradition « nationale »6 d’évaluation des acquis des élèves et à un moment où plusieurs acteurs scolaires sont convaincus de la nécessité de réaliser des évaluations externes du système éducatif en vue de le piloter. Cette conviction à propos de la nécessité de l’évaluation et du pilotage du système éducatif avait été nourrie en particulier par une étude menée par l’OCDE au début des années 1990 à la demande des ministres en charge de l’enseignement en Communautés flamande, française et germanophone. Cette étude, qui 6 Par « national », il faut entendre en fait « communautaire » puisque, comme nous l’avons vu précédemment, l’enseignement est, en Belgique, une matière communautaire. 27 2. L’histoire, la carte sociale et la structure organisationnelle de PISA dresse un état des lieux sur le système éducatif en Belgique, a notamment mis en avant le manque de pilotage et la « trop faible culture de l’évaluation » en tant que « l’une des causes de son dysfonctionnement ». De nombreuses personnes interviewées font référence à cette étude pour expliquer l’origine du projet de pilotage du système éducatif en Communauté française. On ne peut ici que souligner la profondeur de l’impact de cette étude. Aujourd’hui encore, soit plus de 15 ans après sa publication, la majorité des acteurs s’y réfèrent lors des entretiens que nous menons pour la recherche KnowandPol. Suite à cette étude et sous l’impulsion du secrétaire général à la Communauté française (J. Magy), une première « structure légère de pilotage » avait été mise en place et des premières évaluations externes sont réalisées (en 1994-1995), de manière limitée. La fin des années 1990 est aussi une période qui va connaître une réforme importante, promulguée par le « Décret Missions » (juillet 1997), qui marque un tournant considérable dans la définition des orientations pédagogiques et les modes de régulation du système éducatif. Ce Décret, tout en cherchant à rendre le système éducatif plus équitable et plus efficace, va entre autres promouvoir une logique de pilotage et d’évaluation du système éducatif (Maroy, 1999). Il peut être décrit comme marqué par une conception relativement « managériale » de l’enseignement (au sens où l’entend Van Haecht ; 1998), où les objectifs de l’école ne sont plus définis seulement en termes d’enjeux politiques, mais avant tout en termes de décisions à prendre sur des bases rationnelles pour en optimaliser l’efficacité. Une conception « civique » n’est toutefois pas absente, puisqu’en même temps le Décret Missions est porté par des préoccupations liées à l’égalité entre les élèves et à la transparence relative à l’état du système scolaire (Dupriez et Maroy, 1999). A la fin des années 1990, au moment de son acceptation, PISA arrive donc en Communauté française dans un contexte de forte préoccupation à propos de l’efficacité et de l’égalité du système d’enseignement et qui est marquée par le début, encore timide, d’une logique de pilotage du système éducatif par l’analyse de ses résultats (Dupriez, 2002 ; Maroy, 1999 ; Vandenberghe, 2000). PISA arrive à un moment où différents acteurs sont convaincus de la nécessité d’avoir un instrument d’analyse externe du système pour le piloter7. Selon les personnes que nous avons interviewées, il y aurait eu relativement peu de débats et de discussions au sujet de la participation de la Communauté française de Belgique au programme PISA. Comme on l’a indiqué, la décision de participer au programme PISA s’inscrit dans un contexte sociopolitique qui avait été sensibilisé (par 7 La mise en place d’un système de pilotage ne sera cependant véritablement concrétisée qu’en 2002, avec le décret relatif au pilotage du système éducatif qui met en place une « Commission de pilotage ». La réalisation d’évaluations externes organisées au niveau « national » (celui de la Communauté française) ne verra également le jour que fort tard (décret de 2006). De nombreuses personnes interviewées pensent que les enquêtes PISA ont joué un rôle dans ce processus : les mauvais résultats de la Communauté Française aux enquêtes PISA auraient participé à ce mouvement en soutenant la mise en place de la Commission de pilotage et en renforçant le besoin de « disposer d’évaluations externes propres plutôt que de rester suspendus à une évaluation internationale » (selon les propos de l’ancien NPM). Nous y reviendrons plus loin dans le rapport (partie 3.3).. 28 2. L’histoire, la carte sociale et la structure organisationnelle de PISA l’OCDE notamment) au déficit d’évaluation en Belgique et dès lors favorable au développement d’évaluations externes du système éducatif dans le but de mieux le « piloter ». Il faut également souligner que l’Université de Liège avait développé une forte expertise de recherche en matière de mesures de résultats et faisait partie du consortium international initial en charge de PISA. Certains de ces chercheurs ont plaidé en faveur de PISA à l’époque. Enfin, on doit également noter que la Belgique participait déjà aux enquêtes internationales qui ont précédé PISA : dans une certaine mesure, la participation à l’enquête PISA s’inscrivait dans la continuité de ces précédentes enquêtes (même si les taux de réponse étaient habituellement faibles). En outre, on peut supposer qu’une certaine pression internationale à participer au programme existait. On peut se demander plus généralement si, avec le temps, aujourd’hui, la participation à PISA ne tend pas devenir une pratique motivée par la nécessité d’être visible et d’exister au niveau international, et pas seulement par une volonté de mieux connaitre et comprendre les systèmes éducatifs. 2.2.3 La participation au projet Il y a finalement très peu de controverse relative à la participation à PISA, que ce soit au moment de l’entrée dans le dispositif ou par la suite. Le plus souvent, la Communauté française, à travers la voix de ses représentants, est en accord avec les décisions prises par le PGB. Elle participe en général aux options internationales proposées, mais elle ne fait guère usage des options nationales. Dans un document de présentation du dispositif PISA, diffusé sur le site internet de l’Administration générale de l’enseignement et de la recherche scientifique de la CFB et rédigé par le NPM et ses collaborateurs, ceux-ci précisent que la « seule véritable marge de manœuvre (pour les pays) réside dans le choix de participer ou non aux options internationales et d’ajouter des options nationales à PISA, moyennant l’accord du consortium » (Lafontaine, Baye et Matoul, 2001, p. 22). En ce qui concerne les options nationales, la CFB semble ne « l’exploiter que de manière marginale » (Lafontaine, Baye et Matoul, 2001, p. 23)8. En ce qui concerne les options internationales, la CFB y participe en général, en particulier s’ils sont peu couteux ; leur coût semble un critère de décision important. Lors du premier cycle de PISA (2000), la Communauté française a cependant refusé de participer à une option internationale qui portait sur l’évaluation de la « motivation, attitudes et stratégies d’apprentissage » des élèves9. Les chercheurs au SPE n’étaient pas « convaincus par l’intérêt de l’approche adoptée » et ont décidé de ne pas y participer 8 Seuls quelques items ont été ajoutés aux questionnaires Elève et Etablissement (par exemple, un item relatif aux activités de loisir des jeunes) (Lafontaine, Baye et Matoul, 2001, p. 23). 9 Il s’agit de l’option internationale CCC (Cross Curriculum Competencies). 29 2. L’histoire, la carte sociale et la structure organisationnelle de PISA « pour des raisons de désaccord avec les valeurs sous-jacentes et pour des raisons techniques liées à la formulation des items »10, et cela malgré une certaine « pression de la hiérarchie de l’OCDE » (Lafontaine, Baye et Matoul, 2001, p. 23). Cette décision a été discutée au sein du Comité national d’accompagnement, avec des membres du cabinet ministériel et la direction du pilotage. Selon le représentant de la CFB au PGB, la Communauté française n’a pas seulement refusé de participer à l’option internationale, mais elle a également orienté le débat en exprimant une forme de protestation active vis-à-vis de certaines valeurs implicites véhiculées par le dispositif. 10 Plus précisément, les principales raisons avancées de refus sont : « une qualité jugée peu satisfaisante de certains items (ce que l’essai de terrain a largement confirmé); - la longueur et la redondance de l’instrument, qui devait être administré au terme de deux heures et demie de testing; - des valeurs implicites aisément perceptibles : à certains indices, on sentait que l’apprentissage compétitif avait plus de valeur que l’apprentissage cooperative (du moins les items relatifs à l’apprentissage compétitifs étaient plus attractifs); un problème d’ordre éthique dû au fait que tous les items des échelles étaient orientés dans le même sens (l’élève cochant systématiquement la case 4 représenterait en quelque sorte l’élève «modèle»). Le comité déplorait que l’élève non conforme à ce modèle devait marquer son désaccord ou sa divergence avec le portrait « idéal » proposé » (Lafontaine, Baye, Matoul, 2001, pp. 22-23). « Par contre, la non-participation de la Communauté française à l’option de PISA-2000 consacrée à l’apprentissage autorégulé repose sur des raisons plus fondamentales : il s’agit ici de réticences exprimées par le Comité d’accompagnement de PISA-2000 tant à propos de la méthodologie de l’enquête qu’en ce qui concerne les options philosophiques sous-jacentes (…) Les réticences du Comité d’accompagnement de PISA-2000 se fondaient sur une divergence de vue entre les chercheurs impliqués en Communauté française et les responsables de cette option en ce qui concerne la méthodologie de recueil de données : les élèves ont été invités à indiquer une fréquence ou un degré d’accord à propos de propositions qui toutes sauf une sont orientées dans le même sens (il est toujours plus positif de produire le comportement plus fréquemment ou d’être davantage d’accord). Cette approche, défendue par les auteurs de l’échelle, a semblé peu pertinente dans la mesure où elle risquait de donner lieu à des réponses stéréotypées et de renforcer l’effet de la désirabilité sociale. Cette divergence de vue en ce qui concerne la méthodologie se doublait de certaines réserves quant aux valeurs sous-jacentes à l’instrument : ainsi, l’étude de la motivation porte sur quatre variables : la motivation instrumentale (apprendre parce que cela peut être utile), l’intérêt pour la lecture et pour les mathématiques (plaisir dans l’activité), l’effort et la persévérance dans l’apprentissage. Il s’agit d’une perspective utilitariste, qui ne laisse aucune place à l’apprentissage par envie de développer ses compétences. » (DRI, 2006, p. 97 et p. 99). 30 3. PISA, savoir et pouvoir 3. PISA, savoir et pouvoir Par Branka Cattonar Dans cette partie du rapport, nous allons étudier la diffusion de PISA, sa réception et son usage par les différents acteurs œuvrant dans le champ scolaire en Communauté française de l’enseignement, Belgique : les les pouvoirs chercheurs publics, universitaires, les les pouvoirs syndicats organisateurs de d’enseignants, les mouvements pédagogiques, les associations de parents et les acteurs politiques. Pour ce faire, nous nous baserons sur une analyse des discours qu’ils ont tenus lors de débats publics (médiatiques ou parlementaires) et des entretiens que nous avons menés auprès de certains d’entre eux11. Nous nous intéresserons en particulier à la manière dont ces acteurs reçoivent, interprètent, invoquent et utilisent les résultats de PISA. Dans la première section, nous commencerons par présenter la diffusion officielle des résultats de la CFB aux enquêtes PISA en passant en revue ses différents supports, en particulier les rapports dits « nationaux ». Plus précisément, nous verrons les connaissances qui sont produites par les rapports nationaux, la manière dont elles sont diffusées et reçues par les différents acteurs scolaires, ainsi que leur impact public. Dans la seconde section, nous intéresserons au débat public sur PISA : en CFB, qui dit quoi sur PISA ? Nous rendrons compte des débats qui ont lieu sur ses aspects techniques ou scientifiques, sur ses aspects idéologiques, sur son utilité et sa pertinence politique, et, enfin, sur l’interprétation de ses résultats et les « leçons » que PISA suggèrerait. Dans la troisième section, nous verrons la manière dont les enquêtes PISA interviennent dans l’action publique en éducation en CFB, en examinant comment elles sont mobilisées dans les débats politiques concernant l’éducation et comment elles sont utilisées pour légitimer les politiques scolaires prises ces dernières années en CFB. Nous terminerons alors, dans la quatrième section, en proposant une conclusion sur l’usage qui est fait de PISA, ainsi que sur son influence sur le débat public et la fabrication politique en éducation en Communauté française de Belgique. 3.1 Les rapports PISA nationaux Nous allons commencer par présenter la diffusion officielle des résultats de la CFB aux enquêtes PISA à partir des rapports dits « nationaux » : Quelles connaissances 11 Voir les annexes 1 à 3. 31 3. PISA, savoir et pouvoir produisent-ils et véhiculent-ils ? Quelle est leur diffusion publique ? Par qui et comment sont-ils reçus ? Quel impact public ont-ils ? Précisions d’emblée qu’en Belgique, les rapports nationaux sont en réalité des rapports « communautaires », propres à chacune des Communautés linguistiques et rédigés par leur centre de recherche. Ces rapports « communautaires », dans un Etat fédéral comme la Belgique, prennent une importance particulière dans la mesure où les rapports internationaux publiés par l’OCDE n’analysent les résultats que pour la Belgique considérée dans son ensemble12. Or, en matière d’éducation, le niveau d’analyse jugé pertinent est plutôt celui de la Communauté linguistique. Bien que les rapports publiés par l’OCDE accordent une place croissante aux données régionales et que le Consortium fournit « une série de résultats de base » à chaque Communauté, plusieurs indicateurs et croisements entre variables ne sont pas produits à cette échelle. Cette situation oblige les centres de recherche de chacune des Communautés à recommencer une grande partie des analyses qui sont ensuite publiées dans des rapports distincts. 3.1.1 Les supports à la diffusion officielle des résultats de la CFB à PISA En Belgique francophone, l’administration scolaire (le Service Général de Pilotage du Système Educatif) diffuse plusieurs types de documents qui présentent les résultats spécifiques à la Communauté française (voir la liste à l’annexe 2). Ils sont tous rédigés par les chercheurs du SPE (Ulg) et sont disponibles sur le site internet de l’Administration générale de l’Enseignement et de la Recherche (l’AGERS)13. Autrement dit, ces rapports ne sont pas produits par l’administration, mais bien par des chercheurs universitaires qui néanmoins, comme nous l’avons souligné dans la partie 2 du rapport, ont des contacts réguliers avec elle. Les rapports de synthèse En premier lieu, on retrouve un « rapport de synthèse » qui est rendu public au moment de la diffusion officielle du rapport international et du communiqué de presse organisé par l’OCDE. Les rapports synthétiques des trois cycles de PISA (2000, 2003 et 2006) ont une structure relativement similaire. Comportant une vingtaine de pages (dont la moitié 12 Les rapports PISA internationaux sont rédigés sous la responsabilité du Secrétariat de l’OCDE à partir des données transmises par le Consortium international en charge de PISA (qui travaille lui-même à partir des données brutes fournies par les centres nationaux de recherche). 13 Il s’agit du site internet « www.enseignement.be ». Plusieurs pages y sont consacrées à Pisa, regroupées dans une section dédiée aux « évaluations externes ». On y trouve une brève présentation de Pisa, les rapports nationaux et documents didactiques rédigés par les chercheurs du SPE (ULg) pour de chaque cycle de PISA ainsi que des extraits des questions des tests. Pour le premier cycle de PISA, on trouve également le rapport international. 32 3. PISA, savoir et pouvoir est constituée de tableaux statistiques), ils présentent de manière succincte l’étude PISA (population concernée, contenu de l’évaluation, déroulement du test, types de résultats produits, caractéristiques de l’échantillon, définition des concepts, exemples de questions) et les premiers résultats de la CFB (sous forme de pourcentages, de moyennes, d’écart-type, de classements, de figures et tableaux comparatifs et de commentaires). Rédigés en un court laps de temps14, ils visent à préparer les chercheurs à répondre à toutes les questions spécifiques nationales qui seront posées dès la présentation publique des résultats. Plus précisément, ces rapports décrivent les résultats de la CFB en présentant les proportions d’élèves se situant à chacun des niveaux de l’échelle de compétence construite pour la principale discipline évaluée, ainsi que les performances moyennes et la dispersion des résultats pour les trois disciplines évaluées. Au-delà de ces données descriptives, les rapports de synthèse analysent succinctement les différences de résultats en fonction de plusieurs caractéristiques individuelles (le genre, l’origine ethnique de l’élève, le niveau d’éducation de la mère, le statut socio-professionnel des parents) et variables liées au parcours scolaire des élèves (l’année d’étude fréquentée, la forme d’enseignement fréquentée, le retard scolaire). Ces rapports mettent également en perspective les résultats de la CFB avec ceux de la Communauté flamande et des autres pays participants. La conférence de presse La diffusion publique des premiers résultats partiels de la CFB à PISA, tels qu’ils sont contenus dans les rapports de synthèse, débute toujours par la conférence de presse organisée au courant du mois de décembre par le Ministère de l’enseignement au même moment que la sortie officielle des résultats de PISA au niveau international. Avant cette conférence de presse, il y a un « embargo » à l’égard des résultats de PISA : « les données PISA sont secrètes jusqu’à la conférence de presse qui les libère » (selon le représentant de la CFB au PGB) et chaque pays est tenu à la confidentialité. Pour limiter les risques de « fuite », le Ministre de l’enseignement n’est lui-même mis au courant des résultats de PISA qu’un jour ou deux avant la conférence de presse. A ce moment-là seulement, le NPM présente les résultats à un groupe très restreint réunissant le Ministre de l’enseignement, des membres du cabinet ministériel et des membres de l’administration scolaire (des responsables du Service de pilotage et de la DRI). Lors de la conférence de presse, ce sont les chercheurs du SPE qui présentent les résultats en présence du Ministre. Depuis le deuxième cycle de PISA (2003), une copie des diapositives PowerPoint projetées lors de cette présentation est mise à disposition sur le site internet de l’administration (l’AGERS). Elles reprennent en grande partie les informations contenues dans les rapports de synthèse. 14 Les chercheurs reçoivent en septembre une base de données « utilisable » de la part du Consortium international et publient le rapport synthétique au début du mois de décembre. 33 3. PISA, savoir et pouvoir Les rapports complets Pour chaque cycle de PISA, un rapport plus complet, d’environ deux cent pages et considéré comme le « vrai rapport » par les chercheurs du SPE, est publié une année après la sortie du rapport de synthèse. Outre le fait qu’il présente de manière plus détaillée le dispositif de PISA, il se distingue du rapport de synthèse par une analyse des attitudes, engagement et stratégies d’apprentissage des élèves dans les disciplines, une analyse comparative des variances intra- et inter-établissements (en particulier de l’influence de l’origine sociale des élèves et du recrutement social des établissements sur les résultats), ainsi que des résultats aux questionnaires optionnels. Cependant, hormis pour le premier cycle de PISA (2000), ce rapport complet n’est pas diffusé par l’administration, mais dans une publication (payante) propre au Centre de recherche (le SPE). Pour le premier cycle de PISA (2000), l’administration a diffusé également deux autres documents plus étoffés : l’un, d’une cinquantaine de pages, présente de manière très détaillée le dispositif de PISA15 ; l’autre, d’environ quatre-vingts pages, approfondit les différences de performances obtenus par les élèves selon leurs caractéristiques personnelles et leur environnement familial (genre, parcours scolaire, origine ethnique, origine sociale). Les documents didactiques destinés aux enseignants Depuis le deuxième cycle de PISA (2003), la diffusion des résultats de PISA pour la CFB se fait également sous forme de documents destinés aux enseignants de la discipline qui est évaluée à titre principal16 et travaillant aux 1er et 2ème degrés d’enseignement secondaire (c’est-à-dire avec les élèves susceptibles d’être évalués par l’étude PISA). Ces documents sont diffusés dans les écoles par le Service Général de Pilotage et sur le site internet de l’administration. Il s’agit de « documents plus didactiques », rédigés par les chercheurs du SPE, qui proposent notamment des « pistes de travail » aux enseignants pour « pouvoir les aider et ne pas les laisser seuls face aux mauvais résultats de PISA » selon l’ancien NPM. Cette démarche est présentée comme s’inscrivant dans une forme de pilotage « bienveillant » (opposée à un pilotage « top-down »), qui « ne se contente pas de prendre et de renvoyer l’information », « qui ne se fait pas contre les enseignants mais avec eux, en les accompagnant pour les aider à améliorer le système et en essayant d’avoir des régulations qui démarrent au niveau de la classe ou des équipes pédagogiques et qui remontent » (selon les propos de l’ancien NPM). 15 Ce document présente l’origine de PISA, les différences avec les enquêtes internationales antérieures, la population concernée, le contenu de l’évaluation, l’apport de PISA, l’organisation du test, l’organigramme de PISA, les garanties de validité des comparaisons internationales et les contrôles de qualité, la marge de manœuvre des pays (options internationales et nationales), la définition des compétences évaluées, des exemples d’items, le design de l’étude, l’échantillonnage, déroulement de l’enquête, la saisie et le nettoyage des données, les échelles et les niveaux de compétences évalués. 16 Il s’agit, pour rappel, des mathématiques en 2003 et des sciences en 2006. 34 3. PISA, savoir et pouvoir Un premier type de document, de plusieurs dizaines de pages17, présente le cadre général de l’étude, les concepts sous-jacents à l’évaluation (par exemple, la « culture mathématique » ou le « processus de mathématisation »), quelques résultats plus détaillés en CFB, relatifs à la discipline concernée, et des exemples de questions utilisées lors des tests18. Le document opère à cette occasion une mise en relation entre les compétences évaluées par l’étude PISA et celles qui sont aujourd’hui demandées en CFB selon les « référentiels officiels » (les « Socles de Compétences » et les « Compétences terminales »). Enfin, il esquisse quelques pistes didactiques : il s’agit de propositions relativement générales concernant la manière dont « les enseignants peuvent tirer parti de l’éclairage offert par le type d’évaluation proposé par PISA »19 et la manière dont ils peuvent « utiliser les problèmes proposés dans PISA comme point de départ d’un apprentissage » en vue « d’aider les élèves à acquérir ces compétences » (Ministère de la Communauté française, 2004, p. 47 et 49)20. Pour le deuxième cycle de PISA (2003), trois autres documents sont par ailleurs mis à disposition sur le site de l’administration : il s’agit de cours documents (3 pages) qui présentent la manière dont la « littéracie », la 17 Le document comporte une cinquante de pages pour le deuxième cycle de PISA (2003) et une septantaine pour le troisième cycle de PISA (2006). 18 Le document présente les résultats moyens des élèves sont d’abord donnés pour chacune des compétences définies dans PISA, pour les différents niveaux de « l’échelle combinée », ainsi que quelques résultats relevant des différentes « sous-échelle », en comparant les années d’études et les filières d’enseignement. Le document diffusé pour le troisième cycle de PISA (2006) présente également les attitudes des élèves à l’égard des sciences et des cours de sciences. 19 A titre d’exemple, on retrouve dans le document destiné aux enseignants de mathématiques des 1er et 2ème degrés de l’enseignement secondaire, publié pour le deuxième cycle de PISA (2003), la proposition suivante : (à propos de la résolution de problèmes proches de la vie réelle) « si l’on accepte le point de vue défendu dans le programme PISA, (…) il convient d’accorder une place à l’enseignement de ce type de problèmes dans tous les cours de mathématiques (…). La variété des problèmes proposés dans PISA (cf. les échelles de compétences) devrait permettre à chacun de trouver un matériau adapté pour développer les compétences des élèves en résolution de problèmes » (Ministère de la Communauté française, 2004, p. 48). Autre exemple : le document destiné aux enseignants de sciences des 1er et 2ème degrés de l’enseignement secondaire, publié pour le troisième cycle de PISA (2006), suggère de « favoriser le débat entre élèves et la production d’écrits pour aider la mobilisation des acquis » pour palier à certains résultats à PISA qui montrent que beaucoup d’élèves ne parviennent pas à connecter certaines compétences avec des situations de la vie courante et éprouvent des difficultés dans l’expression ou la communication scientifique (Quittre et alii, 2007, p. 50). 20 A titre d’exemple, on retrouve dans le document destiné aux enseignants de mathématiques des 1er et 2ème degrés de l’enseignement secondaire, publié pour le deuxième cycle de PISA (2003) une « esquisse de la manière dont les problèmes proposés dans PISA peuvent servir de point de départ aux apprentissages » sous forme d’un tableau qui liste une série de compétences à développer (comme les « problèmes simples nécessitant l’identification et l’application du rapport mathématique approprié » correspondant aux niveaux 1 et 2 des différentes échelles) et les exemples de problèmes permettant de les développer (comme le « taux de change » impliquant le contenu « quantité »). 35 3. PISA, savoir et pouvoir « culture scientifique » et la « résolution de problèmes » sont définies et évaluées dans le test PISA. Les présentations orales auprès d’acteurs scolaires et de la communauté scientifique A côté des rapports écrits, il est à noter que le NPM et ses collègues organisent également des présentations orales des résultats de PISA à la demande de divers acteurs, comme les associations de parents d’élèves, les associations de directeurs, les associations de professeurs, les syndicats d’enseignants ou des pouvoirs organisateurs21. Le NPM répond aussi à des demandes d’information de la part d’acteurs intermédiaires (comme les réseaux ou les syndicats) en publiant dans leur organe de diffusion une présentation des rapports ou en accordant des entretiens. Enfin, certains résultats sont également diffusés aux écoles qui ont participé au test en leur demandant de ne pas en faire la publicité (laquelle est interdite). Les documents officiels connexes Les résultats de PISA sont également diffusés sous forme d’indicateurs dans une publication dirigée par la Direction des Relations Internationale, à laquelle collabore le centre national de recherche (le SPE), et qui est davantage destinée aux « décideurs ». Les publications de la DRI comportent de larges extraits des rapports nationaux rédigés par les chercheurs du SPE et fournissent une lecture similaire des résultats de la CFB à PISA. La présentation des résultats de PISA y est néanmoins plus « lisse » et l’interprétation des causes des problèmes est plus « prudente ». 3.1.2 Les rapports PISA et le débat public en éducation Après avoir présenté brièvement les différents supports à la diffusion officielle des résultats des enquêtes PISA, nous allons à présent nous interroger sur leur impact public. Nous allons tout d’abord identifier les connaissances qui sont produites et véhiculées par les rapports nationaux. Nous examinerons ensuite la manière dont elles sont diffusées et reçues par les différents acteurs scolaires : Les connaissances produites par les rapports nationaux sont-elles connues ? Par qui ? Quelle est leur diffusion ? Finalement, nous verrons quelles sont les connaissances véhiculées par les rapports nationaux qui ont un impact public, qui sont retenues et discutées publiquement. Les connaissances véhiculées par les rapports nationaux Les différents documents qui servent à la diffusion officielle de PISA diffusent plusieurs types de connaissances : de différentes formes ou natures (théoriques, empiriques, 21 A titre illustratif : pour le premier cycle de PISA, le NPM et ses collègues ont répondu, entre janvier 2002 et avril 2003, à une cinquantaine de sollicitations de conférences ou d'interviews différentes sur PISA. 36 3. techniques, statistiques, descriptives, comparatives, PISA, savoir et pouvoir classificatoires, explicatives, associatives, causales, normatives) et portant sur divers objets. En premier lieu, ils véhiculent des connaissances au sujet de l’étude PISA elle-même, que les chercheurs du SPE s’efforcent de décrire comme un outil « solide » et irréprochable en présentant de manière relativement détaillée les garanties de fiabilité aux différentes étapes de l’enquête, les mécanismes de contrôle opérés tout au long de l’étude et les procédures mises en œuvre pour prévenir tout biais ou toute inadéquation culturelle, rappelant la « hantise de l’OCDE de se prémunir contre toute critique de partialité » (comme l’ont encouru d’autres études internationales) : « Il ne fait pas de doute que l’étude PISA, est, de toutes les études comparatives jamais entreprises, celle qui a poussé le plus loin les procédures de standardisation et de contrôle de qualité, d’une part parce qu’elle bénéficie de l’expérience accumulée au cours des trente dernières années en matière d’évaluation comparative, d’autre part parce que l’Ocdé est hantée par le souci de se prémunir contre toute critique de « partialité » du type de celles qu’a encourues l’étude IALS (International Adult Literacy Study) de la part de la France [en note en bas de page : Pour rappel, la France, après avoir participé aux différentes phases d'élaboration de IALS, a mis en question plusieurs aspects méthodologiques de l'étude et s'en est retirée, en sorte que les résultats de la France ne figurent pas dans les rapports internationaux]. Pour PISA, les pays participants sont vraiment sous haute surveillance. L’élévation du niveau de contrôle est d’ailleurs l’un des éléments qui conduit à une augmentation sensible des coûts nationaux d’une telle enquête comparativement à des enquêtes antérieures du même type. (…) PISA a fait appel aux pays participants pour qu’ils fournissent du matériel d’évaluation (textes, documents, items) qu’ils estiment adapté pour un public d’élèves de 15 ans. Un matériel nombreux et diversifié a ainsi été recueilli auprès de 18 pays, mais, malgré cela, les textes d’origine anglo-saxonne restent dominants dans l’ensemble. (…) La dominante anglo-saxonne est incontestable (…). Pour notre part, nous ne considérons pas que les conséquences d’un tel déséquilibre sont problématiques pour l’entreprise, dès lors que les contrôles en vue d’éviter les biais culturels et linguistiques sont effectués avec un maximum de rigueur (Fonctionnement Différentiel des Items), ce qui est le cas dans PISA. (…) Tout au long du processus de choix du matériel et de construction des items, les pays, via leur NPM et les comités nationaux, ont cependant été à plusieurs reprises consultés sur l’adéquation du contenu des épreuves aux réalités des pays. » (Lafontaine, 2003, p. 31, p. 34 et p. 36). PISA est aussi présenté comme un outil qui ne vise pas à analyser le « rendement scolaire » du système éducatif, mais bien à « évaluer les compétences essentielles pour la vie future des jeunes » dans une « vision citoyenne plus large ». Les chercheurs mettent alors en avant la proximité entre les modèles théoriques sous-jacents à PISA et les orientations pédagogiques prises ces dix dernières années en CFB qui privilégient la « maîtrise de compétences » plutôt que « l’acquisition de savoirs et contenus scolaires » (Lafontaine, 2000, p.1 ; Lafontaine et alii, 2004c, p. 1 ; Baye et alii, 2007a, p. 4). Enfin, PISA est présenté comme un outil pertinent : comme un « instrument de pilotage » du système éducatif qui fournit des « éléments d’information non accessibles par d’autres sources » (Lafontaine, Baye et Matoul, 2000, p. 52)22. La comparaison internationale, en particulier, est vue comme un moyen « d’objectiver la situation de la Communauté française en la comparant à celle d’autres pays » (Baye et alii, 2007a, p.18). En même temps, les chercheurs mettent en garde contre le danger inhérent aux études 22 En particulier, PISA est présenté comme offrant à la CFB l’occasion d’évaluer les effets de réformes récentes telles que la mise en œuvre des Socles de compétences ou des Compétences terminales, ou encore des de la mise en œuvre des discriminations positives (Lafontaine, Baye et Matoul, 2000, p. 8). 37 3. PISA, savoir et pouvoir internationales de « braquer le projecteur sur le classement et sur la place occupée par un pays dans le classement », alors que, comme dans le cas de PISA, les « différences au sein des pays sont bien plus prononcées que les différences entre pays » (Baye et alii, 2077, p. 22). Ensuite, les rapports nationaux véhiculent des connaissances relatives aux « résultats » des élèves de la CFB au test de PISA sous la forme de données statistiques descriptives (pourcentages, moyennes, écart-type, variances, tableaux ou graphiques) et d’analyses statistiques de relations entre diverses variables. Ces connaissances opèrent, d’une part, divers classements et comparaisons (entre la CFB et la Communauté flamande, entre la CFB et les autres pays participants, entre les établissements et entre les élèves selon diverses caractéristiques), et, d’autre part, diverses associations entre variables (entre les résultats au test et le profil du système éducatif et celui des élèves). Elles dressent par là-même un certain « portrait » du système éducatif en CFB. Ces analyses statistiques sont accompagnées d’interprétations, plus politiques, sur les « problèmes » mis en évidence par l’étude PISA et sur les « solutions » qu’elle suggère. Pour les trois cycles de PISA (2000, 2003 et 2006), ces interprétations mettent l’accent de manière systématique sur la disparité des résultats entre les élèves, sur l’inéquité et la ségrégation du système éducatif en CFB, en tentant de minoriser la présentation des résultats en termes de « mauvaise moyenne » ou de « mauvaise place dans le classement ». La CFB y apparaît alors à la fois comme la région où la « différence entre les élèves les plus forts et les plus faibles est la plus importante » et celle où « l’incidence du statut socioprofessionnel des parents sur les performances des élèves se marque le plus fort ». De ce point de vue, la situation de la CFB est présentée comme proche de celle de l’Allemagne. Le système éducatif de la CFB est ainsi décrit comme faisant partie des « moins égalitaires » et « impuissant à compenser les inégalités sociales de départ » - ce que les chercheurs présentent comme un « diagnostic sans appel ». En comparaison, certains pays (comme la Finlande ou le Canada) sont présentés comme alliant à la fois l’efficacité et l’équité. « Les scores moyens des pays n’ont qu’un intérêt limité dans la mesure où ils masquent la diversité des résultats propres à chaque pays » (Lafontaine et alii, 2004, p.6 ; Ministère de la Communauté française, 2004, p. 23) « Ce qui frappe en Communauté française de Belgique, (…) c’est, davantage que la moyenne, l’ampleur de la dispersion des résultats. » (Lafontaine, 2000, p. 6 ; Lafontaine, 2002, p. 18 ; Lafontaine, 2003, p. 55) « En Communauté française, la dispersion des résultats est particulièrement grande : la différence entre les 5 % d’élèves les plus forts et les 5 % les plus faibles est la plus importante des pays industrialisés. (…) Globalement, on peut synthétiser les constats comme suit : la Communauté française parvient, à la hauteur des autres pays, à former une certaine élite, comme en témoigne le taux d’élèves aux niveaux supérieurs de l’échelle. Par contre, la difficulté se situe dans la gestion des élèves en difficulté. Ils sont trop nombreux, plus que dans d’autres pays, à se situer aux niveaux inférieurs de l’échelle. » (Baye et alii, 2007a, pp.14-15 ; Quittre et alii, 2007, p. 14) « De tous les systèmes éducatifs des pays participant à PISA, c’est en Communauté française de Belgique que l’incidence du statut socio-professionnel des parents sur les performances en lecture des élèves se marque le plus. (…) La Communauté française de Belgique, en dépit de mesures structurelles visant à compenser les inégalités sociales (discriminations positives) fait, hélas, partie des pays ou régions où les systèmes éducatifs 38 3. PISA, savoir et pouvoir sont les moins « égalitaires ». Sur ce point, le diagnostic est sans appel. » (Lafontaine, 2002, pp. 40-41 ; Lafontaine, 2003, pp.85-86) « (…) La Communauté française se situe parmi les pays les plus discriminants, avec la France, le Luxembourg et l’Allemagne pour les pays européens. » (Baye et alii, 2007a, p. 17) Enfin, les rapports nationaux proposent également une interprétation des causes aux « problèmes » mis en lumière par PISA, qui, pour les trois cycles de PISA (2000, 2003 et 2006), remet principalement en question les structures du système éducatif en CFB : le taux élevé de redoublement, la hiérarchie entre les filières d’enseignement, la ségrégation du système éducatif en fonction du milieu social et ethnique. L’allongement du tronc commun et la mixité sociale au sein des écoles sont alors avancés comme des voies à travailler par la politique éducative, dont la priorité devrait, selon les chercheurs, porter sur « les élèves les plus faibles », « s’atteler aux problèmes des élèves en grande difficulté, fréquentant pour l’essentiel les filières de qualification, souvent en retard dans leur parcours scolaire et concentrés dans certains établissements » (Lafontaine et alii, 2004, p. 9). Si les chercheurs suggèrent aussi que des caractéristiques propres à l’enseignement des disciplines sont à prendre en considération, les interprétations pédagogiques occupent cependant une place mineure. « Si les résultats de PISA sont une invitation à se pencher sur la pédagogie de la lecture, ils sont aussi et peutêtre surtout l’occasion de s’interroger sur le fonctionnement du système éducatif en Communauté française, qui semble à l’origine des disparités considérables d’acquis entre élèves et entre établissements. » (Lafontaine, 2003, pp. 196-197) « Le fait qu’une même tendance de fond s’observe dans les trois domaines tend à orienter une partie importante de l’explication vers la structure du système éducatif (redoublement, filières, disparités entre écoles) qui, à l’évidence, n’œuvre pas en faveur d’une réduction de l’hétérogénéité des performances. Néanmoins, le fait que cette tendance générale prenne des accents plus ou moins prononcés selon les domaines – la situation étant plus critique pour les sciences et la lecture et moins critique pour les mathématiques - indique que des caractéristiques propres à l’enseignement de certaines compétences disciplinaires ou transversales sont également à prendre en considération. » (Lafontaine, 2000, p. 8 ; Lafontaine, 2002, pp. 28-29 ; Lafontaine, 2003, p. 67) « Sans grand risque d’erreur, on peut avancer que la disparité de performances constatée a partie liée avec la façon dont notre système éducatif se structure (qui a pas mal de points communs avec le système allemand) : taux élevé de redoublement, filières hiérarchisées, importantes disparités entre établissements, ségrégation de fait en fonction du milieu social et ethnique contribuent à homogénéiser les groupes d’élèves. » (Lafontaine, 2002, p. 18 ; Lafontaine, 2003, pp. 55-56) « Les données de PISA 2006 montrent, une fois de plus, qu’il existe des différences importantes d’une école à l’autre, et que les facteurs socioéconomiques pèsent fortement dans l’explication de ces différences. Ce constat vaut pour les pays qui, comme la Communauté française, organisent une sélection précoce par de multiples biais (filières, redoublement) au détriment de structures favorisant l’acquisition des compétences de base par tous. » (Baye et alii, 2007a, p. 22) La diffusion des rapports nationaux Le NPM et ses collègues du SPE jouent un rôle capital dans la production et la diffusion des connaissances de PISA en CFB. Premièrement, parce qu’ils constituent la principale source d’informations sur PISA : ils sont les premiers et les seuls à produire des résultats détaillés et complets pour la CFB. Relativement peu d’autres acteurs, même parmi les chercheurs universitaires, s’emparent de la base de données mise à disposition par 39 3. PISA, savoir et pouvoir l’OCDE comme nous le verrons dans la partie 4 du rapport, et quand ils le font, c’est en limitant nettement plus le champ des variables prises en compte. Les connaissances produites par le NPM connaissent ensuite une bonne diffusion médiatique, du moins celles contenues dans les rapports de synthèse et véhiculées lors de la conférence de presse. En effet, au moment de la publication des résultats, les médias non seulement diffusent le communiqué de presse de l’OCDE, mais ils rapportent également ce qui est présenté par le NPM lors de la conférence de presse organisée en CFB, laquelle s’appuie sur les premiers rapports de synthèse. Cette conférence de presse joue donc un rôle fondamental dans la mesure où le principal mode de diffusion des résultats de PISA au sein du grand public reste les médias23. Les médias ne constituent pas seulement un lieu de diffusion des résultats de PISA, ils sont aussi un important lieu de débat sur PISA et un support au débat politique dans la mesure où divers acteurs prennent appui sur ce qui est rapporté par les médias pour soutenir leur propos. Nous y reviendrons dans la section suivante (point 3.2). Plusieurs personnes interviewées soulignent la médiatisation exceptionnelle des enquêtes PISA - leur « retentissement médiatique » sans précédent (selon le représentant de la CFB au PGB) -, alors que PISA, de l’avis de toutes les personnes interviewées, « n’apprend rien de neuf » sur le système éducatif en CFB par rapport à d’autres études nationales ou internationales antérieures. Plusieurs raisons sont avancées pour expliquer cette médiatisation. Selon l’ancien NPM, il y a tout d’abord eu un certain effort de la part du politique pour diffuser les résultats de l’enquête PISA dès le premier cycle (en 2000), ce qui n’était pas le cas avec les autres enquêtes internationales (comme Reading Literacy de l’IEA en 1991, un rapport de l’OCDE au début des années 1990 ou l’étude TIMMS en 1995). Plusieurs personnes rencontrées soulignent que les enquêtes internationales antérieures à PISA étaient largement méconnues, non seulement par le grand public mais aussi par les acteurs politiques qui, selon l’ancien NMP, les ont « ignorées » : « ils s’asseyaient dessus et oubliaient ». L’intérêt politique plus élevé à l’égard des études PISA s’inscrit tout d’abord, nous semble-t-il, dans un contexte politique favorable aux évaluations externes en lien avec la problématique du pilotage du système éducatif comme nous l’avons vu dans la partie 2 du rapport. La plus forte diffusion et réception des enquêtes PISA peut ainsi être reliée, en partie, à une certaine évolution du rapport des acteurs politiques et des acteurs scolaires aux évaluations externes du système. Cependant, l’effort accru de diffusion de PISA est aussi à mettre en relation avec une certaine pression qui semble être indirectement exercée par l’OCDE sur les équipes 23 A côté des médias, on peut aussi souligner la diffusion des résultats des enquêtes PISA via les publications propres à certaines catégories d’acteurs œuvrant dans le champ scolaire (comme les publications des syndicats d’enseignants, de certains mouvements pédagogiques ou du réseau d’enseignement catholique). 40 3. PISA, savoir et pouvoir nationales : selon l’ancien NPM, si l’OCDE « ne surveille pas strictement ce que l’équipe fait », elle leur demande néanmoins « comment ils ont diffusé l’information » et « le simple fait qu’on le demande à tendance à faire que les équipes nationales essayent de le faire connaître ». Ensuite, plusieurs personnes évoquent le rôle même des médias dans la diffusion des résultats de PISA, médias qui auraient également « découvert qu’on faisait des évaluations externes internationales avec PISA » (selon un membre du cabinet ministériel). Plusieurs personnes rencontrées expliquent le « battage médiatique » autour de PISA par la stratégie de communication et la renommée de l’OCDE : PISA constitue une « véritable machine de guerre de l’OCDE » et les médias seraient plus familiers de l’OCDE, plus intéressés aussi par le fait de reporter ses propos, alors que l’IEA, par exemple, n’organise pas toujours de conférence de presse, est moins connu et de ce fait intéresserait moins les médias. C’est ce qu’expriment les chercheurs du SPE et un membre du cabinet ministériel dans les extraits d’entretiens suivants : « Si on prend les évaluations internationales, par exemple, celles qui ont précédés PISA, elles ont eu beaucoup moins de retentissements. (…) PISA, c’est la machine de guerre OCDE. L’explication, c’est ça. (…) L’OCDE, elle ne surveille pas strictement ce qu’on fait mais on sent que c’est valorisé. On nous demande quand même : comment est-ce que vous avez diffusé l’information chez vous ? Qu’est ce qu’il s’est passé ? Le simple fait qu’on le demande a tendance à faire qu’on essaie de le faire connaitre. Et puis les journalistes, ils voient OCDE, ils sont mobilisés. Il y a une conférence de presse internationale, et voilà. (…) (en parlant du politique) Il y a déjà eu un effort de diffusion de l’information, ce qui est une réaction, parce que je connaissais ce qui se passait avec les enquêtes de l’IEA : on s’asseyait dessus et puis fini. Ce n’était pas seulement qu’ils ne savaient pas.(…) Par exemple, en 1991, IEA Reading Literacy, c’était : qu’est-ce que c’est que ces affaires-là ? Les enquêtes internationales, on s’assied, on oublie. (…) » (Ancien NPM, chercheur au SPE, entretien) « Pisa a (…) fonctionné un peu comme un électrochoc pour sensibiliser au fait qu’il y avait des choses qui n’allaient pas bien dans notre enseignement parce qu’il y avait déjà eu des études de l’IEA lors desquelles les chercheurs essayaient de tirer la sonnette d’alarme, mais il n’y avait pas grand-chose qui bougeait. A mon avis parce qu’il n’y avait pas le même retentissement médiatique. (…) Je pense que c’est le battage médiatique, le fait que c’est une étude qui est très sérieuse et qui, finalement, est très peu critiquée. (…) La qualité est dans l’ensemble assez largement reconnue et donc il n’y a pas des voix discordantes. (…) C’est l’OCDE qui a une politique de diffusion de ses données. Peut-être que les médias sont aussi plus attentifs à ce que l’OCDE dit qu’à ce que l’IEA peut dire. Je crois qu’ils sont plus familiers de l’OCDE que de l’IEA. (…) C’est très difficile de ne pas prévoir une conférence de presse par exemple alors que pour l’IEA il n’y en n’a pas toujours eu et comme l’IEA n’est pas si connu du grand public et de la grande presse, il n’y a pas forcément du monde à la conférence de presse. Maintenant ça a évolué. Je pense que les derniers cycles de l’IEA ont quand même aussi eu un peu plus de retentissements que les cycles précédents. » (Représentant de la CFB au PGB, chercheur au SPE, entretien) « Les médias ont découvert qu’on faisait des évaluations externes internationales avec PISA » (Conseiller au cabinet ministériel, entretien) Les récepteurs des rapports nationaux Si les rapports de synthèse et les propos tenus lors de la conférence de presse semblent bien diffusés, par les médias surtout, ce n’est pas le cas des autres documents produits par les chercheurs du SPE même si la plupart sont facilement accessibles (via le site internet de l’administration)24. Néanmoins, selon plusieurs personnes interviewées, les 24 Ce n’est pas le cas des derniers rapports complets, pour les deuxième et troisième cycles de PISA (2003 et 2006), qui sont payants et ne sont pas diffusés sur internet. 41 3. PISA, savoir et pouvoir « acteurs intermédiaires » (responsables de réseaux, syndicats, etc.) et les acteurs politiques auraient une assez bonne connaissance des différents rapports nationaux sur PISA : « très clairement, il y a un bon niveau d’appropriation par toute une série de responsables ou de décideurs qui connaissent très bien ce qu’il y a dans l’enquête PISA » (propos de l’ancien NPM). Selon l’ancien NPM, les acteurs politiques « s’emparent seuls des résultats de PISA : ils ont les rapports, ils les lisent, ils moulinent ». Un membre du service d’étude du Parlement de la CFB évoque également la participation de plusieurs parlementaires de la Commission Education du Parlement de la CFB à un « séminaire de haut niveau » organisé par l’OCDE après la sortie des résultats du deuxième cycle de PISA (2003). En ce qui concerne les membres du cabinet du Ministre de l’enseignement, on peut aussi souligner le fait que le mode de recrutement de son personnel favorise probablement une certaine proximité avec les enquêtes PISA dans la mesure où plusieurs personnes qui y travaillent sont d’anciens chercheurs en éducation, voire d’anciens membres de l’administration scolaire qui ont déjà travaillé avec les données PISA. En ce qui concerne les « acteurs intermédiaires » (responsables de réseaux, syndicats, etc.), selon l’ancien NPM, ceux-ci « se sont emparés de l’information » et connaissent les résultats des enquêtes PISA au point « qu’ils en disent la même chose que lui et pourraient faire la conférence de presse à sa place ». Un responsable du service d’étude du réseau d’enseignement catholique que nous avons rencontré se qualifie lui-même, par exemple, de « Monsieur PISA » et déclare avoir lu tous les rapports de « A à Z » (non seulement les résultats mais aussi les informations sur l’ensemble du dispositif d’enquête). Par contre, rares sont ceux qui travaillent directement sur la base de données, notamment, selon eux, en raison d’un manque de temps ou de moyens (comme l’accès à des logiciels d’analyse statistique). En dehors des chercheurs universitaires, seuls un acteur intermédiaire (membre d’un mouvement pédagogique) et un acteur politique (un député libéral, d’opposition) ont produit leurs propres analyses à partir d’un travail sur la base de données. Par contre, selon plusieurs personnes interviewées, le « grand public » et les « acteurs de terrain », comme les enseignants ou les inspecteurs25, n’en n’auraient qu’une connaissance « vague », construite principalement à partir des médias et ne retenant pratiquement que « la mauvaise position de la CFB ». Selon l’ancien NPM, malgré le « gros boulot de dissémination » entrepris, les enquêtes PISA restent finalement mal connues par « les gens » et « dans les écoles », hormis par les directeurs d’école. Les syndicats d’enseignants ne semblent pas servir de transmission de connaissances de type autre que juridiques (vulgarisation de dispositions réglementaires) auprès de leurs affiliés, ce qu’un responsable syndical rencontré relie au fait que les syndicats 25 Selon les inspecteurs généraux que nous avons interviewés, l’une des raisons pour lesquelles les inspecteurs ne connaissent pas les rapports PISA renvoie au fait que « la possibilité d’avoir accès à ce type de document n’est pas suffisamment institutionnalisé » et au manque de « centralisation des informations » (par exemple, il n’y pas de centre de documentation à disposition des inspecteurs). La circulation des informations (concernant PISA ou d’autres études) semble se dérouler de manière « informelle », via les collègues. Un inspecteur général souligne également le fait que les informations produites par PISA ne sont pas « sous une forme pratique et praticable » pour les inspecteurs qui auraient davantage besoin d’informations précises sur les écoles où il travaille. 42 3. PISA, savoir et pouvoir d’enseignants tendent aujourd’hui à devenir davantage des « organisations de services » (et moins des organisations « d’éducation permanente ») en lien avec une certaine « dépolitisation » du corps enseignant. Les connaissances des rapports nationaux qui sont connues, retenues et discutées dans le débat public Comme nous l’avons souligné précédemment, une partie des connaissances produites par les chercheurs du SPE connaissent une bonne diffusion médiatique, auprès des acteurs politiques, intermédiaires et scientifiques surtout, et en particulier les premiers rapports de synthèse qu’ils rédigent et les propos qu’ils tiennent lors de la conférence de presse. Cela ne signifie évidemment pas que les médias reproduisent fidèlement leur propos. Le traitement médiatique de l’enquête PISA est au contraire souvent critiqué pour « manquer de nuance » (selon l’ancien NPM) et « caricaturer » les informations contenues dans les rapports nationaux (selon le responsable d’un service d’étude du réseau d’enseignement catholique). Dans la mesure où ils constituent la principale source d’informations sur les résultats de la CFB à PISA, on pourrait supposer que la manière dont les chercheurs du SPE analysent les résultats, définissent les problèmes mis en évidence et en interprètent les causes, joue un rôle capital dans la réception des résultats de PISA par le grand public et par les autres acteurs œuvrant dans le champ scolaire. Qu’en est-il en réalité ? Comment les connaissances qu’ils produisent sont-elles reçues ? Quelles connaissances sont finalement retenues et discutées ? Les connaissances non retenues Lorsqu’on analyse les débats sur PISA ou ceux qui prennent appui sur ses résultats, dans les médias ou au sein de l’arène parlementaire, on remarque tout d’abord qu’une grande partie des connaissances contenues dans les rapports nationaux n’est pas du tout ou très peu discutée. Il en va ainsi, par exemple, des informations méthodologiques sur PISA et notamment de diverses « mises en garde » émises par les chercheurs quant à l’impact de certains choix méthodologiques sur les résultats (comme celui de sonder une population choisie sur la base du critère de l’âge et non sur celui de l’année d’étude). Il en va de même pour certains résultats, comme ceux tirés des questionnaires optionnels, ceux qui concernent le rapport des élèves à la matière ou aux études, ou encore les descriptions détaillées des compétences et niveaux de compétence évalués. Le niveau, la moyenne et le classement Ensuite, on observe que la principale connaissance qui semble retenue et discutée concerne en premier lieu le niveau des élèves, la moyenne et le rang de la CFB dans un classement comparatif des différents pays participants, et cela malgré les efforts 43 3. PISA, savoir et pouvoir déployés par les chercheurs du SPE, lors de la conférence de presse ou d’entretiens accordés, pour minimiser la lecture des résultats en termes de moyennes et de palmarès. Ainsi, dans la presse, de manière invariable selon le cycle de PISA concerné, les premières informations commentées, parfois comme une sorte de « préalable » à un autre développement, concernent les « mauvaises performances » des élèves en Communauté française et la « mauvaise position » de celle-ci par rapport à celle d’autres pays participants. Dans ce classement, les différences entre la Communauté Française et la Communauté Flamande sont particulièrement mises en avant (la Flandre étant mieux classée que la CFB). A titre d’exemples, voici quelques extraits de la presse écrite qui décrivent les résultats des élèves de la CFB comme « médiocres », « situés sous la moyenne de l’OCDE » et « plaçant la Communauté française en queue de peloton des pays de l’OCDE » : « Les performances des élèves en Communauté française sont parmi les plus mauvaises de l'OCDE. La Flandre, elle, pavoise (…) Les élèves francophones se sont classés autour de la 25e place dans les trois disciplines, largement en dessous de la moyenne des pays les plus développés et a fortiori bien loin des élèves flamands (…). » (La Libre, 04/12/01) « Mauvais bulletin pour nos élèves. L'OCDE classe les ados francophones en queue de peloton : Nos élèves francophones de 15 ans font piètre figure dans la classe qui réunit des jeunes de même âge, en Flandre et dans 31 autres pays de l'OCDE. Ils y accumulent les contre-performances en lecture, mathématiques et sciences. C'est ce que révèle l'étude Pisa 2000 de l'OCDE (…). » (Le Soir, 05/12/01) « Ces cancres francophones : Nos jeunes affichent des performances scolaires plus que médiocres et très inférieures à celles constatées en Flandre, révèle une étude de l'OCDE. En lecture, en mathématiques et en sciences, nos élèves de 15 ans, en Communauté française, se situent nettement sous la moyenne de leurs camarades du même âge dans les autres pays de l'OCDE (…) » (Le Soir, 05/12/01) « Dans toutes les matières examinées, la Communauté française se classe dans le groupe «moyen». » (La Libre, 07/12/2004) « Après Pisa 2000 - et exactement comme Pisa 2000 -, Pisa 2003, l'enquête internationale des performances scolaires, enfonce la Communauté française. Ses élèves, nos enfants, sont médiocres en maths, médiocres en sciences et médiocres en français. Ils l'étaient déjà en 2000. Ils le sont toujours. Aucun progrès. Vexation au carré : la Flandre cartonne. Elle fauche la médaille d'or en maths, le bronze en lecture, la 5e place en sciences. » (Le Soir, 08/12/04) « A l'instar des résultats PISA de 2003, les élèves de la Communauté française se situent en effet en deçà de la moyenne des pays de l'OCDE. » (Le Soir, 04/12/07a) « Ce résultat place la Communauté française en queue de peloton des pays de l’OCDE (…) » (Le Soir, 04/12/07b) La presse n’est pas la seule à commenter les résultats des enquêtes PISA en termes de niveau, de moyenne et de classement. Les débats parlementaires évoquent également largement les 27 « médiocre » , « mauvais » résultats 28 « insuffisant » , élèves26, des « sous la leur moyenne » niveau de de 29 l’OCDE , compétences voire une 30 « détérioration des résultats » . 26 A. Antoine, parlementaire PSC, PCF, 11/12/2001, p. 44 ; W. Borsus, parlementaire MR, PCF, 11/12/2007, p. 43. 27 PCF, 30/05/2002, p. 2 ; M. Neven, parlementaire MR, PCF, 15/12/2004, p. 19. 44 3. PISA, savoir et pouvoir Parmi les connaissances produites et diffusées par les rapports nationaux écrits par le NPM et son équipe, celle qui paraît avoir le plus fort impact public renvoie donc au niveau des élèves et au classement de la CFB. Et rares sont ceux qui reprennent les réserves énoncées dans les rapports nationaux à l’égard des classements, notamment le fait que les différences entre pays ne sont pas toujours statistiquement significatives ou que les différences au sein des pays sont plus prononcées que celles entre les pays31. La description qui est faite de l’enseignement en CFB à partir de ces résultats est alors largement négative et certaines personnes soulignent à ce propos l’effet dévalorisant et démoralisateur de l’enquête PISA. Si PISA est officiellement présenté comme outil servant à « identifier les points faibles et les points forts » des systèmes éducatifs (OCDE, 2001, p. 30), force est de constater qu’en CFB il semble que ce sont surtout les « points faibles » qui sont discutés et qui ont un impact public. Depuis le dernier cycle de PISA (2006), on peut néanmoins relever une certaine évolution dans le traitement des informations contenues dans les rapports nationaux : la presse comme les débats parlementaires ont fait écho à un résultat plus « positif » mis en avant par les chercheurs du SPE et qui concerne l’attitude des élèves envers la matière (envers les sciences et la protection de l’environnement)32. L’écart, la dispersion et la variance A partir de la diffusion des résultats du deuxième cycle de PISA (2003), il semble néanmoins qu’une certaine lecture des résultats sur laquelle insistent fortement les chercheurs du SPE et qui met l’accent sur la dispersion des résultats (les écarts entre élèves et entre établissements), la ségrégation du système éducatif en CFB et son caractère « inégalitaire » ou « inéquitable », tend progressivement à s’imposer et paraît devenir de plus en plus une donnée consensuelle difficilement « discutable ». Un « diagnostic » qualifié de « sans appel » par l’ancien NPM. Dans l’extrait d’entretien suivant, l’ancien NPM fait part de cette évolution et des difficultés éprouvées à « faire passer le message » : « Dès le début, mon objectif a toujours été de dire : ce qui est important dans PISA, ce n’est pas le classement, ce n’est pas le palmarès. Et pas seulement parce qu’on n’est pas bien classé. Mais je pense que 28 29 PCF, 25/01/2005, p. 15. P. Charlier, parlementaire PSC, 11/12/2001, p. 14 ; Dupont, parlementaire PS, PCF, 17/04/2002, p. 28 ; M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 11/12/07, p. 46. 30 A. Destexhe, parlementaire MR, PCF, 11/12/07, p. 40. 31 Dans la presse, pour la période analysée, seuls deux articles y font référence (il s’agit d’une « carte blanche » écrite par D. Leturcq, un directeur d’école, dans Le Soir, 04/01/02 ; et un entretien de M. Romainville, professeur de psychopédagogie, paru dans le Soir du 08/12/04g). 32 Cf. V. Jamoulle, parlementaire PS, PCF, 11/12/2007, p. 42 ; Y. Reinkin, parlementaire Ecolo, PCF, 11/12/07, p. 44 ; M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 13/02/2007, p.5. 45 3. PISA, savoir et pouvoir réellement, fondamentalement, le classement est surfait. Les différences entre les pays sont relativement petites par rapport aux différences à l’intérieur du pays. J’ai toujours essayé de mettre ça en évidence, avec plus ou moins de succès et plus ou moins d’échos. Parce que la presse très clairement, quoiqu’on fasse, demande : on est quantième ? Je dis : je ne sais pas. Parce que je ne le sais franchement pas. Et puis, de toute façon, ils recomptent. Ils disent : nous sommes 23ième sur 34. Donc le message a d’abord été très très fortement celui-là. En 2000, dans la presse écrite, j’ai eu beaucoup de mal à faire passer autre chose que ça, au niveau de titres. En 2003, ça a donné la même chose. En 2006, peut-être parce que ça se répète et que les journalistes aiment bien aussi amener quelque chose de nouveau ou bien parce que ce sont d’autres journalistes, on commence me semble-t-il à parler un peu moins du classement et un petit peu plus des disparités. Je sais bien que le Soir a titré « Trop d’élèves en difficulté » en première page, ce qui était une grande victoire symbolique. Alors, quand je fais des conférences, c’est toujours ça. Je montre le classement, puis j’essaie de relativiser en disant : voyons un peu au cœur de la Communauté française, voyons un peu les écarts entre les groupes. J’amène toujours la dimension de l’équité, à côté de la dimension de l’efficacité. » (l’ancien NPM, chercheur SPE, entretien) Si une présentation des résultats de PISA en termes de dispersion, d’écarts entre élèves et entre établissements, de variance inter- et intra-établissements se trouvait déjà dans la presse dès la publication des résultats du premier cycle de PISA (2000), il apparaît donc que l’accent soit de plus en plus mis sur cette lecture. Non seulement, on en parle plus fréquemment, mais on insiste aussi davantage sur le fait que PISA révèle « surtout » ce type de connaissance-là. Corrélativement, on évoque de plus en plus la présence d’une « proportion importante d’élèves très faibles et en difficulté » : « L'enquête OCDE révèle également que les disparités dans les résultats sont particulièrement importantes en Communauté française. Et que le nombre d'élèves affichant des performances très médiocres est parmi le plus élevé de la zone OCDE. » (La Libre, 04/12/01) « Avec l'Allemagne, la Communauté française présente le système éducatif où l'hétérogénéité des performances est la plus accentuée. » (Le Soir, 5/12/01) « Comme PISA 2000, l’enquête menée en 2003 révèle chez nos ados de 15 ans des performances faibles en maths, sciences et lecture. Elle révèle surtout une école inégalitaire (…) avec de grands écarts entre les élèves forts et faibles. » (Le Soir, 07/12/04) « Notre école francophone, et l'enquête Pisa le dit, elle le confirme, se singularise par un fossé énorme - et humainement inacceptable - entre un petit peloton d'élèves confortablement scolarisés et brillants (ceci expliquant sans doute cela), et une poche d'élèves à la traîne, confinés dans des écoles aux pauvres moyens (ceci expliquant assez cela aussi). » (Le Soir, 08/12/04) « Parmi les points noirs pour la Communauté française, figurent le pourcentage important d’élèves de faible niveau et le caractère inégalitaire du système scolaire » (la Libre, 04/12/07)33 Dans les débats parlementaires, on observe une même évolution : l’accent mis sur les écarts entre les élèves et la dispersion des résultats entre les établissements est également plus forte depuis la publication des résultats du deuxième cycle de PISA (2003) et il est principalement le fait des parlementaires socialistes et écolos34, comme nous le verrons plus loin. 33 Pour les différents extraits, c’est nous qui soulignons. 34 Cf. Dupont, à l’époque parlementaire PS, PCF, 17/04/2002, p. 30, p. 31 ; J. –M. Nollet, à l’époque Ministre de l’enseignement fondamental, écolo, PCF, 19 juin 2002, p. 6 ; M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 11/01/2005, PCF, 11/12/07, p. 46, p. 3 et PCF, 16/12/07, p. 4 ; V. Jamoulle, parlementaire PS, PCF, 11/12/2007, p. 42 ; Y. Reinkin, parlementaire Ecolo, PCF, 11/12/07, p. 44). C’est aussi le cas dans la presse. Par exemple, en 2001, au moment où le ministre de l’enseignement secondaire était libéral (P. Hazette), la ministre socialiste de l’Enseignement supérieur (F. Dupuis) s’est exprimée à plusieurs reprises dans la presse pour relativiser les « mauvais » résultats et mettre en avant « l’énorme différence » entre les performances : « Contrairement à ce que j'ai déjà lu et entendu, cette enquête ne signifie pas que tous les élèves francophones sont des cancres, dit-elle. L'étude révèle surtout l'énorme différence qu'il y a entre ceux qui ont de relativement bonnes performances et le trop grand nombre d'élèves qui eux sont très très mal classés. » (F. Dupuis, La Libre, 05/12/001), 46 3. PISA, savoir et pouvoir On observe donc une certaine évolution dans le type de connaissances produites par les rapports nationaux qui sont relayées dans les médias. Ceux-ci font de plus en plus de place aux connaissances relatives à la dispersion et la variance des résultats, sans remettre en cause cependant celles qui ont trait au niveau des élèves et au classement de la CFB qui continuent à occuper une place dominante. L’évolution des titres des unes de la presse écrite est à ce sujet assez éloquente. Ainsi, alors que pour les premier et deuxième cycles de PISA (2000 et 2003), les titres de presse n’évoquent que le niveau des élèves en CFB, tels que « Le bulletin francophone est déplorable »35, « Mauvais bulletin pour nos élèves »36, « Bonnets d'âne pour les ados francophones »37, « Nos élèves restent très moyens »38, « L’école francophone fait du surplace »39, « Mauvais bulletin pour les francophones »40, lors de la publication des résultats du troisième cycle de PISA (2006), des titres tels que « Faible et inéquitable »41 ou « Trop d'élèves en difficulté en Wallonie et à Bruxelles »42 font leur apparition, néanmoins toujours à côté de titres mettant en avant le classement tels que « Les belges obtiennent une bonne moyenne »43 ou « Les finlandais en tête du classement »44. Soulignons que la problématique de la présentation des résultats sous forme de classement et de moyenne ou sous forme d’écart et de variance n’est pas anodine dans la mesure où ces deux types de présentation suggèrent ou sont associés à des lectures et des interprétations différentes des résultats, l’une mettant plutôt l’accent sur les « Parler de bonne ou mauvaise école, `c'est catastrophique´ » (F. Dupuis, La Libre, 09/12/01), « « Je suis très choquée des amalgames qui ont été faits à partir des résultats de l'enquête OCDE sur les performances des élèves. Non, tous les jeunes francophones ne sont pas des cancres. L'enquête ne démontre pas que tous les élèves sont «mauvais», mais bien qu'un fossé énorme existe entre ceux dont les performances sont bonnes à très bonnes et malheureusement un grand nombre d'élèves en retard ou en décrochage. En statistiques cela ne pardonne pas. La Communauté française a, avec l'Allemagne, un des systèmes éducatifs où l'hétérogénéité est la plus grande. (…) C'est donc bien l'énorme variance entre établissements qui est en cause (…) » (F. Dupuis, Le Soir, 06/12/01). 35 La libre, 4/12/2001. 36 Le Soir, 5/12/2001. 37 Le Soir, 11/12/2001. 38 Le Soir, 7/12/2004a. 39 Le Soir, 7/12/2004b. 40 Le Soir, 14/12/2004. 41 La Libre, 5/12/2007a. 42 Le Soir, 5/12/2007a. 43 La Libre, 4/12/2007. 44 Le Soir, 4/12/2007e. 47 3. PISA, savoir et pouvoir performances, le niveau des élèves, l’efficacité du système, l’autre plutôt sur les différences, les inégalités entres élèves et l’inéquité du système. Les associations entre variables Parmi les connaissances contenues dans les rapports nationaux qui paraissent avoir eu un certain impact public, on peut aussi relever celles qui sont basées sur des associations entre variables, dont certaines paraissent avoir été diffusées assez largement, comme celles entre les résultats et l’origine sociale des élèves, leur retard scolaire, leur filière d’enseignement ou le milieu social de leur établissement scolaire. A ce propos, plusieurs personnes interviewées soulignent, de manière positive, le rôle joué par la médiatisation de l’enquête PISA sur la prise de conscience, par le grand public en particulier, des inégalités entre les élèves : « PISA a permis aux gens de se rendre compte que les inégalités entre les élèves, principalement entre les écoles, étaient très importantes en Communauté française. (…) Je pense que tous les chercheurs le savaient, c’était démontré par A + B depuis des années. Je pense que les rapports de recherche s’empilaient dans les cabinets ministériels. (…) Je pense que le citoyen en général n’avait pas conscience ou ne se posait la question, mais on n’avait pas encore eu la garantie scientifique que c’était le cas. Or, je trouve que pour étudier les inégalités dans les écoles, PISA est loin d’être un outil extrêmement approprié, c’est très basique PISA finalement, c’est un questionnaire qui est passé à des élèves de 15 ans mais voilà, le médiatique aidant... » (un membre de l’actuel cabinet ministériel, entretien) Si la question des inégalités sociales est évoquée dans le débat public depuis la diffusion des résultats du premier cycle de PISA (2000), elle est cependant devenue plus prégnante à partir du deuxième cycle de PISA (2003) en même temps que l’accent mis sur la dispersion des résultats. A titre illustratif, il est significatif de constater qu’en 2001, les articles de presse qui évoquent le lien entre les résultats des élèves et leur origine sociale ne le font qu’à partir des propos rapportés du NPM de l’époque. Ensuite, progressivement, cette mise en relation sera présentée comme une « donnée » du système éducatif en CFB. A partir de la publication des résultats du deuxième cycle de PISA (2003), on met davantage en avant le « caractère socialement inéquitable » du système éducatif45, son caractère « inégalitaire »46, la forte relation entre les résultats et l’origine socio-économique des élèves47 présentés comme les « points noirs » du système éducatif de la CFB48. Les extraits suivants illustrent la manière dont la presse a rendu compte la question des inégalités : « Le volet de l'étude relatif à la lecture (…) montre enfin que l'écart de performance entre les élèves socialement les plus favorisés et ceux qui le sont le moins est très important en Communauté française. Bien plus qu'en Corée, en Finlande et même qu'en Flandre. `Il faut bien constater que notre système éducatif est 45 La Libre, 07/12/2004. 46 La Libre, 07/12/2004 ; Le Soir, 07/12/04 ; Le Soir, 08/12/04b. 47 Le Soir, 07/12/04b. 48 Le Soir, 04/12/07a. 48 3. PISA, savoir et pouvoir incapable d'enrayer les inégalités sociales de départ´, relève la gestionnaire de l'enquête en Communauté française, Dominique Lafontaine » (La Libre, 04/12/01) « Un autre aspect de l'étude l'est tout autant [inquiétant]. C'est celui qui concerne l'équité du système éducatif. Personne n'a oublié comment l'enquête Pisa 2000 avait mis en lumière le caractère socialement inéquitable de celui de la Communauté française. Pisa 2003 confirme. Les résultats des élèves varient fortement selon leurs caractéristiques socio-économiques et le type d'établissement fréquenté. Des clivages souvent plus importants en Communauté française qu'ailleurs... » (La Libre, 07/12/2004) « L'enquête menée en 2003 (…) révèle surtout une école inégalitaire. » (Le Soir, 07/12/04)49 « Les élèves francophones ne sont pas tous mauvais, loin de là. Et c'est bien ça le problème. Les différences entre les forts et les faibles sont grandes. Certains cartonnent et obtiennent des scores très élevés. D'autres sont à la traîne. Et comme par hasard, plus l'adolescent vient d'un milieu socio-économique bas, moins ses résultats sont bons. Ce qui signifie que notre école est plutôt inégalitaire et qu'elle ne remplit pas un rôle qui devrait être le sien : celui de combler les inégalités sociales. (Le Soir, 14/12/04) « Une école discriminatoire. (…) L’école francophone en Belgique s’avère également être particulièrement inégalitaire et discriminatoire, avec le plus grand écart enregistré parmi les pays industrialisés entre les 5 % d’élèves les plus forts et les 5 % les plus faibles, ainsi que de fortes disparités entre les établissements scolaires. De plus, on note des différences significatives entre les élèves dits « natifs » et les élèves immigrés des 1e et 2e génération ainsi qu’entre les élèves en fonction de leur niveau socio-économique. » (Le Soir, 04/12/07b) On peut relever que plusieurs analyses effectuées par les chercheurs de SPE ne semblent par contre pas ou très peu trouver d’écho dans les débats publics, comme les différences entre les filles et les garçons, entre élèves « natifs » et « immigrés », ou entre les élèves des différentes filières d’enseignement. Par ailleurs, certaines analyses, au regard du contexte socio-historique belge (cf. partie 2 du rapport), paraissent des sujets relativement « tabous » : il s’agit des différences de résultats entre les réseaux. Précisons que la base de données PISA ne permet pas de comparer tels quels les réseaux, mais uniquement les écoles privées et publiques. Après la diffusion des résultats du troisième cycle de PISA (2006), un parlementaire libéral a néanmoins publié une telle comparaison, à partir d’un travail effectué directement sur la base de données, nous y reviendrons plus loin. Nous verrons aussi plus loin que les analyses et les interprétations des chercheurs du SPE sont loin de faire toutes consensus et qu’elles sont l’objet de débats parfois virulents (notamment au sein de l’arène parlementaire). Enfin, on peut souligner que les débats qui ont lieu sur PISA ou qui prennent appui sur ses résultats ne se basent pas uniquement sur les rapports nationaux produits par les chercheurs du SPE. Les prises de position et les interprétations sont également élaborées à partir des rapports internationaux qui sont parfois mobilisés comme contre-arguments par certains acteurs à la lecture des résultats de PISA basée sur les rapports nationaux. Nous y reviendrons au point 3.3 du rapport. 49 C’est nous qui soulignons. 49 3. PISA, savoir et pouvoir 3.2 Le débat sur PISA Après avoir présenté les connaissances produites et diffusées par les rapports nationaux, nous allons à présent nous intéresser à PISA en tant qu’objet de débat : Qui dit quoi sur PISA en tant qu’outil, et sur ce qu’il apporte comme connaissance ? Dans un premier temps, nous allons préciser l’ampleur des débats, les acteurs qui y prennent part et les objets sur lesquels ils portent. Ensuite, nous rendrons compte des débats sur les aspects techniques ou scientifiques (pertinence de l’évaluation, discussions sur l’échantillon, la traduction, le choix d’items, les modèles psychométriques, les concepts, etc.), sur les aspects idéologiques, sur l’utilité et la pertinence politique de PISA et, enfin, sur l’interprétation des résultats de PISA et les « leçons » qu’il suggèrerait. Il est important de préciser que ces débats sont des débats spécifiques sur PISA, suscités par la diffusion de ses résultats, en partie autonomes. Comme nous le verrons, ils s’inscrivent cependant dans des débats plus larges en éducation qui ont eu lieu à propos des politiques éducatives en CFB et ils prennent sens par rapport à ceux-ci. 3.2.1 L’ampleur, les acteurs et les objets du débat S’il semble ne pas y avoir eu de discussions à propos de PISA au moment de la décision d’y participer (cf. partie 2 du rapport), par contre, la publication des premiers résultats a initié un très large débat à son sujet50. L’ampleur de ce débat est probablement à mettre en relation avec la forte médiatisation de PISA que nous avons déjà soulignée, mais aussi à « l’électrochoc » provoqué par la diffusion des premiers résultats de PISA en 2001 et qui a « remué les acteurs du champ éducatif » (selon les propos de l’ancien NPM). Plusieurs personnes interviewées parlent à ce sujet d’une « véritable gifle » infligée par PISA, même si en même temps toutes affirment que l’enquête n’apprenait rien de nouveau. Les termes utilisés dans la presse ou lors des débats parlementaires pour décrire les résultats de la CFB à PISA lors du premier cycle (2000) sont éloquents : « déplorable »51, 50 « catastrophique »52, « alarmant »53, « inquiétant »54, « très Comme en témoigne le nombre d’articles publiés dans la presse à son sujet. A titre indicatif, dans les deux quotidiens analysés et pour la période considérée (les trois mois suivants la diffusion des résultats), il ya eu 26 articles consacrés au premier cycle de PISA (2000), 36 articles au deuxième cycle de PISA (2003) et 40 articles pour le troisième cycle (2006). Parmi les documents parlementaires, depuis la diffusion des résultats du premier cycle de PISA (2000), 104 documents citent PISA (comparativement, on ne trouve que 11 documents parlementaires consacrés aux études PIRLS et 2 aux études TIMSS). Cf. l’annexe 3. Il est aussi intéressant de noter qu’au moment de la diffusion des résultats du premier cycle de PISA, en 2001, dans la presse et dans les débats parlementaires, on parle plus rarement de « PISA », mais plutôt du « rapport de l’OCDE », de « l’enquête de l’OCDE » ou de « l’étude de l’OCDE ». 51 La Libre, 04/12/01. 50 3. PISA, savoir et pouvoir défavorable »55, « cruel »56, un « cauchemar »57, une « bombe »58, un « choc »59, « le plus grand camouflet reçu »60, qui provoque une « secousse de forte amplitude »61, suscite « autant de perplexité que d'éclats »62, « suscite l’émoi »63. La presse évoque également en 2001 la « zizanie que PISA a jetée au sein du gouvernement »64, en particulier la « polémique » et le « crépage de chignon » entre les différents ministres en charge de l’enseignement65 « jouant les francs-tireurs dans leur coin » et se rejetant les résultats de l’étude « comme une patate chaude »66. Il faut préciser que cet « affrontement » vient s’inscrire dans un conflit pré-existant entre les ministres à propos de projets de réforme de la formation continuée des enseignants. Voici comment le relate la presse : « Ça ne tourne plus rond à l'exécutif de la Communauté française. Empoisonnée par cette enquête OCDE que les trois ministres de l'Enseignement se rejettent à la tête (nos élèves rasent le sol: à qui la faute?), l'ambiance est définitivement à l'affrontement. » (Le Soir, 12/12/01) « Comme une patate chaude (…) Tout au long de la semaine, les ministres en charge de l'enseignement ont joué les francs-tireurs dans leur coin. Faisant feu le premier, le ministre de l'Enseignement secondaire Pierre Hazette a rejeté une partie de la faute sur ses prédécesseurs. Or qui menait la barque de l'enseignement avant 52 La Libre, 04/12/01 ; Le Soir, 05/12/01. 53 Le Soir, 05/12/01. 54 La Libre, 12/12/01 ; JP Wahl, parlementaire PRL-FDF-MCC, PCF, 11/12/2001, p. 9. 55 P. Charlier, parlementaire PSC, 11/12/2001, p. 14. 56 La Libre, 10/12/01. 57 P. Hazette, à l’époque Ministre de l’enseignement, PRL, Le Soir, 05/12/01. 58 Le Soir, 04/01/02. 59 Dupuis, à l’époque Ministre de l’enseignement supérieur, La Libre, 05/12/001. 60 A. Antoine, parlementaire PSC, 11/12/2001, p. 44. 61 La Libre, 05/12/01. 62 La Libre, 09/12/01. 63 La Libre, 12/12/01. 64 La Libre, 13/12/01. 65 A l’époque, trois ministres étaient en charge de trois niveaux distincts de l’enseignement : J.-M. Nollet, écolo, Ministre de l’enseignement fondamental ; P. Hazette, libéral, Ministre de l’enseignement secondaire ; F. Dupuis, socialiste, Ministre de l’enseignement supérieur et de la recherche scientifique. 66 La Libre, 10/12/01. 51 3. PISA, savoir et pouvoir lui? Le PS. Lequel ne pouvait pas ne pas réagir. De fait, la ministre de l'Enseignement supérieur Françoise Dupuis (PS) est montée aussitôt au créneau. Elle a notamment fait valoir que l'enseignement francophone souffrait d'un système d'orientation scolaire déficient et que, comme ministre compétent, Pierre Hazette ne s'était pas montré très actif en la matière. Commencée dans les médias, la polémique a atterri, jeudi dernier, sur la table du gouvernement. Lors de la réunion hebdomadaire, les deux ministres se sont crêpé le chignon. Plus discret, le ministre de l'Enseignement fondamental Jean-Marc Nollet (Ecolo) n'en a pas moins pris position. Aux côtés de Dupuis. Fâché, Pierre Hazette a refusé de s'asseoir à côté de ses collègues trois jours plus tard au dominical `Mise au point´ de la RTBF (…) » (La Libre, 10/12/01) Lors de la publication des résultats des deuxième et troisième cycles de PISA (2003 et 2006), les réactions paraissent avoir été moins vives et la presse en parle en termes de « test très attendu »67, mais aussi « redouté »68. L’ampleur du débat reste néanmoins toujours aussi importante. Ce débat sur PISA implique différents acteurs, principalement le NPM et les chercheurs du SPE impliqués dans PISA, les chercheurs d’autres centres universitaires, le ministre de l’Enseignement, les acteurs politiques, les associations de parents, les mouvements pédagogiques, les syndicats d’enseignants et certains enseignants ou directeurs d’écoles qui se sont exprimés à titre individuel dans les médias. Les journalistes prennent plus rarement position dans le débat, de manière explicite en tout cas. Fait remarquable étant donnée la structuration de l’enseignement en CFB, les responsables du réseau catholique ne paraissent pas avoir pris part au débat public sur PISA69. On pourrait avancer comme hypothèse que le débat public, notamment dans la presse, n’est pas considéré comme un lieu de pouvoir pertinent à investir par les responsables du réseau catholique, le véritable jeu politique se déroulant en d’autres lieux où ils sont représentés. On peut enfin relever que, lors du premier cycle de PISA (2000), le Ministre de l’Education (libéral) a moins pris part au débat que ses successeurs. Plusieurs personnes interviewées évoquent le fait que « l’importance et l’intérêt de PISA » lui auraient échappés, « qu’il ne s’est pas vraiment impliqué parce qu’il a sous-estimé l’impact des résultats de PISA » (propos du représentant de la CFB au PGB et chercheur au SPE). Le débat autour de PISA semble principalement porter sur l’interprétation des résultats : la définition des problèmes (faibles résultats versus disparités des résultats, inefficacité du système versus inégalité du système), l’explication et les solutions proposées pour y remédier (priorité accordée aux plus faibles versus priorité accordée à la performance de l’ensemble des élèves ou des plus forts, régulation par le marché versus régulation par un pouvoir public régulateur, réformes structurelles versus réformes pédagogiques). Par contre, il semble n’y avoir que très peu de débat sur l’instrument lui-même (débat 67 La Libre, 07/12/2004. Le Soir, 04/12/07d, La Libre, 05/12/07a. 68 Le Soir, 04/12/07d. 69 Contrairement aux autres acteurs cités, les responsables du réseau catholique ne se sont pas exprimés dans la presse pendant la période que nous avons analysée (les trois mois suivants la diffusion des résultats). Par contre, ils l’ont fait dans leur propre publication. 52 3. PISA, savoir et pouvoir technique et scientifique sur l’enquête et le dispositif PISA), sur le principe même des évaluations externes (qui n’est jamais discuté et semble faire consensus) ou sur l’éventuelle orientation idéologique des enquêtes de l’OCDE. En définitive, comme nous allons le voir maintenant plus en détail, le débat sur PISA porte essentiellement sur des questions d’ordre « politique » (que soit sur la pertinence de l’outil ou sur l’interprétation des résultats) et moins sur des questions d’ordre scientifique, technique ou idéologique. 3.2.2 Le débat sur l’instrument PISA Un outil « fiable » Lorsqu’on analyse le débat public sur PISA, tel qu’il apparaît dans la presse écrite ou au Parlement de la CFB, on observe que les discussions sur les aspects techniques ou scientifiques de l’enquête PISA occupent très peu de place comparativement à celles portant sur les questions de politique éducative. Il semble y avoir peu de débat méthodologique sur la construction et le fonctionnement du dispositif d’enquête et en tout cas pas de remise cause de la validité de l’enquête. Comme le souligne l’ancien NPM, en CFB, il n’y a jamais eu, comme en France par exemple, de « grosse contestation » sur la manière dont l’enquête PISA est réalisée. Plusieurs personnes mettent au contraire en avant le caractère « fiable », « inattaquable », « sérieux », voire « impressionnant » du dispositif de l’enquête PISA, qui bénéficie à leurs yeux de toutes une série de « garanties » et qui constitue un « outil extrêmement sophistiqué et bien construit » (même si elles peuvent par ailleurs émettre certaines « réserves »). « Pas question de mettre en doute la fiabilité de l'enquête » écrit un journaliste d’un quotidien (La Libre, 04/12/01). En particulier, plusieurs personnes interviewées mettent en avant « la vérification de haut niveau » (selon un membre du cabinet ministériel) et sa « grande sophistication sur le plan technique » (Lafontaine, 2002, p. 5). Certains mettent en avant le fait qu’un pays, seul, n’aurait pas les moyens qualitatifs (expertise) et quantitatifs (financiers) de mettre en œuvre un tel dispositif. On pourrait cependant se demander à quel point un discours affirmant le contraire serait légitimement exprimable tant « l’importance », la « sophistication » et le « sérieux » du dispositif sont des aspects autour desquels semble s’être construit un fort consensus auquel ont probablement contribué les rapports nationaux rédigés par les chercheurs du SPE. Voici quelques extraits de presse, de débats parlementaires et d’entretiens qui illustrent la manière dont les aspects « sérieux » et « fiables » de PISA sont mis en avant : « (A propos de PISA) Dans le domaine de l'éducation, tout le monde s'accorde à dire que c'est ce qui se fait de mieux en terme d'évaluation » (un journaliste, La Libre, 05/12/07a) « (A propos de PISA) (…) une analyse statistique internationale dont chacun convient du sérieux et de la pertinence » (W. Borsus, parlementaire MR d’opposition, PCF, 11/12/2007, p. 43) « PISA est intéressant et les gens qui critiquent PISA ne le connaissent pas bien. (…) Je n’entends pas un discours crédible attaquant ces questions-là. » (un ancien chef de cabinet et ancien secrétaire général de l’administration scolaire, entretien) 53 3. PISA, savoir et pouvoir « Ce que j’ai fait, c’est lire aussi l’ensemble des dispositifs (…) sur le consortium lui-même et la manière dont il organise la prise en charge du test, les indications sur ce qui était visé, le type de sélection des écoles, enfin toute la procédure et la méthode utilisée par PISA. (…) (C’est) impressionnant, parce qu’on se rend compte quand même que c’est d’un sérieux qu’aucune école ne peut assurer seule, et même à la limite qu’aucun système éducatif ne peut assurer seul. Pourquoi évidement ? Parce qu’ils ont les moyens, ça coute cher PISA. Les états qui participent paient assez bien. Donc, ils ont les moyens, les moyens de mettre en place un dispositif d’épreuves externes extrêmement sophistiquées et extrêmement bien conçues. Avec des garanties nationales, puisqu’il y a des équipes nationales qui vérifient, qui traduisent. Enfin il y a vraiment un dispositif impressionnant. Ca je crois qu’il faut que ceux qui pensent que cette épreuve peut être mise en doute, ils ont intérêt à lire ça et ça m’étonnerait qu’ils ne soient pas convaincus. (…) C’est un instrument bien construit (un responsable du service d’étude du réseau catholique, entretien). « Cela permet certainement de faire des choses que, qualitativement, on ne serait pas capable de faire pays par pays parce que c’est vraiment un programme qui met ensemble des spécialistes de différents domaines, des spécialistes des questions d’échantillonnage, des spécialistes des disciplines (…). » (le représentant de la CFB au PGB, chercheur au SPE, entretien) Certaines réserves ou critiques ont néanmoins été exprimées, surtout lors de la diffusion des premiers résultats de PISA en 2001. A ce moment-là, plusieurs personnes ont d’ailleurs souligné l’importance de tenir compte des aspects méthodologiques pour l’interprétation des résultats : « cette étude n'est pas une science exacte mais une photographie. Il est intéressant de savoir avec quel appareil et quelle pellicule on a pris ce polaroïd. Et avec quel grand angle, qui déforme la réalité » (H. Wittorski, président de l’Ufapec, association des parents de l’enseignement libre, s’exprimant dans La Libre, 05/12/01). Les biais culturels Parmi les critiques émises, on trouve principalement celles relatives à l’utilisation des QCM (questionnaires à choix multiples), parfois qualifiée de « abusive » et qui ne « conviendrait qu’à certains types de populations » (selon les propos tenus par un parlementaire PSC, PCF, 11/12/2001, p. 15). Cette problématique a souvent été reliée à celle des éventuels biais culturels de l’enquête PISA. Les critiques les plus fortes ont été exprimées après la première diffusion du rapport PISA en 2001, par un chercheur universitaire des Facultés Notre-Dame de la Paix à Namur (M. Romainville) à l’égard du caractère anglo-saxon de l’enquête qui, selon lui, biaiserait les résultats, notamment à travers la forte présence de QCM qui privilégieraient les élèves anglo-saxons davantage habitués à ce genre de questionnement70. Les critiques que celui-ci a énoncées ont été reprises ensuite par d’autres acteurs qui les ont exprimées à leur tour, notamment au sein de la presse ou lors des débats parlementaires. En même temps, ces critiques sont plutôt émises en tant que « réserves » ou « remarques de précaution » qui ne remettent pas fondamentalement en cause la validité du dispositif et le « sérieux de l'enquête »71. 70 A ce sujet, voir la controverse qui a opposé Romainville (2002), d'une part, et Lafontaine et Demeuse (2002), d'autre part, dans un numéro de la Revue nouvelle. Un autre chercheur en sciences de l’éducation de l’ULB, J.L. Wolfs, évoque ce même biais culturels introduit par les QCM pour expliquer les meilleurs résultats des élèves flamands qui seraient selon lui davantage habitués aux questionnaires à choix multiples (Le Soir, 11/12/2001). Ce biais culturel est également évoqué par un professeur d’anthropologie à l’ULB et ancien recteur de l’ULB, P. de Maret (Le Soir, 13/02/2008a). 71 Le Soir, 08/12/04g. 54 3. PISA, savoir et pouvoir Les extraits suivants montrent comment cet aspect a été évoqué lors des débats parlementaires : « Ayant l’habitude de prendre les études statistiques avec beaucoup de précaution, je ne pense pas que cette étude soit exempte de critiques, ne fût-ce que par l’utilisation abusive des QCM – questionnaires à choix multiples – qui conviennent bien pour certains types d’enquêtes et certains types de populations. » (P. Charlier, parlementaire PSC, PCF, 11/12/2001, p. 15) « Si l’on suit l’avis d’un professeur (…), M. Romainville, (…) tous les élèves ne sont pas égaux face aux questionnaires. Le système des choix multiples est typique des pays anglo-saxons. Le seul fait d’être anglophone donnerait de meilleures chances de réussite » (M. Neven, parlementaire MR, PCF, 15/12/2004, p. 19) « Les études Pisa sont diligentées par les Anglo-saxons et manifestement, ils ne partagent pas notre vision des choses. Ils ne se posent pas les mêmes questions que nous et n’analysent pas les réponses de la même manière » (A.-M. Corbisier-Hagon, parlementaire CdH, PCF, 11/12/07, p. 45) La construction de l’échantillon Certaines personnes ont également exprimé des réserves sur la pertinence des critères choisis pour la sélection de la population enquêtée. Ce discours reste néanmoins minoritaire et les critiques émises sur la construction de l’échantillon ne semblent pas non plus, du point de vue de ceux qui les expriment, remettre en cause la validité de l’ensemble de l’enquête. D’autres personnes soulignent aussi la qualité de l’échantillon de PISA par rapport à d’autres études internationales, comme PIRLS72. « Il y a quand même quelques problèmes méthodologiques qui se posent, par exemple le fait de savoir si on interroge bien des élèves qui ont eu un parcours scolaire similaire, ou s’il n’y en a pas qui sont un peu plus avancés en âge que d’autres, etc. Parce que je veux dire, selon le pays où on fait passer l’étude, les choses changent. (…) » (un chef de cabinet ministériel, PS, entretien) « C’est un peu le problème de PISA, on prend les élèves de 15 ans mais il y a en a qui sont en deuxième et d’autres qui sont en quatrième secondaire. Donc il faut que ça se sache. » (un inspecteur général, entretien) Un outil peu questionné En définitive, les aspects méthodologiques et scientifiques de PISA semblent très peu discutés et très peu critiqués. Pour la période que nous avons analysée, toute une série d’aspects paraît même n’avoir jamais été questionnée, comme le choix et la formulation des questions et des items, la passation et la correction du test, ou encore le mode de construction des échelles de niveaux. En outre, même les critiques méthodologiques formulées ne remettent jamais en cause fondamentalement la validité et la « scientificité » de PISA. Même si plusieurs lacunes et limites sont mises en avant, on retrouve donc un large consensus sur le caractère « sérieux » et « fiable » de PISA. 72 Ainsi, lors d’un débat parlementaire à propos des résultats de l’étude Pirls, la ministre de l’enseignement, M. Arena (socialiste) « s’interroge sur la valeur scientifique de l’étude Pirls » en raison de « la grande liberté laissé aux pays en matière d’échantillonnage » et des « biais statistiques » consécutifs (ce serait la raison pour laquelle, selon elle, la Russie arriverait en tête dans Pirls alors qu’elle est mal placée dans PISA : parce qu’elle a pu mieux sélectionner le public participatif) (M. Arena, Ministre de l’enseignement, PS, PCF, 24/01/2008, p. 11). 55 3. PISA, savoir et pouvoir 3.2.3 Le débat sur l’orientation idéologique de PISA Si personne ne conteste le caractère « scientifique » du dispositif de l’enquête PISA, tel qu’il a été pensé et construit par les chercheurs du Consortium international et mis en œuvre par le Centre national de recherche, par contre certains parlementaires remettent en cause l’indépendance des chercheurs nationaux dans leur interprétation des résultats de l’enquête et l’opposent à celle fournie par l’OCDE qualifiée de plus « scientifique » ; d’autres critiquent au contraire la « non neutralité » de PISA dans la mesure où elle est produite par l’OCDE. Une – petite – partie des discussions sur PISA porte ainsi sur l’orientation idéologique de l’OCDE et des chercheurs scientifiques nationaux. Depuis la parution des résultats du deuxième cycle de PISA (2003), l’équipe nationale des chercheurs chargés de la mise en œuvre de PISA en CFB se trouve régulièrement au centre d’une vive controverse qui oppose le ministre de l’enseignement (socialiste) et des parlementaires d’opposition (libéraux). Ces derniers remettent en cause, publiquement, lors de conférences de presse ou de débats parlementaires, « l’indépendance » des chercheurs du SPE, en les accusant d’être les « conseillers habituels du ministre », de ne pas être des « experts indépendants » et de réaliser des interprétations « idéologiques » qu’ils opposent au « travail scientifique » qui caractériserait, selon eux, les rapports internationaux diffusés par l’OCDE. Un parlementaire libéral que nous avons interviewé va plus loin en qualifiant l’ancien NPM de « grand psycho-pédagogue qui pilote un peu tout maintenant dans l’enseignement ». Les arguments avancés sont que, dans leur interprétation des résultats de l’enquête, les chercheurs tiennent les mêmes propos que le Ministre, propos qui diffèrent de ceux contenus dans les rapports internationaux de l’OCDE ou de ceux tenus par un représentant de l’OCDE (B. Ischinger) lors d’une conférence de presse organisée au moment de la sortie des résultats de PISA 2003. Lors de cette conférence, un parlementaire libéral aurait qualifié l’ancien NPM d’être « idéologique » et exprimé que l’OCDE diffusait à l’inverse « la vérité »73. On peut supposer que cette critique est – en partie du moins – exprimée dans une stratégie politique de déligitimation des orientations politiques du Ministre et de légitimation des certaines propositions de l’OCDE défendues par ailleurs par les parlementaires libéraux. Comme l’illustre l’extrait suivant, reproduisant un dialogue au sein du Parlement de la CFB entre le Ministre (socialiste) de l’enseignement et un parlement (libéral) d’opposition, la critique exprimée par les parlementaires libéraux ne concerne pas seulement les chercheurs du SPE, mais l’ensemble des chercheurs universitaires en CFB « qui ont pignon sur rue » : 73 Selon l’ancien NPM, lors de cette conférence de presse, la représentante de l’OCDE (B. Ischinger) n’aurait parlé que des propositions de l’OCDE portant sur l’autonomie des écoles, la publication des compétences, en passant sous silence les résultats sur le milieu socio-économiques des élèves (alors que le rapport de l’OCDE est beaucoup plus nuancé sur le sujet selon elle). 56 3. PISA, savoir et pouvoir « A. Destexhe : (…) Il ya un problème en Communauté française avec l’expertise : tous les experts qui ont pignon sur rue sont d’accord avec vous. Dans les pays étrangers, comme la France ou les Pays-Bas, on constate que les experts ont souvent une autre approche des problèmes et qu’il y a une pluralité d’avis des experts. M. Arena : Contestez-vous l’indépendance des scientifiques ? A. Destexhe : Oui, je la conteste. M. Arena : Vous contestez la validité des enquêtes scientifiques ? A. Destexhe : Non, je conteste les conclusions que les scientifiques tirent des enquêtes. (…) Certains chercheurs sont sous contrat public… M. Arena : L’Ulg est considérée comme un pôle d’experts par l’OCDE. Et vous vous permettez de mettre en doute l’indépendance de ses chercheurs. C’est déplacé ! A. Destexhe : Il y a quand même une légère différence entre ce qu’a dit la représentante de l’OCDE à la conférence de presse et ce qui est écrit dans le rapport et, par ailleurs, ce qu’a dit Mme Lafontaine. M. Arena : Mme Lafontaine connaît l’éducation, la représentante de l’OCDE pas. A. Destexhe : Tout ce que je demande, c’est que nous puissions entendre un jour des experts qui ont un autre avis sur l’organisation des systèmes scolaires. Et pas toujours nos experts « maison », qui sont souvent façonnés sur le plan idéologique » (A. Destexhe, parlementaire MR, et M. Arena, à l’époque Ministre de l’enseignement PS, PCF, 11/12/2007, p. 49) Face aux attaques portées contre les chercheurs du SPE, le Ministre de l’enseignement de l’époque, socialiste, a défendu le « fiabilité du travail réalisé en autonomie » par le NPM et ses collaborateurs, exprimant à plusieurs reprises la « confiance » qu’il leur témoignait74. Nous reviendrons davantage sur le contenu de cette controverse au point suivant lorsque nous évoquerons les débats sur l’interprétation des résultats. De manière symétrique, certains membres du cabinet ministériel (socialiste) de l’enseignement mettent en avant les « tenants idéologiques » de l’OCDE, défendus au niveau national par le parti libéral. C’est aussi le cas d’un membre d’un mouvement pédagogique (l’APED) qui qualifie l’OCDE « d’organisme de contrôle du capitalisme » qui chercherait à « réformer les systèmes d’enseignement afin qu’ils répondent mieux aux besoins de l’économie » (via la promotion d’un apprentissage basé sur les compétences, de l’enseignement privé, de la flexibilité et de la diversification de l’offre)75. « (A propos des évaluations externes nationales) C’est quand même un point essentiel pour ne pas toujours avoir PISA avec l’OCDE, dont on sait quand même les tenants idéologiques qu’il y a là derrière. Et quand on ne les sait pas, Destexhe les rappelle à échéance assez récurrente. (…) C’est clair que derrière PISA, il y a aussi l’OCDE, avec un certain nombre de valeurs et d’objectifs idéologiques et politiques. On ne peut pas non plus considérer que le seul indicateur de notre système scolaire, c’est PISA. PISA, c’est un indicateur comme il y en a beaucoup d’autres. Et l’intérêt, je pense, pour un système scolaire qui veut être bien piloté, c’est d’avoir ces propres indicateurs et de les construire. (…) » (chef de cabinet ministériel, socialiste, entretien) Les discussions sur l’orientation idéologique de l’OCDE et son influence éventuelle à travers PISA restent cependant très rares. Un seul article de presse y fait référence pour la période que nous avons analysée (les trois mois suivant la publication des résultats) et remet en question la « neutralité » de PISA et de l’OCDE : 74 Voir à ce sujet, les débats parlementaires suivants : PCF, 11/01/2005, p. 3 et PCF, 21/06/2005, p. 68. 75 CF. N. Hirtt, Le Soir, 06.12.01. 57 3. PISA, savoir et pouvoir « Un indicateur, quel qu’il soit, en apprend aussi beaucoup… sur l’auteur de l’indicateur. Qui, souvent, tient une thèse et cherche à la vérifier par des enquêtes dont la méthode est scientifique, mais pas toujours neutre quant aux modèles de société. L’OCDE, l’Organisation pour la coopération et le développement économique, ne cache guère son parti-pris pour la libéralisation des « services » de l’éducation et aime chanter les vertus de la mise en concurrence. (…) » (Le Soir, 05/12/07d) Ce débat illustre à quel point un fondement « idéologique », basé sur la défense de « valeurs » ne semble plus aujourd’hui légitime et qu’il est important aux yeux des acteurs politiques de légitimer au contraire leurs positions à partir d’une argumentation dite « scientifique ». 3.2.4 Le débat sur l’utilité et la pertinence politiques de PISA Une partie importante du débat public sur PISA, en particulier les débats parlementaires, concerne son utilité et sa pertinence politique : A quoi sert PISA ? Quelle est son utilité ? Quel usage politique devrait-on en faire ? Comme nous allons le voir, on retrouve un relatif consensus autour de la pertinence de PISA en tant qu’outil de conscientisation et d’évaluation externe. Une certaine prise de distance politique s’exprime cependant à l’égard des recommandations émises par l’OCDE. Un leitmotiv : PISA n’apprend rien de neuf Avant tout, il est frappant de constater à quel point la plupart des acteurs scientifiques, des acteurs politiques et des acteurs intermédiaires du système éducatifs affirment fréquemment le fait que les enquêtes PISA ne leur ont « rien appris de neuf » sur le système éducatif en CFB et qu’elles n’ont fait que « confirmer un diagnostic déjà établi », sur sa « dualité » et la « faiblesse » des élèves, par des recherches antérieures non autant médiatisées : « En décembre 2001, les résultats du premier cycle d’évaluation de PISA ont été divulgués. Ces résultats ont fait grand bruit. Ils ne faisaient pourtant que confirmer un diagnostic établi de longue date par les enquêtes internationales qui avaient précédé PISA et par les évaluations externes » (Lafontaine et alii, 20041, p. 1) « Nous ne pouvons donc pas dire que ce qui nous arrive aujourd’hui est un coup de tonnerre dans un ciel clair. Nous pouvions nous y attendre » (P. Hazette, alors Ministre de l’enseignement, PRL, PCF, 24/04/2002, p. 22) « Moi, les résultats ne m’ont pas particulièrement étonné. (…) La grande leçon de PISA, c’est quelque chose qu’on savait déjà. (…) c’est ce système très dual. (…) PISA met quand même en lumière toute une série de choses. Mais qu’à nouveau, M. Dupont avait déjà mis en lumière dans son rapport sur la lecture, par exemple » (chef de cabinet ministériel, PS, entretien) « PISA n’a fait que confirmer des résultats que la Communauté française connait depuis (…) les résultats obtenus aux enquêtes comparatives. » (responsable du service d’étude du réseau d’enseignement catholique, entretien) « J’ai été moins surpris que certains de mes collègues. Mais ce n’était quand même pas bon. Donc j’ai quand même été un peu surpris. Mais ça n’a pas été pour moi un coup de tonnerre dans un ciel clair » (Actuel Ministre de l’enseignement, à l’époque député parlementaire, PS, entretien) « Pour nous, ce qui était surprenant, c’est que ce soit surprenant. Parce que ce qu’on disait dans PISA, ça avait été dit en 95 dans TIMSS, ça avait été dit en 91 dans Reading Literacy de l’IEA. » (chercheur, entretien) « Les constats posés par l’enquête PISA ne sont, hélas, pas nouveaux et n’ont pas véritablement surpris les observateurs attentifs du terrain éducatif en Communauté française de Belgique. En 1991, l’enquête IEA 58 3. PISA, savoir et pouvoir Reading Literacy avait déjà tiré la sonnette d’alarme. (…) Entre 1994 et 2001, les évaluations externes interréseaux (…) ont régulièrement mis en évidence les difficultés en lecture (…). En 1995, l’enquête TIMSS de l’IEA a posé un diagnostic très proche de celui du PISA, alors que les évaluations étaient pourtant de nature assez différente. » (Lafontaine, 2002, p. 47). 76 Un instrument de conscientisation aux problèmes du système éducatif Si la plupart des acteurs scientifiques, politiques et intermédiaires du système éducatif soulignent que PISA n’a rien appris de neuf, ils reconnaissent cependant en même temps qu’il a fait « sortir du ronron quotidien » et qu’à travers les débats suscités autour des (mauvais) résultats de la CFB, il a renforcé l’attention portée sur certains problèmes et a contribué à accélérer leur mise en agenda politique. En particulier, PISA aurait favorisé une « prise de conscience » ou une « sensibilisation » du grand public à certains problèmes du système éducatif, comme son caractère inégalitaire. Par la « caution scientifique » qu’il apporte et sa diffusion médiatique, PISA aurait constitué un « élément déclencheur » participant à un « changement d’opinion » (selon un conseiller au cabinet ministériel). « (A propos de PISA) Je trouve que c’est très utile (…), ça apporte quand même un éclairage fort intéressant et qui a surtout le mérite de sortir un peu du ronron quotidien et de se dire : il y a quand même un problème, il y a quand même quelque chose à faire. Je crois que c’est ça, c’est un petit peu la prise de conscience qu’il y a quand même quelque chose qui cloche et qu’on pourrait améliorer quoi « (Une ancienne inspectrice générale, échevine CDH, entretien) « Je pense que PISA a permis aux gens de se rendre compte que les inégalités entre les élèves, principalement entre les écoles, étaient très importantes en Communauté française. (…) Le grand public en général. Je pense que tous les chercheurs le savaient, c’était démontré par A + B depuis des années. Je pense que les rapports de recherche s’empilaient dans les cabinets ministériels(…). Mais en tout cas, je pense que le citoyen en général n’avait pas conscience ou se posait la question mais n’avait pas encore eu la garantie scientifique que c’était le cas. Or, je trouve que pour étudier les inégalités dans les écoles, PISA est loin d’être un outil extrêmement approprié (…) Mais voilà, le médiatique aidant... (…) (Cela a été) L’élément déclencheur. Je pense que ça participe à tout ce changement d’opinion où je pense que jusqu’il y a peu, seuls les progressistes (…) s’occupaient de ce genre de sujet comme les inégalités. » (conseiller au cabinet ministériel, entretien)77 Un outil d’évaluation externe utile au pilotage du système éducatif Pour la plupart des acteurs scolaires, la principale utilité de PISA est de constituer un « outil d’évaluation externe » qui leur paraissait faire défaut en CFB au moment où PISA a commencé (voir la partie 2 du rapport). Paradoxalement, même s’ils reconnaissent que PISA « n’a rien appris de neuf » sur le système éducatif en CFB, tout le monde s’accorde pour dire que PISA apporte néanmoins un « éclairage » pertinent et intéressant sur le système éducatif, utile pour « piloter » le système et définir les politiques éducatives. Ce point de vue défendu est celui qui est véhiculé officiellement par l’OCDE et relayé par les rapports PISA nationaux. Cet aspect est surtout mis en avant par les acteurs politiques et en particulier les ministres de l’enseignement, comme l’illustre les nombreuses allusions faites lors les débats 76 Pour les différents extraits, c’est nous qui soulignons. 77 Pour les différents extraits, c’est nous qui soulignons. 59 3. PISA, savoir et pouvoir parlementaires dont nous reproduisons ici quelques extraits. PISA y est décrit comme un outil permettant « d’identifier les points forts et faibles de l’enseignement »78 censé aider à faire des choix politiques visant à « améliorer le système d’enseignement ». On peut néanmoins se demander à quel point cette conception n’est pas purement rhétorique, s’inscrivant dans une logique visant avant tout à légitimer la pertinence de PISA qui permet ensuite de légitimer leurs propositions politiques. « PISA est une évaluation externe (…) » (M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 21/06/2005, p. 68) « (A propos de PISA) Je reste persuadée que de telles informations nous aideront à améliorer le système d’enseignement » (M. Arena, à l’époque Ministre de l’Enseignement, PS, PCF, 11/01/2005, p. 4) « Le programme Pisa constitue une mine d'informations bien utiles pour définir les politiques à mettre en œuvre » (propos de la M. Arena, à l’époque Ministre de l’Enseignement, PS, propos rapporté par La Libre, 05/12/07b) « Le rapport PISA permet deux lectures : l’une à usage interne qui montre un certain nombre de défaillances de l’enseignement, l’autre portée par un regard venu d’ailleurs, celui de la comparaison » (P. Hazette, à l’époque Ministre de l’enseignement, PRL, PCF, 24/04/2002, p. 21) (A propos des deux premières enquêtes PISA et de consultations enseignantes) « Elles apportent chacune un éclairage précieux sur la réalité de l’enseignement » (PCF, 25/01/2005, p. 7) Dans cette optique, la comparaison des systèmes éducatifs de différents pays est présentée comme « l’un des intérêts » de l’étude, qui permet de « se rendre compte que notre réalité n’est pas la seule possible », « de voir ce qui se fait ailleurs » et « d’isoler les choix politiques les plus pertinents » : « C’est l’intérêt des études de type PISA, des comparaisons entre divers types d’écoles ou d’élèves sont possibles. On peut donc tenter de comparer les pays en fonction du système éducatif et essayer d’isoler les choix politiques les plus favorables et les plus pertinents » (C. Dupont, actuel Ministre de l’enseignement, PS, PCF, 03/06/2008, p. 6) « F. Dupuis [à l’époque Ministre de l’enseignement supérieur, PS] estime enfin que le monde politique doit profiter du choc créé par l'étude pour avancer. Mais pas à l'aveugle. `Voyons d'abord ce qui se fait en Flandre, en France et en Allemagne et comparons les systèmes dans leurs contextes.´ » (propos rapporté par Le Soir, 07/12/01) « (…) Prendre exemple sur les réussites. Plusieurs pays obtiennent des résultats significativement meilleurs qu'en Communauté française : Canada, Nouvelle-Zélande, Australie, Japon ou, plus près de nous, Finlande, Royaume-Uni, France. Sans compter la Région flamande... Il serait instructif de savoir comment l'enseignement y est organisé, quelles sont les erreurs qu'ils ont évitées afin de gagner un temps précieux à ne pas les reproduire. (D. Leturcq, directeur d’école, Le Soir, 04/01/02) « C’est quand même intéressant même s’il ne faut pas trop en retirer. Ce n’est pas le seul apport. Mais, de pouvoir se comparer aux autres, ça aide quand même à se réveiller. Je pense à un autre aspect où la Belgique, toute la Belgique là est championne, c’est le redoublement. Mais tant qu’on n’a pas des études comme ça qui disent mais non en Finlande ils réussissent bien et ils ne redoublent pas. Les Belges, on est tous convaincus que c’est inévitable, que c’est la seule mesure (…) Donc je pense que les études internationales nous aident (…) au moins à nous rendre compte que ce qui est notre réalité n’est pas forcément la seule réalité possible. Je veux dire ça ne veut pas forcément dire que ça c’est mieux mais au moins, nous montrer qu’il y a d’autres façons de faire (…) Je pense que c’est quand même un moteur de réflexion.» (le représentant de la CFB au PGB, chercheur au SPE, entretien) 78 Selon les propos de M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 17/02/2005, p. 9. 60 3. PISA, savoir et pouvoir Plusieurs acteurs politiques et scientifiques énoncent néanmoins des limites à la comparaison internationale et remettent en cause la possibilité de mener des comparaisons valides entre pays. Pour beaucoup, la comparaison serait « oiseuse » étant donnés les situations socio-économiques ou les modes de scolarisation très variables selon les pays79. Ce « scepticisme » à l’égard des comparaisons est également exprimé par l’ancien NPM80. Plusieurs personnes mettent alors en avant la nécessité de « contextualiser » la comparaison, d’appréhender les systèmes éducatifs des différents pays « dans leur totalité » et « dans leur contexte »81. Certains soulignent le fait que, telle qu’elle est diffusée dans les médias, la comparaison internationale décontextualisée est « contre-productive », « cruelle » et « démoralisante » pour les acteurs de terrain en CFB et s’interrogent sur la manière de mieux l’entourer82. D’autres trouvent que PISA, tout en apportant des « indications tout à fait intéressantes », ne constitue cependant pas un « instrument de régulation fine » car « il n’indique pas aux enseignants la méthode d’enseignement la plus efficace » : « C’est un instrument bien construit et qui donne des indications tout à fait intéressantes pour ce qui le concerne. Donc ça n’est pas un instrument de régulation fine. Ca ne dit pas aux profs qu’elle est la méthode d’enseignement la plus efficace. Mais ce n’est pas ça son objet. Ce n’est pas le but. Mais pour ce qui le concerne et pour les finalités qu’il recherche, effectivement, il donne des indications extrêmement intéressantes, si on prend la peine de s’emparer de l’ensemble des informations qu’il donne. Il ne faut pas se contenter des articles de journaux qui caricaturent en trois colonnes et un titre ravageur les résultats qu’on peut en tirer » (un responsable du service d’étude du réseau d’enseignement catholique, entretien) Enfin, de rares personnes remettent en question la possibilité scientifique d’évaluer l’enseignement, ou simplement le principe même de l’évaluation. Dans la presse, pour la période analysée, un seul acteur – un acteur de terrain (un directeur d’école) - remet en question la « mesure en enseignement » et la « logique de résultats » sur laquelle reposent les évaluations telles que PISA. Selon ce dernier, « les statistiques ne peuvent pas rendre compte de tout ce qui est en jeu dans la relation pédagogique » et il critique « la mode du chiffre, du ratio, du quota à laquelle cèdent les ministres et la presse » : 79 On met en avant, par exemple, que la comparaison entre la Finlande et la CFB est difficile dans la mesure où la CFB se caractérise par « une forte population immigrée, une forte densité de population, un fort taux de chômage », etc., ce qui ne serait pas le cas de la Finlande (M. Neven, parlementaire MR, PCF, 15/12/2004, p. 19 ; M. Neven, parlementaire MR, PCF, 21/06/2005, p. 49). Ou que la CFB, étant donné sont très haut taux de scolarisation par avec un « sérieux handicap », par exemple, par rapport à des pays comme la Corée où les les élèves les plus faibles sont exclus de l'école (propos de M. Romainville rapportés par un journaliste, Le Soir, 08/12/04g). 80 Cf. D. Lafontaine, Le Soir, 07/12/04c. 81 M. Cheron, parlementaire Ecolo, PCF, 21/06/2005, p. 45. 82 L. Walry, parlementaire PS, PCF, 11/01/2005, p. 3. 61 3. PISA, savoir et pouvoir « J'accuse nos ministres (en la matière bien relayés par les médias) de céder à la mode du chiffre, du ratio, du quota; de réagir et non d'agir, de pallier et non de penser. (…) L'enseignement n'est pas une chose, un pur objet. C'est d'abord et avant tout un processus. Contrairement à la logique de l'artisan ou du fabricant (homo faber), nous ne pouvons nous construire mentalement un modèle du produit que nous fabriquons. Impossible de dire ce que deviendront les élèves que nous guidons (plus que nous ne formons). (…) Que peut-on "mesurer" ? (…) je crois que, si mesure il y a, il faut non seulement savoir de façon précise ce que l'on mesure, mais aussi selon quel étalon ! (…) Si l'on s'en réfère aux multiples évaluations qui marquent notre quotidien depuis ces dernières années, des évaluations externes aux enquêtes PISA, il semble qu'elles reposent sur une logique de résultats. Nous sommes mesurés, évalués en fonction des résultats obtenus aux tests proposés dans nos écoles. Ces résultats sont relativisés en étant mis en perspective avec les résultats des autres écoles, des autres pays. A la lecture de ces constats, on se rend immédiatement compte de la difficulté d'une telle évaluation, d'un tel "mesurage". (…) Seulement voilà, l'humain ne peut être évacué totalement des pratiques de l'enseignement, ni des résultats obtenus. Les statistiques ne pourront rendre compte de tout ce qui est en jeu dans la relation pédagogique. Un test reste un moment, lui-même attaché à des circonstances particulières, celles de son passage, de la présence d'autres dans la salle, de la motivation qu'y puisent éventuellement les élèves. Il mesure le degré de maîtrise sur certains aspects de la formation en gommant, au travers de ses questions stéréotypées, tout ce qui fait qu'un élève, une situation d'apprentissage restent uniques. (…) » (P. Anselin, Directeur d’école, La Libre, 10/12/07) Rares sont ceux aussi qui questionnent les objets évalués par PISA et de manière générale, on met plutôt en avant l’adéquation entre les compétences évaluées par PISA et celles qui sont aujourd’hui promues dans les référentiels de la CFB (cf. Socles de Compétences, Compétences terminales) : « Quand on voit l’épreuve elle-même, quand on lit les questions accessibles – parce que toutes ne le sont pas – on voit bien qu’effectivement, les questions proposées sont des questions qui visent à tester des compétences. Or quand même l’ambition de la Communauté française c’est de mettre en place des compétences, et non exclusivement des connaissances. » (un responsable du service d’étude du réseau catholique). Une certaine prise de distance politique : PISA n’est pas un instrument de recommandation Si les acteurs politiques présentent PISA comme un outil permettant de dresser des constats et d’effectuer des choix politiques, en même temps, à de nombreuses reprises, ils posent des limites à son usage en affirmant une certaine distance à son égard. En particulier, ils insistent sur le fait que la politique éducative ne doit pas se mener uniquement par rapport à PISA, « qu’il ne faut pas régler la vie scolaire sur ces seules informations », parce que ce sont des indicateurs qui « donnent un avis intéressant, mais insuffisant »83 et que PISA n’est pas le seul outil d’analyse du système éducatif. Certains avancent aussi des réserves d’ordre méthodologique comme arguments pour justifier « qu’il ne faut pas tout prendre pour argent comptant ». Les extraits suivants des débats parlementaires illustrent cette prise de distance : « M. Dupont se refuse à régler notre vie scolaire et l’ensemble de notre vie scolaire sur ces seuls informations. M. Dupont tient à préciser qu’il ne veut pas avoir sa vie modulée par des indicateurs externes qui donnent certes un avis intéressant mais insuffisant » (C. Dupont, PCF, 28/02/2002, p. 33). « Il faut utiliser ce type d’étude non pas pour être classé parmi les premiers, mais pour identifier les points forts et faibles de l’enseignement (…) L’objectif est d’utiliser ce types d’étude pour estimer toutes les modifications et les priorités à prendre pour améliorer notre enseignement (…) Nous devons mener une 83 Propos de C. Dupont, à l’époque parlementaire PS, PCF, 28/02/2002, p. 3. 62 3. PISA, savoir et pouvoir politique à moyen et à long terme sur ces matières [cours de Sciences], mais pas uniquement par rapport à l’étude PISA (M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 17/02/2005, p. 9). « Il est certain que nous ne devons pas être sourds et aveugles. Cependant, je rappelle que l’enquête PISA n’est pas le seul outil d’analyse de notre système » (M. Cheron, parlementaire Ecolo, PCF, 21/06/2005, p. 45) « L’étude Pisa ne doit pas nous contraindre à modifier l’ensemble de notre politique » (Y. Reinkin, parlementaire Ecolo, PCF, 11/12/07, p. 44) « Si le rapport PISA peut nous donner des indications, il ne doit pas rester notre seule référence » (A-M Corbisier-Hagon, parlementaire CdH, PCF, 11/12/07, p. 45) « L’étude Pisa est intéressante mais nous avons d’autres éléments de mesure, notamment ceux de la commission de pilotage. Nous ne devons pas nous concentrer uniquement sur les résultats PISA. Nous disposons aussi des éléments de mesure de la commission de pilotage qui connaît bien notre système scolaire, avec ses avantages et ses inconvénients, et est ainsi capable d’élaborer des recommandations en connaissance de cause. Ce n’est pas une bonne idée d’investir uniquement et massivement dans PISA. (…) L’étude Pisa est un outil parmi d’autres (…) Les indicateurs 2007 de la Communauté française constituent aussi un outil permettant de piloter correctement notre système d’enseignement » (M. Arena l’époque Ministre de l’enseignement, PS, PCF, 11/12/07, p. 46 et p. 48). « C’est vraiment purement personnel, mais j’émets des réserves sur la base de données PISA. Ce n’est pas que je fais des réserves, je pense que c’est extrêmement bien fait ; le testing et la vérification qualitative sont vraiment de haut niveau dans PISA. Mais par contre, je refuse à croire qu’on peut tirer tout et n’importe quoi des informations pour gérer un système éducatif, de cette base de données là. Je pense que c’est intéressant mais je pense qu’il ne faut pas perdre de vue que PISA, c’est, par exemple, un questionnaire de contexte qui est fait passer à des gosses de 15 ans sans aucune vérification. Donc moi j’ai confiance mais en même temps, je ne prends pas ça pour argent comptant. Donc les comparaisons qui peuvent être faites sont intéressantes mais c’est un outil, un indicateur parmi un tas d’autres. » (un conseiller au cabinet ministériel, PS, entretien)84 A l’occasion d’un « incident » survenu lors de la conférence de presse organisée pour la diffusion des résultats du troisième cycle de PISA (2006), le Ministre de l’enseignement a en particulier affirmé une distance par rapport aux « recommandations de l’OCDE » : selon lui, il s’agit « d’accorder de l’importance à l’étude PISA pour ce qui est des constats et non pour ses recommandations ». Cette prise de position s’inscrit dans le contexte où les parlementaires d’opposition (libéraux) se sont appuyés sur les rapports internationaux et les propos tenus par une représentante de l’OCDE lors de la conférence de presse pour légitimer leurs propositions et critiquer celles du Ministre, basées sur les rapports nationaux. « Que l’OCDE serve d’instrument de mesure, je suis d’accord. Mais qu’il se transforme en instrument de recommandation, ça fait peur. Quand la directrice de l’OCDE qui présentait le rapport a dit : « il y a une solution pour le système belge : vous n’avez qu’à mettre les bons professeurs des bonnes écoles pour remplacer les mauvais professeurs des mauvaises écoles », j’ai vu rouge ! Elle a également proposé de payer les enseignants au mérite (…) Autant on peut analyser et discuter le constat posé par l’OCDE, autant, sur les recommandations, j’invite l’OCDE à s’occuper des pays qui les entendent, mais à nous laisser travailler sur les pays qui nous concernent (…) J’accorde de l’importance à l’étude Pisa pur ce qui est des constats et non pour ses recommandations » (M. Arena, Ministre, PS, PCF, 11/12/07, p. 47) Nous verrons plus loin qu’à plusieurs reprises, les décideurs politiques précisent aussi que leur proposition « n’a rien à voir avec PISA », tout en s’appuyant dessus par ailleurs et en l’invoquant à plusieurs reprises. Le rapport – rhétorique – des décideurs politiques à PISA semble donc relativement paradoxal dans la mesure où ils présentent PISA comme un instrument d’évaluation externe aidant les politiques à faire les meilleurs choix (grâce 84 Pour les différents extraits, c’est nous qui soulignons. 63 3. PISA, savoir et pouvoir notamment à la comparaison avec les systèmes éducatifs d’autres pays) – tout en affirmant en même temps ne pas avoir à suivre les « recommandations » de PISA (seulement les constats) – et en citant néanmoins abondamment les supposées « leçons » et « recommandations » de PISA pour justifier des propositions politiques. Cette attitude paradoxale nous pousse à penser que l’usage de PISA s’inscrit en grande partie dans une logique rhétorique de légitimation politique. Nous reviendrons sur cette hypothèse plus loin. 3.2.5 Les débats sur l’interprétation des résultats de PISA et ses « leçons » La majeure partie des débats qui ont lieu sur PISA, dans la presse et au Parlement, porte sur la manière d’interpréter ses résultats et ses « leçons » : sur les « problèmes » que PISA mettrait en évidence, les « explications » qu’il avancerait et les « solutions » qu’il suggérerait. C’est au sujet de ces questions que les discussions sont les plus nombreuses et les plus vives. Ces débats débordent souvent le seul cadre de la discussion sur les enquêtes PISA elles-mêmes. Ils s’inscrivent dans le contexte socio-éducatif et les clivages politico-éducatifs propres à la CFB et prennent aussi sens par rapport à des débats à propos de politiques ou de projets politiques préexistants. Les problèmes : l’équité (l’écart, la variance et les élèves les plus faibles) versus l’efficacité (le rang, la moyenne et les élèves les plus forts) Si l’on examine les discours tenus ces dernières années par les différents acteurs qui œuvrent dans le champ scolaire en CFB, on retrouve un certain consensus autour de la nécessité d’améliorer « la qualité, l’équité et l’efficacité » du système éducatif. En même temps, les discours laissent apparaître certaines divergences, à travers des accents différenciés et à travers les propositions politiques émises pour arriver à atteindre ces trois qualités. Ces divergences s’expriment également à l’occasion des débats sur les résultats de PISA. Dès 2001, lors de la diffusion du premier rapport PISA (2000), des divergences politiques se sont manifestées autour de l’interprétation des résultats et la définition des problèmes mis en évidence par l’enquête PISA : alors que les socialistes, les écologistes et les démocrates humanistes mettent davantage l’accent sur le problème de l’inéquité (à travers l’écart et la variance des résultats), les libéraux mettent davantage en avant le problème de l’efficacité (à travers le faible niveau des résultats et le mauvais classement de la CFB). Pour les premiers, le problème se situe alors surtout au niveau des élèves les plus faibles (trop nombreux), alors que, pour les seconds, il se situe à celui des élèves les plus forts (pas assez nombreux). 64 3. PISA, savoir et pouvoir Ainsi, pour les acteurs politiques socialistes, écologistes et démocrates humanistes, la « principale leçon de PISA », c’est d’avoir éclairé les problèmes d’inégalité85 et la « dualité du système éducatif »86 mis en évidence à partir des écarts de performances entre les élèves et entre les écoles, selon l’origine sociale des élèves ou le milieu social de l’école. Souvent, ils disent regretter la manière dont les médias ont traité les résultats de PISA en mettant l’accent sur le mauvais classement de la CFB et sur le « faible niveau » des élèves. Selon eux, PISA suggèrerait alors de mettre la priorité politique sur les élèves les plus faibles87 et de formuler des propositions politiques visant à diminuer l’inéquité du système éducatif, telles que l’allongement du tronc commun ou la promotion de la mixité sociale au sein des classes et des écoles. Pour justifier leurs propos, ils s’appuient en particulier sur les interprétations des résultats de PISA produites par le NPM et les chercheurs du SPE : « Le camp libéral a une tendance marquée à analyser les performances. (…) Il est certain que nous ne devons pas être sourds et aveugles. (…) Depuis les enquêtes PISA, un certain nombre de constats ont été posés. (…) Bien plus que les résultats obtenus par les élèves dans les différentes branches, ce sont les inégalités qui apparaissent clairement et qui nous interpellent » (M. Cheron, parlementaire Ecolo, PCF, 21/06/2005, p. 45) « Les performances globales des élèves de la Communauté française sont relativement faibles, c’est-à-dire dans la moyenne ou inférieures à celles des pays participants. (…) Je suis beaucoup plus préoccupée par les résultats des élèves les plus faibles. En effet, comme en 2000 et en 2003, la Communauté française demeure l’un des systèmes éducatifs où la différence entre les élèves les plus forts et les élèves les plus faibles est la plus importante au monde. Voilà un signe évident d’un manque d’équité du système, ce qui nous ramène au débat sur la mixité sociale dans nos écoles. La différence de résultats entre écoles est également significative. Comme en 2000 et en 2003, Pisa démontre que ce sont les mêmes écoles qui concentrent toutes les difficultés : élèves plus faibles, statuts socio-économiques peu élevés, retards scolaires, nombreux élèves issus de l’immigration (…) (M. Arena, à l’époque Ministre de l’enseignement PS, PCF, 11/12/07, p. 46) « La leçon principale de PISA, c’est l’inégalité et les écarts entres écoles (…) Notre communauté a la lanterne rouge en la matière (…). Et je continue à penser même 4 ans après que ça reste le principal problème de notre système d’enseignement en Communauté française. Mais malheureusement, ce que PISA a mis dans un journal télévisé, avec une minute trente ou deux minutes de reportage, ce n’est pas ça, c’est ‘le niveau est bas’ ou ‘relativement le niveau est bas’. C’est une leçon mais ce n’est pas la leçon principale. Là aussi j’ai un regret par rapport à ça. C’est que malgré tout ce que Dominique Lafontaine et son équipe ont essayé de faire passer dès le début comme message, ce n’est quand même pas ça que les gens retiennent pour l’instant. Ce n’est quand même pas cette inégalité entre écoles qui pose problème, c’est ‘le niveau est bas’. » (député écolo, ancien ministre de l’enseignement fondamental, entretien) « La grande leçon de PISA, c’est quelque chose qu’on savait déjà, à savoir qu’on a un système scolaire qui est très performant, voir hyper performant pour nos plus forts. (…) Mais on a par ailleurs aussi des très mauvais. 85 Cf. C. Dupont, à l’époque parlementaire PS, PCF, 11/12/2001, p. 44 ; M. Bayenet, parlementaire PS, PCF, 15/12/2004, p. 8 ; L. Walry, parlementaire PS, PCF, 11/01/2005, p. 3 ; PCF, 25/01/2005, p. 12 ; M. Cheron, parlementaire Ecolo, PCF, 15/02/2005, p. 12 ; M. Cheron, parlementaire Ecolo, PCF, 21/06/2005, p. 45 ; Y. Reinkin, parlementaire Ecolo, PCF, 11/12/07, p. 44 ; M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 11/12/07, p. 46 ; F. Fassiaux-Looten, parlementaire PS, PCF, 09/04/2008a, p. 8. 86 Cf. P. Hardy, parlementaire Ecolo, PCF, 24/04/2002, p. 21 ; V. Jamoulle, parlementaire PS, PCF, 21/06/2005, p. 53 ; L. Walry, parlementaire PS, PCF, 11/12/07, p. 32 ; V. Jamoulle, parlementaire PS, PCF, 11/12/2007, p. 42 ; PCF, 20/05/2008a, p. 4 ; A.-M. Corbisier-Hagon, parlementaire PSC, PCF, 11/12/2001, p. 8 ; M. Elsen, parlementaire CdH, PCF, 11/12/07, p. 30. 87 M. Arena, Ministre, PS, PCF, 11/12/07, p. 46 ; C. Dupont, Ministre, PS, PCF, 03/06/2008, p. 7. 65 3. PISA, savoir et pouvoir Et notre système manifestement n’arrive pas à les récupérer. Et donc tout le message, en tout cas tout ce que nous on peut retirer, enfin je caricature, mais je veux dire, l’élément le plus essentiel de PISA, c’est cela. C’est ce système très dual. Et ça, ce n’est pas d’un réseau à l’autre. A l’intérieur même des réseaux, on retrouve cette dualité. » (chef de cabinet ministériel, PS, entretien)88 La problématique des inégalités sociales n’est évidemment pas l’apanage des seuls acteurs politiques socialistes, écologistes ou démocrates humanistes. Elle est aussi mise en avant par d’autres acteurs, comme certaines associations de parents89, les chercheurs universitaires90, ou encore le mouvement APED (Appel pour une école démocratique). Certains parlementaires libéraux évoquent également le caractère inégalitaire du système éducatif91. Cependant, la plupart estiment que ce n’est pas là la principale leçon de PISA, voire remettent en question cette interprétation en la qualifiant de « lecture non honnête de PISA »92. Selon les acteurs politiques libéraux, PISA mettrait surtout en évidence le manque d’efficacité du système éducatif. Ils insistent également sur le fait que l’un des problèmes mis en lumière par PISA concerne la faible proportion de « très bons élèves »93. Leurs propositions mettent alors davantage l’accent sur l’autonomie des établissements et sur la « pertinence des apprentissages de base » qui constitue selon eux la « vraie question », une question qui serait « venue du « terrain ». Certains parlementaires remettent alors en question l’apprentissage des « compétences » promues en CFB depuis le Décret Missions (1997) et qui, selon eux, « se seraient substituées trop vite aux savoirs ». C’est dans cette divergence d’interprétation des « problèmes » que mettraient en évidence PISA que s’inscrit la polémique, déjà soulignée, qui oppose les libéraux aux socialistes au sujet de l’indépendance des chercheurs universitaires en CFB, dont le NPM et ses collègues accusés d’être les « conseillers » du Ministre et de réaliser un « travail idéologique ». Ainsi, selon l’un des parlementaires libéraux que nous avons interviewé, et dont nous reproduisons ici un extrait d’entretien, la lecture des résultats de PISA réalisée par l’ancien NPM introduirait un « biais » en interprétant le fait que les « mauvais 88 89 Pour les différents extraits, c’est nous qui soulignons. Cf. P. Schwarzenberger, vice-président de la Fédération des associations de parents d’élèves de l’enseignement officiel, Le Soir, 08/12/2004h. 90 V. Dupriez, chercheur en sciences de l’éducation à l’UCL, Le Soir, 08/12/2004f ; C. Maroy, chercheur en sociologie à l’UCL, Le Soir, 12/12/2007. 91 Cf. M. Neven, parlementaire MR, PCF, 15/12/2004, p. 19 ; M. Neven, parlementaire MR, PCF, 21/06/2005, p. 49 ; A. Destexhe, parlementaire MR, PCF, 21/06/2005, p. 63. 92 CF. J.-P. Wahl, parlementaire MR, PCF, 11/12/2007, p. 37. 93 A. Destexhe, MR, PCF, 21/06/2005, p. 63 ; A. Destexhe, MR, PCF, 11/12/07, p. 40. 66 3. PISA, savoir et pouvoir résultats sont le fruit d’un niveau socio-économique défavorisé et qu’il faut mettre plus sur ces enfants défavorisés ». « (A propos de PISA) A la manière dont on l’utilise ici, je ne suis pas tout à fait d’accord. Et avec la grande psycho-pédagogue de l’université de Liège qui pilote un peu tout maintenant dans l’enseignement, mais qui pilote tout avec des théories et des thèses qui ne sont pas les miennes, elle met, pour moi, un biais. Donc, elle est partie du postulat que les mauvais résultats sont le fruit d’un niveau socio-économique défavorisé et que si on mettait plus sur ces enfants défavorisés, on aurait bon. Mais plus quoi ? Moi, je dis, ces mauvais résultats sont le fruit d’une réflexion que nous devons mener sur la manière dont les apprentissages de base sont suffisamment complets, conséquents et servis à tous les enfants quelque soit leur origine socio-économique. Je ne pars pas avec un postulat de base comme elle le fait. Donc il y a un biais dans l’exploitation pour le moment en Communauté française et ce biais, pour moi, évite et esquive depuis 4 ans la vraie question de la pertinence de nos apprentissages de base ou de l’évolution de nos apprentissages de base. (…) Il y a dix ans, il y a eu le décret mission (…) Ce décret mission base une grosse partie de l’apprentissage sur les socles de compétence et sur les compétences. Beaucoup de gens commencent, et quand je dis gens, je prends le mot gens exprès parce qu’il y a des chercheurs, il y a des « monsieur et madame tout le monde », il y a des gens de terrain, donc je parle des instituteurs, j’ai entendu des échevins de l’enseignement, donc c’est très divers, ils commencent à se poser la question de savoir dans quelle mesure les compétences se seraient substituées trop vite aux savoirs. (…) Moi, je suis libérale et donc pour moi, a priori, tout le monde, en fonction de ses compétences propres, peut accéder à la connaissance. Et l’obligation des pouvoirs publics, c’est de donner à tout le monde les moyens d’accéder à la connaissance. (…) Tout le monde a cette possibilité et on n’a pas comme présupposé que certains étant plus défavorisés au départ… (…) On a toujours eu la conviction qu’il faut tirer vers le haut, le plus possible, avec une série de choses comme la remédiation immédiate, ne pas laisser un échec s’installer, et là, on est vraiment en opposition avec un système qui est celui de cette majorité de gauche, qui est un système beaucoup plus autoritaire, beaucoup plus interventionniste, qui fait plus confiance à l’idéologie de ce qu’ils apportent qu’aux acteurs de terrain. » (un parlementaire MR d’opposition, entretien)94 Cette controverse s’exprime aussi dans l’arène parlementaire, comme l’illustre l’extrait suivant d’un débat entre le Ministre de l’enseignement socialiste et des parlementaires libéraux juste après la diffusion des résultats du troisième cycle de PISA (2006) : « M. Arena : (A propos de PISA) Depuis 2001, ce document dénonce et prouve l’inégalité de notre système scolaire (…) L’étude Pisa le confirme. Notre système est inégalitaire, il crée des écoles ghettos. J.-.P Wahl : La lecture de PISA n’est pas honnête, on y reviendra tout à l’heure. (…) A. Destexhe : (s’adressant au Ministre) Ce qui me dérange, c’est que, dans la présentation que vous avez faite des résultats [lors de la conférence de presse], vous avez surtout donné l’impression que, finalement, le problème concernait les 25% plus faibles. (…) Je voudrais attirer l’attention de cette assemblée sur le fait que contrairement à ce qui est souvent dit, y compris dans la presse rapportant l’étude Pisa, il existe également des différences considérables pour les bons et les très bons élèves. (…) Non seulement ces différences pour les bons et les très bons élèves n’ont pas été assez soulignées, mais elles sont très inquiétantes pour l’avenir de la Communauté. Pour être compétitif dans le monde actuel (…) J’aimerais donc vous entendre sur ces aspects-là des choses qui n’a pas du tout été évoqué dans les comptes rendus de l’enquête Pisa. Je crois que votre lecture de l’enquête de l’OCDE n’est pas tout à fait honnête. En parcourant le rapport [international], j’ai trouvé différents éléments qui figuraient aussi dans les transparents utilisés lors de la présentation des résultats de l’enquête [par la responsable de l’OCDE] (…) En ce qui me concerne, je lis les rapports de l’OCDE dans leur totalité et pas uniquement les aspects qui m’arrangent. Dès le moment où l’on fait référence à cette enquête, il faut avoir l’honnêteté de discuter de l’ensemble de ces constats même si on ne les approuve pas tous nécessairement » (M. Arena, à l’époque Ministre de l’enseignement PS ; J.-P Wahl, parlementaire MR, PCF, 11/12/2007, pp. 36-37 ; A. Destexhe, MR, PCF, 11/12/07, p. 40)95 94 C’est nous qui soulignons. 95 C’est nous qui soulignons. 67 3. PISA, savoir et pouvoir Sans que cela soit explicité, il semblerait que la position du réseau d’enseignement catholique, qui rappelons-le ne s’est pas exprimé dans la presse pendant la période que nous avons analysée, soit comparable sur certains points à celle des libéraux (alors que traditionnellement « l’allié politique » du réseau catholique était plutôt le parti sociochrétien, aujourd’hui le Centre démocrate humaniste, proche du « pilier catholique » comme lui). Dans une de leur publication, un responsable du service d’étude du réseau catholique déclare que le « principal problème du système éducatif en Communauté française de Belgique est un problème d’efficacité » et renvoie à la maîtrise des compétences de base : « La comparaison entre les Pays-Bas et la CF est à ce titre éclairante: l'écart entre les plus forts et les plus faibles y est pratiquement le même. Mais aux Pays- Bas, il se creuse par le haut: les élèves les plus faibles ont des résultats supérieurs à la moyenne OCDE, et les élèves forts "cartonnent". En CF, l'écart se creuse par le bas: les élèves les plus forts ont des résultats équivalents à la moyenne OCDE, tandis que les élèves les plus faibles ont des résultats inférieurs à ceux de la moyenne OCDE. Le principal problème du système éducatif en Communauté française de Belgique est donc bien un problème d'efficacité. En effet, on constate que les systèmes éducatifs efficaces ont tendance à assurer, même aux plus faibles, la maitrise des compétences de base, celles qui permettent de s'insérer dignement dans la société. » (J.-P. Degives, Entrées Libres, n°25, janvier 2008, p. 17). Les explications et les solutions : la société versus le système éducatif (les acteurs / la structure / la régulation / la pédagogie) Les débats qui ont eu lieu au sujet des résultats de PISA ne portent pas uniquement sur les « problèmes » qu’il mettrait en évidence. Ils ont trait également aux explications que PISA donnerait à ces problèmes, principalement l’inefficacité ou l’inéquité du système éducatif. Les explications mises en avant et discutées sont en grande partie référées aux analyses issues du traitement des données PISA ; elles ne le sont cependant pas toutes. Pour expliquer les problèmes mis en évidence par les enquêtes PISA, les « causes » avancées par les différents acteurs œuvrant dans le champ scolaire sont nombreuses et variées. On peut néanmoins les regrouper, dans un premier temps, selon deux grandes catégories, selon qu’elles remettent en cause le fonctionnement de la société dans son ensemble ou le système éducatif. Les explications impliquant le système éducatif sont les plus nombreuses et occupent le plus de place dans le débat sur PISA. Parmi celles-ci, on peut distinguer quatre sous-catégories, selon qu’elles impliquent les acteurs du système (enseignants, directeurs d’école, élèves, écoles), les structures et le fonctionnement du système éducatif (structuration en filière d’enseignement, moment du choix et de l’orientation scolaires…), le mode de régulation du système éducatif (par les pouvoirs publics, les pouvoirs organisateurs, le marché, etc.) ou des questions d’ordre pédagogique (contenus et manières de donner cours). Ces différentes explications sont souvent mises en concurrence et, comme nous allons le voir, elles s’inscrivent dans le contexte socio-éducatif et les clivages politico-éducatifs propres à la CFB. Elles prennent aussi sens par rapport à des propositions politiques préexistantes qu’elles contribuent également à alimenter. Nous verrons que les différentes explications vont de pair avec 68 3. PISA, savoir et pouvoir des propositions différentes quant aux « solutions » à apporter pour remédier aux problèmes identifiés. Enfin, on peut soulever une certaine évolution dans les explications avancées : ainsi, on observe que les explications d’ordre pédagogique et celles impliquant les acteurs du système éducatif ont surtout été discutées lors des débats sur les résultats du premier cycle PISA (2000). A partir des deuxième et troisième cycles de PISA (2003 et 2006), elles vont davantage renvoyer à la structuration du système éducatif et à son mode de régulation. Les facteurs socio-économiques Plusieurs personnes évoquent régulièrement des raisons socio-économiques pour expliquer le « faible niveau » des élèves ou le manque d’équité du système éducatif. En premier lieu, le faible niveau des élèves serait le reflet en quelque sorte du faible niveau socio-économique de la partie francophone du pays : Pisa serait « le miroir de la morosité wallonne liée à son économie en sommeil »96, les jeunes élèves francophones auraient « du mal à investir dans un effort de scolarisation » car ils auraient « du mal à se projeter dans l’avenir » étant donnée « l’économie mal au point »97. « La pauvreté et la précarité d’emploi » en Wallonie ont un impact sur le rapport à l’école des élèves via les « espoirs déçus des parents d’atteindre une promotion sociale via l’école »98. Ce type d’explication est en particulier évoqué pour expliquer les différences de résultats entre la Communauté française et la Communauté flamande (décrite comme une région performante et florissante)99. « (Comment expliquez-vous les mauvaises performances des élèves francophones?) Cela renvoie au fonctionnement de la société et de l'économie, mal en point en Communauté française. Les jeunes générations ont du mal à se projeter dans l'avenir. Et donc à investir beaucoup dans un effort de scolarisation ». (V. Vandenberghe, docteur en économie, chercheur à l’UCL, La Libre, 04/12/01) – Cette explication sera reprise plus tard par M. Arena, à l’époque Ministre de l’enseignement PS (cf. PCF, 11/03/2008, pp. 27-28). « A qui le bonnet d'âne ? Haro sur... Sur qui ? Pisa, c'est un miroir. Et pas seulement de nos pratiques scolaires. Les élèves flamands cartonnent parce que la Flandre cartonne. Leurs performances scolaires sont celles d'enfants d'une région performante, à l'économie victorieuse. Et nos résultats, côté francophone, sont ceux d'une région globalement déprimée, à l'économie en sommeil. (…) l'école est toujours le miroir de son environnement. Et le nôtre est morose. C'est d'abord ça, Pisa : le reflet d'un environnement, d'une globalité. C'est dire qu'il y a, côté francophone, un défi d'ensemble - scolaire, mais aussi social, culturel, industriel, économique. » (Le Soir, 08/12/04) Dans cette optique, le sous-financement de la Communauté française et par conséquent de son enseignement est également avancé par plusieurs personnes pour expliquer les 96 Selon un journaliste du Soir, 08/12/04. 97 V. Vandenberghe, docteur en économie, chercheur à l’UCL, La Libre, 04/12/01. 98 N. Hirtt, membre du mouvement pédagogique l’APED, Le Soir, 06.12.01. 99 Cf. M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 11/03/2008, pp. 27-28 69 3. PISA, savoir et pouvoir mauvais résultats de la CFB à PISA100 : les restrictions budgétaires ont un impact sur le nombre d’enseignants par élève101, elles « ne stimulent pas le recrutement d’enseignants compétents et motivés » (étant données la charge horaire plus lourde et le salaire plus bas)102, elles rendent les conditions d’enseignement plus difficiles (augmentation des effectifs de classe, diminution des heures de rattrapage, …)103. « Le journaliste : En lisant l'enquête de l'OCDE, on se dit qu'il n'y a pas forcément de lien entre les performances scolaires d'un pays et l'argent que celui-ci investit dans son système scolaire. M. Vrancken : Si, il y a un lien! (…) Si on lit bien l'enquête OCDE, on devrait mettre 30 % des élèves en «D +» [écoles en discrimination positive]. Et si on voulait relever tout le peloton, il faudrait monter à 70 %! (…) C'est ça que nous dit l'OCDE! » (P. Bouillon, journaliste et M. Vrancken, Président de la CGSP Enseignement, syndicat d’enseignants socialiste, Le Soir, 18/02/2002) Enfin, parmi les explications socio-économiques, certains mettent en avant la « dualisation de la société » pour expliquer le manque d’équité du système éducatif. Cette explication est avancée par les parlementaires libéraux104 et les représentants du réseau d’enseignement catholique et semble s’inscrire dans une argumentation plus générale accordant davantage de place à la problématique de l’efficacité qu’à celle de l’équité et à une régulation du système éducatif privilégiant l’autonomie des pouvoirs organisateurs. C’est ce que laisse supposer le dernier extrait suivant, qui reprend les propos du responsable du réseau d’enseignement catholique. Nous reviendrons plus loin sur la question de la régulation du système scolaire. « Dans la mesure où l’écart entre les plus forts et les plus faibles est important, nous sommes tous interpellés. Notre enseignement constitué sur des bases égalitaires, à quelques détails près, devient inégalitaire par ses résultats. (…) Je suis convaincu que c’est la dualisation de la société (…) qui trouve son reflet dans notre enseignement. » (M. Neven, parlementaire MR, PCF, 15/12/2004, p. 19). « Si l’école contribue insuffisamment à réduire les inégalités qui sont produites dans la société, le système d’enseignement se présente d’abord come le reflet de la société dans laquelle il s’insère. (…) C’est la société duale qui produit l’école duale, et non l’inverse » (E. Michel, directeur général du SeGEC, Secrétariat général de l’enseignement catholique, Entrées Libres, n°19, mai 2007, p. 7) « En Communauté française, a rappelé Étienne Michel (…), 30% des jeunes n'acquièrent pas une maitrise de la lecture suffisante pour construire des compétences solides dans d'autres disciplines. (…) Cela pose évidemment des questions sur l'efficacité et l'équité de notre système scolaire. Mais, interroge le directeur général du SeGEC, le système éducatif n'est-il pas le reflet de la société qui l'entoure? Depuis 30 ans, la 100 CF. les propos de P. Hazette, à l’époque Ministre de l’enseignement, PRL, rapportés dans la La Libre, 04/12/01. 101 Cf. H. Wittorski, président de l’Ufapec, association des parents de l’enseignement libre, La Libre, 05/12/01 ; Le Soir, 08/12/04 ; Le Soir, 08/12/04b. 102 N. Hirtt, membre du mouvement pédagogique l’APED, Le Soir, 06.12.01. 103 N. Hirtt, membre du mouvement pédagogique l’APED, Le Soir, 06.12.01 ; M. Vrancken, Président de la CGSP Enseignement, syndicat d’enseignants socialiste, Le Soir, 18/02/2002. 104 Cf. M. Neven, parlementaire MR, PCF, 15/12/2004, p. 19 ; M. Neven, parlementaire MR, PCF, 21/06/2005, p. 49. 70 3. PISA, savoir et pouvoir Wallonie s'est profondément dualisée sur les plans économique, social et culturel. (…) l'enseignement qualifiant n'est pas par définition une filière de relégation. En Flandre, par exemple, plus souvent qu'en Communauté française, il fait l'objet d'un "premier choix". Ne faudrait-il pas, dès lors, à l'opposé du raisonnement relatif aux bassins scolaires, conjuguer davantage mobilité sociale, géographique et scolaire? Et si les enquêtes internationales montrent que les systèmes scolaires laissant beaucoup d'autonomie aux acteurs (particulièrement dans la gestion des ressources humaines) sont les plus efficaces, ne conviendrait-il pas aussi d'imaginer un modèle de gouvernance qui s'articule sur trois principes: régulation, responsabilisation, évaluation? Autrement dit: définir des objectifs en termes d'efficacité et d'équité, évaluer la mesure dans laquelle ils sont atteints, mais aussi parier sur la capacité d'acteurs individuels et collectifs d'exercer leurs responsabilités. Ce qui suppose de leur reconnaitre un espace d'autonomie suffisant… » (Propos de E. Michel, directeur général du SeGEC, Secrétariat général de l’enseignement catholique, rapporté par M.-N. Lavenfosse, Entrées Libres, n°8, avril 2006, p. 21) Les acteurs du système éducatif Parmi les explications avancées, certaines impliquent les acteurs du système éducatif, en particulier les enseignants et les élèves. En ce qui concerne les enseignants, surtout lors de la diffusion des résultats du premier cycle de PISA (2000), outre leurs conditions de travail rendues difficiles en raison du sous-financement de la CFB que nous venons d’évoquer, certains mettent en avant la « démoralisation » du corps enseignant, consécutive aux pertes d’emploi et aux grèves des années 1990, comme l’une des causes des mauvais résultats du premier cycle de PISA (2000)105. Cependant, le principal discours concernant les enseignants et qui prendra de l’ampleur à partir de la diffusion des résultats du deuxième cycle de PISA (2003), affiche plutôt la volonté de « ne pas responsabiliser » les enseignants et leur enseignement, en réaffirmant la « qualité de leur travail » face à un traitement médiatique perçu comme les stigmatisant106. Dans cette optique, certains proposent de promouvoir une professionnalisation des enseignants et une revalorisation de leur statut107. « Ce document ne doit pas servir à cibler les enseignants comme responsables. » (P. Hazette, à l’époque Ministre de l’enseignement, PRL, propos rapportés par Le Soir, 05/12/01) « Nous avions jadis la conviction d’être doté d’un enseignement de qualité. Ce ne serait plus le cas. J’emploie le conditionnel car personnellement, je considère que notre corps professoral est de qualité. » (M. Neven, parlementaire MR, PCF, 15/12/2004, p. 19) « Nous nous sommes également rendu compte qu’il faut délivrer un message encourageant et ces difficultés ne sont pas dues à la qualité des enseignants. Nous avons des enseignants de qualité » (M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 11/01/2005, pp. 3-4) 105 CF. les propos de P. Hazette, à l’époque Ministre de l’enseignement, PRL, rapportés dans La Libre, 04/12/01 ; Le Soir, 11/12/01 ; G.Legros, professeur de linguistique aux FNDP, Le Soir, 08/12/04c. 106 Cf. M. Neven, parlementaire MR, PCF, 15/12/2004, p. 19 ; L. Walry, parlementaire PS, PCF, 11/01/2005, p. 3, M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 11/01/2005, pp. 3-4 ; V. Jamoulle, parlementaire PS, PCF, 11/12/2007, p. 43 ; Y. Reinkin, parlementaire Ecolo, PCF, 11/12/07, p. 44 ; A-M Corbisier-Hagon, parlementaire CdH, PCF, 11/12/07, p. 45. 107 C. Leleux, Maître-assistante aux Hautes Ecoles de Bruxelles, Le Soir, 05/12/01 ; P. Piret, maître-assistant en psychopédagogie, Le Soir, 20/12/01. 71 3. PISA, savoir et pouvoir « A chaque enquête PISA, les enseignants se sentent stigmatisés car la presse se plaît à sous-entendre que l’enseignement ne serait pas bien donné. Or nous savons qu’ils ne sont pas responsables en tant que tels (…) c’est tout le système qui doit être réformé » (Y. Reinkin, parlementaire Ecolo, PCF, 11/12/07, p. 44) Certains évoquent également l’attitude des élèves à l’égard de leurs études et leur rapport à l’école : un rapport «instrumental » uniquement intéressé par « les points »108, un « rapport consumériste » centré sur le « seul souci de décrocher le diplôme »109 ou une « culture du refus de l’effort »110. Dans cette perspective, on retrouve alors tout un discours sur le fait « qu’il faut réhabiliter l’effort, le travail, la rigueur et l’autorité »111. La pédagogie Lors des discussions sur les résultats des enquêtes PISA, des explications d’ordre pédagogique ont aussi été avancées, surtout lors de la diffusion des résultats du premier cycle de PISA (2000), telles que la mauvaise qualité de l’enseignement des matières évaluées112, le trop petit nombre d’heures de cours consacrées aux matières évaluées113, la trop faible place occupée par la lecture dans l’enseignement114 ou son mauvais mode d’enseignement115 tenus responsables des mauvaises performances dans les autres matières, ou encore l’apprentissage basé sur la pédagogie par socles de compétences116. 108 J. Lefère, Conseil PO provinces et communes, Le Soir, 06/12/01. 109 J-M. Ferry, professeur de philosophie à l’ULB, Le Soir, 06/12/01. 110 P. Hazette, à l’époque Ministre de l’enseignement, PRL, PCF, 11/12/2001, p. 15 ; M. Neven, MR, PCF, 15/12/2004, p. 19. 111 112 P. Hazette, à l’époque Ministre de l’enseignement, PRL, propos rapporté par Le Soir, 05/12/01. CF. P. Piret, maître-assistant en psychopédagogie, Le Soir, 20/12/01 ; J.-M. Braibant, Conseiller pédagogique à l'UCL et F.-M. Gérard, Directeur adjoint du Bureau d'ingénierie en éducation et en formation, Le Soir, 20/12/2001 ; PCF, 09/04/2008b, p. 6 ; C. Petitjean, parlementaire FN, PCF, 22/04/2008, p. 14). 113 Le Soir, 04/12/07d. 114 P. Hazette, à l’époque Ministre de l’enseignement, PRL, propos rapportés dans Le Soir, 05/12/01 ; Le Soir, 11/12/01 ; J. Lefère, Conseil PO provinces et communes, Le Soir, 06/12/01 ; M. Neven, MR, PCF, 15/12/2004, p. 19 ; P. Hazette, Ministre, PRL, 11/12/2001, p. 15 ; P. Charlier, PSC, 11/12/2001, p. 15. 115 J.-M. Braibant, Conseiller pédagogique à l'UCL et F.-M. Gérard, Directeur adjoint du Bureau d'ingénierie en éducation et en formation, Le Soir, 20/12/2001 ; G. Legros, professeur de linguistique aux FNDP, Le Soir, 08/12/04c. 116 Cf. L. Walry, parlementaire PS, PCF, 21/06/2005, p. 42 ; Destexhe, parlementaire MR, PCF, 11/03/2008, p. 27, l’APED, Le Soir, 06/12/2001 ; J-M. Ferry, professeur de philosophie à l’ULB, Le Soir, 06/12/01. 72 3. PISA, savoir et pouvoir Les solutions envisagées concernent alors l’amélioration de l’enseignement des matières évaluées et en particulier un « recentrage sur les savoirs de base »117. « Contrairement à une opinion fort répandue (relayée par la ministre Françoise Dupuis dans l'édition du «Soir» du 6 décembre), cette hétérogénéité n'est pas liée uniquement à des différences de recrutement des élèves, mais aussi à l'inégale qualité de l'enseignement de la lecture tel qu'il est dispensé dans les classes. Sans nier l'importance d'autres facteurs, il apparaît clairement que le niveau d'acquisition de la lecture est déterminé en bonne partie par les pratiques et par la méthode d'enseignement utilisées par l'enseignant. (…) la situation des élèves ayant appris à lire à partir d'une approche fonctionnelle de la lecture est particulièrement alarmante. Le pourcentage d'élèves (très) faibles y est très élevé, particulièrement pour les enfants issus de milieux socio-linguistiquement défavorisés. De plus, cette pratique est généralement associée à une grande dispersion des résultats entre les élèves. Tout se passe comme si cette approche contribuait à augmenter les différences interindividuelles entre les élèves d'une même classe. (…) (J.-M. Braibant, Conseiller pédagogique à l'UCL et F.-M. Gérard, Directeur adjoint du Bureau d'ingénierie en éducation et en formation) Relevons que ces explications d’ordre pédagogique occupent une place mineure dans le débat sur PISA et sont le plus souvent exprimées par des acteurs ayant un rapport avec la psychopédagogie (comme conseiller pédagogique, formateur d’enseignant ou professeur dans le supérieur). Les structures du système éducatif Excepté le discours remettant en cause l’apprentissage basé sur les compétences, les explications d’ordre pédagogique et celles impliquant les enseignants ou les élèves étaient surtout présentes lors des débats sur les résultats du premier cycle PISA (2000). A partir des deuxième et troisième cycles de PISA (2003 et 2006), elles vont davantage renvoyer à la structuration du système éducatif et à son mode de régulation. Les explications qui remettent en cause la structuration du système éducatif sont plus souvent exprimées universitaires 118 par des acteurs politiques socialistes ou des chercheurs et pointent, le plus souvent dans un même discours, de nombreux dysfonctionnements. Elles remettent en particulier en cause les formes de relégation du système éducatif liées à sa structuration en filières119 ; l’homogénéité des classes et des écoles, ou leur manque de mixité120 ; les pratiques de sélection d’élèves par les écoles ou 117 Cf. JP Wahl, parlementaire PRL-FDF-MCC, PCF, 11/12/2001, p. 9 ; M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 13/12/04, p. 32, PCF, 11/01/2005, p. 4 et PCF, 26/01/2005, p. 9; M. Neven, parlementaire MR, PCF, 15/12/2004, p. 19. 118 119 V. Dupriez, chercheur en sciences de l’éducation à l’UCL, Le Soir, 08/12/2004f. La Libre, 07/12/2004 ; Le Soir, 07/12/04 ; Le Soir, 08/12/04 ; F. Dupuis, Ministre de l’Enseignement Supérieur et de la Recherche scientifique, PS, PCF, 24/04/2002, pp. 33-34 ; G.Legros, professeur de linguistique aux FNDP, Le Soir, 08/12/04c ; PCF, 25/01/2005, p. 12. 120 Le Soir, 07/12/04 ; Le Soir, 07/12/04c ; C. Dupont, Ministre de l’enseignement, PS, PCF, 03/06/2008, p. 7 et p. 21 ; M. Cheron, Ecolo, PCF, 10/12/2007, p.20. 73 3. de réorientation redoublement 122 vers d’autres établissements121 ; la PISA, savoir et pouvoir « pratique intensive » ; et, enfin, le moment de l’orientation scolaire jugé trop précoce du 123 . Ce type d’explication est souvent mis en opposition avec les explications de type pédagogique : « Vous savez tous ce je pense de cette enquête OCDE. Elle interpelle moins nos méthodes pédagogiques, quoiqu’il faille quand même y réfléchir, que la structure de notre enseignement dans ce qu’elle a trop de complaisance, elle est trop tolérante vis-à-vis de formes de relégation qui sont dangereuses : dispersion des réseaux, options multiples, systèmes qui aboutissent à des orientations vers des filières frappées de dévalorisation, mobilité outrancière. » (F. Dupuis, Ministre de l’Enseignement Supérieur et de la Recherche scientifique, PS, PCF, 24/04/2002, pp. 33-34) Ces explications s’appuient souvent sur la mise en perspective du fonctionnement du système éducatif en CFB avec celui d’autres pays ayant obtenus de meilleurs résultats et qui sont invoqués à titre « d’autres meilleures manières de faire montrées par PISA » : « Notre école francophone, et l'enquête Pisa le dit, elle le confirme, se singularise par un fossé énorme - et humainement inacceptable - entre un petit peloton d'élèves confortablement scolarisés et brillants (ceci expliquant sans doute cela), et une poche d'élèves à la traîne, confinés dans des écoles aux pauvres moyens (ceci expliquant assez cela aussi). Ce qui est en accusation, ici, surtout, c'est ce système qui fait que l'élève en difficulté est rarement soigné, épaulé, soutenu : on l'évacue. On le sort de l'enseignement général pour le dévier vers l'école technique ou professionnelle, avant de le faire glisser vers l'apprentissage en entreprise - le dernier palier de ce qu'on appelle « l'effet toboggan ». (…) Pisa montre que certains pays pratiquent tout autrement sans que leurs performances soient affectées - du tout. Il n'y a pas, là, au secondaire, ces éventails de filières et d'options qui, chez nous, servent à trier et dévier (…) » (Le Soir, 08/12/04) Ces explications sont proches de celles produites par le NPM et les chercheurs du SPE qui, comme nous l’avons vu, mettent en avant les problèmes d’inefficacité et surtout d’inéquité et les expliquent en remettant en cause les structures du système éducatif en CFB : le taux élevé de redoublement, la hiérarchie entre les filières d’enseignement, la ségrégation du système éducatif en fonction du milieu social et ethnique. 121 F. Dupuis, à l’époque Ministre de l’Enseignement supérieur, PS, propos rapporté par La Libre, 09/12/01 ; F. Dupuis, à l’époque Ministre de l’Enseignement supérieur, PS, propos rapporté par Le Soir, 06/12/01 ; M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 11/01/2005, p. 4 ; PCF, 25/01/2005, p. 12 et p. 40. 122 La Libre, 07/12/2004, Le Soir, 07/12/04a, Le Soir, 07/12/04b, Le Soir, 08/12/04 ; Le Soir, 07/12/04c ; P. Hazette, à l’époque ministre de l’enseignement secondaire PRL, propos rapporté dans La Libre, 04/12/01 ; P. Hazette, à l’époque ministre de l’enseignement secondaire PRL, propos rapporté dans Le Soir, 05/12/01 ; F. Dupuis, à l’époque Ministre de l’Enseignement supérieur, PS, propos rapporté La Libre, 05/12/01 ; F. Dupuis, à l’époque Ministre de l’Enseignement supérieur, PS, propos rapporté par Le Soir, 06/12/01 ; PCF, 25/01/2005, p. 12 ; Y. Reinkin, Ecolo, PCF, 20/05/2008b, p. 5 ; C. Dupont, Ministre, PS, PCF, 03/06/2008, p. 21 ; V. Dupriez, chercheur en sciences de l’éducation à l’UCL, Le Soir, 08/12/2004f. 123 Le Soir, 07/12/04c ; F. Dupuis, à l’époque Ministre de l’Enseignement supérieur, PS, propos rapporté par La Libre, 05/12/01 ; V. Dupriez, chercheur en sciences de l’éducation à l’UCL, Le Soir, 08/12/2004f. 74 3. PISA, savoir et pouvoir Dans cette perspective, les « solutions » avancées pour remédier aux problèmes d’inéquité et d’inefficacité mis en évidence par PISA sont : l’allongement du tronc commun124, la promotion de la mixité sociale dans les classes et les écoles125, le développement de la remédiation à la place des pratiques de redoublement126. Ces propositions prennent souvent sens et place par rapport à des projets politiques préexitants aux résultats des enquêtes PISA comme nous le verrons dans la section suivante (point 3.3.). Ces solutions sont souvent présentées comme inspirées par le système éducatif de pays mieux classés par PISA, en particulier les pays scandinaves (comme la Finlande127 ou la Suède128), ou de pays qui étaient mal classés et qui ont introduit de telles réformes comme la Pologne129. « Si l’on compare les élèves en fonction du classement en sciences, les jeunes Finlandais ont presque « un an d’avance par rapport au reste des pays de l’OCDE », selon Eric Charbonnier, analyste à la direction de l’éducation de l’OCDE. Les pays les plus performants se caractérisent par « un nombre élevé de bons élèves, un nombre peu élevé d’élèves en difficulté, des systèmes éducatifs équitables, pas forcément parmi les plus dépensiers, n’ayant pas de système d’orientation précoce », et où la qualité de l’enseignement est quasiment homogène quel que soit l’établissement, selon l’OCDE ». (Le Soir, 04/12/07e) « C’est l’intérêt des études de type PISA, des comparaisons entre divers types d’écoles ou d’élèves sont possibles. On peut donc tenter de comparer les pays en fonction du système éducatif et essayer d’isoler les choix politiques les plus favorables et les plus pertinents (…) C’est ainsi que toute la communauté scientifique internationale, OCDE en tête, défend aujourd’hui l’établissement d’un tronc commun de matières, au moins jusqu’à l’âge de 14 ans. De même, elle préconise la mixité sociale dans tous les établissements scolaires (C. Dupont, Ministre, PS, PCF, 03/06/2008, p. 6) Ces « solutions » ne font évidemment pas consensus parmi les acteurs œuvrant dans le champ scolaire en CFB et elles sont vivement critiquées par certains acteurs. 124 Association de parents contre l'échec scolaire, propos rapporté par La Libre, 04/12/07b ; M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 11/01/2005, p. 4 ; M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 11/12/07, p. 38 ; M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 11/12/07, p. 48 ; C. Dupont, Ministre de l’enseignement, PS, PCF, 03/06/2008, p. 6. 125 V. Dupriez, chercheur en sciences de l’éducation à l’UCL, Le Soir, 08/12/2004f ; C. Maroy, chercheur en sociologie à l’UCL, Le Soir, 12/12/2007 ; F. Dupuis, à l’époque Ministre de l’Enseignement supérieur, PS, propos rapporté par La Libre, 05/12/01 ; V. Jamoulle, parlementaire PS, PCF, 11/12/2007, p. 42 ; A-M CorbisierHagon, parlementaire CdH, PCF, 11/12/07, p. 45. 126 C. Leleux, Maître-assistante aux Hautes Ecoles de Bruxelles, Le Soir, 05/12/01 ; Association de parents contre l'échec scolaire, propos rapporté par La Libre, 04/12/07b. 127 Association de parents contre l'échec scolaire, propos rapporté par La Libre, 04/12/07b ; La Libre, 05/12/07 ; Le Soir, 5/12/2007d. 128 V. Dupriez, , chercheur en sciences de l’éducation à l’UCL, Le Soir, 08/12/2004f. 129 Le Soir, 05/12/2007b ; La Libre, 06/12/2007. 75 3. PISA, savoir et pouvoir L’organisation de classes hétérogènes, par exemple, est présentée comme un « vœu pieu », « impraticable pour le terrain » (les enseignants)130. D’autres, comme certains responsables du réseau d’enseignement catholique, prônent des « approches plus limitées » que de « grands projets de réforme structurelle »131. D’autres enfin, comme les libéraux, expriment l’inquiétude que de telles mesures aboutissent à un « nivellement par le bas » et opposent à de telles solutions une régulation du système éducatif basée sur l’autonomie des établissements. C’est ce que nous allons voir maintenant. La régulation du système éducatif Un dernier type d’explication avancé pour rendre compte des problèmes mis en évidence par PISA renvoie au mode de régulation du système éducatif. En particulier, ce qu’on pourrait décrire comme les caractéristiques d’une régulation basée sur le marché sont tantôt présentées comme une cause au problème d’inéquité (la concurrence entre les écoles, voire la liberté de choisir son école), tantôt comme une solution au problème d’inefficacité (l’autonomie des écoles). Ces deux points de vue opposés sont défendus par des parlementaires s’appuyant tous sur les rapports de PISA : dans le premier cas, plutôt sur les rapports nationaux ; dans le second, plutôt sur les rapports internationaux. Cette divergence renvoie en grande partie au clivage déjà soulevé entre, d’une part, les parlementaires socialistes et écologistes, et, d’autre part, les parlementaires libéraux. Ainsi, les parlementaires libéraux132, mais aussi des parlementaires sociaux-chrétiens à l’époque du premier cycle de PISA (2000)133, certains chercheurs universitaires (en économie)134 et dans une certaine mesure les responsables du réseau d’enseignement catholique135, présentent le manque d’autonomie des établissements scolaires comme un facteur expliquant l’inefficacité du système éducatif. Si ces différents acteurs se rejoignent pour défendre l’autonomie, ils le font vraisemblablement pour des raisons 130 131 La Libre, 09/12/01. E. Michel, directeur général du SeGEC, Secrétariat général de l’enseignement catholique, Entrées Libres, n°19, mai 2007, p. 8. 132 A. Destexhe, parlementaire MR, PCF, 11/12/07, p. 41 et p. 49 ; W. Borsus, parlementaire MR, PCF, 03/06/2008, p.6. 133 A. Antoine, parlementaire PSC, PCF, 11/12/2001, p. 44. 134 V. Vandenberghe, docteur en économie, UCL, La Libre, 04/12/01 ; R. Deschamps, professeur en économie aux FUNDP, entretien dans La Libre, 11/02/2008. 135 Entrées Libres, n°8, avril 2006, p. 21 ; Entrées Libres, n°19, mai 2007, pp. 2-3 ; J.-P. Degives, Entrées Libres, n°25, janvier 2008, p. 17. Plus précisément, les dirigeants du réseau d’enseignement libre plaident pour une « gouvernance plus locale » basée sur une « régulation par un Etat évaluateur » et qui « articule régulation, responsabilisation, évaluation » : où les objectifs en termes d’efficacité et d’équité sont définis et mesurés tout en « pariant sur la capacité d’acteurs individuels et collectifs d’exercer leurs responsabilités », supposant de leur « reconnaître un espace d’autonomie suffisant » (Entrées Libres, n°8, avril 2006, p. 21 ; J.-P. Degives, responsable du service d’étude du réseau d’enseignement catholique, entretien). 76 3. PISA, savoir et pouvoir différentes. Les libéraux et les économistes lient la concurrence et l’efficacité, alors que la position des acteurs du réseau d’enseignement catholique doit davantage se comprendre comme inscrite dans l’histoire longue des relations entre l’Etat et la société civile organisée. Selon ces différents acteurs, pour améliorer les performances des élèves, les enquêtes PISA suggèreraient donc d’assurer une autonomie aux établissements, en particulier à l’égard des budgets de fonctionnement et du recrutement des enseignants, voire même une certaine publicité des résultats des écoles, une « dose de concurrence » et des « standards de performances basés sur des évaluations externes »136. Ils critiquent alors la « régulation top-down, bureaucratique, par décrets » qui impose « de haut vers le bas ses visions sur l’école » et qui serait mise en œuvre par les socialistes au pouvoir et soutenue par les écologistes davantage attentifs à restaurer l’équité du système137. Dans cette perspective, ce ne sont plus les pays scandinaves qui sont cités comme modèles à suivre, mais les Pays-Bas ou la Flandre. L’autonomie des établissements est ainsi avancée comme l’une des raisons expliquant les meilleurs résultats de la Communauté flamande par rapport à celle de la Communauté française138. A l’opposé, se positionnant principalement face aux libéraux, plusieurs acteurs, dont les parlementaires socialistes et écologistes, certains chercheurs universitaires ainsi que certaines associations de parents et le mouvement pédagogique « l’APED », énoncent parmi les explications aux inégalités des résultats entre élèves et écoles « l’autonomie des écoles jointe à la liberté de choix des parents faisant de l’enseignement un semimarché »139 ainsi que la concurrence à laquelle se livrent les écoles140. En particulier, la « liberté totale » qu’ont les élèves de s’inscrire dans l’école qu’ils souhaitent est mise en 136 137 A. Destexhe, sénateur MR, propos rapporté par a Libre, 04/12/07b. Selon les propos d’un responsable du service d’étude du réseau d’enseignement catholique et d’un parlementaire libéral, tenus lors d’entretiens. 138 P. Hazette, à l’époque Ministre de l’enseignement, PRL, propos rapporté par La Libre, 04/12/01 et Le Soir, 05/12/01. 139 N. Hirtt, membre du mouvement pédagogique l’APED, Le Soir, 06.12.01 ; P. Schwarzenberger, vice- président de la Fédération des associations de parents d’élèves de l’enseignement officiel, Le Soir, 08/12/2004h. 140 F. Dupuis, à l’époque Ministre de l’enseignement supérieur, PS, propos rapportés par La Libre, 05/12/01 ; F. Dupuis, à l’époque Ministre de l’enseignement supérieur, PS, Le Soir, 06/12/01. ; M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 11/01/2005, p. 4 ; V. Jamoulle, parlementaire PS, PCF, 11/12/2007, p. 42. 77 3. PISA, savoir et pouvoir avant comme un « facteur favorisant le clivage social »141. Certains proposent alors une certaine régulation du choix de l’école par les parents au sein de « bassins scolaires »142. Pour appuyer leur argumentation, les défenseurs d’une régulation du système éducatif basée sur une plus grande autonomie des écoles citent non pas les rapports nationaux de PISA, mais bien les rapports internationaux de l’OCDE, les propos de responsables de l’OCDE, les travaux réalisés par certains chercheurs universitaires à partir de la base de données PISA ou d’autres études de l’OCDE, ou encore leur propre travail réalisé à partir de la base de données PISA. Ceux qui critiquent la régulation basée sur l’autonomie ont plutôt tendance à s’appuyer sur les rapports nationaux. Il est intéressant à ce propos de constater le « jeu de citations » qu’il peut y avoir dans l’arène médiatique ou politique, chacun citant des sources différentes sur PISA pour appuyer des positions divergentes : « A. Antoine (PSC) : Je ferais volontiers mienne l’approche de Vincent Vandenberghe de l’UCL qui résume en une belle formule ce que nous devrions faire (…) : donner de l’autonomie aux établissements et la troquer contre une évaluation de leurs résultats. Monsieur Nollet, je vous l’ai dit, nos amis néerlandophones ont introduit un système d’audit. (…) J.-M. Nollet (écolo) : (…) Vous avez cité M. Vincent Vandenberghe (…) j’ai justement lu un article de Vincent Vandenberghe, intitulé « Efficacité, équité dans l’enseignement : quelles relations ? ». (…) Se basant sur une étude de l’OCDE de 1995, il insiste sur un des critères d’explication du système belge – l’article vient d’être publié dans Reflets et perspectives de la vie économique – et dit : « Le problème, c’est la présence de classes et d’établissements de plus en plus homogènes. » Au regard de cela, l’objectif devrait être orienté vers l’établissement de classes et d’écoles de plus en plus hétérogènes. Voilà un enjeu fondamental pour le pilotage (…) » (A. Antoine, parlementaire PSC, PCF, 11/12/2001, p. 44 et J.M. Nollet, à l’époque Ministre de l’Enfance chargé de l’Enseignement fondamental, de l’Accueil et des Missions confiées à l’ONE, Ecolo, PCF, 11/12/2001, pp.44-45). Comme le relève un article de presse, le « même indicateur peut donner lieu à des interprétations » différentes, en parlant des propos tenus par B. Ischinger, directrice du Directorat pour l’Education de l’OCDE, lors de la conférence de presse à l’occasion de la sortie des résultats du troisième cycle de PISA (2006), qui vantent l’autonomie des écoles et la concurrence : « Un même indicateur peut donner lieu à interprétations. Des sept cents pages bien denses du rapport 2007, Barbara Ischinger, directrice du Directorat pour l’Education, conclut, plus politiquement, sur les effets de l’autonomie des écoles. Laisser à l’école l’autonomie de sélectionner elle-même les professeurs de son équipe pédagogique améliore de 41 % l’efficacité de l’école, dit-elle. Et tenir compte d’évaluations externes dope les résultats de 46 %. « Combinés, ces deux critères atteignent 63 % d’amélioration de la performance. » Conclusion explicite : « Il faut laisser aux écoles la liberté d’utiliser des incitants financiers, salariaux ou autres, afin d’attirer les meilleurs profs dans les écoles en difficulté. Et laisser agir la concurrence.» » (Le Soir, 05/12/07c) 141 142 G. Legros, professeur de linguistique aux FNDP, Le Soir, 08/12/04c. J.-M. Nollet, à l’époque Ministre de l’enseignement fondamental, propos rapporté dans La libre, 9/12/2001C ; Maroy, chercheur en sociologie à l’UCL, Le Soir, 12/12/2007. 78 3. PISA, savoir et pouvoir Ces propos tenus par la directrice du Directorat pour l’Education de l’OCDE seront débattus au sein du Parlement de la CFB. Ils seront l’occasion pour le Ministre de l’enseignement socialiste de l’époque d’affirmer une certaine distance à l’égard de l’usage des recommandations faites par l’OCDE et pour les parlementaires libéraux de remettre en cause la neutralité des chercheurs nationaux en charge de l’enquête PISA en CFB : « A. Destexhe (MR) : Je crois que votre lecture de l’enquête de l’OCDE n’est pas tout à fait honnête. En parcourant le rapport [international], j’ai retrouvé différents éléments qui figuraient aussi dans les transparents utilisés lors de la présentation des résultats de l’enquête [par la directrice du Directorat pour l’Education de l’OCDE]. L’OCDE constate qu’un certain nombre de facteurs favorisent des performances élevées. Or, la plupart d’entre eux ne sont pas présents dans notre système scolaire. Le premier facteur est la publication des résultats des enquêtes standardisées. Je vous renvoie à cet égard aux pages 276 et suivantes du rapport de l’OCDE. (…) Selon l’OCDE, cela stimule une certaine concurrence entre les écoles qui améliorent la qualité, les performances et les résultats. L’OCDE met également en avant le degré d’autonomie des écoles, en particulier le degré de maîtrise par l’école du budget de fonctionnement et de l’engagement des professeurs. (…) Puisque l’OCDE nous dit, en comparant une trentaine de réseaux éducatifs, que ces facteurs sont favorables aux performances élevées, ceux-ci ne mériteraient-ils pas que l’on s’y intéresse davantage ? (…) M. Arena (PS) : Vous étiez à la conférence de presse de l’OCDE, et vous m’avez vue réagir vertement. Que l’OCDE serve d’instrument de mesure, je suis d’accord. Mais qu’il se transforme en instrument de recommandations, ça fait peur. (…) Quand vous dites que l’étude PISA recommande la publication des résultats (…) cela signifie la mise en concurrence des écoles en fonction des résultats (…) Cette concurrence existe, mais ce que vous proposez c’est de la renforcer. Notre proposition est tout autre. (…) Les résultats [tels que diffusés dans les rapports nationaux] montrent qu’en Communauté française, une certain nombre de jeunes sont laissés pour compte dans le système scolaire. Il faut leur accorder la priorité en ayant recours à tout système – commission de pilotage, financement différencié, etc. (…) Notre système se doit de faire cet effort. (...) (…) A. Destexhe (MR) : Il ya quand même une légère différence entre ce qu’a dit la représentante de l’OCDE à la conférence de presse et ce qui est écrit dans le rapport [international] et, par railleurs, ce qu’a dit Mme Lafontaine]. M. Arena (PS) : Mme Lafontaine connaît l’éducation, la représentante de l’OCDE pas. (A. Destexhe, parlementaire MR, PCF, 11/12/07, p. 41 et p. 49 ; M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 11/12/07, p. 47 et p. 49)143 Pour soutenir l’explication de l’inefficacité du système éducatif en CFB par le manque d’autonomie des établissements, les libéraux s’appuient aussi sur un travail réalisé par un parlementaire lui-même, A. Destexhe, directement à partir de la base de données PISA. Il s’agit d’une analyse comparant les résultats des différents réseaux d’enseignement en CFB. Selon cette étude, le réseau libre aurait de meilleurs résultats que le réseau officiel en raison de son organisation davantage décentralisée. Cette étude, diffusée lors d’une conférence de presse, fera également l’objet de débats au sein de l’espace public, médiatique ou politique. En témoigne l’extrait de débat parlementaire suivant, lequel illustre à nouveau le « jeu paradoxal de citation » de travaux réalisés à partir des enquêtes PISA ou d’autres études de l’OCDE : « V. Jamoulle (PS) : En lisant Le Soir du mercredi 21 mai 2008 [rapportant l’étude réalisée par A. Destexhe], nous « apprenions », chiffres de l’étude PISA à l’appui, que l’école libre serait meilleure que l’officielle. La raison invoquée pour justifier cet anathème sur l’école officielle serait l’organisation des réseaux, davantage 143 C’est nous qui soulignons. 79 3. PISA, savoir et pouvoir décentralisée pour l’un, davantage centralisée pour l’autre. (…) Je crains qu’une exploitation biaisée, sélective, partielle et, selon moi, partiale des chiffres de l’étude PISA n’alimente une nouvelle guerre scolaire provoquée par l’interprétation erronée et hâtive d’études statistiques. Nous savons que M. Destexhe excelle dans ce genre d’exercice. Les statistiques exigent d’abord que les données soient objectives (…) (…) W. Borsus (MR) : (…) Nous savons que le chapitre 5 du dernier rapport [rapport PISA international] met en exergue les relations de cause à effet entre le type d’organisation de systèmes d’éducation des établissements d’enseignement et les performances des élèves. (…)° Nous sommes de ceux qui plaident pour l’autonomie et donc pour une plus grande responsabilisation des pouvoirs organisateurs (…) (…) C. Dupont (PS) : (…) J’ai lu dans la presse francophone et flamande que nos écoles auraient un problème d’autonomie. Je m’en étonne. En effet, je constate, comme l’a fait l’OCDE en 2004 dans une étude spécifique qu’en Communauté française 43% des décisions sont prises par l’établissement scolaire, 25% le sont par le pouvoir organisateur et 32% par le pouvoir central. (…) Dans la même étude, l’autonomie des établissements scolaires de la Communauté française en matière d’affectation des ressources figure en quatrième place des systèmes éducatifs de l’OCDE. (…) Sur le rapport entre l’enseignement public et l’enseignement privé, l’OCDE déclare : « la prudence est de rigueur dans l’interprétation (…). A la page 206 [rapport PISA international], la prudence de l’OCDE est encore plus claire : « La relation entre les différentes variables en rapport avec l’autonomie des établissements et leur performance est faible à l’échelle nationale dans la plupart des pays ». (…) Je reprends les propos de D. Lafontaine [ancien NPM et directeur du SPE] : « (…) les données indiquent que les réseaux ne divergent pas dans leur efficacité à former les élèves (…) mais se différencient surtout au niveau du recrutement socioéconomique. » (…) L’OCDE reconnaît elle-même que la comparaison public-privé dans l’enseignement souffre de nombreuses interprétations. (…) Certains en ont sans doute fait une lecture sélective pour démontrer ce qui n’était pas démontrable. (…) » V. Jamoulle, parlementaire PS, PCF, 03/06/2008, p. 5 ; W. Borsus, parlementaire MR, PCF, 03/06/2008, p.6 ; C. Dupont, Ministre de l’enseignement, PS, PCF, 03/06/2008, p. 6 et p. 7)144 L’extrait précédent illustre aussi la manière dont chacun s’accuse de faire une « exploitation biaisée et partiale » des données PISA, tout en défendant des positions opposées qui prennent toutes appui sur des travaux réalisés à partir des données PISA, voire des passages différents de mêmes rapports. Ce jeu paradoxal de citations illustre, nous semble-t-il, à quel point les enquêtes PISA servent avant tout, dans une logique de légitimation, à défendre des positions politiques pré-existantes. Ces enquêtes viennent en effet s’inscrire dans un espace public au sein duquel pré-existent des intérêts, des positions, des prises de position. Les enquêtes PISA alimentent et consolident, davantage qu’elles ne transforment, ces rapports de force et de sens. Cela montre aussi à quel point les enquêtes PISA fournissent l’occasion de débattre sur les politiques éducatives et sont parfois utilisées comme prétexte à cela. Enfin, les extraits précédents suggèrent que ce jeu politique avec les données PISA engage une remise en cause progressive de la légitimité des données PISA dans la mesure où les différents protagonistes soulèvent le fait « que l’on peut leur faire dire n’importe quoi ». On peut faire l’hypothèse que, parce qu’il permet effectivement de nombreuses interprétations, PISA pourrait perdre de sa force première dans la définition des problèmes et solutions en éducation. 144 C’est nous qui soulignons. 80 3. PISA, savoir et pouvoir 3.3 PISA et la fabrication politique en éducation Nous allons à présent nous intéresser à la manière dont les enquêtes PISA - les connaissances produites à partir de PISA mais aussi sa forte médiatisation - interviennent dans l’action publique en éducation. Nous examinerons tout d’abord la manière dont les enquêtes PISA sont mobilisées dans les débats politiques concernant l’éducation en CFB. Ensuite, nous verrons la manière dont elles sont utilisées pour légitimer toute une série de politiques scolaires prises ces dernières années en CFB. Enfin, nous considèrerons la manière dont elles servent ou non de modèles à la fabrication d’autres outils nationaux de régulation basés sur la connaissance. Nous verrons que les enquêtes PISA, même si elles sont considérées par la plupart des acteurs scolaires comme constituant des outils limités qui « n’apprennent rien de neuf », ont néanmoins un certain effet sur la politique éducative en CFB. Cet effet, nous semblet-il, s’inscrit principalement dans une logique de légitimation de l’action publique en éducation (cf. Pons et van Zanten, 2007). 3.3.1 PISA dans le débat politique en éducation Les débats dont nous avons rendus compte dans la section précédente (3. 2) étaient des débats spécifiques sur PISA, suscités par la diffusion de ses résultats. Ces débats, nous l’avons dit, ne sont cependant pas totalement autonomes : ils prennent place au sein de débats plus larges en éducation, par rapport auxquels ils prennent tout leur sens. Les débats dont nous allons parler dans cette section sont des débats qui portent plus spécifiquement sur des politiques scolaires ou des projets de réforme politique et dans lesquels PISA s’est « invité » en quelque sorte. Ce ne sont donc pas des débats qui portent spécifiquement sur PISA, mais des débats dont le sujet principal est autre et où PISA est mobilisé d’une manière ou d’une autre. Ces débats recoupent en grande partie les questions traitées dans la section précédente, dans la mesure où ils s’inscrivent aussi dans les débats plus larges sur la définition des problèmes en éducation (équité versus efficacité du système), sur le mode de régulation du système éducatif (bureaucratique, post-bureaucratique, basé sur le quasi-marché scolaire, gouvernance locale, etc.) ou sur les priorités politiques en éducation (élèves les plus faibles versus élèves les plus forts, etc.). Comme nous allons le voir, PISA semble être devenu un référent incontournable dans les débats concernant les politiques éducatives en CFB. En effet, il est frappant de constater que PISA est invoqué dans les discussions qui ont lieu, dans l’arène médiatique ou parlementaire, au sujet de toutes les politiques éducatives ou de tous les projets de réforme politique qui ont été proposés en CFB ces dernières années. Cela ne signifie évidemment pas que toutes ces politiques ont été prises suite à PISA, pour améliorer les « points faibles » que PISA aurait mis en évidence et en suivant les pistes que PISA 81 3. PISA, savoir et pouvoir aurait suggéré. Dans ces débats, PISA apparaît davantage comme fournissant l’occasion de porter un jugement sur les politiques éducatives en cours (les critiquer ou les confirmer) et les projets de réforme (les soutenir ou les désapprouver), que comme un instrument d’évaluation, principalement dans une logique rhétorique de (dé)légitimation de propositions politiques préexistantes. Un référent incontournable Lorsqu’on examine les débats au sujet des politiques éducatives tenus depuis le début des années 2000, que ce soit au sein des médias ou du parlement de la CFB, il est frappant de constater à quel point PISA est mobilisé au sujet de toutes les politiques éducatives ou de tous les projets majeurs de réforme politique, parfois même antérieurs au premier cycle de PISA (2000) : les socles de Compétences (différents décrets promulgués entre 1999 et 2001), la réforme de la formation initiale des enseignants (décrets de 2001 et 2002), le décret sur le pilotage du système éducatif (2002), le Contrat pour l’Ecole (2005), le décret sur les évaluations externes (2006), la réforme de l’inspection (2007), le décret inscription (2007), la décret mixité sociale (2008). PISA s’invite aussi dans divers débats qui paraissent plus mineurs et parfois relativement éloignés, comme au sujet de l’intégration des enfants handicapés dans les écoles145, de l’enseignement en immersion de langues étrangères146, de l’enseignement du latin147 ou du financement des bibliothèques publiques148. Même s’il trouve que « maintenant c’est un peu retombé » , l’ancien NPM estime ainsi que « tout éternuement dans le champ éducatif était relié à PISA. C’était : on va faire ça parce qu’il y a PISA ». PISA occupe visiblement l’espace public. Comme nous l’avons déjà relevé à maintes reprises, cela n’a pas été le cas avec d’autres études nationales ou internationales qui pourtant apportaient des connaissances similaires sur le système éducatif en CFB. Outre la médiatisation sans précédent de PISA, son arrivée dans un contexte politique favorable (en demande d’évaluation externe alors que les savoirs administratifs étaient peu développés) et la légitimité de l’outil défendue soigneusement par l’OCDE et les chercheurs nationaux, on peut se demander si l’une des raisons pour lesquelles PISA est autant mobilisé ne réside pas aussi dans le fait qu’il fournit des résultats relativement ouverts rendant possibles des interprétations diverses. Ce serait là l’une des « forces » de PISA. C’est peut-être aussi sa « faiblesse ». En effet, 145 Coenen, parlementaire, PCF, 13/12/2007, p. 10 ; Montulet, parlementaire, PCF, 13/12/2007, p. 16.. 146 L. Walry, parlementaire PS, PCF, 11/01/2005, p. 5. 147 M. Neven, parlementaire MR, PCF, 02/03/2005, p.18 ; M. Neven, parlementaire MR, PCF, 21/06/2005, p. 51. 148 AM Corbisier-Hagon, parlementaire PSC, PCF, 11/12/2001, p. 8 ; A. Namotte, parlementaire PSC, 11/12/2001, p. 27 ; Y. Reinkin, parlementaire Ecolo, PCF, 12/12/2004, p. 36 ; P. Fontaine, parlementaire MR, PCF, 12/12/2004, p. 43 ; F. Bertieaux, parlementaire MR, PCF, 10/12/07, p. 15. 82 3. PISA, savoir et pouvoir on peut se demander si PISA ne risque pas de perdre progressivement sa légitimité aux yeux du grand public et des acteurs politiques dans la mesure où comme certains le relèvent « tout le monde s’en sert comme il veut » et « on peut faire dire n’importe quoi à ce type d’étude »149. Nous avons d’ailleurs déjà souligné une certaine prise de distance de la part des acteurs politiques à son égard. PISA comme appui, pas comme cause ou objectif des politiques Si PISA est invoqué dans les discussions qui ont lieu, dans l’arène médiatique ou parlementaire, au sujet de toutes les politiques éducatives majeures ou de tous les principaux projets de réforme politique, cela ne signifie cependant pas que toutes ces politiques ont été prises suite à la diffusion des résultats de PISA, ni même qu’elles se présentent uniquement comme des réponses aux « mauvais » résultats de la CFB à PISA. Tout d’abord, on peut relever le fait qu’aucune politique ne se présente comme pensée et prise dans le seul but d’améliorer les résultats de la CFB au test PISA, même si de telles dispositions semblent avoir été discutées. Un ancien Ministre de l’enseignement fondamental, que nous avons interviewé, raconte qu’après la diffusion des résultats du premier cycle de PISA (2000), un débat a eu lieu au gouvernement, « hors PV et à huit clos », sur la pertinence de préparer les élèves à répondre à des questions à choix multiples et de les entraîner à de tels tests pour obtenir de meilleurs résultats. Ce débat est cependant resté sans suite. Un responsable du service d’étude du réseau d’enseignement catholique, lors de son entretien, évoque également des discussions avec le Ministre de l’enseignement secondaire de l’époque sur la nécessité de « bachoter les élèves pour qu’ils soient les meilleurs ». La seule amélioration des résultats des élèves de la CFB au test de PISA n’a donc jamais été présentée comme un objectif en soi. Néanmoins, le « Contrat pour l’école », a explicitement défini, parmi d’autres objectifs, celui de « dépasser la moyenne des résultats des pays de l’OCDE tout en réduisant l’écart entre les résultats des élèves les plus « faibles » et ceux des élèves les plus « forts » en bannissant tout nivellement des compétences par le bas »150. Cet objectif est même daté : il est écrit que « à l’horizon 2013, le Contrat stratégique doit permettre d’au moins rejoindre et de dépasser la moyenne des résultats des pays de l’OCDE dans chaque des compétences mesurées, de diminuer la proportion d’élèves ayant de mauvais résultats »151. Ce « Contrat pour l’école » est la seule politique qui se présente explicitement (de manière écrite) comme étant élaborée et mise en œuvre pour remédier aux problèmes qui auraient été mis en évidence par PISA. C’est la seule qui se présente comme véritablement fondée à partir 149 Y. Reinkin, parlementaire Ecolo, PCF, 11/12/07, p. 44. 150 PCF, 25/01/2005, p. 12. 151 PCF, 25/01/2005, p. 15. 83 3. PISA, savoir et pouvoir des connaissances produites par PISA (mais aussi à partir d’une consultation réalisée auprès des enseignants). Nous y reviendrons plus loin. On peut cependant relever quelques petites initiatives locales et / ou ponctuelles qui se présentent uniquement comme des réponses aux mauvais résultats de PISA : par exemple, des projets de collaboration entre des écoles et des bibliothèques publiques pour essayer de développer le goût de la lecture chez les élèves, une « formation action » auprès des formateurs d’enseignants en français organisée en 2002 par l’ancien NPM à la demande du Ministre de l’enseignement supérieur152, ou diverses opérations destinées à améliorer la lecture et lancées par les Ministres de l’enseignement, comme les opérations « coin lecture » et « ouvrir mon quotidien » au primaire ou l’opération « de vive voix » au secondaire. Il faut soulever aussi que, depuis la diffusion des études PISA, seul le gouvernement concerné par le premier cycle de PISA (2000) semble ne pas avoir réagi véritablement aux résultats de PISA. Du moins, le Ministre de l’enseignement de l’époque, P. Hazette, un libéral, n’a pas présenté de propositions politiques disant apporter des réponses aux « mauvais » résultats de la CFB à PISA. Selon l’ancien NPM, il aurait « limité son rôle à diffuser l’information ». Cette non-action sera soulignée à de nombreuses reprises par les opposants politiques (socialistes principalement) et sera critiquée parce qu’elle aurait rendu plus difficile de « récupérer la situation »153. Cette critique semble le plus souvent formulée en réponse aux critiques qu’expriment les libéraux, aujourd’hui dans l’opposition, face aux propositions émises par la coalition au pouvoir (les socialistes). L’ancien NPM souligne cependant qu’à l’époque, le contexte éducatif avait déjà connu d’importantes réformes (notamment curriculaires) et que « cela paraissait le bon sens de ne pas se mettre à tout remuer ». Une occasion de questionner et de porter un jugement sur les politiques publiques Si toutes les discussions au sujet des politiques éducatives de ces dernières années font référence à PISA, ces politiques ne sont cependant pas présentées comme étant prises en conséquence des enquêtes PISA, uniquement pour améliorer les « points faibles » qu’elles auraient mis en évidence et en suivant les pistes qu’elles auraient suggérées (sauf une exception, le Contrat pour l’Ecole). Les références à PISA sont davantage faites dans le but de soutenir ou de critiquer une proposition politique. Dans ces débats, PISA apparaît alors non pas vraiment comme un instrument d’évaluation du système éducatif fournissant des connaissances sur ses points faibles et forts qui serviraient de base à la 152 F. Dupuis, Ministre de l’Enseignement Supérieur et de la Recherche scientifique, PS, PCF, 24/04/2002, pp. 33-34. 153 . Walry, parlementaire PS, PCF, 15/02/2005, p. 17 ; M. Arena, à l’époque Ministre de l’enseignement PS, PCF, 15/02/2005, p. 20, PCF, 11/12/2007, p. 34, p. 36, PCF, 11/12/07, p. 46 et PCF, 11/12/07, p. 47. 84 3. PISA, savoir et pouvoir construction de propositions politiques et à la décision politique, mais plutôt comme fournissant l’occasion de porter un jugement sur les politiques éducatives en cours (les critiquer ou les confirmer) et les projets de réforme (les soutenir ou les désapprouver), principalement propositions dans une politiques logique purement préexistantes. Comme rhétorique l’illustrent de les (dé)légitimisation extraits de de débats parlementaires suivants, PISA fournit l’occasion de questionner les politiques éducatives. Ces questions adressées au Ministre peuvent être formulées autant par des alliés politiques pour lui permettre de confirmer sa politique en cours (comme dans les deux premiers extraits), que par des opposants politiques pour leur permettre de critiquer sa politique (comme dans le dernier extrait) : « (S’adressant au Ministre) (…) Par rapport au Contrat pour l’école, où en est-on par rapport aux résultats des études PISA. Quelles sont les mesures dont les priorités est la plus élevée ? » [s’en suit une réponse du Ministre mettant en avant les mesures prises « allant dans le sens des constats de PISA »] (V. Jamoulle, parlementaire PS, PCF, 11/12/2007, p. 43.) « (S’adressant au Ministre) (…) Pourtant l’étude Pisa ne doit pas nous contraindre à modifier l’ensemble de notre politique. Vous avez instauré un Contrat pour l’Ecole et vous tenez de le conduire à bon port. J’espère que nous en verrons les effets. Toutefois, compte tenu des résultats de cette enquête, envisagez-vous d’infléchir l’une ou l’autre ligne spécifique de votre politique ? » [s’en suit une réponse du Ministre mettant en avant les mesures prises « allant dans le sens des constats de PISA »] (Y. Reinkin, Ecolo, PCF, 11/12/07, p. 44) « (S’adressant au Ministre) (…) Notre classement reste effectivement mauvais. (…) Madame la ministreprésidente, quel est impact des mesures prises à partir du Contrat pour l’école sur les résultats obtenus ? Selon vous, ont-elles influencé positivement cette analyse statistique internationale dont chacun convient du sérieux et de la pertinence ? (…) Vous comprenez ma perplexité. (…) [s’en suit un débat entre le Ministre et d’autres parlementaires du MR qui mettent en avant « l’absence de correction apporté par rapport à PISA »] (W. Borsus, MR, PCF, 11/12/2007, p. 43) Une occasion de rencontre et d’échange entre la recherche et le politique Enfin, si les enquêtes de PISA ne paraissent pas avoir remis fondamentalement en cause les circuits de transmission des connaissances en CFB (par exemple, les connaissances produites par PISA ne sont pas diffusées aux acteurs de terrain, en dehors des pistes pédagogiques), plusieurs acteurs scolaires soulignent de manière positive qu’elles constituent une occasion (un moment et un lieu) de débat, de rencontre et d’échange de connaissances entre le monde de la recherche et le monde politique. L’ancien NPM raconte, par exemple, que « c’est autour des résultats PISA » qu’il a rencontré certains parlementaires et qu’il a « dialogué » avec le Ministre de l’enseignement (en réussissant parfois à le faire changer d’avis, par exemple, concernant l’idée de rendre le latin obligatoire). L’ancien NPM suggère alors un certain « rapprochement » entre le monde de la recherche et le monde politique autour de PISA, voire une certaine confusion des rôles : les acteurs politiques lui demandaient des « solutions scientifiques » (là où il s’agit, selon lui, de choix politiques) ou « jouaient eux-mêmes le rôle d’expert scientifique » : « Par moment, moi-même, j’avais l’impression quand on avait ces trois ministres qu’ils s’asseyaient à ma place, qu’ils me demandaient de s’assoir à la leur et qu’eux s’asseyaient à ma place. Et après, à la limite comme ils étaient un peu bloqués (…) ils tenaient mon discours. Ils jouaient le rôle du scientifique. Je me 85 3. PISA, savoir et pouvoir souviens bien, le ministre Jean-Marc Nollet faisait très fort ça. C’était : voilà, je suis un expert scientifique et on a constaté ceci, cela. Et ça s’arrêtait un peu là. Et j’avais vraiment l’impression qu’il y avait une interchangeabilité et que moi on me tirait en disant : ‘qu’est ce qu’il faut faire ? (…) Donnez-nous des solutions scientifiques’. (…) Entre choisir ça ou ça, c’est une question d’action politique, ce n’est pas une question de recherche. Alors oui, effectivement autour de PISA, il y avait des choses vraiment qui tournaient autour d’un rapprochement. (…) Et effectivement, on n’aurait pas en dessous le label qui dit : c’est un scientifique ou un politique, je trouve que les discours des uns s’appuient tellement sur le discours des autres. (…) A la fois comme scientifique, on peut quand même être un peu content que les politiques s’appuient, du moins en partie, sur les résultats scientifiques mais…C’est comme si ça rognait quand même quelque chose qui est de l’ordre du politique. Il y a quelque chose de noble là-dedans. Comme si il n’y avait plus cette légitimité ou ce débat-là. Enfin pour moi, il y a un espace de débat au-delà de ce que les scientifiques disent. Et c’est un peu comme s’ils voulaient justifier tout par le scientifique. Alors que non, c’est une question de point de vue, de débat. » (l’ancien NPM, directeur du SPE, entretien) 3.3.2 PISA comme source de légitimité pour les politiques Comme nous venons de l’évoquer, PISA est utilisée, à des degrés divers, comme une source de (dé)légitimité dans les discussions qui ont lieu au sujet de toutes les politiques éducatives ou de tous les projets majeurs de réforme politique de ces dernières années : les socles de compétences (différents décrets promulgués entre 1999 et 2001), la réforme de la formation initiale des enseignants (décrets de 2001 et 2002), le décret sur le pilotage du système éducatif (2002), le Contrat pour l’école (2005), le décret sur les évaluations externes (2006), la réforme de l’inspection (2007), le décret inscription (2007), le décret mixité sociale (2008). Parmi ces différents textes de politique éducative, un seul cependant, le Contrat pour l’école, fait explicitement référence à PISA pour justifier son origine et sa pertinence Dans les autres cas, PISA est intervenu dans les débats pour soutenir ou critiquer les propositions politiques. Soulignons que PISA n’est pas la seule source de connaissance utilisée comme source de (dé)légitimité. Les « savoirs d’expérience » en particulier constituent une autre importante source de (dé)légitimité, mais aussi d’autres études universitaires nationales. Nous allons à présent passer brièvement en revue les différentes politiques où PISA est citée dans les discussions à leurs sujets, dans leur ordre chronologique de mise en œuvre. Précisions qu’il ne s’agit pas ici de montrer dans quelle mesure ces réformes répondent ou non aux problèmes du système éducatif qu’auraient mis en évidence PISA en CFB, ni dans quelle mesure elles mettent ou non en œuvre les propositions que PISA suggèrerait. Il s’agit plutôt de voir quels liens les différents acteurs œuvrant dans le champ scolaire en CFB opèrent entre les politiques éducatives et les études PISA. Les socles de compétence (entre 1999 et 2001) Lors de la diffusion des résultats du premier cycle de PISA (2000), le gouvernement va s’appuyer sur ceux-ci pour « conforter » une réforme curriculaire récemment décrétée, définissant des « socles de compétences » devant être acquis par les élèves, ou au 86 3. PISA, savoir et pouvoir contraire pour la remettre en cause. Dans une « note de synthèse » rédigée après la diffusion des résultats du premier cycle de PISA, le Ministre de l’enseignement de l’époque, P. Hazette, un libéral, déclare ainsi que « l’enquête Pisa conforte le gouvernement » et même que « la politique menée depuis 1999, concernant la généralisation de la pédagogie des compétences, anticipe les conclusions à tirer de l'enquête et s'en trouve justifiée »154. Dans ce cas-ci, PISA est donc utilisée pour justifier a postériori une politique éducative, qui est par ailleurs soumise à de multiples critiques. D’autres acteurs, comme l’APED ou les parlementaires libéraux quand ils seront dans l’opposition, vont au contraire utiliser les « mauvais résultats » des élèves à PISA pour critiquer cette réforme, rendue responsable d’une « diminution des exigences en matière de connaissances de base » et d’une « déstructuration des savoirs »155. Il est intéressant de souligner que les libéraux, au moment où ils étaient au gouvernement, se sont appuyés sur PISA pour soutenir l’apprentissage par compétences alors que, plus tard, ils s’en serviront pour la critiquer. Les critiques émises à partir de PISA (mais pas seulement), n’aboutiront cependant pas à une remise en cause des socles de compétence. La réforme de la formation des enseignants (2001 et 2002) La première étude de PISA (2000) va également être utilisée pour conforter des réformes en cours concernant la formation initiale et continuée des enseignants. Tout d’abord, le Ministre de l’enseignement supérieur de l’époque, F. Dupuis, un socialiste, va citer PISA, au cours de débats parlementaires ou au sein des médias, pour conforter une réforme de la formation initiale des enseignants déjà en cours, visant principalement à « professionnaliser » les enseignants autour de nouvelles compétences à acquérir et d’un nouveau modèle de professionnalité, celui du « praticien réflexif ». Il s’agit non seulement de soutenir une réforme déjà en cours en affirmant sa pertinence par rapport aux résultats de PISA, mais aussi tout simplement de manifester le fait qu’on agit face à des problèmes et qu’on a, « pour sa part, tracé des pistes significatives »156. Le Ministre de l’enseignement fondamental de l’époque, J.-M. Nollet, écologiste, lors de débats parlementaires, inscrira également cette réforme de la formation dans une « orientation politique visant à réduire les différences de performances entre établissements relevées par les experts de l’OCDE en 1991 et PISA 2000 »157. 154 P. Hazette, à l’époque Ministre de l’enseignement, PRL, propos rapporté par Le Soir, 27/12/01, voir aussi Le Soir, 05/12/01. 155 N. Hirtt, membre du Mouvement pédagogique de l’APED, Le Soir, 06.12.01. 156 F. Dupuis, à l’époque Ministre de l’enseignement supérieur, PS, Le Soir, 06/12/01. 157 JM Nollet, à l’époque Ministre de l’enseignement fondamental, Ecolo, PCF, 19 juin 2002, p. 6. 87 3. PISA, savoir et pouvoir Les « performances médiocres à PISA » sont ensuite également citées dans l’exposé des motifs du projet de décret relatif à la formation continuée pour souligner que des « efforts suffisants n’ont pas été accordés à la formation des enseignants pour leur permettre d’accompagner les élèves dans le développement des compétences »158. Le décret sur le pilotage du système éducatif (2002) et les évaluations externes (2006) La mise en place d’un pilotage du système éducatif et d’évaluations externes communes est présentée par de nombreuses personnes interviewées comme une action publique sur laquelle PISA, mais aussi des rapports de l’OCDE antérieurs, auraient joué un rôle important. Plusieurs acteurs mettent en avant que les résultats du premier cycle de PISA (2000) ont été utilisés comme arguments pour soutenir la mise en place de la commission de pilotage, dans un contexte où la réflexion sur le pilotage était cependant déjà en cours159. Avant le système actuel de pilotage, une première « structure légère » de pilotage, qui n’avait pas d’existence institutionnelle ni décrétale, avait été mise en place suite à la publication de rapports commandités par la Belgique à l’OCDE au début des années 1990 qui avaient souligné le « manque de pilotage » et « l’absence de culture d’évaluation » en CFB. Le projet était alors porté par un acteur de l’administration scolaire (le secrétaire général à la CFB). A ce moment-là, des premières évaluations externes, financées par l’administration avec des « bouts de ficelle », commencent à être mise en œuvre (19941995). Cette structure légère fonctionne sans véritable reconnaissance au sein de l’administration. Il semblerait qu’à cette époque, « l’intérêt était mitigé au sein des acteurs politiques »160. Plusieurs personnes évoquent alors l’impact de la diffusion des résultats de PISA en 2001 qui va « remuer pas mal de personnes dans le champ de l’éducation » et va venir appuyer une réflexion déjà en cours sur la nécessité d’instaurer une véritable « commission de pilotage » et des évaluations externes161. Ce projet est porté à ce moment-là principalement par un parlementaire socialiste, C. Dupont. « La Commission de pilotage est dès lors née, en 2002, du souhait de remédier aux lacunes de notre 158 Projet de décret relatif à la formation en cours de carrière dans l’enseignement spécial, l’enseignement secondaire ordinaire et les centres psycho-médico-sociaux et à la création d’un institut de la formation en cours de carrière en interréseaux, PCF, 30/05/2002, p. 2. 159 Propos tenus par le représentant de la CFB au PGB et chercheur au SPE lors d’un entretien. 160 Propos tenus par un ancien inspecteur général tenus lors d’un entretien. 161 Propos tenus par le représentant de la CFB au PGB et chercheur au SPE, par un inspecteur général lors d’entretiens. 88 3. PISA, savoir et pouvoir système éducatif et de nos élèves » déclare un responsable du réseau d’enseignement catholique162. Selon le parlementaire socialiste porteur du projet de pilotage, PISA aurait « aidé le pilotage parce qu’il démontrait que l’on se prenait des gifles et indiquait le besoin de s’outiller en indicateurs et d’introduire un principe de qualité dans le système »163. Plus précisément, selon lui, PISA aurait aidé à passer outre certaines résistances de la part des réseaux et des syndicats d’enseignant méfiants par rapport à ce qui était vécu comme une sorte d’ingérence et une perte de pouvoir164. L’argument utilisé était que le pilotage et les évaluations externes constituaient un moyen « d’avoir un feed-back permettant d’adapter la politique éducative et d’améliorer la qualité du système scolaire »165. Cette utilisation de PISA pour soutenir la mise sur pied d’un système de pilotage et d’évaluations externes nationales se retrouve exprimée au sein des médias. Ainsi, directement après la diffusion des résultats du premier cycle de PISA (2000), plusieurs acteurs politiques évoquent dans la presse écrite le pilotage du système éducatif comme un moyen d’améliorer l’enseignement166. La presse présentera le pilotage comme « la réponse du berger francophone à la bergère OCDE »167 : même si « cette proposition a été rédigée bien avant le coup de règle de l'OCDE, le bulletin international qui accable la CFB va souligner l'intérêt d'un pilotage du système éducatif et donner des ailes à la proposition du député PS qui juge qu'il faut, d'urgence, se doter d'un système assurant l'amélioration permanente de la qualité et de la cohérence de l'enseignement »168. Le lien entre le projet de pilotage et l’étude PISA est également opérée au sein des débats parlementaires. Ainsi, le débat parlementaire autour du projet de pilotage déposé par le parlementaire socialiste sera mené le même jour que celui à propos des résultats 162 J. Vandenschrik, directeur du Serdep, réseau d’enseignement catholique, Entrées Libres, n°23, novembre 2007. 163 164 Propos tenus par le parlementaire socialiste et actuel Ministre de l’enseignement, lors d’un entretien. Propos tenus par le parlementaire socialiste et actuel Ministre de l’enseignement, par un chercheur en sciences de l’éducation, lors d’entretiens. 165 166 Propos tenus par un membre du cabinet ministériel, socialiste, lors d’un entretien. Cf. F. Dupuis, à l’époque Ministre de l’Enseignement supérieur, PS, Le Soir, 06/12/01 ; le PSC, Le Soir, 07/12/01. 167 La Libre, 12/12/01. 168 Le Soir, 13/12/01. 89 3. PISA, savoir et pouvoir de PISA169. Lors de ce débat, non seulement les mauvais résultats à PISA sont présentés comme appuyant la nécessité d’un meilleur pilotage du système éducatif, mais on insiste aussi sur « la maîtrise sur le regard que l’on peut porter sur notre système éducatif » : sur la nécessité de « se doter d’un outil de pilotage que l’on maîtrise pour ne pas être à la merci des enquêtes internationales dont on ne maîtrise pas la méthodologie ni la culture d’intervention »170. Cet argument sera également avancé à propos de la nécessité de mettre en place des évaluations externes nationales. Plusieurs personnes mettent en avant le fait que le premier cycle de PISA va renforcer le besoin de disposer d’évaluations externes propres171 : « au fur et à mesure que les résultats tombent, ça crée l’envie ou plutôt le besoin d’avoir nos propres évaluations externes plutôt que de rester suspendus à une évaluation internationale »172, « c’est essentiel d’avoir des évaluations externes construites par nous, pour ne pas avoir toujours PISA avec l’OCDE dont on sait les tenants idéologiques qu’il y a derrière »173. C’est à ce moment-là que le politique se serait véritablement « emparé » du projet de pilotage et d’évaluation externe jusque là porté principalement par l’administration. En même temps, si les acteurs politiques (les parlementaires socialistes) citent PISA pour appuyer leur proposition de pilotage du système éducatif, ils expriment une certaine volonté de distance en affirmant à plusieurs reprises que « la proposition de décret n’est pas une proposition d’opportunité qui devrait tout à PISA. Au contraire, elle résulte d’une analyse de terrain faite par les auteurs de la proposition »174, voire même que « la proposition de pilotage n’a rien à voir avec PISA. Elle était en effet sur la table de la négociation bien avant »175. On peut à nouveau souligner un certain rapport paradoxal aux enquêtes PISA. Le Contrat pour l’école (2005) En 2005, le gouvernement de la Communauté française a adopté un important texte d’orientation, le « Contrat pour l’école » qui, sans infléchir les orientations du décret Missions (1997), réaffirme la volonté d’améliorer la qualité, l’efficacité et l’égalité du 169 Cf. C. Dupont, parlementaire PS, PCF, 11/12/2001, p. 11 ; PCF, 28/02/2002, p. 2 ; M. Hardy, parlementaire écolo, PCF, 28/02/2002, p. 34 ; C. Dupont, PCF, 28/02/2002, p. 33. 170 M. Hardy, parlementaire écolo, PCF, 28/02/2002, p. 34. 171 P. Hazette, à l’époque Ministre de l’enseignement, PRL, PCF, 20/06/2002, p. 4. 172 Selon les propos de l’ancien NPM lors de son entretien. 173 Selon les propos d’un chef de cabinet ministériel, socialiste, lors de son entretien. 174 C. Dupont, parlementaire PS, PCF, 28/02/2002, p. 2. 175 C. Dupont, parlementaire PS, PCF, 28/02/2002, p. 33. 90 3. PISA, savoir et pouvoir système d’enseignement176. Ce « Contrat pour l’école » est présenté officiellement comme une action politique posée suite à une consultation du personnel enseignant révélant leurs difficultés à mettre en pratique les réformes initiées précédemment (comme les socles de compétences)177 et aux études PISA. C’est le seul texte écrit qui fait explicitement référence à PISA en déclarant se baser sur ses « constats » (le manque d’équité surtout) et suivre les solutions qu’il suggèrerait : « Ce texte (…) se fonde sur les consultations des enseignants, sur les recherches scientifiques et sur les résultats des enquêtes PISA. (…) Les constats de l’étude PISA 2003 (…) si l’on constate bien un certain manque d’efficacité (moyenne des résultats trop faible) en Communauté français, c’est surtout le manque important d’équité (dispersion et différence des résultats selon les élèves trop grandes) qui est très interpellant. (…) PISA 2003 confirme donc que le renforcement de l’équité est le défi à relever dans les prochaines années. Si l’on veut améliorer de façon sensible les performances de tous les élèves, il faut en priorité s’atteler aux problèmes des élèves en grande difficulté, fréquentant pour l’essentiel les filières de qualification, souvent en retard dans leur parcours scolaire et concentrés dans certains établissements. L’effort à poursuivre est donc double : dépasser la moyenne des résultats des pays de l’OCDE tout en réduisant l’écart entre les résultats des élèves les plus « faibles » et ceux des élèves les plus « forts » en bannissant tout nivellement des compétences par le bas » (Contrat stratégique pour l’éducation178, PCF, 25/01/2005, p. 12) Ce texte est aussi le seul à citer des résultats de PISA et à énoncer un objectif concernant directement les résultats de la CFB aux enquêtes PISA, celui de « dépasser la moyenne des résultats des pays de l’OCDE tout en réduisant l’écart entre les résultats des élèves à l’horizon 2013 »179. Les débats parlementaires établissent également un lien étroit entre les enquêtes PISA et le « Contrat pour l’école » en le présentant comme « une décision prise en réaction au signal donné par PISA », comme « reposant sur une analyse basée (notamment) sur les éclairages apportés par les enquêtes PISA »180. De nombreuses mesures concrètes contenues dans le Contrat pour l’Ecole (ou promues dans sa première version, le « Contrat stratégique ») vont être décrites comme témoignant de l’intention de se 176 Plus précisément, le « Contrat pour l’Ecole » définit dix priorités : « 1. Plus d'enseignants pour nos enfants ; 2. Conduire chaque jeune à la maîtrise des compétences de base ; 3. Orienter efficacement chaque jeune ; 4. Choisir et apprendre un métier à l'école ; 5. Mieux préparer les enseignants ; 6. Doter les élèves et les enseignants des outils du savoir ; 7. Valoriser les enseignants ; 8. Piloter les écoles en permanence ; 9. Non aux écoles ghettos ; 10. Renforcer le dialogue écoles – familles ». 177 Durant l’année scolaire 2003-2004, trois consultations ont été organisées auprès des enseignants du fondamental, du secondaire et de l’enseignement spécialisé (voir Van Campenhoudt, 2004 ; Van Campenhoudt et Franssen, 2004). 178 Le “Contrat stratégique pour l'Education” est un “avant-projet” qui a été soumis à une large consultation auprès de divers acteurs scolaires. pour donner lieu au “Contrat pour l’Ecole”. 179 Relevons le fait que la première mouture du Contrat comportait quelques imprécisions. Elle posait ainsi comme objectif de passer de tel à tel pourcentage précis de variance entre établissements au prochain test de PISA, en utilisant cependant les résultats de la CFB au premier cycle de PISA (2000) qui concernaient la variance entre implantations et non entre établissements. 180 M. Arena, à l’époque Ministre de l’enseignent, PS, PCF, 15/02/2005, p. 20 ; J. de Groote, parlementaire cdH, PCF, 21/06/2005, p. 61 ; L. Walry, parlementaire PS, PCF, 15/02/2005, p. 16. 91 3. PISA, savoir et pouvoir conformer aux propositions que suggèreraient les études PISA, comme « des points auxquels il faut œuvrer à la suite de l’enquête PISA »181 et qui « vont dans le sens du constat posé dans le cadre de PISA »182. Il s’agit de la limitation du choix des options et filières jusqu’à au moins 14 ans183, de l’accent mis sur l’acquisition de savoirs de base dès l’école primaire184, de l’encadrement renforcé en maternel et primaire185, des dispositifs de remédiation immédiate186, d’une évaluation harmonisée des élèves aux grandes étapes de l’apprentissage187, d’une limitation de la concurrence entre écoles188, d’une orientation par choix positif pour éviter toute forme de relégation189, de la revalorisation des filières qualifiantes190. Ces mesures sont décrites comme « constituant un gage de réduction probante des inégalités qui minent notre enseignement, une des causes essentielles des mauvais résultats de l’enquête PISA »191 : « pratiquement toutes les dispositions prévues dans le Contrat pour l’école permettront de répondre aux carences révélées par l’étude PISA »192, « grâce au Contrat stratégique on pourra améliorer deux énormes problèmes de notre enseignement : l’échec scolaire et le caractère inégalitaire »193. 181 M. Arena, à l’époque Ministre de l’enseignent, PS, PCF, 11/01/2005, p. 4. 182 M. Arena, à l’époque Ministre de l’enseignent, PS, PCF, 11/12/07, p. 47. 183 M. Arena, à l’époque Ministre de l’enseignent, PS, PCF, 11/01/2005, p. 4. 184 M. Arena, à l’époque Ministre de l’enseignent, PS, PCF, 13/12/04, p. 32, PCF 11/01/2005, p. 4 ; L. Walry, parlementaire PS, PCF, 13/12/04, p. 35. 185 M. Bayenet, parlementaire PS, PCF, 15/12/2004, p. 8 ; M. Neven, parlementaire MR, PCF, 15/12/2004, p. 19 ; M. Elsen, parlementaire CdH, PCF, 15/12/2004, p. 27 ; M. Arena, à l’époque Ministre de l’enseignent, PS, PCF, 11/12/07, p. 47 ; PCF, 11/03/2008, pp. 27-28. 186 M. Bayenet, parlementaire PS, PCF, 15/12/2004, p. 8, M. Arena, à l’époque Ministre de l’enseignent, PS, PCF, 11/01/2005, p. 4. 187 M. Arena, à l’époque Ministre de l’enseignent, PS, PCF, 11/01/2005, p. 4. 188 M. Arena, à l’époque Ministre de l’enseignent, PS, PCF, 11/01/2005, p. 4. 189 M. Arena, à l’époque Ministre de l’enseignent, PS, PCF, 11/01/2005, p. 4. 190 L. Walry, parlementaire PS, PCF, 13/12/04, p. 35. 191 M. Bayenet, parlementaire PS, PCF, 15/12/2004, p. 8. 192 V. Jamoulle, parlementaire PS, PCF, 21/06/2005, p. 53. 193 M. Cheron, parlementaire Ecolo, PCF, 15/02/2005, p. 12. 92 3. PISA, savoir et pouvoir Les résultats au troisième cycle de PISA seront de la même manière cités par les acteurs politiques pour confirmer l’orientation prise avec le Contrat pour l’école194, conforter le fait « qu’il faut poursuivre le travail entamé en 2005 par le Contrat pour l’école »195, que « les réformes entreprises vont dans le sens des recommandations de l’étude : les résultats de PISA 2006 confortent la lutte contre les inégalités entamée avec le Contrat pour l’école »196. Le lien entre PISA et le Contrat pour l’Ecole est également souligné dans la presse197 et relevé par d’autres acteurs, comme ceux du réseau d’enseignement catholique198, dont l’un des responsables du service d’étude nous dira lors de son entretien que « le contrat pour l’école est une conséquence des résultats de PISA » qui s’appuie sur les conclusions tirées des résultats PISA par l’Université de Liège mettant l’accent sur le problème d’équité du système (et moins sur son efficacité). Les chercheurs du SPE eux-mêmes relèvent ce lien tout en insistant sur le fait que les acteurs politiques se sont « emparés seuls » des résultats de PISA et ne les ont jamais consultés : « Très clairement, l’équipe Arena, fonde beaucoup le contrat stratégique pour l’école sur les résultats PISA. Je dirais qu’ils s’en emparent tout seul. Il n’y a pas eu de réunion particulière. Ca se fait tout seul. Ils ont les rapports PISA, ils le lisent, ils ont entendu, ils moulinent. Et puis ils sortent le contrat. (…) » (l’ancien NPM, directeur du SPE, entretien). Enfin, certaines personnes que nous avons interviewées soulignent par ailleurs le rôle qu’a joué la médiatisation de PISA dans l’adoption du Contrat pour l’école : « Par exemple, une des priorités c’est « non aux écoles ghettos ». Je pense que ce sont des termes assez forts qui n’auraient pas, à mon avis, été imaginables ou utilisables s’il n’y avait pas eu tout le procédé médiatique que PISA a enclenché » (un conseiller au cabinet ministériel, PS, entretien) La réforme de l’inspection (2007) Plusieurs personnes relient également les enquêtes PISA et la récente réforme de l’inspection, qui est venue unifier le corps d’inspection et modifier son rôle en le rattachant davantage au pilotage du système éducatif. Selon elles, PISA aurait été un « détonateur »199, déclenchant et accélérant le processus d’une réforme dont l’idée, qui 194 V. Jamoulle, parlementaire PS, PCF, 11/12/2007, p. 42 ; M. Arena, à l’époque Ministre de l’enseignent, PCF, 24/01/2008, p. 11. 195 M. Arena, à l’époque Ministre de l’enseignent, PS, PCF, 11/12/07, p. 47. 196 M. Arena, à l’époque Ministre de l’enseignent, PS, Le Soir, 04/12/07d 197 Le Soir, 07/12/04 ; Le Soir, 08/12/04a ; Le Soir, 08/12/04b ; Le Soir, 22/01/05 ; Le Soir, 01/03/05. 198 Cf. Entrées Libres, n°19, mai 2007, pp. 2-3 199 Selon les propos tenus par un inspecteur, lors de son entretien. 93 3. PISA, savoir et pouvoir remonte à une vingtaine d’années, connaissait jusque là plusieurs résistances200. Le projet de réforme aurait été relancé dès la publication des résultats du premier cycle de PISA (2000), « le martinet OCDE à propos des (petites) performances scolaires de la CFB ayant fouetté les énergies »201. « La gifle reçue par le système » aurait exacerbé « le besoin d’avoir un état des lieux du système éducatif » pour lequel l’inspection pouvait jouer un rôle202. La comparaison avec la Flandre, mieux classée que la Communauté française, aurait en particulier joué un rôle favorable, leur inspection ayant déjà été réformée pour passer d’une inspection réalisant une évaluation des enseignants à une inspection effectuant une évaluation du système203. Le décret inscription (2007) et le décret mixité sociale (2008) Enfin, les plus récentes politiques impliquant PISA comme source d’appui sont le décret inscription et le décret mixité sociale, déposés par des Ministres socialistes de l’Enseignement successifs et soutenus en partie par les parlementaires écologistes et démocrates-humanistes. Ces décrets cherchent à lutter contre la ségrégation du système éducatif et à créer de la mixité sociale dans les écoles en régulant les inscriptions des élèves. Dans les débats parlementaires à propos de ces deux décrets, de nombreuses références sont faites à PISA par leurs défenseurs pour mettre en avant et fonder le constat du caractère inégalitaire du système éducatif en CFB que les nouvelles modalités d’inscription des élèves se proposent de combattre204. La mixité sociale est en particulier présentée comme une mesure qui serait préconisée par « toute la communauté scientifique internationale, OCDE en tête » et qui découlerait de la comparaison internationale entre différents systèmes éducatifs permise par une étude telle que PISA205. Ces deux mesures sont vivement critiquées par les parlementaires libéraux qui 200 Plusieurs personnes soulignent que les inspecteurs eux-mêmes étaient réfractaires à la réforme ne voulant pas être confinés à un rôle de contrôle au détriment d’un des aspects jugés les plus intéressants de leur métier, celui de l’accompagnement pédagogique des enseignants (selon les propos tenus par un ancien secrétaire général et par un responsable du service d’étude du réseau d’enseignement catholique lors d’entretiens). 201 Le Soir, 07/02/01. 202 Selon les propos tenus par un inspecteur général (A.), lors de son entretien. 203 Selon les propos tenus par un inspecteur général (A.), lors de son entretien ; voir aussi P. Hazette, à l’époque Ministre de l’enseignement PRL, propos rapporté par Le Soir, 05/12/01. 204 M. Arena, à l’époque Ministre de l’enseignement PS, PCF, 11/12/07, p. 38 ; M. Elsen, parlementaire CdH, PCF, 11/12/2007, p. 30 ; PCF, 11/12/2007 ; PCF, 12/03/2008a, p. 31, p. 123 ; PCF, 12/03/2008b, p. 3 ; A.M. Corbisier-Hagon, parlementaire cdH, PCF, 17/07/2008, p. 21. 205 C. Dupont, Ministre de l’enseignement, PS, PCF, 03/06/2008, p. 6 ; V. Jamoulle, parlementaire PS, PCF, 11/12/2007, p. 42. 94 3. PISA, savoir et pouvoir leur opposent le risque « d’un nivellement par le bas »206 et une perte d’autonomie des pouvoirs organisateurs – autonomie qui serait au contraire promue, selon eux, par le dernier rapport international de PISA207. 3.3.3 PISA comme modèle pour la production d’autres outils de régulation basés sur la connaissance Nous venons de voir que PISA constitue un référent incontournable dans la politique éducative en CFB et qu’il est utilisé comme source d’appui et de légitimité pour de nombreux décrets. Il semblerait que PISA constitue également dans une certaine mesure un modèle pour l’élaboration d’un autre outil de régulation basé sur la connaissance : les évaluations externes nationales. Du moins, il apparaît que certaines questions « socioculturelles » contenues en annexe des tests nationaux d’évaluation externe soient identiques à celles contenues notamment dans les questionnaires de PISA. Ces questions ont soulevé de vives réactions de la part des parlementaires libéraux – se disant par ailleurs « très favorables au principe des évaluations externes » - qui ont critiqué la présence de questions visant à déterminer l’origine sociale des élèves les jugeant « très attentatoires à la vie privée »208, non pertinentes et « dévoyant l’évaluation pour corroborer une idéologie »209. Pour légitimer leur présence et leur formulation, plusieurs acteurs (comme le Ministre socialiste de l’enseignement de l’époque, le directeur du Service de pilotage ou le mouvement de l’APED) s’appuieront notamment sur PISA : sur le fait que telles questions se retrouvent dans des versions antérieures d’enquêtes internationales comme les « fameuses enquêtes PISA », « qu’il s’agit de techniques classiques utilisées dans les tests internationaux PISA »210. La question de prendre PISA comme modèle ou non pour les évaluations externes a été débattue au sein du Parlement de la CFB. Certains parlementaires, des socio-chrétiens, auraient souhaité que « les indicateurs soient établis en cohérence avec la participation de la CFB aux enquêtes internationales d’évaluation externe du programme PISA » et que les évaluations externes nationales « fassent référence aux normes internationales 206 A. Destexhe, parlementaire MR, PCF, 11/12/2007, p. 50. 207 W. Borsus, parlementaire MR, PCF, 03/06/2008, p. 6. 208 Selon les propos tenus par un parlementaire libéral, lors d’un entretien. 209 F. Bertieaux, parlementaire MR, Le Soir, 11/03/2008. 210 N. Hirtt, membre du mouvement pédagogique l’APED, Le Soir, 21/02/2008 ; M. Herphelin, directrice adjointe du service de pilotage du système éducatif, propos rapportés dans Le Soir, 20/02/2008 ; M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 26/02/2008, pp. 48-49. 95 3. PISA, savoir et pouvoir pour ne pas être en distorsion » vis-à-vis d’elles211. Face à cette proposition, les parlementaires socialistes au pouvoir ont cependant affirmé une certaine distance en mettant en avant la « capacité nationale de se doter d’un système cohérent d’indicateurs correspondant à des normes scientifiques strictes » et une volonté d’indépendance par rapport à des critères hétéronomes : « par rapport à la liberté d’enseignement, il n’y a rien de pire que de dire que les critères sont fixés de l’extérieur de notre pays »212, « on ne peut pas se contenter d’avoir des normes internationales qui apparaissent nécessairement comme intrusives et comme des agressions. Il faut aussi mettre en place dans notre système d’enseignement, qui en manque profondément, des formes d’évaluation externes qui nous sont propres »213. Enfin, on peut relever que, selon un responsable du service d’étude du réseau d’enseignement catholique que nous avons interviewé, PISA servirait aujourd’hui de point de comparaison et de modèle pour des évaluations externes que le réseau d’enseignement catholique compte lui-même organiser. 3.3.4 L’usage et les effets de PISA sur la politique éducative Un outil de régulation par les connaissances ? En définitive, à partir de l’analyse des débats publics, au sein de l’arène médiatique ou parlementaire, que peut-on dire de l’usage qui est fait de PISA dans le processus de fabrication politique en éducation et de son éventuelle influence ? Est-il utilisé, comme le voudraient ses promoteurs, comme un outil de régulation par les connaissances ? Il nous semble que notre analyse montre avant tout l’usage intensif de PISA au sein des débats politiques en éducation, à tel point que PISA paraît constituer un référent incontournable. Nous avons vu que non seulement les débats sur PISA sont nombreux (cf. point 3.3), mais que PISA est également invoqué dans les discussions qui ont lieu au sujet de toutes les politiques éducatives majeures ou de tous les principaux projets de réforme politique qui ont été proposés en CFB ces dernières années. Comme nous l’avons déjà relevé, cela ne signifie évidemment pas que les connaissances produites par PISA aient un impact réel ou fort sur le contenu de ces politiques. Il apparaît plutôt que les connaissances produites à partir de PISA et utilisées par les différents acteurs intervenant dans le champ éducatif en CFB sont peu nombreuses (par rapport à celles contenues dans les rapports PISA nationaux ou internationaux) et en 211 M. Charlier et Mme Corbisier-Hagon, parlementaires PSC, PCF, 28/02/2002, p. 40 ; A.-M. Corbisier-Hagon, parlementaire PSC, PCF, 24/04/2002, p. 11. 212 C. Dupont, à l’époque parlementaire PS, PCF, 28/02/2002, p. 41. 213 C. Dupont, parlementaire PS, PCF, 24/04/2002, p. 11. 96 3. outre pas vraiment nouvelles (par rapport à d’autres PISA, savoir et pouvoir études nationales ou internationales). On peut alors se demander à quel point PISA constitue un outil de régulation par les connaissances… On ne peut pas dire que les enquêtes PISA aient réellement permis aux acteurs scolaires de mieux comprendre certains processus éducatifs non déjà connus, ni que les acteurs scolaires aient fondé sur cette base leur orientation et leur action. Par contre, c’est bien parce que c’est un outil produisant des connaissances - et des connaissances jugées légitimes (parce que « scientifiquement rigoureuses » et cautionnées internationalement) - que PISA est lui-même considéré comme un outil légitime. Autrement dit, une grande partie de la légitimité de PISA provient du fait qu’il produit des connaissances, et des connaissances qui sont considérées comme légitimes. Sa légitimité, comme son usage, s’inscrivent dans le contexte d’un certain développement d’une evidence based policy, ou du moins d’une certaine volonté de fonder ou de montrer que l’on fonde les politiques éducatives sur des connaissances « scientifiques ». Il n’en reste pas moins que PISA connaît un usage public, politique et médiatique sans précédent par rapport à d’autres études nationales et internationales, et qui nous semble avoir un certain impact sur les termes et la forme du débat public en éducation et par conséquent, d’une certaine manière, sur l’action publique en éducation. C’est ce que nous allons développer dans la suite du texte. Un certain rôle dans la construction sociale des problèmes En premier lieu, les enquêtes PISA paraissent avoir joué un certain rôle dans le processus de définition des problèmes jugés importants en éducation : sans avoir apporté de nouvelles connaissances qui auraient fait émerger de nouveaux problèmes, la diffusion de ses résultats et son impact médiatique ont néanmoins contribué à renforcer, voire à sceller la définition des problèmes de l’enseignement déjà posés par les acteurs du champ éducatif, en termes d’inefficacité et d’inégalité (Maroy et Mangez, 2008). Depuis la diffusion des études PISA en 2001, le système éducatif en CFB est massivement, voire presque exclusivement lu et décrit dans ces termes-là, posés par les rapports nationaux de PISA : il est « inefficace et inéquitable » – une « réalité » souvent présentée comme « incontestable depuis PISA »214. En ce sens, PISA participe à la construction sociale de « la réalité du système éducatif » en CFB. En particulier, de nombreux acteurs scolaires soulignent le rôle important joué par les enquêtes PISA dans la conscientisation et la socialisation du grand public au problème de l’inéquité du système éducatif qui auraient ensuite facilité sa mise en agenda politique. En ce sens, par son influence sur la formation de l’opinion publique, PISA peut être considéré comme un dispositif de « régulation douce » des politiques éducatives (Carvallo, 2008). 214 Comme le montre, par exemple, l’extrait de débat parlementaire suivant au sujet du coaching scolaire : « (…) les rapports PISA et d’autres études mettent en avant une iniquité que l’on ne peut nier » (F. FassiauxLooten, parlementaire PS, PCF, 09/04/2008a, p. 8). 97 3. PISA, savoir et pouvoir Une évolution dans le regard porté sur le système éducatif PISA ne semble pas seulement avoir eu une certaine influence sur le « contenu » du regard porté sur le système éducatif en CFB (en termes d’efficacité et d’équité), il semble aussi participer à une certaine évolution sur la manière de le regarder qui paraît désormais davantage statistique, macro et comparative (entre pays, entre groupes d’élèves, types d’écoles, etc.). Comme le relève l’ancien NPM, PISA contribue à un « déplacement du curseur » du niveau micro (celui la classe) au niveau macro (celui du système). En ouvrant un « espace de comparaison » avec d’autres systèmes nationaux (comme la Flandre, les pays scandinaves, etc.), plusieurs acteurs soulignent également que PISA a introduit un certain relativisme culturel et a permis de se rendre compte de l’existence d’autres manières de faire possibles : de « se rendre compte que la réalité de la CFB n’est pas la seule possible »215 et que certaines pratiques bien ancrées dans « notre culture » et difficiles à modifier, comme la pratique du redoublement, n’existent pas dans certains systèmes éducatifs qui présentent pourtant de bons résultats (comme la Finlande). Un instrument de (dé)légitimation Au-delà de son impact sur les débats publics et la conscientisation à certains problèmes, il est difficile cependant de déterminer dans quelle mesure les connaissances produites par PISA ont réellement joué un « rôle moteur » dans la formulation et la mise en œuvre des politiques éducatives. Certains acteurs politiques soulignent que les enquêtes PISA, en venant « dramatiser les termes des débats »216, ont apporté un « coup d’aiguillon »217 à certaines propositions politiques et accéléré leur mise en agenda politique. Certains acteurs scolaires relèvent également que PISA joue le rôle d’une « épée de Damoclès »218 pour les décideurs politiques, qui les somme de réagir et face à laquelle on leur demande des comptes. Alors non seulement PISA est utilisé par les acteurs politiques pour justifier 215 216 Selon les propos du représentant de la CFB au PGB et chercheur au SPE, lors de son entretien. Propos tenus par un parlementaire, dans le cadre d’un débat sur la maîtrise du français, où il précise qu’un rapport qu’il a rédigé et soumis au débat parlementaire « n’a pas été suscité par le rapport de l’OCDE, dit PISA », mais que « la parution du rapport PISA est venue dramatiser les termes du débat avec un double effet. D’une part, le risque de caricature (…). D’autre part, un effet plus bénéfique dans la mesure où chacun s’est senti concerné par les performances de nos élèves et que la presse a accueilli le débat indispensable entre pédagogues, enseignants, parents » (C. Dupont, parlementaire PS, PCF, 24/04/2002, p. 2). 217 Propos tenus par un parlementaire, dans le cadre d’un débat sur la maîtrise du français, où à la fois il dit « tenir à souligner que l’origine de ce travail va chercher plus loin que les dernier remous de l’affaire PISA » et reconnaît que celle-ci a apporté un « coup d’aiguillon » (A.-M. Corbisier-Hagon, parlementaire PSC, PCF, 24/04/2002, p. 9). 218 Selon les termes d’un ancien secrétaire général et chef de cabinet que nous avons interviewé. 98 3. PISA, savoir et pouvoir des propositions, mais ils doivent eux aussi justifier leurs actions par rapport aux « mauvais résultats » à PISA et aux moyens d’y remédier. Il nous semble que notre analyse tend surtout à suggérer que l’usage de PISA s’inscrit avant tout dans une logique de légitimation de projets politiques préexistants. Comme le dit un parlementaire, « PISA apporte de l’eau à son moulin »219. Au vu de l’usage intensif de PISA par les acteurs politiques, on pourrait supposer qu’on reconnaît à PISA un certain « pouvoir légitimateur », lequel ne nous semble pas uniquement basé sur la prétendue « scientificité » des connaissances produites mais s’inscrire surtout dans des rapports de pouvoir. Ce processus de légitimation est particulièrement important dans le contexte consociatif de la CFB où la recherche de consensus et la construction de compromis sont fondamentales. On pourrait dire que la diffusion de PISA s’accompagne d’une « politisation de l’usage des connaissances plutôt que d’une rationalisation de l’action publique en éducation telle que visée par ses promoteurs » (Maroy et Mangez, 2008). Autrement dit, les acteurs politiques utilisent moins les connaissances produites par PISA pour rationaliser leur prise de position et leur action, problématiser ou imaginer des solutions, que pour justifier et prôner certaines idées politiques qu’ils avaient par ailleurs. Cette instrumentalisation politique de PISA, perçue par les acteurs eux-mêmes, pourrait contribuer à sa perte de légitimité. En même temps, nous avons vu que les acteurs scolaires entretiennent un rapport paradoxal à PISA : ils s’appuient fréquemment sur PISA pour justifier leurs positions tout en affichant une volonté de se démarquer de PISA. Plus encore, on pourrait avancer que la diffusion de PISA s’accompagne d’une « politisation de la production des connaissances » (Maroy et Mangez, 2008). Dans la partie suivante, nous verrons ainsi que des acteurs scolaires, plutôt rares cependant, s’emparent de la base de données PISA pour produire eux-mêmes des analyses servant à légitimer leur position. Ce fait, nouveau en CFB, nous semble participer d’un changement de registre argumentaire et de la manière de débattre en éducation. 219 P. Fontaine, parlementaire MR, PCF, 12/12/2004, p. 43, dans le cadre d’un débat sur la lecture publique. 99 4. Travaux d’analyse des données PISA en CFB 4. Transformation des données en connaissances et en arguments Par Bernard Delvaux Ce qui circule en Communauté française à propos de PISA ne sont pas les données brutes collectées dans le cadre des enquêtes mais plutôt des connaissances et des arguments fondés, au moins en partie, sur ces données. Sous le terme de connaissance, nous désignons tous ce qui prétend dire le réel. La notion d’argument renvoie quant à elle à des énoncés normatifs, qui prétendent dire ce dont il faut se préoccuper (les problèmes) ou les mesures qu’il convient de prendre (les préconisations). Connaissances et arguments sont liés. Les seconds sont en effet fréquemment justifiés sur la base des premières. Et tous deux – mais surtout les connaissances - sont liés aux données brutes. C’est donc à ce double processus de transformation de données en connaissances et de connaissances en arguments que nous intéresserons dans cette partie du rapport. Notre premier point aura pour but de présenter les groupes d’acteurs opérant ce travail de transformation. Nous verrons qu’en Belgique, ce travail repose pour l’essentiel sur des acteurs agissant à l’échelle communautaire. L’enseignement est en effet une compétence exclusive des Communautés, ce qui a pour conséquence que les données nationales publiées par l’OCDE n’ont que fort peu de signification pour les acteurs communautaires, incitant ceux-ci à travailler directement les bases de données PISA. Nous verrons aussi que, contrairement à ce qui est observé dans de nombreux pays, ces acteurs sont tous externes à l’administration. Nous nous intéresserons ensuite à la première étape de transformation, qui consiste à analyser les données brutes pour en tirer des connaissances prétendant dire le réel. Dans le cas de PISA, ces connaissances prennent essentiellement la forme de comparaisons/ classements et d’associations/explications. Nous montrerons notamment comment la relativité des classements tend à être oubliée au fil de ce processus et avec quelles autres entités la Communauté française est préférentiellement comparée. Le point suivant sera consacré au second processus, qui consiste à transformer les connaissances en arguments. Les formes de ces arguments se rapprochent des arguments mobilisés par les acteurs directement investis dans l’action publique lorsque les problématisations et préconisations qu’ils défendent sont mises à l’épreuve par leurs adversaires ou lorsqu’ils tentent de mettre à l’épreuve les problématisations et 100 4. Travaux d’analyse des données PISA en CFB préconisations de leurs adversaires. Nous ferons ensuite une relecture transversale des deux processus de transformation, montrant combien le travail sur les données brutes de PISA, bien qu’assumé pour l’essentiel par des scientifiques, est pleinement inscrit dans l’action publique. Notre travail, qui s’inscrit pour l’essentiel dans un cadre théorique proposé par Bernard Delvaux (2008, 2009), reposent sur une analyse documentaire de textes où sont présentés les résultats d’analyses directement effectuées à partir des bases de données PISA. Notre corpus regroupe non seulement des textes publiés dans le cadre du contrat liant la Communauté française au service universitaire en charge de la gestion de PISA en Belgique francophone (textes décrits au point 3.1) mais aussi des textes produits en dehors de ce contrat, soit par les acteurs chargés de la rédaction des textes faisant partie du contrat, soit par d’autres acteurs. Le corpus est constitué de 36 publications220, émanant pour l’essentiel du monde académique, mais incluant aussi des textes de deux auteurs n’appartenant pas à cet univers. Les documents du corpus sont assez variés quant à leur taille et à leur support221. La liste est reproduite à l’annexe 4. Dans le texte qui suit, nous référencerons ces textes non par les noms de leurs auteurs mais par un code reprenant le sigle du groupe d’acteur l’ayant produit et un numéro d’ordre. Ce à quoi renvoient ces codes est aussi précisé à l’annexe 4. Nous avons soumis ce corpus à une analyse qualitative de nature catégorielle, en classant des extraits ou des synthèses de segments de ces textes dans des catégories préétablies mais en partie adaptées en cours de travail. Ces catégories renvoient aux concepts mobilisés dans ce texte, et notamment à ceux de connaissance, d’argument, de 220 Pour délimiter plus précisément notre corpus, nous avons écarté les publications qui portaient exclusivement sur des questions méthodologiques et celles qui ne traitaient pas de la Belgique. Nous avons aussi écarté les textes qui consistaient en une vulgarisation ou une synthèse de résultats publiés par ailleurs. Au final, le corpus qui a été analysé est constitué de 36 articles ou ouvrages. Ce corpus contient 9 des documents réalisés par le SPE, déjà évoqués au point 3.1., et 27 autres textes. Tous ces documents sont ici considérés sans distinction a priori entre les textes produits par le SPE dans le cadre de sa mission de gestion de PISA et les autres textes. 221 Pour chaque enquête, nous avons analysé les « Premiers résultats », les « Clés de lecture de Regards sur l’éducation », et la brochure d’environ 200 pages publiée dans la série de cahiers de recherche du SPE. Les autres textes sont pour l’essentiel des articles. On ne compte en effet que quatre documents de taille supérieure à des articles : pour l’ULg, un livre aux éditions de Boeck et un numéro complet de la revue du Centre de lecture publique de la Communauté française ; pour les autres acteurs, deux rapports de recherche, l’un de l’ULB et l’autre de l’IRES. La quasi totalité des articles a été publiée dans des revues de la Communauté française ou dans des livres édités par des scientifiques de la Communauté française. On ne compte que trois articles dans des revues françaises, un dans une revue anglophone et un dans un ouvrage édité par des chercheurs flamands. 101 4. Travaux d’analyse des données PISA en CFB classement, d’association causale, de problématisation et de préconisation. Ce regroupement thématique d’extraits et de synthèses nous a permis alors d’effectuer une lecture transversale des documents, thème par thème, et, sur cette base, de construire les analyses descriptives et interprétatives présentées ci-après. Notons que nous avons privilégié une lecture globale des processus. Notre propos est moins de décrire et de comprendre les différences entre les catégories d’acteurs impliquées dans ce travail de traitement des données PISA que de donner à voir et à comprendre quelle est la nature générale des processus de transformation des données en connaissances et en arguments. 4.1 Les acteurs On peut regrouper les auteurs des textes étudiés en sept groupes relativement homogènes, autonomes et étanches (point 1). La part que chacun d’eux prend dans le traitement des données PISA n’est pas semblable (point 2). Cependant, ces acteurs partagent un certains nombre de traits (point 3), qui les distinguent en partie des acteurs n’ayant pas investi dans le travail de traitement des données PISA (point 4). 4.1.1 Sept groupes d’acteurs Trente personnes différentes ont contribué aux textes du corpus. Elles peuvent être réparties en 7 groupes sur la base de leur appartenance institutionnelle (et non sur la base des points de vue qu’ils défendent ou du type de travail qu’ils effectuent). - Le groupe le plus imposant est constitué de chercheurs de l’ULg (Université de Liège) et de quelques chercheurs de l’UMH (Université de Mons Hainaut). Les auteurs de ces deux universités peuvent être considérés comme appartenant au même groupe dans la mesure où les articles signés par les chercheurs montois l’ont toujours été en association avec des chercheurs liégeois. Le point commun à tous ces chercheurs est d’être ou d’avoir été membres de l’ULg (à l’exception d’un d’entre eux), d’être aujourd’hui encore dans une université publique et de continuer à publier ensemble des articles. 14 chercheurs des deux universités (en majorité liégeois) ont contribué à la rédaction des articles du corpus. Ces chercheurs sont majoritairement membres du SPE222, service officiellement en charge de l’enquête PISA en Belgique francophone. 222 Service de pédagogie expérimentale devenu Unité d’analyse des systèmes et des pratiques d’enseignement. 102 4. Travaux d’analyse des données PISA en CFB - Deuxième groupe en nombre, le Girsef (Groupe interdisciplinaire de recherche sur la socialisation, l’éducation et la formation223), centre de recherche de l’UCL (Université catholique de Louvain) regroupant des chercheurs en sciences de l’éducation, des sociologues et, à une époque révolue, des économistes ; cinq chercheurs de ce centre ont travaillé sur les données PISA : trois d’entre eux sont des chercheurs en sciences de l’éducation et deux des économistes. - A l’IRES (Institut de recherches économiques et sociales), autre centre de recherche de l’UCL, regroupant des économistes, trois chercheurs ont produits des papiers à propos de PISA. - Aux FUNDP (Facultés universitaires Notre-Dame de la Paix), quatre chercheurs du Groupe de recherche en économie du bien-être ont signé un article sur PISA. - A l’ULB (Université libre de Bruxelles), on dénombre également trois chercheurs, membres du GERME (Groupe d’étude sur l’ethnicité, le racisme, les migrations et l’exclusion). Il s’agit des seuls sociologues ayant travaillé la base de données PISA. - A l’APED (Association pour une école démocratique), organisation extérieure au monde académique, les travaux sur PISA sont le fait d’une seule personne : Nico Hirtt. - On peut ajouter à cette liste le nom d’Alain Destexhe, parlementaire libéral, dans la mesure où un des communiqués qu’il a diffusé reposait sur un travail des bases de données PISA. Les groupes ainsi définis, bien qu’ayant des contacts et participant parfois aux mêmes ouvrages collectifs, sont relativement étanches. Aucun article du corpus n’a été rédigé par des auteurs appartenant à des groupes différents224. Sans totalement s’ignorer, les membres des différents groupes se citent assez peu, tirant l’essentiel de leurs références de leur propre groupe d’appartenance ou d’auteurs étrangers. Il y a également assez peu de controverses entre eux. Et, bien que certains colloques aient permis de confronter les analyses de certains de ces auteurs, aucun colloque n’a eu pour objectif principal de faire le point sur les analyses tirées des données PISA à l’échelle de la Communauté française, et ce en dépit de l’incessante référence aux données PISA dans les médias et les discours politiques. 223 Dont l’acronyme signifiait, jusqu’en 2008 : Groupe interfacultaiire de recherche sur les systèmes d’enseignement et de formation. 224 Même si des certains articles issus de groupes différents trouvent place dans des ouvrages collectifs communs. 103 4. Travaux d’analyse des données PISA en CFB 4.1.2 Acteur prédominant Les groupes ainsi définis se différencient en termes de ressources humaines. Près de la moitié des personnes citées ci-dessus (14 sur 30) appartient en effet au groupe de l’ULgUMH. En nombre de publications, la même différence apparaît : le groupe ULg-UMH publie en effet 19 des 36 publications de notre corpus, dont 3 en association avec le Ministère. La différence entre les groupes est encore plus grande si l’on tient compte du nombre de pages. Près de ¾ des pages traitant de PISA sont le fait du groupe ULg-UMH. Cette prédominance s’explique principalement par le fait que le SPE, où travaillent l’essentiel des signataires du groupe ULg-IMH, gère depuis le départ l’enquête PISA. En dehors de l’ULg, seuls les groupes du Girsef et de l’APED ont travaillé sur les données PISA avec une certaine constance. Les autres groupes n’ont utilisé les données PISA que de manière très ponctuelle. 104 4. Travaux d’analyse des données PISA en CFB Tableau 1. Ventilation du nombre de textes et de pages selon le groupe d’appartenance des auteurs Groupe ULg-UMH Nombre de textes Nbre total de pages Nbre de pages consacrées à PISA 19 1084 809 % des pages consacrées à PISA 73,3% APED 5 99 99 9,0% UCL-Girsef 7 139 92 8,3% ULB 1 60 60 5,4% FUNDP 1 21 21 1,9% MR 1 12 12 1,1% UCL-IRES 2 120 10 0,9% Total 36 1535 1103 100,0% Note : Classement en fonction du nombre de pages consacrées à PISA. Le nombre de pages a été calculé sans pondérer en fonction de la taille de ces pages, exception faite des 3 rapports du SPE, où chaque page a été comptée comme équivalent à 2/3 des autres pages. 4.1.3 Acteurs présents L’écrasante majorité des personnes ayant effectué ces analyses appartient au monde universitaire. Il n’y a que deux exceptions à cette règle : Nico Hirtt, de l’Association pour une école démocratique (APED), et le parlementaire Alain Desthexe, du Mouvement Réformateur. Nettement opposés sur l’échiquier politique (le premier à gauche, le second à droite), ils ont tous deux, par leur intrusion dans le ‘domaine réservé’ des scientifiques, joué un rôle d’aiguillon et probablement eu un impact sur les travaux des universitaires, Nico Hirtt pour ce qui concerne les comparaisons entre Communautés flamande et francophone225 et pour la question de l’impact des variables ethniques, et Alain Destexhe pour ce qui concerne le poids de la variable des ‘réseaux’ (écoles officielles/libres). La distribution des auteurs en fonction de leur affiliation disciplinaire révèle la prédominance d’une discipline. 24 des 36 publications sont le fait de chercheurs des sciences de l’éducation. Les économistes viennent en second lieu avec 5 publications (au Girsef, à l’IRES et aux FUNDP). Un seul texte est signé par des sociologues. Soulignons aussi que le SPE et dans une certaine mesure le Girsef se sont spécialisés dans le traitement de données centrées sur les résultats scolaires226, dans une approche 225 L’APED, dont il est membre, est l’une des rares associations du mode éducatif à être commune aux trois Communautés. 226 Le SPE est en effet également interlocuteur du Ministère pour les nombreuses évaluations externes réalisées par la Communauté française et a par ailleurs été impliqué dans les enquêtes de l’IEA (Dominique Lafontaine est membre du « PIRLS 2006 Reading Development Group »). Cette implication dans d’autres enquêtes similaires à PISA n’est cependant pas l’apanage du SPE puisque le Girsef a réalisé une enquête sur la dernière année de l’enseignement primaire auprès de 120 écoles catholiques (Vause, Dupriez et Dumay, 2008). 105 4. Travaux d’analyse des données PISA en CFB s’inscrivant en grande partie dans le courant de la ‘school effectiveness’, et ce dès avant les enquêtes PISA227. Les autres groupes universitaires ne sont pas des spécialistes de ce courant d’analyse, ce qui n’a cependant pas empêché certains d’entre eux de mobiliser les données d’enquêtes similaires à PISA, et notamment celles de l’IEA. 4.1.4 Acteurs absents En dépit du fait qu’elles sont mises à disposition de tous et que des requêtes automatisées peuvent être adressées à l’OCDE, force est de constater que seules certaines catégories d’acteurs se sont saisies de cette opportunité. La grande majorité de ces acteurs vient du monde scientifique. Mais parmi les scientifiques préoccupés par les questions d’éducation, seule une minorité s’est emparée de la base de données PISA. Ceux qui constituent cette minorité partagent deux traits : (1) la maîtrise de techniques statistiques plus poussées que les corrélations simples (analyses multivariées et multinivaux ou modélisation) ; (2) l’intérêt pour la question des politiques éducatives. Les chercheurs plus ‘qualitatifs’, et notamment la plupart des sociologues spécialisés dans l’analyse des politiques éducatives, n’ont pas investi la base de données. De même, de nombreux chercheurs en didactique et en pédagogie n’ont pas investi PISA alors que les questionnaires comportaient de nombreuses variables susceptibles de les intéresser, en particulier pour la compétence cible mise en exergue à chacune des enquêtes. En dehors du monde scientifique, la proportion d’acteurs n’ayant pas investi les bases de données PISA est encore plus large puisque seuls deux acteurs non académiques ont travaillé ces données. On pourrait, comme précédemment, expliquer cette faible présence par la compétence en traitement statistique, tant il est vrai que la plupart des institutions et groupes d’intérêts parties prenantes de la politique éducative ne disposent pas de services d’étude, et donc de personnes ayant à la fois la disponibilité et les compétences pour travailler les données. Mais comment expliquer que l’administration et le Secrétariat général de l’enseignement catholique, disposant pourtant de telles ressources, ne se soient pas investis dans l’analyse de cette base de données, par ailleurs tant mobilisée dans le débat public ? Pour l’administration, l’une des explications tient au fait que, dans la société pilarisée belge, l’Etat est longtemps resté un acteur relativement faible évitant de prélever des informations sur les différents piliers constitutifs de la société, ceci afin de respecter le principe de discrétion nécessaire à la paix des sociétés consociatives (Mangez, 2008b). Ce n’est que récemment et progressivement qu’a commencé à se constituer au sein de l’administration un staff de personnes ayant des compétences en analyse statistique. Mais ce staff reste encore peu étoffé. Par ailleurs, la qualité reconnue du travail et des 227 Non seulement le groupe de l’ULg, mais aussi par exemple Vincent Vandenberghe (Vandenberghe Vincent et Zachary Marie-Denise (2000), Efficacité-équité dans l’enseignement secondaire de la Communauté WallonieBruxelles : essai d’évaluation dans le cadre d’une comparaison internationale, Cahier du Girsef, 7). 106 4. Travaux d’analyse des données PISA en CFB compétences du SPE ainsi que les nombreux liens tissés entre ce centre et l’administration rendent assez peu pressente l’idée qu’il est indispensable de doter l’administration d’une capacité autonome de gestion et de traitement des données PISA ou de demander à d’autres centres de recherche d’explorer tel ou tel champ des données PISA. Quant au Secrétariat général de l’enseignement catholique, bien qu’il fasse fréquemment référence à PISA et dispose de personnes qui connaissent bien l’outil, il a choisi de privilégier le travail sur les données des évaluations externes organisées par la Communauté française. A ses yeux, celles-ci présentent en effet l’avantage de concerner l’ensemble des écoles et de pouvoir ainsi être directement utilisées pour un pilotage des établissements, ce qui n’est pas le cas des données PISA parce qu’elles sont rendues anonymes et ne concernent qu’une part des écoles et qu’un échantillon d’élèves au sein de chaque établissement. On notera aussi l’absence d’analyse commune avec des auteurs flamands en dépit du fait qu’un nombre croissant d’études soient centrées sur les comparaisons entre les deux Communautés. Il n’y a cependant pas une absence totale de liens : un article du corpus est publié dans un ouvrage édité par un auteur flamand, et des auteurs flamands sont présents dans un ouvrage édité par des chercheurs du Girsef. Mais la confrontation des points de vue à propos des données PISA demeure néanmoins peu approfondie. 4.2 Transformation des données en connaissances Les acteurs que nous venons de présenter sont impliqués dans un premier processus de transformation des données PISA en connaissances. Avant d’analyser ce processus, il convient de préciser que l’usage du terme ‘données’ ne signifie nullement que nous considérons les chiffres de la base de données PISA comme le reflet direct et indiscutable de la réalité. Nous considérons au contraire ces données aussi comme le fruit d’un processus d’élaboration que nous n’analyserons pas ici de manière systématique, mais que nous évoquerons néanmoins à plusieurs reprises quand nous soulignerons combien certains textes ici analysés accordent précisément peu d’attention à ce processus de construction des données. En quelque sorte, en raison de ce processus d’élaboration, les données PISA doivent être considérées pleinement comme des connaissances. Elles ne se différencient de ce que nous nommons ici par convention ‘connaissances’ que parce qu’elles se présentent sous la forme de chiffres ‘bruts’ non insérés dans des textes interprétatifs. La transformation de données en connaissances commence d’abord par une sélection des données traitées. A ce niveau, nous faisons deux constats. D’une part, certaines données sont privilégiées. D’autre part, les membres du groupe ULg-UMH analysent un large 107 4. Travaux d’analyse des données PISA en CFB éventail de données alors que les autres circonscrivent généralement leurs investigations à quelques variables. Qu’en est-il du premier constat ? Alors que les bases de données PISA désormais disponibles portent sur trois années et trois domaines de compétence, et contiennent un grand nombre de variables contextuelles, les textes produits en Communauté française se centrent sur certaines années, privilégient certaines compétences et se focalisent sur certaines variables. Ainsi, plus de la moitié des études (20 sur 36) porte sur les données 2000. La prépondérance des données 2000 s’explique certes en partie par notre date d’observation, plus proche des deux dernières enquêtes, mais on peut faire l’hypothèse qu’elle reflète aussi l’impact plus grand de la première enquête sur l’opinion publique et le moindre besoin des auteurs préoccupés par un travail de nature plus théorique d’utiliser à tout prix les données les plus récentes228. La sélection des données est également visible à propos des compétences étudiées. 20 des 36 articles ne tiennent pas compte simultanément des trois champs de compétences, et les données relatives à la lecture sont davantage explorées que les autres229. On note enfin que la majorité des textes ne s’intéresse qu’à quelques variables, les plus utilisées étant les scores globaux pour chaque grand type de compétence, le sexe, l’établissement, l’origine ethnique et l’origine sociale. Les données relatives aux attitudes et aux engagements sont nettement moins utilisées, comme les scores par ‘sous-groupe’ de compétences. Seconde observation : les chercheurs de l’ULg et de l’UMH ont une approche nettement plus extensive que les autres groupes. Ainsi, par exemple, seul des membres du ‘groupe’ ULg-UMH ont traité les données des trois enquêtes. Le traitement simultané de ces trois enquêtes dans un même article est aussi le seul fait de l’ULg. De même, les chercheurs de l’ULg ou de l’UMH signent 12 des 16 textes tenant compte simultanément des trois compétences. A l’exception de l’ULg, dont l’approche très extensive est à relier au fait que l’un des centres de recherche liégeois gère l’enquête PISA en Communauté française, les différents groupes universitaires ont une approche assez ciblée. Pour eux, comme pour Nico Hirtt et Alain Destexhe, PISA est une opportunité dont ils peuvent se saisir pour développer des thèmes et des lignes de recherche dont ils se préoccupaient auparavant. Sans aller jusqu’à affirmer que la base de données PISA n’a nullement infléchi leurs questionnements et pratiques, nous constatons qu’à la différence de l’ULg, tenue de faire ‘le tour de la question’, les autres groupes abordent les données à partir de questions largement prédéfinies. Ainsi, le Girsef (UCL) s’intéresse notamment à la question de l’effet établissement, et le GERME (ULB) à celle du poids de la variable ethnique. Quant aux économistes de l’IRES (UCL) et des FUNDP, ils utilisent PISA pour 228 229 Cas des auteurs du Girsef, publiant encore en 2008 des articles basés sur les données 2000. Respectivement 27 articles sur la lecture, 26 sur les mathématiques et 17 sur les sciences. 8 articles traitent exclusivement de la lecture, 6 des mathématiques et aucun des sciences 108 4. Travaux d’analyse des données PISA en CFB des modélisations économétriques intégrant de multiples variables, dont certaines de nature éducative. Mais la question de la transformation des données en connaissances ne renvoie pas seulement à la sélection des données. Elle renvoie aussi au type de formatage de ces connaissances. Nous constatons que les formats de connaissance les plus présents dans le corpus sont les comparaisons/classements et les associations/explications. Le corpus contient par contre peu ou pas d’autres formes de connaissances souvent mobilisées dans le processus d’action publique, comme celles qui cartographient l’état de l’opinion, rendent compte des préconisations mises en œuvre ailleurs ou cartographient l’existant. C’est la raison pour laquelle ce point consacré à la transformation des données en connaissances est structuré en deux sous-points : l’un consacré aux comparaisons/ classements et l’autre aux associations/explications. 4.2.1 Comparer / classer Les comparaisons constituent l’une des principales connaissances mobilisées dans le cours de l’action publique. Or, l’une des fonctions essentielles de PISA est de rendre possibles d’innombrables classements. PISA met en effet à disposition de multiples acteurs des données standardisées sur un grand nombre de pays et pour un grand nombre de variables. Sur chacune de ces variables, il est possible de construire un ou plusieurs classements. Il est donc logique que les connaissances produites sous forme de classements soient nombreuses dans le corpus étudié. Nous montrerons d’abord que le caractère discutable de ces classements tend à être estompé et ensuite que certains classements sont privilégiés tant au plan des entités comparées que des critères de classement. Un classement parmi d’autres… qui tend à devenir incontesté Les critères retenus pour établir n’importe quel classement peuvent toujours faire l’objet de débats, mais nous montrerons que la plupart des auteurs analysés ici n’entrent pas dans une telle discussion voire même ne rappellent pas les présupposés qui sont au fondement des classements, contribuant ainsi à estomper le caractère nécessairement relatif de ces classements et à leur octroyer un vernis d’évidence. Les auteurs ne se situent pas tous de manière identique par rapport à cette question. Certains, notamment parmi les économistes, ne développent guère de réflexion à ce propos. D’autres, au contraire, sont bien au fait de ces questions et certains d’entre eux - des chercheurs liégeois notamment - ont d’ailleurs publié des articles pointus sur ces questions méthodologiques. Il n’empêche que, dans les textes où sont présentés les classements, cette réflexion méthodologique se réduit le plus souvent à quelques lignes dans l’introduction. Les classements dérivés des données PISA sont notamment fonction de la définition des 109 4. Travaux d’analyse des données PISA en CFB compétences mesurées et de la population interrogée. Il est cependant frappant de constater que les choix de compétences et de population-cible sont rarement mentionnés et encore moins contestés dans les textes du corpus. Ce fait contribue à l’extinction des rares débats qui ont eu lieu en Communauté française lors de la publication des résultats de la première enquête et au fait que presque tous les acteurs en sont arrivés à considérer ces classements comme l’exact reflet du réel : la plupart des Belges francophones sont désormais convaincus de l’inefficacité et de l’inégalité de l’enseignement de leur Communauté. Le fait que les classements soient fonction de la définition des compétences mesurées n’est rappelé que par une partie des chercheurs de l’ULg et par Nico Hirtt (APED). En dehors d’eux, personne ne pose la question de savoir si ce que mesure PISA est bien en relation avec les objectifs qu’une société entend assigner au système éducatif. Or, comme le montrent les chercheurs de l’ULg lorsqu’ils comparent les classements des pays aux évaluations de l’OCDE et de l’IEA, les options différentes retenues par ces deux organisations ont indéniablement des incidences sur les classements230. Tout en soulignant l’aspect relatif et historiquement marqué des compétences privilégiées par l’OCDE, les chercheurs de l’ULg défendent cependant les compétences retenues par l’OCDE, en soulignant leur proximité avec les compétences démocratiquement définies en Communauté française. Ainsi, selon eux, « il ne fait guère de doute que la manière dont la lecture est évaluée dans PISA est largement en conformité avec les Socles de compétences et cela ne surprendra guère, dans la mesure où le cadre d’évaluation de PISA et les Socles s’alimentent aux mêmes modèles théoriques contemporains de la lecture » (ULg 8, 2003, 18). Leur raisonnement est le même dans les domaines mathématique et scientifique231. A leurs yeux, les compétences mesurées par PISA font 230 « La conception des mathématiques dans PISA fait davantage appel à des démarches cognitives complexes que l’on appellerait volontiers transversales, en Communauté française de Belgique, telles que le raisonnement, l’émission d’hypothèses, l’argumentation ou la communication des résultats. L’évaluation est moins proche des contenus spécifiques, savoirs et algorithmes formels enseignés au cours de mathématiques que ce n’était le cas dans TIMSS. En comparant les résultats de TIMSS et de PISA, on observe un bond en avant significatif des pays anglo-saxons, tels le Royaume-Uni, la Nouvelle-Zélande, le Canada, l’Australie, qui ont une approche moins formelle des mathématiques et un apprentissage plus poussé des démarches expérimentales (tous ces pays ont par ailleurs de bonnes performances en sciences et en lecture)” (ULg 4, 2000, 22). 231 Dans celui-ci, ils estiment que « les préoccupations générales de l’évaluation de la culture scientifique dans PISA sont également présentes, en amont du parcours scolaire des élèves de 15 ans, dans les prescriptions officielles de la Communauté française [bien qu’il y ait] quelques divergences entre les concepts majeurs abordés dans l’évaluation PISA et nos socles de compétences, qui ne les envisagent pas directement » (ULg 8, 2003, 25). 110 4. Travaux d’analyse des données PISA en CFB donc bien partie des objectifs assignés au système éducatif de la Belgique francophone, même si elles ne constituent qu’une part de ces objectifs232. Nico Hirtt, bien qu’il utilise abondamment les données PISA, est le seul à véritablement critiquer les options retenues et à souligner que, comme tous les autres tests standardisés ou externes, nationaux ou internationaux, les tests PISA n’ont pas seulement pour fonction de comparer les efficacités relatives de systèmes ou d’établissements, mais aussi de diffuser certaines finalités éducatives et, dans le cas d’espèce, celles qui sont « adaptées aux demandes économiques actuelles »233. Parmi les auteurs du corpus analysé, la critique qu’adresse Nico Hirtt est cependant isolée. Et l’on peut penser que cet auteur lui-même, en utilisant abondamment PISA pour analyser les inégalités, contribue à légitimer l’outil qu’il critique par ailleurs. Le choix de fonder l’échantillon des jeunes testés sur une classe d’âge plutôt que sur une année d’étude n’est pas davantage discuté. Dans notre corpus, des chercheurs de l’ULg sont les seuls à traiter de cette question. Ils soulignent que, « dans les systèmes éducatifs qui pratiquent le redoublement, parfois à large échelle, comme le nôtre, les conséquences sur le niveau moyen des performances, et plus encore sur leur dispersion 232 C’est ce qu’ils soulignent dans un document adressé aux enseignants à propos des mathématiques. « PISA n’évalue pas tous les aspects des mathématiques jugés importants dans nos différents programmes scolaires » (ULg, « Que peuvent apporter les épreuves PISA aux enseignants ? »). 233 « Le but annoncé par les initiateurs de l’étude internationale PISA est d’évaluer, non des connaissances, mais plutôt des “compétences”. La principale motivation officielle de ce choix est d’obtenir des résultats qui soient aussi indépendants que possible des particularités des programmes de cours de chaque pays. Mais il y a une autre motivation [...] qui tient au fait que l’enquête PISA émane de l’OCDE, ce grand “think-tank” du capitalisme international. Cet organisme plaide, depuis plus de dix ans, en faveur d’une réforme profonde des systèmes d’enseignement en vue de mieux les adapter aux demandes économiques actuelles [...]. L’un des axes de cette “nouvelle politique éducative” est de réserver les savoirs abstraits de haut niveau [...] à ceux qui en auront réellement besoin et de concentrer les efforts d’instruction du plus grand nombre sur l’acquisition de ‘compétences de base’ [...][...][...], qui pourront être exploitées de manière flexible dans un environnement de production en perpétuelle mutation. [...] Dès lors, si les ‘points’ que fournit PISA en mathématique, par exemple, mesurent assurément certaines compétences propres à cette discipline, ils laissent aussi de côté des pans entiers de ce qui devrait constituer une bonne formation mathématique. Et puisque, d’une part, les pays n’avancent pas au même rythme dans la mise en adéquation de leur enseignement avec les recommandations de l’OCDE et que, d’autre part, ils conservent, au niveau des programmes, des particularités nationales fortes, on ne peut pas vraiment considérer qu’ils soient égaux devant les tests PISA. [...] En d’autres mots, les classements de pays suivant leurs résultats moyens aux tests PISA ne nous apprennent pas grand-chose, car ils ne permettent pas de faire la part entre ce qui résulte réellement d’une efficience plus ou moins grande des systèmes d’enseignement (sur le plan pédagogique, structurel ou budgétaire) et ce qui témoigne davantage des spécificités des programmes ou de leur conformité avec les visions éducatives professées par l’OCDE » (APED 3, 2006, 29). 111 4. Travaux d’analyse des données PISA en CFB ou sur les disparités d’acquis entre élèves, peuvent être non négligeables » (ULg 15, 2004, 18)234. Mais dans les textes du corpus, aucune analyse n’est esquissée quant aux effets qu’une autre approche pourrait avoir sur le classement de la Belgique francophone. Bien plus, aucun classement n’est effectué sous contrôle de l’année d’étude, de manière à distinguer par exemple la population des jeunes ‘à l’heure’ et celle des jeunes ‘en retard’ et d’établir un classement alternatif ou complémentaire à celui qui sert aujourd’hui de référence exclusive. Rien n’est fait à ce propos dans notre corpus, sauf tardivement et exclusivement avec la Flandre, lorsque Nico Hirtt en 2008 (APED 1, 2008) et l’ULg en 2009 (ULg 9, 2009) compare les résultats par année d’étude. A qui compare-ton la Communauté française ? La majorité des études du corpus donne une place importante à la Communauté française. C’est une de leurs raisons d’être puisque, dans les publications officielles de l’OCDE, la Belgique est considérée comme un tout, les Communautés n’étant mentionnées qu’en fin de rapport dans des tableaux de données brutes, sans commentaires235. Presque toutes les analyses figurant dans notre corpus contiennent donc des données à l’échelle communautaire236 et sont focalisées sur les comparaisons entre la Communauté française et d’autres entités nationales ou régionales. Les comparaisons les plus fréquentes sont faites avec la Communauté flamande. Dans les trois documents cosignés par le SPE (ULg) et le Ministère (ULg 1, 2 et 3), la Communauté flamande n’est pas davantage mentionnée que les autres pays. Mais les publications les plus complètes de l’ULg relatives aux données 2003 et 2006 (ULg 8 et 9) présentent de manière systématique les données comparées des trois Communautés. D’autres textes se limitent même aux comparaisons intra-belges sans mention d’aucun autre pays (APED 1 et 3, ULB 1). Comme nous le rappellerons plus loin, on peut faire 234 On peut en effet imaginer que si on comparait les pays non à 15 ans mais à l’entrée de la 4e secondaire, les élèves en retard pourraient accroître leurs compétences durant le parcours qui leur resterait à effectuer jusqu’en 4e secondaire et qu’il est donc probable que les pays pratiquant davantage le redoublement verraient une proportion plus grande de leurs élèves (ceux en retard) progresser encore. La dispersion des résultats des pays s’en trouverait dès lors réduite. Peut-être observerait-on également des changements de classement. 235 Le rapport PISA 2000 distingue déjà les Communautés flamande et francophone, ainsi que les trois communautés suisses (italienne, germanophone et francophone). Mais ces données régionales tiennent en un tableau (résultats moyens, écarts types et résultats pour certains percentiles). Dans PISA 2003, des tableaux plus touffus sont produits pour les Communautés belges, les deux communautés finlandaises et une partie des régions de l’Italie, de l’Espagne et du Royaume-Uni. Dans PISA 2006, les statistiques régionales, plus développées, concernent un plus grand nombre de régions en Belgique, au Royaume-Uni, en Italie, en Espagne et en Finlande. 236 Quelquefois, cependant, la Belgique est analysée en tant que telle, sans distinction communautaire (ULg 16, ULg 18). 112 4. Travaux d’analyse des données PISA en CFB l’hypothèse que PISA, en procurant des bases de données standardisées a été un élément favorisant les comparaisons entre les deux Communautés. Certains auteurs appellent d’ailleurs à un approfondissement des études comparées237. Similarité et différence des deux systèmes sont invoquées pour justifier un tel intérêt238. Parmi les autres pays privilégiés en termes de comparaison, la Finlande occupe la première place. Un des articles du corpus est exclusivement centré sur une comparaison entre ce pays et chacune des deux Communautés (APED 2). Cette polarisation sur le système finlandais, également observée dans d’autres pays, est indéniablement un effet de PISA. Mais l’existence d’un relai en la personne de Claude Antilla, ancienne directrice du lycée franco-finlandais d’Helsinki, fréquemment invitée à s’exprimer dans les médias et lors de conférences, a renforcé cet effet. Cette focalisation sur la Flandre et sur la Finlande a un impact sur la circulation de connaissances. On observe en effet un gonflement des flux de connaissances provenant de Finlande et de Flandre, portés par des acteurs que l’on peut qualifier de brokers ou de circulators239 (Delvaux, 2008, 220). Ces flux sont quasi exclusivement à sens unique, partant des pays ou régions performants et se dirigeant vers la Communauté française. 237 « La communautarisation de l’enseignement a conduit à une ignorance réciproque des systèmes d’enseignement et à supprimer les études scientifiques comparées au sein de la Belgique. Or, chaque enseignement a des spécificités propres et chacun devrait pouvoir tirer parti des points positifs l’un de l’autre mais aussi, grâce à une pensée en miroir, jeter un regard critique sur ses propres failles. L’objectif de la démocratisation des études nécessite un travail d’envergure dans toutes les parties de la Belgique » (ULB 1, 2007, 48). 238 « Les deux systèmes partagent en effet des éléments historiques et culturels, mais diffèrent également de manière assez flagrante en termes d’efficacité pour les élèves de 15 ans. PISA est l’occasion de comparer ces deux systèmes » (ULg 9, 2009, 119). 239 Les brokers et les circulators sont deux types d’acteurs faisant circuler les connaissances entre des ‘mondes’, des ‘organisations’ ou des ‘scènes’ de l’action publique. Nous les distinguons en fonction de leur lieu d’insertion. Les brokers (courtiers) sont attachés généralement à l’entité ou à la scène où ‘aboutit’ la connaissance ou d’où part cette connaissance. Ils jouent le rôle d’import-export et de traducteurs, établissant des connexions entre des mondes hétérogènes. Les circulators, quant à eux, sont extérieurs et font circuler les idées entre des entités et des scènes auxquelles ils n’appartiennent pas. Ils tentent d’organiser la circulation horizontale des connaissances entre pairs ou entités similaires, le plus souvent à l’intérieur des limites d’un secteur de politique publique. Ces circulators n’exercent pas toujours un pouvoir hiérarchique sur les entités sources ou cibles de la diffusion. Il peut s’agir de groupes d’intérêts (par exemple, une ONG internationale faisant circuler entre les entreprises de ‘bonnes pratiques’ environnementales) ou d’organismes fédérant des entités (une association d’écoles faisant circuler entre ses membres des informations sur les expériences pédagogiques jugées intéressantes). 113 4. Travaux d’analyse des données PISA en CFB Ils charrient surtout des informations sur des politiques mises en oeuvre dans ces autres espaces mieux classés. D’autres pays ou régions que la Flandre ou la Finlande sont parfois choisis comme points de comparaison privilégiés. Un article privilégie ainsi la France, le Portugal et l’Autriche, parce que ces pays ressemblent à la Communauté française par la forte variation des résultats entre établissements et le taux de redoublement élevé (UCL 1, 2008). Un autre choisit de présenter « quelques pays240, sélectionnés en fonction de leur proximité ou de leur distance remarquable avec la Communauté française sur les plans éducatif, culturel ou géographique » (ULg 7, 2003, 181). On remarque aussi que, dans les tableaux comparatifs les plus généraux, il est rare que l’ensemble des pays ayant participé à PISA soient ‘convoqués’. Souvent, la liste (ou la moyenne) se limite à l’OCDE ou à l’UE. L’existence d’un espace européen se fait manifestement sentir. Les comparaisons portent en effet prioritairement sur les pays européens, et même assez souvent sur ceux de l’Europe des 15241 (ULg 1 et 3, par exemple). Davantage que sur des critères théoriques, de tels choix semblent être surtout le reflet de la constitution et de la consolidation d’un espace européen, qui se traduit notamment par l’existence de bases de données qui, comme Eurydice, fournissent à propos des pays européens des d’informations complémentaires à celles de PISA, dès lors assez aisément mobilisables pour enrichir les modèles d’analyse. Autre point à noter : aucune étude n’effectue une comparaison avec d’autres entités infra-nationales alors que de telles comparaisons avec des régions britanniques, italiennes ou espagnoles pourraient se révéler pertinentes. Parmi la trentaine de régions pour lesquelles des données sont disponibles, la Flandre, et dans une moindre mesure la Communauté germanophone, sont donc les seules à être comparées à la Communauté française. La (re)structuration des circuits de connaissance (et notamment la circulation des informations sur les politiques mises en œuvre dans les régions affichant de meilleurs résultats) est un processus dans lequel PISA joue assurément un rôle. Les classements produits par PISA poussent à s’intéresser aux pays ou régions les mieux classés et, jusqu’à présent, à privilégier les pays plutôt que les régions. Mais PISA à lui seul ne suffit pas à expliquer la configuration des circuits de connaissance. De fait, il ne suffit pas que le pays soit bien classé pour que soient générés des flux en provenance de cet espace242. Il faut en outre qu’il y ait (1) une proximité culturelle, le sentiment d’appartenir à des ‘mondes’ proches ou à des sociétés relativement semblables (sinon, pourquoi n’irions240 241 242 Communauté flamande, Allemagne, Finlande et Etats-Unis. Il est vrai que l’Europe des 15 ne s’est élargie à 10 nouveaux pays qu’en 2004. Les résultats extrêmement positifs du système du éducatif cubain, dans une étude de l’UNESCO, ne donnent pas lieu à autant d’échanges de connaissance, en dépit des efforts de l’APED 114 4. Travaux d’analyse des données PISA en CFB nous pas nous inspirer du système coréen très performant ?), (2) une image globalement positive attachée au pays (l’absence d’une telle image est peut-être à l’origine du faible intérêt pour l’exemple polonais, dont le système est pourtant annoncé comme ayant significativement progressé entre 2000 et 2006), et (3) l’existence de brokers dans les pays d’origine et/ ou de réception. Au final, il y a donc interaction entre PISA et les circuits de connaissance : PISA contribue à structurer les circuits tandis que ces derniers, préexistant à PISA, contribuent partiellement à orienter l’attention des lecteurs de PISA. Au sein de la Communauté française, quelles comparaisons ? PISA est relativement peu utilisé pour effectuer des comparaisons entre des entités internes à la Communauté, que celles-ci soient définies en termes d’entités géographiques ou de réseaux. A une exception près (UCL 9, 2004), aucun des textes du corpus ne traite des données à des échelles géographiques inférieures à la Communauté243. Il est vrai que de tels traitements butent sur des problèmes de représentativité statistique, mais ces questions techniques ne sont pas seules en cause. L’absence de telles analyses témoigne également du fait que ne s’est pas imposée l’idée d’une régulation territorialisée du système scolaire, qui remet potentiellement en cause le pouvoir régulateur des réseaux d’enseignement. Cette absence renvoie aussi à la sensibilité de la question bruxelloise : traiter celle-ci comme une entité statistique alors que, dans cette Région, il existe deux offres d’enseignement (une par Communauté) distinctes et non concertées, risquerait d’attiser des débats politiquement sensibles. Le traitement limité des données par réseau ne peut être justifié par le même argument technique de représentativité statistique puisque l’échantillon est explicitement stratifié en fonction de ce critère ‘réseau’. Il a cependant fallu attendre la seconde enquête pour que cette question des réseaux soit succinctement traitée par des chercheurs de l’ULg (ULg 8, 2004, 107-109), qui demandaient « la prudence dans l’interprétation de ce type de données politiquement sensibles » (ULg 4, 2004, 108) et justifiaient le traitement de cette question en expliquant que « l’autonomie pédagogique laissée aux réseaux d’enseignement en Belgique rend légitime la question des différences en termes d’acquis cognitifs en fonction du réseau » (ULg 4, 2004, 107)244. Il fallut attendre 2008, et une 243 Dans un article du Vif daté du 28.08.2008 et signé par Gilles Quoistieaux (« Enseignement, pourquoi les élèves flamands sont meilleurs »), Dominique Lafontaine fait cependant mention de certaines comparaisons provinciales : « En comparant les résultats du Brabant wallon à ceux du Hainaut, lors du test PISA 2003 en mathématiques, les Hennuyers réalisent un score de 483 ; les Brabançons, 531. Un écart de quelque 50 points, la différence moyenne de résultats entre la Communauté française et la Communauté flamande ! Une disparité qui pourrait s'expliquer par les difficultés socio-économiques, qui marquent davantage le Hainaut que le Brabant wallon ». 244 Il est intéressant de constater qu’à leurs yeux, les différences potentielles étaient supposées être davantage en relation avec les objectifs des réseaux qu’avec l’efficacité de l’organisation, puisqu’ils estimaient qu’on « peut 115 4. Travaux d’analyse des données PISA en CFB sortie médiatique d’Alain Destexhe, parlementaire libéral, pour que la question, qu’il présenta comme un « sujet tabou », soit davantage médiatisée. Recourant à un titre choc245, il souligna que le réseau libre avait, en Flandre, toujours de meilleurs résultats que le réseau officiel et que, de façon moins nette, le réseau libre faisait également mieux que le réseau officiel en Communauté française (MR 1, 2008, 1). Par après, le SPE (ULg) traita de manière un peu plus approfondie cette question dans son troisième rapport, mais sans la mettre en évidence puisqu’elle figurait au sein d’un point consacré aux différences entre la Communauté française et la Communauté flamande (ULg 9, 2009, 119-127). Pour l’heure, les comparaisons entre réseaux restent donc limitées. Aucun autre acteur que l’ULg et Alain Destexhe – pas même les instances coordinatrices des différents réseaux - ne s’est emparé de cette question. Une grande variété de classements relatifs aux résultats Les données PISA permettent de classer les différents pays sur un grand nombre d’échelles. Les plus fréquentes ont trait aux résultats. Mais d’autres indicateurs de classement, tirés des questionnaires de contexte, sont également mobilisés : on voit ainsi certains textes du corpus traiter des questions de ségrégation ou des questions d’attitude, d’engagement et de stratégie d’apprentissage des élèves. Il n’en reste pas moins que les classements les plus fréquents et les plus diffusés sont ceux relatifs aux résultats. Pour ce qui concerne les scores moyens, les commentaires positionnent généralement la Communauté française par rapport à la moyenne OCDE. Dans la plupart des cas, la Communauté française affiche un score inférieur à cette moyenne246. Mais les commentaires indiquent aussi que la prise en compte de la marge d’erreur conduit à placer la Belgique dans un large groupe de pays. Il existe cependant plusieurs techniques de calcul du degré de significativité des différences entre les performances moyennes de deux pays ou régions247, et ces techniques ont des répercussions sur l’interprétation des classements puisque, en 2006, du fait d’un changement de technique, le SPE (ULg) a été amené à conclure que les pays ayant des résultats significativement plus élevés que la en effet imaginer que certains réseaux développent des programmes mieux adaptés à l’acquisition de compétences telles qu’elles sont mesurées dans PISA » (ULg 4, 2004, 107). 245 246 « L’enseignement libre meilleur que l’officiel selon PISA » (MR 1, 2008, 1). « La Communauté française se situe à hauteur de la moyenne Ocdé en culture mathématique et présente des résultats inférieurs en culture scientifique et en compréhension de l’écrit » (ULg 9, 2009, 48). 247 Dans ses 1er et 2e rapports, l’ULg a utilisé une méthode qui tend à élargir le groupe des pays ne se différenciant pas significativement de la Communauté française. Dans son 3e rapport, elle a opté pour une autre technique en vertu de laquelle « le groupe des pays présentant un score qui ne diffère pas significativement de celui de la Communauté française se trouve de fait moins important » (ULg 9, 2009, 49). 116 4. Travaux d’analyse des données PISA en CFB Communauté française étaient plus nombreux que ce que le SPE lui-même avait indiqué auparavant248. Mais les textes du corpus positionnent généralement moins la Communauté française en fonction des résultats moyens que de la variance des résultats. Plusieurs des auteurs soulignent d’ailleurs que la Communauté française se distingue moins par sa moyenne que par la dispersion de ses résultats249. Nico Hirtt avance un autre type d’argument pour justifier l’attention préférentielle à la variance : rejetant les classements en fonction des résultats moyens parce que les compétences mesurées se réfèrent aux objectifs très discutables de l’OCDE, il considère par contre que les élèves d’un même pays sont sans doute égaux entre eux devant les tests PISA, et que dès lors les classements fondés sur la variance des résultats sont plus légitimes que ceux fondés sur la moyenne des résultats, car moins dépendants de la nature des compétences évaluées250. Le plus souvent, le type d’inégalité mesuré par les indicateurs n’est pas interrogé ou théorisé. Vincent Dupriez et Vincent Vandenberghe discutent cependant cette question et affirment que « si l’on veut dégager la signification d’indicateurs d’égalité basés sur l’analyse des résultats des élèves, on bascule de facto dans une conception normative de l’égalité qui dépasse l’usage classique de la notion d’égalité des chances. Plus précisément, ce qui est mesuré, ce n’est pas la présence de chances égales de formation, mais l’égalité face aux résultats de l’action éducative » (UCL 5, 2008 168). Ils proposent ensuite trois notions d’égalité comme résultats251 (égalité de résultats, égalité des acquis de base, égalité sociale de résultats) ainsi que les indicateurs qui leur sont associés. 248 Par exemple, en mathématique, le nombre de pays dans les résultats sont significativement meilleurs passe, entre 2003 et 2006, de 6 à 16. 249 « L’un des dangers des enquêtes internationales est de braquer le projecteur sur le classement et sur la place occupée par un pays dans le classement. Or, il faut garder à l’esprit que les écarts entre pays proches dans le classement sont minimes. Les différences au sein des pays sont bien plus prononcées que les différences entre pays » (ULg 6, 2008, 22). 250 « Si les comparaisons entre les moyennes des pays ne sont guère significatives des performances nationales en mathématiques, on peut en revanche supposer que les élèves d’un même pays devraient, quant à eux, être égaux devant les tests. Du moins, si l’enseignement de ce pays est organisé de façon démocratique, égalitaire. Dès lors, PISA s’avère un puissant outil pour qui veut comparer les pays, non sur le plan de l’efficience moyenne des systèmes éducatifs, mais sur le plan de leur équité » (APED 3, 2006, 29). 251 En conclusion, ils se demandent s’il ne serait pas pertinent de s’interroger sur l’étendue des libertés réelles (conversion des ressources scolaires en capabilities) car « dans la perspective de cette approche non ressourciste, l’enjeu n’est pas seulement la mesure de la taille du ‘panier de biens ‘ dont bénéficie chaque élève, mais surtout l’évaluation de la liberté des personnes, ce qui passe par l’analyse de leur possibilité de faire usage des ressources acquises en fonction de leurs choix personnels » (UCL 5, 2008, 182). 117 4. Travaux d’analyse des données PISA en CFB La mesure de l’égalité de résultats – première des mesures qu’ils proposent - est indépendante des caractéristiques des élèves. Quel que soit l’indicateur (écart-type, écart interquartile, écart inter-décile), la Communauté française est identifiée comme l’une des plus inégalitaires : « les systèmes éducatifs belges (tant francophone que néerlandophone) ont le triste privilège de figurer parmi les plus inégalitaires au sein des pays membres de l’OCDE » (APED 2, 2005, 1). Cependant, en dehors de certains documents de l’ULg, jamais il n’est déterminé quels pays s’écartent significativement des valeurs belges francophones. On observe donc une moindre propension à tempérer le caractère brut des classements lorsqu’on compare les dispersions que lorsqu’on compare les moyennes. Il est également rappelé régulièrement que cette grande dispersion des résultats se traduit surtout par une proportion plus importante d’élèves ayant de mauvais scores, la proportion d’élèves ayant de bons scores étant quant à elle proche de la moyenne des pays252. Cette relativisation des écarts entre les meilleurs élèves de la Communauté et d’autres pays est cependant contestée par les libéraux dans des interventions externes au corpus. Dans le corpus lui-même, quelques auteurs s’étonnent que la ségrégation académique des élèves ne débouche pas sur de meilleurs résultats pour les meilleurs élèves. « Pour le dire brutalement, même si les élèves qui ont connu un parcours sans anicroche ont de bons résultats, on peut s’étonner, au terme d’un ‘écrémage’ conséquent, qu’ils ne soient pas plus nombreux à exceller » (ULg 8, 2004, 107). En définitive, cependant, le problème des élèves ‘faibles’ est estimé bien plus préoccupant que celui des élèves ‘forts’253. Cette insistance sur la proportion d’élèves ayant de très faibles scores est proche de la seconde conception de l’égalité proposée par Vincent Dupriez et Vincent Vandenberghe, à savoir l’égalité en termes d’acquis de base, que PISA appréhende à travers le concept de niveau de maîtrise. A l’aune de cet indicateur aussi, les résultats de la Communauté française sont présentés comme mauvais. « Plus de 10 % des élèves en Communauté française ont des compétences situées en deçà du niveau 1 [...]. On peut raisonnablement penser qu’ils ne disposent pas d’un bagage suffisant pour pouvoir mener à bien des tâches impliquant la mise en œuvre d’une stratégie rudimentaire de résolution de problèmes mathématiques » (ULg 8, 2004, 60). Les auteurs des textes du corpus s’intéressent aussi au troisième type d’inégalité : les inégalités sociales de résultats. Celles-ci sont appréhendées à travers la variation des résultats en fonction du sexe, de l’origine ethnique ou de l’origine sociale. Des indicateurs variés sont mobilisés. Des mesures telles que les écarts de performance moyenne entre 252 « La Communauté française compte une proportion à peine inférieure à la moyenne européenne de très bons lecteurs, mais une proportion très supérieure d’élèves en difficulté et en grande difficulté à cet égard » (ULg 1, 2004, 79). 253 « Ce n’est pas la proportion d’élèves performants qui est préoccupante en Communauté française, mais plutôt le nombre trop important d’élèves situés sous le seuil élémentaire » (ULg 8, 2004, 61). 118 4. Travaux d’analyse des données PISA en CFB les 25 % d’élèves les plus favorisés et les plus défavorisés254, plus parlantes que le coefficient de détermination R², ouvrent la porte aux comparaisons mais ne tiennent pas compte du fait que les conditions socio-économiques des 10 ou 25 % d’élèves les plus pauvres ou les plus riches peuvent varier significativement d’un pays à l’autre. Le classement des pays en fonction de tels indicateurs tend donc à mélanger les inégalités sociales extra-scolaires et leur traduction dans le champ scolaire. Les textes, cependant, ne dissipent généralement pas cette confusion, ce qui tend à accentuer la responsabilisation du système éducatif dans les pays ou régions qui, comme la Communauté française, affichent d’important écarts de scores interquartiles ou interdéciles. Cependant, en utilisant la valeur du coefficient de détermination R² pour classer les pays, d’autres auteurs arrivent également à la conclusion que la Communauté française est mal classée255. L’essentiel du message qui transpire à travers les textes analysés se trouve résumée dans un graphique classant les pays en fonction de deux paramètres, l’un rendant compte de la performance moyenne, l’autre du pourcentage de variance expliqué par les variables socioéconomiques. Cela permet de résumer l’information en classant les pays en quatre catégories, et de situer presque toujours la Communauté française dans le quadrant peu efficace et peu équitable. Autres classements Un autre classement récurrent consiste à situer les pays en fonction des écarts de scores entre établissements. L’intérêt des acteurs belges pour ce type de classement tient au fait que « les variables élève, pour l’essentiel, influencent la performance scolaire des élèves de façon assez semblable à travers les pays alors que l’influence des variables école dépend fortement du contexte national » (ULg 17, 2009, 157). Mais l’intérêt des auteurs pour de tels classements se justifie surtout parce que la Communauté française affiche dans ce domaine des mauvais résultats256. Or de tels classements sont difficiles à 254 « C’est en Communauté française qu’on observe l’écart le plus important dans les résultats à l’épreuve de littératie en fonction du statut socio-économique : 124 points séparent le meilleur score du groupe (25 %) des plus défavorisés du score le moins élevé du groupe (25 %) des élèves les plus avantagés à cet égard » (ULg 1, 2004, 94). 255 « La Belgique francophone, le Luxembourg, la Suisse et l’Allemagne se caractérisent par une inégalité davantage prononcée que dans les autres pays » (UCL 5, 2008, 181). 256 « Dans les pays de l’Union européenne, les différences entre établissements scolaires expliquent en moyenne 35 % de la variance des résultats au test de littératie, mais les systèmes éducatifs diffèrent à cet égard. [...] L’Allemagne et l’Autriche atteignent les valeurs les plus élevées (60 %), suivies par les Communautés française (56 %) et flamande (55 %), très proches à cet égard, puis par l’Italie (54 %) et la Grèce (50 %). À l’opposé, on trouve des pays nordiques (Suède : 10 %, Finlande : 12 % et Danemark : 19 %), ainsi que l’Irlande (18 %).» (ULg 1, 2004, 90-91). 119 4. Travaux d’analyse des données PISA en CFB interpréter. D’abord parce qu’ils agrègent plusieurs phénomènes : les différences d’efficacité pédagogique entre écoles, mais aussi les différences en termes de caractéristiques des élèves recrutés (redoublements antérieurs,…) et de filières organisées par l’école. En outre, ces classements ne sont pas affublé d’une marge d’erreur tenant compte de la représentativité imparfaite de l’échantillon de chaque établissement, et il n’est tenu compte de la relative d’établissement selon les pays voire selon les périodes instabilité de la notion 257 . Les classements en fonction du critère de ségrégation sont assez étroitement corrélés aux précédents. Ils ont fait l’objet de plusieurs articles spécifiques comparant les classements des différents pays et régions en fonction des indicateurs retenus (UCL 7, ULg 18). Selon Marc Demeuse et Ariane Baye, on observe « la stabilité des mécanismes de ségrégation académique, indépendamment des disciplines considérées » (ULg 18, 2008, 139). Mais « les corrélations […] indiquent un lien faible […] entre les indices de ségrégation académiques et les indices de ségrégation liés à la profession et au sexe. Cette liaison est même négative avec les indices de ségrégation linguistique (langue parlée à la maison) ou le lieu de naissance des parents. […] Les classements ainsi obtenus mettent en évidence un ensemble de pays où les effets de ségrégation semblent faibles […]. A l’opposé, on retrouve l’Italie, l’Autriche, la Hongrie, la République tchèque, l’Allemagne et la Belgique » (ULg 18, 2008, 141). Les classements en fonction des scores relatifs à des sous-compétences sont presque exclusivement proposés dans les publications les plus complètes que le SPE consacre à chaque enquête PISA (ULG 7, 8 et 9). Or, des différences de classement sont parfois observées au sein de chaque ‘discipline’258. La plupart du temps, les auteurs ne s’attardent donc guère sur de telles différences, leurs classements étant la plupart du temps basés sur des indicateurs synthétiques de résultats. La même logique les conduit aussi à ne comparer que rarement les résultats de chaque élève aux diverses 257 Puisque, en 2000, la Communauté française a retenu la notion d’implantation et, depuis 2003, celle d’établissement, celui-ci étant parfois composé de plusieurs implantations et désignant dès lors davantage une réalité administrative qu’un lieu de vie. 258 « Les résultats moyens sont moins bons pour la démarche Réfléchir sur le texte. Pour cette démarche, les performances des élèves de la Communauté française de Belgique sont de manière significative en dessous de la moyenne OCDE, alors que ce n'est pas le cas pour les deux autres démarches. On peut à cet égard affirmer, sans grand risque de se tromper, que les élèves en Communauté française de Belgique sont relativement peu familiers d’une évaluation écrite portant sur un tel aspect et que c’est surtout lors des deux dernières années de l’enseignement secondaire général que ce type de démarche sera sollicité » (ULg 4, 2001, 18). 120 4. Travaux d’analyse des données PISA en CFB compétences et sous-compétences pour vérifier s’il y a bien corrélation entre les résultats obtenus dans les différents domaines de compétence259. Les classements en fonction des attitudes sont proposés exclusivement par l’ULg. Il est vrai que l’OCDE elle-même recommande « la prudence quant aux comparaisons internationales des indices moyens [d’attitude] en raison des différences culturelles notamment » (ULg 9, 2009, 143). Mais, aux yeux des chercheurs de l’ULg, les échelles attitudinales en lecture sont plus robustes que les autres et, sur ce plan, les signaux sont quasi tous au rouge en Communauté française260. Comparaisons dans le temps PISA n’ouvre pas seulement la porte à des comparaisons entre systèmes éducatifs. Il autorise aussi certaines comparaisons dans le temps. C’est d’ailleurs un des objectifs importants des études cycliques implémentées par l’OCDE dans le programme PISA261. Mais les embûches méthodologiques sont nombreuses262. Des embûches encore plus grandes existent pour établir des comparaisons entre les enquêtes de l’OCDE et celles de l’IEA, voire même entre les enquêtes de l’IEA263. Les constats quant aux évolutions 259 « En Communauté française et en Allemagne (74 %), la faiblesse des résultats est commune aux deux matières : les élèves en grande difficulté en mathématiques le sont aussi en compréhension de l’écrit. En Grèce, en Suède (49 %) et en Irlande (49 %), la moitié des élèves très faibles en mathématiques se situent au moins au niveau 2 en compréhension de l’écrit : leurs lacunes sont plus spécifiques » (ULg 3, 2007, 109). 260 « Ce qui est plus frappant chez nous, c’est le pourcentage de jeunes déclarant ne jamais lire pour le plaisir. On remarque de telles caractéristiques dans d’autres pays par ailleurs proches du nôtre sur certains aspects du système éducatif, comme l’Allemagne ou la Communauté flamande » (ULg 11, 2003, 24). « En Communauté française, tous les types de textes proposés sont lus moins assidûment que dans les autres pays, à l’exception de la bande dessinée » (ULg 11, 2003, 27). « Les deux Communautés belges se caractérisent par un indice d’engagement très faible comparativement aux autres pays » (ULg 11, 2003, 36). 261 « Les informations recueillies ne visent pas seulement à donner une photographie de la situation à un moment donné ; elles doivent aussi permettre d’analyser l’évolution de ces photographies et de voir dans quelle mesure, sur une période de temps, l’impact de certaines politiques éducatives peut se faire sentir sur la régulation de l’efficacité et de l’équité d’un système éducatif… » (ULg 9, 2009, 97). 262 « Deux sous-échelles sont communes aux cycles 2000 et 2003 de PISA : « espace et formes » et « variations et relations ». Il est tentant de rechercher les indices d’éventuelles modifications dans les performances, bien que les données ne s’y prêtent guère : d’une part en présence de deux mesures seulement, il est difficile d’inférer une tendance à plus long terme ; d’autre part les inévitables modifications introduites dans les recueils de données, même si elles sont mineures, jointes aux erreurs de mesures, rendent l’interprétation des différences très hasardeuse » (ULg3, 2007, 95-96). 263 « On pourrait croire [...] un peu naïvement que le recueil de données a – évidemment – été organisé de manière à permettre (des) comparaisons et qu’un maximum d’efforts ont consentis pour autoriser les mises en 121 4. Travaux d’analyse des données PISA en CFB diachroniques sont donc maigres. En 2006, « pour la Communauté française, on ne note aucune évolution significative des performances en mathématiques depuis 2003, année où cette discipline était le domaine majeur. Il n’y a pas non plus d’évolution significative en compréhension de l’écrit par rapport à 2000 (année où la lecture était le domaine majeur), ni par rapport à 2003 » (ULg 9, 2009, 50). 4.2.2 Associer / expliquer Les bases de données PISA ne donnent pas seulement naissance à des comparaisons et à des classements. Elles ouvrent aussi la voie à des travaux tentant d’associer des phénomènes ou d’établir entre eux des relations de causalité. Comme les classements, les associations sont continuellement mobilisées dans les discours des acteurs participant à l’action publique (Delvaux, 2008). Analyses multivariées et causales Alors que les publications ‘contractuelles’ de l’ULg embrassent un large éventail de questions, la plupart des autres publications sont centrées sur une question de recherche relativement précise. Quelquefois, il s’agit simplement de décrire, par exemple différentes mesures de ségrégation (UCL, 7, 2007) ou d’inégalité (UCL 5, 2008). Dans la plupart des cas, cependant, la visée est compréhensive ou explicative et, dans ce cas, la variable dépendante est quasi toujours les résultats des élèves aux tests (que ce soit en termes de moyenne, de dispersion, de proportion d’élèves de chaque niveau,…). Les analyses bivariées sont nombreuses, mais leur portée explicative est limitée264. On observe donc une propension à recourir à des techniques statistiques plus élaborées : analyses multivariées et multi-niveaux, mais aussi modélisation dans le cas des économètres (UCL 8 et 9, FUNDP 1). Parfois, cependant, les auteurs poursuivent une visée explicative sans recourir à des validations statistiques. C’est le cas de Nico Hirtt quand il se propose d’expliquer les différences entre Finlande et Belgique en se basant sur des informations relatives à certains traits structurels des deux systèmes éducatifs (APED 2). C’est aussi le cas de Marc Demeuse et Ariane Baye lorsqu’ils comparent, de manière exploratoire, les rangs moyens des pays sur deux dimensions (ségrégations et relation. Il n’en est hélas rien ! [...] Le souci scientifique immédiat l’emporte ainsi assez souvent sur d’autres considérations et la demande de rendre les choses comparables ou simplement cohérentes ne reçoit généralement que très peu d’échos » (ULg 15, 2004, 14). 264 « Si elles se révèlent très parlantes pour mettre en lumière l’inéquité des systèmes éducatifs, [les analyses bivariées] ne donnent toutefois qu’un éclairage partiel des mécanismes explicatifs des niveaux de performances observées dans les trois communautés belges. Chacun des facteurs analysés n’est en effet pas indépendant d’autres facteurs [...]. Par ailleurs, chacune de ces variables individuelles peut également avoir des impacts cumulatifs lorsqu’on regroupe au sein d’une même école un ensemble d’élèves en partie ‘fragilisés’ » (ULg 9, 2009, 119). 122 4. Travaux d’analyse des données PISA en CFB structures scolaires) constituées chacune à partir d’une dizaine d’indicateurs (ULg 18, 2008). En dehors de ces cas, la préférence va aux approches statistiques corrélationnelles et causales. Il y a par contre peu de recours à des approches plus qualitatives et compréhensives. On recourt par exemple peu à la technique des typologies d’établissements ou d’élèves. Des auteurs de l’ULg touchent à cette approche lorsqu’ils mettent en évidence des profils de lecteurs (ULg 11, 2003), mais aucun auteur ne tente par exemple de constituer des profils d’élèves en fonction de leurs niveaux d’acquis dans les différences compétences ou ‘sous-compétences’. Un seul texte compare, élève par élève, les résultats en lecture et en mathématiques, mais c’est pour dresser une typologie des pays et non des élèves (ULg 3, 2007, 108). Potentialités et limites de la base de données pour les corrélations et causalités La tendance à recourir à des analyses multivariées est donc bien présente, mais se heurte cependant à des contraintes liées à la nature des données collectées et à l’échantillon, constitué en tenant compte de deux critères de stratification explicites : le type d’enseignement (ordinaire/spécialisé) et les réseaux265. Indépendamment de la qualité du processus d’échantillonnage266, des problèmes de représentativité peuvent exister, y compris pour des variables centrales. Ainsi, bien que « les responsables de l’échantillonnage s’assurent que l’échantillon d’écoles est diversifié au niveau des filières d’enseignement proposées et du taux de retard des élèves » (ULg 9, 2009, 11), faisant ainsi de ces deux critères des « critères de stratification implicites », des différences non négligeables peuvent exister entre échantillon et population, comme lors de l’enquête 2003 où l’on observe dans l’échantillon une sous-représentation du 1er degré et une surreprésentation de la 4e qualification267, différence de nature à peser sur les résultats de recherche. 265 Dans une première étape, les établissements sont sélectionnés en veillant à respecter ces deux critères. Ensuite, au sein de ces établissements, on tire aléatoirement 35 élèves. 266 Le fait que les trois communautés belges n’ont pas été ‘adjudicated’ en 2003 et que seule la Communauté flamande l’a été en 2006 ne veut pas dire que les normes de qualité de l’OCDE n’ont pas été respectées. Dominique Lafontaine explique cette absence de label par le coût du processus mais souligne que, dans les faits, l’échantillon de la Communauté française respecte les standards de l’OCDE. 267 Comparaison de la ventilation des élèves entre années d’études dans l’échantillon et dans la population (PISA 2003) Chiffres absolus % Communauté PISA Communauté PISA (annuaire 2003-2004) (annuaire 2003-2004) 123 4. Travaux d’analyse des données PISA en CFB Lorsqu’on passe à une échelle infra-nationale, comme c’est le cas en Belgique, la taille de l’échantillon devient encore plus contraignante puisque les effectifs diminuent268. Cela peut empêcher d’analyser les sous-groupes à faible effectif ou de croiser un nombre important de variables. Cela accroît également la marge d’erreur269 et donc la probabilité de mettre en évidence des différences ou des corrélations significatives. Aucune décision d’extension de l’échantillon n’a cependant été prise pour palier ces déficiences. De même, en dépit du fait que les résultats d’une enquête à l’autre ne sont pas très différents, aucun auteur n’a opté pour une concaténation des trois enquêtes en vue de pouvoir comparer les résultats de groupes à effectifs réduits (telle ou telle nationalité, par exemple). Une autre limite de la base de données est l’absence de certaines variables jugées cruciales pour la compréhension des processus. Plusieurs auteurs cherchent dès lors dans d’autres bases de données des informations concernant ces variables manquantes. Eurydice et d’autres indicateurs de l’OCDE sont ainsi parfois sollicités pour des variables plus structurelles (ULg 18, par exemple). De même, l’enquête PIRLS de 2001 a été utilisée en relation avec PISA 2000 pour tenter d’établir des liens de causalité entre la longueur du cursus organisé en tronc commun et les résultats des pays (UCL 4). Mais de telles solutions alternatives montrent vite leurs limites. Hormis pour des variables structurelles ou extra-sectorielles, rien ne remplace vraiment l’usage direct de données propres à une même enquête. Les variables importées ne peuvent donc, sauf exception, 1er degré 4.337 4,3 % 8,0% 3e transition 7.846 13,4 % 14,5% 3e qualification 11.087 21,2 % 20,4% 4e transition 21.523 40,6 % 39,7% 6.559 15,7 % 12,1% 780 1,1 % 1,4% 2.086 3,7 % 3,8% 54.218 100 % 100,0% 4e qualification 3e degré Spécialisé Total 2.940 Source des données : pour PISA : ULg 8, p. 16 ; pour la Communauté française : annuaire statistique 2003-2004. 268 Les obligations par pays étaient, en 2003, d’avoir des données pour au moins 150 écoles et 5.000 élèves. L’échantillon de la Communauté française comptait 99 établissements et 2.818 élèves en 2000, 103 établissements et 2.940 élèves en 2003, 97 établissements et 2.890 élèves en 2006 (contre 4.651 en Flandre et 467 en Communauté germanophone). 269 « Le nombre d’écoles impliquées dans l’enquête étant moins élevé pour une entité subnationale comme la Communauté française que pour un pays, l’erreur d’échantillonnage sur les résultats des élèves y est nécessairement plus importante que celle qui affecte les résultats nationaux » (ULg 1, 2004, 81). 124 4. Travaux d’analyse des données PISA en CFB servir qu’à établir, avec prudence, des comparaisons entre les résultats des différentes enquêtes (voir ci-dessus), à explorer empiriquement une hypothèse que la base de données PISA ne permet pas de vérifier, ou à être injectées, au même titre que les données issues de PISA, dans un modèle économétrique élaboré à partir de bases de données disparates (UCL 8 et 9). Ces diverses pistes ne constituent en fait qu’un pis-aller par rapport à d’autres pistes consistant à élargir l’échantillon, à compléter le questionnaire ou à mettre en place un suivi longitudinal des élèves. Dans les textes de notre corpus, il y a donc traces d’un débat sur l’utilité des bases de données internationales en général, et de celle-ci en particulier, pour comprendre les systèmes nationaux. Certains soulignent l’apport de telles données (extraits 1 et 2), même si c’est avec quelques réserves D’autres, plus dubitatives (extrait 2), mais d’autres soulignent qu’il est difficile d’identifier précisément les particularités structurelles ayant un réel impact et de classer clairement les pays et régions en fonction de ces éléments structurels (extrait 3). « Les analyses secondaires de PISA 2006 présentées ici illustrent le potentiel de l’éducation comparée. Le regard qui est posé par le chercheur à travers les différents systèmes d’enseignement, s’il s’appuie sur des modèles statistiques appropriés, appliqués à des données de qualité, permet de faire émerger les ressemblances entre systèmes éducatifs et, complémentairement, de débusquer leurs spécificités. Il permet ainsi de montrer que certaines caractéristiques structurelles des systèmes d’enseignement influent sur les performances des élèves » (ULg 16, 2008, 63). « Comme Hanushek et Woessmann (2005) le mentionnent, il est extrêmement difficile, comme le demandent généralement usagers et politiciens, d’évaluer l’impact de structures particulières, comme l’existence de filières organisées de manière précoce dans le cursus des élèves ou le redoublement, sur l’efficacité ou l’équité d’un système éducatif. Le recours à des comparaisons internationales est donc à la fois utile pour estimer l’ampleur relative d’un phénomène et les modalités organisationnelles qui y semblent associées » (ULg 18, 2008, 137-138). « La multiplicité et la diversité systémiques des contextes nationaux susceptibles d’influencer la variabilité de la différenciation sociale au sein des établissements limitent la validité et la pertinence d’analyses internationales. Dans certains systèmes éducatifs, la dichotomie entre enseignement public et enseignement privé payant peut s’avérer prépondérante dans la compréhension des mécanismes de différenciation et de ségrégation alors que, dans d’autres, il s’agira des filières d’enseignement, ou bien du quasi-marché scolaire, de l’offre éducative généralement plus importante en milieu urbain […]. L’étude des mécanismes de ségrégations sociale académique doit donc s’opérer pays par pays, afin de mieux prendre en compte les spécificités nationales. Ce travail nécessite une connaissance approfondie des structures des systèmes éducatifs270 » (ULg 17, 2009, 156). Questions de recherche En dépit des limites et chausse-trappes décrites ci-dessus, la plupart des auteurs utilise les données PISA pour mettre en évidence des associations (si possible causales) entre des phénomènes. Ce type de connaissance, comme déjà souligné, est particulièrement utilisé dans le processus d’action publique pour assoir des problématisations ou des préconisations. Les questions que se sont posés les auteurs des textes du corpus peuvent être regroupées en différentes catégories selon qu’elles s’intéressent aux effets (1) des variables individuelles (et particulièrement des variables de genre, socioéconomiques et 270 Ce qui amène d’ailleurs ces auteurs à focaliser une partie de leur travail de comparaison sur les Communautés française et flamande. 125 4. Travaux d’analyse des données PISA en CFB ethniques)271 ; (2) du mode de regroupement des élèves (par établissement, mais aussi par filière ou année)272 ; (3) des structures et modes de régulation (libre choix, réseau)273 ; (4) des variables attitudinales274 ; (5) des TIC275 ; (6) des variables sociétales276. Une catégorie spécifique d’étude est celle qui se préoccupe d’identifier les facteurs expliquant les différences de résultats entre pays ou régions différentes, et particulièrement entre les Communautés française et flamande. Certains de ces thèmes ne sont traités que par l’ULg (genre, attitudes, TIC). Le thème du regroupement des élèves est assurément le plus étudié et discuté. C’est pourquoi nous analyserons ce thème en détail dans les pages qui suivent. Les effets du regroupement des élèves (effet établissement et effets des structures curriculaires) La question de l’effet du mode de groupement des élèves est l’une des questions centrales posées à partir des données PISA. Dans le corpus étudié, cette question est essentiellement posée par les chercheurs de l’ULg et du Girsef, et de manière quelque peu différente par l’APED. Les deux premiers s’intéressent essentiellement à l’effet établissement, une notion qui désigne les « différences de performances entre établissements qui ne peuvent pas être attribuées à des différences inter-individuelles entre élèves » (UCL 3, 2007, 86). Ils utilisent les données PISA pour montrer que la Belgique francophone (et aussi flamande) se situe dans le groupe des pays pour lesquels les effets établissements sont particulièrement élevés. Départager les effets des variables individuelles et des variables collectives (d’agrégation) est donc le premier souci des chercheurs, comme l’indique de titre d’une des sections du livre écrit par Dominique 271 Genre (ULg 1 pp. 88-91, ULg 4 pp. 31-32, ULg 7 pp. 71-74, ULg 8 pp 83-89 et 147-168, ULg 9 pp 81-88 et 196-199, ULg 12, ULg 15 pp. 176-200). Variables socioéconomiques (ULg 1 pp. 93-94, Ulg 4 pp. 37-41, ULg 7 pp. 82-87, ULg 8 pp. 94-100, ULg 9 pp. 93-100 et 116-119, ULg 15 pp. 209-214, APED 1 pp. 3-5). Variables ethniques (ULg 1 pp. 95-99, ULg 4 pp. 34-37, ULg 7 pp. 77-82, ULg 8 pp 90-92, ULg 9 pp. 89-93 et 116-119, ULg 15 pp. 201-208, ULB 1, APED 1 pp. 6-7, APED 3, APED 4). 272 Effet établissement (ULg 1 pp. 90-92, ULg 3 pp. 102-103, ULg 6 pp. 17-19, ULg 7 pp. 129-155 et 158-178 et 180-189, ULg 8 pp. 169-200, ULg 9 pp 131-151, ULg 13, ULg 15 pp. 225-258, ULg 16, ULg 17, UCL 1, UCL 2, UCL 3, UCL 6, + UCL 7). Structures curriculaires (ULg 4 pp. 32-34, ULg 7 pp. 74-76, ULg 8 pp. 101-106, ULg 9 pp. 101-113, ULg 14, Ulg 15 pp. 215-224, ULg 18, APED 1 pp. 9-13, UCL 6). 273 Libre choix (APED 2, APED 5). Réseau (ULg 8 pp. 107-109, ULg 9 pp. 114-115 et 122-127, APED 2 pp. 13- 14, MR 1). 274 ULg 2 pp. 83-87 et 92-96, ULg 6 pp. 20-21, ULg 7 pp. 96-119, ULg 8 pp. 115-144, ULg 9 pp. 155-223, ULg 11. 275 ULg 7 pp. 120-128, ULg 8 pp. 147-168. 276 FUNDP 1, UCL 4, UCL 8, UCL 9. 126 4. Travaux d’analyse des données PISA en CFB Lafontaine et Christiane Blondin : « Ecole fréquentée et/ou caractéristiques individuelles : qu’est-ce qui compte le plus ? » (ULg 15, 2004, 250). Au-delà, les chercheurs s’intéressent à décomposer cet effet établissement et ainsi à l’expliquer, tout en soulignant l’existence d’au moins trois obstacles méthodologiques. (1) Les données PISA n’offrent pas la possibilité d’analyser conjointement l’effet établissement et l’effet classe, puisqu’aucune donnée par classe n’est disponible277. (2) « Une deuxième difficulté concerne l’absence, dans PISA 2000, de mesure du niveau initial des acquis scolaires 278 » (UCL 3, 2007, 98). (3) Troisième obstacle : la définition même de l’établissement varie d’un pays à l’autre. Alors que, depuis 2003, la Belgique francophone construit son échantillon sur la base de l’établissement plutôt que de l’implantation, la Flandre a effectué le trajet inverse. Cette différence peut avoir des répercussions sur le classement des pays et régions279, et le choix finalement opéré par la Communauté française privilégie la référence à des entités administratives plutôt qu’à des lieux de vie, ce que déplorent des chercheurs de l’ULg, pour qui « l’unité ‘implantation’ présente l’avantage de permettre des analyses plus fines puisque certains établissements présentent des implantations assez différentes (par exemple, une implantation d’enseignement général et une d’enseignement qualifiant) ». Vu l’absence de données à l’échelle de la classe, l’absence de mesure du niveau scolaire initial, la définition de l’établissement sur une base administrative ne correspondant pas 277 « Aucune des grandes enquêtes internationales menées à l’initiative de l’IEA [...] ou de l’OCDE (PISA) ne présente un plan d’échantillonnage qui permet une décomposition de la variance entre écoles, entre classes et entre individus » (Lafontaine, in Dictionnaire de l’éducation, p. 216). De ce fait, comme le constatent Vincent Dupriez et Xavier Dumay, « la force de nos résultats se voit [...] limitée par [les] modalités d’échantillonnage, basées sur l’établissement scolaire, ce qui rend impossible la modélisation du niveau ‘classe’ comme niveau d’analyse intermédiaire » (UCL 3, 2007, 98). Comme le dit Vincent Vandenberghe “These results should be considered with the usual reservations. They are based on a definition of ability segregation that completely ignores the possibility of inter-classroom segregation. This is certainly a shortfall as classroom formation based on actual or perceived ability of students is commonplace across most educational systems” (UCL 6, 2004, 14). 278 « Cette difficulté a toutefois été dépassée de manière satisfaisante dans la présente exploitation de PISA 2000, en ne gardant dans notre étude que les pays où il est fait un usage important du redoublement scolaire et en utilisant cette information comme un indicateur des compétences initiales des élèves » (UCL 3, 2007, 98). 279 Les auteurs liégeois font en effet l’hypothèse que la part de variance entre écoles plus forte en Flandres qu’en Communauté française (PISA 2006) « résulte davantage des options prises en matière d’échantillonnage plutôt que d’un réel écart entre les communautés » (ULg 9, 2009, 134). Ils remarquent aussi, en note, que « le changement de modalité d’échantillonnage doit avoir une influence sur la manière dont la variance entre écoles, et entre élèves à l’intérieur des écoles se distribue, bien qu’il soit difficile de déterminer si cette différence est de nature à augmenter ou diminuer la variance entre écoles » (ULg 7, 2001, 162). 127 4. Travaux d’analyse des données PISA en CFB toujours à une entité de vie280 et parfois la dispersion de la population de l’établissement dans différentes années et filières, les pièges méthodologiques et interprétatifs sont nombreux, rendant difficile la mise en évidence des effets cumulés des processus de sélection scolaire antérieurs, la dissociation des effets classe et établissement, à distinguer effets de composition et de pratiques, etc. Aucune des études menées en Communauté française ne parvient à éviter tous ces pièges. En outre, toutes n’attirent pas l’attention du lecteur sur ceux-ci. Une étude menée par Christian Monseur et Dominique Lafontaine (ULg 17) pallie certaines de ces limites en distinguant trois types d’école (écoles de transition, écoles de qualification, écoles mixtes) puis en mesurant et décomposant la variance entre écoles au sein de chacun de ces trois groupes. Cette étude évite ainsi dans une certaine mesure la confusion entre effets établissements et effets de filières. Plusieurs études du Girsef (UCL 1 et 3), quant à elles, visent à distinguer l’effet de la composition, l’effet des processus pédagogiques et organisationnels et l’effet joint de ces deux processus, la thèse majeure des auteurs étant que « les processus organisationnels et pédagogiques observés dans les établissements ne sont pas indépendants de la composition de ces derniers, et que l’articulation de ces deux paramètres explique une part importante des différences entre établissements scolaires » (UCL 3, 2007, 79-80). Conclusions tirées des analyses par les auteurs Des problèmes similaires à ceux détaillés ci-dessus existent aussi quand on essaie de traiter d’autres questions de recherche. Cet exemple illustre que nombre de résultats en termes de causalité demeurent fragiles. Du reste, même si certains auteurs soulignent les avancées qui ont été permises par l’analyse des données PISA281, plusieurs articles mettent en garde contre des interprétations trop rapides ou radicales. Ils soulignent la complexité de l’analyse et la difficulté à dissocier le poids des diverses variables. C’est d’abord contre la mise en évidence du poids d’une seule variable que des auteurs mettent en garde282, mais certains soulignent également que les analyses multivariées ne 280 En 2006-2007, on comptait, dans l’enseignement secondaire ordinaire 508 établissements et 695 implantations. 281 « On le voit, les analyses menées sur les bases de données internationales ont permis de faire avancer considérablement, au cours des dix dernières années, la compréhension des mécanismes généraux qui contribuent à rendre les systèmes éducatifs plus justes et plus efficaces » (ULg 17, 2009, 145). 282 « Bien des variables scolaires, dont on pourrait penser qu’elles vont sûrement influencer les performances des élèves, comme une discipline plus grande, des attentes ou des exigences plus élevées envers les élèves, le volume de devoirs à domicile ou encore la taille des classes, sont sans réel impact parce, vraisemblablement, leurs effets sont potentiellement confondus avec ceux d’autres variables » (ULg 7, 2003, 189). « La différenciation des publics selon les établissements n’est cependant pas seule en cause, car certains pays parviennent, malgré d’importantes différences entre établissements, à des différences socio-économiques inférieures à la moyenne (voir par exemple l’Autriche, la Grèce et l’Italie) » (ULg 1, 2004, 95). 128 4. Travaux d’analyse des données PISA en CFB donnent pas toujours des résultats robustes. En outre, il leur est difficile de présenter de tels résultats de manière aisément compréhensible par les profanes. Au final, la mise en évidence de résultats lisibles et robustes paraît souvent une gageure283. Dans la majorité des textes, le principal message s’avère finalement être qu’il faut rester prudent. 4.3 Transformation des connaissances en arguments Si les comparaisons/classements et les associations/explications constituent en tant que tels des formats de connaissance susceptibles d’intéresser les acteurs impliqués dans l’action publique, d’autres formats de connaissance, que nous nommons ‘arguments’ sont plus directement utilisables par les acteurs intervenant dans le cours de l’action publique. Ces arguments ont pour caractéristique d’énoncer quels sont les problèmes dont il convient de s’occuper ou quelles préconisations sont pertinentes. Les documents du corpus contiennent de tels arguments. Ils sont parfois le signe d’une intention délibérée d’intervention des auteurs dans les débats publics. Mais il peut s’agir aussi d’une mise en forme non destinée à peser sur le cours de l’action publique, mais qui est de nature à être perçue comme une ressource par des acteurs plus directement impliqués dans cette action, ressource dont ils se saisissent quand il leur faut répondre aux épreuves que d’autres acteurs font subir à leurs problématisations et préconisations ou quand ils cherchent à mettre à l’épreuve les problèmes et préconisations défendus par ces autres acteurs. Ces arguments sont étroitement liés aux formats de connaissance décrits au point précédent. Ils s’appuient généralement sur eux, les problématisations et les préconisations étant justifiés par des comparaisons/classements ou des associations/ explications. Ce passage des connaissances aux arguments s’accompagne généralement d’un passage du constat au propositionnel, de l’énoncé prudent d’une hypothèse à l’affirmation d’une vérité, de la corrélation à la causalité,…. Ces transformations impliquant le passage des connaissances aux arguments sont assez fréquemment opérées par des acteurs autres que ceux qui produisent les connaissances. Mais ici, les deux transformations sont effectuées par le même acteur qui, à un moment donné, 283 « Il est difficile d’expliquer pourquoi l’engagement envers la lecture compense plus dans certains systèmes éducatifs que dans d’autres les inégalités liées au milieu social des élèves. D’autres facteurs doivent entrer en ligne de compte, mais il est impossible d’affiner l’analyse, en raison de la petite taille de certains groupes d’intérêt » (ULg 11, 2003, 40). « Il est souvent frustrant de ne pouvoir dégager des causes et des effets qui permettraient de détecter et de remédier plus facilement aux problèmes : c’est que non seulement ils sont imbriqués, mais qu’ils se renforcent également les uns les autres. Il en est ainsi des pratiques de lecture, de la motivation à lire, et des performances en lecture. La relation triangulaire est aisée à imaginer, mais les liens semblent tellement étroits qu’il est délicat de cerner une dimension, de l’extraire du modèle et d’en déterminer précisément l’impact » (ULg 11, 2003, 35). « Il convient néanmoins de rester prudent quant aux résultats de la présente étude, compte tenu d’une part de la nature corrélationnelle de l’étude dans un domaine où les interactions sont multiples, et d’autre part de la relative instabilité des résultats, fortement variables d’un contexte national à un autre » (UCL 3, 2007, 99). 129 4. Travaux d’analyse des données PISA en CFB franchit donc le pas de formater des arguments directement utilisables pour l’action publique. Dans les pages qui suivent, nous analyserons successivement comment, dans le corpus, les auteurs énoncent les problèmes et énoncent les préconisations. 4.3.1 Enoncer des problèmes Plusieurs textes du corpus définissent quels sont les problèmes, et ils le font en se basant sur les connaissances décrites ci-dessus284. Dans le corpus étudié, ce sont les comparaisons/classements et les associations/explications qui servent de base aux arguments où sont nommés les problèmes. Etant ainsi utilisées, les connaissances sont transformées selon un processus que nous décrirons avant d’étudier la nature des problèmes mis en évidence. Processus de formatage des arguments Pour amener un acteur public à prendre en charge un problème, il faut, en plus d’être capable de créer un rapport de forces - mais aussi pour créer ce rapport de force -, être en mesure de convaincre que la prise en charge de ce problème est possible et est importante. Convaincre que la prise en charge d’un problème est possible, c’est franchir les épreuves d’accessibilité et de compatibilité (en d’autres mots convaincre suffisamment d’acteurs que le problème peut être résolu, et qu’en plus il peut l’être sans générer ou aggraver ce qui constitue, aux yeux de certains, des problèmes d’une autre nature). Convaincre que la prise en charge d’un problème est importante, c’est réussir les épreuves d’importance et de hiérarchisation (autrement dit convaincre suffisamment d’acteurs que cette situation est réellement problématique et qu’elle l’est davantage que d’autres problèmes ‘concurrents’). Les textes du corpus contiennent des arguments dont les formats sont adaptés à chacune de ces épreuves. Ces arguments établissent un lien avec les connaissances décrites au point précédent. A travers l’usage de la conjonction ‘donc’, du verbe ‘démontrer’ ou d’expressions telle que ‘il ressort clairement de’, ces arguments utilisent les comparaisons/classements ou les associations/explications que génère PISA pour justifier que telle ou telle situation soit identifiée comme un problème dont il faut s’occuper. 284 De fait, « dans le processus d’émergence et de maintien d’un problème, les connaissances servent […] à formuler les questions tout autant que les réponses aux épreuves de dénomination (“ce n’est pas la bonne manière de nommer le problème”), d’importance (“le problème n’est pas si grave que vous le dites”), d’accessibilité (“c’est un problème qu’on ne peut de toute façon pas résoudre, une finalité inaccessible”), de hiérarchisation (“il y a des problèmes plus importants auxquels nous devons accorder la priorité”), de compatibilité (“le lien de causalité que vous établissez avec ce que nous identifions tous comme problème majeur n’est pas convaincant” ou “les propositions envisageables pour résoudre le problème que vous dénoncez vont générer ou amplifier d’autres problèmes”) » (Delvaux et Mangez, 201). 130 4. Travaux d’analyse des données PISA en CFB Assez souvent, cependant, ces arguments ne reposent pas seulement sur PISA mais également sur d’autres connaissances tirées de la littérature, de l’expérience ou de théories de l’action plus ou moins explicitées. C’est possible (épreuves d’accessibilité et de compatibilité) Un problème, avons-nous dit, a plus de probabilité d’être mis à l’agenda lorsqu’il est à la fois perçu comme gérable et comme pouvant être traité sans générer d’autres problèmes. Certaines conclusions des textes du corpus proposent des arguments pouvant être mobilisés pour prouver que l’objectif est atteignable (épreuve d’accessibilité) ou que le problème peut être résolu sans en générer d’autres (épreuve de compatibilité). Les problématisations en termes d’inéquité subissent souvent cette seconde épreuve de compatibilité. Avec l’argument classique du nivellement par le bas, les adversaires de cette problématisation mettent en effet souvent en exergue le risque que des actions menées au nom de l’équité nuisent à l’efficacité. Dès lors, pour que les acteurs fassent de la lutte contre les inégalités un objectif prioritaire, montrer que d’autres pays parviennent à concilier égalité et efficacité n’est pas anodin. Et c’est ce que font plusieurs auteurs du corpus285. En montrant que l’équité n’est pas incompatible avec l’efficacité (épreuve de compatibilité) et qu’en outre elle est atteignable (épreuve d’accessibilité), ils font ainsi d’une pierre deux coups. Les comparaisons internationales jouent donc un rôle important dans l’argumentation qui peut être mobilisée pour convaincre qu’il est possible de prendre en charge un problème, par exemple celui de l’engagement dans la lecture. « Les faibles lecteurs ne sont pas distribués uniformément entre les catégories sociales. Ce constat aux allures de lapalissade prend un nouveau sens lorsque l’on se rend compte – et seules des études internationales permettent ce genre d’analyse – que les déterminants socioculturels ne jouent pas partout avec la même acuité, que certains pays produisent un grand nombre de lecteurs très compétents, issus de tous les milieux sociaux » (ULg 11, 2003, 44). Cet argument permettant de franchir l’épreuve d’accessibilité consiste à dire que, puisque dans d’autres pays, l’engagement dans la lecture est moins dépendant de l’origine socioculturelle, il est possible de faire de l’élévation de l’engagement un objectif réaliste. C’est important (épreuves d’importance et de hiérarchisation) 285 « Il est donc possible de se montrer plus équitables sans rien perdre en efficacité. C.est l’un des enseignements majeurs de PISA » (ULg 4, 2003, 10). « On n’observe pas de relation très nette entre le score moyen et l’ampleur des écarts. Cependant l’exemple de la Finlande […] démontre qu’un niveau de compétence élevé chez les élèves ne s’accompagne pas nécessairement d’un accroissement des écarts entre les meilleurs et les moins bons élèves » (Ulg 1, 2004, 83). « Certaines études semblent même indiquer que l’inéquité sociale et/ou académique pourrait nuire à l’efficacité du système éducatif » (ULg 17, 2009, 162). « On soulignera que des systèmes éducatifs très différents d’un point de vue géographique, linguistique ou culturel arrivent à concilier l’excellence des résultats tout en minimisant le poids du milieu social des élèves » (ULg 9, 2009, 96). 131 4. Travaux d’analyse des données PISA en CFB L’épreuve d’importance, qui consiste à convaincre qu’une situation est problématique, est rarement ‘gagnée’ par le seul fait de l’évocation d’un mauvais classement. Il faut souvent, de manière complémentaire, mobiliser les associations/explications, autrement dit établir un lien entre le problème qu’on veut mettre à l’agenda et un autre dont la particularité est d’être déjà socialement reconnu comme étant important. Les textes analysés fourmillent d’arguments de ce type qui viennent parfois appuyer d’autres types d’arguments, et notamment ceux fondés sur les classements. L’épreuve de hiérarchisation, quant à elle, consiste à poser la question de la hiérarchie à établir entre les (très) nombreux problèmes. Certains arguments ont un format adapté à ce type d’épreuve, par exemple ceux qui comparent différents classements. Ainsi plusieurs auteurs jugent-ils qu’il est plus important de s’occuper des élèves ‘faibles’ que des élèves ‘forts’ car, si les performances de ces derniers sont plus ou moins à la hauteur des performances des meilleurs élèves des autres systèmes éducatifs, ce n’est pas le cas des autres286. Nature des problèmes mis en évidence Les deux problèmes majeurs que les documents du corpus mettent en évidence sont l’inéquité et la ségrégation. Les mauvaises performances en lecture et les inégalités entre filles et garçons sont moins fréquemment évoquées. Mais les arguments ne sont pas seulement utilisés pour défendre une problématisation particulière. Ils peuvent également servir à critiquer et à mettre à l’épreuve des problématisations adverses, comme celles qui consistent à lire les problèmes d’inégalités en termes ethniques plutôt que sociaux287. Nombreuses sont les phrases défendant l’objectif d’une plus grande équité. Non seulement, comme dit plus haut, de nombreux auteurs soulignent qu’équité et efficacité ne sont pas deux objectifs incompatibles, mais des arguments visent à convaincre que c’est à travers la poursuite de l’équité que le système éducatif est susceptible d’améliorer son efficacité288. L’objectif d’équité, en plus d’être justifié par le fait qu’il ne s’oppose pas 286 « Les performances enregistrées par les élèves à l’heure, en particulier dans la filière de transition, sont d’un bon niveau. En revanche, les performances des élèves en retard scolaire, et principalement dans la filière qualifiante, sont un sérieux motif d’inquiétude » (ULg 5, 2004, 9). 287 « Il semble bien que l’influence de la variable immigration comme celle de la variable ‘langue parlée à la maison’ soit ‘engloutie’ dans l’effet exercé par le statut socio-économique et culturel de la famille d’origine des élèves. Ce constat a son importance en matière de politique de lutte contre les inégalités de réussite à l’école : en cherchant et en trouvant les moyens de juguler les effets préjudiciable de l’origine sociale, on agit du même coup sur les inégalités liées à l’immigration et à la langue parlée à la maison » (ULg 16, 2008, 64). 288 « Si l’on veut améliorer de façon sensible les performances, il faut en priorité s’atteler aux problèmes des élèves en grande difficulté, fréquentant pour l’essentiel les filières de qualification, souvent en retard dans leur parcours scolaire et concentrés dans certains établissements » (ULg 5, 2004, 9). 132 4. Travaux d’analyse des données PISA en CFB à l’objectif d’efficacité mais peut y contribuer, est en outre présenté comme conforme aux objectifs démocratiquement définis et aux évolutions de la société289. La ségrégation est l’autre grand problème nommé dans le corpus. Aux yeux de ceux qui mettent l’accent sur ce problème, ce qui justifie de s’en préoccuper, c’est non seulement le fait que le taux de ségrégation est, en Communauté française, comparativement très élevé, mais c’est aussi le fait qu’un lien de causalité est établi entre les ségrégations et les inégalités. Ce lien de causalité est important car, en Communauté française, les inégalités sont, davantage que les ségrégations, reconnues comme un problème dont il importe de se préoccuper290. On le voit : une fois de plus, classements et explications sont conjointement mobilisés pour constituer un argument. Deux autres problèmes sont exclusivement identifiés par des auteurs de l’ULg. D’une part, le problème des inégalités entre les sexes291. D’autre part, celui des mauvaises compétences en lecture, dont l’importance est justifiée non seulement par les mauvais classements de la Communauté française, mais aussi par l’argument traditionnel soulignant l’impact de la lecture sur l’acquisition d’autres compétences292. 289 « L’intérêt pour l’équité des systèmes éducatifs dépasse largement une vision généreuse et un consensus rhétorique sur la contribution du système éducatif au bien-être et au développement de tous. […] Tout d’abord, du point de vue de l’égalité des chances et des acquis de base, il s’agit d’observer dans quelle mesure le système éducatif en Communauté française répond effectivement aux objectifs qu’il s’est lui-même fixés, c’està-dire de doter tous les élèves de 15 ans des savoirs et compétences qui leur permettront d’apprendre tout au long de la vie et de prendre une place active dans la vie économique, sociale et culturelle […]. Par ailleurs, d’un point de vue socioéconomique global, il est aujourd’hui largement reconnu que le système éducatif occupe une place centrale dans l’évolution sociale, économique et culturelle des sociétés, et que les jeunes exclus du système scolaire sans avoir atteint un niveau de formation suffisant risquent de s’exclure du même coup du marché du travail et de freiner alors potentiellement l’essor même d’une région ou d’un pays » (ULg 9, 2009, 79). 290 « Notre contribution consiste notamment à confirmer la généralité et quasiment l’universalité des effets pervers des phénomènes d’agrégation. L’ampleur de ces phénomènes, ainsi que celle de leurs incidences négatives, varie selon les pays, mais leur caractère préjudiciable est partout avéré. […] Les analyses présentées ici montrent clairement que, plus les systèmes d’enseignement sont marqués par des phénomènes d’agrégation, plus la dispersion des performances est élevée et plus leur moyenne au niveau du pays est faible. Cette convergence des résultats ainsi que leur généralité et leur réplication doivent donner à réfléchir aux responsables du système éducatif. Il nous semble que le doute n’est plus permis : pour réduire l’ampleur des inégalités de réussite à l’école et pour accroître la rentabilité générale des systèmes éducatifs, il convient d’endiguer autant que faire se peut les phénomènes d’agrégation » (ULg 16, 2008, 64). 291 292 « Il y a encore du chemin à parcourir au niveau de l’égalité homme / femme » (ULg 8, 2004, 142). « En Communauté française, une proportion trop importante de garçons éprouve des difficultés face à la lecture d’un support écrit et l’on peut craindre que ces faiblesses se répercutent dans d’autres domaines 133 4. Travaux d’analyse des données PISA en CFB 4.3.2 Enoncer des préconisations Les articles du corpus fournissent également un certain nombre d’arguments dont peuvent se saisir les acteurs lorsqu’ils cherchent à convaincre qu’une préconisation est pertinente (permet de résoudre le problème identifié), compatible (n’engendre pas d’autres problèmes ou des effets pervers) ou concrétisable (les ressources nécessaires ne manquent pas et les éléments de contexte sur lesquels on peut difficilement agir ne rendent pas impossible la mise en œuvre de la préconisation). Mais, comme nous l’avons vu également dans le cas des problèmes, les arguments présents dans le corpus ne servent pas seulement à faire franchir certaines épreuves aux préconisations. Ils sont également utiles pour mettre à l’épreuve des préconisations adverses, comme celles défendant des politiques d’accountability293 ou des politiques ciblant les élèves d’origine étrangère294. Processus de formatage des arguments Dans les textes analysés, les arguments utilisables pour la fabrication de préconisations sont surtout liés à l’épreuve de pertinence, dans une moindre mesure à l’épreuve de compatibilité, et quasi jamais à l’épreuve de faisabilité. Autrement dit, ces arguments permettent surtout de convaincre qu’une préconisation est pertinente pour résoudre le problème-cible et, dans une moindre mesure, à convaincre qu’elle ne va pas générer des problèmes. Dans les deux cas, ce sont à nouveau des comparaisons/classements et les associations/explications qui servent de base à l’argumentation. Les premières permettent de souligner certains traits des systèmes éducatifs réputés efficaces, traits qui peuvent ensuite être présentés comme des éléments qui devraient être implantés évalués dans les études PISA ou, plus largement, que ces difficultés les handicapent dans leur scolarité » (ULg 9, 2009, 83). Les compétences en lecture sont également justifiées en référence à l’insertion professionnelle. « Dans les travaux menés en Communauté française de Belgique sur l’usage et la production de textes techniques dans les entreprises, on constate à quel point l’accès à l’écrit représente pour les travailleurs de base une condition, sinon pour l’embauche, en tout cas pour le maintien de l’emploi, par exemple dans des situations de reconversion » (ULg 11, 2003, 4). 293 « Ce type de politique évite de considérer que la composition des établissements scolaires, en tant qu’effet ‘indirect’ peut jouer un rôle perturbateur par rapport à l’implantation de pratiques éducatives et managériales présentées comme idéales. [...] Les processus de responsabilisation des établissements basés sur une évaluation de l’effet net des processus scolaires tend, d’une part, à sous-attribuer la performance des établissements à l’équipe éducative, puisqu’une part significative de l’effet des processus consiste en un effet articulé, et d’autre part, plus fondamentalement, à nier le jeu complexe qui se construit entre les éléments de contexte et les pratiques professionnelles » (UCL 3, 2007, 97-98). 294 « Les jeunes allochtones ne sont ni des handicapés linguistiques, ni des déficients culturels. Ils souffrent avant tout, comme tous les enfants du peuple, d’un manque cruel d’encadrement à l’école, d’une ségrégation systématique vers des écoles ghettos et d’une orientation massive vers des filières de relégation dès les premières années de l’enseignement secondaire » (APED 3, 2006, 27). 134 4. Travaux d’analyse des données PISA en CFB dans le système éducatif moins performant, et ce même en l’absence de preuve de l’existence d’un lien de causalité entre ces traits et la meilleure performance. Quant aux associations/explications, elles permettent d’attribuer à certains facteurs un poids explicatif et, dans un second temps, de pointer ces facteurs comme des leviers d’action potentiels pour agir sur un problème. Dans les deux cas, un pas est franchi entre la connaissance formatée sous forme de classement ou d’association causale et la formulation de préconisations. Les auteurs des articles analysés franchissent ce pas avec plus ou moins de prudence. La prudence est davantage le fait des acteurs du monde académique, cadrés par les normes propres au monde scientifique295, mais le degré de prudence varie, et on peut trouver des accents différents dans des articles signés par un même auteur ou groupe d’auteurs296. La 295 Vincent Dupriez et Xavier Dumay, entre autres, adoptent une attitude prudente qui tend à montrer la difficulté qu’il y a à passer du constat d’une corrélation à une proposition. Ils soulignent d’abord que, « dans l’état actuel des connaissances sur les systèmes scolaires, on peut considérer qu’une logique de différenciation des élèves, telle qu’elle se manifeste dans des filières précoces, dans un usage intensif du redoublement et dans la ségrégation entre établissements est propice à un accroissement des inégalités à l’école. Au contraire, une logique d’intégration est associée à une diminution des inégalités » (UCL 4, 2004, 15). Mais ils font aussitôt remarquer que « une telle conclusion pourrait pousser les décideurs et responsables éducatifs soucieux d’égalité à adopter et à importer dans leur pays les paramètres qui semblent être décisifs dans le mode de fonctionnement de certains systèmes scolaires. Nous pensons qu’une telle option peut certainement représenter un objectif à long terme, mais qu’il faut rester prudent quant à la capacité des acteurs scolaires à s’approprier un modèle venu d’ailleurs » UCL 4, 2004, 15). « Se contenter d’importer une caractéristique structurelle (la durée du tronc commun, par exemple) est […] problématique, si un travail parallèle, mais autrement plus complexe, n’est pas réalisé pour travailler avec l’ensemble des acteurs scolaires la signification d’un tel changement et la transformation des pratiques socio-pédagogiques qui doit l’accompagner. Les évolutions récentes des politiques éducatives en Belgique francophone sont à ce titre assez illustratives » (UCL 2, 2004, 15). Xavier Dumay et Benoït Galand poursuivent l’argumentation dans le même sens. « Au total, les analyses et le raisonnement développés dans ce chapitre ne soutiennent pas l’idée que l’un ou l’autre facteur serait principalement responsable de l’ampleur des inégalités de résultats en Communauté française de Belgique. Ces inégalités résultent, semble-t-il, du fonctionnement d’une série d’acteurs (parents, directions, équipes éducatives, etc.) au sein d’un système auquel ils contribuent tout en le détournant parfois. Ce constat souligne à la fois que chaque acteur peut agir à son niveau pour contribuer à réduire les inégalités, et que changer les règles du jeu demande sans doute un effort concerté et coordonné, en d’autres mots un projet collectif » (UCL 1, 2008, 203). 296 Parfois, les recommandations sont très affirmatives : « C’est clair : l’enjeu actuel n’est plus tant de faire lire (à coup de listes obligatoires, entre autres) que de motiver à lire et d’engager réellement les élèves dans la lecture » (ULg 11, 2003, 8). « Sans appel, ces chiffres insistent sur l’urgence d’établir un rapport de connivence, de familiarité et de plaisir au livre auprès de tous les jeunes francophones. D’autant que le temps consacré à la lecture pour le plaisir est associé positivement aux performances en lecture quelle que soit 135 4. Travaux d’analyse des données PISA en CFB dynamique propre de l’analyse quantitative tend à pousser les analystes à faire d’un facteur causal identifié comme ayant un impact positif un élément central de propositions d’action. Mais on sait combien le transfert d’un contexte à l’autre peut avoir un impact important sur la nature de la relation causale. Et ce constat, mis notamment en évidence par des travaux de sociologie compréhensive ou constructiviste, amène nombre des auteurs étudiés à prendre en compte ces contraintes de contexte et à faire preuve de ‘réalisme’, comme dans le cas de Nico Hirt, s’exprimant au nom d’une association militante297. L’attitude prudente de la plupart des auteurs se manifeste aussi par le fait que les propositions insérées dans le corpus restent presque toujours générales, assez peu précises, au point qu’elles se distinguent parfois malaisément de la simple identification d’un problème298. La proposition se résume alors à l’identification d’un élément sur lequel il convient d’agir (mais comment ? la question est laissée entière…). Dernier constat : les préconisations sont assez souvent présentées comme la déduction logique des constats faits à partir de PISA. Assez fréquemment cependant, le lien est moins direct et évident qu’il n’y paraît. Dans certains cas, il est fait appel à des connaissances scientifiques non issues de PISA avec la part d’incertitude liée à l’utilisation de données issues de recherches différentes. Dans d’autres cas, il est fait appel à des connaissances non fondées sur les méthodes scientifiques de validation empirique : connaissances d’expérience, mais aussi connaissances théoriques qui permettent, à partir d’un schéma théorique de compréhension de l’action humaine et des interactions sociales, de ‘combler les trous’ du raisonnement fondé sur des données empiriques. Nature des préconisations proposées l’année de scolarité étudiée – ce constat revenant invariablement à l’examen de toutes les évaluations externes disponibles » (ULg 11, 2003, 25). 297 « Le modèle finlandais doit-il, pour autant, être ‘transplanté’ en Belgique. Non, sans doute. Mais il nous appartient de trouver, dans le contexte géographique, social et culturel spécifique de notre pays, les voies qui permettront d’en finir avec l’ultra-libéralisme scolaire actuel. Si les rapports de force ne permettent guère d’imaginer, à court terme, une suppression de la liberté de choix, il ne saurait être question non plus de se contenter de vagues procédures de concertation non contraignantes entre établissements, dans le cadre par exemple d’une création de ‘bassins scolaires’ » (APED 2, 2005, 16-17). 298 « L’équité et l’efficacité en matière de performances scolaires sont indissolublement liées à la gestion de l’hétérogénéité des élèves. En favorisant celle-ci au niveau des écoles et des classes, il est possible de lutter efficacement contre les inégalités de réussite scolaire et, probablement, par voie de conséquence, professionnelle. Les bons résultats obtenus aux enquêtes PISA par les pays dans lesquels la majorité des écoles peut se targuer de la mixité sociale de leur public en sont la preuve » (ULg 16, 2008, 64). 136 4. Travaux d’analyse des données PISA en CFB Lorsqu’on fait l’inventaire des préconisations proposées dans ces textes, on constate que la majorité d’entre elles porte sur les caractéristiques structurelles du système éducatif. Les propositions ciblant la pédagogie ou les facteurs externes au champ éducatif sont nettement moins fréquentes. Des réformes structurelles ? Les réformes structurelles proposées dans le corpus supposent, dans leur quasi-totalité, un renforcement du pouvoir régulateur de la Communauté française. Seul le texte du député libéral Alain Destexhe prône à l’inverse davantage d’autonomie, en fondant cette proposition sur le constat des meilleures performances de l’enseignement libre en Flandre et après avoir fait l’hypothèse que les performances de l’enseignement libre en Communauté française, moins nettement différentes de celles de l’officiel, s’expliqueraient par les contraintes grandissantes qui lui sont imposées de la part des pouvoirs publics299. Les autres auteurs s’inscrivent à l’inverse dans une argumentation en faveur d’une plus grande standardisation et d’une plus forte régulation. La recommandation d’une structure d’enseignement plus intégrée (recourant moins au redoublement et aux filières précoces) fait quasi consensus parmi les auteurs du corpus, même si elle est présentée de manière prudente, notamment par les chercheurs du Girsef qui indiquent que leurs analyses renforcent « l’hypothèse souvent exprimée […] que l’organisation ‘intégrée’ du système scolaire dans ces pays, maintenant une structure et un programme d’études communs à tous les élèves jusque 16 ans, permet de lutter contre les inégalités et de promouvoir un enseignement de qualité pour la grande majorité des élèves » (UCL 5, 2008, 182). Les chercheurs ne s’engagent guère plus loin dans cette perspective de réforme curriculaire voire, comme Marc Demeuse, Dominique Lafontaine et Marie-Hélène Straeten, s’appuient sur l’existence d’obstacles politiques à 299 « Des études internationales […] ont montré que l’autonomie des établissements (et notamment en matière d’engagement du personnel enseignant) était un facteur explicatif des bons résultats scolaires. Chez nous, les écoles de l’enseignement officiel sont particulièrement peu autonomes. Le nouveau statut du directeur en est un exemple presque caricatural […]. Dans le réseau communal et provincial, la politisation et/ou le favoritisme jouent encore un grand rôle. Dans le réseau de la Communauté française, toutes les décisions en matière d’engagement sont prises au sein de la ‘cellule de désignations’, partie intégrante du cabinet ministériel ». De ces constats, Alain Destexhe déduit les propositions suivantes : « 1. Sur la base des exemples étrangers, […] réaliser une étude approfondie sur l’impact de l’autonomie des écoles comme facteur de meilleure réussite des élèves. 2. […] mener des expériences pilotes au niveau de quelques athénées de la Communauté française : donner à la direction de l’établissement une grande autonomie dans l’organisation de l’école (y compris dans le choix des professeurs) sous le contrôle d’un conseil d’administration composé des pouvoirs publics (organisateurs et locaux) et de représentants élus des parents » (MR 1, 2008, 2). 137 4. Travaux d’analyse des données PISA en CFB une telle réforme pour recommander de travailler davantage par la mise en place de dispositifs de pilotage que par l’adoption de réformes structurelles radicales300. Quant au libre choix de l’école, l’APED elle-même, association connue pour sa revendication en faveur d’une régulation renforcée de cette liberté, se montre prudente. « Des mesures peuvent être imaginées qui, sans toucher au principe du libre choix, en atténueraient cependant fortement les effets ségrégateurs. [...] De telles mesures, parce qu’elles réduisent fortement le jeu de la concurrence entre établissements, pourraient alors s’accompagner d’une réelle autonomie locale, d’une participation accrue des parents et des élèves, tout en permettant une plus forte régulation centrale sur le plan des programmes et des modes d’évaluation » (APED 2, 2005, 16-17). Des pistes pédagogiques ? Même si elles sont plus fréquentes, les réformes structurelles ne sont pas les seules proposées dans les documents analysés. Des pistes d’action plus pédagogiques sont également identifiées. Elles le sont seulement par l’ULg et par l’APED, et dans deux directions très différentes. L’APED adopte une position radicale de réforme des programmes, qui emprunte nombre de ses traits aux réformes structurelles301. L’ULg, à l’opposé, ne propose pas de réformes de programmes, mais met en évidence certains facteurs qui sont à la fois associés à de bons résultats et à la portée des acteurs locaux. Ces facteurs sont relatifs à la motivation et à l’engagement des élèves. Ils sont présentés comme : (1) potentiellement efficaces302 ; (2) à la portée des enseignants eux-mêmes, sans nécessiter de réforme de structure303 ; (3) trop peu pris en compte304. 300 « La mise en œuvre de socles de compétences et d’un tronc commun était très certainement une solution de nature à limiter l’impact de ce mode de sélection. Il faut cependant reconnaître que jamais, jusqu’ici, un tel tronc commun n’a pu se mettre en place … et, plus significatif encore, les pratiques d’évaluation et de promotion sont totalement disparates d’un établissement à l’autre. […] Des mécanismes de pilotage […] devraient limiter progressivement les effets néfastes d’un système qui prétend orienter les carrières selon les intérêts des élèves, mais qui constitue plutôt dans les faits une vaste entreprise de tri et de relégation dans certaines filières où s’accumulent les handicaps » (ULg 14, 2004, 271). 301 « La Communauté française [a] pratiqué une sorte de fuite en avant dans des réformes pédagogiques et programmatiques peu fondées, profondément dérégulatrices et vouées à l’échec en raison des mauvaises conditions matérielles (budgets, encadrement...) où elles ont été imposées [...]. Une révision immédiate des socles de compétences et des programmes s’impose en Communauté française » (APED 1, 2008, 26-27). 302 « Même si le lien entre performances en littératie et environnement socioéconomique apparaît clairement, et qu’il reste important [...], les analyses indiquent aussi que le niveau d’engagement peut modifier la donne. [...] L’engagement aide à compenser les inégalités de départ dans 15 des 28 systèmes éducatifs de l’OCDE examinés » (ULg 11, 2003, 38-39). « Les réponses des élèves de la Communauté française témoignent [...] d’une grande responsabilisation par rapport aux enjeux environnementaux [...]. Comme les élèves les plus sensibilisés aux enjeux environnementaux ont de meilleures performances que les élèves moins sensibilisés, la 138 4. Travaux d’analyse des données PISA en CFB 4.4 Processus de transformation et action publique On présente généralement la recherche et l’action politique comme deux mondes clairement distincts. Il est par ailleurs fréquent que chacun de ces deux mondes se déclare déçu par l’autre. On trouve trace de ce type de plainte dans le corpus puisque des chercheurs de l’ULg regrettent que les précédents signaux d’alarme émis sur la base des enquêtes de l’IEA n’aient pas eu d’effet tangible et estiment dès lors que les constats énoncés sur la base de PISA ont « un goût amer de déjà-vu »305. A leurs yeux, même lorsque les enquêtes et recherches débouchent sur un large débat et sont entendues, comme dans le cas de PISA, les réflexions et les solutions mises en place par les acteurs des politiques publiques ne sont pas à la hauteur des défis. Analysant les raisons d’un tel phénomène, ils invoquent certaines caractéristiques du système politique propre à la Communauté française, où l’on a « appris à se méfier des guerres scolaires », où « les réformes ne peuvent s’envisager sans l’aval de l’ensemble des acteurs éducatifs », et où « seules les mesures qui ne fâchent pas [...] obtiennent l’adhésion des partenaires »306. prise de conscience collective des défis liés au développement durable peut être un levier pour développer la motivation et les compétences en sciences » (ULg 6, 2008, 22). 303 « Par chance, le degré d’engagement envers la lecture est une variable sur laquelle il est possible d’agir en développant davantage des pratiques pédagogiques qui visent le développement et le renforcement de la motivation pour la lecture » (ULg 12, 2004, 258). « Il nous paraît [...] fondamental d’insister sur l’impact de facteurs motivationnels, tant au niveau individuel qu’au niveau collectif, car si, à la lumière des résultats de PISA, les citoyens et les décideurs doivent s’interroger sur l’efficacité du système éducatif tel qu’il est structuré, les acteurs de terrain peuvent, grâce aux mêmes résultats, interroger leurs pratiques quotidiennes et trouver les meilleures voies possibles pour favoriser l’engagement de tous envers la lecture » (ULg 11, 2003, 43). 304 « Ce qu’il faut en retenir, c’est qu’au sein d’un établissement donné, les enseignants n’ont pas seulement à faire face à des variations importantes au niveau des performances de leurs élèves, mais aussi au niveau de leur motivation, de leur confiance en eux, de leur anxiété et de leurs stratégies d’apprentissage (éléments important auxquels d’aucuns sont peut-être moins sensibles a priori) » (ULg 8, 2004, 142-143). 305 « L’engouement public et médiatique soulevé par PISA a eu l’avantage de mettre – plus que jamais ? – au devant de la scène les questions de la place de la lecture et du niveau de compétence en littératie des jeunes en Communauté française. Pour les chercheurs et les acteurs des milieux éducatifs, les résultats de PISA ont cependant, et malheureusement, un goût amer de déjà-vu. [...] Voici une dizaine d’années que des évaluations externes, tant internationales que nationales, ne cessent de mettre en évidence les faibles compétences de beaucoup de nos jeunes lecteurs, en lien avec leurs pratiques et leurs attitudes de lecture » (ULg 11, 2003, 44). 306 « Si les problèmes de fond mis en avant par PISA semblent avoir été bien entendus, les solutions apportées dans la dernière mouture du ‘Contrat pour l’école’ restent timides au regard des défis à relever. Dans un pays qui a appris à se méfier des guerres scolaires, et où la liberté en matière d’enseignement est coulée dans le bronze de la Constitution, les réformes ne peuvent s’envisager sans l’aval de l’ensemble des acteurs éducatifs 139 4. Travaux d’analyse des données PISA en CFB Ces faits, estiment-ils, expliquent pourquoi les problèmes ne sont jamais traités à la racine. Mais une telle représentation de deux mondes aux rôles clairement distincts, l’un orienté vers l’analyse et le diagnostic, l’autre vers l’action et la recherche de compromis, mérite à tout le moins d’être nuancée. Sans nier l’existence de caractéristiques propres à chacun de ces deux ‘mondes’, on remarque en effet que l’analyse des données n’est pas réservée au monde scientifique et – fait plus important – que le processus de transformation des données en connaissances et en arguments fait partie intégrante du processus d’action publique et est en partie le fait du monde scientifique. Ce processus de transformation inclut notamment des processus de sélection et d’auto-sélection des acteurs travaillant les données et acquérant ainsi un certain pouvoir dans le travail d’interprétation (point 4.4.1). Transformant les données en connaissances et utilisant une part de celles-ci pour bâtir des arguments, ils font des choix dont la trace, souvent, se perd, ce qui contribue à donner forme à des certitudes (point 4.4.2). La nature des données PISA est l’un des éléments qui oriente ces acteurs vers la production de connaissances en termes de classements davantage que d’explications et vers la fabrication d’arguments énonçant davantage des problèmes que des préconisations (point 4.4.3). Divers facteurs et processus les amènent également à mettre en évidence certains problèmes et préconisations plutôt que d’autres (point 4.4.4). Ils guident également l’attention sur certains systèmes éducatifs présentés comme modèles, et sont ainsi vecteur de la circulation de mesures mises en œuvre dans ces systèmes et légitimées en partie du fait d’être mises en pratique dans des pays jugés plus performants (point 4.4.5). 4.4.1 Sélection et auto-élection des acteurs traitant les données Le fait que la Communauté française ne soit pas un pays a pour conséquence que les documents publiés par l’OCDE livrent assez peu de données et d’analyses directement [...]. Or, les débats animés autour du ‘Projet de contrat stratégique pour l’éducation’ ont montré la difficulté de rassembler la communauté éducative autour d’un projet d’envergure pour une école plus équitable. Seules les mesures ‘qui ne fâchent pas’, comme l’augmentation des taux d’encadrement dans l’enseignement fondamental, obtiennent l’adhésion des partenaires de l’école. Pour le reste, il faut bien reconnaître que les réformes plus ambitieuses devront sans doute être sacrifiées sur l’autel du compromis à la belge, et devront céder la place à une politique des tout petits pas. C’est ce qui s’était déjà passé suite aux résultats de la 3e étude internationale en mathématique et en sciences [...], dont les résultats n’avaient pas conduit à une réflexion en profondeur sur l’efficacité du système, mais avaient amené à une augmentation du nombre d’heures de sciences au 1er degré de l’enseignement secondaire. Et c’est ce qui semble se profiler suite aux résultats de PISA, qui, bien qu’ayant suscité un large débat autour de l’école, risquent de se traduire par le même type de mesure, touchant plus aux disciplines qu’aux structures » (ULg 8, 2004, 208-209). 140 4. Travaux d’analyse des données PISA en CFB formatées à l’échelle de cette entité institutionnelle. La question de savoir qui effectue le travail d’analyse des données spécifiques à la Communauté française n’en est que plus cruciale. Les critiques que le parti libéral adresse à ceux qui traitent les données PISA en Belgique et qui, à ses yeux, ne font pas preuve d’objectivité307, témoignent bien de l’importance de l’enjeu. Le fait que la base de données soit accessible à tous pourrait laisser croire que la sélection des acteurs se résume dès lors à des processus d’auto-sélection, fondés sur les compétences objectives, le sentiment de compétence, les centres d’intérêts ou les intérêts tous courts. Les deux premiers facteurs tendent à mettre sur la touche les non scientifiques, mais aussi les scientifiques non aguerris aux approches quantitatives (et notamment aux techniques des analyses multivariées). On pourrait penser que le troisième élément (les centres d’intérêts) détourne du travail d’analyse les chercheurs davantage intéressés par les processus micro que par les processus macro, mais un tel raisonnement est fragile car de nombreuses variables micro sont disponibles dans les bases de données PISA, et on a vu combien l’analyse de phénomènes macro était pour sa part elle-même confrontée à d’importantes limites découlant de la structure de la base de données. Le dernier élément (les intérêts) peut être invoqué pour expliquer pourquoi des acteurs comme le SeGEC (Secrétariat général de l’enseignement catholique), prioritairement intéressés par des données directement utilisables pour la régulation des actions locales, ne s’investissent pas dans le traitement direct des données PISA, qui présentent le désavantage d’être anonymes et de ne concerner qu’un échantillon d’établissements. L’auto-sélection ne suffit donc pas à expliquer comment s’opère la sélection des acteurs traitant des données PISA. Il y a également trace de processus de pouvoir. Car c’est au pouvoir politique et administratif que revient la décision de désigner qui est en charge de la gestion et du traitement de l’enquête PISA en Communauté française. Or, ce pouvoir n’a pas choisi de diversifier les acteurs travaillant sur les données PISA : en dehors du SPE (ULg), aucun des autres acteurs ayant travaillé sur PISA n’a en effet été financé à cette fin par la Communauté française. Au final, le double processus d’auto-sélection et de sélection est un des éléments – mais pas le seul308 – qui contribuent à ce que les connaissances et les arguments présents dans les textes du corpus vont plutôt dans le même sens. Et qui explique que les opposants se tournent dès lors vers les rapports de l’OCDE pour trouver de quoi argumenter en faveur d’autres lignes interprétatives, comme par exemple celle qui préconise un accroissement de l’autonomie des acteurs locaux. 307 308 Voir notamment débat parlementaire au Parlement de la Communauté française, PCF, 11/12/07, p. 40. Sur un certain nombre de points, les constats convergent, même quand les analystes viennent d’horizons très différents. 141 4. Travaux d’analyse des données PISA en CFB 4.4.2 Processus de transformation et d’estompement Les documents analysés jouent un rôle important dans le processus de transformation des données en connaissances, et des connaissances en arguments utilisés dans les débats et controverses relatifs aux politiques publiques. Contrairement à la perception répandue, il n’y a pas de division du travail tranchée entre la transformation des données en connaissances, qui serait réservée au monde scientifique, et la transformation de connaissances en arguments, qui serait exclusivement le fait du monde politique. Les frontières entre les deux mondes sont donc perméables et floues. D’une part, le processus de transformation (‘réduction’, ‘simplification’,…) commence bien avant l’appropriation politique, dans le cours même du travail d’analyse des données et du travail de présentation de ces analyses. D’autre part, certains scientifiques opèrent euxmêmes la transformation des connaissances en arguments (avec plus ou moins de prudence). Dans le cours de ce processus, deux phénomènes s’opèrent : d’une part, un relatif estompement de la visibilité des critères qui sont au fondement des classements ; d’autre part, un oubli relatif du précepte de prudence quand il s’agit de formuler des explications et des arguments. Estompement de ce qui au fondement des classements Le processus d’estompement des fondements des classements (et dès lors du caractère relatif de ces classements) est partiellement le fait des scientifiques et des quelques autres acteurs traitant directement les données PISA. De fait, la plupart des auteurs des textes du corpus passent complètement sous silence la question des critères servant de base aux classements. D’autres, après avoir soulevé cette question, justifient malgré tout la pertinence des classements et ne font pas systématiquement le rappel des effets potentiels des choix opérés. Ce processus contribue au phénomène d’estompement du caractère relatif de ces classements. Et ce phénomène, à son tour, explique en partie pourquoi, en Belgique francophone, l’évidence du mauvais classement de la Communauté française s’impose désormais aux yeux d’une large majorité de personnes bien que ce classement soit en partie dépendant des critères retenus et que ceux-ci soient toujours susceptibles d’être questionnés309. Comment donc expliquer ce phénomène d’invisibilisation du caractère relatif des classements ? Si l’on se refuse à invoquer comme facteur explicatif principal le fait que les auteurs des textes étudiés n’aient pas perçu le caractère relatif des classements, deux processus méritent d’être soulignés. D’une part, le fait que PISA, après une première 309 Sont notamment sujets à questionnements : les compétences mesurées, qui n’incluent qu’une partie des compétences visées en Communauté française, l’échantillonnage en fonction de l’âge plutôt que d’une année d’études, l’instabilité des méthodes de calcul des intervalles de confiance permettant de déclarer que les différences sont ou non significatives, l’absence de prise en compte de marges d’erreurs pour comparer la dispersion des résultats entre pays, la correspondance imparfaite entre échantillon et population du point de vue de la répartition entre années et filières,... 142 4. Travaux d’analyse des données PISA en CFB période d’incertitude quant à son acceptation, a pu assoir sa légitimité, notamment en offrant une base de données d’une rigueur, d’une accessibilité, d’une richesse et d’une extension géographique rares. D’autre part, le fait que les différents acteurs trouvent dans ces classements suffisamment d’éléments correspondant à leur ‘agenda’ (scientifique ou politique), et sont dès lors enclins à une certaine tolérance. Oubli du précepte de prudence lors des explications et des argumentaires Les expressions manifestant la prudence ou attirant l’attention sur les limites interprétatives sont fréquentes dans le corpus. La conscience de la nature multifactorielle des phénomènes semble assez partagée. La plupart des auteurs ne se sent pas autorisée à passer de l’identification d’un lien de corrélation à un lien de causalité, et de celui-ci à un argument où il serait recommandé de faire de cette variable un problème dérivé ou de l’action sur cette variable une piste propositionnelle. Beaucoup sont conscients que le passage du constat au propositionnel, du général au contextualisé n’est pas automatique. Cette retenue tient notamment à l’ethos scientifique de la majorité des auteurs, cadré par les codes, valeurs, normes, croyances et dispositifs de régulation propre au monde universitaire auquel ils appartiennent. Les deux auteurs non universitaires expriment d’ailleurs moins de soumission à ces codes scientifiques et moins de réserve à affirmer des opinions plus tranchées lorsqu’il s’agit d’énoncer des explications ou d’identifier des problèmes ou des propositions. En dépit de ces expressions de prudence dans l’interprétation, on observe cependant une tendance, même dans le chef des scientifiques, à ne pas suffisamment insister sur certaines faiblesses de la base de données310. De manière générale, ce manque de prudence est davantage de mise quand il s’agit d’arguments identifiant des problèmes que lorsqu’il s’agit d’explications causales ou d’arguments énonçant des préconisations. Cette tendance est favorisée par le fait que la Communauté française n’encourage pas, par sa politique de financement de la recherche ou par l’organisation de colloques centrés sur PISA, la confrontation des points de vue sur les données PISA. Ce n’est pas un hasard si, en tout et pour tout, au cours du processus de transformation des données en connaissances, deux points seulement ont fait l’objet de controverses plus ou moins publiques (entre l’ULB et l’APED sur le poids respectif des facteurs ‘origine ethnique’ et ‘origine sociale’ ; entre le MR et l’ULg, sur l’ampleur et l’explication des différences entre réseaux). 4.4.3 Classer davantage qu’expliquer énoncer des problèmes davantage que des préconisations La direction que prend la transformation des données en connaissances et des connaissances en arguments n’est pas seulement le fait des processus décrits plus haut. 310 Cas de l’analyse des effets établissements, rendus délicats du fait de la technique d’échantillonnage. 143 4. Travaux d’analyse des données PISA en CFB Elle tient aussi à la structure de la base de données elle-même, qui favorise, d’une part, les connaissances sous forme de classement plus que les connaissances sous forme d’explications, et d’autre part, les arguments énonçant des problèmes plus que les arguments énonçant les préconisations. Des classements plus que des explications Pour forger des arguments permettant d’assoir des problématisations ou des préconisations, les acteurs impliqués dans l’action publique usent notamment de comparaisons/classements et d’associations/explications. Notre étude montre cependant que les classements tirés des données PISA ont, en tous cas en Communauté française, plus de force persuasive que les explications tirées de PISA. Ce différentiel de force se manifeste dans le fait que le positionnement relatif de la Communauté française parmi les pays est mieux connu, est plus diffusé et fait davantage consensus que les explications d’une telle situation. Cela tient notamment au fait que les enquêtes PISA sont comparativement mieux formatées pour classer que pour expliquer. Elles sont assez mal outillées pour déboucher sur des explications solidement fondées. Car si l’enquête balaie un large champ de questions, elle n’est en revanche pas construite sur la base d’une hypothèse interprétative ciblée. Elle est en effet le fruit de compromis entre les acteurs provenant de mondes différents (Carvalho, 2009). Résultat : il y a un manque d’informations sur certaines variables, nécessaires pour analyser certains mécanismes qui jouent un rôle crucial au sein de certains pays, ou pour donner une explication aux différences observées entre pays. Cela conduit souvent les chercheurs à ‘bricoler’ en allant quérir dans d’autres bases de données certaines variables manquantes. Pour ce qui concerne les explications, il se dégage au final une impression de grande incertitude et de complexité. La plupart des auteurs reconnaissent que leurs conclusions demeurent fragiles, qu’elles sont, la plupart du temps, hypothétiques, et que de nouvelles questions sans réponses s’ouvrent toujours derrière les quelques certitudes. D’où l’abondance des expressions telles que : « on pourrait se risquer à émettre une double hypothèse explicative » (ULg 9, 2009, 201), ou : « les données de PISA ne permettent pas de répondre à ces questionnements qui mériteraient de faire l’objet de recherches complémentaires » (ULg 9, 2009, 223), ou encore : « il apparaît dès lors intéressant de creuser cette problématique afin de mieux cerner… » (ULg 8, 2004, 168). Au final, la configuration de la base de données (non conçue pour vérifier des hypothèses précises) conduit à deux types de textes : d’une part, des interprétations prudentes sans principe interprétatif fort, qui laisse au lecteur une impression de complexité ; d’autre part, des clés d’interprétation plus cohérentes, mais ne pouvant s’appuyer que sur des données partiellement adaptées, ce qui, en fin de compte, ne permet pas d’apporter des 144 4. Travaux d’analyse des données PISA en CFB preuves solides de la pertinence des grilles d’interprétation. Des problèmes plus que des préconisations Comme pour les connaissances, tous les types d’arguments ne sont pas également présents dans le corpus. Les arguments énonçant les problèmes sont plus fréquents, sont énoncés de manière plus affirmative, et ont plus de force persuasive que les arguments énonçant des préconisations. Comme dans le cas des connaissances, cette inégale présence des différents types d’argument tient aussi pour partie à la structure de la base de données. Les arguments énonçant des problèmes sont en effet généralement présentés comme étant le débouché logique des deux types de connaissance présentés au point précédent, à savoir les classements et les explications, mais il arrive qu’ils soient construits essentiellement sur la base des comparaisons, dont on a vu qu’elles paraissent moins fragiles que les explications. Pour les préconisations, par contre, les explications paraissent plus indispensables pour forger un argument crédible car les préconisations exigent plus directement l’usage de la notion de causalité. Or, on l’a vu, les connaissances relatives aux explications sont le plus souvent fragiles. Dès lors, les préconisations exposées dans le corpus restent souvent floues, peu détaillées, se limitant à une définition un plus précise du problème sur lequel il convient de se focaliser. De même, elles s’appuient rarement de manière exclusive sur les données PISA, les auteurs faisant souvent appel à d’autres connaissances, scientifiques ou non, pour étayer leurs arguments en faveur d’une préconisation ou d’une autre. 4.4.4 Thèmes des analyses et orientation du débat politique Les processus décrits ci-dessus ont un effet partiel sur les comparaisons, les problèmes et les préconisations préférentiellement mis en évidence. Et ces ‘choix’, à leur tour, ont un effet partiel sur l’orientation du débat politique. Des comparaisons préférentielles Dans le corpus, il apparaît que certains types de classements sont privilégiés. Ainsi, l’accent est placé (1) sur les classements en termes de résultats bien plus que sur les classements en termes de variables attitudinales, (2) sur les classements en termes de dispersion des résultats plus que de moyenne des résultats, (3) sur des scores globaux par compétence plus que sur des scores par sous-compétence, et (4) sur des comparaisons dans l’espace bien plus que sur des comparaisons dans le temps. Ces différences s’expliquent en partie par la structure de la base de données (ainsi, par exemple, les enquêtes PISA identifient clairement les scores des élèves comme étant les variables dépendantes de leur modèle, les autres variables n’étant pas mesurées pour 145 4. Travaux d’analyse des données PISA en CFB elles-mêmes mais davantage en tant qu’éléments explicatifs potentiels). Elles s’expliquent aussi par la nature des résultats (par exemple, le peu de différences significatives lorsqu’on compare les données dans le temps ou le fait que le classement de la Communauté française est plus négatif en termes de dispersion que de moyenne). Mais expliquer ces différences exclusivement par le contenu des données et les options définies lors de la conception des enquêtes PISA ne peut suffire. Il faut aussi convoquer les choix opérés par les ‘interprètes’ de la base de données, et relier ces choix à leurs croyances, à leur place dans la configuration des interdépendances, à leur position dans dans les circuits de connaissance ainsi qu’aux modes de coordination des scènes sur lesquelles ils évoluent (Delvaux, 2008). Ainsi, par exemple, l’attention aux classements en termes de mesures de dispersion plus qu’en termes de moyennes résulte certes en partie du fait que la Communauté française est moins bien classée en termes de dispersion des résultats, mais aussi d’une option interprétative des auteurs des textes, qui renvoie pour partie à leurs propres croyances. De même, le faible intérêt porté à une analyse à l’échelle des ‘sous-compétences’ est-il en partie lié à la faible proportion de didacticiens s’étant emparés de la base de données. Nature des problèmes et des préconisations privilégiés En ce qui concerne la nature des problèmes et préconisations mis en exergue, on remarque également que des thèmes sont privilégiés alors que d’autres sont peu évoqués : en matière de problèmes, l’accent est placé sur les questions d’inégalité et de ségrégation plus que d’inefficacité ; en matière de préconisations, des mesures structurelles sont davantage proposées que des mesures didactiques et pédagogiques ou que des mesures touchant d’autres secteurs que l’enseignement. Cette insistance les propositions structurelles et sur les problèmes d’inégalités n’est pas seulement le fait des données PISA. Joue également le fait que les acteurs s’étant saisi de l’analyse des données se caractérisent par leur intérêt pour le champ des politiques éducatives et par leur préoccupation pour la question des inégalités. Cette insistance dérive également des représentations que ces acteurs ont du fonctionnement politique et des rapports entre science et politique, représentations sur lesquelles ils fondent parfois, à partir de leur position, des stratégies visant à amener les politiques à agir sur ce qu’ils perçoivent être les ‘racines du mal’, à savoir un certain nombre de facteurs structurels. 4.4.5 Reconfiguration partielle de la circulation des connaissances PISA, et les classements qui en sont tirés, attirent l’attention sur les pays et régions les mieux classés. Il n’empêche que la liste des pays et régions auxquels est préférentiellement comparée la Communauté française est en partie le reflet des circuits de connaissance préexistant à PISA. Chaque entité a en effet tendance à se comparer avec des systèmes qu’elle connait ou croit mieux connaître, et par rapport auxquels elle 146 4. Travaux d’analyse des données PISA en CFB peut disposer d’informations complémentaires. La multiplication de bases de données au niveau européen (Eurydice notamment) explique dès lors en partie pourquoi c’est avec les pays européens que les comparaisons sont les plus fréquentes. Les classements de PISA ne tombent donc pas dans un ‘vide’. En orientant l’attention vers les pays ou régions ‘performants’, ils contribuent cependant à modifier, au moins à la marge, les circuits de connaissances préexistants. Ainsi PISA est-il l’un des facteurs pesant sur la circulation des connaissances conjointement avec d’autres facteurs, parmi lesquels l’image générale du pays ou de la région, sa proximité culturelle, et l’existence de brokers dans le pays ‘émetteur’ ou ‘récepteur’. Les flux ainsi générés véhiculent de manière privilégiée un type particulier de connaissances, à savoir des connaissances à propos des mesures mises en œuvre dans les pays réputés performants, autrement dit des connaissances portant sur des politiques publiques. Ce type de connaissance circule parce que les bonnes performances tendent à légitimer les politiques mises en œuvre dans ces pays, et ce même si aucun lien de cause à effet n’est formellement établi entre ces politiques et les performances. Il est ainsi frappant de constater combien, souvent, l’ampleur de l’intérêt porté à ces modèles contraste avec l’absence d’initiative d’envergure visant à connaître de manière plus approfondie les facteurs permettant d’expliquer les différences entre les pays comparés. Les deux principaux flux de connaissances résultant partiellement de PISA sont ceux en provenance de Finlande et de Flandre. Les premiers s’expliquent à la fois par la réputation de ‘premier de classe’ du pays nordique et par l’existence de brokers. Le cas de la Flandre est quant à lui particulièrement intéressant à analyser. On peut en effet faire l’hypothèse que PISA, en mettant en place une base de données standardisée commune aux deux Communautés, a contribué à la redécouverte de l’autre système ‘frère’ qui présente l’immense avantage d’être suffisamment semblable et suffisamment différent. La Flandre, bien qu’étant davantage un modèle sur le plan de l’efficacité que de l’équité, devient une référence. Dès lors, les flux sont quasi à sens unique et consistent pour l’essentiel en informations sur les politiques flamandes réputées plus ‘performantes’ bien que presque aussi inégalitaires. 4.5 Conclusion : légitimité renforcée ou début d’interrogation ? Les limites décrites ci-dessus n’empêchent pas une absence relative de débat quant à la pertinence de PISA. Ainsi, personne ne réclame que la Communauté française revienne sur sa décision de participer à PISA. De même, peu d’acteurs revendiquent publiquement que l’enquête soit adaptée de manière à faire de cet outil un instrument plus performant pour l’analyse du système éducatif de la Communauté française et sa comparaison à d’autres systèmes. Les raisons de l’absence de telles questions dans le débat public sont plurielles et sont à 147 4. Travaux d’analyse des données PISA en CFB trouver dans une configuration systémique de facteurs structurels relativement complémentaires. Cette configuration explique que, pour l’heure, la légitimité de PISA reste quasi intacte, et que n’émerge pas une remise en cause tant soit peu structurée. Continuer à participer à PISA ? Si l’on cherche à comprendre pourquoi personne ne réclame la sortie de PISA, on peut d’abord invoquer l’existence de croyances partagées, en d’autres mots d’un paradigme ou d’un référentiel d’action publique congruent avec PISA. On peut en effet supposer qu’un nombre croissant d’acteurs adhère – consciemment ou non – au référentiel de l’évaluation des performances, et que ce fait constitue l’un des éléments expliquant l’absence de remise en cause de la participation à PISA. La place des différentes entités et acteurs dans les rapports d’interdépendance est un autre facteur explicatif. Il permet de comprendre pourquoi quitter purement et simplement PISA paraît illusoire, même si cette enquête a un coût311. Une sorte de dépendance s’est installée vis-à-vis de PISA, plus que vis-à-vis des autres classements internationaux. Le pouvoir politique ne peut guère risquer de sortir de PISA sans subir les pressions des autres pays (et des deux autres Communautés), pressions plus fortes au sein de l’OCDE que de l’IEA du fait que la première est une organisation intergouvernementale. Une telle décision fragiliserait également la position du gouvernement vis-à-vis des électeurs, qui peuvent voir PISA comme un thermomètre évaluateur de la pertinence des politiques publiques. Aucun profit politique ne pourrait être tiré d’une décision qui risquerait d’être interprétée comme la volonté d’évitement de l’évaluation et de la mise en comparaison de l’efficacité des politiques publiques. D’autres acteurs ont également intérêt à ne pas réclamer la sortie du dispositif. Ainsi en est-il des chercheurs pour qui PISA offre l’opportunité rare d’accéder à un coût quasi nul à des données standardisées concernant un grand nombre de pays et reconnues dans le monde scientifique. Il offre aussi l’opportunité de dialoguer avec les nombreux pairs qui travaillent sur les mêmes données. Il permet en outre la production de connaissances potentiellement plus généralisables que celles fondées sur l’analyse du seul espace de la Communauté française. Cette opportunité est importante car la petite taille du terrain d’observation de la Communauté française n’intéresse a priori pas grand monde sauf si l’on parvient à mettre en évidence les spécificités de ce territoire, stratégie que les chercheurs de la Communauté française adoptent fréquemment pour faire valoir leur entité d’appartenance comme un cas-type ‘intéressant’. Les modes de coordination sont un troisième facteur contribuant aussi à expliquer l’absence de débat quant à la poursuite de la participation aux enquêtes PISA. Les instances au sein desquelles se règlent les relations entre PISA et la Communauté 311 En 2007, 200.000 € étaient réservés au budget de la Communauté française pour « les enquêtes sous l’égide de l’OCDE », parmi lesquelles PISA. 148 4. Travaux d’analyse des données PISA en CFB française sont limitées à quelques acteurs et peu visibles. La décision de participation à PISA est affaire de gouvernement plutôt que de Parlement312. Et les deux acteurs susceptibles de peser sur la décision (le SPE-ULg et la direction des affaires internationales du Ministère), tous deux étroitement partie prenante du processus, n’ont guère intérêt à voir remise en cause la participation à PISA. Leur poids dans le processus de décision n’est pas contrebalancé par l’existence d’un comité de suivi pluraliste. Amender PISA pour des analyses plus adaptées à la Communauté française ? Face aux divers constats énoncés ci-dessus, on peut s’étonner qu’en dehors des concertations entre les acteurs directement impliqués dans la production de PISA, aucun acteur n’ait publiquement demandé comment il était possible d’utiliser les marges d’autonomie pour faire de cet outil un instrument plus performant en termes d’analyse. Ainsi, personne n’a publiquement demandé si certaines questions de recherche ou hypothèses d’interprétation particulièrement pertinentes pour la Communauté française ne pourraient être mieux prises en compte en ajoutant certaines questions aux tests de compétence ou dans les questionnaires contextuels, ou en optant pour un échantillon élargi313. Personne n’a davantage publiquement demandé comment, en adaptant le dispositif, il serait possible de renforcer les possibilités de comparaison avec la Flandre et éventuellement avec une ou plusieurs autres régions, de manière à mieux expliquer l’origine des différences observées. De même, personne n’a posé publiquement la question de l’intérêt qu’il y aurait à financer plusieurs équipes de recherche pour l’analyse des données ni de l’avantage qu’il y aurait à encourager une confrontation systématique des grilles interprétatives. L’explication d’une telle absence de débats est elle aussi de nature multifactorielle. La configuration des rapports d’interdépendance est une partie de l’explication. Elargir PISA serait en effet difficilement concevable sans laisser, comme le fait l’OCDE, un libre accès à la base de données ainsi constituée. Or, un tel comportement est contraire aux pratiques qui ont cours jusqu’à présent en matière d’accès aux données des évaluations externes (certificatives ou non), gardées par l’administration centrale (et certains réseaux), et seulement accessibles aux chercheurs qui participent à leur récolte et à leur traitement. La réticence des pouvoirs centraux en la matière peut s’expliquer à son tour par le fait que le système éducatif garde des traits d’une société consociative (Mangez 2008b, 2009), où est requise une relative discrétion inter-piliers, et par le fait que le 312 Et ce dernier, d’ailleurs, ne serait sans doute pas enclin à plaider une sortie de PISA car il s’agit pour lui, au moins au plan rhétorique, d’un moyen d’évaluer l’action gouvernementale. 313 Par exemple, tester tous les élèves de 15 ans dans les établissements choisis (de manière à améliorer l’étude des effets établissement), un plus grand nombre d’établissements (pour avoir par exemple une représentativité à l’échelle des zones), ou tous les élèves de 3e et de 4e (pour mesurer les effets du retard sur des élèves situés au même point du cursus,…). 149 4. Travaux d’analyse des données PISA en CFB modèle du ‘marché transparent’, dont les usagers seraient guidés par des informations sur les performances des écoles, est rejeté par une large majorité d’acteurs. Mais on peut également considérer plus classiquement que la rétention de données est source de pouvoir : il est en effet toujours utile, dans un rapport de forces, de pouvoir choisir les connaissances à diffuser et le moment de les distiller. C’est une manière efficace de se prémunir des interprétations adverses qui, fussent-elles farfelues, génèrent des représentations qu’il est parfois malaisé de corriger une fois qu’elles ont été diffusées. 150 5. Conclusion 5. Conclusion Cette section propose une synthèse interprétative de nos résultats. Elle cherche à construire une intelligibilité, à donner du sens aux diverses observations que le rapport a relevé. Cette section vise aussi à rassembler des éléments d’analyse interprétative proposés tout au long du rapport. Cette synthèse, conclusive, est structurée en cinq thèmes. Le premier thème est consacré au rapport entre l’instrument et le contexte belge : nous tenterons de comprendre comment cet instrument standardisé qu’est PISA s’est inséré dans un contexte a priori peu favorable aux présupposés de l’evidence based policy dont se réclame PISA. Nous traiterons ensuite, dans un second point, de la place qu’occupe PISA dans l’espace public, en essayant d’abord d’expliquer le succès de PISA, puis de comprendre en quoi PISA véhicule et promeut des paradigmes qui limitent l’espace de pensable. Cette capacité de PISA a participer à la construction d’un certain regard sur l’éducation sera également développée de manière plus spécifique dans un troisième point traitant de la question des orientations pédagogiques et curriculaires. Dans un quatrième point, nous verrons comment PISA se constitue dans un espace (européen notamment) tout en contribuant lui-même à transformer cet espace notamment en organisant la circulation de connaissances et d’acteurs en son sein. Enfin, nous nous attacherons à comprendre la force propre de l’instrument en montrant comment il sert de base à des connaissances et à des arguments dont se saisissent les acteurs lorsqu’ils défendent des problématisations ou des préconisations. Le contexte et l’instrument Les dimensions politiques et institutionnelles de la Belgique (francophone), qui se sont constituées dans une histoire longue, ne sont pas en elles-mêmes socio-historiquement orientées vers la génération de dispositifs d’évaluation, ou vers l’utilisation de résultats d’évaluation (Mangez 2009). Différentes raisons permettent de comprendre cette articulation spécifique du politique et du cognitif. Tout d’abord, historiquement, aucun acteur institutionnel n’est véritablement en position légitime pour procéder à une évaluation de l’ensemble du système, pas plus d’ailleurs que pour mettre en place d’autres types d’instruments communs à l’ensemble du territoire (comme, par exemple, des programmes de cours, des objectifs d’apprentissage, des dispositifs de formation pour les enseignants, un corps d’inspection, etc.). Par ailleurs, dans un contexte consociatif où la fabrication de la norme nécessite des transactions, des compromis, des équilibres complexes, la connaissance « objectivée » ne constitue pas nécessairement un ingrédient qui facilite le processus de décision politique. Autrement dit, dans un contexte 151 5. Conclusion comme celui-là, on peut poser comme hypothèse que des connaissances, présentées sous forme objectivées, ne constituent pas un objet dont l’utilité politique est a priori établie et forte. Il apparaît au contraire que les contextes consociatifs ne sont pas favorables à la mise en place d’un modèle de l’evidence based policy. Etant donné que, dans les contextes consociatifs, tous les acteurs impliqués sont engagés dans des transactions entre eux, on ne voit d’ailleurs pas auquel d’entre eux on pourrait confier un quelconque travail d’objectivation (sauf à constituer des commissions où les différents intérêts sont représentés314). Toute production de connaissance par des acteurs impliqués dans le processus politique est presque nécessairement « située » (dans une université, dans un modèle, dans un pilier, dans un parti,...). Le dispositif PISA - de même que d’autres types d’enquêtes internationales - a cependant trouvé sa place dans le système, à cause d’un certain nombre de facteurs et de circonstances spécifiques. Tout d’abord, le déficit d’évaluation, et plus généralement de données collectées au niveau belge, a été identifié comme problématique par certains acteurs à partir des années 1990 surtout. Différents acteurs universitaires ont souligné le déficit de données propres au système belge. Un autre acteur important qui a formulé cette critique est l’OCDE elle-même. Le rapport qu’elle a produit à l’époque, à propos de la Belgique, a d’ailleurs durablement marqué les esprits et continue encore aujourd’hui à constituer un point de référence que les acteurs mobilisent quand ils rendent compte de l’histoire récente du système éducatif. Au début des années 1990, l’idée selon laquelle la Belgique manque de données à propos du fonctionnement et des résultats de son système éducatif commence donc à faire son chemin. Cette idée n’était pas portée par des acteurs politiques uniquement mais plutôt par des chercheurs et certains membres de l’administration impliqués dans la promotion et la mise en œuvre d’outils similaires à PISA. La Belgique a en effet participé, avant PISA, à plusieurs enquêtes internationales de l’IEA315 initiées par des acteurs scientifiques anglosaxons plutôt que voulues par des acteurs politiques nationaux. Par ailleurs, au niveau de la CFB, une « structure légère » d’évaluation externe est mise en place en 1994. Elle constitue une forme de réponse au rapport de l’OCDE qui dénonçait le déficit de pilotage et d’évaluation. Cette structure est dite « légère » car, n’étant pas au départ l’expression d’une volonté politique mais plutôt le fait de certains individus au sein de l’administration, elle n’est pas institutionnalisée. A l’époque de la première enquête PISA, des outils d’évaluation externes existent donc déjà, mais de manière précaire. Ils ne sont portés que par un noyau restreint d’acteurs et 314 La constitution de ce genre de groupe (« commissions », « groupes de travail », « conseil », etc.) est une pratique courante et caractéristique du consocianisme. 315 Dont une enquête pionnière en 1959, rassemblant 12 pays dont la France, l’Angleterre, l’Ecosse, l’Allemagne, les Pays-Bas, l’Australie, les Etats-Unis, la Finlande, Israël, le Japon, la Suède 152 5. Conclusion pas vraiment assumés par les autorités politiques. Il n’est à l’époque pas possible de déterminer un acteur suffisamment légitime pour imposer un dispositif d’évaluation à l’échelle de l’ensemble du territoire de la CFB. La mise en place d’un tel dispositif à l’échelle internationale ne se pose pas dans les mêmes termes, et peut se réaliser sans que des acteurs belges ne doivent entrer en transaction les uns avec les autres. Autrement dit, le fait que le dispositif soit fabriqué au niveau international, le fait qu’il soit piloté par un consortium international, le fait que les données soient exploitées au niveau international, sont des facteurs qui ont vraisemblablement permis de dépasser plus rapidement des difficultés propres à la Belgique. Le niveau international présente le gros avantage de ne pas être « situé » en Belgique. Comme on l’a laissé entendre, avant même le fameux rapport de l’OCDE, les premiers acteurs à avoir posé la question des données, et avec elle la question du pilotage, sont des chercheurs. Il semble ainsi que les premiers promoteurs de PISA en Belgique aient été des acteurs scientifiques engagés dans une dynamique de recherche, et non des acteurs politiques ou des membres de l’administration engagés dans un projet politique. Ce sont en effet d’abord des chercheurs qui ont plaidé en faveur de PISA, notamment auprès de l’administration. Certains d’entre eux étaient positionnés dans des réseaux internationaux de recherche, parfois promus et financés par l’OCDE. Certains étaient aussi membres du CERI. Bien avant le lancement de PISA, les chercheurs du SPE (ULg) avaient accumulé une expertise en matière d’évaluation et de comparaison internationales. Ils avaient en même temps accumulé du capital social international. Ces chercheurs étaient également impliqués dans les évaluations externes propres à la Communauté française. Comme on l’a expliqué de manière plus détaillée dans le corps du rapport, cette position spécifique du SPE, impliqué simultanément aux niveaux international et communautaire, connu et reconnu au sein de l’administration, a vraisemblablement contribué à l’entrée de la CFB dans le dispositif PISA. Si le dispositif et ses résultats ont trouvé leur place en CFB, les bases de données mises à disposition de tous n’ont cependant pas fait l’objet d’un fort investissement de la part des acteurs de l’enseignement. En dehors des chercheurs de l’ULg, en charge du suivi de l’enquête, peu de chercheurs ont travaillé les données brutes, et leur investissement a presque toujours été ponctuel. Par ailleurs, pratiquement aucun des principaux acteurs (partis politiques, gouvernement et administration, fédérations de pouvoirs organisateurs, syndicats, fédérations d’associations de parents) n’a travaillé directement sur la base de données. Enfin, bien que confronté aux limites de la base de données, aucun acteur n’a plaidé pour que l’échantillon ou le questionnaire soit étendu afin de disposer de données adéquates pour traiter certaines questions et vérifier certaines hypothèses plus spécifiques au système éducatif de la CFB. On peut comprendre ce faible investissement en le rapportant aux conditions qui caractérisent le travail politique en Belgique. La nécessité de construire des compromis entre des groupements et la dynamique sociopolitique (qui renvoie théoriquement au modèle de la consociation) ne 153 5. Conclusion conduit pas les acteurs à investir dans des pratiques liées à l’evidence based policy. Traditionnellement, les arrangements consociatifs ne nécessitent pas la mobilisation de connaissances expertes et externes. C’est aussi en raison de cette dynamique propre à la Belgique que les pouvoirs publics et leurs administrations n’ont guère accumulé d’expertise en matière de traitement de données, même si les choses évoluent. Tout cela renvoie à la persistance, en dépit d’évolutions récentes, d’un knowledge policy regime au sein duquel l’objectivation de connaissances n’est pas considérée comme nécessaire et peut même être perçue comme une menace pesant sur la fabrication de compromis (Mangez 2009). PISA dans l’espace public Nombreux sont les acteurs qui affirment que PISA ne leur a rien appris : les difficultés propres à la CFB étaient connues des spécialistes et des scientifiques ; les enquêtes – du moins ce que l’on en a retenu - n’ont rien révélé que l’on ne sache déjà. PISA ne serait dès lors pas un instrument de connaissance. Pourtant, en même temps, PISA a fait l’objet d’une médiatisation sans commune mesure avec les enquêtes internationales antérieures : aujourd’hui, tout le monde (ou presque) parle de PISA ; hier, personne (ou presque) ne parlait des enquêtes de l’IEA. Les deux instruments n’occupent pas l’espace public de la même manière. Une des particularités de PISA consiste en une véritable « occupation » de l’espace public. On doit dès lors s’interroger sur ce succès. Ce succès médiatique tient en bonne partie aux propriétés de l’instrument : le nombre important de pays couverts, en particulier la participation de quasi tous les pays européens ; la génération de données spécifiques à PISA ; l’extrême attention accordée à la validité technique de l’outil ; la régularité de la périodicité d’enquête ; le fait que la décision de participation dépende des autorités publiques. Les stratégies de communication de l’OCDE participent sans doute aussi à ce succès médiatique. Le succès de PISA tient évidemment également au fait qu’il mesure des performances et permet d’établir des classements dont les acteurs peuvent aisément se saisir. Dans l’espace public, le premier et le principal effet du programme PISA est d’ordre cognitif : il transforme le cadre cognitif dans lequel on pense les questions d’éducation en les inscrivant dans un nouvel espace dont l’échelle est internationale et dont les dimensions sont fondées sur des mesures objectivées de résultats. L’enquête construit en effet une structure de positions qui situe les pays (plus rarement, des régions au sein d’un pays) les uns relativement aux autres. S’il est clair que des enquêtes préalables avaient déjà mis en évidence les performances relatives des pays, on ne peut nier que PISA a véritablement procédé à la publicisation, c’est-à-dire aussi à la construction sociale, de cet espace international de positions relatives. Sorte de géographie des performances éducatives des pays, PISA redéfinit ainsi des positions relatives et un 154 5. Conclusion espace de positions, qui constitue aussi un cadre cognitif pour penser et évaluer les politiques éducatives nationales. La simplicité de ces connaissances faites de comparaisons et de classements séduit de nombreux acteurs qui s’en saisissent comme instrument de légitimation de fins diverses. Si PISA est sur toutes les lèvres, c’est en effet aussi que l’instrument et ses résultats sont mobilisés pour toutes les causes (à part peut-être pour celles qui consisteraient à contester la légitimité de l’instrument). Il n’est en effet pas rare de voir des acteurs défendant des thèses opposées tenter de légitimer leurs prises de position en faisant référence aux résultats de l’enquête, au point que PISA participe moins à une rationalisation de l’action publique qu’à une politisation des connaissances (Maroy et Mangez, 2008). Notre analyse montre aussi que les acteurs politiques se saisissent des résultats de PISA pour légitimer des prises de position qui préexistaient largement à l’enquête. Ainsi, par exemple, dans le contexte belge, les principaux acteurs politiques ont de longue date des points de vue différents à propos de l’autonomie des PO et des réseaux. Les catholiques sont traditionnellement favorables à l’autonomie ; à l’exception de certains responsables communaux, les socialistes y sont traditionnellement opposés ; les libéraux, bien qu’ils soient historiquement opposés au monde catholique, privilégient aujourd’hui l’autonomie, principalement parce que, selon eux, elle suscite de la compétition qui, elle-même, favoriserait l’efficacité générale du système éducatif. Ces manières différentes qu’ont les socialistes, les catholiques et les libéraux, de se positionner à l’égard de l’autonomie des PO et des réseaux s’inscrivent dans des traditions historiques longues. On constate aujourd’hui que chacun de ces trois acteurs politiques se saisit de PISA pour conforter leur prise de position. Cela signifie deux choses. D’une part, les données PISA servent à des causes différentes qui préexistent à l’enquête ; d’autre, part, les données ne permettent visiblement pas de trancher entre ces différentes causes. Le fait est, en tous cas, que des acteurs différents, porteurs d’intérêts variés et divers, tendent tous à se saisir des résultats de l’enquête. Ne doit-on pas voir derrière cette diversité, une unité de paradigme, une forme de cadre mental à l’intérieur duquel les questions d’éducation se posent désormais ? Une des particularités de ce cadre semble consister en ce qu’il rend difficilement pensables des débats fondés uniquement ou principalement sur des valeurs. Les valeurs ne sont pas totalement absentes lorsqu’elles s’accordent au cadre : on peut par exemple voir des acteurs plaider en faveur de plus de mixité sociale ou de davantage d’équité, voire même pour une meilleure égalité des résultats, il n’en reste pas moins que ces différents objectifs, fondés sur des valeurs, ont du sens dans le cadre des mesures effectuées par les enquêtes PISA (on peut représenter l’équité à partir de la variance par exemple). 155 5. Conclusion Des orientations pédagogiques et curriculaires Résolument inscrit dans une approche en termes de compétences, PISA sert aussi de véhicule relativement discret pour la dissémination d’objectifs et de pratiques pédagogiques. Il contribue à ce que les acteurs de l’enseignement initient et poursuivent la mise en place de dispositifs pédagogiques pensés en termes de compétences. Il est en effet illusoire d’espérer obtenir un bon classement dans PISA si les programmes, les pédagogies et les évaluations ne sont pas en relative conformité avec cette approche qui, comme le disent Dufays, Gemenne et Ledur (1996) à propos de la lecture, a en outre pour effet que « les questions sur les fins de son enseignement font place à la réflexion sur les moyens ». S’il n’est pas possible de démontrer un lien de causalité entre les travaux de l’OCDE d’une part et les évolutions curriculaires en Belgique francophone d’autre part, leur proximité saute cependant aux yeux. En effet, les enquêtes PISA, dans leur contenus, sont indéniablement « proches des orientations pédagogiques prises récemment en Communauté française de Belgique » dans la mesure où l’évaluation porte davantage sur la « maîtrise de compétences » que sur « l’acquisition de savoirs et contenus scolaires » (Lafontaine, 2001, p.1). D’après des chercheurs de l’ULg, « il ne fait guère de doute que la manière dont la lecture est évaluée dans PISA est largement en conformité avec les socles de compétences et cela ne surprendra guère, dans la mesure où le cadre d’évaluation de PISA et les socles s’alimentent aux mêmes modèles théoriques contemporains de la lecture. » (Lafontaine et alii, 2003, p. 18).. « Les compétences de base définies dans le cadre de PISA correspondent bien aux orientations de l’enseignement en Communauté française » (DRI, 2004, p. 87). On peut dès lors affirmer que les enquêtes PISA véhiculent une certaine orientation curriculaire (centrée sur la notion de compétence) que l’on tend à retrouver dans un nombre croissant de politiques nationales à travers le monde et, en tous cas, en Belgique francophone. Cette convergence en direction de la notion de compétence ne se limite pas à une convergence au niveau de la définition des objectifs : poursuivre des objectifs définis en termes de compétence a en effet des implications en termes de méthodes pédagogiques. Mangez (2008a) a montré que cette orientation en faveur d’une pédagogie des compétences avait connu des échos quelque peu différents selon les réseaux éducatifs en Belgique francophone. Ainsi, l’analyse des programmes de cours montre que le réseau catholique s’est engagé avec davantage d’intensité dans cette évolution curriculaire, alors que, dans le même temps, le réseau de la CFB a procédé à une transformation plus incrémentale de ses programmes de cours. Cependant, d’un point de vue historique, lorsque l’on compare les orientations curriculaires des deux réseaux au cours du temps, il semble clair qu’ils se sont, dans l’ensemble, tous les deux engagés en direction du modèle des compétences (même si, comme on l’a dit, ils ne l’ont pas fait avec la même intensité), dont PISA se fait le véhicule. Cette convergence, qui en 156 5. Conclusion réalité se déploie au niveau international, pose évidemment différentes questions, dont celle de savoir quels sont les acteurs qui définissent ces orientations pédagogiques et curriculaires, et quelles sont leurs motivations. Un espace européen de l’éducation … En même temps qu’il génère une forme d’espace mental de positions relatives, le maniement concret de l’instrument, sa construction, sa mise en œuvre, la gestion de ses résultats et de leur diffusion impliquent aussi la création d’un système de relations entre représentants de différents pays au sein des instances de management et de décisions. Des réunions sont organisées, des courriers et des courriels sont échangés. De multiples discussions ont lieu entre les représentants politiques des différents pays et entre les acteurs en charge de la mise en œuvre pratique de l’enquête. La construction d’un tel espace a conduit certains auteurs (Lingard et alii, 2005) à suggérer que le travail de l’OCDE, notamment au travers de PISA qui constitue son principal instrument dans le domaine éducatif, avait pour effet de poser les prémisses d’un nouveau « champ » au sens bourdieusien du terme : un système de relations entre acteurs occupant des positions définies en fonction du volume et de la structure des capitaux (propres au champ) dont ils disposent et partageant un même illusio. Plus généralement, on peut dire que PISA, simultanément, se constitue dans un espace qu’il contribue lui-même à transformer. L’enquête redessine l’espace européen (et mondial) et contribue à y organiser la circulation de connaissances : l’enquête désigne les « meilleurs élèves » (i.e. les pays les plus performants) ce qui contribue à la circulation de connaissances de ces pays performants vers les pays ou régions moins bien classés. Autrement dit, cet espace post-géographique produit des effets sur les relations entre pays et entre régions du monde : les pays moins performants se tournent vers certains lieux, parfois éloignés géographiquement voire culturellement, pour procéder à diverses observations et éventuellement inspirer leurs propres orientations politiques. Ainsi, la CFB s’est-elle par exemple intéressée à la Flandre et à la Finlande. Elle s’est également quelque peu tournée vers la Pologne (dont la progression avait été marquante), mais pas vers la Corée du Sud (toujours fort bien classée), ni vers Cuba (classé hors concours dans une récente étude de l’Unesco). On le voit, si PISA contribue à recomposer l’espace en générant certains « rapprochements », cette recomposition se réalise à l’intérieur de certaines limites. L’Europe constitue un espace privilégié de comparaison favorable à la circulation de connaissances, d’idées et d’acteurs. Les structures instituées jouent aussi un rôle important : si un espace européen se structure ainsi de manière privilégiée, c’est en effet aussi parce que les acteurs européens du monde de l’enseignement se rencontrent dans d’autres instances européennes (favorisant l’interconnaissance, les circulators et les brokers) et parce que des bases de données complémentaires à PISA (telles Eurydice) se structurent à cette échelle. 157 5. Conclusion Pour la Communauté française, la Flandre constitue un cas particulier. Non seulement la Flandre fait nettement mieux que la Communauté française au plan de la moyenne de ses résultats, mais les deux Communautés partagent une histoire commune et plusieurs traits structurels importants. La circulation de connaissances et d’idées au travers de la frontière linguistique avait cependant fortement diminué suite à la communautarisation de l’enseignement. Depuis, la communication entre les deux communautés a quelque peu repris mais demeure embryonnaire. Mais on entend, dans le monde francophone, un nombre croissant d’acteurs faire référence aux mesures politiques prises par la Flandre. Sans en être la raison première, PISA a contribué au développement de cet intérêt de la Communauté française pour la Flandre. Pour l’heure cependant, la connaissance croisée des deux systèmes demeure superficielle. Personne n’a encore saisi l’opportunité d’une analyse approfondie des facteurs et processus susceptibles d’expliquer les différences observées. Aucun programme de recherche commun n’a encore été mis en place. Et aucune démarche n’a été faite pour profiter de PISA en développant échantillon et questionnaire de manière à garantir une base de données plus adaptée à l’analyse de ces facteurs différenciateurs. La force propre de l’instrument Reprenons certaines idées. Les connaissances issues de PISA ne sont pas nécessairement utiles au processus politique en CFB. Elles n’ont pas véritablement apporté de nouveaux éclairages aux acteurs impliqués. La portée explicative des données est limitée… On est dès lors en droit de se demander pourquoi la CFB maintient et va plus que vraisemblablement continuer à maintenir sa participation. Sans doute est-ce en partie parce qu’il serait symboliquement coûteux au gouvernement de décider d’un retrait unilatéral, vu sa dépendance à l’égard des électeurs (qui liraient cette décision comme un refus de l’accountability) et de ses partenaires sur la scène internationale. Mais c’est aussi parce que personne n’a vraiment soulevé la question de l’éventuel abandon, en dépit de la faiblesse explicative de l’outil et des effets négatifs supposés démobilisateurs du rappel incessant des ‘mauvais’ résultats de la CFB. PISA apparaît ne pouvoir être remis en cause. Son image de rigueur et d’objectivité est grande, bien que fondée sur un estompement de ses présupposés et de ses limites. En outre, PISA ne dérange personne, voire même arrange de nombreux acteurs : les chercheurs parce qu’il offre une opportunité rare d’accéder sans coût à des données rigoureuses et comparatives susceptibles de leur octroyer à la fois une légitimité scientifique internationale et un écho politique local ; les acteurs politiques parce qu’ils ont la possibilité d’interpréter les données en relative conformité avec leurs intérêts et croyances ; et tous parce que PISA permet de structurer des connaissances et des arguments dont chacun peut se saisir pour tenter de peser sur le cours de l’action publique. Le succès de PISA tient aussi aux propriétés des connaissances que l’on peut en dégager. Les connaissances que PISA permet de générer sont essentiellement de deux types : des 158 5. Conclusion comparaisons / classements, d’une part, et des associations / explications, d’autre part. Il s’agit là de deux types de connaissance dont les acteurs peuvent facilement se saisir lorsqu’ils sont sommés de justifier leur préconisations et problématisations. Mais alors que les classements tirés de PISA ont un impact peu commun, dont la force est inséparable du processus d’estompement des présupposés qui les fondent, les explications déduites du matériau PISA apparaissent plus fragiles, tant la base de données se révèle peu adaptée à la vérification d’hypothèses explicatives pertinentes pour chacun des contextes nationaux. Cela ne signifie pas que les acteurs participant à l’action publique ne se saisissent pas ou ne fabriquent pas des explications dérivées de PISA pour défendre des positions pré-existantes et légitimer leur action, mais que ces explications dérivées de PISA, bien plus que les classements issus de PISA, sont susceptibles d’être mises à l’épreuve, questionnées, disqualifiées. On pourrait faire l’hypothèse que cette différence de pouvoir persuasif des deux types de connaissance expliquerait en partie pourquoi PISA est surtout utilisé pour mettre à l’agenda un problème et sert dès lors davantage à justifier la nécessité d’une action que la pertinence d’une politique concrète. Les classements participent en effet davantage à l’identification d’un problème qu’à l’identification d’une « solution ». Ces processus de transformation de données en connaissances et de connaissances en arguments ne sont pas exempts de luttes visant à faire triompher une interprétation. L’issue d’une telle lutte dépend bien sûr des rapports de force, du différentiel de capital symbolique et de stratégies de communication, mais aussi de la capacité des différentes coalitions de traiter, d’interpréter et de mettre en formes les données. En Communauté française, ces luttes autour d’une interprétation ont notamment concerné la question de savoir si le problème numéro un de l’enseignement en Communauté française était celui de l’inefficacité ou de l’inégalité. 159 6. Bibliographie 6. Bibliographie Delvaux Bernard (2008), On the role of knowledge in the course of public action, in Bernard Delvaux and Eric Mangez, Towards a sociology of the knowledge-policy relation, rapport de recherché, 3-97, www.knowandpol.eu (disponible aussi en français: Comment penser le role de la connaissance dans le cours de l’action publique?) Delvaux Bernard (2009), Pour un autre regard sur le couple connaissance-politique, La Revue Nouvelle, juillet-août 2009, 50-57. Delvaux B. et Mangez E. (2008), Towards a sociology of the knowledge-policy relation, rapport de recherche, http://www.knowandpol.eu. De Munck J. (2002), « La Belgique sans ses piliers ? Du conflit des modèles au choix d’une politique », Les semaines sociales du MOC., 95-115. Dufays J-L., Gemenne L. et Ledur D. (1996), Pour une lecture littéraire 1, Bruxelles, De Boeck-Duculot. Dumont H, Delgrange, X. (2008), « Le principe de pluralisme face à la question du voile islamique en Belgique », Droit et société, 2008/1, N° 68, p. 75-108. Dupriez V., Maroy C., Politiques scolaires et coordination de l’action, Les Cahiers de Recherche du Girsef, Louvain-la-Neuve, n°4, novembre 1999. Carvallo L. M. (2008), Production of OCDE's Programme for International Student Assessment (PISA). Literature Review Report, KNOWandPOL Projet, septembre. Lascousmes P., Le Gales P. (dir.) (2005), Gouverner par les instruments, Paris, Presses Universitaires de Sciences-Po. Lijphart Arend (1979), « Consociation and Federation: Conceptual and Empirical Links”, Canadian Journal of Political Science / Revue canadienne de science politique, Vol. 12, No. 3, Sep., pp. 499-515. Lingard, B., Rawolle, S. and Taylor, S. (2005), « Globalising policy sociology in education: working with Bourdieu », Journal of Education Policy, 20 (6), pp.759-777. Mangez E. (2008a) Réformer les contenus d’enseignement, Paris, PUF. Mangez E. (2008b) “Knowledge use and circulation in a consociative democracy”, in Delvaux B, Mangez C, Mangez E, Maroy C. The social and cognitive mapping: the sector of education in Belgium, research report, pp 31 – 43. 160 6. Bibliographie Mangez E. (2009), De la nécessité de discrétion à l’Etat évaluateur, La Revue Nouvelle, Juillet-aout 2009, 37-42. Maroy C., Construction de la régulation et place de l’évaluation : quelques tendances en Belgique francophone, Communication au Colloque international « Les politiques d’éducation et de formation en Europe : la question de l’expertise », Université libre de Bruxelles, 10 et 11 mai 1999. Maroy C. et Mangez C. (2008), « Rationalisation de l’action publique ou politisation de la connaissance ? », in Revue Française de Pédagogie, n°164, juillet-août-septembre, pp. 87-90. Moyson S. et Termine G. (2007), La performance des politiques éducatives en Communauté française et en Communauté flamande au regard des conclusions de l’enquête PISA. Approche par les réseaux de politique publique, Mémoire présenté en vue de l’obtention du grande de Licencié en Sciences politiques, sous la direction du Prof. A. David (rapporteur : C. Maroy), Université catholique de Louvain, Département des sciences politiques et sociales, Session de septembre 2007. Pons X. et van Zanten A. (2007), “Knowledge circulation, regulation and governance”, KNOWandPOl Literature Review Report (Part 6), juin. Seiler D-L, 1997, « Un système consociatif exemplaire : la Belgique », Revue Internationale de Politique Comparée, Volume 4, n° 3, 601-624. Vandenberghe V., Enseignement et iniquité : singularités de la question en Communauté Wallonie-Bruxelles, Les Cahiers de Recherche du Girsef, Louvain-la-Neuve, n°8, novembre 2000. Van Haecht A., L’école à l’épreuve de la sociologie. Questions à la sociologie de l’éducation, De Boeck Université, Ouvertures sociologiques, Bruxelles, 1998. Varone F. et Jacob S., « Institutionnalisation de l’évaluation et nouvelle gestion publique : un état des lieux comparatif », Revue Internationale de Politique Comparée, Vol. 11, n° 2, 2004, 271-292. 161 7. Signification des acronymes et sigles utilisés 7. Signification des acronymes et sigles utilisés AGERS : Administration générale de l’Enseignement et de la Recherche scientifique en Communauté française APED : « Appel pour une école démocratique », mouvement pédagogique CdH : « Centre Démocrate Humaniste », parti politique « socio-chrétien » (anciennement PSC : Parti socio-chrétien) CFB : Communauté française de Belgique DRI : Direction des Relations internationales de la Communauté française FUNDP : Facultés Universitaires Notre-Dame de la Paix à Namur. GIRSEF : Groupe Interdisciplinaire de Recherche sur la Socialisation, l’Education et la Formation IRES : Institut de Recherche Economiques et Sociales (rattaché à l’Université Catholique de Louvain) NPM : Gestionnaire national du projet PISA (National Project Manager) MR : « Mouvement Réformateur », parti politique libéral (anciennement PRL : Parti réformateur libéral) PCF : Parlement de la Communauté française de Belgique PGB : Bureau des Pays Participants (Pisa Governing Board) SEGEC : Secrétariat général de l’enseignement catholique SPE : Unité d’Analyse des systèmes et des pratiques d’enseignement, anciennement Service de pédagogie Expérimentale : Centre de recherche chargé de l’organisation de Pisa en Communauté française de Belgique, rattaché à l’Université de Liège. UCL : Université Catholique de Louvain ULB : Université libre de Bruxelles ULG : Université de Liège UMH : Université de Mons-Hainaut 162 8. Annexes 8. Annexes 8.1 Annexe 1 : La liste des entretiens réalisés Tableau 1 : La liste des entretiens réalisés Ministère de l’enseignement obligatoire 1) L’actuel Ministre de l’enseignement obligatoire (socialiste) PISA NPM 5) L’ancien NPM (pour PISA 2000 et 2003), actuel directeur du SPE (centre national de recherche impliqué dans PISA) Représentant national de PISA au PGB 7) Le représentant de la CFB au PGB, qui est aussi chercheur au SPE et membre du réseau international INES A Administration 8) Le directeur de la Direction des Relations internationales 2) Le chef du cabinet de l’actuel ministre de l’enseignement 3) Un conseiller au cabinet de l’actuel ministre de l’enseignement (et ancien chercheur au SPE) 4) Un ancien Ministre de l’enseignement fondamental, actuellement député fédéral (écolo) 6) L’actuel NPM et chercheur au SPE 9) Le directeur général de la Direction générale de l’enseignement obligatoire (AGERS) 10) Un ancien secrétaire général 11) Un secrétaire général au Parlement de la Communauté française 12) Des membres du Conseil de l'éducation et de la formation (entretien collectif) Inspection 13) Un inspecteur général 14) Un inspecteur général de l’enseignement fondamental en CFB 15) Un ancien inspecteur général, actuellement échevin (CDH) 16) Un inspecteur Chercheurs – acteurs scientifiques 18) Un chercheur à l’ULG 17) Un chercheur à l’UMH (et ancien chercheur au SPE) Réseaux 19) Le directeur général du Segec et le secrétaire général du Fesec (entretien collectif) 20) Un collaborateur du Service Recherche et Développement Pédagogique, service d’étude du Segec Acteurs politiques 21) Un parlementaire d’opposition (MR), chef du groupe au Parlement de la CFB Syndicats d’enseignants 22) Le secrétaire général de la CGSP-enseignement (syndicat d’enseignants que l’on peut rattacher au pilier socialiste) 23) Le secrétaire général de la CSC-enseignement (syndicat d’enseignants que l’on peut rattacher au pilier « socio-chrétien » 163 8. Annexes 8.2 Annexe 2 : La liste des supports à la diffusion officielle des enquêtes PISA en CFB (rapports nationaux et autres documents) En Belgique francophone, on retrouve plusieurs types de documents « officiels », diffusés sous la responsabilité de l’administration scolaire, qui présentent les résultats spécifiques de la Communauté française aux enquêtes PISA. 1) En premier lieu, on retrouve des documents rédigés par les chercheurs du SPE (Ulg) et diffusés sur le site internet de l’Administration générale de l’Enseignement et de la Recherche (l’AGERS)316 : voir la liste au tableau 2 : La liste des rapports PISA nationaux (AGERS). Le tableau 2 reprend la liste exhaustive des documents officiels diffusant les résultats de la CFB aux enquêtes PISA par l’AGERS. Ils ont tous été analysés. 2) En deuxième lieu, on retrouve des documents qui présentent une partie des résultats, la plupart sous forme d’indicateurs, rédigés par des membres de la Direction des Relations Internationales, dans une publication « Clés de lecture de Regards sur l’Education - Les indicateurs de l’OCDÉ » : voir la liste au tableau 3 : Les autres documents officiels (DRI). Le tableau 3 repend tous les numéros de la publication de la DRI qui mentionnent les résultats des enquêtes PISA. Ils ont tous été analysés. 316 Il s’agit du site internet « www.enseignement.be ». Plusieurs pages y sont consacrées à Pisa, regroupées dans une section dédiée aux « évaluations externes ». On y trouve une brève présentation de Pisa, les rapports nationaux et documents didactiques rédigés par les chercheurs du SPE (Ulg) pour de chaque cycle de PISA ainsi que des extraits des questions des tests. Pour le premier cycle de PISA, on trouve également le rapport international. 164 8. Annexes Tableau 2 : La liste des rapports PISA nationaux (Administration générale de l’enseignement et de la recherche scientifique) 165 8. Annexes Références Auteurs Contenu Destinatair Support e PISA 2000 : Non explicité Document 1) Acteurs 24 pages . Lafontaine (2001*), PISA 2000. Programme scientifiques Présentation de Pisa (population, contenu, méthodes, types de résultats, accessible international de l’OCDE pour le suivi des acquis des SPE, Ulg échantillon), présentation synthétique des résultats de la CF à PISA sous gratuitement sur le élèves de 15 ans, (page consultée le 21 janvier forme de moyenne, écart-type, classement, comparaison (tableaux) et site 2009), interprétations des résultats l’AGERS317 [Pdf, en ligne], site de l’Agers, internet de http://www.enseignement.be/index.php?page=251 60&navi=2353 * date supposée car non précisée 2) Acteurs 55 pages . Lafontaine, A. Baye, A. Matoul (2001*), PISA scientifiques Présentation relativement détaillée du dispositif Pisa : origine, différences accessible 2000: Programme international de l’OCDE pour le SPE, Ulg avec les enquêtes internationales antérieures, la population concernée, le gratuitement sur le contenu site suivi des acquis des élèves. Présentation de Non explicité de l’évaluation, l’apport de Pisa, l’organisation du test, l’enquête, Faculté de Psychologie et des Sciences l’organigramme, les garanties de validité des comparaisons internationales de et et les contrôles de qualité, la marge de manœuvre des pays (options Formation, Pédagogie théorique et expérimentale, internationales et nationales), la définition des compétences évaluées et (page consultée le 21 janvier 2009), [Pdf, en ligne], des exemples d’items, le design de l’étude, l’échantillonnage, déroulement site de l’enquête, la saisie et le nettoyage des données, échelles et niveaux de l’Education, Département de Education l’Agers, http://www.enseignement.be/index.php?page=251 Document internet de l’AGERS compétences évalués 60&navi=2353 * date supposée car non précisée 3) Acteurs 78pages . Lafontaine (2002), « Au-delà des performances scientifiques Non explicité Le document est présenté comme le « rapport national » de Pisa pour la accessible des jeunes de 15 ans, un système éducatif se SPE, Ulg CF gratuitement sur le Document 317 Il s’agit du www.enseignement.be géré par le Service Général du Pilotage du Système Educatif, au sein de l’Administration générale de l’enseignement et de la recherche scientifique (AGERS). 166 8. Annexes profile… », Le point sur la Recherche en Education, Présentation du dispositif général d’enquête, présentation et interprétation site n°24, juin 2002 (page consultée le 21 janvier des résultats de Pisa : performances des élèves dans les trois domaines, l’AGERS 2009), différences selon les caractéristiques des élèves et leur environnement [Pdf, en ligne], site de l’Agers, http://www.enseignement.be/index.php?page=251 internet socio-familial, comparaison internationale, exemples de questions posées 60&navi=2353 » 167 de 8. Annexes 168 8. Annexes Références Auteur Contenu Destinataire Support 4) Acteurs 230 pages Non explicité Document scientifiques Le document est présenté comme le « rapport national approfondi » dans dans les Cahiers du de Pisa pour la CF document : Service tout public ? pédagogie . Lafontaine, A. Baye, R. Burton, I. Demonty, A. Matoul et C. Monseur (2003), « Les compétences SPE, Ulg des jeunes de 15 ans en Communauté française en Présentation lecture, en mathématiques et en sciences. Résultats du dispositif général d’enquête, présentation et le publié de expérimentale interprétation détaillées des résultats de Pisa : performances des et de l’enquête Pisa », Cahiers du Service de Pédagogie élèves dans les trois domaines, différences selon les caractéristiques accessible expérimentale, n°13-14, Université de Liège (page des élèves et leur environnement socio-familial, résultats aux options gratuitement sur le consultée le 21 janvier 2009), [Pdf, en ligne], site de internationales site l’Agers, internationale, exemples de questions posées, liste des écoles http://www.enseignement.be/index.php?page=25160 participantes et questionnaires de contexte, comparaison internet de l’AGERS &navi=2353 PISA 2003 5) Acteurs 14 pages . Lafontaine (coord.), A Baye, I. Demonty, A. Fagnant, scientifiques Présentation très succincte de Pisa et de l’échantillon, premiers Non explicité accessible A. Matoul, C. Monseur (2004a), Pisa 2003 : quels défis SPE, Ulg résultats principaux de Pisa gratuitement sur le Document pour notre système éducatif, (page consultée le 21 site janvier l’AGERS 2009), [Pdf, en ligne], site de l’Agers, internet de http://www.enseignement.be/index.php?page=25160 &navi=2353 6) Acteurs . Lafontaine (coord.), I. Demonty, A. Fagnant, A Baye, scientifiques A. Matoul, C. Monseur (2004b), Pisa 2003 : quels défis SPE, Ulg pour notre système éducatif, (page consultée le 21 38 pages (38 diapositives PowerPoint) Présentation très succincte de Pisa et de l’échantillon, premiers résultats principaux de Pisa, bilans et enjeux des résultats Pisa pour la CF Non explicité Document servi qui a à la présentation des er 1 résultats de janvier 2009), [Powerpoint, en ligne], site de l’Agers, PISA 2003 lors de http://www.enseignement.be/index.php?page=25160 la conférence le 8 &navi=2353 décembre 2004 et accessible gratuitement sur le 169 8. Annexes site internet de l’AGERS 7) Auteurs inistère de la Communauté française (2004*), PISA document 2003. Evaluation de la culture mathématique des précisés, mais ont jeunes des peut professeurs de mathématiques des 1er et 2ème degrés qu’il de l’enseignement secondaire », Service général du chercheurs Pilotage du système éducatif (page consultée le 21 SPE janvier de 15 2009), ans. Document [Pdf, en ligne], à l’attention du site de non supposer s’agit des du 53 pages Professeurs Document Présentation du cadre général de Pisa, présentation de quelques de math. des accessible question et résultats, esquisse de pistes didactiques 1er gratuitement sur le et 2ème degrés de l’enseigneme site internet l’AGERS nt secondaire l’Agers, http://www.enseignement.be/index.php?page=25160 &navi=2353 * date supposée car non précisée 170 de 8. Annexes 171 8. Annexes Références Auteur Contenu Destinataire Support 8) Acteurs 21 pages Non explicité Document . Lafontaine A Baye, (coord.), A. Matoul, I. Demonty, C. Monseur A. Fagnant, (2004c*), Pisa scientifiques SPE, Ulg 2003. Présentation de la culture mathématique (page consultée le 21 janvier 2009), [Pdf, en ligne], site de accessible Présentation de la manière dont la « culture mathématique » est définie par l’OCDE et évaluée dans le test PISA, exemples de questions, de la gratuitement sur le manière dont l’épreuve a été construite, de la manière dont les échelles de site compétences ont été élaborées l’AGERS internet de l’Agers, http://www.enseignement.be/index.php?page=251 60&navi=2353 * date supposée car non précisée Non explicité Document Auteurs a littératie dans Pisa (2004*), (page consultée le 21 document Présentation de la manière dont la « littéracie » est définie et évaluée dans accessible janvier 2009), [Pdf, en ligne], site de l’Agers, non précisés, le test Pisa gratuitement sur le http://www.enseignement.be/index.php?page=251 mais 60&navi=2353 peut * date supposée car non précisée supposer qu’il du 3 pages 9) ont site internet de l’AGERS s’agit des chercheurs du SPE 10) Auteurs a culture scientifique dans Pisa (2004*), (page document du consultée le 21 janvier 2009), [Pdf, en ligne], site non précisés, de l’Agers, mais http://www.enseignement.be/index.php?page=251 peut 60&navi=2353 supposer * date supposée car non précisée qu’il ont 3 pages Non explicité Document Présentation de la manière dont la « culture scientifique » est définie et accessible évaluée dans le test Pisa gratuitement sur le site internet l’AGERS s’agit des chercheurs 172 de 8. Annexes du SPE 11) Auteurs a résolution de problèmes Pisa 2003 (2004*), document (page consultée le 21 janvier 2009), [Pdf, en ligne], non précisés, site l’Agers, mais http://www.enseignement.be/index.php?page=251 peut 60&navi=2353 supposer * date supposée car non précisée qu’il de du ont 3 pages Non explicité Document Présentation de la manière dont la « résolution de problèmes » est définie accessible et évaluée dans le test Pisa gratuitement sur le site internet l’AGERS s’agit des chercheurs du SPE 173 de 8. Annexes 174 8. Annexes Références Auteur Contenu Destinataire Support Acteurs 22 pages Non explicité Document scientifiques Présentation très succincte de Pisa et de l’échantillon, premiers résultats accessible SPE, Ulg principaux de Pisa 2006, exemples de questions gratuitement sur le PISA 2006 12) . Baye, V. Quittre, G. Hindryckx, A.Fagnant, D. Lafontaine (dir.) (2007a*), Les acquis des élèves en culture scientifique. Premiers résultats de PISA site 2006, (page consultée le 21 janvier 2009), [Pdf, en l’AGERS ligne], site de internet de l’Agers, http://www.enseignement.be/index.php?page=251 60&navi=2353 * date supposée car non précisée 13) . Baye, V. Quittre, G. Hindryckx, A.Fagnant, D. Lafontaine (dir.) (2007b*), Les acquis des élèves Acteurs 55 pages (copies de diapositives PowerPoint) Non explicité scientifiques Présentation très succincte de Pisa et de l’échantillon, premiers résultats probablement servi SPE, Ulg principaux de Pisa 2006, exemples de questions à Document la qui a présentation en culture scientifique. Premiers résultats de PISA des 1er résultats de 2006, (page consultée le 21 janvier 2009), [Pdf, en PISA 2006 lors de ligne], la site de l’Agers, conférence en http://www.enseignement.be/index.php?page=251 décembre 2007 et 60&navi=2353 accessible * date supposée car non précisée gratuitement sur le site internet de l’AGERS Acteurs 14) . Quittre, A. Baye, A. Fagnant, G. Hindryckx (2007*), PISA 2006. Evaluation de la culture scientifique des jeunes de 15 ans. Document à scientifiques SPE, Ulg 76 pages Professeurs Document Présentation du cadre général de Pisa, présentation de questions et de accessible sciences er et résultats de Pisa2006, propositions générales pour « tirer parti de Pisa », des 1 liens opérés entre Pisa et les socles de compétence 2ème degrés l’attention des professeurs de sciences des 1er et de 2e degrés de l’enseignement secondaire, Unité l’enseigneme d’analyse nt des Systèmes et des Pratiques gratuitement sur le site internet l’AGERS 175 de 8. Annexes d’enseignement, Université de Liège, (page secondaire consultée le 3 mars 2009), [Pdf, en ligne], site de l’Agers, http://www.enseignement.be/index.php?page=251 60&navi=2353 * date supposée car non précisée 176 8. Annexes Tableau 3 : La liste des autres documents officiels (Direction des Relations Internationales) Références Auteur 1) Membres RI (1998), Les indicateurs de l’OCDE 1997, Clés de l’administra- Présentation de divers indicateurs de l’OCDE et de la position de la accessible lecture de Regards sur l’Education n°5318, Ministère tion Belgique et/ou de la Communauté française gratuitement sur le de Contenu Destinataire Support 61 pages Non explicité Document de la Communauté française, Secrétariat général, site internet de la (page consultée le 21 janvier 2009), [Pdf, en ligne], DRI site de la DRI, http://www.dri.cfwb.be/documents/CLES-5.PDF de 88 pages Non explicité 2) Membres RI (2001), Les indicateurs de l’OCDE 1998, Clés de l’administra- Présentation de divers indicateurs de l’OCDE et de la position de la accessible lecture de Regards sur l’Education n°6, Ministère de tion Belgique et/ou de la Communauté française gratuitement sur le Document la Communauté française, Secrétariat général, site internet de la (page consultée le 21 janvier 2009), [Pdf, en ligne], DRI site de la DRI, http://www.dri.cfwb.be/documents/CLES-6.PDF 3) Membres RI (2004), Les indicateurs de l’OCDE 2002 et 2003, l’administra- Clés de lecture de Regards sur l’Education n°7, tion Ministère de la Communauté française, Secrétariat de 162 pages Public Document Présentation de divers indicateurs de l’OCDE et de la position de la intéressé par accessible Belgique et/ou de la Communauté française les politiques gratuitement sur le Présentation d’indicateurs construits à partir de PISA 2000 : des tests d’enseignem site internet de la général, (page consultée le 21 janvier 2009), [Pdf, disciplinaires et questionnaires de contexte (accessibilité et utilisation ent DRI en d’ordinateurs dans le cadre familial et scolaire, attitude set pratiques à ligne], site de la DRI, http://www.dri.cfwb.be/documents/CLES-7.PDF l’égard des NTIC, perception du temps de travail, climat au sein de l’école, soutien des enseignants). Il « comporte de larges extraits des rapports nationaux rédigés par les responsables du projet en Communauté française » (p. 76) 318 À partir de 1992, le Centre pour la Recherche et l’Innovation dans l’enseignement (C.E.R.I.) de l’OCDÉ a entrepris, dans le cadre du projet Indicateurs internationaux des systèmes d’enseignement (INES : International Indicators of Education Systems), la publication régulière de Regards sur l’Éducation - Les indicateurs de l’OCDÉ (cf. DRI, 1998, p. 3) 177 8. Annexes Références Auteur 1) Membres RI (2006), Les indicateurs de l’OCDE 2004, Clés de l’administration Présentation de divers indicateurs de l’OCDE et de la position de la accessible lecture de Regards sur l’Education n°8, Ministère de Sont remerciés pour Belgique et/ou de la Communauté française gratuitement sur le la Communauté française, Secrétariat général, leur (page consultée le 21 janvier 2009), [Pdf, en ligne], « collègues du 2000 » site Ministère, de l’engagement envers l’école, de la DRI, http://www.dri.cfwb.be/documents/CLES-8.PDF de participation : Contenu Destinataire Support 144 pages Non explicité Document site internet de la « Termine le développement d’indicateurs issus de l’enquête PISA (p. 6), présentation de « profils de lecture », DRI de l’ETNIC, chercheurs des universités de Liège et de Mons » 2) Membres RI (2007), Les indicateurs de l’OCDE 2006, Clés de l’administration Présentation de divers indicateurs de l’OCDE et de la position de la accessible lecture de Regards sur l’Education n°9, Ministère de Sont remerciés pour Belgique et/ou de la Communauté française gratuitement sur le la Communauté française, Secrétariat général, leur Présentation d’indicateurs construits à partir de PISA 2003 site internet de la (page consultée le 21 janvier 2009), [Pdf, en ligne], « collègues du site Ministère, de de la DRI, http://www.dri.cfwb.be/documents/CLES-9.PDF de participation : 147 pages Non explicité Document DRI l’ETNIC, chercheurs des universités de Liège et de Mons » 178 8. Annexes 8.3 Annexe 3 : Sources de l’analyse documentaire (partie 3 du rapport) Cette annexe présente la liste de tous les documents analysés pour l’étude de la réception et de l’usage des enquêtes PISA en CFB. Cette liste comprend trois parties : 1) les articles de presse ; 2) les documents parlementaires (il s’agit de débats parlementaires retranscrits) ; 3) les articles publiés par le Segec (Secrétariat général de l’enseignement catholique). Au sein de chaque catégorie, les documents sont classés selon le cycle PISA concerné (2000, 2003 et 2006). 8.3.1 La presse La liste des articles de presse reprend tous les articles parus les trois mois suivant la diffusion publique des résultats de PISA (de début décembre à début mars). Ces articles proviennent des deux principaux hebdomadaires en CFB, Le Soir et La Libre. Ils ont tous été analysés. Ils sont classés selon le cycle de PISA concerné (2000, 2003, 2006) et selon le type d’acteur qui s’exprime dans l’article : journaliste, NPM, responsables de l’OCDE, Ministres, Service de pilotage, membres de partis politiques, Pouvoir organisateur de l’enseignement, syndicats d’enseignants, enseignants ou directeurs d’école, autres acteurs de terrain, professeurs du supérieur, chercheurs en psychopédagogie, autres chercheurs universitaires, associations de parents, mouvements pédagogiques. Le tableau 5 montre qu’en dehors des journalistes, ce sont surtout les ministres de l’enseignements ainsi que les membres de partis politiques qui se sont exprimés sur PISA. Certains articles sont classés dans plusieurs rubriques lorsque plusieurs types d’acteurs s’y sont exprimés. Tableau 4 : Ventilation du nombre total d’articles trouvés et analysés, dans Le Soir et La Libre, les trois mois suivant la diffusion des résultats PISA, pour chaque cycle PISA 2000 : Début décembre 2001 -début mars 2002 26 PISA 2003 : Début décembre 2004 -début mars 2005 36 PISA 2006 : Début décembre 2007 -début mars 2008 40 179 8. Annexes Tableau 5 : Ventilation du nombre total d’articles trouvés et analysés, dans Le Soir et La Libre, les trois mois suivant la diffusion des résultats PISA, pour chaque cycle selon la catégorie d’acteurs s’exprimant* PISA 2000 PISA 2003 PISA2006 Total pour les trois cycles Journalistes 15 7 10 32 Ministre de l’enseignement 5 4 4 13 Membres de partis politiques 5 2 5 12 NPM 2 1 5 8 Enseignants et directeurs d’école au secondaire 2 3 3 8 Psychopédagogues 3 4 Professeurs du supérieur 2 1 3 6 Mouvements pédagogiques 1 1 3 5 3 1 4 3 3 2 3 1 3 2 1 Autres acteurs du terrain Responsables de l’OCDE Chercheurs universitaires 1 Associations de parents 1 1 Service du pilotage 7 Pouvoirs organisateurs de l’enseignement 1 1 Syndicats d’enseignant 1 1 Conseil supérieur de pédagogie 1 1 * pour les non-journalistes : soit directement sous forme de « cartes blanches », soit sous forme de propos tenus lors d’entretien et rapportés par un journaliste, soit sous forme de propos synthétisés et rapportés par un journaliste 180 8. Annexes 181 8. Annexes 1) Journalistes PISA 2000 182 8. Annexes Références 1) Acteurs La libre (2001), Le bulletin francophone est déplorable, 4/12/2001 2) Le Soir (2001), Mauvais bulletin pour nos élèves, M. Lamensch, 5/12/2001 3) La libre (2001), Vœu pieux, les classes hétérogènes, P. Piret, 9/12/2001 4) La libre (2001), Comme un bateau sans gouvernail, V. Rocour, 10/12/2001 5) Le Soir (2001), La réforme du recyclage La libre (2001), L'enseignement cherche un pilote, V. Rocour, 12/12/2001 8) La libre (2001), La majorité resserre les rangs, V. Rocour, 13/12/2001 9) Le Soir (2001), Réunion de crise ce jeudi pour vider les conflits et activer le décret PS, P. Bouillon et R. Milutin, 13/12/2001 10) Le Soir (2001), Hautes écoles, emplois en danger, menace de grève, E. Lambert, 14/12/2001 11) La libre (2001), La fin des bibliothèques publiques, G. Duplat, 25/12/2001 12) bonnets d'âne, L. Bertels, 26/12/2001 Journaliste Journaliste Journaliste des profs est toujours dans l'impasse, P. Bouillon, 12/12/2001 7) Journaliste Le Soir (2001), Bonnets d'âne pour les ados francophones, D. Kindermans, 11/12/2001 6) Journaliste La libre (2001), Des échasses au lieu de Journaliste Journaliste Journaliste Journaliste Journaliste Journaliste Journaliste 183 8. Annexes 13) Le Soir (2001), Hazette tire d'autres conclusions de l'étude OCDE, M. Lamensch, 27/12/2001 14) Le Soir (2002), Sénateur à valeur électorale ajoutée, M. Lamensch, 28/01/2002 15) Le Soir (2002), Un colloque a balisé le secteur de l'actualité pour les 8-14ans, C. Laporte, 7/03/2002 Journaliste Journaliste Journaliste PISA 2003 Références 16) Acteurs La Libre (2004), Léger mieux francophone,, Monique Baus, 7/12/2004 17) Journaliste La Libre (2004), La Flandre pavoise, Vincent Rocour, 7/12/2004 18) Journaliste Le Soir (2004), Nos élèves restent très moyens, P. Bouillon, 7/12/2004a 19) Journaliste Le Soir (2004), L’école francophone fait du surplace, P. Bouillon, 7/12/2004b 20) Journaliste Le Soir (2004), pisa, le juste miroir d'une société, P. Bouillon, 8/12/2004 21) Journaliste Le Soir (2004), et vous, avez-vous la Journaliste bosse des maths, P. Bouillon, 8/12/2004b 22) Le Soir (2004), L’école fera mieux en troisième sess’, P. Bouillon, 8/12/2004b 23) francophones, I. Lemal, 14/12/2004 Journaliste Le Soir (2004), mauvais bulletin pour les Journaliste PISA 2006 184 8. Annexes Références 24) Acteurs Le Soir (2007), Pisa les élèves belges ont une bonne moyenne, 4/12/2007a 25) Journaliste Le Soir (2007), Le bulletin de l'enseignement belge, 4/12/2007b 26) Journaliste Le Soir (2007), classement complet des Journaliste pays de l'OCDE, 4/12/2007c 27) Le Soir (2007), Tests pisa peut mieux faire, F. Sooumois, 4/12/2007d 28) Journaliste Le Soir (2007), Les finlandais en tête du classement, 4/12/2007e 29) Journaliste La Libre (2007), Les belges obtiennent une bonne moyenne, 4/12/2007 30) Journaliste La Libre (2007), Faible et inéquitable, L. Gérard, 5/12/2007a 31) Journaliste Le Soir (2007), Trop d'élèves en difficulté Journaliste en Wallonie et à Bruxelles, F. Sooumois, 5/12/2007a 32) Le Soir (2007), Pour doper l'école, la concurrence n'est pas miraculeuse, F. Sooumois, 5/12/2007d 33) les écoles, M. Van Overstraeten, 24/01/2008 Journaliste La Libre (2008), Bill Gates se penche sur Journaliste 2) NPM PISA 2000 185 8. Annexes Références 34) Acteurs La Evoque propos du NPM (D. Lafontaine) La Evoque propos du NPM (D. Lafontaine) libre (2001), Le bulletin francophone est déplorable, 4/12/2001 35) libre (2001), Vœu pieux, les classes hétérogènes, P. Piret, 9/12/2001 PISA 2003 Références 36) Soir (2004), Pourquoi les flamands battent les francophones, P. Bouillon, 7/12/2004c Acteurs Le Entretien avec D. Lafontaine (dirige le service de pédagogie expérimentale de l'ULg) 186 8. Annexes PISA 2006 Références 37) Acteurs Le Soir (2007), Tests pisa peut mieux faire, F. Sooumois, 4/12/2007d 38) Rapport les propos du NPM (A. Baye), analyste OCDE, Ministre enseignement La Libre (2007), Faible et inéquitable, L. Gérard, 5/12/2007a Rapporte les propos de D. Lafontaine (chercheuse Ulg) et de l’équipe de recherche de l’Ulg Entretien de A. Baye, NPM et chercheuse à l'Unité d'analyse 39) La Libre (2007), Le salut viendra-t-il de la Pologne, entretien de A. Baye par L. Gérard, 5/12/2007c 40) de Liège Le Soir (2007), Trop d'élèves trop faibles, entretien de D. Lafontaine, 5/12/2007b 41) des systèmes et des pratiques d'enseignement à l'Université Entretien de D. Lafontaine qui dirige le service de pédagogie expérimentale de l'ULg La Libre (2007), La phrase, 6/12/2007 Phrase prononcée par D. Lafontaine, professeure à l'ULg, sur une radio publique (La Première, 5/12), 3) Analystes de l’OCDE PISA 2006 Références 42) Acteurs Le Soir (2007), Tests pisa peut mieux faire, F. Sooumois, 4/12/2007d 43) l’Education de l’OCDE (E. Charbonnier), Ministre enseignement Le Soir (2007), Les finlandais en tête du classement, 4/12/2007e 44) Soir (2007), L’autonomie pédagogique ou la voiture de société ?, 5/12/2007c Rapport les propos du NPM, analyste à la direction de Rapport les propos d’un analyste à la direction de l’Education de l’OCDE (E. Charbonnier) Le Relate propos de B. Ischinger, directrice du Directorat pour l’Education et réaction de M. Arena, ministre l’enseignement 187 de 8. Annexes 4) Ministres de l’enseignement PISA 2000 Références 45) Acteurs La libre (2001), Le bulletin francophone est déplorable, 4/12/2001 46) Evoque propos du Ministre de l’ens. Sec. (P. Hazette) et NPM ( D. Lafontaine) Le Evoque propos du Ministre de l’ens. Sec. (P. Hazette) Soir (2001), Mauvais bulletin pour nos élèves, M. Lamensch, 5/12/2001 47) Le Soir (2001), Bonnets d'âne pour les ados francophones, D. Kindermans, 11/12/2001 48) Evoque propos du Ministre de l’ens. Sec. (P. Hazette) Le Soir (2001), Hazette tire d'autres conclusions de l'étude OCDE, M. Lamensch, 27/12/2001 49) Evoque propos du Ministre de l’ens. Sec. (P. Hazette) Le Soir (2002), Le corps d'inspecteurs sera découpé en trois, P. Bouillon, 07/02/2002 PISA 2003 Références 50) Acteurs Le Soir (2004), Nos élèves restent très moyens, P. Bouillon, 7/12/2004a 51) Rapporte propos du Ministre de l’ens. Sec. (M. Arena) Le Soir (2004), l'enquête pisa décortiquée à mise au point, M. Lamensch, 13/12/2004 52) Rapporte propos du Ministre de l’ens. Sec. (M. Arena) Le Soir (2005), Arena passe contrat avec l'école, P. Bouillon, 22/01/2005 53) Le Soir (2005), pour un toboggan de la réussite, P. Bouillon, 1/03/2005 PISA 2006 188 8. Annexes Références 54) Acteurs Le Soir (2007), Le bulletin de l'enseignement belge, 4/12/2007b Rapporte propos du Ministre de l’enseignement, M. Arena Rapporte les propos du NPM, analyste à la direction de 55) Le Soir (2007), Tests pisa peut mieux faire, F. Sooumois, 4/12/2007d 56) (M. Arena) La Libre (2007), Arena, aller chercher les populations en décrochage, L. Gérard, 5/12/2007b 57) Soir (2007), L’autonomie pédagogique ou la voiture de société ?, 5/12/2007c l’Education de l’OCDE (E. Charbonnier), Ministre enseignement Rapporte les propos du Ministre de l’enseignement (M. Arena) Le Relate propos de B. Ischinger, directrice du Directorat pour l’Education et réaction de M. Arena, ministre de l’enseignement 189 8. Annexes 5) Service de pilotage PISA 2006 Références 58) Acteurs Le Soir (2008), Des tests de math indiscrets, P. Berkenbaum, 20/02/2008 Reprend notamment les propos de la directrice adjoint du service de pilotage du système éducatif, M. Herphelin 6) Membres de partis politiques PISA 2000 Références 59) Acteurs La libre F. Dupuis (2001), Profitons du choc pour avancer, V. Rocour, 5/12/2001 60) Propos de la ministre de l’Enseignement supérieur, F. Dupuis, Le Soir (2001), OCDE : Lire l’enquête, toute l’enquête, Dossier : Notre enseignement a-t-il tout faux ? W. Bourton, C. F. Dupuis, Ministre de l'Ens. sup. et de l'Ens. de Schoune et M. Lamensch, 06/12/2001 promotion sociale 61) Le Soir PSC (2001), Contrôle et qualité, Brève , 7/12/2001 Evoque propos du NPM (D. Lafontaine), ministre de l’ens. Fondam. (J. M. Nollet), ministre de l’ens. sup. (F. Dupuis), profs du secondaire, président de la Fapeo 62) La libre (2001), Vœu pieux, les classes hétérogènes, P. Piret, 9/12/2001 63) (P. Spehl,), recteur de l'UCL (M. Crochet), PSC (A. Antoine) La libre (2002), Enseignement : le PRL plus PSC que le PSC, 25/01/2002 PISA 2003 190 8. Annexes Références 64) Acteurs La Libre (2004), Belgique, 8/12/2004 65) Soir (2005), Latin, vade retro arena, P. Bouillon, 15/02/2005 Rapporte position du MR et Ecole Le Reprend les propos d’une députée MR (F. Bertieaux) 191 8. Annexes PISA 2006 Références 66) Acteurs La Libre (2007), l'enquête PISA suscite des réactions, 4/12/2007b 67) l’Association de parents luttant contre l’échec scolaire La Propos du MR Libre (2007), Inscriptions, le MR exige une évaluation, 4/12/2007c 68) La Libre (2007), Pisa : Marie Arena minimise, dit le MR L. Gérard, 7/12/2007 69) Propos du sénateur MR (A. Destexhe) et de la présidente du groupe MR à la CF (F. Bertieaux) Le Soir (2008), L'enjeu des Chiroux, E. Lambert, 19/01/2008 70) Reprend les propos d’un sénateur MR (A. Destexhe) et Propos de PE. Mottard, député Le Soir (2008), Dévoyer une évaluation en maths pour corroborer une idéologie, F. Bertieaux, 11/03/2008 F. Bertieaux, Chef de Groupe MR au parlement de la Communauté française 7) Pouvoir organisateur PISA 2000 Références 71) Acteurs Le Entretien de J. Lefere, Administrateur délégué du Conseil des Soir (2001), Réhabiliter la loi de l’effort, Dossier : Notre enseignement a-t-il tout faux ? M. Lamensch, pouvoirs 06/12/2001 provincial organisateurs de l’enseignement communal 8) Syndicat PISA 2000 192 et 8. Annexes Références 72) Acteurs Le Soir (2002), Blues sur le métier de professeur, le refinancement de l'école est bidon, entretien de M. Vrancken par P. Bouillon, 18/02/2002. Président de la CGSP Enseignement (syndicat socialiste) 193 8. Annexes 9) Enseignants et directeur d’écoles au secondaire PISA 2000 Références 73) Acteurs La libre Propos d’enseignants du secondaire (2001), Vœu pieux, les classes hétérogènes, P. Piret, 9/12/2001 74) D. Leturcq, Le Soir (2002), Pistes concrètes pour l'enseignement, Carte blanche, 4/01/2002 Directeur d’une école secondaire PISA 2003 Références 75) Acteurs F. Minet, La Libre (2004), Pisa a dit, 10/12/2004 76) Professeur de géographie et conseillère pédagogique Le Soir (2004), L'invité du samedi : P. Timmermans, disciple de la pédagogie raffinée, entretien par P. Lorent, 18/12/2004 P. Timmermans, directeur d’école Rapporte les critiques de la Feadi (Fédération des 77) Le Soir (2005), Ecole, les directions du secondaire catholique critiquent l'avalanche de propositions, P. Bouillon, 4/02/2005 associations des directeurs de l’enseignement secondaire catholique) à l’égard du contrat stratégique PISA 2006 Références 78) Acteurs La Libre (2008), constater les échecs, P. Sentjens, 4/01/2008 79) P. Sentjens, professeur de cours généraux à la CF La Libre (2007), Pleure sur ton école bafouée, P. Anselin, Directeur de l'Institut Saint-Joseph de Charleroi, P. Anselin, Directeur de l'Institut Saint-Joseph de Charleroi 10/12/2007 80) Libre (2008), semaine de remédiation ou de congé, L. Gérard, 31/01/2008 La reprend les propos de son directeur (P. Carlier, Colège SteCroix et Notre-Dame à Hannut) 194 8. Annexes 10) Autres acteurs de terrain PISA 2003 Références 81) Acteurs Le Soir (2004), Formation, informatique : secrets du miracle flamand, D. Vanoverbeke, 8/12/2004e directeur d’école, directeur d’un CLB (équivalent centre PMS) et éditeur de manuels scolaires en Flandre Relate les propos tenus par les éditeurs scolaires francophones 82) La Libre (2004), Cinq fois plus de manuels scolaires en Flandre, A. Hovine, 10/12/2004 83) dans une lettre ouverte adressée au ministre de l’enseignement (M. Arena) Le Soir (2004), Pour le retour du manuel, 11/12/2004 Les éditeurs scolaires (association) PISA 2006 Références 84) Acteurs Le Soir (2008), Les trois quarts des lauréats sont enfants de docteur, entretien de N. Spaas par F. Sooumois, N. Spaas, première permanente de la VVS, la fédération des 9/02/2008 étudiants flamands 11) Professeurs du Supérieur PISA 2000 Références 85) Acteurs J.- M. Ferry, Le Soir (2001), « Parfois on frise l’illettrisme », Dossier : Notre enseignement a-t-il tout faux ? W. J.-M. Ferry, Professeur de philosophie et de sciences politiques Bourton, C. Schoune, 6/12/2001 à l'Université libre de Bruxelles (ULB) 86) Soir (2002), C. Leleux, La désintégration de l'enseignement, 5/01/2002 Le Maître-assistante aux Hautes Ecoles de Bruxelles PISA 2003 195 8. Annexes Références 87) Soir (2004), Changez la manière d’apprendre à lire, Entretien de G. Legros, par R. Gutierrez, 8/12/2004c Acteurs Le G. Legros, professeur émérite de linguistique aux Facultés Notre-Dame, à Namur, par R. Gutierrez 196 8. Annexes PISA 2006 Références Acteurs / Mode de diffusion / Destinataire explicité P. de Maret, professeur d’anthropologie à l’ULB, ancien recteur Le 88) Soir (2008), Une compétition inégale, entretien de P. de Maret, 13/02/2008a de l’ULB et membre du Bureau de l’European University Association Le 89) Soir (2008), Non au piège de l’ignorance, entretien de B. Coulie par C. Moreau, 13/02/2008b B. Coulie, recteur de l’UCL F.-X. Druet, Docteur en Philosophie et Lettres, enseignant au Le 90) Collège et aux Facultés Notre-Dame de la Paix, Centre Interfaces Soir (2008), L'inculture du résultat, F.-X. Druet, 14/02/2008 12) Conseil supérieur pédagogique319 PISA 2003 Références Acteurs Rapporte un avis émis par le conseil supérieur pédagogique Le 91) Soir (2004), Enseignement, un avis du Conseil supérieur pédagogique, P. Bouillon, 16/12/2004 demandé initialement par la ministre de l’enseignement supérieur, M.D. Simonet (CDH) 13) Psychopédagogues PISA 2000 319 Organe représentatif du secteur des écoles normales, qui réunit les pouvoirs organisateurs, syndicats et représentants étudiants (Le Soir, 16/12/04) 197 8. Annexes Références 92) Acteurs P. Piret, Le Soir (2001), Les dérapages d’une réforme pédagogique, Carte blanche, 20/12/2001 P. Piret, Maître-assistant en psychopédagogie à la Haute Ecole Charleroi-Europe J.-M. Braibant, Conseiller pédagogique à l'UCL et F.-M. 93) Le Soir (2001), Apprendre à lire ? Aussi une question de méthode, Carte blanche, 20/12/2001 Gérard, Directeur adjoint du Bureau d'ingénierie en éducation et en formation Cite 94) (2001), Bonnets d'âne pour les ados francophones, D. Kindermans, 11/12/2001 Le Soir le minsitre de l’enseignement secondaire (P. Hazette) et J.L. Wolfs (chargé de cours en sciences de l’éducation à l’Université libre de Bruxelles) 198 8. Annexes PISA 2003 Références 95) Acteurs Le Soir (2004), Libérer les profs, cibler l’intervention, Entretien de M. Jehin, par R. Gutierrez, 8/12/2004d 96) expérimentale de l'Université de Liège, Le Soir (2004), Un soutien massif aux faibles, Entretien de V. Dupriez, par P. Bouillon, 8/12/2004f 97) V. Dupriez, professeur de sciences pédagogiques à l'UCL Le Soir (2004), l’enquête Pisa est biaisée culturellement, 8/12/2004g 98) . Jehin, assistante de recherche au service de pédagogie Rapporte les propos de M. Romainville, professeur Facultés universitaires Notre-Dame de Namur Le « expert flamand en pédagogie » (J. Vanderhoeven) Soir (2004), l'enquête pisa décortiquée à mise au point, M. Lamensch, 13/12/2004 14) Autres chercheurs universitaires PISA 2000 Références 99) Acteurs La libre (2001), Pour un contrat de gestion des écoles, entretien de V. Vandenberghe par V. Rocour, 4/12/2001 V. Vandenberghe (UCL), docteur en économie PISA 2006 Références 100) Acteurs Le Soir (2007), Les files devant les écoles : un remède à la maladie chronique de notre système scolaire ?, C. Maroy, Professeur de sociologie, Girsef C. Maroy, 12/12/2007 101) Libre (2008), L'enseignement est le problème n°1, entretien de R. Deschamps, 11/02/2008 La de R. Deschamps, professeur en économie aux FUNDP 199 aux 8. Annexes 15) Association de parents PISA 2000 Références 102) Acteurs La libre (2001), Ne pas se flageller, mais se mobiliser, entretien de H. Wittorski par A. Hovine, 5/12/2001 Président de l'Ufapec (H. Wittorski) PISA 2003 Références 103) Acteurs Le Soir (2004), être bon parent et bon citoyen, le paradoxe, entretien de P. Schwarzenberger par H. Dorzée, Vice-président de la Fédération des associations de parents 8/12/2004h d'élèves de l'enseignement officiel PISA 2006 Références Acteurs Reprend les propos d’un sénateur MR (A. Destexhe) et 104) La communiqué de l’Association de parents luttant contre l’échec scolaire Libre (2007), l'enquête PISA suscite des réactions, 4/12/2007b 16) Mouvements pédagogiques PISA 2000 Références Acteurs / Mode de diffusion / Destinataire explicité 105) N. APED (Appel pour une école démocratique), N. Hirtt Hirtt, Le Soir (2001), On a donc essayé l’ignorance, dossier Notre enseignement a-t-il tout faux ? par W. Bourton, C. Schoune et M. Lamensch, 06/12/2001 PISA 2003 200 8. Annexes Références Acteurs / Mode de diffusion / Destinataire explicité 106) Soir (2004), l'enquête pisa décortiquée à mise au point, M. Lamensch, 13/12/2004 Le N. Hirtt, enseignant à Nivelles 201 8. Annexes PISA 2006 Références Acteurs / Mode de diffusion / Destinataire explicité 107) Le Soir (2008), ne pas comprendre la réalité de l'inégalité sociale à l'école ou ne pas vouloir la voir ?, N. Hirtt, . Hirtt, Membre fondateur 21/02/2008 démocratique) 108) Le Soir (2008), Ecart d'enseignement le programme et le financement, 28/02/2008 109) Soir (2008), Le retard scolaire dû au programme, P. Berkenbaum, 29/02/2008 de l'APED (Appel pour une école l’APED Le l’APED 202 8. Annexes 8.3.2 Les documents parlementaires La liste suivante reprend tous les documents parlementaires (il s’agit de débats parlementaires retranscrits) citant PISA pendant la session suivant la publication des résultats (de début décembre à juillet), pour chacun des trois cycles de PISA. Ils sont classés selon le cycle PISA concerné (2000, 2003 et 2006). Tous ces documents ont été analysés. A titre indicatif, le tableau 6 montre le nombre de documents parlementaires citant PISA, PIRLS et TIMSS depuis la première fois où l’une d’entre elles apparaît dans la recherche documentaire que nous avons effectuée. Tableau 6 : Nombre de documents parlementaires citant PISA, PIRLS et TIMSS Sessions parlementaires Nb. documents Nb. documents Nb. documents citant « PISA » : citant « PIRLS » citant « TIMSS » 1996-1997 1 1999-2000 2 2000-2001 2 2001-2002 9 2002-2003 4 2003-2004 5 2004-2005 24 2005-2006 15 2006-2007 11 3 2007-2008 27 5 5 2 1 104 11 2 2008-2009 (session non terminée) TOTAL 1 Les cases grisées renvoient aux documents analysés 203 8. Annexes PISA 2000 Parlement de la Communauté Française, Compte rendu intégral, CRI n°3 (SE 1999), 19 juillet 1999. Parlement de la Communauté Française, Avis présenté au nom de la Commission des Relations internationales, 31 (1999-2000), n°4, 23 novembre 1999. Parlement de la Communauté Française, Compte rendu intégral, CRI n°4 (2001-2002), 11 décembre 2001. Parlement de la Communauté Française, Rapport présenté au nom de la Commission de l’Education, Proposition de décret relative au pilotage du système éducatif de la Communauté française, 229 (2001-2002), n°3, 28 février 2002. 5) Parlement de la Communauté Française, Compte rendu intégral, CRI n°11 (2001-2002), 24 avril 2002. 6) Parlement de la Communauté Française, Projet de décret relatif à la formation en cours de carrière dans l’enseignement spécial, l’enseignement secondaire ordinaire et les centres psycho-médico-sociaux et à la création d’un institut de la formation en cours de carrière en interréseaux, 281 (2001-2002), n°1, 30 mai 2002. 7) Parlement de la Communauté Française, Rapport introductif portant sur la « maîtrise du français en Communauté française : état de la question et pistes de remédiation éventuelles », déposé par M. Dupont, 263 (2001-2002), n°1. 8) Parlement de la Communauté Française, Rapport présenté au nom de la Commission de l’éducation par M. Léonard, Projet de décret relatif à la formation en cours de carrière des membres du personnel des établissements d’enseignement fondamental ordinaire, 277 (2001-2002), n°3, 19 juin 2002. 9) Parlement de la Communauté Française, Rapport présenté au nom de la Commission de l’éducation par M. Henry, Projet de décret relatif à la formation en cours de carrière dans l’enseignement spécial, l’enseignement secondaire ordinaire et les centres psycho-médico-sociaux et à la création d’un institut de la formation en cours de carrière en interréseaux, 281 (20012002), n°3, 20 juin 2002. 1) 2) 3) 4) PISA 2003 Parlement de la Communauté Française, Compte rendu intégral, CRI n°6 (2004-2005), 13 décembre 2004. Parlement de la Communauté Française, Compte rendu intégral, CRI n°7 (2004-2005), 14 décembre 2004. Parlement de la Communauté Française, Compte rendu intégral, CRI n°8 (2004-2005), 15 décembre 2004. Parlement de la Communauté Française, Compte rendu intégral, CRI n°14, Educ 2 (2004-2005), 16 décembre 2004. Parlement de la Communauté Française, Bulletin des questions et des réponses, n°3 (2004-2005), 31 décembre 2004. Parlement de la Communauté Française, Compte rendu intégral, CRI n°16 – Educ. 3 (2004-2005), 11 janvier 2005. Parlement de la Communauté Française, Contrat stratégique pour l’éducation, 62 (2004-2005), n°1, 25 janvier 2005. Parlement de la Communauté Française, Compte rendu intégral, CRI n°21 – Educ. 4 (2004-2005), 26 janvier 2005. Parlement de la Communauté Française, Compte rendu intégral, CRI n°11 (2004-2005), 15 février 2005. Parlement de la Communauté Française, Compte rendu intégral, CRI n°12 (2004-2005), 16 février 2005. Parlement de la Communauté Française, Compte rendu intégral, CRI n°28 – Educ. 5 (2004-2005), 17 février 2005. Parlement de la Communauté Française, Compte rendu intégral, CRI n°33 – Educ. 6 (2004-2005), 2 mars 2005. Parlement de la Communauté Française, Bulletin des questions et des réponses, n°6 (2004-2005), 31 mars 2005. Parlement de la Communauté Française, Compte rendu intégral, CRI n°18 (2004-2005), 21 juin 2005. Parlement de la Communauté Française, Projet de décret modifiant le décret du 12 décembre 2000 relatif à la formation initiale des instituteurs et des régents, Rapport de Commission présenté au nom de l’Enseignement supérieur et de la recherche scientifique par M. F. Delperée, 124 (2004-2005), n°3, 24 juin 2005. 25) Parlement de la Communauté Française, Projet de décret contenant l’ajustement du budget général des dépenses de la Communauté française pour l’année budgétaire 2005, Avis présenté au nom de la Commission de l’enseignement supérieur et de la recherche scientifique par J. Kapompolé, 134 (2004-2005) ; n°6, 28 juin 2005. 26) Parlement de la Communauté Française, Compte rendu intégral, CRI n°21 (2004-2005), 19 juillet 2005. 10) 11) 12) 13) 14) 15) 16) 17) 18) 19) 20) 21) 22) 23) 24) PISA 2006 27) Parlement de la Communauté Française, Compte rendu intégral, CRI n°8 (2007-2008), 10 décembre 2007. 204 8. Annexes Parlement de la Communauté Française, Compte rendu intégral, CRI n°9 (2007-2008), 11 décembre 2007. Parlement de la Communauté Française, Intégration scolaire des enfants en situation de handicap. Rapport de Commission présenté au nom de la Commission de l’Education par V. Jamoulle et C. Persoons, M. Elsen et Y. Reinkin, 478 (2007-2008), n°1, 13 décembre 2007. 30) Parlement de la Communauté Française, Bulletin des questions et des réponses, n°3 (2007-2008), 31 décembre 2007. 31) Parlement de la Communauté Française, Compte rendu intégral, CRI n°42, Educ. 7 (2007-2008), 24 janvier 2008. 32) Parlement de la Communauté Française, Bulletin des questions et des réponses, n°4 (2007-2008), 31 janvier 2008. 33) Parlement de la Communauté Française, Compte rendu intégral, CRI n°47, Educ. 8 (2007-2008), 13 février 2008. 34) Parlement de la Communauté Française, Compte rendu intégral, CRI n°14 (2007-2008), 26 février 2008. 35) Parlement de la Communauté Française, Compte rendu intégral, CRI n°50, Fin 11 (2007-2008), 27 février 2008a. 36) Parlement de la Communauté Française, Compte rendu intégral, CRI n°52, Educ 9 (2007-2008), 27 février 2008b. 37) Parlement de la Communauté Française, Compte rendu intégral, CRI n°15 (2007-2008), 11 mars 2008. 38) Parlement de la Communauté Française, Compte rendu intégral, CRI n°57, Educ 11 (2007-2008), 12 mars 2008. 39) Parlement de la Communauté Française, Evaluation de la mise en œuvre du décret « inscriptions », Rapport de Commission présenté au nom de la Commission de l’Education par A.M. Corbisie-Hagon et B. Defalque, 527 (2007-2008), n°1, 12 mars 2008a. 40) Parlement de la Communauté Française, Proposition de résolution relative aux modalités de mise en œuvre par les établissements scolaires du décret du 8 mars 2007 portant diverses mesures visant à réguler les inscriptions et les changements d’école dans l’enseignement obligatoire, en particulier le dispositif d’inscription des élèves dans le premier degré de l’enseignement secondaire ordinaire, déposée par L. Walry, V. Jamoulle, F. Fassiaux-Looten, A-M. Corbisier-Hagon, M. Elsen et J. De Groote, 525 (2007-2008), n°1, 12 mars 2008b. 41) Parlement de la Communauté Française, Compte rendu intégral, CRI n°62, Educ 12 (2007-2008), 9 avril 2008a. 42) Parlement de la Communauté Française, Projet de décret fixant les conditions pour pouvoir satisfaire à l’obligation scolaire en dehors de l’enseignement organisé ou subventionné par la Communauté Française, Rapport de Commission présenté au nom de la Commission de l’Education par V. Bonni, 521 (2007-2008) N)3, 09/04/2008b. 43) Parlement de la Communauté Française, Compte rendu intégral, CRI n°18 (2007-2008), 22 avril 2008. 44) Parlement de la Communauté Française, Proposition de décret visant à réguler les inscriptions des élèves dans le premier degré de l’enseignement secondaire et à favoriser la mixité au sein des établissements scolaires déposée par L. Walry et A.-M. Corbisier-Hagon, 552 (2007-2008) n°1, 20 mai 2008a. 45) Parlement de la Communauté Française, Compte rendu intégral, CRI n°21 (2007-2008), 20 mai 2008b. 46) Parlement de la Communauté Française, Compte rendu intégral, CRI n°83, Educ. 16 (2007-2008), 3 juin 2008. 47) Parlement de la Communauté Française, Bulletin des questions et des réponses, n°9 (2007-2008), 30 juin 2008. 48) Parlement de la Communauté Française, Proposition de décret abrogeant les nouvelles dispositions en matière d’inscription des élèves et de changement d’école en cours d’année, Rapport de Commission présenté au nom de la Commission de l’Education par P. Bravacal, 491 (2007-2008), n°2, 2 juillet 2008. 49) Parlement de la Communauté Française, Compte rendu intégral, CRI n°26 (2007-2008), 17 juillet 2008. 50) Parlement de la Communauté Française, Bulletin des questions et des réponses, n°10 (2007-2008), 29 août 2008. 28) 29) 8.3.3 Les publications du Secrétariat général de l’enseignement catholique La liste suivante reprend les articles évoquant PISA qui ont été publiés dans la revue « Entrées Libres », une publication du Secrétariat général de l’enseignement catholique. Cette liste ne reprend pas toutes leurs publications concernant PISA. 1) 2) 3) M.N. Lovenfosse, « Regards externes. Qualité interne », Entrées Libres, n°8, avril 2006, pp. 20-21. E. Descamps, B. Gerard, « Au-delà du 10 juin : les priorités du Segec », Entrées Libres, n°19, mai 2007, pp. 4-5. J. Vandenschrick, J.-P. Degives, R. Polis, « Il y loind de la coup aux lèves », Entrées Libres, n°19, mai 2007, pp. 2-3. 205 8. Annexes 4) 5) 6) E. Michel, « Deux concepts, deux graphiques pour une … meilleure régulation ! », Entrées Libres, n°19, mai 2007, pp. 7-8. B. Gerard, « Il y un pilote dans l’avion », Entrées Libres, n°23, novembre 2007, pp. 12-13. J.-P. Degives, « Et si c’était quand même une question d’efficacité ? », Entrées Libres, n°25, janvier 2008, pp. 16-17. 206 8. Annexes 8.4 Annexe 4 : La liste des publications analysés dans la partie 4 du rapport (travaux d’analyse des données PISA en Communauté française) Cette liste est ordonnée en fonction des groupes de chercheurs définis dans la partie 4 du rapport. ULg et Ministère ULg 1. Direction des relations internationales (2004), Les acquis des élèves, in Clés de lecture de Regards sur l’éducation, n° 7, Les indicateurs de l’OCDE, Ministère de la Communauté française, 77-105 ULg 2. Direction des relations internationales (2006), Les acquis des élèves, in Clés de lecture de Regards sur l’éducation, n° 8, Les indicateurs de l’OCDE 2004, Ministère de la Communauté française, 80-99 ULg 3. Direction des relations internationales (2007), Les acquis des élèves, in Clés de lecture de Regards sur l’éducation, n° 9, Les indicateurs de l’OCDE 2006, Ministère de la Communauté française, 86-109 ULg Rapports « premiers résultats » ULg 4. Lafontaine Dominique, Baye Ariane, Matoul Anne, Demeuse Marc, Demonty Isabelle (2001). Au-delà des performances des jeunes de 15 ans, un système éducatif se profile…, Bruxelles : Ministère de la Communauté française de Belgique. ULg 5. Baye Ariane, Demonty Isabelle, Fagnant Annick, Matoul Anne, Monseur Christian et Lafontaine Dominique (coord.) (2004), Pisa 2003 : quels défis pour notre système éducatif ?, Bruxelles : Ministère de la Communauté française. ULg 6. Baye Ariane, Quittre Valérie, Hindryckx Geneviève, Fagnant Annick (2008), Les acquis des élèves en culture scientifique. Premiers résultats de PISA 2006, Bruxelles : Ministère de la Communauté française. Rapports du SPE ULg 7. Lafontaine Dominique, Baye Ariane, Burton R., Demonty Isabelle, Matoul Anne et Monseur Christian (2003), Les compétences des jeunes de 15 ans en Communauté française en lecture, en mathématiques et en sciences. Résultats de l’enquête Pisa 2000. Cahiers du Service de Pédagogie expérimentale, 13-14. ULg 8. Baye Ariane, Demonty Isabelle, Fagnant Annick, Lafontaine Dominique, Matoul Anne, Monseur Christian (2004), Les compétences des jeunes de 15 ans en communauté 207 8. Annexes française de Belgique en mathématiques, en lecture et en sciences. Résultats de l’enquête PISA 2003, Les Cahiers du Service de Pédagogie expérimentale, n° 19-20. ULg 9. Baye Ariane, Blondin Christiane, Fagnant Annick, Hindryckx Geneviève, Lafontaine Dominique, Matoul Anne, Monseur Christian et Quittre Valérie (2009). Les compétences des jeunes de 15 ans en Communauté française en en sciences, lecture et en mathématiques. Résultats de l’enquête Pisa 2006. Cahiers des Sciences de l’éducation, 29-30. Autres publications ULg 10. Baye Ariane (2005), Entre efficacité et équité : ce que les indicateurs de l’OCDE veulent dire, in Marc Demeuse, Ariane Baye, Marie-Hélène Straeten, Julien Nicaise et Anne Matoul (eds), Vers une école juste et efficace, de Boeck, 539-558 ULg 11. Baye Ariane, Lafontaine Dominique et Vanhulle Sabine (2003), Lire ou ne pas lire. État de la question. Les Cahiers du Centre de Lecture Publique de la Communauté française, 4. Bruxelles : Ministère de la Communauté française. ULg 12. Blondin Christiane et Lafontaine Dominique (2005), Les profils des filles et des garçons en sciences et en mathématiques. Un éclairage basé sur les enquêtes internationales, in Marc Demeuse, Ariane Baye, Marie-Hélène Straeten, Julien Nicaise et Anne Matoul (eds), Vers une école juste et efficace, de Boeck, 317-336 ULg 13. Crahay Marcel et Monseur Christian (2006), Différences individuelles et effets d’agrégation en ce qui concerne les performances en lecture : Analyse secondaire des données PISA 2000. In C. Houssemand, R. Martin, P. Dickes (Eds), Perspectives de psychologie différentielle. Presses Universitaires de Rennes, Rennes, pp 23-34. ULg 14. Demeuse Marc, Lafontaine Dominique et Straeten Marie-Hélène (2005), Parcours scolaire et inégalités de résultats, in Marc Demeuse, Ariane Baye, Marie-Hélène Straeten, Julien Nicaise et Anne Matoul (eds), Vers une école juste et efficace, de Boeck, 259-273 ULg 15. Lafontaine Dominique et Blondin Christiane (2004), Regards sur les résultats des élèves en Communauté française. Apports des enquêtes de l’IEA, de PISA et des évaluations externes, De Boeck Université. ULg 16. Monseur Christian et Crahay Marcel (2008), Composition académique et sociale des établissements, efficacité et inégalités scolaires : une comparaison internationale. Analyse secondaire des données PISA 2006. Revue française de pédagogie, 164, 55-65 ULg 17. Monseur Christian et Lafontaine Dominique (2009). Regroupement par aptitude et/ou ségrégation sociale des publics ?, in Vincent Dupriez et Xavier Dumay, L’efficacité en éducation, promesses et zones d’ombre, De Boeck. 208 8. Annexes ULg et UMH ULg 18. Demeuse Marc et Baye Ariane (2008), Mesurer et comparer l’équité des systèmes éducatifs en Europe, Education et formations, 78, 137-149 ULg 19. Demeuse Marc, Friant Nathanaël et Baye Ariane (2008), Over stromen en watervallen : curricula die niet discrimineren. In I. Nicaise, & E. Desmedt (Eds). Gelijke kansen op school: het kan. Zestein sporen voor praktijk en beleid (pp. 193-224). Mechelen: Plantyn. APED APED 1. Hirtt Nico (2008), Pourquoi les performances PISA des élèves francophones et flamands sont-elles si différentes ?, Appel pour une école démocratique. APED 2. Hirtt Nico (2005), Belgique-Finlande : le coût exorbitant du libéralisme scolaire, L’école démocratique, 24. APED 3. Hirtt Nico (2006), PISA 2003 et les mauvais résultats des élèves issus de l’immigration en Belgique. Handicap culturel, mauvaise intégration, ou ségrégation sociale ?, Appel pour une école démocratique. APED 4. Hirtt Nico (2007), Performances scolaires des élèves allochtones et origine sociale, Notes marginales auprès du rapport de la Fondation Roi Baudouin, Appel pour une école démocratique. APED 5. Hirtt Nico (2007), Impact de la liberté de choix sur l’équité des systèmes éducatifs ouest-européens, Appel pour une école démocratique. FUNDP FUNDP 1. Adam Frantz, Gevers Louis, Verheyden Bertrand et Gaspart Frédéric (2004), Adolescents et déjà inégaux, Reflets et perspectives, LXI, 4, 65-85. UCL – GIRSEF UCL 1. Dumay Xavier et Galand Benoït (2008), Le rôle des établissements scolaires dans les inégalités de traitement et de résultats : le cas de la Communauté française de Belgique, in Vincent Dupriez, Jean-François Orianne et Marie Verhoeven (eds), De l’école au marché du travail, l’égalité des chances en question, Peter Lang, 185-204 UCL 2. Dumay Xavier et Dupriez Vincent (2004), Effet établissement : effet de processus et/ou effet de composition, Les cahiers de recherche en éducation et formation, 36 UCL 3. Dumay Xavier et Dupriez Vincent (2007), Effet établissement : quelles relations entre composition sociale des établissements et processus internes ? in Mariane Frenay et Xavier Dumay (eds), Un enseignement démocratique de masse. Une réalité qui reste à réinventer, Presses Universitaires de Louvain, 79-104 209 8. Annexes UCL 4. Dupriez Vincent et Dumay Xavier (2004), L’égalité dans les systèmes scolaires : effet école ou effet société ?, Les cahiers de recherche en éducation et formation, 31 UCL 5. Dupriez Vincent et Vandenberghe Vincent (2008), Les inégalités dans les systèmes scolaires en Europe : état des lieux, in Vincent Dupriez, Jean-François Orianne et Marie Verhoeven (eds), De l’école au marché du travail, l’égalité des chances en question, Peter Lang, 165-184 UCL 6. Vandenberghe Vincent (2004), Achievement effectiveness and equity. The role of Tracking, Grade-Repetition and Inter-school Segregation, Cahiers du Girsef, 28 UCL 7. Vandenberghe Vincent et Waltenbergh Fabio (2007), La ségrégation scolaire et spatiale en Communauté française : une réalité stable ?, in Mariane Frenay et Xavier Dumay (eds), Un enseignement démocratique de masse. Une réalité qui reste à réinventer, Presses Universitaires de Louvain, 157-190 UCL – IRES UCL 8. De la Croix David et Doepke Matthias (2009), To Segregate or to Integrate: Education Politics and Democracy, Review of Economic Studies, forthcoming UCL 9. De la Croix David et Vandenberghe Vincent (2004), Human capital as a factor of growth and employment at the regional level. The case of Belgium, Report for the European union. ULB ULB 1. Jacobs Dirk, Rea Andrea, Hanquinet Laurie (2007), Performances des élèves issus de l’immigration en Belgique selon l’étude PISA. Une comparaison entre la Communauté française et la Communauté flamande, Fondation Roi Baudouin. MR MR 1 Destexhe Alain (2008), Un sujet tabou : l’enseignement libre, meilleur que l’officiel selon PISA, communiqué de presse, mai 2008. 210