WP12 RapportPISA Belgium Educ VF

Transcription

WP12 RapportPISA Belgium Educ VF
Réception, usage et circulation au niveau
national d’un instrument supranational de
régulation basé sur la connaissance : les
enquêtes PISA
Le cas de la Communauté française de
Belgique
B. Cattonar, E. Mangez, B. Delvaux, C. Mangez, C. Maroy
Cerisis - Girsef
UCL
Project
KNOWandPOL
Orientation 3
WP 12
www.knowandpol.eu
March 2009
Project n° 0288848-2 co funded by the European Commission within the Sixth Framework Program
Table des matières
Table des matières
1. Le contexte, le cadre d’analyse et la méthode
Eric Mangez
6
1.1
Le contexte : les enquêtes PISA et la politique éducative en Communauté française de Belgique
1.1.1
Contexte et culture dans une histoire longue
1.1.2
Transformations récentes
6
7
10
1.2
Cadre conceptuel de la recherche
11
1.3
Méthodologie et sources des données
13
2. L’histoire, la carte sociale et la structure organisationnelle de PISA
Eric Mangez et Branka Cattonar
15
2.1
Le réseau organisationnel au niveau national : l’instrument et ses acteurs
2.1.1
Le Centre national de recherche et le National Project Manager
2.1.2
Les acteurs nationaux impliqués
15
16
22
2.2
La décision de participer au programme Pisa
2.2.1
Les personnes et le lieu de la décision de participer aux enquêtes PISA
2.2.2
Le manque de données au niveau national comme facteur favorable à l’acception de PISA
2.2.3
La participation au projet
26
26
27
29
3. PISA, savoir et pouvoir
Branka Cattonar
31
3.1
Les rapports PISA nationaux
3.1.1
Les supports à la diffusion officielle des résultats de la CFB à PISA
3.1.2
Les rapports PISA et le débat public en éducation
31
32
36
3.2
Le débat sur PISA
3.2.1
L’ampleur, les acteurs et les objets du débat
3.2.2
Le débat sur l’instrument PISA
3.2.3
Le débat sur l’orientation idéologique de PISA
3.2.4
Le débat sur l’utilité et la pertinence politiques de PISA
3.2.5
Les débats sur l’interprétation des résultats de PISA et ses « leçons »
50
50
53
56
58
64
3.3
PISA et la fabrication politique en éducation
3.3.1
PISA dans le débat politique en éducation
3.3.2
PISA comme source de légitimité pour les politiques
3.3.3
PISA comme modèle pour la production d’autres outils de régulation basés sur la connaissance
3.3.4
L’usage et les effets de PISA sur la politique éducative
81
81
86
95
96
4. Transformation des données en connaissances et en arguments
Bernard Delvaux
4.1
Les acteurs
4.1.1
Sept groupes d’acteurs
100
102
102
2
Table des matières
4.1.2
4.1.3
4.1.4
5.
Acteur prédominant
Acteurs présents
Acteurs absents
104
105
106
4.2
Transformation des données en connaissances
4.2.1
Comparer / classer
4.2.2
Associer / expliquer
107
109
122
4.3
Transformation des connaissances en arguments
4.3.1
Enoncer des problèmes
4.3.2
Enoncer des préconisations
129
130
134
4.4
Processus de transformation et action publique
4.4.1
Sélection et auto-élection des acteurs traitant les données
4.4.2
Processus de transformation et d’estompement
4.4.3
Classer davantage qu’expliquer énoncer des problèmes davantage que des préconisations
4.4.4
Thèmes des analyses et orientation du débat politique
4.4.5
Reconfiguration partielle de la circulation des connaissances
139
140
142
143
145
146
4.5
147
Conclusion : légitimité renforcée ou début d’interrogation ?
Conclusion
151
Le contexte et l’instrument
151
PISA dans l’espace public
154
Des orientations pédagogiques et curriculaires
156
Un espace européen de l’éducation …
157
La force propre de l’instrument
158
6.
Bibliographie
160
7.
Signification des acronymes et sigles utilisés
162
8.
Annexes
163
8.1
Annexe 1 : La liste des entretiens réalisés
163
8.2
Annexe 2 : La liste des supports à la diffusion officielle des enquêtes PISA en CFB (rapports
nationaux et autres documents)
164
8.3
203
Annexe 3 : Sources de l’analyse documentaire (partie 3 du rapport)
8.4
Annexe 4 : La liste des publications analysés dans la partie 4 du rapport (travaux d’analyse des
données PISA en Communauté française)
207
3
Plan du rapport
Les auteurs remercient vivement les nombreuses personnes qui ont bien
voulu, à titre de témoins ou de protagonistes, leur livrer leur vision et
partager leurs informations. Leur apport est inestimable et a constitué une
source décisive dans l’élaboration de ce rapport.
4
Plan du rapport
Le rapport est organisé de la manière suivante. Nous commencerons, dans une
introduction générale, par poser les repères nécessaires à la compréhension du contexte
belge. Ce sera également l’occasion de définir un cadre conceptuel ouvert pour organiser
l’analyse du rôle d’un instrument comme PISA dans différents contextes nationaux. Nous
fournirons ensuite les informations relatives à notre méthode de travail et aux matériaux
investigués.
Dans une seconde partie, nous identifierons les principaux acteurs qui gravitent autour
de l’instrument, en distinguant ceux qui jouent un rôle central de ceux qui restent à la
périphérie du dispositif. Une attention particulière sera accordée aux acteurs du « centre
national » à partir duquel les enquêtes PISA sont pilotées en Communauté française de
Belgique (CFB). C’est également dans ce point que nous détaillerons les circonstances qui
ont présidé à la décision d’« entrer » dans le dispositif.
La partie suivante, qui constitue le cœur du rapport, sera consacrée à l’analyse empirique
de différents aspects liés aux enquêtes PISA. L’analyse se dirigera d’abord vers les
rapports nationaux, sur leur diffusion et leur réception. Un second point important sera
centré sur les débats qui ont fait suite aux enquêtes PISA. Au-delà des divergences de
vues quant à l’interprétation des résultats par différents acteurs porteurs d’intérêts
divergents, on mettra aussi en évidence une relative convergence dans le mode
d’utilisation des enquêtes PISA et le cadre mental mobilisé pour penser les questions
d’éducation.
Une partie spécifique sera ensuite consacrée aux usages que certains acteurs ont fait des
bases de données PISA. On soulignera que leur nombre n’est guère élevé et que ceux qui
ont exploité ces données de la manière la plus intensive occupent une position spécifique
sur l’échiquier institutionnel et politique belge.
Enfin, dans une dernière partie, conclusive et synthétique, nous tenterons de donner
sens aux observations accumulées et de rassembler les efforts d’analyse situés en
différents endroits du rapport.
***
5
1. Le contexte, le cadre d’analyse et la méthode
1. Le contexte, le cadre d’analyse et la méthode
Par Eric Mangez
1.1 Le contexte : les enquêtes PISA et la politique éducative en
Communauté française de Belgique
Pour saisir les relations entre connaissance et action publique dans le contexte belge,
comme ailleurs, il est essentiel de prendre en compte la culture politique propre au
contexte en question. Il est évident que l’on ne fabrique pas des politiques publiques de
la même manière dans tous les pays européens. On montrera par exemple que, de
plusieurs points de vue, la manière de construire des politiques publiques en Belgique est
diamétralement opposée à la manière de procéder en France. Ces formes et ces
modalités différentes de policy-making doivent être pleinement prises en compte pour
l’analyse d’un instrument tel que PISA et du rôle qu’il est amené à jouer dans tel ou tel
contexte national. L’instrument PISA est en effet pensé par ses concepteurs comme un
outil d’aide à la décision politique.
L’OCDE définit en effet PISA comme un outil qui « identifie les points faibles et les points
forts » des systèmes éducatifs (OCDE, 2001, p. 30) et comme un « instrument de
régulation » qui vise à « aider les pays à mieux comprendre les processus qui
déterminent la qualité et l’équité des résultats de l’apprentissage dans les contextes
éducatifs, sociaux et culturels des systèmes d’éducation » (OCDE, 2004, p. 10), qui doit
« permettre aux gouvernements de tirer des enseignements politiques des résultats »
(OCDE, 2004, p. 7), et qui « fournit une large évaluation (…) (pour) à la fois orienter les
décisions politiques et l’affectation des ressources » (OCDE, 2001, p. 29).
PISA est sous-tendu par une certaine représentation de la manière de concevoir des
politiques publiques et d’organiser les rapports entre gouvernants et gouvernés
(Lascousmes et Le gales 2004). Or, si la décision politique se construit selon des
modalités différentes en fonction des pays, alors il est clair que la manière dont PISA
peut être reçu et utilisé doit connaitre des variations entre pays. L’hypothèse selon
laquelle l’usage qui est fait de PISA dépend en partie de la culture et du contexte
politique doit alors être posée. Plus généralement, il s’agit simplement de rappeler qu’on
ne peut comprendre l’usage fait de tel ou tel instrument si on ne saisit pas le contexte de
cet usage, c’est-à-dire l’ensemble des conditions sociales et politiques de cet usage.
Cette première section a dès lors pour objectif de documenter la spécificité du contexte
6
1. Le contexte, le cadre d’analyse et la méthode
et de la culture politique belge, d’abord en les situant dans une histoire longue, puis en
identifiant des changements récents. Il ne s’agit pas de procéder à une description
méthodique des institutions politiques qui composent le paysage belge (francophone),
mais plutôt de faire sentir quelle est la culture politique, c’est-à-dire quelles sont les
manières de faire, les habitudes, voire les habitus politiques qui s’y développent :
comment construit-on des politiques publiques en Belgique ? On prendra par moment la
France comme point de référence dans le but de souligner les différences entre les deux
pays et de mettre ainsi en évidence les caractéristiques fondamentales relatives au
contexte belge.
On doit souligner que la culture politique belge, et avec elle certaines institutions, est en
train de se transformer. Ainsi, par exemple, l’Etat consolide quelque peu sa position et
tend à encourager une certaine accumulation d’expertise au sein de ses administrations
ou au travers de relations plus étroites avec le monde de la recherche (dans le domaine
de la santé comme dans le secteur de l’éducation). Ces éléments, qui vont à l’encontre
des caractéristiques traditionnelles de la Belgique, ne sont ni aboutis ni complets. Par
ailleurs, les transformations à l’œuvre ne dessinent pas une rupture nette avec l’histoire :
elles se situent dans une forme de continuité et de réinvention. Il n’est dès lors pas
possible de les comprendre sans les situer relativement aux traits marquants de la
culture politique belge. On commencera dès lors par là.
1.1.1 Contexte et culture dans une histoire longue
Depuis 1988, la Belgique est un Etat fédéral. On y distingue des communautés
linguistiques et des régions. Mais sa culture politique ne vient pas de là, spécifiquement.
Elle s’est constituée dans une histoire beaucoup plus longue. Une des principales
conditions de possibilité de la Belgique comme Etat-Nation a consisté en la construction,
en 1830, d’un accord fondamental entre deux communautés sociologiques, l’une laïque,
l’autre catholique, qui n’acceptent de vivre ensemble qu’à la condition de se voir accorder
un certain nombre de libertés pour organiser leur propre vie collective (dont la liberté
d’enseignement). Ceci constitue un acte fondateur qui établit les bases d’une relation
spécifique entre, d’une part, l’Etat (les pouvoirs publics), et d’autre part, une société au
sein de laquelle cohabitent différentes communautés. Chacune de ces communautés s’est
effectivement organisée et, dans une diversité de secteurs (santé, éducation, loisirs,
mutualités, assurances, banques, politiques familiales,…), la Belgique s’est structurée,
progressivement, autour de différents piliers. S’il est évident que ces derniers ont perdu
une partie de leur solidité institutionnelle, s’il est évident également qu’on assiste à une
forme de dissociation entre les organisations propres aux piliers et leurs bases
sociologiques, il n’en demeure pas moins qu’ils ont donné une certaine épaisseur et une
certaine consistance à la culture politique belge.
7
1. Le contexte, le cadre d’analyse et la méthode
Rapport Etat / Société
Historiquement, cette culture s’est construite sur le principe selon lequel il faut trouver
des manières d’agir qui permettent à des groupes différents de vivre ensemble tout en
préservant, au moins en partie, leur autonomie d’existence collective. Ces manières
d’agir qui permettent le vivre ensemble dans une société segmentée sont, par exemple,
le scrutin proportionnel (plutôt que majoritaire), l’octroi et le maintien d’une certaine
autonomie
aux
acteurs
collectifs
organisés
(notamment
au
travers
de
libertés
constitutionnelles), le financement par les pouvoirs publics des activités organisées par
ces collectifs lorsqu’elles sont considérées d’utilité publique (selon le principe de la liberté
subsidiée). On peut ainsi comprendre que les pouvoirs publics belges définissent leur
relation avec la société civile organisée comme une relation de « complémentarité ».
Cette manière de poser les relations entre l’Etat et la société, qui est diamétralement
opposée au modèle français, doit être prise en compte dans l’analyse des rapports entre
connaissance et politique.
La cohabitation démocratique de différentes communautés, sur un même territoire, ne
peut se réaliser qu’à certaines conditions, qui sont celles de la démocratie consociative
(Lijphart, 1979). La construction des politiques publiques dans ce type de démocratie se
caractérise en effet par différents traits, que les spécialistes de la vie politique belge ont
bien identifiés :
(1) En général, l’Etat – ou plus largement, les pouvoirs publics - est relativement faible et
« mis en position de subordination par rapport à [la] société civile organisée » (De
Munck, 2002) ;
(2) Les savoirs pertinents dans la plupart des secteurs de l’action publique ne se situent
pas dans les administrations officielles de l’Etat (De Munck, 2002) ;
(3) L’autonomie segmentaire des acteurs organisés est importante et prévaut à défaut
d’accords intersegmentaires (Seilier, 1997) ;
(4) Les politiques publiques se construisent du « bas vers le haut » au travers la
fabrication de compromis intersegmentaires par les acteurs institués (Dumont et
Delgrange, 2008).
La caractéristique essentielle de ce type de modèle démocratique est la place accordée
aux acteurs organisés situés « entre » les pouvoirs publics et les citoyens individuels.
Dans un article récent, Dumont et Delgrange synthétisent bien certains aspects du
modèle de démocratie à l’œuvre en Belgique, notamment en soulignant le contraste
entre la France et la Belgique.
« (…) le modèle de constitution de la culture politique démocratique propre au républicanisme français est
"monoculturaliste" : il est conçu selon un mouvement "déterminant" qui "procède du haut vers le bas, de
8
1. Le contexte, le cadre d’analyse et la méthode
l’État vers la société, de la politique vers la culture". En Belgique, même si la loi est formellement un acte
unilatéral, elle est plus souvent présentée comme le fruit d’un accord contractuel entre des groupements. Au
lieu de partir de l’État pour descendre dans la société, la culture politique s’y construit à partir du bas, de la
pluralité des traditions religieuses, idéologiques et régionales, pour remonter vers le politique et l’État. En
effet, même si les sources supérieures du droit public, en Belgique comme ailleurs, sont toutes marquées du
sceau de l’unilatéralité, la réalité sociopolitique du système belge de la décision publique est caractérisée de
manière massive par la logique de la négociation et du compromis. » (Dumont et Delgrange, 2008 : 82-83)
Les mêmes auteurs précisent que dans le contexte belge, « les autorités publiques
doivent intervenir de manière positive pour aider les diverses tendances idéologiques et
philosophiques représentatives à développer leurs activités d’utilité publique, et les
associer à l’élaboration des politiques et à la gestion des services publics relevant de leur
domaine d’intervention » (Dumont, Delgange, 2008)1.
« Contrairement à la « démocratie compétitive » où les décisions peuvent être prises unilatéralement par la
majorité sans grand danger pour la stabilité du système parce que la culture politique y est assez homogène, la
« démocratie consociative» adopte régulièrement le principe de proportionnalité. Pour conjurer la
fragmentation de la culture politique, les minorités sont introduites dans le processus décisionnel lui-même,
chaque camp étant représenté dans les institutions proportionnellement à sa force électorale. Les décisions
sont alors le fruit de compromis patiemment négociés. » (Dumont et Delgange, 2008 : 83)
S’il est vrai que la culture politique suit des chemins si différents selon que l’on se situe
dans un contexte ou un autre (en France ou en Belgique, par exemple), on peut et on
doit penser qu’y introduire un instrument tel que PISA génère des effets potentiellement
différents. Cette hypothèse doit en tous cas être posée. Le principe même qui consiste à
accorder non seulement une reconnaissance mais aussi une certaine autonomie d’action
à différents acteurs sur un même territoire a des implications, en particulier en ce qui
concerne le rapport entre politiques publiques et connaissances.
La place des savoirs
Il nous semble que la manière belge d’organiser une forme de cohabitation pacifique
entre groupes va de pair avec un principe de discrétion. Cette nécessité de discrétion ne
doit pas être entendue comme une forme de frilosité à l’égard de la « divulgation » de
connaissances qui, en tant que telles, mettraient qui que ce soit en péril. Il s’agit plutôt
d’une habitude ; on pourrait presque dire qu’il s’agit, dans le contexte consociatif, d’une
forme de courtoisie, de prudence ou de diplomatie, qui est porteuse d’une utilité politique
fondamentale, à la fois en acte et en puissance : elle met en acte l’autonomie
segmentaire et, en même temps, elle pose en puissance le compromis inter segmentaire.
La notion de discrétion s’entend alors au double sens du terme : il s’agit à la fois de
laisser un certain nombre de choix à la discrétion des acteurs organisés (ce qui garantit
leur autonomie en pratique), mais aussi de maintenir une certaine discrétion au sens où
on ne se mêle pas des affaires de son voisin (ce qui rend le compromis possible en
puissance).
1
C’est nous qui soulignons.
9
1. Le contexte, le cadre d’analyse et la méthode
C’est dans la même ligne d’idée que Varone et Jacob (2004) indiquent que « l’évaluation
aurait ainsi tendance à être plus institutionnalisée dans les démocraties majoritaires (soit
le modèle de Westminster ou un régime présidentiel) que dans les démocraties dites de
consensus, de négociation ou de concordance ». Le développement de l’évaluation des
politiques publiques se réalise plus lentement et plus difficilement au sein des
démocraties consociatives, notamment parce qu’un tel développement risque de nuire à
l’autonomie des différents acteurs et parce qu’elle n’est pas perçue comme un élément
nécessaire à la construction de compromis. Au sein d’une démocratie consociative, dans
le travail de construction de politiques publiques, il ne s’agit pas tant de « trancher »
entre des alternatives que d’ « assembler » et de mettre ensemble des idées et des
intérêts parfois contradictoires. Si la mobilisation de connaissances objectivées n’est pas
en soi nécessairement contradictoire avec cette culture politique, elle ne parait pas non
plus s’y inscrire avec la force de la nécessité.
Ces différents éléments doivent nous aider à comprendre pourquoi les acteurs politiques
belges (« politique » au sens large du terme) font un usage limité des données issues de
PISA. En effet, la maîtrise fine et complète de données statistiques ne constitue pas un
ingrédient fondamental dans la construction des politiques : ces dernières sont presque
nécessairement le résultat de transactions, de compromis, « d’arrangements » qui ne se
réalisent pas en fonction d’une rationalité objectivante, mais bien en fonction d’une
capacité et d’une habileté à générer des compromis que « l’évidence » de données
objectivées ne favorisent pas nécessairement. La nécessité de satisfaire des intérêts
différents, éventuellement divergents, peut se faire au prix de la cohérence.
1.1.2 Transformations récentes
Historiquement, c’est dans le secteur de l’éducation que le modèle consociatif s’est
maintenu avec le plus de force. Dans le secteur de l’éducation, l’autonomie des réseaux
(publics ou privés) n’a guère favorisé l’accumulation de données à propos de l’ensemble
du système. On peut ainsi penser que les démocraties consociatives ne constituent pas
des terrains très favorables au développement de l’evidence based policy. Dès la
première moitié des années 1990, plusieurs acteurs, dont l’OCDE, ont d’ailleurs souligné
le déficit d’évaluation et de pilotage du système éducatif belge (on doit souligner que le
terme de pilotage est lui-même implicitement mais fermement inscrit dans le modèle de
l’evidence based policy en ce qu’il présuppose que gouverner, c’est piloter et que tout
pilotage nécessite une évaluation).
Depuis la seconde moitié des années 1990, le système éducatif est marqué par des
transformations significatives. On assiste ainsi à un relatif affaiblissement de l’autonomie
segmentaire, à une intensification du compromis intersegmentaire et à une consolidation
du rôle de l’Etat. Ces trois transformations d’équilibres sont bien entendu liées entre
10
1. Le contexte, le cadre d’analyse et la méthode
elles : c’est dans une certaine mesure le compromis intersegmentaire qui permet
l’affaiblissement de l’autonomie segmentaire.
Ces transformations résultent et expriment en partie un changement de paradigme qui
définit l’action éducative en termes de résultats mesurables (plutôt qu’en termes de
valeurs) et qui attribue à l’Etat un rôle de pilotage et d’évaluation. Il importe cependant
de souligner que l’Etat et les espaces de décisions au sein de ses administrations se
constituent d’une manière spécifique à la Belgique durant les années 1990. Ainsi par
exemple, s’il existe bien une commission de pilotage en CFB, celle-ci est constituée de
représentants des différents « acteurs de l’enseignement » (l’administration de la CFB,
les réseaux, les syndicats, les associations de parents des différents réseaux, etc.). Cette
manière de gouverner, en mettant en place des « commissions », des « conseils », des
« comités », des « groupes de travail » composés des représentants des différents
intérêts est typique des démocraties consociatives : il s’agit de construire des espaces de
concertation où des compromis intersegmentaires peuvent se tisser.
1.2 Cadre conceptuel de la recherche
Le cadre conceptuel de notre travail à propos de l’enquête PISA (son déploiement, ses
usages, ses effets) dans le contexte belge s’inscrit dans une démarche de recherche plus
vaste qui interroge le rapport entre connaissance et action publique.
Le
cadre
d’analyse
accorde
une
attention
spécifique
au
contexte
politique
et
institutionnel : on ne peut pas comprendre l’inscription des enquêtes PISA dans un
contexte donné sans saisir les différents acteurs institutionnels qui y agissent, de même
que l’histoire et la structure des relations qui les lient. La signification sociale et politique
d’un instrument comme PISA se construit dans un contexte, au sein d’une histoire et en
fonction de cette histoire, histoire qui peut elle-même s’en trouvée modifiée.
On considère cependant également que les instruments de politique publique sont aussi
porteurs d’une certaine manière d’organiser les rapports entre acteurs (gouvernants,
acteurs organisés, gouvernés, usagers,…) et de concevoir le monde dans lequel ils
interagissent. Leur forme, leur mode de fonctionnement, leur rationalité propre résultent
de rapports sociaux, en même temps qu’ils en sont les dépositaires : ils promeuvent
implicitement une certaine manière d’organiser l’action des acteurs et leurs interactions.
Les instruments de l’Etat évaluateur ne sont pas ceux de l’Etat pourvoyeur de services.
Cette proposition étend la position théorique de Lascousmes et Le Gales (2005) qui
conçoivent les instruments comme véhicules d’une relation entre gouvernants et
gouvernés. En étendant la proposition à d’autres acteurs (acteurs organisés, usagers,…),
11
1. Le contexte, le cadre d’analyse et la méthode
nous la complexifions et nous l’ajustons à des contextes autres que celui de la France.
Ainsi conçus, les instruments contribuent à instituer des systèmes de relation entre
acteurs. Ils agencent des acteurs et définissent des formes de relations entre eux.
Comme on l’a laissé entendre, il ne faut cependant pas attribuer théoriquement trop de
pouvoir aux instruments. Si ces derniers ne sont jamais neutres, ils n’ont pas le pouvoir
de redéfinir le monde. S’ils portent en eux une manière d’organiser le monde, cette
dernière n’est là qu’en puissance : les instruments s’inscrivent en effet toujours dans un
contexte, lui-même inscrit dans une histoire. Le cadre conceptuel conçu pour étudier le
rôle et la place de PISA consiste donc à penser ce rôle comme le résultat d’une rencontre
entre un contexte (marqué par une histoire et où existe un système de relations entre
acteurs) et un instrument qui véhicule une rationalité propre.
Les éléments du contexte de la Belgique francophone ont été présentés dans la première
section de ce rapport : on avait suggéré que les modalités consociatives de construction
des politiques publiques ne s’accommodaient pas nécessairement aisément au modèle de
l’evidence based policy. Ce modèle a été élaboré dans des contextes différents,
principalement anglo-saxons, marqués par une dynamique de démocratie compétitive. Il
est en partie l’expression de ce type de contexte.
PISA fait partie de cette dynamique de l’evidence based policy. PISA est un instrument
de mesure, dont l’unité d’observation est nationale. A l’évidence, il présuppose que les
pays sont comparables et qu’il existe un outil capable de procéder à la comparaison,
c’est-à-dire d’étalonner les systèmes éducatifs nationaux (en fonction de différentes
dimensions). En définissant des étalons communs, il situe les pays dans un espace
commun et le constitue comme un espace de comparaison. On peut ainsi noter qu’il ne
s’agit pas d’un instrument construit pour rendre des services, mais plutôt pour évaluer la
qualité de services rendus et les comparer. En ce sens, il n’appartient pas à la famille des
instruments de l’Etat-Providence mais s’apparente plutôt aux dispositifs de l’Etat
évaluateur. Encore faut-il ajouter qu’il n’appartient pas véritablement à l’Etat, mais bien
à une agence intergouvernementale.
S’il est évident qu’en soi, des données ne produisent pas d’effet et que tout dépend de
l’usage que les acteurs en font, on peut cependant considérer que, dans une mesure
certes
limitée,
les
données
elles-mêmes
prédéfinissent
les
usages
qui peuvent
potentiellement en être fait ; elles invitent les acteurs à en faire certains usages. Les
données générées par les enquêtes PISA se présentent surtout sous la forme de mesures
de grandeur attribuées à des Etats nations. De telles données sont susceptibles d’amener
les acteurs à se mesurer les uns aux autres, à se comparer, à s’évaluer, à se classer.
Elles rendent en tous cas possible la comparaison et le classement.
12
1. Le contexte, le cadre d’analyse et la méthode
1.3 Méthodologie et sources des données
Les principales sources de données de notre analyse sont des entretiens et des
documents. Il est par ailleurs évident que notre propre connaissance du terrain de
l’éducation dans notre contexte national participe à l’intelligibilité que nous avons tenté
de construire à propos de la place qu’y occupe un dispositif comme les enquêtes PISA.
Des entretiens ont été réalisés avec un échantillon d’acteurs déterminé en fonction du
contexte belge et de la localisation du centre de management de l’instrument. De
manière à reconstituer l’histoire, nous avons également rencontré les acteurs qui ne sont
plus actifs aujourd’hui mais qui l’ont été à certains moments cruciaux de l’histoire. La
liste des acteurs interviewés figure en annexe (annexe 1).
Nous avons également procédé à l’analyse de documents issus de différentes sources :
l’OCDE, l’administration et le Centre national de PISA (le SPE à l’Université de Liège)
(pour tout ce qui concerne les rapports internationaux et nationaux), le Parlement de la
CFB, la presse et les chercheurs. Dans tous les cas, on a veillé à rapporter l’analyse des
prises de position qui se dégageaient des discours aux positions occupées par les acteurs
impliqués. Les discours sont nécessairement toujours situés dans un espace social : ils se
construisent à partir d’un « point de vue » qu’il convient de prendre en compte pour
rendre compte de leurs contenus.
Les documents pris en compte sont les suivants :
-
l’ensemble des rapports nationaux et internationaux directement liés à l’enquête,
c’est-à-dire les rapports publiés par l’OCDE, les rapports nationaux issus de
l’administration et les rapports nationaux publiés par le Centre national de PISA
(le SPE à l’Université de Liège) (voir la liste à l’annexe 2) ;
-
les retranscriptions de débats parlementaires (voir la liste à l’annexe 3). La
sélection des documents parlementaires s’est réalisée de la manière suivante.
Nous nous sommes concentrés sur les débats parlementaires de la session
parlementaire (septembre à septembre) faisant suite à la publication de chaque
enquête PISA. Parmi l’ensemble des documents parlementaires, nous avons opéré
une recherche par mots clés (« PISA » ou « OCDE »), ce qui a permis de
constituer un corpus de documents parlementaires sur lequel nous avons réalisé
une analyse de contenu ;
-
les articles de la presse quotidienne. Pour constituer notre corpus, nous avons
sélectionné tous les articles qui faisaient référence à PISA pendant les trois mois
suivant la diffusion officielle des résultats de PISA. Lors de l’analyse des articles
de presse, nous avons été attentifs à distinguer les différentes catégories
13
1. Le contexte, le cadre d’analyse et la méthode
d’acteurs s’exprimant. Pour compléter ce corpus, nous y avons joint quelques
articles issus de publications plus spécifiques à certaines catégories d’acteurs (voir
la liste à l’annexe 3) ;
-
enfin, nous avons également pris en compte des travaux (rédigés par des
chercheurs pour la plupart) qui exploitaient les bases de données PISA en
Communauté française de Belgique (voir l’annexe 4).
***
Le cadre d’analyse accorde au contexte un statut central : celui-ci est en effet considéré
comme un élément essentiel qui permet de comprendre la manière dont la connaissance
est utilisée en CFB. Il est évident que les acteurs interrogés, dans les propos qu’ils
tiennent (ou les documents analysés, dans le contenu dont ils sont les dépositaires) sont
eux-mêmes constitués par le contexte dans lequel ils agissent et par la position qu’ils y
occupent : de nombreux éléments vont, pour eux, de soi. Ils peuvent donc considérer
comme normales des pratiques qui, d’un autre point de vue, pourraient apparaitre plus
ou moins étonnantes ou spécifiques.
Ceci pose la question du statut méthodologique à accorder aux propos tenus par les
acteurs. Il ne s’agit pas tant de se poser la question de savoir si les propos en question
sont « fiables » ou non ; il s’agit plutôt de les comprendre et les interpréter notamment
comme expression de la position qu’ils occupent dans un contexte dont ils ne maîtrisent
pas
nécessairement
réflexivement
tous
les
paramètres.
D’un
point
de
vue
méthodologique, il est dès lors fondamental d’interpréter leur propos en les rapportant à
un contexte de leur énonciation. L’interprétation que nous faisons des matériaux
qualitatifs s’appuie dès lors nécessairement sur la connaissance du contexte, qui, ellemême, résulte de notre propre expérience de recherche ou de travaux issus de la
littérature. Ces éléments d’analyse - qui ne nous viennent pas des acteurs interviewés ou
des documents analysés, mais bien de la littérature (en sociologie, en histoire, en science
politique) – sont essentiels à l’interprétation des matériaux.
14
2.
L’histoire, la carte sociale et la structure organisationnelle de PISA
2. L’histoire, la carte sociale et la structure organisationnelle
de PISA
Par Eric Mangez et Branka Cattonar
2.1 Le réseau organisationnel au niveau national : l’instrument et
ses acteurs
Le « management » d’une enquête telle que PISA nécessite la mobilisation de divers
acteurs. Cette section a pour objectif non seulement d’identifier les acteurs (nationaux)
mobilisés dans la mise en œuvre des enquêtes PISA, mais aussi de comprendre comment
ils ont été impliqués dans le processus. On veut ainsi dessiner la cartographie sociale des
acteurs en tenant compte à la fois des propriétés de l’instrument et de l’épaisseur
historique propre au contexte belge.
On doit ici rappeler les propositions théoriques formulées dans le point consacré au cadre
d’analyse. On y posait notamment l’hypothèse selon laquelle c’est dans une certaine
mesure l’instrument qui – étant donné sa propre rationalité - définit les acteurs
pertinents et le rôle qu’ils doivent jouer – ce qui peut éventuellement conduire à la
constitution de nouveaux acteurs et/ou à la transformation (déplacement, consolidation,
glissement, affaiblissement) du rôle d’anciens acteurs. En même temps, il convient aussi
de tenir compte du fait que les acteurs historiques en présence dans le champ, et la
structure (topologique et généalogique) des relations qui les lient, peuvent en partie
expliquer la manière dont l’instrument est utilisé, médiatisé, interprété, etc. Ces deux
propositions ne sont pas contradictoires : elles indiquent une tension théorique entre,
d’une part, les instruments qui sont nécessairement porteurs d’une forme spécifique de
rationalité (qui définit des rôles, des positions, des procédures, etc. et qui est elle-même
héritage et expression de la structure des relations des acteurs qui ont fabriqué
l’instrument) et, d’autre part, le contexte institutionnel qui, bien évidemment, est inscrit
dans une histoire qui interdit de le réduire à n’être qu’un simple réceptacle malléable.
Cette tension théorique s’impose d’autant plus lorsque l’on étudie des situations
pratiques où des instruments sont exportés vers - et utilisés dans - des contextes qui ne
correspondent pas à celui de leur constitution.
Un instrument comme PISA porte en lui une certaine forme de rationalité. Il s’agit d’un
instrument conçu pour opérer des comparaisons, ce qui en soi a un certain nombre
d’implications, indissociablement techniques et politiques, notamment en termes de
15
2.
L’histoire, la carte sociale et la structure organisationnelle de PISA
dispositifs de surveillance et de contrôle et en termes d’experts et d’expertise requis. Les
comparaisons sont en outre conçues au niveau national, ce qui présuppose que le
découpage en différentes nations est un découpage pertinent pour l’étude du secteur
éducatif. Ce présupposé est évidemment inégalement pertinent selon que l’on se situe
dans un contexte ou un autre. Mais surtout il impose logiquement la constitution d’un
pôle central dans chaque pays : il est nécessaire de définir un centre à partir duquel le
« management » de l’enquête se réalise dans chaque pays. En réalité, l’ensemble du
dispositif de l’OCDE autour de PISA implique de distinguer deux dimension du travail :
une dimension politique et une dimension scientifique, technique et logistique. La
dimension politique impose à chaque pays de définir un représentant mandaté pour
siéger au PGB (PISA Governing Board). La dimension scientifique, technique et logistique
implique de définir un centre national et un national project manager.
Désigner un centre est une opération qui a la force de l’évidence dans des pays
centralisés. Mais dans un contexte comme le contexte belge où il n’existe pas de centre à
proprement parler, les choses sont moins évidentes. Où situer le centre national des
enquêtes PISA ? Au niveau fédéral ou communautaire ? Au niveau des pouvoirs publics,
c’est-à-dire dans l’administration, ou ailleurs ?
2.1.1 Le Centre national de recherche et le National Project Manager
Le choix du centre en question doit se comprendre en examinant à la fois les contraintes
propres au contexte et les exigences propres à l’instrument. Dans le contexte
communautarisé, la plupart des acteurs belges considèrent comme évident qu’il faut
traiter séparément les différentes communautés (française, flamande et germanophone).
L’OCDE, de son côté, tente plutôt de traiter tous ses membres et partenaires sur base
nationale. Le statut accordé par l’OCDE à la Belgique et à ses Communautés est en
réalité variable. D’un côté, la Belgique ne bénéficie que d’une seule voix au sein du
Bureau des pays participants et les rapports internationaux de PISA publiés par l’OCDE
ne traitent que de la Belgique dans son ensemble2. D’un autre côté, la Communauté
flamande et la Communauté française envoient chacune leur propre représentant au
Bureau des pays participants et chacune des deux Communautés se charge de
l’organisation du test PISA au sein de sa propre population d’élèves. Au niveau de la
Belgique, on retrouve ainsi deux gestionnaires du projet PISA (National Project Manager)
et deux centres de recherche responsables de la mise en œuvre de PISA pour leur propre
Communauté linguistique – depuis l’élaboration de l’échantillon jusqu’à l’analyse des
données récoltées, en passant par la passation du test et la publication des résultats.
2
Cette situation n’est pas spécifique à PISA et « reflète une volonté de l’OCDE de travailler pays par pays et
d’éviter (…) une vision trop fragmentée des systèmes éducatifs ». Dans la plupart des indicateurs de Regards
sur l’Education produits par l’OCDE, les données sont ainsi le plus souvent agrégées à l’ensemble de la
Belgique. De plus en plus, une présentation fragmentée des données selon les Communautés apparaît en raison
de leur participation distincte à des enquêtes internationales (par exemple, celles organisées par l’IEA) (DRI,
1998, p. 6 ; DRI, 2001, p. 6 ; DRI, 2004, p. 6).
16
2.
L’histoire, la carte sociale et la structure organisationnelle de PISA
Dans le cadre de la recherche KnowandPol, nous traiterons uniquement de la
communauté française. La mise en place de deux centres (un flamand, un francophone)
ne règle pas totalement la question de la détermination des centres en question. Même
en se limitant à la Communauté française, la détermination d’un lieu central de pilotage
des enquêtes PISA ne va pas de soi. Les exigences propres à l’instrument imposent que
le centre national soit dépositaire d’une expertise suffisante et spécifique à l’instrument,
c’est-à-dire en l’occurrence une expertise dans le domaine de la mesure en éducation et
dans le traitement statistique de données. Une des caractéristiques du pays tient au fait
que l’accumulation d’expertise ne s’est généralement pas réalisée au niveau de
l’administration, comme cela peut être le cas en France par exemple. Comme nous le
rappelle De Munck, dans le contexte belge, « tout le monde sait que le savoir pertinent
dans de multiples secteurs (santé, éducation, culture…) ne se trouve pas dans les
administrations officielles de l’Etat » (De Munck 2002). En Belgique, la notion de savoirs
d’Etat, accumulés dans les administrations, ou dans des services spécifiques d’Etat, n’a
pas la même centralité qu’en France par exemple. On peut dès lors comprendre que le
centre national (pour le CFB) se situe en dehors de l’administration : c’est en effet au
sein de l’Université de Liège (ULg) que se situent le centre national et le national project
manager depuis le début des opérations PISA. En CFB, le centre en charge de PISA est
donc un centre de recherche situé dans une université ; et le NPM est un chercheur de ce
centre.
Comme toutes les universités belges, l’ULg poursuit des objectifs d’enseignement, de
recherche et de service à la société. L’ULg présente cependant la particularité d’être une
université d’Etat. Pour ce qui concerne le secteur de l’éducation, parmi les différentes
universités situées sur le territoire de la Belgique francophone, l’ULg est celle qui
entretient les liens les plus étroits à la fois avec l’administration et avec le réseau de la
Communauté française – à l’inverse du réseau libre catholique dont les cadres sont
souvent en relation plus régulière avec les chercheurs de l’Université catholique de
Louvain ou d’autres universités. Au sein de l’ULg, c’est le Service de Pédagogie
Expérimentale (SPE) (aujourd’hui rebaptisé Unité d’Analyse des systèmes et des
pratiques d’enseignement3) qui, au niveau national, s’occupe de la mise en œuvre de
PISA (notamment de l’échantillonnage, de la passation du test, de l’analyse des résultats
et de leur diffusion).
Si le SPE a été choisi par la DRI (Direction des Relations Internationales), c’est bien sûr
parce qu’il avait accumulé l’expertise nécessaire et constituait alors le « centre
3
L’unité d’Analyse des systèmes et des pratiques d’enseignement est composée d’une vingtaine de chercheurs.
Les recherches qui y sont menées visent à « comprendre et optimiser le fonctionnement des systèmes
d’enseignement et de formation à travers des recherches théoriques, des évaluations mesurant l’efficacité et
l’équité des systèmes scolaires, des interventions sur le terrain, la construction d’outils pédagogiques ». Parmi
les domaines d’expertise, on retrouve « l’évaluation du rendement scolaire » (participation aux études de l’IEA
et de l’OCDE), la conception et la réalisation des évaluations externes en CFB, la mise au point d’indicateurs
statistiques (présentation de l’aSPE : http://www.aspe.ulg.ac.be/presentation.html, page consultée le 12
janvier 2009).
17
2.
L’histoire, la carte sociale et la structure organisationnelle de PISA
d’excellence » pour les enquêtes comparatives. Et si la décision a été prise de participer
au dispositif PISA, c’est en partie en raison de l’influence que des chercheurs de l’ULg ont
pu exercer en ce sens. Nous montrerons plus loin qu’à l’origine, la décision de participer
à PISA a été davantage le fait d’acteurs scientifiques que d’acteurs politiques ou de
fonctionnaires.
De diverses manières, le SPE occupait et continue à occuper une position charnière à la
fois dans le contexte institutionnel et politique belge et dans le contexte international. Il
se situe à la croisée de différentes instances. Il est en effet en relation avec différents
acteurs importants dont notamment le consortium international en charge de PISA,
l’administration de la CFB et le monde politique.
Le positionnement national et international du SPE
En plus de jouer le rôle de centre national pour la Belgique francophone, le SPE, à
plusieurs moments de son histoire, a été impliqué dans le consortium international, piloté
depuis l’Australie. Ainsi, lors du premier cycle PISA, le SPE était impliqué dans le
consortium, notamment en ce qui concerne la construction de grilles et de questionnaires
destinés aux administrateurs de tests. Comme membre du consortium, le SPE a
également été engagé dans des activités de contrôle de la qualité de différents centres
nationaux (National Control Quality Monitoring) (par exemple, en Espagne, en Italie,…).
La participation du SPE au Consortium s’est interrompue lors de la deuxième phase de
PISA, en raison du départ de deux chercheurs (dont un vers l’Australie). Aujourd’hui, le
SPE fait à nouveau partie du consortium mais son rôle y est relativement limité, et
correspond à moins d’un temps plein consacré à la vérification des traductions et au
développement de questions en lecture.
La représentation politique de la Communauté française au Governing Board de
PISA
Comme on l’a indiqué, le dispositif conçu par l’OCDE comprend une branche technique et
une branche politique. Si le centre technique est situé en dehors de l’administration, à
l’Université
de
Liège,
l’interlocuteur
« politique »
est
quant
à
lui
situé
dans
l’administration, au sein de la Direction des relations internationales (DRI). C’est à partir
de la DRI que s’organise le financement de PISA en Belgique francophone. Et c’est
théoriquement un membre de la DRI qui représente la CFB au PGB. La branche politique
rassemble en effet des représentants de chaque pays au sein d’un bureau exécutif (PGB).
Le
Comité
Directeur
de
PISA,
plus
communément
appelé
« Bureau
des
Pays
participants », est l’organe décisionnel de PISA (governing board), composé des
représentants des Etats-membres de l’OCDE qui participent à PISA, le plus souvent issus
d’instances politico-administratives responsables en matière d’éducation (Lafontaine,
Baye et Matoul, 2000, p. 12). Chaque pays y dispose d’une voix. C’est le PGB qui, au
18
2.
L’histoire, la carte sociale et la structure organisationnelle de PISA
début de chaque cycle PISA, détermine le profil et désigne les Gestionnaires de Projets
Nationaux de PISA (National Project Manager) qui vont travailler sous sa responsabilité.
C’est lui aussi qui approuve les appels d’offre rédigés par le Réseau Ines A et sélectionne
le consortium qui mettra en œuvre PISA. Enfin, il dirige en son sein un « groupe éditorial
qui oriente et contrôle l’élaboration des rapports thématiques » (Moyson et Termine,
2007, p. 28).
Dans le contexte belge, les relations de travail existant entre l’administration et le SPE
explique que ce sont aujourd’hui des chercheurs de l’ULg qui jouent le rôle de
représentant de la CFB au PGB. C’est en effet un chercheur du SPE, qui, depuis 2000,
remplace le haut fonctionnaire (directeur de la DRI) aux réunions du PGB à l’OCDE, alors
que dans les autres pays, c’est le plus souvent un membre de l’administration qui
participe à ces réunions. La raison avancée pour cette délégation est pratique : le
manque de temps du haut fonctionnaire, le fait que le chercheur du SPE participait déjà
aux réunions du « réseau Ines A » (qui travaillait sur les indicateurs), le fait que les deux
réunions se déroulaient le plus souvent au même moment et au même endroit. Cette
délégation implique un dialogue et une concertation entre la DRI et le chercheur en
charge de sa représentation.
Un des effets de PISA consiste à fabriquer des réseaux de relations entre différents types
d’acteurs au niveau international. La situation belge que l’on vient d’évoquer, où c’est un
acteur scientifique qui remplit un rôle politique de représentation, illustre l’affaiblissement
des frontières bureaucratiques classiques et la constitution au niveau international de
relations de proximité entre des acteurs issus de pays et de « mondes » différents (la
recherche, l’administration, la politique,…). Ces acteurs partagent des points de vue sur
l’éducation et participent à la construction d’un espace européen de l’éducation.
Autrement dit, un système de relations internationales centrées sur des questions
éducatives se construit ainsi progressivement, notamment au travers du travail de
l’OCDE (Lingard et alii, 2005).
Le centre national de PISA et le monde politique
Au-delà de ses relations avec l’administration, le SPE et ses membres entretiennent des
relations avec certains décideurs politiques. Ces relations avec l’administration ou avec le
monde politique s’inscrivent dans la durée. Dans le cadre de la Belgique francophone, en
matière d’évaluation du système éducatif, c’est l’ULg qui constitue le pôle universitaire
principal aux yeux des acteurs politiques, en ce compris pour les acteurs politiques
catholiques (même si ces derniers entretiennent aussi des relations avec les chercheurs
des universités catholiques, notamment avec des centres de recherche de l’UCL comme
le Cerisis et le Girsef).
La combinaison de phénomènes cognitifs, politiques et sociologiques permet de
19
2.
L’histoire, la carte sociale et la structure organisationnelle de PISA
comprendre la position spécifique du SPE et ses relations avec le monde politique mais
aussi avec le consortium international en charge de PISA. En effet, si le SPE a été et
reste en relation avec ledit consortium, c’est parce qu’il a accumulé une forte expertise
en matière d’évaluation et de comparaison. On peut penser que cette expertise s’est
surtout développée dans cette université (plutôt que dans une autre) en raison de sa
position institutionnelle liée à l’histoire des piliers en Belgique. Il est assez logique que les
universités catholiques n’aient pas été historiquement les premières à investir des
questions de mesures et d’évaluation puisqu’elles font historiquement partie d’un
« monde » qui tend plutôt à défendre une certaine autonomie et à bénéficier du pouvoir
discrétionnaire que les pouvoirs publics veulent bien lui accorder.
Le travail du NPM et de son équipe
Cette section veut décrire brièvement le travail réalisé par le SPE dans la gestion de
l’enquête PISA au niveau de la CFB. Le NPM est l’interface entre le Consortium
international et les instances nationales. Il est chargé d’exécuter le programme. Le
centre fonctionne avec un nombre relativement limité de personnes travaillant au projet
PISA. Les aspects logistiques sont pris en charge par un équivalent temps plein. D’autres
chercheurs interviennent de manière ponctuelle, parfois intensivement, à différents
moments du processus. La passation, l’encodage et le « management » de PISA
nécessitent également la mobilisation (ponctuelle) d’un nombre plus important de
personnes (par exemple, des correcteurs, des personnes chargées de se rendre dans les
établissements, divers jobistes…).
Au niveau international, le NPM est tout d’abord chargé du suivi et de la communication
avec les instances supranationales (le Consortium international). Dans ce cadre, le NPM
participe à deux réunions par an (d’une durée d’une semaine). Lors de la première
réunion, le Consortium communique aux NPM des différents pays les divers aspects du
test et consignes pratiques, sans que ces derniers n’aient véritablement un rôle actif :
présentation du « framework » (le cadre théorique de l’étude), présentation et discussion
des items (par rapport auxquels les pays ont un droit de veto), présentation du logiciel
de saisie des données, présentation et discussion des questionnaires adressés aux élèves
et chefs d’établissement, présentation du plan de codage, etc. Dans ce cadre, les NPM
ont un rôle relativement « réceptif » et il s’agit notamment « de suivre ce qui a été
décidé par le PGB » présenté comme « le vrai organe de décision de PISA ». Lors du
prétest, les NPM ont cependant un rôle plus « actif » lorsqu’il s’agit d’analyser les
résultats pour identifier les éventuels « bugs » dans les questions. Lors de la deuxième
réunion, le Consortium présente les premiers résultats du test. Etant donné la
participation du centre national de recherche au Consortium, le rôle du NPM en
Communauté française est cependant décrit comme plus « impliqué » dans le processus
dans la mesure où il participe à la création du futur test (création et sélection des
20
2.
L’histoire, la carte sociale et la structure organisationnelle de PISA
questions et textes, choix des critères de correction et de formation des correcteurs).
Au niveau national, le rôle du NPM consiste tout d’abord à avoir des relations avec
l’administration et les inspecteurs, notamment au Comité d’accompagnement, pour leur
présenter le déroulement du test et obtenir leur aval. Ensuite, le travail du NPM consiste
à réaliser l’échantillonnage et à proposer au niveau international des variables
d’échantillonnage pertinentes par rapport à notre système éducatif. L’échantillon est alors
constitué par le Consortium qui l’envoie au NPM. Son travail consiste à contacter les
écoles et, lorsque c’est nécessaire, à les « convaincre » de participer au test, à l’aide
d’arguments scientifiques ou politiques. Certaines écoles sont réticentes à participer
(elles veulent d’abord obtenir l’accord officiel de leur PO, soit elles se disent trop
occupées pour participer), mais dans l’ensemble l’adhésion des écoles semble s’obtenir
assez facilement. Le Centre national de recherche s’occupe alors de faire passer l’enquête
dans les écoles au courant du mois de mai, d’organiser la correction du test, de faire
encoder les réponses, de nettoyer les données et de procéder à une série de vérifications
prévues et standardisées au niveau international, puis d’envoyer la base de données ainsi
constituée au mois d’août au Consortium international qui procède à des vérifications
supplémentaires et à l’analyse des données. Le centre national de recherche reçoit les
premiers résultats à partir du mois de mars.
En septembre, les chercheurs du Centre national reçoivent une base de données
« traitable » et ils commencent à analyser eux-mêmes les données, en premier lieu pour
se préparer à répondre aux questions spécifiques à la Communauté française qui
pourront leur être posées après la présentation publique des résultats lors de la
conférence de presse officielle. En particulier, ils doivent refaire les analyses produites
par le Consortium international pour la Communauté française (le Consortium produit les
analyses pour la Belgique, et non pour les Communautés ; aujourd’hui, certaines
analyses sont néanmoins produites pour chaque communauté et placées en annexe du
rapport international). Ils ne peuvent diffuser aucune information avant la diffusion
officielle des résultats de PISA par l’OCDE qui a lieu en décembre. Le mois de décembre
et de janvier sont alors consacrés à la présentation des premiers résultats aux médias et
à répondre à des demandes spécifiques d’information. Ensuite, ils commencent des
analyses plus détaillées qui seront publiées un an plus tard, notamment dans les Cahiers
du SPE.
21
2.
L’histoire, la carte sociale et la structure organisationnelle de PISA
2.1.2 Les acteurs nationaux impliqués
Au niveau national, la mise en œuvre de PISA est assurée par le « Gestionnaire de projet
national » (National Project Manager) et un Centre national. D’autres acteurs sont
néanmoins impliqués, à des degrés divers, dans le processus de mise en œuvre des
enquêtes.
Le cabinet ministériel
Dans les gouvernements successifs depuis le premier cycle de PISA, le ministre et son
cabinet ont tendance à ne pas investir fortement dans la gestion du dispositif. Le
ministère, selon un conseiller actuel au cabinet ministériel, « se refuse à entrer dans
l’épreuve ». Le Ministre n’est lui-même prévenu que 24 heures avant la divulgation
officielle des résultats. Le rôle du Ministre de l’éducation, dans la mise en œuvre de PISA,
parait donc plutôt limité et consiste à écrire aux écoles pour les prévenir qu’elles vont
être contactées et leur demander de participer à l’enquête. Soulignons toutefois que les
acteurs politiques sont représentés au sein du PGB et ont la possibilité de peser, de
manière limitée, sur le processus de fabrication de l’outil.
Le cabinet ministériel intervient aussi en amont, lors des choix à réaliser concernant les
activités payantes proposées par l’OCDE. Ces positions sont discutées avec le directeur
de la DRI, en concertation avec l’administration (voir ci-après). En définitive, c’est le
ministère de l’enseignement qui prend la décision de participer à l’enquête (Moyson et
Termine, 2007).
La Direction des Relations internationales
De manière générale, la Direction des Relations internationales (DRI) du Secrétariat
général du Ministère de la Communauté française est présentée comme une « structure
de coordination » des activités de la Communauté française qui se situent dans une
dimension internationale. En ce qui concerne l’enseignement, cette coordination est
réalisée en relation avec l’AGERS (Administration générale de l’Enseignement et de la
Recherche scientifique) et le CGRI (Commissariat général aux Relations internationales).
Il s’agit là des lieux qui assurent en pratique les relations internationales de la CFB. C’est
donc un espace important, notamment pour ce qui concerne la dimension européenne de
l’éducation, même si, en soi, ces lieux ne sont pas exclusivement concentrés sur des
questions d’éducation. Autrement dit, nous soulignons ici le fait que la dimension
internationale des questions d’éducation en CFB semble en partie échapper aux acteurs
de l’administration qui sont spécialisés dans les questions d’éducation.
La DRI assure également la représentation de la Communauté française aux différentes
22
2.
L’histoire, la carte sociale et la structure organisationnelle de PISA
instances internationales (Comités de l’éducation du Conseil de l’Europe, OCDE, etc.) en
tant que « porte-parole ». Le rôle du directeur de la DRI est de s’assurer que « la voix de
la Communauté française soit la plus homogène possible » sur la scène internationale.
Leur travail consiste également à mobiliser les personnes adéquates, « spécialistes de la
question », pour les envoyer en représentation aux différents comités internationaux.
En ce qui concerne PISA, c’est à la DRI que se situent les budgets de fonctionnement et
que se rédigent les conventions. Au sein du Comité de l’OCDE, c’est également le
directeur de la DRI qui est le « porte-parole de la partie francophone », « relayant les
positions » de la Communauté française4, après un travail interne de coordination,
notamment avec l’AGERS (Administration générale de l’Enseignement et de la Recherche
scientifique) ou l’AGPE (Administration générale des Personnels de l’enseignement),
visant, par exemple, à choisir les activités (payantes) à mener parmi le « programme à la
carte » proposé par l’OCDE. Ce choix se fait en fonction des « priorités politiques » et
celles de l’administration. Après avoir participé aux réunions du Comité de l’OCDE, le
directeur de la DRI fait un compte-rendu et se réunit avec le Cabinet ministériel et
l’administration.
La DRI est présentée comme le principal interlocuteur du Centre national de recherche au
niveau de l’administration. C’est normalement la DRI qui représente la CFB au PGB,
même si, comme on l’a indiqué, en pratique, ce sont des chercheurs de l’ULg qui
remplissent cette mission de représentation. C’est également la DRI qui est responsable
de convoquer le Comité d’accompagnement (cf. infra) et qui est responsable du budget.
Le Centre national de recherche participe également aux publications de la DRI (« Les
clés de lecture ») qui diffusent certains résultats de PISA.
Si la DRI semble jouer un certain rôle dans le processus de construction et de mise en
œuvre de PISA, on doit cependant souligner que l’administration du pilotage – qui
constitue aujourd’hui un lieu central du système éducatif de la CFB - n’est pas pour
autant hors jeu en ce qui concerne PISA (voir ci-après). En réalité, la DRI semble surtout
en charge des aspects « relations internationales » alors que les aspects de la gestion de
PISA qui sont plutôt nationaux, sont davantage investis par le service de pilotage. Le
« pilotage » est en outre membre du comité d’accompagnement (infra).
4
A l’OCDE et au Conseil de l’Europe, la Belgique a “deux voix”. Par contre, au Comité de l’Education de l’Union
Européenne, la Belgique a une seule voix (pour les communautés flamandes, francophones et germanophones
– tous les six mois, une des trois communautés est porte-parole pour la Belgique). Il peut arriver que les deux
communautés ne s’expriment pas de la même manière.
23
2.
L’histoire, la carte sociale et la structure organisationnelle de PISA
Le service de pilotage
Dans l’administration, le principal interlocuteur du SPE est la DRI. Le service de pilotage
constitue le deuxième interlocuteur principal du NPM au niveau de l’administration. En
particulier, le NPM a des contacts avec le service pilotage à propos de la diffusion des
résultats de PISA et la création d’indicateurs à partir des données de PISA. Par ailleurs,
c’est le service de pilotage qui désigne les groupes d’experts.
Notons que l’administration du pilotage constitue un lieu tout à fait central pour la
gestion des questions d’éducation. Simplement, en ce qui concerne PISA, son rôle paraît
moins directement situé en première ligne. Ainsi, par exemple, le service de pilotage est
représenté au sein du comité d’accompagnement (mais n’en assure pas la présidence qui
revient à la DRI).
Le représentant de la Communauté française au Bureau des pays participants
On a souligné plus haut la particularité belge qui fait que ce sont souvent des chercheurs
de l’ULG qui jouent le rôle de représentant de l’administration au sein du PGB. Nous n’y
revenons pas ici. Il nous parait par contre important de souligner combien le travail
réalisé au sein du PGB, tel qu’il est décrit par nos interlocuteurs, apparait consensuel et
finalement peu politisé.
Dans la plupart des cas, il semble que les décisions se prennent par écrit, via un courrier,
en particulier lorsqu’il s’agit de questions « délicates » (comme les mesures à prendre à
l’égard de pays qui n’ont pas respectés l’embargo à l’égard des résultats de PISA). Les
décisions se prennent surtout « par consensus » et il n’y aurait jamais eu de vote en
séance au sein du PGB. Selon les personnes que nous avons interviewées, les réunions
au sein du PGB sont assez « feutrées », « les gens sont très positifs », même s’il y a
parfois des « incidents » qui surviennent (par exemple, le représentant de la France qui
quitte la réunion parce qu’il n’y a pas de traduction simultanée prévue) ou des « débats
assez chauds » (par exemple, le représentant de l’Italie qui critique les critères
d’évaluation des candidats au poste de consortium ou des débats sur la durée des cycles
de PISA).
Le Comité d’accompagnement et les groupes d’experts
PISA suppose aussi que chaque NPM soit entouré d’un comité national et de trois comités
disciplinaires5 (Moyson et Termine, 2007, p. 28). Autour du projet PISA, il y a un Comité
d’accompagnement qui regroupe le NPM, le représentant de la CFB au PGB, le directeur
de la DRI, le responsable du pilotage, des chercheurs du SPE, des personnels d’ETNIC
5
Les comités d’experts sont composés d’experts désignés par les réseaux (qui peuvent être des chargés de
mission dans le cas du réseau catholique ou d’enseignants partiellement en fonction dans le cas du réseau des
villes et provinces), d’un représentant du service de pilotage et d’inspecteurs. Selon le domaine majeur du test,
la composition du groupe d’experts varie (on ne mobilise que des experts du domaine majeur).
24
2.
L’histoire, la carte sociale et la structure organisationnelle de PISA
(Service de Statistiques de la CFB), des membres du cabinet ministériel. Les membres
des réseaux sont représentés dans les groupes d’experts disciplinaires. D’après nos
informations, la manière d’organiser et de mobiliser ces comités (comité national et
comité d’experts) varie fortement selon les pays. Certains pays ont véritablement
professionnalisé cette fonction, notamment en rémunérant les membres des comités.
En CFB par contre, les membres du comité national sont des représentants de différents
« lieux » susmentionnés qui remplissent par ailleurs d’autres missions et qui ne sont pas
rémunérés pour leur implication dans le comité national ou dans les comités d’experts.
Une bonne partie du travail qui incombe théoriquement à ce comité est dès lors de facto
assumé non pas par le comité mais bien par le NPM et ses collaborateurs. Ces tâches
sont considérées comme plus techniques que politiques : il s’agit, par exemple, de rendre
des avis sur les différents items en construction.
Le comité se réunit en réalité une ou deux fois par an pour examiner le rapport d’activité
présenté par le NPM : Chaque année, le Comité d’accompagnement de PISA reçoit un
rapport rédigé par le Centre national de recherche qui reprend l’ensemble des activités
nationales et internationales liées à PISA. Il reprend notamment les comptes-rendus des
réunions au PGB et les courriers les plus importants échangés avec l’OCDE. Ce Comité
vérifie que le centre national de recherche a rempli les tâches qu’il était supposé remplir.
Ce
Comité
peut
méthodologiques
poser
(par
des
questions
exemple, sur
les
variées
critères
aux
chercheurs :
retenus
pour
des
questions
l’échantillonnage),
concernant la diffusion des résultats, etc. C’est également ce Comité qui donne l’aval
autorisant le paiement du Centre de recherche (le budget étant approuvé et sous la
responsabilité de la DRI). Ce Comité traite en même temps des questions liées aux
réseaux Ines A, B et C. Lors des réunions de ce Comité, le représentant de la CFB au PGB
peut soumettre certaines questions relatives à des orientations à prendre. Le Comité
émet un avis et prend les décisions officielles concernant les options internationales.
Les réseaux
PISA véhicule une certaine représentation de l’organisation des systèmes éducatifs. Il
présuppose que chaque pays dispose d’un système éducatif constitué schématiquement
d’un centre, avec ses acteurs politiques et administratifs, d’une part, et d’établissements
scolaires locaux, d’autre part. Dans ce schéma, les établissements scolaires sont soumis
à une même autorité. Qu’il puisse exister des autorités intermédiaires ou des réseaux
éducatifs différents constitue une particularité qui ne parait pas trouver sa place dans la
schématisation de l’action éducative que PISA véhicule implicitement en référence à
l’image de l’Etat-Nation monolithique, unifié autour d’une langue et d’une culture.
Disposer sur un même territoire de différentes communautés linguistiques et de
différents réseaux éducatifs, disposant d’une relative autonomie pédagogique, parait
étranger à la rationalité de l’instrument, non seulement au niveau de son organisation
25
2.
L’histoire, la carte sociale et la structure organisationnelle de PISA
pratique, mais aussi au niveau de ses présupposés culturels.
On peut dès lors comprendre que les réseaux ne trouvent pas véritablement une place en
tant qu’acteurs institués dans la mise en œuvre et le management de PISA. Ils sont peu
présents et le rôle qu’ils jouent est peu visible. Ils sont représentés dans le groupe
d’experts. Ils sont également représentés dans l’échantillon, de manière proportionnée à
leur recrutement d’élèves. Le pouvoir organisateur de la CFB, de même que la fédération
de l’enseignement libre catholique, ont également joué un rôle en encourageant leurs
établissements à participer aux enquêtes PISA.
On peut souligner ici un élément particulier en ce qui concerne la prise en compte de la
variable « réseau » parmi les variables d’échantillonnage. Du point de vue de la
rationalité statistique, les variables d’échantillonnage sont des variables dont il faut tenir
compte pour garantir la constitution d’un échantillon représentatif. Dans un pays comme
le notre, avec une forte ségrégation scolaire, on tient par exemple compte de cette
variable pour constituer l’échantillon. Selon les chercheurs du SPE, il n’y a aucune raison
statistique qui justifie que la variable « réseau » soit prise en compte dans l’échantillon.
Si la variable est prise en compte, c’est pour une raison politique : dans une logique
consociative, il convient de respecter les équilibres. Le contexte politique belge définit
ainsi en partie le choix d’une variable d’échantillonnage dont on sait par ailleurs qu’elle
n’est pas statistiquement pertinente ou utile.
Dans l’ensemble cependant, les réseaux apparaissent comme un acteur absent de
l’acceptation et de la mise en œuvre de PISA. Il ne semble pas y avoir eu de
négociations, ni de conflits autour de la mise en œuvre de PISA. Ils interviennent
simplement pour encourager les écoles de leur fédération à participer à l’enquête, mais
aucun rôle spécifique ne leur est attribué.
2.2 La décision de participer au programme Pisa
2.2.1 Les personnes et le lieu de la décision de participer aux enquêtes
PISA
Comme on l’a montré, le contexte scolaire belge se caractérise par un « pluralisme
institutionnel » et s’est historiquement constitué comme un système relativement
décentralisé, en lien avec la communautarisation de l’enseignement et sa structuration
en divers réseaux. Dans ce contexte, la question de la détermination d’un lieu de décision
relatif aux enquêtes PISA ne va pas de soi. Il n’existe en effet pas d’autorité centrale
disposant du pouvoir nécessaire pour imposer la participation aux pouvoirs organisateurs
et aux établissements. Le Ministère de l’Education ne dispose pas de la même autorité
26
2.
L’histoire, la carte sociale et la structure organisationnelle de PISA
sur tous les établissements : son pouvoir existe surtout vis-à-vis des établissements dont
il est le pouvoir organisateur. Ceci étant dit et précisé, il semble que la participation aux
enquêtes PISA s’est discutée au niveau de chaque Communauté linguistique (flamande et
française) et des ministères de l’éducation respectifs, et non au niveau de l’Etat fédéral.
En Communauté française de Belgique, la décision de participer à Pisa s’est inscrite dans
un réseau reliant des membres de l’administration scolaire et des chercheurs de
l’Université de Liège. On rappelle ici que l’Université de Liège occupe une position
particulière dans ce processus pour au plusieurs raisons: tout d'abord, l'ULG était à
l'époque l'un des quatre membres du consortium international qui avait décroché le
contrat au niveau de l'OCDE. Par ailleurs, dans le contexte belge francophone,
l'Université est une des seules et certainement la principale université d'Etat. Enfin, il
faut souligner que d’éminents professeurs de l’ULg avaient également été membres
associés à l’OCDE (le prof. De Landsheere, notamment). L’ULg était donc de longue date
en relation avec l’OCDE, et plus précisément avec les actions et réflexions de l’OCDE en
matière d’éducation et de mesures en éducation (notamment au sein du CERI). Ces
différentes raisons ont fait de cette université un acteur privilégié dans les opérations
liées à PISA.
A l’époque, des chercheurs du SPE étaient impliqués dans des réseaux organisés par
l’OCDE, notamment dans le réseau INES travaillant sur la question de la constitution
d’indicateurs pour l’éducation. Il apparait que ce sont ces chercheurs - en particulier l’un
d’entre eux - qui ont « porté PISA sur les fonds baptismaux » et qui ont convaincu
l’administration de la Communauté française d’y participer. Ces chercheurs ont trouvé au
niveau de la Direction des Relations internationales (DRI) des personnes sensibles au
projet PISA. La force de conviction des chercheurs a contribué à convaincre les quelques
personnes qui dans l’administration étaient rebutées, non pas par le principe de
l’opération, mais bien par son coût.
2.2.2 Le manque de données au niveau national comme facteur favorable
à l’acception de PISA
Pisa apparaît dans un contexte où il n’existe pas encore véritablement de tradition
« nationale »6 d’évaluation des acquis des élèves et à un moment où plusieurs acteurs
scolaires sont convaincus de la nécessité de réaliser des évaluations externes du système
éducatif en vue de le piloter. Cette conviction à propos de la nécessité de l’évaluation et
du pilotage du système éducatif avait été nourrie en particulier par une étude menée par
l’OCDE au début des années 1990 à la demande des ministres en charge de
l’enseignement en Communautés flamande, française et germanophone. Cette étude, qui
6
Par « national », il faut entendre en fait « communautaire » puisque, comme nous l’avons vu précédemment,
l’enseignement est, en Belgique, une matière communautaire.
27
2.
L’histoire, la carte sociale et la structure organisationnelle de PISA
dresse un état des lieux sur le système éducatif en Belgique, a notamment mis en avant
le manque de pilotage et la « trop faible culture de l’évaluation » en tant que « l’une des
causes de son dysfonctionnement ». De nombreuses personnes interviewées font
référence à cette étude pour expliquer l’origine du projet de pilotage du système éducatif
en Communauté française. On ne peut ici que souligner la profondeur de l’impact de
cette étude. Aujourd’hui encore, soit plus de 15 ans après sa publication, la majorité des
acteurs s’y réfèrent lors des entretiens que nous menons pour la recherche KnowandPol.
Suite à cette étude et sous l’impulsion du secrétaire général à la Communauté française
(J. Magy), une première « structure légère de pilotage » avait été mise en place et des
premières évaluations externes sont réalisées (en 1994-1995), de manière limitée.
La fin des années 1990 est aussi une période qui va connaître une réforme importante,
promulguée par le « Décret Missions » (juillet 1997), qui marque un tournant
considérable dans la définition des orientations pédagogiques et les modes de régulation
du système éducatif. Ce Décret, tout en cherchant à rendre le système éducatif plus
équitable et plus efficace, va entre autres promouvoir une logique de pilotage et
d’évaluation du système éducatif (Maroy, 1999). Il peut être décrit comme marqué par
une conception relativement « managériale » de l’enseignement (au sens où l’entend Van
Haecht ; 1998), où les objectifs de l’école ne sont plus définis seulement en termes
d’enjeux politiques, mais avant tout en termes de décisions à prendre sur des bases
rationnelles pour en optimaliser l’efficacité. Une conception « civique » n’est toutefois pas
absente, puisqu’en même temps le Décret Missions est porté par des préoccupations liées
à l’égalité entre les élèves et à la transparence relative à l’état du système scolaire
(Dupriez et Maroy, 1999).
A la fin des années 1990, au moment de son acceptation, PISA arrive donc en
Communauté française dans un contexte de forte préoccupation à propos de l’efficacité et
de l’égalité du système d’enseignement et qui est marquée par le début, encore timide,
d’une logique de pilotage du système éducatif par l’analyse de ses résultats (Dupriez,
2002 ; Maroy, 1999 ; Vandenberghe, 2000). PISA arrive à un moment où différents
acteurs sont convaincus de la nécessité d’avoir un instrument d’analyse externe du
système pour le piloter7.
Selon les personnes que nous avons interviewées, il y aurait eu relativement peu de
débats et de discussions au sujet de la participation de la Communauté française de
Belgique au programme PISA. Comme on l’a indiqué, la décision de participer au
programme PISA s’inscrit dans un contexte sociopolitique qui avait été sensibilisé (par
7
La mise en place d’un système de pilotage ne sera cependant véritablement concrétisée qu’en 2002, avec le décret relatif au pilotage du
système éducatif qui met en place une « Commission de pilotage ». La réalisation d’évaluations externes organisées au niveau « national »
(celui de la Communauté française) ne verra également le jour que fort tard (décret de 2006). De nombreuses personnes interviewées pensent
que les enquêtes PISA ont joué un rôle dans ce processus : les mauvais résultats de la Communauté Française aux enquêtes PISA auraient
participé à ce mouvement en soutenant la mise en place de la Commission de pilotage et en renforçant le besoin de « disposer d’évaluations
externes propres plutôt que de rester suspendus à une évaluation internationale » (selon les propos de l’ancien NPM). Nous y reviendrons
plus loin dans le rapport (partie 3.3)..
28
2.
L’histoire, la carte sociale et la structure organisationnelle de PISA
l’OCDE notamment) au déficit d’évaluation en Belgique et dès lors favorable au
développement d’évaluations externes du système éducatif dans le but de mieux le
« piloter ». Il faut également souligner que l’Université de Liège avait développé une
forte expertise de recherche
en matière de mesures de résultats et faisait partie du
consortium international initial en charge de PISA. Certains de ces chercheurs ont plaidé
en faveur de PISA à l’époque. Enfin, on doit également noter que la Belgique participait
déjà aux enquêtes internationales qui ont précédé PISA : dans une certaine mesure, la
participation à l’enquête PISA s’inscrivait dans la continuité de ces précédentes enquêtes
(même si les taux de réponse étaient habituellement faibles).
En outre, on peut supposer qu’une certaine pression internationale à participer au
programme existait. On peut se demander plus généralement si, avec le temps,
aujourd’hui, la participation à PISA ne tend pas devenir une pratique motivée par la
nécessité d’être visible et d’exister au niveau international, et pas seulement par une
volonté de mieux connaitre et comprendre les systèmes éducatifs.
2.2.3 La participation au projet
Il y a finalement très peu de controverse relative à la participation à PISA, que ce soit au
moment de l’entrée dans le dispositif ou par la suite. Le plus souvent, la Communauté
française, à travers la voix de ses représentants, est en accord avec les décisions prises
par le PGB. Elle participe en général aux options internationales proposées, mais elle ne
fait guère usage des options nationales.
Dans un document de présentation du dispositif PISA, diffusé sur le site internet de
l’Administration générale de l’enseignement et de la recherche scientifique de la CFB et
rédigé par le NPM et ses collaborateurs, ceux-ci précisent que la « seule véritable marge
de manœuvre (pour les pays) réside dans le choix de participer ou non aux options
internationales et d’ajouter des options nationales à PISA, moyennant l’accord du
consortium » (Lafontaine, Baye et Matoul, 2001, p. 22). En ce qui concerne les options
nationales, la CFB semble ne « l’exploiter que de manière marginale » (Lafontaine, Baye
et Matoul, 2001, p. 23)8. En ce qui concerne les options internationales, la CFB y
participe en général, en particulier s’ils sont peu couteux ; leur coût semble un critère de
décision important.
Lors du premier cycle de PISA (2000), la Communauté française a cependant refusé de
participer à une option internationale qui portait sur l’évaluation de la « motivation,
attitudes et stratégies d’apprentissage » des élèves9. Les chercheurs au SPE n’étaient pas
« convaincus par l’intérêt de l’approche adoptée » et ont décidé de ne pas y participer
8
Seuls quelques items ont été ajoutés aux questionnaires Elève et Etablissement (par exemple, un item relatif
aux activités de loisir des jeunes) (Lafontaine, Baye et Matoul, 2001, p. 23).
9
Il s’agit de l’option internationale CCC (Cross Curriculum Competencies).
29
2.
L’histoire, la carte sociale et la structure organisationnelle de PISA
« pour des raisons de désaccord avec les valeurs sous-jacentes et pour des raisons
techniques liées à la formulation des items »10, et cela malgré une certaine « pression de
la hiérarchie de l’OCDE » (Lafontaine, Baye et Matoul, 2001, p. 23). Cette décision a été
discutée au sein du Comité national d’accompagnement, avec des membres du cabinet
ministériel et la direction du pilotage. Selon le représentant de la CFB au PGB, la
Communauté française n’a pas seulement refusé de participer à l’option internationale,
mais elle a également orienté le débat en exprimant une forme de protestation active
vis-à-vis de certaines valeurs implicites véhiculées par le dispositif.
10
Plus précisément, les principales raisons avancées de refus sont : « une qualité jugée peu satisfaisante de
certains items (ce que l’essai de terrain a largement confirmé); - la longueur et la redondance de l’instrument,
qui devait être administré au terme de deux heures et demie de testing; - des valeurs implicites aisément
perceptibles : à certains indices, on sentait que l’apprentissage compétitif avait plus de valeur que
l’apprentissage cooperative (du moins les items relatifs à l’apprentissage compétitifs étaient plus attractifs); un problème d’ordre éthique dû au fait que tous les items des échelles étaient orientés dans le même sens
(l’élève cochant systématiquement la case 4 représenterait en quelque sorte l’élève «modèle»). Le comité
déplorait que l’élève non conforme à ce modèle devait marquer son désaccord ou sa divergence avec le portrait
« idéal » proposé » (Lafontaine, Baye, Matoul, 2001, pp. 22-23). « Par contre, la non-participation de la
Communauté française à l’option de PISA-2000 consacrée à l’apprentissage autorégulé repose sur des raisons
plus fondamentales : il s’agit ici de réticences exprimées par le Comité d’accompagnement de PISA-2000 tant à
propos de la méthodologie de l’enquête qu’en ce qui concerne les options philosophiques sous-jacentes (…) Les
réticences du Comité d’accompagnement de PISA-2000 se fondaient sur une divergence de vue entre les
chercheurs impliqués en Communauté française et les responsables de cette option en ce qui concerne la
méthodologie de recueil de données : les élèves ont été invités à indiquer une fréquence ou un degré d’accord à
propos de propositions qui toutes sauf une sont orientées dans le même sens (il est toujours plus positif de
produire le comportement plus fréquemment ou d’être davantage d’accord). Cette approche, défendue par les
auteurs de l’échelle, a semblé peu pertinente dans la mesure où elle risquait de donner lieu à des réponses
stéréotypées et de renforcer l’effet de la désirabilité sociale. Cette divergence de vue en ce qui concerne la
méthodologie se doublait de certaines réserves quant aux valeurs sous-jacentes à l’instrument : ainsi, l’étude
de la motivation porte sur quatre variables : la motivation instrumentale (apprendre parce que cela peut être
utile), l’intérêt pour la lecture et pour les mathématiques (plaisir dans l’activité), l’effort et la persévérance dans
l’apprentissage. Il s’agit d’une perspective utilitariste, qui ne laisse aucune place à l’apprentissage par envie de
développer ses compétences. » (DRI, 2006, p. 97 et p. 99).
30
3.
PISA, savoir et pouvoir
3. PISA, savoir et pouvoir
Par Branka Cattonar
Dans cette partie du rapport, nous allons étudier la diffusion de PISA, sa réception et son
usage par les différents acteurs œuvrant dans le champ scolaire en Communauté
française
de
l’enseignement,
Belgique :
les
les
pouvoirs
chercheurs
publics,
universitaires,
les
les
pouvoirs
syndicats
organisateurs
de
d’enseignants,
les
mouvements pédagogiques, les associations de parents et les acteurs politiques. Pour ce
faire, nous nous baserons sur une analyse des discours qu’ils ont tenus lors de débats
publics (médiatiques ou parlementaires) et des entretiens que nous avons menés auprès
de certains d’entre eux11. Nous nous intéresserons en particulier à la manière dont ces
acteurs reçoivent, interprètent, invoquent et utilisent les résultats de PISA.
Dans la première section, nous commencerons par présenter la diffusion officielle des
résultats de la CFB aux enquêtes PISA en passant en revue ses différents supports, en
particulier
les
rapports
dits
« nationaux ».
Plus
précisément,
nous
verrons
les
connaissances qui sont produites par les rapports nationaux, la manière dont elles sont
diffusées et reçues par les différents acteurs scolaires, ainsi que leur impact public.
Dans la seconde section, nous intéresserons au débat public sur PISA : en CFB, qui dit
quoi sur PISA ? Nous rendrons compte des débats qui ont lieu sur ses aspects techniques
ou scientifiques, sur ses aspects idéologiques, sur son utilité et sa pertinence politique,
et, enfin, sur l’interprétation de ses résultats et les « leçons » que PISA suggèrerait.
Dans la troisième section, nous verrons la manière dont les enquêtes PISA interviennent
dans l’action publique en éducation en CFB, en examinant comment elles sont mobilisées
dans les débats politiques concernant l’éducation et comment elles sont utilisées pour
légitimer les politiques scolaires prises ces dernières années en CFB.
Nous terminerons alors, dans la quatrième section, en proposant une conclusion sur
l’usage qui est fait de PISA, ainsi que sur son influence sur le débat public et la
fabrication politique en éducation en Communauté française de Belgique.
3.1 Les rapports PISA nationaux
Nous allons commencer par présenter la diffusion officielle des résultats de la CFB aux
enquêtes PISA à partir des rapports dits « nationaux » : Quelles connaissances
11
Voir les annexes 1 à 3.
31
3.
PISA, savoir et pouvoir
produisent-ils et véhiculent-ils ? Quelle est leur diffusion publique ? Par qui et comment
sont-ils reçus ? Quel impact public ont-ils ?
Précisions d’emblée qu’en Belgique, les rapports nationaux sont en réalité des rapports
« communautaires », propres à chacune des Communautés linguistiques et rédigés par
leur centre de recherche. Ces rapports « communautaires », dans un Etat fédéral comme
la Belgique, prennent une importance particulière dans la mesure où les rapports
internationaux publiés par l’OCDE n’analysent les résultats que pour la Belgique
considérée dans son ensemble12. Or, en matière d’éducation, le niveau d’analyse jugé
pertinent est plutôt celui de la Communauté linguistique. Bien que les rapports publiés
par l’OCDE accordent une place croissante aux données régionales et que le Consortium
fournit « une série de résultats de base » à chaque Communauté, plusieurs indicateurs et
croisements entre variables ne sont pas produits à cette échelle. Cette situation oblige
les centres de recherche de chacune des Communautés à recommencer une grande
partie des analyses qui sont ensuite publiées dans des rapports distincts.
3.1.1 Les supports à la diffusion officielle des résultats de la CFB à PISA
En Belgique francophone, l’administration scolaire (le Service Général de Pilotage du
Système Educatif) diffuse plusieurs types de documents qui présentent les résultats
spécifiques à la Communauté française (voir la liste à l’annexe 2). Ils sont tous rédigés
par les chercheurs du SPE (Ulg) et sont disponibles sur le site internet de l’Administration
générale de l’Enseignement et de la Recherche (l’AGERS)13. Autrement dit, ces rapports
ne sont pas produits par l’administration, mais bien par des chercheurs universitaires qui
néanmoins, comme nous l’avons souligné dans la partie 2 du rapport, ont des contacts
réguliers avec elle.
Les rapports de synthèse
En premier lieu, on retrouve un « rapport de synthèse » qui est rendu public au moment
de la diffusion officielle du rapport international et du communiqué de presse organisé
par l’OCDE. Les rapports synthétiques des trois cycles de PISA (2000, 2003 et 2006) ont
une structure relativement similaire. Comportant une vingtaine de pages (dont la moitié
12
Les rapports PISA internationaux sont rédigés sous la responsabilité du Secrétariat de l’OCDE à partir des
données transmises par le Consortium international en charge de PISA (qui travaille lui-même à partir des
données brutes fournies par les centres nationaux de recherche).
13
Il s’agit du site internet « www.enseignement.be ». Plusieurs pages y sont consacrées à Pisa, regroupées
dans une section dédiée aux « évaluations externes ». On y trouve une brève présentation de Pisa, les rapports
nationaux et documents didactiques rédigés par les chercheurs du SPE (ULg) pour de chaque cycle de PISA
ainsi que des extraits des questions des tests. Pour le premier cycle de PISA, on trouve également le rapport
international.
32
3.
PISA, savoir et pouvoir
est constituée de tableaux statistiques), ils présentent de manière succincte l’étude PISA
(population concernée, contenu de l’évaluation, déroulement du test, types de résultats
produits,
caractéristiques
de
l’échantillon,
définition
des
concepts,
exemples
de
questions) et les premiers résultats de la CFB (sous forme de pourcentages, de
moyennes, d’écart-type, de classements, de figures et tableaux comparatifs et de
commentaires). Rédigés en un court laps de temps14, ils visent à préparer les chercheurs
à répondre à toutes les questions spécifiques nationales qui seront posées dès la
présentation publique des résultats. Plus précisément, ces rapports décrivent les
résultats de la CFB en présentant les proportions d’élèves se situant à chacun des
niveaux de l’échelle de compétence construite pour la principale discipline évaluée, ainsi
que les performances moyennes et la dispersion des résultats pour les trois disciplines
évaluées. Au-delà de ces données descriptives, les rapports de synthèse analysent
succinctement les différences de résultats en fonction de plusieurs caractéristiques
individuelles (le genre, l’origine ethnique de l’élève, le niveau d’éducation de la mère, le
statut socio-professionnel des parents) et variables liées au parcours scolaire des élèves
(l’année d’étude fréquentée, la forme d’enseignement fréquentée, le retard scolaire). Ces
rapports mettent également en perspective les résultats de la CFB avec ceux de la
Communauté flamande et des autres pays participants.
La conférence de presse
La diffusion publique des premiers résultats partiels de la CFB à PISA, tels qu’ils sont
contenus dans les rapports de synthèse, débute toujours par la conférence de presse
organisée au courant du mois de décembre par le Ministère de l’enseignement au même
moment que la sortie officielle des résultats de PISA au niveau international. Avant cette
conférence de presse, il y a un « embargo » à l’égard des résultats de PISA : « les
données PISA sont secrètes jusqu’à la conférence de presse qui les libère » (selon le
représentant de la CFB au PGB) et chaque pays est tenu à la confidentialité. Pour limiter
les risques de « fuite », le Ministre de l’enseignement n’est lui-même mis au courant des
résultats de PISA qu’un jour ou deux avant la conférence de presse. A ce moment-là
seulement, le NPM présente les résultats à un groupe très restreint réunissant le Ministre
de
l’enseignement,
des
membres
du
cabinet
ministériel
et
des
membres
de
l’administration scolaire (des responsables du Service de pilotage et de la DRI).
Lors de la conférence de presse, ce sont les chercheurs du SPE qui présentent les
résultats en présence du Ministre. Depuis le deuxième cycle de PISA (2003), une copie
des diapositives PowerPoint projetées lors de cette présentation est mise à disposition
sur le site internet de l’administration (l’AGERS). Elles reprennent en grande partie les
informations contenues dans les rapports de synthèse.
14
Les chercheurs reçoivent en septembre une base de données « utilisable » de la part du Consortium
international et publient le rapport synthétique au début du mois de décembre.
33
3.
PISA, savoir et pouvoir
Les rapports complets
Pour chaque cycle de PISA, un rapport plus complet, d’environ deux cent pages et
considéré comme le « vrai rapport » par les chercheurs du SPE, est publié une année
après la sortie du rapport de synthèse. Outre le fait qu’il présente de manière plus
détaillée le dispositif de PISA, il se distingue du rapport de synthèse par une analyse des
attitudes, engagement et stratégies d’apprentissage des élèves dans les disciplines, une
analyse comparative des variances intra- et inter-établissements (en particulier de
l’influence de l’origine sociale des élèves et du recrutement social des établissements sur
les résultats), ainsi que des résultats aux questionnaires optionnels. Cependant, hormis
pour le premier cycle de PISA (2000), ce rapport complet n’est pas diffusé par
l’administration, mais dans une publication (payante) propre au Centre de recherche (le
SPE). Pour le premier cycle de PISA (2000), l’administration a diffusé également deux
autres documents plus étoffés : l’un, d’une cinquantaine de pages, présente de manière
très détaillée le dispositif de PISA15 ; l’autre, d’environ quatre-vingts pages, approfondit
les différences de performances obtenus par les élèves selon leurs caractéristiques
personnelles et leur environnement familial (genre, parcours scolaire, origine ethnique,
origine sociale).
Les documents didactiques destinés aux enseignants
Depuis le deuxième cycle de PISA (2003), la diffusion des résultats de PISA pour la CFB
se fait également sous forme de documents destinés aux enseignants de la discipline qui
est évaluée à titre principal16 et travaillant aux 1er et 2ème degrés d’enseignement
secondaire (c’est-à-dire avec les élèves susceptibles d’être évalués par l’étude PISA). Ces
documents sont diffusés dans les écoles par le Service Général de Pilotage et sur le site
internet de l’administration. Il s’agit de « documents plus didactiques », rédigés par les
chercheurs du SPE, qui proposent notamment des « pistes de travail » aux enseignants
pour « pouvoir les aider et ne pas les laisser seuls face aux mauvais résultats de PISA »
selon l’ancien NPM. Cette démarche est présentée comme s’inscrivant dans une forme de
pilotage « bienveillant » (opposée à un pilotage « top-down »), qui « ne se contente pas
de prendre et de renvoyer l’information », « qui ne se fait pas contre les enseignants
mais avec eux, en les accompagnant pour les aider à améliorer le système et en
essayant d’avoir des régulations qui démarrent au niveau de la classe ou des équipes
pédagogiques et qui remontent » (selon les propos de l’ancien NPM).
15
Ce document présente l’origine de PISA, les différences avec les enquêtes internationales antérieures, la
population concernée, le contenu de l’évaluation, l’apport de PISA, l’organisation du test, l’organigramme de
PISA, les garanties de validité des comparaisons internationales et les contrôles de qualité, la marge de
manœuvre des pays (options internationales et nationales), la définition des compétences évaluées, des
exemples d’items, le design de l’étude, l’échantillonnage, déroulement de l’enquête, la saisie et le nettoyage
des données, les échelles et les niveaux de compétences évalués.
16
Il s’agit, pour rappel, des mathématiques en 2003 et des sciences en 2006.
34
3.
PISA, savoir et pouvoir
Un premier type de document, de plusieurs dizaines de pages17, présente le cadre
général de l’étude, les concepts sous-jacents à l’évaluation (par exemple, la « culture
mathématique » ou le « processus de mathématisation »), quelques résultats plus
détaillés en CFB, relatifs à la discipline concernée, et des exemples de questions utilisées
lors des tests18. Le document opère à cette occasion une mise en relation entre les
compétences évaluées par l’étude PISA et celles qui sont aujourd’hui demandées en CFB
selon les « référentiels officiels » (les « Socles de Compétences » et les « Compétences
terminales »). Enfin, il esquisse quelques pistes didactiques : il s’agit de propositions
relativement générales concernant la manière dont « les enseignants peuvent tirer parti
de l’éclairage offert par le type d’évaluation proposé par PISA »19 et la manière dont ils
peuvent « utiliser les problèmes proposés dans PISA comme point de départ d’un
apprentissage » en vue « d’aider les élèves à acquérir ces compétences » (Ministère de la
Communauté française, 2004, p. 47 et 49)20. Pour le deuxième cycle de PISA (2003),
trois autres documents sont par ailleurs mis à disposition sur le site de l’administration :
il s’agit de cours documents (3 pages) qui présentent la manière dont la « littéracie », la
17
Le document comporte une cinquante de pages pour le deuxième cycle de PISA (2003) et une septantaine
pour le troisième cycle de PISA (2006).
18
Le document présente les résultats moyens des élèves sont d’abord donnés pour chacune des compétences
définies dans PISA, pour les différents niveaux de « l’échelle combinée », ainsi que quelques résultats relevant
des différentes « sous-échelle », en comparant les années d’études et les filières d’enseignement. Le document
diffusé pour le troisième cycle de PISA (2006) présente également les attitudes des élèves à l’égard des
sciences et des cours de sciences.
19
A titre d’exemple, on retrouve dans le document destiné aux enseignants de mathématiques des 1er et 2ème
degrés de l’enseignement secondaire, publié pour le deuxième cycle de PISA (2003), la proposition suivante :
(à propos de la résolution de problèmes proches de la vie réelle) « si l’on accepte le point de vue défendu dans
le programme PISA, (…) il convient d’accorder une place à l’enseignement de ce type de problèmes dans tous
les cours de mathématiques (…). La variété des problèmes proposés dans PISA (cf. les échelles de
compétences) devrait permettre à chacun de trouver un matériau adapté pour développer les compétences des
élèves en résolution de problèmes » (Ministère de la Communauté française, 2004, p. 48). Autre exemple : le
document destiné aux enseignants de sciences des 1er et 2ème degrés de l’enseignement secondaire, publié pour
le troisième cycle de PISA (2006), suggère de « favoriser le débat entre élèves et la production d’écrits pour
aider la mobilisation des acquis » pour palier à certains résultats à PISA qui montrent que beaucoup d’élèves ne
parviennent pas à connecter certaines compétences avec des situations de la vie courante et éprouvent des
difficultés dans l’expression ou la communication scientifique (Quittre et alii, 2007, p. 50).
20
A titre d’exemple, on retrouve dans le document destiné aux enseignants de mathématiques des 1er et 2ème
degrés de l’enseignement secondaire, publié pour le deuxième cycle de PISA (2003) une « esquisse de la
manière dont les problèmes proposés dans PISA peuvent servir de point de départ aux apprentissages » sous
forme d’un tableau qui liste une série de compétences à développer (comme les « problèmes simples
nécessitant l’identification et l’application du rapport mathématique approprié » correspondant aux niveaux 1 et
2 des différentes échelles) et les exemples de problèmes permettant de les développer (comme le « taux de
change » impliquant le contenu « quantité »).
35
3.
PISA, savoir et pouvoir
« culture scientifique » et la « résolution de problèmes » sont définies et évaluées dans le
test PISA.
Les présentations orales auprès d’acteurs scolaires
et de la communauté scientifique
A côté des rapports écrits, il est à noter que le NPM et ses collègues organisent
également des présentations orales des résultats de PISA à la demande de divers
acteurs, comme les associations de parents d’élèves, les associations de directeurs, les
associations de professeurs, les syndicats d’enseignants ou des pouvoirs organisateurs21.
Le NPM répond aussi à des demandes d’information de la part d’acteurs intermédiaires
(comme les réseaux ou les syndicats) en publiant dans leur organe de diffusion une
présentation des rapports ou en accordant des entretiens. Enfin, certains résultats sont
également diffusés aux écoles qui ont participé au test en leur demandant de ne pas en
faire la publicité (laquelle est interdite).
Les documents officiels connexes
Les résultats de PISA sont également diffusés sous forme d’indicateurs dans une
publication dirigée par la Direction des Relations Internationale, à laquelle collabore le
centre national de recherche (le SPE), et qui est davantage destinée aux « décideurs ».
Les publications de la DRI comportent de larges extraits des rapports nationaux rédigés
par les chercheurs du SPE et fournissent une lecture similaire des résultats de la CFB à
PISA. La présentation des résultats de PISA y est néanmoins plus « lisse » et
l’interprétation des causes des problèmes est plus « prudente ».
3.1.2 Les rapports PISA et le débat public en éducation
Après avoir présenté brièvement les différents supports à la diffusion officielle des
résultats des enquêtes PISA, nous allons à présent nous interroger sur leur impact public.
Nous allons tout d’abord identifier les connaissances qui sont produites et véhiculées par
les rapports nationaux. Nous examinerons ensuite la manière dont elles sont diffusées et
reçues par les différents acteurs scolaires : Les connaissances produites par les rapports
nationaux sont-elles connues ? Par qui ? Quelle est leur diffusion ? Finalement, nous
verrons quelles sont les connaissances véhiculées par les rapports nationaux qui ont un
impact public, qui sont retenues et discutées publiquement.
Les connaissances véhiculées par les rapports nationaux
Les différents documents qui servent à la diffusion officielle de PISA diffusent plusieurs
types de connaissances : de différentes formes ou natures (théoriques, empiriques,
21
A titre illustratif : pour le premier cycle de PISA, le NPM et ses collègues ont répondu, entre janvier 2002 et
avril 2003, à une cinquantaine de sollicitations de conférences ou d'interviews différentes sur PISA.
36
3.
techniques,
statistiques,
descriptives,
comparatives,
PISA, savoir et pouvoir
classificatoires,
explicatives,
associatives, causales, normatives) et portant sur divers objets.
En premier lieu, ils véhiculent des connaissances au sujet de l’étude PISA elle-même, que
les chercheurs du SPE s’efforcent de décrire comme un outil « solide » et irréprochable
en présentant de manière relativement détaillée les garanties de fiabilité aux différentes
étapes de l’enquête, les mécanismes de contrôle opérés tout au long de l’étude et les
procédures mises en œuvre pour prévenir tout biais ou toute inadéquation culturelle,
rappelant la « hantise de l’OCDE de se prémunir contre toute critique de partialité »
(comme l’ont encouru d’autres études internationales) :
« Il ne fait pas de doute que l’étude PISA, est, de toutes les études comparatives jamais entreprises, celle qui a
poussé le plus loin les procédures de standardisation et de contrôle de qualité, d’une part parce qu’elle
bénéficie de l’expérience accumulée au cours des trente dernières années en matière d’évaluation
comparative, d’autre part parce que l’Ocdé est hantée par le souci de se prémunir contre toute critique de «
partialité » du type de celles qu’a encourues l’étude IALS (International Adult Literacy Study) de la part de la
France [en note en bas de page : Pour rappel, la France, après avoir participé aux différentes phases
d'élaboration de IALS, a mis en question plusieurs aspects méthodologiques de l'étude et s'en est retirée, en
sorte que les résultats de la France ne figurent pas dans les rapports internationaux]. Pour PISA, les pays
participants sont vraiment sous haute surveillance. L’élévation du niveau de contrôle est d’ailleurs l’un des
éléments qui conduit à une augmentation sensible des coûts nationaux d’une telle enquête comparativement à
des enquêtes antérieures du même type. (…) PISA a fait appel aux pays participants pour qu’ils fournissent
du matériel d’évaluation (textes, documents, items) qu’ils estiment adapté pour un public d’élèves de 15 ans.
Un matériel nombreux et diversifié a ainsi été recueilli auprès de 18 pays, mais, malgré cela, les textes
d’origine anglo-saxonne restent dominants dans l’ensemble. (…) La dominante anglo-saxonne est
incontestable (…). Pour notre part, nous ne considérons pas que les conséquences d’un tel déséquilibre sont
problématiques pour l’entreprise, dès lors que les contrôles en vue d’éviter les biais culturels et linguistiques
sont effectués avec un maximum de rigueur (Fonctionnement Différentiel des Items), ce qui est le cas dans
PISA. (…) Tout au long du processus de choix du matériel et de construction des items, les pays, via leur
NPM et les comités nationaux, ont cependant été à plusieurs reprises consultés sur l’adéquation du contenu
des épreuves aux réalités des pays. » (Lafontaine, 2003, p. 31, p. 34 et p. 36).
PISA est aussi présenté comme un outil qui ne vise pas à analyser le « rendement
scolaire » du système éducatif, mais bien à « évaluer les compétences essentielles pour
la vie future des jeunes » dans une « vision citoyenne plus large ». Les chercheurs
mettent alors en avant la proximité entre les modèles théoriques sous-jacents à PISA et
les orientations pédagogiques prises ces dix dernières années en CFB qui privilégient la
« maîtrise de compétences » plutôt que « l’acquisition de savoirs et contenus scolaires »
(Lafontaine, 2000, p.1 ; Lafontaine et alii, 2004c, p. 1 ; Baye et alii, 2007a, p. 4). Enfin,
PISA est présenté comme un outil pertinent : comme un « instrument de pilotage » du
système éducatif qui fournit des « éléments d’information non accessibles par d’autres
sources » (Lafontaine, Baye et Matoul, 2000, p. 52)22. La comparaison internationale, en
particulier, est vue comme un moyen « d’objectiver la situation de la Communauté
française en la comparant à celle d’autres pays » (Baye et alii, 2007a, p.18). En même
temps, les chercheurs mettent en garde contre le danger inhérent aux études
22
En particulier, PISA est présenté comme offrant à la CFB l’occasion d’évaluer les effets de réformes récentes
telles que la mise en œuvre des Socles de compétences ou des Compétences terminales, ou encore des de la
mise en œuvre des discriminations positives (Lafontaine, Baye et Matoul, 2000, p. 8).
37
3.
PISA, savoir et pouvoir
internationales de « braquer le projecteur sur le classement et sur la place occupée par
un pays dans le classement », alors que, comme dans le cas de PISA, les « différences
au sein des pays sont bien plus prononcées que les différences entre pays » (Baye et alii,
2077, p. 22).
Ensuite, les rapports nationaux véhiculent des connaissances relatives aux « résultats »
des élèves de la CFB au test de PISA sous la forme de données statistiques descriptives
(pourcentages, moyennes, écart-type, variances, tableaux ou graphiques) et d’analyses
statistiques de relations entre diverses variables. Ces connaissances opèrent, d’une part,
divers classements et comparaisons (entre la CFB et la Communauté flamande, entre la
CFB et les autres pays participants, entre les établissements et entre les élèves selon
diverses caractéristiques), et, d’autre part, diverses associations entre variables (entre
les résultats au test et le profil du système éducatif et celui des élèves). Elles dressent
par là-même un certain « portrait » du système éducatif en CFB. Ces analyses
statistiques sont accompagnées d’interprétations, plus politiques, sur les « problèmes »
mis en évidence par l’étude PISA et sur les « solutions » qu’elle suggère. Pour les trois
cycles de PISA (2000, 2003 et 2006), ces interprétations mettent l’accent de manière
systématique sur la disparité des résultats entre les élèves, sur l’inéquité et la
ségrégation du système éducatif en CFB, en tentant de minoriser la présentation des
résultats en termes de « mauvaise moyenne » ou de « mauvaise place dans le
classement ». La CFB y apparaît alors à la fois comme la région où la « différence entre
les élèves les plus forts et les plus faibles est la plus importante » et celle où « l’incidence
du statut socioprofessionnel des parents sur les performances des élèves se marque le
plus fort ». De ce point de vue, la situation de la CFB est présentée comme proche de
celle de l’Allemagne. Le système éducatif de la CFB est ainsi décrit comme faisant partie
des « moins égalitaires » et « impuissant à compenser les inégalités sociales de départ »
- ce que les chercheurs présentent comme un « diagnostic sans appel ». En comparaison,
certains pays (comme la Finlande ou le Canada) sont présentés comme alliant à la fois
l’efficacité et l’équité.
« Les scores moyens des pays n’ont qu’un intérêt limité dans la mesure où ils masquent la diversité des
résultats propres à chaque pays » (Lafontaine et alii, 2004, p.6 ; Ministère de la Communauté française, 2004,
p. 23)
« Ce qui frappe en Communauté française de Belgique, (…) c’est, davantage que la moyenne, l’ampleur de la
dispersion des résultats. » (Lafontaine, 2000, p. 6 ; Lafontaine, 2002, p. 18 ; Lafontaine, 2003, p. 55)
« En Communauté française, la dispersion des résultats est particulièrement grande : la différence entre les 5
% d’élèves les plus forts et les 5 % les plus faibles est la plus importante des pays industrialisés. (…)
Globalement, on peut synthétiser les constats comme suit : la Communauté française parvient, à la hauteur
des autres pays, à former une certaine élite, comme en témoigne le taux d’élèves aux niveaux supérieurs de
l’échelle. Par contre, la difficulté se situe dans la gestion des élèves en difficulté. Ils sont trop nombreux, plus
que dans d’autres pays, à se situer aux niveaux inférieurs de l’échelle. » (Baye et alii, 2007a, pp.14-15 ;
Quittre et alii, 2007, p. 14)
« De tous les systèmes éducatifs des pays participant à PISA, c’est en Communauté française de Belgique que
l’incidence du statut socio-professionnel des parents sur les performances en lecture des élèves se marque le
plus. (…) La Communauté française de Belgique, en dépit de mesures structurelles visant à compenser les
inégalités sociales (discriminations positives) fait, hélas, partie des pays ou régions où les systèmes éducatifs
38
3.
PISA, savoir et pouvoir
sont les moins « égalitaires ». Sur ce point, le diagnostic est sans appel. » (Lafontaine, 2002, pp. 40-41 ;
Lafontaine, 2003, pp.85-86)
« (…) La Communauté française se situe parmi les pays les plus discriminants, avec la France, le
Luxembourg et l’Allemagne pour les pays européens. » (Baye et alii, 2007a, p. 17)
Enfin, les rapports nationaux proposent également une interprétation des causes aux
« problèmes » mis en lumière par PISA, qui, pour les trois cycles de PISA (2000, 2003 et
2006), remet principalement en question les structures du système éducatif en CFB : le
taux élevé de redoublement, la hiérarchie entre les filières d’enseignement, la
ségrégation du système éducatif en fonction du milieu social et ethnique. L’allongement
du tronc commun et la mixité sociale au sein des écoles sont alors avancés comme des
voies à travailler par la politique éducative, dont la priorité devrait, selon les chercheurs,
porter sur « les élèves les plus faibles », « s’atteler aux problèmes des élèves en grande
difficulté, fréquentant pour l’essentiel les filières de qualification, souvent en retard dans
leur parcours scolaire et concentrés dans certains établissements » (Lafontaine et alii,
2004, p. 9). Si les chercheurs suggèrent aussi que des caractéristiques propres à
l’enseignement des disciplines sont à prendre en considération, les interprétations
pédagogiques occupent cependant une place mineure.
« Si les résultats de PISA sont une invitation à se pencher sur la pédagogie de la lecture, ils sont aussi et peutêtre surtout l’occasion de s’interroger sur le fonctionnement du système éducatif en Communauté française,
qui semble à l’origine des disparités considérables d’acquis entre élèves et entre établissements. »
(Lafontaine, 2003, pp. 196-197)
« Le fait qu’une même tendance de fond s’observe dans les trois domaines tend à orienter une partie
importante de l’explication vers la structure du système éducatif (redoublement, filières, disparités entre
écoles) qui, à l’évidence, n’œuvre pas en faveur d’une réduction de l’hétérogénéité des performances.
Néanmoins, le fait que cette tendance générale prenne des accents plus ou moins prononcés selon les
domaines – la situation étant plus critique pour les sciences et la lecture et moins critique pour les
mathématiques - indique que des caractéristiques propres à l’enseignement de certaines compétences
disciplinaires ou transversales sont également à prendre en considération. » (Lafontaine, 2000,
p. 8 ; Lafontaine, 2002, pp. 28-29 ; Lafontaine, 2003, p. 67)
« Sans grand risque d’erreur, on peut avancer que la disparité de performances constatée a partie liée avec la
façon dont notre système éducatif se structure (qui a pas mal de points communs avec le système allemand) :
taux élevé de redoublement, filières hiérarchisées, importantes disparités entre établissements, ségrégation de
fait en fonction du milieu social et ethnique contribuent à homogénéiser les groupes d’élèves. » (Lafontaine,
2002, p. 18 ; Lafontaine, 2003, pp. 55-56)
« Les données de PISA 2006 montrent, une fois de plus, qu’il existe des différences importantes d’une école à
l’autre, et que les facteurs socioéconomiques pèsent fortement dans l’explication de ces différences. Ce
constat vaut pour les pays qui, comme la Communauté française, organisent une sélection précoce par de
multiples biais (filières, redoublement) au détriment de structures favorisant l’acquisition des compétences de
base par tous. » (Baye et alii, 2007a, p. 22)
La diffusion des rapports nationaux
Le NPM et ses collègues du SPE jouent un rôle capital dans la production et la diffusion
des connaissances de PISA en CFB. Premièrement, parce qu’ils constituent la principale
source d’informations sur PISA : ils sont les premiers et les seuls à produire des résultats
détaillés et complets pour la CFB. Relativement peu d’autres acteurs, même parmi les
chercheurs universitaires, s’emparent de la base de données mise à disposition par
39
3.
PISA, savoir et pouvoir
l’OCDE comme nous le verrons dans la partie 4 du rapport, et quand ils le font, c’est en
limitant nettement plus le champ des variables prises en compte.
Les connaissances produites par le NPM connaissent ensuite une bonne diffusion
médiatique, du moins celles contenues dans les rapports de synthèse et véhiculées lors
de la conférence de presse. En effet, au moment de la publication des résultats, les
médias non seulement diffusent le communiqué de presse de l’OCDE, mais ils rapportent
également ce qui est présenté par le NPM lors de la conférence de presse organisée en
CFB, laquelle s’appuie sur les premiers rapports de synthèse. Cette conférence de presse
joue donc un rôle fondamental dans la mesure où le principal mode de diffusion des
résultats de PISA au sein du grand public reste les médias23. Les médias ne constituent
pas seulement un lieu de diffusion des résultats de PISA, ils sont aussi un important lieu
de débat sur PISA et un support au débat politique dans la mesure où divers acteurs
prennent appui sur ce qui est rapporté par les médias pour soutenir leur propos. Nous y
reviendrons dans la section suivante (point 3.2).
Plusieurs personnes interviewées soulignent la médiatisation exceptionnelle des enquêtes
PISA - leur « retentissement médiatique » sans précédent (selon le représentant de la
CFB au PGB) -, alors que PISA, de l’avis de toutes les personnes interviewées,
« n’apprend rien de neuf » sur le système éducatif en CFB par rapport à d’autres études
nationales ou internationales antérieures. Plusieurs raisons sont avancées pour expliquer
cette médiatisation. Selon l’ancien NPM, il y a tout d’abord eu un certain effort de la part
du politique pour diffuser les résultats de l’enquête PISA dès le premier cycle (en 2000),
ce qui n’était pas le cas avec les autres enquêtes internationales (comme Reading
Literacy de l’IEA en 1991, un rapport de l’OCDE au début des années 1990 ou l’étude
TIMMS en 1995). Plusieurs personnes rencontrées soulignent que les enquêtes
internationales antérieures à PISA étaient largement méconnues, non seulement par le
grand public mais aussi par les acteurs politiques qui, selon l’ancien NMP, les ont
« ignorées » : « ils s’asseyaient dessus et oubliaient ». L’intérêt politique plus élevé à
l’égard des études PISA s’inscrit tout d’abord, nous semble-t-il, dans un contexte
politique favorable aux évaluations externes en lien avec la problématique du pilotage du
système éducatif comme nous l’avons vu dans la partie 2 du rapport. La plus forte
diffusion et réception des enquêtes PISA peut ainsi être reliée, en partie, à une certaine
évolution du rapport des acteurs politiques et des acteurs scolaires aux évaluations
externes du système.
Cependant, l’effort accru de diffusion de PISA est aussi à mettre en relation avec une
certaine pression qui semble être indirectement exercée par l’OCDE sur les équipes
23
A côté des médias, on peut aussi souligner la diffusion des résultats des enquêtes PISA via les publications
propres à certaines catégories d’acteurs œuvrant dans le champ scolaire (comme les publications des syndicats
d’enseignants, de certains mouvements pédagogiques ou du réseau d’enseignement catholique).
40
3.
PISA, savoir et pouvoir
nationales : selon l’ancien NPM, si l’OCDE « ne surveille pas strictement ce que l’équipe
fait », elle leur demande néanmoins « comment ils ont diffusé l’information » et « le
simple fait qu’on le demande à tendance à faire que les équipes nationales essayent de le
faire connaître ».
Ensuite, plusieurs personnes évoquent le rôle même des médias dans la diffusion des
résultats de PISA, médias qui auraient également « découvert qu’on faisait des
évaluations externes internationales avec PISA » (selon un membre du cabinet
ministériel). Plusieurs personnes rencontrées expliquent le « battage médiatique » autour
de PISA par la stratégie de communication et la renommée de l’OCDE : PISA constitue
une « véritable machine de guerre de l’OCDE » et les médias seraient plus familiers de
l’OCDE, plus intéressés aussi par le fait de reporter ses propos, alors que l’IEA, par
exemple, n’organise pas toujours de conférence de presse, est moins connu et de ce fait
intéresserait moins les médias. C’est ce qu’expriment les chercheurs du SPE et un
membre du cabinet ministériel dans les extraits d’entretiens suivants :
« Si on prend les évaluations internationales, par exemple, celles qui ont précédés PISA, elles ont eu
beaucoup moins de retentissements. (…) PISA, c’est la machine de guerre OCDE. L’explication, c’est ça.
(…) L’OCDE, elle ne surveille pas strictement ce qu’on fait mais on sent que c’est valorisé. On nous
demande quand même : comment est-ce que vous avez diffusé l’information chez vous ? Qu’est ce qu’il s’est
passé ? Le simple fait qu’on le demande a tendance à faire qu’on essaie de le faire connaitre. Et puis les
journalistes, ils voient OCDE, ils sont mobilisés. Il y a une conférence de presse internationale, et voilà. (…)
(en parlant du politique) Il y a déjà eu un effort de diffusion de l’information, ce qui est une réaction, parce
que je connaissais ce qui se passait avec les enquêtes de l’IEA : on s’asseyait dessus et puis fini. Ce n’était
pas seulement qu’ils ne savaient pas.(…) Par exemple, en 1991, IEA Reading Literacy, c’était : qu’est-ce que
c’est que ces affaires-là ? Les enquêtes internationales, on s’assied, on oublie. (…) » (Ancien NPM, chercheur
au SPE, entretien)
« Pisa a (…) fonctionné un peu comme un électrochoc pour sensibiliser au fait qu’il y avait des choses qui
n’allaient pas bien dans notre enseignement parce qu’il y avait déjà eu des études de l’IEA lors desquelles les
chercheurs essayaient de tirer la sonnette d’alarme, mais il n’y avait pas grand-chose qui bougeait. A mon
avis parce qu’il n’y avait pas le même retentissement médiatique. (…) Je pense que c’est le battage
médiatique, le fait que c’est une étude qui est très sérieuse et qui, finalement, est très peu critiquée. (…) La
qualité est dans l’ensemble assez largement reconnue et donc il n’y a pas des voix discordantes. (…) C’est
l’OCDE qui a une politique de diffusion de ses données. Peut-être que les médias sont aussi plus attentifs à ce
que l’OCDE dit qu’à ce que l’IEA peut dire. Je crois qu’ils sont plus familiers de l’OCDE que de l’IEA. (…)
C’est très difficile de ne pas prévoir une conférence de presse par exemple alors que pour l’IEA il n’y en n’a
pas toujours eu et comme l’IEA n’est pas si connu du grand public et de la grande presse, il n’y a pas
forcément du monde à la conférence de presse. Maintenant ça a évolué. Je pense que les derniers cycles de
l’IEA ont quand même aussi eu un peu plus de retentissements que les cycles précédents. » (Représentant de
la CFB au PGB, chercheur au SPE, entretien)
« Les médias ont découvert qu’on faisait des évaluations externes internationales avec PISA » (Conseiller au
cabinet ministériel, entretien)
Les récepteurs des rapports nationaux
Si les rapports de synthèse et les propos tenus lors de la conférence de presse semblent
bien diffusés, par les médias surtout, ce n’est pas le cas des autres documents produits
par les chercheurs du SPE même si la plupart sont facilement accessibles (via le site
internet de l’administration)24. Néanmoins, selon plusieurs personnes interviewées, les
24
Ce n’est pas le cas des derniers rapports complets, pour les deuxième et troisième cycles de PISA (2003 et
2006), qui sont payants et ne sont pas diffusés sur internet.
41
3.
PISA, savoir et pouvoir
« acteurs intermédiaires » (responsables de réseaux, syndicats, etc.) et les acteurs
politiques auraient une assez bonne connaissance des différents rapports nationaux sur
PISA : « très clairement, il y a un bon niveau d’appropriation par toute une série de
responsables ou de décideurs qui connaissent très bien ce qu’il y a dans l’enquête PISA »
(propos de l’ancien NPM). Selon l’ancien NPM, les acteurs politiques « s’emparent seuls
des résultats de PISA : ils ont les rapports, ils les lisent, ils moulinent ». Un membre du
service d’étude du Parlement de la CFB évoque également la participation de plusieurs
parlementaires de la Commission Education du Parlement de la CFB à un « séminaire de
haut niveau » organisé par l’OCDE après la sortie des résultats du deuxième cycle de
PISA (2003). En ce qui concerne les membres du cabinet du Ministre de l’enseignement,
on peut aussi souligner le fait que le mode de recrutement de son personnel favorise
probablement une certaine proximité avec les enquêtes PISA dans la mesure où plusieurs
personnes qui y travaillent sont d’anciens chercheurs en éducation, voire d’anciens
membres de l’administration scolaire qui ont déjà travaillé avec les données PISA.
En ce qui concerne les « acteurs intermédiaires » (responsables de réseaux, syndicats,
etc.), selon l’ancien NPM, ceux-ci « se sont emparés de l’information » et connaissent les
résultats des enquêtes PISA au point « qu’ils en disent la même chose que lui et
pourraient faire la conférence de presse à sa place ». Un responsable du service d’étude
du réseau d’enseignement catholique que nous avons rencontré se qualifie lui-même, par
exemple, de « Monsieur PISA » et déclare avoir lu tous les rapports de « A à Z » (non
seulement les résultats mais aussi les informations sur l’ensemble du dispositif
d’enquête). Par contre, rares sont ceux qui travaillent directement sur la base de
données, notamment, selon eux, en raison d’un manque de temps ou de moyens
(comme l’accès à des logiciels d’analyse statistique). En dehors des chercheurs
universitaires, seuls un acteur intermédiaire (membre d’un mouvement pédagogique) et
un acteur politique (un député libéral, d’opposition) ont produit leurs propres analyses à
partir d’un travail sur la base de données.
Par contre, selon plusieurs personnes interviewées, le « grand public » et les « acteurs
de terrain », comme les enseignants ou les inspecteurs25, n’en n’auraient qu’une
connaissance « vague », construite principalement à partir des médias et ne retenant
pratiquement que « la mauvaise position de la CFB ». Selon l’ancien NPM, malgré le
« gros boulot de dissémination » entrepris, les enquêtes PISA restent finalement mal
connues par « les gens » et « dans les écoles », hormis par les directeurs d’école. Les
syndicats d’enseignants ne semblent pas servir de transmission de connaissances de type
autre que juridiques (vulgarisation de dispositions réglementaires) auprès de leurs
affiliés, ce qu’un responsable syndical rencontré relie au fait que les syndicats
25
Selon les inspecteurs généraux que nous avons interviewés, l’une des raisons pour lesquelles les inspecteurs ne connaissent pas les rapports
PISA renvoie au fait que « la possibilité d’avoir accès à ce type de document n’est pas suffisamment institutionnalisé » et au manque de
« centralisation des informations » (par exemple, il n’y pas de centre de documentation à disposition des inspecteurs). La circulation des
informations (concernant PISA ou d’autres études) semble se dérouler de manière « informelle », via les collègues. Un inspecteur général
souligne également le fait que les informations produites par PISA ne sont pas « sous une forme pratique et praticable » pour les inspecteurs
qui auraient davantage besoin d’informations précises sur les écoles où il travaille.
42
3.
PISA, savoir et pouvoir
d’enseignants tendent aujourd’hui à devenir davantage des « organisations de services »
(et moins des organisations « d’éducation permanente ») en lien avec une certaine
« dépolitisation » du corps enseignant.
Les connaissances des rapports nationaux qui sont connues,
retenues et discutées dans le débat public
Comme nous l’avons souligné précédemment, une partie des connaissances produites
par les chercheurs du SPE connaissent une bonne diffusion médiatique, auprès des
acteurs politiques, intermédiaires et scientifiques surtout, et en particulier les premiers
rapports de synthèse qu’ils rédigent et les propos qu’ils tiennent lors de la conférence de
presse. Cela ne signifie évidemment pas que les médias reproduisent fidèlement leur
propos. Le traitement médiatique de l’enquête PISA est au contraire souvent critiqué
pour « manquer de nuance » (selon l’ancien NPM) et « caricaturer » les informations
contenues dans les rapports nationaux (selon le responsable d’un service d’étude du
réseau d’enseignement catholique).
Dans la mesure où ils constituent la principale source d’informations sur les résultats de
la CFB à PISA, on pourrait supposer que la manière dont les chercheurs du SPE analysent
les résultats, définissent les problèmes mis en évidence et en interprètent les causes,
joue un rôle capital dans la réception des résultats de PISA par le grand public et par les
autres acteurs œuvrant dans le champ scolaire. Qu’en est-il en réalité ? Comment les
connaissances qu’ils produisent sont-elles reçues ? Quelles connaissances sont finalement
retenues et discutées ?
Les connaissances non retenues
Lorsqu’on analyse les débats sur PISA ou ceux qui prennent appui sur ses résultats, dans
les médias ou au sein de l’arène parlementaire, on remarque tout d’abord qu’une grande
partie des connaissances contenues dans les rapports nationaux n’est pas du tout ou très
peu discutée. Il en va ainsi, par exemple, des informations méthodologiques sur PISA et
notamment de diverses « mises en garde » émises par les chercheurs quant à l’impact
de certains choix méthodologiques sur les résultats (comme celui de sonder une
population choisie sur la base du critère de l’âge et non sur celui de l’année d’étude). Il
en va de même pour certains résultats, comme ceux tirés des questionnaires optionnels,
ceux qui concernent le rapport des élèves à la matière ou aux études, ou encore les
descriptions détaillées des compétences et niveaux de compétence évalués.
Le niveau, la moyenne et le classement
Ensuite, on observe que la principale connaissance qui semble retenue et discutée
concerne en premier lieu le niveau des élèves, la moyenne et le rang de la CFB dans un
classement comparatif des différents pays participants, et cela malgré les efforts
43
3.
PISA, savoir et pouvoir
déployés par les chercheurs du SPE, lors de la conférence de presse ou d’entretiens
accordés, pour minimiser la lecture des résultats en termes de moyennes et de palmarès.
Ainsi, dans la presse, de manière invariable selon le cycle de PISA concerné, les
premières informations commentées, parfois comme une sorte de « préalable » à un
autre développement, concernent les « mauvaises performances » des élèves en
Communauté française et la « mauvaise position » de celle-ci par rapport à celle d’autres
pays participants. Dans ce classement, les différences entre la Communauté Française et
la Communauté Flamande sont particulièrement mises en avant (la Flandre étant mieux
classée que la CFB). A titre d’exemples, voici quelques extraits de la presse écrite qui
décrivent les résultats des élèves de la CFB comme « médiocres », « situés sous la
moyenne de l’OCDE » et « plaçant la Communauté française en queue de peloton des
pays de l’OCDE » :
« Les performances des élèves en Communauté française sont parmi les plus mauvaises de l'OCDE. La
Flandre, elle, pavoise (…) Les élèves francophones se sont classés autour de la 25e place dans les trois
disciplines, largement en dessous de la moyenne des pays les plus développés et a fortiori bien loin des élèves
flamands (…). » (La Libre, 04/12/01)
« Mauvais bulletin pour nos élèves. L'OCDE classe les ados francophones en queue de peloton : Nos élèves
francophones de 15 ans font piètre figure dans la classe qui réunit des jeunes de même âge, en Flandre et dans
31 autres pays de l'OCDE. Ils y accumulent les contre-performances en lecture, mathématiques et sciences.
C'est ce que révèle l'étude Pisa 2000 de l'OCDE (…). » (Le Soir, 05/12/01)
« Ces cancres francophones : Nos jeunes affichent des performances scolaires plus que médiocres et très
inférieures à celles constatées en Flandre, révèle une étude de l'OCDE. En lecture, en mathématiques et en
sciences, nos élèves de 15 ans, en Communauté française, se situent nettement sous la moyenne de leurs
camarades du même âge dans les autres pays de l'OCDE (…) » (Le Soir, 05/12/01)
« Dans toutes les matières examinées, la Communauté française se classe dans le groupe «moyen». » (La
Libre, 07/12/2004)
« Après Pisa 2000 - et exactement comme Pisa 2000 -, Pisa 2003, l'enquête internationale des performances
scolaires, enfonce la Communauté française. Ses élèves, nos enfants, sont médiocres en maths, médiocres en
sciences et médiocres en français. Ils l'étaient déjà en 2000. Ils le sont toujours. Aucun progrès. Vexation au
carré : la Flandre cartonne. Elle fauche la médaille d'or en maths, le bronze en lecture, la 5e place en
sciences. » (Le Soir, 08/12/04)
« A l'instar des résultats PISA de 2003, les élèves de la Communauté française se situent en effet en deçà de
la moyenne des pays de l'OCDE. » (Le Soir, 04/12/07a)
« Ce résultat place la Communauté française en queue de peloton des pays de l’OCDE (…) » (Le Soir,
04/12/07b)
La presse n’est pas la seule à commenter les résultats des enquêtes PISA en termes de
niveau, de moyenne et de classement. Les débats parlementaires évoquent également
largement
les
27
« médiocre » ,
« mauvais »
résultats
28
« insuffisant » ,
élèves26,
des
« sous
la
leur
moyenne »
niveau
de
de
29
l’OCDE ,
compétences
voire
une
30
« détérioration des résultats » .
26
A. Antoine, parlementaire PSC, PCF, 11/12/2001, p. 44 ; W. Borsus, parlementaire MR, PCF, 11/12/2007,
p. 43.
27
PCF, 30/05/2002, p. 2 ; M. Neven, parlementaire MR, PCF, 15/12/2004, p. 19.
44
3.
PISA, savoir et pouvoir
Parmi les connaissances produites et diffusées par les rapports nationaux écrits par le
NPM et son équipe, celle qui paraît avoir le plus fort impact public renvoie donc au niveau
des élèves et au classement de la CFB. Et rares sont ceux qui reprennent les réserves
énoncées dans les rapports nationaux à l’égard des classements, notamment le fait que
les différences entre pays ne sont pas toujours statistiquement significatives ou que les
différences au sein des pays sont plus prononcées que celles entre les pays31.
La description qui est faite de l’enseignement en CFB à partir de ces résultats est alors
largement négative et certaines personnes soulignent à ce propos l’effet dévalorisant et
démoralisateur de l’enquête PISA. Si PISA est officiellement présenté comme outil
servant à « identifier les points faibles et les points forts » des systèmes éducatifs
(OCDE, 2001, p. 30), force est de constater qu’en CFB il semble que ce sont surtout les
« points faibles » qui sont discutés et qui ont un impact public. Depuis le dernier cycle de
PISA (2006), on peut néanmoins relever une certaine évolution dans le traitement des
informations contenues dans les rapports nationaux : la presse comme les débats
parlementaires ont fait écho à un résultat plus « positif » mis en avant par les chercheurs
du SPE et qui concerne l’attitude des élèves envers la matière (envers les sciences et la
protection de l’environnement)32.
L’écart, la dispersion et la variance
A partir de la diffusion des résultats du deuxième cycle de PISA (2003), il semble
néanmoins qu’une certaine lecture des résultats sur laquelle insistent fortement les
chercheurs du SPE et qui met l’accent sur la dispersion des résultats (les écarts entre
élèves et entre établissements), la ségrégation du système éducatif en CFB et son
caractère « inégalitaire » ou « inéquitable », tend progressivement à s’imposer et paraît
devenir de plus en plus une donnée consensuelle difficilement « discutable ». Un
« diagnostic » qualifié de « sans appel » par l’ancien NPM. Dans l’extrait d’entretien
suivant, l’ancien NPM fait part de cette évolution et des difficultés éprouvées à « faire
passer le message » :
« Dès le début, mon objectif a toujours été de dire : ce qui est important dans PISA, ce n’est pas le
classement, ce n’est pas le palmarès. Et pas seulement parce qu’on n’est pas bien classé. Mais je pense que
28
29
PCF, 25/01/2005, p. 15.
P. Charlier, parlementaire PSC, 11/12/2001, p. 14 ; Dupont, parlementaire PS, PCF, 17/04/2002, p. 28 ;
M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 11/12/07, p. 46.
30
A. Destexhe, parlementaire MR, PCF, 11/12/07, p. 40.
31
Dans la presse, pour la période analysée, seuls deux articles y font référence (il s’agit d’une « carte blanche »
écrite par D. Leturcq, un directeur d’école, dans Le Soir, 04/01/02 ; et un entretien de M. Romainville,
professeur de psychopédagogie, paru dans le Soir du 08/12/04g).
32
Cf. V. Jamoulle, parlementaire PS, PCF, 11/12/2007, p. 42 ; Y. Reinkin, parlementaire Ecolo, PCF, 11/12/07,
p. 44 ; M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 13/02/2007, p.5.
45
3.
PISA, savoir et pouvoir
réellement, fondamentalement, le classement est surfait. Les différences entre les pays sont relativement
petites par rapport aux différences à l’intérieur du pays. J’ai toujours essayé de mettre ça en évidence, avec
plus ou moins de succès et plus ou moins d’échos. Parce que la presse très clairement, quoiqu’on fasse,
demande : on est quantième ? Je dis : je ne sais pas. Parce que je ne le sais franchement pas. Et puis, de toute
façon, ils recomptent. Ils disent : nous sommes 23ième sur 34. Donc le message a d’abord été très très
fortement celui-là. En 2000, dans la presse écrite, j’ai eu beaucoup de mal à faire passer autre chose que ça,
au niveau de titres. En 2003, ça a donné la même chose. En 2006, peut-être parce que ça se répète et que les
journalistes aiment bien aussi amener quelque chose de nouveau ou bien parce que ce sont d’autres
journalistes, on commence me semble-t-il à parler un peu moins du classement et un petit peu plus des
disparités. Je sais bien que le Soir a titré « Trop d’élèves en difficulté » en première page, ce qui était une
grande victoire symbolique. Alors, quand je fais des conférences, c’est toujours ça. Je montre le classement,
puis j’essaie de relativiser en disant : voyons un peu au cœur de la Communauté française, voyons un peu les
écarts entre les groupes. J’amène toujours la dimension de l’équité, à côté de la dimension de l’efficacité. »
(l’ancien NPM, chercheur SPE, entretien)
Si une présentation des résultats de PISA en termes de dispersion, d’écarts entre élèves
et entre établissements, de variance inter- et intra-établissements se trouvait déjà dans
la presse dès la publication des résultats du premier cycle de PISA (2000), il apparaît
donc que l’accent soit de plus en plus mis sur cette lecture. Non seulement, on en parle
plus fréquemment, mais on insiste aussi davantage sur le fait que PISA révèle
« surtout » ce type de connaissance-là. Corrélativement, on évoque de plus en plus la
présence d’une « proportion importante d’élèves très faibles et en difficulté » :
« L'enquête OCDE révèle également que les disparités dans les résultats sont particulièrement importantes en
Communauté française. Et que le nombre d'élèves affichant des performances très médiocres est parmi le plus
élevé de la zone OCDE. » (La Libre, 04/12/01)
« Avec l'Allemagne, la Communauté française présente le système éducatif où l'hétérogénéité des
performances est la plus accentuée. » (Le Soir, 5/12/01)
« Comme PISA 2000, l’enquête menée en 2003 révèle chez nos ados de 15 ans des performances faibles en
maths, sciences et lecture. Elle révèle surtout une école inégalitaire (…) avec de grands écarts entre les élèves
forts et faibles. » (Le Soir, 07/12/04)
« Notre école francophone, et l'enquête Pisa le dit, elle le confirme, se singularise par un fossé énorme - et
humainement inacceptable - entre un petit peloton d'élèves confortablement scolarisés et brillants (ceci
expliquant sans doute cela), et une poche d'élèves à la traîne, confinés dans des écoles aux pauvres moyens
(ceci expliquant assez cela aussi). » (Le Soir, 08/12/04)
« Parmi les points noirs pour la Communauté française, figurent le pourcentage important d’élèves de faible
niveau et le caractère inégalitaire du système scolaire » (la Libre, 04/12/07)33
Dans les débats parlementaires, on observe une même évolution : l’accent mis sur les
écarts entre les élèves et la dispersion des résultats entre les établissements est
également plus forte depuis la publication des résultats du deuxième cycle de PISA
(2003) et il est principalement le fait des parlementaires socialistes et écolos34, comme
nous le verrons plus loin.
33
Pour les différents extraits, c’est nous qui soulignons.
34
Cf. Dupont, à l’époque parlementaire PS, PCF, 17/04/2002, p. 30, p. 31 ; J. –M. Nollet, à l’époque Ministre de l’enseignement
fondamental, écolo, PCF, 19 juin 2002, p. 6 ; M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 11/01/2005, PCF, 11/12/07, p. 46,
p. 3 et PCF, 16/12/07, p. 4 ; V. Jamoulle, parlementaire PS, PCF, 11/12/2007, p. 42 ; Y. Reinkin, parlementaire Ecolo, PCF, 11/12/07, p. 44).
C’est aussi le cas dans la presse. Par exemple, en 2001, au moment où le ministre de l’enseignement secondaire était libéral (P. Hazette), la
ministre socialiste de l’Enseignement supérieur (F. Dupuis) s’est exprimée à plusieurs reprises dans la presse pour relativiser les « mauvais »
résultats et mettre en avant « l’énorme différence » entre les performances : « Contrairement à ce que j'ai déjà lu et entendu, cette enquête ne
signifie pas que tous les élèves francophones sont des cancres, dit-elle. L'étude révèle surtout l'énorme différence qu'il y a entre ceux qui ont
de relativement bonnes performances et le trop grand nombre d'élèves qui eux sont très très mal classés. » (F. Dupuis, La Libre, 05/12/001),
46
3.
PISA, savoir et pouvoir
On observe donc une certaine évolution dans le type de connaissances produites par les
rapports nationaux qui sont relayées dans les médias. Ceux-ci font de plus en plus de
place aux connaissances relatives à la dispersion et la variance des résultats, sans
remettre en cause cependant celles qui ont trait au niveau des élèves et au classement
de la CFB qui continuent à occuper une place dominante. L’évolution des titres des unes
de la presse écrite est à ce sujet assez éloquente. Ainsi, alors que pour les premier et
deuxième cycles de PISA (2000 et 2003), les titres de presse n’évoquent que le niveau
des élèves en CFB, tels que « Le bulletin francophone est déplorable »35, « Mauvais
bulletin pour nos élèves »36, « Bonnets d'âne pour les ados francophones »37, « Nos
élèves restent très moyens »38, « L’école francophone fait du surplace »39, « Mauvais
bulletin pour les francophones »40, lors de la publication des résultats du troisième cycle
de PISA (2006), des titres tels que « Faible et inéquitable »41 ou « Trop d'élèves en
difficulté en Wallonie et à Bruxelles »42 font leur apparition, néanmoins toujours à côté de
titres mettant en avant le classement tels que « Les belges obtiennent une bonne
moyenne »43 ou « Les finlandais en tête du classement »44.
Soulignons que la problématique de la présentation des résultats sous forme de
classement et de moyenne ou sous forme d’écart et de variance n’est pas anodine dans
la mesure où ces deux types de présentation suggèrent ou sont associés à des lectures et
des interprétations différentes des résultats, l’une mettant plutôt l’accent sur les
« Parler de bonne ou mauvaise école, `c'est catastrophique´ » (F. Dupuis, La Libre, 09/12/01), « « Je suis très choquée des amalgames qui ont
été faits à partir des résultats de l'enquête OCDE sur les performances des élèves. Non, tous les jeunes francophones ne sont pas des cancres.
L'enquête ne démontre pas que tous les élèves sont «mauvais», mais bien qu'un fossé énorme existe entre ceux dont les performances sont
bonnes à très bonnes et malheureusement un grand nombre d'élèves en retard ou en décrochage. En statistiques cela ne pardonne pas. La
Communauté française a, avec l'Allemagne, un des systèmes éducatifs où l'hétérogénéité est la plus grande. (…) C'est donc bien l'énorme
variance entre établissements qui est en cause (…) » (F. Dupuis, Le Soir, 06/12/01).
35
La libre, 4/12/2001.
36
Le Soir, 5/12/2001.
37
Le Soir, 11/12/2001.
38
Le Soir, 7/12/2004a.
39
Le Soir, 7/12/2004b.
40
Le Soir, 14/12/2004.
41
La Libre, 5/12/2007a.
42
Le Soir, 5/12/2007a.
43
La Libre, 4/12/2007.
44
Le Soir, 4/12/2007e.
47
3.
PISA, savoir et pouvoir
performances, le niveau des élèves, l’efficacité du système, l’autre plutôt sur les
différences, les inégalités entres élèves et l’inéquité du système.
Les associations entre variables
Parmi les connaissances contenues dans les rapports nationaux qui paraissent avoir eu
un certain impact public, on peut aussi relever celles qui sont basées sur des associations
entre variables, dont certaines paraissent avoir été diffusées assez largement, comme
celles entre les résultats et l’origine sociale des élèves, leur retard scolaire, leur filière
d’enseignement ou le milieu social de leur établissement scolaire. A ce propos, plusieurs
personnes interviewées soulignent, de manière positive, le rôle joué par la médiatisation
de l’enquête PISA sur la prise de conscience, par le grand public en particulier, des
inégalités entre les élèves :
« PISA a permis aux gens de se rendre compte que les inégalités entre les élèves, principalement entre les
écoles, étaient très importantes en Communauté française. (…) Je pense que tous les chercheurs le savaient,
c’était démontré par A + B depuis des années. Je pense que les rapports de recherche s’empilaient dans les
cabinets ministériels. (…) Je pense que le citoyen en général n’avait pas conscience ou ne se posait la
question, mais on n’avait pas encore eu la garantie scientifique que c’était le cas. Or, je trouve que pour
étudier les inégalités dans les écoles, PISA est loin d’être un outil extrêmement approprié, c’est très basique
PISA finalement, c’est un questionnaire qui est passé à des élèves de 15 ans mais voilà, le médiatique
aidant... » (un membre de l’actuel cabinet ministériel, entretien)
Si la question des inégalités sociales est évoquée dans le débat public depuis la diffusion
des résultats du premier cycle de PISA (2000), elle est cependant devenue plus
prégnante à partir du deuxième cycle de PISA (2003) en même temps que l’accent mis
sur la dispersion des résultats. A titre illustratif, il est significatif de constater qu’en 2001,
les articles de presse qui évoquent le lien entre les résultats des élèves et leur origine
sociale ne le font qu’à partir des propos rapportés du NPM de l’époque. Ensuite,
progressivement, cette mise en relation sera présentée comme une « donnée » du
système éducatif en CFB. A partir de la publication des résultats du deuxième cycle de
PISA (2003), on met davantage en avant le « caractère socialement inéquitable » du
système éducatif45, son caractère « inégalitaire »46, la forte relation entre les résultats et
l’origine socio-économique des élèves47 présentés comme les « points noirs » du système
éducatif de la CFB48. Les extraits suivants illustrent la manière dont la presse a rendu
compte la question des inégalités :
« Le volet de l'étude relatif à la lecture (…) montre enfin que l'écart de performance entre les élèves
socialement les plus favorisés et ceux qui le sont le moins est très important en Communauté française. Bien
plus qu'en Corée, en Finlande et même qu'en Flandre. `Il faut bien constater que notre système éducatif est
45
La Libre, 07/12/2004.
46
La Libre, 07/12/2004 ; Le Soir, 07/12/04 ; Le Soir, 08/12/04b.
47
Le Soir, 07/12/04b.
48
Le Soir, 04/12/07a.
48
3.
PISA, savoir et pouvoir
incapable d'enrayer les inégalités sociales de départ´, relève la gestionnaire de l'enquête en Communauté
française, Dominique Lafontaine » (La Libre, 04/12/01)
« Un autre aspect de l'étude l'est tout autant [inquiétant]. C'est celui qui concerne l'équité du système éducatif.
Personne n'a oublié comment l'enquête Pisa 2000 avait mis en lumière le caractère socialement inéquitable de
celui de la Communauté française. Pisa 2003 confirme. Les résultats des élèves varient fortement selon leurs
caractéristiques socio-économiques et le type d'établissement fréquenté. Des clivages souvent plus importants
en Communauté française qu'ailleurs... » (La Libre, 07/12/2004)
« L'enquête menée en 2003 (…) révèle surtout une école inégalitaire. » (Le Soir, 07/12/04)49
« Les élèves francophones ne sont pas tous mauvais, loin de là. Et c'est bien ça le problème. Les différences
entre les forts et les faibles sont grandes. Certains cartonnent et obtiennent des scores très élevés. D'autres
sont à la traîne. Et comme par hasard, plus l'adolescent vient d'un milieu socio-économique bas, moins ses
résultats sont bons. Ce qui signifie que notre école est plutôt inégalitaire et qu'elle ne remplit pas un rôle qui
devrait être le sien : celui de combler les inégalités sociales. (Le Soir, 14/12/04)
« Une école discriminatoire. (…) L’école francophone en Belgique s’avère également être particulièrement
inégalitaire et discriminatoire, avec le plus grand écart enregistré parmi les pays industrialisés entre les 5 %
d’élèves les plus forts et les 5 % les plus faibles, ainsi que de fortes disparités entre les établissements
scolaires. De plus, on note des différences significatives entre les élèves dits « natifs » et les élèves immigrés
des 1e et 2e génération ainsi qu’entre les élèves en fonction de leur niveau socio-économique. » (Le Soir,
04/12/07b)
On peut relever que plusieurs analyses effectuées par les chercheurs de SPE ne semblent
par contre pas ou très peu trouver d’écho dans les débats publics, comme les différences
entre les filles et les garçons, entre élèves « natifs » et « immigrés », ou entre les élèves
des différentes filières d’enseignement. Par ailleurs, certaines analyses, au regard du
contexte
socio-historique
belge
(cf. partie
2
du
rapport),
paraissent
des
sujets
relativement « tabous » : il s’agit des différences de résultats entre les réseaux.
Précisons que la base de données PISA ne permet pas de comparer tels quels les
réseaux, mais uniquement les écoles privées et publiques. Après la diffusion des résultats
du troisième cycle de PISA (2006), un parlementaire libéral a néanmoins publié une telle
comparaison, à partir d’un travail effectué directement sur la base de données, nous y
reviendrons plus loin.
Nous verrons aussi plus loin que les analyses et les interprétations des chercheurs du
SPE sont loin de faire toutes consensus et qu’elles sont l’objet de débats parfois virulents
(notamment au sein de l’arène parlementaire).
Enfin, on peut souligner que les débats qui ont lieu sur PISA ou qui prennent appui sur
ses résultats ne se basent pas uniquement sur les rapports nationaux produits par les
chercheurs du SPE. Les prises de position et les interprétations sont également élaborées
à partir des rapports internationaux qui sont parfois mobilisés comme contre-arguments
par certains acteurs à la lecture des résultats de PISA basée sur les rapports nationaux.
Nous y reviendrons au point 3.3 du rapport.
49
C’est nous qui soulignons.
49
3.
PISA, savoir et pouvoir
3.2 Le débat sur PISA
Après avoir présenté les connaissances produites et diffusées par les rapports nationaux,
nous allons à présent nous intéresser à PISA en tant qu’objet de débat : Qui dit quoi sur
PISA en tant qu’outil, et sur ce qu’il apporte comme connaissance ?
Dans un premier temps, nous allons préciser l’ampleur des débats, les acteurs qui y
prennent part et les objets sur lesquels ils portent. Ensuite, nous rendrons compte des
débats sur les aspects techniques ou scientifiques (pertinence de l’évaluation, discussions
sur l’échantillon, la traduction, le choix d’items, les modèles psychométriques, les
concepts, etc.), sur les aspects idéologiques, sur l’utilité et la pertinence politique de
PISA et, enfin, sur l’interprétation des résultats de PISA et les « leçons » qu’il
suggèrerait.
Il est important de préciser que ces débats sont des débats spécifiques sur PISA, suscités
par la diffusion de ses résultats, en partie autonomes. Comme nous le verrons, ils
s’inscrivent cependant dans des débats plus larges en éducation qui ont eu lieu à propos
des politiques éducatives en CFB et ils prennent sens par rapport à ceux-ci.
3.2.1 L’ampleur, les acteurs et les objets du débat
S’il semble ne pas y avoir eu de discussions à propos de PISA au moment de la décision
d’y participer (cf. partie 2 du rapport), par contre, la publication des premiers résultats a
initié un très large débat à son sujet50. L’ampleur de ce débat est probablement à mettre
en relation avec la forte médiatisation de PISA que nous avons déjà soulignée, mais aussi
à « l’électrochoc » provoqué par la diffusion des premiers résultats de PISA en 2001 et
qui a « remué les acteurs du champ éducatif » (selon les propos de l’ancien NPM).
Plusieurs personnes interviewées parlent à ce sujet d’une « véritable gifle » infligée par
PISA, même si en même temps toutes affirment que l’enquête n’apprenait rien de
nouveau. Les termes utilisés dans la presse ou lors des débats parlementaires pour
décrire les résultats de la CFB à PISA lors du premier cycle (2000) sont éloquents :
« déplorable »51,
50
« catastrophique »52,
« alarmant »53,
« inquiétant »54,
« très
Comme en témoigne le nombre d’articles publiés dans la presse à son sujet. A titre indicatif, dans les deux
quotidiens analysés et pour la période considérée (les trois mois suivants la diffusion des résultats), il ya eu 26
articles consacrés au premier cycle de PISA (2000), 36 articles au deuxième cycle de PISA (2003) et 40 articles
pour le troisième cycle (2006). Parmi les documents parlementaires, depuis la diffusion des résultats du
premier cycle de PISA (2000), 104 documents citent PISA (comparativement, on ne trouve que 11 documents
parlementaires consacrés aux études PIRLS et 2 aux études TIMSS). Cf. l’annexe 3. Il est aussi intéressant de
noter qu’au moment de la diffusion des résultats du premier cycle de PISA, en 2001, dans la presse et dans les
débats parlementaires, on parle plus rarement de « PISA », mais plutôt du « rapport de l’OCDE », de
« l’enquête de l’OCDE » ou de « l’étude de l’OCDE ».
51
La Libre, 04/12/01.
50
3.
PISA, savoir et pouvoir
défavorable »55, « cruel »56, un « cauchemar »57, une « bombe »58, un « choc »59, « le
plus grand camouflet reçu »60, qui provoque une « secousse de forte amplitude »61,
suscite « autant de perplexité que d'éclats »62, « suscite l’émoi »63. La presse évoque
également en 2001 la « zizanie que PISA a jetée au sein du gouvernement »64, en
particulier la « polémique » et le « crépage de chignon » entre les différents ministres en
charge de l’enseignement65 « jouant les francs-tireurs dans leur coin » et se rejetant les
résultats de l’étude
« comme une patate
chaude »66. Il faut
préciser que cet
« affrontement » vient s’inscrire dans un conflit pré-existant entre les ministres à propos
de projets de réforme de la formation continuée des enseignants. Voici comment le relate
la presse :
« Ça ne tourne plus rond à l'exécutif de la Communauté française. Empoisonnée par cette enquête OCDE que
les trois ministres de l'Enseignement se rejettent à la tête (nos élèves rasent le sol: à qui la faute?), l'ambiance
est définitivement à l'affrontement. » (Le Soir, 12/12/01)
« Comme une patate chaude (…) Tout au long de la semaine, les ministres en charge de l'enseignement ont
joué les francs-tireurs dans leur coin. Faisant feu le premier, le ministre de l'Enseignement secondaire Pierre
Hazette a rejeté une partie de la faute sur ses prédécesseurs. Or qui menait la barque de l'enseignement avant
52
La Libre, 04/12/01 ; Le Soir, 05/12/01.
53
Le Soir, 05/12/01.
54
La Libre, 12/12/01 ; JP Wahl, parlementaire PRL-FDF-MCC, PCF, 11/12/2001, p. 9.
55
P. Charlier, parlementaire PSC, 11/12/2001, p. 14.
56
La Libre, 10/12/01.
57
P. Hazette, à l’époque Ministre de l’enseignement, PRL, Le Soir, 05/12/01.
58
Le Soir, 04/01/02.
59
Dupuis, à l’époque Ministre de l’enseignement supérieur, La Libre, 05/12/001.
60
A. Antoine, parlementaire PSC, 11/12/2001, p. 44.
61
La Libre, 05/12/01.
62
La Libre, 09/12/01.
63
La Libre, 12/12/01.
64
La Libre, 13/12/01.
65
A l’époque, trois ministres étaient en charge de trois niveaux distincts de l’enseignement : J.-M. Nollet, écolo,
Ministre de l’enseignement fondamental ; P. Hazette, libéral, Ministre de l’enseignement secondaire ; F. Dupuis,
socialiste, Ministre de l’enseignement supérieur et de la recherche scientifique.
66
La Libre, 10/12/01.
51
3.
PISA, savoir et pouvoir
lui? Le PS. Lequel ne pouvait pas ne pas réagir. De fait, la ministre de l'Enseignement supérieur Françoise
Dupuis (PS) est montée aussitôt au créneau. Elle a notamment fait valoir que l'enseignement francophone
souffrait d'un système d'orientation scolaire déficient et que, comme ministre compétent, Pierre Hazette ne
s'était pas montré très actif en la matière. Commencée dans les médias, la polémique a atterri, jeudi dernier,
sur la table du gouvernement. Lors de la réunion hebdomadaire, les deux ministres se sont crêpé le chignon.
Plus discret, le ministre de l'Enseignement fondamental Jean-Marc Nollet (Ecolo) n'en a pas moins pris
position. Aux côtés de Dupuis. Fâché, Pierre Hazette a refusé de s'asseoir à côté de ses collègues trois jours
plus tard au dominical `Mise au point´ de la RTBF (…) » (La Libre, 10/12/01)
Lors de la publication des résultats des deuxième et troisième cycles de PISA (2003 et
2006), les réactions paraissent avoir été moins vives et la presse en parle en termes de
« test très attendu »67, mais aussi « redouté »68. L’ampleur du débat reste néanmoins
toujours aussi importante.
Ce débat sur PISA implique différents acteurs, principalement le NPM et les chercheurs
du SPE impliqués dans PISA, les chercheurs d’autres centres universitaires, le ministre de
l’Enseignement, les acteurs politiques, les associations de parents, les mouvements
pédagogiques, les syndicats d’enseignants et certains enseignants ou directeurs d’écoles
qui se sont exprimés à titre individuel dans les médias. Les journalistes prennent plus
rarement position dans le débat, de manière explicite en tout cas. Fait remarquable étant
donnée la structuration de l’enseignement en CFB, les responsables du réseau catholique
ne paraissent pas avoir pris part au débat public sur PISA69. On pourrait avancer comme
hypothèse que le débat public, notamment dans la presse, n’est pas considéré comme un
lieu de pouvoir pertinent à investir par les responsables du réseau catholique, le véritable
jeu politique se déroulant en d’autres lieux où ils sont représentés. On peut enfin relever
que, lors du premier cycle de PISA (2000), le Ministre de l’Education (libéral) a moins
pris part au débat que ses successeurs. Plusieurs personnes interviewées évoquent le fait
que « l’importance et l’intérêt de PISA » lui auraient échappés, « qu’il ne s’est pas
vraiment impliqué parce qu’il a sous-estimé l’impact des résultats de PISA » (propos du
représentant de la CFB au PGB et chercheur au SPE).
Le débat autour de PISA semble principalement porter sur l’interprétation des résultats :
la définition des problèmes (faibles résultats versus disparités des résultats, inefficacité
du système versus inégalité du système), l’explication et les solutions proposées pour y
remédier (priorité accordée aux plus faibles versus priorité accordée à la performance de
l’ensemble des élèves ou des plus forts, régulation par le marché versus régulation par
un pouvoir public régulateur, réformes structurelles versus réformes pédagogiques). Par
contre, il semble n’y avoir que très peu de débat sur l’instrument lui-même (débat
67
La Libre, 07/12/2004. Le Soir, 04/12/07d, La Libre, 05/12/07a.
68
Le Soir, 04/12/07d.
69
Contrairement aux autres acteurs cités, les responsables du réseau catholique ne se sont pas exprimés dans
la presse pendant la période que nous avons analysée (les trois mois suivants la diffusion des résultats). Par
contre, ils l’ont fait dans leur propre publication.
52
3.
PISA, savoir et pouvoir
technique et scientifique sur l’enquête et le dispositif PISA), sur le principe même des
évaluations externes (qui n’est jamais discuté et semble faire consensus) ou sur
l’éventuelle orientation idéologique des enquêtes de l’OCDE. En définitive, comme nous
allons le voir maintenant plus en détail, le débat sur PISA porte essentiellement sur des
questions d’ordre « politique » (que soit sur la pertinence de l’outil ou sur l’interprétation
des résultats) et moins sur des questions d’ordre scientifique, technique ou idéologique.
3.2.2 Le débat sur l’instrument PISA
Un outil « fiable »
Lorsqu’on analyse le débat public sur PISA, tel qu’il apparaît dans la presse écrite ou au
Parlement de la CFB, on observe que les discussions sur les aspects techniques ou
scientifiques de l’enquête PISA occupent très peu de place comparativement à celles
portant sur les questions de politique éducative. Il semble y avoir peu de débat
méthodologique sur la construction et le fonctionnement du dispositif d’enquête et en
tout cas pas de remise cause de la validité de l’enquête. Comme le souligne l’ancien NPM,
en CFB, il n’y a jamais eu, comme en France par exemple, de « grosse contestation » sur
la manière dont l’enquête PISA est réalisée. Plusieurs personnes mettent au contraire en
avant le caractère « fiable », « inattaquable », « sérieux », voire « impressionnant » du
dispositif de l’enquête PISA, qui bénéficie à leurs yeux de toutes une série de
« garanties » et qui constitue un « outil extrêmement sophistiqué et bien construit »
(même si elles peuvent par ailleurs émettre certaines « réserves »). « Pas question de
mettre en doute la fiabilité de l'enquête » écrit un journaliste d’un quotidien (La Libre,
04/12/01). En particulier, plusieurs personnes interviewées mettent en avant « la
vérification de haut niveau » (selon un membre du cabinet ministériel) et sa « grande
sophistication sur le plan technique » (Lafontaine, 2002, p. 5). Certains mettent en avant
le fait qu’un pays, seul, n’aurait pas les moyens qualitatifs (expertise) et quantitatifs
(financiers) de mettre en œuvre un tel dispositif. On pourrait cependant se demander à
quel point un discours affirmant le contraire serait légitimement exprimable tant
« l’importance », la « sophistication » et le « sérieux » du dispositif sont des aspects
autour desquels semble s’être construit un fort consensus auquel ont probablement
contribué les rapports nationaux rédigés par les chercheurs du SPE. Voici quelques
extraits de presse, de débats parlementaires et d’entretiens qui illustrent la manière dont
les aspects « sérieux » et « fiables » de PISA sont mis en avant :
« (A propos de PISA) Dans le domaine de l'éducation, tout le monde s'accorde à dire que c'est ce qui se fait
de mieux en terme d'évaluation » (un journaliste, La Libre, 05/12/07a)
« (A propos de PISA) (…) une analyse statistique internationale dont chacun convient du sérieux et de la
pertinence » (W. Borsus, parlementaire MR d’opposition, PCF, 11/12/2007, p. 43)
« PISA est intéressant et les gens qui critiquent PISA ne le connaissent pas bien. (…) Je n’entends pas un
discours crédible attaquant ces questions-là. » (un ancien chef de cabinet et ancien secrétaire général de
l’administration scolaire, entretien)
53
3.
PISA, savoir et pouvoir
« Ce que j’ai fait, c’est lire aussi l’ensemble des dispositifs (…) sur le consortium lui-même et la manière
dont il organise la prise en charge du test, les indications sur ce qui était visé, le type de sélection des écoles,
enfin toute la procédure et la méthode utilisée par PISA. (…) (C’est) impressionnant, parce qu’on se rend
compte quand même que c’est d’un sérieux qu’aucune école ne peut assurer seule, et même à la limite
qu’aucun système éducatif ne peut assurer seul. Pourquoi évidement ? Parce qu’ils ont les moyens, ça coute
cher PISA. Les états qui participent paient assez bien. Donc, ils ont les moyens, les moyens de mettre en
place un dispositif d’épreuves externes extrêmement sophistiquées et extrêmement bien conçues. Avec des
garanties nationales, puisqu’il y a des équipes nationales qui vérifient, qui traduisent. Enfin il y a vraiment un
dispositif impressionnant. Ca je crois qu’il faut que ceux qui pensent que cette épreuve peut être mise en
doute, ils ont intérêt à lire ça et ça m’étonnerait qu’ils ne soient pas convaincus. (…) C’est un instrument bien
construit (un responsable du service d’étude du réseau catholique, entretien).
« Cela permet certainement de faire des choses que, qualitativement, on ne serait pas capable de faire pays par
pays parce que c’est vraiment un programme qui met ensemble des spécialistes de différents domaines, des
spécialistes des questions d’échantillonnage, des spécialistes des disciplines (…). » (le représentant de la CFB
au PGB, chercheur au SPE, entretien)
Certaines réserves ou critiques ont néanmoins été exprimées, surtout lors de la diffusion
des premiers résultats de PISA en 2001. A ce moment-là, plusieurs personnes ont
d’ailleurs souligné l’importance de tenir compte des aspects méthodologiques pour
l’interprétation des résultats : « cette étude n'est pas une science exacte mais une
photographie. Il est intéressant de savoir avec quel appareil et quelle pellicule on a pris
ce polaroïd. Et avec quel grand angle, qui déforme la réalité » (H. Wittorski, président de
l’Ufapec, association des parents de l’enseignement libre, s’exprimant dans La Libre,
05/12/01).
Les biais culturels
Parmi les critiques émises, on trouve principalement celles relatives à l’utilisation des
QCM (questionnaires à choix multiples), parfois qualifiée de « abusive » et qui ne
« conviendrait qu’à certains types de populations » (selon les propos tenus par un
parlementaire PSC, PCF, 11/12/2001, p. 15). Cette problématique a souvent été reliée à
celle des éventuels biais culturels de l’enquête PISA. Les critiques les plus fortes ont été
exprimées après la première diffusion du rapport PISA en 2001, par un chercheur
universitaire des Facultés Notre-Dame de la Paix à Namur (M. Romainville) à l’égard du
caractère anglo-saxon de l’enquête qui, selon lui, biaiserait les résultats, notamment à
travers la forte présence de QCM qui privilégieraient les élèves anglo-saxons davantage
habitués à ce genre de questionnement70. Les critiques que celui-ci a énoncées ont été
reprises ensuite par d’autres acteurs qui les ont exprimées à leur tour, notamment au
sein de la presse ou lors des débats parlementaires. En même temps, ces critiques sont
plutôt émises en tant que « réserves » ou « remarques de précaution » qui ne remettent
pas fondamentalement en cause la validité du dispositif et le « sérieux de l'enquête »71.
70 A ce sujet, voir la controverse qui a opposé Romainville (2002), d'une part, et Lafontaine et Demeuse (2002), d'autre part, dans un numéro
de la Revue nouvelle. Un autre chercheur en sciences de l’éducation de l’ULB, J.L. Wolfs, évoque ce même biais culturels introduit par les
QCM pour expliquer les meilleurs résultats des élèves flamands qui seraient selon lui davantage habitués aux questionnaires à choix
multiples (Le Soir, 11/12/2001). Ce biais culturel est également évoqué par un professeur d’anthropologie à l’ULB et ancien recteur de
l’ULB, P. de Maret (Le Soir, 13/02/2008a).
71
Le Soir, 08/12/04g.
54
3.
PISA, savoir et pouvoir
Les extraits suivants montrent comment cet aspect a été évoqué lors des débats
parlementaires :
« Ayant l’habitude de prendre les études statistiques avec beaucoup de précaution, je ne pense pas que cette
étude soit exempte de critiques, ne fût-ce que par l’utilisation abusive des QCM – questionnaires à choix
multiples – qui conviennent bien pour certains types d’enquêtes et certains types de populations. » (P.
Charlier, parlementaire PSC, PCF, 11/12/2001, p. 15)
« Si l’on suit l’avis d’un professeur (…), M. Romainville, (…) tous les élèves ne sont pas égaux face aux
questionnaires. Le système des choix multiples est typique des pays anglo-saxons. Le seul fait d’être
anglophone donnerait de meilleures chances de réussite » (M. Neven, parlementaire MR, PCF, 15/12/2004,
p. 19)
« Les études Pisa sont diligentées par les Anglo-saxons et manifestement, ils ne partagent pas notre vision des
choses. Ils ne se posent pas les mêmes questions que nous et n’analysent pas les réponses de la même
manière » (A.-M. Corbisier-Hagon, parlementaire CdH, PCF, 11/12/07, p. 45)
La construction de l’échantillon
Certaines personnes ont également exprimé des réserves sur la pertinence des critères
choisis pour la sélection de la population enquêtée. Ce discours reste néanmoins
minoritaire et les critiques émises sur la construction de l’échantillon ne semblent pas
non plus, du point de vue de ceux qui les expriment, remettre en cause la validité de
l’ensemble de l’enquête. D’autres personnes soulignent aussi la qualité de l’échantillon de
PISA par rapport à d’autres études internationales, comme PIRLS72.
« Il y a quand même quelques problèmes méthodologiques qui se posent, par exemple le fait de savoir si on
interroge bien des élèves qui ont eu un parcours scolaire similaire, ou s’il n’y en a pas qui sont un peu plus
avancés en âge que d’autres, etc. Parce que je veux dire, selon le pays où on fait passer l’étude, les choses
changent. (…) » (un chef de cabinet ministériel, PS, entretien)
« C’est un peu le problème de PISA, on prend les élèves de 15 ans mais il y a en a qui sont en deuxième et
d’autres qui sont en quatrième secondaire. Donc il faut que ça se sache. » (un inspecteur général, entretien)
Un outil peu questionné
En définitive, les aspects méthodologiques et scientifiques de PISA semblent très peu
discutés et très peu critiqués. Pour la période que nous avons analysée, toute une série
d’aspects paraît même n’avoir jamais été questionnée, comme le choix et la formulation
des questions et des items, la passation et la correction du test, ou encore le mode de
construction des échelles de niveaux. En outre, même les critiques méthodologiques
formulées
ne
remettent
jamais
en
cause
fondamentalement
la
validité
et
la
« scientificité » de PISA. Même si plusieurs lacunes et limites sont mises en avant, on
retrouve donc un large consensus sur le caractère « sérieux » et « fiable » de PISA.
72
Ainsi, lors d’un débat parlementaire à propos des résultats de l’étude Pirls, la ministre de l’enseignement,
M. Arena (socialiste) « s’interroge sur la valeur scientifique de l’étude Pirls » en raison de « la grande liberté
laissé aux pays en matière d’échantillonnage » et des « biais statistiques » consécutifs (ce serait la raison pour
laquelle, selon elle, la Russie arriverait en tête dans Pirls alors qu’elle est mal placée dans PISA : parce qu’elle a
pu mieux sélectionner le public participatif) (M. Arena, Ministre de l’enseignement, PS, PCF, 24/01/2008,
p. 11).
55
3.
PISA, savoir et pouvoir
3.2.3 Le débat sur l’orientation idéologique de PISA
Si personne ne conteste le caractère « scientifique » du dispositif de l’enquête PISA, tel
qu’il a été pensé et construit par les chercheurs du Consortium international et mis en
œuvre par le Centre national de recherche, par contre certains parlementaires remettent
en cause l’indépendance des chercheurs nationaux dans leur interprétation des résultats
de l’enquête et l’opposent à celle fournie par l’OCDE qualifiée de plus « scientifique » ;
d’autres critiquent au contraire la « non neutralité » de PISA dans la mesure où elle est
produite par l’OCDE. Une – petite – partie des discussions sur PISA porte ainsi sur
l’orientation idéologique de l’OCDE et des chercheurs scientifiques nationaux.
Depuis la parution des résultats du deuxième cycle de PISA (2003), l’équipe nationale
des chercheurs chargés de la mise en œuvre de PISA en CFB se trouve régulièrement au
centre d’une vive controverse qui oppose le ministre de l’enseignement (socialiste) et des
parlementaires d’opposition (libéraux). Ces derniers remettent en cause, publiquement,
lors de conférences de presse ou de débats parlementaires, « l’indépendance » des
chercheurs du SPE, en les accusant d’être les « conseillers habituels du ministre », de ne
pas être des « experts indépendants » et de réaliser des interprétations « idéologiques »
qu’ils opposent au « travail scientifique » qui caractériserait, selon eux, les rapports
internationaux diffusés par l’OCDE. Un parlementaire libéral que nous avons interviewé
va plus loin en qualifiant l’ancien NPM de « grand psycho-pédagogue qui pilote un peu
tout maintenant dans l’enseignement ». Les arguments avancés sont que, dans leur
interprétation des résultats de l’enquête, les chercheurs tiennent les mêmes propos que
le Ministre, propos qui diffèrent de ceux contenus dans les rapports internationaux de
l’OCDE ou de ceux tenus par un représentant de l’OCDE (B. Ischinger) lors d’une
conférence de presse organisée au moment de la sortie des résultats de PISA 2003. Lors
de cette conférence, un parlementaire libéral aurait qualifié l’ancien NPM d’être
« idéologique » et exprimé que l’OCDE diffusait à l’inverse « la vérité »73. On peut
supposer que cette critique est – en partie du moins – exprimée dans une stratégie
politique de déligitimation des orientations politiques du Ministre et de légitimation des
certaines propositions de l’OCDE défendues par ailleurs par les parlementaires libéraux.
Comme l’illustre l’extrait suivant, reproduisant un dialogue au sein du Parlement de la
CFB
entre
le
Ministre
(socialiste)
de
l’enseignement
et
un
parlement
(libéral)
d’opposition, la critique exprimée par les parlementaires libéraux ne concerne pas
seulement les chercheurs du SPE, mais l’ensemble des chercheurs universitaires en CFB
« qui ont pignon sur rue » :
73
Selon l’ancien NPM, lors de cette conférence de presse, la représentante de l’OCDE (B. Ischinger) n’aurait
parlé que des propositions de l’OCDE portant sur l’autonomie des écoles, la publication des compétences, en
passant sous silence les résultats sur le milieu socio-économiques des élèves (alors que le rapport de l’OCDE
est beaucoup plus nuancé sur le sujet selon elle).
56
3.
PISA, savoir et pouvoir
« A. Destexhe : (…) Il ya un problème en Communauté française avec l’expertise : tous les experts qui ont
pignon sur rue sont d’accord avec vous. Dans les pays étrangers, comme la France ou les Pays-Bas, on
constate que les experts ont souvent une autre approche des problèmes et qu’il y a une pluralité d’avis des
experts.
M. Arena : Contestez-vous l’indépendance des scientifiques ?
A. Destexhe : Oui, je la conteste.
M. Arena : Vous contestez la validité des enquêtes scientifiques ?
A. Destexhe : Non, je conteste les conclusions que les scientifiques tirent des enquêtes. (…) Certains
chercheurs sont sous contrat public…
M. Arena : L’Ulg est considérée comme un pôle d’experts par l’OCDE. Et vous vous permettez de mettre en
doute l’indépendance de ses chercheurs. C’est déplacé !
A. Destexhe : Il y a quand même une légère différence entre ce qu’a dit la représentante de l’OCDE à la
conférence de presse et ce qui est écrit dans le rapport et, par ailleurs, ce qu’a dit Mme Lafontaine.
M. Arena : Mme Lafontaine connaît l’éducation, la représentante de l’OCDE pas.
A. Destexhe : Tout ce que je demande, c’est que nous puissions entendre un jour des experts qui ont un autre
avis sur l’organisation des systèmes scolaires. Et pas toujours nos experts « maison », qui sont souvent
façonnés sur le plan idéologique »
(A. Destexhe, parlementaire MR, et M. Arena, à l’époque Ministre de l’enseignement PS, PCF, 11/12/2007,
p. 49)
Face aux attaques portées contre les chercheurs du SPE, le Ministre de l’enseignement de
l’époque, socialiste, a défendu le « fiabilité du travail réalisé en autonomie » par le NPM
et ses collaborateurs, exprimant à plusieurs reprises la « confiance » qu’il leur
témoignait74. Nous reviendrons davantage sur le contenu de cette controverse au point
suivant lorsque nous évoquerons les débats sur l’interprétation des résultats.
De manière symétrique, certains membres du cabinet ministériel (socialiste) de
l’enseignement mettent en avant les « tenants idéologiques » de l’OCDE, défendus au
niveau national par le parti libéral. C’est aussi le cas d’un membre d’un mouvement
pédagogique (l’APED) qui qualifie l’OCDE « d’organisme de contrôle du capitalisme » qui
chercherait à « réformer les systèmes d’enseignement afin qu’ils répondent mieux aux
besoins de l’économie » (via la promotion d’un apprentissage basé sur les compétences,
de l’enseignement privé, de la flexibilité et de la diversification de l’offre)75.
« (A propos des évaluations externes nationales) C’est quand même un point essentiel pour ne pas toujours
avoir PISA avec l’OCDE, dont on sait quand même les tenants idéologiques qu’il y a là derrière. Et quand on
ne les sait pas, Destexhe les rappelle à échéance assez récurrente. (…) C’est clair que derrière PISA, il y a
aussi l’OCDE, avec un certain nombre de valeurs et d’objectifs idéologiques et politiques. On ne peut pas non
plus considérer que le seul indicateur de notre système scolaire, c’est PISA. PISA, c’est un indicateur comme
il y en a beaucoup d’autres. Et l’intérêt, je pense, pour un système scolaire qui veut être bien piloté, c’est
d’avoir ces propres indicateurs et de les construire. (…) » (chef de cabinet ministériel, socialiste, entretien)
Les discussions sur l’orientation idéologique de l’OCDE et son influence éventuelle à
travers PISA restent cependant très rares. Un seul article de presse y fait référence pour
la période que nous avons analysée (les trois mois suivant la publication des résultats) et
remet en question la « neutralité » de PISA et de l’OCDE :
74
Voir à ce sujet, les débats parlementaires suivants : PCF, 11/01/2005, p. 3 et PCF, 21/06/2005, p. 68.
75
CF. N. Hirtt, Le Soir, 06.12.01.
57
3.
PISA, savoir et pouvoir
« Un indicateur, quel qu’il soit, en apprend aussi beaucoup… sur l’auteur de l’indicateur. Qui, souvent, tient
une thèse et cherche à la vérifier par des enquêtes dont la méthode est scientifique, mais pas toujours neutre
quant aux modèles de société. L’OCDE, l’Organisation pour la coopération et le développement économique,
ne cache guère son parti-pris pour la libéralisation des « services » de l’éducation et aime chanter les vertus
de la mise en concurrence. (…) » (Le Soir, 05/12/07d)
Ce débat illustre à quel point un fondement « idéologique », basé sur la défense de
« valeurs » ne semble plus aujourd’hui légitime et qu’il est important aux yeux des
acteurs politiques de légitimer au contraire leurs positions à partir d’une argumentation
dite « scientifique ».
3.2.4 Le débat sur l’utilité et la pertinence politiques de PISA
Une partie importante du débat public sur PISA, en particulier les débats parlementaires,
concerne son utilité et sa pertinence politique : A quoi sert PISA ? Quelle est son utilité ?
Quel usage politique devrait-on en faire ? Comme nous allons le voir, on retrouve un
relatif consensus autour de la pertinence de PISA en tant qu’outil de conscientisation et
d’évaluation externe. Une certaine prise de distance politique s’exprime cependant à
l’égard des recommandations émises par l’OCDE.
Un leitmotiv : PISA n’apprend rien de neuf
Avant tout, il est frappant de constater à quel point la plupart des acteurs scientifiques,
des acteurs politiques et des acteurs intermédiaires du système éducatifs affirment
fréquemment le fait que les enquêtes PISA ne leur ont « rien appris de neuf » sur le
système éducatif en CFB et qu’elles n’ont fait que « confirmer un diagnostic déjà établi »,
sur sa « dualité » et la « faiblesse » des élèves, par des recherches antérieures non
autant médiatisées :
« En décembre 2001, les résultats du premier cycle d’évaluation de PISA ont été divulgués. Ces résultats ont
fait grand bruit. Ils ne faisaient pourtant que confirmer un diagnostic établi de longue date par les enquêtes
internationales qui avaient précédé PISA et par les évaluations externes » (Lafontaine et alii, 20041, p. 1)
« Nous ne pouvons donc pas dire que ce qui nous arrive aujourd’hui est un coup de tonnerre dans un ciel
clair. Nous pouvions nous y attendre » (P. Hazette, alors Ministre de l’enseignement, PRL, PCF, 24/04/2002,
p. 22)
« Moi, les résultats ne m’ont pas particulièrement étonné. (…) La grande leçon de PISA, c’est quelque chose
qu’on savait déjà. (…) c’est ce système très dual. (…) PISA met quand même en lumière toute une série de
choses. Mais qu’à nouveau, M. Dupont avait déjà mis en lumière dans son rapport sur la lecture, par
exemple » (chef de cabinet ministériel, PS, entretien)
« PISA n’a fait que confirmer des résultats que la Communauté française connait depuis (…) les résultats
obtenus aux enquêtes comparatives. » (responsable du service d’étude du réseau d’enseignement catholique,
entretien)
« J’ai été moins surpris que certains de mes collègues. Mais ce n’était quand même pas bon. Donc j’ai quand
même été un peu surpris. Mais ça n’a pas été pour moi un coup de tonnerre dans un ciel clair » (Actuel
Ministre de l’enseignement, à l’époque député parlementaire, PS, entretien)
« Pour nous, ce qui était surprenant, c’est que ce soit surprenant. Parce que ce qu’on disait dans PISA, ça
avait été dit en 95 dans TIMSS, ça avait été dit en 91 dans Reading Literacy de l’IEA. » (chercheur, entretien)
« Les constats posés par l’enquête PISA ne sont, hélas, pas nouveaux et n’ont pas véritablement surpris les
observateurs attentifs du terrain éducatif en Communauté française de Belgique. En 1991, l’enquête IEA
58
3.
PISA, savoir et pouvoir
Reading Literacy avait déjà tiré la sonnette d’alarme. (…) Entre 1994 et 2001, les évaluations externes
interréseaux (…) ont régulièrement mis en évidence les difficultés en lecture (…). En 1995, l’enquête TIMSS
de l’IEA a posé un diagnostic très proche de celui du PISA, alors que les évaluations étaient pourtant de
nature assez différente. » (Lafontaine, 2002, p. 47). 76
Un instrument de conscientisation aux problèmes du système éducatif
Si la plupart des acteurs scientifiques, politiques et intermédiaires du système éducatif
soulignent que PISA n’a rien appris de neuf, ils reconnaissent cependant en même temps
qu’il a fait « sortir du ronron quotidien » et qu’à travers les débats suscités autour des
(mauvais) résultats de la CFB, il a renforcé l’attention portée sur certains problèmes et a
contribué à accélérer leur mise en agenda politique. En particulier, PISA aurait favorisé
une « prise de conscience » ou une « sensibilisation » du grand public à certains
problèmes du système éducatif, comme son caractère inégalitaire. Par la « caution
scientifique » qu’il apporte et sa diffusion médiatique, PISA aurait constitué un « élément
déclencheur » participant à un « changement d’opinion » (selon un conseiller au cabinet
ministériel).
« (A propos de PISA) Je trouve que c’est très utile (…), ça apporte quand même un éclairage fort intéressant
et qui a surtout le mérite de sortir un peu du ronron quotidien et de se dire : il y a quand même un problème, il
y a quand même quelque chose à faire. Je crois que c’est ça, c’est un petit peu la prise de conscience qu’il y a
quand même quelque chose qui cloche et qu’on pourrait améliorer quoi « (Une ancienne inspectrice générale,
échevine CDH, entretien)
« Je pense que PISA a permis aux gens de se rendre compte que les inégalités entre les élèves, principalement
entre les écoles, étaient très importantes en Communauté française. (…) Le grand public en général. Je pense
que tous les chercheurs le savaient, c’était démontré par A + B depuis des années. Je pense que les rapports
de recherche s’empilaient dans les cabinets ministériels(…). Mais en tout cas, je pense que le citoyen en
général n’avait pas conscience ou se posait la question mais n’avait pas encore eu la garantie scientifique que
c’était le cas. Or, je trouve que pour étudier les inégalités dans les écoles, PISA est loin d’être un outil
extrêmement approprié (…) Mais voilà, le médiatique aidant... (…) (Cela a été) L’élément déclencheur. Je
pense que ça participe à tout ce changement d’opinion où je pense que jusqu’il y a peu, seuls les progressistes
(…) s’occupaient de ce genre de sujet comme les inégalités. » (conseiller au cabinet ministériel, entretien)77
Un outil d’évaluation externe utile au pilotage du système éducatif
Pour la plupart des acteurs scolaires, la principale utilité de PISA est de constituer un
« outil d’évaluation externe » qui leur paraissait faire défaut en CFB au moment où PISA
a commencé (voir la partie 2 du rapport).
Paradoxalement, même s’ils reconnaissent que PISA « n’a rien appris de neuf » sur le
système éducatif en CFB, tout le monde s’accorde pour dire que PISA apporte néanmoins
un « éclairage » pertinent et intéressant sur le système éducatif, utile pour « piloter » le
système et définir les politiques éducatives. Ce point de vue défendu est celui qui est
véhiculé officiellement par l’OCDE et relayé par les rapports PISA nationaux. Cet aspect
est surtout mis en avant par les acteurs politiques et en particulier les ministres de
l’enseignement, comme l’illustre les nombreuses allusions faites lors les débats
76
Pour les différents extraits, c’est nous qui soulignons.
77
Pour les différents extraits, c’est nous qui soulignons.
59
3.
PISA, savoir et pouvoir
parlementaires dont nous reproduisons ici quelques extraits. PISA y est décrit comme un
outil permettant « d’identifier les points forts et faibles de l’enseignement »78 censé aider
à faire des choix politiques visant à « améliorer le système d’enseignement ». On peut
néanmoins se demander à quel point cette conception n’est pas purement rhétorique,
s’inscrivant dans une logique visant avant tout à légitimer la pertinence de PISA qui
permet ensuite de légitimer leurs propositions politiques.
« PISA est une évaluation externe (…) » (M. Arena, à l’époque Ministre de l’enseignement, PS, PCF,
21/06/2005, p. 68)
« (A propos de PISA) Je reste persuadée que de telles informations nous aideront à améliorer le système
d’enseignement » (M. Arena, à l’époque Ministre de l’Enseignement, PS, PCF, 11/01/2005, p. 4)
« Le programme Pisa constitue une mine d'informations bien utiles pour définir les politiques à mettre en
œuvre » (propos de la M. Arena, à l’époque Ministre de l’Enseignement, PS, propos rapporté par La Libre,
05/12/07b)
« Le rapport PISA permet deux lectures : l’une à usage interne qui montre un certain nombre de défaillances
de l’enseignement, l’autre portée par un regard venu d’ailleurs, celui de la comparaison » (P. Hazette, à
l’époque Ministre de l’enseignement, PRL, PCF, 24/04/2002, p. 21)
(A propos des deux premières enquêtes PISA et de consultations enseignantes) « Elles apportent chacune un
éclairage précieux sur la réalité de l’enseignement » (PCF, 25/01/2005, p. 7)
Dans cette optique, la comparaison des systèmes éducatifs de différents pays est
présentée comme « l’un des intérêts » de l’étude, qui permet de « se rendre compte que
notre réalité n’est pas la seule possible », « de voir ce qui se fait ailleurs » et « d’isoler
les choix politiques les plus pertinents » :
« C’est l’intérêt des études de type PISA, des comparaisons entre divers types d’écoles ou d’élèves sont
possibles. On peut donc tenter de comparer les pays en fonction du système éducatif et essayer d’isoler les
choix politiques les plus favorables et les plus pertinents » (C. Dupont, actuel Ministre de l’enseignement, PS,
PCF, 03/06/2008, p. 6)
« F. Dupuis [à l’époque Ministre de l’enseignement supérieur, PS] estime enfin que le monde politique doit
profiter du choc créé par l'étude pour avancer. Mais pas à l'aveugle. `Voyons d'abord ce qui se fait en
Flandre, en France et en Allemagne et comparons les systèmes dans leurs contextes.´ » (propos rapporté par
Le Soir, 07/12/01)
« (…) Prendre exemple sur les réussites. Plusieurs pays obtiennent des résultats significativement meilleurs
qu'en Communauté française : Canada, Nouvelle-Zélande, Australie, Japon ou, plus près de nous, Finlande,
Royaume-Uni, France. Sans compter la Région flamande... Il serait instructif de savoir comment
l'enseignement y est organisé, quelles sont les erreurs qu'ils ont évitées afin de gagner un temps précieux à ne
pas les reproduire. (D. Leturcq, directeur d’école, Le Soir, 04/01/02)
« C’est quand même intéressant même s’il ne faut pas trop en retirer. Ce n’est pas le seul apport. Mais, de
pouvoir se comparer aux autres, ça aide quand même à se réveiller. Je pense à un autre aspect où la Belgique,
toute la Belgique là est championne, c’est le redoublement. Mais tant qu’on n’a pas des études comme ça qui
disent mais non en Finlande ils réussissent bien et ils ne redoublent pas. Les Belges, on est tous convaincus
que c’est inévitable, que c’est la seule mesure (…) Donc je pense que les études internationales nous aident
(…) au moins à nous rendre compte que ce qui est notre réalité n’est pas forcément la seule réalité possible.
Je veux dire ça ne veut pas forcément dire que ça c’est mieux mais au moins, nous montrer qu’il y a d’autres
façons de faire (…) Je pense que c’est quand même un moteur de réflexion.» (le représentant de la CFB au
PGB, chercheur au SPE, entretien)
78
Selon les propos de M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 17/02/2005, p. 9.
60
3.
PISA, savoir et pouvoir
Plusieurs acteurs politiques et scientifiques énoncent néanmoins des limites à la
comparaison
internationale
et
remettent
en cause la possibilité de mener des
comparaisons valides entre pays. Pour beaucoup, la comparaison serait « oiseuse » étant
donnés les situations socio-économiques ou les modes de scolarisation très variables
selon les pays79. Ce « scepticisme » à l’égard des comparaisons est également exprimé
par l’ancien NPM80. Plusieurs personnes mettent alors en avant la nécessité de
« contextualiser » la comparaison, d’appréhender les systèmes éducatifs des différents
pays « dans leur totalité » et « dans leur contexte »81. Certains soulignent le fait que,
telle qu’elle est diffusée dans les médias, la comparaison internationale décontextualisée
est « contre-productive », « cruelle » et « démoralisante » pour les acteurs de terrain en
CFB et s’interrogent sur la manière de mieux l’entourer82.
D’autres
trouvent
que
PISA,
tout
en
apportant
des
« indications
tout
à
fait
intéressantes », ne constitue cependant pas un « instrument de régulation fine » car « il
n’indique pas aux enseignants la méthode d’enseignement la plus efficace » :
« C’est un instrument bien construit et qui donne des indications tout à fait intéressantes pour ce qui le
concerne. Donc ça n’est pas un instrument de régulation fine. Ca ne dit pas aux profs qu’elle est la méthode
d’enseignement la plus efficace. Mais ce n’est pas ça son objet. Ce n’est pas le but. Mais pour ce qui le
concerne et pour les finalités qu’il recherche, effectivement, il donne des indications extrêmement
intéressantes, si on prend la peine de s’emparer de l’ensemble des informations qu’il donne. Il ne faut pas se
contenter des articles de journaux qui caricaturent en trois colonnes et un titre ravageur les résultats qu’on
peut en tirer » (un responsable du service d’étude du réseau d’enseignement catholique, entretien)
Enfin, de rares personnes remettent en question la possibilité scientifique d’évaluer
l’enseignement, ou simplement le principe même de l’évaluation. Dans la presse, pour la
période analysée, un seul acteur – un acteur de terrain (un directeur d’école) - remet en
question la « mesure en enseignement » et la « logique de résultats » sur laquelle
reposent les évaluations telles que PISA. Selon ce dernier, « les statistiques ne peuvent
pas rendre compte de tout ce qui est en jeu dans la relation pédagogique » et il critique
« la mode du chiffre, du ratio, du quota à laquelle cèdent les ministres et la presse » :
79
On met en avant, par exemple, que la comparaison entre la Finlande et la CFB est difficile dans la mesure où
la CFB se caractérise par « une forte population immigrée, une forte densité de population, un fort taux de
chômage », etc., ce qui ne serait pas le cas de la Finlande (M. Neven, parlementaire MR, PCF, 15/12/2004,
p. 19 ; M. Neven, parlementaire MR, PCF, 21/06/2005, p. 49). Ou que la CFB, étant donné sont très haut taux
de scolarisation par avec un « sérieux handicap », par exemple, par rapport à des pays comme la Corée où les
les élèves les plus faibles sont exclus de l'école (propos de M. Romainville rapportés par un journaliste, Le Soir,
08/12/04g).
80
Cf. D. Lafontaine, Le Soir, 07/12/04c.
81
M. Cheron, parlementaire Ecolo, PCF, 21/06/2005, p. 45.
82
L. Walry, parlementaire PS, PCF, 11/01/2005, p. 3.
61
3.
PISA, savoir et pouvoir
« J'accuse nos ministres (en la matière bien relayés par les médias) de céder à la mode du chiffre, du ratio, du
quota; de réagir et non d'agir, de pallier et non de penser. (…) L'enseignement n'est pas une chose, un pur
objet. C'est d'abord et avant tout un processus. Contrairement à la logique de l'artisan ou du fabricant (homo
faber), nous ne pouvons nous construire mentalement un modèle du produit que nous fabriquons. Impossible
de dire ce que deviendront les élèves que nous guidons (plus que nous ne formons). (…) Que peut-on
"mesurer" ? (…) je crois que, si mesure il y a, il faut non seulement savoir de façon précise ce que l'on
mesure, mais aussi selon quel étalon ! (…) Si l'on s'en réfère aux multiples évaluations qui marquent notre
quotidien depuis ces dernières années, des évaluations externes aux enquêtes PISA, il semble qu'elles
reposent sur une logique de résultats. Nous sommes mesurés, évalués en fonction des résultats obtenus aux
tests proposés dans nos écoles. Ces résultats sont relativisés en étant mis en perspective avec les résultats des
autres écoles, des autres pays. A la lecture de ces constats, on se rend immédiatement compte de la difficulté
d'une telle évaluation, d'un tel "mesurage". (…) Seulement voilà, l'humain ne peut être évacué totalement des
pratiques de l'enseignement, ni des résultats obtenus. Les statistiques ne pourront rendre compte de tout ce qui
est en jeu dans la relation pédagogique. Un test reste un moment, lui-même attaché à des circonstances
particulières, celles de son passage, de la présence d'autres dans la salle, de la motivation qu'y puisent
éventuellement les élèves. Il mesure le degré de maîtrise sur certains aspects de la formation en gommant, au
travers de ses questions stéréotypées, tout ce qui fait qu'un élève, une situation d'apprentissage restent
uniques. (…) » (P. Anselin, Directeur d’école, La Libre, 10/12/07)
Rares sont ceux aussi qui questionnent les objets évalués par PISA et de manière
générale, on met plutôt en avant l’adéquation entre les compétences évaluées par PISA
et celles qui sont aujourd’hui promues dans les référentiels de la CFB (cf. Socles de
Compétences, Compétences terminales) :
« Quand on voit l’épreuve elle-même, quand on lit les questions accessibles – parce que toutes ne le sont pas
– on voit bien qu’effectivement, les questions proposées sont des questions qui visent à tester des
compétences. Or quand même l’ambition de la Communauté française c’est de mettre en place des
compétences, et non exclusivement des connaissances. » (un responsable du service d’étude du réseau
catholique).
Une certaine prise de distance politique :
PISA n’est pas un instrument de recommandation
Si les acteurs politiques présentent PISA comme un outil permettant de dresser des
constats et d’effectuer des choix politiques, en même temps, à de nombreuses reprises,
ils posent des limites à son usage en affirmant une certaine distance à son égard. En
particulier, ils insistent sur le fait que la politique éducative ne doit pas se mener
uniquement par rapport à PISA, « qu’il ne faut pas régler la vie scolaire sur ces seules
informations », parce que ce sont des indicateurs qui « donnent un avis intéressant, mais
insuffisant »83 et que PISA n’est pas le seul outil d’analyse du système éducatif. Certains
avancent aussi des réserves d’ordre méthodologique comme arguments pour justifier
« qu’il ne faut pas tout prendre pour argent comptant ». Les extraits suivants des débats
parlementaires illustrent cette prise de distance :
« M. Dupont se refuse à régler notre vie scolaire et l’ensemble de notre vie scolaire sur ces seuls
informations. M. Dupont tient à préciser qu’il ne veut pas avoir sa vie modulée par des indicateurs externes
qui donnent certes un avis intéressant mais insuffisant » (C. Dupont, PCF, 28/02/2002, p. 33).
« Il faut utiliser ce type d’étude non pas pour être classé parmi les premiers, mais pour identifier les points
forts et faibles de l’enseignement (…) L’objectif est d’utiliser ce types d’étude pour estimer toutes les
modifications et les priorités à prendre pour améliorer notre enseignement (…) Nous devons mener une
83
Propos de C. Dupont, à l’époque parlementaire PS, PCF, 28/02/2002, p. 3.
62
3.
PISA, savoir et pouvoir
politique à moyen et à long terme sur ces matières [cours de Sciences], mais pas uniquement par rapport à
l’étude PISA (M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 17/02/2005, p. 9).
« Il est certain que nous ne devons pas être sourds et aveugles. Cependant, je rappelle que l’enquête PISA
n’est pas le seul outil d’analyse de notre système » (M. Cheron, parlementaire Ecolo, PCF, 21/06/2005, p. 45)
« L’étude Pisa ne doit pas nous contraindre à modifier l’ensemble de notre politique » (Y. Reinkin,
parlementaire Ecolo, PCF, 11/12/07, p. 44)
« Si le rapport PISA peut nous donner des indications, il ne doit pas rester notre seule référence » (A-M
Corbisier-Hagon, parlementaire CdH, PCF, 11/12/07, p. 45)
« L’étude Pisa est intéressante mais nous avons d’autres éléments de mesure, notamment ceux de la
commission de pilotage. Nous ne devons pas nous concentrer uniquement sur les résultats PISA. Nous
disposons aussi des éléments de mesure de la commission de pilotage qui connaît bien notre système scolaire,
avec ses avantages et ses inconvénients, et est ainsi capable d’élaborer des recommandations en connaissance
de cause. Ce n’est pas une bonne idée d’investir uniquement et massivement dans PISA. (…) L’étude Pisa est
un outil parmi d’autres (…) Les indicateurs 2007 de la Communauté française constituent aussi un outil
permettant de piloter correctement notre système d’enseignement » (M. Arena l’époque Ministre de
l’enseignement, PS, PCF, 11/12/07, p. 46 et p. 48).
« C’est vraiment purement personnel, mais j’émets des réserves sur la base de données PISA. Ce n’est pas
que je fais des réserves, je pense que c’est extrêmement bien fait ; le testing et la vérification qualitative sont
vraiment de haut niveau dans PISA. Mais par contre, je refuse à croire qu’on peut tirer tout et n’importe quoi
des informations pour gérer un système éducatif, de cette base de données là. Je pense que c’est intéressant
mais je pense qu’il ne faut pas perdre de vue que PISA, c’est, par exemple, un questionnaire de contexte qui
est fait passer à des gosses de 15 ans sans aucune vérification. Donc moi j’ai confiance mais en même temps,
je ne prends pas ça pour argent comptant. Donc les comparaisons qui peuvent être faites sont intéressantes
mais c’est un outil, un indicateur parmi un tas d’autres. » (un conseiller au cabinet ministériel, PS, entretien)84
A l’occasion d’un « incident » survenu lors de la conférence de presse organisée pour la
diffusion des résultats du troisième cycle de PISA (2006), le Ministre de l’enseignement a
en particulier affirmé une distance par rapport aux « recommandations de l’OCDE » :
selon lui, il s’agit « d’accorder de l’importance à l’étude PISA pour ce qui est des constats
et non pour ses recommandations ». Cette prise de position s’inscrit dans le contexte où
les
parlementaires
d’opposition
(libéraux)
se
sont
appuyés
sur
les
rapports
internationaux et les propos tenus par une représentante de l’OCDE lors de la conférence
de presse pour légitimer leurs propositions et critiquer celles du Ministre, basées sur les
rapports nationaux.
« Que l’OCDE serve d’instrument de mesure, je suis d’accord. Mais qu’il se transforme en instrument de
recommandation, ça fait peur. Quand la directrice de l’OCDE qui présentait le rapport a dit : « il y a une
solution pour le système belge : vous n’avez qu’à mettre les bons professeurs des bonnes écoles pour
remplacer les mauvais professeurs des mauvaises écoles », j’ai vu rouge ! Elle a également proposé de payer
les enseignants au mérite (…) Autant on peut analyser et discuter le constat posé par l’OCDE, autant, sur les
recommandations, j’invite l’OCDE à s’occuper des pays qui les entendent, mais à nous laisser travailler sur
les pays qui nous concernent (…) J’accorde de l’importance à l’étude Pisa pur ce qui est des constats et non
pour ses recommandations » (M. Arena, Ministre, PS, PCF, 11/12/07, p. 47)
Nous verrons plus loin qu’à plusieurs reprises, les décideurs politiques précisent aussi que
leur proposition « n’a rien à voir avec PISA », tout en s’appuyant dessus par ailleurs et
en l’invoquant à plusieurs reprises. Le rapport – rhétorique – des décideurs politiques à
PISA semble donc relativement paradoxal dans la mesure où ils présentent PISA comme
un instrument d’évaluation externe aidant les politiques à faire les meilleurs choix (grâce
84
Pour les différents extraits, c’est nous qui soulignons.
63
3.
PISA, savoir et pouvoir
notamment à la comparaison avec les systèmes éducatifs d’autres pays) – tout en
affirmant en même temps ne pas avoir à suivre les « recommandations » de PISA
(seulement les constats) – et en citant néanmoins abondamment les supposées
« leçons » et « recommandations » de PISA pour justifier des propositions politiques.
Cette attitude paradoxale nous pousse à penser que l’usage de PISA s’inscrit en grande
partie dans une logique rhétorique de légitimation politique. Nous reviendrons sur cette
hypothèse plus loin.
3.2.5 Les débats sur l’interprétation des résultats
de PISA et ses « leçons »
La majeure partie des débats qui ont lieu sur PISA, dans la presse et au Parlement, porte
sur la manière d’interpréter ses résultats et ses « leçons » : sur les « problèmes » que
PISA mettrait en évidence, les « explications » qu’il avancerait et les « solutions » qu’il
suggérerait. C’est au sujet de ces questions que les discussions sont les plus nombreuses
et les plus vives. Ces débats débordent souvent le seul cadre de la discussion sur les
enquêtes PISA elles-mêmes. Ils s’inscrivent dans le contexte socio-éducatif et les
clivages politico-éducatifs propres à la CFB et prennent aussi sens par rapport à des
débats à propos de politiques ou de projets politiques préexistants.
Les problèmes : l’équité (l’écart, la variance et les élèves les plus faibles) versus
l’efficacité (le rang, la moyenne et les élèves les plus forts)
Si l’on examine les discours tenus ces dernières années par les différents acteurs qui
œuvrent dans le champ scolaire en CFB, on retrouve un certain consensus autour de la
nécessité d’améliorer « la qualité, l’équité et l’efficacité » du système éducatif. En même
temps, les discours laissent apparaître certaines divergences, à travers des accents
différenciés et à travers les propositions politiques émises pour arriver à atteindre ces
trois qualités. Ces divergences s’expriment également à l’occasion des débats sur les
résultats de PISA.
Dès 2001, lors de la diffusion du premier rapport PISA (2000), des divergences politiques
se sont manifestées autour de l’interprétation des résultats et la définition des problèmes
mis en évidence par l’enquête PISA : alors que les socialistes, les écologistes et les
démocrates humanistes mettent davantage l’accent sur le problème de l’inéquité (à
travers l’écart et la variance des résultats), les libéraux mettent davantage en avant le
problème de l’efficacité (à travers le faible niveau des résultats et le mauvais classement
de la CFB). Pour les premiers, le problème se situe alors surtout au niveau des élèves les
plus faibles (trop nombreux), alors que, pour les seconds, il se situe à celui des élèves les
plus forts (pas assez nombreux).
64
3.
PISA, savoir et pouvoir
Ainsi, pour les acteurs politiques socialistes, écologistes et démocrates humanistes, la
« principale leçon de PISA », c’est d’avoir éclairé les problèmes d’inégalité85 et la
« dualité du système éducatif »86 mis en évidence à partir des écarts de performances
entre les élèves et entre les écoles, selon l’origine sociale des élèves ou le milieu social
de l’école. Souvent, ils disent regretter la manière dont les médias ont traité les résultats
de PISA en mettant l’accent sur le mauvais classement de la CFB et sur le « faible
niveau » des élèves. Selon eux, PISA suggèrerait alors de mettre la priorité politique sur
les élèves les plus faibles87 et de formuler des propositions politiques visant à diminuer
l’inéquité du système éducatif, telles que l’allongement du tronc commun ou la promotion
de la mixité sociale au sein des classes et des écoles. Pour justifier leurs propos, ils
s’appuient en particulier sur les interprétations des résultats de PISA produites par le
NPM et les chercheurs du SPE :
« Le camp libéral a une tendance marquée à analyser les performances. (…) Il est certain que nous ne devons
pas être sourds et aveugles. (…) Depuis les enquêtes PISA, un certain nombre de constats ont été posés. (…)
Bien plus que les résultats obtenus par les élèves dans les différentes branches, ce sont les inégalités qui
apparaissent clairement et qui nous interpellent » (M. Cheron, parlementaire Ecolo, PCF, 21/06/2005, p. 45)
« Les performances globales des élèves de la Communauté française sont relativement faibles, c’est-à-dire
dans la moyenne ou inférieures à celles des pays participants. (…) Je suis beaucoup plus préoccupée par les
résultats des élèves les plus faibles. En effet, comme en 2000 et en 2003, la Communauté française demeure
l’un des systèmes éducatifs où la différence entre les élèves les plus forts et les élèves les plus faibles est la
plus importante au monde. Voilà un signe évident d’un manque d’équité du système, ce qui nous ramène au
débat sur la mixité sociale dans nos écoles. La différence de résultats entre écoles est également significative.
Comme en 2000 et en 2003, Pisa démontre que ce sont les mêmes écoles qui concentrent toutes les
difficultés : élèves plus faibles, statuts socio-économiques peu élevés, retards scolaires, nombreux élèves issus
de l’immigration (…) (M. Arena, à l’époque Ministre de l’enseignement PS, PCF, 11/12/07, p. 46)
« La leçon principale de PISA, c’est l’inégalité et les écarts entres écoles (…) Notre communauté a la lanterne
rouge en la matière (…). Et je continue à penser même 4 ans après que ça reste le principal problème de notre
système d’enseignement en Communauté française. Mais malheureusement, ce que PISA a mis dans un
journal télévisé, avec une minute trente ou deux minutes de reportage, ce n’est pas ça, c’est ‘le niveau est bas’
ou ‘relativement le niveau est bas’. C’est une leçon mais ce n’est pas la leçon principale. Là aussi j’ai un
regret par rapport à ça. C’est que malgré tout ce que Dominique Lafontaine et son équipe ont essayé de faire
passer dès le début comme message, ce n’est quand même pas ça que les gens retiennent pour l’instant. Ce
n’est quand même pas cette inégalité entre écoles qui pose problème, c’est ‘le niveau est bas’. » (député
écolo, ancien ministre de l’enseignement fondamental, entretien)
« La grande leçon de PISA, c’est quelque chose qu’on savait déjà, à savoir qu’on a un système scolaire qui est
très performant, voir hyper performant pour nos plus forts. (…) Mais on a par ailleurs aussi des très mauvais.
85
Cf. C. Dupont, à l’époque parlementaire PS, PCF, 11/12/2001, p. 44 ; M. Bayenet, parlementaire PS, PCF,
15/12/2004, p. 8 ; L. Walry, parlementaire PS, PCF, 11/01/2005, p. 3 ; PCF, 25/01/2005, p. 12 ; M. Cheron,
parlementaire Ecolo, PCF, 15/02/2005, p. 12 ; M. Cheron, parlementaire Ecolo, PCF, 21/06/2005, p. 45 ;
Y. Reinkin, parlementaire Ecolo, PCF, 11/12/07, p. 44 ; M. Arena, à l’époque Ministre de l’enseignement, PS,
PCF, 11/12/07, p. 46 ; F. Fassiaux-Looten, parlementaire PS, PCF, 09/04/2008a, p. 8.
86
Cf. P. Hardy, parlementaire Ecolo, PCF, 24/04/2002, p. 21 ; V. Jamoulle, parlementaire PS, PCF, 21/06/2005,
p. 53 ; L. Walry, parlementaire PS, PCF, 11/12/07, p. 32 ; V. Jamoulle, parlementaire PS, PCF, 11/12/2007,
p. 42 ; PCF, 20/05/2008a, p. 4 ; A.-M. Corbisier-Hagon, parlementaire PSC, PCF, 11/12/2001, p. 8 ; M. Elsen,
parlementaire CdH, PCF, 11/12/07, p. 30.
87
M. Arena, Ministre, PS, PCF, 11/12/07, p. 46 ; C. Dupont, Ministre, PS, PCF, 03/06/2008, p. 7.
65
3.
PISA, savoir et pouvoir
Et notre système manifestement n’arrive pas à les récupérer. Et donc tout le message, en tout cas tout ce que
nous on peut retirer, enfin je caricature, mais je veux dire, l’élément le plus essentiel de PISA, c’est cela.
C’est ce système très dual. Et ça, ce n’est pas d’un réseau à l’autre. A l’intérieur même des réseaux, on
retrouve cette dualité. » (chef de cabinet ministériel, PS, entretien)88
La problématique des inégalités sociales n’est évidemment pas l’apanage des seuls
acteurs politiques socialistes, écologistes ou démocrates humanistes. Elle est aussi mise
en avant par d’autres acteurs, comme certaines associations de parents89, les chercheurs
universitaires90, ou encore le mouvement APED (Appel pour une école démocratique).
Certains parlementaires libéraux évoquent également le caractère inégalitaire du
système éducatif91. Cependant, la plupart estiment que ce n’est pas là la principale leçon
de PISA, voire remettent en question cette interprétation en la qualifiant de « lecture non
honnête de PISA »92. Selon les acteurs politiques libéraux, PISA mettrait surtout en
évidence le manque d’efficacité du système éducatif. Ils insistent également sur le fait
que l’un des problèmes mis en lumière par PISA concerne la faible proportion de « très
bons élèves »93. Leurs propositions mettent alors davantage l’accent sur l’autonomie des
établissements et sur la « pertinence des apprentissages de base » qui constitue selon
eux la « vraie question », une question qui serait « venue du « terrain ». Certains
parlementaires
remettent
alors
en question
l’apprentissage des
« compétences »
promues en CFB depuis le Décret Missions (1997) et qui, selon eux, « se seraient
substituées trop vite aux savoirs ».
C’est dans cette divergence d’interprétation des « problèmes » que mettraient en
évidence PISA que s’inscrit la polémique, déjà soulignée, qui oppose les libéraux aux
socialistes au sujet de l’indépendance des chercheurs universitaires en CFB, dont le NPM
et ses collègues accusés d’être les « conseillers » du Ministre et de réaliser un « travail
idéologique ». Ainsi, selon l’un des parlementaires libéraux que nous avons interviewé, et
dont nous reproduisons ici un extrait d’entretien, la lecture des résultats de PISA réalisée
par l’ancien NPM introduirait un « biais » en interprétant le fait que les « mauvais
88
89
Pour les différents extraits, c’est nous qui soulignons.
Cf. P. Schwarzenberger,
vice-président
de la
Fédération
des
associations
de parents
d’élèves
de
l’enseignement officiel, Le Soir, 08/12/2004h.
90
V. Dupriez, chercheur en sciences de l’éducation à l’UCL, Le Soir, 08/12/2004f ; C. Maroy, chercheur en
sociologie à l’UCL, Le Soir, 12/12/2007.
91
Cf. M. Neven, parlementaire MR, PCF, 15/12/2004, p. 19 ; M. Neven, parlementaire MR, PCF, 21/06/2005, p. 49 ; A. Destexhe,
parlementaire MR, PCF, 21/06/2005, p. 63.
92
CF. J.-P. Wahl, parlementaire MR, PCF, 11/12/2007, p. 37.
93
A. Destexhe, MR, PCF, 21/06/2005, p. 63 ; A. Destexhe, MR, PCF, 11/12/07, p. 40.
66
3.
PISA, savoir et pouvoir
résultats sont le fruit d’un niveau socio-économique défavorisé et qu’il faut mettre plus
sur ces enfants défavorisés ».
« (A propos de PISA) A la manière dont on l’utilise ici, je ne suis pas tout à fait d’accord. Et avec la grande
psycho-pédagogue de l’université de Liège qui pilote un peu tout maintenant dans l’enseignement, mais qui
pilote tout avec des théories et des thèses qui ne sont pas les miennes, elle met, pour moi, un biais. Donc, elle
est partie du postulat que les mauvais résultats sont le fruit d’un niveau socio-économique défavorisé et que si
on mettait plus sur ces enfants défavorisés, on aurait bon. Mais plus quoi ? Moi, je dis, ces mauvais résultats
sont le fruit d’une réflexion que nous devons mener sur la manière dont les apprentissages de base sont
suffisamment complets, conséquents et servis à tous les enfants quelque soit leur origine socio-économique.
Je ne pars pas avec un postulat de base comme elle le fait. Donc il y a un biais dans l’exploitation pour le
moment en Communauté française et ce biais, pour moi, évite et esquive depuis 4 ans la vraie question de la
pertinence de nos apprentissages de base ou de l’évolution de nos apprentissages de base. (…) Il y a dix ans,
il y a eu le décret mission (…) Ce décret mission base une grosse partie de l’apprentissage sur les socles de
compétence et sur les compétences. Beaucoup de gens commencent, et quand je dis gens, je prends le mot
gens exprès parce qu’il y a des chercheurs, il y a des « monsieur et madame tout le monde », il y a des gens
de terrain, donc je parle des instituteurs, j’ai entendu des échevins de l’enseignement, donc c’est très divers,
ils commencent à se poser la question de savoir dans quelle mesure les compétences se seraient substituées
trop vite aux savoirs. (…) Moi, je suis libérale et donc pour moi, a priori, tout le monde, en fonction de ses
compétences propres, peut accéder à la connaissance. Et l’obligation des pouvoirs publics, c’est de donner à
tout le monde les moyens d’accéder à la connaissance. (…) Tout le monde a cette possibilité et on n’a pas
comme présupposé que certains étant plus défavorisés au départ… (…) On a toujours eu la conviction qu’il
faut tirer vers le haut, le plus possible, avec une série de choses comme la remédiation immédiate, ne pas
laisser un échec s’installer, et là, on est vraiment en opposition avec un système qui est celui de cette majorité
de gauche, qui est un système beaucoup plus autoritaire, beaucoup plus interventionniste, qui fait plus
confiance à l’idéologie de ce qu’ils apportent qu’aux acteurs de terrain. » (un parlementaire MR d’opposition,
entretien)94
Cette controverse s’exprime aussi dans l’arène parlementaire, comme l’illustre l’extrait
suivant d’un débat entre le Ministre de l’enseignement socialiste et des parlementaires
libéraux juste après la diffusion des résultats du troisième cycle de PISA (2006) :
« M. Arena : (A propos de PISA) Depuis 2001, ce document dénonce et prouve l’inégalité de notre système
scolaire (…) L’étude Pisa le confirme. Notre système est inégalitaire, il crée des écoles ghettos.
J.-.P Wahl : La lecture de PISA n’est pas honnête, on y reviendra tout à l’heure.
(…)
A. Destexhe : (s’adressant au Ministre) Ce qui me dérange, c’est que, dans la présentation que vous avez faite
des résultats [lors de la conférence de presse], vous avez surtout donné l’impression que, finalement, le
problème concernait les 25% plus faibles. (…) Je voudrais attirer l’attention de cette assemblée sur le fait que
contrairement à ce qui est souvent dit, y compris dans la presse rapportant l’étude Pisa, il existe également des
différences considérables pour les bons et les très bons élèves. (…) Non seulement ces différences pour les
bons et les très bons élèves n’ont pas été assez soulignées, mais elles sont très inquiétantes pour l’avenir de la
Communauté. Pour être compétitif dans le monde actuel (…) J’aimerais donc vous entendre sur ces aspects-là
des choses qui n’a pas du tout été évoqué dans les comptes rendus de l’enquête Pisa. Je crois que votre lecture
de l’enquête de l’OCDE n’est pas tout à fait honnête. En parcourant le rapport [international], j’ai trouvé
différents éléments qui figuraient aussi dans les transparents utilisés lors de la présentation des résultats de
l’enquête [par la responsable de l’OCDE] (…) En ce qui me concerne, je lis les rapports de l’OCDE dans leur
totalité et pas uniquement les aspects qui m’arrangent. Dès le moment où l’on fait référence à cette enquête, il
faut avoir l’honnêteté de discuter de l’ensemble de ces constats même si on ne les approuve pas tous
nécessairement »
(M. Arena, à l’époque Ministre de l’enseignement PS ; J.-P Wahl, parlementaire MR, PCF, 11/12/2007,
pp. 36-37 ; A. Destexhe, MR, PCF, 11/12/07, p. 40)95
94
C’est nous qui soulignons.
95
C’est nous qui soulignons.
67
3.
PISA, savoir et pouvoir
Sans que cela soit explicité, il semblerait que la position du réseau d’enseignement
catholique, qui rappelons-le ne s’est pas exprimé dans la presse pendant la période que
nous avons analysée, soit comparable sur certains points à celle des libéraux (alors que
traditionnellement « l’allié politique » du réseau catholique était plutôt le parti sociochrétien, aujourd’hui le Centre démocrate humaniste, proche du « pilier catholique »
comme lui). Dans une de leur publication, un responsable du service d’étude du réseau
catholique déclare que le « principal problème du système éducatif en Communauté
française de Belgique est un problème d’efficacité » et renvoie à la maîtrise des
compétences de base :
« La comparaison entre les Pays-Bas et la CF est à ce titre éclairante: l'écart entre les plus forts et les plus
faibles y est pratiquement le même. Mais aux Pays- Bas, il se creuse par le haut: les élèves les plus faibles ont
des résultats supérieurs à la moyenne OCDE, et les élèves forts "cartonnent". En CF, l'écart se creuse par le
bas: les élèves les plus forts ont des résultats équivalents à la moyenne OCDE, tandis que les élèves les plus
faibles ont des résultats inférieurs à ceux de la moyenne OCDE. Le principal problème du système éducatif en
Communauté française de Belgique est donc bien un problème d'efficacité. En effet, on constate que les
systèmes éducatifs efficaces ont tendance à assurer, même aux plus faibles, la maitrise des compétences de
base, celles qui permettent de s'insérer dignement dans la société. » (J.-P. Degives, Entrées Libres, n°25,
janvier 2008, p. 17).
Les explications et les solutions : la société versus le système éducatif
(les acteurs / la structure / la régulation / la pédagogie)
Les débats qui ont eu lieu au sujet des résultats de PISA ne portent pas uniquement sur
les « problèmes » qu’il mettrait en évidence. Ils ont trait également aux explications que
PISA donnerait à ces problèmes, principalement l’inefficacité ou l’inéquité du système
éducatif. Les explications mises en avant et discutées sont en grande partie référées aux
analyses issues du traitement des données PISA ; elles ne le sont cependant pas toutes.
Pour expliquer les problèmes mis en évidence par les enquêtes PISA, les « causes »
avancées par les différents acteurs œuvrant dans le champ scolaire sont nombreuses et
variées. On peut néanmoins les regrouper, dans un premier temps, selon deux grandes
catégories, selon qu’elles remettent en cause le fonctionnement de la société dans son
ensemble ou le système éducatif. Les explications impliquant le système éducatif sont les
plus nombreuses et occupent le plus de place dans le débat sur PISA. Parmi celles-ci, on
peut distinguer quatre sous-catégories, selon qu’elles impliquent les acteurs du système
(enseignants, directeurs d’école, élèves, écoles), les structures et le fonctionnement du
système éducatif (structuration en filière d’enseignement, moment du choix et de
l’orientation scolaires…), le mode de régulation du système éducatif (par les pouvoirs
publics,
les
pouvoirs
organisateurs,
le
marché, etc.) ou des
questions
d’ordre
pédagogique (contenus et manières de donner cours). Ces différentes explications sont
souvent mises en concurrence et, comme nous allons le voir, elles s’inscrivent dans le
contexte socio-éducatif et les clivages politico-éducatifs propres à la CFB. Elles prennent
aussi sens par rapport à des propositions politiques préexistantes qu’elles contribuent
également à alimenter. Nous verrons que les différentes explications vont de pair avec
68
3.
PISA, savoir et pouvoir
des propositions différentes quant aux « solutions » à apporter pour remédier aux
problèmes identifiés. Enfin, on peut soulever une certaine évolution dans les explications
avancées : ainsi, on observe que les explications d’ordre pédagogique et celles
impliquant les acteurs du système éducatif ont surtout été discutées lors des débats sur
les résultats du premier cycle PISA (2000). A partir des deuxième et troisième cycles de
PISA (2003 et 2006), elles vont davantage renvoyer à la structuration du système
éducatif et à son mode de régulation.
Les facteurs socio-économiques
Plusieurs personnes évoquent régulièrement des raisons socio-économiques pour
expliquer le « faible niveau » des élèves ou le manque d’équité du système éducatif. En
premier lieu, le faible niveau des élèves serait le reflet en quelque sorte du faible niveau
socio-économique de la partie francophone du pays : Pisa serait « le miroir de la
morosité wallonne liée à son économie en sommeil »96, les jeunes élèves francophones
auraient « du mal à investir dans un effort de scolarisation » car ils auraient « du mal à
se projeter dans l’avenir » étant donnée « l’économie mal au point »97. « La pauvreté et
la précarité d’emploi » en Wallonie ont un impact sur le rapport à l’école des élèves via
les « espoirs déçus des parents d’atteindre une promotion sociale via l’école »98. Ce type
d’explication est en particulier évoqué pour expliquer les différences de résultats entre la
Communauté française et la Communauté flamande (décrite comme une région
performante et florissante)99.
« (Comment expliquez-vous les mauvaises performances des élèves francophones?) Cela renvoie au
fonctionnement de la société et de l'économie, mal en point en Communauté française. Les jeunes générations
ont du mal à se projeter dans l'avenir. Et donc à investir beaucoup dans un effort de scolarisation ».
(V. Vandenberghe, docteur en économie, chercheur à l’UCL, La Libre, 04/12/01) – Cette explication sera
reprise plus tard par M. Arena, à l’époque Ministre de l’enseignement PS (cf. PCF, 11/03/2008, pp. 27-28).
« A qui le bonnet d'âne ? Haro sur... Sur qui ? Pisa, c'est un miroir. Et pas seulement de nos pratiques
scolaires. Les élèves flamands cartonnent parce que la Flandre cartonne. Leurs performances scolaires sont
celles d'enfants d'une région performante, à l'économie victorieuse. Et nos résultats, côté francophone, sont
ceux d'une région globalement déprimée, à l'économie en sommeil. (…) l'école est toujours le miroir de son
environnement. Et le nôtre est morose. C'est d'abord ça, Pisa : le reflet d'un environnement, d'une globalité.
C'est dire qu'il y a, côté francophone, un défi d'ensemble - scolaire, mais aussi social, culturel, industriel,
économique. » (Le Soir, 08/12/04)
Dans cette optique, le sous-financement de la Communauté française et par conséquent
de son enseignement est également avancé par plusieurs personnes pour expliquer les
96
Selon un journaliste du Soir, 08/12/04.
97
V. Vandenberghe, docteur en économie, chercheur à l’UCL, La Libre, 04/12/01.
98
N. Hirtt, membre du mouvement pédagogique l’APED, Le Soir, 06.12.01.
99
Cf. M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 11/03/2008, pp. 27-28
69
3.
PISA, savoir et pouvoir
mauvais résultats de la CFB à PISA100 : les restrictions budgétaires ont un impact sur le
nombre d’enseignants par élève101, elles « ne stimulent pas le recrutement d’enseignants
compétents et motivés » (étant données la charge horaire plus lourde et le salaire plus
bas)102, elles rendent les conditions d’enseignement plus difficiles (augmentation des
effectifs de classe, diminution des heures de rattrapage, …)103.
« Le journaliste : En lisant l'enquête de l'OCDE, on se dit qu'il n'y a pas forcément de lien entre les
performances scolaires d'un pays et l'argent que celui-ci investit dans son système scolaire. M. Vrancken : Si,
il y a un lien! (…) Si on lit bien l'enquête OCDE, on devrait mettre 30 % des élèves en «D +» [écoles en
discrimination positive]. Et si on voulait relever tout le peloton, il faudrait monter à 70 %! (…) C'est ça que
nous dit l'OCDE! » (P. Bouillon, journaliste et M. Vrancken, Président de la CGSP Enseignement, syndicat
d’enseignants socialiste, Le Soir, 18/02/2002)
Enfin,
parmi
les
explications
socio-économiques,
certains
mettent
en
avant
la
« dualisation de la société » pour expliquer le manque d’équité du système éducatif.
Cette explication est avancée par les parlementaires libéraux104 et les représentants du
réseau d’enseignement catholique et semble s’inscrire dans une argumentation plus
générale accordant davantage de place à la problématique de l’efficacité qu’à celle de
l’équité et à une régulation du système éducatif privilégiant l’autonomie des pouvoirs
organisateurs. C’est ce que laisse supposer le dernier extrait suivant, qui reprend les
propos du responsable du réseau d’enseignement catholique. Nous reviendrons plus loin
sur la question de la régulation du système scolaire.
« Dans la mesure où l’écart entre les plus forts et les plus faibles est important, nous sommes tous interpellés.
Notre enseignement constitué sur des bases égalitaires, à quelques détails près, devient inégalitaire par ses
résultats. (…) Je suis convaincu que c’est la dualisation de la société (…) qui trouve son reflet dans notre
enseignement. » (M. Neven, parlementaire MR, PCF, 15/12/2004, p. 19).
« Si l’école contribue insuffisamment à réduire les inégalités qui sont produites dans la société, le système
d’enseignement se présente d’abord come le reflet de la société dans laquelle il s’insère. (…) C’est la société
duale qui produit l’école duale, et non l’inverse » (E. Michel, directeur général du SeGEC, Secrétariat général
de l’enseignement catholique, Entrées Libres, n°19, mai 2007, p. 7)
« En Communauté française, a rappelé Étienne Michel (…), 30% des jeunes n'acquièrent pas une maitrise de
la lecture suffisante pour construire des compétences solides dans d'autres disciplines. (…) Cela pose
évidemment des questions sur l'efficacité et l'équité de notre système scolaire. Mais, interroge le directeur
général du SeGEC, le système éducatif n'est-il pas le reflet de la société qui l'entoure? Depuis 30 ans, la
100
CF. les propos de P. Hazette, à l’époque Ministre de l’enseignement, PRL, rapportés dans la La Libre,
04/12/01.
101
Cf. H. Wittorski, président de l’Ufapec, association des parents de l’enseignement libre, La Libre, 05/12/01 ;
Le Soir, 08/12/04 ; Le Soir, 08/12/04b.
102
N. Hirtt, membre du mouvement pédagogique l’APED, Le Soir, 06.12.01.
103
N. Hirtt, membre du mouvement pédagogique l’APED, Le Soir, 06.12.01 ; M. Vrancken, Président de la CGSP
Enseignement, syndicat d’enseignants socialiste, Le Soir, 18/02/2002.
104
Cf. M. Neven, parlementaire MR, PCF, 15/12/2004, p. 19 ; M. Neven, parlementaire MR, PCF, 21/06/2005,
p. 49.
70
3.
PISA, savoir et pouvoir
Wallonie s'est profondément dualisée sur les plans économique, social et culturel. (…) l'enseignement
qualifiant n'est pas par définition une filière de relégation. En Flandre, par exemple, plus souvent qu'en
Communauté française, il fait l'objet d'un "premier choix". Ne faudrait-il pas, dès lors, à l'opposé du
raisonnement relatif aux bassins scolaires, conjuguer davantage mobilité sociale, géographique et scolaire? Et
si les enquêtes internationales montrent que les systèmes scolaires laissant beaucoup d'autonomie aux acteurs
(particulièrement dans la gestion des ressources humaines) sont les plus efficaces, ne conviendrait-il pas aussi
d'imaginer un modèle de gouvernance qui s'articule sur trois principes: régulation, responsabilisation,
évaluation? Autrement dit: définir des objectifs en termes d'efficacité et d'équité, évaluer la mesure dans
laquelle ils sont atteints, mais aussi parier sur la capacité d'acteurs individuels et collectifs d'exercer leurs
responsabilités. Ce qui suppose de leur reconnaitre un espace d'autonomie suffisant… » (Propos de E. Michel,
directeur général du SeGEC, Secrétariat général de l’enseignement catholique, rapporté par M.-N.
Lavenfosse, Entrées Libres, n°8, avril 2006, p. 21)
Les acteurs du système éducatif
Parmi les explications avancées, certaines impliquent les acteurs du système éducatif, en
particulier les enseignants et les élèves. En ce qui concerne les enseignants, surtout lors
de la diffusion des résultats du premier cycle de PISA (2000), outre leurs conditions de
travail rendues difficiles en raison du sous-financement de la CFB que nous venons
d’évoquer, certains mettent en avant la « démoralisation » du corps enseignant,
consécutive aux pertes d’emploi et aux grèves des années 1990, comme l’une des causes
des mauvais résultats du premier cycle de PISA (2000)105. Cependant, le principal
discours concernant les enseignants et qui prendra de l’ampleur à partir de la diffusion
des résultats du deuxième cycle de PISA (2003), affiche plutôt la volonté de « ne pas
responsabiliser » les enseignants et leur enseignement, en réaffirmant la « qualité de
leur travail » face à un traitement médiatique perçu comme les stigmatisant106. Dans
cette optique, certains proposent de promouvoir une professionnalisation des enseignants
et une revalorisation de leur statut107.
« Ce document ne doit pas servir à cibler les enseignants comme responsables. » (P. Hazette, à l’époque
Ministre de l’enseignement, PRL, propos rapportés par Le Soir, 05/12/01)
« Nous avions jadis la conviction d’être doté d’un enseignement de qualité. Ce ne serait plus le cas. J’emploie
le conditionnel car personnellement, je considère que notre corps professoral est de qualité. » (M. Neven,
parlementaire MR, PCF, 15/12/2004, p. 19)
« Nous nous sommes également rendu compte qu’il faut délivrer un message encourageant et ces difficultés
ne sont pas dues à la qualité des enseignants. Nous avons des enseignants de qualité » (M. Arena, à l’époque
Ministre de l’enseignement, PS, PCF, 11/01/2005, pp. 3-4)
105
CF. les propos de P. Hazette, à l’époque Ministre de l’enseignement, PRL, rapportés dans La Libre,
04/12/01 ; Le Soir, 11/12/01 ; G.Legros, professeur de linguistique aux FNDP, Le Soir, 08/12/04c.
106
Cf. M. Neven, parlementaire MR, PCF, 15/12/2004, p. 19 ; L. Walry, parlementaire PS, PCF, 11/01/2005,
p. 3, M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 11/01/2005, pp. 3-4 ; V. Jamoulle,
parlementaire PS, PCF, 11/12/2007, p. 43 ; Y. Reinkin, parlementaire Ecolo, PCF, 11/12/07, p. 44 ; A-M
Corbisier-Hagon, parlementaire CdH, PCF, 11/12/07, p. 45.
107
C. Leleux, Maître-assistante aux Hautes Ecoles de Bruxelles, Le Soir, 05/12/01 ; P. Piret, maître-assistant en
psychopédagogie, Le Soir, 20/12/01.
71
3.
PISA, savoir et pouvoir
« A chaque enquête PISA, les enseignants se sentent stigmatisés car la presse se plaît à sous-entendre que
l’enseignement ne serait pas bien donné. Or nous savons qu’ils ne sont pas responsables en tant que tels (…)
c’est tout le système qui doit être réformé » (Y. Reinkin, parlementaire Ecolo, PCF, 11/12/07, p. 44)
Certains évoquent également l’attitude des élèves à l’égard de leurs études et leur
rapport à l’école : un rapport «instrumental » uniquement intéressé par « les points »108,
un « rapport consumériste » centré sur le « seul souci de décrocher le diplôme »109 ou
une « culture du refus de l’effort »110. Dans cette perspective, on retrouve alors tout un
discours sur le fait « qu’il faut réhabiliter l’effort, le travail, la rigueur et l’autorité »111.
La pédagogie
Lors des discussions sur les résultats des enquêtes PISA, des explications d’ordre
pédagogique ont aussi été avancées, surtout lors de la diffusion des résultats du premier
cycle de PISA (2000), telles que la mauvaise qualité de l’enseignement des matières
évaluées112, le trop petit nombre d’heures de cours consacrées aux matières évaluées113,
la trop faible place occupée par la lecture dans l’enseignement114 ou son mauvais mode
d’enseignement115 tenus responsables des mauvaises performances dans les autres
matières, ou encore l’apprentissage basé sur la pédagogie par socles de compétences116.
108
J. Lefère, Conseil PO provinces et communes, Le Soir, 06/12/01.
109
J-M. Ferry, professeur de philosophie à l’ULB, Le Soir, 06/12/01.
110
P. Hazette, à l’époque Ministre de l’enseignement, PRL, PCF, 11/12/2001, p. 15 ; M. Neven, MR, PCF,
15/12/2004, p. 19.
111
112
P. Hazette, à l’époque Ministre de l’enseignement, PRL, propos rapporté par Le Soir, 05/12/01.
CF. P. Piret,
maître-assistant
en
psychopédagogie, Le Soir,
20/12/01 ;
J.-M.
Braibant, Conseiller
pédagogique à l'UCL et F.-M. Gérard, Directeur adjoint du Bureau d'ingénierie en éducation et en formation, Le
Soir, 20/12/2001 ; PCF, 09/04/2008b, p. 6 ; C. Petitjean, parlementaire FN, PCF, 22/04/2008, p. 14).
113
Le Soir, 04/12/07d.
114
P. Hazette, à l’époque Ministre de l’enseignement, PRL, propos rapportés dans Le Soir, 05/12/01 ; Le Soir, 11/12/01 ; J. Lefère, Conseil
PO provinces et communes, Le Soir, 06/12/01 ; M. Neven, MR, PCF, 15/12/2004, p. 19 ; P. Hazette, Ministre, PRL, 11/12/2001, p. 15 ; P.
Charlier, PSC, 11/12/2001, p. 15.
115
J.-M. Braibant, Conseiller pédagogique à l'UCL et F.-M. Gérard, Directeur adjoint du Bureau d'ingénierie en
éducation et en formation, Le Soir, 20/12/2001 ; G. Legros, professeur de linguistique aux FNDP, Le Soir,
08/12/04c.
116
Cf. L. Walry, parlementaire PS, PCF, 21/06/2005, p. 42 ; Destexhe, parlementaire MR, PCF, 11/03/2008,
p. 27, l’APED, Le Soir, 06/12/2001 ; J-M. Ferry, professeur de philosophie à l’ULB, Le Soir, 06/12/01.
72
3.
PISA, savoir et pouvoir
Les solutions envisagées concernent alors l’amélioration de l’enseignement des matières
évaluées et en particulier un « recentrage sur les savoirs de base »117.
« Contrairement à une opinion fort répandue (relayée par la ministre Françoise Dupuis dans l'édition du
«Soir» du 6 décembre), cette hétérogénéité n'est pas liée uniquement à des différences de recrutement des
élèves, mais aussi à l'inégale qualité de l'enseignement de la lecture tel qu'il est dispensé dans les classes. Sans
nier l'importance d'autres facteurs, il apparaît clairement que le niveau d'acquisition de la lecture est
déterminé en bonne partie par les pratiques et par la méthode d'enseignement utilisées par l'enseignant. (…) la
situation des élèves ayant appris à lire à partir d'une approche fonctionnelle de la lecture est particulièrement
alarmante. Le pourcentage d'élèves (très) faibles y est très élevé, particulièrement pour les enfants issus de
milieux socio-linguistiquement défavorisés. De plus, cette pratique est généralement associée à une grande
dispersion des résultats entre les élèves. Tout se passe comme si cette approche contribuait à augmenter les
différences interindividuelles entre les élèves d'une même classe. (…) (J.-M. Braibant, Conseiller
pédagogique à l'UCL et F.-M. Gérard, Directeur adjoint du Bureau d'ingénierie en éducation et en formation)
Relevons que ces explications d’ordre pédagogique occupent une place mineure dans le
débat sur PISA et sont le plus souvent exprimées par des acteurs ayant un rapport avec
la
psychopédagogie
(comme
conseiller
pédagogique,
formateur
d’enseignant
ou
professeur dans le supérieur).
Les structures du système éducatif
Excepté le discours remettant en cause l’apprentissage basé sur les compétences, les
explications d’ordre pédagogique et celles impliquant les enseignants ou les élèves
étaient surtout présentes lors des débats sur les résultats du premier cycle PISA (2000).
A partir des deuxième et troisième cycles de PISA (2003 et 2006), elles vont davantage
renvoyer à la structuration du système éducatif et à son mode de régulation.
Les explications qui remettent en cause la structuration du système éducatif sont plus
souvent
exprimées
universitaires
118
par
des
acteurs
politiques
socialistes
ou
des
chercheurs
et pointent, le plus souvent dans un même discours, de nombreux
dysfonctionnements. Elles remettent en particulier en cause les formes de relégation du
système éducatif liées à sa structuration en filières119 ; l’homogénéité des classes et des
écoles, ou leur manque de mixité120 ; les pratiques de sélection d’élèves par les écoles ou
117
Cf. JP Wahl, parlementaire PRL-FDF-MCC, PCF, 11/12/2001, p. 9 ; M. Arena, à l’époque Ministre de
l’enseignement, PS, PCF, 13/12/04, p. 32, PCF, 11/01/2005, p. 4 et PCF, 26/01/2005, p. 9; M. Neven,
parlementaire MR, PCF, 15/12/2004, p. 19.
118
119
V. Dupriez, chercheur en sciences de l’éducation à l’UCL, Le Soir, 08/12/2004f.
La Libre, 07/12/2004 ; Le Soir, 07/12/04 ; Le Soir, 08/12/04 ; F. Dupuis, Ministre de l’Enseignement
Supérieur et de la Recherche scientifique, PS, PCF, 24/04/2002, pp. 33-34 ; G.Legros, professeur de
linguistique aux FNDP, Le Soir, 08/12/04c ; PCF, 25/01/2005, p. 12.
120
Le Soir, 07/12/04 ; Le Soir, 07/12/04c ; C. Dupont, Ministre de l’enseignement, PS, PCF, 03/06/2008, p. 7
et p. 21 ; M. Cheron, Ecolo, PCF, 10/12/2007, p.20.
73
3.
de
réorientation
redoublement
122
vers
d’autres
établissements121 ;
la
PISA, savoir et pouvoir
« pratique
intensive »
; et, enfin, le moment de l’orientation scolaire jugé trop précoce
du
123
. Ce
type d’explication est souvent mis en opposition avec les explications de type
pédagogique :
« Vous savez tous ce je pense de cette enquête OCDE. Elle interpelle moins nos méthodes pédagogiques,
quoiqu’il faille quand même y réfléchir, que la structure de notre enseignement dans ce qu’elle a trop de
complaisance, elle est trop tolérante vis-à-vis de formes de relégation qui sont dangereuses : dispersion des
réseaux, options multiples, systèmes qui aboutissent à des orientations vers des filières frappées de
dévalorisation, mobilité outrancière. » (F. Dupuis, Ministre de l’Enseignement Supérieur et de la Recherche
scientifique, PS, PCF, 24/04/2002, pp. 33-34)
Ces explications s’appuient souvent sur la mise en perspective du fonctionnement du
système éducatif en CFB avec celui d’autres pays ayant obtenus de meilleurs résultats et
qui sont invoqués à titre « d’autres meilleures manières de faire montrées par PISA » :
« Notre école francophone, et l'enquête Pisa le dit, elle le confirme, se singularise par un fossé énorme - et
humainement inacceptable - entre un petit peloton d'élèves confortablement scolarisés et brillants (ceci
expliquant sans doute cela), et une poche d'élèves à la traîne, confinés dans des écoles aux pauvres moyens
(ceci expliquant assez cela aussi). Ce qui est en accusation, ici, surtout, c'est ce système qui fait que l'élève en
difficulté est rarement soigné, épaulé, soutenu : on l'évacue. On le sort de l'enseignement général pour le
dévier vers l'école technique ou professionnelle, avant de le faire glisser vers l'apprentissage en entreprise - le
dernier palier de ce qu'on appelle « l'effet toboggan ». (…) Pisa montre que certains pays pratiquent tout
autrement sans que leurs performances soient affectées - du tout. Il n'y a pas, là, au secondaire, ces éventails
de filières et d'options qui, chez nous, servent à trier et dévier (…) » (Le Soir, 08/12/04)
Ces explications sont proches de celles produites par le NPM et les chercheurs du SPE
qui, comme nous l’avons vu, mettent en avant les problèmes d’inefficacité et surtout
d’inéquité et les expliquent en remettant en cause les structures du système éducatif en
CFB : le taux élevé de redoublement, la hiérarchie entre les filières d’enseignement, la
ségrégation du système éducatif en fonction du milieu social et ethnique.
121
F. Dupuis, à l’époque Ministre de l’Enseignement supérieur, PS, propos rapporté par La Libre, 09/12/01 ;
F. Dupuis, à l’époque Ministre de l’Enseignement supérieur, PS, propos rapporté par Le Soir, 06/12/01 ;
M. Arena, à l’époque Ministre de l’enseignement, PS, PCF, 11/01/2005, p. 4 ; PCF, 25/01/2005, p. 12 et p. 40.
122
La Libre, 07/12/2004, Le Soir, 07/12/04a, Le Soir, 07/12/04b, Le Soir, 08/12/04 ; Le Soir, 07/12/04c ;
P. Hazette, à l’époque ministre de l’enseignement secondaire PRL, propos rapporté dans La Libre, 04/12/01 ;
P. Hazette, à l’époque ministre de l’enseignement secondaire PRL, propos rapporté dans Le Soir, 05/12/01 ;
F. Dupuis, à l’époque Ministre de l’Enseignement supérieur, PS, propos rapporté La Libre, 05/12/01 ; F. Dupuis,
à l’époque Ministre de l’Enseignement supérieur, PS, propos rapporté par Le Soir, 06/12/01 ; PCF, 25/01/2005,
p. 12 ; Y. Reinkin, Ecolo, PCF, 20/05/2008b, p. 5 ; C. Dupont, Ministre, PS, PCF, 03/06/2008, p. 21 ;
V. Dupriez, chercheur en sciences de l’éducation à l’UCL, Le Soir, 08/12/2004f.
123
Le Soir, 07/12/04c ; F. Dupuis, à l’époque Ministre de l’Enseignement supérieur, PS, propos rapporté par La
Libre, 05/12/01 ; V. Dupriez, chercheur en sciences de l’éducation à l’UCL, Le Soir, 08/12/2004f.
74
3.
PISA, savoir et pouvoir
Dans cette perspective, les « solutions » avancées pour remédier aux problèmes
d’inéquité et d’inefficacité mis en évidence par PISA sont : l’allongement du tronc
commun124, la promotion de la mixité sociale dans les classes et les écoles125, le
développement de la remédiation à la place des pratiques de redoublement126. Ces
propositions prennent souvent sens et place par rapport à des projets politiques préexitants aux résultats des enquêtes PISA comme nous le verrons dans la section suivante
(point 3.3.). Ces solutions sont souvent présentées comme inspirées par le système
éducatif de pays mieux classés par PISA, en particulier les pays scandinaves (comme la
Finlande127 ou la Suède128), ou de pays qui étaient mal classés et qui ont introduit de
telles réformes comme la Pologne129.
« Si l’on compare les élèves en fonction du classement en sciences, les jeunes Finlandais ont presque « un an
d’avance par rapport au reste des pays de l’OCDE », selon Eric Charbonnier, analyste à la direction de
l’éducation de l’OCDE. Les pays les plus performants se caractérisent par « un nombre élevé de bons élèves,
un nombre peu élevé d’élèves en difficulté, des systèmes éducatifs équitables, pas forcément parmi les plus
dépensiers, n’ayant pas de système d’orientation précoce », et où la qualité de l’enseignement est quasiment
homogène quel que soit l’établissement, selon l’OCDE ». (Le Soir, 04/12/07e)
« C’est l’intérêt des études de type PISA, des comparaisons entre divers types d’écoles ou d’élèves sont
possibles. On peut donc tenter de comparer les pays en fonction du système éducatif et essayer d’isoler les
choix politiques les plus favorables et les plus pertinents (…) C’est ainsi que toute la communauté
scientifique internationale, OCDE en tête, défend aujourd’hui l’établissement d’un tronc commun de
matières, au moins jusqu’à l’âge de 14 ans. De même, elle préconise la mixité sociale dans tous les
établissements scolaires (C. Dupont, Ministre, PS, PCF, 03/06/2008, p. 6)
Ces « solutions » ne font évidemment pas consensus parmi les acteurs œuvrant dans le
champ scolaire en CFB et elles sont vivement critiquées par certains acteurs.
124
Association de parents contre l'échec scolaire, propos rapporté par La Libre, 04/12/07b ; M. Arena, à
l’époque Ministre de l’enseignement, PS, PCF, 11/01/2005, p. 4 ; M. Arena, à l’époque Ministre de
l’enseignement, PS, PCF, 11/12/07, p. 38 ; M. Arena, à l’époque Ministre de l’enseignement, PS, PCF,
11/12/07, p. 48 ; C. Dupont, Ministre de l’enseignement, PS, PCF, 03/06/2008, p. 6.
125
V. Dupriez, chercheur en sciences de l’éducation à l’UCL, Le Soir, 08/12/2004f ; C. Maroy, chercheur en
sociologie à l’UCL, Le Soir, 12/12/2007 ; F. Dupuis, à l’époque Ministre de l’Enseignement supérieur, PS, propos
rapporté par La Libre, 05/12/01 ; V. Jamoulle, parlementaire PS, PCF, 11/12/2007, p. 42 ; A-M CorbisierHagon, parlementaire CdH, PCF, 11/12/07, p. 45.
126
C. Leleux, Maître-assistante aux Hautes Ecoles de Bruxelles, Le Soir, 05/12/01 ; Association de parents
contre l'échec scolaire, propos rapporté par La Libre, 04/12/07b.
127
Association de parents contre l'échec scolaire, propos rapporté par La Libre, 04/12/07b ; La Libre,
05/12/07 ; Le Soir, 5/12/2007d.
128
V. Dupriez, , chercheur en sciences de l’éducation à l’UCL, Le Soir, 08/12/2004f.
129
Le Soir, 05/12/2007b ; La Libre, 06/12/2007.
75
3.
PISA, savoir et pouvoir
L’organisation de classes hétérogènes, par exemple, est présentée comme un « vœu
pieu », « impraticable pour le terrain » (les enseignants)130. D’autres, comme certains
responsables du réseau d’enseignement catholique, prônent des « approches plus
limitées » que de « grands projets de réforme structurelle »131. D’autres enfin, comme
les libéraux, expriment l’inquiétude que de telles mesures aboutissent à un « nivellement
par le bas » et opposent à de telles solutions une régulation du système éducatif basée
sur l’autonomie des établissements. C’est ce que nous allons voir maintenant.
La régulation du système éducatif
Un dernier type d’explication avancé pour rendre compte des problèmes mis en évidence
par PISA renvoie au mode de régulation du système éducatif. En particulier, ce qu’on
pourrait décrire comme les caractéristiques d’une régulation basée sur le marché sont
tantôt présentées comme une cause au problème d’inéquité (la concurrence entre les
écoles, voire la liberté de choisir son école), tantôt comme une solution au problème
d’inefficacité (l’autonomie des écoles). Ces deux points de vue opposés sont défendus par
des parlementaires s’appuyant tous sur les rapports de PISA : dans le premier cas, plutôt
sur les rapports nationaux ; dans le second, plutôt sur les rapports internationaux. Cette
divergence renvoie en grande partie au clivage déjà soulevé entre, d’une part, les
parlementaires socialistes et écologistes, et, d’autre part, les parlementaires libéraux.
Ainsi, les parlementaires libéraux132, mais aussi des parlementaires sociaux-chrétiens à
l’époque du premier cycle de PISA (2000)133, certains chercheurs universitaires (en
économie)134 et dans une certaine mesure les responsables du réseau d’enseignement
catholique135, présentent le manque d’autonomie des établissements scolaires comme un
facteur expliquant l’inefficacité du système éducatif. Si ces différents acteurs se
rejoignent pour défendre l’autonomie, ils le font vraisemblablement pour des raisons
130
131
La Libre, 09/12/01.
E. Michel, directeur général du SeGEC, Secrétariat général de l’enseignement catholique, Entrées Libres,
n°19, mai 2007, p. 8.
132
A. Destexhe, parlementaire MR, PCF, 11/12/07, p. 41 et p. 49 ; W. Borsus, parlementaire MR, PCF,
03/06/2008, p.6.
133
A. Antoine, parlementaire PSC, PCF, 11/12/2001, p. 44.
134
V. Vandenberghe, docteur en économie, UCL, La Libre, 04/12/01 ; R. Deschamps, professeur en économie
aux FUNDP, entretien dans La Libre, 11/02/2008.
135
Entrées Libres, n°8, avril 2006, p. 21 ; Entrées Libres, n°19, mai 2007, pp. 2-3 ; J.-P. Degives, Entrées Libres, n°25, janvier 2008, p. 17.
Plus précisément, les dirigeants du réseau d’enseignement libre plaident pour une « gouvernance plus locale » basée sur une « régulation par
un Etat évaluateur » et qui « articule régulation, responsabilisation, évaluation » : où les objectifs en termes d’efficacité et d’équité sont
définis et mesurés tout en « pariant sur la capacité d’acteurs individuels et collectifs d’exercer leurs responsabilités », supposant de leur
« reconnaître un espace d’autonomie suffisant » (Entrées Libres, n°8, avril 2006, p. 21 ; J.-P. Degives, responsable du service d’étude du
réseau d’enseignement catholique, entretien).
76
3.
PISA, savoir et pouvoir
différentes. Les libéraux et les économistes lient la concurrence et l’efficacité, alors que la
position des acteurs du réseau d’enseignement catholique doit davantage se comprendre
comme inscrite dans l’histoire longue des relations entre l’Etat et la société civile
organisée. Selon ces différents acteurs, pour améliorer les performances des élèves, les
enquêtes PISA suggèreraient donc d’assurer une autonomie aux établissements, en
particulier à l’égard des budgets de fonctionnement et du recrutement des enseignants,
voire même une certaine publicité des résultats des écoles, une « dose de concurrence »
et des « standards de performances basés sur des évaluations externes »136. Ils
critiquent alors la « régulation top-down, bureaucratique, par décrets » qui impose « de
haut vers le bas ses visions sur l’école » et qui serait mise en œuvre par les socialistes au
pouvoir et soutenue par les écologistes davantage attentifs à restaurer l’équité du
système137. Dans cette perspective, ce ne sont plus les pays scandinaves qui sont cités
comme
modèles
à
suivre,
mais
les
Pays-Bas
ou
la
Flandre.
L’autonomie
des
établissements est ainsi avancée comme l’une des raisons expliquant les meilleurs
résultats de la Communauté flamande par rapport à celle de la Communauté française138.
A l’opposé, se positionnant principalement face aux libéraux, plusieurs acteurs, dont les
parlementaires socialistes et écologistes, certains chercheurs universitaires ainsi que
certaines associations de parents et le mouvement pédagogique « l’APED », énoncent
parmi les explications aux inégalités des résultats entre élèves et écoles « l’autonomie
des écoles jointe à la liberté de choix des parents faisant de l’enseignement un semimarché »139 ainsi que la concurrence à laquelle se livrent les écoles140. En particulier, la
« liberté totale » qu’ont les élèves de s’inscrire dans l’école qu’ils souhaitent est mise en
136
137
A. Destexhe, sénateur MR, propos rapporté par a Libre, 04/12/07b.
Selon les propos d’un responsable du service d’étude du réseau d’enseignement catholique et d’un
parlementaire libéral, tenus lors d’entretiens.
138
P. Hazette, à l’époque Ministre de l’enseignement, PRL, propos rapporté par La Libre, 04/12/01 et Le Soir,
05/12/01.
139
N. Hirtt, membre du mouvement pédagogique l’APED, Le Soir, 06.12.01 ; P. Schwarzenberger, vice-
président de la Fédération des associations de parents d’élèves de l’enseignement officiel, Le Soir,
08/12/2004h.
140 F. Dupuis, à l’époque Ministre de l’enseignement supérieur, PS, propos rapportés par La Libre, 05/12/01 ;
F. Dupuis, à l’époque Ministre de l’enseignement supérieur, PS, Le Soir, 06/12/01. ; M. Arena, à l’époque
Ministre de l’enseignement, PS, PCF, 11/01/2005, p. 4 ; V. Jamoulle, parlementaire PS, PCF, 11/12/2007,
p. 42.
77
3.
PISA, savoir et pouvoir
avant comme un « facteur favorisant le clivage social »141. Certains proposent alors une
certaine régulation du choix de l’école par les parents au sein de « bassins scolaires »142.
Pour appuyer leur argumentation, les défenseurs d’une régulation du système éducatif
basée sur une plus grande autonomie des écoles citent non pas les rapports nationaux de
PISA, mais bien les rapports internationaux de l’OCDE, les propos de responsables de
l’OCDE, les travaux réalisés par certains chercheurs universitaires à partir de la base de
données PISA ou d’autres études de l’OCDE, ou encore leur propre travail réalisé à partir
de la base de données PISA. Ceux qui critiquent la régulation basée sur l’autonomie ont
plutôt tendance à s’appuyer sur les rapports nationaux. Il est intéressant à ce propos de
constater le « jeu de citations » qu’il peut y avoir dans l’arène médiatique ou politique,
chacun citant des sources différentes sur PISA pour appuyer des positions divergentes :
« A. Antoine (PSC) : Je ferais volontiers mienne l’approche de Vincent Vandenberghe de l’UCL qui résume
en une belle formule ce que nous devrions faire (…) : donner de l’autonomie aux établissements et la troquer
contre une évaluation de leurs résultats. Monsieur Nollet, je vous l’ai dit, nos amis néerlandophones ont
introduit un système d’audit.
(…)
J.-M. Nollet (écolo) : (…) Vous avez cité M. Vincent Vandenberghe (…) j’ai justement lu un article de
Vincent Vandenberghe, intitulé « Efficacité, équité dans l’enseignement : quelles relations ? ». (…) Se basant
sur une étude de l’OCDE de 1995, il insiste sur un des critères d’explication du système belge – l’article vient
d’être publié dans Reflets et perspectives de la vie économique – et dit : « Le problème, c’est la présence de
classes et d’établissements de plus en plus homogènes. » Au regard de cela, l’objectif devrait être orienté vers
l’établissement de classes et d’écoles de plus en plus hétérogènes. Voilà un enjeu fondamental pour le
pilotage (…) »
(A. Antoine, parlementaire PSC, PCF, 11/12/2001, p. 44 et J.M. Nollet, à l’époque Ministre de l’Enfance
chargé de l’Enseignement fondamental, de l’Accueil et des Missions confiées à l’ONE, Ecolo, PCF,
11/12/2001, pp.44-45).
Comme le relève un article de presse, le « même indicateur peut donner lieu à des
interprétations » différentes, en parlant des propos tenus par B. Ischinger, directrice du
Directorat pour l’Education de l’OCDE, lors de la conférence de presse à l’occasion de la
sortie des résultats du troisième cycle de PISA (2006), qui vantent l’autonomie des
écoles et la concurrence :
« Un même indicateur peut donner lieu à interprétations. Des sept cents pages bien denses du rapport 2007,
Barbara Ischinger, directrice du Directorat pour l’Education, conclut, plus politiquement, sur les effets de
l’autonomie des écoles. Laisser à l’école l’autonomie de sélectionner elle-même les professeurs de son équipe
pédagogique améliore de 41 % l’efficacité de l’école, dit-elle. Et tenir compte d’évaluations externes dope les
résultats de 46 %. « Combinés, ces deux critères atteignent 63 % d’amélioration de la performance. »
Conclusion explicite : « Il faut laisser aux écoles la liberté d’utiliser des incitants financiers, salariaux ou
autres, afin d’attirer les meilleurs profs dans les écoles en difficulté. Et laisser agir la concurrence.» » (Le
Soir, 05/12/07c)
141
142
G. Legros, professeur de linguistique aux FNDP, Le Soir, 08/12/04c.
J.-M. Nollet, à l’époque Ministre de l’enseignement fondamental, propos rapporté dans La libre,
9/12/2001C ; Maroy, chercheur en sociologie à l’UCL, Le Soir, 12/12/2007.
78
3.
PISA, savoir et pouvoir
Ces propos tenus par la directrice du Directorat pour l’Education de l’OCDE seront
débattus au sein du Parlement de la CFB. Ils seront l’occasion pour le Ministre de
l’enseignement socialiste de l’époque d’affirmer une certaine distance à l’égard de l’usage
des recommandations faites par l’OCDE et pour les parlementaires libéraux de remettre
en cause la neutralité des chercheurs nationaux en charge de l’enquête PISA en CFB :
« A. Destexhe (MR) : Je crois que votre lecture de l’enquête de l’OCDE n’est pas tout à fait honnête. En
parcourant le rapport [international], j’ai retrouvé différents éléments qui figuraient aussi dans les transparents
utilisés lors de la présentation des résultats de l’enquête [par la directrice du Directorat pour l’Education de
l’OCDE]. L’OCDE constate qu’un certain nombre de facteurs favorisent des performances élevées. Or, la
plupart d’entre eux ne sont pas présents dans notre système scolaire. Le premier facteur est la publication des
résultats des enquêtes standardisées. Je vous renvoie à cet égard aux pages 276 et suivantes du rapport de
l’OCDE. (…) Selon l’OCDE, cela stimule une certaine concurrence entre les écoles qui améliorent la qualité,
les performances et les résultats. L’OCDE met également en avant le degré d’autonomie des écoles, en
particulier le degré de maîtrise par l’école du budget de fonctionnement et de l’engagement des professeurs.
(…) Puisque l’OCDE nous dit, en comparant une trentaine de réseaux éducatifs, que ces facteurs sont
favorables aux performances élevées, ceux-ci ne mériteraient-ils pas que l’on s’y intéresse davantage ?
(…)
M. Arena (PS) : Vous étiez à la conférence de presse de l’OCDE, et vous m’avez vue réagir vertement. Que
l’OCDE serve d’instrument de mesure, je suis d’accord. Mais qu’il se transforme en instrument de
recommandations, ça fait peur. (…) Quand vous dites que l’étude PISA recommande la publication des
résultats (…) cela signifie la mise en concurrence des écoles en fonction des résultats (…) Cette concurrence
existe, mais ce que vous proposez c’est de la renforcer. Notre proposition est tout autre. (…) Les résultats
[tels que diffusés dans les rapports nationaux] montrent qu’en Communauté française, une certain nombre de
jeunes sont laissés pour compte dans le système scolaire. Il faut leur accorder la priorité en ayant recours à
tout système – commission de pilotage, financement différencié, etc. (…) Notre système se doit de faire cet
effort. (...)
(…)
A. Destexhe (MR) : Il ya quand même une légère différence entre ce qu’a dit la représentante de l’OCDE à la
conférence de presse et ce qui est écrit dans le rapport [international] et, par railleurs, ce qu’a dit Mme
Lafontaine].
M. Arena (PS) : Mme Lafontaine connaît l’éducation, la représentante de l’OCDE pas.
(A. Destexhe, parlementaire MR, PCF, 11/12/07, p. 41 et p. 49 ; M. Arena, à l’époque Ministre de
l’enseignement, PS, PCF, 11/12/07, p. 47 et p. 49)143
Pour soutenir l’explication de l’inefficacité du système éducatif en CFB par le manque
d’autonomie des établissements, les libéraux s’appuient aussi sur un travail réalisé par
un parlementaire lui-même, A. Destexhe, directement à partir de la base de données
PISA.
Il
s’agit
d’une
analyse
comparant
les
résultats
des
différents
réseaux
d’enseignement en CFB. Selon cette étude, le réseau libre aurait de meilleurs résultats
que le réseau officiel en raison de son organisation davantage décentralisée. Cette étude,
diffusée lors d’une conférence de presse, fera également l’objet de débats au sein de
l’espace public, médiatique ou politique. En témoigne l’extrait de débat parlementaire
suivant, lequel illustre à nouveau le « jeu paradoxal de citation » de travaux réalisés à
partir des enquêtes PISA ou d’autres études de l’OCDE :
« V. Jamoulle (PS) : En lisant Le Soir du mercredi 21 mai 2008 [rapportant l’étude réalisée par A. Destexhe],
nous « apprenions », chiffres de l’étude PISA à l’appui, que l’école libre serait meilleure que l’officielle. La
raison invoquée pour justifier cet anathème sur l’école officielle serait l’organisation des réseaux, davantage
143
C’est nous qui soulignons.
79
3.
PISA, savoir et pouvoir
décentralisée pour l’un, davantage centralisée pour l’autre. (…) Je crains qu’une exploitation biaisée,
sélective, partielle et, selon moi, partiale des chiffres de l’étude PISA n’alimente une nouvelle guerre scolaire
provoquée par l’interprétation erronée et hâtive d’études statistiques. Nous savons que M. Destexhe excelle
dans ce genre d’exercice. Les statistiques exigent d’abord que les données soient objectives (…)
(…)
W. Borsus (MR) : (…) Nous savons que le chapitre 5 du dernier rapport [rapport PISA international] met en
exergue les relations de cause à effet entre le type d’organisation de systèmes d’éducation des établissements
d’enseignement et les performances des élèves. (…)° Nous sommes de ceux qui plaident pour l’autonomie et
donc pour une plus grande responsabilisation des pouvoirs organisateurs (…)
(…)
C. Dupont (PS) : (…) J’ai lu dans la presse francophone et flamande que nos écoles auraient un problème
d’autonomie. Je m’en étonne. En effet, je constate, comme l’a fait l’OCDE en 2004 dans une étude spécifique
qu’en Communauté française 43% des décisions sont prises par l’établissement scolaire, 25% le sont par le
pouvoir organisateur et 32% par le pouvoir central. (…) Dans la même étude, l’autonomie des établissements
scolaires de la Communauté française en matière d’affectation des ressources figure en quatrième place des
systèmes éducatifs de l’OCDE. (…) Sur le rapport entre l’enseignement public et l’enseignement privé,
l’OCDE déclare : « la prudence est de rigueur dans l’interprétation (…). A la page 206 [rapport PISA
international], la prudence de l’OCDE est encore plus claire : « La relation entre les différentes variables en
rapport avec l’autonomie des établissements et leur performance est faible à l’échelle nationale dans la
plupart des pays ». (…) Je reprends les propos de D. Lafontaine [ancien NPM et directeur du SPE] : « (…) les
données indiquent que les réseaux ne divergent pas dans leur efficacité à former les élèves (…) mais se
différencient surtout au niveau du recrutement socioéconomique. » (…) L’OCDE reconnaît elle-même que la
comparaison public-privé dans l’enseignement souffre de nombreuses interprétations. (…) Certains en ont
sans doute fait une lecture sélective pour démontrer ce qui n’était pas démontrable. (…) »
V. Jamoulle, parlementaire PS, PCF, 03/06/2008, p. 5 ; W. Borsus, parlementaire MR, PCF, 03/06/2008, p.6 ;
C. Dupont, Ministre de l’enseignement, PS, PCF, 03/06/2008, p. 6 et p. 7)144
L’extrait précédent illustre aussi la manière dont chacun s’accuse de faire une
« exploitation biaisée et partiale » des données PISA, tout en défendant des positions
opposées qui prennent toutes appui sur des travaux réalisés à partir des données PISA,
voire des passages différents de mêmes rapports. Ce jeu paradoxal de citations illustre,
nous semble-t-il, à quel point les enquêtes PISA servent avant tout, dans une logique de
légitimation, à défendre des positions politiques pré-existantes. Ces enquêtes viennent
en effet s’inscrire dans un espace public au sein duquel pré-existent des intérêts, des
positions, des prises de position. Les enquêtes PISA alimentent et consolident, davantage
qu’elles ne transforment, ces rapports de force et de sens. Cela montre aussi à quel point
les enquêtes PISA fournissent l’occasion de débattre sur les politiques éducatives et sont
parfois utilisées comme prétexte à cela. Enfin, les extraits précédents suggèrent que ce
jeu politique avec les données PISA engage une remise en cause progressive de la
légitimité des données PISA dans la mesure où les différents protagonistes soulèvent le
fait « que l’on peut leur faire dire n’importe quoi ». On peut faire l’hypothèse que, parce
qu’il permet effectivement de nombreuses interprétations, PISA pourrait perdre de sa
force première dans la définition des problèmes et solutions en éducation.
144
C’est nous qui soulignons.
80
3.
PISA, savoir et pouvoir
3.3 PISA et la fabrication politique en éducation
Nous allons à présent nous intéresser à la manière dont les enquêtes PISA - les
connaissances
produites
à
partir de PISA
mais
aussi sa forte médiatisation -
interviennent dans l’action publique en éducation. Nous examinerons tout d’abord la
manière dont les enquêtes PISA sont mobilisées dans les débats politiques concernant
l’éducation en CFB. Ensuite, nous verrons la manière dont elles sont utilisées pour
légitimer toute une série de politiques scolaires prises ces dernières années en CFB.
Enfin, nous considèrerons la manière dont elles servent ou non de modèles à la
fabrication d’autres outils nationaux de régulation basés sur la connaissance.
Nous verrons que les enquêtes PISA, même si elles sont considérées par la plupart des
acteurs scolaires comme constituant des outils limités qui « n’apprennent rien de neuf »,
ont néanmoins un certain effet sur la politique éducative en CFB. Cet effet, nous semblet-il, s’inscrit principalement dans une logique de légitimation de l’action publique en
éducation (cf. Pons et van Zanten, 2007).
3.3.1 PISA dans le débat politique en éducation
Les débats dont nous avons rendus compte dans la section précédente (3. 2) étaient des
débats spécifiques sur PISA, suscités par la diffusion de ses résultats. Ces débats, nous
l’avons dit, ne sont cependant pas totalement autonomes : ils prennent place au sein de
débats plus larges en éducation, par rapport auxquels ils prennent tout leur sens. Les
débats dont nous allons parler dans cette section sont des débats qui portent plus
spécifiquement sur des politiques scolaires ou des projets de réforme politique et dans
lesquels PISA s’est « invité » en quelque sorte. Ce ne sont donc pas des débats qui
portent spécifiquement sur PISA, mais des débats dont le sujet principal est autre et où
PISA est mobilisé d’une manière ou d’une autre. Ces débats recoupent en grande partie
les questions traitées dans la section précédente, dans la mesure où ils s’inscrivent aussi
dans les débats plus larges sur la définition des problèmes en éducation (équité versus
efficacité du système), sur le mode de régulation du système éducatif (bureaucratique,
post-bureaucratique, basé sur le quasi-marché scolaire, gouvernance locale, etc.) ou sur
les priorités politiques en éducation (élèves les plus faibles versus élèves les plus forts,
etc.).
Comme nous allons le voir, PISA semble être devenu un référent incontournable dans les
débats concernant les politiques éducatives en CFB. En effet, il est frappant de constater
que PISA est invoqué dans les discussions qui ont lieu, dans l’arène médiatique ou
parlementaire, au sujet de toutes les politiques éducatives ou de tous les projets de
réforme politique qui ont été proposés en CFB ces dernières années. Cela ne signifie
évidemment pas que toutes ces politiques ont été prises suite à PISA, pour améliorer les
« points faibles » que PISA aurait mis en évidence et en suivant les pistes que PISA
81
3.
PISA, savoir et pouvoir
aurait suggéré. Dans ces débats, PISA apparaît davantage comme fournissant l’occasion
de porter un jugement sur les politiques éducatives en cours (les critiquer ou les
confirmer) et les projets de réforme (les soutenir ou les désapprouver), que comme un
instrument d’évaluation, principalement dans une logique rhétorique de (dé)légitimation
de propositions politiques préexistantes.
Un référent incontournable
Lorsqu’on examine les débats au sujet des politiques éducatives tenus depuis le début
des années 2000, que ce soit au sein des médias ou du parlement de la CFB, il est
frappant de constater à quel point PISA est mobilisé au sujet de toutes les politiques
éducatives ou de tous les projets majeurs de réforme politique, parfois même antérieurs
au premier cycle de PISA (2000) : les socles de Compétences (différents décrets
promulgués entre 1999 et 2001), la réforme de la formation initiale des enseignants
(décrets de 2001 et 2002), le décret sur le pilotage du système éducatif (2002), le
Contrat pour l’Ecole (2005), le décret sur les évaluations externes (2006), la réforme de
l’inspection (2007), le décret inscription (2007), la décret mixité sociale (2008). PISA
s’invite aussi dans divers débats qui paraissent plus mineurs et parfois relativement
éloignés, comme au sujet de l’intégration des enfants handicapés dans les écoles145, de
l’enseignement en immersion de langues étrangères146, de l’enseignement du latin147 ou
du financement des bibliothèques publiques148. Même s’il trouve que « maintenant c’est
un peu retombé » , l’ancien NPM estime ainsi que « tout éternuement dans le champ
éducatif était relié à PISA. C’était : on va faire ça parce qu’il y a PISA ». PISA occupe
visiblement l’espace public.
Comme nous l’avons déjà relevé à maintes reprises, cela n’a pas été le cas avec d’autres
études nationales ou internationales qui pourtant apportaient des connaissances
similaires sur le système éducatif en CFB. Outre la médiatisation sans précédent de PISA,
son arrivée dans un contexte politique favorable (en demande d’évaluation externe alors
que les savoirs administratifs étaient peu développés) et la légitimité de l’outil défendue
soigneusement par l’OCDE et les chercheurs nationaux, on peut se demander si l’une des
raisons pour lesquelles PISA est autant mobilisé ne réside pas aussi dans le fait qu’il
fournit des résultats relativement ouverts rendant possibles des interprétations diverses.
Ce serait là l’une des « forces » de PISA. C’est peut-être aussi sa « faiblesse ». En effet,
145
Coenen, parlementaire, PCF, 13/12/2007, p. 10 ; Montulet, parlementaire, PCF, 13/12/2007, p. 16..
146
L. Walry, parlementaire PS, PCF, 11/01/2005, p. 5.
147
M. Neven, parlementaire MR, PCF, 02/03/2005, p.18 ; M. Neven, parlementaire MR, PCF, 21/06/2005, p. 51.
148
AM Corbisier-Hagon, parlementaire PSC, PCF, 11/12/2001, p. 8 ; A. Namotte, parlementaire PSC,
11/12/2001, p. 27 ; Y. Reinkin, parlementaire Ecolo, PCF, 12/12/2004, p. 36 ; P. Fontaine, parlementaire MR,
PCF, 12/12/2004, p. 43 ; F. Bertieaux, parlementaire MR, PCF, 10/12/07, p. 15.
82
3.
PISA, savoir et pouvoir
on peut se demander si PISA ne risque pas de perdre progressivement sa légitimité aux
yeux du grand public et des acteurs politiques dans la mesure où comme certains le
relèvent « tout le monde s’en sert comme il veut » et « on peut faire dire n’importe quoi
à ce type d’étude »149. Nous avons d’ailleurs déjà souligné une certaine prise de distance
de la part des acteurs politiques à son égard.
PISA comme appui, pas comme cause ou objectif des politiques
Si PISA est invoqué dans les discussions qui ont lieu, dans l’arène médiatique ou
parlementaire, au sujet de toutes les politiques éducatives majeures ou de tous les
principaux projets de réforme politique, cela ne signifie cependant pas que toutes ces
politiques ont été prises suite à la diffusion des résultats de PISA, ni même qu’elles se
présentent uniquement comme des réponses aux « mauvais » résultats de la CFB à PISA.
Tout d’abord, on peut relever le fait qu’aucune politique ne se présente comme pensée et
prise dans le seul but d’améliorer les résultats de la CFB au test PISA, même si de telles
dispositions semblent avoir été discutées. Un ancien Ministre de l’enseignement
fondamental, que nous avons interviewé, raconte qu’après la diffusion des résultats du
premier cycle de PISA (2000), un débat a eu lieu au gouvernement, « hors PV et à huit
clos », sur la pertinence de préparer les élèves à répondre à des questions à choix
multiples et de les entraîner à de tels tests pour obtenir de meilleurs résultats. Ce débat
est cependant resté sans suite. Un responsable du service d’étude du réseau
d’enseignement catholique, lors de son entretien, évoque également des discussions avec
le Ministre de l’enseignement secondaire de l’époque sur la nécessité de « bachoter les
élèves pour qu’ils soient les meilleurs ».
La seule amélioration des résultats des élèves de la CFB au test de PISA n’a donc jamais
été présentée comme un objectif en soi. Néanmoins, le « Contrat pour l’école », a
explicitement défini, parmi d’autres objectifs, celui de « dépasser la moyenne des
résultats des pays de l’OCDE tout en réduisant l’écart entre les résultats des élèves les
plus « faibles » et ceux des élèves les plus « forts » en bannissant tout nivellement des
compétences par le bas »150. Cet objectif est même daté : il est écrit que « à l’horizon
2013, le Contrat stratégique doit permettre d’au moins rejoindre et de dépasser la
moyenne des résultats des pays de l’OCDE dans chaque des compétences mesurées, de
diminuer la proportion d’élèves ayant de mauvais résultats »151. Ce « Contrat pour
l’école » est la seule politique qui se présente explicitement (de manière écrite) comme
étant élaborée et mise en œuvre pour remédier aux problèmes qui auraient été mis en
évidence par PISA. C’est la seule qui se présente comme véritablement fondée à partir
149
Y. Reinkin, parlementaire Ecolo, PCF, 11/12/07, p. 44.
150
PCF, 25/01/2005, p. 12.
151
PCF, 25/01/2005, p. 15.
83
3.
PISA, savoir et pouvoir
des connaissances produites par PISA (mais aussi à partir d’une consultation réalisée
auprès des enseignants). Nous y reviendrons plus loin.
On peut cependant relever quelques petites initiatives locales et / ou ponctuelles qui se
présentent uniquement comme des réponses aux mauvais résultats de PISA : par
exemple, des projets de collaboration entre des écoles et des bibliothèques publiques
pour essayer de développer le goût de la lecture chez les élèves, une « formation
action » auprès des formateurs d’enseignants en français organisée en 2002 par l’ancien
NPM à la demande du Ministre de l’enseignement supérieur152, ou diverses opérations
destinées à améliorer la lecture et lancées par les Ministres de l’enseignement, comme
les opérations « coin lecture » et « ouvrir mon quotidien » au primaire ou l’opération « de
vive voix » au secondaire.
Il faut soulever aussi que, depuis la diffusion des études PISA, seul le gouvernement
concerné par le premier cycle de PISA (2000) semble ne pas avoir réagi véritablement
aux résultats de PISA. Du moins, le Ministre de l’enseignement de l’époque, P. Hazette,
un libéral, n’a pas présenté de propositions politiques disant apporter des réponses aux
« mauvais » résultats de la CFB à PISA. Selon l’ancien NPM, il aurait « limité son rôle à
diffuser l’information ». Cette non-action sera soulignée à de nombreuses reprises par les
opposants politiques (socialistes principalement) et sera critiquée parce qu’elle aurait
rendu plus difficile de « récupérer la situation »153. Cette critique semble le plus souvent
formulée
en
réponse
aux
critiques
qu’expriment
les
libéraux,
aujourd’hui
dans
l’opposition, face aux propositions émises par la coalition au pouvoir (les socialistes).
L’ancien NPM souligne cependant qu’à l’époque, le contexte éducatif avait déjà connu
d’importantes réformes (notamment curriculaires) et que « cela paraissait le bon sens de
ne pas se mettre à tout remuer ».
Une occasion de questionner et de porter un jugement
sur les politiques publiques
Si toutes les discussions au sujet des politiques éducatives de ces dernières années font
référence à PISA, ces politiques ne sont cependant pas présentées comme étant prises
en conséquence des enquêtes PISA, uniquement pour améliorer les « points faibles »
qu’elles auraient mis en évidence et en suivant les pistes qu’elles auraient suggérées
(sauf une exception, le Contrat pour l’Ecole). Les références à PISA sont davantage faites
dans le but de soutenir ou de critiquer une proposition politique. Dans ces débats, PISA
apparaît alors non pas vraiment comme un instrument d’évaluation du système éducatif
fournissant des connaissances sur ses points faibles et forts qui serviraient de base à la
152
F. Dupuis, Ministre de l’Enseignement Supérieur et de la Recherche scientifique, PS, PCF, 24/04/2002,
pp. 33-34.
153
. Walry, parlementaire PS, PCF, 15/02/2005, p. 17 ; M. Arena, à l’époque Ministre de l’enseignement PS,
PCF, 15/02/2005, p. 20, PCF, 11/12/2007, p. 34, p. 36, PCF, 11/12/07, p. 46 et PCF, 11/12/07, p. 47.
84
3.
PISA, savoir et pouvoir
construction de propositions politiques et à la décision politique, mais plutôt comme
fournissant l’occasion de porter un jugement sur les politiques éducatives en cours (les
critiquer ou les confirmer) et les projets de réforme (les soutenir ou les désapprouver),
principalement
propositions
dans
une
politiques
logique
purement
préexistantes.
Comme
rhétorique
l’illustrent
de
les
(dé)légitimisation
extraits
de
de
débats
parlementaires suivants, PISA fournit l’occasion de questionner les politiques éducatives.
Ces questions adressées au Ministre peuvent être formulées autant par des alliés
politiques pour lui permettre de confirmer sa politique en cours (comme dans les deux
premiers extraits), que par des opposants politiques pour leur permettre de critiquer sa
politique (comme dans le dernier extrait) :
« (S’adressant au Ministre) (…) Par rapport au Contrat pour l’école, où en est-on par rapport aux résultats des
études PISA. Quelles sont les mesures dont les priorités est la plus élevée ? » [s’en suit une réponse du
Ministre mettant en avant les mesures prises « allant dans le sens des constats de PISA »] (V. Jamoulle,
parlementaire PS, PCF, 11/12/2007, p. 43.)
« (S’adressant au Ministre) (…) Pourtant l’étude Pisa ne doit pas nous contraindre à modifier l’ensemble de
notre politique. Vous avez instauré un Contrat pour l’Ecole et vous tenez de le conduire à bon port. J’espère
que nous en verrons les effets. Toutefois, compte tenu des résultats de cette enquête, envisagez-vous
d’infléchir l’une ou l’autre ligne spécifique de votre politique ? » [s’en suit une réponse du Ministre mettant
en avant les mesures prises « allant dans le sens des constats de PISA »] (Y. Reinkin, Ecolo, PCF, 11/12/07,
p. 44)
« (S’adressant au Ministre) (…) Notre classement reste effectivement mauvais. (…) Madame la ministreprésidente, quel est impact des mesures prises à partir du Contrat pour l’école sur les résultats obtenus ? Selon
vous, ont-elles influencé positivement cette analyse statistique internationale dont chacun convient du sérieux
et de la pertinence ? (…) Vous comprenez ma perplexité. (…) [s’en suit un débat entre le Ministre et d’autres
parlementaires du MR qui mettent en avant « l’absence de correction apporté par rapport à PISA »]
(W. Borsus, MR, PCF, 11/12/2007, p. 43)
Une occasion de rencontre et d’échange entre la recherche et le politique
Enfin, si les enquêtes de PISA ne paraissent pas avoir remis fondamentalement en cause
les circuits de transmission des connaissances en CFB (par exemple, les connaissances
produites par PISA ne sont pas diffusées aux acteurs de terrain, en dehors des pistes
pédagogiques), plusieurs acteurs scolaires soulignent de manière positive qu’elles
constituent une occasion (un moment et un lieu) de débat, de rencontre et d’échange de
connaissances entre le monde de la recherche et le monde politique. L’ancien NPM
raconte, par exemple, que « c’est autour des résultats PISA » qu’il a rencontré certains
parlementaires et qu’il a « dialogué » avec le Ministre de l’enseignement (en réussissant
parfois à le faire changer d’avis, par exemple, concernant l’idée de rendre le latin
obligatoire). L’ancien NPM suggère alors un certain « rapprochement » entre le monde de
la recherche et le monde politique autour de PISA, voire une certaine confusion des
rôles : les acteurs politiques lui demandaient des « solutions scientifiques » (là où il
s’agit, selon lui, de choix politiques) ou « jouaient eux-mêmes le rôle d’expert
scientifique » :
« Par moment, moi-même, j’avais l’impression quand on avait ces trois ministres qu’ils s’asseyaient à ma
place, qu’ils me demandaient de s’assoir à la leur et qu’eux s’asseyaient à ma place. Et après, à la limite
comme ils étaient un peu bloqués (…) ils tenaient mon discours. Ils jouaient le rôle du scientifique. Je me
85
3.
PISA, savoir et pouvoir
souviens bien, le ministre Jean-Marc Nollet faisait très fort ça. C’était : voilà, je suis un expert scientifique et
on a constaté ceci, cela. Et ça s’arrêtait un peu là. Et j’avais vraiment l’impression qu’il y avait une
interchangeabilité et que moi on me tirait en disant : ‘qu’est ce qu’il faut faire ? (…) Donnez-nous des
solutions scientifiques’. (…) Entre choisir ça ou ça, c’est une question d’action politique, ce n’est pas une
question de recherche. Alors oui, effectivement autour de PISA, il y avait des choses vraiment qui tournaient
autour d’un rapprochement. (…) Et effectivement, on n’aurait pas en dessous le label qui dit : c’est un
scientifique ou un politique, je trouve que les discours des uns s’appuient tellement sur le discours des autres.
(…) A la fois comme scientifique, on peut quand même être un peu content que les politiques s’appuient, du
moins en partie, sur les résultats scientifiques mais…C’est comme si ça rognait quand même quelque chose
qui est de l’ordre du politique. Il y a quelque chose de noble là-dedans. Comme si il n’y avait plus cette
légitimité ou ce débat-là. Enfin pour moi, il y a un espace de débat au-delà de ce que les scientifiques disent.
Et c’est un peu comme s’ils voulaient justifier tout par le scientifique. Alors que non, c’est une question de
point de vue, de débat. » (l’ancien NPM, directeur du SPE, entretien)
3.3.2 PISA comme source de légitimité pour les politiques
Comme nous venons de l’évoquer, PISA est utilisée, à des degrés divers, comme une
source de (dé)légitimité dans les discussions qui ont lieu au sujet de toutes les politiques
éducatives ou de tous les projets majeurs de réforme politique de ces dernières années :
les socles de compétences (différents décrets promulgués entre 1999 et 2001), la
réforme de la formation initiale des enseignants (décrets de 2001 et 2002), le décret sur
le pilotage du système éducatif (2002), le Contrat pour l’école (2005), le décret sur les
évaluations externes (2006), la réforme de l’inspection (2007), le décret inscription
(2007), le décret mixité sociale (2008). Parmi ces différents textes de politique
éducative, un seul cependant, le Contrat pour l’école, fait explicitement référence à PISA
pour justifier son origine et sa pertinence
Dans les autres cas, PISA est intervenu dans les débats pour soutenir ou critiquer les
propositions politiques. Soulignons que PISA n’est pas la seule source de connaissance
utilisée comme source de (dé)légitimité. Les « savoirs d’expérience » en particulier
constituent une autre importante source de (dé)légitimité, mais aussi d’autres études
universitaires nationales.
Nous allons à présent passer brièvement en revue les différentes politiques où PISA est
citée dans les discussions à leurs sujets, dans leur ordre chronologique de mise en
œuvre.
Précisions qu’il ne s’agit pas ici de montrer dans quelle mesure ces réformes répondent
ou non aux problèmes du système éducatif qu’auraient mis en évidence PISA en CFB, ni
dans quelle mesure elles mettent ou non en œuvre les propositions que PISA suggèrerait.
Il s’agit plutôt de voir quels liens les différents acteurs œuvrant dans le champ scolaire
en CFB opèrent entre les politiques éducatives et les études PISA.
Les socles de compétence (entre 1999 et 2001)
Lors de la diffusion des résultats du premier cycle de PISA (2000), le gouvernement va
s’appuyer sur ceux-ci pour « conforter » une réforme curriculaire récemment décrétée,
définissant des « socles de compétences » devant être acquis par les élèves, ou au
86
3.
PISA, savoir et pouvoir
contraire pour la remettre en cause. Dans une « note de synthèse » rédigée après la
diffusion des résultats du premier cycle de PISA, le Ministre de l’enseignement de
l’époque,
P. Hazette,
un
libéral,
déclare
ainsi que
« l’enquête
Pisa
conforte
le
gouvernement » et même que « la politique menée depuis 1999, concernant la
généralisation de la pédagogie des compétences, anticipe les conclusions à tirer de
l'enquête et s'en trouve justifiée »154. Dans ce cas-ci, PISA est donc utilisée pour justifier
a postériori une politique éducative, qui est par ailleurs soumise à de multiples critiques.
D’autres acteurs, comme l’APED ou les parlementaires libéraux quand ils seront dans
l’opposition, vont au contraire utiliser les « mauvais résultats » des élèves à PISA pour
critiquer cette réforme, rendue responsable d’une « diminution des exigences en matière
de connaissances de base » et d’une « déstructuration des savoirs »155. Il est intéressant
de souligner que les libéraux, au moment où ils étaient au gouvernement, se sont
appuyés sur PISA pour soutenir l’apprentissage par compétences alors que, plus tard, ils
s’en serviront pour la critiquer. Les critiques émises à partir de PISA (mais pas
seulement), n’aboutiront cependant pas à une remise en cause des socles de
compétence.
La réforme de la formation des enseignants (2001 et 2002)
La première étude de PISA (2000) va également être utilisée pour conforter des réformes
en cours concernant la formation initiale et continuée des enseignants. Tout d’abord, le
Ministre de l’enseignement supérieur de l’époque, F. Dupuis, un socialiste, va citer PISA,
au cours de débats parlementaires ou au sein des médias, pour conforter une réforme de
la
formation
initiale
des
enseignants
déjà
en
cours,
visant
principalement
à
« professionnaliser » les enseignants autour de nouvelles compétences à acquérir et d’un
nouveau modèle de professionnalité, celui du « praticien réflexif ». Il s’agit non
seulement de soutenir une réforme déjà en cours en affirmant sa pertinence par rapport
aux résultats de PISA, mais aussi tout simplement de manifester le fait qu’on agit face à
des problèmes et qu’on a, « pour sa part, tracé des pistes significatives »156. Le Ministre
de l’enseignement fondamental de l’époque, J.-M. Nollet, écologiste, lors de débats
parlementaires, inscrira également cette réforme de la formation dans une « orientation
politique visant à réduire les différences de performances entre établissements relevées
par les experts de l’OCDE en 1991 et PISA 2000 »157.
154
P. Hazette, à l’époque Ministre de l’enseignement, PRL, propos rapporté par Le Soir, 27/12/01, voir aussi Le
Soir, 05/12/01.
155
N. Hirtt, membre du Mouvement pédagogique de l’APED, Le Soir, 06.12.01.
156
F. Dupuis, à l’époque Ministre de l’enseignement supérieur, PS, Le Soir, 06/12/01.
157
JM Nollet, à l’époque Ministre de l’enseignement fondamental, Ecolo, PCF, 19 juin 2002, p. 6.
87
3.
PISA, savoir et pouvoir
Les « performances médiocres à PISA » sont ensuite également citées dans l’exposé des
motifs du projet de décret relatif à la formation continuée pour souligner que des
« efforts suffisants n’ont pas été accordés à la formation des enseignants pour leur
permettre d’accompagner les élèves dans le développement des compétences »158.
Le décret sur le pilotage du système éducatif (2002)
et les évaluations externes (2006)
La mise en place d’un pilotage du système éducatif et d’évaluations externes communes
est présentée par de nombreuses personnes interviewées comme une action publique sur
laquelle PISA, mais aussi des rapports de l’OCDE antérieurs, auraient joué un rôle
important. Plusieurs acteurs mettent en avant que les résultats du premier cycle de PISA
(2000) ont été utilisés comme arguments pour soutenir la mise en place de la
commission de pilotage, dans un contexte où la réflexion sur le pilotage était cependant
déjà en cours159.
Avant le système actuel de pilotage, une première « structure légère » de pilotage, qui
n’avait pas d’existence institutionnelle ni décrétale, avait été mise en place suite à la
publication de rapports commandités par la Belgique à l’OCDE au début des années 1990
qui avaient souligné le « manque de pilotage » et « l’absence de culture d’évaluation »
en CFB. Le projet était alors porté par un acteur de l’administration scolaire (le secrétaire
général à la CFB). A ce moment-là, des premières évaluations externes, financées par
l’administration avec des « bouts de ficelle », commencent à être mise en œuvre (19941995). Cette structure légère fonctionne sans véritable reconnaissance au sein de
l’administration. Il semblerait qu’à cette époque, « l’intérêt était mitigé au sein des
acteurs politiques »160.
Plusieurs personnes évoquent alors l’impact de la diffusion des résultats de PISA en 2001
qui va « remuer pas mal de personnes dans le champ de l’éducation » et va venir
appuyer une réflexion déjà en cours sur la nécessité d’instaurer une véritable
« commission de pilotage » et des évaluations externes161. Ce projet est porté à ce
moment-là principalement par un parlementaire socialiste, C. Dupont. « La Commission
de pilotage est dès lors née, en 2002, du souhait de remédier aux lacunes de notre
158
Projet de décret relatif à la formation en cours de carrière dans l’enseignement spécial, l’enseignement
secondaire ordinaire et les centres psycho-médico-sociaux et à la création d’un institut de la formation en cours
de carrière en interréseaux, PCF, 30/05/2002, p. 2.
159
Propos tenus par le représentant de la CFB au PGB et chercheur au SPE lors d’un entretien.
160
Propos tenus par un ancien inspecteur général tenus lors d’un entretien.
161
Propos tenus par le représentant de la CFB au PGB et chercheur au SPE, par un inspecteur général lors
d’entretiens.
88
3.
PISA, savoir et pouvoir
système éducatif et de nos élèves » déclare un responsable du réseau d’enseignement
catholique162. Selon le parlementaire socialiste porteur du projet de pilotage, PISA aurait
« aidé le pilotage parce qu’il démontrait que l’on se prenait des gifles et indiquait le
besoin de s’outiller en indicateurs et d’introduire un principe de qualité dans le
système »163. Plus précisément, selon lui, PISA aurait aidé à passer outre certaines
résistances de la part des réseaux et des syndicats d’enseignant méfiants par rapport à
ce qui était vécu comme une sorte d’ingérence et une perte de pouvoir164. L’argument
utilisé était que le pilotage et les évaluations externes constituaient un moyen « d’avoir
un feed-back permettant d’adapter la politique éducative et d’améliorer la qualité du
système scolaire »165.
Cette utilisation de PISA pour soutenir la mise sur pied d’un système de pilotage et
d’évaluations externes nationales se retrouve exprimée au sein des médias. Ainsi,
directement après la diffusion des résultats du premier cycle de PISA (2000), plusieurs
acteurs politiques évoquent dans la presse écrite le pilotage du système éducatif comme
un moyen d’améliorer l’enseignement166. La presse présentera le pilotage comme « la
réponse du berger francophone à la bergère OCDE »167 : même si « cette proposition a
été rédigée bien avant le coup de règle de l'OCDE, le bulletin international qui accable la
CFB va souligner l'intérêt d'un pilotage du système éducatif et donner des ailes à la
proposition du député PS qui juge qu'il faut, d'urgence, se doter d'un système assurant
l'amélioration permanente de la qualité et de la cohérence de l'enseignement »168.
Le lien entre le projet de pilotage et l’étude PISA est également opérée au sein des
débats parlementaires. Ainsi, le débat parlementaire autour du projet de pilotage déposé
par le parlementaire socialiste sera mené le même jour que celui à propos des résultats
162
J. Vandenschrik, directeur du Serdep, réseau d’enseignement catholique, Entrées Libres, n°23, novembre
2007.
163
164
Propos tenus par le parlementaire socialiste et actuel Ministre de l’enseignement, lors d’un entretien.
Propos tenus par le parlementaire socialiste et actuel Ministre de l’enseignement, par un chercheur en
sciences de l’éducation, lors d’entretiens.
165
166
Propos tenus par un membre du cabinet ministériel, socialiste, lors d’un entretien.
Cf. F. Dupuis, à l’époque Ministre de l’Enseignement supérieur, PS, Le Soir, 06/12/01 ; le PSC, Le Soir,
07/12/01.
167
La Libre, 12/12/01.
168
Le Soir, 13/12/01.
89
3.
PISA, savoir et pouvoir
de PISA169. Lors de ce débat, non seulement les mauvais résultats à PISA sont présentés
comme appuyant la nécessité d’un meilleur pilotage du système éducatif, mais on insiste
aussi sur « la maîtrise sur le regard que l’on peut porter sur notre système éducatif » :
sur la nécessité de « se doter d’un outil de pilotage que l’on maîtrise pour ne pas être à
la merci des enquêtes internationales dont on ne maîtrise pas la méthodologie ni la
culture d’intervention »170. Cet argument sera également avancé à propos de la nécessité
de mettre en place des évaluations externes nationales. Plusieurs personnes mettent en
avant le fait que le premier cycle de PISA va renforcer le besoin de disposer d’évaluations
externes propres171 : « au fur et à mesure que les résultats tombent, ça crée l’envie ou
plutôt le besoin d’avoir nos propres évaluations externes plutôt que de rester suspendus
à une évaluation internationale »172, « c’est essentiel d’avoir des évaluations externes
construites par nous, pour ne pas avoir toujours PISA avec l’OCDE dont on sait les
tenants idéologiques qu’il y a derrière »173. C’est à ce moment-là que le politique se
serait véritablement « emparé » du projet de pilotage et d’évaluation externe jusque là
porté principalement par l’administration.
En même temps, si les acteurs politiques (les parlementaires socialistes) citent PISA pour
appuyer leur proposition de pilotage du système éducatif, ils expriment une certaine
volonté de distance en affirmant à plusieurs reprises que « la proposition de décret n’est
pas une proposition d’opportunité qui devrait tout à PISA. Au contraire, elle résulte d’une
analyse de terrain faite par les auteurs de la proposition »174, voire même que « la
proposition de pilotage n’a rien à voir avec PISA. Elle était en effet sur la table de la
négociation bien avant »175. On peut à nouveau souligner un certain rapport paradoxal
aux enquêtes PISA.
Le Contrat pour l’école (2005)
En 2005, le gouvernement de la Communauté française a adopté un important texte
d’orientation, le « Contrat pour l’école » qui, sans infléchir les orientations du décret
Missions (1997), réaffirme la volonté d’améliorer la qualité, l’efficacité et l’égalité du
169
Cf. C. Dupont, parlementaire PS, PCF, 11/12/2001, p. 11 ; PCF, 28/02/2002, p. 2 ; M. Hardy, parlementaire
écolo, PCF, 28/02/2002, p. 34 ; C. Dupont, PCF, 28/02/2002, p. 33.
170
M. Hardy, parlementaire écolo, PCF, 28/02/2002, p. 34.
171
P. Hazette, à l’époque Ministre de l’enseignement, PRL, PCF, 20/06/2002, p. 4.
172
Selon les propos de l’ancien NPM lors de son entretien.
173
Selon les propos d’un chef de cabinet ministériel, socialiste, lors de son entretien.
174
C. Dupont, parlementaire PS, PCF, 28/02/2002, p. 2.
175
C. Dupont, parlementaire PS, PCF, 28/02/2002, p. 33.
90
3.
PISA, savoir et pouvoir
système d’enseignement176. Ce « Contrat pour l’école » est présenté officiellement
comme une action politique posée suite à une consultation du personnel enseignant
révélant leurs difficultés à mettre en pratique les réformes initiées précédemment
(comme les socles de compétences)177 et aux études PISA. C’est le seul texte écrit qui
fait explicitement référence à PISA en déclarant se baser sur ses « constats » (le manque
d’équité surtout) et suivre les solutions qu’il suggèrerait :
« Ce texte (…) se fonde sur les consultations des enseignants, sur les recherches scientifiques et sur les
résultats des enquêtes PISA. (…) Les constats de l’étude PISA 2003 (…) si l’on constate bien un certain
manque d’efficacité (moyenne des résultats trop faible) en Communauté français, c’est surtout le manque
important d’équité (dispersion et différence des résultats selon les élèves trop grandes) qui est très
interpellant. (…) PISA 2003 confirme donc que le renforcement de l’équité est le défi à relever dans les
prochaines années. Si l’on veut améliorer de façon sensible les performances de tous les élèves, il faut en
priorité s’atteler aux problèmes des élèves en grande difficulté, fréquentant pour l’essentiel les filières de
qualification, souvent en retard dans leur parcours scolaire et concentrés dans certains établissements. L’effort
à poursuivre est donc double : dépasser la moyenne des résultats des pays de l’OCDE tout en réduisant l’écart
entre les résultats des élèves les plus « faibles » et ceux des élèves les plus « forts » en bannissant tout
nivellement des compétences par le bas » (Contrat stratégique pour l’éducation178, PCF, 25/01/2005, p. 12)
Ce texte est aussi le seul à citer des résultats de PISA et à énoncer un objectif
concernant directement les résultats de la CFB aux enquêtes PISA, celui de « dépasser la
moyenne des résultats des pays de l’OCDE tout en réduisant l’écart entre les résultats
des élèves à l’horizon 2013 »179.
Les débats parlementaires établissent également un lien étroit entre les enquêtes PISA et
le « Contrat pour l’école » en le présentant comme « une décision prise en réaction au
signal donné par PISA », comme « reposant sur une analyse basée (notamment) sur les
éclairages apportés par les enquêtes PISA »180. De nombreuses mesures concrètes
contenues dans le Contrat pour l’Ecole (ou promues dans sa première version, le
« Contrat stratégique ») vont être décrites comme témoignant de l’intention de se
176
Plus précisément, le « Contrat pour l’Ecole » définit dix priorités : « 1. Plus d'enseignants pour nos enfants ;
2. Conduire chaque jeune à la maîtrise des compétences de base ; 3. Orienter efficacement chaque jeune ; 4.
Choisir et apprendre un métier à l'école ; 5. Mieux préparer les enseignants ; 6. Doter les élèves et les
enseignants des outils du savoir ; 7. Valoriser les enseignants ; 8. Piloter les écoles en permanence ; 9. Non
aux écoles ghettos ; 10. Renforcer le dialogue écoles – familles ».
177
Durant l’année scolaire 2003-2004, trois consultations ont été organisées auprès des enseignants du
fondamental, du secondaire et de l’enseignement spécialisé (voir Van Campenhoudt, 2004 ; Van Campenhoudt
et Franssen, 2004).
178
Le “Contrat stratégique pour l'Education” est un “avant-projet” qui a été soumis à une large consultation
auprès de divers acteurs scolaires. pour donner lieu au “Contrat pour l’Ecole”.
179
Relevons le fait que la première mouture du Contrat comportait quelques imprécisions. Elle posait ainsi
comme objectif de passer de tel à tel pourcentage précis de variance entre établissements au prochain test de
PISA, en utilisant cependant les résultats de la CFB au premier cycle de PISA (2000) qui concernaient la
variance entre implantations et non entre établissements.
180
M. Arena, à l’époque Ministre de l’enseignent, PS, PCF, 15/02/2005, p. 20 ; J. de Groote, parlementaire cdH,
PCF, 21/06/2005, p. 61 ; L. Walry, parlementaire PS, PCF, 15/02/2005, p. 16.
91
3.
PISA, savoir et pouvoir
conformer aux propositions que suggèreraient les études PISA, comme « des points
auxquels il faut œuvrer à la suite de l’enquête PISA »181 et qui « vont dans le sens du
constat posé dans le cadre de PISA »182. Il s’agit de la limitation du choix des options et
filières jusqu’à au moins 14 ans183, de l’accent mis sur l’acquisition de savoirs de base
dès l’école primaire184, de l’encadrement renforcé en maternel et primaire185, des
dispositifs de remédiation immédiate186, d’une évaluation harmonisée des élèves aux
grandes étapes de l’apprentissage187, d’une limitation de la concurrence entre écoles188,
d’une orientation par choix positif pour éviter toute forme de relégation189, de la
revalorisation des filières qualifiantes190. Ces mesures sont décrites comme « constituant
un gage de réduction probante des inégalités qui minent notre enseignement, une des
causes essentielles des mauvais résultats de l’enquête PISA »191 : « pratiquement toutes
les dispositions prévues dans le Contrat pour l’école permettront de répondre aux
carences révélées par l’étude PISA »192, « grâce au Contrat stratégique on pourra
améliorer deux énormes problèmes de notre enseignement : l’échec scolaire et le
caractère inégalitaire »193.
181
M. Arena, à l’époque Ministre de l’enseignent, PS, PCF, 11/01/2005, p. 4.
182
M. Arena, à l’époque Ministre de l’enseignent, PS, PCF, 11/12/07, p. 47.
183
M. Arena, à l’époque Ministre de l’enseignent, PS, PCF, 11/01/2005, p. 4.
184
M. Arena, à l’époque Ministre de l’enseignent, PS, PCF, 13/12/04, p. 32, PCF 11/01/2005, p. 4 ; L. Walry,
parlementaire PS, PCF, 13/12/04, p. 35.
185
M. Bayenet, parlementaire PS, PCF, 15/12/2004, p. 8 ; M. Neven, parlementaire MR, PCF, 15/12/2004, p. 19 ; M. Elsen, parlementaire
CdH, PCF, 15/12/2004, p. 27 ; M. Arena, à l’époque Ministre de l’enseignent, PS, PCF, 11/12/07, p. 47 ; PCF, 11/03/2008, pp. 27-28.
186
M. Bayenet, parlementaire PS, PCF, 15/12/2004, p. 8, M. Arena, à l’époque Ministre de l’enseignent, PS,
PCF, 11/01/2005, p. 4.
187
M. Arena, à l’époque Ministre de l’enseignent, PS, PCF, 11/01/2005, p. 4.
188
M. Arena, à l’époque Ministre de l’enseignent, PS, PCF, 11/01/2005, p. 4.
189
M. Arena, à l’époque Ministre de l’enseignent, PS, PCF, 11/01/2005, p. 4.
190
L. Walry, parlementaire PS, PCF, 13/12/04, p. 35.
191
M. Bayenet, parlementaire PS, PCF, 15/12/2004, p. 8.
192
V. Jamoulle, parlementaire PS, PCF, 21/06/2005, p. 53.
193
M. Cheron, parlementaire Ecolo, PCF, 15/02/2005, p. 12.
92
3.
PISA, savoir et pouvoir
Les résultats au troisième cycle de PISA seront de la même manière cités par les acteurs
politiques pour confirmer l’orientation prise avec le Contrat pour l’école194, conforter le
fait « qu’il faut poursuivre le travail entamé en 2005 par le Contrat pour l’école »195, que
« les réformes entreprises vont dans le sens des recommandations de l’étude : les
résultats de PISA 2006 confortent la lutte contre les inégalités entamée avec le Contrat
pour l’école »196.
Le lien entre PISA et le Contrat pour l’Ecole est également souligné dans la presse197 et
relevé par d’autres acteurs, comme ceux du réseau d’enseignement catholique198, dont
l’un des responsables du service d’étude nous dira lors de son entretien que « le contrat
pour l’école est une conséquence des résultats de PISA » qui s’appuie sur les conclusions
tirées des résultats PISA par l’Université de Liège mettant l’accent sur le problème
d’équité du système (et moins sur son efficacité). Les chercheurs du SPE eux-mêmes
relèvent ce lien tout en insistant sur le fait que les acteurs politiques se sont « emparés
seuls » des résultats de PISA et ne les ont jamais consultés :
« Très clairement, l’équipe Arena, fonde beaucoup le contrat stratégique pour l’école sur les résultats PISA.
Je dirais qu’ils s’en emparent tout seul. Il n’y a pas eu de réunion particulière. Ca se fait tout seul. Ils ont les
rapports PISA, ils le lisent, ils ont entendu, ils moulinent. Et puis ils sortent le contrat. (…) » (l’ancien NPM,
directeur du SPE, entretien).
Enfin, certaines personnes que nous avons interviewées soulignent par ailleurs le rôle
qu’a joué la médiatisation de PISA dans l’adoption du Contrat pour l’école :
« Par exemple, une des priorités c’est « non aux écoles ghettos ». Je pense que ce sont des termes assez forts
qui n’auraient pas, à mon avis, été imaginables ou utilisables s’il n’y avait pas eu tout le procédé médiatique
que PISA a enclenché » (un conseiller au cabinet ministériel, PS, entretien)
La réforme de l’inspection (2007)
Plusieurs personnes relient également les enquêtes PISA et la récente réforme de
l’inspection, qui est venue unifier le corps d’inspection et modifier son rôle en le
rattachant davantage au pilotage du système éducatif. Selon elles, PISA aurait été un
« détonateur »199, déclenchant et accélérant le processus d’une réforme dont l’idée, qui
194
V. Jamoulle, parlementaire PS, PCF, 11/12/2007, p. 42 ; M. Arena, à l’époque Ministre de l’enseignent, PCF,
24/01/2008, p. 11.
195
M. Arena, à l’époque Ministre de l’enseignent, PS, PCF, 11/12/07, p. 47.
196
M. Arena, à l’époque Ministre de l’enseignent, PS, Le Soir, 04/12/07d
197
Le Soir, 07/12/04 ; Le Soir, 08/12/04a ; Le Soir, 08/12/04b ; Le Soir, 22/01/05 ; Le Soir, 01/03/05.
198
Cf. Entrées Libres, n°19, mai 2007, pp. 2-3
199
Selon les propos tenus par un inspecteur, lors de son entretien.
93
3.
PISA, savoir et pouvoir
remonte à une vingtaine d’années, connaissait jusque là plusieurs résistances200. Le
projet de réforme aurait été relancé dès la publication des résultats du premier cycle de
PISA (2000), « le martinet OCDE à propos des (petites) performances scolaires de la CFB
ayant fouetté les énergies »201. « La gifle reçue par le système » aurait exacerbé « le
besoin d’avoir un état des lieux du système éducatif » pour lequel l’inspection pouvait
jouer un rôle202. La comparaison avec la Flandre, mieux classée que la Communauté
française, aurait en particulier joué un rôle favorable, leur inspection ayant déjà été
réformée pour passer d’une inspection réalisant une évaluation des enseignants à une
inspection effectuant une évaluation du système203.
Le décret inscription (2007) et le décret mixité sociale (2008)
Enfin, les plus récentes politiques impliquant PISA comme source d’appui sont le décret
inscription et le décret mixité sociale, déposés par des Ministres socialistes de
l’Enseignement successifs et soutenus en partie par les parlementaires écologistes et
démocrates-humanistes. Ces décrets cherchent à lutter contre la ségrégation du système
éducatif et à créer de la mixité sociale dans les écoles en régulant les inscriptions des
élèves. Dans les débats parlementaires à propos de ces deux décrets, de nombreuses
références sont faites à PISA par leurs défenseurs pour mettre en avant et fonder le
constat du caractère inégalitaire du système éducatif en CFB que les nouvelles modalités
d’inscription des élèves se proposent de combattre204. La mixité sociale est en particulier
présentée comme une mesure qui serait préconisée par « toute la communauté
scientifique internationale, OCDE en tête » et qui découlerait de la comparaison
internationale entre différents systèmes éducatifs permise par une étude telle que
PISA205. Ces deux mesures sont vivement critiquées par les parlementaires libéraux qui
200
Plusieurs personnes soulignent que les inspecteurs eux-mêmes étaient réfractaires à la réforme ne voulant
pas être confinés à un rôle de contrôle au détriment d’un des aspects jugés les plus intéressants de leur métier,
celui de l’accompagnement pédagogique des enseignants (selon les propos tenus par un ancien secrétaire
général et par un responsable du service d’étude du réseau d’enseignement catholique lors d’entretiens).
201
Le Soir, 07/02/01.
202
Selon les propos tenus par un inspecteur général (A.), lors de son entretien.
203
Selon les propos tenus par un inspecteur général (A.), lors de son entretien ; voir aussi P. Hazette, à
l’époque Ministre de l’enseignement PRL, propos rapporté par Le Soir, 05/12/01.
204
M. Arena, à l’époque Ministre de l’enseignement PS, PCF, 11/12/07, p. 38 ; M. Elsen, parlementaire CdH,
PCF, 11/12/2007, p. 30 ; PCF, 11/12/2007 ; PCF, 12/03/2008a, p. 31, p. 123 ; PCF, 12/03/2008b, p. 3 ; A.M. Corbisier-Hagon, parlementaire cdH, PCF, 17/07/2008, p. 21.
205
C. Dupont, Ministre de l’enseignement, PS, PCF, 03/06/2008, p. 6 ; V. Jamoulle, parlementaire PS, PCF,
11/12/2007, p. 42.
94
3.
PISA, savoir et pouvoir
leur opposent le risque « d’un nivellement par le bas »206 et une perte d’autonomie des
pouvoirs organisateurs – autonomie qui serait au contraire promue, selon eux, par le
dernier rapport international de PISA207.
3.3.3 PISA comme modèle pour la production
d’autres outils de régulation basés sur la connaissance
Nous venons de voir que PISA constitue un référent incontournable dans la politique
éducative en CFB et qu’il est utilisé comme source d’appui et de légitimité pour de
nombreux décrets. Il semblerait que PISA constitue également dans une certaine mesure
un modèle pour l’élaboration d’un autre outil de régulation basé sur la connaissance : les
évaluations externes nationales. Du moins, il apparaît que certaines questions « socioculturelles » contenues en annexe des tests nationaux d’évaluation externe soient
identiques à celles contenues notamment dans les questionnaires de PISA. Ces questions
ont soulevé de vives réactions de la part des parlementaires libéraux – se disant par
ailleurs « très favorables au principe des évaluations externes » - qui ont critiqué la
présence de questions visant à déterminer l’origine sociale des élèves les jugeant « très
attentatoires à la vie privée »208, non pertinentes et « dévoyant l’évaluation pour
corroborer une idéologie »209. Pour légitimer leur présence et leur formulation, plusieurs
acteurs (comme le Ministre socialiste de l’enseignement de l’époque, le directeur du
Service de pilotage ou le mouvement de l’APED) s’appuieront notamment sur PISA : sur
le fait que telles questions se retrouvent dans des versions antérieures d’enquêtes
internationales comme les « fameuses enquêtes PISA », « qu’il s’agit de techniques
classiques utilisées dans les tests internationaux PISA »210.
La question de prendre PISA comme modèle ou non pour les évaluations externes a été
débattue au sein du Parlement de la CFB. Certains parlementaires, des socio-chrétiens,
auraient souhaité que « les indicateurs soient établis en cohérence avec la participation
de la CFB aux enquêtes internationales d’évaluation externe du programme PISA » et
que les évaluations externes nationales « fassent référence aux normes internationales
206
A. Destexhe, parlementaire MR, PCF, 11/12/2007, p. 50.
207
W. Borsus, parlementaire MR, PCF, 03/06/2008, p. 6.
208
Selon les propos tenus par un parlementaire libéral, lors d’un entretien.
209
F. Bertieaux, parlementaire MR, Le Soir, 11/03/2008.
210
N. Hirtt, membre du mouvement pédagogique l’APED, Le Soir, 21/02/2008 ; M. Herphelin, directrice adjointe
du service de pilotage du système éducatif, propos rapportés dans Le Soir, 20/02/2008 ; M. Arena, à l’époque
Ministre de l’enseignement, PS, PCF, 26/02/2008, pp. 48-49.
95
3.
PISA, savoir et pouvoir
pour ne pas être en distorsion » vis-à-vis d’elles211. Face à cette proposition, les
parlementaires socialistes au pouvoir ont cependant affirmé une certaine distance en
mettant en avant la « capacité nationale de se doter d’un système cohérent d’indicateurs
correspondant à des normes scientifiques strictes » et une volonté d’indépendance par
rapport à des critères hétéronomes : « par rapport à la liberté d’enseignement, il n’y a
rien de pire que de dire que les critères sont fixés de l’extérieur de notre pays »212, « on
ne peut
pas
se contenter d’avoir des
normes
internationales
qui apparaissent
nécessairement comme intrusives et comme des agressions. Il faut aussi mettre en place
dans notre système d’enseignement, qui en manque profondément, des formes
d’évaluation externes qui nous sont propres »213.
Enfin, on peut relever que, selon un responsable du service d’étude du réseau
d’enseignement catholique que nous avons interviewé, PISA servirait aujourd’hui de point
de
comparaison
et
de
modèle
pour
des
évaluations
externes
que
le
réseau
d’enseignement catholique compte lui-même organiser.
3.3.4 L’usage et les effets de PISA sur la politique éducative
Un outil de régulation par les connaissances ?
En définitive, à partir de l’analyse des débats publics, au sein de l’arène médiatique ou
parlementaire, que peut-on dire de l’usage qui est fait de PISA dans le processus de
fabrication politique en éducation et de son éventuelle influence ? Est-il utilisé, comme le
voudraient ses promoteurs, comme un outil de régulation par les connaissances ?
Il nous semble que notre analyse montre avant tout l’usage intensif de PISA au sein des
débats politiques en éducation, à tel point que PISA paraît constituer un référent
incontournable. Nous avons vu que non seulement les débats sur PISA sont nombreux
(cf. point 3.3), mais que PISA est également invoqué dans les discussions qui ont lieu au
sujet de toutes les politiques éducatives majeures ou de tous les principaux projets de
réforme politique qui ont été proposés en CFB ces dernières années.
Comme nous l’avons déjà relevé, cela ne signifie évidemment pas que les connaissances
produites par PISA aient un impact réel ou fort sur le contenu de ces politiques. Il
apparaît plutôt que les connaissances produites à partir de PISA et utilisées par les
différents acteurs intervenant dans le champ éducatif en CFB sont peu nombreuses (par
rapport à celles contenues dans les rapports PISA nationaux ou internationaux) et en
211
M. Charlier et Mme Corbisier-Hagon, parlementaires PSC, PCF, 28/02/2002, p. 40 ; A.-M. Corbisier-Hagon,
parlementaire PSC, PCF, 24/04/2002, p. 11.
212
C. Dupont, à l’époque parlementaire PS, PCF, 28/02/2002, p. 41.
213
C. Dupont, parlementaire PS, PCF, 24/04/2002, p. 11.
96
3.
outre
pas
vraiment
nouvelles
(par
rapport
à
d’autres
PISA, savoir et pouvoir
études
nationales
ou
internationales). On peut alors se demander à quel point PISA constitue un outil de
régulation par les connaissances… On ne peut pas dire que les enquêtes PISA aient
réellement permis aux acteurs scolaires de mieux comprendre certains processus
éducatifs non déjà connus, ni que les acteurs scolaires aient fondé sur cette base leur
orientation et leur action. Par contre, c’est bien parce que c’est un outil produisant des
connaissances - et des connaissances jugées légitimes (parce que « scientifiquement
rigoureuses » et cautionnées internationalement) - que PISA est lui-même considéré
comme un outil légitime. Autrement dit, une grande partie de la légitimité de PISA
provient du fait qu’il produit des connaissances, et des connaissances qui sont
considérées comme légitimes. Sa légitimité, comme son usage, s’inscrivent dans le
contexte d’un certain développement d’une evidence based policy, ou du moins d’une
certaine volonté de fonder ou de montrer que l’on fonde les politiques éducatives sur des
connaissances « scientifiques ».
Il n’en reste pas moins que PISA connaît un usage public, politique et médiatique sans
précédent par rapport à d’autres études nationales et internationales, et qui nous semble
avoir un certain impact sur les termes et la forme du débat public en éducation et par
conséquent, d’une certaine manière, sur l’action publique en éducation. C’est ce que nous
allons développer dans la suite du texte.
Un certain rôle dans la construction sociale des problèmes
En premier lieu, les enquêtes PISA paraissent avoir joué un certain rôle dans le processus
de définition des problèmes jugés importants en éducation : sans avoir apporté de
nouvelles connaissances qui auraient fait émerger de nouveaux problèmes, la diffusion
de ses résultats et son impact médiatique ont néanmoins contribué à renforcer, voire à
sceller la définition des problèmes de l’enseignement déjà posés par les acteurs du
champ éducatif, en termes d’inefficacité et d’inégalité (Maroy et Mangez, 2008). Depuis
la diffusion des études PISA en 2001, le système éducatif en CFB est massivement, voire
presque exclusivement lu et décrit dans ces termes-là, posés par les rapports nationaux
de PISA : il est « inefficace et inéquitable » – une « réalité » souvent présentée comme
« incontestable depuis PISA »214. En ce sens, PISA participe à la construction sociale de
« la réalité du système éducatif » en CFB. En particulier, de nombreux acteurs scolaires
soulignent le rôle important joué par les enquêtes PISA dans la conscientisation et la
socialisation du grand public au problème de l’inéquité du système éducatif qui auraient
ensuite facilité sa mise en agenda politique. En ce sens, par son influence sur la
formation de l’opinion publique, PISA peut être considéré comme un dispositif de
« régulation douce » des politiques éducatives (Carvallo, 2008).
214
Comme le montre, par exemple, l’extrait de débat parlementaire suivant au sujet du coaching scolaire :
« (…) les rapports PISA et d’autres études mettent en avant une iniquité que l’on ne peut nier » (F. FassiauxLooten, parlementaire PS, PCF, 09/04/2008a, p. 8).
97
3.
PISA, savoir et pouvoir
Une évolution dans le regard porté sur le système éducatif
PISA ne semble pas seulement avoir eu une certaine influence sur le « contenu » du
regard porté sur le système éducatif en CFB (en termes d’efficacité et d’équité), il semble
aussi participer à une certaine évolution sur la manière de le regarder qui paraît
désormais davantage statistique, macro et comparative (entre pays, entre groupes
d’élèves, types d’écoles, etc.). Comme le relève l’ancien NPM, PISA contribue à un
« déplacement du curseur » du niveau micro (celui la classe) au niveau macro (celui du
système). En ouvrant un « espace de comparaison » avec d’autres systèmes nationaux
(comme la Flandre, les pays scandinaves, etc.), plusieurs acteurs soulignent également
que PISA a introduit un certain relativisme culturel et a permis de se rendre compte de
l’existence d’autres manières de faire possibles : de « se rendre compte que la réalité de
la CFB n’est pas la seule possible »215 et que certaines pratiques bien ancrées dans
« notre culture » et difficiles à modifier, comme la pratique du redoublement, n’existent
pas dans certains systèmes éducatifs qui présentent pourtant de bons résultats (comme
la Finlande).
Un instrument de (dé)légitimation
Au-delà de son impact sur les débats publics et la conscientisation à certains problèmes,
il est difficile cependant de déterminer dans quelle mesure les connaissances produites
par PISA ont réellement joué un « rôle moteur » dans la formulation et la mise en œuvre
des politiques éducatives. Certains acteurs politiques soulignent que les enquêtes PISA,
en venant « dramatiser les termes des débats »216, ont apporté un « coup d’aiguillon »217
à certaines propositions politiques et accéléré leur mise en agenda politique. Certains
acteurs scolaires relèvent également que PISA joue le rôle d’une « épée de Damoclès »218
pour les décideurs politiques, qui les somme de réagir et face à laquelle on leur demande
des comptes. Alors non seulement PISA est utilisé par les acteurs politiques pour justifier
215
216
Selon les propos du représentant de la CFB au PGB et chercheur au SPE, lors de son entretien.
Propos tenus par un parlementaire, dans le cadre d’un débat sur la maîtrise du français, où il précise qu’un
rapport qu’il a rédigé et soumis au débat parlementaire « n’a pas été suscité par le rapport de l’OCDE, dit
PISA », mais que « la parution du rapport PISA est venue dramatiser les termes du débat avec un double effet.
D’une part, le risque de caricature (…). D’autre part, un effet plus bénéfique dans la mesure où chacun s’est
senti concerné par les performances de nos élèves et que la presse a accueilli le débat indispensable entre
pédagogues, enseignants, parents » (C. Dupont, parlementaire PS, PCF, 24/04/2002, p. 2).
217
Propos tenus par un parlementaire, dans le cadre d’un débat sur la maîtrise du français, où à la fois il dit
« tenir à souligner que l’origine de ce travail va chercher plus loin que les dernier remous de l’affaire PISA » et
reconnaît que celle-ci a apporté un « coup d’aiguillon » (A.-M. Corbisier-Hagon, parlementaire PSC, PCF,
24/04/2002, p. 9).
218
Selon les termes d’un ancien secrétaire général et chef de cabinet que nous avons interviewé.
98
3.
PISA, savoir et pouvoir
des propositions, mais ils doivent eux aussi justifier leurs actions par rapport aux
« mauvais résultats » à PISA et aux moyens d’y remédier.
Il nous semble que notre analyse tend surtout à suggérer que l’usage de PISA s’inscrit
avant tout dans une logique de légitimation de projets politiques préexistants. Comme le
dit un parlementaire, « PISA apporte de l’eau à son moulin »219. Au vu de l’usage intensif
de PISA par les acteurs politiques, on pourrait supposer qu’on reconnaît à PISA un
certain « pouvoir légitimateur », lequel ne nous semble pas uniquement basé sur la
prétendue « scientificité » des connaissances produites mais s’inscrire surtout dans des
rapports de pouvoir. Ce processus de légitimation est particulièrement important dans le
contexte consociatif de la CFB où la recherche de consensus et la construction de
compromis sont fondamentales. On pourrait dire que la diffusion de PISA s’accompagne
d’une « politisation de l’usage des connaissances plutôt que d’une rationalisation de
l’action publique en éducation telle que visée par ses promoteurs » (Maroy et Mangez,
2008). Autrement dit, les acteurs politiques utilisent moins les connaissances produites
par PISA pour rationaliser leur prise de position et leur action, problématiser ou imaginer
des solutions, que pour justifier et prôner certaines idées politiques qu’ils avaient par
ailleurs. Cette instrumentalisation politique de PISA, perçue par les acteurs eux-mêmes,
pourrait contribuer à sa perte de légitimité. En même temps, nous avons vu que les
acteurs scolaires entretiennent un rapport paradoxal à PISA : ils s’appuient fréquemment
sur PISA pour justifier leurs positions tout en affichant une volonté de se démarquer de
PISA. Plus encore, on pourrait avancer que la diffusion de PISA s’accompagne d’une
« politisation de la production des connaissances » (Maroy et Mangez, 2008). Dans la
partie suivante, nous verrons ainsi que des acteurs scolaires, plutôt rares cependant,
s’emparent de la base de données PISA pour produire eux-mêmes des analyses servant à
légitimer leur position. Ce fait, nouveau en CFB, nous semble participer d’un changement
de registre argumentaire et de la manière de débattre en éducation.
219
P. Fontaine, parlementaire MR, PCF, 12/12/2004, p. 43, dans le cadre d’un débat sur la lecture publique.
99
4. Travaux d’analyse des données PISA en CFB
4. Transformation des données
en connaissances et en arguments
Par Bernard Delvaux
Ce qui circule en Communauté française à propos de PISA ne sont pas les données
brutes collectées dans le cadre des enquêtes mais plutôt des connaissances et des
arguments fondés, au moins en partie, sur ces données. Sous le terme de connaissance,
nous désignons tous ce qui prétend dire le réel. La notion d’argument renvoie quant à
elle à des énoncés normatifs, qui prétendent dire ce dont il faut se préoccuper (les
problèmes) ou les mesures qu’il convient de prendre (les préconisations). Connaissances
et arguments sont liés. Les seconds sont en effet fréquemment justifiés sur la base des
premières. Et tous deux – mais surtout les connaissances - sont liés aux données brutes.
C’est donc à ce double processus de transformation de données en connaissances et de
connaissances en arguments que nous intéresserons dans cette partie du rapport.
Notre premier point aura pour but de présenter les groupes d’acteurs opérant ce travail
de transformation. Nous verrons qu’en Belgique, ce travail repose pour l’essentiel sur des
acteurs agissant à l’échelle communautaire. L’enseignement est en effet une compétence
exclusive des Communautés, ce qui a pour conséquence que les données nationales
publiées par l’OCDE n’ont que fort peu de signification pour les acteurs communautaires,
incitant ceux-ci à travailler directement les bases de données PISA. Nous verrons aussi
que, contrairement à ce qui est observé dans de nombreux pays, ces acteurs sont tous
externes à l’administration.
Nous nous intéresserons ensuite à la première étape de transformation, qui consiste à
analyser les données brutes pour en tirer des connaissances prétendant dire le réel. Dans
le cas de PISA, ces connaissances prennent essentiellement la forme de comparaisons/
classements et d’associations/explications. Nous montrerons notamment comment la
relativité des classements tend à être oubliée au fil de ce processus et avec quelles
autres entités la Communauté française est préférentiellement comparée.
Le point suivant sera consacré au second processus, qui consiste à transformer les
connaissances en arguments. Les formes de ces arguments se rapprochent des
arguments mobilisés par les acteurs directement investis dans l’action publique lorsque
les problématisations et préconisations qu’ils défendent sont mises à l’épreuve par leurs
adversaires ou lorsqu’ils tentent de mettre à l’épreuve les problématisations et
100
4. Travaux d’analyse des données PISA en CFB
préconisations de leurs adversaires.
Nous ferons ensuite une relecture transversale des deux processus de transformation,
montrant combien le travail sur les données brutes de PISA, bien qu’assumé pour
l’essentiel par des scientifiques, est pleinement inscrit dans l’action publique.
Notre travail, qui s’inscrit pour l’essentiel dans un cadre théorique proposé par Bernard
Delvaux (2008, 2009), reposent sur une analyse documentaire de textes où sont
présentés les résultats d’analyses directement effectuées à partir des bases de données
PISA. Notre corpus regroupe non seulement des textes publiés dans le cadre du contrat
liant la Communauté française au service universitaire en charge de la gestion de PISA
en Belgique francophone (textes décrits au point 3.1) mais aussi des textes produits en
dehors de ce contrat, soit par les acteurs chargés de la rédaction des textes faisant partie
du contrat, soit par d’autres acteurs. Le corpus est constitué de 36 publications220,
émanant pour l’essentiel du monde académique, mais incluant aussi des textes de deux
auteurs n’appartenant pas à cet univers. Les documents du corpus sont assez variés
quant à leur taille et à leur support221. La liste est reproduite à l’annexe 4. Dans le texte
qui suit, nous référencerons ces textes non par les noms de leurs auteurs mais par un
code reprenant le sigle du groupe d’acteur l’ayant produit et un numéro d’ordre. Ce à
quoi renvoient ces codes est aussi précisé à l’annexe 4.
Nous avons soumis ce corpus à une analyse qualitative de nature catégorielle, en
classant des extraits ou des synthèses de segments de ces textes dans des catégories
préétablies mais en partie adaptées en cours de travail. Ces catégories renvoient aux
concepts mobilisés dans ce texte, et notamment à ceux de connaissance, d’argument, de
220
Pour délimiter plus précisément notre corpus, nous avons écarté les publications qui portaient
exclusivement sur des questions méthodologiques et celles qui ne traitaient pas de la Belgique. Nous avons
aussi écarté les textes qui consistaient en une vulgarisation ou une synthèse de résultats publiés par ailleurs.
Au final, le corpus qui a été analysé est constitué de 36 articles ou ouvrages. Ce corpus contient 9 des
documents réalisés par le SPE, déjà évoqués au point 3.1., et 27 autres textes. Tous ces documents sont ici
considérés sans distinction a priori entre les textes produits par le SPE dans le cadre de sa mission de gestion
de PISA et les autres textes.
221
Pour chaque enquête, nous avons analysé les « Premiers résultats », les « Clés de lecture de Regards sur
l’éducation », et la brochure d’environ 200 pages publiée dans la série de cahiers de recherche du SPE. Les
autres textes sont pour l’essentiel des articles. On ne compte en effet que quatre documents de taille
supérieure à des articles : pour l’ULg, un livre aux éditions de Boeck et un numéro complet de la revue du
Centre de lecture publique de la Communauté française ; pour les autres acteurs, deux rapports de recherche,
l’un de l’ULB et l’autre de l’IRES. La quasi totalité des articles a été publiée dans des revues de la Communauté
française ou dans des livres édités par des scientifiques de la Communauté française. On ne compte que trois
articles dans des revues françaises, un dans une revue anglophone et un dans un ouvrage édité par des
chercheurs flamands.
101
4. Travaux d’analyse des données PISA en CFB
classement,
d’association
causale,
de
problématisation
et
de
préconisation.
Ce
regroupement thématique d’extraits et de synthèses nous a permis alors d’effectuer une
lecture transversale des documents, thème par thème, et, sur cette base, de construire
les analyses descriptives et interprétatives présentées ci-après.
Notons que nous avons privilégié une lecture globale des processus. Notre propos est
moins de décrire et de comprendre les différences entre les catégories d’acteurs
impliquées dans ce travail de traitement des données PISA que de donner à voir et à
comprendre quelle est la nature générale des processus de transformation des données
en connaissances et en arguments.
4.1 Les acteurs
On peut regrouper les auteurs des textes étudiés en sept groupes relativement
homogènes, autonomes et étanches (point 1). La part que chacun d’eux prend dans le
traitement des données PISA n’est pas semblable (point 2). Cependant, ces acteurs
partagent un certains nombre de traits (point 3), qui les distinguent en partie des acteurs
n’ayant pas investi dans le travail de traitement des données PISA (point 4).
4.1.1 Sept groupes d’acteurs
Trente personnes différentes ont contribué aux textes du corpus. Elles peuvent être
réparties en 7 groupes sur la base de leur appartenance institutionnelle (et non sur la
base des points de vue qu’ils défendent ou du type de travail qu’ils effectuent).
-
Le groupe le plus imposant est constitué de chercheurs de l’ULg (Université de
Liège) et de quelques chercheurs de l’UMH (Université de Mons Hainaut). Les
auteurs de ces deux universités peuvent être considérés comme appartenant au
même groupe dans la mesure où les articles signés par les chercheurs montois
l’ont toujours été en association avec des chercheurs liégeois. Le point commun à
tous ces chercheurs est d’être ou d’avoir été membres de l’ULg (à l’exception d’un
d’entre eux), d’être aujourd’hui encore dans une université publique et de
continuer à publier ensemble des articles. 14 chercheurs des deux universités (en
majorité liégeois) ont contribué à la rédaction des articles du corpus. Ces
chercheurs sont majoritairement membres du SPE222, service officiellement en
charge de l’enquête PISA en Belgique francophone.
222
Service de pédagogie expérimentale devenu Unité d’analyse des systèmes et des pratiques d’enseignement.
102
4. Travaux d’analyse des données PISA en CFB
-
Deuxième groupe en nombre, le Girsef (Groupe interdisciplinaire de recherche sur
la socialisation, l’éducation et la formation223), centre de recherche de l’UCL
(Université catholique de Louvain) regroupant des chercheurs en sciences de
l’éducation, des sociologues et, à une époque révolue, des économistes ;
cinq
chercheurs de ce centre ont travaillé sur les données PISA : trois d’entre eux sont
des chercheurs en sciences de l’éducation et deux des économistes.
-
A l’IRES (Institut de recherches économiques et sociales), autre centre de
recherche de l’UCL, regroupant des économistes, trois chercheurs ont produits des
papiers à propos de PISA.
-
Aux FUNDP (Facultés universitaires Notre-Dame de la Paix), quatre chercheurs du
Groupe de recherche en économie du bien-être ont signé un article sur PISA.
-
A l’ULB (Université libre de Bruxelles), on dénombre également trois chercheurs,
membres du GERME (Groupe d’étude sur l’ethnicité, le racisme, les migrations et
l’exclusion). Il s’agit des seuls sociologues ayant travaillé la base de données
PISA.
-
A l’APED (Association pour une école démocratique), organisation extérieure au
monde académique, les travaux sur PISA sont le fait d’une seule personne : Nico
Hirtt.
-
On peut ajouter à cette liste le nom d’Alain Destexhe, parlementaire libéral, dans
la mesure où un des communiqués qu’il a diffusé reposait sur un travail des bases
de données PISA.
Les groupes ainsi définis, bien qu’ayant des contacts et participant parfois aux mêmes
ouvrages collectifs, sont relativement étanches. Aucun article du corpus n’a été rédigé
par des auteurs appartenant à des groupes différents224. Sans totalement s’ignorer, les
membres des différents groupes se citent assez peu, tirant l’essentiel de leurs références
de leur propre groupe d’appartenance ou d’auteurs étrangers. Il y a également assez peu
de controverses entre eux. Et, bien que certains colloques aient permis de confronter les
analyses de certains de ces auteurs, aucun colloque n’a eu pour objectif principal de faire
le point sur les analyses tirées des données PISA à l’échelle de la Communauté française,
et ce en dépit de l’incessante référence aux données PISA dans les médias et les discours
politiques.
223
Dont l’acronyme signifiait, jusqu’en 2008 : Groupe interfacultaiire de recherche sur les systèmes
d’enseignement et de formation.
224
Même si des certains articles issus de groupes différents trouvent place dans des ouvrages collectifs
communs.
103
4. Travaux d’analyse des données PISA en CFB
4.1.2 Acteur prédominant
Les groupes ainsi définis se différencient en termes de ressources humaines. Près de la
moitié des personnes citées ci-dessus (14 sur 30) appartient en effet au groupe de l’ULgUMH. En nombre de publications, la même différence apparaît : le groupe ULg-UMH
publie en effet 19 des 36 publications de notre corpus, dont 3 en association avec le
Ministère. La différence entre les groupes est encore plus grande si l’on tient compte du
nombre de pages. Près de ¾ des pages traitant de PISA sont le fait du groupe ULg-UMH.
Cette prédominance s’explique principalement par le fait que le SPE, où travaillent
l’essentiel des signataires du groupe ULg-IMH, gère depuis le départ l’enquête PISA. En
dehors de l’ULg, seuls les groupes du Girsef et de l’APED ont travaillé sur les données
PISA avec une certaine constance. Les autres groupes n’ont utilisé les données PISA que
de manière très ponctuelle.
104
4. Travaux d’analyse des données PISA en CFB
Tableau 1. Ventilation du nombre de textes et de pages
selon le groupe d’appartenance des auteurs
Groupe
ULg-UMH
Nombre de
textes
Nbre total de
pages
Nbre de
pages
consacrées
à PISA
19
1084
809
% des pages
consacrées à
PISA
73,3%
APED
5
99
99
9,0%
UCL-Girsef
7
139
92
8,3%
ULB
1
60
60
5,4%
FUNDP
1
21
21
1,9%
MR
1
12
12
1,1%
UCL-IRES
2
120
10
0,9%
Total
36
1535
1103
100,0%
Note : Classement en fonction du nombre de pages consacrées à PISA. Le nombre de pages
a été calculé sans pondérer en fonction de la taille de ces pages, exception faite des 3
rapports du SPE, où chaque page a été comptée comme équivalent à 2/3 des autres pages.
4.1.3 Acteurs présents
L’écrasante majorité des personnes ayant effectué ces analyses appartient au monde
universitaire. Il n’y a que deux exceptions à cette règle : Nico Hirtt, de l’Association pour
une école démocratique (APED), et le parlementaire Alain Desthexe, du Mouvement
Réformateur. Nettement opposés sur l’échiquier politique (le premier à gauche, le second
à droite), ils ont tous deux, par leur intrusion dans le ‘domaine réservé’ des scientifiques,
joué un rôle d’aiguillon et probablement eu un impact sur les travaux des universitaires,
Nico Hirtt pour ce qui concerne les comparaisons entre Communautés flamande et
francophone225 et pour la question de l’impact des variables ethniques, et Alain Destexhe
pour ce qui concerne le poids de la variable des ‘réseaux’ (écoles officielles/libres).
La distribution des auteurs en fonction de leur affiliation disciplinaire révèle la
prédominance d’une discipline. 24 des 36 publications sont le fait de chercheurs des
sciences de l’éducation. Les économistes viennent en second lieu avec 5 publications (au
Girsef, à l’IRES et aux FUNDP). Un seul texte est signé par des sociologues.
Soulignons aussi que le SPE et dans une certaine mesure le Girsef se sont spécialisés
dans le traitement de données centrées sur les résultats scolaires226, dans une approche
225
L’APED, dont il est membre, est l’une des rares associations du mode éducatif à être commune aux trois
Communautés.
226
Le SPE est en effet également interlocuteur du Ministère pour les nombreuses évaluations externes
réalisées par la Communauté française et a par ailleurs été impliqué dans les enquêtes de l’IEA (Dominique
Lafontaine est membre du « PIRLS 2006 Reading Development Group »). Cette implication dans d’autres
enquêtes similaires à PISA n’est cependant pas l’apanage du SPE puisque le Girsef a réalisé une enquête sur la
dernière année de l’enseignement primaire auprès de 120 écoles catholiques (Vause, Dupriez et Dumay, 2008).
105
4. Travaux d’analyse des données PISA en CFB
s’inscrivant en grande partie dans le courant de la ‘school effectiveness’, et ce dès avant
les enquêtes PISA227. Les autres groupes universitaires ne sont pas des spécialistes de ce
courant d’analyse, ce qui n’a cependant pas empêché certains d’entre eux de mobiliser
les données d’enquêtes similaires à PISA, et notamment celles de l’IEA.
4.1.4 Acteurs absents
En dépit du fait qu’elles sont mises à disposition de tous et que des requêtes
automatisées peuvent être adressées à l’OCDE, force est de constater que seules
certaines catégories d’acteurs se sont saisies de cette opportunité. La grande majorité de
ces acteurs vient du monde scientifique. Mais parmi les scientifiques préoccupés par les
questions d’éducation, seule une minorité s’est emparée de la base de données PISA.
Ceux qui constituent cette minorité partagent deux traits : (1) la maîtrise de techniques
statistiques plus poussées que les corrélations simples (analyses multivariées et multinivaux ou modélisation) ; (2) l’intérêt pour la question des politiques éducatives. Les
chercheurs plus ‘qualitatifs’, et notamment la plupart des sociologues spécialisés dans
l’analyse des politiques éducatives, n’ont pas investi la base de données. De même, de
nombreux chercheurs en didactique et en pédagogie n’ont pas investi PISA alors que les
questionnaires comportaient de nombreuses variables susceptibles de les intéresser, en
particulier pour la compétence cible mise en exergue à chacune des enquêtes.
En dehors du monde scientifique, la proportion d’acteurs n’ayant pas investi les bases de
données PISA est encore plus large puisque seuls deux acteurs non académiques ont
travaillé ces données. On pourrait, comme précédemment, expliquer cette faible
présence par la compétence en traitement statistique, tant il est vrai que la plupart des
institutions et groupes d’intérêts parties prenantes de la politique éducative ne disposent
pas de services d’étude, et donc de personnes ayant à la fois la disponibilité et les
compétences pour travailler les données. Mais comment expliquer que l’administration et
le Secrétariat général de l’enseignement catholique, disposant pourtant de telles
ressources, ne se soient pas investis dans l’analyse de cette base de données, par
ailleurs tant mobilisée dans le débat public ?
Pour l’administration, l’une des explications tient au fait que, dans la société pilarisée
belge, l’Etat est longtemps resté un acteur relativement faible évitant de prélever des
informations sur les différents piliers constitutifs de la société, ceci afin de respecter le
principe de discrétion nécessaire à la paix des sociétés consociatives (Mangez, 2008b).
Ce n’est que récemment et progressivement qu’a commencé à se constituer au sein de
l’administration un staff de personnes ayant des compétences en analyse statistique.
Mais ce staff reste encore peu étoffé. Par ailleurs, la qualité reconnue du travail et des
227
Non seulement le groupe de l’ULg, mais aussi par exemple Vincent Vandenberghe (Vandenberghe Vincent et
Zachary Marie-Denise (2000), Efficacité-équité dans l’enseignement secondaire de la Communauté WallonieBruxelles : essai d’évaluation dans le cadre d’une comparaison internationale, Cahier du Girsef, 7).
106
4. Travaux d’analyse des données PISA en CFB
compétences
du
SPE
ainsi que
les
nombreux
liens
tissés
entre ce centre et
l’administration rendent assez peu pressente l’idée qu’il est indispensable de doter
l’administration d’une capacité autonome de gestion et de traitement des données PISA
ou de demander à d’autres centres de recherche d’explorer tel ou tel champ des données
PISA.
Quant au Secrétariat général de l’enseignement catholique, bien qu’il fasse fréquemment
référence à PISA et dispose de personnes qui connaissent bien l’outil, il a choisi de
privilégier le travail sur les données des évaluations externes organisées par la
Communauté française. A ses yeux, celles-ci présentent en effet l’avantage de concerner
l’ensemble des écoles et de pouvoir ainsi être directement utilisées pour un pilotage des
établissements, ce qui n’est pas le cas des données PISA parce qu’elles sont rendues
anonymes et ne concernent qu’une part des écoles et qu’un échantillon d’élèves au sein
de chaque établissement.
On notera aussi l’absence d’analyse commune avec des auteurs flamands en dépit du fait
qu’un nombre croissant d’études soient centrées sur les comparaisons entre les deux
Communautés. Il n’y a cependant pas une absence totale de liens : un article du corpus
est publié dans un ouvrage édité par un auteur flamand, et des auteurs flamands sont
présents dans un ouvrage édité par des chercheurs du Girsef. Mais la confrontation des
points de vue à propos des données PISA demeure néanmoins peu approfondie.
4.2 Transformation des données en connaissances
Les acteurs que nous venons de présenter sont impliqués dans un premier processus de
transformation des données PISA en connaissances. Avant d’analyser ce processus, il
convient de préciser que l’usage du terme ‘données’ ne signifie nullement que nous
considérons les chiffres de la base de données PISA comme le reflet direct et indiscutable
de la réalité. Nous considérons au contraire ces données aussi comme le fruit d’un
processus d’élaboration que nous n’analyserons pas ici de manière systématique, mais
que nous évoquerons néanmoins à plusieurs reprises quand nous soulignerons combien
certains textes ici analysés accordent précisément peu d’attention à ce processus de
construction des données. En quelque sorte, en raison de ce processus d’élaboration, les
données PISA doivent être considérées pleinement comme des connaissances. Elles ne se
différencient de ce que nous nommons ici par convention ‘connaissances’ que parce
qu’elles se présentent sous la forme de chiffres ‘bruts’ non insérés dans des textes
interprétatifs.
La transformation de données en connaissances commence d’abord par une sélection des
données traitées. A ce niveau, nous faisons deux constats. D’une part, certaines données
sont privilégiées. D’autre part, les membres du groupe ULg-UMH analysent un large
107
4. Travaux d’analyse des données PISA en CFB
éventail de données alors que les autres circonscrivent généralement leurs investigations
à quelques variables.
Qu’en est-il du premier constat ? Alors que les bases de données PISA désormais
disponibles portent sur trois années et trois domaines de compétence, et contiennent un
grand nombre de variables contextuelles, les textes produits en Communauté française
se centrent sur certaines années, privilégient certaines compétences et se focalisent sur
certaines variables. Ainsi, plus de la moitié des études (20 sur 36) porte sur les données
2000. La prépondérance des données 2000 s’explique certes en partie par notre date
d’observation, plus proche des deux dernières enquêtes, mais on peut faire l’hypothèse
qu’elle reflète aussi l’impact plus grand de la première enquête sur l’opinion publique et
le moindre besoin des auteurs préoccupés par un travail de nature plus théorique
d’utiliser à tout prix les données les plus récentes228. La sélection des données est
également visible à propos des compétences étudiées. 20 des 36 articles ne tiennent pas
compte simultanément des trois champs de compétences, et les données relatives à la
lecture sont davantage explorées que les autres229. On note enfin que la majorité des
textes ne s’intéresse qu’à quelques variables, les plus utilisées étant les scores globaux
pour chaque grand type de compétence, le sexe, l’établissement, l’origine ethnique et
l’origine sociale. Les données relatives aux attitudes et aux engagements sont nettement
moins utilisées, comme les scores par ‘sous-groupe’ de compétences.
Seconde observation : les chercheurs de l’ULg et de l’UMH ont une approche nettement
plus extensive que les autres groupes. Ainsi, par exemple, seul des membres du ‘groupe’
ULg-UMH ont traité les données des trois enquêtes. Le traitement simultané de ces trois
enquêtes dans un même article est aussi le seul fait de l’ULg. De même, les chercheurs
de l’ULg ou de l’UMH signent 12 des 16 textes tenant compte simultanément des trois
compétences. A l’exception de l’ULg, dont l’approche très extensive est à relier au fait
que l’un des centres de recherche liégeois gère l’enquête PISA en Communauté française,
les différents groupes universitaires ont une approche assez ciblée. Pour eux, comme
pour Nico Hirtt et Alain Destexhe, PISA est une opportunité dont ils peuvent se saisir
pour développer des thèmes et des lignes de recherche dont ils se préoccupaient
auparavant. Sans aller jusqu’à affirmer que la
base de données PISA n’a nullement
infléchi leurs questionnements et pratiques, nous constatons qu’à la différence de l’ULg,
tenue de faire ‘le tour de la question’, les autres groupes abordent les données à partir
de questions largement prédéfinies. Ainsi, le Girsef (UCL) s’intéresse notamment à la
question de l’effet établissement, et le GERME (ULB) à celle du poids de la variable
ethnique. Quant aux économistes de l’IRES (UCL) et des FUNDP, ils utilisent PISA pour
228
229
Cas des auteurs du Girsef, publiant encore en 2008 des articles basés sur les données 2000.
Respectivement 27 articles sur la lecture, 26 sur les mathématiques et 17 sur les sciences. 8 articles
traitent exclusivement de la lecture, 6 des mathématiques et aucun des sciences
108
4. Travaux d’analyse des données PISA en CFB
des modélisations économétriques intégrant de multiples variables, dont certaines de
nature éducative.
Mais la question de la transformation des données en connaissances ne renvoie pas
seulement à la sélection des données. Elle renvoie aussi au type de formatage de ces
connaissances. Nous constatons que les formats de connaissance les plus présents dans
le corpus sont les comparaisons/classements et les associations/explications. Le corpus
contient par contre peu ou pas d’autres formes de connaissances souvent mobilisées
dans le processus d’action publique, comme celles qui cartographient l’état de l’opinion,
rendent compte des préconisations mises en œuvre ailleurs ou cartographient l’existant.
C’est la raison pour laquelle ce point consacré à la transformation des données en
connaissances est structuré en deux sous-points : l’un consacré aux comparaisons/
classements et l’autre aux associations/explications.
4.2.1 Comparer / classer
Les comparaisons constituent l’une des principales connaissances mobilisées dans le
cours de l’action publique. Or, l’une des fonctions essentielles de PISA est de rendre
possibles d’innombrables classements. PISA met en effet à disposition de multiples
acteurs des données standardisées sur un grand nombre de pays et pour un grand
nombre de variables. Sur chacune de ces variables, il est possible de construire un ou
plusieurs classements. Il est donc logique que les connaissances produites sous forme de
classements soient nombreuses dans le corpus étudié. Nous montrerons d’abord que le
caractère discutable de ces classements tend à être estompé et ensuite que certains
classements sont privilégiés tant au plan des entités comparées que des critères de
classement.
Un classement parmi d’autres… qui tend à devenir incontesté
Les critères retenus pour établir n’importe quel classement peuvent toujours faire l’objet
de débats, mais nous montrerons que la plupart des auteurs analysés ici n’entrent pas
dans une telle discussion voire même ne rappellent pas les présupposés qui sont au
fondement des classements, contribuant ainsi à estomper le caractère nécessairement
relatif de ces classements et à leur octroyer un vernis d’évidence. Les auteurs ne se
situent pas tous de manière identique par rapport à cette question. Certains, notamment
parmi les économistes, ne développent guère de réflexion à ce propos. D’autres, au
contraire, sont bien au fait de ces questions et certains d’entre eux - des chercheurs
liégeois notamment - ont d’ailleurs publié des articles pointus sur ces questions
méthodologiques. Il n’empêche que, dans les textes où sont présentés les classements,
cette réflexion méthodologique se réduit le plus souvent à quelques lignes dans
l’introduction.
Les classements dérivés des données PISA sont notamment fonction de la définition des
109
4. Travaux d’analyse des données PISA en CFB
compétences mesurées et de la population interrogée. Il est cependant frappant de
constater que les choix de compétences et de population-cible sont rarement mentionnés
et encore moins contestés dans les textes du corpus. Ce fait contribue à l’extinction des
rares débats qui ont eu lieu en Communauté française lors de la publication des résultats
de la première enquête et au fait que presque tous les acteurs en sont arrivés à
considérer ces classements comme l’exact reflet du réel : la plupart des Belges
francophones
sont
désormais
convaincus
de
l’inefficacité
et
de
l’inégalité
de
l’enseignement de leur Communauté.
Le fait que les classements soient fonction de la définition des compétences mesurées
n’est rappelé que par une partie des chercheurs de l’ULg et par Nico Hirtt (APED). En
dehors d’eux, personne ne pose la question de savoir si ce que mesure PISA est bien en
relation avec les objectifs qu’une société entend assigner au système éducatif. Or,
comme le montrent les chercheurs de l’ULg lorsqu’ils comparent les classements des
pays aux évaluations de l’OCDE et de l’IEA, les options différentes retenues par ces deux
organisations ont indéniablement des incidences sur les classements230.
Tout en soulignant l’aspect relatif et historiquement marqué des compétences privilégiées
par l’OCDE, les chercheurs de l’ULg défendent cependant les compétences retenues par
l’OCDE, en soulignant leur proximité avec les compétences démocratiquement définies en
Communauté française. Ainsi, selon eux, « il ne fait guère de doute que la manière dont
la lecture est évaluée dans PISA est largement en conformité avec les Socles de
compétences et cela ne surprendra guère, dans la mesure où le cadre d’évaluation de
PISA et les Socles s’alimentent aux mêmes modèles théoriques contemporains de la
lecture » (ULg 8, 2003, 18). Leur raisonnement est le même dans les domaines
mathématique et scientifique231. A leurs yeux, les compétences mesurées par PISA font
230
« La conception des mathématiques dans PISA fait davantage appel à des démarches cognitives complexes
que l’on appellerait volontiers transversales, en Communauté française de Belgique, telles que le raisonnement,
l’émission d’hypothèses, l’argumentation ou la communication des résultats. L’évaluation est moins proche des
contenus spécifiques, savoirs et algorithmes formels enseignés au cours de mathématiques que ce n’était le cas
dans TIMSS. En comparant les résultats de TIMSS et de PISA, on observe un bond en avant significatif des pays
anglo-saxons, tels le Royaume-Uni, la Nouvelle-Zélande, le Canada, l’Australie, qui ont une approche moins
formelle des mathématiques et un apprentissage plus poussé des démarches expérimentales (tous ces pays ont
par ailleurs de bonnes performances en sciences et en lecture)” (ULg 4, 2000, 22).
231
Dans celui-ci, ils estiment que « les préoccupations générales de l’évaluation de la culture scientifique dans
PISA sont également présentes, en amont du parcours scolaire des élèves de 15 ans, dans les prescriptions
officielles de la Communauté française [bien qu’il y ait] quelques divergences entre les concepts majeurs
abordés dans l’évaluation PISA et nos socles de compétences, qui ne les envisagent pas directement » (ULg 8,
2003, 25).
110
4. Travaux d’analyse des données PISA en CFB
donc bien partie des objectifs assignés au système éducatif de la Belgique francophone,
même si elles ne constituent qu’une part de ces objectifs232.
Nico Hirtt, bien qu’il utilise abondamment les données PISA, est le seul à véritablement
critiquer les options retenues et à souligner que, comme tous les autres tests
standardisés ou externes, nationaux ou internationaux, les tests PISA n’ont pas
seulement
pour fonction
de
comparer
les
efficacités relatives
de systèmes
ou
d’établissements, mais aussi de diffuser certaines finalités éducatives et, dans le cas
d’espèce, celles qui sont « adaptées aux demandes économiques actuelles »233. Parmi les
auteurs du corpus analysé, la critique qu’adresse Nico Hirtt est cependant isolée. Et l’on
peut penser que cet auteur lui-même, en utilisant abondamment PISA pour analyser les
inégalités, contribue à légitimer l’outil qu’il critique par ailleurs.
Le choix de fonder l’échantillon des jeunes testés sur une classe d’âge plutôt que sur une
année d’étude n’est pas davantage discuté. Dans notre corpus, des chercheurs de l’ULg
sont les seuls à traiter de cette question. Ils soulignent que, « dans les systèmes
éducatifs qui pratiquent le redoublement, parfois à large échelle, comme le nôtre, les
conséquences sur le niveau moyen des performances, et plus encore sur leur dispersion
232
C’est ce qu’ils soulignent dans un document adressé aux enseignants à propos des mathématiques. « PISA
n’évalue pas tous les aspects des mathématiques jugés importants dans nos différents programmes scolaires »
(ULg, « Que peuvent apporter les épreuves PISA aux enseignants ? »).
233
« Le but annoncé par les initiateurs de l’étude internationale PISA est d’évaluer, non des connaissances,
mais plutôt des “compétences”. La principale motivation officielle de ce choix est d’obtenir des résultats qui
soient aussi indépendants que possible des particularités des programmes de cours de chaque pays. Mais il y a
une autre motivation [...] qui tient au fait que l’enquête PISA émane de l’OCDE, ce grand “think-tank” du
capitalisme international. Cet organisme plaide, depuis plus de dix ans, en faveur d’une réforme profonde des
systèmes d’enseignement en vue de mieux les adapter aux demandes économiques actuelles [...]. L’un des
axes de cette “nouvelle politique éducative” est de réserver les savoirs abstraits de haut niveau [...] à ceux qui
en auront réellement besoin et de concentrer les efforts d’instruction du plus grand nombre sur l’acquisition de
‘compétences de base’ [...][...][...], qui pourront être exploitées de manière flexible dans un environnement de
production en perpétuelle mutation. [...] Dès lors, si les ‘points’ que fournit PISA en mathématique, par
exemple, mesurent assurément certaines compétences propres à cette discipline, ils laissent aussi de côté des
pans entiers de ce qui devrait constituer une bonne formation mathématique. Et puisque, d’une part, les pays
n’avancent pas au même rythme dans la mise en adéquation de leur enseignement avec les recommandations
de l’OCDE et que, d’autre part, ils conservent, au niveau des programmes, des particularités nationales fortes,
on ne peut pas vraiment considérer qu’ils soient égaux devant les tests PISA. [...] En d’autres mots, les
classements de pays suivant leurs résultats moyens aux tests PISA ne nous apprennent pas grand-chose, car ils
ne permettent pas de faire la part entre ce qui résulte réellement d’une efficience plus ou moins grande des
systèmes d’enseignement (sur le plan pédagogique, structurel ou budgétaire) et ce qui témoigne davantage des
spécificités des programmes ou de leur conformité avec les visions éducatives professées par l’OCDE » (APED 3,
2006, 29).
111
4. Travaux d’analyse des données PISA en CFB
ou sur les disparités d’acquis entre élèves, peuvent être non négligeables » (ULg 15,
2004, 18)234. Mais dans les textes du corpus, aucune analyse n’est esquissée quant aux
effets qu’une autre approche pourrait avoir sur le classement de la Belgique francophone.
Bien plus, aucun classement n’est effectué sous contrôle de l’année d’étude, de manière
à distinguer par exemple la population des jeunes ‘à l’heure’ et celle des jeunes ‘en
retard’ et d’établir un classement alternatif ou complémentaire à celui qui sert
aujourd’hui de référence exclusive. Rien n’est fait à ce propos dans notre corpus, sauf
tardivement et exclusivement avec la Flandre, lorsque Nico Hirtt en 2008 (APED 1, 2008)
et l’ULg en 2009 (ULg 9, 2009) compare les résultats par année d’étude.
A qui compare-ton la Communauté française ?
La majorité des études du corpus donne une place importante à la Communauté
française. C’est une de leurs raisons d’être puisque, dans les publications officielles de
l’OCDE,
la
Belgique
est
considérée comme
un
tout,
les
Communautés
n’étant
mentionnées qu’en fin de rapport dans des tableaux de données brutes, sans
commentaires235. Presque toutes les analyses figurant dans notre corpus contiennent
donc des données à l’échelle communautaire236 et sont focalisées sur les comparaisons
entre la Communauté française et d’autres entités nationales ou régionales.
Les comparaisons les plus fréquentes sont faites avec la Communauté flamande. Dans les
trois documents cosignés par le SPE (ULg) et le Ministère (ULg 1, 2 et 3), la
Communauté flamande n’est pas davantage mentionnée que les autres pays. Mais les
publications les plus complètes de l’ULg relatives aux données 2003 et 2006 (ULg 8 et 9)
présentent de manière systématique les données comparées des trois Communautés.
D’autres textes se limitent même aux comparaisons intra-belges sans mention d’aucun
autre pays (APED 1 et 3, ULB 1). Comme nous le rappellerons plus loin, on peut faire
234
On peut en effet imaginer que si on comparait les pays non à 15 ans mais à l’entrée de la 4e secondaire, les
élèves en retard pourraient accroître leurs compétences durant le parcours qui leur resterait à effectuer
jusqu’en 4e secondaire et qu’il est donc probable que les pays pratiquant davantage le redoublement verraient
une proportion plus grande de leurs élèves (ceux en retard) progresser encore. La dispersion des résultats des
pays s’en trouverait dès lors réduite. Peut-être observerait-on également des changements de classement.
235
Le rapport PISA 2000 distingue déjà les Communautés flamande et francophone, ainsi que les trois
communautés suisses (italienne, germanophone et francophone). Mais ces données régionales tiennent en un
tableau (résultats moyens, écarts types et résultats pour certains percentiles). Dans PISA 2003, des tableaux
plus touffus sont produits pour les Communautés belges, les deux communautés finlandaises et une partie des
régions de l’Italie, de l’Espagne et du Royaume-Uni. Dans PISA 2006, les statistiques régionales, plus
développées, concernent un plus grand nombre de régions en Belgique, au Royaume-Uni, en Italie, en Espagne
et en Finlande.
236
Quelquefois, cependant, la Belgique est analysée en tant que telle, sans distinction communautaire (ULg 16,
ULg 18).
112
4. Travaux d’analyse des données PISA en CFB
l’hypothèse que PISA, en procurant des bases de données standardisées a été un
élément favorisant les comparaisons entre les deux Communautés. Certains auteurs
appellent d’ailleurs à un approfondissement des études comparées237. Similarité et
différence des deux systèmes sont invoquées pour justifier un tel intérêt238.
Parmi les autres pays privilégiés en termes de comparaison, la Finlande occupe la
première place. Un des articles du corpus est exclusivement centré sur une comparaison
entre ce pays et chacune des deux Communautés (APED 2). Cette polarisation sur le
système finlandais, également observée dans d’autres pays, est indéniablement un effet
de PISA. Mais l’existence d’un relai en la personne de Claude Antilla, ancienne directrice
du lycée franco-finlandais d’Helsinki, fréquemment invitée à s’exprimer dans les médias
et lors de conférences, a renforcé cet effet.
Cette focalisation sur la Flandre et sur la Finlande a un impact sur la circulation de
connaissances. On observe en effet un gonflement des flux de connaissances provenant
de Finlande et de Flandre, portés par des acteurs que l’on peut qualifier de brokers ou de
circulators239 (Delvaux, 2008, 220). Ces flux sont quasi exclusivement à sens unique,
partant des pays ou régions performants et se dirigeant vers la Communauté française.
237
« La communautarisation de l’enseignement a conduit à une ignorance réciproque des systèmes
d’enseignement et à supprimer les études scientifiques comparées au sein de la Belgique. Or, chaque
enseignement a des spécificités propres et chacun devrait pouvoir tirer parti des points positifs l’un de l’autre
mais aussi, grâce à une pensée en miroir, jeter un regard critique sur ses propres failles. L’objectif de la
démocratisation des études nécessite un travail d’envergure dans toutes les parties de la Belgique » (ULB 1,
2007, 48).
238
« Les deux systèmes partagent en effet des éléments historiques et culturels, mais diffèrent également de
manière assez flagrante en termes d’efficacité pour les élèves de 15 ans. PISA est l’occasion de comparer ces
deux systèmes » (ULg 9, 2009, 119).
239
Les brokers et les circulators sont deux types d’acteurs faisant circuler les connaissances entre des ‘mondes’,
des ‘organisations’ ou des ‘scènes’ de l’action publique. Nous les distinguons en fonction de leur lieu d’insertion.
Les brokers (courtiers) sont attachés généralement à l’entité ou à la scène où ‘aboutit’ la connaissance ou d’où
part cette connaissance. Ils jouent le rôle d’import-export et de traducteurs, établissant des connexions entre
des mondes hétérogènes. Les circulators, quant à eux, sont extérieurs et font circuler les idées entre des
entités et des scènes auxquelles ils n’appartiennent pas. Ils tentent d’organiser la circulation horizontale des
connaissances entre pairs ou entités similaires, le plus souvent à l’intérieur des limites d’un secteur de politique
publique. Ces circulators n’exercent pas toujours un pouvoir hiérarchique sur les entités sources ou cibles de la
diffusion. Il peut s’agir de groupes d’intérêts (par exemple, une ONG internationale faisant circuler entre les
entreprises de ‘bonnes pratiques’ environnementales) ou d’organismes fédérant des entités (une association
d’écoles faisant circuler entre ses membres des informations sur les expériences pédagogiques jugées
intéressantes).
113
4. Travaux d’analyse des données PISA en CFB
Ils charrient surtout des informations sur des politiques mises en oeuvre dans ces autres
espaces mieux classés.
D’autres pays ou régions que la Flandre ou la Finlande sont parfois choisis comme points
de comparaison privilégiés. Un article privilégie ainsi la France, le Portugal et l’Autriche,
parce que ces pays ressemblent à la Communauté française par la forte variation des
résultats entre établissements et le taux de redoublement élevé (UCL 1, 2008). Un autre
choisit de présenter « quelques pays240, sélectionnés en fonction de leur proximité ou de
leur distance remarquable avec la Communauté française sur les plans éducatif, culturel
ou géographique » (ULg 7, 2003, 181). On remarque aussi que, dans les tableaux
comparatifs les plus généraux, il est rare que l’ensemble des pays ayant participé à PISA
soient ‘convoqués’. Souvent, la liste (ou la moyenne) se limite à l’OCDE ou à l’UE.
L’existence d’un espace européen se fait manifestement sentir. Les comparaisons portent
en effet prioritairement sur les pays européens, et même assez souvent sur ceux de
l’Europe des 15241 (ULg 1 et 3, par exemple). Davantage que sur des critères théoriques,
de tels choix semblent être surtout le reflet de la constitution et de la consolidation d’un
espace européen, qui se traduit notamment par l’existence de bases de données qui,
comme
Eurydice,
fournissent
à
propos
des
pays
européens
des
d’informations
complémentaires à celles de PISA, dès lors assez aisément mobilisables pour enrichir les
modèles d’analyse.
Autre point à noter : aucune étude n’effectue une comparaison avec d’autres entités
infra-nationales alors que de telles comparaisons avec des régions britanniques,
italiennes ou espagnoles pourraient se révéler pertinentes. Parmi la trentaine de régions
pour lesquelles des données sont disponibles, la Flandre, et dans une moindre mesure la
Communauté germanophone, sont donc les seules à être comparées à la Communauté
française.
La (re)structuration des circuits de connaissance (et notamment la circulation des
informations sur les politiques mises en œuvre dans les régions affichant de meilleurs
résultats) est un processus dans lequel PISA joue assurément un rôle. Les classements
produits par PISA poussent à s’intéresser aux pays ou régions les mieux classés et,
jusqu’à présent, à privilégier les pays plutôt que les régions. Mais PISA à lui seul ne suffit
pas à expliquer la configuration des circuits de connaissance. De fait, il ne suffit pas que
le pays soit bien classé pour que soient générés des flux en provenance de cet espace242.
Il faut en outre qu’il y ait (1) une proximité culturelle, le sentiment d’appartenir à des
‘mondes’ proches ou à des sociétés relativement semblables (sinon, pourquoi n’irions240
241
242
Communauté flamande, Allemagne, Finlande et Etats-Unis.
Il est vrai que l’Europe des 15 ne s’est élargie à 10 nouveaux pays qu’en 2004.
Les résultats extrêmement positifs du système du éducatif cubain, dans une étude de l’UNESCO, ne
donnent pas lieu à autant d’échanges de connaissance, en dépit des efforts de l’APED
114
4. Travaux d’analyse des données PISA en CFB
nous pas nous inspirer du système coréen très performant ?), (2) une image globalement
positive attachée au pays (l’absence d’une telle image est peut-être à l’origine du faible
intérêt pour l’exemple polonais, dont le système est pourtant annoncé comme ayant
significativement progressé entre 2000 et 2006), et (3) l’existence de brokers dans les
pays d’origine et/ ou de réception. Au final, il y a donc interaction entre PISA et les
circuits de connaissance : PISA contribue à structurer les circuits tandis que ces derniers,
préexistant à PISA, contribuent partiellement à orienter l’attention des lecteurs de PISA.
Au sein de la Communauté française, quelles comparaisons ?
PISA est relativement peu utilisé pour effectuer des comparaisons entre des entités
internes
à
la
Communauté,
que
celles-ci
soient
définies
en
termes
d’entités
géographiques ou de réseaux.
A une exception près (UCL 9, 2004), aucun des textes du corpus ne traite des données à
des échelles géographiques inférieures à la Communauté243. Il est vrai que de tels
traitements butent sur des problèmes de représentativité statistique, mais ces questions
techniques ne sont pas seules en cause. L’absence de telles analyses témoigne
également du fait que ne s’est pas imposée l’idée d’une régulation territorialisée du
système scolaire, qui remet potentiellement en cause le pouvoir régulateur des réseaux
d’enseignement. Cette absence renvoie aussi à la sensibilité de la question bruxelloise :
traiter celle-ci comme une entité statistique alors que, dans cette Région, il existe deux
offres d’enseignement (une par Communauté) distinctes et non concertées, risquerait
d’attiser des débats politiquement sensibles.
Le traitement limité des données par réseau ne peut être justifié par le même argument
technique de représentativité statistique puisque l’échantillon est explicitement stratifié
en fonction de ce critère ‘réseau’. Il a cependant fallu attendre la seconde enquête pour
que cette question des réseaux soit succinctement traitée par des chercheurs de l’ULg
(ULg 8, 2004, 107-109), qui demandaient « la prudence dans l’interprétation de ce type
de données politiquement sensibles » (ULg 4, 2004, 108) et justifiaient le traitement de
cette question en expliquant que « l’autonomie pédagogique laissée aux réseaux
d’enseignement en Belgique rend légitime la question des différences en termes d’acquis
cognitifs en fonction du réseau » (ULg 4, 2004, 107)244. Il fallut attendre 2008, et une
243
Dans un article du Vif daté du 28.08.2008 et signé par Gilles Quoistieaux (« Enseignement, pourquoi les
élèves flamands sont meilleurs »), Dominique Lafontaine fait cependant mention de certaines comparaisons
provinciales : « En comparant les résultats du Brabant wallon à ceux du Hainaut, lors du test PISA 2003 en
mathématiques, les Hennuyers réalisent un score de 483 ; les Brabançons, 531. Un écart de quelque 50 points,
la différence moyenne de résultats entre la Communauté française et la Communauté flamande ! Une disparité
qui pourrait s'expliquer par les difficultés socio-économiques, qui marquent davantage le Hainaut que le
Brabant wallon ».
244
Il est intéressant de constater qu’à leurs yeux, les différences potentielles étaient supposées être davantage
en relation avec les objectifs des réseaux qu’avec l’efficacité de l’organisation, puisqu’ils estimaient qu’on « peut
115
4. Travaux d’analyse des données PISA en CFB
sortie médiatique d’Alain Destexhe, parlementaire libéral, pour que la question, qu’il
présenta comme un « sujet tabou », soit davantage médiatisée. Recourant à un titre
choc245, il souligna que le réseau libre avait, en Flandre, toujours de meilleurs résultats
que le réseau officiel et que, de façon moins nette, le réseau libre faisait également
mieux que le réseau officiel en Communauté française (MR 1, 2008, 1). Par après, le SPE
(ULg) traita de manière un peu plus approfondie cette question dans son troisième
rapport, mais sans la mettre en évidence puisqu’elle figurait au sein d’un point consacré
aux différences entre la Communauté française et la Communauté flamande (ULg 9,
2009, 119-127). Pour l’heure, les comparaisons entre réseaux restent donc limitées.
Aucun autre acteur que l’ULg et Alain Destexhe – pas même les instances coordinatrices
des différents réseaux - ne s’est emparé de cette question.
Une grande variété de classements relatifs aux résultats
Les données PISA permettent de classer les différents pays sur un grand nombre
d’échelles. Les plus fréquentes ont trait aux résultats. Mais d’autres indicateurs de
classement, tirés des questionnaires de contexte, sont également mobilisés : on voit
ainsi certains textes du corpus traiter des questions de ségrégation ou des questions
d’attitude, d’engagement et de stratégie d’apprentissage des élèves. Il n’en reste pas
moins que les classements les plus fréquents et les plus diffusés sont ceux relatifs aux
résultats.
Pour ce qui concerne les scores moyens, les commentaires positionnent généralement la
Communauté française par rapport à la moyenne OCDE. Dans la plupart des cas, la
Communauté française affiche un score inférieur à cette moyenne246. Mais les
commentaires indiquent aussi que la prise en compte de la marge d’erreur conduit à
placer la Belgique dans un large groupe de pays. Il existe cependant plusieurs techniques
de calcul du degré de significativité des différences entre les performances moyennes de
deux pays ou régions247, et ces techniques ont des répercussions sur l’interprétation des
classements puisque, en 2006, du fait d’un changement de technique, le SPE (ULg) a été
amené à conclure que les pays ayant des résultats significativement plus élevés que la
en effet imaginer que certains réseaux développent des programmes mieux adaptés à l’acquisition de
compétences telles qu’elles sont mesurées dans PISA » (ULg 4, 2004, 107).
245
246
« L’enseignement libre meilleur que l’officiel selon PISA » (MR 1, 2008, 1).
« La Communauté française se situe à hauteur de la moyenne Ocdé en culture mathématique et présente
des résultats inférieurs en culture scientifique et en compréhension de l’écrit » (ULg 9, 2009, 48).
247
Dans ses 1er et 2e rapports, l’ULg a utilisé une méthode qui tend à élargir le groupe des pays ne se
différenciant pas significativement de la Communauté française. Dans son 3e rapport, elle a opté pour une autre
technique en vertu de laquelle « le groupe des pays présentant un score qui ne diffère pas significativement de
celui de la Communauté française se trouve de fait moins important » (ULg 9, 2009, 49).
116
4. Travaux d’analyse des données PISA en CFB
Communauté française étaient plus nombreux que ce que le SPE lui-même avait indiqué
auparavant248.
Mais les textes du corpus positionnent généralement moins la Communauté française en
fonction des résultats moyens que de la variance des résultats. Plusieurs des auteurs
soulignent d’ailleurs que la Communauté française se distingue moins par sa moyenne
que par la dispersion de ses résultats249. Nico Hirtt avance un autre type d’argument pour
justifier l’attention préférentielle à la variance : rejetant les classements en fonction des
résultats moyens parce que les compétences mesurées se réfèrent aux objectifs très
discutables de l’OCDE, il considère par contre que les élèves d’un même pays sont sans
doute égaux entre eux devant les tests PISA, et que dès lors les classements fondés sur
la variance des résultats sont plus légitimes que ceux fondés sur la moyenne des
résultats, car moins dépendants de la nature des compétences évaluées250.
Le plus souvent, le type d’inégalité mesuré par les indicateurs n’est pas interrogé ou
théorisé. Vincent Dupriez et Vincent Vandenberghe discutent cependant cette question et
affirment que « si l’on veut dégager la signification d’indicateurs d’égalité basés sur
l’analyse des résultats des élèves, on bascule de facto dans une conception normative de
l’égalité qui dépasse l’usage classique de la notion d’égalité des chances. Plus
précisément, ce qui est mesuré, ce n’est pas la présence de chances égales de formation,
mais l’égalité face aux résultats de l’action éducative » (UCL 5, 2008 168). Ils proposent
ensuite trois notions d’égalité comme résultats251 (égalité de résultats, égalité des acquis
de base, égalité sociale de résultats) ainsi que les indicateurs qui leur sont associés.
248
Par exemple, en mathématique, le nombre de pays dans les résultats sont significativement meilleurs passe,
entre 2003 et 2006, de 6 à 16.
249
« L’un des dangers des enquêtes internationales est de braquer le projecteur sur le classement et sur la
place occupée par un pays dans le classement. Or, il faut garder à l’esprit que les écarts entre pays proches
dans le classement sont minimes. Les différences au sein des pays sont bien plus prononcées que les
différences entre pays » (ULg 6, 2008, 22).
250
« Si les comparaisons entre les moyennes des pays ne sont guère significatives des performances
nationales en mathématiques, on peut en revanche supposer que les élèves d’un même pays devraient, quant à
eux, être égaux devant les tests. Du moins, si l’enseignement de ce pays est organisé de façon démocratique,
égalitaire. Dès lors, PISA s’avère un puissant outil pour qui veut comparer les pays, non sur le plan de
l’efficience moyenne des systèmes éducatifs, mais sur le plan de leur équité » (APED 3, 2006, 29).
251
En conclusion, ils se demandent s’il ne serait pas pertinent de s’interroger sur l’étendue des libertés réelles
(conversion des ressources scolaires en capabilities) car « dans la perspective de cette approche non
ressourciste, l’enjeu n’est pas seulement la mesure de la taille du ‘panier de biens ‘ dont bénéficie chaque
élève, mais surtout l’évaluation de la liberté des personnes, ce qui passe par l’analyse de leur possibilité de
faire usage des ressources acquises en fonction de leurs choix personnels » (UCL 5, 2008, 182).
117
4. Travaux d’analyse des données PISA en CFB
La mesure de l’égalité de résultats – première des mesures qu’ils proposent - est
indépendante des caractéristiques des élèves. Quel que soit l’indicateur (écart-type, écart
interquartile, écart inter-décile), la Communauté française est identifiée comme l’une des
plus
inégalitaires :
« les
systèmes
éducatifs
belges
(tant
francophone
que
néerlandophone) ont le triste privilège de figurer parmi les plus inégalitaires au sein des
pays membres de l’OCDE » (APED 2, 2005, 1). Cependant, en dehors de certains
documents de l’ULg, jamais il n’est déterminé quels pays s’écartent significativement des
valeurs belges francophones. On observe donc une moindre propension à tempérer le
caractère brut des classements lorsqu’on compare les dispersions que lorsqu’on compare
les moyennes.
Il est également rappelé régulièrement que cette grande dispersion des résultats se
traduit surtout par une proportion plus importante d’élèves ayant de mauvais scores, la
proportion d’élèves ayant de bons scores étant quant à elle proche de la moyenne des
pays252. Cette relativisation des écarts entre les meilleurs élèves de la Communauté et
d’autres pays est cependant contestée par les libéraux dans des interventions externes
au corpus. Dans le corpus lui-même, quelques auteurs s’étonnent que la ségrégation
académique des élèves ne débouche pas sur de meilleurs résultats pour les meilleurs
élèves. « Pour le dire brutalement, même si les élèves qui ont connu un parcours sans
anicroche ont de bons résultats, on peut s’étonner, au terme d’un ‘écrémage’
conséquent, qu’ils ne soient pas plus nombreux à exceller » (ULg 8, 2004, 107). En
définitive, cependant, le problème des élèves ‘faibles’ est estimé bien plus préoccupant
que celui des élèves ‘forts’253. Cette insistance sur la proportion d’élèves ayant de très
faibles scores est proche de la seconde conception de l’égalité proposée par Vincent
Dupriez et Vincent Vandenberghe, à savoir l’égalité en termes d’acquis de base, que PISA
appréhende à travers le concept de niveau de maîtrise. A l’aune de cet indicateur aussi,
les résultats de la Communauté française sont présentés comme mauvais. « Plus de 10
% des élèves en Communauté française ont des compétences situées en deçà du niveau
1 [...]. On peut raisonnablement penser qu’ils ne disposent pas d’un bagage suffisant
pour pouvoir mener à bien des tâches impliquant la mise en œuvre d’une stratégie
rudimentaire de résolution de problèmes mathématiques » (ULg 8, 2004, 60).
Les auteurs des textes du corpus s’intéressent aussi au troisième type d’inégalité : les
inégalités sociales de résultats. Celles-ci sont appréhendées à travers la variation des
résultats en fonction du sexe, de l’origine ethnique ou de l’origine sociale. Des indicateurs
variés sont mobilisés. Des mesures telles que les écarts de performance moyenne entre
252
« La Communauté française compte une proportion à peine inférieure à la moyenne européenne de très
bons lecteurs, mais une proportion très supérieure d’élèves en difficulté et en grande difficulté à cet égard »
(ULg 1, 2004, 79).
253
« Ce n’est pas la proportion d’élèves performants qui est préoccupante en Communauté française, mais
plutôt le nombre trop important d’élèves situés sous le seuil élémentaire » (ULg 8, 2004, 61).
118
4. Travaux d’analyse des données PISA en CFB
les 25 % d’élèves les plus favorisés et les plus défavorisés254, plus parlantes que le
coefficient de détermination R², ouvrent la porte aux comparaisons mais ne tiennent pas
compte du fait que les conditions socio-économiques des 10 ou 25 % d’élèves les plus
pauvres ou les plus riches peuvent varier significativement d’un pays à l’autre. Le
classement des pays en fonction de tels indicateurs tend donc à mélanger les inégalités
sociales extra-scolaires et leur traduction dans le champ scolaire. Les textes, cependant,
ne
dissipent
généralement
pas
cette
confusion,
ce
qui
tend
à
accentuer
la
responsabilisation du système éducatif dans les pays ou régions qui, comme la
Communauté française, affichent d’important écarts de scores interquartiles ou interdéciles. Cependant, en utilisant la valeur du coefficient de détermination R² pour classer
les pays, d’autres auteurs arrivent également à la conclusion que la Communauté
française est mal classée255.
L’essentiel du message qui transpire à travers les textes analysés se trouve résumée
dans un graphique classant les pays en fonction de deux paramètres, l’un rendant
compte de la performance moyenne, l’autre du pourcentage de variance expliqué par les
variables socioéconomiques. Cela permet de résumer l’information en classant les pays
en quatre catégories, et de situer presque toujours la Communauté française dans le
quadrant peu efficace et peu équitable.
Autres classements
Un autre classement récurrent consiste à situer les pays en fonction des écarts de scores
entre établissements. L’intérêt des acteurs belges pour ce type de classement tient au
fait que « les variables élève, pour l’essentiel, influencent la performance scolaire des
élèves de façon assez semblable à travers les pays alors que l’influence des variables
école dépend fortement du contexte national » (ULg 17, 2009, 157). Mais l’intérêt des
auteurs pour de tels classements se justifie surtout parce que la Communauté française
affiche dans ce domaine des mauvais résultats256. Or de tels classements sont difficiles à
254
« C’est en Communauté française qu’on observe l’écart le plus important dans les résultats à l’épreuve de
littératie en fonction du statut socio-économique : 124 points séparent le meilleur score du groupe (25 %) des
plus défavorisés du score le moins élevé du groupe (25 %) des élèves les plus avantagés à cet égard » (ULg 1,
2004, 94).
255
« La Belgique francophone, le Luxembourg, la Suisse et l’Allemagne se caractérisent par une inégalité
davantage prononcée que dans les autres pays » (UCL 5, 2008, 181).
256
« Dans les pays de l’Union européenne, les différences entre établissements scolaires expliquent en
moyenne 35 % de la variance des résultats au test de littératie, mais les systèmes éducatifs diffèrent à cet
égard. [...] L’Allemagne et l’Autriche atteignent les valeurs les plus élevées (60 %), suivies par les
Communautés française (56 %) et flamande (55 %), très proches à cet égard, puis par l’Italie (54 %) et la
Grèce (50 %). À l’opposé, on trouve des pays nordiques (Suède : 10 %, Finlande : 12 % et Danemark : 19 %),
ainsi que l’Irlande (18 %).» (ULg 1, 2004, 90-91).
119
4. Travaux d’analyse des données PISA en CFB
interpréter. D’abord parce qu’ils agrègent plusieurs phénomènes : les différences
d’efficacité pédagogique entre écoles, mais aussi les différences en termes de
caractéristiques
des
élèves
recrutés
(redoublements
antérieurs,…)
et
de
filières
organisées par l’école. En outre, ces classements ne sont pas affublé d’une marge
d’erreur tenant compte de la représentativité imparfaite de l’échantillon de chaque
établissement,
et
il
n’est
tenu
compte
de
la
relative
d’établissement selon les pays voire selon les périodes
instabilité
de
la
notion
257
.
Les classements en fonction du critère de ségrégation sont assez étroitement corrélés
aux précédents. Ils ont fait l’objet de plusieurs articles spécifiques comparant les
classements des différents pays et régions en fonction des indicateurs retenus (UCL 7,
ULg 18). Selon Marc Demeuse et Ariane Baye, on observe « la stabilité des mécanismes
de ségrégation académique, indépendamment des disciplines considérées » (ULg 18,
2008, 139). Mais « les corrélations […] indiquent un lien faible […] entre les indices de
ségrégation académiques et les indices de ségrégation liés à la profession et au sexe.
Cette liaison est même négative avec les indices de ségrégation linguistique (langue
parlée à la maison) ou le lieu de naissance des parents. […] Les classements ainsi
obtenus mettent en évidence un ensemble de pays où les effets de ségrégation semblent
faibles […]. A l’opposé, on retrouve l’Italie, l’Autriche, la Hongrie, la République tchèque,
l’Allemagne et la Belgique » (ULg 18, 2008, 141).
Les classements en fonction des scores relatifs à des sous-compétences sont presque
exclusivement proposés dans les publications les plus complètes que le SPE consacre à
chaque enquête PISA (ULG 7, 8 et 9). Or, des différences de classement sont parfois
observées au sein de chaque ‘discipline’258. La plupart du temps, les auteurs ne
s’attardent donc guère sur de telles différences, leurs classements étant la plupart du
temps basés sur des indicateurs synthétiques de résultats. La même logique les conduit
aussi à ne comparer que rarement les résultats de chaque élève aux diverses
257
Puisque, en 2000, la Communauté française a retenu la notion d’implantation et, depuis 2003, celle
d’établissement, celui-ci étant parfois composé de plusieurs implantations et désignant dès lors davantage une
réalité administrative qu’un lieu de vie.
258
« Les résultats moyens sont moins bons pour la démarche Réfléchir sur le texte. Pour cette démarche, les
performances des élèves de la Communauté française de Belgique sont de manière significative en dessous de
la moyenne OCDE, alors que ce n'est pas le cas pour les deux autres démarches. On peut à cet égard affirmer,
sans grand risque de se tromper, que les élèves en Communauté française de Belgique sont relativement peu
familiers d’une évaluation écrite portant sur un tel aspect et que c’est surtout lors des deux dernières années de
l’enseignement secondaire général que ce type de démarche sera sollicité » (ULg 4, 2001, 18).
120
4. Travaux d’analyse des données PISA en CFB
compétences et sous-compétences pour vérifier s’il y a bien corrélation entre les résultats
obtenus dans les différents domaines de compétence259.
Les classements en fonction des attitudes sont proposés exclusivement par l’ULg. Il est
vrai que l’OCDE elle-même recommande « la prudence quant aux comparaisons
internationales des indices moyens [d’attitude] en raison des différences culturelles
notamment » (ULg 9, 2009, 143). Mais, aux yeux des chercheurs de l’ULg, les échelles
attitudinales en lecture sont plus robustes que les autres et, sur ce plan, les signaux sont
quasi tous au rouge en Communauté française260.
Comparaisons dans le temps
PISA n’ouvre pas seulement la porte à des comparaisons entre systèmes éducatifs. Il
autorise aussi certaines comparaisons dans le temps. C’est d’ailleurs un des objectifs
importants des études cycliques implémentées par l’OCDE dans le programme PISA261.
Mais les embûches méthodologiques sont nombreuses262. Des embûches encore plus
grandes existent pour établir des comparaisons entre les enquêtes de l’OCDE et celles de
l’IEA, voire même entre les enquêtes de l’IEA263. Les constats quant aux évolutions
259
« En Communauté française et en Allemagne (74 %), la faiblesse des résultats est commune aux deux
matières : les élèves en grande difficulté en mathématiques le sont aussi en compréhension de l’écrit. En
Grèce, en Suède (49 %) et en Irlande (49 %), la moitié des élèves très faibles en mathématiques se situent au
moins au niveau 2 en compréhension de l’écrit : leurs lacunes sont plus spécifiques » (ULg 3, 2007, 109).
260
« Ce qui est plus frappant chez nous, c’est le pourcentage de jeunes déclarant ne jamais lire pour le plaisir.
On remarque de telles caractéristiques dans d’autres pays par ailleurs proches du nôtre sur certains aspects du
système éducatif, comme l’Allemagne ou la Communauté flamande » (ULg 11, 2003, 24). « En Communauté
française, tous les types de textes proposés sont lus moins assidûment que dans les autres pays, à l’exception
de la bande dessinée » (ULg 11, 2003, 27). « Les deux Communautés belges se caractérisent par un indice
d’engagement très faible comparativement aux autres pays » (ULg 11, 2003, 36).
261
« Les informations recueillies ne visent pas seulement à donner une photographie de la situation à un
moment donné ; elles doivent aussi permettre d’analyser l’évolution de ces photographies et de voir dans quelle
mesure, sur une période de temps, l’impact de certaines politiques éducatives peut se faire sentir sur la
régulation de l’efficacité et de l’équité d’un système éducatif… » (ULg 9, 2009, 97).
262
« Deux sous-échelles sont communes aux cycles 2000 et 2003 de PISA : « espace et formes » et
« variations et relations ». Il est tentant de rechercher les indices d’éventuelles modifications dans les
performances, bien que les données ne s’y prêtent guère : d’une part en présence de deux mesures seulement,
il est difficile d’inférer une tendance à plus long terme ; d’autre part les inévitables modifications introduites
dans les recueils de données, même si elles sont mineures, jointes aux erreurs de mesures, rendent
l’interprétation des différences très hasardeuse » (ULg3, 2007, 95-96).
263
« On pourrait croire [...] un peu naïvement que le recueil de données a – évidemment – été organisé de
manière à permettre (des) comparaisons et qu’un maximum d’efforts ont consentis pour autoriser les mises en
121
4. Travaux d’analyse des données PISA en CFB
diachroniques sont donc maigres. En 2006, « pour la Communauté française, on ne note
aucune évolution significative des performances en mathématiques depuis 2003, année
où cette discipline était le domaine majeur. Il n’y a pas non plus d’évolution significative
en compréhension de l’écrit par rapport à 2000 (année où la lecture était le domaine
majeur), ni par rapport à 2003 » (ULg 9, 2009, 50).
4.2.2 Associer / expliquer
Les bases de données PISA ne donnent pas seulement naissance à des comparaisons et à
des classements. Elles ouvrent aussi la voie à des travaux tentant d’associer des
phénomènes ou d’établir entre eux des relations de causalité. Comme les classements,
les associations sont continuellement mobilisées dans les discours des acteurs participant
à l’action publique (Delvaux, 2008).
Analyses multivariées et causales
Alors que les publications ‘contractuelles’ de l’ULg embrassent un large éventail de
questions, la plupart des autres publications sont centrées sur une question de recherche
relativement précise.
Quelquefois, il s’agit simplement de décrire, par exemple
différentes mesures de ségrégation (UCL, 7, 2007) ou d’inégalité (UCL 5, 2008). Dans la
plupart des cas, cependant, la visée est compréhensive ou explicative et, dans ce cas, la
variable dépendante est quasi toujours les résultats des élèves aux tests (que ce soit en
termes de moyenne, de dispersion, de proportion d’élèves de chaque niveau,…).
Les analyses bivariées sont nombreuses, mais leur portée explicative est limitée264. On
observe donc une propension à recourir à des techniques statistiques plus élaborées :
analyses multivariées et multi-niveaux, mais aussi modélisation dans le cas des
économètres (UCL 8 et 9, FUNDP 1). Parfois, cependant, les auteurs poursuivent une
visée explicative sans recourir à des validations statistiques. C’est le cas de Nico Hirtt
quand il se propose d’expliquer les différences entre Finlande et Belgique en se basant
sur des informations relatives à certains traits structurels des deux systèmes éducatifs
(APED 2). C’est aussi le cas de Marc Demeuse et Ariane Baye lorsqu’ils comparent, de
manière exploratoire, les rangs moyens des pays sur deux dimensions (ségrégations et
relation. Il n’en est hélas rien ! [...] Le souci scientifique immédiat l’emporte ainsi assez souvent sur d’autres
considérations et la demande de rendre les choses comparables ou simplement cohérentes ne reçoit
généralement que très peu d’échos » (ULg 15, 2004, 14).
264
« Si elles se révèlent très parlantes pour mettre en lumière l’inéquité des systèmes éducatifs, [les analyses
bivariées] ne donnent toutefois qu’un éclairage partiel des mécanismes explicatifs des niveaux de performances
observées dans les trois communautés belges. Chacun des facteurs analysés n’est en effet pas indépendant
d’autres facteurs [...]. Par ailleurs, chacune de ces variables individuelles peut également avoir des impacts
cumulatifs lorsqu’on regroupe au sein d’une même école un ensemble d’élèves en partie ‘fragilisés’ » (ULg 9,
2009, 119).
122
4. Travaux d’analyse des données PISA en CFB
structures scolaires) constituées chacune à partir d’une dizaine d’indicateurs (ULg 18,
2008).
En dehors de ces cas, la préférence va aux approches statistiques corrélationnelles et
causales. Il y a par contre peu de recours à des approches plus qualitatives et
compréhensives.
On
recourt
par
exemple
peu
à
la
technique
des
typologies
d’établissements ou d’élèves. Des auteurs de l’ULg touchent à cette approche lorsqu’ils
mettent en évidence des profils de lecteurs (ULg 11, 2003), mais aucun auteur ne tente
par exemple de constituer des profils d’élèves en fonction de leurs niveaux d’acquis dans
les différences compétences ou ‘sous-compétences’. Un seul texte compare, élève par
élève, les résultats en lecture et en mathématiques, mais c’est pour dresser une
typologie des pays et non des élèves (ULg 3, 2007, 108).
Potentialités et limites de la base de données pour les corrélations et causalités
La tendance à recourir à des analyses multivariées est donc bien présente, mais se
heurte cependant à des contraintes liées à la nature des données collectées et à
l’échantillon, constitué en tenant compte de deux critères de stratification explicites : le
type d’enseignement (ordinaire/spécialisé) et les réseaux265. Indépendamment de la
qualité du processus d’échantillonnage266, des problèmes de représentativité peuvent
exister, y compris pour des variables centrales. Ainsi, bien que « les responsables de
l’échantillonnage s’assurent que l’échantillon d’écoles est diversifié au niveau des filières
d’enseignement proposées et du taux de retard des élèves » (ULg 9, 2009, 11), faisant
ainsi de ces deux critères des « critères de stratification implicites », des différences non
négligeables peuvent exister entre échantillon et population, comme lors de l’enquête
2003 où l’on observe dans l’échantillon une sous-représentation du 1er degré et une surreprésentation de la 4e qualification267, différence de nature à peser sur les résultats de
recherche.
265
Dans une première étape, les établissements sont sélectionnés en veillant à respecter ces deux critères.
Ensuite, au sein de ces établissements, on tire aléatoirement 35 élèves.
266
Le fait que les trois communautés belges n’ont pas été ‘adjudicated’ en 2003 et que seule la Communauté
flamande l’a été en 2006 ne veut pas dire que les normes de qualité de l’OCDE n’ont pas été respectées.
Dominique Lafontaine explique cette absence de label par le coût du processus mais souligne que, dans les
faits, l’échantillon de la Communauté française respecte les standards de l’OCDE.
267
Comparaison de la ventilation des élèves entre années d’études dans l’échantillon et dans la population
(PISA 2003)
Chiffres absolus
%
Communauté
PISA
Communauté
PISA
(annuaire 2003-2004)
(annuaire 2003-2004)
123
4. Travaux d’analyse des données PISA en CFB
Lorsqu’on passe à une échelle infra-nationale, comme c’est le cas en Belgique, la taille de
l’échantillon devient encore plus contraignante puisque les effectifs diminuent268. Cela
peut empêcher d’analyser les sous-groupes à faible effectif ou de croiser un nombre
important de variables. Cela accroît également la marge d’erreur269 et donc la probabilité
de mettre en évidence des différences ou des corrélations significatives. Aucune décision
d’extension de l’échantillon n’a cependant été prise pour palier ces déficiences. De
même, en dépit du fait que les résultats d’une enquête à l’autre ne sont pas très
différents, aucun auteur n’a opté pour une concaténation des trois enquêtes en vue de
pouvoir comparer les résultats de groupes à effectifs réduits (telle ou telle nationalité,
par exemple).
Une autre limite de la base de données est l’absence de certaines variables jugées
cruciales pour la compréhension des processus. Plusieurs auteurs cherchent dès lors dans
d’autres bases de données des informations concernant ces variables manquantes.
Eurydice et d’autres indicateurs de l’OCDE sont ainsi parfois sollicités pour des variables
plus structurelles (ULg 18, par exemple). De même, l’enquête PIRLS de 2001 a été
utilisée en relation avec PISA 2000 pour tenter d’établir des liens de causalité entre la
longueur du cursus organisé en tronc commun et les résultats des pays (UCL 4). Mais de
telles solutions alternatives montrent vite leurs limites. Hormis pour des variables
structurelles ou extra-sectorielles, rien ne remplace vraiment l’usage direct de données
propres à une même enquête. Les variables importées ne peuvent donc, sauf exception,
1er degré
4.337
4,3 %
8,0%
3e transition
7.846
13,4 %
14,5%
3e qualification
11.087
21,2 %
20,4%
4e transition
21.523
40,6 %
39,7%
6.559
15,7 %
12,1%
780
1,1 %
1,4%
2.086
3,7 %
3,8%
54.218
100 %
100,0%
4e qualification
3e degré
Spécialisé
Total
2.940
Source des données : pour PISA : ULg 8, p. 16 ; pour la Communauté française :
annuaire statistique 2003-2004.
268
Les obligations par pays étaient, en 2003, d’avoir des données pour au moins 150 écoles et 5.000 élèves.
L’échantillon de la Communauté française comptait 99 établissements et 2.818 élèves en 2000, 103
établissements et 2.940 élèves en 2003, 97 établissements et 2.890 élèves en 2006 (contre 4.651 en Flandre
et 467 en Communauté germanophone).
269
« Le nombre d’écoles impliquées dans l’enquête étant moins élevé pour une entité subnationale comme la
Communauté française que pour un pays, l’erreur d’échantillonnage sur les résultats des élèves y est
nécessairement plus importante que celle qui affecte les résultats nationaux » (ULg 1, 2004, 81).
124
4. Travaux d’analyse des données PISA en CFB
servir qu’à établir, avec prudence, des comparaisons entre les résultats des différentes
enquêtes (voir ci-dessus), à explorer empiriquement une hypothèse que la base de
données PISA ne permet pas de vérifier, ou à être injectées, au même titre que les
données issues de PISA, dans un modèle économétrique élaboré à partir de bases de
données disparates (UCL 8 et 9). Ces diverses pistes ne constituent en fait qu’un pis-aller
par
rapport
à
d’autres
pistes
consistant
à
élargir
l’échantillon,
à
compléter le
questionnaire ou à mettre en place un suivi longitudinal des élèves.
Dans les textes de notre corpus, il y a donc traces d’un débat sur l’utilité des bases de
données internationales en général, et de celle-ci en particulier, pour comprendre les
systèmes nationaux. Certains soulignent l’apport de telles données (extraits 1 et 2),
même si c’est avec quelques réserves D’autres, plus dubitatives (extrait 2), mais d’autres
soulignent qu’il est difficile d’identifier précisément les particularités structurelles ayant
un réel impact et de classer clairement les pays et régions en fonction de ces éléments
structurels (extrait 3).
« Les analyses secondaires de PISA 2006 présentées ici illustrent le potentiel de l’éducation comparée. Le
regard qui est posé par le chercheur à travers les différents systèmes d’enseignement, s’il s’appuie sur des
modèles statistiques appropriés, appliqués à des données de qualité, permet de faire émerger les
ressemblances entre systèmes éducatifs et, complémentairement, de débusquer leurs spécificités. Il permet
ainsi de montrer que certaines caractéristiques structurelles des systèmes d’enseignement influent sur les
performances des élèves » (ULg 16, 2008, 63).
« Comme Hanushek et Woessmann (2005) le mentionnent, il est extrêmement difficile, comme le demandent
généralement usagers et politiciens, d’évaluer l’impact de structures particulières, comme l’existence de
filières organisées de manière précoce dans le cursus des élèves ou le redoublement, sur l’efficacité ou
l’équité d’un système éducatif. Le recours à des comparaisons internationales est donc à la fois utile pour
estimer l’ampleur relative d’un phénomène et les modalités organisationnelles qui y semblent associées »
(ULg 18, 2008, 137-138).
« La multiplicité et la diversité systémiques des contextes nationaux susceptibles d’influencer la variabilité de
la différenciation sociale au sein des établissements limitent la validité et la pertinence d’analyses
internationales. Dans certains systèmes éducatifs, la dichotomie entre enseignement public et enseignement
privé payant peut s’avérer prépondérante dans la compréhension des mécanismes de différenciation et de
ségrégation alors que, dans d’autres, il s’agira des filières d’enseignement, ou bien du quasi-marché scolaire,
de l’offre éducative généralement plus importante en milieu urbain […]. L’étude des mécanismes de
ségrégations sociale académique doit donc s’opérer pays par pays, afin de mieux prendre en compte les
spécificités nationales. Ce travail nécessite une connaissance approfondie des structures des systèmes
éducatifs270 » (ULg 17, 2009, 156).
Questions de recherche
En dépit des limites et chausse-trappes décrites ci-dessus, la plupart des auteurs utilise
les données PISA pour mettre en évidence des associations (si possible causales) entre
des phénomènes. Ce type de connaissance, comme déjà souligné, est particulièrement
utilisé dans le processus d’action publique pour assoir des problématisations ou des
préconisations. Les questions que se sont posés les auteurs des textes du corpus peuvent
être regroupées en différentes catégories selon qu’elles s’intéressent aux effets (1) des
variables individuelles (et particulièrement des variables de genre, socioéconomiques et
270
Ce qui amène d’ailleurs ces auteurs à focaliser une partie de leur travail de comparaison sur les
Communautés française et flamande.
125
4. Travaux d’analyse des données PISA en CFB
ethniques)271 ; (2) du mode de regroupement des élèves (par établissement, mais aussi
par filière ou année)272 ; (3) des structures et modes de régulation (libre choix,
réseau)273 ; (4) des variables attitudinales274 ; (5) des TIC275 ; (6) des variables
sociétales276. Une catégorie spécifique d’étude est celle qui se préoccupe d’identifier les
facteurs expliquant les différences de résultats entre pays ou régions différentes, et
particulièrement entre les Communautés française et flamande. Certains de ces thèmes
ne sont traités que par l’ULg (genre, attitudes, TIC). Le thème du regroupement des
élèves est assurément le plus étudié et discuté. C’est pourquoi nous analyserons ce
thème en détail dans les pages qui suivent.
Les effets du regroupement des élèves
(effet établissement et effets des structures curriculaires)
La question de l’effet du mode de groupement des élèves est l’une des questions
centrales posées à partir des données PISA. Dans le corpus étudié, cette question est
essentiellement posée par les chercheurs de l’ULg et du Girsef, et de manière quelque
peu différente par l’APED. Les deux premiers s’intéressent essentiellement à l’effet
établissement,
une notion qui désigne
les
« différences
de
performances
entre
établissements qui ne peuvent pas être attribuées à des différences inter-individuelles
entre élèves » (UCL 3, 2007, 86). Ils utilisent les données PISA pour montrer que la
Belgique francophone (et aussi flamande) se situe dans le groupe des pays pour lesquels
les effets établissements sont particulièrement élevés. Départager les effets des variables
individuelles et des variables collectives (d’agrégation) est donc le premier souci des
chercheurs, comme l’indique de titre d’une des sections du livre écrit par Dominique
271
Genre (ULg 1 pp. 88-91, ULg 4 pp. 31-32, ULg 7 pp. 71-74, ULg 8 pp 83-89 et 147-168, ULg 9 pp 81-88 et
196-199, ULg 12, ULg 15 pp. 176-200). Variables socioéconomiques (ULg 1 pp. 93-94, Ulg 4 pp. 37-41, ULg 7
pp. 82-87, ULg 8 pp. 94-100, ULg 9 pp. 93-100 et 116-119, ULg 15 pp. 209-214, APED 1 pp. 3-5). Variables
ethniques (ULg 1 pp. 95-99, ULg 4 pp. 34-37, ULg 7 pp. 77-82, ULg 8 pp 90-92, ULg 9 pp. 89-93 et 116-119,
ULg 15 pp. 201-208, ULB 1, APED 1 pp. 6-7, APED 3, APED 4).
272
Effet établissement (ULg 1 pp. 90-92, ULg 3 pp. 102-103, ULg 6 pp. 17-19, ULg 7 pp. 129-155 et 158-178
et 180-189, ULg 8 pp. 169-200, ULg 9 pp 131-151, ULg 13, ULg 15 pp. 225-258, ULg 16, ULg 17, UCL 1, UCL
2, UCL 3, UCL 6, + UCL 7). Structures curriculaires (ULg 4 pp. 32-34, ULg 7 pp. 74-76, ULg 8 pp. 101-106,
ULg 9 pp. 101-113, ULg 14, Ulg 15 pp. 215-224, ULg 18, APED 1 pp. 9-13, UCL 6).
273
Libre choix (APED 2, APED 5). Réseau (ULg 8 pp. 107-109, ULg 9 pp. 114-115 et 122-127, APED 2 pp. 13-
14, MR 1).
274
ULg 2 pp. 83-87 et 92-96, ULg 6 pp. 20-21, ULg 7 pp. 96-119, ULg 8 pp. 115-144, ULg 9 pp. 155-223, ULg
11.
275
ULg 7 pp. 120-128, ULg 8 pp. 147-168.
276
FUNDP 1, UCL 4, UCL 8, UCL 9.
126
4. Travaux d’analyse des données PISA en CFB
Lafontaine et Christiane Blondin : « Ecole fréquentée et/ou caractéristiques individuelles :
qu’est-ce qui compte le plus ? » (ULg 15, 2004, 250).
Au-delà, les chercheurs s’intéressent à décomposer cet effet établissement et ainsi à
l’expliquer, tout en soulignant l’existence d’au moins trois obstacles méthodologiques. (1)
Les
données
PISA
n’offrent
pas
la
possibilité
d’analyser
conjointement
l’effet
établissement et l’effet classe, puisqu’aucune donnée par classe n’est disponible277. (2)
« Une deuxième difficulté concerne l’absence, dans PISA 2000, de mesure du niveau
initial des acquis scolaires 278 » (UCL 3, 2007, 98). (3) Troisième obstacle : la définition
même de l’établissement varie d’un pays à l’autre. Alors que, depuis 2003, la Belgique
francophone construit son échantillon sur la base de l’établissement plutôt que de
l’implantation, la Flandre a effectué le trajet inverse. Cette différence peut avoir des
répercussions sur le classement des pays et régions279, et le choix finalement opéré par
la Communauté française privilégie la référence à des entités administratives plutôt qu’à
des lieux de vie, ce que déplorent des chercheurs de l’ULg, pour qui « l’unité
‘implantation’ présente l’avantage de permettre des analyses plus fines puisque certains
établissements présentent des implantations assez différentes (par exemple, une
implantation d’enseignement général et une d’enseignement qualifiant) ».
Vu l’absence de données à l’échelle de la classe, l’absence de mesure du niveau scolaire
initial, la définition de l’établissement sur une base administrative ne correspondant pas
277
« Aucune des grandes enquêtes internationales menées à l’initiative de l’IEA [...] ou de l’OCDE (PISA) ne
présente un plan d’échantillonnage qui permet une décomposition de la variance entre écoles, entre classes et
entre individus » (Lafontaine, in Dictionnaire de l’éducation, p. 216). De ce fait, comme le constatent Vincent
Dupriez et Xavier Dumay, « la force de nos résultats se voit [...] limitée par [les] modalités d’échantillonnage,
basées sur l’établissement scolaire, ce qui rend impossible la modélisation du niveau ‘classe’ comme niveau
d’analyse intermédiaire » (UCL 3, 2007, 98). Comme le dit Vincent Vandenberghe “These results should be
considered with the usual reservations. They are based on a definition of ability segregation that completely
ignores the possibility of inter-classroom segregation. This is certainly a shortfall as classroom formation based
on actual or perceived ability of students is commonplace across most educational systems” (UCL 6, 2004, 14).
278
« Cette difficulté a toutefois été dépassée de manière satisfaisante dans la présente exploitation de PISA
2000, en ne gardant dans notre étude que les pays où il est fait un usage important du redoublement scolaire
et en utilisant cette information comme un indicateur des compétences initiales des élèves » (UCL 3, 2007, 98).
279
Les auteurs liégeois font en effet l’hypothèse que la part de variance entre écoles plus forte en Flandres
qu’en Communauté française (PISA 2006) « résulte davantage des options prises en matière d’échantillonnage
plutôt que d’un réel écart entre les communautés » (ULg 9, 2009, 134). Ils remarquent aussi, en note, que « le
changement de modalité d’échantillonnage doit avoir une influence sur la manière dont la variance entre écoles,
et entre élèves à l’intérieur des écoles se distribue, bien qu’il soit difficile de déterminer si cette différence est
de nature à augmenter ou diminuer la variance entre écoles » (ULg 7, 2001, 162).
127
4. Travaux d’analyse des données PISA en CFB
toujours à une entité de vie280 et parfois la dispersion de la population de l’établissement
dans différentes années et filières, les pièges méthodologiques et interprétatifs sont
nombreux, rendant difficile la mise en évidence des effets cumulés des processus de
sélection scolaire antérieurs, la dissociation des effets classe et établissement, à
distinguer effets de composition et de pratiques, etc. Aucune des études menées en
Communauté française ne parvient à éviter tous ces pièges. En outre, toutes n’attirent
pas l’attention du lecteur sur ceux-ci.
Une étude menée par Christian Monseur et Dominique Lafontaine (ULg 17) pallie
certaines de ces limites en distinguant trois types d’école (écoles de transition, écoles de
qualification, écoles mixtes) puis en mesurant et décomposant la variance entre écoles
au sein de chacun de ces trois groupes. Cette étude évite ainsi dans une certaine mesure
la confusion entre effets établissements et effets de filières. Plusieurs études du Girsef
(UCL 1 et 3), quant à elles, visent à distinguer l’effet de la composition, l’effet des
processus pédagogiques et organisationnels et l’effet joint de ces deux processus, la
thèse majeure des auteurs étant que « les processus organisationnels et pédagogiques
observés dans les établissements ne sont pas indépendants de la composition de ces
derniers, et que l’articulation de ces deux paramètres explique une part importante des
différences entre établissements scolaires » (UCL 3, 2007, 79-80).
Conclusions tirées des analyses par les auteurs
Des problèmes similaires à ceux détaillés ci-dessus existent aussi quand on essaie de
traiter d’autres questions de recherche. Cet exemple illustre que nombre de résultats en
termes de causalité demeurent fragiles. Du reste, même si certains auteurs soulignent
les avancées qui ont été permises par l’analyse des données PISA281, plusieurs articles
mettent en garde contre des interprétations trop rapides ou radicales. Ils soulignent la
complexité de l’analyse et la difficulté à dissocier le poids des diverses variables. C’est
d’abord contre la mise en évidence du poids d’une seule variable que des auteurs
mettent en garde282, mais certains soulignent également que les analyses multivariées ne
280
En 2006-2007, on comptait, dans l’enseignement secondaire ordinaire 508 établissements et 695
implantations.
281
« On le voit, les analyses menées sur les bases de données internationales ont permis de faire avancer
considérablement, au cours des dix dernières années, la compréhension des mécanismes généraux qui
contribuent à rendre les systèmes éducatifs plus justes et plus efficaces » (ULg 17, 2009, 145).
282
« Bien des variables scolaires, dont on pourrait penser qu’elles vont sûrement influencer les performances
des élèves, comme une discipline plus grande, des attentes ou des exigences plus élevées envers les élèves, le
volume de devoirs à domicile ou encore la taille des classes, sont sans réel impact parce, vraisemblablement,
leurs effets sont potentiellement confondus avec ceux d’autres variables » (ULg 7, 2003, 189). «
La
différenciation des publics selon les établissements n’est cependant pas seule en cause, car certains pays
parviennent, malgré d’importantes différences entre établissements, à des différences socio-économiques
inférieures à la moyenne (voir par exemple l’Autriche, la Grèce et l’Italie) » (ULg 1, 2004, 95).
128
4. Travaux d’analyse des données PISA en CFB
donnent pas toujours des résultats robustes. En outre, il leur est difficile de présenter de
tels résultats de manière aisément compréhensible par les profanes. Au final, la mise en
évidence de résultats lisibles et robustes paraît souvent une gageure283. Dans la majorité
des textes, le principal message s’avère finalement être qu’il faut rester prudent.
4.3 Transformation des connaissances en arguments
Si les comparaisons/classements et les associations/explications constituent en tant que
tels des formats de connaissance susceptibles d’intéresser les acteurs impliqués dans
l’action publique, d’autres formats de connaissance, que nous nommons ‘arguments’ sont
plus directement utilisables par les acteurs intervenant dans le cours de l’action publique.
Ces arguments ont pour caractéristique d’énoncer quels sont les problèmes dont il
convient de s’occuper ou quelles préconisations sont pertinentes. Les documents du
corpus contiennent de tels arguments. Ils sont parfois le signe d’une intention délibérée
d’intervention des auteurs dans les débats publics. Mais il peut s’agir aussi d’une mise en
forme non destinée à peser sur le cours de l’action publique, mais qui est de nature à
être perçue comme une ressource par des acteurs plus directement impliqués dans cette
action, ressource dont ils se saisissent quand il leur faut répondre aux épreuves que
d’autres acteurs font subir à leurs problématisations et préconisations ou quand ils
cherchent à mettre à l’épreuve les problèmes et préconisations défendus par ces autres
acteurs.
Ces arguments sont étroitement liés aux formats de connaissance décrits au point
précédent.
Ils
s’appuient
généralement
sur
eux,
les
problématisations
et
les
préconisations étant justifiés par des comparaisons/classements ou des associations/
explications. Ce passage des connaissances aux arguments s’accompagne généralement
d’un passage du constat au propositionnel, de l’énoncé prudent d’une hypothèse à
l’affirmation d’une vérité, de la corrélation à la causalité,…. Ces transformations
impliquant le passage des connaissances aux arguments sont assez fréquemment
opérées par des acteurs autres que ceux qui produisent les connaissances. Mais ici, les
deux transformations sont effectuées par le même acteur qui, à un moment donné,
283
« Il est difficile d’expliquer pourquoi l’engagement envers la lecture compense plus dans certains systèmes
éducatifs que dans d’autres les inégalités liées au milieu social des élèves. D’autres facteurs doivent entrer en
ligne de compte, mais il est impossible d’affiner l’analyse, en raison de la petite taille de certains groupes
d’intérêt » (ULg 11, 2003, 40). « Il est souvent frustrant de ne pouvoir dégager des causes et des effets qui
permettraient de détecter et de remédier plus facilement aux problèmes : c’est que non seulement ils sont
imbriqués, mais qu’ils se renforcent également les uns les autres. Il en est ainsi des pratiques de lecture, de la
motivation à lire, et des performances en lecture. La relation triangulaire est aisée à imaginer, mais les liens
semblent tellement étroits qu’il est délicat de cerner une dimension, de l’extraire du modèle et d’en déterminer
précisément l’impact » (ULg 11, 2003, 35). « Il convient néanmoins de rester prudent quant aux résultats de
la présente étude, compte tenu d’une part de la nature corrélationnelle de l’étude dans un domaine où les
interactions sont multiples, et d’autre part de la relative instabilité des résultats, fortement variables d’un
contexte national à un autre » (UCL 3, 2007, 99).
129
4. Travaux d’analyse des données PISA en CFB
franchit donc le pas de formater des arguments directement utilisables pour l’action
publique.
Dans les pages qui suivent, nous analyserons successivement comment, dans le corpus,
les auteurs énoncent les problèmes et énoncent les préconisations.
4.3.1 Enoncer des problèmes
Plusieurs textes du corpus définissent quels sont les problèmes, et ils le font en se basant
sur les connaissances décrites ci-dessus284. Dans le corpus étudié, ce sont les
comparaisons/classements et les associations/explications qui servent de base aux
arguments où sont nommés les problèmes. Etant ainsi utilisées, les connaissances sont
transformées selon un processus que nous décrirons avant d’étudier la nature des
problèmes mis en évidence.
Processus de formatage des arguments
Pour amener un acteur public à prendre en charge un problème, il faut, en plus d’être
capable de créer un rapport de forces - mais aussi pour créer ce rapport de force -, être
en mesure de convaincre que la prise en charge de ce problème est possible et est
importante. Convaincre que la prise en charge d’un problème est possible, c’est franchir
les
épreuves
d’accessibilité
et
de
compatibilité
(en
d’autres
mots
convaincre
suffisamment d’acteurs que le problème peut être résolu, et qu’en plus il peut l’être sans
générer ou aggraver ce qui constitue, aux yeux de certains, des problèmes d’une autre
nature). Convaincre que la prise en charge d’un problème est importante, c’est réussir
les épreuves d’importance et de hiérarchisation (autrement dit convaincre suffisamment
d’acteurs que cette situation est réellement problématique et qu’elle l’est davantage que
d’autres problèmes ‘concurrents’).
Les textes du corpus contiennent des arguments dont les formats sont adaptés à chacune
de ces épreuves. Ces arguments établissent un lien avec les connaissances décrites au
point précédent. A travers l’usage de la conjonction ‘donc’, du verbe ‘démontrer’ ou
d’expressions
telle
que
‘il
ressort
clairement
de’,
ces
arguments
utilisent
les
comparaisons/classements ou les associations/explications que génère PISA pour justifier
que telle ou telle situation soit identifiée comme un problème dont il faut s’occuper.
284
De fait, « dans le processus d’émergence et de maintien d’un problème, les connaissances servent […] à
formuler les questions tout autant que les réponses aux épreuves de dénomination (“ce n’est pas la bonne
manière de nommer le problème”), d’importance (“le problème n’est pas si grave que vous le dites”),
d’accessibilité (“c’est un problème qu’on ne peut de toute façon pas résoudre, une finalité inaccessible”), de
hiérarchisation (“il y a des problèmes plus importants auxquels nous devons accorder la priorité”), de
compatibilité (“le lien de causalité que vous établissez avec ce que nous identifions tous comme problème
majeur n’est pas convaincant”
ou “les propositions envisageables pour résoudre le problème que vous
dénoncez vont générer ou amplifier d’autres problèmes”) » (Delvaux et Mangez, 201).
130
4. Travaux d’analyse des données PISA en CFB
Assez souvent, cependant, ces arguments ne reposent pas seulement sur PISA mais
également sur d’autres connaissances tirées de la littérature, de l’expérience ou de
théories de l’action plus ou moins explicitées.
C’est possible (épreuves d’accessibilité et de compatibilité)
Un problème, avons-nous dit, a plus de probabilité d’être mis à l’agenda lorsqu’il est à la
fois perçu comme gérable et comme pouvant être traité sans générer d’autres
problèmes. Certaines conclusions des textes du corpus proposent des arguments pouvant
être mobilisés pour prouver que l’objectif est atteignable (épreuve d’accessibilité) ou que
le problème peut être résolu sans en générer d’autres (épreuve de compatibilité).
Les problématisations en termes d’inéquité subissent souvent cette seconde épreuve de
compatibilité. Avec l’argument classique du nivellement par le bas, les adversaires de
cette problématisation mettent en effet souvent en exergue le risque que des actions
menées au nom de l’équité nuisent à l’efficacité. Dès lors, pour que les acteurs fassent de
la lutte contre les inégalités un objectif prioritaire, montrer que d’autres pays parviennent
à concilier égalité et efficacité n’est pas anodin. Et c’est ce que font plusieurs auteurs du
corpus285. En montrant que l’équité n’est pas incompatible avec l’efficacité (épreuve de
compatibilité) et qu’en outre elle est atteignable (épreuve d’accessibilité), ils font ainsi
d’une pierre deux coups.
Les comparaisons internationales jouent donc un rôle important dans l’argumentation qui
peut être mobilisée pour convaincre qu’il est possible de prendre en charge un problème,
par exemple celui de l’engagement dans la lecture. « Les faibles lecteurs ne sont pas
distribués uniformément entre les catégories sociales.
Ce constat aux allures de
lapalissade prend un nouveau sens lorsque l’on se rend compte – et seules des études
internationales permettent ce genre d’analyse – que les déterminants socioculturels ne
jouent pas partout avec la même acuité, que certains pays produisent un grand nombre
de lecteurs très compétents, issus de tous les milieux sociaux » (ULg 11, 2003, 44). Cet
argument permettant de franchir l’épreuve d’accessibilité consiste à dire que, puisque
dans d’autres pays, l’engagement dans la lecture est moins dépendant de l’origine
socioculturelle, il est possible de faire de l’élévation de l’engagement un objectif réaliste.
C’est important (épreuves d’importance et de hiérarchisation)
285
« Il est donc possible de se montrer plus équitables sans rien perdre en efficacité. C.est l’un des
enseignements majeurs de PISA » (ULg 4, 2003, 10). « On n’observe pas de relation très nette entre le score
moyen et l’ampleur des écarts. Cependant l’exemple de la Finlande […] démontre qu’un niveau de compétence
élevé chez les élèves ne s’accompagne pas nécessairement d’un accroissement des écarts entre les meilleurs et
les moins bons élèves » (Ulg 1, 2004, 83). « Certaines études semblent même indiquer que l’inéquité sociale
et/ou académique pourrait nuire à l’efficacité du système éducatif » (ULg 17, 2009, 162). « On soulignera
que des systèmes éducatifs très différents d’un point de vue géographique, linguistique ou culturel arrivent à
concilier l’excellence des résultats tout en minimisant le poids du milieu social des élèves » (ULg 9, 2009, 96).
131
4. Travaux d’analyse des données PISA en CFB
L’épreuve d’importance, qui consiste à convaincre qu’une situation est problématique, est
rarement ‘gagnée’ par le seul fait de l’évocation d’un mauvais classement. Il faut
souvent, de manière complémentaire, mobiliser les associations/explications, autrement
dit établir un lien entre le problème qu’on veut mettre à l’agenda et un autre dont la
particularité est d’être déjà socialement reconnu comme étant important. Les textes
analysés fourmillent d’arguments de ce type qui viennent parfois appuyer d’autres types
d’arguments, et notamment ceux fondés sur les classements.
L’épreuve de hiérarchisation, quant à elle, consiste à poser la question de la hiérarchie à
établir entre les (très) nombreux problèmes. Certains arguments ont un format adapté à
ce type d’épreuve, par exemple ceux qui comparent différents classements. Ainsi
plusieurs auteurs jugent-ils qu’il est plus important de s’occuper des élèves ‘faibles’ que
des élèves ‘forts’ car, si les performances de ces derniers sont plus ou moins à la hauteur
des performances des meilleurs élèves des autres systèmes éducatifs, ce n’est pas le cas
des autres286.
Nature des problèmes mis en évidence
Les deux problèmes majeurs que les documents du corpus mettent en évidence sont
l’inéquité et la ségrégation. Les mauvaises performances en lecture et les inégalités entre
filles et garçons sont moins fréquemment évoquées. Mais les arguments ne sont pas
seulement
utilisés
pour
défendre
une
problématisation
particulière.
Ils
peuvent
également servir à critiquer et à mettre à l’épreuve des problématisations adverses,
comme celles qui consistent à lire les problèmes d’inégalités en termes ethniques plutôt
que sociaux287.
Nombreuses sont les phrases défendant l’objectif d’une plus grande équité. Non
seulement, comme dit plus haut, de nombreux auteurs soulignent qu’équité et efficacité
ne sont pas deux objectifs incompatibles, mais des arguments visent à convaincre que
c’est à travers la poursuite de l’équité que le système éducatif est susceptible d’améliorer
son efficacité288. L’objectif d’équité, en plus d’être justifié par le fait qu’il ne s’oppose pas
286
« Les performances enregistrées par les élèves à l’heure, en particulier dans la filière de transition, sont
d’un bon niveau. En revanche, les performances des élèves en retard scolaire, et principalement dans la filière
qualifiante, sont un sérieux motif d’inquiétude » (ULg 5, 2004, 9).
287
« Il semble bien que l’influence de la variable immigration comme celle de la variable ‘langue parlée à la
maison’ soit ‘engloutie’ dans l’effet exercé par le statut socio-économique et culturel de la famille d’origine des
élèves. Ce constat a son importance en matière de politique de lutte contre les inégalités de réussite à l’école :
en cherchant et en trouvant les moyens de juguler les effets préjudiciable de l’origine sociale, on agit du même
coup sur les inégalités liées à l’immigration et à la langue parlée à la maison » (ULg 16, 2008, 64).
288
« Si l’on veut améliorer de façon sensible les performances, il faut en priorité s’atteler aux problèmes des
élèves en grande difficulté, fréquentant pour l’essentiel les filières de qualification, souvent en retard dans leur
parcours scolaire et concentrés dans certains établissements » (ULg 5, 2004, 9).
132
4. Travaux d’analyse des données PISA en CFB
à l’objectif d’efficacité mais peut y contribuer, est en outre présenté comme conforme
aux objectifs démocratiquement définis et aux évolutions de la société289.
La ségrégation est l’autre grand problème nommé dans le corpus. Aux yeux de ceux qui
mettent l’accent sur ce problème, ce qui justifie de s’en préoccuper, c’est non seulement
le fait que le taux de ségrégation est, en Communauté française, comparativement très
élevé, mais c’est aussi le fait qu’un lien de causalité est établi entre les ségrégations et
les inégalités. Ce lien de causalité est important car, en Communauté française, les
inégalités sont, davantage que les ségrégations, reconnues comme un problème dont il
importe de se préoccuper290. On le voit : une fois de plus, classements et explications
sont conjointement mobilisés pour constituer un argument.
Deux autres problèmes sont exclusivement identifiés par des auteurs de l’ULg. D’une
part, le problème des inégalités entre les sexes291. D’autre part, celui des mauvaises
compétences en lecture, dont l’importance est justifiée non seulement par les mauvais
classements de la Communauté française, mais aussi par l’argument traditionnel
soulignant l’impact de la lecture sur l’acquisition d’autres compétences292.
289
« L’intérêt pour l’équité des systèmes éducatifs dépasse largement une vision généreuse et un consensus
rhétorique sur la contribution du système éducatif au bien-être et au développement de tous. […] Tout d’abord,
du point de vue de l’égalité des chances et des acquis de base, il s’agit d’observer dans quelle mesure le
système éducatif en Communauté française répond effectivement aux objectifs qu’il s’est lui-même fixés, c’està-dire de doter tous les élèves de 15 ans des savoirs et compétences qui leur permettront d’apprendre tout au
long de la vie et de prendre une place active dans la vie économique, sociale et culturelle […]. Par ailleurs, d’un
point de vue socioéconomique global, il est aujourd’hui largement reconnu que le système éducatif occupe une
place centrale dans l’évolution sociale, économique et culturelle des sociétés, et que les jeunes exclus du
système scolaire sans avoir atteint un niveau de formation suffisant risquent de s’exclure du même coup du
marché du travail et de freiner alors potentiellement l’essor même d’une région ou d’un pays » (ULg 9, 2009,
79).
290
« Notre contribution consiste notamment à confirmer la généralité et quasiment l’universalité des effets
pervers des phénomènes d’agrégation. L’ampleur de ces phénomènes, ainsi que celle de leurs incidences
négatives, varie selon les pays, mais leur caractère préjudiciable est partout avéré. […] Les analyses présentées
ici montrent clairement que, plus les systèmes d’enseignement sont marqués par des phénomènes
d’agrégation, plus la dispersion des performances est élevée et plus leur moyenne au niveau du pays est faible.
Cette convergence des résultats ainsi que leur généralité et leur réplication doivent donner à réfléchir aux
responsables du système éducatif. Il nous semble que le doute n’est plus permis : pour réduire l’ampleur des
inégalités de réussite à l’école et pour accroître la rentabilité générale des systèmes éducatifs, il convient
d’endiguer autant que faire se peut les phénomènes d’agrégation » (ULg 16, 2008, 64).
291
292
« Il y a encore du chemin à parcourir au niveau de l’égalité homme / femme » (ULg 8, 2004, 142).
« En Communauté française, une proportion trop importante de garçons éprouve des difficultés face à la
lecture d’un support écrit et l’on peut craindre que ces faiblesses se répercutent dans d’autres domaines
133
4. Travaux d’analyse des données PISA en CFB
4.3.2 Enoncer des préconisations
Les articles du corpus fournissent également un certain nombre d’arguments dont
peuvent se saisir les acteurs lorsqu’ils cherchent à convaincre qu’une préconisation est
pertinente (permet de résoudre le problème identifié), compatible (n’engendre pas
d’autres problèmes ou des effets pervers) ou concrétisable (les ressources nécessaires ne
manquent pas et les éléments de contexte sur lesquels on peut difficilement agir ne
rendent pas impossible la mise en œuvre de la préconisation). Mais, comme nous l’avons
vu également dans le cas des problèmes, les arguments présents dans le corpus ne
servent pas seulement à faire franchir certaines épreuves aux préconisations. Ils sont
également utiles pour mettre à l’épreuve des préconisations adverses, comme celles
défendant des politiques d’accountability293 ou des politiques ciblant les élèves d’origine
étrangère294.
Processus de formatage des arguments
Dans les textes analysés, les arguments utilisables pour la fabrication de préconisations
sont surtout liés à l’épreuve de pertinence, dans une moindre mesure à l’épreuve de
compatibilité, et quasi jamais à l’épreuve de faisabilité. Autrement dit, ces arguments
permettent surtout de convaincre qu’une préconisation est pertinente pour résoudre le
problème-cible et, dans une moindre mesure, à convaincre qu’elle ne va pas générer des
problèmes. Dans les deux cas, ce sont à nouveau des comparaisons/classements et les
associations/explications
qui
servent
de
base
à
l’argumentation.
Les
premières
permettent de souligner certains traits des systèmes éducatifs réputés efficaces, traits
qui peuvent ensuite être présentés comme des éléments qui devraient être implantés
évalués dans les études PISA ou, plus largement, que ces difficultés les handicapent dans leur scolarité » (ULg
9, 2009, 83). Les compétences en lecture sont également justifiées en référence à l’insertion professionnelle.
« Dans les travaux menés en Communauté française de Belgique sur l’usage et la production de textes
techniques dans les entreprises, on constate à quel point l’accès à l’écrit représente pour les travailleurs de
base une condition, sinon pour l’embauche, en tout cas pour le maintien de l’emploi, par exemple dans des
situations de reconversion » (ULg 11, 2003, 4).
293
« Ce type de politique évite de considérer que la composition des établissements scolaires, en tant qu’effet
‘indirect’ peut jouer un rôle perturbateur par rapport à l’implantation de pratiques éducatives et managériales
présentées comme idéales. [...] Les processus de responsabilisation des établissements basés sur une
évaluation de l’effet net des processus scolaires tend, d’une part, à sous-attribuer la performance des
établissements à l’équipe éducative, puisqu’une part significative de l’effet des processus consiste en un effet
articulé, et d’autre part, plus fondamentalement, à nier le jeu complexe qui se construit entre les éléments de
contexte et les pratiques professionnelles » (UCL 3, 2007, 97-98).
294
« Les jeunes allochtones ne sont ni des handicapés linguistiques, ni des déficients culturels. Ils souffrent
avant tout, comme tous les enfants du peuple, d’un manque cruel d’encadrement à l’école, d’une ségrégation
systématique vers des écoles ghettos et d’une orientation massive vers des filières de relégation dès les
premières années de l’enseignement secondaire » (APED 3, 2006, 27).
134
4. Travaux d’analyse des données PISA en CFB
dans le système éducatif moins performant, et ce même en l’absence de preuve de
l’existence d’un lien de causalité entre ces traits et la meilleure performance. Quant aux
associations/explications, elles permettent d’attribuer à certains facteurs un poids
explicatif et, dans un second temps, de pointer ces facteurs comme des leviers d’action
potentiels pour agir sur un problème.
Dans les deux cas, un pas est franchi entre la connaissance formatée sous forme de
classement ou d’association causale et la formulation de préconisations. Les auteurs des
articles analysés franchissent ce pas avec plus ou moins de prudence. La prudence est
davantage le fait des acteurs du monde académique, cadrés par les normes propres au
monde scientifique295, mais le degré de prudence varie, et on peut trouver des accents
différents dans des articles signés par un même auteur ou groupe d’auteurs296. La
295
Vincent Dupriez et Xavier Dumay, entre autres, adoptent une attitude prudente qui tend à montrer la
difficulté qu’il y a à passer du constat d’une corrélation à une proposition. Ils soulignent d’abord que, « dans
l’état actuel des connaissances sur les systèmes scolaires, on peut considérer qu’une logique de différenciation
des élèves, telle qu’elle se manifeste dans des filières précoces, dans un usage intensif du redoublement et
dans la ségrégation entre établissements est propice à un accroissement des inégalités à l’école. Au contraire,
une logique d’intégration est associée à une diminution des inégalités » (UCL 4, 2004, 15). Mais ils font aussitôt
remarquer que « une telle conclusion pourrait pousser les décideurs et responsables éducatifs soucieux
d’égalité à adopter et à importer dans leur pays les paramètres qui semblent être décisifs dans le mode de
fonctionnement de certains systèmes scolaires. Nous pensons qu’une telle option peut certainement représenter
un objectif à long terme, mais qu’il faut rester prudent quant à la capacité des acteurs scolaires à s’approprier
un modèle venu d’ailleurs » UCL 4, 2004, 15). « Se contenter d’importer une caractéristique structurelle (la
durée du tronc commun, par exemple) est […] problématique, si un travail parallèle, mais autrement plus
complexe, n’est pas réalisé pour travailler avec l’ensemble des acteurs scolaires la signification d’un tel
changement et la transformation des pratiques socio-pédagogiques qui doit l’accompagner. Les évolutions
récentes des politiques éducatives en Belgique francophone sont à ce titre assez illustratives » (UCL 2, 2004,
15). Xavier Dumay et Benoït Galand poursuivent l’argumentation dans le même sens. « Au total, les analyses et
le raisonnement développés dans ce chapitre ne soutiennent pas l’idée que l’un ou l’autre facteur serait
principalement responsable de l’ampleur des inégalités de résultats en Communauté française de Belgique. Ces
inégalités résultent, semble-t-il, du fonctionnement d’une série d’acteurs (parents, directions, équipes
éducatives, etc.) au sein d’un système auquel ils contribuent tout en le détournant parfois. Ce constat souligne
à la fois que chaque acteur peut agir à son niveau pour contribuer à réduire les inégalités, et que changer les
règles du jeu demande sans doute un effort concerté et coordonné, en d’autres mots un projet collectif » (UCL
1, 2008, 203).
296
Parfois, les recommandations sont très affirmatives : « C’est clair : l’enjeu actuel n’est plus tant de faire lire
(à coup de listes obligatoires, entre autres) que de motiver à lire et d’engager réellement les élèves dans la
lecture » (ULg 11, 2003, 8). « Sans appel, ces chiffres insistent sur l’urgence d’établir un rapport de
connivence, de familiarité et de plaisir au livre auprès de tous les jeunes francophones. D’autant que le temps
consacré à la lecture pour le plaisir est associé positivement aux performances en lecture quelle que soit
135
4. Travaux d’analyse des données PISA en CFB
dynamique propre de l’analyse quantitative tend à pousser les analystes à faire d’un
facteur causal identifié comme ayant un impact positif un élément central de propositions
d’action. Mais on sait combien le transfert d’un contexte à l’autre peut avoir un impact
important sur la nature de la relation causale. Et ce constat, mis notamment en évidence
par des travaux de sociologie compréhensive ou constructiviste, amène nombre des
auteurs étudiés à prendre en compte ces contraintes de contexte et à faire preuve de
‘réalisme’, comme dans le cas de Nico Hirt, s’exprimant au nom d’une association
militante297.
L’attitude prudente de la plupart des auteurs se manifeste aussi par le fait que les
propositions insérées dans le corpus restent presque toujours générales, assez peu
précises, au point qu’elles se distinguent parfois malaisément de la simple identification
d’un problème298. La proposition se résume alors à l’identification d’un élément sur lequel
il convient d’agir (mais comment ? la question est laissée entière…).
Dernier constat : les préconisations sont assez souvent présentées comme la déduction
logique des constats faits à partir de PISA. Assez fréquemment cependant, le lien est
moins direct et évident qu’il n’y paraît. Dans certains cas, il est fait appel à des
connaissances scientifiques non issues de PISA avec la part d’incertitude liée à
l’utilisation de données issues de recherches différentes. Dans d’autres cas, il est fait
appel à des connaissances non fondées sur les méthodes scientifiques de validation
empirique : connaissances d’expérience, mais aussi connaissances théoriques qui
permettent, à partir d’un schéma théorique de compréhension de l’action humaine et des
interactions sociales, de ‘combler les trous’ du raisonnement fondé sur des données
empiriques.
Nature des préconisations proposées
l’année de scolarité étudiée – ce constat revenant invariablement à l’examen de toutes les évaluations externes
disponibles » (ULg 11, 2003, 25).
297
« Le modèle finlandais doit-il, pour autant, être ‘transplanté’ en Belgique. Non, sans doute. Mais il nous
appartient de trouver, dans le contexte géographique, social et culturel spécifique de notre pays, les voies qui
permettront d’en finir avec l’ultra-libéralisme scolaire actuel. Si les rapports de force ne permettent guère
d’imaginer, à court terme, une suppression de la liberté de choix, il ne saurait être question non plus de se
contenter de vagues procédures de concertation non contraignantes entre établissements, dans le cadre par
exemple d’une création de ‘bassins scolaires’ » (APED 2, 2005, 16-17).
298
« L’équité et l’efficacité en matière de performances scolaires sont indissolublement liées à la gestion de
l’hétérogénéité des élèves. En favorisant celle-ci au niveau des écoles et des classes, il est possible de lutter
efficacement contre les inégalités de réussite scolaire et, probablement, par voie de conséquence,
professionnelle. Les bons résultats obtenus aux enquêtes PISA par les pays dans lesquels la majorité des écoles
peut se targuer de la mixité sociale de leur public en sont la preuve » (ULg 16, 2008, 64).
136
4. Travaux d’analyse des données PISA en CFB
Lorsqu’on fait l’inventaire des préconisations proposées dans ces textes, on constate que
la majorité d’entre elles porte sur les caractéristiques structurelles du système éducatif.
Les propositions ciblant la pédagogie ou les facteurs externes au champ éducatif sont
nettement moins fréquentes.
Des réformes structurelles ?
Les réformes structurelles proposées dans le corpus supposent, dans leur quasi-totalité,
un renforcement du pouvoir régulateur de la Communauté française. Seul le texte du
député libéral Alain Destexhe prône à l’inverse davantage d’autonomie, en fondant cette
proposition sur le constat des meilleures performances de l’enseignement libre en Flandre
et après avoir fait l’hypothèse que les performances de l’enseignement libre en
Communauté
française,
moins
nettement
différentes
de
celles
de
l’officiel,
s’expliqueraient par les contraintes grandissantes qui lui sont imposées de la part des
pouvoirs publics299. Les autres auteurs s’inscrivent à l’inverse dans une argumentation en
faveur d’une plus grande standardisation et d’une plus forte régulation.
La recommandation d’une structure d’enseignement plus intégrée (recourant moins au
redoublement et aux filières précoces) fait quasi consensus parmi les auteurs du corpus,
même si elle est présentée de manière prudente, notamment par les chercheurs du
Girsef qui indiquent que leurs analyses renforcent « l’hypothèse souvent exprimée […]
que l’organisation ‘intégrée’ du système scolaire dans ces pays, maintenant une structure
et un programme d’études communs à tous les élèves jusque 16 ans, permet de lutter
contre les inégalités et de promouvoir un enseignement de qualité pour la grande
majorité des élèves » (UCL 5, 2008, 182). Les chercheurs ne s’engagent guère plus loin
dans cette perspective de réforme curriculaire voire, comme Marc Demeuse, Dominique
Lafontaine et Marie-Hélène Straeten, s’appuient sur l’existence d’obstacles politiques à
299
« Des études internationales […] ont montré que l’autonomie des établissements (et notamment en matière
d’engagement du personnel enseignant) était un facteur explicatif des bons résultats scolaires. Chez nous, les
écoles de l’enseignement officiel sont particulièrement peu autonomes. Le nouveau statut du directeur en est
un exemple presque caricatural […]. Dans le réseau communal et provincial, la politisation et/ou le favoritisme
jouent encore un grand rôle. Dans le réseau de la Communauté française, toutes les décisions en matière
d’engagement sont prises au sein de la ‘cellule de désignations’, partie intégrante du cabinet ministériel ». De
ces constats, Alain Destexhe déduit les propositions suivantes : « 1. Sur la base des exemples étrangers, […]
réaliser une étude approfondie sur l’impact de l’autonomie des écoles comme facteur de meilleure réussite des
élèves. 2. […] mener des expériences pilotes au niveau de quelques athénées de la Communauté française :
donner à la direction de l’établissement une grande autonomie dans l’organisation de l’école (y compris dans le
choix des professeurs) sous le contrôle d’un conseil d’administration composé des pouvoirs publics
(organisateurs et locaux) et de représentants élus des parents » (MR 1, 2008, 2).
137
4. Travaux d’analyse des données PISA en CFB
une telle réforme pour recommander de travailler davantage par la mise en place de
dispositifs de pilotage que par l’adoption de réformes structurelles radicales300.
Quant au libre choix de l’école, l’APED elle-même, association connue pour sa
revendication en faveur d’une régulation renforcée de cette liberté, se montre prudente.
« Des mesures peuvent être imaginées qui, sans toucher au principe du libre choix, en
atténueraient cependant fortement les effets ségrégateurs. [...] De telles mesures, parce
qu’elles réduisent fortement le jeu de la concurrence entre établissements, pourraient
alors s’accompagner d’une réelle autonomie locale, d’une participation accrue des parents
et des élèves, tout en permettant une plus forte régulation centrale sur le plan des
programmes et des modes d’évaluation » (APED 2, 2005, 16-17).
Des pistes pédagogiques ?
Même si elles sont plus fréquentes, les réformes structurelles ne sont pas les seules
proposées dans les documents analysés. Des pistes d’action plus pédagogiques sont
également identifiées. Elles le sont seulement par l’ULg et par l’APED, et dans deux
directions très différentes. L’APED adopte une position radicale de réforme des
programmes, qui emprunte nombre de ses traits aux réformes structurelles301. L’ULg, à
l’opposé, ne propose pas de réformes de programmes, mais met en évidence certains
facteurs qui sont à la fois associés à de bons résultats et à la portée des acteurs locaux.
Ces facteurs sont relatifs à la motivation et à l’engagement des élèves. Ils sont présentés
comme : (1) potentiellement efficaces302 ; (2) à la portée des enseignants eux-mêmes,
sans nécessiter de réforme de structure303 ; (3) trop peu pris en compte304.
300
« La mise en œuvre de socles de compétences et d’un tronc commun était très certainement une solution
de nature à limiter l’impact de ce mode de sélection. Il faut cependant reconnaître que jamais, jusqu’ici, un tel
tronc commun n’a pu se mettre en place … et, plus significatif encore, les pratiques d’évaluation et de
promotion sont totalement disparates d’un établissement à l’autre. […] Des mécanismes de pilotage […]
devraient limiter progressivement les effets néfastes d’un système qui prétend orienter les carrières selon les
intérêts des élèves, mais qui constitue plutôt dans les faits une vaste entreprise de tri et de relégation dans
certaines filières où s’accumulent les handicaps » (ULg 14, 2004, 271).
301
« La Communauté française [a] pratiqué une sorte de fuite en avant dans des réformes pédagogiques et
programmatiques peu fondées, profondément dérégulatrices et vouées à l’échec en raison des mauvaises
conditions matérielles (budgets, encadrement...) où elles ont été imposées [...]. Une révision immédiate des
socles de compétences et des programmes s’impose en Communauté française » (APED 1, 2008, 26-27).
302
« Même si le lien entre performances en littératie et environnement socioéconomique apparaît clairement,
et qu’il reste important [...], les analyses indiquent aussi que le niveau d’engagement peut modifier la donne.
[...] L’engagement aide à compenser les inégalités de départ dans 15 des 28 systèmes éducatifs de l’OCDE
examinés » (ULg 11, 2003, 38-39). « Les réponses des élèves de la Communauté française témoignent [...]
d’une grande responsabilisation par rapport aux enjeux environnementaux [...]. Comme les élèves les plus
sensibilisés aux enjeux environnementaux ont de meilleures performances que les élèves moins sensibilisés, la
138
4. Travaux d’analyse des données PISA en CFB
4.4 Processus de transformation et action publique
On présente généralement la recherche et l’action politique comme deux mondes
clairement distincts. Il est par ailleurs fréquent que chacun de ces deux mondes se
déclare déçu par l’autre. On trouve trace de ce type de plainte dans le corpus puisque
des chercheurs de l’ULg regrettent que les précédents signaux d’alarme émis sur la base
des enquêtes de l’IEA n’aient pas eu d’effet tangible et estiment dès lors que les constats
énoncés sur la base de PISA ont « un goût amer de déjà-vu »305. A leurs yeux, même
lorsque les enquêtes et recherches débouchent sur un large débat et sont entendues,
comme dans le cas de PISA, les réflexions et les solutions mises en place par les acteurs
des politiques publiques ne sont pas à la hauteur des défis. Analysant les raisons d’un tel
phénomène, ils invoquent certaines caractéristiques du système politique propre à la
Communauté française, où l’on a « appris à se méfier des guerres scolaires », où « les
réformes ne peuvent s’envisager sans l’aval de l’ensemble des acteurs éducatifs », et où
« seules les mesures qui ne fâchent pas [...] obtiennent l’adhésion des partenaires »306.
prise de conscience collective des défis liés au développement durable peut être un levier pour développer la
motivation et les compétences en sciences » (ULg 6, 2008, 22).
303
« Par chance, le degré d’engagement envers la lecture est une variable sur laquelle il est possible d’agir en
développant davantage des pratiques pédagogiques qui visent le développement et le renforcement de la
motivation pour la lecture » (ULg 12, 2004, 258). « Il nous paraît [...] fondamental d’insister sur l’impact de
facteurs motivationnels, tant au niveau individuel qu’au niveau collectif, car si, à la lumière des résultats de
PISA, les citoyens et les décideurs doivent s’interroger sur l’efficacité du système éducatif tel qu’il est structuré,
les acteurs de terrain peuvent, grâce aux mêmes résultats, interroger leurs pratiques quotidiennes et trouver
les meilleures voies possibles pour favoriser l’engagement de tous envers la lecture » (ULg 11, 2003, 43).
304
« Ce qu’il faut en retenir, c’est qu’au sein d’un établissement donné, les enseignants n’ont pas seulement à
faire face à des variations importantes au niveau des performances de leurs élèves, mais aussi au niveau de
leur motivation, de leur confiance en eux, de leur anxiété et de leurs stratégies d’apprentissage (éléments
important auxquels d’aucuns sont peut-être moins sensibles a priori) » (ULg 8, 2004, 142-143).
305
« L’engouement public et médiatique soulevé par PISA a eu l’avantage de mettre – plus que jamais ? – au
devant de la scène les questions de la place de la lecture et du niveau de compétence en littératie des jeunes
en Communauté française. Pour les chercheurs et les acteurs des milieux éducatifs, les résultats de PISA ont
cependant, et malheureusement, un goût amer de déjà-vu. [...] Voici une dizaine d’années que des évaluations
externes, tant internationales que nationales, ne cessent de mettre en évidence les faibles compétences de
beaucoup de nos jeunes lecteurs, en lien avec leurs pratiques et leurs attitudes de lecture » (ULg 11, 2003,
44).
306
« Si les problèmes de fond mis en avant par PISA semblent avoir été bien entendus, les solutions apportées
dans la dernière mouture du ‘Contrat pour l’école’ restent timides au regard des défis à relever. Dans un pays
qui a appris à se méfier des guerres scolaires, et où la liberté en matière d’enseignement est coulée dans le
bronze de la Constitution, les réformes ne peuvent s’envisager sans l’aval de l’ensemble des acteurs éducatifs
139
4. Travaux d’analyse des données PISA en CFB
Ces faits, estiment-ils, expliquent pourquoi les problèmes ne sont jamais traités à la
racine.
Mais une telle représentation de deux mondes aux rôles clairement distincts, l’un orienté
vers l’analyse et le diagnostic, l’autre vers l’action et la recherche de compromis, mérite
à tout le moins d’être nuancée. Sans nier l’existence de caractéristiques propres à chacun
de ces deux ‘mondes’, on remarque en effet que l’analyse des données n’est pas
réservée au monde scientifique et – fait plus important – que le processus de
transformation des données en connaissances et en arguments fait partie intégrante du
processus d’action publique et est en partie le fait du monde scientifique. Ce processus
de transformation inclut notamment des processus de sélection et d’auto-sélection des
acteurs travaillant les données et acquérant ainsi un certain pouvoir dans le travail
d’interprétation (point 4.4.1). Transformant les données en connaissances et utilisant une
part de celles-ci pour bâtir des arguments, ils font des choix dont la trace, souvent, se
perd, ce qui contribue à donner forme à des certitudes (point 4.4.2). La nature des
données PISA est l’un des éléments qui oriente ces acteurs vers la production de
connaissances en termes de classements davantage que d’explications et vers la
fabrication d’arguments énonçant davantage des problèmes que des préconisations
(point 4.4.3). Divers facteurs et processus les amènent également à mettre en évidence
certains problèmes et préconisations plutôt que d’autres (point 4.4.4). Ils guident
également l’attention sur certains systèmes éducatifs présentés comme modèles, et sont
ainsi vecteur de la circulation de mesures mises en œuvre dans ces systèmes et
légitimées en partie du fait d’être mises en pratique dans des pays jugés plus
performants (point 4.4.5).
4.4.1 Sélection et auto-élection des acteurs traitant les données
Le fait que la Communauté française ne soit pas un pays a pour conséquence que les
documents publiés par l’OCDE livrent assez peu de données et d’analyses directement
[...]. Or, les débats animés autour du ‘Projet de contrat stratégique pour l’éducation’ ont montré la difficulté de
rassembler la communauté éducative autour d’un projet d’envergure pour une école plus équitable. Seules les
mesures ‘qui ne fâchent pas’, comme l’augmentation des taux d’encadrement dans l’enseignement
fondamental, obtiennent l’adhésion des partenaires de l’école. Pour le reste, il faut bien reconnaître que les
réformes plus ambitieuses devront sans doute être sacrifiées sur l’autel du compromis à la belge, et devront
céder la place à une politique des tout petits pas. C’est ce qui s’était déjà passé suite aux résultats de la 3e
étude internationale en mathématique et en sciences [...], dont les résultats n’avaient pas conduit à une
réflexion en profondeur sur l’efficacité du système, mais avaient amené à une augmentation du nombre
d’heures de sciences au 1er degré de l’enseignement secondaire. Et c’est ce qui semble se profiler suite aux
résultats de PISA, qui, bien qu’ayant suscité un large débat autour de l’école, risquent de se traduire par le
même type de mesure, touchant plus aux disciplines qu’aux structures » (ULg 8, 2004, 208-209).
140
4. Travaux d’analyse des données PISA en CFB
formatées à l’échelle de cette entité institutionnelle. La question de savoir qui effectue le
travail d’analyse des données spécifiques à la Communauté française n’en est que plus
cruciale. Les critiques que le parti libéral adresse à ceux qui traitent les données PISA en
Belgique et qui, à ses yeux, ne font pas preuve d’objectivité307, témoignent bien de
l’importance de l’enjeu.
Le fait que la base de données soit accessible à tous pourrait laisser croire que la
sélection des acteurs se résume dès lors à des processus d’auto-sélection, fondés sur les
compétences objectives, le sentiment de compétence, les centres d’intérêts ou les
intérêts tous courts. Les deux premiers facteurs tendent à mettre sur la touche les non
scientifiques, mais aussi les scientifiques non aguerris aux approches quantitatives (et
notamment aux techniques des analyses multivariées). On pourrait penser que le
troisième élément (les centres d’intérêts) détourne du travail d’analyse les chercheurs
davantage intéressés par les processus micro que par les processus macro, mais un tel
raisonnement est fragile car de nombreuses variables micro sont disponibles dans les
bases de données PISA, et on a vu combien l’analyse de phénomènes macro était pour
sa part elle-même confrontée à d’importantes limites découlant de la structure de la base
de données. Le dernier élément (les intérêts) peut être invoqué pour expliquer pourquoi
des acteurs comme le SeGEC (Secrétariat général de l’enseignement catholique),
prioritairement intéressés par des données directement utilisables pour la régulation des
actions locales, ne s’investissent pas dans le traitement direct des données PISA, qui
présentent le désavantage d’être anonymes et de ne concerner qu’un échantillon
d’établissements.
L’auto-sélection ne suffit donc pas à expliquer comment s’opère la sélection des acteurs
traitant des données PISA. Il y a également trace de processus de pouvoir. Car c’est au
pouvoir politique et administratif que revient la décision de désigner qui est en charge de
la gestion et du traitement de l’enquête PISA en Communauté française. Or, ce pouvoir
n’a pas choisi de diversifier les acteurs travaillant sur les données PISA : en dehors du
SPE (ULg), aucun des autres acteurs ayant travaillé sur PISA n’a en effet été financé à
cette fin par la Communauté française.
Au final, le double processus d’auto-sélection et de sélection est un des éléments – mais
pas le seul308 – qui contribuent à ce que les connaissances et les arguments présents
dans les textes du corpus vont plutôt dans le même sens. Et qui explique que les
opposants se tournent dès lors vers les rapports de l’OCDE pour trouver de quoi
argumenter en faveur d’autres lignes interprétatives, comme par exemple celle qui
préconise un accroissement de l’autonomie des acteurs locaux.
307
308
Voir notamment débat parlementaire au Parlement de la Communauté française, PCF, 11/12/07, p. 40.
Sur un certain nombre de points, les constats convergent, même quand les analystes viennent d’horizons
très différents.
141
4. Travaux d’analyse des données PISA en CFB
4.4.2 Processus de transformation et d’estompement
Les documents analysés jouent un rôle important dans le processus de transformation
des données en connaissances, et des connaissances en arguments utilisés dans les
débats et controverses relatifs aux politiques publiques. Contrairement à la perception
répandue, il n’y a pas de division du travail tranchée entre la transformation des données
en connaissances, qui serait réservée au monde scientifique, et la transformation de
connaissances en arguments, qui serait exclusivement le fait du monde politique. Les
frontières entre les deux mondes sont donc perméables et floues. D’une part, le
processus de transformation (‘réduction’, ‘simplification’,…) commence bien avant
l’appropriation politique, dans le cours même du travail d’analyse des données et du
travail de présentation de ces analyses. D’autre part, certains scientifiques opèrent euxmêmes la transformation des connaissances en arguments (avec plus ou moins de
prudence). Dans le cours de ce processus, deux phénomènes s’opèrent : d’une part, un
relatif estompement de la visibilité des critères qui sont au fondement des classements ;
d’autre part, un oubli relatif du précepte de prudence quand il s’agit de formuler des
explications et des arguments.
Estompement de ce qui au fondement des classements
Le processus d’estompement des fondements des classements (et dès lors du caractère
relatif de ces classements) est partiellement le fait des scientifiques et des quelques
autres acteurs traitant directement les données PISA. De fait, la plupart des auteurs des
textes du corpus passent complètement sous silence la question des critères servant de
base aux classements. D’autres, après avoir soulevé cette question, justifient malgré tout
la pertinence des classements et ne font pas systématiquement le rappel des effets
potentiels des choix opérés. Ce processus contribue au phénomène d’estompement du
caractère relatif de ces classements. Et ce phénomène, à son tour, explique en partie
pourquoi, en Belgique francophone, l’évidence du mauvais classement de la Communauté
française s’impose désormais aux yeux d’une large majorité de personnes bien que ce
classement soit en partie dépendant des critères retenus et que ceux-ci soient toujours
susceptibles d’être questionnés309.
Comment donc expliquer ce phénomène d’invisibilisation du caractère relatif des
classements ? Si l’on se refuse à invoquer comme facteur explicatif principal le fait que
les auteurs des textes étudiés n’aient pas perçu le caractère relatif des classements, deux
processus méritent d’être soulignés. D’une part, le fait que PISA, après une première
309
Sont notamment sujets à questionnements : les compétences mesurées, qui n’incluent qu’une partie des
compétences visées en Communauté française, l’échantillonnage en fonction de l’âge plutôt que d’une année
d’études, l’instabilité des méthodes de calcul des intervalles de confiance permettant de déclarer que les
différences sont ou non significatives, l’absence de prise en compte de marges d’erreurs pour comparer la
dispersion des résultats entre pays, la correspondance imparfaite entre échantillon et population du point de
vue de la répartition entre années et filières,...
142
4. Travaux d’analyse des données PISA en CFB
période d’incertitude quant à son acceptation, a pu assoir sa légitimité, notamment en
offrant une base de données d’une rigueur, d’une accessibilité, d’une richesse et d’une
extension géographique rares. D’autre part, le fait que les différents acteurs trouvent
dans
ces
classements
suffisamment
d’éléments
correspondant
à
leur
‘agenda’
(scientifique ou politique), et sont dès lors enclins à une certaine tolérance.
Oubli du précepte de prudence lors des explications et des argumentaires
Les
expressions
manifestant
la
prudence
ou
attirant
l’attention
sur
les
limites
interprétatives sont fréquentes dans le corpus. La conscience de la nature multifactorielle
des phénomènes semble assez partagée. La plupart des auteurs ne se sent pas autorisée
à passer de l’identification d’un lien de corrélation à un lien de causalité, et de celui-ci à
un argument où il serait recommandé de faire de cette variable un problème dérivé ou de
l’action sur cette variable une piste propositionnelle. Beaucoup sont conscients que le
passage du constat au propositionnel, du général au contextualisé n’est pas automatique.
Cette retenue tient notamment à l’ethos scientifique de la majorité des auteurs, cadré
par les codes, valeurs, normes, croyances et dispositifs de régulation propre au monde
universitaire auquel ils appartiennent. Les deux auteurs non universitaires expriment
d’ailleurs moins de soumission à ces codes scientifiques et moins de réserve à affirmer
des opinions plus tranchées lorsqu’il s’agit d’énoncer des explications ou d’identifier des
problèmes ou des propositions.
En dépit de ces expressions de prudence dans l’interprétation, on observe cependant une
tendance, même dans le chef des scientifiques, à ne pas suffisamment insister sur
certaines faiblesses de la base de données310. De manière générale, ce manque de
prudence est davantage de mise quand il s’agit d’arguments identifiant des problèmes
que lorsqu’il s’agit d’explications causales ou d’arguments énonçant des préconisations.
Cette tendance est favorisée par le fait que la Communauté française n’encourage pas,
par sa politique de financement de la recherche ou par l’organisation de colloques centrés
sur PISA, la confrontation des points de vue sur les données PISA. Ce n’est pas un
hasard si, en tout et pour tout, au cours du processus de transformation des données en
connaissances, deux points seulement ont fait l’objet de controverses plus ou moins
publiques (entre l’ULB et l’APED sur le poids respectif des facteurs ‘origine ethnique’ et
‘origine sociale’ ; entre le MR et l’ULg, sur l’ampleur et l’explication des différences entre
réseaux).
4.4.3 Classer davantage qu’expliquer
énoncer des problèmes davantage que des préconisations
La direction que prend la transformation des données en connaissances et des
connaissances en arguments n’est pas seulement le fait des processus décrits plus haut.
310
Cas de l’analyse des effets établissements, rendus délicats du fait de la technique d’échantillonnage.
143
4. Travaux d’analyse des données PISA en CFB
Elle tient aussi à la structure de la base de données elle-même, qui favorise, d’une part,
les connaissances sous forme de classement plus que les connaissances sous forme
d’explications, et d’autre part, les arguments énonçant des problèmes plus que les
arguments énonçant les préconisations.
Des classements plus que des explications
Pour
forger
des
arguments
permettant
d’assoir
des
problématisations
ou
des
préconisations, les acteurs impliqués dans l’action publique usent notamment de
comparaisons/classements et d’associations/explications. Notre étude montre cependant
que les classements tirés des données PISA ont, en tous cas en Communauté française,
plus de force persuasive que les explications tirées de PISA. Ce différentiel de force se
manifeste dans le fait que le positionnement relatif de la Communauté française parmi
les pays est mieux connu, est plus diffusé et fait davantage consensus que les
explications d’une telle situation.
Cela tient notamment au fait que les enquêtes PISA sont comparativement mieux
formatées pour classer que pour expliquer. Elles sont assez mal outillées pour déboucher
sur des explications solidement fondées. Car si l’enquête balaie un large champ de
questions, elle n’est en revanche pas construite sur la base d’une hypothèse
interprétative ciblée. Elle est en effet le fruit de compromis entre les acteurs provenant
de mondes différents (Carvalho, 2009). Résultat : il y a un manque d’informations sur
certaines variables, nécessaires pour analyser certains mécanismes qui jouent un rôle
crucial au sein de certains pays, ou pour donner une explication aux différences
observées entre pays. Cela conduit souvent les chercheurs à ‘bricoler’ en allant quérir
dans d’autres bases de données certaines variables manquantes.
Pour ce qui concerne les explications, il se dégage au final une impression de grande
incertitude et de complexité. La plupart des auteurs reconnaissent que leurs conclusions
demeurent fragiles, qu’elles sont, la plupart du temps, hypothétiques, et que de
nouvelles questions sans réponses s’ouvrent toujours derrière les quelques certitudes.
D’où l’abondance des expressions telles que : « on pourrait se risquer à émettre une
double hypothèse explicative » (ULg 9, 2009, 201), ou : « les données de PISA ne
permettent pas de répondre à ces questionnements qui mériteraient de faire l’objet de
recherches complémentaires » (ULg 9, 2009, 223), ou encore : « il apparaît dès lors
intéressant de creuser cette problématique afin de mieux cerner… » (ULg 8, 2004, 168).
Au final, la configuration de la base de données (non conçue pour vérifier des hypothèses
précises) conduit à deux types de textes : d’une part, des interprétations prudentes sans
principe interprétatif fort, qui laisse au lecteur une impression de complexité ; d’autre
part, des clés d’interprétation plus cohérentes, mais ne pouvant s’appuyer que sur des
données partiellement adaptées, ce qui, en fin de compte, ne permet pas d’apporter des
144
4. Travaux d’analyse des données PISA en CFB
preuves solides de la pertinence des grilles d’interprétation.
Des problèmes plus que des préconisations
Comme pour les connaissances, tous les types d’arguments ne sont pas également
présents dans le corpus. Les arguments énonçant les problèmes sont plus fréquents, sont
énoncés de manière plus affirmative, et ont plus de force persuasive que les arguments
énonçant des préconisations. Comme dans le cas des connaissances, cette inégale
présence des différents types d’argument tient aussi pour partie à la structure de la base
de données.
Les arguments énonçant des problèmes sont en effet généralement présentés comme
étant le débouché logique des deux types de connaissance présentés au point précédent,
à savoir les classements et les explications, mais il arrive qu’ils soient construits
essentiellement sur la base des comparaisons, dont on a vu qu’elles paraissent moins
fragiles que les explications.
Pour les préconisations, par contre, les explications paraissent plus indispensables pour
forger un argument crédible car les préconisations exigent plus directement l’usage de la
notion de causalité. Or, on l’a vu, les connaissances relatives aux explications sont le plus
souvent fragiles. Dès lors, les préconisations exposées dans le corpus restent souvent
floues, peu détaillées, se limitant à une définition un plus précise du problème sur lequel
il convient de se focaliser. De même, elles s’appuient rarement de manière exclusive sur
les données PISA, les auteurs faisant souvent appel à d’autres connaissances,
scientifiques ou non, pour étayer leurs arguments en faveur d’une préconisation ou d’une
autre.
4.4.4 Thèmes des analyses et orientation du débat politique
Les processus décrits ci-dessus ont un effet partiel sur les comparaisons, les problèmes
et les préconisations préférentiellement mis en évidence. Et ces ‘choix’, à leur tour, ont
un effet partiel sur l’orientation du débat politique.
Des comparaisons préférentielles
Dans le corpus, il apparaît que certains types de classements sont privilégiés. Ainsi,
l’accent est placé (1) sur les classements en termes de résultats bien plus que sur les
classements en termes de variables attitudinales, (2) sur les classements en termes de
dispersion des résultats plus que de moyenne des résultats, (3) sur des scores globaux
par compétence plus que sur des scores par sous-compétence, et (4) sur des
comparaisons dans l’espace bien plus que sur des comparaisons dans le temps.
Ces différences s’expliquent en partie par la structure de la base de données (ainsi, par
exemple, les enquêtes PISA identifient clairement les scores des élèves comme étant les
variables dépendantes de leur modèle, les autres variables n’étant pas mesurées pour
145
4. Travaux d’analyse des données PISA en CFB
elles-mêmes
mais
davantage
en
tant
qu’éléments
explicatifs
potentiels).
Elles
s’expliquent aussi par la nature des résultats (par exemple, le peu de différences
significatives lorsqu’on compare les données dans le temps ou le fait que le classement
de la Communauté française est plus négatif en termes de dispersion que de moyenne).
Mais expliquer ces différences exclusivement par le contenu des données et les options
définies lors de la conception des enquêtes PISA ne peut suffire. Il faut aussi convoquer
les choix opérés par les ‘interprètes’ de la base de données, et relier ces choix à leurs
croyances, à leur place dans la configuration des interdépendances, à leur position dans
dans les circuits de connaissance ainsi qu’aux modes de coordination des scènes sur
lesquelles ils évoluent (Delvaux, 2008). Ainsi, par exemple, l’attention aux classements
en termes de mesures de dispersion plus qu’en termes de moyennes résulte certes en
partie du fait que la Communauté française est moins bien classée en termes de
dispersion des résultats, mais aussi d’une option interprétative des auteurs des textes,
qui renvoie pour partie à leurs propres croyances. De même, le faible intérêt porté à une
analyse à l’échelle des ‘sous-compétences’ est-il en partie lié à la faible proportion de
didacticiens s’étant emparés de la base de données.
Nature des problèmes et des préconisations privilégiés
En ce qui concerne la nature des problèmes et préconisations mis en exergue, on
remarque également que des thèmes sont privilégiés alors que d’autres sont peu
évoqués : en matière de problèmes, l’accent est placé sur les questions d’inégalité et de
ségrégation plus que d’inefficacité ; en matière de préconisations, des mesures
structurelles sont davantage proposées que des mesures didactiques et pédagogiques ou
que des mesures touchant d’autres secteurs que l’enseignement.
Cette insistance les propositions structurelles et sur les problèmes d’inégalités n’est pas
seulement le fait des données PISA. Joue également le fait que les acteurs s’étant saisi
de l’analyse des données se caractérisent par leur intérêt pour le champ des politiques
éducatives et par leur préoccupation pour la question des inégalités. Cette insistance
dérive également des représentations que ces acteurs ont du fonctionnement politique et
des rapports entre science et politique, représentations sur lesquelles ils fondent parfois,
à partir de leur position, des stratégies visant à amener les politiques à agir sur ce qu’ils
perçoivent être les ‘racines du mal’, à savoir un certain nombre de facteurs structurels.
4.4.5
Reconfiguration partielle de la circulation des connaissances
PISA, et les classements qui en sont tirés, attirent l’attention sur les pays et régions les
mieux
classés.
Il
n’empêche
que
la
liste
des
pays
et
régions
auxquels
est
préférentiellement comparée la Communauté française est en partie le reflet des circuits
de connaissance préexistant à PISA. Chaque entité a en effet tendance à se comparer
avec des systèmes qu’elle connait ou croit mieux connaître, et par rapport auxquels elle
146
4. Travaux d’analyse des données PISA en CFB
peut disposer d’informations complémentaires. La multiplication de bases de données au
niveau européen (Eurydice notamment) explique dès lors en partie pourquoi c’est avec
les pays européens que les comparaisons sont les plus fréquentes. Les classements de
PISA ne tombent donc pas dans un ‘vide’. En orientant l’attention vers les pays ou
régions ‘performants’, ils contribuent cependant à modifier, au moins à la marge, les
circuits de connaissances préexistants. Ainsi PISA est-il l’un des facteurs pesant sur la
circulation
des
connaissances
conjointement
avec
d’autres
facteurs,
parmi
lesquels l’image générale du pays ou de la région, sa proximité culturelle, et l’existence
de brokers dans le pays ‘émetteur’ ou ‘récepteur’.
Les flux ainsi générés véhiculent de manière privilégiée un type particulier de
connaissances, à savoir des connaissances à propos des mesures mises en œuvre dans
les pays réputés performants, autrement dit des connaissances portant sur des politiques
publiques. Ce type de connaissance circule parce que les bonnes performances tendent à
légitimer les politiques mises en œuvre dans ces pays, et ce même si aucun lien de cause
à effet n’est formellement établi entre ces politiques et les performances. Il est ainsi
frappant de constater combien, souvent, l’ampleur de l’intérêt porté à ces modèles
contraste avec l’absence d’initiative d’envergure visant à connaître de manière plus
approfondie les facteurs permettant d’expliquer les différences entre les pays comparés.
Les deux principaux flux de connaissances résultant partiellement de PISA sont ceux en
provenance de Finlande et de Flandre. Les premiers s’expliquent à la fois par la
réputation de ‘premier de classe’ du pays nordique et par l’existence de brokers. Le cas
de la Flandre est quant à lui particulièrement intéressant à analyser. On peut en effet
faire l’hypothèse que PISA, en mettant en place une base de données standardisée
commune aux deux Communautés, a contribué à la redécouverte de l’autre système
‘frère’ qui présente l’immense avantage d’être suffisamment semblable et suffisamment
différent. La Flandre, bien qu’étant davantage un modèle sur le plan de l’efficacité que de
l’équité, devient une référence. Dès lors, les flux sont quasi à sens unique et consistent
pour l’essentiel en informations sur les politiques flamandes réputées plus ‘performantes’
bien que presque aussi inégalitaires.
4.5 Conclusion : légitimité renforcée ou début d’interrogation ?
Les limites décrites ci-dessus n’empêchent pas une absence relative de débat quant à la
pertinence de PISA. Ainsi, personne ne réclame que la Communauté française revienne
sur sa décision de participer à PISA. De même, peu d’acteurs revendiquent publiquement
que l’enquête soit adaptée de manière à faire de cet outil un instrument plus performant
pour l’analyse du système éducatif de la Communauté française et sa comparaison à
d’autres systèmes.
Les raisons de l’absence de telles questions dans le débat public sont plurielles et sont à
147
4. Travaux d’analyse des données PISA en CFB
trouver
dans
une
configuration
systémique
de
facteurs
structurels
relativement
complémentaires. Cette configuration explique que, pour l’heure, la légitimité de PISA
reste quasi intacte, et que n’émerge pas une remise en cause tant soit peu structurée.
Continuer à participer à PISA ?
Si l’on cherche à comprendre pourquoi personne ne réclame la sortie de PISA, on peut
d’abord invoquer l’existence de croyances partagées, en d’autres mots d’un paradigme
ou d’un référentiel d’action publique congruent avec PISA. On peut en effet supposer
qu’un nombre croissant d’acteurs adhère – consciemment ou non – au référentiel de
l’évaluation des performances, et que ce fait constitue l’un des éléments expliquant
l’absence de remise en cause de la participation à PISA.
La place des différentes entités et acteurs dans les rapports d’interdépendance est un
autre facteur explicatif. Il permet de comprendre pourquoi quitter purement et
simplement PISA paraît illusoire, même si cette enquête a un coût311. Une sorte de
dépendance s’est installée vis-à-vis de PISA, plus que vis-à-vis des autres classements
internationaux. Le pouvoir politique ne peut guère risquer de sortir de PISA sans subir les
pressions des autres pays (et des deux autres Communautés), pressions plus fortes au
sein de l’OCDE que de l’IEA du fait que la première est une organisation intergouvernementale. Une telle décision fragiliserait également la position du gouvernement
vis-à-vis des électeurs, qui peuvent voir PISA comme un thermomètre évaluateur de la
pertinence des politiques publiques. Aucun profit politique ne pourrait être tiré d’une
décision qui risquerait d’être interprétée comme la volonté d’évitement de l’évaluation et
de la mise en comparaison de l’efficacité des politiques publiques.
D’autres acteurs ont également intérêt à ne pas réclamer la sortie du dispositif. Ainsi en
est-il des chercheurs pour qui PISA offre l’opportunité rare d’accéder à un coût quasi nul
à des données standardisées concernant un grand nombre de pays et reconnues dans le
monde scientifique. Il offre aussi l’opportunité de dialoguer avec les nombreux pairs qui
travaillent sur les mêmes données. Il permet en outre la production de connaissances
potentiellement plus généralisables que celles fondées sur l’analyse du seul espace de la
Communauté française. Cette opportunité est importante car la petite taille du terrain
d’observation de la Communauté française n’intéresse a priori pas grand monde sauf si
l’on parvient à mettre en évidence les spécificités de ce territoire, stratégie que les
chercheurs de la Communauté française adoptent fréquemment pour faire valoir leur
entité d’appartenance comme un cas-type ‘intéressant’.
Les modes de coordination sont un troisième facteur contribuant aussi à expliquer
l’absence de débat quant à la poursuite de la participation aux enquêtes PISA. Les
instances au sein desquelles se règlent les relations entre PISA et la Communauté
311
En 2007, 200.000 € étaient réservés au budget de la Communauté française pour « les enquêtes sous
l’égide de l’OCDE », parmi lesquelles PISA.
148
4. Travaux d’analyse des données PISA en CFB
française sont limitées à quelques acteurs et peu visibles. La décision de participation à
PISA est affaire de gouvernement plutôt que de Parlement312. Et les deux acteurs
susceptibles de peser sur la décision (le SPE-ULg et la direction des affaires
internationales du Ministère), tous deux étroitement partie prenante du processus, n’ont
guère intérêt à voir remise en cause la participation à PISA. Leur poids dans le processus
de décision n’est pas contrebalancé par l’existence d’un comité de suivi pluraliste.
Amender PISA pour des analyses plus adaptées à la Communauté française ?
Face aux divers constats énoncés ci-dessus, on peut s’étonner qu’en dehors des
concertations entre les acteurs directement impliqués dans la production de PISA, aucun
acteur n’ait publiquement demandé comment il était possible d’utiliser les marges
d’autonomie pour faire de cet outil un instrument plus performant en termes d’analyse.
Ainsi, personne n’a publiquement demandé si certaines questions de recherche ou
hypothèses d’interprétation particulièrement pertinentes pour la Communauté française
ne pourraient être mieux prises en compte en ajoutant certaines questions aux tests de
compétence ou dans les questionnaires contextuels, ou en optant pour un échantillon
élargi313. Personne n’a davantage publiquement demandé comment, en adaptant le
dispositif, il serait possible de renforcer les possibilités de comparaison avec la Flandre et
éventuellement avec une ou plusieurs autres régions, de manière à mieux expliquer
l’origine des différences observées. De même, personne n’a posé publiquement la
question de l’intérêt qu’il y aurait à financer plusieurs équipes de recherche pour
l’analyse des données ni de l’avantage qu’il y aurait à encourager une confrontation
systématique des grilles interprétatives. L’explication d’une telle absence de débats est
elle aussi de nature multifactorielle.
La configuration des rapports d’interdépendance est une partie de l’explication. Elargir
PISA serait en effet difficilement concevable sans laisser, comme le fait l’OCDE, un libre
accès à la base de données ainsi constituée. Or, un tel comportement est contraire aux
pratiques qui ont cours jusqu’à présent en matière d’accès aux données des évaluations
externes (certificatives ou non), gardées par l’administration centrale (et certains
réseaux), et seulement accessibles aux chercheurs qui participent à leur récolte et à leur
traitement. La réticence des pouvoirs centraux en la matière peut s’expliquer à son tour
par le fait que le système éducatif garde des traits d’une société consociative (Mangez
2008b, 2009), où est requise une relative discrétion inter-piliers, et par le fait que le
312
Et ce dernier, d’ailleurs, ne serait sans doute pas enclin à plaider une sortie de PISA car il s’agit pour lui, au
moins au plan rhétorique, d’un moyen d’évaluer l’action gouvernementale.
313
Par exemple, tester tous les élèves de 15 ans dans les établissements choisis (de manière à améliorer
l’étude des effets établissement), un plus grand nombre d’établissements (pour avoir par exemple une
représentativité à l’échelle des zones), ou tous les élèves de 3e et de 4e (pour mesurer les effets du retard sur
des élèves situés au même point du cursus,…).
149
4. Travaux d’analyse des données PISA en CFB
modèle du ‘marché transparent’, dont les usagers seraient guidés par des informations
sur les performances des écoles, est rejeté par une large majorité d’acteurs. Mais on
peut également considérer plus classiquement que la rétention de données est source de
pouvoir : il est en effet toujours utile, dans un rapport de forces, de pouvoir choisir les
connaissances à diffuser et le moment de les distiller. C’est une manière efficace de se
prémunir des
interprétations
adverses
qui, fussent-elles
farfelues, génèrent
des
représentations qu’il est parfois malaisé de corriger une fois qu’elles ont été diffusées.
150
5. Conclusion
5. Conclusion
Cette section propose une synthèse interprétative de nos résultats. Elle cherche à
construire une intelligibilité, à donner du sens aux diverses observations que le rapport a
relevé. Cette section vise aussi à rassembler des éléments d’analyse interprétative
proposés tout au long du rapport. Cette synthèse, conclusive, est structurée en cinq
thèmes. Le premier thème est consacré au rapport entre l’instrument et le contexte
belge : nous tenterons de comprendre comment cet instrument standardisé qu’est PISA
s’est inséré dans un contexte a priori peu favorable aux présupposés de l’evidence based
policy dont se réclame PISA. Nous traiterons ensuite, dans un second point, de la place
qu’occupe PISA dans l’espace public, en essayant d’abord d’expliquer le succès de PISA,
puis de comprendre en quoi PISA véhicule et promeut des paradigmes qui limitent
l’espace de pensable. Cette capacité de PISA a participer à la construction d’un certain
regard sur l’éducation sera également développée de manière plus spécifique dans un
troisième point traitant de la question des orientations pédagogiques et curriculaires.
Dans un quatrième point, nous verrons comment PISA se constitue dans un espace
(européen notamment) tout en contribuant lui-même à transformer cet espace
notamment en organisant la circulation de connaissances et d’acteurs en son sein. Enfin,
nous nous attacherons à comprendre la force propre de l’instrument en montrant
comment il sert de base à des connaissances et à des arguments dont se saisissent les
acteurs lorsqu’ils défendent des problématisations ou des préconisations.
Le contexte et l’instrument
Les dimensions politiques et institutionnelles de la Belgique (francophone), qui se sont
constituées dans une histoire longue, ne sont pas en elles-mêmes socio-historiquement
orientées vers la génération de dispositifs d’évaluation, ou vers l’utilisation de résultats
d’évaluation (Mangez 2009). Différentes raisons permettent de comprendre cette
articulation spécifique du politique et du cognitif. Tout d’abord, historiquement, aucun
acteur institutionnel n’est véritablement en position légitime pour procéder à une
évaluation de l’ensemble du système, pas plus d’ailleurs que pour mettre en place
d’autres types d’instruments communs à l’ensemble du territoire (comme, par exemple,
des programmes de cours, des objectifs d’apprentissage, des dispositifs de formation
pour les enseignants, un corps d’inspection, etc.). Par ailleurs, dans un contexte
consociatif où la fabrication de la norme nécessite des transactions, des compromis, des
équilibres complexes, la connaissance « objectivée » ne constitue pas nécessairement un
ingrédient qui facilite le processus de décision politique. Autrement dit, dans un contexte
151
5. Conclusion
comme celui-là, on peut poser comme hypothèse que des connaissances, présentées
sous forme objectivées, ne constituent pas un objet dont l’utilité politique est a priori
établie et forte. Il apparaît au contraire que les contextes consociatifs ne sont pas
favorables à la mise en place d’un modèle de l’evidence based policy. Etant donné que,
dans les contextes consociatifs, tous les acteurs impliqués sont engagés dans des
transactions entre eux, on ne voit d’ailleurs pas auquel d’entre eux on pourrait confier un
quelconque travail d’objectivation (sauf à constituer des commissions où les différents
intérêts sont représentés314). Toute production de connaissance par des acteurs
impliqués dans le processus politique est presque nécessairement « située » (dans une
université, dans un modèle, dans un pilier, dans un parti,...).
Le dispositif PISA - de même que d’autres types d’enquêtes internationales - a cependant
trouvé sa place dans le système, à cause d’un certain nombre de facteurs et de
circonstances spécifiques. Tout d’abord, le déficit d’évaluation, et plus généralement de
données collectées au niveau belge, a été identifié comme problématique par certains
acteurs à partir des années 1990 surtout. Différents acteurs universitaires ont souligné le
déficit de données propres au système belge. Un autre acteur important qui a formulé
cette critique est l’OCDE elle-même. Le rapport qu’elle a produit à l’époque, à propos de
la Belgique, a d’ailleurs durablement marqué les esprits et continue encore aujourd’hui à
constituer un point de référence que les acteurs mobilisent quand ils rendent compte de
l’histoire récente du système éducatif. Au début des années 1990, l’idée selon laquelle la
Belgique manque de données à propos du fonctionnement et des résultats de son
système éducatif commence donc à faire son chemin.
Cette idée n’était pas portée par des acteurs politiques uniquement mais plutôt par des
chercheurs et certains membres de l’administration impliqués dans la promotion et la
mise en œuvre d’outils similaires à PISA. La Belgique a en effet participé, avant PISA, à
plusieurs enquêtes internationales de l’IEA315 initiées par des acteurs scientifiques anglosaxons plutôt que voulues par des acteurs politiques nationaux. Par ailleurs, au niveau de
la CFB, une « structure légère » d’évaluation externe est mise en place en 1994. Elle
constitue une forme de réponse au rapport de l’OCDE qui dénonçait le déficit de pilotage
et d’évaluation. Cette structure est dite « légère » car, n’étant pas au départ l’expression
d’une volonté politique mais plutôt le fait de certains individus au sein de l’administration,
elle n’est pas institutionnalisée.
A l’époque de la première enquête PISA, des outils d’évaluation externes existent donc
déjà, mais de manière précaire. Ils ne sont portés que par un noyau restreint d’acteurs et
314
La constitution de ce genre de groupe (« commissions », « groupes de travail », « conseil », etc.) est une
pratique courante et caractéristique du consocianisme.
315
Dont une enquête pionnière en 1959, rassemblant 12 pays dont la France, l’Angleterre, l’Ecosse,
l’Allemagne, les Pays-Bas, l’Australie, les Etats-Unis, la Finlande, Israël, le Japon, la Suède
152
5. Conclusion
pas vraiment assumés par les autorités politiques. Il n’est à l’époque pas possible de
déterminer un acteur suffisamment légitime pour imposer un dispositif d’évaluation à
l’échelle de l’ensemble du territoire de la CFB. La mise en place d’un tel dispositif à
l’échelle internationale ne se pose pas dans les mêmes termes, et peut se réaliser sans
que des acteurs belges ne doivent entrer en transaction les uns avec les autres.
Autrement dit, le fait que le dispositif soit fabriqué au niveau international, le fait qu’il
soit piloté par un consortium international, le fait que les données soient exploitées au
niveau international, sont des facteurs qui ont vraisemblablement permis de dépasser
plus rapidement des difficultés propres à la Belgique. Le niveau international présente le
gros avantage de ne pas être « situé » en Belgique.
Comme on l’a laissé entendre, avant même le fameux rapport de l’OCDE, les premiers
acteurs à avoir posé la question des données, et avec elle la question du pilotage, sont
des chercheurs. Il semble ainsi que les premiers promoteurs de PISA en Belgique aient
été des acteurs scientifiques engagés dans une dynamique de recherche, et non des
acteurs politiques ou des membres de l’administration engagés dans un projet politique.
Ce sont en effet d’abord des chercheurs qui ont plaidé en faveur de PISA, notamment
auprès de l’administration. Certains d’entre eux étaient positionnés dans des réseaux
internationaux de recherche, parfois promus et financés par l’OCDE. Certains étaient
aussi membres du CERI. Bien avant le lancement de PISA, les chercheurs du SPE (ULg)
avaient
accumulé
une
expertise
en
matière
d’évaluation
et
de
comparaison
internationales. Ils avaient en même temps accumulé du capital social international. Ces
chercheurs étaient également impliqués dans les évaluations externes propres à la
Communauté française. Comme on l’a expliqué de manière plus détaillée dans le corps
du rapport, cette position spécifique du SPE, impliqué simultanément aux niveaux
international et communautaire, connu et reconnu au sein de l’administration, a
vraisemblablement contribué à l’entrée de la CFB dans le dispositif PISA.
Si le dispositif et ses résultats ont trouvé leur place en CFB, les bases de données mises
à disposition de tous n’ont cependant pas fait l’objet d’un fort investissement de la part
des acteurs de l’enseignement. En dehors des chercheurs de l’ULg, en charge du suivi de
l’enquête, peu de chercheurs ont travaillé les données brutes, et leur investissement a
presque toujours été ponctuel. Par ailleurs, pratiquement aucun des principaux acteurs
(partis
politiques,
gouvernement
et
administration,
fédérations
de
pouvoirs
organisateurs, syndicats, fédérations d’associations de parents) n’a travaillé directement
sur la base de données. Enfin, bien que confronté aux limites de la base de données,
aucun acteur n’a plaidé pour que l’échantillon ou le questionnaire soit étendu afin de
disposer de données adéquates pour traiter certaines questions et vérifier certaines
hypothèses plus spécifiques au système éducatif de la CFB. On peut comprendre ce faible
investissement en le rapportant aux conditions qui caractérisent le travail politique en
Belgique. La nécessité de construire des compromis entre des groupements et la
dynamique sociopolitique (qui renvoie théoriquement au modèle de la consociation) ne
153
5. Conclusion
conduit pas les acteurs à investir dans des pratiques liées à l’evidence based policy.
Traditionnellement, les arrangements consociatifs ne nécessitent pas la mobilisation de
connaissances expertes et externes. C’est aussi en raison de cette dynamique propre à la
Belgique que les pouvoirs publics et leurs administrations n’ont guère accumulé
d’expertise en matière de traitement de données, même si les choses évoluent. Tout cela
renvoie à la persistance, en dépit d’évolutions récentes, d’un knowledge policy regime au
sein duquel l’objectivation de connaissances n’est pas considérée comme nécessaire et
peut même être perçue comme une menace pesant sur la fabrication de compromis
(Mangez 2009).
PISA dans l’espace public
Nombreux sont les acteurs qui affirment que PISA ne leur a rien appris : les difficultés
propres à la CFB étaient connues des spécialistes et des scientifiques ; les enquêtes – du
moins ce que l’on en a retenu - n’ont rien révélé que l’on ne sache déjà. PISA ne serait
dès lors pas un instrument de connaissance. Pourtant, en même temps, PISA a fait
l’objet d’une médiatisation sans commune mesure avec les enquêtes internationales
antérieures : aujourd’hui, tout le monde (ou presque) parle de PISA ; hier, personne (ou
presque) ne parlait des enquêtes de l’IEA. Les deux instruments n’occupent pas l’espace
public de la même manière. Une des particularités de PISA consiste en une véritable
« occupation » de l’espace public.
On doit dès lors s’interroger sur ce succès. Ce succès médiatique tient en bonne partie
aux propriétés de l’instrument : le nombre important de pays couverts, en particulier la
participation de quasi tous les pays européens ; la génération de données spécifiques à
PISA ; l’extrême attention accordée à la validité technique de l’outil ; la régularité de la
périodicité d’enquête ; le fait que la décision de participation dépende des autorités
publiques. Les stratégies de communication de l’OCDE participent sans doute aussi à ce
succès médiatique. Le succès de PISA tient évidemment également au fait qu’il mesure
des performances et permet d’établir des classements dont les acteurs peuvent aisément
se saisir.
Dans l’espace public, le premier et le principal effet du programme PISA est d’ordre
cognitif : il transforme le cadre cognitif dans lequel on pense les questions d’éducation en
les inscrivant dans un nouvel espace dont l’échelle est internationale et dont les
dimensions sont fondées sur des mesures objectivées de résultats. L’enquête construit en
effet une structure de positions qui situe les pays (plus rarement, des régions au sein
d’un pays) les uns relativement aux autres. S’il est clair que des enquêtes préalables
avaient déjà mis en évidence les performances relatives des pays, on ne peut nier que
PISA a véritablement procédé à la publicisation, c’est-à-dire aussi à la construction
sociale, de cet espace international de positions relatives. Sorte de géographie des
performances éducatives des pays, PISA redéfinit ainsi des positions relatives et un
154
5. Conclusion
espace de positions, qui constitue aussi un cadre cognitif pour penser et évaluer les
politiques éducatives nationales.
La simplicité de ces connaissances faites de comparaisons et de classements séduit de
nombreux acteurs qui s’en saisissent comme instrument de légitimation de fins diverses.
Si PISA est sur toutes les lèvres, c’est en effet aussi que l’instrument et ses résultats sont
mobilisés pour toutes les causes (à part peut-être pour celles qui consisteraient à
contester la légitimité de l’instrument). Il n’est en effet pas rare de voir des acteurs
défendant des thèses opposées tenter de légitimer leurs prises de position en faisant
référence aux résultats de l’enquête, au point que PISA participe moins à une
rationalisation de l’action publique qu’à une politisation des connaissances (Maroy et
Mangez, 2008). Notre analyse montre aussi que les acteurs politiques se saisissent des
résultats de PISA pour légitimer des prises de position qui préexistaient largement à
l’enquête. Ainsi, par exemple, dans le contexte belge, les principaux acteurs politiques
ont de longue date des points de vue différents à propos de l’autonomie des PO et des
réseaux. Les catholiques sont traditionnellement favorables à l’autonomie ; à l’exception
de certains responsables communaux, les socialistes y sont traditionnellement opposés ;
les libéraux, bien qu’ils soient historiquement opposés au monde catholique, privilégient
aujourd’hui l’autonomie, principalement parce que, selon eux, elle suscite de la
compétition qui, elle-même, favoriserait l’efficacité générale du système éducatif. Ces
manières différentes qu’ont les socialistes, les catholiques et les libéraux, de se
positionner à l’égard de l’autonomie des PO et des réseaux s’inscrivent dans des
traditions historiques longues. On constate aujourd’hui que chacun de ces trois acteurs
politiques se saisit de PISA pour conforter leur prise de position. Cela signifie deux
choses. D’une part, les données PISA servent à des causes différentes qui préexistent à
l’enquête ; d’autre, part, les données ne permettent visiblement pas de trancher entre
ces différentes causes.
Le fait est, en tous cas, que des acteurs différents, porteurs d’intérêts variés et divers,
tendent tous à se saisir des résultats de l’enquête. Ne doit-on pas voir derrière cette
diversité, une unité de paradigme, une forme de cadre mental à l’intérieur duquel les
questions d’éducation se posent désormais ? Une des particularités de ce cadre semble
consister en ce qu’il rend difficilement pensables des débats fondés uniquement ou
principalement sur des valeurs. Les valeurs ne sont pas totalement absentes lorsqu’elles
s’accordent au cadre : on peut par exemple voir des acteurs plaider en faveur de plus de
mixité sociale ou de davantage d’équité, voire même pour une meilleure égalité des
résultats, il n’en reste pas moins que ces différents objectifs, fondés sur des valeurs, ont
du sens dans le cadre des mesures effectuées par les enquêtes PISA (on peut
représenter l’équité à partir de la variance par exemple).
155
5. Conclusion
Des orientations pédagogiques et curriculaires
Résolument inscrit dans une approche en termes de compétences, PISA sert aussi de
véhicule
relativement
discret
pour
la
dissémination
d’objectifs
et
de
pratiques
pédagogiques. Il contribue à ce que les acteurs de l’enseignement initient et poursuivent
la mise en place de dispositifs pédagogiques pensés en termes de compétences. Il est en
effet illusoire d’espérer obtenir un bon classement dans PISA si les programmes, les
pédagogies et les évaluations ne sont pas en relative conformité avec cette approche qui,
comme le disent Dufays, Gemenne et Ledur (1996) à propos de la lecture, a en outre
pour effet que « les questions sur les fins de son enseignement font place à la réflexion
sur les moyens ».
S’il n’est pas possible de démontrer un lien de causalité entre les travaux de l’OCDE
d’une part et les évolutions curriculaires en Belgique francophone d’autre part, leur
proximité saute cependant aux yeux. En effet, les enquêtes PISA, dans leur contenus,
sont indéniablement « proches des orientations pédagogiques prises récemment en
Communauté française de Belgique » dans la mesure où l’évaluation porte davantage sur
la « maîtrise de compétences » que sur « l’acquisition de savoirs et contenus scolaires »
(Lafontaine, 2001, p.1). D’après des chercheurs de l’ULg, « il ne fait guère de doute que
la manière dont la lecture est évaluée dans PISA est largement en conformité avec les
socles de compétences et cela ne surprendra guère, dans la mesure où le cadre
d’évaluation de PISA et les socles s’alimentent aux mêmes modèles théoriques
contemporains de la lecture. » (Lafontaine et alii, 2003, p. 18).. « Les compétences de
base
définies
dans
le
cadre
de
PISA
correspondent
bien
aux
orientations
de
l’enseignement en Communauté française » (DRI, 2004, p. 87).
On peut dès lors affirmer que les enquêtes PISA véhiculent une certaine orientation
curriculaire (centrée sur la notion de compétence) que l’on tend à retrouver dans un
nombre croissant de politiques nationales à travers le monde et, en tous cas, en Belgique
francophone. Cette convergence en direction de la notion de compétence ne se limite pas
à une convergence au niveau de la définition des objectifs : poursuivre des objectifs
définis en termes de compétence a en effet des implications en termes de méthodes
pédagogiques. Mangez (2008a) a montré que cette orientation en faveur d’une
pédagogie des compétences avait connu des échos quelque peu différents selon les
réseaux éducatifs en Belgique francophone. Ainsi, l’analyse des programmes de cours
montre que le réseau catholique s’est engagé avec davantage d’intensité dans cette
évolution curriculaire, alors que, dans le même temps, le réseau de la CFB a procédé à
une
transformation plus incrémentale de ses programmes de cours. Cependant, d’un
point de vue historique, lorsque l’on compare les orientations curriculaires des deux
réseaux au cours du temps, il semble clair qu’ils se sont, dans l’ensemble, tous les deux
engagés en direction du modèle des compétences (même si, comme on l’a dit, ils ne l’ont
pas fait avec la même intensité), dont PISA se fait le véhicule. Cette convergence, qui en
156
5. Conclusion
réalité se déploie au niveau international, pose évidemment différentes questions, dont
celle de savoir quels sont les acteurs qui définissent ces orientations pédagogiques et
curriculaires, et quelles sont leurs motivations.
Un espace européen de l’éducation …
En même temps qu’il génère une forme d’espace mental de positions relatives, le
maniement concret de l’instrument, sa construction, sa mise en œuvre, la gestion de ses
résultats et de leur diffusion impliquent aussi la création d’un système de relations entre
représentants de différents pays au sein des instances de management et de décisions.
Des réunions sont organisées, des courriers et des courriels sont échangés. De multiples
discussions ont lieu entre les représentants politiques des différents pays et entre les
acteurs en charge de la mise en œuvre pratique de l’enquête. La construction d’un tel
espace a conduit certains auteurs (Lingard et alii, 2005) à suggérer que le travail de
l’OCDE, notamment au travers de PISA qui constitue son principal instrument dans le
domaine éducatif, avait pour effet de poser les prémisses d’un nouveau « champ » au
sens bourdieusien du terme : un système de relations entre acteurs occupant des
positions définies en fonction du volume et de la structure des capitaux (propres au
champ) dont ils disposent et partageant un même illusio.
Plus généralement, on peut dire que PISA, simultanément, se constitue dans un espace
qu’il contribue lui-même à transformer. L’enquête redessine l’espace européen (et
mondial) et contribue à y organiser la circulation de connaissances : l’enquête désigne
les « meilleurs élèves » (i.e. les pays les plus performants) ce qui contribue à la
circulation de connaissances de ces pays performants vers les pays ou régions moins
bien classés. Autrement dit, cet espace post-géographique produit des effets sur les
relations entre pays et entre régions du monde : les pays moins performants se tournent
vers certains lieux, parfois éloignés géographiquement voire culturellement, pour
procéder à diverses observations et éventuellement inspirer leurs propres orientations
politiques. Ainsi, la CFB s’est-elle par exemple intéressée à la Flandre et à la Finlande.
Elle s’est également quelque peu tournée vers la Pologne (dont la progression avait été
marquante), mais pas vers la Corée du Sud (toujours fort bien classée), ni vers Cuba
(classé hors concours dans une récente étude de l’Unesco). On le voit, si PISA contribue
à recomposer l’espace en générant certains « rapprochements », cette recomposition se
réalise à l’intérieur de certaines limites. L’Europe constitue un espace privilégié de
comparaison favorable à la circulation de connaissances, d’idées et d’acteurs. Les
structures instituées jouent aussi un rôle important : si un espace européen se structure
ainsi de manière privilégiée, c’est en effet aussi parce que les acteurs européens du
monde
de
l’enseignement
se
rencontrent
dans
d’autres
instances
européennes
(favorisant l’interconnaissance, les circulators et les brokers) et parce que des bases de
données complémentaires à PISA (telles Eurydice) se structurent à cette échelle.
157
5. Conclusion
Pour la Communauté française, la Flandre constitue un cas particulier. Non seulement la
Flandre fait nettement mieux que la Communauté française au plan de la moyenne de
ses résultats, mais les deux Communautés partagent une histoire commune et plusieurs
traits structurels importants. La circulation de connaissances et d’idées au travers de la
frontière linguistique avait cependant fortement diminué suite à la communautarisation
de l’enseignement. Depuis, la communication entre les deux communautés a quelque peu
repris mais demeure embryonnaire. Mais on entend, dans le monde francophone, un
nombre croissant d’acteurs faire référence aux mesures politiques prises par la Flandre.
Sans en être la raison première, PISA a contribué au développement de cet intérêt de la
Communauté française pour la Flandre. Pour l’heure cependant, la connaissance croisée
des deux systèmes demeure superficielle. Personne n’a encore saisi l’opportunité d’une
analyse approfondie des facteurs et processus susceptibles d’expliquer les différences
observées. Aucun programme de recherche commun n’a encore été mis en place. Et
aucune démarche n’a été faite pour profiter de PISA en développant échantillon et
questionnaire de manière à garantir une base de données plus adaptée à l’analyse de ces
facteurs différenciateurs.
La force propre de l’instrument
Reprenons certaines idées. Les connaissances issues de PISA ne sont pas nécessairement
utiles au processus politique en CFB. Elles n’ont pas véritablement apporté de nouveaux
éclairages aux acteurs impliqués. La portée explicative des données est limitée… On est
dès lors en droit de se demander pourquoi la CFB maintient et va plus que
vraisemblablement continuer à maintenir sa participation. Sans doute est-ce en partie
parce qu’il serait symboliquement coûteux au gouvernement de décider d’un retrait
unilatéral, vu sa dépendance à l’égard des électeurs (qui liraient cette décision comme un
refus de l’accountability) et de ses partenaires sur la scène internationale. Mais c’est
aussi parce que personne n’a vraiment soulevé la question de l’éventuel abandon, en
dépit de la faiblesse explicative de l’outil et des effets négatifs supposés démobilisateurs
du rappel incessant des ‘mauvais’ résultats de la CFB. PISA apparaît ne pouvoir être
remis en cause. Son image de rigueur et d’objectivité est grande, bien que fondée sur un
estompement de ses présupposés et de ses limites. En outre, PISA ne dérange personne,
voire même arrange de nombreux acteurs : les chercheurs parce qu’il offre une
opportunité rare d’accéder sans coût à des données rigoureuses et comparatives
susceptibles de leur octroyer à la fois une légitimité scientifique internationale et un écho
politique local ; les acteurs politiques parce qu’ils ont la possibilité d’interpréter les
données en relative conformité avec leurs intérêts et croyances ; et tous parce que PISA
permet de structurer des connaissances et des arguments dont chacun peut se saisir
pour tenter de peser sur le cours de l’action publique.
Le succès de PISA tient aussi aux propriétés des connaissances que l’on peut en dégager.
Les connaissances que PISA permet de générer sont essentiellement de deux types : des
158
5. Conclusion
comparaisons / classements, d’une part, et des associations / explications, d’autre part.
Il s’agit là de deux types de connaissance dont les acteurs peuvent facilement se saisir
lorsqu’ils sont sommés de justifier leur préconisations et problématisations. Mais alors
que les classements tirés de PISA ont un impact peu commun, dont la force est
inséparable
du
processus
d’estompement
des
présupposés
qui
les
fondent,
les
explications déduites du matériau PISA apparaissent plus fragiles, tant la base de
données se révèle peu adaptée à la vérification d’hypothèses explicatives pertinentes
pour chacun des contextes nationaux. Cela ne signifie pas que les acteurs participant à
l’action publique ne se saisissent pas ou ne fabriquent pas des explications dérivées de
PISA pour défendre des positions pré-existantes et légitimer leur action, mais que ces
explications dérivées de PISA, bien plus que les classements issus de PISA, sont
susceptibles d’être mises à l’épreuve, questionnées, disqualifiées. On pourrait faire
l’hypothèse que cette différence de pouvoir persuasif des deux types de connaissance
expliquerait en partie pourquoi PISA est surtout utilisé pour mettre à l’agenda un
problème et sert dès lors davantage à justifier la nécessité d’une action que la pertinence
d’une politique concrète. Les classements participent en effet davantage à l’identification
d’un problème qu’à l’identification d’une « solution ».
Ces processus de transformation de données en connaissances et de connaissances en
arguments ne sont pas exempts de luttes visant à faire triompher une interprétation.
L’issue d’une telle lutte dépend bien sûr des rapports de force, du différentiel de capital
symbolique et de stratégies de communication, mais aussi de la capacité des différentes
coalitions de traiter, d’interpréter et de mettre en formes les données. En Communauté
française, ces luttes autour d’une interprétation ont notamment concerné la question de
savoir si le problème numéro un de l’enseignement en Communauté française était celui
de l’inefficacité ou de l’inégalité.
159
6. Bibliographie
6. Bibliographie
Delvaux Bernard (2008), On the role of knowledge in the course of public action, in
Bernard Delvaux and Eric Mangez, Towards a sociology of the knowledge-policy relation,
rapport de recherché, 3-97, www.knowandpol.eu (disponible aussi en français: Comment
penser le role de la connaissance dans le cours de l’action publique?)
Delvaux Bernard (2009), Pour un autre regard sur le couple connaissance-politique, La Revue
Nouvelle, juillet-août 2009, 50-57.
Delvaux B. et Mangez E. (2008), Towards a sociology of the knowledge-policy relation,
rapport de recherche, http://www.knowandpol.eu.
De Munck J. (2002), « La Belgique sans ses piliers ? Du conflit des modèles au choix
d’une politique », Les semaines sociales du MOC., 95-115.
Dufays J-L., Gemenne L. et Ledur D. (1996), Pour une lecture littéraire 1, Bruxelles, De
Boeck-Duculot.
Dumont H, Delgrange, X. (2008), « Le principe de pluralisme face à la question du voile
islamique en Belgique », Droit et société, 2008/1, N° 68, p. 75-108.
Dupriez V., Maroy C., Politiques scolaires et coordination de l’action, Les Cahiers de
Recherche du Girsef, Louvain-la-Neuve, n°4, novembre 1999.
Carvallo L. M. (2008), Production of OCDE's Programme for International Student
Assessment (PISA). Literature Review Report, KNOWandPOL Projet, septembre.
Lascousmes P., Le Gales P. (dir.) (2005), Gouverner par les instruments, Paris, Presses
Universitaires de Sciences-Po.
Lijphart Arend (1979), « Consociation and Federation: Conceptual and Empirical Links”,
Canadian Journal of Political Science / Revue canadienne de science politique, Vol. 12,
No. 3, Sep., pp. 499-515.
Lingard, B., Rawolle, S. and Taylor, S. (2005), « Globalising policy sociology in
education: working with Bourdieu », Journal of Education Policy, 20 (6), pp.759-777.
Mangez E. (2008a) Réformer les contenus d’enseignement, Paris, PUF.
Mangez E. (2008b) “Knowledge use and circulation in a consociative democracy”, in
Delvaux B, Mangez C, Mangez E, Maroy C. The social and cognitive mapping: the sector
of education in Belgium, research report, pp 31 – 43.
160
6. Bibliographie
Mangez E. (2009), De la nécessité de discrétion à l’Etat évaluateur, La Revue Nouvelle,
Juillet-aout 2009, 37-42.
Maroy C., Construction de la régulation et place de l’évaluation : quelques tendances en
Belgique
francophone,
Communication
au
Colloque
international
« Les
politiques
d’éducation et de formation en Europe : la question de l’expertise », Université libre de
Bruxelles, 10 et 11 mai 1999.
Maroy C. et Mangez C. (2008), « Rationalisation de l’action publique ou politisation de la
connaissance ? », in Revue Française de Pédagogie, n°164, juillet-août-septembre,
pp. 87-90.
Moyson S. et Termine G. (2007), La performance des politiques éducatives en
Communauté française et en Communauté flamande au regard des conclusions de
l’enquête PISA. Approche par les réseaux de politique publique, Mémoire présenté en vue
de l’obtention du grande de Licencié en Sciences politiques, sous la direction du Prof. A.
David (rapporteur : C. Maroy), Université catholique de Louvain, Département des
sciences politiques et sociales, Session de septembre 2007.
Pons X. et van Zanten A. (2007), “Knowledge circulation, regulation and governance”,
KNOWandPOl Literature Review Report (Part 6), juin.
Seiler
D-L,
1997,
« Un
système
consociatif
exemplaire :
la
Belgique »,
Revue
Internationale de Politique Comparée, Volume 4, n° 3, 601-624.
Vandenberghe V., Enseignement et iniquité : singularités de la question en Communauté
Wallonie-Bruxelles, Les Cahiers de Recherche du Girsef, Louvain-la-Neuve, n°8,
novembre 2000.
Van Haecht A., L’école à l’épreuve de la sociologie. Questions à la sociologie de
l’éducation, De Boeck Université, Ouvertures sociologiques, Bruxelles, 1998.
Varone F. et Jacob S., « Institutionnalisation de l’évaluation et nouvelle gestion
publique : un état des lieux comparatif », Revue Internationale de Politique Comparée,
Vol. 11, n° 2, 2004, 271-292.
161
7. Signification des acronymes et sigles utilisés
7. Signification des acronymes et sigles utilisés
AGERS : Administration générale de l’Enseignement et de la Recherche scientifique en
Communauté française
APED : « Appel pour une école démocratique », mouvement pédagogique
CdH : « Centre Démocrate Humaniste », parti politique « socio-chrétien » (anciennement
PSC : Parti socio-chrétien)
CFB : Communauté française de Belgique
DRI : Direction des Relations internationales de la Communauté française
FUNDP : Facultés Universitaires Notre-Dame de la Paix à Namur.
GIRSEF : Groupe Interdisciplinaire de Recherche sur la Socialisation, l’Education et la
Formation
IRES : Institut de Recherche Economiques et Sociales (rattaché à l’Université Catholique
de Louvain)
NPM : Gestionnaire national du projet PISA (National Project Manager)
MR : « Mouvement Réformateur », parti politique libéral (anciennement PRL : Parti
réformateur libéral)
PCF : Parlement de la Communauté française de Belgique
PGB : Bureau des Pays Participants (Pisa Governing Board)
SEGEC : Secrétariat général de l’enseignement catholique
SPE : Unité d’Analyse des systèmes et des pratiques d’enseignement, anciennement
Service de pédagogie Expérimentale : Centre de recherche chargé de l’organisation de
Pisa en Communauté française de Belgique, rattaché à l’Université de Liège.
UCL : Université Catholique de Louvain
ULB : Université libre de Bruxelles
ULG : Université de Liège
UMH : Université de Mons-Hainaut
162
8. Annexes
8. Annexes
8.1 Annexe 1 : La liste des entretiens réalisés
Tableau 1 : La liste des entretiens réalisés
Ministère de
l’enseignement
obligatoire
1) L’actuel Ministre de l’enseignement obligatoire (socialiste)
PISA NPM
5) L’ancien NPM (pour PISA 2000 et 2003), actuel directeur du SPE (centre national de
recherche impliqué dans PISA)
Représentant
national de PISA
au PGB
7) Le représentant de la CFB au PGB, qui est aussi chercheur au SPE et membre du
réseau international INES A
Administration
8) Le directeur de la Direction des Relations internationales
2) Le chef du cabinet de l’actuel ministre de l’enseignement
3) Un conseiller au cabinet de l’actuel ministre de l’enseignement (et ancien chercheur au
SPE)
4) Un ancien Ministre de l’enseignement fondamental, actuellement député fédéral (écolo)
6) L’actuel NPM et chercheur au SPE
9) Le directeur général de la Direction générale de l’enseignement obligatoire (AGERS)
10) Un ancien secrétaire général
11) Un secrétaire général au Parlement de la Communauté française
12) Des membres du Conseil de l'éducation et de la formation (entretien collectif)
Inspection
13) Un inspecteur général
14) Un inspecteur général de l’enseignement fondamental en CFB
15) Un ancien inspecteur général, actuellement échevin (CDH)
16) Un inspecteur
Chercheurs –
acteurs
scientifiques
18) Un chercheur à l’ULG
17) Un chercheur à l’UMH (et ancien chercheur au SPE)
Réseaux
19) Le directeur général du Segec et le secrétaire général du Fesec (entretien collectif)
20) Un collaborateur du Service Recherche et Développement Pédagogique, service d’étude
du Segec
Acteurs politiques
21) Un parlementaire d’opposition (MR), chef du groupe au Parlement de la CFB
Syndicats
d’enseignants
22) Le secrétaire général de la CGSP-enseignement (syndicat d’enseignants que l’on peut
rattacher au pilier socialiste)
23) Le secrétaire général de la CSC-enseignement (syndicat d’enseignants que l’on peut
rattacher au pilier « socio-chrétien »
163
8. Annexes
8.2 Annexe 2 : La liste des supports à la diffusion officielle des enquêtes PISA en CFB (rapports
nationaux et autres documents)
En Belgique francophone, on retrouve plusieurs types de documents « officiels », diffusés sous la responsabilité de l’administration
scolaire, qui présentent les résultats spécifiques de la Communauté française aux enquêtes PISA.
1)
En premier lieu, on retrouve des documents rédigés par les chercheurs du SPE (Ulg) et diffusés sur le site internet de
l’Administration générale de l’Enseignement et de la Recherche (l’AGERS)316 : voir la liste au tableau 2 : La liste des rapports PISA
nationaux (AGERS). Le tableau 2 reprend la liste exhaustive des documents officiels diffusant les résultats de la CFB aux enquêtes PISA
par l’AGERS. Ils ont tous été analysés.
2)
En deuxième lieu, on retrouve des documents qui présentent une partie des résultats, la plupart sous forme d’indicateurs, rédigés
par des membres de la Direction des Relations Internationales, dans une publication « Clés de lecture de Regards sur l’Education - Les
indicateurs de l’OCDÉ » : voir la liste au tableau 3 : Les autres documents officiels (DRI). Le tableau 3 repend tous les numéros de la
publication de la DRI qui mentionnent les résultats des enquêtes PISA. Ils ont tous été analysés.
316
Il s’agit du site internet « www.enseignement.be ». Plusieurs pages y sont consacrées à Pisa, regroupées dans une section dédiée aux « évaluations externes ». On y
trouve une brève présentation de Pisa, les rapports nationaux et documents didactiques rédigés par les chercheurs du SPE (Ulg) pour de chaque cycle de PISA ainsi que des
extraits des questions des tests. Pour le premier cycle de PISA, on trouve également le rapport international.
164
8. Annexes
Tableau 2 : La liste des rapports PISA nationaux (Administration générale de l’enseignement et de la recherche
scientifique)
165
8. Annexes
Références
Auteurs
Contenu
Destinatair
Support
e
PISA 2000 :
Non explicité
Document
1)
Acteurs
24 pages
. Lafontaine (2001*), PISA 2000. Programme
scientifiques
Présentation de Pisa (population, contenu, méthodes, types de résultats,
accessible
international de l’OCDE pour le suivi des acquis des
SPE, Ulg
échantillon), présentation synthétique des résultats de la CF à PISA sous
gratuitement sur le
élèves de 15 ans, (page consultée le 21 janvier
forme de moyenne, écart-type, classement, comparaison (tableaux) et
site
2009),
interprétations des résultats
l’AGERS317
[Pdf,
en
ligne],
site
de
l’Agers,
internet
de
http://www.enseignement.be/index.php?page=251
60&navi=2353
* date supposée car non précisée
2)
Acteurs
55 pages
. Lafontaine, A. Baye, A. Matoul (2001*), PISA
scientifiques
Présentation relativement détaillée du dispositif Pisa : origine, différences
accessible
2000: Programme international de l’OCDE pour le
SPE, Ulg
avec les enquêtes internationales antérieures, la population concernée, le
gratuitement sur le
contenu
site
suivi
des
acquis des
élèves.
Présentation
de
Non explicité
de
l’évaluation,
l’apport
de
Pisa,
l’organisation
du
test,
l’enquête, Faculté de Psychologie et des Sciences
l’organigramme, les garanties de validité des comparaisons internationales
de
et
et les contrôles de qualité, la marge de manœuvre des pays (options
Formation, Pédagogie théorique et expérimentale,
internationales et nationales), la définition des compétences évaluées et
(page consultée le 21 janvier 2009), [Pdf, en ligne],
des exemples d’items, le design de l’étude, l’échantillonnage, déroulement
site
de l’enquête, la saisie et le nettoyage des données, échelles et niveaux de
l’Education,
Département
de
Education
l’Agers,
http://www.enseignement.be/index.php?page=251
Document
internet
de
l’AGERS
compétences évalués
60&navi=2353
* date supposée car non précisée
3)
Acteurs
78pages
. Lafontaine (2002), « Au-delà des performances
scientifiques
Non explicité
Le document est présenté comme le « rapport national » de Pisa pour la
accessible
des jeunes de 15 ans, un système éducatif se
SPE, Ulg
CF
gratuitement sur le
Document
317
Il s’agit du www.enseignement.be géré par le Service Général du Pilotage du Système Educatif, au sein de l’Administration générale de l’enseignement et de la recherche
scientifique (AGERS).
166
8. Annexes
profile… », Le point sur la Recherche en Education,
Présentation du dispositif général d’enquête, présentation et interprétation
site
n°24, juin 2002 (page consultée le 21 janvier
des résultats de Pisa : performances des élèves dans les trois domaines,
l’AGERS
2009),
différences selon les caractéristiques des élèves et leur environnement
[Pdf,
en
ligne],
site
de
l’Agers,
http://www.enseignement.be/index.php?page=251
internet
socio-familial, comparaison internationale, exemples de questions posées
60&navi=2353 »
167
de
8. Annexes
168
8. Annexes
Références
Auteur
Contenu
Destinataire
Support
4)
Acteurs
230 pages
Non explicité
Document
scientifiques
Le document est présenté comme le « rapport national approfondi »
dans
dans les Cahiers du
de Pisa pour la CF
document :
Service
tout public ?
pédagogie
. Lafontaine,
A. Baye,
R. Burton,
I. Demonty,
A. Matoul et C. Monseur (2003), « Les compétences
SPE, Ulg
des jeunes de 15 ans en Communauté française en
Présentation
lecture, en mathématiques et en sciences. Résultats
du
dispositif
général
d’enquête,
présentation
et
le
publié
de
expérimentale
interprétation détaillées des résultats de Pisa : performances des
et
de l’enquête Pisa », Cahiers du Service de Pédagogie
élèves dans les trois domaines, différences selon les caractéristiques
accessible
expérimentale, n°13-14, Université de Liège (page
des élèves et leur environnement socio-familial, résultats aux options
gratuitement sur le
consultée le 21 janvier 2009), [Pdf, en ligne], site de
internationales
site
l’Agers,
internationale, exemples de questions posées, liste des écoles
http://www.enseignement.be/index.php?page=25160
participantes
et
questionnaires
de
contexte,
comparaison
internet
de
l’AGERS
&navi=2353
PISA 2003
5)
Acteurs
14 pages
. Lafontaine (coord.), A Baye, I. Demonty, A. Fagnant,
scientifiques
Présentation très succincte de Pisa et de l’échantillon, premiers
Non explicité
accessible
A. Matoul, C. Monseur (2004a), Pisa 2003 : quels défis
SPE, Ulg
résultats principaux de Pisa
gratuitement sur le
Document
pour notre système éducatif, (page consultée le 21
site
janvier
l’AGERS
2009),
[Pdf,
en
ligne],
site
de
l’Agers,
internet
de
http://www.enseignement.be/index.php?page=25160
&navi=2353
6)
Acteurs
. Lafontaine (coord.), I. Demonty, A. Fagnant, A Baye,
scientifiques
A. Matoul, C. Monseur (2004b), Pisa 2003 : quels défis
SPE, Ulg
pour notre système éducatif, (page consultée le 21
38 pages (38 diapositives PowerPoint)
Présentation très succincte de Pisa et de l’échantillon, premiers
résultats principaux de Pisa, bilans et enjeux des résultats Pisa pour la
CF
Non explicité
Document
servi
qui
a
à
la
présentation
des
er
1
résultats
de
janvier 2009), [Powerpoint, en ligne], site de l’Agers,
PISA 2003 lors de
http://www.enseignement.be/index.php?page=25160
la conférence le 8
&navi=2353
décembre 2004 et
accessible
gratuitement sur le
169
8. Annexes
site
internet
de
l’AGERS
7)
Auteurs
inistère de la Communauté française (2004*), PISA
document
2003. Evaluation de la culture mathématique des
précisés, mais ont
jeunes
des
peut
professeurs de mathématiques des 1er et 2ème degrés
qu’il
de l’enseignement secondaire », Service général du
chercheurs
Pilotage du système éducatif (page consultée le 21
SPE
janvier
de
15
2009),
ans. Document
[Pdf,
en
ligne],
à l’attention
du
site
de
non
supposer
s’agit
des
du
53 pages
Professeurs
Document
Présentation du cadre général de Pisa, présentation de quelques
de math. des
accessible
question et résultats, esquisse de pistes didactiques
1er
gratuitement sur le
et
2ème
degrés
de
l’enseigneme
site
internet
l’AGERS
nt
secondaire
l’Agers,
http://www.enseignement.be/index.php?page=25160
&navi=2353
* date supposée car non précisée
170
de
8. Annexes
171
8. Annexes
Références
Auteur
Contenu
Destinataire
Support
8)
Acteurs
21 pages
Non explicité
Document
. Lafontaine
A Baye,
(coord.),
A. Matoul,
I. Demonty,
C. Monseur
A. Fagnant,
(2004c*),
Pisa
scientifiques
SPE, Ulg
2003. Présentation de la culture mathématique
(page consultée le 21 janvier 2009), [Pdf, en ligne],
site
de
accessible
Présentation de la manière dont la « culture mathématique » est définie
par l’OCDE et évaluée dans le test PISA, exemples de questions, de la
gratuitement sur le
manière dont l’épreuve a été construite, de la manière dont les échelles de
site
compétences ont été élaborées
l’AGERS
internet
de
l’Agers,
http://www.enseignement.be/index.php?page=251
60&navi=2353
* date supposée car non précisée
Non explicité
Document
Auteurs
a littératie dans Pisa (2004*), (page consultée le 21
document
Présentation de la manière dont la « littéracie » est définie et évaluée dans
accessible
janvier 2009), [Pdf, en ligne], site de l’Agers,
non précisés,
le test Pisa
gratuitement sur le
http://www.enseignement.be/index.php?page=251
mais
60&navi=2353
peut
* date supposée car non précisée
supposer
qu’il
du
3 pages
9)
ont
site
internet
de
l’AGERS
s’agit
des
chercheurs
du SPE
10)
Auteurs
a culture scientifique dans Pisa (2004*), (page
document
du
consultée le 21 janvier 2009), [Pdf, en ligne], site
non précisés,
de
l’Agers,
mais
http://www.enseignement.be/index.php?page=251
peut
60&navi=2353
supposer
* date supposée car non précisée
qu’il
ont
3 pages
Non explicité
Document
Présentation de la manière dont la « culture scientifique » est définie et
accessible
évaluée dans le test Pisa
gratuitement sur le
site
internet
l’AGERS
s’agit
des
chercheurs
172
de
8. Annexes
du SPE
11)
Auteurs
a résolution de problèmes Pisa 2003 (2004*),
document
(page consultée le 21 janvier 2009), [Pdf, en ligne],
non précisés,
site
l’Agers,
mais
http://www.enseignement.be/index.php?page=251
peut
60&navi=2353
supposer
* date supposée car non précisée
qu’il
de
du
ont
3 pages
Non explicité
Document
Présentation de la manière dont la « résolution de problèmes » est définie
accessible
et évaluée dans le test Pisa
gratuitement sur le
site
internet
l’AGERS
s’agit
des
chercheurs
du SPE
173
de
8. Annexes
174
8. Annexes
Références
Auteur
Contenu
Destinataire
Support
Acteurs
22 pages
Non explicité
Document
scientifiques
Présentation très succincte de Pisa et de l’échantillon, premiers résultats
accessible
SPE, Ulg
principaux de Pisa 2006, exemples de questions
gratuitement sur le
PISA 2006
12)
. Baye,
V. Quittre,
G. Hindryckx,
A.Fagnant,
D. Lafontaine (dir.) (2007a*), Les acquis des élèves
en culture scientifique. Premiers résultats de PISA
site
2006, (page consultée le 21 janvier 2009), [Pdf, en
l’AGERS
ligne],
site
de
internet
de
l’Agers,
http://www.enseignement.be/index.php?page=251
60&navi=2353
* date supposée car non précisée
13)
. Baye,
V. Quittre,
G. Hindryckx,
A.Fagnant,
D. Lafontaine (dir.) (2007b*), Les acquis des élèves
Acteurs
55 pages (copies de diapositives PowerPoint)
Non explicité
scientifiques
Présentation très succincte de Pisa et de l’échantillon, premiers résultats
probablement servi
SPE, Ulg
principaux de Pisa 2006, exemples de questions
à
Document
la
qui
a
présentation
en culture scientifique. Premiers résultats de PISA
des 1er résultats de
2006, (page consultée le 21 janvier 2009), [Pdf, en
PISA 2006 lors de
ligne],
la
site
de
l’Agers,
conférence
en
http://www.enseignement.be/index.php?page=251
décembre 2007 et
60&navi=2353
accessible
* date supposée car non précisée
gratuitement sur le
site
internet
de
l’AGERS
Acteurs
14)
. Quittre, A. Baye, A.
Fagnant, G.
Hindryckx
(2007*), PISA 2006. Evaluation de la culture
scientifique des jeunes de 15 ans. Document à
scientifiques
SPE, Ulg
76 pages
Professeurs
Document
Présentation du cadre général de Pisa, présentation de questions et
de
accessible
sciences
er
et
résultats de Pisa2006, propositions générales pour « tirer parti de Pisa »,
des
1
liens opérés entre Pisa et les socles de compétence
2ème
degrés
l’attention des professeurs de sciences des 1er et
de
2e degrés de l’enseignement secondaire, Unité
l’enseigneme
d’analyse
nt
des
Systèmes
et
des
Pratiques
gratuitement sur le
site
internet
l’AGERS
175
de
8. Annexes
d’enseignement,
Université
de
Liège,
(page
secondaire
consultée le 3 mars 2009), [Pdf, en ligne], site de
l’Agers,
http://www.enseignement.be/index.php?page=251
60&navi=2353
* date supposée car non précisée
176
8. Annexes
Tableau 3 : La liste des autres documents officiels (Direction des Relations Internationales)
Références
Auteur
1)
Membres
RI (1998), Les indicateurs de l’OCDE 1997, Clés de
l’administra-
Présentation de divers indicateurs de l’OCDE et de la position de la
accessible
lecture de Regards sur l’Education n°5318, Ministère
tion
Belgique et/ou de la Communauté française
gratuitement sur le
de
Contenu
Destinataire
Support
61 pages
Non explicité
Document
de la Communauté française, Secrétariat général,
site internet de la
(page consultée le 21 janvier 2009), [Pdf, en ligne],
DRI
site
de
la
DRI,
http://www.dri.cfwb.be/documents/CLES-5.PDF
de
88 pages
Non explicité
2)
Membres
RI (2001), Les indicateurs de l’OCDE 1998, Clés de
l’administra-
Présentation de divers indicateurs de l’OCDE et de la position de la
accessible
lecture de Regards sur l’Education n°6, Ministère de
tion
Belgique et/ou de la Communauté française
gratuitement sur le
Document
la Communauté française, Secrétariat général,
site internet de la
(page consultée le 21 janvier 2009), [Pdf, en ligne],
DRI
site
de
la
DRI,
http://www.dri.cfwb.be/documents/CLES-6.PDF
3)
Membres
RI (2004), Les indicateurs de l’OCDE 2002 et 2003,
l’administra-
Clés de lecture de Regards sur l’Education n°7,
tion
Ministère de la Communauté française, Secrétariat
de
162 pages
Public
Document
Présentation de divers indicateurs de l’OCDE et de la position de la
intéressé par
accessible
Belgique et/ou de la Communauté française
les politiques
gratuitement sur le
Présentation d’indicateurs construits à partir de PISA 2000 : des tests
d’enseignem
site internet de la
général, (page consultée le 21 janvier 2009), [Pdf,
disciplinaires et questionnaires de contexte (accessibilité et utilisation
ent
DRI
en
d’ordinateurs dans le cadre familial et scolaire, attitude set pratiques à
ligne],
site
de
la
DRI,
http://www.dri.cfwb.be/documents/CLES-7.PDF
l’égard des NTIC, perception du temps de travail, climat au sein de l’école,
soutien des enseignants). Il « comporte de larges extraits des rapports
nationaux rédigés par les responsables du projet en Communauté
française » (p. 76)
318
À partir de 1992, le Centre pour la Recherche et l’Innovation dans l’enseignement (C.E.R.I.) de l’OCDÉ a entrepris, dans le cadre du projet Indicateurs internationaux des systèmes d’enseignement (INES :
International Indicators of Education Systems), la publication régulière de Regards sur l’Éducation - Les indicateurs de l’OCDÉ (cf. DRI, 1998, p. 3)
177
8. Annexes
Références
Auteur
1)
Membres
RI (2006), Les indicateurs de l’OCDE 2004, Clés de
l’administration
Présentation de divers indicateurs de l’OCDE et de la position de la
accessible
lecture de Regards sur l’Education n°8, Ministère de
Sont remerciés pour
Belgique et/ou de la Communauté française
gratuitement sur le
la Communauté française, Secrétariat général,
leur
(page consultée le 21 janvier 2009), [Pdf, en ligne],
« collègues
du
2000 »
site
Ministère,
de
l’engagement envers l’école,
de
la
DRI,
http://www.dri.cfwb.be/documents/CLES-8.PDF
de
participation :
Contenu
Destinataire
Support
144 pages
Non explicité
Document
site internet de la
« Termine le développement d’indicateurs issus de l’enquête PISA
(p. 6),
présentation
de
« profils
de
lecture »,
DRI
de
l’ETNIC, chercheurs
des universités
de
Liège
et
de
Mons »
2)
Membres
RI (2007), Les indicateurs de l’OCDE 2006, Clés de
l’administration
Présentation de divers indicateurs de l’OCDE et de la position de la
accessible
lecture de Regards sur l’Education n°9, Ministère de
Sont remerciés pour
Belgique et/ou de la Communauté française
gratuitement sur le
la Communauté française, Secrétariat général,
leur
Présentation d’indicateurs construits à partir de PISA 2003
site internet de la
(page consultée le 21 janvier 2009), [Pdf, en ligne],
« collègues
du
site
Ministère,
de
de
la
DRI,
http://www.dri.cfwb.be/documents/CLES-9.PDF
de
participation :
147 pages
Non explicité
Document
DRI
l’ETNIC, chercheurs
des universités
de
Liège
et
de
Mons »
178
8. Annexes
8.3 Annexe 3 : Sources de l’analyse documentaire (partie 3 du rapport)
Cette annexe présente la liste de tous les documents analysés pour l’étude de la réception et de l’usage des enquêtes PISA en CFB. Cette liste
comprend trois parties : 1) les articles de presse ; 2) les documents parlementaires (il s’agit de débats parlementaires retranscrits) ; 3) les articles
publiés par le Segec (Secrétariat général de l’enseignement catholique). Au sein de chaque catégorie, les documents sont classés selon le cycle
PISA concerné (2000, 2003 et 2006).
8.3.1 La presse
La liste des articles de presse reprend tous les articles parus les trois mois suivant la diffusion publique des résultats de PISA (de début décembre
à début mars). Ces articles proviennent des deux principaux hebdomadaires en CFB, Le Soir et La Libre. Ils ont tous été analysés. Ils sont classés
selon le cycle de PISA concerné (2000, 2003, 2006) et selon le type d’acteur qui s’exprime dans l’article : journaliste, NPM, responsables de
l’OCDE, Ministres, Service de pilotage, membres de partis politiques, Pouvoir organisateur de l’enseignement, syndicats d’enseignants,
enseignants ou directeurs d’école, autres acteurs de terrain, professeurs du supérieur, chercheurs en psychopédagogie, autres chercheurs
universitaires, associations de parents, mouvements pédagogiques. Le tableau 5 montre qu’en dehors des journalistes, ce sont surtout les
ministres de l’enseignements ainsi que les membres de partis politiques qui se sont exprimés sur PISA. Certains articles sont classés dans
plusieurs rubriques lorsque plusieurs types d’acteurs s’y sont exprimés.
Tableau 4 : Ventilation du nombre total d’articles trouvés et analysés, dans Le Soir et La Libre,
les trois mois suivant la diffusion des résultats PISA, pour chaque cycle
PISA 2000 : Début décembre 2001 -début mars 2002
26
PISA 2003 : Début décembre 2004 -début mars 2005
36
PISA 2006 : Début décembre 2007 -début mars 2008
40
179
8. Annexes
Tableau 5 : Ventilation du nombre total d’articles trouvés et analysés, dans Le Soir et La Libre,
les trois mois suivant la diffusion des résultats PISA, pour chaque cycle
selon la catégorie d’acteurs s’exprimant*
PISA 2000
PISA 2003
PISA2006
Total pour les
trois cycles
Journalistes
15
7
10
32
Ministre de l’enseignement
5
4
4
13
Membres de partis politiques
5
2
5
12
NPM
2
1
5
8
Enseignants et directeurs d’école au secondaire
2
3
3
8
Psychopédagogues
3
4
Professeurs du supérieur
2
1
3
6
Mouvements pédagogiques
1
1
3
5
3
1
4
3
3
2
3
1
3
2
1
Autres acteurs du terrain
Responsables de l’OCDE
Chercheurs universitaires
1
Associations de parents
1
1
Service du pilotage
7
Pouvoirs organisateurs de l’enseignement
1
1
Syndicats d’enseignant
1
1
Conseil supérieur de pédagogie
1
1
* pour les non-journalistes : soit directement sous forme de « cartes blanches », soit sous forme de propos tenus lors d’entretien et
rapportés par un journaliste, soit sous forme de propos synthétisés et rapportés par un journaliste
180
8. Annexes
181
8. Annexes
1) Journalistes
PISA 2000
182
8. Annexes
Références
1)
Acteurs
La libre (2001), Le bulletin francophone
est déplorable, 4/12/2001
2)
Le Soir (2001), Mauvais bulletin pour nos
élèves, M. Lamensch, 5/12/2001
3)
La libre (2001), Vœu pieux, les classes
hétérogènes, P. Piret, 9/12/2001
4)
La libre (2001), Comme un bateau sans
gouvernail, V. Rocour, 10/12/2001
5)
Le Soir (2001), La réforme du recyclage
La libre (2001), L'enseignement cherche
un pilote, V. Rocour, 12/12/2001
8)
La libre (2001), La majorité resserre les
rangs, V. Rocour, 13/12/2001
9)
Le Soir (2001), Réunion de crise ce jeudi
pour vider les conflits et activer le décret PS, P. Bouillon et R. Milutin, 13/12/2001
10)
Le Soir (2001), Hautes écoles, emplois en
danger, menace de grève, E. Lambert, 14/12/2001
11)
La libre (2001), La fin des bibliothèques
publiques, G. Duplat, 25/12/2001
12)
bonnets d'âne, L. Bertels, 26/12/2001
Journaliste
Journaliste
Journaliste
des profs est toujours dans l'impasse, P. Bouillon, 12/12/2001
7)
Journaliste
Le Soir (2001), Bonnets d'âne
pour les ados francophones, D. Kindermans, 11/12/2001
6)
Journaliste
La libre (2001), Des échasses au lieu de
Journaliste
Journaliste
Journaliste
Journaliste
Journaliste
Journaliste
Journaliste
183
8. Annexes
13)
Le Soir (2001), Hazette tire d'autres
conclusions de l'étude OCDE, M. Lamensch, 27/12/2001
14)
Le
Soir
(2002),
Sénateur
à
valeur
électorale ajoutée, M. Lamensch, 28/01/2002
15)
Le Soir (2002), Un colloque a balisé le
secteur de l'actualité pour les 8-14ans, C. Laporte, 7/03/2002
Journaliste
Journaliste
Journaliste
PISA 2003
Références
16)
Acteurs
La
Libre
(2004),
Léger
mieux
francophone,, Monique Baus, 7/12/2004
17)
Journaliste
La Libre (2004), La Flandre pavoise,
Vincent Rocour, 7/12/2004
18)
Journaliste
Le Soir (2004), Nos élèves restent très
moyens, P. Bouillon, 7/12/2004a
19)
Journaliste
Le Soir (2004), L’école francophone fait
du surplace, P. Bouillon, 7/12/2004b
20)
Journaliste
Le Soir (2004), pisa, le juste miroir d'une
société, P. Bouillon, 8/12/2004
21)
Journaliste
Le Soir (2004), et vous, avez-vous la
Journaliste
bosse des maths, P. Bouillon, 8/12/2004b
22)
Le Soir (2004), L’école fera mieux en
troisième sess’, P. Bouillon, 8/12/2004b
23)
francophones, I. Lemal, 14/12/2004
Journaliste
Le Soir (2004), mauvais bulletin pour les
Journaliste
PISA 2006
184
8. Annexes
Références
24)
Acteurs
Le Soir (2007), Pisa les élèves belges ont
une bonne moyenne, 4/12/2007a
25)
Journaliste
Le
Soir
(2007),
Le
bulletin
de
l'enseignement belge, 4/12/2007b
26)
Journaliste
Le Soir (2007), classement complet des
Journaliste
pays de l'OCDE, 4/12/2007c
27)
Le Soir (2007), Tests pisa peut mieux
faire, F. Sooumois, 4/12/2007d
28)
Journaliste
Le Soir (2007), Les finlandais en tête du
classement, 4/12/2007e
29)
Journaliste
La Libre (2007), Les belges obtiennent
une bonne moyenne, 4/12/2007
30)
Journaliste
La Libre (2007), Faible et inéquitable,
L. Gérard, 5/12/2007a
31)
Journaliste
Le Soir (2007), Trop d'élèves en difficulté
Journaliste
en Wallonie et à Bruxelles, F. Sooumois, 5/12/2007a
32)
Le Soir (2007), Pour doper l'école, la
concurrence n'est pas miraculeuse, F. Sooumois, 5/12/2007d
33)
les écoles, M. Van Overstraeten, 24/01/2008
Journaliste
La Libre (2008), Bill Gates se penche sur
Journaliste
2) NPM
PISA 2000
185
8. Annexes
Références
34)
Acteurs
La
Evoque propos du NPM (D. Lafontaine)
La
Evoque propos du NPM (D. Lafontaine)
libre (2001), Le bulletin francophone est déplorable, 4/12/2001
35)
libre (2001), Vœu pieux, les classes hétérogènes, P. Piret, 9/12/2001
PISA 2003
Références
36)
Soir (2004), Pourquoi les flamands battent les francophones, P. Bouillon, 7/12/2004c
Acteurs
Le
Entretien avec D. Lafontaine (dirige le service de pédagogie
expérimentale de l'ULg)
186
8. Annexes
PISA 2006
Références
37)
Acteurs
Le
Soir (2007), Tests pisa peut mieux faire, F. Sooumois, 4/12/2007d
38)
Rapport les propos du NPM (A. Baye), analyste OCDE, Ministre
enseignement
La
Libre (2007), Faible et inéquitable, L. Gérard, 5/12/2007a
Rapporte les propos de D. Lafontaine (chercheuse Ulg) et de
l’équipe de recherche de l’Ulg
Entretien de A. Baye, NPM et chercheuse à l'Unité d'analyse
39)
La
Libre (2007), Le salut viendra-t-il de la Pologne, entretien de A. Baye par L. Gérard, 5/12/2007c
40)
de Liège
Le
Soir (2007), Trop d'élèves trop faibles, entretien de D. Lafontaine, 5/12/2007b
41)
des systèmes et des pratiques d'enseignement à l'Université
Entretien de D. Lafontaine qui dirige le service de pédagogie
expérimentale de l'ULg
La
Libre (2007), La phrase, 6/12/2007
Phrase prononcée par D. Lafontaine, professeure à l'ULg, sur
une radio publique (La Première, 5/12),
3) Analystes de l’OCDE
PISA 2006
Références
42)
Acteurs
Le
Soir (2007), Tests pisa peut mieux faire, F. Sooumois, 4/12/2007d
43)
l’Education de l’OCDE (E. Charbonnier), Ministre enseignement
Le
Soir (2007), Les finlandais en tête du classement, 4/12/2007e
44)
Soir (2007), L’autonomie pédagogique ou la voiture de société ?, 5/12/2007c
Rapport les propos du NPM, analyste à la direction de
Rapport les propos d’un analyste à la direction de l’Education
de l’OCDE (E. Charbonnier)
Le
Relate propos de B. Ischinger, directrice du Directorat pour
l’Education
et
réaction
de
M. Arena,
ministre
l’enseignement
187
de
8. Annexes
4) Ministres de l’enseignement
PISA 2000
Références
45)
Acteurs
La
libre (2001), Le bulletin francophone est déplorable, 4/12/2001
46)
Evoque propos du Ministre de l’ens. Sec. (P. Hazette) et NPM (
D. Lafontaine)
Le
Evoque propos du Ministre de l’ens. Sec. (P. Hazette)
Soir (2001), Mauvais bulletin pour nos élèves, M. Lamensch, 5/12/2001
47)
Le
Soir (2001), Bonnets d'âne pour les ados francophones, D. Kindermans, 11/12/2001
48)
Evoque propos du Ministre de l’ens. Sec. (P. Hazette)
Le
Soir (2001), Hazette tire d'autres conclusions de l'étude OCDE, M. Lamensch, 27/12/2001
49)
Evoque propos du Ministre de l’ens. Sec. (P. Hazette)
Le
Soir (2002), Le corps d'inspecteurs sera découpé en trois, P. Bouillon, 07/02/2002
PISA 2003
Références
50)
Acteurs
Le
Soir (2004), Nos élèves restent très moyens, P. Bouillon, 7/12/2004a
51)
Rapporte propos du Ministre de l’ens. Sec. (M. Arena)
Le
Soir (2004), l'enquête pisa décortiquée à mise au point, M. Lamensch, 13/12/2004
52)
Rapporte propos du Ministre de l’ens. Sec. (M. Arena)
Le
Soir (2005), Arena passe contrat avec l'école, P. Bouillon, 22/01/2005
53)
Le
Soir (2005), pour un toboggan de la réussite, P. Bouillon, 1/03/2005
PISA 2006
188
8. Annexes
Références
54)
Acteurs
Le
Soir (2007), Le bulletin de l'enseignement belge, 4/12/2007b
Rapporte propos du Ministre de l’enseignement, M. Arena
Rapporte les propos du NPM, analyste à la direction de
55)
Le
Soir (2007), Tests pisa peut mieux faire, F. Sooumois, 4/12/2007d
56)
(M. Arena)
La
Libre (2007), Arena, aller chercher les populations en décrochage, L. Gérard, 5/12/2007b
57)
Soir (2007), L’autonomie pédagogique ou la voiture de société ?, 5/12/2007c
l’Education de l’OCDE (E. Charbonnier), Ministre enseignement
Rapporte les propos du Ministre de l’enseignement (M. Arena)
Le
Relate propos de B. Ischinger, directrice du Directorat pour
l’Education et réaction de M. Arena, ministre de l’enseignement
189
8. Annexes
5) Service de pilotage
PISA 2006
Références
58)
Acteurs
Le
Soir (2008), Des tests de math indiscrets, P. Berkenbaum, 20/02/2008
Reprend notamment les propos de la directrice adjoint du
service de pilotage du système éducatif, M. Herphelin
6) Membres de partis politiques
PISA 2000
Références
59)
Acteurs
La
libre
F. Dupuis
(2001), Profitons du choc pour avancer, V. Rocour, 5/12/2001
60)
Propos de la ministre de l’Enseignement supérieur,
F. Dupuis,
Le Soir (2001), OCDE : Lire l’enquête, toute l’enquête, Dossier : Notre enseignement a-t-il tout faux ? W. Bourton, C.
F. Dupuis, Ministre de l'Ens. sup. et de l'Ens. de
Schoune et M. Lamensch, 06/12/2001
promotion sociale
61)
Le
Soir
PSC
(2001), Contrôle et qualité, Brève , 7/12/2001
Evoque propos du NPM (D. Lafontaine), ministre de
l’ens. Fondam. (J. M. Nollet), ministre de l’ens. sup.
(F. Dupuis), profs du secondaire, président de la Fapeo
62)
La
libre
(2001), Vœu pieux, les classes hétérogènes, P. Piret, 9/12/2001
63)
(P. Spehl,), recteur de l'UCL (M. Crochet), PSC (A.
Antoine)
La
libre
(2002), Enseignement : le PRL plus PSC que le PSC, 25/01/2002
PISA 2003
190
8. Annexes
Références
64)
Acteurs
La
Libre (2004), Belgique, 8/12/2004
65)
Soir (2005), Latin, vade retro arena, P. Bouillon, 15/02/2005
Rapporte position du MR et Ecole
Le
Reprend les propos d’une députée MR (F. Bertieaux)
191
8. Annexes
PISA 2006
Références
66)
Acteurs
La
Libre (2007), l'enquête PISA suscite des réactions, 4/12/2007b
67)
l’Association de parents luttant contre l’échec scolaire
La
Propos du MR
Libre (2007), Inscriptions, le MR exige une évaluation, 4/12/2007c
68)
La
Libre (2007), Pisa : Marie Arena minimise, dit le MR L. Gérard, 7/12/2007
69)
Propos du sénateur MR (A. Destexhe) et de la présidente du
groupe MR à la CF (F. Bertieaux)
Le
Soir (2008), L'enjeu des Chiroux, E. Lambert, 19/01/2008
70)
Reprend les propos d’un sénateur MR (A. Destexhe) et
Propos de PE. Mottard, député
Le
Soir (2008), Dévoyer une évaluation en maths pour corroborer une idéologie, F. Bertieaux, 11/03/2008
F. Bertieaux, Chef de Groupe MR au
parlement de la
Communauté française
7) Pouvoir organisateur
PISA 2000
Références
71)
Acteurs
Le
Entretien de J. Lefere, Administrateur délégué du Conseil des
Soir (2001), Réhabiliter la loi de l’effort, Dossier : Notre enseignement a-t-il tout faux ? M. Lamensch,
pouvoirs
06/12/2001
provincial
organisateurs
de
l’enseignement
communal
8) Syndicat
PISA 2000
192
et
8. Annexes
Références
72)
Acteurs
Le
Soir (2002), Blues sur le métier de professeur, le refinancement de l'école est bidon, entretien de M. Vrancken
par P. Bouillon, 18/02/2002.
Président de la CGSP Enseignement (syndicat socialiste)
193
8. Annexes
9) Enseignants et directeur d’écoles au secondaire
PISA 2000
Références
73)
Acteurs
La
libre
Propos d’enseignants du secondaire
(2001), Vœu pieux, les classes hétérogènes, P. Piret, 9/12/2001
74)
D. Leturcq,
Le Soir (2002), Pistes concrètes pour l'enseignement, Carte blanche, 4/01/2002
Directeur d’une école secondaire
PISA 2003
Références
75)
Acteurs
F. Minet,
La Libre (2004), Pisa a dit, 10/12/2004
76)
Professeur de géographie et conseillère pédagogique
Le
Soir
(2004), L'invité du samedi : P. Timmermans, disciple de la pédagogie raffinée, entretien par P. Lorent, 18/12/2004
P. Timmermans, directeur d’école
Rapporte les critiques de la Feadi (Fédération des
77)
Le
Soir
(2005), Ecole, les directions du secondaire catholique critiquent l'avalanche de propositions, P. Bouillon, 4/02/2005
associations
des
directeurs
de
l’enseignement
secondaire catholique) à l’égard du contrat stratégique
PISA 2006
Références
78)
Acteurs
La
Libre (2008), constater les échecs, P. Sentjens, 4/01/2008
79)
P. Sentjens, professeur de cours généraux à la CF
La
Libre (2007), Pleure sur ton école bafouée, P. Anselin, Directeur de l'Institut Saint-Joseph de Charleroi,
P. Anselin, Directeur de l'Institut Saint-Joseph de Charleroi
10/12/2007
80)
Libre (2008), semaine de remédiation ou de congé, L. Gérard, 31/01/2008
La
reprend les propos de son directeur (P. Carlier, Colège SteCroix et Notre-Dame à Hannut)
194
8. Annexes
10) Autres acteurs de terrain
PISA 2003
Références
81)
Acteurs
Le
Soir (2004), Formation, informatique : secrets du miracle flamand, D. Vanoverbeke, 8/12/2004e
directeur d’école, directeur d’un CLB (équivalent centre PMS)
et éditeur de manuels scolaires en Flandre
Relate les propos tenus par les éditeurs scolaires francophones
82)
La
Libre (2004), Cinq fois plus de manuels scolaires en Flandre, A. Hovine, 10/12/2004
83)
dans
une
lettre
ouverte
adressée
au
ministre
de
l’enseignement (M. Arena)
Le
Soir (2004), Pour le retour du manuel, 11/12/2004
Les éditeurs scolaires (association)
PISA 2006
Références
84)
Acteurs
Le
Soir (2008), Les trois quarts des lauréats sont enfants de docteur, entretien de N. Spaas par F. Sooumois,
N. Spaas, première permanente de la VVS, la fédération des
9/02/2008
étudiants flamands
11) Professeurs du Supérieur
PISA 2000
Références
85)
Acteurs
J.-
M. Ferry, Le Soir (2001), « Parfois on frise l’illettrisme », Dossier : Notre enseignement a-t-il tout faux ? W.
J.-M. Ferry, Professeur de philosophie et de sciences politiques
Bourton, C. Schoune, 6/12/2001
à l'Université libre de Bruxelles (ULB)
86)
Soir (2002), C. Leleux, La désintégration de l'enseignement, 5/01/2002
Le
Maître-assistante aux Hautes Ecoles de Bruxelles
PISA 2003
195
8. Annexes
Références
87)
Soir (2004), Changez la manière d’apprendre à lire, Entretien de G. Legros, par R. Gutierrez, 8/12/2004c
Acteurs
Le
G. Legros, professeur émérite de linguistique aux Facultés
Notre-Dame, à Namur, par R. Gutierrez
196
8. Annexes
PISA 2006
Références
Acteurs / Mode de diffusion /
Destinataire explicité
P. de Maret, professeur d’anthropologie à l’ULB, ancien recteur
Le
88)
Soir (2008), Une compétition inégale, entretien de P. de Maret, 13/02/2008a
de l’ULB et membre du Bureau de l’European University
Association
Le
89)
Soir (2008), Non au piège de l’ignorance, entretien de B. Coulie par C. Moreau, 13/02/2008b
B. Coulie, recteur de l’UCL
F.-X. Druet, Docteur en Philosophie et Lettres, enseignant au
Le
90)
Collège et aux Facultés Notre-Dame de la Paix, Centre
Interfaces
Soir (2008), L'inculture du résultat, F.-X. Druet, 14/02/2008
12) Conseil supérieur pédagogique319
PISA 2003
Références
Acteurs
Rapporte un avis émis par le conseil supérieur pédagogique
Le
91)
Soir (2004), Enseignement, un avis du Conseil supérieur pédagogique, P. Bouillon, 16/12/2004
demandé initialement par la ministre de l’enseignement
supérieur, M.D. Simonet (CDH)
13) Psychopédagogues
PISA 2000
319
Organe représentatif du secteur des écoles normales, qui réunit les pouvoirs organisateurs, syndicats et représentants étudiants (Le Soir, 16/12/04)
197
8. Annexes
Références
92)
Acteurs
P. Piret,
Le Soir (2001), Les dérapages d’une réforme pédagogique, Carte blanche, 20/12/2001
P. Piret, Maître-assistant en psychopédagogie à la Haute
Ecole Charleroi-Europe
J.-M. Braibant, Conseiller pédagogique à l'UCL et F.-M.
93)
Le Soir
(2001), Apprendre à lire ? Aussi une question de méthode, Carte blanche, 20/12/2001
Gérard, Directeur adjoint du Bureau d'ingénierie en
éducation et en formation
Cite
94)
(2001), Bonnets d'âne pour les ados francophones, D. Kindermans, 11/12/2001
Le Soir
le
minsitre
de
l’enseignement
secondaire
(P. Hazette) et J.L. Wolfs (chargé de cours en sciences
de l’éducation à l’Université libre de Bruxelles)
198
8. Annexes
PISA 2003
Références
95)
Acteurs
Le
Soir (2004), Libérer les profs, cibler l’intervention, Entretien de M. Jehin, par R. Gutierrez, 8/12/2004d
96)
expérimentale de l'Université de Liège,
Le
Soir (2004), Un soutien massif aux faibles, Entretien de V. Dupriez, par P. Bouillon, 8/12/2004f
97)
V. Dupriez, professeur de sciences pédagogiques à l'UCL
Le
Soir (2004), l’enquête Pisa est biaisée culturellement, 8/12/2004g
98)
. Jehin, assistante de recherche au service de pédagogie
Rapporte
les
propos
de
M. Romainville,
professeur
Facultés universitaires Notre-Dame de Namur
Le
« expert flamand en pédagogie » (J. Vanderhoeven)
Soir (2004), l'enquête pisa décortiquée à mise au point, M. Lamensch, 13/12/2004
14) Autres chercheurs universitaires
PISA 2000
Références
99)
Acteurs
La
libre (2001), Pour un contrat de gestion des écoles, entretien de V. Vandenberghe par V. Rocour, 4/12/2001
V. Vandenberghe (UCL), docteur en économie
PISA 2006
Références
100)
Acteurs
Le
Soir (2007), Les files devant les écoles : un remède à la maladie chronique de notre système scolaire ?,
C. Maroy, Professeur de sociologie, Girsef
C. Maroy, 12/12/2007
101)
Libre (2008), L'enseignement est le problème n°1, entretien de R. Deschamps, 11/02/2008
La
de R. Deschamps, professeur en économie aux FUNDP
199
aux
8. Annexes
15) Association de parents
PISA 2000
Références
102)
Acteurs
La
libre (2001), Ne pas se flageller, mais se mobiliser, entretien de H. Wittorski par A. Hovine, 5/12/2001
Président de l'Ufapec (H. Wittorski)
PISA 2003
Références
103)
Acteurs
Le
Soir (2004), être bon parent et bon citoyen, le paradoxe, entretien de P. Schwarzenberger par H. Dorzée,
Vice-président de la Fédération des associations de parents
8/12/2004h
d'élèves de l'enseignement officiel
PISA 2006
Références
Acteurs
Reprend les propos d’un sénateur MR (A. Destexhe) et
104)
La
communiqué de l’Association de parents luttant contre l’échec
scolaire
Libre (2007), l'enquête PISA suscite des réactions, 4/12/2007b
16) Mouvements pédagogiques
PISA 2000
Références
Acteurs / Mode de diffusion /
Destinataire explicité
105)
N.
APED (Appel pour une école démocratique), N. Hirtt
Hirtt, Le Soir (2001), On a donc essayé l’ignorance, dossier Notre enseignement a-t-il tout faux ? par W.
Bourton, C. Schoune et M. Lamensch, 06/12/2001
PISA 2003
200
8. Annexes
Références
Acteurs / Mode de diffusion /
Destinataire explicité
106)
Soir (2004), l'enquête pisa décortiquée à mise au point, M. Lamensch, 13/12/2004
Le
N. Hirtt, enseignant à Nivelles
201
8. Annexes
PISA 2006
Références
Acteurs / Mode de diffusion /
Destinataire explicité
107)
Le
Soir (2008), ne pas comprendre la réalité de l'inégalité sociale à l'école ou ne pas vouloir la voir ?, N. Hirtt,
. Hirtt, Membre fondateur
21/02/2008
démocratique)
108)
Le
Soir (2008), Ecart d'enseignement le programme et le financement, 28/02/2008
109)
Soir (2008), Le retard scolaire dû au programme, P. Berkenbaum, 29/02/2008
de l'APED (Appel pour une école
l’APED
Le
l’APED
202
8. Annexes
8.3.2 Les documents parlementaires
La liste suivante reprend tous les documents parlementaires (il s’agit de débats parlementaires retranscrits) citant PISA pendant la session suivant
la publication des résultats (de début décembre à juillet), pour chacun des trois cycles de PISA. Ils sont classés selon le cycle PISA concerné
(2000, 2003 et 2006). Tous ces documents ont été analysés.
A titre indicatif, le tableau 6 montre le nombre de documents parlementaires citant PISA, PIRLS et TIMSS depuis la première fois où l’une
d’entre elles apparaît dans la recherche documentaire que nous avons effectuée.
Tableau 6 : Nombre de documents parlementaires citant PISA, PIRLS et TIMSS
Sessions parlementaires
Nb. documents
Nb. documents
Nb. documents
citant « PISA » :
citant « PIRLS »
citant « TIMSS »
1996-1997
1
1999-2000
2
2000-2001
2
2001-2002
9
2002-2003
4
2003-2004
5
2004-2005
24
2005-2006
15
2006-2007
11
3
2007-2008
27
5
5
2
1
104
11
2
2008-2009 (session non terminée)
TOTAL
1
Les cases grisées renvoient aux documents analysés
203
8. Annexes
PISA 2000
Parlement de la Communauté Française, Compte rendu intégral, CRI n°3 (SE 1999), 19 juillet 1999.
Parlement de la Communauté Française, Avis présenté au nom de la Commission des Relations internationales, 31 (1999-2000), n°4, 23 novembre 1999.
Parlement de la Communauté Française, Compte rendu intégral, CRI n°4 (2001-2002), 11 décembre 2001.
Parlement de la Communauté Française, Rapport présenté au nom de la Commission de l’Education, Proposition de décret relative au pilotage du système éducatif de la Communauté
française, 229 (2001-2002), n°3, 28 février 2002.
5)
Parlement de la Communauté Française, Compte rendu intégral, CRI n°11 (2001-2002), 24 avril 2002.
6)
Parlement de la Communauté Française, Projet de décret relatif à la formation en cours de carrière dans l’enseignement spécial, l’enseignement secondaire ordinaire et les centres
psycho-médico-sociaux et à la création d’un institut de la formation en cours de carrière en interréseaux, 281 (2001-2002), n°1, 30 mai 2002.
7)
Parlement de la Communauté Française, Rapport introductif portant sur la « maîtrise du français en Communauté française : état de la question et pistes de remédiation éventuelles »,
déposé par M. Dupont, 263 (2001-2002), n°1.
8)
Parlement de la Communauté Française, Rapport présenté au nom de la Commission de l’éducation par M. Léonard, Projet de décret relatif à la formation en cours de carrière des
membres du personnel des établissements d’enseignement fondamental ordinaire, 277 (2001-2002), n°3, 19 juin 2002.
9)
Parlement de la Communauté Française, Rapport présenté au nom de la Commission de l’éducation par M. Henry, Projet de décret relatif à la formation en cours de carrière dans
l’enseignement spécial, l’enseignement secondaire ordinaire et les centres psycho-médico-sociaux et à la création d’un institut de la formation en cours de carrière en interréseaux, 281 (20012002), n°3, 20 juin 2002.
1)
2)
3)
4)
PISA 2003
Parlement de la Communauté Française, Compte rendu intégral, CRI n°6 (2004-2005), 13 décembre 2004.
Parlement de la Communauté Française, Compte rendu intégral, CRI n°7 (2004-2005), 14 décembre 2004.
Parlement de la Communauté Française, Compte rendu intégral, CRI n°8 (2004-2005), 15 décembre 2004.
Parlement de la Communauté Française, Compte rendu intégral, CRI n°14, Educ 2 (2004-2005), 16 décembre 2004.
Parlement de la Communauté Française, Bulletin des questions et des réponses, n°3 (2004-2005), 31 décembre 2004.
Parlement de la Communauté Française, Compte rendu intégral, CRI n°16 – Educ. 3 (2004-2005), 11 janvier 2005.
Parlement de la Communauté Française, Contrat stratégique pour l’éducation, 62 (2004-2005), n°1, 25 janvier 2005.
Parlement de la Communauté Française, Compte rendu intégral, CRI n°21 – Educ. 4 (2004-2005), 26 janvier 2005.
Parlement de la Communauté Française, Compte rendu intégral, CRI n°11 (2004-2005), 15 février 2005.
Parlement de la Communauté Française, Compte rendu intégral, CRI n°12 (2004-2005), 16 février 2005.
Parlement de la Communauté Française, Compte rendu intégral, CRI n°28 – Educ. 5 (2004-2005), 17 février 2005.
Parlement de la Communauté Française, Compte rendu intégral, CRI n°33 – Educ. 6 (2004-2005), 2 mars 2005.
Parlement de la Communauté Française, Bulletin des questions et des réponses, n°6 (2004-2005), 31 mars 2005.
Parlement de la Communauté Française, Compte rendu intégral, CRI n°18 (2004-2005), 21 juin 2005.
Parlement de la Communauté Française, Projet de décret modifiant le décret du 12 décembre 2000 relatif à la formation initiale des instituteurs et des régents, Rapport de Commission
présenté au nom de l’Enseignement supérieur et de la recherche scientifique par M. F. Delperée, 124 (2004-2005), n°3, 24 juin 2005.
25)
Parlement de la Communauté Française, Projet de décret contenant l’ajustement du budget général des dépenses de la Communauté française pour l’année budgétaire 2005, Avis
présenté au nom de la Commission de l’enseignement supérieur et de la recherche scientifique par J. Kapompolé, 134 (2004-2005) ; n°6, 28 juin 2005.
26)
Parlement de la Communauté Française, Compte rendu intégral, CRI n°21 (2004-2005), 19 juillet 2005.
10)
11)
12)
13)
14)
15)
16)
17)
18)
19)
20)
21)
22)
23)
24)
PISA 2006
27)
Parlement de la Communauté Française, Compte rendu intégral, CRI n°8 (2007-2008), 10 décembre 2007.
204
8. Annexes
Parlement de la Communauté Française, Compte rendu intégral, CRI n°9 (2007-2008), 11 décembre 2007.
Parlement de la Communauté Française, Intégration scolaire des enfants en situation de handicap. Rapport de Commission présenté au nom de la Commission de l’Education par
V. Jamoulle et C. Persoons, M. Elsen et Y. Reinkin, 478 (2007-2008), n°1, 13 décembre 2007.
30)
Parlement de la Communauté Française, Bulletin des questions et des réponses, n°3 (2007-2008), 31 décembre 2007.
31)
Parlement de la Communauté Française, Compte rendu intégral, CRI n°42, Educ. 7 (2007-2008), 24 janvier 2008.
32)
Parlement de la Communauté Française, Bulletin des questions et des réponses, n°4 (2007-2008), 31 janvier 2008.
33)
Parlement de la Communauté Française, Compte rendu intégral, CRI n°47, Educ. 8 (2007-2008), 13 février 2008.
34)
Parlement de la Communauté Française, Compte rendu intégral, CRI n°14 (2007-2008), 26 février 2008.
35)
Parlement de la Communauté Française, Compte rendu intégral, CRI n°50, Fin 11 (2007-2008), 27 février 2008a.
36)
Parlement de la Communauté Française, Compte rendu intégral, CRI n°52, Educ 9 (2007-2008), 27 février 2008b.
37)
Parlement de la Communauté Française, Compte rendu intégral, CRI n°15 (2007-2008), 11 mars 2008.
38)
Parlement de la Communauté Française, Compte rendu intégral, CRI n°57, Educ 11 (2007-2008), 12 mars 2008.
39)
Parlement de la Communauté Française, Evaluation de la mise en œuvre du décret « inscriptions », Rapport de Commission présenté au nom de la Commission de l’Education par A.M. Corbisie-Hagon et B. Defalque, 527 (2007-2008), n°1, 12 mars 2008a.
40)
Parlement de la Communauté Française, Proposition de résolution relative aux modalités de mise en œuvre par les établissements scolaires du décret du 8 mars 2007 portant diverses
mesures visant à réguler les inscriptions et les changements d’école dans l’enseignement obligatoire, en particulier le dispositif d’inscription des élèves dans le premier degré de l’enseignement
secondaire ordinaire, déposée par L. Walry, V. Jamoulle, F. Fassiaux-Looten, A-M. Corbisier-Hagon, M. Elsen et J. De Groote, 525 (2007-2008), n°1, 12 mars 2008b.
41)
Parlement de la Communauté Française, Compte rendu intégral, CRI n°62, Educ 12 (2007-2008), 9 avril 2008a.
42)
Parlement de la Communauté Française, Projet de décret fixant les conditions pour pouvoir satisfaire à l’obligation scolaire en dehors de l’enseignement organisé ou subventionné par
la Communauté Française, Rapport de Commission présenté au nom de la Commission de l’Education par V. Bonni, 521 (2007-2008) N)3, 09/04/2008b.
43)
Parlement de la Communauté Française, Compte rendu intégral, CRI n°18 (2007-2008), 22 avril 2008.
44)
Parlement de la Communauté Française, Proposition de décret visant à réguler les inscriptions des élèves dans le premier degré de l’enseignement secondaire et à favoriser la mixité au
sein des établissements scolaires déposée par L. Walry et A.-M. Corbisier-Hagon, 552 (2007-2008) n°1, 20 mai 2008a.
45)
Parlement de la Communauté Française, Compte rendu intégral, CRI n°21 (2007-2008), 20 mai 2008b.
46)
Parlement de la Communauté Française, Compte rendu intégral, CRI n°83, Educ. 16 (2007-2008), 3 juin 2008.
47)
Parlement de la Communauté Française, Bulletin des questions et des réponses, n°9 (2007-2008), 30 juin 2008.
48)
Parlement de la Communauté Française, Proposition de décret abrogeant les nouvelles dispositions en matière d’inscription des élèves et de changement d’école en cours d’année,
Rapport de Commission présenté au nom de la Commission de l’Education par P. Bravacal, 491 (2007-2008), n°2, 2 juillet 2008.
49)
Parlement de la Communauté Française, Compte rendu intégral, CRI n°26 (2007-2008), 17 juillet 2008.
50)
Parlement de la Communauté Française, Bulletin des questions et des réponses, n°10 (2007-2008), 29 août 2008.
28)
29)
8.3.3
Les publications du Secrétariat général de l’enseignement catholique
La liste suivante reprend les articles évoquant PISA qui ont été publiés dans la revue « Entrées Libres », une publication du Secrétariat
général de l’enseignement catholique. Cette liste ne reprend pas toutes leurs publications concernant PISA.
1)
2)
3)
M.N. Lovenfosse, « Regards externes. Qualité interne », Entrées Libres, n°8, avril 2006, pp. 20-21.
E. Descamps, B. Gerard, « Au-delà du 10 juin : les priorités du Segec », Entrées Libres, n°19, mai 2007, pp. 4-5.
J. Vandenschrick, J.-P. Degives, R. Polis, « Il y loind de la coup aux lèves », Entrées Libres, n°19, mai 2007, pp. 2-3.
205
8. Annexes
4)
5)
6)
E. Michel, « Deux concepts, deux graphiques pour une … meilleure régulation ! », Entrées Libres, n°19, mai 2007, pp. 7-8.
B. Gerard, « Il y un pilote dans l’avion », Entrées Libres, n°23, novembre 2007, pp. 12-13.
J.-P. Degives, « Et si c’était quand même une question d’efficacité ? », Entrées Libres, n°25, janvier 2008, pp. 16-17.
206
8. Annexes
8.4 Annexe 4 : La liste des publications analysés dans la partie 4
du rapport (travaux d’analyse des données PISA en
Communauté française)
Cette liste est ordonnée en fonction des groupes de chercheurs définis dans la partie 4 du
rapport.
ULg et Ministère
ULg 1. Direction des relations internationales (2004), Les acquis des élèves, in Clés de
lecture de Regards sur l’éducation, n° 7, Les indicateurs de l’OCDE, Ministère de la
Communauté française, 77-105
ULg 2. Direction des relations internationales (2006), Les acquis des élèves, in Clés de
lecture de Regards sur l’éducation, n° 8, Les indicateurs de l’OCDE 2004, Ministère de la
Communauté française, 80-99
ULg 3. Direction des relations internationales (2007), Les acquis des élèves, in Clés de
lecture de Regards sur l’éducation, n° 9, Les indicateurs de l’OCDE 2006, Ministère de la
Communauté française, 86-109
ULg
Rapports « premiers résultats »
ULg 4. Lafontaine Dominique, Baye Ariane, Matoul Anne, Demeuse Marc, Demonty
Isabelle (2001). Au-delà des performances des jeunes de 15 ans, un système éducatif se
profile…, Bruxelles : Ministère de la Communauté française de Belgique.
ULg 5. Baye Ariane, Demonty Isabelle, Fagnant Annick, Matoul Anne, Monseur Christian
et Lafontaine Dominique (coord.) (2004), Pisa 2003 : quels défis pour notre système
éducatif ?, Bruxelles : Ministère de la Communauté française.
ULg 6. Baye Ariane, Quittre Valérie, Hindryckx Geneviève, Fagnant Annick (2008), Les
acquis des élèves en culture scientifique. Premiers résultats de PISA 2006,
Bruxelles : Ministère de la Communauté française.
Rapports du SPE
ULg 7. Lafontaine Dominique, Baye Ariane, Burton R., Demonty Isabelle, Matoul Anne et
Monseur Christian (2003), Les compétences des jeunes de 15 ans en Communauté
française en lecture, en mathématiques et en sciences. Résultats de l’enquête Pisa 2000.
Cahiers du Service de Pédagogie expérimentale, 13-14.
ULg 8. Baye Ariane, Demonty Isabelle, Fagnant Annick, Lafontaine Dominique, Matoul
Anne, Monseur Christian (2004), Les compétences des jeunes de 15 ans en communauté
207
8. Annexes
française de Belgique en mathématiques, en lecture et en sciences. Résultats de
l’enquête PISA 2003, Les Cahiers du Service de Pédagogie expérimentale, n° 19-20.
ULg 9. Baye Ariane, Blondin Christiane, Fagnant Annick, Hindryckx Geneviève, Lafontaine
Dominique, Matoul Anne, Monseur Christian et Quittre Valérie (2009). Les compétences
des jeunes de 15 ans en Communauté française en en sciences, lecture et en
mathématiques. Résultats de l’enquête Pisa 2006. Cahiers des Sciences de l’éducation,
29-30.
Autres publications
ULg 10. Baye Ariane (2005), Entre efficacité et équité : ce que les indicateurs de l’OCDE
veulent dire, in Marc Demeuse, Ariane Baye, Marie-Hélène Straeten, Julien Nicaise et
Anne Matoul (eds), Vers une école juste et efficace, de Boeck, 539-558
ULg 11. Baye Ariane, Lafontaine Dominique et Vanhulle Sabine (2003), Lire ou ne pas
lire. État de la question. Les Cahiers du Centre de Lecture Publique de la Communauté
française, 4. Bruxelles : Ministère de la Communauté française.
ULg 12. Blondin Christiane et Lafontaine Dominique (2005), Les profils des filles et des
garçons en sciences et en mathématiques. Un éclairage basé sur les enquêtes
internationales, in Marc Demeuse, Ariane Baye, Marie-Hélène Straeten, Julien Nicaise et
Anne Matoul (eds), Vers une école juste et efficace, de Boeck, 317-336
ULg 13. Crahay Marcel et Monseur Christian (2006), Différences individuelles et effets
d’agrégation en ce qui concerne les performances en lecture : Analyse secondaire des
données PISA 2000. In C. Houssemand, R. Martin, P. Dickes (Eds), Perspectives de
psychologie différentielle. Presses Universitaires de Rennes, Rennes, pp 23-34.
ULg 14. Demeuse Marc, Lafontaine Dominique et Straeten Marie-Hélène (2005), Parcours
scolaire et inégalités de résultats, in Marc Demeuse, Ariane Baye, Marie-Hélène Straeten,
Julien Nicaise et Anne Matoul (eds), Vers une école juste et efficace, de Boeck, 259-273
ULg 15. Lafontaine Dominique et Blondin Christiane (2004), Regards sur les résultats des
élèves en Communauté française. Apports des enquêtes de l’IEA, de PISA et des
évaluations externes, De Boeck Université.
ULg 16. Monseur Christian et Crahay Marcel (2008), Composition académique et sociale
des établissements, efficacité et inégalités scolaires : une comparaison internationale.
Analyse secondaire des données PISA 2006. Revue française de pédagogie, 164, 55-65
ULg 17. Monseur Christian et Lafontaine Dominique (2009). Regroupement par aptitude
et/ou ségrégation sociale des publics ?, in Vincent Dupriez et Xavier Dumay, L’efficacité
en éducation, promesses et zones d’ombre, De Boeck.
208
8. Annexes
ULg et UMH
ULg 18. Demeuse Marc et Baye Ariane (2008), Mesurer et comparer l’équité des
systèmes éducatifs en Europe, Education et formations, 78, 137-149
ULg 19. Demeuse Marc, Friant Nathanaël et Baye Ariane (2008), Over stromen en
watervallen : curricula die niet discrimineren. In I. Nicaise, & E. Desmedt (Eds). Gelijke
kansen op school: het kan. Zestein sporen voor praktijk en beleid (pp. 193-224).
Mechelen: Plantyn.
APED
APED 1. Hirtt Nico (2008), Pourquoi les performances PISA des élèves francophones et
flamands sont-elles si différentes ?, Appel pour une école démocratique.
APED 2. Hirtt Nico (2005), Belgique-Finlande : le coût exorbitant du libéralisme scolaire,
L’école démocratique, 24.
APED 3. Hirtt Nico (2006), PISA 2003 et les mauvais résultats des élèves issus de
l’immigration en Belgique. Handicap culturel, mauvaise intégration, ou ségrégation
sociale ?, Appel pour une école démocratique.
APED 4. Hirtt Nico (2007), Performances scolaires des élèves allochtones et origine
sociale, Notes marginales auprès du rapport de la Fondation Roi Baudouin, Appel pour
une école démocratique.
APED 5. Hirtt Nico (2007), Impact de la liberté de choix sur l’équité des systèmes
éducatifs ouest-européens, Appel pour une école démocratique.
FUNDP
FUNDP 1. Adam Frantz, Gevers Louis, Verheyden Bertrand et Gaspart Frédéric (2004),
Adolescents et déjà inégaux, Reflets et perspectives, LXI, 4, 65-85.
UCL – GIRSEF
UCL 1. Dumay Xavier et Galand Benoït (2008), Le rôle des établissements scolaires dans
les inégalités de traitement et de résultats : le cas de la Communauté française de
Belgique, in Vincent Dupriez, Jean-François Orianne et Marie Verhoeven (eds), De l’école
au marché du travail, l’égalité des chances en question, Peter Lang, 185-204
UCL 2. Dumay Xavier et Dupriez Vincent (2004), Effet établissement : effet de processus
et/ou effet de composition, Les cahiers de recherche en éducation et formation, 36
UCL 3. Dumay Xavier et Dupriez Vincent (2007), Effet établissement : quelles relations
entre composition sociale des établissements et processus internes ? in Mariane Frenay
et Xavier Dumay (eds), Un enseignement démocratique de masse. Une réalité qui reste à
réinventer, Presses Universitaires de Louvain, 79-104
209
8. Annexes
UCL 4. Dupriez Vincent et Dumay Xavier (2004), L’égalité dans les systèmes scolaires :
effet école ou effet société ?, Les cahiers de recherche en éducation et formation, 31
UCL 5. Dupriez Vincent et Vandenberghe Vincent (2008), Les inégalités dans les
systèmes scolaires en Europe : état des lieux, in Vincent Dupriez, Jean-François Orianne
et Marie Verhoeven (eds), De l’école au marché du travail, l’égalité des chances en
question, Peter Lang, 165-184
UCL 6. Vandenberghe Vincent (2004), Achievement effectiveness and equity. The role of
Tracking, Grade-Repetition and Inter-school Segregation, Cahiers du Girsef, 28
UCL 7. Vandenberghe Vincent et Waltenbergh Fabio (2007), La ségrégation scolaire et
spatiale en Communauté française : une réalité stable ?, in Mariane Frenay et Xavier
Dumay (eds), Un enseignement démocratique de masse. Une réalité qui reste à
réinventer, Presses Universitaires de Louvain, 157-190
UCL – IRES
UCL 8. De la Croix David et Doepke Matthias (2009), To Segregate or to Integrate:
Education Politics and Democracy, Review of Economic Studies, forthcoming
UCL 9. De la Croix David et Vandenberghe Vincent (2004), Human capital as a factor of
growth and employment at the regional level. The case of Belgium, Report for the
European union.
ULB
ULB 1. Jacobs Dirk, Rea Andrea, Hanquinet Laurie (2007), Performances des élèves issus
de l’immigration en Belgique selon l’étude PISA. Une comparaison entre la Communauté
française et la Communauté flamande, Fondation Roi Baudouin.
MR
MR 1 Destexhe Alain (2008), Un sujet tabou : l’enseignement libre, meilleur que l’officiel
selon PISA, communiqué de presse, mai 2008.
210

Documents pareils