modélisation prédictive du rendement des élèves de l

Transcription

modélisation prédictive du rendement des élèves de l
 MODÉLISATION PRÉDICTIVE DU RENDEMENT DES ÉLÈVES DE L’ONTARIO :
APPROCHE PRATIQUE ET INDIVIDUELLE PERMETTANT DE CIBLER LES
INTERVENTIONS PÉDAGOGIQUES
Serge Boulé Centre canadien de leadership en évaluation [email protected],
Mario Gagnon Ministère de l’éducation de l’Ontario [email protected]
Mots-clés : Modèle prédictif, prédicteur, predictive model, tests à grande échelle, évaluation
Résumé. Les conseils scolaires de l’Ontario sont tenus d’assurer l’amélioration du rendement des
élèves étant sous leur autorité. L’utilisation d’une approche prédictive permet d’anticiper le
rendement aux tests de l’Office de la qualité et de la responsabilité en éducation (OQRE) en fonction
des résultats sur les bulletins scolaires antérieurs des élèves. L’analyse de régression logistique
binaire permet d’établir les probabilités individuelles de réussite. Des équations sont développées
pour chaque test de l’OQRE de chaque niveau (3e, 6e, 9e et 10e), pour chaque filière d’étude
(théorique ou appliquée) et pour chaque sexe. Les résultats de ces analyses sont par la suite discutés
en communauté d’apprentissage professionnel (CAP) afin de déployer des interventions ciblées. Les
CAP favorisent la prise de décision fondée sur des données probantes. Il est considérablement
avantageux et économique de pouvoir anticiper les résultats des élèves à partir d'une source déjà
existante de données comme le bulletin sans avoir à administrer à grande échelle des tests
diagnostiques supplémentaires.
1.
Concepts et écrits
Nous présentons une approche qui utilise les données du bulletin scolaire afin d'estimer la probabilité
qu’a chaque élève d’atteindre la norme préétablie lors de tests à grande échelle. Cette information est
utilisée par le personnel enseignant et la direction de l’école dans le but de déterminer et d’implanter
des mesures de remédiation spécifiquement liées à l’amélioration du rendement des élèves. Cette
approche est développée à la demande d’intervenants du milieu. Il s’agit d’une recherche de type
appliqué.
Les résultats obtenus par les tests à grande échelle du rendement des élèves représentent des
indicateurs clés de la performance d'un système scolaire (Anderson, Rogers, Klinger, Ungerleider,
Glickman & Anderson, 2006). Ces tests vont de concert avec les exigences d’imputabilité accrue
imposées. Étant donné que les conseils scolaires et les écoles sont de plus en plus tenues responsables
du rendement de leurs élèves, la prise de décision fondée sur des données probantes devient essentielle
(Earl & Katz, 2008). Dans ce contexte, la modélisation prédictive constitue une source importante
d’information (Education Commission of the States, 2000). L'approche proposée repose sur les
données disponibles dans les bulletins d’élèves et dans les écoles. L’administration a priori de tests
diagnostiques à grande échelle supplémentaires n’est pas requise.
L’anticipation du rendement des individus n’a rien de nouveau (Binet & Simon, 1904;
von Mayrhauser, 1992; Spearman, 1904a; Yerkes, 1919; Wainer, 2000). Wainer (2000) explique que,
dès 2200 av. J.-C., les Chinois mesurent des performances précises afin de prédire chez les mêmes
individus des performances considérées connexes. Entre 1880 et 1900, F. Galton, J.M. Cattell et autres
chercheurs tentent de prédire, avec peu de succès (Gullickson, 1950), le rendement des étudiants au
collège à partir de nouvelles mesures de l'intelligence. Les contributions de Binet et Simon (1904), de
Spearman (1904), de Terman et Childs (1912) et de Yerkes (1919) aident à établir les fondements et
les rôles de la théorie classique des scores et des analyses statistiques en éducation. Des adaptations du
test de Binet et Simon sont utilisées pour produire le Army Alpha (von Mayrhauser, 1992), puis le
premier Scholastic Aptitude Test (SAT) (Wainer, 2000). Toutes ces initiatives ont pour but d’anticiper
la performance à court et à moyen terme des individus. La modélisation prédictive est encore utilisée
dans de nombreuses institutions post-secondaires afin de prédire le rendement scolaire des candidats
(Amodeo, Marcus, Thornton & Pashley, 2009; Bassiri & Schulz, 2003; Beecher & Fischer, 1999;
Bender & Garner, 2010; Noble, 2000, 2003; Ziomek & Andrews, 1996; Zwick & Sklar, 2005) ou
l’achèvement des programmes d’études (Allen, Robbins & Sawyer, 2010; Beecher & Fischer, 1999;
Boujut & Bruchon-Schweitzer, 2007; Cohn, Cohn, Balch, & Bradley, 2004).
De nombreux facteurs liés au rendement des élèves font l’objet d’études ou sont utilisés à titre de
prédicteurs. Hattie (2009) réalise une importante méta-analyse portant sur le rendement des élèves.
Hattie note cependant que la généralisation de ses résultats est limitée puisqu’ils sont tirés de groupes
anglophones et de pays très développés. Cette étude aide toutefois à identifier des prédicteurs
potentiels. Hattie constate que le rendement antérieur déclaré par l’élève constitue le facteur ayant le
plus d'impact sur le rendement des élèves. Cette observation est corroborée par plusieurs études qui
identifient le rendement antérieur des élèves parmi les meilleurs prédicteurs du rendement ultérieur des
élèves (Bassiri & Schulz, 2003; Beecher & Fischer, 1999; Bender & Garner, 2010; Campbell & Fuqua,
2008; Cohn, Cohn, Balch, & Bradley, 2004; Geiser & Santelices, 2007; Noble, 2000, 2003; Rogers,
Ma, Klinger, Dawber, Hellsten, Nowicki, & Tomkowicz, 2006; Ziomek & Andrews, 1996; Zwick &
Sklar, 2005).
Le rendement antérieur des élèves peut être défini de plusieurs manières et le contexte des études doit
être pris en considération lors de l'interprétation des résultats. Dans leurs modèles prédictifs, diverses
études utilisent la moyenne pondérée cumulative des élèves (MPC) au secondaire (Beecher & Fischer,
1999; Geiser & Santelices, 2007), au collège ou à l’université (Allen et al, 2010, Boujut & BruchonSchweitzer, 2007) ou dans des cours portant sur des sujets précis (Klapp Lekholm & Cliffordson,
2009). L’étude de Bacon et Bean (2006) suggère que l'utilisation d'un nombre maximum de notes
permet d’augmenter la fidélité de la MPC, mais que les notes plus récentes représentent des prédicteurs
plus valides. D'autres études, pour ne mentionner que celles-ci, utilisent des tests d’aptitudes ou des
tests du rendement tels que l'American College Testing Program (ACT) (Bassiri & Schulz, 2003), le
SAT (Cohn et al., 2004), le Law School Admission Test (LSAT) (Amodeo, Marcus, Thornton &
Pashley, 2009), le Graduate Record Examination (GRE) (Feeley, Williams & Wise, 2005) et le
Graduate Management Admission Test (GMAT) (Koys, 2010) dans leurs modèles prédictifs.
Pour leur part, Beecher et Fischer (1999) tentent d’utiliser le nombre de cours pris par l’élève dans les
filières théoriques, esthétiques et pratiques à l'école secondaire afin de prédire le rendement et
l’achèvement de la première année de collège. Finalement, ils ne retiennent pas cette variable dans
leurs modèles prédictifs. Similairement, Hattie (2009) examine l’utilisation des filières à titre de
prédicteurs et constate qu'elles ont peu d'effets sur le rendement.
Certaines études examinent l'impact d’inclure le genre des élèves dans leurs modèles, mais souvent
sans résultats significatifs (Anderson et al., 2006; Beecher & Fischer, 1999). À ce sujet, il est
important de noter que les tests à grande échelle font habituellement l’objet de vérification pour
fonctionnement différentiel selon le genre. D’autre part, lorsque Bender et Garner (2010) étudient les
prédicteurs de la MPC de la première année au collège, ils produisent des modèles prédictifs pour
chaque genre et trouvent suffisamment de différences pour justifier l’utilisation de modèles distincts.
En utilisant un modèle hiérarchique linéaire au niveau de l'élève, de la salle de classe et de l’école,
Rogers et al. (2006) étudient l'impact de près de 150 variables lors de prédictions du rendement dans
les langues et les mathématiques. Ils constatent que les différences entre les filles et les garçons varient
selon les disciplines.
L'impact des variables liées au statut socio-économique (SSE) sur le rendement est également
largement étudié. Dans leurs modèles multi-niveaux, Rogers et al. (2006) identifient que le nombre de
parents au niveau des élèves et la participation des parents au niveau de la classe ont une influence
significative sur le rendement des élèves autant dans les langues qu’en mathématiques. Rogers et al.
constatent que de nombreuses variables liées au SSE de l'école, qui sont utilisées afin d’estimer le SSE
des élèves, ne sont pas incluses dans leurs modèles une fois que le rendement antérieur des élèves est
ajouté. Zwick et Grief Green (2007) étudient l'impact du SSE sur la MPC au secondaire lorsque les
écoles sont regroupées ou analysées individuellement. Zwick et Grief Green suggèrent que ce
regroupement explique l’exclusion des variables SSE dans les modèles prédictifs. Caro, McDonald et
Willms (2009) constatent que l'écart de rendement entre un SSE faible et un SSE élevé demeure stable
entre l’âge de 7 et 11 ans, mais s'élargit à un rythme croissant entre l’âge de 11 à 15 ans.
Les écrits rapportent d'autres prédicteurs potentiels tels que certains facteurs psychosociaux (FPS) qui
sont en l’occurrence le sentiment d'efficacité personnelle, l'intérêt pour l'école, l'anxiété et la
personnalité des étudiants. En utilisant seulement des FPS dans leur modèle prédictif, Boujut et
Bruchon-Schweitzer (2007) constatent qu’une impulsivité faible et une affectivité positive élevée
représentent des prédicteurs de l'achèvement de la première année des étudiants universitaires
européens. Allen, Robbins et Sawyer (2010) constatent que les FPS représentent une valeur ajoutée
aux prédictions de l’achèvement du programme fondées sur les prédicteurs traditionnels. Dans le
contexte des élèves du secondaire au Canada (Anderson et al., 2006) et des étudiants universitaires en
Europe (Boujut & Bruchon-Schweitzer, 2007), une augmentation de l'utilisation du soutien
pédagogique serait liée à une baisse du rendement. Cette relation négative n'est pas clairement
expliquée par ces études.
L'un des principaux FPS étudiés dans de nombreux contextes est l'effet de la motivation des élèves sur
le rendement (Allen et al, 2010; Bender & Garner, 2010; Boujut & Bruchon-Schweitzer, 2007; Hattie,
2009). Dans les cycles de scolarité obligatoire, Klapp Lekholm et Cliffordson (2009) trouvent des
différences significatives entre les notes attribuées par le personnel enseignant aux filles et aux garçons
dans diverses disciplines. Cependant, ces différences seraient fortement atténuées par l’intérêt général
des élèves et leur motivation. Similairement, Bender et Garner (2010) rapportent des différences au
niveau de la motivation des filles et des garçons.
L’approche que nous proposons opte pour l’utilisation de données déjà existantes. Comme Allen et al.
(2010) l’expliquent, l’utilisation de données déjà existantes n’engendre pas de coût additionnel pour
l'institution en matière de tests supplémentaires ou pour les élèves en matière de temps consacré à ces
tests. Par conséquent, ces auteurs suggèrent que la précision et la valeur ajoutées aux prédictions par
les résultats des tests supplémentaires doivent être évaluées en fonction des coûts liés à l’obtention de
ces données et de ces mesures additionnelles. Par ailleurs, comme mentionné précédemment, l'impact
des variables SSE lors de la prédiction du rendement des élèves est limité une fois que le rendement
antérieur des élèves est ajouté au modèle (Rogers et al, 2006).
La comparabilité des notes attribuées dans différentes écoles ou conseils scolaires représente un
problème potentiel lors de l'utilisation de données déjà existantes. Les données provenant des bulletins
scolaires des élèves sont facilement accessibles. Des inquiétudes quant à leur fidélité sont cependant
soulevées (Cizek, 2009; Geiser & Santelices, 2007; Zwick & Grief Green, 2007). Dans le contexte des
tests à grande échelle standardisés, Anderson et al. (2006) trouvent une stabilité étonnante du
rendement des élèves entre les écoles. La synthèse de Hattie (2009) conclut que les facteurs liés à
l’école ont les effets les moins importants. Lors de l'étude de la MPC de 4 années d’étudiants du
premier cycle, Bacon et Bean (2006) observent une fidélité de 0,94. Ces études ne comparent
cependant pas directement les écoles ayant des caractéristiques différentes, que Zwick et Grief Green
exposent comme étant problématiques. À cet effet, Willingham, Pollack et Lewis (2002) et Boulé
(2011; 2012) proposent d’ajuster les notes des bulletins en appliquant une correction qui compense
pour les différences de sévérité dans l’attribution de notes par le personnel enseignant et ramène ainsi
les notes sur une échelle comparable entre les écoles.
2.
Méthode L’approche proposée utilise des données provenant du bulletin scolaire lors de la modélisation
prédictive du rendement des élèves de 3e, 6e, 9e et 10e années aux tests à grande échelle de l’Office de
la qualité et de la responsabilité en éducation (OQRE) qui sont administrés chaque année en Ontario.
Tous les élèves de la province pour les niveaux sélectionnés sont testés, ce qui représente une cohorte
d'environ 160 000 élèves de langue anglaise et 6 000 élèves de langue française par niveau. En
anticipant la probabilité de réussite d'un élève, il est possible de cibler les élèves nécessitant une
attention particulière et de maximiser leurs chances de réussite. L'approche proposée est le résultat des
travaux de recherche de Boulé (2011; 2012) qui ont débuté en 2004-2005. Elle est actuellement
appliquée dans neuf conseils scolaires représentant plus de 50 000 élèves de l'Ontario. Il s'agit d'un
programme de recherche qui applique le cycle d'amélioration continue planifier, faire, vérifier et
ajuster (PFVA) de Shewhart et Deming (Chardonnet & Thibaudon, 2003).
L'approche débute par un volet quantitatif et passe ensuite à la mise en œuvre en alignant la méthode
avec le cadre d’imputabilité d'un conseil scolaire et le soutien apportés à ses écoles. La première
section donne un aperçu général de l'approche. Ensuite, les données sur lesquelles l'approche est
fondée sont passées en revue. Enfin, les méthodes statistiques adoptées dans cette approche afin de
prédire la probabilité de succès sont discutées.
2.1
Description de l'approche
Les étapes associées à cette approche sont nombreuses. La première étape est l’établissement de cibles
de rendement pour les écoles, qui sont des niveaux de rendement réalistes que les écoles tentent
d’atteindre. Ces cibles sont déterminées statistiquement et sont basées sur un nombre de prémisses.
Cette étape coïncide avec la collecte des données du bulletin scolaire des élèves et des résultats
antérieurs obtenus aux tests de l'OQRE. Une fois que ces données sont obtenues, les modèles prédictifs
peuvent être construits. Par la suite, la probabilité de réussite de chaque élève est fournie à leur conseil
scolaire respectif. Les représentants des conseils scolaires analysent ces prédictions avec les directions
d'école. Les écoles peuvent alors cibler certains élèves et discuter des interventions pédagogiques
appropriées lors des réunions de groupes telles que les communautés d'apprentissage professionnelles
telles que suggérées par Dufour, Dufour et Eaker (2008). Les écoles sont encouragées à mettre en
place des réunions et des tableaux de pistage afin d'assurer un suivi continu des élèves ciblés.
2.2
Données Cette approche utilise les notes des bulletins à l’élémentaire et au secondaire, les habiletés
d'apprentissage et les habitudes de travail. Elle s'appuie sur la prémisse qu'il y a corrélation entre les
notes du bulletin et les résultats aux tests de l'OQRE (Ross & Gray, 2008). Ce lien peut être
statistiquement démontré. Une analyse des données provenant de plus de 3 000 écoles élémentaires de
l'Ontario montre un lien étroit entre les données du bulletin et les résultats aux tests de l’OQRE pour
les élèves de 3e année. Dans ce cas, 474 écoles ont des résultats de l'OQRE en dessous de 50 % alors
que seulement 9 écoles élémentaires ont des résultats au bulletin en dessous de 50 %. Pourtant, la
relation entre les deux méthodes d'évaluation est assez forte, avec une valeur R2 de 0,27.
Pour la cohorte de 2010-2011, neuf conseils scolaires participent à cette approche. Cela comprend près
de 200 écoles élémentaires représentant 3 500 élèves de 3e année et 3 400 élèves de 6e année. Au
niveau du secondaire, plus de 50 écoles participent, ce qui comprend 3 400 élèves de 9e année et 3 100
élèves de 10e année.
2.3
Modélisation prédictive
Cette approche utilise la méthode de régression logistique binaire afin de prédire la probabilité de
réussite des élèves aux prochains tests de l’OQRE. Cette méthode est robuste par rapport aux
exigences de conformité aux postulats de l’analyse multi-variée. Elle peut également utiliser des
variables continues, catégorielles ou dichotomiques comme prédicteurs. Ce type d'analyse est
fréquemment utilisé pour anticiper le rendement scolaire (Allen et al, 2010; Amodeo et al, 2009;
Boujut & Bruchon-Schweitzer, 2007; Geiser & Santelices, 2007; Noble, 2000, 2003).
Des modèles de régression logistique distincts sont utilisés pour chaque test de l'OQRE (lecture,
écriture et mathématiques) de 3e et 6e année, pour les garçons et les filles et pour chaque filière pour les
élèves de 9e et 10e année. La tendance historique à l'échelle provinciale, qui montre des différences
notables dans la performance entre les garçons et les filles, justifie l'utilisation de modèles distincts
pour les filles et les garçons. Les tableaux de classification, indiquant le pourcentage de classification
correcte, et la vérification de la qualité de l'ajustement, sont utilisés afin de sélectionner les meilleurs
modèles prédictifs disponibles. Dans l’approche proposée, la règle de parcimonie ne constitue pas un
critère de sélection des modèles. Comme il sera décrit ultérieurement dans le texte, les variables
indépendantes utilisées comme prédicteurs constituent une source d’information additionnelle lors de
la sélection d’interventions pédagogiques de remédiation appropriées.
Les pourcentages de classification correcte pour la cohorte de 2010-2011 sont tous au-dessus de 80 %,
à l’exception des prédictions pour les tests en 9e année qui présentent un pourcentage un peu plus bas.
La moyenne des pourcentages de classification correcte pour l'ensemble des 20 modèles de régression
logistique binaire utilisés est de 82,4 % et certains modèles atteignent des pourcentages dans les 90 %.
Des prédicteurs additionnels sont présentement examinés afin d'atteindre des pourcentages de
classification correcte plus élevés pour les modèles de la 9e année. Une fois que des modèles
satisfaisants sont produits, les équations de régression sont utilisées afin de créer des listes de
prédiction du rendement des élèves lors des prochains tests à grande échelle de l’OQRE.
3.
Résultats Cette section présente d’abord une description du déroulement de cette méthode, avec des exemples
des informations qui sont transmises aux conseils scolaires et à leurs écoles. Par la suite, les résultats
d’une analyse d'impact préliminaire sur des données de la cohorte de 2009-2010 d’un conseil scolaire
précis sont discutés. Bien qu’il soit impossible d’attribuer l’amélioration du rendement des élèves à
une seule stratégie, ces résultats reflètent des changements dans les pratiques de ce conseil scolaire qui
coïncident avec la mise en œuvre de l'approche.
3.1
Cibles
Les résultats des élèves aux tests de l'OQRE de l'année précédente sont utilisés afin de déterminer des
cibles raisonnables de rendement pour les élèves actuels de l’école. Ces cibles sont déterminées
statistiquement en utilisant une équation qui prend en considération les données de chaque école. Cette
équation est basée sur quatre prémisses (1) il est attendu que les écoles font des progrès, et ce,
indépendamment de leurs résultats antérieurs (2) la cible respecte le point de départ de l'école (3) les
écoles évaluent leurs progrès en fonction de leurs propres résultats et de leurs circonstances
particulières (4) les jugements de valeur sont exclus. Ces cibles de rendement prennent la forme du
pourcentage d'élèves qui devraient atteindre ou dépasser la norme provinciale dans chaque école. Ce
pourcentage permet d’estimer le nombre d’élèves qui doivent atteindre la norme provinciale de
manière à ce qu’une école parvienne à sa cible. Cette méthode permet donc d'estimer une cible réaliste,
qui facilite une amélioration progressive. De plus, elle est harmonisée avec les résultats des analyses
prédictives.
3.2
Anticipation du rendement des élèves
En lien avec le concept de prise de décision fondée sur des données probantes par les écoles (Earl &
Katz, 2008; Education Commission of the States, 2000; Kerr, Marsh, Ikemoto, Darilek & Barney,
2006), l'approche actuelle peut être considérée comme une valeur ajoutée aux sources d’informations
disponibles. Avec les outils d'évaluation à leur disposition, les enseignants peuvent généralement
prévoir de manière fiable la performance des élèves dès la mi-octobre. En outre, les analyses des
résultats de l'OQRE des années antérieures peuvent aider à identifier les tendances. Les prévisions
statistiques du rendement des élèves de cette approche peuvent aider les enseignants à prendre des
décisions pédagogiques de remédiation plus éclairées.
D'autres informations peuvent être obtenues grâce à ces analyses. En analysant les données du bulletin,
il est possible de déterminer la probabilité qu'un élève atteigne la norme provinciale sur un test de
l'OQRE. Il est également possible d'identifier les compétences et les habiletés à développer qui sont
fortement corrélées avec cette probabilité de réussite. Si un lien de causalité entre les prédicteurs et le
rendement d'un élève sur les tests de l'OQRE ne peut être établi avec certitude, il est concevable que
des interventions pédagogiques ciblées, fondées sur les prédicteurs identifiés, puissent conduire à un
impact positif sur le rendement des élèves. Par conséquent, agir sur les prédicteurs qui ont
potentiellement un impact, pourrait potentiellement contribuer à améliorer le rendement des élèves.
Pour cette raison, une liste de prédicteurs fait également partie de l'information offerte aux conseils
scolaires.
En lien avec cette approche, les cibles et les prédictions du rendement des élèves sont des éléments
pertinents à prendre en considération lors de l'élaboration d'un cadre d'amélioration du conseil. En
utilisant les données disponibles dans le cadre de la prise de décisions fondées sur des preuves, les
directions et le personnel enseignant peuvent discuter et interpréter les données afin de cibler les élèves
(van Barneveld, 2008). En outre, les données supplémentaires pertinentes concernant les évaluations et
le rendement des élèves ciblés, ainsi que le type de soutien individuel proposé, peuvent être déterminés
et identifiés dans un tableau de pistage. Le tableau de pistage facilite les suivis et permet aux
superviseurs d’obtenir des informations sur les progrès des élèves ciblés lors de chaque visite.
4.
Étude d'impact Cette approche propose une procédure de mise en œuvre qui favorise le travail en équipe et la prise de
décisions fondée sur des preuves. Les analyses préliminaires présentées dans cette section proviennent
d'un conseil scolaire qui met en œuvre le ciblage d’élèves en fonction du rendement anticipé et d'autres
informations disponibles. Les résultats pour la cohorte 2009-2010 affichent une tendance intéressante.
Historiquement, on constate qu'environ 50 % des écoles atteignent ou dépassent leurs objectifs de
rendement. Dans le conseil scolaire étudié, 66 % des écoles atteignent ou dépassent leurs cibles de 3e
année et 62 % atteignent ou dépassent leurs cibles de 6e année, pour un total combiné de 64,6 %.
Les résultats de l'OQRE pour les élèves ciblés sont tout aussi révélateurs. En principe, si les
interventions pédagogiques prévues pour les élèves ciblés n’ont aucun effet, la régression linéaire
devrait donner des résultats similaires pour les groupes d'élèves ciblés et non ciblés. Dans la figure 1,
nous notons une différence entre le coefficient de détermination (R2 = 0,195, p < ,001) des élèves qui
ne sont pas ciblés (n = 106) par rapport au coefficient de détermination (R2 = 0,015, p < ,571) de ceux
qui sont ciblés (n = 24). Nous notons que 19 des 24 élèves ciblés atteignent ou dépassent la norme
provinciale. Les cinq élèves dont les résultats aux tests de l’OQRE ne satisfont pas à la norme
atteignent néanmoins le niveau 2+. Ceci suggère que le personnel de l'école, grâce à leurs interventions
pédagogiques prodiguées aux élèves ciblés, peut possiblement avoir un effet modérateur sur les
prévisions et peut potentiellement aider les élèves ciblés à atteindre des résultats plus élevés que ceux
anticipés. Nous constatons un phénomène similaire avec tous les résultats aux tests de l'OQRE
analysés.
Figure 1 : Différence de scores obtenus par les élèves ciblés et ceux non ciblés
L'approche prédictive permet également d’estimer la probabilité moyenne des élèves d'atteindre la
norme provinciale lors des tests de lecture en 6e année de l'OQRE. Dans le tableau 1, nous notons que
la probabilité moyenne d'obtenir ou de dépasser la norme provinciale chez les élèves ciblés est de
69,1 % par rapport à une probabilité de 86,9 % pour le groupe non ciblé. Après les interventions
pédagogiques des écoles, le score moyen brut des élèves ciblés est de 3,2, ce qui est près de la note
moyenne de 3,6 obtenue par les élèves non ciblés. La différence entre ces deux scores bruts n'est pas
significative (χ2 (1, 130) = 1,68, p < ,20), ce qui suggère que les élèves ciblés qui ont reçu un appui
additionnel réussissent mieux qu’anticipé.
Tableau 1
Test de l’OQRE en lecture en 6e année a
Groupe non ciblé
Groupe ciblé par l'école
Probabilité moyenne
Nombre d'atteinte de la norme
d'élèves (niveau 3)
Score brut moyen
obtenu au test de
l'OQRE
110
86,8 %
3,6
20
69,1 %
3,2
a - 90,4 % de précision chez les filles et 85,2 % chez les garçons
Dans ce cas, le conseil scolaire utilise les données de l'approche prédictive afin de cibler
spécifiquement les élèves avec une faible probabilité d'atteindre les normes provinciales. Les
interventions ciblées semblent avoir un impact positif sur le rendement des élèves ciblés. Dans ce
conseil scolaire, le personnel scolaire (enseignants, directions, superviseurs) est réceptif à la démarche
et intègre des données supplémentaires dans sa prise de décisions. L'engagement du personnel d’un
conseil scolaire, de l'équipe de gestion et du personnel enseignant et de direction semble être une
condition sine qua non pour une mise en œuvre efficace de l'approche.
5.
Conclusion Cette approche est en lien avec le cadre d’efficacité des écoles de la maternelle à la 12e année
recommandé par le ministère de l'Éducation de l'Ontario. Elle permet à chaque école, et par extension,
à chaque conseil scolaire, de procéder à une auto-évaluation dans un contexte de régulation des
pratiques tout en prévoyant des ajustements. Cette approche et sa mise en œuvre s’améliorent au fil des
ans. L'engagement du personnel dans cette démarche progresse. Bien qu’il ne soit pas possible
d'attribuer l’amélioration d’une école à un seul facteur comme l'approche proposée, nous notons que
les résultats annuels aux tests de l’OQRE augmentent avec constance au cours des quatre dernières
années. Comme expliqué précédemment, l'utilisation du cycle PFVA de Shewhart et Deming permet
l’amélioration continue de la recherche et de la mise en œuvre de l'approche.
L'importance de cette recherche provient du fait qu’elle démontre l'applicabilité de la modélisation
prédictive du rendement futur des élèves sur le terrain et la volonté du personnel enseignant et des
superviseurs à utiliser ce type d'approche au niveau des écoles et du conseil lors de la planification de
l’amélioration du rendement des élèves.
6.
Références
Allen, J., Robbins, S. B., & Sawyer, R. L. (2010). Can measuring psychosocial factors promote college
success ? Applied Measurement in Education, 23(1), 1-22.
Amodeo, A., Marcus, L. A., Thornton, A. E., & Pashley, P. J. (2009). Predictive validity of accommodated LSAT
scores for the 2002-2006 entering law school classes. Newtown, PA : Law School Admission Council.
Anderson, J. O., Rogers, W. T., Klinger, D. A., Ungerleider, C., Glickman, V., & Anderson, B. (2006). Student
and school correlates of mathematics achievement : Models of school performance based on pan-canadian
student assessment. Canadian Journal of Education, 29(3), 706-730.
Bacon, D. R., & Bean, B. (2006). GPA in research studies : An invaluable but neglected opportunity. Journal of
Marketing Education, 28(1), 35-42.
Bassiri, D., & Schulz, E. M. (2003). Constructing a universal scale of high school course difficulty. ACT research
report series. No. ACT-RR-2003-04. Iowa City ACT.
Beecher, M., & Fischer, L. (1999). High school courses and scores as predictors of college success. Journal of
College Admission, (163), 4-9.
Bender, D. S., & Garner, J. K. (2010). Using the LASSI to predict first year college achievement : Is a genderspecific approach necessary ? AERA conference, Denver : Colorado.
Binet, A., & Simon, T. (1904). Méthodes nouvelles pour le diagnostic du niveau intellectuel des anormaux.
L'Année Psychologique, 11(1), 191-244.
Boujut, É., & Bruchon-Schweitzer, M. (2007). Rôle de certains facteurs psychosociaux dans la réussite
universitaire d'étudiants de première année. L'orientation scolaire et professionnelle, 32(2), 1-19.
Boulé, S. (2011). Anticipation du rendement des élèves. Monographie no 1 hors série. Ottawa : CFORP.
Boulé, S. (À paraître en 2012). Approche prédictive visant l’amélioration du rendement des élèves : Manuel
technique et statistique. Ottawa : CLÉ.
Campbell, K. C., & Fuqua, D. R. (2008). Factors predictive of student completion in a collegiate honors program.
Journal of College Student Retention : Research, Theory & Practice, 10(2), 129-153.
Caro, D. H., McDonald, J. T., & Willms, D. (2009). Socio-economic status and academic achievement trajectories
from childhood to adolescence. Canadian Journal of Education, 32(3).
Chardonnet, A. & Thibaudon, D. (2003). Le guide du PDCA de Deming : Progrès continu et management. Paris :
Éditions d’Organisation.
Cizek, G. J. (2009). Reliability and validity of information about student achievement : Comparing large-scale and
classroom testing contexts. Theory into Practice, 48(1), 63-71.
Cohn, E., Cohn, S., Balch, D. C., & Bradley, J., Jr. (2004). Determinants of undergraduate GPAs : SAT scores,
high-school GPA and high-school rank. Economics of Education Review, 23(6), 577-586.
Dufour, R., Dufour, R. & Eaker, D. (2008). Revisiting Professional Learning Communities at Work : New Insights
for Improving Schools. Bloomington : Solution-tree.
Earl, L. M., & Katz, S. (2008). Leading schools in a data-rich world. California : Thousand Oaks.
Education Commission of the States. (2000). Informing practices and improving results with data-driven
decisions. ECS Issue Paper, 25.
Feeley, T. H, Williams, V. M., & Wise, T. J. (2005). Testing the Predictive Validity of the GRE Exam on
Communication Graduate Student Success : A Case Study at University at Buffalo. Communication
Quarterly, 53(2), 229-245.
Geiser, S., & Santelices, M. V. (2007). Validity of high-school grades in predicting student success beyond the
freshman year : High-school record vs. standardized assessments as indicators of four-year college outcomes.
Berkeley : Center for Studies in Higher Education.
Gulliksen, H. (1950). Theory of mental assessments. New York : Wiley.
Hattie, J. (2009). Visible learning :A synthesis of over 800 meta-analyses relating to achievement. Routledge :
London, New York.
Kerr, K. A., Marsh, J. A., Ikemoto, G. S., Darilek, H. & Barney, H. (2006). Strategies to promote data use for
instructional improvement : Actions, outcomes, and lessons from three urban districts. American Journal of
Education, 112, 496-520.
Klapp Lekholm, A., & Cliffordson, C. (2009). Effects of student characteristics on grades in compulsory school.
Educational Research & Evaluation, 15(1), 1-23.
Koys, D. (2010). GMAT versus alternatives : Predictive validity evidence from Central Europe and the Middle
East. Journal of Education for Business, 85(3), 180-185.
Noble, J. (2000). Effects of differential prediction in college admissions for traditional and nontraditional-aged
students. Iowa : ACT.
Noble, J. (2003). The effects of using ACT composite score and high school average on college admission
decisions for Racial/Ethical groups. ACT research report series. No. ACT-RR-2003-1).ACT.
Rogers, W. T., Ma, X., Klinger, D. A., Dawber, T., Hellsten, L., Nowicki, D., & Tomkowicz, J. (2006).
Examination of the influence of selected factors on performance on Alberta learning achievement
assessments. Canadian Journal of Education, 29(3), 731-756.
Ross, J. A. & Gray, P. (2008). Alignment of scores on large scale assessments and report card grades. Alberta
Journal of Educational Research, 54(3), 327-341.
Spearman, C. (1904). "General intelligence," objectively determined and measured. The American Journal of
Psychology, 15(2), 201-292.
Terman, L. M., & Childs, H. G. (1912). A tentative revision and extension of the Binet-Simon measuring scale of
intelligence. Journal of Educational Psychology, 3(2), 61-74.
van Barneveld, C. (2008). Using data to improve student achievement. Monographie What Works ? Research into
Practice, 15.
von Mayrhauser, R. T. (1992). The mental testing community and validity : A prehistory. American Psychologist,
47(2), 244-253.
Wainer, H. (2000). Computerized adaptive testing : A primer (2nd Ed.). N.J. : Lawrence Erlbaum Associates.
Willingham, W. W., Pollack, J. M., & Lewis, C. (2002). Grades and assessment scores : Accounting for observed
differences. Journal of Educational Measurement, 39(1), 1-37.
Yerkes, R. M. (1919). Report of the psychology committee of the national research council. Psychological
Review, 26(2), 83-149.
Ziomek, R. L. & Andrews, K. M. (1996). Predicting the college grade point averages of special- tested students
from their ACT assessment scores and high school grades. Iowa : American College Testing Program.
Zwick, R., & Greif Green, J. (2007). New perspectives on the correlation of SAT scores, high school grades, and
socioeconomic factors. Journal of Educational Measurement, 44(1), 23-45.
Zwick, R., & Sklar, J. C. (2005). Predicting college grades and degree completion using high school grades and
SAT scores : The role of student ethnicity and first language. American Educational Research Journal, 42(3),
439-464.