Téléchargez le livre blanc maintenant

Transcription

Téléchargez le livre blanc maintenant
Utiliser les systèmes
d'évaluation de réponses pour
améliorer les résultats scolaires
Karen L. Mahon, Ed.D.
Utiliser les systèmes d'évaluation de réponses
pour améliorer les résultats scolaires
Pour moi, ce fut une véritable révélation… Pour la première fois en
plus de 20 ans d’enseignement de la lecture, j'ai pu me rendre compte
immédiatement que plus de la moitié des élèves n'avait pas compris.
Comme j’avais déjà expliqué le phénomène le mieux possible, j'ai
simplement demandé aux élèves de discuter brièvement avec leurs
voisins pour trouver la bonne réponse. Le cours s'est transformé en
débat animé. Au bout de quelques minutes, j'ai procédé à un nouveau
vote et 90% des élèves ont donné la bonne réponse (Wood, 2004).
Dans cette présente étude, les systèmes d’évaluation de réponses (SRS, Student response
systems) contribuent à ce que l'on appelle communément « l'apprentissage interactif ». Les
SRS reposent sur des technologies permettant à un enseignant de poser une question ou un
problème à la classe, et de proposer ensuite aux élèves de saisir leurs réponses dans un dispositif
afin de recueillir instantanément un récapitulatif de l’ensemble de ces réponses (Beatty, 2004 ;
Burnstein & Lederman, 2003 ; English, 2003). Ces systèmes ont toujours fait, d'une manière ou
d'une autre, partie de l'enseignement. Comme le remarque Caldwell (2007), l'idée sur laquelle
reposent les SRS n'est pas nouvelle : les professeurs utilisent en effet des questions interactives et
instructives pour enseigner depuis au moins le temps de Socrate (p.11) et le simple fait de lever
la main constitue en soi un SRS.
Les éducateurs ont identifié que les méthodes permettant à l'ensemble des élèves de sélectionner
simultanément une réponse amélioraient l'opportunité de participation de chacun. Les
premières méthodes en date étaient à peine plus élaborées que le simple fait de lever la main.
L'une des approches les plus populaires consistait à utiliser des papiers de construction colorés,
notamment pour les questions à choix multiples : les élèves montraient le papier dont la couleur
correspondait à leur choix et le professeur pouvait facilement se rendre compte de l'ensemble
des réponses.
Les dispositifs technologiques permettant de donner des réponses individuelles, utilisés depuis
les années 1960, visaient à l'origine à enregistrer les réponses du public durant la diffusion de
programmes et de films télévisés pilotes Cette technologie fut appliquée pour la première fois
dans l'enseignement à l'université Rice (Lane & Atlas, 1996), où les élèves équipés d'ordinateurs
répondaient à des questions destinées à déterminer leur niveau de compréhension de certaines
parties du cours. Les résultats étaient alors recoupés et présentés à la classe.
La technologie a évolué depuis, passant ainsi des dispositifs filaires aux dispositifs portables
et sans fils fonctionnant avec des logiciels et facilitant l'intégration du processus pour les
utilisateurs. Avec l'arrivée de systèmes plus simples, l'utilisation de ces outils s'est démocratisée
à tout un éventail de domaines de l'enseignement (sciences, mathématiques, commerce,
communication, informatique, enseignement, ingénierie, langues, professions de la santé, droit,
sciences politiques, psychologie, etc.). La majorité des cas d'utilisation dans l'enseignement se
cantonne pourtant à mettre en œuvre d'anciennes approches et cette technologie n'est toutefois
pas la panacée que l'on croit (Mazur, 2009).
Nous proposons ici de passer en revue l'historique de ces dispositifs, ainsi que certaines mises
en œuvre réussies qui améliorent les résultats d'apprentissage des élèves.
2
mimio.dymo.com
Statuts et recherches en cours
Au milieu de l'année 2011, environ 30% des départements scolaires aux Etats-Unis avaient
largement mis en œuvre les SRS. Les élèves et professeurs qui les utilisent sont sensibles à
l'aspect ludique et les préfèrent aux cours traditionnels non interactifs (Cutts, et al. , 2004 ;
Draper et al., 2002 ; d’Inverno et al., 2003 ; McDermott & Redish, 1999 ; Nicol & Boyle, 2003)
et il est démontré d'autre part que leur utilisation améliore le résultat des élèves (Caldwell,
2006 ; Draper & Brown, 2004 ; Knight & Wood, 2005). En outre, les chercheurs considèrent
que l'utilisation quotidienne d'un SRS contribue à améliorer l'assiduité des élèves, notamment
lorsque la participation à des cours interactifs est liée à la motivation des notes (Burnstein &
Lederman, 2001 ; Cue, 1998 ; Hake, 1998).
Il est à noter, comme le rappellent Beatty et Gerace (2009), qu'il ne faut
pas confondre technologie et pédagogie dans le cadre de l'utilisation des
SRS : à l'image de n'importe quel outil, les SRS peuvent être utilisés de
différentes manières et à des fins diverses. (p.147), mais leur utilisation
ne garantit pas des résultats positifs chez les élèves. Beatty et Gerace
font en outre remarquer les éléments suivants :
Nous pensons que les outils doivent être évalués en fonction de leur ergonomie, alors que
les approches et méthodologies doivent l'être en fonction de leurs impacts sur les élèves. En
d'autres termes, le problème n’est pas de s’interroger sur le bénéfice apporté par les SRS pour
améliorer la formation, mais plutôt de définir quelles sont les approches pédagogiques qu’ils
peuvent accompagner, favoriser ou amplifier et quels sont leurs impacts sur l'apprentissage de
ces diverses approches. (p.147).
Dans les exemples pour lesquels l'utilisation d'un SRS dans l'enseignement s'est montrée le plus
efficace, les instructeurs semblent suivre le conseil de Beatty (2004) :
Les SRS peuvent être utilisés pour l'insertion occasionnelle de questions
dans un cours traditionnel, pour vérifier si les élèves ont bien compris,
ou encore pour maintenir leur niveau d'attention. Ces utilisations limitent
toutefois le potentiel du système. Pour tirer le meilleur parti d'un SRS,
l'enseignant doit en effet repenser totalement son modèle pédagogique,
redéfinir le rôle du cours et considérer le SRS comme une partie intégrale
d'un tout organique (p. 3-4).
Nous tenterons ici de fournir quelques directives concernant les pratiques pédagogiques
identifiées comme étant efficaces.
mimio.dymo.com
3
Enseignement par les pairs
La méthode d'enseignement par les pairs d'Eric Mazur (Mazur, 1997) implique l'insertion
régulière de questions à choix multiples dans ce qu'il nomme les "moments stratégiques" des
cours de physique. Les élèves doivent choisir une réponse à main levée, à l'aide de cartesréponses ou par le biais d'un SRS. Si un certain nombre donne une réponse incorrecte, le cours
est interrompu, la question et son sujet sont débattus, puis les élèves doivent y répondre de
nouveau. D'après Mazur (1996), la proportion d'élèves choisissant la bonne réponse augmente
toujours après la discussion (p. 14). Mazur (2009) ajoute que les données obtenues dans son
cours et dans les cours de ses collègues, à l'échelle internationale et pour un large éventail de
configurations académiques et de disciplines, montrent que les gains en termes d'apprentissage
triplent quasiment avec une approche centrée sur l'élève et sur l'apprentissage interactif (p.51).
L'affirmation, selon laquelle cette augmentation de l'interaction des élèves et du feedback qui leur
est renvoyé améliore leur compréhension (Crouch & Mazur, 2001 ; Fagen et al., 2002 ; Mazur,
1997), s'appuie sur de nombreux témoignages issus de cours scientifiques de premiers cycles
couvrant divers domaines (notamment Hestenes et al. 1992 ; Smith, Wood, et al. 2009). Plus
précisémment, cette affirmation ne prétend pas que l'utilisation des SRS elle-même améliore les
résultats des élèves, mais que, selon certains, leur mise à disposition encourage l'enseignement
par les pairs (Burnstein & Lederman, 2001 ; Burnstein & Lederman, 2003).
Evaluer pour apprendre (Assessing-to-Learn, A2L)
L'University of Massachusetts Physics Education Research Group (UMPERG) a de son côté
développé une approche similaire d'utilisation des SRS en classe dès 1993. Cette méthode,
nommée Assessing-to-Learn ("Evaluer pour apprendre") ou A2L, incluait explicitement une
évaluation formative. Dufresne et al. (2000) soutient que cette pratique informe les professeurs
de l’avis de leurs élèves ; les élèves de l’avis de leurs camarades ; les individus de leur propre avis
(p.11). A l'instar de l'enseignement par les pairs de Mazur, la méthode A2L de Dufresne établit
des cycles de questions que les élèves lisent, puis les abordent en petits groupes, saisissent des
réponses et consultent les résultats. Contrairement à l'enseignement par les pairs de Mazur, qui
inclut une présentation des informations par l'instructeur entrecoupée de questions, le cycle
de questions de la méthode A2L constitue le cœur de l'activité de la classe et le professeur
n'intervient qu'en cas de besoin.
Pratique délibérée
L'étude récente la plus intéressante examinant l'utilisation des SRS a sans doute été conduite en
2011 à l'Université de la Colombie-Britannique (Deslauriers et al., 2011). Deux groupes d'élèves
ont été comparés. Les semaines 1-11 du cours ont constitué la condition de base : les deux
groupes (de contrôle et expérimental) ont reçu des cours dispensés par un membre expérimenté
de la faculté. Des questions via SRS ont été utilisées en guise d'évaluation sommative et un
crédit de participation a été attribué pour les réponses apportées. Durant la semaine 12, le
groupe de contrôle a continué à suivre la méthode de base tandis que le groupe expérimental
a suivi une intervention différente. Durant cette dernière, le groupe expérimental a reçu un
4
mimio.dymo.com
enseignement par un élève postdoctoral utilisant des méthodes pédagogiques basées sur la
recherche en apprentissage. Ces méthodes, désignées comme "pratiques délibérées" demandent
aux élèves de mettre en pratique un raisonnement et une résolution des problèmes comme le
ferait un physicien, pendant un cours durant lequel un feedback fréquent leur est fourni (p.862).
Les élèves ont effectué des lectures préalables à l'extérieur du cours, déplaçant ainsi le "simple
transfert de connaissances factuelles" hors du cours. Le temps du cours était consacré à travailler
sur des activités et tâches donnant lieu à un feedback apporté par les pairs et l'instructeur. Les
questions via SRS ont été utilisées dans des évaluations formatives en cours, suivies par une
discussion et la résolution des problèmes.
Les résultats de la semaine d'expérience n'ont montré aucune modification dans la mobilisation
ou la participation du groupe de contrôle. Dans le groupe expérimental toutefois, la mobilisation
des élèves a quasiment doublé et la participation a augmenté de 20%. Notons que l'assimilation
est deux fois plus élevée dans le groupe expérimental (par rapport au groupe de contrôle), avec
une ampleur de l'effet de la différence entre les deux groupes correspondant à un écart-type de
2,5. Il est à noter que bien que les deux groupes aient utilisé des SRS, leurs méthodes de mise en
œuvre étaient très différentes.
Perez et al. fournissent toutefois des recommandations importantes quant à l'utilisation de ces
méthodes. (2010) : il convient d'être prudent lorsqu'il s'agit de montrer les graphes des résultats
des votes à la classe. Dans le scénario courant consistant à poser une question aux élèves, à
afficher les réponses, à entamer une discussion avec la classe, puis à reposer la question, Perez
et al. soutient que si les élèves ont vu le graphique en barres (présentant les résultats du premier
vote), ils sont 30% à passer d'une réponse moins fréquente à la réponse majoritairement
donnée. Cet effet est plus prononcé dans les questions Vrai/Faux (38%) que dans les questions à
choix multiple (28%). Le passage à la réponse majoritairement donnée se produit même si cette
dernière était incorrecte. Ces résultats suggèrent que le fait de voir la réponse majoritairement
donnée à une question biaise le deuxième vote des élèves.
En quoi l'utilisation des SRS améliore-t-elle
le résultat des élèves ?
La question majeure concernant l'utilisation des SRS n'est pas de savoir si elle tend à améliorer le
résultat des élèves, mais pourquoi il en est ainsi. Bien que les recherches actuellement disponibles
sur les SRS soient peu concluantes, il existe deux facteurs probables longtemps reconnus comme
étant fondamentaux dans la littérature de l'apprentissage : accroître les opportunités de réponse
des élèves et donner un plus grand rôle au feedback dans l'enseignement.
Accroître les opportunités de réponse des élèves
Barnett (2006) fait remarquer que les SRS sont un outil favorisant l'interactivité (p.2). Plusieurs
stratégies augmentant la fréquence de réponses actives des élèves ont démontré une amélioration
des performances scolaires (Narayan et al., 1990). Ces dernières incluent l'enseignement par les
pairs en classe (Cooke et al., 1983 ; Delquadri et al., 1986), l'enseignement assisté par ordinateur
(Balajthy, 1984 ; Stallard, 1982 ; Tudor & Bostow, 1991), l'apprentissage autonome (Kosiewicz
mimio.dymo.com
5
et al, 1982), l'utilisation de cartes réponses (Cooke et al., 1983 ; Heward et al., 1996 ; Munro
& Stephenson, 2009), les réponses collectives (Heward et al., 1989 ; Sindelar et al., 1986), les
épreuves chronométrées (Van Houten et al., 1974 ; Van Houten & Thompson, 1976), ainsi que
des notes de cours guidées (Kline, 1986 ; Lovitt et al., 1985 ; Yang, 1988). Dans tous les cas, la
stratégie est la même : améliorer la réponse active des élèves. Seule la méthode utilisée pour
améliorer la réponse varie.
Donner un plus grand rôle au feedback dans l'enseignement
La représentation des données générée par la réponse active des élèves offrent une opportunité
de feedback pour les élèves comme pour les enseignants. La modification du comportement
par le feedback est un fait accepté et communément admis dans l'enseignement depuis des
années. La littérature dans la recherche sur l'enseignement faisant état du rôle important du
feedback dans la modification du comportement, date de quelques 40 années et concerne un
grand nombre de domaines, tels que la consommation énergétique (Bekker et al., 2010 ; Seaver
& Patterson, 1976), les mesures de lutte contre l'infection (Babcock et al., 1992), la formation
au pilotage (Rantz et al., 2009 ; Rantz & Van Houten, 2011), les compétences sportives (Boyer
et al., 2009 ; Brobst & Ward, 2002 ; Smith & Ward, 2006), le comportement des professeurs
(Cossairt et al., 1973 ; Harris et al., 1975), ainsi que les performances scolaires (Fink & Carnine,
1975 ; Martin et al., 2002 ; Reichow & Wolery, 2011 ; Trap et al., 1978 ; Van Houten et al., 1974).
Les données fournies par les réponses actives, plus nombreuses, permettent à l'enseignant de
mieux prendre conscience des difficultés des élèves (Johnson & McLeod, 2004 ; Roschelle et
al., 2004a, 2004b ; Knight & Wood, 2005) et lui offrent davantage d'occasions de modifier son
enseignement en fonction des besoins des apprenants.
Les avantages du high-tech sur le low-tech
Il est clair que rien dans l'utilisation d'un SRS automatisé n'est fondamentalement mieux ou plus
efficace que l'utilisation d'une méthode moins high-tech (exemple Lasry, 2008), tout comme il
est clair que de nombreuses méthodes permettent d'accroître la réponse active des élèves et les
opportunités de feedback associées. En fait, Judson et Sawada (2002) font remarquer que les
dispositifs modernes ont peu changé par rapport aux approches moins high-tech, à l'exception
de l'affichage des réponses des élèves et de la facilité d'enregistrement des résultats. Et d'ajouter
qu'auparavant comme aujourd'hui, les questions à choix multiples demeurent le format le plus
commun d'interaction avec les élèves.
Ainsi, si les solutions high-tech ne sont pas plus efficaces que les solutions low-tech, pourquoi
dépenser de l'argent pour acquérir ces nouveaux dispositifs ? Tout simplement parce qu'il existe
des avantages à utiliser des SRS high-tech qui n'existent pas dans les approches moins hightech. Nous allons ici en développer quatre.
Le principal avantage est que l'utilisation d'un SRS high-tech permet une collecte automatique
des données et la sauvegarde des réponses sur un carnet de notes incorporé au logiciel. Ces
données peuvent ainsi être examinées plus tard par les professeurs et permettent l'évaluation
des performances de chaque élève, le diagnostic des zones de difficultés de chaque apprenant,
ainsi que la planification de leur résolution. La collecte automatique des données est impossible
avec les solutions low-tech. En outre, l'enregistrement manuel des réponses à partir d'une
6
mimio.dymo.com
solution low-tech (comme les cartes réponses) est trop laborieuse et prend trop de temps pour
être bénéfique en classe. De plus, il n'existe pas de méthode simple d'évaluation des données
collectées manuellement.
Le deuxième avantage important de l'utilisation de SRS high-tech réside dans la facilité de mise
en œuvre de l'outil. Grâce à l'aspect pratique de la collecte des données, les professeurs peuvent
concevoir et lancer des activités offrant un grand nombre d'opportunités de réponse des élèves
dans la classe. La conception de telles activités peut prendre du temps et si leur utilisation ne
conduit qu'à une collecte et à une gestion difficile de données, l'attrait desdites activités sera
probablement faible.
Troisièmement, un SRS high-tech permet un feedback immédiat accessible à chaque apprenant.
Barnett (2006) fait remarquer que l'une des principales qualités attractives réside dans la mise à
disposition d'un feedback rapide pour les élèves. Contrairement aux approches moins high-tech,
dans lesquelles un ou plusieurs élèves peuvent recevoir un feedback de la part du professeur, un
SRS high-tech permet l'envoi d'un feedback immédiat à chacun des élèves par le dispositif luimême. Une méthodologie permettant la transmission d'un feedback automatique et individuel
facilite grandement la mise en œuvre pour les professeurs.
Enfin, Barnett suggère que la confidentialité d'un SRS high-tech permet à un élève d'ordinaire
timide ou réticent, d'améliorer la probabilité de sa participation. Une approche moins hightech nécessite que les apprenants interviennent publiquement dans la classe, comme le fait de
verbaliser une réponse ou de lever la main. L'utilisation d'un SRS high-tech permet à chaque
participant d'interagir avec son dispositif sans être directement observé par ses pairs. Le
professeur peut toutefois voir les réponses individuelles de chaque apprenant grâce aux données
enregistrées dans le carnet de notes, mais l'élève peut répondre sans être intimidé ni embarrassé
par un éventuel choix incorrect.
Conclusion
Les SRS (Student Response Systems, systèmes d'évaluation de réponses des élèves) sont un
moyen de motivation des élèves et une source d'évaluation formative continue permettant
de déterminer le niveau d'apprentissage des élèves. Les SRS, sont souples à utiliser et peuvent
être employés simultanément sur de larges groupes comme sur de petits groupes travaillant
de manière collaborative ou encore sur des élèves seuls. Lorsqu'ils sont utilisés dans le cadre
d'une pédagogie approfondie, les SRS fournissent des résultats immédiatement observables des
performances des élèves. Nous avons sélectionné les meilleures pratiques suivantes permettant
une utilisation efficace des SRS.
Ces recommandations se sont révélées utiles dans le cadre de
l'utilisation des SRS en classe :
1. Ne pas perdre de vue que l'utilisation première des SRS est l'évaluation formative.
Accroître les opportunités d'évaluation des performances des élèves permet un
ajustement en temps réel de l'apprentissage.
mimio.dymo.com
7
2. N'inclure que des questions pertinentes aux résultats d'apprentissage souhaités. Les
questions arbitraires ou non pertinentes doivent être écartées.
3. Intégrer les questions tout au long du cours, de sorte que la compréhension de l'élève
puisse être évaluée fréquemment et régulièrement. Le fait de laisser toutes les questions
pour la fin du cours ne permet pas de modifier l'enseignement en cours de route.
4. Tenter d'écrire les questions ciblant certaines compétences de façon hiérarchique décrite
par la taxonomie de Bloom (Pear et al, 2001). Les questions à choix multiples ne sont pas
restreintes aux compétences de moindre niveau, si elles sont rédigées correctement.
5. Lors de l'acquisition de nouvelles compétences, inclure suffisamment de questions avec
de nouveaux exemples, afin de garantir que les élèves aient assez d'opportunités de
pratique et de généralisation.
6. Ne pas révéler une réponse par des indices non pertinents, comme le modèle de réponses
ou la formulation de la question.
7. Si vous incluez des éléments dans lesquels l'élève doit identifier la réponse FAUSSE,
indiquez clairement, en capitale et en gras, qu'il s'agit d'identifier la mauvaise réponse,
afin d'être aussi clair que possible.
8. Assurez-vous que la réponse correcte est clairement la meilleure, mais utilisez des leurres
plausibles. Il ne s'agit pas de piéger l'apprenant, mais d'utiliser les questions permettant
d'évaluer l'enseignement qu'ils ont reçu.
9. Dans le cadre de la méthode Vote-Discussion-Nouveau vote utilisée en classe, ne montrez
pas les graphes de représentation des réponses après le premier vote, afin d'éviter de
biaiser les nouvelles réponses.
10. Contrôlez et analysez les données après la fin du cours. L'examen des modèles de ce qui
fonctionne et de ce qui ne fonctionne pas permet d'améliorer votre enseignement.
11. Pour une meilleure participation à vos cours, utilisez les SRS quotidiennement.
12. Acceptez d'éliminer ou de reclasser les questions qui ne sont pas claires.
Pour en savoir plus sur le système d'évaluation
MimioVote, connectez-vous à l'adresse
mimio.dymo.com/Products/MimioVote-Assessment-System
8
mimio.dymo.com
Dr. Karon Mahon :
Dr. Karen Mahon est spécialiste scientifique de l'apprentissage et psychologue scolaire. Elle
conseille les sociétés spécialisées dans les technologies de l'éducation en matière de pratiques
de conception didacticielle et de contenu numérisé. Œuvrant pour un enseignement engagé
produisant des résultats d'apprentissage significatifs et mesurables, elle consacre sa carrière à
aider les enfants et leurs professeurs. Dr. Mahon alimente un blog (www.KarenMahon.com) et
peut être suivie sur Twitter (@KarenLMahon).
Références
1. Babcock, R.A., Sulzer-Azaroff, B., Sanderson, M., & Scibak, J. (1992). Increasing nurses’ use
of feedback to promote infection-control practices in a head-injury treatment center. Journal of
Applied Behavior Analysis, 25(3), 621-627.
2. Balajthy, E. (1984). Using student-constructed questions to encourage active reading, Journal of
Reading, 27(5), 408–411.
3. Barnett, J. (2006). Implementation of personal response units in very large lecture classes:
Student perceptions. Australasian Journal of Educational Technology, 22(4), 474-494.
4. Beatty, I.D. (2004). Transforming student learning with classroom communication systems.
Educause Center for Applied Research, Research Bulletin, 3, 1-13.
5. Beatty, I.D. & Gerace, W.J. (2009). Technology-enhanced formative assessment: A researchbased pedagogy for teaching science with classroom response technology. Journal of Science
Education Technology, 18, 146-162.
6. Bekker, M.J., Cumming, T.D., Osborne, N.K.P., Bruining, A.M., McClean, J.I., & Leland, L.S. (2010).
Encouraging electricity savings in a university residential hall through a combination of feedback,
visual prompts, and incentives. Journal of Applied Behavior Analysis, 43(2), 327-331.
7. Boyer, E., Miltenberger, R.G., Batsche, C., & Fogel, V. (2009). Video modeling by experts with
video feedback to enhance gymnastics skills. Journal of Applied Behavior Analysis, 42(4), 855-860.
8. Brobst, B. & Ward, P. (2002). Effects of public posting, goal setting, and oral feedback on the
skills of female soccer players. Journal of Applied Behavior Analysis, 35(3), 247-257.
9. Burnstein, R.A. & Lederman, L.M. (2001). Using wireless keypads in lecture classes. The Physics
Teacher, 39, 8-11.
10. Burnstein, R.A. & Lederman, L.M. (2003). Comparison of different commercial wireless keypad
systems. The Physics Teacher, 41, 272-275.
11. Caldwell J., Zelkowski J., Butler M. (2006). Using Personal Response Systems in the
Classroom. WVU Technology Symposium; April 11, 2006; Morgantown, WV.
12. Caldwell, J.E. (2007). Clickers in the large classroom: Current research and best-practice tips.
Life Sciences Education, 6(1), 9-20.
mimio.dymo.com
9
13. Cooke, N. L., Heron, T. E., & Heward, W. L. (1983). Peer tutoring: Implementing classwide
programs in the primary grades. Columbus, OH: Special Press.
14. Cossairt, A., Hall, R.V., & Hopkins, B.L. (1973). The effects of experimenter’s instructions,
feedback, and praise on teacher praise and student attending behavior. Journal of Applied
Behavior Analysis, 6(1), 89-100.
15. Crouch, C.H. & Mazur, E. (2001). Peer instruction: ten years of experience and results. American
Journal of Physics, 69(9), 970.
16. Cue, N. (1998). A Universal Learning Tool for Classrooms? Proceedings of the “First Quality in
Teaching and Learning Conference,” December 10–12, 1998; Hong Kong SAR, China.
17. Cutts, Q., Kennedy, G., Mitchell, C., & Draper, S. (2004). Maximizing dialogue in lectures using
group response systems. Presented at 7th IASTED International Conference on Computer and
Advanced Technology in Education, August 16-18, 2004, Hawaii [accessed 30 January, 2012].
www.dcs.gla.ac.uk/~quintin/papers/cate2004.pdf
18. d’Inverno, R., Davis, H., & White, S. (2003). Using a personal response system for promoting
student interaction. Teaching Mathematics and Its Applications, 22(4), 163-169.
19. Delquardi, J., Greenwood, C. R., Whorton, D., Carta, J. J., & Hall, R. V. (1986). Classwide peer
tutoring. Exceptional Children, 52, 535-542.
20. Deslauriers, L., Schelew, E., & Wieman, C. (2011). Improved learning in a large-enrollment
physics class. Science, 332, 862-864.
21. Draper, S.W., Cargill, J., & Cutts, Q. (2002). Electronically enhanced classroom Interaction.
Australian Journal of Education Technology, 18(1), 13-23.
22. Draper, S.W., & Brown, M.I. (2004). Increasing interactivity in lectures using an electronic voting
system. Journal of Computer Assisted Learning, 20(2), 81-94.
23. Dufresne, R.J., Gerace, W.J., Mestre, J.P. & Leonard, W.J. (2000). ASK-IT/A2L: assessing
student knowledge with instructional technology (Tech. Rep. dufresne-2000ask). University of
Massachusetts Amherst Scientific Reasoning Research Institute.
24. English, D. (2003). Audiences talk back: Response systems fill your meeting media with instant
data. AV Video Multimedia Producer, 25(12), 22-24.
25. Fagen, A.P., Crouch, C.H. & Mazur, E. (2002). Peer instruction: results from a range of
classrooms. The Physics Teacher 40(4), 206-207.
26. Fink, W. T., & Carnine, D. W. (1975). Control of arithmetic errors using informational feedback
and graphing. Journal of Applied Behavior Analysis, 8, 461.
27. Hake R. R. (1998). Interactive-engagement versus traditional methods: a six-thousand student
survey of mechanics test data for introductory physics courses. American Journal of Physics,
66(1), 64–74.
10
mimio.dymo.com
28. Harris, V. W., Bushell, D., Jr., Sherman, J. A., & Kane, J. F. (1975). Instructions, feedback, praise,
bonus payments, and teacher behavior. Journal of Applied Behavior Analysis, 8, 462.
29. Hestenes, D., Wells, M., & Swackhamer, G. (1992). Force concept inventory. The Physics
Teacher, 30(3), 141-158.
30. Heward, W. L., Courson, F. H., & Narayan, J. S. (1989). Using choral responding to increase
active student response during group instruction. Teaching Exceptional Children, 21(3), 72-75.
31. Heward, W. L., Gardener, R., Cavanaugh, R. A., Courson, F. H., Grossi, T. A., & Barbetta, P. M.
(1996, Winter) Everyone participates in this class. Teaching Exceptional Children, 5-10.
32. Johnson, D., & McLeod, S. (2004). Get answers: Using student response systems to see
students’ thinking. Learning & Leading With Technology, 32(3), 2-8.
33. Judson, E. & Sawada, D. (2002). Learning from past and present: Electronic response systems
in college lecture halls. Journal of Computers in Mathematics and Science Teaching, 21(2),
167-182.
34. Kline, C. S. (1986). Effects of guided notes on academic achievement of learning disabled high
school students. Unpublished master’s thesis, The Ohio State University, Columbus.
35. Knight, J.K. & Wood, W.B. Teaching more by lecturing less. Cell Biology Education, 4, 298-310.
36. Kosiewicz, M.M., Hallahan, D.P., Lloyd, J., & Graves, A.W. (1982). Effects of self-instruction and
self-correction procedures on handwriting performance. Learning Disability Quarterly, 5, 72-75.
37. Lane, D., & Atlas, R. (1996). The networked classroom. Paper presented at the 1996 meeting of
Computers and Psychology, York, UK.
38. Lasry, N. (2008). Clickers or flashcards: Is there really a difference? The Physics Teacher, 46,
242-244.
39. Lovitt, T., Rudsit, J., Jenkins, J., Pious, C., & Benedetti, D. (1985). Two methods of adapting
science material for learning disabled and regular seventh graders. Learning
Disabilities Quarterly, 8, 275-285.
40. Martin, T. L., Pear, J. J., & Martin, G. L. (2002). Feedback and its effectiveness in a computeraided personalized system of instruction course. Journal of Applied Behavior Analysis, 35, 427430.
41. Mazur, E. (1996). Are science lectures a relic of the past? Physics World, 9, 13-14.
42. Mazur, E. (1997). Peer instruction: a user’s manual. Prentice Hall: Upper Saddle River.
43. Mazur, E. (2009). Farewell, lecture? Science, 323, 50-51.
mimio.dymo.com
11
44. McDermott, L.C., & Redish, E.F. (1999). Resource letter PER-1. Physics Education Research,
American Journal of Physics, 67(9), 755-767.
45. Munro, D.W. & Stephenson, J. (2009). The effects of response cards on student and teacher
behavior during vocabulary instruction. Journal of Applied Behavior Analysis, 42, 795-800.
46. Narayan, J.S., Heward, W.L., Gardner, R., & Courson, F.H. (1990). Using response cards to
increase student participation in an elementary classroom. Journal of Applied Behavior Analysis,
23(4), 483-490.
47. Nicol, D.J., & Boyle, J.T. (2003). Peer instruction versus class-wide discussion in large classes:
a comparison of two interaction methods in the wired classroom. Studies in Higher Education, 28
(4), 457-473.
48. Pear, J.J., Crone-Todd, D.E., Wirth, K., & Simister, H. (2001). Assessment of thinking levels in
students’ answers. Academic Exchange Quarterly, 5 (4), 94-98.
49. Perez, K.E., Strauss, E.A., Downey, N., Galbraith, A., Jeanne, R., & Cooper, S. (2010). Does
displaying the class results affect student discussion during peer instruction? CBE Life Sciences
Education, 9(2), 133-140.
50. Rantz W.G, Dickinson A.M, Sinclair G.A, Van Houten R. (2009). The effect of feedback on the
accuracy of checklist completion during instrument flight training. Journal of Applied Behavior
Analysis, 42, 497–509.
51. Rantz, W.G., & Van Houten, R. (2011). A feedback intervention to increase digital and paper
checklist performance in technically advanced aircraft simulation. Journal of Applied Behavior
Analysis, 44(1), 145-150.
52. Reichow, B. & Wolery, M. (2011). Comparison of progressive prompt delay with and without
instructive feedback. Journal of Applied Behavior Analysis, 44, 327-340.
53. Roschelle, J., Abrahamson, L. A., & Penuel, W. R. (2004a). Integrating classroom network
technology and learning theory to improve classroom science learning: A literature synthesis.
Paper presented at the Annual Meeting of the American Educational Research Association, San
Diego, CA.
54. Roschelle, J., Penuel, W. R., & Abrahamson, A. L. (2004b). Classroom response and
communication systems: Research review and theory. Paper presented at the Annual Meeting of
the American Educational Research Association, San Diego, CA.
55. Seaver, W.B., & Patterson, A.H. (1976). Decreasing fuel-oil consumption through feedback and
social commendation. Journal of Applied Behavior Analysis, 9(2), 147-152.
56. Sindelar, P. T., Bursuck, W. D., & Halle, J. W. (1986). The effects of two variations of teacher
questioning on student performance. Education and Treatment of Children, 9, 56-66.
12
mimio.dymo.com
©2012 DYMO, a Newell Rubbermaid company
57. Smith, M.K., Wood, W.B., Adams, W.K., Wieman, C., Knight, J.K., Guild, N., & Su, T.T. (2009).
Why peer discussion improves student performance on in-class concept questions. Science, 323,
122-124.
58. Smith, S. L., & Ward, P. (2006). Behavioral interventions to improve performance in collegiate
football. Journal of Applied Behavior Analysis, 39, 385–391.
59. Stallard, C. K. (1982). Computers and education for exceptional children: Emerging
applications. Exceptional Children, 49(2), 102-104.
60. Trap, J. J., Milner-Davis, P., Joseph, S., & Cooper, J. O. (1978). The effects of feedback and
consequences on transitional cursive letter formation. Journal of Applied Behavior Analysis, 11,
381-393.
61. Tudor, R.M. & Bostow, D.E. (1991). Computer-programmed instruction: The relation of required
interaction to practical application. Journal of Applied Behavior Analysis, 24(2), 361-368.
62. Van Houten, R., Morrison, E., Jarvis, R., & McDonald, M. (1974). The effects of explicit timing
and feedback on compositional response rate in elementary school children. Journal of Applied
Behavior Analysis, 7, 547-555.
63. Van Houten, R., & Thompson, C. (1976). The effects of explicit timing on math performance.
Journal of Applied Behavior Analysis, 9, 227-230.
64. Wood, W.B. (2004). Clickers: a teaching gimmick that works. Developmental Cell, 7(6), 796-798.
65. Yang, F. M. (1988). Effects of guided lecture notes on sixth graders’ scores on daily science
quizzes. Unpublished master’s thesis, The Ohio State University, Columbus.
mimio.dymo.com
13
mimio.dymo.com

Documents pareils