Téléchargez le livre blanc maintenant
Transcription
Téléchargez le livre blanc maintenant
Utiliser les systèmes d'évaluation de réponses pour améliorer les résultats scolaires Karen L. Mahon, Ed.D. Utiliser les systèmes d'évaluation de réponses pour améliorer les résultats scolaires Pour moi, ce fut une véritable révélation… Pour la première fois en plus de 20 ans d’enseignement de la lecture, j'ai pu me rendre compte immédiatement que plus de la moitié des élèves n'avait pas compris. Comme j’avais déjà expliqué le phénomène le mieux possible, j'ai simplement demandé aux élèves de discuter brièvement avec leurs voisins pour trouver la bonne réponse. Le cours s'est transformé en débat animé. Au bout de quelques minutes, j'ai procédé à un nouveau vote et 90% des élèves ont donné la bonne réponse (Wood, 2004). Dans cette présente étude, les systèmes d’évaluation de réponses (SRS, Student response systems) contribuent à ce que l'on appelle communément « l'apprentissage interactif ». Les SRS reposent sur des technologies permettant à un enseignant de poser une question ou un problème à la classe, et de proposer ensuite aux élèves de saisir leurs réponses dans un dispositif afin de recueillir instantanément un récapitulatif de l’ensemble de ces réponses (Beatty, 2004 ; Burnstein & Lederman, 2003 ; English, 2003). Ces systèmes ont toujours fait, d'une manière ou d'une autre, partie de l'enseignement. Comme le remarque Caldwell (2007), l'idée sur laquelle reposent les SRS n'est pas nouvelle : les professeurs utilisent en effet des questions interactives et instructives pour enseigner depuis au moins le temps de Socrate (p.11) et le simple fait de lever la main constitue en soi un SRS. Les éducateurs ont identifié que les méthodes permettant à l'ensemble des élèves de sélectionner simultanément une réponse amélioraient l'opportunité de participation de chacun. Les premières méthodes en date étaient à peine plus élaborées que le simple fait de lever la main. L'une des approches les plus populaires consistait à utiliser des papiers de construction colorés, notamment pour les questions à choix multiples : les élèves montraient le papier dont la couleur correspondait à leur choix et le professeur pouvait facilement se rendre compte de l'ensemble des réponses. Les dispositifs technologiques permettant de donner des réponses individuelles, utilisés depuis les années 1960, visaient à l'origine à enregistrer les réponses du public durant la diffusion de programmes et de films télévisés pilotes Cette technologie fut appliquée pour la première fois dans l'enseignement à l'université Rice (Lane & Atlas, 1996), où les élèves équipés d'ordinateurs répondaient à des questions destinées à déterminer leur niveau de compréhension de certaines parties du cours. Les résultats étaient alors recoupés et présentés à la classe. La technologie a évolué depuis, passant ainsi des dispositifs filaires aux dispositifs portables et sans fils fonctionnant avec des logiciels et facilitant l'intégration du processus pour les utilisateurs. Avec l'arrivée de systèmes plus simples, l'utilisation de ces outils s'est démocratisée à tout un éventail de domaines de l'enseignement (sciences, mathématiques, commerce, communication, informatique, enseignement, ingénierie, langues, professions de la santé, droit, sciences politiques, psychologie, etc.). La majorité des cas d'utilisation dans l'enseignement se cantonne pourtant à mettre en œuvre d'anciennes approches et cette technologie n'est toutefois pas la panacée que l'on croit (Mazur, 2009). Nous proposons ici de passer en revue l'historique de ces dispositifs, ainsi que certaines mises en œuvre réussies qui améliorent les résultats d'apprentissage des élèves. 2 mimio.dymo.com Statuts et recherches en cours Au milieu de l'année 2011, environ 30% des départements scolaires aux Etats-Unis avaient largement mis en œuvre les SRS. Les élèves et professeurs qui les utilisent sont sensibles à l'aspect ludique et les préfèrent aux cours traditionnels non interactifs (Cutts, et al. , 2004 ; Draper et al., 2002 ; d’Inverno et al., 2003 ; McDermott & Redish, 1999 ; Nicol & Boyle, 2003) et il est démontré d'autre part que leur utilisation améliore le résultat des élèves (Caldwell, 2006 ; Draper & Brown, 2004 ; Knight & Wood, 2005). En outre, les chercheurs considèrent que l'utilisation quotidienne d'un SRS contribue à améliorer l'assiduité des élèves, notamment lorsque la participation à des cours interactifs est liée à la motivation des notes (Burnstein & Lederman, 2001 ; Cue, 1998 ; Hake, 1998). Il est à noter, comme le rappellent Beatty et Gerace (2009), qu'il ne faut pas confondre technologie et pédagogie dans le cadre de l'utilisation des SRS : à l'image de n'importe quel outil, les SRS peuvent être utilisés de différentes manières et à des fins diverses. (p.147), mais leur utilisation ne garantit pas des résultats positifs chez les élèves. Beatty et Gerace font en outre remarquer les éléments suivants : Nous pensons que les outils doivent être évalués en fonction de leur ergonomie, alors que les approches et méthodologies doivent l'être en fonction de leurs impacts sur les élèves. En d'autres termes, le problème n’est pas de s’interroger sur le bénéfice apporté par les SRS pour améliorer la formation, mais plutôt de définir quelles sont les approches pédagogiques qu’ils peuvent accompagner, favoriser ou amplifier et quels sont leurs impacts sur l'apprentissage de ces diverses approches. (p.147). Dans les exemples pour lesquels l'utilisation d'un SRS dans l'enseignement s'est montrée le plus efficace, les instructeurs semblent suivre le conseil de Beatty (2004) : Les SRS peuvent être utilisés pour l'insertion occasionnelle de questions dans un cours traditionnel, pour vérifier si les élèves ont bien compris, ou encore pour maintenir leur niveau d'attention. Ces utilisations limitent toutefois le potentiel du système. Pour tirer le meilleur parti d'un SRS, l'enseignant doit en effet repenser totalement son modèle pédagogique, redéfinir le rôle du cours et considérer le SRS comme une partie intégrale d'un tout organique (p. 3-4). Nous tenterons ici de fournir quelques directives concernant les pratiques pédagogiques identifiées comme étant efficaces. mimio.dymo.com 3 Enseignement par les pairs La méthode d'enseignement par les pairs d'Eric Mazur (Mazur, 1997) implique l'insertion régulière de questions à choix multiples dans ce qu'il nomme les "moments stratégiques" des cours de physique. Les élèves doivent choisir une réponse à main levée, à l'aide de cartesréponses ou par le biais d'un SRS. Si un certain nombre donne une réponse incorrecte, le cours est interrompu, la question et son sujet sont débattus, puis les élèves doivent y répondre de nouveau. D'après Mazur (1996), la proportion d'élèves choisissant la bonne réponse augmente toujours après la discussion (p. 14). Mazur (2009) ajoute que les données obtenues dans son cours et dans les cours de ses collègues, à l'échelle internationale et pour un large éventail de configurations académiques et de disciplines, montrent que les gains en termes d'apprentissage triplent quasiment avec une approche centrée sur l'élève et sur l'apprentissage interactif (p.51). L'affirmation, selon laquelle cette augmentation de l'interaction des élèves et du feedback qui leur est renvoyé améliore leur compréhension (Crouch & Mazur, 2001 ; Fagen et al., 2002 ; Mazur, 1997), s'appuie sur de nombreux témoignages issus de cours scientifiques de premiers cycles couvrant divers domaines (notamment Hestenes et al. 1992 ; Smith, Wood, et al. 2009). Plus précisémment, cette affirmation ne prétend pas que l'utilisation des SRS elle-même améliore les résultats des élèves, mais que, selon certains, leur mise à disposition encourage l'enseignement par les pairs (Burnstein & Lederman, 2001 ; Burnstein & Lederman, 2003). Evaluer pour apprendre (Assessing-to-Learn, A2L) L'University of Massachusetts Physics Education Research Group (UMPERG) a de son côté développé une approche similaire d'utilisation des SRS en classe dès 1993. Cette méthode, nommée Assessing-to-Learn ("Evaluer pour apprendre") ou A2L, incluait explicitement une évaluation formative. Dufresne et al. (2000) soutient que cette pratique informe les professeurs de l’avis de leurs élèves ; les élèves de l’avis de leurs camarades ; les individus de leur propre avis (p.11). A l'instar de l'enseignement par les pairs de Mazur, la méthode A2L de Dufresne établit des cycles de questions que les élèves lisent, puis les abordent en petits groupes, saisissent des réponses et consultent les résultats. Contrairement à l'enseignement par les pairs de Mazur, qui inclut une présentation des informations par l'instructeur entrecoupée de questions, le cycle de questions de la méthode A2L constitue le cœur de l'activité de la classe et le professeur n'intervient qu'en cas de besoin. Pratique délibérée L'étude récente la plus intéressante examinant l'utilisation des SRS a sans doute été conduite en 2011 à l'Université de la Colombie-Britannique (Deslauriers et al., 2011). Deux groupes d'élèves ont été comparés. Les semaines 1-11 du cours ont constitué la condition de base : les deux groupes (de contrôle et expérimental) ont reçu des cours dispensés par un membre expérimenté de la faculté. Des questions via SRS ont été utilisées en guise d'évaluation sommative et un crédit de participation a été attribué pour les réponses apportées. Durant la semaine 12, le groupe de contrôle a continué à suivre la méthode de base tandis que le groupe expérimental a suivi une intervention différente. Durant cette dernière, le groupe expérimental a reçu un 4 mimio.dymo.com enseignement par un élève postdoctoral utilisant des méthodes pédagogiques basées sur la recherche en apprentissage. Ces méthodes, désignées comme "pratiques délibérées" demandent aux élèves de mettre en pratique un raisonnement et une résolution des problèmes comme le ferait un physicien, pendant un cours durant lequel un feedback fréquent leur est fourni (p.862). Les élèves ont effectué des lectures préalables à l'extérieur du cours, déplaçant ainsi le "simple transfert de connaissances factuelles" hors du cours. Le temps du cours était consacré à travailler sur des activités et tâches donnant lieu à un feedback apporté par les pairs et l'instructeur. Les questions via SRS ont été utilisées dans des évaluations formatives en cours, suivies par une discussion et la résolution des problèmes. Les résultats de la semaine d'expérience n'ont montré aucune modification dans la mobilisation ou la participation du groupe de contrôle. Dans le groupe expérimental toutefois, la mobilisation des élèves a quasiment doublé et la participation a augmenté de 20%. Notons que l'assimilation est deux fois plus élevée dans le groupe expérimental (par rapport au groupe de contrôle), avec une ampleur de l'effet de la différence entre les deux groupes correspondant à un écart-type de 2,5. Il est à noter que bien que les deux groupes aient utilisé des SRS, leurs méthodes de mise en œuvre étaient très différentes. Perez et al. fournissent toutefois des recommandations importantes quant à l'utilisation de ces méthodes. (2010) : il convient d'être prudent lorsqu'il s'agit de montrer les graphes des résultats des votes à la classe. Dans le scénario courant consistant à poser une question aux élèves, à afficher les réponses, à entamer une discussion avec la classe, puis à reposer la question, Perez et al. soutient que si les élèves ont vu le graphique en barres (présentant les résultats du premier vote), ils sont 30% à passer d'une réponse moins fréquente à la réponse majoritairement donnée. Cet effet est plus prononcé dans les questions Vrai/Faux (38%) que dans les questions à choix multiple (28%). Le passage à la réponse majoritairement donnée se produit même si cette dernière était incorrecte. Ces résultats suggèrent que le fait de voir la réponse majoritairement donnée à une question biaise le deuxième vote des élèves. En quoi l'utilisation des SRS améliore-t-elle le résultat des élèves ? La question majeure concernant l'utilisation des SRS n'est pas de savoir si elle tend à améliorer le résultat des élèves, mais pourquoi il en est ainsi. Bien que les recherches actuellement disponibles sur les SRS soient peu concluantes, il existe deux facteurs probables longtemps reconnus comme étant fondamentaux dans la littérature de l'apprentissage : accroître les opportunités de réponse des élèves et donner un plus grand rôle au feedback dans l'enseignement. Accroître les opportunités de réponse des élèves Barnett (2006) fait remarquer que les SRS sont un outil favorisant l'interactivité (p.2). Plusieurs stratégies augmentant la fréquence de réponses actives des élèves ont démontré une amélioration des performances scolaires (Narayan et al., 1990). Ces dernières incluent l'enseignement par les pairs en classe (Cooke et al., 1983 ; Delquadri et al., 1986), l'enseignement assisté par ordinateur (Balajthy, 1984 ; Stallard, 1982 ; Tudor & Bostow, 1991), l'apprentissage autonome (Kosiewicz mimio.dymo.com 5 et al, 1982), l'utilisation de cartes réponses (Cooke et al., 1983 ; Heward et al., 1996 ; Munro & Stephenson, 2009), les réponses collectives (Heward et al., 1989 ; Sindelar et al., 1986), les épreuves chronométrées (Van Houten et al., 1974 ; Van Houten & Thompson, 1976), ainsi que des notes de cours guidées (Kline, 1986 ; Lovitt et al., 1985 ; Yang, 1988). Dans tous les cas, la stratégie est la même : améliorer la réponse active des élèves. Seule la méthode utilisée pour améliorer la réponse varie. Donner un plus grand rôle au feedback dans l'enseignement La représentation des données générée par la réponse active des élèves offrent une opportunité de feedback pour les élèves comme pour les enseignants. La modification du comportement par le feedback est un fait accepté et communément admis dans l'enseignement depuis des années. La littérature dans la recherche sur l'enseignement faisant état du rôle important du feedback dans la modification du comportement, date de quelques 40 années et concerne un grand nombre de domaines, tels que la consommation énergétique (Bekker et al., 2010 ; Seaver & Patterson, 1976), les mesures de lutte contre l'infection (Babcock et al., 1992), la formation au pilotage (Rantz et al., 2009 ; Rantz & Van Houten, 2011), les compétences sportives (Boyer et al., 2009 ; Brobst & Ward, 2002 ; Smith & Ward, 2006), le comportement des professeurs (Cossairt et al., 1973 ; Harris et al., 1975), ainsi que les performances scolaires (Fink & Carnine, 1975 ; Martin et al., 2002 ; Reichow & Wolery, 2011 ; Trap et al., 1978 ; Van Houten et al., 1974). Les données fournies par les réponses actives, plus nombreuses, permettent à l'enseignant de mieux prendre conscience des difficultés des élèves (Johnson & McLeod, 2004 ; Roschelle et al., 2004a, 2004b ; Knight & Wood, 2005) et lui offrent davantage d'occasions de modifier son enseignement en fonction des besoins des apprenants. Les avantages du high-tech sur le low-tech Il est clair que rien dans l'utilisation d'un SRS automatisé n'est fondamentalement mieux ou plus efficace que l'utilisation d'une méthode moins high-tech (exemple Lasry, 2008), tout comme il est clair que de nombreuses méthodes permettent d'accroître la réponse active des élèves et les opportunités de feedback associées. En fait, Judson et Sawada (2002) font remarquer que les dispositifs modernes ont peu changé par rapport aux approches moins high-tech, à l'exception de l'affichage des réponses des élèves et de la facilité d'enregistrement des résultats. Et d'ajouter qu'auparavant comme aujourd'hui, les questions à choix multiples demeurent le format le plus commun d'interaction avec les élèves. Ainsi, si les solutions high-tech ne sont pas plus efficaces que les solutions low-tech, pourquoi dépenser de l'argent pour acquérir ces nouveaux dispositifs ? Tout simplement parce qu'il existe des avantages à utiliser des SRS high-tech qui n'existent pas dans les approches moins hightech. Nous allons ici en développer quatre. Le principal avantage est que l'utilisation d'un SRS high-tech permet une collecte automatique des données et la sauvegarde des réponses sur un carnet de notes incorporé au logiciel. Ces données peuvent ainsi être examinées plus tard par les professeurs et permettent l'évaluation des performances de chaque élève, le diagnostic des zones de difficultés de chaque apprenant, ainsi que la planification de leur résolution. La collecte automatique des données est impossible avec les solutions low-tech. En outre, l'enregistrement manuel des réponses à partir d'une 6 mimio.dymo.com solution low-tech (comme les cartes réponses) est trop laborieuse et prend trop de temps pour être bénéfique en classe. De plus, il n'existe pas de méthode simple d'évaluation des données collectées manuellement. Le deuxième avantage important de l'utilisation de SRS high-tech réside dans la facilité de mise en œuvre de l'outil. Grâce à l'aspect pratique de la collecte des données, les professeurs peuvent concevoir et lancer des activités offrant un grand nombre d'opportunités de réponse des élèves dans la classe. La conception de telles activités peut prendre du temps et si leur utilisation ne conduit qu'à une collecte et à une gestion difficile de données, l'attrait desdites activités sera probablement faible. Troisièmement, un SRS high-tech permet un feedback immédiat accessible à chaque apprenant. Barnett (2006) fait remarquer que l'une des principales qualités attractives réside dans la mise à disposition d'un feedback rapide pour les élèves. Contrairement aux approches moins high-tech, dans lesquelles un ou plusieurs élèves peuvent recevoir un feedback de la part du professeur, un SRS high-tech permet l'envoi d'un feedback immédiat à chacun des élèves par le dispositif luimême. Une méthodologie permettant la transmission d'un feedback automatique et individuel facilite grandement la mise en œuvre pour les professeurs. Enfin, Barnett suggère que la confidentialité d'un SRS high-tech permet à un élève d'ordinaire timide ou réticent, d'améliorer la probabilité de sa participation. Une approche moins hightech nécessite que les apprenants interviennent publiquement dans la classe, comme le fait de verbaliser une réponse ou de lever la main. L'utilisation d'un SRS high-tech permet à chaque participant d'interagir avec son dispositif sans être directement observé par ses pairs. Le professeur peut toutefois voir les réponses individuelles de chaque apprenant grâce aux données enregistrées dans le carnet de notes, mais l'élève peut répondre sans être intimidé ni embarrassé par un éventuel choix incorrect. Conclusion Les SRS (Student Response Systems, systèmes d'évaluation de réponses des élèves) sont un moyen de motivation des élèves et une source d'évaluation formative continue permettant de déterminer le niveau d'apprentissage des élèves. Les SRS, sont souples à utiliser et peuvent être employés simultanément sur de larges groupes comme sur de petits groupes travaillant de manière collaborative ou encore sur des élèves seuls. Lorsqu'ils sont utilisés dans le cadre d'une pédagogie approfondie, les SRS fournissent des résultats immédiatement observables des performances des élèves. Nous avons sélectionné les meilleures pratiques suivantes permettant une utilisation efficace des SRS. Ces recommandations se sont révélées utiles dans le cadre de l'utilisation des SRS en classe : 1. Ne pas perdre de vue que l'utilisation première des SRS est l'évaluation formative. Accroître les opportunités d'évaluation des performances des élèves permet un ajustement en temps réel de l'apprentissage. mimio.dymo.com 7 2. N'inclure que des questions pertinentes aux résultats d'apprentissage souhaités. Les questions arbitraires ou non pertinentes doivent être écartées. 3. Intégrer les questions tout au long du cours, de sorte que la compréhension de l'élève puisse être évaluée fréquemment et régulièrement. Le fait de laisser toutes les questions pour la fin du cours ne permet pas de modifier l'enseignement en cours de route. 4. Tenter d'écrire les questions ciblant certaines compétences de façon hiérarchique décrite par la taxonomie de Bloom (Pear et al, 2001). Les questions à choix multiples ne sont pas restreintes aux compétences de moindre niveau, si elles sont rédigées correctement. 5. Lors de l'acquisition de nouvelles compétences, inclure suffisamment de questions avec de nouveaux exemples, afin de garantir que les élèves aient assez d'opportunités de pratique et de généralisation. 6. Ne pas révéler une réponse par des indices non pertinents, comme le modèle de réponses ou la formulation de la question. 7. Si vous incluez des éléments dans lesquels l'élève doit identifier la réponse FAUSSE, indiquez clairement, en capitale et en gras, qu'il s'agit d'identifier la mauvaise réponse, afin d'être aussi clair que possible. 8. Assurez-vous que la réponse correcte est clairement la meilleure, mais utilisez des leurres plausibles. Il ne s'agit pas de piéger l'apprenant, mais d'utiliser les questions permettant d'évaluer l'enseignement qu'ils ont reçu. 9. Dans le cadre de la méthode Vote-Discussion-Nouveau vote utilisée en classe, ne montrez pas les graphes de représentation des réponses après le premier vote, afin d'éviter de biaiser les nouvelles réponses. 10. Contrôlez et analysez les données après la fin du cours. L'examen des modèles de ce qui fonctionne et de ce qui ne fonctionne pas permet d'améliorer votre enseignement. 11. Pour une meilleure participation à vos cours, utilisez les SRS quotidiennement. 12. Acceptez d'éliminer ou de reclasser les questions qui ne sont pas claires. Pour en savoir plus sur le système d'évaluation MimioVote, connectez-vous à l'adresse mimio.dymo.com/Products/MimioVote-Assessment-System 8 mimio.dymo.com Dr. Karon Mahon : Dr. Karen Mahon est spécialiste scientifique de l'apprentissage et psychologue scolaire. Elle conseille les sociétés spécialisées dans les technologies de l'éducation en matière de pratiques de conception didacticielle et de contenu numérisé. Œuvrant pour un enseignement engagé produisant des résultats d'apprentissage significatifs et mesurables, elle consacre sa carrière à aider les enfants et leurs professeurs. Dr. Mahon alimente un blog (www.KarenMahon.com) et peut être suivie sur Twitter (@KarenLMahon). Références 1. Babcock, R.A., Sulzer-Azaroff, B., Sanderson, M., & Scibak, J. (1992). Increasing nurses’ use of feedback to promote infection-control practices in a head-injury treatment center. Journal of Applied Behavior Analysis, 25(3), 621-627. 2. Balajthy, E. (1984). Using student-constructed questions to encourage active reading, Journal of Reading, 27(5), 408–411. 3. Barnett, J. (2006). Implementation of personal response units in very large lecture classes: Student perceptions. Australasian Journal of Educational Technology, 22(4), 474-494. 4. Beatty, I.D. (2004). Transforming student learning with classroom communication systems. Educause Center for Applied Research, Research Bulletin, 3, 1-13. 5. Beatty, I.D. & Gerace, W.J. (2009). Technology-enhanced formative assessment: A researchbased pedagogy for teaching science with classroom response technology. Journal of Science Education Technology, 18, 146-162. 6. Bekker, M.J., Cumming, T.D., Osborne, N.K.P., Bruining, A.M., McClean, J.I., & Leland, L.S. (2010). Encouraging electricity savings in a university residential hall through a combination of feedback, visual prompts, and incentives. Journal of Applied Behavior Analysis, 43(2), 327-331. 7. Boyer, E., Miltenberger, R.G., Batsche, C., & Fogel, V. (2009). Video modeling by experts with video feedback to enhance gymnastics skills. Journal of Applied Behavior Analysis, 42(4), 855-860. 8. Brobst, B. & Ward, P. (2002). Effects of public posting, goal setting, and oral feedback on the skills of female soccer players. Journal of Applied Behavior Analysis, 35(3), 247-257. 9. Burnstein, R.A. & Lederman, L.M. (2001). Using wireless keypads in lecture classes. The Physics Teacher, 39, 8-11. 10. Burnstein, R.A. & Lederman, L.M. (2003). Comparison of different commercial wireless keypad systems. The Physics Teacher, 41, 272-275. 11. Caldwell J., Zelkowski J., Butler M. (2006). Using Personal Response Systems in the Classroom. WVU Technology Symposium; April 11, 2006; Morgantown, WV. 12. Caldwell, J.E. (2007). Clickers in the large classroom: Current research and best-practice tips. Life Sciences Education, 6(1), 9-20. mimio.dymo.com 9 13. Cooke, N. L., Heron, T. E., & Heward, W. L. (1983). Peer tutoring: Implementing classwide programs in the primary grades. Columbus, OH: Special Press. 14. Cossairt, A., Hall, R.V., & Hopkins, B.L. (1973). The effects of experimenter’s instructions, feedback, and praise on teacher praise and student attending behavior. Journal of Applied Behavior Analysis, 6(1), 89-100. 15. Crouch, C.H. & Mazur, E. (2001). Peer instruction: ten years of experience and results. American Journal of Physics, 69(9), 970. 16. Cue, N. (1998). A Universal Learning Tool for Classrooms? Proceedings of the “First Quality in Teaching and Learning Conference,” December 10–12, 1998; Hong Kong SAR, China. 17. Cutts, Q., Kennedy, G., Mitchell, C., & Draper, S. (2004). Maximizing dialogue in lectures using group response systems. Presented at 7th IASTED International Conference on Computer and Advanced Technology in Education, August 16-18, 2004, Hawaii [accessed 30 January, 2012]. www.dcs.gla.ac.uk/~quintin/papers/cate2004.pdf 18. d’Inverno, R., Davis, H., & White, S. (2003). Using a personal response system for promoting student interaction. Teaching Mathematics and Its Applications, 22(4), 163-169. 19. Delquardi, J., Greenwood, C. R., Whorton, D., Carta, J. J., & Hall, R. V. (1986). Classwide peer tutoring. Exceptional Children, 52, 535-542. 20. Deslauriers, L., Schelew, E., & Wieman, C. (2011). Improved learning in a large-enrollment physics class. Science, 332, 862-864. 21. Draper, S.W., Cargill, J., & Cutts, Q. (2002). Electronically enhanced classroom Interaction. Australian Journal of Education Technology, 18(1), 13-23. 22. Draper, S.W., & Brown, M.I. (2004). Increasing interactivity in lectures using an electronic voting system. Journal of Computer Assisted Learning, 20(2), 81-94. 23. Dufresne, R.J., Gerace, W.J., Mestre, J.P. & Leonard, W.J. (2000). ASK-IT/A2L: assessing student knowledge with instructional technology (Tech. Rep. dufresne-2000ask). University of Massachusetts Amherst Scientific Reasoning Research Institute. 24. English, D. (2003). Audiences talk back: Response systems fill your meeting media with instant data. AV Video Multimedia Producer, 25(12), 22-24. 25. Fagen, A.P., Crouch, C.H. & Mazur, E. (2002). Peer instruction: results from a range of classrooms. The Physics Teacher 40(4), 206-207. 26. Fink, W. T., & Carnine, D. W. (1975). Control of arithmetic errors using informational feedback and graphing. Journal of Applied Behavior Analysis, 8, 461. 27. Hake R. R. (1998). Interactive-engagement versus traditional methods: a six-thousand student survey of mechanics test data for introductory physics courses. American Journal of Physics, 66(1), 64–74. 10 mimio.dymo.com 28. Harris, V. W., Bushell, D., Jr., Sherman, J. A., & Kane, J. F. (1975). Instructions, feedback, praise, bonus payments, and teacher behavior. Journal of Applied Behavior Analysis, 8, 462. 29. Hestenes, D., Wells, M., & Swackhamer, G. (1992). Force concept inventory. The Physics Teacher, 30(3), 141-158. 30. Heward, W. L., Courson, F. H., & Narayan, J. S. (1989). Using choral responding to increase active student response during group instruction. Teaching Exceptional Children, 21(3), 72-75. 31. Heward, W. L., Gardener, R., Cavanaugh, R. A., Courson, F. H., Grossi, T. A., & Barbetta, P. M. (1996, Winter) Everyone participates in this class. Teaching Exceptional Children, 5-10. 32. Johnson, D., & McLeod, S. (2004). Get answers: Using student response systems to see students’ thinking. Learning & Leading With Technology, 32(3), 2-8. 33. Judson, E. & Sawada, D. (2002). Learning from past and present: Electronic response systems in college lecture halls. Journal of Computers in Mathematics and Science Teaching, 21(2), 167-182. 34. Kline, C. S. (1986). Effects of guided notes on academic achievement of learning disabled high school students. Unpublished master’s thesis, The Ohio State University, Columbus. 35. Knight, J.K. & Wood, W.B. Teaching more by lecturing less. Cell Biology Education, 4, 298-310. 36. Kosiewicz, M.M., Hallahan, D.P., Lloyd, J., & Graves, A.W. (1982). Effects of self-instruction and self-correction procedures on handwriting performance. Learning Disability Quarterly, 5, 72-75. 37. Lane, D., & Atlas, R. (1996). The networked classroom. Paper presented at the 1996 meeting of Computers and Psychology, York, UK. 38. Lasry, N. (2008). Clickers or flashcards: Is there really a difference? The Physics Teacher, 46, 242-244. 39. Lovitt, T., Rudsit, J., Jenkins, J., Pious, C., & Benedetti, D. (1985). Two methods of adapting science material for learning disabled and regular seventh graders. Learning Disabilities Quarterly, 8, 275-285. 40. Martin, T. L., Pear, J. J., & Martin, G. L. (2002). Feedback and its effectiveness in a computeraided personalized system of instruction course. Journal of Applied Behavior Analysis, 35, 427430. 41. Mazur, E. (1996). Are science lectures a relic of the past? Physics World, 9, 13-14. 42. Mazur, E. (1997). Peer instruction: a user’s manual. Prentice Hall: Upper Saddle River. 43. Mazur, E. (2009). Farewell, lecture? Science, 323, 50-51. mimio.dymo.com 11 44. McDermott, L.C., & Redish, E.F. (1999). Resource letter PER-1. Physics Education Research, American Journal of Physics, 67(9), 755-767. 45. Munro, D.W. & Stephenson, J. (2009). The effects of response cards on student and teacher behavior during vocabulary instruction. Journal of Applied Behavior Analysis, 42, 795-800. 46. Narayan, J.S., Heward, W.L., Gardner, R., & Courson, F.H. (1990). Using response cards to increase student participation in an elementary classroom. Journal of Applied Behavior Analysis, 23(4), 483-490. 47. Nicol, D.J., & Boyle, J.T. (2003). Peer instruction versus class-wide discussion in large classes: a comparison of two interaction methods in the wired classroom. Studies in Higher Education, 28 (4), 457-473. 48. Pear, J.J., Crone-Todd, D.E., Wirth, K., & Simister, H. (2001). Assessment of thinking levels in students’ answers. Academic Exchange Quarterly, 5 (4), 94-98. 49. Perez, K.E., Strauss, E.A., Downey, N., Galbraith, A., Jeanne, R., & Cooper, S. (2010). Does displaying the class results affect student discussion during peer instruction? CBE Life Sciences Education, 9(2), 133-140. 50. Rantz W.G, Dickinson A.M, Sinclair G.A, Van Houten R. (2009). The effect of feedback on the accuracy of checklist completion during instrument flight training. Journal of Applied Behavior Analysis, 42, 497–509. 51. Rantz, W.G., & Van Houten, R. (2011). A feedback intervention to increase digital and paper checklist performance in technically advanced aircraft simulation. Journal of Applied Behavior Analysis, 44(1), 145-150. 52. Reichow, B. & Wolery, M. (2011). Comparison of progressive prompt delay with and without instructive feedback. Journal of Applied Behavior Analysis, 44, 327-340. 53. Roschelle, J., Abrahamson, L. A., & Penuel, W. R. (2004a). Integrating classroom network technology and learning theory to improve classroom science learning: A literature synthesis. Paper presented at the Annual Meeting of the American Educational Research Association, San Diego, CA. 54. Roschelle, J., Penuel, W. R., & Abrahamson, A. L. (2004b). Classroom response and communication systems: Research review and theory. Paper presented at the Annual Meeting of the American Educational Research Association, San Diego, CA. 55. Seaver, W.B., & Patterson, A.H. (1976). Decreasing fuel-oil consumption through feedback and social commendation. Journal of Applied Behavior Analysis, 9(2), 147-152. 56. Sindelar, P. T., Bursuck, W. D., & Halle, J. W. (1986). The effects of two variations of teacher questioning on student performance. Education and Treatment of Children, 9, 56-66. 12 mimio.dymo.com ©2012 DYMO, a Newell Rubbermaid company 57. Smith, M.K., Wood, W.B., Adams, W.K., Wieman, C., Knight, J.K., Guild, N., & Su, T.T. (2009). Why peer discussion improves student performance on in-class concept questions. Science, 323, 122-124. 58. Smith, S. L., & Ward, P. (2006). Behavioral interventions to improve performance in collegiate football. Journal of Applied Behavior Analysis, 39, 385–391. 59. Stallard, C. K. (1982). Computers and education for exceptional children: Emerging applications. Exceptional Children, 49(2), 102-104. 60. Trap, J. J., Milner-Davis, P., Joseph, S., & Cooper, J. O. (1978). The effects of feedback and consequences on transitional cursive letter formation. Journal of Applied Behavior Analysis, 11, 381-393. 61. Tudor, R.M. & Bostow, D.E. (1991). Computer-programmed instruction: The relation of required interaction to practical application. Journal of Applied Behavior Analysis, 24(2), 361-368. 62. Van Houten, R., Morrison, E., Jarvis, R., & McDonald, M. (1974). The effects of explicit timing and feedback on compositional response rate in elementary school children. Journal of Applied Behavior Analysis, 7, 547-555. 63. Van Houten, R., & Thompson, C. (1976). The effects of explicit timing on math performance. Journal of Applied Behavior Analysis, 9, 227-230. 64. Wood, W.B. (2004). Clickers: a teaching gimmick that works. Developmental Cell, 7(6), 796-798. 65. Yang, F. M. (1988). Effects of guided lecture notes on sixth graders’ scores on daily science quizzes. Unpublished master’s thesis, The Ohio State University, Columbus. mimio.dymo.com 13 mimio.dymo.com