Evaluer des logiciels éducatifs hyper et multimédias.d
Transcription
Evaluer des logiciels éducatifs hyper et multimédias.d
DES-TEF 2001-2002 Evaluer des logiciels éducatifs Bernadette Charlier Cellule d’Ingénierie Pédagogique Département Education et Technologie FUNDP 1 Evaluer des logiciels éducatifs hyper et multimédias Cadre de référence1 1. Pourquoi un cadre de référence ? L’évaluation des logiciels éducatifs est un domaine vaste et complexe. Il existe de nombreuses approches méthodologiques et plusieurs acteurs sont impliqués. Un cadre de référence est nécessaire pour situer les principales approches méthodologiques. Ce cadre a été élaboré au cours d’une recherche commanditée en 1997 et 1998 par la DG. XXII des Communautés Européennes (programme SOCRATES) à laquelle la Cellule d’Ingénierie Pédagogique du Département Education et Technologie a particip é. Ø Quel critère de référence ? Il n’est pas possible de parler d’évaluation sans évoquer un critère de référence. Ainsi, dans cette étude, on considère qu’un des premiers buts d’un logiciel éducatif est d’améliorer l’apprentissage. Partant de cette intention, on peut considérer que toute méthode d’évaluation se fonde sur une théorie de l’apprentissage (explicite ou non). Il faut cependant souligner que bien que cette proposition apparaisse comme une lapalissade, beaucoup de méthodes d’évaluation apparaissent comme « a-théoriques ». Pour constituer le cadre de référence présenté de manière synthétique dans ces notes, les auteurs ont privilégié la théorie socio-constructiviste. Un modèle à trois dimensions prenant en compte les buts de l’évaluation, les co ntextes (y compris les acteurs concernés) et les méthodologies utilisées permettant de représenter la variété des pratiques a été développé. Dans la suite, nous construisons ce modèle progressivement en détaillant d’abord chacune de ses dimensions. Nous illustrerons ensuite certaines pratiques par quelques exemples caractéristiques. 2. Les buts de l’évaluation On peut distinguer quatre buts principaux pour l’évaluation de logiciels éducatifs : Ø Améliorer l’enseignement et l’apprentissage ; C’est-à-dire rechercher des usages des logiciels pouvant améliorer l’apprentissage et l’enseignement. Exemple : compte-rendu EPI (N°65) (en annexe) Ø Susciter la mise en place d’une politique régionale ou nationale ; C’est-à-dire recommander voire imposer des critère s pour l’élaboration des cahiers des charges ou pour la sélection des logiciels utilisés 1 Inspiré de Squires et al. 1999 2 Exemple : recommandation issue de cette étude (en annexe) voir aussi RIP français Ø Contribuer au développement d’un logiciel éducatif C’est-à-dire fournir aux dévelo ppeurs les informations nécessaires à la qualité du développement (depuis l’élaboration du cahier des charges, en passant par l’évaluation des prototypes, et l’évaluation en contexte) Exemple : évaluation participative de NESTOR (en annexe) Ø Contribuer a u développement du marché du logiciel éducatif C’est-à-dire favoriser le marché du logiciel en réalisant des études de marché, en définissant des normes ou des labels communs. Exemple : http://www.educnet.education.fr/res/bliste.htm label RIP accordé par le CNDP 3. Les méthodes d’évaluation Les méthodes habituellement utilisées peuvent être classées en six grandes catégories2 : Ø Méthodes catégorielles Il s’agit d’attribuer un label, une étiquette au logiciel. Il y a plusieurs exemples de typologies de ce type. Par exemple, celle proposée par l’OCDE en 1989 : drill, tutoriel, tutoriel intelligent, simulation et modélisation, résolution de problèmes, jeux, bases de données, traitement de texte, gestion de l’apprentissage, aide à l’expérimentation de laboratoire, exploration et découverte. Ø Check-list (ou méthode par jugement) Il s’agit de fournir un large ensemble de questions ayant trait à plusieurs ensembles de critères différents : par exemp le l’ergonomie, les qualités pédagogiques, ... L’évaluateur est appelé à répondre oui ou non pour chacun des critères. Le profil ainsi constitué fournit le jugement de l’évaluateur sur la qualité du logiciel. Un bon exemple est la méthode MEDA. Ø Evaluation qualitative Il s’agit de rassembler et d’analyser un ensemble de données qualitatives issues d’interviews, d’observations, de questionnaires. Un bon exemple est la démarche d’ « évaluation en contexte » du logiciel MEDA réalisée au cours de ce module spécialisé. Ø Evaluation quantitative 2 Ces catégories ne sont pas exclusives. Elles aident cependant à envisager un ensemble de possibles. 3 Ce type d’évaluation est basée sur des traitements statistiques appliqués à des prétests et post-tests. Ø Evaluation éclectique Correspond à l’application cohérente de plusieurs méthodes intégrant à la fois des méthodes d’évaluation qualitative et quantitative. Ø Evaluation critique Est basée sur l’avis subjectif d’experts. Jusqu’il y a peu le CNDP fonctionnait par commissions d’inspecteurs qui donnaient leur avis sans explicitation de critères particuliers. La Commission Européenne organise ses évaluations également par commissions d’experts. Ø Evaluation synthétique Correspond à la tentative d’élaborer un cadre théorique synthétique pour réaliser l’évaluation. Un bon exemple est la grille proposée par Reeves (1994) en annexe. 4. Les acteurs de l’évaluation Trois types d’acteurs peuvent être identifiés : les évaluateurs, le public et les évalués. Ø Les évaluateurs Un ensemble de personnes peuvent agir comme évaluateurs. Il s’agit des enseignants, des chercheurs, des développeurs, des éditeurs etc.. Evidemment, certaines catégories d’évaluateurs sont plus intéressés par certains buts de l’évaluation. Par exemple, les enseignants seront plus intéressés par l’amélioration de l’enseignement et de l’apprentissage alors que les éditeurs seront plus intéressés par les questions de marketing. Ø Les évalués Les évalués peuvent aussi être différents. Il peut s’agir d’apprenants connus, d’apprenants stéréotypés caractérisés par un certain nombre d’indicateurs ou de grandes catégories comme les enfants de 12 à 14 ans. Ø Le public de l’évaluation 3 Il peut s’agir d’ enseignants, d’ apprenants, de parents, de développeurs, d’ éditeurs, d’ institutions,.. 3 Autrement dit : ceux à qui les résultats de l’évaluation sont destinés 4 5. Les contextes de l’évaluation En croisant les différents types de publics, on peut définir des contextes pour l’évaluation : Ø Un contexte personnel Le public et l’évaluateur sont la même personne interagissant avec l’évalué. Typiquement, il s’agit de l’enseignant qui évalue l’usage d’un logiciel dans sa classe. Ø Un contexte institutionnel Le public dans ce cas est un groupe local : une école, un éditeur. Ø Un contexte global ou systémique Le public dans ce cas est par exemple un Ministère de l’Education et l’ensemble de la population qu’il représente. 6. Le modèle Ce tableau croise les contextes d’évaluation, les méthodes et les buts poursuivis. Pour plusieurs cellules des exemples ont été repérés. Dans la suite, nous reprenons quelques uns de ceux-ci. Le lecteur désireux d’obtenir le rapport complet en anglais incluant une bibliographie très fouillée peut l’obtenir auprès de Bernadette Charlier. En outre, nous l’invitons à rechercher ses propres exemples. 5 Personnelle Locale Globale Catégorielle t n Check-list t n Qualitative t t u Quantitative u Eclectique Critique t Synthétique tAméliorer enseignement et apprentissage nFavorise les politiques universelles uSoutien au génie logiciel gProfite au marché du logiciel éducatif 7. Quelques exemples Ø L’évaluation personnelle 1. Les catégories ou les typologies En annexe, vous trouverez 12 exemples de typologies. Leur principal avantage est de faire penser à des usages possibles. 2. Les checklists Un bon exemple est MEDA. Plusieurs critiques ont été formulées à propos des check-lists : - elles ne sont pas toujours basées sur une théorie de l’apprentissage ; elles prennent difficilement en compte le contexte d’usage ; il est difficile de donner un poids aux critères ; l’attention est trop centrée sur les aspects techniques ; elle ne sont pas adaptées aux applications innovantes ; l’usage en classe n’est pas pris en compte. Pensez-vous que MEDA 97 souffre des mêmes défauts ? 6 3. Les évaluations critiques De plus en plus d’évaluations d’experts sont publiées en ligne. Un site http://www.techlearning.com/ permet de rechercher les revues off ou on-line existantes. 4. L’évaluation qualitative On peut parler d’évaluation en contexte, il s’agit d’observer l’interaction entre l’enseignant, l’apprenant et le logiciel. Par exemple, un auteur espagnol (Marqués, 1995) propose de s’intéresser aux : - caractéristiques préalables : objectifs pédagogiques, étudiants, ressources ; stratégies de l’enseignant : ses explications préalables, les activités prévues ; organisation de la session de travail avec le logiciel et les méthodes d’utilisation du logiciel (navigation par exemple) ; l’évaluation des résultats obtenus. Ø L’évaluation locale 1. Evaluation qualitative en contexte local. Il s’agit le plus souvent d’études de cas qualitatives. Un bon exemple est fourni par le travail réalisé par Françoise Docq et Amaury Daele à propos de l’usage du campus virtuel de LEARN-NETT (en annexe). Les développeurs utilisent ce que l’on appelle la technique du focus-group. On propose un prototype à un petit groupe d’apprenants. On observe l’usage en situation et ensuite on propose une discussion de type brain -storming aux participants pour rechercher les améliorations possibles. 2. Approche éclectique Un bon exemple est la méthode TILT. Elle inclut : - un échange préalable avec les enseignants pour définir les objectifs, le projet d’usage, le choix des méthodes une évaluation par un évaluateur hors contexte (par exemple avec une check-list) l’élaboration d’une épreuve d’évaluation des apprentissages (quizz ou autre) une observation en classe la rédaction d’un rapport provisoire la discussion de ce rapport avec les enseignants et éventuellement les apprenants la rédaction du rapport final. Ø L’évaluation globale Outre les méthodes décrites précédemment, on peut relever les revues en ligne comme celle du CNDP ou les commissions d’experts. Certaines listes de critères pour la labelisation sont intéressantes, telle celle de la California Clearing House : 7 - approche constructiviste méthode collaborative stratégies pour stimuler différentes activités cognitives possibilité d’exploration autonome questions ouvertes stratégies pour stimuler la créativité des étudiants. Référence D. Squires et al. A study of evaluation of hyper – and multi – media education al software, Final report, 1999. European Commission. Tender N° DGXXII/26/96 8