RJC EIAH`2012 - Université de Picardie Jules Verne
Transcription
RJC EIAH`2012 - Université de Picardie Jules Verne
https://eiah.mis.u-picardie.fr/rjceiah/ RJC EIAH’2012 Actes des 4ièmes rencontres des Jeunes Chercheurs en Environnements Informatiques d’Apprentissage Humain Amiens 23 & 23 mai 2012 Édités par Thibault Carron et Céline Joiron 4ièmes Rencontres Jeunes Chercheurs en EIAH i ii Amiens – 23 et 24 mai 2012 Introduction Les quatrièmes Rencontres Jeunes Chercheurs sur les Environnements Informatiques pour l’Apprentissage Humain (RJC-EIAH 2012) se tiennent à Amiens les 23 et 24 mai 2012. Organisée tous les deux ans, cette conférence francophone parrainée par l’ATIEF (Association des Technologies de l'Information pour l'Éducation et la Formation) a pour objectif la promotion de la recherche et la formation des étudiants chercheurs. Ces journées visent à donner l’occasion aux jeunes chercheurs du domaine de se rencontrer pour présenter et échanger sur leurs travaux, entre eux et avec des chercheurs confirmés. Nous avons reçu 31 propositions de communication pour les rencontres. Ce nombre assez satisfaisant est toutefois en baisse par rapport à 2010 (38 soumissions) et reste à la hauteur du niveau de 2008. Les rencontres jeunes chercheurs représentent néanmoins une occasion unique d’échange et sont donc largement plébiscitées par la communauté EIAH en général et les jeunes chercheurs en particulier. Chaque soumission a au moins été examinée par 2 relecteurs (3 pour quelques-unes), chacun mettant un point d’honneur à proposer des critiques constructives. Le comité de programme a retenu 15 travaux pour une présentation orale et article long et 12 pour une présentation sous forme de poster et papier court. La plupart des articles acceptés proviennent de France mais d’autres pays sont également représentés : Algérie (6), Ile Maurice (1), Maroc (1) et Tunisie (2). Lors de la sélection, la plupart des travaux ont donné lieu à un avis relativement proche de la part des relecteurs ; seuls quelques articles ont suscité des débats. Comme demandé, le comité de programme s’est efforcé d’évaluer les travaux soumis en fonction de l’avancée de la thèse. Ainsi, un travail en fin de thèse a été évalué avec les critères scientifiques habituels (problématique, méthodologie, références aux autres travaux, validité des résultats, etc.) et le niveau d'exigence était finalement proche de celui d'une conférence nationale. Pour un travail de début de thèse, le comité de programme n’a pas cherché à évaluer les résultats mais s'est attaché à mesurer l'originalité du travail, l'intérêt pour la communauté et la capacité à présenter clairement le travail. Au final, un bon équilibre s’est fait dans la sélection. Par exemple, les articles longs retenus ont été écrits par 6 étudiants en 1ère année, 2 étudiants en 2ème année, 5 étudiants en 3ème année et 2 étudiants ayant plus de 3 années de thèse. Le champ scientifique des EIAH touche différentes disciplines que nous appelons traditionnellement toutes à soumettre afin de favoriser les rencontres et des collaborations fructueuses. L’informatique est, cette année encore, majoritairement représentée avec seulement 7 soumissions en Science de l’éducation et 2 en SHS. Les efforts doivent donc encore et toujours être poursuivis dans le sens de la pluridisciplinarité. Ces rencontres sont aussi l’occasion d’observer les tendances thématiques et les préoccupations de recherche de la communauté. Les questions d’ingénierie et de conception des EIAH sont bien présentes mais on voit apparaître plusieurs soumissions concernant le TAL (2), les Jeux sérieux (Serious Games) (2) et les ontologies (2). Les traces d’activités et d’interactions ainsi que les indicateurs sont toujours un thème important pour la communauté (5). La conception des scénarios pédagogiques est également une thématique bien représentée (4 soumissions). Vous retrouverez ces thématiques (et bien d’autres) au fil des sessions. La session « posters » illustre également la variété des travaux, chaque auteur ayant eu pour consigne d’expliciter le cœur de sa thématique et les apports spécifiques (avérés ou attendus) de sa thèse. Ne manquez pas de lire les articles de 2 pages proposés en support à la compréhension du poster. La conférence invitée de Patrick Felicia (Waterford Institute of Technology, Ireland) ouvre les journées par 4ièmes Rencontres Jeunes Chercheurs en EIAH iii une analyse sur le sujet émergent que représente les Serious Games et de prendre conscience des liens qu’ils offrent avec toutes les thématiques citées précédemment. Les journées font également place à l’information et aux conseils de la Communauté aux jeunes chercheurs relativement à la demande de qualification auprès du CNU, aux publications dans la revue STICEF et plus généralement à l’évaluation des chercheurs au travers de leurs publications. Pour finir, nous remercions les membres du comité de programme (47 personnes, STIC ou SHS) qui ont fait des commentaires souvent très détaillés afin d’aider au mieux les doctorants, les membres du comité d’organisation qui ont tout mis en œuvre pour la réussite de ces journées ainsi que tous les chercheurs confirmés qui viennent contribuer à la richesse des discussions. Nous remercions également l’ATIEF et les différents sponsors pour leur soutien, ainsi que l’Université de Picardie Jules Verne et le laboratoire Modélisation, Information et Systèmes (MIS) pour nous accueillir cette année. Enfin, nous remercions les jeunes chercheurs en EIAH sans qui ces journées n’existeraient pas ! iv Amiens – 23 et 24 mai 2012 Table des matières Introduction ................................................................................................................................................................................ iii Table des matières ................................................................................................................................................................................. v Conférence invitée ............................................................................................................................ vii Game-Based Learning: Understanding games from a multidisciplinary perspective PATRICK FELICIA .................................................................................................................................................. vii Articles longs ...................................................................................................................................... 1 Opérationnalisation de scénarios pédagogiques : une approche DSM centrée LMS Aymen Abedmouleh ................................................................................................................................................ 3 Le TAL pour l’analyse de contenus d’interactions et de productions dans la formation en ligne Alexandre Baudrillart .............................................................................................................................................. 9 Interprétation des traces d’interaction dans un EIAH par appariement structurel Mohamed Besnaci ................................................................................................................................................. 15 Une approche basée sur les Patrons centrée Enseignant pour la scénarisation pédagogique Jean-Pierre Clayer ................................................................................................................................................. 21 Manifestation culturelle du numérique Thierry Danquigny ................................................................................................................................................ 27 Conception d’un système de dialogue intelligent pour jeux sérieux Franck Dernoncourt ............................................................................................................................................... 33 Analyse automatique de codes informatiques pour l’aide à l’enseignant Loïc Février ........................................................................................................................................................... 39 Similarités sémantiques et contextuelles pour l’apprentissage informel en mobilité Pierre-Yves Gicquel .............................................................................................................................................. 45 Developing adaptive intelligent tutoring system Mohamed Hafidi.................................................................................................................................................... 51 Ergonomic Study of Existing Project-Based Learning Management System Ji Min..................................................................................................................................................................... 57 Une approche orientée indicateurs pour supporter les activités du tuteur Aina Lekira ............................................................................................................................................................ 63 Acquisition interactive de connaissances pédagogiques pour la personnalisation d'EIAH dans le cadre de la formation à distance Bruno Mascret ....................................................................................................................................................... 69 Vers une mise en relation des activités d’édition et de navigation dans les ressources d’apprentissage : cas de l’apprentissage d’un langage de programmation Mahdi Mile ............................................................................................................................................................ 75 4ièmes Rencontres Jeunes Chercheurs en EIAH v Intégration de raisonnements automatiques dans le système d’annotation MémoNote Hakim Mokeddem ................................................................................................................................................. 81 Modélisation outillée d’une stratégie contextualisée d’observation dans le cadre d’un environnement d’apprentissage Mohand Akli Ouali ................................................................................................................................................ 87 POSTERS ......................................................................................................................................... 93 Ontologie pour la représentation des connaissances algorithmiques Et la proposition de parcours d’enseignement. Myriam Abdessemed ............................................................................................................................................. 95 Assister la compréhension des problèmes algorithmiques Taki Eddine Belhaoues .......................................................................................................................................... 97 Hypermédia adaptatif à épistèmes pour l'apprentissage des langages de programmation Pascal Ortiz............................................................................................................................................................ 99 Gamification d’environnement informatique Alain Simac-Lejeune ........................................................................................................................................... 101 vi Amiens – 23 et 24 mai 2012 Game-Based Learning: Understanding games from a multidisciplinary perspective Patrick Felicia [email protected] Abstract This keynote will describe the multidisciplinary aspect of the research currently conducted in Game-Based learning, and the impact video games can have from different perspectives including psychology and education. The author will also present an overview of the current state of the art in the field of Game-Based Learning. The keynote will highlight key findings, current challenges faced by both GBL researchers and practitioners, provide a summary of best practices for the integration of GBL in instructional settings, and identify a road map for GBL research. 4ièmes Rencontres Jeunes Chercheurs en EIAH vii viii Amiens - 23 et 24 mai 2012 ARTICLES LONGS 4ièmes Rencontres Jeunes Chercheurs en EIAH 1 2 Amiens – 23 et 24 mai 2012 Formalisation du langage de conception pédagogique implicite d’un LMS : motivations et processus Aymen Abedmouleh LIUM, Avenue Olivier Messiaen, 72085 LE MANS CEDEX 9, France [email protected] Résumé Les utilisateurs des LMSs/plateformes de formation à distance et en particulier les enseignants-concepteurs rencontrent de nombreuses difficultés pendant la spécification de leurs cours ou de leurs scénarios pédagogiques. Ces difficultés traduisent le besoin de travaux de réingénierie ou de nouvelles approches de conception plus adaptées à leurs pratiques. Notre travail de recherche consiste à faciliter la conception et la mise en œuvre de scénarios pédagogiques sur les LMS. Nous proposons une nouvelle approche de conception basée sur le métier de conception pédagogique embarqué dans les LMS. Dans cet article, nous proposons un processus original d’identification et de formalisation de ce métier. Celui-ci s’appuie sur deux points de vue complémentaires : le point de vue IHM principalement basé sur l’analyse des interfaces du LMS, et le point de vue technique basé sur des méthodes d’analyses du LMS en tant que système informatique. Nous proposons ensuite d’exploiter le langage formalisé comme base pour la spécification de langages et outils graphiques externes. Ces outils permettront aux enseignants-concepteurs de se concentrer sur la conception pédagogique propre à la plateforme considérée mais à un niveau d’abstraction suffisant. Le processus est illustré par des extraits (forum et discussion) d’expérimentations menées sur la plateforme Moodle. Introduction Les enseignants et les concepteurs rencontrent aujourd’hui des difficultés pendant la conception et la mise en œuvre de leurs situations d’apprentissage sur les LMS (Learning Management System) ou plateformes de formation à distance (Ortiz et al. 2009). Pour configurer leurs situations d’apprentissage, ils doivent gérer et s’approprier les différents écrans et les différentes interfaces basées principalement sur des formulaires. Aujourd’hui, plusieurs standards comme IMS-LD et SCORM (Tattersall et al. 2005), plusieurs approches comme l’approche de patrons de conception (Baggetun et al. 2004), plusieurs langages de modélisation pédagogiques comme PALO (Artacho et Maíllo 2004), et plusieurs outils comme e-LD (Ortiz et al. 2009) sont proposés pour faciliter la conception pédagogique. Cependant, de nombreux obstacles rencontrés par les enseignants-concepteurs concernent principalement : (1) les difficultés de spécification des scénarios directement sur les LMSs et (2) les difficultés 4ièmes Rencontres Jeunes Chercheurs en EIAH de retranscription des concepts d’un scénario spécifié à l’extérieur des LMS avec ceux proposés par le LMS. Dans la section 2, nous présentons un aperçu des problématiques traitées. La section 3 présente notre approche dédiée à la conception pédagogique centrée LMS. Ensuite, nous détaillons, dans la section 4, le processus d’identification et de formalisation des langages de conception pédagogique de plateformes. La section 5 présente un extrait de nos expérimentations portant (1) sur l’identification du métier de conception pédagogique d’un forum sur Moodle, (2) l’ajout des fonctionnalités d’import/export à cette plateforme et (3) le développement d’un éditeur graphique basé sur le langage de conception de Moodle. Enfin, nous concluons en présentant les travaux actuels. Problématique et Positionnement Dans nos travaux, nous abordons deux problématiques principales. La première concerne la spécification des scénarios sur les LMSs tandis que la deuxième concerne les difficultés d’implémentation des scénarios pédagogiques spécifiés en dehors des LMSs. Nous supposons que les LMSs embarquent un paradigme de conception pédagogique qui lui est propre. Cependant, les praticiens-concepteurs ne sont pas familiers avec ce domaine implicite de conception pédagogique. La spécification d’un cours sur les LMSs est basée principalement sur des interfaces à base de formulaires. Elle porte sur le paramétrage de nombreux paramètres de ces formulaires qui sont parfois optionnels ou des détails techniques à un niveau très bas. Ces difficultés engendrent souvent une exploitation minimale des LMS comme un espace de partage de ressources pédagogiques (Steel 2009). La deuxième problématique est due à l’incompatibilité entre le langage de conception et le langage d’opérationnalisation (le langage implicite du LMS). Cet écart entre les deux langages pénalise le processus de transformation de scénarios. Plusieurs travaux (Abdallah et al. 2008) consistant à retranscrire les scénarios ont mis en évidence l’écart de la sémantique pédagogique entre les concepts utilisés pour spécifier les scénarios et les caractéristiques des LMS. Certaines transcriptions de scénarios entraînent des pertes d'information et de sémantiques spécifiées dans le scénario source ou, au contraire, des insuffisances d’informations pour spécifier et mettre en œuvre le scénario sur la plateforme. 3 Aymen Abedmouleh Il nous semble que les propositions actuelles n’ont pas encore atteint un niveau de maturité suffisant pour que les enseignants-concepteurs implémentent efficacement leurs scénarios. Pour cela, nous proposons une nouvelle approche de conception basée explicitement sur le métier des LMS. Une Approche de Conception Centrée LMS L’objectif principal de nos travaux est de (1) faciliter la spécification de scénarios pédagogiques, (2) proposer des outils de conception mieux adaptés aux pratiques des enseignants-concepteurs, (3) proposer des moyens de communication entre les LMS et des outils externes dédiés et enfin (4) garantir l’implémentation des scénarios spécifiés à l’extérieur des LMS sans perte de sémantiques. Nous supposons que les LMS ne sont pas pédagogiquement neutres. Ils embarquent implicitement des paradigmes de conception pour les activités pédagogiques. Notre approche porte sur l’identification et la formalisation de ce métier de conception pédagogique. D’un point de vue langage, nous nous intéressons principalement à expliciter la syntaxe abstraite implicite des LMS que nous proposons de formaliser sous la forme d’un métamodèle (concepts, attributs, relations, types, etc.). Dans un premier temps, ce choix offre l’opportunité d'exposer un langage comme base pour le développement d'outils de conception pédagogique extérieurs aux LMS (par exemple pour l'édition de scénarios, pour exporter un scénario spécifique d’un LMS vers un autre, etc.). L’un des premiers objectifs de cette approche est d’offrir aux praticiens de nouveaux VIDL (Visual Instructional Design Language) et des éditeurs externes dédiés basés sur le langage métier des LMS. Plusieurs VIDLs centrés LMS (Botturi et Todd 2007) peuvent être proposés pour le métier (entier ou partiel) de LMS. Ils doivent être composés de la même syntaxe abstraite que le langage du LMS (perspective sur le méta-modèle du domaine), mais en proposant une notation visuelle différente (pour la syntaxe concrète). Les VIDLs ainsi que leurs éditeurs dédiés facilitent la réflexion et la communication pour les praticiens. Ils doivent gérer la persistance des scénarios pédagogiques produits dans un format interprétable par la machine et conforme au langage identifié et formalisé du LMS. Dans un deuxième temps, les scénarios spécifiés à l’extérieur des LMS doivent être opérationnalisés sans pertes de sémantique ou d’information. Notre proposition consiste à étendre les LMS par des nouvelles fonctionnalités analogues à celles proposées pour le standard SCORM (Gonzalez et Ando 2010), mais reposant sur le métier du système LMS concerné afin de les rendre capable d’importer/exporter des scénarios pédagogiques. L'opérationnalisation du scénario pédagogique consiste ainsi à l'importation des scénarios formalisés. 4 Nous voulons également permettre aux enseignants d’adapter et de faire évoluer leurs scénarios déjà implémentés sur les LMSs. L’échange entre ces deux systèmes (LMS et outil de conception) facilite l’adaptation éventuelle des scénarios pédagogiques. La fonctionnalité d’import/export permet d’exporter les scénarios existants dans un format compréhensible par ces outils externes et également d’importer les scénarios spécifiés à l’aide de ces derniers. La sémantique des scénarios pédagogiques est préservée lors de l’importation et de l’exportation parce qu’aucune transformation de modèles n’est nécessaire. Les scénarios créés ou bien modifiés par l’outil de conception sont totalement opérationnalisables parce qu’ils sont conformes au langage pédagogique implicite du LMS. L'explicitation du métier des LMSs représente une nouvelle opportunité pour l’opérationnalisation des scénarios pédagogiques et également une nouvelle approche pour la spécification des VIDLs et des éditeurs dédiés. Les VIDLs et leurs éditeurs sont spécifiés selon une approche DSM (Domain Specific Modeling). Le DSM offre un cadre théorique et pratique pour la modélisation et la spécification formelle des scénarios pédagogiques (Laforcade, 2010). Cette approche est capable d’apporter une valeur ajoutée pour l’explicitation, la spécification et l’opérationnalisation de scénarios pédagogiques et de langages de modélisation pédagogique, également pour la définition de VIDL centré sur le métier des praticiens, des standards et des plateformes. Processus d’Analyse Pour définir un tel langage, nous avons spécifié un processus pour analyser, identifier et formaliser le langage de conception pédagogique des LMS. Le processus vise plusieurs communautés de recherche en EIAH et en génie logiciel de façon plus globale. Il concerne principalement la communauté des LMSs/plateformes de formation tels que les ingénieurs pédagogiques et les développeurs-concepteurs. Le processus est le résultat de plusieurs expérimentations et analyses effectuées sur plusieurs plateformes (Moodle, Ganesha, etc.). Après l’appropriation de ces systèmes, nous avons constaté que chacun d’entre eux embarque un paradigme spécifique. Cependant, une même analyse pouvait être définie afin de guider le travail d’identification et de formalisation pour chacun d’entre eux. Nous proposons ainsi un processus d’analyse basé sur deux points de vue complémentaires : un point de vue centré IHM et un point de vue centré technique. Le premier point de vue porte sur l’analyse des IHMs selon deux stratégies : analyse de cours/situations existants(es) et analyse des interfaces liées à la spécification de nouveaux cours ou de nouvelles situations. Le deuxième point porte sur des méthodes d’analyses plus techniques s’intéressant davantage à la plateforme comme artefact informatique. Amiens - 23 et 24 mai 2012 Formalisation du langage de conception pédagogique implicite d’un LMS Le processus que nous proposons (figure 1) est composé de trois étapes principales : l’analyse centrée IHM, l’analyse centrée technique, ainsi que la confrontation et formalisation finale. La première étape est conduite par 3 analyses séquentielles (macro-IHM, fonctionnelle et micro-IHM) selon une démarche descendante. Chaque analyse possède ses propres caractéristiques et produit son (ses) modèle(s) conforme(s) au formalisme proposé. L’activité de composition est basée sur les modèles résultant des analyses précédentes et consiste à formaliser le modèle métier final par la dérivation de celui issu de l’analyse centrée IHM. La seconde étape concerne l’analyse centrée technique. Plusieurs méthodes techniques peuvent être adoptées (base de données, code source, les sauvegardes de cours, etc.) mais la principale source d’informations sera l’analyse de la base de données. La dernière étape du processus concerne la confrontation entre le modèle IHM et le modèle technique, puis la formalisation du modèle métier final (méta-modèle) de conception pédagogique. Ce méta-modèle servira ensuite de base de spécification pour les modules d’import/export des LMS, ainsi que la spécification et le développement de langages/éditeurs de conceptions pédagogiques externes. L’analyse centrée IHM assure l’identification de la partie visible du langage de la plateforme. L’analyse centrée technique assure la spécification des modèles conformément au langage des plateformes. La confrontation entre les modèles assure l’affinement du modèle IHM et la détection de certains problèmes. Dans les sous-sections suivantes, nous détaillons les différentes parties du processus. titres des interfaces et des formulaires, et parfois via l’analyse des chemins de navigation. Ensuite, les relations entre les concepts du modèle sont déduites à partir des relations existantes entre les interfaces. Analyse Fonctionnelle L’analyse fonctionnelle est basée sur le modèle IHMmacro. Elle consiste à identifier les fonctionnalités relevant de la conception pédagogique. Les IHM sont ainsi analysées d’un point de vue fonctionnel. Nous avons classé les fonctionnalités embarquées en deux catégories : les fonctionnalités à critère pédagogique qu’il faudra conserver et les fonctionnalités administratives (affichage, gestion, etc.) qu’il faudra écarter. Les fonctionnalités sont implicitement embarquées dans les interfaces via des composants de l’interface graphique (des widgets) facilitant les interactions entre le système et les usagers. Les composants doivent être testés pour déterminer leur critère pédagogique. Ensuite, on attribuera un nom pour chaque composant "pédagogique". Le formalisme du modèle fonctionnel proposé s’inspire du modèle SADT (Structured Analysis and Design Technic) (Marca et McGowan 1987) en adaptant légèrement la sémantique des diagrammes de cas d’utilisation UML (Unified Modeling Language) (John et Muthig 2002). Un tel diagramme est ainsi utilisé pour représenter les modèles ‘fonctionnels’ internes. Les sous-fonctionnalités sont alors représentées dans un nouveau diagramme de cas d’utilisation lié au précédent par une relation hiérarchique explicite. Les fonctionnalités sont également identifiées en analysant les interfaces des cours existants comme celles permettant la création de nouveaux cours. Figure 1 : processus d’analyse du langage de conception pédagogique L’analyse Centrée IHM Analyse IHM-macro Les LMS sont composés de plusieurs interfaces développées pour différentes finalités et pour différentes catégories d’usagers (enseignant, apprenant, administrateur, etc.). L’analyse IHM-macro consiste à identifier les IHM relevant de la conception pédagogique. Ces IHM sont dédiées à la spécification des situations d’apprentissage (scénarios pédagogiques, cours, etc.). L’analyse macro-IHM vise à référencer ces IHM dans son modèle macro-IHM. Ce modèle est une cartographie (mindmap en anglais) d’IHMs dont chacune est représentée par son concept principal. Ces concepts sont identifiés via l’analyse sémantique des 4ièmes Rencontres Jeunes Chercheurs en EIAH Analyse IHM-micro L’analyse IHM-micro est basée sur le modèle IHMmacro et fonctionnel. Elle consiste à analyser les interfaces concernées à une échelle plus fine pour identifier les éléments relevant de la conception pédagogique. Plusieurs modèles IHM-micro résultent de cette analyse. Chaque modèle décrit un élément et ses propriétés (attributs, types, etc.). Pour mener cette analyse, nous proposons la démarche suivante. Pour chaque interface, tous les éléments doivent être analysés afin de déterminer ses caractéristiques pédagogiques. Plusieurs éléments pédagogiques peuvent être décrits par des composants d’interface graphique, des formulaires, etc. Plusieurs composants 5 Aymen Abedmouleh peuvent cacher des éléments pédagogiques. Ils doivent être testés et analysés. Il est également important d’identifier les attributs des éléments identifiés ainsi que leurs propriétés. Durant notre travail d’analyse, nous avons constaté que des domaines de valeur sont associés à plusieurs attributs dont certains sont déjà initialisés par défaut. Les domaines de valeurs ainsi que les initialisations par défaut doivent être identifiés ; ils représentent des caractéristiques importantes de la conception pédagogique centrée LMS. L’identification de ces éléments est réalisée via l’analyse des titres et des formulaires. Ces éléments sont classifiés en deux catégories : les éléments requis par les interfaces et les éléments optionnels. Les éléments requis sont soulignés par un style spécifique (gras, souligné, couleur spécifique, etc.). Ils forment des éléments principaux de la conception pédagogique. L’analyse des formulaires permet aussi de détecter les dépendances et les relations entre ces éléments. Parfois, le paramétrage de certains éléments implique le paramétrage automatique d’autres. La description des relations nécessite la définition des multiplicités entre eux. La multiplicité est représentée par un couple de bornes minimale et maximale. Enfin, nous notons que l’ordre des éléments est une caractéristique importante dans la conception pédagogique parce qu’elle influence l’organisation des concepts pédagogiques (exemple l’organisation du cours dans la plateforme Moodle). Nous avons choisi une adaptation du format mindmap pour représenter le modèle IHM-micro. Ce format permet la représentation et la description des éléments de conception pédagogique en termes d’attributs, de types, de propriétés, de domaines de valeur, d’initialisations, de contraintes et de relations. La Composition La composition vise à formaliser le langage de conception pédagogique partiel dérivé de l’analyse centrée IHM. Elle consiste à combiner les modèles IHM-micro dans un modèle unique. Les relations entre les modèles sont basées sur les relations situées dans les modèles IHM-macro et fonctionnel. Les relations situées dans le modèle IHM-macro sont facilement identifiées mais celles du modèle fonctionnel sont identifiées selon la démarche suivante. Après avoir choisi un élément du modèle IHM-macro, nous devons fixer la partie du modèle fonctionnel associée. Plusieurs cas d’utilisation référencent un ou plusieurs élément(s) requis pour la réalisation des fonctionnalités. En se basant sur la hiérarchie des cas d’utilisation, nous déduisons les relations entre ces éléments. Nous savons déjà que les sous-modèles internes du modèle fonctionnel sont représentés par niveau. Les modèles IHM-micro seront également représentés par niveau en préservant la hiérarchie équivalente du modèle fonctionnel. Enfin, les multiplicités entre les éléments/modèles sont ajoutées sur le modèle IHM. Certaines multiplicités sont déjà identifiées pendant l’analyse IHM-micro. En conclusion, le modèle IHM fusionne les modèles IHM-micro en adoptant un format 6 de type cartographie (mindmap). Analyse Centrée Technique La deuxième partie du processus concerne l’analyse centrée technique. Elle concerne plusieurs points techniques au sein des LMS à analyser : les bases de données, le code source, la sauvegarde/restauration des cours (si elle existe), etc. Dans cette étape, la source principale d’information pour identifier le langage de conception pédagogique est la base de données du LMS concerné. Les autres analyses techniques sont utilisées durant la dernière partie de confrontation. L’analyse de la base de données consiste à spécifier le modèle conceptuel de données réduit parmi le modèle fourni par les créateurs de LMS, s’il existe. Plusieurs modèles sont représentés par le biais du modèle relationnel de données généré par des outils proposant la ré-ingénierie de la base. Cependant, la majorité de ces outils ne sont pas gratuits et leurs résultats dépendent directement de la taille de la base de données. Dans notre approche, l’analyse de la base de données est réduite aux tables/colonnes en relation avec la conception pédagogique. L’obstacle principal concerne leurs identifications. Les informations issues de l’analyse centrée IHM semblent utiles pour ce cas. Pour mener cette analyse à bien, notre méthodologie consiste à (1) parcourir toutes les tables afin d’esquisser une première ébauche du modèle, (2) se focaliser sur les tables faisant référence à des éléments de conception pédagogique. Ces tables sont identifiées via l’analyse sémantique de leurs titres ou de leurs champs d’enregistrement. D’autres tables sont également identifiées via leurs dépendances avec d’autres ou bien via les clés étrangères. Notre analyse consiste à spécifier le schéma réduit de la base de données par le biais des règles de reverse engineering des bases de données. Le modèle conceptuel de données peut être finalement spécifié à partir de ce schéma. Ce modèle est efficace pour représenter le modèle métier selon un point de vue technique des données sauvegardées. Il permet aussi par construction de cacher les mauvaises structures des bases de données et d’éviter les redondances et mauvaises conceptions. Certaines relations entre tables exigent des analyses manuelles fines afin de rejeter celles créées pour des finalités uniquement à bas niveau. Confrontation des Modèles et la Formalisation du Modèle Final La dernière partie du processus concerne la confrontation des modèles IHM et technique et la formalisation du modèle final de la conception pédagogique. Les modèles sont comparés afin d’affiner le modèle IHM, détecter et corriger les différences et assurer que le modèle final est facilement spécifié dans un format interprétable par la machine. La confrontation mène à des vérifications concernant la Amiens - 23 et 24 mai 2012 Formalisation du langage de conception pédagogique implicite d’un LMS définition des éléments de conception pédagogique dans les deux modèles. Certaines ambigüités ou différences (la définition des éléments similaires, la non-existence de certains attributs, la divergence des types d’attributs, etc.) sont révélées. Elles exigent des analyses plus profondes et plus fines des modèles IHM et technique. À ce stade, d’autres analyses techniques peuvent être utiles. Par exemple, l’analyse du code source consiste à analyser directement le code du LMS. Elle concerne principalement le code de la définition des IHMs et les requêtes d’insertion/sélection des données. Cette analyse révèle plusieurs détails que le développeur a choisi d’implémenter pour des raisons de portabilité et d’efficacité. Cette partie vise à formaliser le langage de conception pédagogique. Nous avons choisi le format des métamodèles parmi d’autres (XML schéma, mindmap, ontologies, etc.) car il servira de base pour le développement de nouveaux outils de conception selon l’approche Domain Specific Modeling. Le processus vérifie l’existence de chaque élément du modèle IHM sur le modèle technique. Lorsque l’existence est vérifiée, l’élément est modélisé par une méta-classe dans le méta-modèle. Ensuite, ses attributs sont vérifiés. La vérification concerne l’existence et le type. Les attributs vérifiés sont représentés par des méta-attributs au sein de la méta-classe de l’élément parent. Enfin, les relations entre les méta-classes sont définies en tenant compte des relations existantes dans les modèles IHM et technique. Les multiplicités sont également vérifiées avant leur représentation dans le méta-modèle. Expérimentations Expérimentation du Processus Nous présentons dans cette section un extrait des expérimentations menées sur la plateforme Moodle. Cet extrait concerne l’identification et la formalisation du langage de conception d’un forum sur Moodle. Le forum est une activité fréquemment utilisée au sein d’un cours. Sa spécification nécessite le paramétrage de plusieurs IHM qui embarquent d’autres éléments dédiés à la conception de cette activité. Dans un premier temps, l’analyse IHM-macro a consisté à l’identification des IHM relevant de la spécification du forum. La création d’un nouveau forum mène à des nouvelles interfaces pour la spécification des éléments dédiés tels que le cas de l’élément «discussion ». Le modèle IHM-macro est enfin composé par deux concepts principaux : 'forum' et 'discussion'. Dans un deuxième temps, l’analyse fonctionnelle a identifié les fonctionnalités en relation avec la spécification du forum et de ses éléments. Les fonctionnalités sont également identifiées en analysant les interfaces de création d’un nouveau forum ainsi que l’analyse d’un forum existant. La fonctionnalité principale identifiée est «ajouter un forum» après l’analyse de l’interface principale du cours. Ensuite, nous avons identifié ses 4ièmes Rencontres Jeunes Chercheurs en EIAH sous-fonctionnalités (comme «ajouter une discussion»). Le modèle fonctionnel est spécifié au fur et à mesure de l’identification des fonctionnalités. Dans un troisième temps, l’analyse IHM-micro a consisté à analyser le formulaire de l’interface du forum. Ensuite, les éléments et les attributs reliés au forum doivent être identifiés. Nous avons identifié les attributs du forum, leurs types, leurs champs de valeurs et leurs initialisations. La même analyse a été reproduite concernant l’élément 'discussion'. Ensuite, nous avons déterminé les multiplicités entre forum et discussion en associant plusieurs discussions au forum. Nous avons constaté qu’une discussion n’est associée qu’à un seul forum. Enfin, cette analyse a produit deux modèles IHM-micro (figure 2). La dernière étape de l’analyse centrée IHM (la composition) a consisté à associer les deux modèles IHM-micro du forum et des discussions (figure 2). En se basant sur le modèle IHM-macro et fonctionnel, nous avons déduit qu’une discussion est un sous élément de forum. Ensuite, nous avons représenté les multiplicités déjà identifiées dans l’analyse IHMmicro. 1 0,* 1,1 0,* 1,1 2 Figure 2 : Extrait du modèle IHM de la conception du forum L’analyse centrée technique a consisté à étudier la base de données de Moodle. Nous avons tout d’abord ciblé les tables en relation avec la conception du forum via l’analyse sémantique de leurs titres (forum, forum_discussions, etc.). Certaines tables et données (forum_trak_prefs, forum_read, etc.) ne sont pas prises en compte parce qu’elles se focalisent sur des finalités techniques trop bas niveau. Ensuite les relations entre les tables sont définies. À ce stade, nous avons constaté que certaines données nécessitent l’identification d’autres tables. Ces tables sont ajoutées au schéma de la base de données avant sa transformation en modèle conceptuel. Enfin, les deux modèles IHM et technique sont confrontés en suivant la démarche que nous avons décrite. Cette confrontation a mené à la spécification du méta-modèle du langage de conception pédagogique dont un extrait est représenté dans la figure 3. 7 Aymen Abedmouleh pour la spécification des scénarios pédagogiques dédiés à la plateforme Ganesha, et (2) d’un nouveau module de communication similaire à celui de Moodle. Référence Figure 3 : Extrait du méta-modèle du langage de conception d’un forum de Moodle API pour Moodle Notre approche porte également sur l’extension des LMS par des API de communication proposant des services d’import/export. En se basant sur le métamodèle du langage de conception pédagogique du LMS, nous avons généré et adapté un schéma XML. Ce schéma est utilisé au sein de l’API que nous avons développée pour la plateforme Moodle 2.0. Cette API est intégrée au sein de l’espace enseignant de création du cours. Elle assure l’opérationnalisation de cours ainsi que l’exportation des scénarios pédagogiques conformément au schéma XML spécifié (Abedmouleh et al. 2011a). Concernant cette API, nous avons également pris en compte la possibilité de réaliser des imports/exports successifs afin d’adapter le cours grâce à des outils de conception externes. Conclusion Dans cet article, nous avons présenté nos travaux de recherche portant sur une nouvelle approche de conception basée sur le langage de conception pédagogique d’un LMS. Nous avons décrit notre approche qui propose un processus pour l’identification et la formalisation de ce langage. Nous avons pris en compte deux points de vue complémentaires : le point de vue IHM assurant l’identification du langage LMS accessible à l’utilisateur et le point de vue technique assurant l’opérationnalisation des scénarios spécifiés conformément au langage identifié. Le processus d’analyse ainsi que l’approche de conception que nous proposons sont ré-exploitables pour d’autres LMS. Le processus offre l’opportunité de comparer le langage de plusieurs LMSs. Nous avons également montré l’utilité de ce processus à travers les valeurs ajoutées qu’il peut apporter en ce qui concerne l’extension des LMS par des services de communication (import/export) avec des outils de conception externes développés sur la base du métier identifié. Ces outils de conception doivent être plus adaptés aux pratiques des enseignants, plus ergonomiques que les interfaces des LMS et dont les modèles produits seront conformes au langage de conception pédagogique dédié au LMS. Nous avons expérimenté l’utilisation du méta-modèle pour le développement d’un VIDL et d’un éditeur graphique dédié (Abedmouleh et al. 2011b) en se basant sur l’approche DSM. Nous travaillons actuellement sur le développement (1) d’un deuxième outil de conception graphique externe 8 Abdallah, F.; Toffolon, C.; and Warin, B. 2008. Models transformation to implement a Project-Based Collaborative Learning (PBCL) Scenario : Moodle case study. In 8th IEEE International Conference on Advanced Learning Technologies, 639-643. Spain. Abedmouleh, A.; Oubahssi, L.; Laforcade, P. and Choquet, C. 2011a. Operationalization of Learning Scenarios on Open and Distance Learning platforms: the case of the Moodle Platform. 11th IEEE International Conference on Advanced Learning Technologies. 396-398. Athens , USA. Abedmouleh, A.; Laforcade, P.; Oubahssi, L.; and Choquet, C. 2011b. Operationalization of learning scenarios on existent Learning Management Systems: the Moodle case-study. International Conference on Software and Data Technologies In Proceedings of the 6th International Conference on Software and Data Technologies, 143-148. Seville, Spain. Artacho, M. R.; and Maíllo M. F. V. 2004. Modeling Educational Content: The Cognitive Approach of the PALO Language. Educational Technology & Society, 7 (3):124-137. Baggetun, R.; Rusman, E.; and Poggi, C. 2004. Design Patterns for collaborative learning: from practice to theory and back. In Proc. of World Conference on Educational Multimedia, Hypermedia and Telecommunications, 2493-2498, Chesapeake, VA. Botturi, L.; and Todd, S. 2007. Handbook of Visual Languages for Instructional Design: Theories and Practices. Information Science Reference. Gonzalez, V.; and B., Anido, L., R. 2010. From SCORM to Common Cartridge: A step forward. In Computers & Education 54: 88-102. John, I.; and Muthig, D. 2002. Tailoring Use Cases for Product Line Modeling. In International Workshop on Requirements Engineering for Product Lines (REPL 2002), Essen, Germany. ISBN: 0-9724277-0-8. Laforcade, P. 2010. A Domain-Specific Modeling approach for supporting the specification of Visual Instructional Design Languages and the building of dedicated editors. In Journal of Visual Languages and Computing. Volume21 Issue6:347-358 Marca, D.A.; and McGowan, C.L. 1987. SADT: structured analysis and design technique. ISBN:0-07040235-3, New York USA. Ortiz, I. M.; Sierra, J.L.; and Fernández-Manjón B., 2009. Enhancing IMS LD Units of Learning Comprehension. The 4th International Conference on Internet and Web Applications and Services. Italy. Steel C., 2009. Reconciling university teacher beliefs to create learning designs for LMS environments. The University of Queensland. In Australasian Journal of Educational Technology Tattersall, C.; Burgos, D.; Vogten, H.; Marterns H.; Koper, R., 2005. How to use IMS Learning Design and SCORM 2004 together.IN the SCORM 2006 conference. Tamkang University, Taipei, Taiwan. Amiens - 23 et 24 mai 2012 Le TAL pour l’analyse de contenus d’interaction et de productions dans la formation en ligne. Alexandre Baudrillart LIDILEM1 – LIRIS2 Université Stendhal Grenoble 3, BP 25, 38040 Grenoble Cedex 9, France 2 Université de Lyon, CNRS, INSA-Lyon, UMR5205 F-69621, France [email protected] 1 Résumé Dans le cade d’apprentissages assistés par des environnements informatiques, les techniques du traitement automatique des langues ne sont que peu utilisés ou restreintes à des tâches ou à des domaines spécifiques comme l’ALAO (Apprentissage de la langue Assisté par Ordinateur). Nous cherchons à explorer les possibilités et les performances d’applications de ces méthodes pour des systèmes moins spécifiques dès que des traces d’interactions entre divers apprenants peuvent être collectées. Nous décrivons ici notre problématique et son contexte, nos motivations et l’orientation de nos travaux bibliographiques. Introduction Les préoccupations considérées dans le cadre de notre thèse, dirigée par Georges Antoniadis (LIDILEM) et codirigée par Sébastien George et Christine Michel (LIRIS), concernent l’analyse de matériaux langagiers de traces d’interactions et de productions dans des situations d’apprentissage collectives, c’est-à-dire les messages en langue naturelle échangés. L’objectif principal est exploratoire et consiste à évaluer les possibilités des traitements automatiques des langues actuelles dans la production d’indicateurs sur le niveau et la qualité de construction du savoir par les apprenants lors de ces situations d’apprentissage. Nous décrirons un panorama général du Traitement Automatique des Langues, qui n’est pas un domaine connu de tous (Antoniadis 2008). Puis, nous aborderons de manière non exhaustive les applications de méthodes TAL pour les EIAH et plus particulièrement pour l’ALAO. Enfin, nous expliciterons notre problématique préparatoire et tâcherons de la situer par rapport à deux travaux. de transformer des matériaux langagiers (qu’ils soient écrits ou oraux) en représentations formelles (Bouillon et Vandooren 1998) plus ou moins implicites mettant en exergue la présence, l’absence de certaines entités, l’existence de relations entre différentes entités, ou encore permettant de retrouver des documents et des contenus en fonction d’une demande formulée en langue naturelle. Par la suite, nous restreindrons notre description au traitement de l’écrit. Nous présenterons le TAL de manière générale, puis décrirons une chaîne de traitement traditionnelle en TAL et les différents étapes ou ressources mises en œuvre, et enfin nous mettrons en avant quelques méthodes répandues que sont l’Utilisation de l’Analyse Sémantique Latente (Latent Semantic Analysis), la fouille de texte ou la classification supervisée. Une chaîne de traitement de l’écrit type en TAL On distingue généralement deux types de traitement : l’analyse, dont font parties les exemples inscris ciavant, et la génération automatique de textes en langue naturelle. La génération automatique de texte consiste en la production de texte en langue naturelle à partir de données brutes ou d’une représentation formelle comme la génération automatique de bulletins météorologiques en langue naturelle (Coch 1999). Nous ne présentons ici que l’analyse car elle partage beaucoup avec la génération à part la dimension de planification et le sens de parcours de la chaîne. La chaîne de traitement traditionnelle des traitements d’analyse de l’écrit se présente comme en FIGURE 1. Le Traitement Automatique des Langues et ces Principales Techniques Le Traitement Automatique des Langues (Natural Language Processing) est par essence pluridisciplinaire (Antoniadis 2008). En effet, il consiste à fournir des modèles et des programmes informatiques permettant 4ièmes Rencontres Jeunes Chercheurs en EIAH 9 Alexandre Baudrillart intégralité ou non pour des tâches de plus haut niveau, qu’elles soient proprement linguistiques ou qu’elles répondent à des besoins, des problèmes qui ne sont pas directement liés à la langue et cela au travers de cette dernière. Approches Représentatives Figure 1 : chaîne de traitement type en traitement automatique des langues (P. Enjalbert) On segmente et on tokénise le texte source, c’est-àdire qu’on va essayer de découper en différents morceaux correspondant à des mots, des acronymes ou des séparateurs. On obtient des phrases contenant des tokens. Ensuite ou de concert, intervient une analyse morphologique permettant, à partir de la forme des mots (les graphies), de leurs désinences ou de leurs préfixes (appelons ces parties morphèmes qui sont des formes atomiques amenées à être combinées pour former les mots de la langue) pour catégoriser la nature grammaticale de ces mots (Part Of Speech Tagging). Différents analyseurs morphologiques automatiques existent et notamment TreeTagger1 répandu dans la communauté du TAL (Schmid 1994) car un des meilleurs parmi les outils gratuits. Une fois des étiquettes de catégories grammaticales attachées aux différentes graphies (qu’on ait effectué des choix ou seulement énuméré les possibles). Une étape d’analyse syntaxique entre en jeu avec deux objectifs. Le premier objectif est la validation de la correction grammaticale du texte en vérifiant si les mots et leurs catégories grammaticales obéissent à la grammaire de la langue souvent formulée sous forme d’une grammaire. Le second est de constituer les relations syntaxiques qui unissent les différents mots au sein de la phrase. C’est alors une structure arborescente qui représente la phrase. On peut citer deux analyseurs morphosyntaxiques : Syntex (Bourigault 2007) et le Xerox Incremental Parser2. Ensuite, un étiquetage sémantique des tokens prend place. On essaye d’associer chacun des tokens à un Concept d’une ontologie (a)linguistique (ex : GeneOntology), à une entrée lexicale précise d’un réseau lexicale ou sémantique (ex : WordNet) et/ou en lui prêtant différents caractéristiques sous forme d’une structure de traits. On obtient alors un arbre étiqueté par toutes ces informations supplémentaires. Ces différentes étapes représentent les prétraitements traditionnellement admis comme nécessaires dans leur 1 http://www.ims.uni-tuttgart.de/projekte/corplex/TreeTagger/ 2 http://www.xrce.xerox.com/Research-Development/DocumentContent-Laboratory/Parsing-Semantics/Robust-Parsing 10 On répartit habituellement les différentes approches du traitement automatique des langues en deux catégories : les méthodes à base de règles et les méthodes statistiques. Les Approches à Base de Règles Les approches à base de règles dérivent de l’utilisation de systèmes experts et de l’ingénierie des connaissances. Le matériau langagier est transformé en une représentation symbolique qui constitue principalement une base de faits et un ensemble de règles constituées manuellement par des experts qui vont permettre d’expliciter, au travers du moteur d’inférence, des informations encore plus implicites que celles nécessaires à la représentation de l’entrée en faits symboliques. On peut notamment trouver de telles approches dans le cadre de la résolution d’anaphore (Kennedy et Boguarev 1996, Liang et Lin 2005) Les Approches Statistiques Les méthodes statistiques s’appuient sur des propriétés de similitude ou de différence parmi différentes matériaux langagiers issus de réelles productions humaines en observant les fréquences d’apparition de termes dans les différents documents, les cooccurrences de termes ou des motifs réguliers permettant une classification supervisée ou non. Parmi les méthodes statistiques on peut retrouver l’Analyse Sémantique Latente (Deerwester et al. 1990) avec laquelle on établit les fréquences de chaque terme pour chacun des documents d’un corpus afin de construire un espace avec autant de dimensions que de termes (mots ou groupes de mots non-grammaticaux). On obtient ainsi une matrice creuse où les lignes sont les termes et les colonnes les documents. Un coefficient est alors l’effectif d’un terme ti dans un document dj normalisé selon sa rareté dans le corpus (un terme omniprésent n’est en rien discriminant pour un document). On réduit souvent le rang de cette matrice en réduisant les différents termes à leurs radicaux, en regroupant des synonymes, et en retirant les termes peu discriminants ou extrêmement rares. On peut alors obtenir des corrélations entre termes (respectivement entre documents) en effectuant le produit scalaire entre chaque ligne (respectivement chaque colonne). Une décomposition en valeurs singulières de cette matrice permet de projeter documents et termes dans un espace de concepts en évaluant cette fois-ci les corrélations entre termes et concepts et entre documents et concepts. On peut Amiens – 23 et 24 mai 2012 Le TAL pour l’analyse de contenus d’interaction et de productions dans la formation en ligne ensuite procéder à des classifications non supervisées d’un corpus selon cet espace de concepts. Une technique de segmentation thématique de suite de paragraphes dans un texte, proposée par Marty Hearst, s’appuie dans le même esprit, sur un modèle vectoriel : le Text Tiling (Hearst 1997). On change de grains : le corpus depuis le document et le document devient un passage de ce dernier. On estime qu’il y a un changement thématique lorsque deux passages consécutifs sont beaucoup plus distants, dans l’espace formé par chaque terme du document, qu’auparavant. Des méthodes de classifications automatiques liées à l’apprentissage automatique (Machine Learning) sont maintenant beaucoup utilisées en les hybridant avec des représentations symboliques, que ce soit une fouille de données traditionnelles, séquentielles ou la fouille de texte. (Lucas et Crémilleux 2004, Charnois et al. 2006, Charnois et al. 2008) Principales tâches La croissance du TAL depuis les années 50 est étroitement liée à celui du vieux rêve qu’était la traduction automatique qui a évolué vers une traduction semi-automatique, qu’elle soit automatique assistée par l’humain ou humaine assistée par ordinateur. Cette première revient à analyser une langue source pour opérer un transfert de cette première représentation vers une représentation en langue cible afin d’opérer une génération d’un texte dans la langue cible. Simuler des interactions, soit une compréhension limitée d’un message par un agent informatique et/ou la génération de sa réponse intelligible et pertinente pour l’utilisateur est aussi une tâche à laquelle peuvent répondre les traitements de langue. Enfin, le TAL contribue déjà à des systèmes pour l’apprentissage humain, nous abordons ce sujet dans la partie suivante. La Place du Traitement Automatique des Langues dans les EIAH TAL et EIAH Dans (Gurevych et al. 2009), les auteurs décrivent le panorama de l’utilisation des technologies TAL pour l’EIAH et les classe en quatre catégories : la génération automatique d’exercices, l’évaluation automatique des réponses discursives d’apprenants, l’aide à la lecture et à la rédaction, et enfin la gestion de contenus et l’apprentissage collaboratif en ligne (CSCL). Génération Automatique d’Exercices La génération automatique de QCM, d’exercices lacunaires et l’évaluation de l’efficacité de ces derniers est un enjeu bien abordé par les applications du TAL comme dans (Karamis et al. 2006) ou (Lee et Seneff 2007), néanmoins 90 % des références citées par l’auteur concernent l’ALAO. Evaluation Automatique de Prose L’analyse de textes librement rédigés par des apprenants pour répondre à des questions ouvertes, qui acceptent un raisonnement pertinent comme « bonnes réponses » ou des modèles types de bonnes réponses, est un problème de choix pour éprouver le TAL et le faire progresser. Mais la compréhension automatique reste un rêve depuis longtemps « oublié » par les spécialistes. (Antoniadis 2008) Aide à la Lecture et à la Rédaction Les technologies de langue permettent aussi d’apporter une aide à la lecture mettant en relation des textes avec les glossaires appropriés ou offrant des liens vers d’autres documents donnant définitions, prérequis et contexte. Mais aussi à la rédaction en offrant une correction automatique orthographique ou syntaxique. Avec l’essor d’internet, l’explosion du nombre de documents disponibles et celle de son débit que cela soit des articles de presse, des dépôts de brevets, les annonces des entreprises sur les marchés ou encore les publications académiques, la gestion de l’information est devenue humainement chronophage et intraitable pour respecter des délais d’instantanéité que la société d’aujourd’hui exige. Ainsi, l’organisation et le référencement de tous ces documents par une indexation, discriminante au sein d’un corpus, par concepts (vers un web sémantique), pour la recherche documentaire, l’extraction d’information et la veille stratégique, est toujours une application privilégiée des technologies de la langue. 4ièmes Rencontres Jeunes Chercheurs en EIAH La lecture de textes en langue étrangère ou avec des termes spécifiques à un domaine, abordant des concepts inconnus ou rédigés avec un style pompeux peut nécessiter une aide extérieure sous la forme de simplification de textes, de proposition de synonymes, de mise en relation avec des documents tiers explicitant définitions ou glossaires comme (Gaudio et Branco 2007), contexte et prérequis. Cela concerne aussi l’aide à la rédaction et notamment ce que peut offrir le TAL en correction orthographique ou syntaxique. CSCL et Web L’essor du Web a permis l’accès à des ressources en ligne comme des sites spécialisés ou des encyclopédies numériques, mais il a aussi créée un savoir de la foule par le partage de savoir sur des forums, des blogs ou encore des wikis. Des travaux concernant ces derniers qui sont aussi de l’ordre de l’ingénierie des connaissances : de l’organisation de ces dernières dans des espaces comme les wikis. 11 Alexandre Baudrillart Les auteurs soulignent le fait que le Tal peut notamment contribuer à tisser des liens entre des contenus similaires (Green 1998), fusionner le contenu de passages proches (Gabrilovitch et Markovitch 2007), réaliser une segmentation thématique des contenus afin de les diviser (Choï et al. 2001) ou encore extraire des termes-clés (Mihalcea et Tarau 2004). La construction de connaissance y est effleurée par la mise en évidence de techniques d’évaluation automatique de la qualité de production au sein de wikis (Druck et al. 2008) ou de forums (Weimer et al. 2007), qui reste relativement proche de l’évaluation de dissertations. L’état actuel de nos recherches bibliographiques ne nous permet pas de nous étendre sur un vaste panorama dans ce champ de recherche. Néanmoins nous présentons dans la dernière section des travaux récents à ce sujet qui entrent directement dans le cadre de notre problématique et qui nous serviront de point de repère et de point de départ afin d’identifier par la suite des mécanismes de TAL mis en jeu et les indicateurs à définir. TAL et ALAO Le Traitement Automatique des Langues (TAL) est encore peu appliqué dans le cadre d’EIAH en dehors des systèmes d’Apprentissage des Langues Assistée par Ordinateur (ALAO). Dans ces systèmes, le support de communication est aussi l’objet de l’étude, et sa maitrise « un » objectif pédagogique. Il est donc à la fois immédiat et légitime que ce matériau langagier soit diagnostiqué, analysé, et évalué. (Antoniadis 2008) La particularité de notre problématique est la volonté d’explorer les possibilités de production d’indicateurs pertinents pour évaluer la construction du savoir chez les apprenants que pourraient avoir les méthodes TAL. Les traces analysées concernent donc les propos échangés et les différentes versions des productions finales en construction et cela sans restriction des approches (si ce n’est socioconstructivistes), des scénarios pédagogiques et des disciplines. et la construction de scénarios pédagogiques, et l’évaluation de niveau de connaissance ou de maitrise chez les apprenants. L’analyse de traces considère majoritairement l’organisation linéairement temporelle des interactions avec et au travers d’interfaces homme-machine notamment pour une interaction distante avec d’autres utilisateurs et peuvent correspondre à la manipulation d’éléments d’interface, la saisie de contenu, le déclenchement de processus propres à l’environnement. Ces traces sont temporellement situées comme des intervalles sur un axe de temps avec une date de début et une date de fin, et donc une durée. La finalité de ces analyses est de produire des indicateurs pour mettre en évidence des comportements. Pour cela, on est amené à combiner différentes traces, à les synchroniser et enfin à les transformer pour produire plus ou moins directement des indicateurs visualisables amenant à informer différentes classes d’utilisateurs sur le contexte, les performances ou les comportements dans les situations d’apprentissages. Ces feedbacks sont émis à des fins d’auto-évaluation des apprenants, d’évaluation sommative par l’enseignant ou d’encadrement par et pour des tuteurs. Dans le cadre d’interactions de communications entre différents acteurs, c’est du matériau langagier qui est échangé et cet aspect de la langue constitue une dimension primordiale de ces traces. Or, souvent l’analyse des contenus des échanges verbaux ou encore de productions collectives est laissée pour compte et seules les informations événementielles ou quelques métadonnées, représentatives des contenus voire des tons ou des actes de langages (George 2004), sont utilisées. Exemple de Situation Socioconstructiviste Bénéficiaire Problématique On peut observer un cas pour lequel un apport effectif de techniques de TAL pour un traitement dans un article de Hou et Wu (Hou et Wu 2011) dans lequel une classification de messages en types d’interactions et l’évaluation de la qualité de discussion sont réalisées par des experts humains dans le but de détecter des motifs caractéristiques des bonnes ou mauvaises discussions. La finalité de notre de thèse est de pouvoir évaluer la construction du savoir chez les apprenants par rapport à des objectifs pédagogiques bien définis, en fournissant des feedbacks aux différents acteurs d’une situation d’apprentissage, comme l’apprenant, le formateur ou le tuteur, sous la forme d’indicateurs pertinents. Dans cet article, les auteurs proposent d’étudier les caractéristiques et les limitations des discussions synchrones pour l’apprentissage collaboratif, ainsi que l’impact des interactions sociales et d’une collaboration entre les différents apprenants sur la construction du savoir. Ces centres d’intérêts rejoignent les travaux sur l’étude des traces d’interactions dans les Environnements Informatiques pour l’Apprentissage Humain, et la production d’indicateurs, la modélisation L’expérience consiste à observer à long terme (3 mois) 40 étudiants répartis en groupes, de moins de dix étudiants, dont la tâche est de participer, par l’intermédiaire d’une messagerie instantanée, à des discussions dont le sujet a été fixé par leur professeur. Positionnement et Objectifs de la Thèse 12 Amiens – 23 et 24 mai 2012 Le TAL pour l’analyse de contenus d’interaction et de productions dans la formation en ligne Ces discussions doivent amener à des conclusions après des recherches et des débats. un partage de connaissance ou à organisation même s’ils ne sont pas autant productifs. On va s’intéresser, dans un premier temps, à une analyse quantitative du contenu des messages des discussions selon le comportement qu’il représente au sein de la discussion dont il fait partie. Ces comportements sont classés selon quatre catégories : élaboration de la connaissance, organisation et collaboration entre apprenants, interactions sociales ou hors-sujet. Le classement de ces messages est réalisé manuellement par des experts. On voudra ainsi guider les enseignants dans leurs interventions en conseillant de recadrer les hors-sujet, fournir un cadre de règles pour aider à coordonner les apprenants ou initier cette coordination. Organiser des sessions de jeu de rôles où les rôles sont fixés pour aussi enseigner par l’expérience une certaine collaboration. De plus, il faut parfois motiver les participants ou leurs donner des pistes lorsque ils atteignent des goulets d’étranglement. Le professeur (expert sur les sujets) classe les groupes d’étudiants selon la qualité des discussions qu’ils produisent (bonne ou mauvaise). Ils sont jugés selon quatre dimensions : la clarification du sujet, la collecte d’information, la profondeur de l’analyse et la conclusion sur le sujet. Mais qu’en est-il d’un traitement automatique ? On peut remarquer que les auteurs n’affichent ni n’évoquent aucun processus ou sous-traitement automatisé ou automatisable. Ainsi l’analyse repose sur une force humaine et un corpus spécifique. Pour compléter l’approche quantitative, on s’intéresse aux séquences de comportements significatives (statistiquement) notamment pour mettre en valeur des continuités ou discontinuités de comportements et/ou de catégories de comportements et observer les dépendances entre de comportements et/ou entre catégories de comportements. On apprend que des comportements plus collaboratifs et des décisions prises conjointement participent à améliorer la qualité de la discussion, la diversité et la profondeur des connaissances construites autour du sujet. De plus, des interactions sociales telles que des encouragements ou des félicitations est un lien vital entre les messages apportant une pierre à la discussion et la coordination qui reste primordiale pour que ces apports soient bien organisés, divers, profonds, discutés, précisés, évincés mais aussi pour conclure collectivement sur un sujet (ou encore pour le brainstorming). On observe que plus de 50 % des messages sont hors-sujet, et, contre toute attente, que la proportion est légèrement plus importante dans les discussions de bonne qualité. Mais on apprend aussi grâce aux séquences qu’il y a continuité au sein de la dimension de la construction du savoir et non la continuité d’un seul comportement. Ainsi, les discussions de bonne qualité voient une connaissance diversifiée prendre forme enchaînant, par exemple, un partage de connaissance (le plus fréquent : 30%) puis des messages appelant à un recul comme discuter des définitions de certains termes, ou voulant clarifier le sujet. Ces continuités sont aussi garantes du focus des apprenants sur le sujet et de la profondeur de la discussion. Ce qui consolide et isole les messages pertinents des messages hors-sujet. De plus, les séquences traduisent aussi une totale indépendance des messages hors-sujet vis-à-vis de toutes les autres catégories de comportements. Les comportements hors-sujet existent aussi pour créer un climat propice à 4ièmes Rencontres Jeunes Chercheurs en EIAH En effet, les messages sont classés selon certains comportements qui peuvent être eux-mêmes rangés dans des dimensions spécifiques et ces décisions ne sont pas triviales. Ainsi, dans un système automatisé, on aimerait avoir une classification automatisée des messages selon ces critères, ce qui permettrait d’inférer, à la volée, les conseils à promouvoir aux apprenants ou aux enseignants pour améliorer la qualité des discussions et de l’apprentissage (sans négliger la rapidité d’apprentissage), réagir à des séquences de comportements ou encore simuler un participant fictif qui pourra aiguiller les apprenants pour une meilleure qualité non loin d’un tuteur intelligent. Exemple de Travail Proche : PolyCAFe Dans (Trausan-Matu 2010) et (Rebedea et al. 2010), les auteurs présentent un système analysant les échanges entre des étudiants dans une optique de débat, et de synthèse, concernant un domaine bien défini : les CSCL, sur une plateforme dédiée conservant les traces de ces discussions. Ce système associe à une chaîne de traitement traditionnelle une ontologie représentant les concepts du domaine, ici les IHM, pour éviter des ambiguïtés dues à la polysémie des langues naturelles, ainsi qu’à une LSA réalisée au préalable sur un corpus afin de comparer les concepts évoqués dans deux messages dans l’espace conceptuel préconstruit et identifier les différents fils de discussion. Le système de discussion impose aux participants de préciser à quels apprenants ils répondent. Cette information est utilisée pour identifier de premières interactions explicites. Des traitements linguistiques d’un plus haut niveau prennent place pour identifier les références des uns aux autres (coréférence, distance LSA, connecteurs logiques…) afin de construire un graphe représentant les interactions sur les différents savoirs mises en jeu. Une analyse des réseaux sociaux identifie différents critères significatifs comme la 13 Alexandre Baudrillart centralité des graphes, les degrés, qui fait autorité (au sens du pagerank de Google) ou la cohésion, notamment avec le calcul de composantes fortement connexes et de cliques. Les feedbacks concernent l’évaluation de cette collaboration mais aussi de plus simples critères de lisibilité et de qualité de la prose. Ces travaux sont pour nous très intéressants car ils mettent en perspective les techniques actuelles du TAL de bas niveau (analyse morphosyntaxique, LSA, Ontologie) et de haut niveau (structure argumentative, discours et dialogisme), même si elles ne sont pas décrites, mais aussi les techniques d’analyse de réseaux sociaux pour des situations d’apprentissage collaboratif en ligne. Conclusion Nous avons décrit dans cet article le champ du traitement automatique des langues, mis en évidence qu’outre l’ALAO, l’application du TAL aux EIAH reste encore peu explorée et que des potentiels résultats peuvent être légitimement attendus, notamment dans le cadre de situations socioconstructivistes. Références Antoniadis, G. 2008. Du TAL et de son apport aux systèmes d'apprentissage des langues : Contributions, mémoire d’habilitation à diriger des recherches, Université Stendhal - Grenoble 3. Bouillon, P. and Vandooren, F. 1998. Traitement automatique des langues naturelles, Duculot. Bourigault, D. 2007. Un analyseur syntaxique operationnel : Syntex, mémoire d’habilitation à diriger des recherches, CNRS et Université de Toulouse-Le Mirail. Charnois, T.; Durand, N. and Kléma, J. 2006. Automated Information Extraction from Gene Summaries. In proceedings of the ECML/PKDD Workshop on Data and Text Mining for Integrative Biology, 4-15. Berlin, Germany. Choi, F. Y. Y.; Wiemer-Hastings, P. and Moore, J. 2001. Latent Semantic Analysis for Text Segmentation In Proceedings of EMNLP: 109-117 Coch, J. 1999. Génération multilingue de bulletins météorologiques: le logiciel MULTIMETEO. In Proceedings of GAT-99, 2éme Colloque Francophone de Génération automatique de Textes. Grenoble, France. Deerwester, S.; Dumais, S. T.; Furnas, G. W.; Landauer, T. K. and Harshman, R. 1990. Indexing by latent semantic analysis. Journal of the American Society for Information Science 1:391-407. Druck, G.; Miklau, G. & McCallum, A. 2008. Learning to Predict the Quality of Contributions to Wikipedia Proceedings of AAAI Workshops Gabrilovich, E. and Markovitch, S. 2007. Computing Semantic Relatedness using Wikipediabased Explicit Semantic Analysis 14 Proceedings of the 20th International Joint Conference on Artificial Intelligence : 6-12 Gaudio, R. D. 2007. Supporting e-learning with automatic glossary extraction : Experiments with Portuguese. In proceedings of the RANLP 2007 workshop: Natural Language Processing and Knowledge Representation for eLearning Environments, Borovets, Bulgaria. George, S. 2004. Analyse automatique de conversations textuelles synchrones d'apprenants pour la détermination de comportements sociaux. Revue Sciences et Technologies de l'Information et de la Communication pour l'Éducation et la Formation 10:165-193. Green, S. J. 1998. Automated Link Generation: Can we do Better than Term Repetition? Computer Networks 30:75-84 Gurevych, I.; Bernhard, D. and Burchardt, A. 2009. Educational Natural Language Processing, Notes for ENLP tutorial held at AIED 2009, Brighton, U. K. Hou, H.-T. and Wu, S.-Y. 2011. Analyzing the social knowledge construction behavioral patterns of an online synchronous collaborative discussion instructional activity using an instant messaging tool. A case study, Computers & Education 57:1459-1468 Karamanis, N. 2006. Generating Multiple-Choice Test Items from Medical Text: A Pilot Study. In Proceedings of INLG 2006, 104-107. Sydney, Australia. Lee, J. and Seneff, S. 2007. Automatic generation of cloze items for prepositions. In proceedings of the eighth INTERSPEECH conference, 2173-2176. Antwerp, Belgium. Lucas, N. and Crémilleux, B. 2004. Fouille de textes hiérarchisée, appliquée à la détection de fautes. Revue Document Numérique 8:107-133. Mihalcea, R. & Tarau, P. 2004. TextRank: Bringing Order into Texts Conference on Empirical Methods in Natural Language Processing Rebedea, T.; Dascalu, M.; Trausan-Matu, S.; Banica, D.; Gartner, A.; Chiru, C. and Mihaila, D. 2010. Overview and preliminary results of using PolyCAFe for collaboration analysis and feedback generation. In proceedings of the 5th European conference on Technology enhanced learning conference on Sustaining TEL: from innovation to learning and practice:420-425. Barcelona, Spain. Trausan-Matu, S. 2010. Automatic support for the analysis of online collaborative learning chat conversations. In Proceedings of the Third international conference on Hybrid learning:383-394 . Beijin, China. Weimer, M. & Gurevych, I. 2007. Predicting the Perceived Quality of Web Forum Posts Proceedings of RANLP 2007 Amiens – 23 et 24 mai 2012 Interprétation des traces d’interaction dans un EIAH par une recherche de patterns d’activité Mohamed Besnaci Université BADJI MOKHTAR d'Annaba, Département d'informatique [email protected] Résumé Notre travail s’intègre dans une perspective cherchant à trouver des nouvelles modalités pour un contrôle pédagogique dans les EIAH. Pour cela, Nous avons choisi comme outil support les traces d’interaction qui vont nous servir de source renouvelable d’informations reflétant le comportement des apprenants. Les traces sont des informations de nature technique difficilement interprétées par les pédagogues. Notre objectif est de les interpréter et d’en extraire des indicateurs aidant au contrôle pédagogique. Cette interprétation part du principe de détection de patterns d’objets et applique un processus d’appariement pour détecter d’éventuelles épisodes plus compréhensibles. Introduction Un EIAH (Environnement Informatique d’Apprentissage Humain) est un environnement informatique conçu dans le but de favoriser l’apprentissage humain. La qualité d’un EIAH peut être définie en mettant le point sur deux entités. La première c’est la qualité de ce qu’il offre comme connaissances, activités, supports, outils, contenus, etc. la seconde est la qualité et la pertinence du contrôle pédagogique (s’il existe) proposé pour assurer les objectifs d’apprentissage (Guéraud 2005). Notre article s’intègre dans cette perspective des modalités et techniques de contrôle pédagogique. L’objectif global est de penser à une nouvelle modalité pour l’aide au contrôle pédagogique. Pour cela, nous avons choisi comme outil support les traces d’interaction. Elles servent pour nous comme source renouvelable d’informations reflétant les comportements des apprenants. Nous avons choisi aussi comme terrain expérimental notre simulateur CUSIM (Central Unit SIMulator). Du point de vue de l’apprenant, CUSIM est un environnement d’apprentissage par la pratique du fonctionnement de l’unité centrale d’un ordinateur. Nous le considérons comme une source génératrice de traces. Contrôle pédagogique Un apprenant qui utilise un EIAH dans un domaine donné a besoin continuellement d’un contrôle pédagogique (Guéraud 2005) de la même façon qu’avec un tuteur humain. Que ce soit dans un EIAH ou avec un humain, un contrôle pédagogique sert à guider 4ièmes Rencontres Jeunes Chercheurs en EIAH l’apprenant et à valider ses actions. Il englobe ainsi de notre point de vue toutes les fonctionnalités d’aide, d’orientation, de suggestion, d’assistance et d’évaluation. Une stratégie de contrôle pédagogique est spécifiée en prenant en compte plusieurs considérations: l’approche d’apprentissage est elle cognitiviste ou constructiviste ? La nature de la situation d'apprentissage est elle individuelle ou collective ? Les connaissances visées sont-elles déclaratives, procédurales ou s’agit-il de méta-connaissances ? La granularité du contrôle est-elle du niveau des activités, des séquences d'activités ou des unités d'enseignement ? La délégation du contrôle est-elle laissée à la machine, à l'humain, aux deux ou est-elle effectuée par un réseau d'acteurs ? (Labat et al. 2006) Nous pouvons distinguer plusieurs catégories de techniques de contrôle pédagogique (Labat et al. 2006, Guéraud 2005, Cortes Buitrago 1999, Paquette et Tchounikine 2002): - le contrôle centré sur le comportement de l’apprenant qui consiste à observer le comportement informatique de l’apprenant et d’en déduire les rétroactions pertinentes. - le contrôle centré sur le raisonnement et les connaissances, qui dépend essentiellement du type des activités proposées qui varie de la simple lecture et parcours de connaissances à la résolution de problèmes et la manipulation de simulations. - le contrôle pédagogique basé sur la scénarisation des activités d’apprentissage. L’apprentissage dans ce cas est guidé et l’apprenant est forcé à suivre un certain scénario pédagogique. - le contrôle pédagogique basé sur un conseiller pédagogique qui a pour principe d’analyser les interactions de l’apprenant avec le système d’apprentissage, puis de trouver la bonne réaction en terme d’aide et de suggestion pédagogique. Dans ce qui suit nous allons présenter notre outil CUSIM qui est un simple simulateur de CPU (Central Processing Unit) auquel nous essayons d’associer un module de contrôle pédagogique. Ce module va s’articuler autour des traces d’interaction et de leur interprétation. 15 Mohamed Besnaci Simulateur CUSIM et traces CUSIM est un simulateur conçu pour reproduire le fonctionnement de l’unité centrale d’un ordinateur de type Intel. CUSIM a pour objectif d’aider les apprenants à connaître le fonctionnement et à manipuler les différents composants de l’unité centrale. Pédagogiquement, il est développé dans le but d’offrir un outil de test et de validation simple et efficace propre à notre équipe «EIAH» au sein de notre laboratoire LRI (Université d'Annaba, Algérie). Plus précisément, l’outil va être d’une part notre source génératrice de traces d’utilisation suite aux sessions d’utilisation des apprenants. D’autre part, CUSIM est conçu pour valider et concrétiser nos modèles et pour tester notre processus de traitement de traces. CUSIM propose aux utilisateurs quatre activités. 1. Documentation: elle a pour but de donner un bagage théorique sous forme de définitions, explications, tutoriels, schémas, sur la structure et le fonctionnement de l’ordinateur. 2. Démonstration: elle permet à l’apprenant d’observer les différents éléments de l’UC (Unité Centrale): l’unité de commande, le séquenceur, l’unité arithmétique et logique, le compteur ordinal, le registre instruction, etc., à travers des exemples de programmes soigneusement choisis. L’apprenant peut voir dynamiquement le fonctionnement de chaque élément de l’UC ainsi que leur coordination. La possibilité de changer la vitesse d’exécution des parties de programmes et de les mettre en pause peut aider considérablement les apprenants à bien renforcer leurs connaissances. 3. Manipulation: elle permet à l’utilisateur de manipuler chaque composant de l’UC séparément. Il peut faire des opérations arithmétiques et logiques, charger ou décharger des valeurs de variables en mémoire, et voir le cycle d’exécution des instructions à travers les signaux de l’unité de commande. 4. Exécution: cette activité donne plus de liberté à l’apprenant et lui permet d’écrire ses propres programmes et de voir les résultats et les conséquencesde ce qu’il écrit sur le fonctionnement de chaque composant de l’UC. L’outil CUSIM n’impose aucun ordre pour ces activités bien qu’il est suggéré aux apprenants novices de respecter l’ordre suivant: documentation puis démonstration puis manipulation puis exécution. Dans une session donnée, un apprenant peut faire tous les aller-retours qu’il veut entre les activités offertes. À la fin de chaque session d’utilisation d’un apprenant, un fichier log est généré par CUSIM. Ce fichier enregistre temporellement toutes les actions de l’apprenant faites sur l’outil. Il est considéré pour le moment comme l’unique façon de contrôler l’activité des apprenants. Par la suite, il va être plutôt une source de traçage pour alimenter notre processus de traitement et de manipulation de traces. Voici une des interfaces ainsi qu'un exemple de fichier log généré par CUSIM: 16 Fig1. Une interface et un fichier log généré par CUSIM Détection de patterns et interprétation de traces Une aide au contrôle pédagogique peut être, à notre avis, faite en montant dans les niveaux d’abstraction de description des traces d’apprentissage laissées par les apprenants. Selon la théorie des traces d’apprentissage (Champin et al. 2004, Settouti et al. 2006), les processus de traitement et d’exploitation de ces traces nécessitent des sources de traçage qualifiées de techniques. Nous entendons par «technique», que les informations traçant l’interaction de l’apprenant avec le système d’apprentissage soient dépendantes des interfaces et plateformes d’apprentissage, isolées sémantiquement les unes des autres et plutôt proches des détails de programmation que de l’esprit et des attentes du pédagogue. À cet effet, il s’avère utile de penser à une réécriture des traces premières en traces plus abstraites et plus compréhensibles. Ainsi, généraliser le processus de réécriture des traces en montant dans les niveaux d’abstraction peut être très bénéfique aux pédagogues les exploitant. Ce processus nous parait bénéfique, car il donne plusieurs dimensions en présentation de traces qui peuvent répondre à divers degrés d’objectifs pédagogiques. Dans le cadre de notre travail, nous proposons de travailler avec des traces d’un niveau d’abstraction assez bas (fichiers log de CUSIM). Nous souhaitons mettre en évidence les patterns issus des traces qui permettent à l’analyste enseignant d’établir des déductions sur l’activité des apprenants. Ainsi, l’idée est de détecter des patterns effectifs à partir des traces obtenues lors d’une expérimentation représentant l’historique de l’activité des acteurs (apprenants). Afin de découvrir les patterns, nous préparons une base de patterns et une méthode d’appariement entre les traces brutes et la base conçue. Nous nous focalisons alors essentiellement sur la recherche de motifs et la détection des séquences fréquentes. Ce processus est illustré dans le schéma suivant Fig2. Le processus commence par la Amiens – 23 et 24 mai 2012 Interprétation des traces d'un EIAH par appariement structurel collecte des traces d'interaction à partir des fichiers log. Ces traces sont ensuite appariées avec une base de patterns conçue auparavant pour chercher des patterns dans la trace. Après élimination des chevauchements entre les patterns résultats et détection des patterns avec éventuellement des observables non connus, nous procédons à une étape de recherche des séquences fréquentes pour enrichir la base de patterns. Le détail de ces étapes va faire l'objet des sections suivantes. Fig2. Processus de détection de patterns Modèle de traces pour les simulateurs pédagogiques Les fichiers log sont généralement de nature non ou semi structurés (XML). Pour pouvoir les utiliser comme support à l'interprétation de l'activité de l'apprenant dans notre contexte, il nous faut une étape de modélisation. Un modèle de trace a pour intérêt de structurer ces fichiers log et d'en retirer les informations inutiles (par rapport aux objectifs fixés). Dans ce but, nos fichiers doivent être représentés selon un modèle de trace soigneusement conçu (voir Champin et al. 2004, Settouti et al. 2006). Au vu des possibilités d'interaction et de comportement de la part de l'apprenant et du simulateur (Voir Leclet 2004, Lourdeaux 2001, Siouane 1999), il est possible d’extraire une collection d'objets formant le vocabulaire d'observables possibles dans un simulateur. Cette collection peut être arrangée dans des classes, qui font aussi partie d'autres classes, etc. Le tout forme une structure hiérarchique. Cette hiérarchie représente notre méta-modèle de trace représenté en Fig3. Trace brute Observable Communication Social Système Cognitif Demande Action Production Explicite Implicite Rétroaction Scénarisé Conditionné Automatique Fig3. Méta-modèle de trace pour simulateur • Trace brute: suite d’observables temporellement situés. • Observable: classe principale englobant tout type d’observable. 4ièmes Rencontres Jeunes Chercheurs en EIAH • Cognitif: observable englobant les comportements cognitifs demandant une réflexion et un raisonnement théorique et/ou pratique. Il peut être une configuration de paramètres, une affectation ou un changement de valeur (production). Comme il peut être un lancement d’action (action). • Social: observable décrivant les communications entre les apprenants dans un contexte collaboratif (Communication), et entre l’apprenant et le simulateur sous forme de demandes d’aide, conseils,etc. (demande). Les comportements sociaux sont toujours initiés par l’apprenant et le cas inverse n’est pas considéré ici. • Système: le comportement d’un simulateur peut être réactif suite à une demande explicite ou implicite de l’apprenant (rétroaction). Une demande explicite est lancée directement par l’apprenant tandis qu’une demande implicite est une réaction jugée pertinente suite à un comportement donné de l’apprenant. Le simulateur peut être proactif et son comportement dans ce cas est préétabli (scénarisé). Il se déclenche dans ce dernier cas soit automatiquement suite à un évènement temporel ou autre (automatique). Son déclenchement peut être conditionné par des comportements donnés de l’apprenant ou par la présence d’états donnés du simulateur. Spécification du modèle de traces pour le cas de CUSIM Les observables feuilles dans le modèle générique précédent (en gris) doivent encore être explicités et instanciés pour prendre en considération les détails de chaque simulateur. Nous partageons alors l'idée de spécification des modèles de traces à partir d'un modèle générique avec (Settouti et al. 2010). Ils ont proposé dans ce travail une approche de construction de modèles et de réutilisation d'un méta-modèle de traces d'activités dans un objectif de modélisation de l'apprenant. L'approche est basée essentiellement sur un ensemble de méta-modèles (modèle de trace des activités d'apprentissage, modèle de profil de l'apprenant et modèle de diagnostic) qu’ils spécifient pour chaque EIAH étudié dans le but de supporter et faciliter aux concepteurs les différentes taches de modélisation. Notre modèle générique a été spécifié et les observables feuilles sont alors instanciés. La Fig4. donne une spécification plus détaillée des comportements cognitifs de l’apprenant par rapport à notre simulateur CUSIM. Les observés générés par l’outil CUSIM sont de type cognitif parce qu’ils demandent une réflexion et un raisonnement théorique et pratique. Un observé peut être de type production s’il s’agit d’une configuration de paramètres, d’une affectation ou d’un changement de valeur, ou de type action s’il s’agit d’un lancement d’action. 17 Mohamed Besnaci décrit par le triplet (Type, Description, Chemin). Ainsi, l’appariement va être effectué entre des listes (formes simplifiées de graphes) de nœuds dont chacun est décrit par le triplet (Type, Description, Chemin). Supposons E un ensemble de triplets (Type, n Description, Chemin), E= {(T, D, C) , n Є N}. Supposons qu’on a L1 la représentation de la trace brute, L2 la représentation d’un pattern, tel que: L1,L2 ((L1,L2) C E2). Fig4. Modèle de trace pour les observés générés par CUSIM Les relations en lignes continues sont de type « est un » et les relations en lignes pointillées sont de type « nécessite ». Ce modèle va nous servir pour élaborer la trace à partir du fichier log de CUSIM. Chaque observable de la trace à construire est désigné par le triplet (Type, Description, Chemin). Le Type définit le type de l'activité cognitive Production ou Action. La Description définit l'activité précise réalisée en termes de manipulations sur les interfaces de CUSIM (Clique bouton Lecture, Affichage onglet Exécution, MAJ glissant Rythme démonstration, …). Le Chemin définit la succession des onglets ouverts pour arriver à l'interface conteneur de l'activité. La collecte consiste donc à définir les triplets des observables de la trace à partir du fichier log est ce de la manière suivante: à partir du champ Action de log qui contient des valeurs correspondantes directement aux feuilles du modèle de trace et en montant dans le modèle nous pouvons définir le Type de l'observable. La Description peut être directement déduite du champ Action du log. Le Chemin est déduit en combinant les deux champs Activité et Sous-Activité de log. Recherche de patterns par appariement structurel Nous avons pensé aux techniques d’appariement et de détection de motifs pour pouvoir transformer les fichiers logs matérialisant le comportement de l’apprenant d’une nature technique à une suite de patterns facile à comprendre et à interpréter. L’appariement dans notre cas consiste à comparer les suites d’observés constituants les traces brutes avec les petites suites d’observés constituants les patterns de la base. Les traces manipulées respectent obligatoirement le même modèle de traces (Fig3. Fig4.) et la base de patterns est conçue suite à une étude et des expérimentations faites sur l’environnement CUSIM. L’étude avait pour but de récolter le maximum de patterns fréquents lors de l’utilisation de CUSIM. En s’inspirant de certains travaux (Zampelli et al. 2007, Sorlin et al. 2006, Betbeder et al. 2007), notre appariement consiste à comparer la trace effective avec chacun des patterns de la base afin de mesurer la similarité entre eux. L’élément essentiel sur lequel sont basés les traces et les patterns qu'est l’observable, est 18 Un appariement entre deux listes L1 = (T1, D1, r s C1) et L2 = (T2, D2, C2) , tel que r,s Є N, est une relation: m C L1*L2. Pour mesurer la similarité entre deux listes par rapport à l’appariement m, nous proposons d’adapter la formule de similarité de (Tversky 1977) généralisée par (Sorlin et al. 2006): La formule (1) calcule la similarité entre la trace et les patterns de la base, en mettant en correspondance leurs descriptions. La fonction f définit l’importance relative des descripteurs, les uns par rapport aux autres. Cette fonction décrite par la formule (2) est souvent définie comme une somme pondérée: Afin d’affecter des valeurs pertinentes aux poids, il faut analyser soigneusement les trois descripteurs (Type, Description, Chemin) ainsi que les relations entre eux dans notre simulateur CUSIM. Pour chaque Description nous pouvons identifier au plus un et un seul Type, ainsi ces deux informations sont corrélées et le même poids est affecté pour les deux. Si nous prenons deux observés avec les couples (Description, Chemin), la similarité dans le cas où leurs Descriptions sont identiques et leurs Chemins sont différents est plus élevée que dans le cas contraire. Ainsi nous avons choisi un poids plus élevé (égal à 1) pour la Description par rapport au Chemin (égal à 0,8). Il est évident que les patterns détectés seront ceux présentant la plus grande similarité. Cette dernière doit impérativement être supérieure à un seuil d’acceptabilité indiqué par les pédagogues. Le seuil peut être exprimé par exemple par une fonction dépendante de la taille de la trace et de la taille des patterns comme suit: FSeuil(Taille_trace, Taille_patterns). Élimination de chevauchement et interprétation La valeur de la similarité est aussi utilisée dans le cas de chevauchement entre les patterns détectés. Dans une telle situation, ceux qui ont une similarité supérieure sont considérés tandis que les autres seront écartés. Dans le cas d’égalité, les deux patterns persistent et la décision est laissée aux pédagogues. Amiens – 23 et 24 mai 2012 Interprétation des traces d'un EIAH par appariement structurel La recherche de motifs fréquents ne faisant pas partie de la base de patterns permet de dégager des séquences ou épisodes d’actions dont le nombre élevé d’occurrences peut être porteur d’information. Les observés non touchés suite à l’appariement, et avant de les supprimer de la trace, sont exploités pour enrichir la base de patterns. Par l’intervention du pédagogue, s’il trouve que ces portions de trace portent une sémantique utile, il peut les ajouter pour enrichir la base, et elles seront ignorées sinon. L’extraction des motifs fréquents commence par la recherche des motifs de longueur un (un observable), ensuite les motifs fréquents sont enregistrés et combinés entre eux pour former des motifs candidats de longueur supérieure. Les motifs non fréquents sont éliminés, et par conséquent aucun de leur super-motif n’est considéré. La fréquence des motifs candidats est testée pour constituer un nouvel ensemble de motifs fréquents et l’algorithme continue tant que des nouveaux candidats peuvent être formés. Considérons E un ensemble d’observés. Pour déterminer les séquences de taille (n), nous sélectionnons les candidats possibles de telle sorte que ces probables n-séquences fréquentes soient composées par (n) sous-séquences de taille (n-1) (voir Cheype 2006). Exemple Afin de concrétiser notre idée et de présenter ces modèles, formules et processus, nous allons résumer le travail par des illustrations. Rappelons qu'on a fixé comme objectif applicatif, de concevoir un outil pédagogique interprétant les traces collectées en se basant sur des fichiers log de CUSIM. Un fichier log comme celui de la Fig1. est transformé en une trace brute en le confrontant à notre modèle de trace Fig4., comme présenté ci-dessous: L’exemple montre qu’une manipulation de registre d’adresse suivie d’une manipulation de registre mémoire suivie d’un click, peut être interprété par un pattern Ecriture_Mémoire. Un processus de détection de patterns peut être déclenché pour faire l'interprétation comme expliqué auparavant par l'appariement des structures présentées en Fig5. et Fig6., comme suit: Fig7. Appariement entre un pattern de la base et une trace. D'après la méthode d'appariement décrite, toutes les possibilités d'appariement sont effectuées. Celles qui présentent les valeurs de similarité les plus élevées sont gardées et les autres sont exclues. Par exemple pour l'appariement de la Fig7. entre le pattern et la fenêtre en gris la similarité est calculée comme suit: L'appariement m={[(4,5),(1')];[(6,7,8,9),(2')];[(10),(3')]} et la similarité est calculée avec les formules (1) et (2) en fonction de m: Sim(m). Après cette étape, seuls les patterns effectifs qui présentent une similarité importante sont gardés. L'étape suivante est l'élimination des chevauchements en gardant uniquement les patterns avec les similarités les plus élevées. L'outil d'interprétation qui a reçu un fichier log de CUSIM va générer maintenant une trace de plus haut niveau composée des différents patterns détectés (ayant une similarité importante) et d'éventuels observables restants. Fig5. Exemple de trace brute issued'un fichier log. C'est dans cette trace brute qu'on va chercher des patterns ressemblant à ceux de notre base dont voici un exemple: Fig8. Exemple de résultat du processus d'appariement et détection de patterns. Extension du processus de détection de patterns Fig6. Exemple de pattern (suite d'observables avec une sémantique) 4ièmes Rencontres Jeunes Chercheurs en EIAH Une extension de ce processus d’appariement peut être élargi pour des niveaux plus élevés que les simples 19 Mohamed Besnaci observés. L’idée est de passer d’un appariement (niveau 1) entre des listes d’observés à un appariement entre des listes de patterns déjà trouvés (niveau 2). De la même façon, le processus continue à augmenter le niveau d’appariement jusqu’à ce que les utilisateurs pédagogues jugent que le rassemblement de patterns ne va porter aucune information (il est alors inutile). Après tous ces traitements d’appariement à plusieurs niveaux et élimination de chevauchement, il sera temps de parler d’une interprétation des traces. Les pédagogues pourront ainsi, face aux niveaux de patterns trouvés dans la trace brute, se faire une idée suffisamment claire sur ce qu’un apprenant est entrain de faire et s’il est dans la bonne direction ou non. Conclusion & perspectives Le contrôle pédagogique est un module d’importance en EIAH. Ainsi, la qualité d’un EIAH est dépendante de celle de son contrôle pédagogique. Dans cet article nous avons essayé de proposer un pas vers une nouvelle modalité de contrôle pédagogique destiné aux simulateurs. L’idée était de partir des traces de comportement générées par le simulateur et à travers un processus de détection de patterns, d’exploiter ces traces. Nous avons pu, moyennant ce processus, passer des traces techniques à des formes plus agréables pouvant nous aider à comprendre le comportement des apprenants utilisant notre simulateur CUSIM. Nous espérons qu'avec l'extension du travail pour donner des niveaux plus abstraits de patterns, les enseignants pourront également profiter de ce processus. Le travail nous ouvre comme perspectives, en plus de l'extensibilité du processus pour plusieurs niveaux d'abstraction, la possibilité d'essayer d’appliquer ce même processus sur d'autres EIAH. Seuls les observables de type cognitif de notre méta-modèle sont exploités et donc il reste à l'essayer pour d'autres simulateurs. Nous attendons aussi en perspective, de lancer une expérimentation de notre processus de détection avec l’environnement CUSIM. Remerciements. Je tiens à exprimer mes sincères remerciements à mon encadrant de stage au LIRIS Mme Nathalie Guin pour son aide précieuse. Références Betbeder, M. L.; Tissot, R.; & Reffay, C. 2007. Recherche de patterns dans un corpus d’actions multimodales. EIAH'07 pp 533-544, Lausanne, Suisse Champin, P.A.; Prié, Y.;& Mille, A. 2004. MUSETTE: a framework for knowledge capture for experience. EGC’04, Clément Ferrand. EIAH. Actes de RJC-EIAH'06,SYSCOM - Université de Savoie, France. Cortes Buitrago, G. 1999. Simulations et Contrôle Pédagogique: Architectures Logicielles Réutilisables, Thèse de doctorat, Université JOSEPH FOURIER. Guéraud, G. 2005. Approches auteurs pour les situations actives d'apprentissage: scénario, suivi et ingénierie, Thèse de doctorat, laboratoire CLIPSIMAG, Université Joseph Fourier Grenoble Labat, J. M.; Pernin, J. P.; & Guéraud, V. 2006. Contrôle del’activité de l’apprenant: suivi, guidage pédagogique et scénarios d’apprentissage. Proceeding EIAH'06, Collection IC2, Hermès. Leclet, D. 2004. Environnements Interactifs d'Apprentissage dans des contextes professionnels. Des Tuteurs Intelligents aux Systèmes Supports d'Apprentissage à Distance, Mémoire d'HDR, IUP MIAGE, Universitéde Picardie. Lourdeaux, D. 2001. Réalité Virtuelle et Formation: Conception d'Environnements Virtuels Pédagogiques, Thèse de doctorat, Ecole des Mines de Paris. Paquette,G.; & Tchounikine, P. 2002. Contribution à l’ingénierie des systèmes conseillers: une approche méthodologique fondée sur l’analyse du modèle de la tâche. Revue Sciences et Techniques Educatives, Hermès, Vol 9 n°3-4, 157-184. Settouti, L.; Guin, N.; Luengo, V.; & Mille, A. 2010. A Trace-Based Learner Modelling Framework for Technology-Enhanced Learning Systems. The 10th IEEE International Conference on Advanced Learning Technologies, Sousse, Tunisia.pp.73-77.ISBN 978-14244-7144-7. Settouti, L. S.; Prié, Y.; Mille, A.;&Marty, J.C. 2006. Système à base de trace pour l’apprentissage humain, in TICE'06, Toulouse, 8 pp. Siouane, M. 1999. Architecture d'un simulateur pédagogique, Thèse demagistère, Université Badji Mokhtar de Annaba. Sorlin, S.; Sammoud, O.;Solnon, C.; & Ghédira, K. 2006. Comparaison de l'optimisation par colonies de fourmis et d'une recherche réactive sur des problèmes d'appariement de graphes. JFPC'06, Nîmes - Ecole des Mines d'Alès, France. Tversky, A. 1977. Features of similarity. Psychological Review, (84)4 pp 327-352 Zampelli, S.; Deville Y.;Solnon, C.; & Sorlin S., Dupont P. 2007. Filtrage pour l'isomorphisme de sousgraphe. JFPC'07, INRIA, France. Cheype, A. 2006. Recherche de motifs séquentiels pour guider l'interprétation des traces d'apprentissage dans un 20 Amiens – 23 et 24 mai 2012 Une approche centrée enseignant basée sur les patrons pour la scénarisation pédagogique Jean-Pierre Clayer Laboratoire LIUM, Université du Maine, Avenue Laënnec 72085 Le Mans [email protected] Résumé Les attentes de la société et les technologies évoluent. Ces évolutions changent l'enseignement en profondeur. Les enseignants et formateurs doivent organiser et formaliser leurs pratiques. Leur métier évolue, ils doivent acquérir de nouvelles compétences de concepteur pédagogique. Nous proposons de les aider au cours de cette activité de conception pédagogique et de la mise en œuvre des scénarios résultants sur des plateformes/supports informatique. Nous présentons une approche adaptative de conception à base de patrons et centrée sur l’utilisateur et l'éditeur élaboré pour supporter cette approche. Une étude de cas est proposée pour illustrer le processus de conception. I. Introduction L'enseignement change profondément depuis ces dernières années, en raison d'une part, de l'évolution des attentes de la société en la matière et, d’autre part, d'une large diffusion des nouvelles technologies. Dans ce cadre, les enseignants et les formateurs dont les pratiques -notamment de conception- sont souvent peu formalisées doivent maintenant davantage les structurer et les formaliser (Laurillard, 2012) au moyen de modèles qui pourront être mis en œuvre sur des plateformes informatiques. Ils doivent pour cela acquérir des compétences de concepteurs. Nous proposons dans ce cadre de les assister dans la démarche de conception de leur scénario pédagogique. Cet article présente une approche de conception adaptative à base de patrons centrée utilisateur. Une approche à base de patrons facilite la création et la réutilisation de scénarios implémentables par la communauté d'apprentissage (Choquet, 2007) (ELEN). L'approche est centrée utilisateur et adaptative. L'enseignant est l'acteur principal impliqué dans le processus de conception, mais aidé/guidé pendant l'élaboration du scénario pédagogique selon ses propres pratiques. La question de recherche principale de cet article est : Quelle est la faisabilité d’une approche de conception à base de patrons qui faciliterait la création et la réutilisation de scénarios pédagogiques par des enseignants/formateurs? La première section présente le contexte de recherche de notre travail. Nous proposons dans une seconde section un processus de conception basé sur l'utilisation de patrons et sur des techniques d’adaptation. Ce processus est illustré dans la troisième 4ièmes Rencontres Jeunes Chercheurs en EIAH section par une étude de cas. La conclusion synthétise nos résultats et présente les travaux futurs. II. Le Contexte de Recherche Dans la littérature, différentes approches s'intéressent à l'instrumentation de la conception pédagogique et plus particulièrement des scénarios pédagogiques. L'approche de modélisation à base d'Educational Modeling Languages (EML), comme LDL (Vignollet et Al, 2006), ou la spécification IMS-Learning Design (Koper et Tattersall, 2005) qui vise à fournir des modèles opérationnels qui peuvent être manipulés par des systèmes informatiques dédiés. Cependant ces spécifications ne sont pas vraiment utilisables par les enseignants et ne fournit pas de processus qui supporte la conception pédagogique (Hernandez-Leo et Al, 2010). Une autre approche est de permettre aux enseignants (qui peuvent être aidés par des spécialistes) de définir leur propre EML en spécifiant leur domaine métier et d'utiliser cet EML pour construire leurs scénarios (Choquet, 2007) (El Kechai, Choquet, 2007). Nos travaux basés sur cette deuxième approche supposent que les enseignants peuvent construire leurs scénarios par le biais de patrons et proposent un processus de conception adaptatif. Un patron de conception se concentre sur un problème bien connu et doit fournir une solution la plus pertinente par rapport à un contexte donné, illustrée par des diagrammes. Une approche par les patrons de conception est adaptée dans le cas d'une conception enseignante prenant en compte la complexité des représentations et la dépendance au contexte (Mor, 2010). Notre approche d'ingénierie vise à soutenir les enseignants dans leurs tâches de conception pédagogique. Les patrons de conception pédagogiques sont une façon de rassembler "les meilleures pratiques" d'apprentissage, fournissant une manière de communiquer l'expertise de la communauté à d'autres enseignants plus novices. Dans cette démarche, un outil-auteur est proposé pour aider à la conception de situations pédagogiques, par l'utilisation de patrons de conception rassemblés dans une banque de données selon la même approche que (Hernandez-Leo et Al, 2010). Les relations qui existent entre les patrons peuvent être décrites pour faciliter leur utilisation/réutilisation. Ces patrons de conception doivent permettre la définition de scénarios pédagogiques dans des 21 Jean-Pierre Clayer situations d'apprentissage différentes en termes d'objectifs, de compétences, de domaine, de méthode d'apprentissage, d'activités, de ressources, de besoins d'observation... Quelques exemples de patrons pédagogiques sont proposés dans les projets européens E-LEN ou le « Pedagogical Patterns Project ». Tracking Language qui permet de modéliser les indicateurs et les calculer en temps réel. Le projet COLLAGE (Hernandez-Leo et Al, 2006) propose un langage de modélisation pédagogique visuel à base de patrons mais mis en oeuvre dans RELOAD (Bolten, 2005), un outil-auteur basé sur IMS-LD. 1. Meta-Modèle de Patrons Notre contribution dans ce cadre est basée sur une autre approche à base de patrons. Les modèles peuvent être exprimés dans le langage métier des enseignants (Choquet, 2007) (El Kechai, Choquet, 2007) (par exemple avec leurs propres concepts métier et modèles de représentation). Nous ne visons pas encore des modèles productifs (des scénarios opérationnalisables), mais nous ne perdons pas de vue cet aspect. Ainsi, nous avons choisi de baser l'approche que nous proposons sur le Domain Specific Modeling Framework (DSM) (Kelly, Tolvanen, 2008) qui est une approche de génie logiciel éprouvée pour modéliser la dimension « métier » dans le domaine des systèmes d'information (Kelly, 2007). III. Une Approche Basée Patrons Centrée sur l’Enseignant Selon l'approche DSM, un méta-modèle (figure 1) doit être défini pour décrire le langage permettant de composer ou fusionner des patrons de formalismes différents. Le but de ce méta-modèle conforme au méta-modèle MOF (Meta-Object Facilities) est d’être utilisé pour générer un outil d’édition. Plus spécifiquement, nous avons choisi de développer notre éditeur avec EMF (Eclipse Modeling Framework) et GMF (Graphical Modeling Framework) pour mettre en oeuvre l'approche DSM . Une autre partie de la question de recherche est la problématique de l'adaptation dans l'approche visée à base de patrons centrée utilisateur. L'objectif est de proposer aux enseignants-concepteurs une assistance au cours de leur activité de conception qui s'adapte à leur profil, plus généralement à leur contexte de conception. Les modèles d'utilisateur et la modélisation utilisateur (user modelling) sont des éléments clés pour personnaliser l'interaction. La modélisation utilisateur est motivée par des différences entre les besoins individuels des utilisateurs ainsi que les caractéristiques et l'hétérogénéité entre différents groupes de personnes (Razmerita et Al, 2003). Nous définissons une approche modélisant l'utilisateur automatiquement où le modèle de l'utilisateur est défini durant l'activité de conception en fonction des caractéristiques de l'utilisateur (le profil utilisateur, les préférences de l'utilisateur, les compétences, le niveau d'activité, le niveau de connaissance …). Les caractéristiques de cet utilisateur sont des informations, issues de l’analyse des traces, pertinentes à collecter et qui seront utilisées pour aider les enseignants à gérer l'activité de scénarisation. L'analyse de ces traces est nécessaire pour adapter le système aux besoins de conception de l'utilisateur. Les traces sont structurées à partir de données « brutes » qui sont acquises et fournies par le système pendant une session de conception. Cette collecte est effectuée à l’aide des indicateurs définis comme des variables signifiantes sur le plan pédagogique, calculées ou établies à l’aide de données observées, en vue d’analyser la qualité de l’interaction, la nature de l’activité ou l’effectivité de l’apprentissage (Choquet, Iksal, 2007). Nous avons utilisé le langage défini par ces mêmes auteurs, Usage 22 Figure 1 : Méta-modèle des patrons Une étude des besoins liés aux situations pédagogiques associée à une étude des types de patrons disponibles dans le génie logiciel, nous mène à choisir les quatre types suivants de patrons, concepts du métamodèle de patrons : − Les Patrons Pédagogiques sont adaptés pour décrire les objectifs ou les stratégies pédagogiques. Ils sont structurés autour des Forces (les raisons qui poussent à l’application du patron), Resulting Context (l’objectif atteint après application du patron) et Rationale (pourquoi nous avons choisi ce patron). Ainsi par exemple,le patron « Mistake » demande aux étudiants de créer un artefact comme un programme ou une conception qui contient une erreur spécifique. L'utilisation de ce modèle montre explicitement à des étudiants comment reconnaître et corriger des erreurs. Ainsi pour spécifier le patron on définira : • Forces « Les étudiants doivent connaître une technique pour repérer les erreurs à partir des effets qu’elles produisent. » et, • Resulting Context « Les étudiants à partir d’un effet peuvent localiser une erreur pour la corriger ». − Nous avons choisi des Patrons d'Analyse pour décrire des ressources matérielles ou humaines à cause de leur structure qui permet de définir l'utilisation d'un Amiens – 23 et 24 mai 2012 Approche pour la scénarisation pédagogique matériel ou un rôle. − Les Patrons de Processus peuvent décrire les activités et les tâches réalisées comme un enchaînement d'actions ou de tâches secondaires. − Les Patrons de Conception sont utilisés pour caractériser la situation d'apprentissage. Ils sont composés de plusieurs sections spécifiques : la motivation (le contexte où le modèle peut être utilisé), les participants et la collaboration (la description des classes et des objets utilisés dans le patron interagissant l'un avec l'autre) 2. Le Contexte de Conception Pour faciliter la tâche du concepteur, l'outil d'édition récupère des informations sur le contexte de conception pour adapter les propositions de patrons au cours de l'activité de conception. Ces informations sont reliées à un ensemble d'indicateurs qui sont affectés aux cinq facettes caractérisant le contexte de conception : 1. Le Profil utilisateur est constitué d'informations sur l'utilisateur et ses préférences. Certaines informations de ce profil sont récupérées à partir des formulaires complétés par les utilisateurs euxmêmes, d’autres à partir de la configuration de l’outil. À titre d'exemple, les informations enregistrées dans ce profil sont le niveau d'adaptation proposé par l'outil et-ou fixé par le concepteur (automatiquement, avec confirmation de l'utilisateur, adaptation minimale …). pas liés strictement à l'une de ces facettes. Les facettes sont corrélées et certains indicateurs peuvent êtres associées à plusieurs facettes. 3. L’Editeur de Scénario Pédagogique L'éditeur que nous avons développé est produit grâce aux technologies EMF-GMF utilisant le méta-modèle de Patrons (figures 1 et 2). Cet éditeur permet aux enseignants de concevoir un scénario pédagogique en utilisant un langage visuel spécifique à leur domaine à base de patrons. A cet outil est ajouté le système d'adaptation capable de capitaliser les contextes de conception et d'adapter les scénarios pédagogiques et l'interface de l'éditeur. L'interface permet au concepteur de visualiser les patrons qu'il instancie comme des cadres divisés en trois compartiments : un pour le nom du patron, un pour la déclaration du problème et un pour la représentation graphique de la solution (Figure 2-A). Une boîte à outils (Figure 2-B) fournit les concepts (les patrons) manipulables. Finalement, les informations concernant le patron sont aussi accessibles par l'onglet des propriétés (Figure 2-C) par lequel GMF caractérise chaque objet. 2. Le Contexte pédagogique qualifie les objectifs et stratégies pédagogiques définies par le concepteur. 3. Le Contexte Institutionnel est un ensemble d'informations sur les contraintes et les limites imposées par l'institution (les salles de classe, les ressources disponibles ...). Figure 2: L'editeur généré avec EMF-GMF 4. Le Domaine rassemble les informations concernant les concepts du domaine d'apprentissage. 5. Le Contexte d'utilisation regroupe des informations pendant la session de conception sur les actions de l'utilisateur. Ces actions sont collectées à partir des traces d’utilisation et de modèles de tâches inspirés des travaux sur l’approche MUSETTE (Champin et Prié). Un exemple d'indicateur de la facette « Domaine » est "Concept in the Domain Vocabulary". La méthode de cet indicateur vérifie si un concept, utilisé comme une propriété pour qualifier un patron donné, fait partie de la facette « domaine » actuelle. Cette méthode est mise en œuvre selon une règle simple "si le concept actuel est dans le vocabulaire, rechercher un patron contenant ce terme". 4. Le Processus de Conception Pour concevoir un scénario pédagogique, un enseignant doit élaborer une solution en combinant les quatre types de modèles permis par le méta-modèle (Figure 1). Le processus de conception est itératif et consiste en les étapes suivantes (Figure 3) : Les indicateurs du contexte de conception ne sont 4èmes Rencontres Jeunes Chercheurs en EIAH 23 Jean-Pierre Clayer IV. Cas d’étude TPWorks est une plate-forme d’apprentissage dédiée aux sessions de TP dans le domaine de l’Automatisation dans le cursus de l’enseignement des sciences de l’ingénieur dans les lycées technique. TPWorks facilite le partage de documents et des ressources numériques. Figure 3: Le processus de conception 1 – Spécifier les besoins de la situation pédagogique: l'enseignant définit les besoins de sa situation pédagogique (objectifs, ressources, outils, stratégie, acteurs, rôles, etc); 2 - Choisir un patron : l'enseignant choisit un patron existant ou pourra en créer un nouveau selon son intention de conception et en fonction des besoins spécifiés dans l’étape précédente. Selon la situation pédagogique, l'enseignant définit des critères pour choisir le patron le plus approprié. Il peut choisir un patron parmi les quatre types de patrons proposés par l'éditeur : un patron de conception pour spécifier la situation d'apprentissage, un patron d'analyse pour les ressources humaines ou matérielles, un patron processus pour les tâches ou les activités ou un patron pédagogique pour spécifier les objectifs. Chaque session de TP doit être définie et planifiée en termes de chapitres, de sous-chapitres ordonnés selon les intentions de l’enseignant et sa motivation. Les ressources associées peuvent être définies aussi (des textes, des médias ...). Les besoins d'observation sont définis dans cette étape préliminaire dans le but de modéliser les indicateurs en relation avec chaque facette du contexte de conception. Ces indicateurs sont ajoutés aux indicateurs existants et implémentés avec UTL (avec l'aide d'un spécialiste informatique). Ensuite l'enseignant peut mettre en place la session de TP sur TPWorks. Une fois que l'enseignant a été identifié par une connexion à l'outil, ce dernier adapte l'ensemble des patrons au contexte de conception de l'utilisateur et configure les paramètres de l'outil selon son profil. Dans ce contexte, nous déroulons sur un cas d'étude quelques itérations du processus de conception avec l’outil de scénarisation. Première itération du processus de conception Etape 1 3 - Fusionner/composer les modèles : l'outil ajoute le patron choisi par l'utilisateur dans le compartiment solution du patron. Le scénario est mis à jour. Dans le même temps, les actions de l'utilisateur ainsi que les propriétés du patron sont analysées pour définir les valeurs des indicateurs. 4 - Collecter les informations du contexte : une fois l'analyse de données réalisée, les indicateurs apportent les informations au contexte de conception et des règles d'adaptation sont produites. 5 - Adapter la solution : le système propose des adaptations possibles au concepteur, en fonction de l'ensemble de règles produites par la collecte. Les adaptations peuvent mener à fournir des recommandations sur la méthode de conception, ou proposer des patrons liés à l'action de l'utilisateur, ou suggérer une évolution de l'éditeur ou sa configuration, adaptée au contexte de conception. L'utilisateur peut toujours modifier le mode d’adaptation souhaité (défini dans son profil). 24 L'enseignant définit le nom de la session comme "Dynamic behavior of a mechanical charge". Le contenu de la session de TP est composé des sections suivantes : une présentation courte du système que les étudiants utiliseront ; une explication des problèmes techniques qu'ils peuvent rencontrer ; une liste des tâches différentes à réaliser ; des activités supplémentaires pour approfondir le TP; des ressources numériques disponibles. L'enseignant doit réserver la salle de classe et l'équipement, préparer la salle de classe, vérifier l'équipement et définir le scénario de la session de TP sous TPWorks. Etape 2 L'enseignant définit son intention de conception. Il peut choisir de définir les élements de son scénario (les objectifs, la situation pédagogique, les tâches,...) dans l'ordre qu'il souhaite. Dans notre cas, l'enseignant préfère décrire d'abord la situation d'apprentissage. Il choisit alors le mode de conception associé au concept « Situation d'apprentissage ». L'éditeur propose un ensemble de patrons de conception liés à tous les types de situation d'apprentissage enregistrés dans Amiens – 23 et 24 mai 2012 Approche pour la scénarisation pédagogique l'outil ou ceux que l'enseignants avaient définis ou sélectionnés lors d'une précédente session de conception. L'enseignant sélectionne des patrons (avec les critères "lab work" et "implement"). Les choix les plus pertinents sont proposés en premier dans la liste. L'enseignant choisit le modèle "Implementation for a lab work". Etape 3 l'éditeur ajoute le patron choisi à la représentation graphique de la solution (Figure 2-A). Le scénario est mis à jour avec ce nouveau patron. Etape 4 Des indicateurs observant les concepts utilisés pour réordonner les ensembles de patrons proposés par l'outil sont mis à jour. Les concepts utilisés sont ajoutés à la facette « domaine » s'ils n'étaient pas déjà parmi les concepts du domaine. Etape 5 L'outil ajoute les nouveaux concepts à l'ensemble de concepts proposés par l'outil pour réordonner les ensembles de patrons. Seconde itération du processus de conception Étape 1 Le résultat de la première itération est conforme aux spécifications des besoins de l'enseignant qui ne spécifie pas alors de nouveaux besoins. Étape 2 Quand le concept "activity" est choisi dans la partie graphique, l'éditeur propose une liste de toutes les activités existantes. Les activités liées à la situation pédagogique sont placées au sommet de la liste. Ici, l'enseignant ne trouve pas l'activité qui lui convient et choisit d'en créer une nouvelle "Implementation of a lab work with TPworks". Étape 3 Le scénario est mis à jour et cette activité est ajoutée à la solution. Étape 4 Les indicateurs liés à cette activité de conception (ajouter une activité) sont mis à jour. La facette « domaine » est mise à jour. La méthode de l'indicateur "Concept in the Domain Vocabulary" vérifie si le concept "TPWorks" fait partie de la facette « domaine » actuelle sinon il est ajouté. Étape 5 L'outil propose à l'enseignant d’adapter la solution en ajoutant la ressource matérielle "Computer with TPWorks". 4èmes Rencontres Jeunes Chercheurs en EIAH L'enseignant ajoute ensuite à sa solution les objectifs de sa situation pédagogique. Il termine de compléter le patron principal en changeant la propriété "Participants" pour ajouter le nombre d'étudiants attendus. Figure 4: Patron de conception "Implementation of a lab work session with TPWorks" Avant de déployer sur TPWorks le scénario résultant, l'enseignant doit définir encore l'activité "Implementation of a lab work with TPworks" avec les sous-activités ("la présentation courte", "problèmes techniques", … définies dans sa réflexion préliminaire). Ces activités seront mises en œuvre comme des pages Web dans TPWorks. Les pages web réalisées dans TPWorks sont représentatives des activités ou des ressources mises à disposition des élèves. Ce lien entre une activité et une page web peut être vu comme une règle de transformation permettant ainsi de transformer le modèle que nous offrons en pages web pour TPWorks. V. Conclusion L'évolution du contexte pédagogique et des technologies numériques, nécessite une redéfinition du métier des enseignants et formateurs. En particulier, ces derniers doivent adapter leurs pratiques de scénarisation pédagogique, en les explicitant et les formalisant davantage, nécessitant pour cela de nouvelles compétences de concepteur informatique. Nous proposons dans cet article une approche adaptative de conception pédagogique à base de patrons centrée sur l'utilisateur pour aider les enseignants dans cette démarche. Nous proposons un outil d’édition pour supporter cette approche. Cet outil est généré à partir des technologies EMF-GMF depuis un méta-modèle de patrons. L'outil peut être adapté aux caractéristiques de l'utilisateur et au contexte de conception (le profil de l'utilisateur, les activités de conception …) et permet à l’enseignant de concevoir un scénario pédagogique en utilisant un langage visuel spécifique à son domaine métier. La limite de cette approche tient à la création de modèles productifs. Dans cette partie du travail, nous ne traitons pas encore 25 Jean-Pierre Clayer la création de tels modèles productifs. À ce jour, nous n'avons pas expérimenté notre proposition de recherche, nous avons juste montré, en développant cet outil, la faisabilité technique de notre approche. De nouveaux travaux seront centrés sur le raffinement du processus d'adaptation. VI. Références Bolton, Reload Project. United Kingdom: The University of Bolton, The University of Strathclyde and JISC. Retrieved August 31st 2005 Choquet C., Ingénierie et réingénierie des EIAH : L’approche REDiM. HDR en informatique, Université du Maine, 2007. Choquet C., Iksal S. Modeling Tracks for the Model Driven Reengineering of a TEL System - Journal of Interactive Learning Research (JILR), Special Issue Usage Analysis in Learning Systems: Existing Approaches and Scientific Issues, Vol. 18 n°2, p. 161184. , - 2007 Eclipse EMP, “Eclipse Modeling Projects”,http://www.eclipse.org/modeling/. Last view 12/2010 El Kechaï H., Choquet C . Understanding the Collective Design Process by Analyzing Intermediary Objects. The 6th IEEE International Conference on Advanced Learning Technologies (ICALT'2006), isbn : 0-7695-2632-2, Kerkrade(The Netherlands), p.10471051, July 5-7, 2006 Hernandez-Leo D., Jorrın-Abellan I.M. , VillasclarasFernandez E.D., Asensio-Perez J.I., Dimitriadis Y., A multicase study for the evaluation of a pattern-based visual design process for collaborative learning, Journal of Visual Languages and Computing 21 (2010), p,313-331. Hernández-Leo, D, Villasclaras-Fernández, E. D., Asensio-Pérez, J. I, Dimitriadis, Y., Jorrín-Abellán, I. M., Ruiz-Requies, I., & Rubia-Avi, B. (2006). COLLAGE: A collaborative Learning Design editor 26 based on patterns. Educational Technology & Society, 9 (1), 58-71 Kelly S. Domain Specific Languages vs. Generic Modelling Languages, interview may 2007 : http://www.ddj.com/architect/199500627 Kelly, S., Tolvanen, J.-P., Domain-Specific Modeling: Enabling full code generation , Wiley-IEEE Computer Society Press, 2008 Koper, R. and Tattersall, C., Learning Design : A Handbook on Modelling and Delivering Networked Education and Training, Springer Verlag, 2005 Mor, Y. Embedding Design Patterns in a Methodology for a Design Science of e-Learning, in Christian Kohls & Joachim Wedekind, ed., 'Problems Investigations of E-Learning Patterns: Context Factors Solutions', Information Science Publishing, Hershey, PA, 2010 Pedagogical Patterns http://www.pedagogicalpatterns.org/ Projet européen – Minerva http://www2.tisip.no/E-LEN/ Project : programme : Razmerita L., Angehrn A., Nabeth T. On the Role of User Models and User Modeling in Knowledge Management Systems, User Modeling 2003, 9th International Conference, UM 2003, Johnstown, PA, USA, June 22-26, 2003, Proceedings. Lecture Notes in Computer Science 2702 Springer 2003, ISBN 3-540-40381-7 Laurillard D, Teaching as a Design Science, Building Pedagogical Patterns for Learning and Technology, edition Routledge, 2012, ISBN 978-0-415-8038. Vignollet L., Ferraris C, David J.-P, Lejeune A, LDL: An Alternative EML, Advanced Learning Technologies, 2006. Sixth International Conference Champin P-A, Prié Y, MUSETTE : un modèle pour réutiliser l’expérience sur le web sémantique, dans Journées "Web Sémantique" Action Spécifique STIC CNRS, oct. 2002, Paris. Amiens – 23 et 24 mai 2012 Manifestation culturelle du numérique Thierry Danquigny Equipe Trigone, Laboratoire Cirel, Université Lille1 [email protected] Résumé Notre projet de recherche concerne l’influence des objets connectés sur la vie quotidienne des nouvelles générations. Nous nous interrogeons sur la réalité des différents changements dans les manières d’être et d'apprendre des nouvelles générations en contact fréquent et précoce avec des moyens numériques pour communiquer, rechercher, s’informer, apprendre et se distraire. A partir d’entretiens d’explicitation, nous analysons l’influence supposée des objets connectés au travers du modèle culturel de Edward.T. Hall (1959) . La mobilisation de ce modèle force à penser la situation des jeunes générations en termes fondamentaux. Dans cette perspective l’usage du numérique est une manière d’exister dans un milieu donné, voir de survivre. Le modèle culturel est donc indissociable de la description d’un milieu de vie, où humain et nonhumains, jouent un rôle inscrit dans une biographie mondiale. Fondamentalement, le cadre culturel demeure fixe, seuls les objets connectés évoluent, se développent en se généralisant à l’ensemble des générations. Les objets numériques sont à la fois acteurs et solutions. Pour les nouvelles générations, ils sont les moyens d’établir une médiation avec leur milieu de vie. En tant que solution adaptée, leur usage est renforcé. Nous concluons sur une constatation de l’accélération des changements culturels provoqués par l’usage du numérique. Introduction Notre société vit l'époque singulière des ''multitudes''. Une multitude d'objets connectés matériels ou immatériels pour communiquer, s'informer, apprendre ou encore se distraire peuplent notre vie quotidienne (Pisani & Piotet, 2008). Notre société vit encore l'épreuve des multiples signaux d'alerte. Le taux de chômage, les nouvelles exigences du marché de l'emploi, les différences de conditions de vie entre classes d'âge, l'injonction à la mobilité professionnelle expliquent une ''montée des incertitudes'' (Castell, 2009). Parallèlement, avec l'accroissement des populations étudiantes, l'Université française, vit la multitude des profils, l'hétérogénéité des niveaux et attentes (Alava, Romainville, 2001). Dans ce contexte, l'Université engage un processus dit de ''modernisation'' pour faire face aux différents enjeux sociétaux. Les différents rapports d'Etat Isaac (2007), Besson (2008), Demuynck et Pécresse (2011) tentent d'ouvrir des pistes pour renforcer l'efficacité de l'institution, intégrer les promesses du numérique et adapter les enseignements aux ''digital natives'' (Prensky, 2001). Le numérique, l'éducation et les nouvelles générations sont ainsi annoncés comme les enjeux de ce siècle. Selon Abbott (2010), « There are undoubtedly extraordinary times, rich in opportunity yet loaded with uncertainty. » (p. 215). Ce contexte sociétal constitue le milieu de vie 4ièmes Rencontres Jeunes Chercheurs en EIAH des étudiants dont le dénominateur commun est l'évolution et la généralisation des usages numériques (Ministère de la culture, 2010; Eurostat, 2010) dans les sphères privées, académiques ou professionnelles. Cette diffusion rapide de moyens pour accéder et traiter la connaissance modifie notre relation au savoir et à la manière d'apprendre (Buckingham, 2010; Serres, 2009). Pour certains observateurs, les objets connectés auraient ainsi une influence sur la manière de se comporter, de penser et d'apprendre. Pour certains l'influence serait positive (De Rosnay, 1995; Papert, 1999; Prensky, 2011; Tapscott, 2009) pour d'autres négative (Bauerlein, 2008; Keen, 2008; Carr, 2009; Small, 2010). Notre question de recherche est d'évaluer en quoi les objets connectés de type ordinateur, téléphone, balladeur ou encore les consoles de jeux utilisés au quotidien influencent et font évoluer les manières d'apprendre. Nous vérifions l'hypothèse que les manières d'apprendre dans le temps de la révision sont dépendantes du contexte sociétal, académique et de la connaissance pratique des objets connectés. Cette hypothèse est vérifiée dans le moment de révision qui mobilise à la fois les sphères privées, académiques et professionnelles. Notre terrain de recherche est situé à l'Université Lille1. Notre développement se décline en deux parties : Une première partie macro envisage l'environnement de l'Homme et le contexte sociétal indépendamment des situations d'apprentissage. Nous empruntons à Edward T. Hall (1959), son modèle descriptif des systèmes culturels pour bâtir une grille interprétative des conduites humaines en situation d'interaction avec l'environnement. Avec Leroi-Gourhan (1945), nous comprenons qu'au contact avec son environnement, ces conduites humaines sont des vecteurs de création et de développement des objets techniques. Au sens de Friedmann (1966) et de Ellul (1977), ces objets techniques sont pour l'humain, un nouveau milieu dit technique. Une deuxième partie micro envisage ce milieu technique constitué de dispositifs numériques comme facteur influant l'apprentissage humain. A cette étape, nous faisons un état de nos premières recherches terrains réalisées à partir de trente entretiens d'explicitation ainsi que de la mise en place d'un questionnaire. Ces recherches s'appuient sur les grilles d'interprétations et hypothèses contruites dans la première partie. Première partie : l'approche Macro Le point de vue de l'ethnotechnologie : Pour introduire ce point de vue nous utilisons les travaux de Gaudin (2010). L'auteur nous permet de comprendre l'influence réciproque de la technique et de la société. Pour l'ethnotechnologie, la technique est comprise et analysée comme activité dont l'objet est de donner une forme à la matière (ibid). Elle est un socle sur 27 Thierry Danquigny lequel repose la civilisation. Elle est la condition sine qua non de toutes activités humaines. Ce courant de pensée que nous retrouvons chez Ellul (1977) sous la forme du concept de Technique, nous permet d'introduire le concept d'empreinte comme manifestation de l'usage des moyens techniques. C'est ce concept, que nous utilisons pour notre recherche (au niveau micro) pour comprendre les pratiques étudiantes dans le moment de révision. Pour notre recherche nous postulons que cinq facettes permettent de décrire les objets influencant le milieu de vie des étudiants. Nous retiendrons l'acronyme CRIAD pour Communiquer, Rechercher, s'Informer, Apprendre et se Distraire. Le cadre théorique de l'ethnotechnologie nous permet de comprendre comment les CRIAD interagissent avec le milieu de vie des étudiants. L'ethnotechnologie réfute le principe de causalité linéaire pour adopter une causalité circulaire (Gaudin, 2009). Gaudin définit le système technique comme un ensemble cohérent de savoir-faire liés entre eux par un réseau d'interactions. Il reprend les thèses de Gille (1978) sur l'émergence des systèmes techniques . Pour Gille, l'introduction d'une technologie ne peut être isolée d'un tout, « Système technique et système social sont aussi intimement liés... » (p. 5). Il ne s'agit donc pas d'étudier la société et la technique isolément mais d'envisager société et technique en tant que système abritant des influences réciproques. C'est donc sous l'angle de la complexité (Morin, 1977) que doit se penser l'ethnotechnologie et la systémique. Flichy reprend le thème de l'influence mutuelle du social et du technique. Il présente cette thématique en décrivant un contexte favorable à l'émergence de certaines technologies et les effets initiaux non nécessairement prévus : (...)Les concepteurs du micro-ordinateur et de l'internet ont donc incorporé dans les systèmes informatiques qu'ils ont développés, des pratiques sociales nouvelles, celle de l'individualisme connecté. Mais ces nouvelles techniques à leur tour vont performer les usages. (Flichy, 2004, p.36) Flichy explique qu'il y a un avant internet, un contexte social (en l'occurrence le mouvement hippie des années 60) qui a porté le développement des objets techniques. Ces derniers eux-mêmes ont renforcé des usages qui par extension, pourraient dans un prolongement purement logique, inclure les nouvelles bases d'un développement d'objets. De ce cadre théorique nous retenons pour notre recherche que les CRIAD doivent être étudiés en interelation avec les pratiques des étudiants dont ils sont à l'origine et la conséquence. Le point de vue de la sociologie des associations : Penser les pratiques des étudiants et les CRIAD en tant que système implique d'en identifier les éléments constitutifs. Selon Ellul (1977), un « système est un ensemble d'éléments en relation les uns avec les autres... » (p. 88). Dans le cadre de la sociologie des organisations, ces éléments en interaction sont aussi agissants et sont nommés acteurs humains ou non-humains. Un CRIAD sera tout autant déterminant qu'un utilisateur humain. Dans la perspective de la sociologie des associations et de la théorie de l'acteur-réseau tout membre du système est acteur et 28 synthèse d'acteurs. Cette terminologie d'acteur qui désigne à la fois les étudiants et les CRIAD, confère une forme de neutralité à notre analyse. En effet, comme le suggère Madeleine Akrich (1987), les objets techniques, en tant que non-humain, n'en sont pas moins actifs et déterminant dans l'émergence d'un système : Les objets techniques définissent dans leur configuration une certaine partition du monde physique et social, attribuent des rôles à certains types d'acteurs humains et non-humains - en excluent d'autres, autorisent certains modes de relation entre ces différents acteurs de telle sorte qu'ils participent pleinement de la construction d'une culture, au sens anthropologique du terme, en même temps qu'ils deviennent des médiateurs obligés dans toutes les relations que nous entretenons avec le "réel". (Akrich, 1987, p.1) Selon Callon et Latour (1997), « les non humains interviennent de manière active c'est à dire qu'ils relancent l'action dans des directions inattendues. Cette participation des non-humains à l'action conduit à concevoir les entités comme des réseaux. » (p. 114). Le terme ''acteur'' recouvre ainsi deux grandes catégories que sont les humains et les non-humains. La présence d'objets techniques force la définition et la catégorisation. L'humain est en relation avec le non-humain et délimite une partition du monde en deux parties physique et social. Nous posons l'hypothèse pour notre recherche que la qualité et la fréquence des relations entre acteurs humains et nonhumains créent des habitus (Bourdieu, 1980) qui forgent des manières d'agir et d'apprendre des étudiants. Les travaux sur l'empreinte technique (Perriault, 2009) nous permettent de comprendre comment se forment ces habitus : ''Le terme «empreinte de la technique» désigne ici la façon dont la technique et l'usage d'une technologie façonnent en retour ceux qui les pratiquent. (Perriault, 1981).'' Pour l'acteur humain, l'empreinte est un acquis. Notre recherche concerne non pas l'inné mais l'acquis dans l'activité et au contact de la société et en interaction avec elle. Comme le fait remarquer Claude Levis Strauss, c'est ce qui fait la différence entre réflexe pupillaire inné et un geste acquis par la pratique ou l'entrainement (LéviStrauss, 2008, p.50). Ainsi dans le cadre de notre recherche, la manière de se tenir devant un ordinateur, la manière de prendre des notes pour un étudiant ou encore la manière d'apprendre serait à comprendre dans le contexte socio-culturel et socio-technique à un moment donné. En reprenant le concept de l'empreinte développé par Perriault dans la ''Logique de l'usage'', l'utilisation de moyens techniques pour produire, pour mener une activité professionnelle marque physiquement l'humain. La corpulence, la démarche, la forme des mains, la crasse des cheminots (Perriault, 1981), sont autant de marqueurs physiques apportant des éléments de preuve d'un contact avec une activité impliquant des acteurs non-humains. Sur le plan méthodologique, notre recherche sur les CRIAD se heurte à la difficulté de repérer des marqueurs qui ne sont pas toujours physiques. En effet, les travaux de Kandel(2007) sur l'aplysie, une limace de mer, montre que l'interaction répétée avec l'environnement provoque une modification neurologique de Amiens – 23 et 24 mai 2012 Manifestation culturelle du numérique la mémoire à long terme dont la manifestation visible est le comportement et dont la modification accessible par dissection est la structure biologique : Fondamentalement, à l'aide de Hall, nous expliquons qu'un des facteurs de mise en action de l'homme est de s'adapter à son environnement. Nous découvrîmes que la mémoire à long terme de l'aplysie, comme chez l'homme, requiert un entrainement répété entrecoupé de période de repos. La perfection nait de la pratique même chez les mollusques. Ainsi, quarante stimuli administrés consécutivement entrainent une habituation du retrait de la branchie qui ne dure qu'un jour, mais dix stimuli chaque jour durant quatre jours produisent une habituation qui dure des semaines. (Kandel, 2007, p. 199) Dans cette expérience, comme dans notre recherche seule une trace neurologique pourrait être observée. Les expériences du neurologue américain Small ont par exemple permis de mettre en évidence des traces d'activités neurologiques créées après une utilisation de quelques heures de recherche sur Google sur des groupes ayant une pratique régulière et une absence de pratique. Il s'avère qu'à l'issue de cinq heures de pratique les groupes avancés et novices présentent les mêmes traces d'activités neurologiques. Ce constat fait dire à Small : L'homme a élaboré des méthodes défensives avec une ingéniosité étonnante, non seulement en ce qui concerne la guerre, mais aussi la médecine, la religion et l'application des lois. Il doit se défendre non seulement contre des forces naturelles menaçantes, mais aussi contre des groupes humains hostiles. (Hall, 1959, p. 68) If our brains are so sensitive to just an hour a day of computer exposure, what happens when we spend more time ? What about the brains of young people, whose neural circuitry is even more malleable and plastic ? What happens to their brains when they spend their average eight hours daily with their high-tech toys and devices ? (Small, 2008, p. 17) L'ensemble de ces travaux nous permet d'affirmer que la singularité de l'humain est une prise de conscience empirique et théorique de la modification de la physiologie individuelle par interaction avec l'environnement. Que ce soit en interagissant avec une bêche, un pinceau ou un smartphone, dans un milieu naturel ou dans un milieu créé par l'humain, l'homme est transformé (Mumford, 1956; Mac Luhan, 1964) physiquement et neurologiquement. L'imagerie cérébrale est ainsi vue par le CERI (2007) comme une opportunité pour inventer une nouvelle science de l'apprentissage. Dans le questionnement de Small sont cités les paramètres de notre recherche : l'activité dans un environnement informatisé, les CRIAD et les étudiants. Pour notre recherche, notre questionnement concerne les manifestations quantifiables issues des relations entre les acteurs humains et non-humains. Le point de vue de l'anthropologie culturelle : Dans les parties précédentes, nous avons qualifié les relations entre technique et société. Dans le cadre de la théorie de l'acteur réseau, les systèmes techniques et sociaux, sont étudiés sous l'angle de l'analyse des interactions entre acteurs. Dans le cadre de l'anthropologie culturelle de Hall (1959), les individus regroupés en sociétés auront des préférences culturelles à partir d'une gamme de pratiques universellement repérées. Ce cadre nous permet de bâtir une méthodologie pour étudier les pratiques étudiantes en situation d'apprentissage. 4ième Rencontres Jeunes Chercheurs en EIAH La genèse de l'invention du silex taillé, du chopper, décrite par Leroi-Gourhan(1945) décrit cette démarche de conception de moyens aptes à garantir sa survie par une traduction matérielle « au point de contact entre le milieu intérieur et le milieu extérieur » (p. 339). Ces moyens créés par hasard ou procédant d'une démarche innovante sont confrontés au réel pour disparaître ou s'enrichir de nouvelles fonctionnalités. Les innovations ainsi émergentes deviennent pour Hall et Friedmann (1966) des prolongements de l'homme hors de l'homme. L'action de l'homme est amplifiée relativement aux effets constatés sur son milieu de vie : De nos jours, l'homme a développé des extensions de toutes les parties, ou presque, de son corps. L'évolution de l'arme va du poing et des dents à la bombe atomique. […] Des instruments tels que les lunettes, la télévision, le téléphone et les livres qui sont des extensions matérielles des membres humains, transportent la voix à travers le temps et l'espace. (Hall, 1959, p. 75) Mac Luhan (1964), reprenait ces conclusions pour caractériser les nouveaux médias de l'époque en tant que prolongements sensoriels de l'humain dans un milieu de vie marqué par l'information en tant que donnée stratégique. Dans un environnement donné, la capacité à mobiliser les prolongements sensoriels seraient ainsi une garantie pour sa propre survie. Selon Hall, chaque individu est à situer dans une culture. Comprendre un individu c'est comprendre sa propre culture. Pour Hall, la compréhension des différences culturelles est une communication. Toute communication a des mots, un vocabulaire, une grammaire. L'humain disposerait d'une grammaire fondamentale que Hall a nommé les Systèmes de Communication Primaire (SCP). Le terme Système suggère que les mots constitutifs de cette grammaire forment un tout cohérent en équilibre permanent. L'organisation de ces mots, leur agencement, leurs relations garantissent, pour l'humain, à un instant donné, une situation stable ou en cours de stabilisation. Le terme Communication nous rappelle que l'humain est en interaction avec d'autres humains évoluant dans un milieu naturel ayant des contraintes physiques. Nous esquissons dans cette description, la théorie de l'acteur-réseau fondé sur une interaction comparable entre acteurs humain et non-humains dans un même espace de vie. Le terme Primaire affirme le partipris de considérer l'homme dans ce qu'il a de plus fondamental. Avec les SCP, Hall décrit ainsi le contexte de vie de l'humain et fait de l'influence culturelle sur le comportement le point d'orgue de sa thèse : 29 Thierry Danquigny Cette question touche au but principal de cet ouvrage, qui est de prouver à quel point la culture conditionne le comportement. La culture n'est pas une idée exotique pour laquelle se passionne une petite chapelle de spécialistes au fin fond des mers du Sud. C'est un moule qui nous modèle tous; la culture conditionne notre vie quotidienne, de manière parfois inattendue. (Edward T. Hall, Le langage silencieux, 1959, p.47) Partant de l'hypothèse qu'il est nécessaire de connaître le système culturel rencontré pour pouvoir établir une communication et maintenir le rapport, Hall détermine une grille de lecture donnant accès au décodage des différences culturelles. L'hypothèse complémentaire est qu'une culture a des fondamentaux qui se situe à un niveau élémentaire, primaire. Ce niveau dit biologique imposerait des catégories communes à l'ensemble des cultures. C'est ainsi que d'un point de vue méthodologique que Hall définit les SCP : Le concept de milieu technique est historiquement étudié par Friedmann(1966). Ellul enrichit les analyses de Friedmann avec le concept de Technique. Ellul explique ainsi le milieu technique à partir du concept de Technique. La Technique est pour l'auteur un ensemble de moyens efficaces en vue d'un objectif. La Technique n'est donc pas un ensemble de technologies mais un ensemble de moyens et de méthodes qui favorise le renforcement du milieu technique. L'emploi de techniques efficaces favorisent par contre la création de technologies. Dans ce contexte, les CRIAD vont permettre à l'utilisateur étudiant d'optimiser leurs activités d'étude. En ce sens, l'accéleration des actions se doublera d'une recherche d'efficacité dans l'intéraction ou l'association (Hall, 1959). Dans le shéma ci-dessous, un téléphone portable pourra rapidement permettre d'organiser un rendez-vous, de trouver un partenaire ou encore de résoudre un problème. Les SCP de Hall dans le milieu technique sont ainsi mobilisés rapidement et efficacement. Les SCP sont : interaction, association, subsistance, bisexualité, territorialité, temporalité, connaissance, jeu, défense, exploitation (utilisation de la matière). (Hall, 1959, p. 56-57) Les SCP sont donc pour Hall une manière de cartographier les conduites humaines. Analysable globalement pour la société et par individu, ces SCP constituent des grilles de lecture de l'usage des objets techniques. Le flux de contraintes issu de l'environnement est filtré par ces SCP pour se traduire en moyens de résistances, d'agir, de réagir ou de construire : Ce processus d'adaptation mène aux formes de vie complexes qu'on trouve sur terre. Les cultures différentes sont analogues aux espèces en ce sens que certaines survivent tandis que d'autres disparaissent. Certaines s'adaptent mieux que d'autres. Analyser le changement, c'est donc analyser la survie.(Hall, 1959, p.56-57) Hall décrit un processus d'adaptation et dans le même temps un processus créatif. Toute adaptation dont le fondement primaire est la survie prend la forme d'organisations, de structures et d'objets. Les CRIAD que nous étudions peuvent être considérés comme la manifestation de ce processus créatif. Nous proposons de considérer ces CRIAD comme une réification des SCP définis par Hall. Le point de vue de la sociologie des techniques : Pour étudier cette réification des SCP en CRIAD, nous souhaitons introduire la notion de milieu technique que nous distinguons du milieu naturel. Pour Ellul, le milieu technique est vu comme une médiation entre le milieu d'origine dont est issu l'humain et le milieu maitrisé par l'humain : (…) cette médiation devient exclusive de tout autre : il n'y a plus d'autres rapports de l'homme à la nature, tout cet ensemble de liens complexes et fragiles que l'homme avait patiemment tissé (…) disparaît : il n'y a plus que la médiation technique qui s'impose et devient totale. (Ellul, 1997, p. 44) 30 (figure 1) L'étudiant (cf fig. 1) est entouré des dix SCP qui filtrent son interaction avec les acteurs humains ou non-humains. Dans son milieu technique, il tient dans la main un CRIAD (téléphone). Evoluant dans un milieu technique, l'étudiant adopte le critère d'efficacité symbolisé par les flèches bleues. Dans notre recherche, c'est par l'étude des CRIAD, des SCP mobilisés que nous tentons de qualifier et quantifier l'empreinte des environnements numériques sur les activités de l'étudiant. Eléments de synthèse : Dans cet article, nous cherchons à regrouper différents courants théoriques, à articuler la sociologie des techniques, la théorie de l'acteur-réseau et l'anthropologie culturelle. Par la théorie de l'acteur-réseau, nous identifions un ensemble socio-technique et des acteurs ayant chacun à leur niveau une influence sur la cohérence. Par la sociologie des techniques, nous identifions les facteurs d'efficacité, d'optimisation et de pragmatisme contribuant à créer un milieu technique dont la cohérence interne et à la mesure du fonctionnement d'un objet technique. Par l'anthropologie culturelle de Hall, nous comprenons la culture comme étant une matérialisation des stratégies de survie. Amiens – 23 et 24 mai 2012 Manifestation culturelle du numérique En intégrant le concept d'empreinte, nous déduisons que la culture est la manifestation d'une manière d'utiliser les objets. La culture dans la métaphore musicale de Hall est une partition de notes qui enveloppe l'ensemble des acteurs humains et non-humains (cf fig. 1). Dans l'ordre de notre exposé, les différents cadres théoriques s'articulent de la manière suivante : notre milieu de vie est créé par l'humain, il est un milieu technique (Ellul, 1977; Friedmann, 1966; Gaudin, 2010). La stabilisation de ce système ne peut être réalisée qu'à partir de moyens trouvés dans le milieu conçu par l'homme. Le milieu technique est ainsi en auto-accroissement par le simple fait qu'un problème technique suggère une solution technique (Ellul, 1977). La solution la plus efficace, la plus économe sera adoptée. Dans le modèle culturel de Hall, les dix SCP doivent être optimisés afin de réaliser des arbitrages efficaces à la mesure du projet de survie. Entre les dix SCP, l'humain ferait des arbitrages, des calculs et des négociations. En interaction dans l'environnement, la mesure du danger déclenchera l'association pour garantir la préservation de son territoire dans les meilleurs délais. Dans le monde du vivant sont rapidement négociés les SCP de Hall comme l'interaction, la défense, l'association, la subsistance, la territorialité et la temporalité. Les objets créés par l'homme pour agir sont utilisés pour optimiser les SCP. A ce stade de notre réflexion, nous pouvons introduire le statut des CRIAD pour les nouvelles générations. A notre époque quels sont les réels changements ? L'anthropologie relève aisément que nombre d'objets fabriqués par l'Homme étaient dictés par l'impérieuse nécessité de survivre. Mais de nos jours que dire d'un smartphone ou d'une console de jeux connectés au web ? Deuxième partie : l'approche Micro Notre approche micro est fondée sur une étude terrain en cours. Le travail de collecte est réalisé à partir d'une série de trente entretiens et un questionnaire sur une population étudiante à l'Université Lille1 en Licence. Notre intention est d'évaluer l'importance des CRIAD dans la vie quotidienne en termes d'intensité d'usage et d'utilisation historique. Une première partie de nos entretiens interroge la biographie individuelle numérique puis nous établissons un lien avec le métier d'étudiant pour nous intéresser à des moments clés de la vie étudiante comme l'acquisition de connaissances, la révision et l'examen. Avec le concept d'empreinte, nous cherchons ainsi à mesurer en quoi le contact avec les CRIAD modifie l'activité dans les situations de la vie quotidienne et en quoi l'activité d'étude est influencée. Méthodologie de recherche : Notre recherche est menée selon une approche fondée à partir d'entretiens d'explicitation (Vermersch, 2010) préparatoire à un questionnaire qui ne fait pas partie de cette communication. Les entretiens cherchent à répondre à des questions concernant les sphères privées-publiques et concernant les sphères académiques. Appliquée à notre terrain de recherche, notre question consiste à vérifier si des usages identifiés dans la sphère privée se transposent dans la sphère académique. Cette approche nous permet d'identifier des continuités ou des ruptures entre les différentes sphères. Nous avons vu précédemment que les 4ième Rencontres Jeunes Chercheurs en EIAH travaux de recherche du CERI (2007) et Small(2010) sur les humains et Kandel(2007) sur les invertébrés suggèrent que la répétition d'une activité est neurologiquement structurante. Notre méthodologie consiste donc à évaluer l'intensité d'usage des CRIAD dans la sphère privée et d'étudier par contraste l'activité étudiante. Nous choisissons le moment de la révision dans la mesure où ce moment est un moment clé : il est en lien avec l'obtention du diplôme ou tout au moins avec la possibilité de continuer dans un cursus. Par ailleurs il se situe à la frontière des sphères, public ou institutionnelle. Chez Leroi-Gourhan (1945) au point de contact avec les contraintes du milieu extérieur, des objets naissent. Chez Hall (1959), par le jeu des interactions dans un milieu donné, des stratégies de survie se mettent en place mobilisant humains et nonhumains. Dans nos entretiens préliminaires, nous identifions deux moments. Le premier moment concerne l'usage des CRIAD dans la sphère privée, le second l'usage des CRIAD dans la sphère académique. Entretiens correspondant à l'usage dans la sphère privée. En l'état de nos recherches, nous avons mis en évidence que les SCP sont pour un étudiant des moyens d'optimiser son temps, ses déplacements, ses efforts. Le smartphone en tant qu'outil de convergence de services est un outil qui est solution pour de multiples problèmes rencontrés dans un milieu lui-même modifié par le CRIAD. Il est solution des problèmes qu'il crée. Dans les extraits qui suivent, le CRIAD est décrit en des termes quasi-magiques et à l'usage incontournable : Une étudiante en gestion, 21 ans, parle de l'usage de son smartphone : '' (…) le smartphone çà a été un grand moment ! (…) Non çà a méchamment changé ma vie. (…) Il n'est jamais éteint. On peut m'appeler 24/24. Et parlant de son ordinateur : ''J'ai le mien qui dort avec moi, toujours allumé, prêt à répondre''. Entretiens correspondant à l'usage dans la sphère académique Le deuxième moment est le temps de l'usage académique des CRIAD. A cette même étudiante dotée d'un smartphone, d'un ordinateur portable et particulièrement active en bureautique pour avoir pratiqué très tôt le diaporama avec ses parents, nous posons la question du moment de révision en vue d'un examen. Les réponses qui suivent, indiquent des pratiques traditionnelles avec l'usage des environnements informatisés sous la forme d'une assistance : ''je fais des fiches alors un exemple concret on va prendre le droit. Le droit donc je reprends tous mes cours, j'ai toutes mes notes, je reprends mes cours je refais des fiches. Certaines notions que j'ai pas assimilées je vais voir sur internet pour avoir les def et très souvent je me fais des plans pour vraiment avoir le plan, le sommaire du cours...'' Sur l'usage de l'annotation, le papier est déterminant : ''du rouge, bleu et noir. Rouge c'est pour les titres... parce que je hum visualise beaucoup les parties le plan et donc le plan est toujours d'une autre couleur et les définitions d'une autre mais deux couleurs pas plus parce qu'après je suis perdue'. Les entretiens menés démontrent un usage ''traditionnel''. Un étudiant en biologie, particulièrement habile en informatique, 20 ans, 31 Thierry Danquigny déclare refaire ses exercices sur papier en s'isolant et imprime ses documents pour apprendre. Enseignement de cette recherche Entre les pratiques numériques dans la sphère privée et les manières d'apprendre dans la sphère académique, les étudiants interviewés ont une tendance majoritaire à utiliser des moyens différents de ceux mobilisés au quotidien. L'étudiant multitâche et adepte des nouvelles technologies mute dans le moment de révision en étudiant monotâche et concentré. Le moment de révision envisagé dans notre recherche comme rupture implique des usages eux aussi en rupture. Ce premier constat enrichit notre problématique et pose l'incidence de facteurs non technologiques sur les manières d'apprendre. La phase d'entretien confirme que le milieu des nouvelles générations est réellement constitué de CRIAD optimisant leur présence au monde. Comme le souligne différents auteurs (Aubert, 2006; Ehrenberg, 1998; Lipovetsky, 2005 ; Tremel, 2001) les CRIAD contribuent à renforcer des relations entre pairs, à être un moyen pour affirmer et construire son identité ou affermir des habilités dans des domaines non-académiques comme le jeu vidéo. Le CRIAD est dans ce contexte paré de vertus pragmatiques. Le mode connecté est vu en première analyse comme un accélérateur de négociations des SCP. Entre le moment de l'interaction et le projet d'association le temps se contracte et apporte des solutions rapides et efficaces adaptées aux conditions de vie du milieu technique. Dans le moment de révision, les conditions d'évaluation semblent influer les manières de mobiliser des familles de moyens particuliers en rupture avec la sphère nonacadémique. Notre hypothèse à l'issue de cette première partie de notre recherche est que les manières d'enseigner et les types d'évaluation influencent le moment de révision, le système social influençant le système technique (Gaudin, 2010; Gille, 1978). Conclusion Notre recherche met en évidence que les CRIAD mobilisés par les étudiants sont autant de moyens pour s'adapter au milieu technique, au nouveau milieu créé par l'humain. La particularité des CRIAD est leur mobilité dans les différentes sphères privées-publiques et académiques. Nous avons analysé l'influence d'usage de la sphère privée sur la sphère académique. La sphère privée permet de choisir librement son propre système de contraintes. Les CRIAD assurent aux nouvelles générations un accès simplifié à la connaissance et à la rencontre entre pairs. Une des manifestations culturelles du numérique est l'introduction au sein du domicile parental d'un espace numérique privé et ouvert sur des communautés extérieures. L'usage des CRIAD, adaptés au milieu optimise et accélère la gestion des SCP. La sphère académique impose ses contraintes dispositives aux étudiants. Dans la sphère académique, en situation de révision, les comportements mis en évidence anticipent la forme du dispositif d'évaluation. En contexte, les étudiants effectuent des arbitrages adaptés aux conditions prévisibles d'examen. Nos premières observations contribuent à renforcer l'idée que les CRIAD ont un pouvoir de transformation sur l'humain. Leur empreinte, leur manifestion est à déce- 32 ler dans la gestion des SCP. Il demeure, dans le cadre de la sphère académique institutionnelle de comprendre les évolutions en cours et de les anticiper. Au delà d'un débat entre pessimiste et négatifs, il s'agit d'étudier à la fois l'école, le numérique et la société qui vient (Kambouchner et al., 2012). Il s'agit encore d'imaginer des dispositifs capables d'optimiser le potentiel des nouvelles générations et ainsi fluidifier le jaillissement de l'esprit cher à Seymour Papert. Références : Abbott, J., 2010, Overshooled under educated, Continuum Akrich, M., 1987, Comment décrire les objets techniques, Technique et culture Alava, S., & Romainville, M. 2001. la pratique d'étude entre socialisation et cognition, Inrp. Aubert, N., 2006, L'individu hypermoderne, érès Bauerlein, M., 2008, The dumbest generation, Tarcher Buckingham, D., 2000, La mort de l'enfance, Armand collin Callon, M., & Law, J., 1997, l'irruption des non-humains dans les sciences humain, Cairn Carr, N., 2010, Internet rend-il bête ?, Robert Laffont Castell, R., 2009. La montée des incertitudes, Seuil Ceri, 2002, Comprendre le cerveau, Ocde De Rosnay, J.,1995, L’homme symbiotique, Seuil Ehrenberg, A.,1998, La fatigue d'être soi, Seuil Ellul, J., 1977, Le système technicien, Calmann levy Flichy, P., 2004, L'individualisme connecté, Réseaux Friedmann, G.,1966, 7 études sur l'homme et la technique, Denoël Gaudin T., & Faroult, E., 2010, L'empreinte technique, l'Harmattan Hall, E.T., 1959, Le langage silencieux, Points Kambouchner, D., Meirieu, P., & Stiegler, B., L'école, le numérique et la société qui vient., 2012, Mille et une nuit Kandel, E.,2007, A La recherche de la mémoire, Odile Jacob Keen, A., 2008, Le culte de l'amateur, Scali Latour, B., 2006, Changer de société refaire la sociologie, La découverte Lipovetsky, G., 2006, Le bonheur paradoxal, Seuil Mc Luhan, M., 1964, Pour comprendre les médias, Points Morin, E., 1977, La nature de la nature, Seuil Mumford, L., 2008, Les transformations de l'homme, L'encyclopédie des nuisances Papert, S., 1999, Le jaillissement de l'esprit, Champs Perriault, J., 1992, La logique de l'usage, Flammarion Pisani, F., & Piotet, D., 2008, Comment le web change le monde, Pearson Prensky, M., 2001, Don't bother me mom, I'm learning, Paragon Prensky, M., 2011, Teaching digital natives, Parangon Serres, M., 2004, Où vont les valeurs ?, Unesco techniques, Aubier Small, G., 2009, iBrain, Harper Tapscott, D., 2009, Grown up digital, McGrawHill Tremel, L., 2001, les jeux vidéos : un ensemble à déconstruire, RFP Amiens – 23 et 24 mai 2012 Conception d’un système de dialogue intelligent pour jeux sérieux Franck Dernoncourt Laboratoire LIP6, 4 place Jussieu, 75005 Paris, France [email protected] Résumé L'objectif de nos travaux est de concevoir un agent conversationnel (chatterbot) capable de comprendre des énoncés en langage naturel dans un cadre sémantique restreint. Cette fonctionnalité est destinée à permettre un dialogue naturel avec un apprenant, en particulier dans le cadre des jeux sérieux (serious games). Cet agent conversationnel sera expérimenté au sein d'un jeu sérieux destiné à la formation de personnel en entreprise, en simulant les propos d'un client. Il ne s’agit pas de s’attaquer à la compréhension des langues naturelles dans leur généralité dans la mesure où d’une part le domaine sémantique d’un jeu est généralement bien délimité et, d’autre part, nous restreindrons les types de phrases présentes dans le dialogue. Introduction Quel que soit le type d’apprentissage, l’un des moyens qui permettent de maintenir l'attention et la motivation du joueur dans un jeu sérieux est de lui permettre de dialoguer avec un agent virtuel. Actuellement, ce dialogue, que ce soit dans les jeux sérieux ou dans les jeux vidéo de type récit (storytelling) ainsi que dans la plupart des environnements informatiques pour l’apprentissage humain, est réalisé grâce à des arbres basés sur des questions à choix multiples (Thue et al. 2007). Le dialogue est donc très contraint, réduisant ainsi l’apprentissage du joueur qui doit se contenter de cliquer sur une des possibilités, ce qui à terme diminue la motivation, donc la réflexion. Nous pensons que les systèmes de dialogue intelligents (également appelés systèmes de dialogue évolués) peuvent constituer une réponse pertinente à ce problème. Par exemple, si l’entreprise qui nous intéresse est une pharmacie ou un hôpital, le dialogue entre le patient simulé et le joueur, en l'occurrence un membre du personnel médical, permettra à ce dernier de se former au dialogue avec les patients et tester ses connaissances pour résoudre des situations concrètes et quotidiennes, situations pouvant être urgentes et critiques, où une erreur peut s’avérer extrêmement grave, voire mortelle. Un dialogue est une activité verbale qui fait intervenir au moins deux interlocuteurs servant à accomplir une tâche dans une situation de communication donnée. Il constitue une suite coordonnée d’actions (langagières et non-langagières) devant conduire à un but (Vernant 1992). 4ièmes Rencontres Jeunes Chercheurs en EIAH L’idée d’une interaction homme-machine se basant sur les fonctionnements de la langue naturelle n’est pas nouvelle : elle a commencé à voir le jour à partir des années 50 avec le test de Turing. Néanmoins, cette problématique, aux niveaux conceptuel et pratique, demeure toujours d’actualité. Il existe, par exemple, des compétitions annuelles comme le Loebner Prize (Loebner 2003) ou le Chatterbox Challenge visant à réussir un test et imiter ainsi l’interaction verbale humaine, mais aucun programme n’a réussi à atteindre le niveau d’un humain (Floridi et al. 2009). L’histoire du traitement automatique du langage naturel, influençant directement les agents conversationnels, fait apparaître plusieurs époques dont l’évolution est intéressante : 1. une approche statistico-morphologique entre les années 1945-1955, caractérisée par le recours à des méthodes statistiques faisant intervenir la morphologie des entrées ; ces méthodes reviennent en force avec succès pour la traduction automatique ; 2. une approche syntaxique, marquée par l’utilisation de la grammaire formelle avec les travaux linguistiques de Chomsky dès 1955 ; 3. une approche sémantique dans les années 1960, représentée en particulier par la mise en œuvre du premier agent conversationnel Eliza (Weizenbaum 1966) ; 4. une approche cognitive (Grice 1979) et pragmatique (Moeschler et Reboul 1994) à partir des années 1970, qui coïncide avec l’apparition de la représentation des connaissances et qui fut une époque influencée par la psychologie cognitive mettant l’accent sur les opérations mentales ou sur les processus à la base de la production des discours (Searle 1972). Ces quatre approches sont à présent perçues comme complémentaires les unes des autres et nous nous en inspirerons tout au long de nos travaux. Afin de définir des critères d’efficacité des agents conversationnels, nous allons prendre en compte les quatre critères suivants pré-conditionnant l'élaboration d'un système de dialogue intelligent et proposés par (Rastier, 2001) : • apprentissage (intégration au moins temporaire d'informations issues des propos de l'utilisateur) ; • questionnement (demande de précisions de la part du système) ; 33 Franck Dernoncourt • rectification (suggestion de rectifications à la question posée, lorsque nécessaire) ; • explicitation (explicitation par le système d'une réponse qu'il a apportée précédemment). Dans une première partie, nous présenterons l’état de l’art en nous focalisant sur le langage AIML, puis verrons dans un second temps de quelle manière notre approche permet de dépasser les limites de ce langage. État de l’art La figure 1 montre un exemple d'architecture d'un agent conversationnel. L'utilisateur entre une phrase que l’agent conversationnel convertit en un langage abstrait, ici AIML (Wallace 2003) : cette traduction permet d'analyser le contenu de la phrase et de faire des requêtes via un moteur de recherche dans une base de connaissances. La réponse est générée via un langage abstrait, ici également AIML, qu'il faut traduire en langage naturel avant de la présenter à l'utilisateur. Néanmoins, cette architecture est rudimentaire et très rigide. Il faut par exemple souvent mettre à jour la base de connaissances pour y inclure des connaissances sur l'utilisateur, notamment dans le cadre d'une activité de tutorat qui nécessite le suivi des acquis de l'utilisateur ainsi que de sa motivation. Les agents conversationnels se divisent en deux classes principales : 1. les agents conversationnels non orientés tâche destinés à converser avec l'utilisateur sur n'importe quel sujet avec une relation souvent amicale, tel ALICE (Wallace 2009) ; 2. les agents conversationnels orientés tâche, lesquels ont un but qui leur est assigné dans leur conception. gérer un dialogue en fonction du contexte. C’est une des problématiques du sujet. Le langage AIML est le plus souvent utilisé par les agents conversationnels, notamment les agents conversationnels éducatifs tels TutorBot et TQ-Bot (Mikic et al. 2008). Bien que sa simplicité d'utilisation ainsi que la performance relativement bonne des agents conversationnels l’utilisant le rende attrayant, AIML est un langage toutefois très limité qui peut se résumer à un simple filtrage par motif, les motifs des inputs (phrases de l'utilisateur) et des outputs (réponses de l'agent conversationnel) étant définis en grande partie par extension et a priori. Par exemple, le bot Alice, un des bots les plus connus qui est pourtant un des meilleurs agents conversationnels non orientés tâche, vainqueur en 2001, 2002, et 2004 du concours Loebner et deuxième en 2010, n’est ainsi qu’une simple liste composée de dizaines de milliers de questions/réponses prédéfinies : <category><pattern>Do I like cheese</pattern> <template>How would I know if you like cheese or not?</template> </category> Approche Notre approche se veut modulaire afin de distinguer les différentes compétences requises pour gérer le dialogue et ainsi pouvoir développer de façon indépendante les différents modules, comme le montre le diagramme des flux présenté sur la Figure 2. Dans un premier temps, la phrase entrée par l'utilisateur est corrigée orthographiquement et grammaticalement si besoin. Cette étape, bien qu'évidente, est négligée par beaucoup d'agents conversationnels à l’instar de Cleverbot, pourtant un Les agents conversationnels orientés tâche sont euxmêmes classés usuellement en deux catégories : 1. les agents conversationnels orientés service, par exemple guider des clients sur un site de commerce électronique, telle l’assistante virtuelle Sarah de PayPal ; 2. les agents conversationnels éducatifs, dont le but est d'aider l'utilisateur à apprendre. Notre travail se concentre sur les agents conversationnels éducatifs (tutor bots). Un certain nombre d’agents conversationnels éducatifs ont déjà été conçus et implémentés, comme (Zhang et al. 2009), (De Pietro et al. 2005), (Core et al. 2006), (Pilato et al. 2008) ou encore (Fonte et al. 2009). Diverses architectures ont été élaborées, voici les éléments communs à la plupart d’entre elles : • une base de connaissances inhérente au domaine, objet de l’application ; • un gestionnaire de répliques ; • des structures de stockage des échanges sous forme d’arborescences surtout dans les agents conversationnels éducatifs conçus dans le cadre d’un jeu vidéo. Il n’existe pas encore d’outils standards performants permettant de comprendre le langage naturel, et de 34 Figure 1 - Exemple d'architecture d'un agent conversationnel. Source : (De Pietro et al. 2005) Amiens – 23 et 24 mai 2012 Conception d’un système de dialogue intelligent pour jeux sérieux des agents conversationnels les plus aboutis, comme le montrent ces deux exemples suivants issus du site officiel http://www.cleverbot.com : Exemple 1 : Human: Hi. Cleverbot: How clever are you? Human: Very clver. Cleverbot: How clever? Exemple 2 : Human: Hi. Cleverbot: Are you a boy? Human: Yes I am a boys. Cleverbot: Are you a girl? Dans l’exemple 1, nous voyons que la faute de frappe de l'utilisateur qui a écrit « clver » au lieu de « clever » a manifestement empêché l'agent conversationnel Cleverbot de comprendre la phrase et de proposer une suite cohérente au dialogue. Pour résoudre ce problème, nous utilisons le correcteur orthographique open-source et gratuit Hunspell, utilisé par des logiciels majeurs tels Google Chrome et LibreOffice. Si nous soumettons la phrase « Very clver » à Hunspell, ce dernier nous propose : « clver 7 0: clever, claver, clover, elver, caver, cover, cleaver ». La première suggestion est la bonne. Hunspell prend en compte beaucoup de paramètres pour ordonner ces suggestions, tels la grammaire, la prononciation, le type de clavier utilisé, etc. En plus de l'ordonnancement des suggestions proposées par Hunspell, nous pouvons également apporter nos propres critères, par exemple donner une priorité plus forte aux suggestions présentes dans les mots précédents du dialogue. L’exemple 2, qui montre une erreur de grammaire mettant à défaut l'agent conversationnel, est également corrigé par Hunspell. Si nous soumettons la phrase « Yes I am a boys » à Hunspell, ce dernier nous retourne : « * * * * +boy », le symbole * signifiant que les mots n'ont pas besoin d'être corrigés. Dans un second temps, la phrase de l'utilisateur est analysée lexicalement (tokenization) : ce processus consiste à normaliser la phrase en la découpant en mots. Si de simples heuristiques basées sur des expressions régulières, autrement dit sur des automates à états finis, suffisent pour réaliser l'analyse lexicale des langues occidentales où les mots sont usuellement séparés par des espaces, il n'en va pas de même dans d’autres langues tel le chinois. Par exemple, le segment de phrase chinoise (mandarin) 看上海风景 peut être segmenté 看/上海/风景 (littéralement « regarder / Shanghai / paysage », i.e. « regarder le paysage de Shanghai ») ou bien 看上/海风/景 ( « aimer / brise de mer / vue », i.e. « aimer la vue des brises de mer » ). En voyant cette phrase, un sinophone segmenterait toujours de la première façon car le sens issu de la seconde segmentation est étrange, comme nous le constatons dans la traduction française. Cependant, dans d'autres cas, la segmentation peut être ambiguë même pour un sinophone, à l'instar de la phrase 学生会组织演出 qui peut être segmentée de deux 4ièmes Rencontres Jeunes Chercheurs en EIAH façons différentes, précisément 学生会/组织/演出 (« Le Bureau des Élèves / organise / un spectacle ») ou bien 学生/会/组织/演出, (« le(s) étudiant(s) / va (ou peut) / organiser / un spectacle »). À la lueur de ces deux exemples, nous voyons que ce genre de phrase en chinois rend la tâche plus difficile et demande de faire appel à des heuristiques plus complexes, d’où l’existence d’analyseurs lexicaux spécifiques pour la langue chinoise tel le Stanford Chinese Word Segmenter. Ainsi, il est utile de bien distinguer cette étape de l'analyse de la phrase comme étant une étape à part entière, bien que dans notre cas le traitement soit simple car nous l'appliquons seulement sur les langues anglaise et française. Dans un troisième temps, nous réalisons un étiquetage grammatical (part-of-speech tagging), dont l'objectif est de classifier les mots selon leur fonction grammaticale (noms, pronoms, verbes, etc.). Cette classification se base d'une part sur un dictionnaire et d'autre part sur le contexte dans lequel le mot apparaît. Les étiqueteurs grammaticaux se répartissent en deux Figure 2 - Diagramme du flux des prétraitements. 35 Franck Dernoncourt groupes : les étiqueteurs stochastiques et les étiqueteurs à base de règles. Un exemple d’étiqueteur grammatical stochastique est l’étiqueteur unigramme, qui classifie les mots seulement en fonction de la probabilité d'appartenance des mots à une classe, probabilité calculée sur un corpus d'apprentissage. Par exemple, sur le corpus de Brown (Francis et Kucera 1967), un étiqueteur grammatical unigramme classifie correctement un peu plus de 80 % des mots (Bird et al. 2009), alors que les meilleurs étiqueteurs atteignent des précisions supérieures à 95 %, ce qui est un gain non négligeable, mais montre que même un étiqueteur stochastique trivial (unigramme) présente des résultats corrects. Les étiqueteurs grammaticaux sont très nombreux pour l’anglais mais rares pour le français. À notre connaissance, il n'en existe que quatre directement opérationnels : Cordial Analyseur, LIA Tagg, Stanford Tagger (disponible en français depuis le 6 janvier 2012) et TreeTagger. Dans un quatrième temps, nous établissons l'arbre syntaxique à l’aide d’un parser. Cette étape nous permet notamment de détecter les ambiguïtés structurelles, c'est-à-dire correspondant aux phrases ayant plusieurs arbres syntaxiques. Si l'analyse du contexte ne permet pas de lever l'ambiguïté, notre agent conversationnel peut ainsi poser une question intermédiaire à l'utilisateur l'invitant à clarifier sa phrase. L’extrait suivant issu du film Animal Crackers (1930) montre un exemple classique d'ambiguïté structurelle : Groucho Marx: While hunting in Africa, I shot an elephant in my pajamas. How an elephant got into my pajamas I’ll never know. La figure 3 montre les deux arbres syntaxiques construits à partir du segment de phrase souligné, ce qui signifie que ce segment est structurellement ambigu. Dans l’exemple d'ambiguïté structurelle donnée précédemment, la seconde phrase, autrement dit le contexte, lève l'ambiguïté en choisissant le sens le plus improbable, d'où le caractère humoristique du passage. Si l’agent conversationnel ne réussit pas à déduire le sens du contexte, il peut demander qui portait le pyjama au moment du tir. Ces différentes étapes de traitement de la phrase de l’utilisateur sont résumées sur la Figure 2 montrant le processus appliqué à la phrase de l'utilisateur « I am a boys ». Sur le plan technique, ces étapes (hormis la première) se basent sur la librairie open-source et gratuite NLTK (Bird et al. 2009) qui offre de nombreuses fonctionnalités de traitement des langues tout en interfaçant aussi bien des bases de données tel WordNet (Fellbaum 2005) que des librairies et logiciels tiers tels l’étiqueteur grammatical Stanford Tagger et le prouveur automatisé Prover9. Un grand nombre de corpus sont également disponibles via NLTK, ce qui est très appréciable pour mettre en oeuvre des processus d'entraînement ainsi que pour réaliser des tests, notamment des tests de performance. 36 Figure 3 - Exemple d’ambiguïté structurelle. Source : (Bird et al. 2009) Après avoir mis en place les étapes liminaires du traitement de la phrase de l'utilisateur, notre travail se focalise au niveau du moteur de raisonnement, en particulier sur l'analyse des intentions présentes dans la phrase de l'utilisateur. Ces différentes informations sont ensuite utilisées pour étudier la sémantique de la phrase tout en calculant en parallèle des données statistiques, en particulier via l'analyse sémantique latente, afin de pouvoir la soumettre au moteur de raisonnement. Ce dernier lance des requêtes vers une base de connaissances propre au domaine du sujet du dialogue comme le domaine médical si le dialogue simule une conversation entre un patient et un pharmacien. Outre la base de connaissances en tant que telle, le moteur de raisonnement doit également prendre en compte les objectifs pédagogiques du jeu. Pour cela, dans un premier temps nous utilisons des données pédagogiques basées sur des arbres de décision déjà utilisés dans des environnements informatiques pour l’apprentissage humain. Cela nous permet de réutiliser des scénarios pédagogiques déjà existants ainsi que d’orienter le dialogue afin de mener à bien les objectifs d'apprentissage. De surcroît, ces structures arborescentes atténuent la problématique de la génération de la réponse car les réponses peuvent être générées par l'agent conversationnel en se basant sur des motifs prédéfinis et en fonction de la localisation du dialogue dans l'arbre des scénarios pédagogiques. Amiens – 23 et 24 mai 2012 Conception d’un système de dialogue intelligent pour jeux sérieux Nous voyons ainsi que le point critique est la liaison entre d’un côté la phrase de l'utilisateur qui par essence est exprimée dans un espace infini, le langage naturel, bien que sémantiquement restreint par le contexte du jeu sérieux, et de l'autre côté l'espace fini correspondant aux arbres des scénarios pédagogiques. Afin de situer la phrase de l'utilisateur dans cet arbre, la connaissance des intentions est indispensable. En outre, la reconnaissance des intentions permet d'accroître la robustesse de l'analyse sémantique, comme le souligne (Horvitz et Paek, 2001). L’objectif principal de nos travaux, à présent que les phases de prétraitement ont été mises en place, est donc de concevoir un système de reconnaissance des intentions. Les travaux sur la reconnaissance des intentions ont débuté il y a environ 30 ans, (Schmidt et al. 1978), (Wilensky 1983), et (Kautz et Allen 1986) étant souvent considérés comme les premiers articles dans ce domaine. Les systèmes de reconnaissance des intentions sont très similaires à un système de reconnaissance des objectifs, à tel point que ces deux types de systèmes sont parfois confondus. La reconnaissance des intentions débouche sur de multiples applications allant du traitement automatique des langues naturelles à la détection d'intrusion informatique en passant par la stratégie militaire. Des mécanismes de reconnaissance des intentions ont déjà été mis en oeuvre dans le cadre de récits interactifs, à l’instar de LOGTELL (Karlsson et al. 2007). Comme le souligne (Sabri 2010), il y a généralement trois composants majeurs dans un système de reconnaissance des intentions : • un ensemble d'intentions parmi lesquelles le système choisit ; • des connaissances sur les relations entre actions et objectifs ; • un flux entrant d'actions observées, qui correspond dans notre cas aux actes de dialogue. La logique a souvent été utilisée pour mettre en oeuvre des systèmes de reconnaissance des intentions (Charniak et McDermott 1985), principalement en se basant sur les concepts d'abduction et de planification. L’approche logique peut être combinée avec des approches statistiques (Pereira et Anh 2009) (Demolombe et Frenandez 2006). La phrase « Ne trouves-tu pas qu’il fait chaud ? » est un exemple mettant en exergue la complexité potentielle de l'analyse des intentions : l'intention peut aussi bien être un simple constat qu'une demande indirecte d'ouvrir une fenêtre ou de mettre en marche la climatisation, ou bien que le simple souhait de continuer la conversation. Nous voyons à travers cet exemple que la recherche des intentions est très similaire, voire identique à la recherche des objectifs. Deux approches majeures ont émergé pour analyser les intentions (Raufaste et al. 2005) : d'une part l’approche classique, également appelée approche conventionnaliste, qui cherche les intentions au coeur de la structure linguistique, et d'autre part l'approche intentionnaliste, qui base la recherche d'intentions sur le contexte. Ces deux approches sont complémentaires, comme le représente la figure 4. Enfin, comme le montre (D’Mello et al. 2010), l'apprentissage par agent conversationnel peut être amélioré lorsque la modalité est orale et non écrite. Par conséquent, nous utilisons Dragon NaturallySpeaking 11, qui est le leader de la reconnaissance vocale et édité par la société française Nuance, ainsi que le logiciel AT&T Natural Voices® Text-to-Speech pour transmettre les réponses de l'agent conversationnel sous forme orale. À noter que ces deux logiciels ne sont pas libres. Conclusions et perspectives Notre système sera implémenté au sein de la plateforme pour jeux sérieux Learning Adventure (Carron et al. 2010), dans laquelle il sera évalué dans le cadre d’expérimentations avec les étudiants. La mise au point d'un dialogue entre utilisateur et ordinateur débouche sur des applications potentiellement très nombreuses qui ne se limitent pas aux jeux sérieux. Par exemple, l'interaction orale ou écrite homme-machine (Horvitz et Paek, 2001), la conception de bots, l’aide au brouillage de communication par chat flooding difficilement détectable, les systèmes de questions-réponses, etc. Cette thématique est très actuelle comme le prouvent les travaux d’IBM avec Watson (Ferrucci 2010), (Baker 2011), ainsi que le rapport de Gartner (Gartner 2011) dont la prédiction suivante montre l’importance croissante de ce domaine: By year-end 2013, at least 15 percent of Fortune 1000 companies will use a virtual assistant to serve up Web self-service content to enhance their CRM offerings and service delivery. En outre, les travaux portant sur les agents conversationnels ont de nombreuses problématiques communes avec l’analyse de documents, la fouille de données, la traduction automatique et le web sémantique : tous ces domaines représentent des applications indirectes de nos travaux et des interactions sont envisagées avec certains d'entre eux. Remerciements Je souhaite particulièrement remercier mon directeur de thèse Jean-Marc Labat pour ses précieux conseils, indispensables à la réalisation de ce projet, ainsi que la DGA pour son soutien financier. Figure 4 - Complémentarité des approches conventionnaliste et intentionnaliste. Source : (Raufaste et al. 2005) 4ièmes Rencontres Jeunes Chercheurs en EIAH 37 Franck Dernoncourt Références Baker, S. eds. 2011. Final Jeopardy: Man vs. Machine and the Quest to Know Everything. Houghton Mifflin Harcourt Bird, S., Klein, E., Loper, E. eds. 2009. Natural Language Processing with Python. O’Reilly Media. Carron, T., Marty, J.C. and Talbot S. 2010. Interactive Widgets for Regulation in Learning Games. The 10th IEEE Conference on Advanced Learning Technologies, Sousse, Tunisia. Core, M., Traum, D., Lane, H. C., Swartout, W., Gratch, J., Lent, M. V. and Marsella. S. 2006. Teaching negotiation skills through practice and reflection with virtual humans. Simulation 82(11):685– 701. D'Mello, S.K., Graesser, A. and King, B. 2010. Toward Spoken Human-Computer Tutorial Dialogues. Human--Computer Interaction. (4):289--323. De Pietro, O., De Rose, M. and G. Frontera. 2005. Automatic Update of AIML Knowledge Base in ELearning Environment. Proceedings of Computers and Advanced Technology in Education, Oranjestad, Aruba, August: 29–31. Charniak, E., McDermott, D. eds. 1985. Introduction to artificial intelligence. Reading, Mass.: AddisonWesley. Fellbaum, C. 2005. WordNet and wordnets. In: Brown, Keith et al. (eds.), Encyclopedia of Language and Linguistics, Second Edition, Oxford: Elsevier, 665670 Ferrucci, D. 2010. Build Watson: an overview of DeepQA for the Jeopardy! challenge. In Proceedings of the 19th international conference on Parallel architectures and compilation techniques (PACT 2010). ACM. Demolombe, R., Fernandez, A.M.O. 2006. Intention recognition in the situation calculus and probability theory frameworks. In Proceedings of Computational Logic in Multi-agent Systems (CLIMA). Floridi, L., Taddeo, M. and Turilli, M. 2009. Turing’s Imitation Game: Still an Impossible Challenge for All Machines and Some Judges––An Evaluation of the 2008 Loebner Contest. Minds and Machines. Springer. Fonte, F. A., Carlos, J., and Rial, B. 2009. TQ-Bot: An AIML-based Tutor and Evaluator Bot. Computer. Journal of Universal Computer Science 15(7), 14861495 Francis, W.N. and Kucera, H. eds. 1967. Computational Analysis of Present-Day American English. Brown University Press. Jacobs, J. 2011. Hartner. http://www.gartner.com/DisplayDocument?id=1522020 , Virtual Assistant Vendor Landscape. Grice, H.P., Kant, E. and Foucault, M. 1979. Logique et conversation. Communication, 30, 57-72. Horvitz, E. and Paek, T. 2001. Harnessing models of users' goals to mediate clarification dialog in spoken language systems. User Modeling 3–13. Springer. Kautz, H. and Allen, J.F. 1986. Generalized plan recognition. In Proceedings of the Fifth National Conference on Artificial Intelligence (AAAI), 32-38. 38 Loebner, Hugh. 2003. Home Page of the Loebner Prize, http://www.loebner.net/Prizef/loebner-prize.html The First Turing Test. Meier, E., Mast, M. and Luperfoy, S. 1996. Dialogue Processing in Spoken Language Systems. In ECAI'96, Workshop, Budapest, Hungary. Springer. Fernando, A., Burguillo, C., Rodríguez A., Rodríguez, E. and Llamas, M. 2008. T-Bot and Q-Bot: A couple of AIML-based bots for tutoring courses and evaluating students. Frontiers in Education Conference. FIE. 38th Annual. Karlsson, B., Ciarlini, A.E.M., Feijo, B., Furtado A.L. 2006. Applying a plan-recognition/plangeneration paradigm to interactive storytelling, The LOGTELL Case Study. Monografias em Ciência da Computação Series (MCC 24/07), Moeschler. eds. 1994, Dictionnaire encyclopédique de pragmatique. Paris: Éditions du Seuil. Pereira, L.M. and Anh, H.T. 2009. Elder care via intention recognition and evolution prospection. Procs. 18th International Conference on Applications of Declarative Programming and Knowledge Management (INAP'09), Évora, Portugal. Pilato, G., Roberto P., and Riccardo R. A kst-based system for student tutoring. 2008. Applied Artificial Intelligence 22, no. 4 (4, 2008): 283-308. Rastier, F. eds. 2001. Sémantique et recherches cognitives, PUF (2e éd). Raufaste, É., Longin, D. and Bonnefon, J.F. 2005. Utilitarisme pragmatique et reconnaissance d’intention dans les actes de langage indirects. Psychologie de l’Interaction. 21--22. Sadri, F. 2010. Logic-based approaches to intention recognition. Handbook of Research on Ambient Intelligence: Trends and Perspectives. Schmidt, C., Sridharan, N. and Goodson, J. 1978. The plan recognition problem: an intersection of psychology and artificial intelligence. Artificial Intelligence, Vol. 11, 1978, 45-83. Searle, J.R. and Pauchard, H. eds. 1972. reed. 2009. Les Actes de langage. Hermann. Thue, D., Bulitko, V., Spetch, M. and Wasylishen, E. 2007. Interactive storytelling: A player modelling approach. In The Third Conference on Artificial Intelligence and Interactive Digital Entertainment (AIIDE), Stanford, CA, pp. 43–48. Vernant, D. 1992. Modèle projectif et structure actionnelle du dialogue informatif. In Du dialogue, Recherches sur la philosophie du langage, Vrin éd., Paris, n°14, p. 295-314. Wallace, R. 2003. The elements of AIML style. Alice AI Foundation. Wallace, R. 2009. Parsing the Turing Test, The Anatomy of A.L.I.C.E. Springer. Weizenbaum, J. 1966. Eliza. Communications of the Association for Computing Machinery 9. p. 36–45. Wilensky, R. 1983. Planning and understanding. Addison Wesley, Reading, MA, 1983. Zhang, H. L., Z. Shen, X. Tao, C. Miao, B. Li, and others. 2009. Emotional agent in serious game (DINO). In Proceedings of The 8th International Conference on Autonomous Agents and Multiagent Systems-Volume 2, 1385–1386. Amiens – 23 et 24 mai 2012 Analyse automatique de codes informatiques pour l’aide à l’enseignant 3 ème Loïc Février année de Doctorat (changement de sujet en Septembre 2011) Laboratoire LIP6, 4 place Jussieu, 75005 Paris, France [email protected] Résumé L’introduction récente de l’enseignement de l’algorithmique et de la programmation au niveau du lycée est confrontée à un certain nombre de difficultés, notamment pour les enseignants. Après avoir exposé ces difficultés, nous montrerons l’intérêt d’un système d’évaluation automatique de programmes informatiques puis nous proposerons la création d’outils d’analyse de code permettant d’en pallier les limites. 1. Introduction Depuis la rentrée 2009, une composante algorithmique a été introduite au sein du programme de mathématiques dans les lycées français et ce, de la seconde à la terminale. De plus, à partir de la rentrée 2012, une spécialité informatique sera créée pour les terminales scientifiques. À la même date, en Angleterre, le programme d’étude Information and Communication Technology (l’équivalent de la formation au B2I1 en France), qualifié par le ministre anglais de l’éducation, de « démotivant et terne » sera remplacé par un programme d’études informatiques, axé sur la pratique de la programmation. L’informatique commence donc à être perçue moins comme un outil, qu’il faut savoir utiliser, mais plus comme une science, qu’il faut étudier. Si cette évolution ne peut être que saluée, les obstacles sont nombreux et le risque existe, si ils ne sont pas surmontés, de voir à terme la disparition de cet enseignement. Nous nous concentrerons dans cet article sur les composantes algorithmique et programmation de l’informatique. Après avoir exposé les difficultés rencontrées lors de l’enseignement de ces matières, nous présenterons des outils informatiques capables d’assister les enseignants et nous situerons nos travaux dans ce cadre. 2. Difficultés Rencontrées L’enseignement, dans le cadre des cours mathématiques, de l’algorithmique et de 1 Brevet Informatique et Internet 4ièmes Rencontres Jeunes Chercheurs en EIAH de la programmation, pose un certain nombre de problèmes aux enseignants. Tout d’abord, les enseignants ont en général une méconnaissance de ces deux matières (algorithmique et programmation), qui sont nouvelles pour eux. Ils ont peu de recul par rapport au contenu qu’ils doivent enseigner et ont donc tendance à se concentrer uniquement sur ce que l’informatique peut apporter à leur enseignement des mathématiques. Or, si la notion informelle d’algorithme est assez intuitive pour les élèves, sa formalisation et sa mise en pratique par l’écriture de programmes sont conceptuellement bien plus complexes. Les élèves doivent passer par une phase d’apprentissage des notions fondamentales (variables, boucles, tests...) et de la syntaxe. Cet apprentissage est long et cela peut engendrer de la frustration tant au niveau des enseignants que des élèves, chacun l’exprimant par le classique « A quoi cela sert-il ? ». L’apprentissage d’un langage de programmation est ainsi souvent perçu comme difficile voire désagréable (Bennedsen et Caspersen. 2007, Gomes et Mendes 2007, Kelleher et Pausch 2005). Ensuite, s’il est possible en mathématiques de multiplier les variantes d’un même exercice jusqu’à ce que les élèves aient assimilé un concept, ceci est plus difficile en algorithmique car il n’y a que peu d’intérêt à donner plusieurs fois exactement le même exercice. L’entraînement des élèves est donc plus complexe et il faut s’assurer que chaque exercice est bien compris par chacun, à son propre rythme. De plus, on constate rapidement de grandes différences de niveaux entre les élèves (HartMann et al. 2011), dues à la fois à des connaissances initiales hétérogènes et à des vitesses de progression très variées, différences bien plus marquées que dans les autres matières. Ainsi, l’utilisation de méthodes traditionnelles d’enseignement, cours magistral puis exercices, peine fortement à s’adapter à ces différences, les élèves les moins rapides étant rapidement perdus (HartMann et al. 2011, Gomes et Mendes 2007), les plus rapides s’ennuyant. Enfin, la nature même des travaux rendus, des programmes, rend leur évaluation difficile par les enseignants, en particulier pendant les séances d’exercices. Analyser un programme d’élève, comprendre sa logique, détecter les éventuelles erreurs et guider l’élève vers la solution, le tout en temps-réel, 39 Loïc Février demande en effet une certaine expérience et une bonne connaissance du langage utilisé. Les difficultés sont doubles, à la fois théoriques, pour ce qui concerne l’algorithme utilisé, et pratiques, pour ce qui concerne son implémentation dans un langage de programmation. Cette analyse de programmes, même une fois l’expérience acquise, reste une tâche fastidieuse et répétitive, les erreurs faites par les élèves étant, en général, peu variées. 3. Évaluation Automatique Afin de s’adapter aux différences de niveaux et de vitesses de progression, on peut permettre aux élèves d’avancer à leur rythme au sein des exercices. Il faut cependant s’assurer qu’un exercice a bien été résolu avant de passer au suivant. Comme nous l’avons vu, il est très difficile pour l’enseignant de s’acquitter efficacement de cette tâche. Pourtant un feedback adapté peut avoir une grande influence sur le processus d’apprentissage (Norcini 2010). Il semble donc naturel de mettre en place un système automatisé d’évaluation des programmes informatiques, permettant d’y détecter des erreurs éventuelles. Si de tels systèmes existent et sont utilisés dans certaines universités (Joy et al. 2005, Higgins et al. 2005, Wang et Wong, 2008) ou dans le cadre d’un apprentissage extra-scolaire (Codecademy, CodeChef, France-IOI) nous verrons qu’ils possèdent certaines limites, notamment vis à vis du type de feedback qu’ils procurent. Utilisation de Jeux de Tests Afin d’évaluer, de manière automatisée, la correction d’un programme informatique, on se restreint généralement à un certain type de programmes qui lisent des données de travail, l’entrée et écrivent des résultats, la sortie. À chaque exercice est alors associé un ensemble de tests (le jeu de tests), chacun consistant en une entrée et une sortie de référence. En comparant, pour chaque test, la sortie de référence à la sortie produite par le programme quand on lui donne cette entrée, il est possible de détecter les éventuelles différences, indiquant que le programme n’a pas donné la sortie attendue. En fonction du nombre de tests sur lesquels le programme a donné le bon résultat, il reçoit une note. Si le jeu de tests est bien construit il permet de déterminer de manière très simple et rapide la correction d’un programme. Difficultés de Mise en Œuvre La principale difficulté dans l’utilisation d’un jeu de tests pour l’évaluation de programmes informatiques, consiste en la création de tests de bonne qualité. Il faut en effet penser, autant que possible, à l’ensemble des cas particuliers et des cas limites du problème mais également aux erreurs potentielles et donc créer des tests spécifiques. Sur l’exemple du calcul des racines d’un polynôme de degré 2, il sera assez simple pour un enseignant de penser aux différents cas particuliers comme « avoir une racine double », « avoir un déterminant positif » ou 40 encore « ne pas avoir de racines », permettant de détecter des cas traités incorrectement par les programmes des élèves. Pour les exercices de géométrie, il existe en général de nombreux cas particuliers, auxquels il faudra aussi penser lors de la création des tests, à moins qu’il ne soit explicité dans l’énoncé que de tels cas particuliers ne sont pas à traiter. Il n’est cependant pas toujours facile d’identifier, à l’avance, tous les cas particuliers. Pour un exercice consistant à déterminer si les éléments d’un tableau sont donnés en ordre croissant, les deux erreurs principales faites par les élèves sont les suivantes : 1. L’élève ne compare que les deux premiers éléments, sans jamais regarder les autres. Fonction EstCroissant(T, Taille) Pour i allant de 1 à Taille - 1 Si T[i] < T[i+1] Retourner Vrai Sinon Retourner Faux FinSi FinPour FinFonction 2. L’élève a mal construit sa boucle, la faisant aller jusque Taille au lieu de Taille - 1 ce qui occasionnera une erreur. Fonction EstCroissant(T, Taille) Pour i allant de 1 à Taille - 1 Si T[i] > T[i+1] Retourner Faux FinSi FinPour Retourner Vrai FinFonction Il n’est pas évident de déterminer, a priori, les erreurs qui seront faites par les élèves, aussi c’est en étudiant les solutions proposées que l’on peut se rendre compte des erreurs typiques. Limites Tout d’abord, le fait de pouvoir vérifier de manière presque instantanée la correction de sa solution pousse certains élèves vers une stratégie « essais et erreurs » et ne les encourage pas à réellement réfléchir sur leur programme (Pears et al. 2007, Norcini 2010). Plusieurs solutions existent, par exemple en instaurant un délai entre chaque essai ou en pénalisant un trop grand nombre d’essais. Ensuite, comme nous l’avons vu, il est difficile de construire, dès le début, un bon jeu de tests et celui-ci ne peut remplacer complètement une lecture des programmes des élèves, seule à même de nous éclairer sur les erreurs faites. L’évaluation automatisée par un jeu de tests est donc un outil au service de l’enseignant, lui permettant de se décharger de cette tâche fastidieuse afin de se concentrer sur l’aide à apporter aux élèves en difficulté et la détection des problèmes de fond. Amiens – 23 et 24 mai 2012 Analyse automatique de codes informatiques Enfin, un jeu de tests permet uniquement d’indiquer la présence d’erreurs au sein d’un programme mais n’aide guère l’élève sur les modifications à apporter pour arriver à une solution correcte. Ceci reste à la charge de l’enseignant mais peut, à nouveau, représenter un investissement en temps trop important, alors même que les erreurs rencontrées sont en général les mêmes d’un élève à l’autre. Cependant, malgré ces limites, l’utilisation d’un système d’évaluation automatisée par jeu de tests permet un gain de temps important pour les enseignants, un retour (possiblement) immédiat pour les élèves et ne demande pas de connaissances informatiques spécifiques pour sa mise en œuvre, dès lors qu’une plateforme de test est mise à disposition. Évolution Afin de corriger les limites de l’utilisation d’un jeu de tests, il est par exemple possible d’ajouter un commentaire à chaque test (Wang et Wu, 2007), commentaire qui sera montré à l’élève si son programme échoue sur ce test. Ainsi, en cas d’erreur sur certains cas particuliers, l’élève peut modifier son programme en conséquence. Cela suppose cependant que le programme de l’élève marche sur le cas général. De plus, comme il existe souvent de multiples raisons pour lesquelles un programme ne donne pas le bon résultat, l’élève débutant se trouve démuni et incapable de corriger ses erreurs. Dans le cas de l’apprentissage des mathématiques, un certain nombre d’EIAH ont été développés (Hakem et al. 2005, Heffernan et al. 2008, Narciss et Huth 2006) permettant, suite à l’analyse de l’erreur de l’élève, d’adapter la réponse du système. Le point essentiel de ces outils est d’avoir à la fois une modélisation du domaine de connaissance et une compréhension fine de l’erreur faite par l’élève, ces deux composants permettant alors de guider efficacement ce dernier dans sa résolution. Pour la mise en place de tels systèmes dans le cadre de l’apprentissage de la programmation, deux difficultés se présentent : • la compréhension fine de la réponse de l’élève est difficile à acquérir, même si l’on dispose d’un excellent jeu de tests, • le domaine de connaissance dépend de l’exercice et sa modélisation demande une bonne connaissance des erreurs possibles des élèves. Pour ce second point, une analyse des solutions des élèves est essentielle mais celle-ci est difficile à faire manuellement par manque de temps : le nombre de programmes à analyser, pour une séance d’une heure dans une classe de 30 élèves, s’élève rapidement à plusieurs centaines ! Afin de faire face à ces deux difficultés, une analyse automatique de programmes informatiques s’avère donc nécessaire, afin de pouvoir catégoriser un ensemble de programmes et associer à chaque programme une ou plusieurs erreurs spécifiques. Une telle analyse étant déjà utilisée dans des outils de détection de plagiat, il semble naturel de s’intéresser aux techniques utilisées dans ce cadre. 4ièmes Rencontres Jeunes Chercheurs en EIAH 4. Détection de Plagiat En informatique, nous entendons par plagiat le fait, pour un élève, de copier un programme écrit par une autre personne et de le modifier afin de cacher autant que possible cet emprunt. Les types de modifications constatées (Prechelt et al. 2000) comprennent des modifications de la mise en page du programme (ajout de commentaires, traduction depuis une autre langue, changements de noms de variables...), de son organisation globale (réorganisation des déclarations de fonctions, ajout de « code mort »...) ou locale (réordonnement de conditions multiples, passage d’un type de boucle à un autre, ajout de variables temporaires...). La pratique du plagiat, phénomène global (Saltau 2001) et pratiqué par un grand nombre d’étudiants (Sheard, 2002) notamment en informatique, a incité au développement, depuis plus de 30 ans, de systèmes automatisés capable de détecter cette forme de triche. Désormais, s’il est toujours possible de désorienter ces systèmes, il faut mettre en œuvre des techniques élaborées (Prechelt et al. 2000, Chen et al. 2003) dont la mise en œuvre est aussi difficile que la tâche de départ, et donc hors de portée des étudiants tentés par le plagiat. Ces outils étant donc capables de détecter des similarités fortes entre programmes, alors même que des techniques élaborées de camouflage du plagiat ont été mises en œuvre, les techniques qu’ils emploient sont intéressantes à étudier dans le cadre des applications que nous envisageons. Comptage d’Attributs Les premiers systèmes de détection de plagiat calculaient, pour chaque programme, un certain nombre de métriques permettant alors d’associer à chacun de ces programmes un vecteur de caractéristiques, c’est-à-dire un point dans un espace à n dimensions. Des programmes proches dans cet espace sont alors considérés comme possibles plagiats. Le premier système de ce type (Ottenstein 1976) était basé sur les métriques suivantes : nombre d’opérateurs uniques, nombre d’opérandes uniques, nombre total d’opérateurs et nombre total d’opérandes. Par la suite, d’autres systèmes (Berghel et Sallach 1984, Faidhi et Robinson 1987, Grier 1981) ont été développés, introduisant des métriques supplémentaires, jusqu’à 24. Lorsqu’on calcule des métriques sur l’ensemble d’un programme, on perd toutes les informations liées à sa structure et il a été montré (Whale, 1990) que les systèmes de ce type étaient inefficaces car soit très sensibles (de petites modifications rendent le plagiat indétectable) soit au contraire trop peu sensibles (ce qui occasionne de nombreux faux-positifs). Métriques Structurelles Par la suite, certains systèmes (Jankowitz 1988) ont combiné l’approche « comptage d’attributs » avec des comparaisons de la structure des programmes, cette dernière technique étant la base des systèmes actuellement les plus utilisés parmi lesquels on peut citer MOSS (Schleimer et al. 2003, Aiken ), YAP (Wise 41 Loïc Février 1996), JPlag (Prechelt, et al. 2000), SIM (Gitchell et Tran, 1999) ou encore SID (Chen et al. 2003). Représentation Symbolique Tous ces systèmes commencent par associer à chaque programme une représentation symbolique permettant de s’éloigner du détail de l’implémentation afin de ne conserver que l’essence même du programme. L’ensemble des symboles choisis est de taille plus ou moins grande selon les systèmes et permet donc des compromis variables entre la non-détection de certains plagiats et la détection de faux-positifs. Ainsi, dans le cas de JPlag, un programme est représenté sous la forme d’une suite de symboles très généraux qui, dans le cas Java, comprennent notamment VARDEF, ASSIGN, APPLY, BEGINWHILE, ENDWHILE, IF, ELSE, ENDIF... Le détail des noms de variables ou même des affectations effectuées est donc oublié et seule la structure est conservée. Au contraire pour SIM, l’ensemble des symboles est plus important et un code comme for (i = 0; i < max; i++) sera transformé en TKN_FOR TKN_LPAREN TKN_ID_I TKN_EQUALS TKN_ZERO... qui conserve donc beaucoup plus d’informations, bien que les noms des variables soient également oubliés. Comparaisons Une fois les représentations symboliques des programmes obtenues, différents algorithmes de comparaison sont mis en œuvre par ces systèmes. Dans le cas de SIM, on cherche à aligner les deux séquences de symboles de manière à maximiser un certain score. Par exemple, deux symboles associés valent +1 s’ils sont égaux et -1 sinon ; un symbole qui reste seul vaudra quant à lui -2. Il est possible de maximiser très simplement un tel score en utilisant des techniques de programmation dynamique, mais le grand défaut de cette méthode est qu’elle n’est pas capable de traiter les cas où des morceaux de codes ont été inversés. Dans le cas de JPlag et de YAP, on cherche parmi ces deux séquences de symboles des sous-séquences communes, appelées tuiles. Ces tuiles étant disjointes, on déterminera la similarité entre deux programmes en calculant le taux de recouvrement maximal des deux séquences par des tuiles assez grandes (de taille supérieure à un certain paramètre). L’algorithme utilisé est de type glouton, cherchant à chaque étape la plus grande tuile possible. Le système MOSS utilise, de son côté, une technique de winnowing considérant l’ensemble des sousséquences (de longueur fixée) de symboles d’un 42 programme et extrayant pour chacune de ces sousséquences, de manière invariante localement, un élément représentatif (par exemple le minimum). L’ensemble de ces éléments constitue alors un échantillonnage de la séquence d’origine. Pour comparer deux programmes, on calcule alors le nombre d’échantillons partagés. Métrique de Compression Le système SID (Chen et al. 2003) diffère des méthodes présentées précédemment au sens où il ne compare pas réellement les représentations symboliques des programmes mais utilise une métrique, basée sur la complexité de Kolmogorov. Cette métrique est prouvée comme optimale mais, ne pouvant être calculée, est en pratique approximée par un algorithme de compression pour donner la NCD (Normalized Compression Distance). Intuitivement, plus deux programmes sont différents, plus la longueur de leur version compressée sera importante, car moins il y a d’informations répétées. Cette distance a montré d’excellents résultats lorsqu’elle est comparée aux autres systèmes comme MOSS ou JPlag (Chen et al. 2003). 5. Classification de programmes Outils existants L’analyse de similarité entre programmes (ou codes binaires décompilés) est utilisée dans un cadre industriel, que ce soit pour la détection de code dupliqué (voire Roy et al. 2009 pour une comparaison détaillée des techniques disponibles) ou pour la détection et la classification de virus informatiques (Wehner 2005, Cesare et Xiang 2011) le travail de S. Wehner s’appuyant justement sur la Normalized Compression Distance que nous avons présentée précédemment. Au contraire, si, comme nous l’avons vu, la détection de similarités entre programmes informatiques est utilisée dans de nombreux systèmes afin de détecter un éventuel plagiat, son utilisation dans un cadre pédagogique afin de fournir un feedback aux élèves n’a été proposée, à notre connaissance, que dans un système mis en place à l’université de Durham (Watson et al. 2011). Dans ce cas, la similarité entre deux programmes est déterminée en calculant la distance d’édition entre leurs deux arbres syntaxiques. Utilisation Envisagée L’intérêt pédagogique de ces techniques de comparaison de programmes nous semble très important et leur mise en œuvre apporterait beaucoup à la fois aux élèves et aux enseignants. Combinées avec l’utilisation de fichiers tests, elles permettraient à l’enseignant de classifier rapidement un grand nombre de programmes, c’est-à-dire de faire de la classification semi-supervisée. Si cette automatisation est déjà très utile au sein d’une classe, avec environ une cinquantaine de programmes à classifier par exercice, il est parfaitement possible qu’un même exercice puisse être donné à plusieurs Amiens – 23 et 24 mai 2012 Analyse automatique de codes informatiques dizaines (ou centaines) de classes s’il est présent sur une plateforme en ligne (France-IOI, Codecademy). Il est alors absolument nécessaire de disposer de tels outils afin de pouvoir analyser l’ensemble des données disponibles. Lors de la soumission par un élève d’un nouveau programme, celui-ci serait alors évalué sur le jeu de tests puis classifié grâce à la taxonomie mise en place précédemment. L’élève recevrait donc un message d’aide aussi adapté que possible à l’erreur commise. Pour l’enseignant, l’utilisation d’outils de classification de ce type permettrait d’avoir une vue globale sur les erreurs des élèves, même si ces derniers ont finalement réussi à corriger leur programme par eux-mêmes. Cadre de Mise en Œuvre L’objectif de nos travaux de recherche est donc la création d’outils d’analyse automatique de programmes permettant les utilisations pédagogiques évoquées précédemment. Nous nous appuierons sur les différentes techniques utilisées pour la détection de plagiat ou de similarités entre programmes, et nous déterminerons la plus adaptée au cadre que nous nous fixons. En effet, dans la situation qui nous intéresse, les élèves ne vont pas chercher à masquer un plagiat dans leurs programmes, mais nous devrons en revanche être capables d’en extraire les structures fondamentales permettant de les catégoriser au mieux. D’une manière générale, les programmes considérés seront également courts (10 à 30 lignes), aussi une attention particulière devra être apportée au caractère suffisamment discriminatif des outils utilisés. Les différentes techniques devront donc être étudiées et comparées sur ce type particulier de programmes. A cet effet, une base de données de programmes devra être constituée afin de pouvoir comparer ces techniques entre elles et, d’un point de vue plus général, pouvoir confronter les performances du système envisagé avec celles d’autres outils similaires, en particulier celui utilisé à l’université de Durham (Watson et al. 2011). La correction d’un programme ne pouvant être déterminée par la seule analyse de sa similarité à d’autres programmes (un seul caractère de différence pouvant le rendre invalide), les résultats issus de l’évaluation sur un jeu de tests seront également utilisés pour cette classification. Un outil de visualisation des similarités au sein d’un ensemble de programmes devra également être mis au point, la construction de l’arbre ternaire utilisé par (Chen et al. 2003) étant bien trop coûteuse en temps. Un certain nombre de contraintes s’appliqueront aux outils développés. En effet, ils devront être utilisables de manière simple par tout enseignant désireux de les appliquer sur ses propres exercices. Afin de pouvoir être utilisés de manière efficace sur des plates-formes rassemblant plusieurs milliers d’élèves, une attention toute particulière devra également être portée à la complexité des algorithmes utilisés. Enfin, l’intégration des outils sera effectuée non seulement au sein de notre université mais aussi sur la 4ièmes Rencontres Jeunes Chercheurs en EIAH plate-forme de France-IOI, afin de permettre une évaluation par les élèves et les enseignants de leurs qualités et défauts. Compétences Requises L’enseignant souhaitant utiliser de tels outils sur des exercices déjà créés et mis en place sur une plateforme existante, aura pour seule tâche d’assister le système dans la phase de classification, c’est-à-dire d’être capable d’identifier les erreurs communes à un groupe de programmes afin de les labelliser correctement. Il profitera bien entendu du travail déjà effectué par d’autres enseignants sur ces mêmes exercices. Dans le cas d’un exercice original, s’il est préférable de fournir plusieurs solutions correctes ou incorrectes (afin que l’outil soit opérationnel dès le début), il est suffisant de n’indiquer qu’une seule solution valide. Le jeu de test devra quand à lui nécessairement être créé, de manière manuelle ou plus informatisée à l’aide d’outils de création de jeux de tests, selon le niveau de compétence de l’enseignant. Détailler ce type d’outils sortirait du cadre de cet article mais leur utilisation est simple, à la portée d’un enseignant après une vingtaine d’heures de pratique de la programmation. 6. Conclusion Dans cet article nous avons tout d’abord exposé les difficultés rencontrées par les enseignants dans le cadre de l’apprentissage de l’algorithmique et de la programmation, en particulier au lycée. Après avoir présenté un cadre général pour l’évaluation automatique de programmes à l’aide de fichiers tests, puis exposé les limites d’une telle approche, nous avons montré l’intérêt de pouvoir analyser et comparer plus en détail les programmes réalisés par les élèves. Des outils adaptés à ce cadre pédagogique restent à développer puis à tester en situation réelle, ce qui est l’objet de notre travail de doctorat. Références A. Aiken. A system for detecting software plagiarism. http://theory.stanford.edu/~aiken/moss/. Jens Bennedsen and Michael E. Caspersen. Failure rates in introductory programming. SIGCSE Bull., 39:32–36, June 2007. H. L. Berghel and D. L. Sallach. Measurements of program similarity in identical task environments. SIGPLAN Not.,19 :65–76, August 1984. Silvio Cesare and Yang Xiang. Malware variant detection using similarity search over sets of control flow graphs. In Trust, Security and Privacy in Computing and Communications (TrustCom), 2011 IEEE 10th International Conference on, pages 181-189, nov. 2011. Xin Chen, Brent Francia, Ming Li, Brian Mckinnon, and Amit Seker. Shared information and program plagiarism detection. IEEE TRANS. INFORM. TH, 50:545–1551 Codecademy. http ://www.codecademy.com. CodeChef. http ://www.codechef.com. 43 Loïc Février J. A. W. Faidhi and S. K. Robinson. An empirical approach for detecting program similarity and plagiarism within a university programming environment. Comput. Educ., 11 :11–19, January 1987. France-IOI. http ://www.france-ioi.org. David Gitchell and Nicholas Tran. Sim : a utility for detecting similarity in computer programs. Science, 31(1) :266–270, 1999. Anabela Gomes and António José Mendes. Learning to program - difficulties and solutions. Proceedings of the International Conference on Engineering Education, 2007. Sam Grier. A tool that detects plagiarism in pascal programs. SIGCSE Bull., 13 :15–20, February 1981. Khider Hakem, Emmanuel Sander, and Jean-Marc Labat. Diane (diagnostic informatique sur l’arithmétique au niveau élémentaire). In Environnements Informatiques pour l’Apprentissage Humain, pages 81– 92, 2005. Werner HartMann, Michaek Näf, and Raimond Reichert. Enseigner l’informatique, 2011. Neil T. Heffernan, Kenneth R. Koedinger, and Leena Razzaq. Expanding the model-tracing architecture : A 3rd generation intelligent tutor for algebra symbolization. Int. J. Artif. Intell. Ed., 18 :153–178, April 2008. Colin A. Higgins, Geoffrey Gray, Pavlos Symeonidis, and Athanasios Tsintsifas. Automated assessment and experiences of teaching programming. J. Educ. Resour. Comput., 5, September 2005. H. T. Jankowitz. Detecting plagiarism in student pascal programs. Comput. J., 31 :1–8, February 1988. Mike Joy, Nathan Griffiths, and Russell Boyatt. The boss online submission and assessment system. J. Educ. Resour. Comput., 5, September 2005. Caitlin Kelleher and Randy Pausch. Lowering the barriers to programming : A taxonomy of programming environments and languages for novice programmers. ACM Comput. Surv., 37 :83–137, June 2005. Susanne Narciss and Katja Huth. Fostering achievement and motivation with bug-related tutoring feedback in a computer-based training for written subtraction. Learning and Instruction, 16(4) :310 – 322, 2006. J. Hattie and H. Timperley. The power of feedback. Review of Educational Research,, 77(1):81–112, 2007. K. J. Ottenstein. An algorithmic approach to the detection and prevention of plagiarism. SIGCSE Bull., 8 :30–41, December 1976. Arnold Pears, Stephen Seidman, Lauri Malmi, Linda Mannila, Elizabeth Adams, Jens Bennedsen, Marie 44 Devlin, and James Paterson. A survey of literature on the teaching of introductory programming. SIGCSE Bull., 39 :204–223, December 2007. Lutz Prechelt, Guido Malpohl, and Michael Philippsen. JPlag : Finding plagiarism among a set of programs. Technical Report 2000-1, Universität Karlsruhe, Fakultät für Informatik, March 2000. Chanchal K. Roy, James R. Cordy, and Rainer Koschke. Comparison and evaluation of code clone detection techniques and tools : A qualitative approach. SCIENCE OF COMPUTER PROGRAMMING, page 2009, 2009. C. Saltau. Fear of failure drives student exam cheats. The Age, Melbourne, page 16, 2001. Saul Schleimer, Daniel S. Wilkerson, and Alex Aiken. Winnowing : local algorithms for document fingerprinting. In Proceedings of the 2003 ACM SIGMOD international conference on Management of data, SIGMOD ’03, pages 76–85, New York, NY, USA, 2003. ACM. Judy Sheard, Martin Dick, Selby Markham, Ian Macdonald, and Meaghan Walsh. Cheating and plagiarism : perceptions and practices of first year it students. SIGCSE Bull., 34 :183–187, June 2002. Fu Lee Wang and Tak-Lam Wong. Designing programming exercises with computer assisted instruction. In Proceedings of the 1st international conference on Hybrid Learning and Education, ICHL ’08, pages 283–293, Berlin, Heidelberg, 2008. Springer-Verlag. Shu-Ling Wang and Pei-Yi Wu. Examining the role of feedback on self-efficacy and performance in webbased environment. In Innovative Computing, Information and Control, 2007. ICICIC ’07. Second International Conference on, page 161, sept. 2007. Christopher Watson, Frederick W.B. Li, and Rynson W.H. Lau. Learning programming languages through corrective feedback and concept visualisation. In Proceedings International Conference on Web Based Learning, ICWL’11, pages 11–20, 2011. Stephanie Wehner. Analyzing worms and network traffic using compression. CoRR, abs/cs/0504045, 2005. G. Whale. Identification of program similarity in large populations. Comput. J., 33 :140–146, April 1990. Michael J. Wise. Yap3 : Improved detection of similarities in computer program and other texts. In SIGCSEB : SIGCSE Bulletin (ACM Special Interest Group on Computer Science Education), pages 130– 134. ACM Press, 1996. Amiens – 23 et 24 mai 2012 Similarités sémantiques et contextuelles pour l’apprentissage informel en mobilité Pierre-Yves Gicquel 3ème année de doctorat Université de Technologie de Compiègne-CNRS, UMR Heudiasyc, BP 20259, 60200, Compiègne, France [email protected] Résumé Les dispositifs mobiles tels que tablettes et smartphones fournissent de nouvelles possibilités d'interactions situées en musées. Nous explorons dans cet article deux dimensions pour ces interactions, l'exploration (à travers la suggestion au visiteur d'œuvres, d'artistes ou de thèmes susceptibles de l'intéresser) et la communication (à travers la mise en place d'un système d'annotation contextualisée des œuvres). Afin de prendre en compte la nature située d'une visite de musée, ces interactions sont contextualisées en fonction du profil cognitif du visiteur (ex. ses intérêts et son niveau d'expertise) ainsi que de sa situation physique (ex. œuvres à proximité et historique de visite). À cette fin, nous proposons un modèle sémantique des œuvres et du contexte de visite et définissons sur ce modèle un calcul de similarité sémantique et un calcul d'adéquation au contexte. Introduction Nous nous intéressons à l'instrumentation des visites de musées par des dispositifs mobiles. Lors de la visite d'un musée par un visiteur individuel ou un petit groupe, un apprentissage informel peut prendre place place. L’apprentissage informel se distingue de l'apprentissage formel car il ne s'inscrit pas dans un cursus scolaire ou professionnel et est essentiellement centré sur les désirs d'apprentissage du visiteur (Malcolm et al. 2003). En effet, lors d’un parcours de musée, les visiteurs ne se comportent pas comme des apprenants, ils ne passent pas linéairement d'une œuvre à l'autre ou d'une salle à la suivante comme un apprenant étudie les chapitres d’un cours. Au contraire, ils survolent certaines œuvres, ne suivent pas forcément le chemin prévu et ne lisent que les textes qui les attirent (moins d'un tiers des textes selon Gob et Drouguet 2006). L'apprentissage qui a lieu en musée lors d'une visite « libre » (par opposition aux visites pédagogiques) est donc informel, car centré sur les désirs immédiats du visiteur et non structuré. Les supports numériques aux visites de musées doivent préserver ce caractère 4ièmes Rencontres Jeunes Chercheurs en EIAH informel de l'apprentissage en aidant le visiteur à construire son sens de l'exposition au fil de la visite. Dans cet article, nous présentons une utilisation de similarités sémantiques et contextuelles permettant l'adaptation dynamique des interactions entre le visiteur et les œuvres. Ces interactions comprennent la suggestion automatique d’œuvres, d'artistes ou de thèmes pouvant intéresser le visiteur ainsi que des communications contextualisées entre visiteurs au sujet des œuvres. À cette fin, nous proposons un modèle ontologique pour la description des propriétés culturelles des œuvres et du contexte de la visite. Le contexte de visite regroupe des informations sur l'environnement immédiat du visiteur (œuvres à proximité) ainsi que des informations sur son profil et son historique de visite. Ce contexte se construit au fur et à mesure des déplacements du visiteur dans le musée et de ses interactions avec le dispositif. Dans la suite de cet article, nous positionnons notre travail par rapport aux supports numériques pour la visite de musée, nous introduisons ensuite le modèle ontologique CALM (ContextuAlized Learning in Museum), permettant la description des aspects culturels des œuvres ainsi que du contexte de visite. Nous détaillons les calculs de similarité sémantique et d'adéquation au contexte permettant de fournir au visiteur des interactions adaptées à son contexte. Enfin, nous présentons nos premiers résultats expérimentaux. État de l'art Le cadre de la visite de musée se prête particulièrement bien à la mise en place de situations d'apprentissage en mobilité. Deux types de travaux de recherche émergent dans ce contexte, les travaux centrés sur l'apprentissage scolaire et les travaux centrés sur la visite individuelle. Les travaux scolaires s’intéressent à des classes d'élèves visitant un musée avec un certain objectif d'apprentissage, défini par l'enseignant (Sharples et al. 2007). Ces travaux sont centrés sur l'organisation par l'enseignant des trois temps de la visite (avant, pendant, après). Les dispositifs mobiles permettent la capitalisation de l'expérience de visite par les apprenants (prise de notes, de photos...) facilitant la 45 Pierre-Yves Gicquel phase de retour d'expérience, qui se déroulera typiquement en classe, en présence de l'enseignant. Bien que le design des outils proposés aux apprenants favorise la liberté et l'exploration, ces travaux ne se situent clairement pas dans une perspective d'apprentissage informel, les objectifs d'apprentissage étant prédéfinis et les différentes phases bien structurées. La seconde catégorie de travaux se centre sur l'apprentissage individuel en musée, et concernent la situation la plus courante où un visiteur (ou éventuellement un groupe réduit) explore le musée sans objectif prédéfini. Les études comportementales en musée montrent une variabilité importante tant des modes de visite, (Véron et Levasseur 1983) que des objectifs d'apprentissage des visiteurs. Ces objectifs sont le plus souvent vagues pour le visiteur lui-même. Le rôle du conservateur est alors de faire apparaître, à travers l'organisation physique des objets, un "sens de l'exposition", "pour permettre au visiteur de comprendre, de donner du sens à ce qu'il voit, en mobilisant sa culture, sa mémoire, son intelligence" (Gob et Drouguet 2006). Ce sens de l'exposition repose donc autant sur l'interprétation des œuvres par le visiteur que sur l'exposition elle-même. Les recherches sur les supports numériques pour la visite individuelle de musée se sont alors focalisées sur la personnalisation des informations, dans une démarche visant à aider le visiteur à construire son sens de l'exposition. Plusieurs approches sémantiques ont émergé pour offrir des contenus adaptés aux visiteurs en fonction d'une description sémantique de leur profil et des œuvres. Dans ces approches, l'utilisateur déclenche une requête d’information en interagissant implicitement (en changeant de position) ou explicitement (en interagissant avec le dispositif). Des documents pertinents sont alors proposés sur la base de calculs sémantiques entre les œuvres annotées sémantiquement et les documents. HIPPIE (Oppermann et Specht 2000) a été une des premières tentatives d'utilisation de raisonnement automatique sur une ontologie couplée à un modèle du contexte. Dans HIPPIE, les œuvres sont annotées sémantiquement par des éléments de la taxonomie ICONCLASS 1et le profil utilisateur est constitué d’un ensemble de thèmes ICONCLASS qui correspondent à ses intérêts. Lorsqu'un utilisateur est devant une œuvre, le système peut lui présenter des documents compatibles à la fois avec son profil et avec l'œuvre en question. Le mécanisme d'adaptation est basé sur la conjonction entre les concepts caractérisant l'utilisateur et ceux caractérisant l'œuvre. Le projet CHIP (Wang et al. 2009) a pour objectif de permettre la recommandation d'œuvres. Les œuvres y sont représentées comme des instances dotées de propriétés (style, thème...). Les auteurs proposent une méthode pour déterminer l'importance relative des différentes propriétés, en se basant sur une étude des habitudes de navigation des visiteurs de musées (ex. lorsqu'un visiteur consulte la notice d'une œuvre, il consultera tout d'abord la biographie de l'auteur, la propriété auteur est alors la plus importante). Le système permet alors de suggérer des œuvres en fonction des liens directs existant dans l'ontologie. Ainsi, La Joconde permettra de suggérer L'homme de Vitruve car les deux œuvres partagent la propriété artiste. Notre proposition se situe dans la continuité de ces approches de l'apprentissage en musée. Par la description fine des caractéristiques sémantiques des œuvres, et la construction du contexte du visiteur (profil et historique de visite) au long de sa visite nous visons à orienter les informations et interactions proposées, de manière à aider le visiteur à faire émerger le sens qu'a pour lui l'exposition. Le Modèle Ontologique CALM L'ontologie CALM possède trois racines principales (figure 1), les entités physiques, les entités contextuelles et les entités culturelles. Les œuvres et les visiteurs sont représentés comme étant des entités physiques dotés de propriétés culturelles et contextuelles. L'intérêt principal de ce modèle est de permettre une description unifiée des aspects culturels des œuvres (ex. styles, personnes représentées, évènements représentés...) ainsi que de leur contexte physique. Modèle sémantique des œuvres Afin de représenter les aspects culturels des œuvres, nous utilisons trois différentes sources de connaissances : CIDOC-CRM2, ICONCLASS et GETTY-AAT3. CIDOC-CRM est l'ontologie de référence pour la description du patrimoine culturel, elle définit, entre autre, les concepts d'œuvre, de personne, d'évènement historique et de lieu. Cependant, CIDOC-CRM, étant une ontologie générique, ne contient pas les éléments permettant la description fine des œuvres d'art, comme le style ou le thème. Nous avons alors étendu cette ontologie à l’aide de la taxonomie ICONCLASS et du thésaurus Getty AAT. ICONCLASS est une classification hiérarchique de l'ensemble des thèmes de l'art occidental. GettyAAT (Art and Architecture Thesaurus) est un thésaurus des techniques, styles et matériaux utilisés en art. Afin d'inclure ces vocabulaires dans l'ontologie CIDOCCRM, nous les avons exprimés sous forme de vocabulaires SKOS4, en utilisant les relations SKOS:Broader et SKOS:Narower pour l'expression des relations de subsomption. Nous avons ensuite construit 2 www.cidoc-crm.org www.getty.edu/research/tools/vocabularies 4 http://www.w3.org/2004/02/skos/ 3 1 www.iconclass.nl 46 Amiens – 23 et 24 mai 2012 Similarités sémantiques pour l’apprentissage mobile les relations permettant l'intégration de ces vocabulaires SKOS dans CIDOC-CRM. Cette représentation nous permet de décrire finement les aspects culturels des œuvres. Nous décrivons une œuvre comme possédant un style, une technique de production et un ensemble de matériaux utilisés (grâce à ICONCLASS et Getty AAT). Par ailleurs, nous décrivons l'artiste ayant créé l'œuvre, ainsi que les évènements ou personnages représentés (grâce à CIDOC-CRM). Figure 1 Fragment de l'ontologie CALM Modèle sémantique du contexte La modélisation sémantique du contexte est encore aujourd'hui une question ouverte. La plupart des modèles contextuels existants sont basés sur une définition ad hoc des éléments contextuels pertinents dans des situations spécifiques. Notre modèle sémantique du contexte se base sur la proposition de (Zimmerman et al. 2007) qui définit cinq catégories contextuelles fondamentales : localisation, temporalité, identité, relations et activité. Ces catégories permettent de représenter les relations entre objets physiques (ex. proximité) ainsi que le profil utilisateur et son contexte de visite. Dans la suite de cette section, nous décrivons le contexte de localisation et le contexte temporel, qui sont essentiels dans la prise en compte du contexte de visite. Contexte de localisation. Chaque entité physique (visiteurs et œuvres) est associée à une localisation spécifique. Cette localisation est exprimée en utilisant l'ontologie spatiale développée par le laboratoire DAIsy5. Cette ontologie décrit les relations entre des entités de type localisation, une localisation correspondant à un ensemble de coordonnées associées à un objet. Les lieux et œuvres du musée sont alors associés à des localisations et les relations entre ces 5 http://sourceforge.net/projects/spatialontology/ 4ièmes Rencontres Jeunes Chercheurs en EIAH localisations sont exprimées en utilisant l'ontologie (ex. à proximité, en dessous, au-dessus...). Un visiteur de musée est en permanence associé à une localisation dans le musée. Lorsqu'il se déplace, un évènement changement de localisation est déclenché, modifiant sa propriété de localisation dans la base de connaissance. Ainsi, le système peut en permanence attribuer à un visiteur l'ensemble des œuvres présentes autour de lui. Contexte temporel. Le contexte temporel permet la représentation des intérêts de l'utilisateur et de son historique de visite. Ce contexte temporel est décrit comme un ensemble d'évènements exprimés via l'ontologie SEM (Simple Event Model) (van Hage et al 2011). De nouveaux évènements peuvent être ajoutés à la base de connaissances de deux façons : explicitement et implicitement. Un événement implicite est déclenché lorsqu'un visiteur s'arrête pour une certaine durée devant une œuvre. Cet arrêt déclenche un événement de consultation, associant l'œuvre en question, ainsi que la date et l'heure, au visiteur. Un événement explicite est déclenché lorsque l'utilisateur interagit avec l'application pour demander des renseignements supplémentaires sur une œuvre. Un évènement d'intérêt est alors déclenché associant l'œuvre en question, ainsi que la date et l'heure, au profil du visiteur. Notre approche du contexte se rapproche de celle proposée par (Georges et al 2009) dans le projet MeCoCo (Mediated Contextual Communication). Ces derniers proposent un modèle du contexte permettant d’opérer des rapprochements automatiques entre différents messages postés en situation de mobilité. L'originalité de notre approche réside dans l'organisation de chacune des dimensions contextuelles. En effet, chaque dimension est peuplée d'instances du domaine des connaissances muséales (ex. artiste, style, etc..), structurée par une ontologie propre à la dimension considérée. Cette modélisation nous permet de quantifier la présence, dans une dimension contextuelle, de connaissances propres au domaine. Par exemple, il est possible de calculer le degré de présence de connaissances associées au style pointilliste dans le contexte de localisation d'un visiteur. Mesures de similarités sémantiques et contextuelles pour la recommandation Nous décrivons ici les différentes mesures de similarité utilisées sur le modèle ontologique CALM. Afin d'illustrer notre approche, nous décrivons ces similarités dans le contexte du processus de recommandation. Vue d’ensemble du processus de recommandation L'objectif du système de recommandation est de faciliter la navigation des visiteurs au sein des œuvres, artistes, styles, thèmes... Ainsi, lorsqu'un visiteur contemple La Joconde, le système peut lui 47 Pierre-Yves Gicquel recommander de considérer d'autres œuvres de la même période et justifier cette recommandation en informant le visiteur du lien existant entre ces œuvres (même période). La recommandation d'œuvres est généralisable aux autres concepts définis dans l'ontologie. Ainsi, si le visiteur consulte la biographie de Leonard de Vinci, le système lui recommandera de considérer des artistes ayant été maitres ou élèves de Leonard. Similarité sémantique entre instances Le processus de recommandation est basé sur un calcul de similarité sémantique entre les instances de la base de connaissance. Ce calcul est basé sur l'approche de similarité par propriétés (Pirro et Euzenat 2010), la similarité entre deux objets étant basée sur la similarité entre leurs caractéristiques. D'un point de vue ontologique les caractéristiques des objets correspondent aux propriétés des instances représentant ces objets. Afin de déterminer l'ensemble des propriétés présentant un intérêt pour les visiteurs, nous définissons alors un ensemble de concepts d'intérêts. Un concept d'intérêt est un concept de l'ontologie que l'utilisateur pourra directement utiliser lors de ses interactions avec les œuvres. Nous avons sélectionné un ensemble de sept concepts d'intérêts dans l'ontologie CIDOC-CRM : personne, style, œuvre, évènement historique, lieu et thème. Le choix de ces concepts d'intérêt nous permet de construire une matrice de propriétés d'intérêt (figure 2). Il s'agit d'une matrice T[i,j], où T[0,k]=T[k,0] sont les concepts d'intérêts et T[i,j] est l'ensemble des relations permises dans l'ontologie, T[i,0] étant le codomaine et T[0,j] le domaine. Ainsi, la ligne i de la matrice contient l'ensemble des propriétés d'intérêt que possède le concept T[i,0] et la colonne j de la matrice contient l'ensemble des propriétés dans lesquelles le concept T[0,j] est impliqué. Cidoc:Person hasParent hasMaster Cidoc:Style hasPeriod isPeriodOf Cidoc:Style hasPeriod isPeriodOf Cidoc:Artwork depicts broader narrower lin(Style,Style) visualItem hasStyle Cidoc:Person Cidoc:Artwork participatesIn creates owns ø partOf Figure 2 Matrice des propriétés d’intérêt La ligne 2 de la table 1 nous permet ainsi de déterminer les propriétés à prendre en compte pour comparer deux instances de Person. Deux personnes peuvent être comparées suivant leurs parents, maitres ou élèves, style et œuvres qu'elles ont créées ou qu'elles possèdent. Par commodité, numérotons les propriétés d'un concept, par exemple la propriété 1 de personne est hasParent et sa propriété 6 est own. Nous construisons alors un vecteur de similarité S entre deux instances a1 et a2 du même concept : S(a1,a2)= [p1...pk], où pk correspond à la valeur de 48 similarité pour la propriété k des deux instances. Cette valeur varie dans l'intervalle [0,1]. Deux cas doivent être distingués : si les valeurs des propriétés sont des instances ou des littéraux, (ex. une personne ou une date) la similarité est de 0 quand les deux propriétés sont différentes et de 1 quand elles sont égales. Le deuxième cas concerne les instances des hiérarchies de concepts intégrées à CIDOC-CRM (style et thème), nous calculons alors la valeur de similarité entre les deux instances par la similarité de Lin (Lin 1998). Celle ci varie dans l'intervalle [0,1] et permet d'exprimer la similarité entre deux éléments d'une taxonomie en se basant sur le calcul du plus petit ancêtre commun entre deux concepts ainsi que sur la profondeur de chacun des concepts. Par exemple, la similarité de Lin permet de déterminer que le style Pointillist est plus proche de Impressionist que de Cubist. Afin de classer les suggestions selon leur pertinence, le vecteur de similarité doit être agrégé en une valeur unique. Nous déterminons cette valeur en faisant l'hypothèse simplificatrice que toutes les propriétés ont le même poids et sont indépendantes. La valeur d’agrégation est alors simplement la norme du vecteur divisée par la norme du vecteur de similarité maximale, la similarité maximale correspondant à une valeur d’agrégation de 1 : Sim(a1,a2)=|[p1,…,pk]|/sqrt(k). Calcul du taux d’adéquation au contexte Le taux d'adéquation au contexte varie dans l'intervalle [0,1] et exprime, pour une instance, le nombre de propriétés de cette instance existant dans le contexte utilisateur. Dans une perspective d'apprentissage situé, il sera alors intéressant de recommander des éléments possédant un taux d'adéquation au contexte important. Le visiteur sera en effet plus à même d'appréhender la justification de la recommandation si l'élément recommandé existe dans son contexte. Par exemple, supposons que deux œuvres puissent être recommandées à partir de celle que contemple le visiteur. La première possède un style similaire et représente le même personnage que l'œuvre considérée par le visiteur et la deuxième possède un thème similaire et une technique de peinture similaire. Afin de choisir quelle œuvre recommander, il est alors intéressant de considérer le taux d'adéquation au contexte. Typiquement, si le style et le personnage de la première œuvre existent dans le contexte utilisateur, il sera intéressant de la recommander. Nous calculons le taux d'adéquation au contexte à l’aide de l'indice de Jaccard des propriétés d'une instance et du contexte utilisateur. L'indice de Jaccard est un outil permettant de comparer la similarité de deux ensembles (l'indice étant égal à 1 si les ensembles sont les mêmes). Si C est l'ensemble des instances présentes dans le contexte de localisation ou temporel de l'utilisateur et F(I) l'ensemble des propriétés de l’instance I, le taux d'adéquation au contexte de I est alors : | F(I) ∩ C | / | F(I) ∪ C |. Amiens – 23 et 24 mai 2012 Similarités sémantiques pour l’apprentissage mobile Application à l’apprentissage informel en musée Dans cette section, nous détaillons l'application des similarités sémantiques et du taux d'adéquation au contexte pour deux types d'interactions situées entre le visiteur et les œuvres : l'aide à l'exploration et la communication entre visiteurs. Aide à l’exploration L'aide à l'exploration est réalisée en recommandant au visiteur des éléments susceptibles de l'intéresser dans le musée. Ces éléments sont des instances des concepts d'intérêt définis plus haut (ex. œuvre, artiste, style...). Lorsqu'un utilisateur consulte une œuvre via le dispositif, des informations directes, comme l'artiste, le style, les personnages et évènements représentés, lui sont fournis sur cette œuvre, ces informations correspondant directement aux assertions de la base de connaissance. De plus, d'autres œuvres similaires lui sont proposées. L'application suggère des œuvres en lien avec celle qu'il contemple et justifie ces suggestions en langage naturel. Ainsi, si l'utilisateur se trouve devant une œuvre pointilliste, l'application pourra lui suggérer une œuvre impressionniste à proximité, permettant à l'utilisateur de comparer effectivement pointillisme et impressionnisme. Figure 3 Recommandations contextualisées d'œuvres Ces suggestions contextualisées ont pour objectif d'aider le visiteur à établir les liens mentaux entre les différentes entités suivant leurs similarités, la même entité, par exemple Leonard de Vinci, pouvant être suggérée de différentes manières. De Vinci pourra ainsi être suggéré successivement comme le maître de l'auteur d’un tableau consulté par l'utilisateur puis comme l'élève de l'auteur d’un autre tableau. Ces suggestions offrent alors des possibilités d'exploration et de navigation riches au sein des collections. Communication entre visiteurs La deuxième interaction située que nous nous proposons d'instrumenter est la communication entre 4ièmes Rencontres Jeunes Chercheurs en EIAH visiteurs. La communication entre apprenants est une fonction essentielle du processus d'apprentissage. Cependant, l'instrumentation des communications pose différents problèmes dans le cadre d'une visite de musée. Les communications directes (comme le téléphone) ne sont pas toujours possibles et ne permettent pas la capitalisation et la ré-exploitation des échanges. Par analogie avec l'annotation de documents numériques, nous définissons alors des annotations sur les objets physiques du musée. Dans ce contexte, une annotation est un texte, une image ou une vidéo qui sera associée avec un objet physique (œuvre, lieu), et consultable sur le dispositif mobile. La nature contextualisée de l'annotation réfère à l'intégration, à l'intérieur de l'annotation, d'éléments du contexte du visiteur qui a déposé l'annotation (ex. sa position, ses préférences). De plus, les annotations sont indexées par des instances de la base de connaissances, permettant des recherches sémantiques dans l'ensemble des annotations (Gicquel et Lenne 2011). Expérimentation Une première évaluation de l'utilisabilité du système s'est déroulée au Palais impérial de Compiègne et a porté sur 40 visiteurs « grand public ». Les visiteurs étaient invités à utiliser le système CALM sur des tablettes Archos 70, la localisation indoor étant assurée à l’aide d’un système de triangulation WiFi. L'utilisation de système à base de connaissance en mobilité reste pour le moment marginale. Il n'y a donc pas, à notre connaissance, de protocoles directement applicables à notre situation. Nous avons donc choisi une méthode classique d'évaluation inspirée de la méthode System Usability Scale. Les visiteurs étaient invités à réaliser quatre types de tâches : consulter la notice d'une œuvre, consulter les informations annexes associées à une œuvre (suggestions), lire et déposer une annotation. Figure 4 Utilité et utilisabilité des tâches A l'issue de l'expérimentation, un questionnaire permettait au visiteur d'indiquer sur une échelle de 1 à 4 (de absolument pas d'accord à tout à fait d'accord), son accord avec différentes phrases permettant d'évaluer l'utilisabilité et l'utilité des tâches proposées. (ex. J'ai réussi facilement à afficher la notice de l'œuvre que je souhaitais consulter). Pour obtenir des résultats entre 0 et 100, nous avons associé un score de 100 aux réponses de type tout à fait d'accord, 66 aux réponses de type assez d'accord, etc. La figure 4 synthétise les moyennes des scores d'utilisabilité et d'utilité des différentes tâches. Ce tableau amène plusieurs commentaires. Tout d’abord, la perception de l’intérêt et de l’utilisabilité de 49 Pierre-Yves Gicquel l’application est globalement bonne, les interactions contextuelles (utilisation de la localisation) semblent effectivement faciliter l’accès aux ressources culturelles. Ce résultat encourageant doit cependant être considéré avec prudence car la présence des expérimentateurs peut causer un biais dans les réponses données par les utilisateurs. L’utilisation d’annotations sur les œuvres est l’activité perçue comme la moins utile et la plus difficile. Ceci peut être dû en partie à l’utilisation du clavier virtuel Android pour entrer le texte des annotations, ce clavier étant en effet assez peu utilisable. Les visiteurs étaient relativement homogènes en terme de classe d’âge, ce n’était pas le cas du niveau d’étude. Nous n’avons cependant pas constaté de différence significative dans l’utilisabilité de l’application en fonction du niveau d’étude. Ce fait peut s’expliquer par la généralisation de l’utilisation d’outils mobiles. Conclusion Nous avons présenté le modèle ontologique CALM permettant la description des aspects culturels et contextuels de la visite de musée. Nous avons détaillé les mesures sémantiques utilisables sur ce modèle et les interactions situées permises par ces mesures de similarité dans un cadre d'apprentissage informel en musée. Une expérimentation a été réalisée pour valider l'utilisabilité d’un premier prototype dans un cadre réel. Une seconde expérimentation nous permettra prochainement de considérer plus finement l'impact des calculs sémantiques sur le processus d'apprentissage informel. Nous nous intéresserons en particulier à l'impact de la prise en compte du profil dans le processus de suggestion. Cette prise en compte doit aider le visiteur à se construire une représentation du sens de l'exposition, mais impose une adaptation de l'interface en fonction du profil qui pourra créer des problèmes d'utilisabilité. Références Brown. J, S. Collins, A. and Duguid, P. 1998. Situated cognition and the culture of learning. Educational researcher, vol. 18, no. 1. Gob, A. and Drouguet, N. 2005. La muséologie, Histoire développements actuels, enjeux. ArmandColin édition. George S., Lekira R. A., MeCoCo: A Context-Aware System for Mediated Communications, International 50 Journal of Interactive Mobile Technologies (iJIM), Vol. 3, n°3, 2009, p. 26-33 Gicquel, P.Y. and Lenne. D. 2011. A contextualized annotation model for mobile learning. In proceedings of 11th IEEE International Conference on Advanced Learning Technologies (ICALT). IEEE, pp. 22–24. Lin, D. 1998. An information-theoretic definition of similarity. In Proceedings of the 15th international conference on machine learning. Malcolm, J. and Hodkinson, P. and Colley, H. 2003. The interrelationships between informal and formal learning. Journal of Workplace Learning vol 15. Oppermann, R and Specht, M. 2000. A contextsensitive nomadic information system as an exhibition guide. In proceedings of the handheld and ubiquitous computing second international symposium. Pirro, G. and Euzenat, J. 2010. A feature and information theoretic framework for semantic similarity and relatedness. In proceedings of the International Semantic Web Conference (ISWC). Sharples, M.; Meek, J.; Vavoula, G.; Lonsdale, P.; and Rudman, P. 2007. An evaluation of MyArtSpace : a mobile learning service for school museum trips. In Proceedings of mLearn. Levasseur, M. and Véron, E. 1983. Ethnographie de l’exposition. Bibliothèque publique d’information du centre George Pompidou. van Hage, W.; Malais, V.; Segers, R.; Hollink, L.; and Schreiber, G. 2011 Design and use of the simple event model (SEM). In Proceedings of Web Semantics: Science, Services and Agents on the World Wide Web. Wang, Y.; Stash, N.; Aroyo, L.; Hollink, L.; and Schreiber. 2009. Using semantic relations for contentbased recommender systems in cultural heritage. In Proceedings of the Workshop on Ontology Patterns (WOP) at ISWC. Zimmermann, A.; Lorenz, A.; and Oppermann, R. 2007 An operational definition of context. In proceedings of the 6th international and interdisciplinary conference on Modeling and using context. Amiens – 23 et 24 mai 2012 Developing adaptive intelligent tutoring system Mohamed Hafidi, Taher Bensbaa Laboratoire LRI, Department of Computer Science, University of Annaba, Algeria [email protected], [email protected] Abstract To design an adaptive intelligent tutoring system which can manage both different disciplinary domains and a guide for the learner is difficult. The specialization of the analysis treatments is responsible for the loss of reusability in other disciplinary domains. The analysis is didactic and thus strongly connected to the domain concerned. It results that an intelligent tutoring system is consequently, specialized in a type of taught knowledge and not easily transposable to other domains. To propose a model transposable to different domains of learning, the former has to take into account this diversity and to situate the learning activity. In this paper, we will show how to produce a guide model parameterized by the learning domain. Our objective was to develop an adaptive intelligent tutoring system based on item response theory and metrics, adapted for letting the learners work in several disciplinary fields in the University of Annaba. In this context, our constraint is threefold: to represent knowledge relative to several disciplinary domains, to propose interactive activities to the learners and finally, to be able to support student guidance in her/his course by proposing her/him relevant support activities when he meets difficulties. Introduction Nowadays, learning systems take various forms: microworlds, intelligent tutoring systems (ITS), adaptive hypermedia (AH), learning games, etc. The conception of a learning system is a multidisciplinary task based on theoretical models inspired by pedagogy, by didactic and by psychology. The direct application of such models is not always easy, or even possible, and in general requires major adaptations. Intelligent Tutoring Systems (ITS) are designed to assist learners in the acquisition of skills rather than the complete mastery of a domain. Intelligent tutoring systems are primarily used as instruction during the tutorial section of a lecture course, or in conjunction with an alternate instruction method (Beaumont 1994), (Brusilovsky 1996), (Nogry et al. 2008), (Suraweera et al. 2004}. Conversely, Adaptive Hypermedias (AH) are primarily designed to impart the concepts of a domain that a student must know in order to utilize these skills (De La Passardiere et al. 1992), (Knutov et al. 2009), (Hendrix et al. 2008). While some adaptive hypermedia systems do provide instruction in skills, it is generally less advanced than comparable ITS instruction. For a system to provide a standalone solution comparable to a lecture course it must provide instruction in both concepts and skills. A general instruction system requires both of these instruction methods to provide a full learning system (Pipatsarun et al. 2010), (Klasnja-Milicevic et al. 2011), (Chopra 2010), (Nicholas et al. 2008). Theoretical basis Item response theory (IRT) Item response theory (IRT) was first introduced to provide a formal approach to adaptive testing (Fernandez 2003). The main purpose of IRT is to estimate an examinee’s ability (θ) or proficiency (Wainer 1990) according to his/her dichotomous responses (true/false) to test items. Based on the IRT model, the relationship between examinee’s responses and test items can be explained by so-called item characteristic curve (ICC) (Wang 2006). In the case of a typical test item, this curve is S-shaped; the horizontal axis is ability scale (in a limited range) and the vertical axis is the probability that an examinee with certain ability will give a correct answer to the item (this probability will be smaller for examinees of low ability and larger for examinees of high ability). The item characteristic curve is the basic building block of item response theory; all the other constructs of the theory depend upon this curve (Baker 2001). Several nice features of IRT include the examinee group invariance of item parameters and item invariance of an examinee’s ability estimate (Wang 2006). Under item response theory, the standard mathematical model for the item characteristic curve is the cumulative form of the logistic function. It was first used as a model for the item characteristic curve in the late 1950s and, because of its simplicity, has become the preferred model (Baker 2001). Based on the number of parameters in logistic function there are three common models for ICC; one parameter logistic model (1PL) or Rasch model, two parameter logistic model (2PL) and three parameter (3PL) (Baker 2001; Wang 2006). In the 1PL model, each item i is characterized by only one parameter, the item difficulty bi, in a logistic formation as shown (1) Where D is a constant and equals to 1.7 and θ is ability scale. In the 2PL model, another parameter, called discrimination degree ai, is added into the item characteristic function, as shown (2) 4ièmes Rencontres Jeunes Chercheurs en EIAH 51 Mohamed Hafidi The last 3PL model adds a guess degree ci to the 2PL model, as shown in Eq. (3), modeling the potential guess behavior of examinees (Wang 2006). (6) (3) Several assumptions must be met before reasonable and precise interpretations based on IRT can be made. The first is the assumption of unidimensionality, which assumes there is only one factor affecting the test performance. The second assumption is the local independence of items, which assumes test items are independent to each other. This assumption enables an estimation method called maximum likelihood estimator (MLE) to effectively estimate item parameters and examinee’s abilities (Wang 2006). (4) where Qi(θ)=1-Pi(θ).Pi (θ) denotes the probability that learner can answer the I th item correctly, Qi (θ) represents the probability that learner cannot answer the I th item correctly, and ui is 1 for correct answer to item i and 0 for incorrect answer to item i (Wainer 1990 ). Since Pi (θ) and Qi (θ) are functions of learner ability h and item parameters, the likelihood function is also a function of these parameters. Learner ability θ can be estimated by computing the maximum value of likelihood function. Restated, learner ability equals the θ value with maximum value of likelihood function (Chen et al. 2005). Item information function (IIF) in IRT plays an important role in constructing tests for examinees and evaluation of items in a test. Where Ii (θ) is the amount of information for item i at ability level θ and N is the number of items in the test. The general level of the test information function will be much higher than that for a single item information function. Thus, a test measures ability more precisely than does a single item. An important feature of the definition of test information given in Eq. (6) is that the more items in the test, the greater the amount of information. Thus, in general, longer tests will measure an examinee’s ability with greater precision than will shorter tests (Baker 2001). Item response theory usually is applied in the computerized adaptive test (CAT) domain to select the most appropriate items for examinees based on individual ability. The CAT not only can efficiently shorten the testing time and the number of testing items but also can allow finer diagnosis at a higher level of resolution. Presently, the concept of CAT has been successfully applied to replace traditional measurement instruments (which are typically fixed-length, fixed-content and paper–pencil tests) in several real-world applications, such as GMAT, GRE, and TOEFL (Chen et al. 2006). General architecture of a AITS Figure 1 gives an overview of the system overall architecture. It consists of tree main interfaces, which are associated with each of the following human actors: learner, teacher and administrator. In addition, it contains an adaptive intelligent tutoring (hafidi et al. 2011) which is made up of two components: adaptive hypermedia (domain model, learner model and adaptation model) (Karampiperis et al. 2005), (Carro 2008) and intelligent tutoring system (domain model, learner model, Instructional Model) (Bourdeau et al. 2011), (Simic 2004), (Alpert 1999), (Stankov et al. 2008). (5) Any item in a test provides some information about the ability of the examinee, but the amount of this information depends on how closely the difficulty of the item matches the ability of the person. The amount of information, based upon a single item, can be computed at any ability level and is denoted by Ii (θ), where i is the number of the items. Because only a single item is involved, the amount of information at any point on the ability scale is going to be rather small (Baker 2001). Item information function is defined: Where P (θ) is the firt derivative of Pi(θ ) and Qi(θ)=1-Pi (θ). A test is a set of items; therefore, the test information at a given ability level is simply the sum of the item information at that level. Consequently, the test information function (TIF) is defined as: 52 Figure1: General architecture of a AITS Amiens – 23 et 24 mai 2012 Developing adaptive intelligent tutoring system We present in the following sections the available features in AITS. Domain model: The domain model is based on the concepts notion that the learner can select and study. These concepts are interconnected by relations: relations of sufficiency and precedence relations. - Relationship of precedence: A concept N1 is precedence relation with a concept N2 if the control (or partial control) of N2 is necessary for learning to N1. This relationship has an attribute: S is the minimum threshold of N2 control to allow the start of learning N1. - Relationship of Sufficiency: A concept N1 is linked with a concept of sufficiency N2 if the control of N2 (or partial control) results control of N1. This relationship with two attributes: S is the minimum threshold of N2 control to activate the requisite relationship. A is the contribution (in percentage) of control N2 to N1. In addition, the teacher organizes the learning according to pedagogical activities. Linked to our domain model, we have defined a corpus of interactive activities. These activities have to be organized in a progressive manner by possibly using serious games, interactive exercises, simulation and artefacts that support the construction of the knowledge. Learner's Model: Learner modeling and adaptation are strongly correlated, in the sense that the amount and nature of information represented in the learner model depend largely on the kind of adaptation effect that the system has to deliver. The learner model in AITS was defined as three sub-models: The profile, the knowledge level and the trace. The learner profile was implemented as a set of attributes which store learner’s static personal characteristics, for example username, password, unique ID, age, e-mail. The knowledge level recorded by the system for learner's knowledge about each domain knowledge concept; It is an overlay of the domain model. It associated learner's knowledge level with each concept of the domain model. We want to continually assess the skill level of the learner to develop a map of his state of knowledge. The learner model is enriched at the end of each activity after analysis of the traces produced. Adaptation Model: The adaptation model in AITS specified the way in which the learners' knowledge modifies the content presentation. It was implemented as a set of the classical structure: If condition, then action type rules. These rules form the connection between the domain model and learner model to update the learner model and provide appropriate learning materials. The adaptation model consists of abstract concept selection rules that determine which concepts from the domain model to be covered, based on the knowledge in the learner model. To support adaptivity, AITS used a combination of adaptive navigation support and adaptive presentation technique. AITS implemented adaptive presentation by classifying learners according to their current knowledge state. Learners with different knowledge state view different presentations of the same educational material. The system implemented various adaptive navigation support technologies, which help the user in navigating the domain model. It offered linear 4ièmes Rencontres Jeunes Chercheurs en EIAH navigation (direct guidance, next and previous units) hierarchical navigation (through the tree-like structure of contents) and relational navigation (link insertion and link disabling through prerequisite concepts relationship). Instructional Model: Instructional model contains knowledge for making decisions about instructional tactics. It relies on the diagnostic processes of the learner model for making decisions about what, when and how to present activity to a learner. Following an activity, the model offers guidance in learning other activities. For that purpose it takes into account completions, context and proficiency levels, by analyzing the rest of the activities already carried out. The analysis is based on a set of metrics (Hafidi et al. 2011). The Item Response Theory - IRT- is used to ensure a proper balancing test and give their description in the form of a characteristic curve (Hafidi et al. 2009). The theory assumes that a learner's response to a test item can be approximated using a probabilistic function. We propose this method to assess the probability for a student to correctly answer an assessment activity. This method is used as an additional discriminating criterion in our guide. It would occur at the end of selection, to choose an activity of several possible after the computation using the metric. For this study, Item difficulty can be determined by using IRT approach with one parameter which uses the formula: ID = MSCA/SCAE (7) Where, ID = item difficulty, MSCA = Minimum Sum of Correct Answers, SCAE = Sum of Correct Answers of Each Question. Figure 2. An assessment activity based on IRT Results and discussion An experimental study was conducted within Annaba University (Algeria) with 1st year license students where the subject was "algorithmic". This subject is studied by several students in the license degree. In fact, students from MI (Mathematics and Informatics), ST (Science and 53 Mohamed Hafidi Technology), Economics and Sciences of Nature must take a subject termed "initiation into informatics and algorithmic". Students can use the system from any computer connected to the university intranet network. We took into account, in this experiment, only students from the MI (Mathematics and Informatics) specialty. To extract problems encountered as well as the global opinion of the teachers and the learners, we prepared one questionnaire to teachers and another one to learners after using the system. The questions of the questionnaire are divided into three categories: - General opinion about the interface of the system and the main available features. - The quality of the interface of the concerned actor (teacher and learner) as well as its options. - The quality of the content of courses. The objective of all the questions is to show the attitude and the opinion of each actor about the main interface of the system and its utility, the special features provided to each actor (teacher and learner), and finally to know the efficiency of the pedagogical strategies, the quality of traces display and the impact of merging adaptive hypermedia and intelligent tutoring of the knowledge level of learners. Views of learners: To determine the views of learners who participated in this experiment (n=20), we submitted to them a questionnaire. These questions concern three pedagogical activities: learning, assessment, and guidance. Most learners appreciated the integration of the intelligent tutoring system to adaptive hypermedia adopted in AITS and the support offered by the system. All of them found that the system is user-friendly. The participant’s opinion to use the system in the future was very high. According to them, the concepts were organized in a good manner. The content of activity guide is clear for the majority of students. Concerning the faced problems, the learners cited: 1. Lack of tools for the graphical representation of traces, 2. Knowledge assessment tool is less efficient, 3. Same activities without adaptation to learning style, 4. Lack of tools to communicate with teacher. in the use of these concepts to solve problems. This paper was dedicated to the combination of these systems. The aim of adaptive intelligent tutoring system (AITS) has been to propose a non domain-dependent model to represent teaching activity. For each teaching domain, a domain model has been used to organize the learning process. Metrics and IRT have been elaborated to associate the exercises of an activity corpus to the domain model mentioned previously. As we have explained, it is thus possible to elaborate and update dynamically a learner model and even to propose remediation activities as a function of context trace observation. Importance was also given to the use of several types of activity and many types of resources. With the spread of the LMD (Licence-Master-Doctorate) educational system in Algeria, we took into account the licence (bachelor) degree, making our system useful for the university community. Teachers and learners of various departments can use the system from any computer connected to the intranet of the university. The first results of this experiment were very encouraging. Most of the teachers and the learners appreciated the use of the system. As a result, we drew several conclusions and several research tracks were opened. In the future we would like to include many more teaching subjects (mathematics, languages, science, etc.). References Alpert, S. R. 1999. Deploying intelligent tutors on the web: An architecture and an example, In International Journal of Artificial Intelligence in Education 10:183–197. Baker, F. 2001. The basics of item response theory, ERIC clearing house on assessment and evaluation. Beaumont, I. 1994. User modeling in the interactiveanatomy tutoring system anatom- tutor. User Modeling and UserAdapted Interaction, 4(1):21–45. Bourdeau, J. ; Grandbasten. M. 2011. La modélisation du tutorat dans les systèmes tutoriels intelligents. Revue STICEF. Brusilovsky. P. 1996. Methods and techniques of adaptive hypermedia. User Modeling and User Adapted Interaction, 6(2-3):87–129. Views of teachers: For knowing the appreciation of the teachers, we submitted to them a questionnaire related to the functioning of AITS and its features. Among our main contributions in this research work is the using traces of the learner's activities. We noticed that the teachers were very satisfied about the quality of trace. Chen, C. M., Lee, H. M.,& Chen, Y. H. 2005. Personalized e-learning system using item response theory. Computers and Education, 44 , 237–255. Concerning the faced problems, the teachers cited: - Lack of tools for the graphical representation of traces, - Lack of possibilities to add teaching strategies, - Lack of tools to enrich the activities. Chen, C. M.; Liu, C. Y.; Chang, M. H. 2006, Personalized curriculum sequencing utilizing modified item response theory for web-based instruction. Expert Systems with Applications, 30, 378–396. Conclusion and future work Chopra , A. Frame based intelligent tutoring system with weighted attributes and adaptive hypermedia. International Journal of Electronic Business, 8(4-5):342–359. Adaptive Hypermedia and Intelligent Tutoring Systems are both effective methods of computer-based learning. However, adaptive hypermedia is better suited for the instruction of concepts whereas intelligent tutoring system generally assists 54 Carro, R. 2008. 2010. Applications of adaptive hypermedia in education. Computers and Education, pages 1– 12, Amiens – 23 et 24 mai 2012 Developing adaptive intelligent tutoring system Fernandez, G. 2003. Cognitive scaffolding for a web-based adaptive learning environment, Lecture notes in Computer Science, 12–20. Hafidi, M. ; Bensebaa, T. 2009. Conception et implémentation d’une plate forme d’aide à la navigation basée sur la TRI. Hypermédias et pratiques numériques H2PTM09, Paris8, France, 30/10, 2/11. Hafidi, M. ; Bensebaa T ; Trigano, P. ; Benmimoun, A. ; 2011. Guidage des apprenants dans une activité pédagogique basé sur les traces, Conférence Hypertextes et hypermédias. Produits, Outils et Méthodes, 11ème édition, Hypermédias et pratiques numériques H2PTM’11 Metz, France. Journal of Artificial Intelligence in Education, 14(3-4):375– 417. Wainer, H . 1990. Computerized adaptive testing: A primer. Hillsdale, New Jersey: Lawrence Erlbaum. Wang, F. H. 2006. Application of componential IRT model for diagnostic test in a standard conformant elearning system, In Sixth international conference on advanced learning technologies (ICALT’06). Hafidi, M. ; Bensebaa T ; Trigano, P.; 2011. A generic model for guiding learners in adaptive hypermedia, Journal of Computer Science (INFOCOMP), 10(4): 15-28. Hendrix , M.; Cristea, A. I. 2008. A spiral model for adding automatic adaptive authoring to adaptive hypermedia. Journal of Universal Computer Science (JUCS), Special Issue on Authoring of Adaptive and Adaptable Hypermedia, 14(17):2799–2818. Karampiperis, P. Sampson, D. 2005, Adaptive learning resources sequencing in educational hypermedia systems. Educational Technology and Society, 8(4):128–147. Klasnja-Milicevic, A.; Vesin, B.; Ivanovic, M.; Budimac, Z.2011, Integration of recommendations and adaptive hypermedia into java tutoring system. ComSIS, 8(1). Knutov, E.; Bra, P. D.; Pechenizkiy, M. 2009. Ah 12 years later: a comprehensive survey of adaptive hypermedia methods and techniques. New Review of Hypermedia and Multimedia, 15(1):5–38. Nicholas, A.; Martin , B. 2008. Merging adaptive hypermedia and intelligent tutoring systems using knowledge spaces. Adaptive Hypermedia, pages 426–430. Nogry, S.; Guin , N.; Jean-Daubias. S. 2008. Ambre-add: An its to teach solving arithmetic word problems. Technology, Instruction, Cognition and Learning, 6(1):53–61. Passardiere, B. D. L.; Dufresne, 1992. A. Adaptive navigational tools for educational hypermedia. Computer Assisted Learning, pages 555– 567. Pipatsarun, P.; Vicheanpanya, J. 2010. Adaptive intelligent tutoring systems for elearning systems. Computer and Information Science, 2(2):4064–4069. Simic, G.2004. The multi-courses tutoring system design. ComSIS, 1(1):141–155, 2004. Stankov, S.; Rosic, M.; Zitko , B.; Grubisic, A. 2008, Tex-sys model for building intelligent tutoring sytems, Computers and Education, 51:545–561. Suraweera, P.; Mitrovic , A.2004. An intelligent tutoring system for entity relationship modelling, International 4ièmes Rencontres Jeunes Chercheurs en EIAH 55 Mohamed Hafidi 56 Amiens – 23 et 24 mai 2012 Ergonomic Study of Existing Project-Based Learning Management System Min Ji Université de Lyon, CNRS INSA-Lyon, LIRIS, UMR5205, F-69621, France [email protected] Abstract We are interested in designing a Project-Based Learning Management System (PBLMS) for high school students. In this paper, we focus on the study of ergonomics of existing PBLMSs. We first analyze four different PBLMSs regarding three points: aims, functionalities and indicators. We particularly focus on the indicators and analyze their attributes: purpose(s), concept(s), data construction and visualization. Based on this analysis we discuss the utility, the usability and the acceptability of the studied systems according to their functionalities, the types of visualization and the users. We finally conclude with some directions of our future research work. Introduction We are interested in designing a Project-Based Learning Management System (PBLMS) for high school students, which support learners and teachers respectively in the learning and teaching process. Project-based learning is carried out under complex situations and PBLMS can help learners to build new knowledge and acquire new skills (e.g. management, communication and collaboration). More precisely, the indicators used in PBLMS aim to monitor the way of individual knowledge building. In fact, it can help participants involved in learning activities to reflect on their own behaviors, to self-regulate their activities and to improve their ability of collaboration. The objective of our research is to design a PBLMS. We define PBLMS as a computer system that provides participants with some management tools to support and monitor the learning activities in order to solve a complex issue, problem or challenge. PBLMS is characterized by supervision functions. Examples of learning activities are collaboration, coordination and production (George et Leroux 2001). Here we should specify that PBLMS could manage various aspects of the learning processes (e.g. the way the activities are carried out, the visualization mode chosen for learners, the configuration and resources of the activity) and the project outcomes (e.g. the documents produced during/after the project and the products). Obviously, PBLMS can facilitate carrying out the project activity and enhancing the learning. This study is based on previous works dedicated to the design of a paper prototype of PBLMS, named 4ièmes Rencontres Jeunes Chercheurs en EIAH MESHaT (Michel et Lavoué 2011). This prototype is composed of monitoring and expertise transfer tools for tutors and learners. They could give information to monitor individual or group learning activities as well as to support the acquisition and transfer of expertise. More particularly, MESHaT provides learners and teachers with dashboards, since we think that the use of a dashboard is a key-learning objective in the context of PBL. The dashboard is a good way to strengthen learners’ metacognitive skills and to facilitate the group works, the group cohesion and the professionalism of learners by showing explicitly the consequences of their acts (Michel et Lavoué 2011). The aim of this study is to analyze the ergonomics in PBLMS context. More precisely, we have analyzed four existing PBLMSs and proposed indicators’ features (utility, usability and acceptability). According to this analysis, we have drawn upon the strengths and weak points of the other systems. Based on these results, we propose the main lines of our future PBLMS. It should not only satisfy users’ needs as far as possible but also have suitable ergonomic user interfaces (UI) to improve learners’ collaboration. This article proceeds in three main parts. First, the paper provides an overview of project-based learning, dashboard and indicators used in PBLMS to improve the quality of learning. In the second part, we analyze and summarize the features and indicators offered in PBLMS. In the third part, through discussion, we analyze the weaknesses of PBLMS and indicators which should be avoided in our context of work and propose the direction of our future research work. Overview of PBLMSs Using Dashboard and Indicators Project-Based Learning There are many definitions of project-based learning. Harris and Katz (2000) defines it as “an instructional method that allows in-depth investigation of a topic instead of using a rigid lesson plan that directs a student down a specific path of learning outcomes or objectives”. According to Jeremic, Jovanovic and Gasevic (2009), “PBL is a teaching and learning model that organizes learning around projects. Projects comprise complex tasks and activities that involve students in a constructive investigation that results in 57 Ergonomics of PBLMS knowledge building.” Moursund (2007) defines project-based learning as “an individual or group activity that lasts for a defined period of time, which results in a product, a presentation or a performance”. Through these definitions, we can establish that: • Project-based learning is learner-centered. • Project-based learning isn’t “teacher telling”, but “learning by doing”. It is an investigation and an inquiry process. • The project results are not known in advance, each project being unique, which is different from problem-based learning for instance. • Project-based learning ends with a presentation or product that demonstrates learning and is assessed. Learners can generate new knowledge and get new skills based on their previous knowledge and experiences when they carry out a project. This kind of activity can lead students to obtain and to apply skills in collaboration, communication, and selfmanagement. Briefly, it is a good way for learners to solve practical problems in an open environment with an interdisciplinary approach. Dashboards and Indicators Used in PBLMS Generally speaking, a dashboard is expected to collect, summarize, and present information from multiple sources so that the user can see at once how various indicators are performing (Yigitbasioglu et Velcu 2011). Dashboard could be considered as a container of indicators. The indicators used in PBLMSs can give information to participants involved in the learning activities. Information could concern their activity or their group activity, and could be seen during or after the learning process. Dashboard could favor cognitive or metacognitive reflection. Based on this reflection, participant can build new knowledge and skills (soft and hard) as well as they improve their learning ability. During interactions, indicators mainly reflect three types of data: (1) the Logfiles recording learners’ actions occurring in the learning environment, (2) the products of the interactions (communication messages or documents produced during the project) (3) the data recorded by the learners themselves to describe how the activity is carry out and what they think. Compared to the first type of data, the second and third types of data are much more difficult to analyze automatically. It is also a challenge in this research domain. We can distinguish four main users of indicators: (1) learners, (2) teachers (3) observers and, (4) the learning environment (Dimitrakopoulou 2006). The learners mean the people who participate in the learning activities. The information supplied by the indicators help them to carry out the metacognitive process. The teachers are the persons who define a PBL activity and monitor the activity in order to uncover the features or the quality of the interactions. The observers, including the researchers and the administrators, are interesting in exploring the mode, the process or the quality of the collaboration. Finally, the learning environment can transform the information given by the indicators into a guiding message and send it to learners and teachers. 58 According to Dimitrakopoulou (2006), indicators have several important attributes: (1) the purpose of the indicator, (2) the output of the calculated indicator, (3) the concept of the indicator. Additionally, the data construction, which is the core of an indicator, and the visualization of the indicator, which decides the presentation style and mode, are also critical aspects. Ergonomics Analysis of Existing PBLMS Using Indicators In this part, we analyze four different PBLMSs. These systems seem the more relevant to our context because they not only help learners to achieve projects collaboratively, but also aim to improve the learning by displaying some indicators. Furthermore, the indicators of these systems refer to different targets (e.g. learners, teachers, observers and the learning environment), and these indicators also monitor different aspects of learning (activity process, communication, features and profiles of learners’ behaviors). We discuss the systems from three points: aims, functionalities and indicators. And for the indicators, we choose four attributes from those previously mentioned: purposes, concepts, data construction and visualization. System Introduction Figure 1 gives the workspace interfaces of the PBLMSs described after. The system SYNERGO (Avouris et al. 2004) supports synchronous collaboration modeling and collaboration analysis. The main goal is to facilitate the understanding of the mechanics of collaboration. It supplies learners with a chat tool and supports them to model flow charts, concept maps, entity-relation diagrams and other semantic modeling. The system DEGREE (Barros et Verdejo 2000) is conversation-based. The teachers can deploy projects, contribution type and conversational structure at the beginning. Then a group of learners can carry out collaborative activities which are based on conversation by proposing or replying to a proposal. The system and the indicators can improve learners’ metacognitive awareness and give them assistance. The learning environment proposed by (Fesakis et al. 2004) is based on the ModellingSpace (ModellingSpace 2004), which has many different channels to support learners to communicate during activities. It is synchronous conversation based and the availability of all the participants is required. In collaboration, learners and teachers can exchange chat messages through a set of logical broadcast channels. The SPLACH system (George et Leroux 2002) aims to help young learners to design and build micro-robots modeling. It incorporates asynchronous communication tools (E-mail and discussion forum), a synchronous meeting tool, and a scheduling tool in the form of a calendar for the team, which provides learners with coordination on the project, a tool to write reports during the project and, finally, specific educational robotics tools. Amiens – 23 et 24 mai 2012 Ergonomics of PBLMS Figure 1: workspace interfaces of PBLMSs: (a) SYNERGO; (b) DEGREE; (c) ModellingSpace; (d) SPLACH Synthesis and Analysis To help learners model semantically. to To facilitate proposing or replying to a proposal. To support synchronous collaborative modeling, monitoring and analyzing activities, communicating. To configure an activity, collaborating based on conversation, analyzing learners behavior, offering guiding. To support synchronous communication through a set of logical broadcast channels. To monitor the learning process, to facilitate teachers and researchers to understand mechanics of collaboration. To help learners to have metacognitive activities; to support teachers to monitor learners’ performance and changes. To help estimating style to intervention needed. To supply search results by combining a variety of parameters, assessing the collaboration level based on several attributes (creativity, attitude, elaboration etc), sending messages to alert potential problems and giving suggestions, representing evolution of attributes of the individual. Based on Logfiles, some attributes are calculated directly, others are generated by combining these attributes based on Fuzzy Logic techniques. To present amounts of Interactions, the number of Agents, Collaboration Activity Function of chat channel and certain agent’s Collaboration Activity Function in a line chart, determining agents or groups’ collaboration quantity. Based on Logfiles, collaborative action is proportional to the number of agents that were interacting and the quantity of interactions. Mainly line chart which the horizontal axis represents time, the vertical scale records the amount of various variables; information is summarized by analyzing and comparing the curves. Data construction To measure the density of occurrence of a type of event per time interval and the degree of relative contribution in the group members, presenting evolution of actors’ activities. Based on Logfiles storing in XML, formula is given. Visualization I ndicator Concept Purpose Aim ModellingSpace To support learners to express their ideas during projects. Functionality The aforementioned approaches constitute a representative specimen of PBLMSs. All of them provide tools and functionalities for supporting and SYNERGO DEGREE facilitating users’(learners’ and teachers’) activities in various levels. Table 1 summarizes the main points of these PBLMSs. Line charts showing number of every kind of action done by every learner, and evolution activity map interpreting evolution of actors’ activities, degree of collaboration in numeral. Table form listing attributes’ names and values; textual aiding messages; line chart giving the evolution of individual’s attributes’ values and interpretation. teachers learners’ offer when SPLACH To help to design and build microrobots modeling. To support asynchronous communication, synchronous meeting, specific robotics tool, writing reports, scheduling. To help understand social relationships; to provide learners insight into their own and their colleagues’ behavior. To present the values of every behavioral profile of every learner, analyzing and comparing the values of every learner and determining their corresponding behavioral profile. Based on Logfiles and semi-structured communicative acts (sentence openers); detailed formulas are given. Line chart showing how the profiles of the users evolve in time. Table 1: Main point of analyzed PBLMSs 4ièmes Rencontres Jeunes Chercheurs en EIAH 59 Ji Min Discussion In this part, we highlight the lacks of the analyzed systems according to utility, usability and acceptability criteria. Based on these analyses, we propose some directions of our future work. Utility, Usability and Acceptability Analysis Utility Analysis of Functionality When we read the literatures on PBLMSs, we find that most systems support collaboration only by offering communication tools (e.g. communication system based on ModellingSpace and DEGREE), for example, chat tools, discussion forums etc. Communication is one of the most important aspects during the collaboration but it is just one aspect in project-based learning. We assume that PBLMs should always offer other functionalities to teachers and learners. For example, it should supply learners with: • Metacognitive tools to support the metacognitive learning process and to facilitate their ability of “learn how to learn”. • Flexible configuration tools to deploy a learning activity according to different learning contexts. • Tools for documents sharing and co-writing to help learners to co-build knowledge network. • A scheduling tool. • Some special and professional tools offering to learners based on the context of learning activities. For example, SPLACH provides learners specific robotics tools to support microrobots modeling projects. Concerning the functionalities of the indicators, most of them just provide some simple reporting analyzes of the learning process (e.g. how many learners are on line, how many messages have been sent, how many times a document has been read) and some monitoring information about the learning environment (e.g. which tasks have been done and which haven’t, whether the learning process is delay according to the project schedule). We don’t criticize that simple indicators and monitoring indicators aren’t important. The importance of these indicators cannot be estimated a priori (Dimitrakopoulou 2006). But supplying the learners and teachers only with these two types of indicators is not enough because the assistance levels of these two types are lower than guiding indicators and supervision indicators. The guiding indicators can generate some information to learners to make some reflection and changes according to the context and the practical situation of learning activity. The supervision indicators can identify whether the action that learners are doing is good or bad and give alerts to learners to draw their attentions. For example, if a learner is watching a film or talking little when he joins in a synchronous discussion, the indicators can give alert. Another lack of the indicators’ functionalities is that most of them are about the activities process; while they cannot supply the information about the content of the products of the activities (e.g. the content of a proposal, the content of communication) or the hidden thoughts (ideas or moods) recorded by learners during activities. These two types of 60 information are very difficult to catch because it needs to recognize and analyze the textual content automatically. We think that this kind of information is as important as the analysis of the actions. Usability Analysis of Visualization SPLACH is considered very well because it could create a comfortable learning environment to increase the colleague mutual-understand awareness and the workspace awareness. It gives a photo of every member in the group and a “smiley” button to represent everyone’s mood, which can encourage the feelings of awareness between learners and indicate their feelings without typing any text when they participate in a synchronous meeting (George et Leroux 2001). It is important to create an environment, in which learners can be aware of the others, because it will enhance the relations between learners and shorten the distance between them. It is a good way to improve the quality of collaboration. Many classical graphical modes are used to present the results of indicators, e.g. line chart, bar chart, table form. But most of learning environments have no textual interpretation of these indicators. So the users, especially young learners, should have a high ability to understand the content of indicators and to discover some important information. We think that the learning environments should be able to interpret the contents of graphical indicators into text form, so as to be used more widely and to give much better support to the learners. The use of metaphors could also be a good way to solve this problem perfectly (e.g. i-bee, i-tree). They could present the results of a number of indicators synchronously in a nice visual frame in an indirect mode (e.g. animation), which can have a strong effect at young learners and help them have a strong awareness of their behaviors (Dimitrakopoulou 2006). Most indicators interfaces are designed previously and little customizable. The customizable feature has been considered in some UI design of PBLMSs (e.g. DEGREE, communication system based on ModellingSpace), but it hasn’t been considered in most of PBLMSs. Learners and teachers can’t choose the form of visualization they prefer. Moreover, customization is really an important aspect that could help (1) learners to visualize indicators in the way they like and to choose the kinds of information they really want to monitor, as well as (2) teachers to adjust the definitions and choices of parameters according to the different contexts of the learning activities. The visualization customization includes for example selecting monitoring variables, selecting the form of presentation, changing the configuration of the learning activity, selecting the time interval of information updating. Acceptability Analysis of indicators’ User The indicators introduced in this paper have been meant for different users: SYNERGO is used by teachers and researchers, DEGREE is used by learners, teachers and learning environment, the communication system based on ModellingSpace is used by teachers, and SPLACH is used by learners and teachers. We think that there are many indicators offered to teachers while a few are supplied to learners and learning environment. From this Amiens – 23 et 24 mai 2012 Ji Min point of view, we think that an appropriate PBLMS should manage user profiles and supply suitable information according to their profile. It can’t be ignored that the learning environment is a kind of indicators’ user to some extent because the information produced by some indicators can be processed deeply by learning environment and give useful information (e.g. DEGREE). We think that the systems analyzed in our paper design the indicators offered to the learning groups well. Most of them give the evaluation about the whole group but not about each member into the group. For example, DEGREE measures the level of creativity, attitude and other attributes of the whole group, SYNERGO gives the degree of relative contribution of group, and the communication system based on ModellingSpace computes collaborative action of the group. Through close analysis, we also can discover that these indicators could present the collaboration quality of the whole group instead of only centralize all information from individuals indicators, which just show everyone’s value in one indicator. Future Work These systems offer us good references to construct a PBLMS which not only can satisfy users’ needs as far as possible but also has suitable ergonomic user interfaces to improve learners’ collaboration. Michel and Lavoué (2011) have described a main framework of the platform, named MESHaT. It includes different interfaces according to the learning actor: a project group, a learner or a tutor. Each interface is composed of a monitoring tool (on the form of a dashboard) in order to help the actors to have a global view of their activity and a publication tool that allow them to share their experience. Based on our analysis of the four systems, we suggest some directions for our future PBLMS. The learning environment will supply many management tools to lead learners to use this space to achieve their project. This platform will be dedicated to project management education, but also could be used to support different types of PBL activities. We will analyze the utility of various tools, for example: • Blogs (individual and group) can supply spaces for learners to describe the process of their actions and their states of mind. It can help the learners to well understand the project context, to explain the reasons of some indicators’ value (as delays or the group’s state of mind). This information will be useful for teachers to be able to intervene at the right time. Two discussion tools will be offered to learners and teachers, which can help learners to communicate about the projects in the group and help teachers to share their expertise (e.g. process of every group, learning projects designing). • A scheduling tool can helps learners and teachers to plan and coordinate their activities. • A learning contract with simple questions that learners answer at the beginning of the activity can regulate their behavior during the learning and help them to acquire metacognitive skills. 4ièmes Rencontres Jeunes Chercheurs en EIAH • A documents sharing tool can help to share knowledge and to centralize the documents needed for the projects The system will include four types of indicators, (reporting, monitoring, guiding, and supervision) from two dimensions (individual and group). Grouped into a dashboard, theses indicators will display comprehensive information about the collaboration. Based on the content expressed in the groups’ vs. individuals’ blogs or in the documents produced during the activity, we can analyze what the learners are thinking and the quality of the learning. We have to analyze the possibility and limit of the different method of text analysis in order to choose the right approach. For example, text mining provides thin analyzes but requires complex natural language treatments, whereas semi-structured method should be sufficient in our case. We want to create an appropriate learning environment for learners in which they can feel like in face-to-face with the others. It will enhance their motivations and their participations. The customized interface will be used to refine the quality of human-computer interaction and to improve the participants’ satisfactions. Because of the different abilities of learners and teachers to interpret indicators, it is necessary to used different visualization mode (even for the same information). Maybe the use of textual interpretations and metaphors will help learners to well understand the information displayed by the indicators. But the use of dashboards and indicators is not easy. That’s why we choose to work, in the context of our PhD, on a participatory design approach. The prototype will be used in a real learning process in the future in order to understand its utility, usability and acceptability. Conclusion This paper presents an ergonomic study in PBL context by analyzing the utility, usability and acceptability of existing PBLMSs’ features, as well as the indicators used. To better understand the situation of PBLMSs, we have analyzed four different PBLMSs from three points: aim, functionalities and indicators. For the indicators, we have analyzed four attributes: purpose of indicator, concept of indicator, data construction and visualization. Through this analysis, we have discussed the advantages and disadvantages of the PBLMSs and their indicators in three dimensions (functionality, visualization and object users) that we can sum up as follows: • Most systems support collaboration only by offering communication tools. • Most indicators just supply some simple reporting analyzes of the learning process and some monitoring information about the learning environment, while guiding indicators and supervision indicators are not paid much attention. • Most of indicators are about the activities process, while only few indicators supply information about the content of the products of the activities or about the thoughts recorded by learners during activities. • Most of these indicators have no textual 61 Ergonomics of PBLMS interpretation or metaphors associated. The feature of customization hasn’t been considered in some UI design of PBLMSs. • PBLMSs should recognize object user profiles and supply them with suitable information according to their profile. • It is good to give the evaluation about the group as a whole instead of only centralize all information from individuals’ indicators. Our aim is to design a PBLMS with metacognitive and monitoring tools, which can help the actors to have a global view of their activity. Information sharing tools can also help them to share their experience. We suggest other directions for our future work: • We will offer several management tools for collaboration. • The system will include four types of indicators: reporting, monitoring, guiding, and supervision, from two dimensions (individual and group). • We will create an appropriate learning environment for learners in which they can get high satisfaction. This study can lay the foundation for our future works. In our future research, we will model the process of PBL and define the activities carried out in our system. At the same time, we will study further the research areas of data mining, data structure, model structuring of indicators and other important fields of PBLMS. • Acknowledgment This work is under the instruction of Christine Michel, Elise Lavoué and Sébastien George. I would like to thank them for their guidance. Conference on Computer-Supported Collaborative Learning (Euro-CSCL 2001), 269-276. George, S.; Leroux, P. 2002. An approach to automatic analysis of learners’ social behavior during computermediated synchronous conversations. In: proceedings of Intelligent Tutoring Systems'2002, 630~640. Helm, J.; Katz, L. 2000. Young investigators: The project approach in the early years. New York: Teachers Collage Press. Jeremic, Z.; Jovanovic, J.; Gasevic, D. 2009. Semantically-Enabled Project-Based Collaborative Learning of Software Patterns. in: proceedings of Advanced Learning Technologies, IEEE International Conference on. Los Alamitos, CA, USA: IEEE Computer Society, 569-571. Michel, C.; Lavoué, E. 2011. KM and Web 2.0 Methods for Project-Based Learning. MEShaT: a Monitoring and Experience Sharing Tool. Multiple Perspectives on Problem Solving and Learning in the Digital Age. Ifenthaler D., Isaias P., Spector J.M., Kinshuk, Sampson D. (Eds.), Springer, Heidelberg, 49-66. Moursund D. 2011. What is ICT-Assisted PBL? http://pages.uoregon.edu/moursund/PBL/part_3.htm. The ModellingSpace project, University of Aegean (Greece) et al, 2006. Access to: http:// modellingspace. atosorigin.es/about.htm Yigitbasioglu, O.; Velcu, O. 2011. A review of dashboards in performance management: Implications for design and research. Accounting Information Systems, doi: 10.1016/j.accinf.2011.08.002. References Avouris, N.; Margaritis, M.; Komis, V. 2004. Modeling interaction during small-group synchronous problemsolving activities: The Synergo approach. In: proceedings of ITS 2004 Workshop on Designing Computational Models of Collaborative Learning Interaction, Citeseer, 13-18. Barros, B.; Verdejo, M.F. 2000. Analysing student interaction processes in order to improve collaboration. The DEGREE approach, Articial Intelligence in Education 11 (3): 221-241. Dimitrakopoulou A.; et al 2006. State of the art of interaction analysis for metacognitive Support & Diagnosis. In: Kaleidoscope Network of Excellence. Interaction Analysis: Supporting Participants in Technology-based Learning Activities. Jointly Executed Integrated Research Project, Deliverable D.31.1. Fesakis, G.; Petrou, A. ; Dimitracopoulou, A. 2004. Collaboration Activity Function: An interaction analysis tool for Computer Supported Collaborative Learning activities. In: proceedings of 4th IEEE International Conference on Advanced Learning Technologies, 196201. Joensuu, Finland, IEEE Computer Society Editions. George, S.; Leroux, P. 2001. Project-based learning as a basis for a CSCL environment: An example in educational robotics, in: proceedings of First European 62 Amiens – 23 et 24 mai 2012 Une approche orientée indicateurs pour supporter les activités du tuteur Aina Lekira Laboratoire LIUM, avenue Laënnec, 72085 Le Mans Cedex 9, France [email protected] Résumé Dans cet article, nous proposons une approche orientée indicateurs qui vise à apporter une aide au tuteur lorsqu’il gère ses activités (réguler l’activité de l’apprenant et réguler sa propre activité de tutorat) et ce, plus particulièrement, afin de lui rendre compte des effets de ses interventions. Les résultats des expérimentations menées ont montré que fournir au tuteur des informations sur les effets de ses interventions augmente quantitativement et qualitativement l’efficacité de ses interventions ; cela a aussi par ailleurs un impact positif sur la capacité des apprenants à résoudre leurs problèmes. Introduction Les travaux de recherche en EIAH, dans le cadre de tutorat médiatisé, s‘intéressent le plus souvent au problème de la perception de l’activité de l’apprenant. Ils ont abouti à la réalisation d’outils permettant de suivre l’activité de l’apprenant et de visualiser un certain nombre de témoins de cette activité (ICALTS 2004) (Martin et al. 2009) (Martinez et al. 2003) (Guéraud et al. 2009) (Mazza et Dimitrova 2003). Dans ces travaux, le tuteur perçoit l’activité de l’apprenant grâce à des indicateurs calculés par l’environnement. Un indicateur est « une variable signifiante sur le plan pédagogique, calculée ou établie à l'aide de données observées, et témoignant de la qualité de l'interaction, de l'activité et de l'apprentissage dans un EIAH » d’après (Choquet et Iksal 2007). Ces indicateurs calculés en cours de session, permettent de révéler des situations critiques à partir desquelles le tuteur peut décider d’intervenir. Hormis ces indicateurs, d’autres éléments du contexte tels que le profil de l’apprenant (Lefèvre et al. 09), son parcours, sa progression (Guéraud et al. 2009), son style d’apprentissage (Bousbia et al. 2010), influent sur la décision d’intervention du tuteur. L’intérêt des indicateurs réside dans le fait qu’ils fournissent des informations synthétiques et pertinentes sur l’activité de l’apprenant, réduisant ainsi le temps que le tuteur passe à visualiser le travail accompli par chaque apprenant (Labat 2002). Lorsque le tuteur intervient auprès d’un apprenant, il ne dispose pas d’information directe sur les effets de son intervention. Lorsque cela lui est possible, le tuteur peut aller chercher cette information ou la déduire; cela a pour conséquence de lui ajouter une charge de travail supplémentaire. Par conséquent, notre proposition consiste à calculer et à fournir au tuteur ces informations manquantes, en nous basant sur l’étude de l’évolution des valeurs des indicateurs qui ont permis de déceler la situation critique à l’origine de l’intervention. Ces 4ièmes Rencontres Jeunes Chercheurs en EIAH informations sont calculées grâce à ce que nous appelons des méta-indicateurs : indicateurs caractérisant l’évolution des valeurs d’autres indicateurs. Dans ces situations de tutorat instrumenté, fournir au tuteur un feedback sur ses interventions et sa propre activité contribue à ce qu’il prenne conscience de ses propres actions, de ses processus et de son activité pour pouvoir les évaluer (« awareness and assessment ») (ICALTS 2004). De plus, favoriser une démarche réflexive (niveau métacognitif) de la part du tuteur en lui fournissant des informations sur son propre travail l’encourage à avoir un regard critique sur ses stratégies pédagogiques, à affiner sa pratique et à améliorer ses compétences tutorales (Denis et al. 2004) (Capa-Aydin et al. 2009). En résumé, fournir au tuteur des informations sur sa propre activité l’aide à être plus efficace dans son tutorat (ICALTS 2004). Outre la régulation de l’activité de l’apprenant, le tuteur est donc aussi amené à réguler sa propre activité en cours de session. Contexte de travail et problématique La thématique principale de notre travail porte sur le support à fournir au tuteur pour observer les effets de ses interventions et ainsi améliorer la régulation qu’il fait de l’activité de l’apprenant afin de tendre à de « better learning effects » (ICALTS 2004). Une définition largement acceptée de l’auto-régulation dans le domaine des sciences de l’éducation, et notamment celui de la psychologie éducative, est celle de Zimmerman (Zimmerman 2000). Il adopte une approche sociocognitive de l’auto-régulation et propose un modèle cyclique en trois phases : forethought, performance or volitional control et self-reflection. Nous proposons TeAMo, un modèle des activités du tuteur, lequel est déduit de cette approche sociocognitive (Lekira et al. 2011a). Ce modèle spécifie deux processus que le tuteur doit gérer dans les sessions d’apprentissage (Figure 1) : d’une part, la régulation de l’activité de l’apprenant et d’autre part, la régulation de sa propre activité de tutorat (auto-régulation tutorale). Le processus de régulation est précédé d’une phase préparatoire dans l’élaboration de la session d’apprentissage. Cette phase consiste à se fixer des objectifs liés à l’activité et à planifier les stratégies pour les atteindre. Suite à cette phase préparatoire, le processus de régulation de l’activité de l’apprenant est cyclique et comporte trois phases qui se définissent comme suit : - la phase d’observation dans laquelle le tuteur effectue un suivi et une supervision de l’activité de l’apprenant ; 63 Aina Lekira - la phase d’évaluation dans laquelle le tuteur vérifie que l’activité de l’apprenant correspond aux objectifs de la tâche ; - la phase de réaction dans laquelle le tuteur intervient en adoptant une stratégie de remédiation guidée par une intention d’intervention qui tient compte du contexte d’apprentissage. L’approche orientée indicateurs Lors du processus de régulation de l’activité de l’apprenant, le tuteur intervient quand l’apprenant est confronté à une situation jugée pédagogiquement intéressante. Pour détecter ces situations, nous nous appuyons sur les valeurs issues d’un calcul d’indicateurs. Partant du principe que le tuteur a décidé d’intervenir suite à des valeurs d’indicateurs identifiées comme étant « critiques », nous nous proposons de lui fournir un retour sur l’évolution des valeurs de ces indicateurs par le calcul de méta-indicateurs (Lekira et al. 2011b). Un méta-indicateur est un indicateur qui donne des informations sur l’évolution des valeurs d’autres indicateurs. Il est calculé en fonction du domaine d’acceptabilité de la valeur de l’indicateur dont il suit l’évolution. Dans la section suivante, pour illustrer nos propos, nous prendrons des exemples dans notre domaine d’application et d’expérimentation, celui de l’apprentissage de la programmation orientée objet. Les indicateurs de l’activité de l’apprenant Figure 1 : TEAMO, un modèle de description des activités du tuteur. De même, le processus d’auto-régulation tutorale est cyclique et comporte trois phases qui se définissent comme suit : - la phase d’auto-observation dans laquelle le tuteur observe ses interventions et leurs effets ; - la phase d’auto-évaluation dans laquelle le tuteur vérifie si ses interventions ont eu les effets escomptés, c’est-à-dire que les effets de ses interventions correspondent à son intention initiale (i.e. l’intention d’intervention du tuteur lors de la phase de réaction dans le cycle de régulation). ; - la phase d’(auto)-réaction dans laquelle le tuteur valide ses interventions ou les remet en cause en adoptant une nouvelle stratégie de remédiation Notre objectif est d’instrumenter une partie des processus décrits précédemment pour fournir au tuteur des informations sur l’activité de l’apprenant et sur les effets de son intervention. Dans ce cadre, notre problématique de recherche consiste à trouver les moyens pour rendre compte au tuteur, d’une part, de l’activité de l’apprenant et d’autre part, des effets de ses interventions. Nous adoptons ainsi une approche orientée indicateurs tant pour refléter l’activité de l’apprenant que pour mesurer les effets des interventions tutorales. Le calcul de ces indicateurs se fait à partir des traces d’interaction obtenues via l’EIAH. Par conséquent, la mise en œuvre de notre démarche doit se faire au sein d’un EIAH tracé c’est-à-dire un « EIAH permettant de collecter les traces d’utilisation » (France et al. 2007). 64 Les indicateurs procurent au tuteur des informations qualitatives ou quantitatives sur l’activité de l’apprenant (Labat 2002). Ils sont identifiés à partir des besoins d’observation du tuteur et en fonction du scénario pédagogique et des objectifs de l’activité. Les indicateurs sur l’activité de l’apprenant permettent au tuteur de réguler l’activité de l’apprenant en lui fournissant des informations sur la progression, le parcours ou les productions de l’apprenant. Ils reflètent la différence entre ce que le tuteur attend à travers les objectifs de l’activité et ce qui a été fait par l’apprenant. Nous intégrons cette notion dans la définition d’un indicateur à travers le domaine d’acceptabilité de sa valeur. Le domaine d’acceptabilité de la valeur d’un indicateur peut être une valeur, un seuil, un intervalle ou un ensemble. La valeur d’un indicateur est acceptable si elle appartient à son domaine d’acceptabilité. Le tableau 1 présente des exemples de besoins d’observation et des indicateurs correspondants en fonction de leurs domaines d’acceptabilité. Tableau 1 : Exemples de besoins d’observation et des indicateurs correspondants en fonction de leur domaine d’acceptabilité (type et valeur). Les interventions tutorales Les indicateurs donnent au tuteur des indications sur l’activité de l’apprenant. Lorsque leurs valeurs n’appartiennent pas à leurs domaines d’acceptabilité, nous considérons qu’ils reflètent une situation dite Amiens – 23 et 24 mai 2012 Une approche orientée indicateurs pour supporter les activités du tuteur critique. Cela peut amener le tuteur à intervenir. Dans ce cas, le tuteur sélectionne les indicateurs caractérisant la situation critique qui ont entraîné son intervention et le système mémorise l’association entre l’intervention et les indicateurs (Lekira et al. 2011a). Si le tuteur est amené à intervenir de nouveau sur la même situation critique, il sélectionnera son intervention originelle et le système mémorisera l’association entre l’intervention originelle et ses réinterventions successives. Les méta-indicateurs Pour mesurer les effets d’une intervention, nous proposons d’assurer le suivi de l’évolution des valeurs des indicateurs qui l’ont déclenchée et de voir s’ils reviennent à la normale i.e. s’ils appartiennent à leurs domaines d’acceptabilité. Pour cela, nous utilisons des méta-indicateurs que nous associons à une intervention afin de représenter l’évolution positive, négative ou nulle des valeurs des indicateurs (de l’activité de l’apprenant) à l’origine de cette intervention. Ces métaindicateurs servent à obtenir des informations sur les effets d’une intervention tutorale et à vérifier si cette intervention a eu les effets escomptés par le tuteur. En cas d’échec de l’intervention, nous voulons aussi savoir dans quelle mesure elle a échoué et en rendre compte au tuteur. Afin de déterminer le moment à partir duquel ce feedback peut être fourni, nous proposons de laisser au tuteur la liberté de le spécifier au moment de son intervention en définissant le moment du déclenchement du calcul des méta-indicateurs associés à l’intervention ; le calcul de ces méta-indicateurs peut être déclenché soit suite à une action spécifique du tuteur ou de l’apprenant (e.g. lors d’une compilation ou d’un changement de question), soit au bout d’un temps déterminé. En fait, le calcul des méta-indicateurs dépend du domaine d’acceptabilité des indicateurs dont ils suivent l’évolution. Pour un indicateur dont le domaine d’acceptabilité est une valeur de référence, le méta-indicateur correspondant vaudra « succès » si la nouvelle valeur de l’indicateur est identique à cette valeur de référence. Sinon, il vaudra « sans effet ». Pour un indicateur dont le domaine d’acceptabilité est un seuil de référence, le méta-indicateur correspondant vaudra « succès » si la nouvelle valeur de l’indicateur est au delà (ou en deçà, selon le cas) du seuil. Sinon, le méta-indicateur vaudra « amélioration » ou « détérioration » selon le signe de la différence entre l’ancienne et la nouvelle valeur de l’indicateur. Enfin, si cette différence est nulle, le méta-indicateur vaudra « sans effet ». Pour un indicateur dont le domaine d’acceptabilité est un intervalle de référence, le méta-indicateur vaudra « succès » si la nouvelle valeur de cet indicateur appartient à l’intervalle. Dans le cas contraire, la valeur du méta-indicateur vaudra « amélioration » si la nouvelle valeur de l’indicateur est plus proche de l’intervalle que l’ancienne valeur. Sinon, il vaudra « détérioration ». Et enfin, la valeur du méta-indicateur sera « sans effet » si la valeur de l’indicateur ne change pas. Pour un indicateur dont le domaine d’acceptabilité est un ensemble de référence, le méta-indicateur vaudra 4ièmes Rencontres Jeunes Chercheurs en EIAH « succès » si la nouvelle valeur de cet indicateur appartient à l’ensemble. Enfin, le méta-indicateur vaudra « sans effet » si la valeur de l’indicateur ne change pas, sinon il vaudra « modification non corrective ». Les effets d’une intervention tutorale Les méta-indicateurs permettent de mesurer les effets d’une intervention tutorale (Lekira et al. 2011b). Une intervention a eu du succès si tous les méta-indicateurs qui lui sont associés évoluent positivement c’est-à-dire qu’ils valent « succès ». Inversement, une intervention a échoué si tous les méta-indicateurs qui lui sont associés n’évoluent pas favorablement c’est-à-dire qu’ils valent « détérioration », « sans effet » ou « modification non corrective ». Dans tous les autres cas, on considère que l’intervention a une certaine effectivité mesurée par le pourcentage de méta-indicateurs de chaque catégorie (« succès », « sans effet », « amélioration », « détérioration » et « modification non corrective »). Une approche générique Dans le calcul des méta-indicateurs proposé, il n’est fait référence ni au domaine d’apprentissage, ni au type d’activité, ni même à l’EIAH utilisé. Pour le calcul d’un méta-indicateur, il n’est tenu compte que de la famille à laquelle appartient l’indicateur dont il suit l’évolution. De ce fait, notre démarche orientée indicateurs est générique et peut s’appliquer à n’importe quel EIAH tracé : elle consiste d’une part, pour l’enseignantconcepteur à définir des indicateurs et leurs domaines d’acceptabilité dans le domaine d’apprentissage considéré et d’autre part, pour l’informaticien à implémenter les méthodes de calcul des métaindicateurs. L’EIAH HOP3X Dans l’objectif d’opérationnaliser notre approche, nous avons utilisé l’EIAH HOP3X qui a été conçu pour l’apprentissage de la programmation. HOP3X donne au tuteur la possibilité de faire un suivi synchrone d’un groupe d’apprenants à travers une interface qui lui permet de visualiser en temps réel leurs programmes et d’intervenir par communication textuelle ou audio. HOP3X est un EIAH tracé composé de trois applications : - HOP3X-ETUDIANT permet aux apprenants d’éditer, de compiler et d’exécuter leurs programmes. Il leur donne la possibilité d’appeler le tuteur à l’aide. - HOP3X-SERVEUR collecte les traces d’interaction des participants à la session d’apprentissage et les stocke sous forme d’événements. Ces traces permettent le calcul des indicateurs et des méta-indicateurs via l’outil UTL qui utilise le méta-langage UTL (Choquet et Iksal 2007) et le langage associé DCL4UTL (Pham et al. 2010). Une application HUI (Hop3x and UTL Interaction) a été développée pour permettre l’interfaçage entre Hop3x et l’outil UTL. - HOP3X-ENSEIGNANT offre une visualisation en temps réel de l’activité de l’apprenant. Pour permettre au tuteur de visualiser les indicateurs et les méta-indicateurs, nous avons développé une interface de suivi. La figure 3 présente l’interface fournie au tuteur. 65 Aina Lekira Nous avons aussi intégré un outil permettant de visualiser les interventions avec la possibilité de revoir leurs contenus. Figure 3 : L’interface de HOP3X-ENSEIGNANT. Une visualisation détaillée des méta-indicateurs est possible. Celle-ci donne au tuteur des informations sur les effets d’une intervention. Par ailleurs, un code couleur a été mis en place dans l’interface pour permettre au tuteur de voir rapidement les interventions qui ont échoué (en rouge), celles qui ont réussi (en vert), celles ayant une majorité de méta-indicateurs valant « succès » (en orange-vert) et les autres (en orangerouge). Des statistiques globales sur l’effectivité de toutes les interventions sont fournies au tuteur à travers le pourcentage global de méta-indicateurs de chaque catégorie (« succès », « sans effet », « amélioration » et « détérioration »). Description des expérimentations Afin de mesurer l’impact de la mise à disposition d’un feedback sur les interventions au tuteur, nous avons mené deux campagnes d’expérimentations dans un contexte de tutorat synchrone : une expérimentation dans laquelle un feedback sur les interventions et des méta-indicateurs étaient fournis au tuteur et une autre sans ces informations. Ces expérimentations ont été menées sur deux années universitaires et concernaient des activités de travaux pratiques qui font partie d’une Unité d’Enseignement (U.E.) relative à la « Programmation orientée objet et Java ». Cette U.E. est dispensée aux étudiants de L3 Informatique de l’Université du Maine qui sont novices en programmation Java. 66 Avant chaque session d’apprentissage avec HOP3X, les étudiants ont préalablement vu en cours et en TD les concepts qu’ils devaient mettre en œuvre durant les TP. Les deux expérimentations se sont déroulées dans le même contexte puisque les mêmes tuteurs ont participé aux deux expérimentations, le même scénario pédagogique a été utilisé et les étudiants impliqués ont eu la même formation universitaire et ont suivi les mêmes cours. En collaboration avec l’équipe pédagogique, nous avons identifié et défini 62 indicateurs, lesquels ont été disponibles pour les deux tuteurs durant les deux expérimentations. La première expérimentation (expérimentation 1) a été menée entre janvier et février 2010. Elle a impliqué trente-six apprenants (groupe 1). La seconde expérimentation (expérimentation 2) a été menée entre janvier et février 2011 avec la participation de quarantecinq apprenants (groupe 2). Concernant la quantité de productions des apprenants et le nombre d’interventions tutorales, les deux groupes sont homogènes. En moyenne, pour trois heures de TP, il y a eu 3995 événements par étudiant pour le groupe 1 et 4391 événements pour le groupe 2. En ce qui concerne les interventions tutorales, il y a eu 84 interventions pour le groupe 1 (2,33 interventions par étudiant) et 96 interventions pour le groupe 2 (2,13 interventions par étudiant). Ces expérimentations nous ont permis de collecter des traces d’interactions telles que la trace d’activité des apprenants et les interventions audio et textuelles des tuteurs. Les indicateurs et méta-indicateurs calculés en cours de session ont aussi été sauvegardés. Résultats des expérimentations et discussion Nous voulons observer l’impact du fait de fournir au tuteur des informations sur les effets de son intervention à travers les méta-indicateurs. Pour atteindre cet objectif, notre analyse est double. Dans un premier temps, nous voulons voir si les méta-indicateurs améliorent les performances du tuteur et l’effectivité de ses interventions. Dans un deuxième temps, nous voulons voir si l’amélioration des performances du tuteur a induit un impact positif sur les résultats des apprenants. Impact des méta-indicateurs sur l’activité du tuteur Dans cette section, nous voulons étudier le bénéfice qu’apporte le fait de fournir au tuteur un feedback sur les effets de ses interventions à travers la comparaison de l’expérimentation 2, dans laquelle les méta-indicateurs ont été disponibles, et l’expérimentation 1, dans laquelle ils ne l’étaient pas. Pour notre étude, nous nous intéressons aux interventions proactives, c’est-à-dire qui surviennent lorsque les tuteurs interviennent de leur propre initiative. Ce type d’intervention peut être déclenché par des valeurs d’indicateurs non conformes à celles attendues, i.e. n’appartenant pas à leurs domaines d’acceptabilité. Dans ce cas, ces valeurs d’indicateurs font état d’une situation critique. Pour le groupe 1, parmi les 84 interventions, 89,28% sont proactives. Ce taux est similaire pour le groupe 2 puisque parmi 96 interventions, 92,70% sont proactives. Amiens – 23 et 24 mai 2012 Une approche orientée indicateurs pour supporter les activités du tuteur Nos résultats et notre analyse se sont basés sur ces données. Dans cette analyse, nous nous intéressons aux interventions qui peuvent être soit uniques, i.e. composées de l’intervention originelle (nous les appelons interventions uniques), soit une séquence d’interventions, i.e. plusieurs interventions portant sur la même situation critique. Une séquence d’interventions a eu du succès si la dernière en a eu et que l’apprenant a effectivement corrigé le problème à propos duquel le tuteur est intervenu ; sinon, elle a échoué. Les méta-indicateurs fournissent au tuteur des informations sur le résultat (succès si l’intervention a eu les effets escomptés par le tuteur ; sinon échec) de leurs interventions. En cas d’échec, ils rappellent au tuteur que l’apprenant n’a pas encore résolu le problème. Par conséquent, le tuteur est encouragé à intervenir de nouveau. Ainsi, nous pouvons émettre deux hypothèses : le fait de fournir au tuteur un feedback sur les effets de ses interventions à travers les méta-indicateurs va augmenter le taux global d’interventions qui ont eu du succès (H1) et, en particulier, cela augmente le nombre d’interventions ayant eu du succès du fait des réinterventions (H2). Comme le montre la figure 4, 75,99% des interventions (en tenant compte des interventions uniques et des séquences d’interventions) ont eu du succès pour le groupe 1. Pour le groupe 2, ce taux est de 91,42%. Ces chiffres montrent une amélioration du taux global des interventions qui ont eu du succès, lequel a augmenté de 15,43 points. Ce résultat valide notre première hypothèse H1 : globalement, lorsque les tuteurs ont eu un feedback à travers les métaindicateurs, ils ont été mieux à même de rendre leurs interventions efficaces que lorsqu’ils n’avaient pas de méta-indicateurs disponibles. d’échec des interventions uniques diminue de 14,29% (de 20% pour le groupe 1 à 5,71% pour le groupe 2). Nous expliquons cette différence par les métaindicateurs. En effet, les séquences d’interventions contiennent des ré-interventions qui sont déclenchées par les méta-indicateurs. Ces résultats tendent à valider notre seconde hypothèse H2 : il y a eu une augmentation du nombre de ré-interventions et il y aussi eu une augmentation du nombre d’interventions qui a eu du succès grâce aux ré-interventions. Deuxièmement, comme indiqué dans la figure 4, le taux d’interventions uniques ayant eu du succès a augmenté entre le groupe 1 et le groupe 2. Cela ne peut pas être du aux méta-indicateurs puisqu’il n’y pas de réinterventions. Nous expliquons cette différence par le fait que ce sont les mêmes tuteurs qui ont participé aux deux expérimentations. Après l’expérimentation 1, les tuteurs ont acquis une certaine expertise en se rappelant certaines interventions efficaces, ce qui leur a permis de mieux cibler le choix de leurs stratégies de remédiation en se basant sur leur propre expérience. Toutefois, pour le groupe 2, il reste 8,56% d’interventions qui ont échoué dont 2,85% malgré au moins une ré-intervention. Ces cas d’échec concernent des apprenants qui ont de très grandes difficultés en programmation. En effet, ces apprenants avaient essentiellement des problèmes liés à la syntaxe ou à la structure du programme ; ils avaient des difficultés à résoudre les erreurs de compilation. Les résultats des expérimentations montrent que fournir au tuteur des méta-indicateurs favorise les réinterventions en cas d’échec de l’intervention originelle. En effet, les tuteurs aident mieux les apprenants lorsque ces derniers sont confrontés à des situations critiques puisque 91,42% des interventions tutorales ont eu les effets escomptés. Ainsi, fournir au tuteur des informations sur sa propre activité améliore ses performances et augmente les chances de succès de ses interventions. Impact des méta-indicateurs sur l’activité de l’apprenant Figure 4 : Distribution des interventions tutorales pour les groupes 1 et 2. L’explication de cette augmentation du taux global des interventions qui ont eu du succès est double. Premièrement, cela est dû à l’augmentation des réinterventions. En effet, lorsque l’intervention originelle échoue, dans 40,36% des cas, le tuteur ré-intervient pour le groupe 1. Ce taux est de 72,02% pour le groupe 2. Les méta-indicateurs sont un rappel permanent qui pousse le tuteur à ré-intervenir : le taux de réinterventions du groupe 2 est de 34,44 points plus élevé que celui du groupe 1. En conséquence, le taux de séquences d’interventions qui ont eu du succès augmente de 4,95 points (de 9,33% pour le groupe 1 à 14,28% pour le groupe 2) et le taux 4ièmes Rencontres Jeunes Chercheurs en EIAH Nous voulons voir si l’amélioration des performances du tuteur et l’augmentation des ré-interventions grâce aux méta-indicateurs ont un impact positif sur l’activité de l’apprenant. Ici, nous voulons observer si les apprenants résolvent mieux leurs problèmes lorsque les tuteurs ont des méta-indicateurs à leur disposition. Pour cela, nous mettons en évidence des situations critiques (SC) i.e. des situations dans lesquelles les valeurs des indicateurs (sur l’activité de l’apprenant) ne sont pas acceptables. Parmi ces SC, nous nous intéressons à celles qui ont fait l’objet d’une intervention tutorale afin de mesurer l’impact de ces interventions sur la résolution de ces SC par l’apprenant. Dans la section précédente, nous avons constaté que fournir au tuteur des informations sur sa propre activité améliorait l’efficacité de ses interventions. Maintenant, nous voulons savoir si le taux d’échec des résolutions de SC diminue grâce aux interventions. La figure 5 montre l’état, en fin de session, des SC ayant fait l’objet d’une intervention tutorale. 67 Aina Lekira Figure 5 : État en fin de session des SC apparues en cours de session. Comme le montre la figure 5, le taux de résolution des SC grâce aux interventions passe de 83,74% à 92,32% entre le groupe 1 et le groupe 2. Cette augmentation est probablement due aux interventions qui ont eu du succès, lesquelles ont augmenté avec l’introduction des méta-indicateurs. (cf. section précédente). Cependant, pour le groupe 2, il y a 7,67% de SC non résolues malgré les interventions tutorales. Ces cas correspondent aux interventions auprès d’apprenants ayant de grandes difficultés en programmation. Ce résultat tend à prouver que l’introduction des méta-indicateurs, qui induit de meilleures interventions tant qualitativement que quantitativement (augmentation du taux de ré-interventions et augmentation du nombre d’interventions qui ont eu du succès), a un impact positif sur les performances des apprenants puisqu’ils sont capables de mieux résoudre leurs SC lorsque les tuteurs ont un feedback sur les effets de leurs interventions. Conclusion et perspectives Dans cet article, nous avons présenté une approche orientée indicateurs, générique, pour rendre compte au tuteur de l’activité de l’apprenant et des effets de ses interventions. Cette approche consiste à fournir au tuteur, d’une part, des informations sur l’activité de l’apprenant à travers des indicateurs calculés à partir de la trace et, d’autre part, à lui fournir des informations sur les effets de ses interventions à travers des métaindicateurs. Les résultats des expérimentations montrent que fournir ce type d’informations au tuteur améliore l’efficacité de ses interventions de manière qualitative et quantitative. Par ailleurs, les résultats montrent aussi que cette amélioration des performances du tuteur a une influence positive sur les performances des apprenants qui ont mieux résolu leurs problèmes. Par la suite, nous pensons pouvoir capitaliser les interventions tutorales en fonction de la mesure de leur efficacité afin de permettre au tuteur de réutiliser son savoir-faire et son expérience. Ainsi, nous voulons proposer au tuteur les interventions qui ont eu du succès lorsqu’il se retrouve dans un contexte similaire à celui de l’intervention proposée. Références Bousbia, N., Rebai, R., Labat, J. M., Balla, A., 2010. Analysing the Relationship between Learning Styles and Navigation Behaviour in Web-based educational 68 system. International Journal of Knowledge Management and E-Learning, 2(4):400-421 Capa Aydin, Y., Sungur, S., and Uzuntiryaki, E., 2009. Teacher self regulation: Examining a multidimensional construct. Educational Psychology, 29:345-356. Choquet, C., Iksal, S., 2007. Modélisation et construction de traces d’utilisation d’une activité d’apprentissage : une approche langage pour la réingénierie d’un EIAH. STICEF, 14. Denis, B., Watland, P., Pirotte, S., and Verday, N., 2004. Roles and competencies of e tutor. In Proc. Networked Learning Conference, 385–389. France, L., Heraud, J-M., Marty, J-C., Carron, T., 2007. Visualisation et régulation de l’activité des apprenants dans un EIAH tracé,In Actes Conférence EIAH, 179184. V. Guéraud, J-M. Adam, A. Lejeune, N Mandran, N. Vézian, M. Dubois, 2009. Expérimentation d'un environnement flexible pour la supervision de travaux pratiques basés sur des simulations, In Actes Conférence EIAH, 279-286. ICALTS : Interaction and Collaboration Analysis’ supporting Teachers and Students’ self regulation, délivrables 1, 2 and 3, Jointly Executed Integrated Research Project, 2004, http://www.rhodes.aegean.gr/ ltee/kaleidoscope icalts. Labat, J. M., 2002. Quel retour pour le tuteur ? In Actes de la conférence TICE. Lefevre, M., Cordier, A., Jean Daubias, A., and Guin, S., 2009. A teacher dedicated tool supporting personalization of activities. In Proc. World Conference on Educational Multimedia, Hypermedia and Telecommunications, 1136–1141. Lekira, A., Després, C., Jacoboni, P., 2011a. Supporting the identification of teachers’ intention through indicators, Proc. 3rd International Conference on Computer Supported Education, 111-116. Lekira, A., Després, C., Jacoboni, P., 2011b. An indicator-based approach to support teachers’ activities, Proc 11th IEEE International Conference on Advanced Learning Technologies, 120-122. Martin, M., Alvarez, A., Ruiz, S., and Fernandez Castro, I., 2009. Helping teachers to track student evolution in a b learning environment. In Proc. 9th IEEE International Conference on Advanced Learning Technologies, 342– 346. Martinez, A., Dimitriadis, Y., Gomez, E., Rubia, B., and De La Fuente, P., 2003. Combining qualitative and social network analysis for the study of classroom social interactions. Computers and Education, 41:353-368. Mazza, R., Dimitrova, V., 2007. CourseVis: A Graphical Student Monitoring Tool for Facilitating Instructors in Web-Based Distance Courses. International Journal in Human-Computer Studies 65(2): 125-139. Pham Thi Ngnoc, D., Iksal, S., Choquet, C., 2010. Reengineering of pedagogical scenarios using the data combination language and usage tracking language. In Proc. 10th IEEE International Conference on Advanced Learning Technologies, 506-510. Zimmerman, B J., 2000. Attaining self regulation: A social cognitive perspective. Handbook of self regulation, 13–38. Amiens – 23 et 24 mai 2012 Acquisition interactive de connaissances pédagogiques pour la personnalisation d’EIAH dans le cadre de la formation à distance Bruno MASCRET, 1ère année Université de Lyon, CNRS Université Lyon 1, LIRIS, UMR5205, F-69622, France Formagraph 1 Rue Madeleine Brès, 25000 Besançon, France Résumé Cet article s’intéresse à la problématique de l’acquisition interactive de connaissances pour la personnalisation des parcours pédagogiques dans un contexte de formation à distance. Nous mettons en évidence que la personnalisation des parcours pédagogiques par le formateur en formation à distance est un aspect important de la personnalisation de l’enseignement, mais qu’à l’heure actuelle cela reste un processus long et peu utilisé en pratique sur le terrain. Nous expliquons pourquoi l’acquisition de connaissances sur la personnalisation nous semble une piste prometteuse pour faciliter la personnalisation sur des plateformes pédagogiques. Nous identifions les pré-requis à nos travaux : la mise en place d’un système de personnalisation interactif à partir de sources de connaissances pédagogiques (profils, ressources pédagogiques, ...), basé sur des modèles existants. Nous introduisons deux contributions théoriques, défendant l’usage des traces et du raisonnement à partir de l’expérience tracée (Mille, 2005) comme mécanisme d’acquisition de connaissances pertinent. La première contribution décrit comment acquérir ces connaissances lors de l’élaboration de parcours pédagogiques par le formateur ; la seconde montre comment, en présentant au formateur l’activité de l’apprenant sous forme de traces d’interaction, il peut exprimer de nouvelles connaissances sur sa manière de réviser des parcours pédagogiques proposés. Nous terminons en présentant la manière dont nous allons implémenter un prototype au sein de la plateforme IMAVIA, de l’entreprise Formagraph, et proposons quelques pistes de recherche qui compléteraient nos travaux. Dans le cadre de la formation à distance, nous assistons à une généralisation de l’usage des plateformes pédagogiques que ce soit en formation initiale ou continue. La demande de personnalisation de l’apprentissage est de plus en plus forte ; elle se traduit entre autres par un engouement pour la pédagogie différenciée (Robbes, 2009). Les TICE (technologie de l’information et de la communication pour l’éducation) offrent de nouveaux outils qui pourraient répondre à cette demande (Lebrun, 2007b), mais en pratique, la plupart des formateurs ne peuvent se consacrer pleinement à leur rôle de pédagogue faute de temps ou de connaissances sur la manipulation d’EIAH devenus complexes (Garrot, 2008). Une des manières d’individualiser la formation est de personnaliser les parcours pédagogiques des apprenants, mais les plateformes pédagogiques actuelles offrent peu de fonctionnalités facilement utilisables pour permettre cette personnalisation (Garrot, 2008). Au mieux, elles permettent aux formateurs de définir plusieurs parcours pédagogiques qu’ils peuvent ensuite proposer à un ou plusieurs apprenants. Ces parcours sont réalisés a priori et il n’existe pas, à notre connaissance, de mécanisme permettant d’expliciter les motivations du pédagogue quant aux choix qui lui ont permis d’élaborer un parcours et de l’attribuer à un apprenant. Un autre moyen de personnaliser l’apprentissage est de permettre au formateur de réviser les parcours pédagogiques proposés quand ceux-ci ne conviennent pas aux apprenants. Mais pour que cette révision soit pertinente, le formateur doit disposer d’éléments lui permettant de comprendre pourquoi le parcours pose problème. Il est possible de s’appuyer actuellement sur des indicateurs (Dimitracopoulou et Bruillard, 2006), ou des renseignements sur le statut d’une tâche : temps passé, résultat d’évaluation automatique, nombre d’accès, nombre de tentatives. Mais ce que fait réellement l’apprenant (hésitations, retours en arrière, mauvaise compréhension ou accomplissement partiel d’une tâche) n’est pas perceptible, contrairement à des situations d’apprentissage en présentiel. Le contexte de la formation à distance limite donc le formateur dans son analyse des problèmes rencontrés par l’apprenant. Selon nous, ces limitations pourraient être réduites si les systèmes d’apprentissage en ligne étaient capables d’acquérir une partie des connaissances pédagogiques qu’utilise le formateur, et de mieux lui présenter l’activité de l’apprenant pour l’aider à résoudre les problèmes d’apprentissage. Nos travaux portent sur l’acquisition de ces connaissances pédagogiques lors de l’élaboration, la personnalisation et la révision de parcours Dans cet article, nous commençons par préciser le vocabulaire que nous employons, qui doit nous permettre notamment de faire la distinction entre ce que prescrit le formateur et ce que réalise effectivement l’apprenant. Nous mettons en évidence les enjeux de nos travaux en EIAH, pour la personnalisation des parcours pédagogiques par le formateur et en ingénierie de la connaissance, pour la conception de systèmes capables d’acquérir des connaissances et des raisonnements non modélisés a priori par un expert. Nous présentons ensuite la problématique de nos travaux, en la situant dans ces deux domaines. Nous introduisons les traces d’in- 4èmes Rencontres Jeunes Chercheurs en EIAH 69 Introduction Bruno Mascret teraction et le raisonnement à partir de l’expérience tracée (RàPET), et expliquons en quoi cette approche représente à notre avis un paradigme de raisonnement pertinent pour notre problématique. Nous présentons ensuite le système de personnalisation tel que nous l’imaginons, et indiquons quels éléments existants nous allons pouvoir utiliser. Nous expliquons en quoi ils satisfont une partie des pré-requis nécessaires à nos recherches. Notre première contribution décrit comment acquérir des connaissances lors de l’élaboration des parcours pédagogiques par le formateur, en traçant son activité et en l’incitant de manière interactive à s’impliquer dans ce mécanisme d’acquisition, en lui offrant par exemple la possibilité de reformuler ce qui a été tracé par le système, de le corriger, ou de le réorganiser. Cela va plus loin qu’une simple documentation de son activité. Notre seconde contribution s’appuie également sur les traces d’interaction, cette fois-ci produites par l’apprenant. Nous les présentons au formateur qui peut alors réviser le parcours pédagogique et introduire ces nouvelles connaissances dans le système. Nous terminons en décrivant l’architecture que nous comptons développer, et la manière dont elle répond aux attentes de la société Formagraph en matière de personnalisation de parcours pour un public très hétérogène (d’apprenants en situation d’illettrisme et/ou d’actifs aux profils variés en formation continue). Nous présentons plus particulièrement la plateforme d’e-learning IMAVIA, basée sur Claroline, sur laquelle s’appuiera une grande partie des services de formation personnalisés proposés par Formagraph. Définitions F IGURE 1: Représentation d’une tâche et d’une activité (en pointillés). Dans cet exemple, la tâche consiste à lire une documentation sur la compilation d’un programme ; l’activité pourrait être de ne lire que quelques pages de cette documentation. F IGURE 2: Un graphe de tâches du cours de programmation. Les arcs représentent les pré-requis entre les différentes tâches qui sont compiler, exécuter, débugger, documenter, formatter les entrées-sorties, et réaliser un module (Exo 1-6) du programme final (Exo 7). vités : l’apprenant peut en effet avoir plusieurs activités pour répondre à une même tâche (par exemple, lire les deux premières pages de cours, puis reprendre sa lecture plus tard ), ou une activité peut répondre à plusieurs tâches assignées. Un apprenant peut donc traiter partiellement une tâche dans une activité. Graphe de tâches : un graphe de tâches (figure 2) est une organisation de tâches où chaque nœud représente une tâche et chaque arc une relation entre deux tâches. Les arcs peuvent exprimer différents types de relations, pédagogiques ou non, entre des tâches (prérequis, dépendance, sorte de, indexation, etc ;). Nous souhaitons préciser le sens que nous donnons dans cet article à un certain nombre de notions fondamentales. Ces notions sont discutées dans (Pernin, 2006) et (Tchounikine, 2009). Nous avons notamment besoin de marquer la distinction entre la tâche qui est prescrite par le formateur et l’activité qui est réalisée par l’apprenant (Tchounikine, 2009). Les définitions qui suivent sont illustrées par l’exemple concret d’un cours de programmation. Tâche (prescrite) : une tâche (figure 1) représente ce qu’il est demandé de faire à un apprenant. Elle est prescrite la plupart du temps par le formateur, et utilise des ressources pédagogiques. Nous considérons que la tâche contient à la fois la ou les ressources pédagogiques (ressources numériques, papier, média, . . . ) et les indications données à l’apprenant pour sa réalisation (consigne). Une tâche peut être décrite à l’aide de métadonnées, dans un formalisme standardisé (par exemple LOM, SCORM, IMS-LD) ou non standardisé (format interne à l’EIAH, XML, etc.). Nous admettrons que ce formalisme permet, dans le cas de tâches informatisées 1 , de représenter les informations nécessaires pour exploiter la tâche à des fins de personnalisation et réaliser des graphes de tâches. Activité (réalisée) : l’activité (figure 1) représente ce que l’apprenant réalise réellement pour traiter une tâche prescrite par le formateur. Nous admettrons dans cet article qu’à une tâche correspond une ou plusieurs acti- F IGURE 3: Deux parcours pédagogiques, un linéaire et un non linéaire, qui ne prévoient ni la réalisation de Exo 2, ni les tâches de formatage. Le formateur a peut-être voulu ainsi simplifier le problème pour certains apprenants, ou il considère que ces apprenants n’ont pas besoin de réaliser les tâches non sélectionnées... 1. Une tâche informatisée est une représentation informatique d’une tâche : les éléments qui la composent ne sont pas tous nécessairement numériques Parcours pédagogique : un parcours pédagogique (figure 3) est une organisation de tâches que le formateur prescrit à un ou plusieurs apprenants. Lorsque le 70 Amiens - 23 et 24 mai 2012 Acquisition interactive de connaissances pédagogiques pour la personnalisation d’EIAH parcours n’exprime pas d’alternatives, c’est un simple séquencement linéaire de tâches. Dans le cas contraire, c’est un graphe. F IGURE 4: Un parcours d’activité représentant ce que l’apprenant a réellement réalisé. Apparemment, il a eu besoin de revenir sur les tâches d’exécution et de débuggage pour réussir Exo 3 (il y a donc deux activités différentes pour la tâche exec, et deux autres pour la tâche debug). Parcours d’activités : le parcours d’activités (figure 4) est un séquencement d’activités représentant le parcours effectif de l’apprenant sur un parcours pédagogique. Sa structure peut être complètement différente du parcours pédagogique, puisque d’une part il correspond à ce que l’apprenant fait réellement, d’autre part, nous l’admettrons, un apprenant ne peut traiter deux tâches en même temps (bien qu’il puisse passer alternativement de l’une à l’autre). Un parcours d’activités a donc une structure linéaire dont les nœuds sont temporellement situés. teurs (Djouad, 2010), en raisonnement à partir de cas ou en RàPET). (Soller et al., 2005) identifient trois utilisations de ces connaissances : la visualisation, la comparaison avec des observations attendues et la production de réponses élaborées pour guider l’apprenant dans son apprentissage. Un pré-requis à une acquisition de connaissance sur l’activité de l’apprenant réside dans la capacité à fournir au formateur des outils lui permettant avant tout de percevoir cette activité : comment demander à un formateur de corriger un parcours s’il n’a qu’une vision partielle et limitée de ce qu’a fait l’apprenant ? Dans le cas de la personnalisation de parcours, un des enjeux est de permettre au formateur d’expliciter une révision de parcours suite à l’observation (visualisation) de l’activité d’un apprenant. Autrement dit, que le formateur arrive à formaliser la cause d’un problème, en décire ses effets sur l’activité de l’apprenant, et dans l’idéal de pouvoir proposer une solution qui soit en accord avec sa pédagogie. Problématique Les connaissances pédagogiques et les raisonnements associés sont, par opposition aux connaissances explicites, la plupart du temps tacites, c’est–à–dire difficiles à formaliser. Elles s’appuient sur de nombreuses notions comme l’expérience du pédagogue, sa connaissance personnelle des apprenants, ses convictions, sa manière d’adapter ou de personnaliser son enseignement (Minstrell, 1999). Elles représentent une grande partie de la pédagogie du formateur, qui n’a pas toujours conscience de son expertise (il sent que cette adaptation est pertinente pour tel apprenant). À notre avis, un des grands enjeux de la personnalisation est de disposer de systèmes capables d’acquérir ces connaissances et la manière dont on s’en sert ; autrement dit, de donner au formateur la possibilité de formaliser son expérience et ses connaissances pédagogiques de personnalisation pour qu’il puisse ensuite les réutiliser ou les partager. Ainsi, il gagnera notamment du temps lors de l’élaboration de parcours ultérieurs. Certains travaux actuels portent sur la constitution d’ontologies permettant d’acquérir une partie de ces connaissances (Zouaq et al., 2007), (Greffier et al., 2011) : nous pensons cependant que ce type d’approche présente un risque d’homogénéı̈sation des connaissances pédagogiques. Dans le cadre de la formation à distance, l’importance de la présence du formateur, par sa capacité à conseiller, orienter et interagir avec les apprenants est une des clefs de la réussite dans ce mode d’apprentissage (Lebrun, 2007b). Or, bien que les plateformes pédagogiques disposent d’outils de suivi et de communication (chat, wiki, forum), l’activité de l’apprenant ne peut être finement observée par le formateur qui n’en perçoit qu’une petite partie à travers les outils existants. Plusieurs domaines de recherche en ingénierie de la connaissance et en EIAH se consacrent à la manière d’améliorer et d’augmenter les connaissances sur l’activité de l’apprenant (en datamining, avec des indica- L’ingénierie des connaissances utilise deux types d’éléments : les connaissances, qui sont extraites de sources de connaissances, et les mécanismes de raisonnement qui utilisent ces connaissances. L’un et l’autre sont représentés par des modèles (modèle de connaissances et modèle de raisonnement). Lorsque ces modèles existent, l’acquisition de nouvelles connaissances peut s’appuyer sur un formalisme, être interactive (Cordier, 2008), plus facilement interfaçable pour l’utilisateur. Cependant, il y a plusieurs inconvénients à cette formalisation (Cordier et al., 2009) : les mécanismes de raisonnement n’évoluent pas, les connaissances sont très spécifiques et les systèmes considèrent que la solution d’un problème conviendra à tous les utilisateurs. Or, dans un contexte de personnalisation de parcours pédagogiques, il est très délicat de modéliser a priori la manière dont les formateurs vont réaliser la personnalisation, car elle dépend de facteurs propres aux intentions et manières de faire du formateur, comme ses objectifs, ses stratégies, ses démarches ou ses approches pédagogiques. La connaissance qu’a le formateur de l’apprenant et son expérience de pédagogue jouent également un rôle essentiel. Le formateur doit donc pouvoir exprimer sa propre pédagogie dans une situation d’apprentissage informatisée (Lebrun, 2007a), comme il le ferait dans une situation non informatisée. Un environnement faiblement contraint, ou à large spectre (c’est-à-dire offrant de grandes possibilités d’usages différents à l’utilisateur) comme un EIAH ou un site Internet ne permet pas à son concepteur d’envisager toutes les manières d’interagir, ni d’anticiper des modèles de connaissances : cela figerait une fois pour toutes le processus de raisonnement. Les modèles de connaissance et de raisonnement ne doivent donc pas être préconçus. Comment peut-on les construire au fil de l’eau, à partir de l’expérience de l’utilisateur ? Nous pensons que les traces d’interaction (Settoutti et al, 2009) et le RàPET (Mille, 2005) offrent un paradigme de raisonnement adapté à ce genre de problèmes (Cordier et al., 2010). Une trace d’interaction est un objet informatique capable de représenter l’activité des uti- 4èmes Rencontres Jeunes Chercheurs en EIAH 71 Enjeux Bruno Mascret F IGURE 5: Deux traces reformulées par transformation, représentant un copier-coller réalisé à la souris et au clavier. Deux traces différentes peuvent représenter le même processus ; les transformations permettent de se placer dans un registre pertinent pour le raisonnement. lisateurs sous forme d’observations : les interactions de l’utilisateur avec l’environnement sont mémorisées sous forme d’observés, temporellement situés entre eux. Une trace peut également être transformée et reformulée en une autre trace incarnant un point de vue particulier sur l’activité tracée (figure 5). Des observés peuvent être associés pour former un épisode dans la trace : cet épisode correspond à un point de vue sur l’activité observée, et on lui associe une signature afin de pouvoir le retrouver dans une trace. Par exemple, les observés de la figure 5 pourraient constituer un épisode “copier-coller” dont la signature serait “Select text”, “CTRL C”, d’autres observés dont le type n’est pas important pour la signature, “CTRL V”. Décrire un épisode avec sa signature est une opération d’enrichissement des connaissances d’un système à base de traces. Actuellement, il n’existe pas, à notre connaissance de système fonctionnel ayant implémenté concrètement un mécanisme de RàPET dans un domaine dynamique et sans a priori sur la structure des épisodes. Que doit-on faire pour réaliser un tel système ? Modélisation d’un Système de Personnalisation de Parcours à Base de Traces Vers une architecture d’acquisition de connaissances pédagogiques à base de traces La figure 6 montre un système de personnalisation à base de traces tel que nous le concevons. Dans notre approche, 1 le formateur qui réalise un parcours pédagogique exprime des contraintes sur les objets pédagogiques du système (profils et tâches informatisées). Ces contraintes représentent le savoir-faire et l’expérience du formateur. 2 Les interactions du formateur avec le module d’élaboration de parcours sont tracées. Le formateur peut consulter ses traces et les reformuler dans des registres d’abstraction différents. Ces registres correspondent à des contextes ou des points de vue particuliers du formateur, comme ses différentes stratégies pédagogiques. Ce travail de reformulation permet au 72 F IGURE 6: Système de personnalisation de parcours pédagogiques à base de traces système d’acquérir des connaissances sur la manière dont le formateur souhaite formaliser son expérience. Dès que le système dispose de suffisamment de connaissances, il peut commencer à réutiliser l’expérience formalisée pour faciliter le travail d’élaboration et d’adaptation du formateur. Une fois le parcours pédagogique réalisé et affecté aux apprenants 3 , le système trace le parcours d’activités réalisé par l’apprenant. 4 La trace de l’apprenant est utilisée par le formateur pour lui permettre de détecter les éventuels problèmes d’apprentissage auxquels l’apprenant est confronté. 5 Le formateur va là encore exprimer son expérience pédagogique en reformulant cette trace pour se placer dans des registres permettant de formaliser les problèmes d’apprentissage. Cette formalisation de problèmes lui permet en dernier lieu de réviser le parcours qu’il a proposé : il peut expliciter sa révision de parcours en associant le problème détecté aux modifications des contraintes qu’il avait exprimé initialement. Le système acquiert ainsi des connaissances à la fois sur la résolution de problème d’apprentissage, mais également sur la manière de concevoir des parcours : l’idée est que lorsqu’un autre apprenant présentera des caractéristiques similaires, le formateur puisse lui proposer directement un parcours où le problème d’apprentissage détecté sera évité. Élements de l’architecture déjà existants Il existe de nombreux travaux portant sur la personnalisation en EIAH (Brusilovsky et Millán, 2007), (STICEF, 2011) et sur la représentation de parcours pédagogiques ou la manière de les concevoir (Gutiérrez et Pardo, 2007). Nous avons mené un état de l’art qui Amiens - 23 et 24 mai 2012 Acquisition interactive de connaissances pédagogiques pour la personnalisation d’EIAH nous a permis d’identifier plusieurs travaux que nous allons utiliser dans notre système de personnalisation. Notre objectif était de trouver des contributions permettant d’exprimer des contraintes sur deux types d’objets pédagogiques, les profils et les ressources pédagogiques, et de personnaliser les tâches des parcours. PMDLe (Eyssautier-Bavay, 2008), (Ginon et al. 2011) est un langage de modélisation de profils garantissant une grande généricité et de solides capacités d’adaptation à des situations d’apprentissage hétérogènes. Un langage d’expression de contraintes, cPMDLe, a été proposé par (Lefevre, 2009) dans l’approche GEP ET T OS et repris par (Ginon et al, 2011). Cette approche permet de lier des contraintes sur les profils à des contraintes sur les tâches. Dans (Lefevre et al., 2009), les auteurs présentent un modèle permettant l’acquisition de connaissances sur des EIAH à des fins de personnalisation. Ils identifient cinq types d’éléments personnalisables : les tâches, leur séquencement, les fonctionnalités disponibles, les retours proposés aux apprenants et les interfaces utilisateur. Seuls les deux premiers aspects rentrent directement dans le cadre de nos travaux. La principale limite vient du contexte d’utilisation de cette approche : elle a avant tout été pensée pour personnaliser des séances de travail, et la notion de parcours pédagogique se limite à un séquencement linéaire de tâches. Dans le cas de parcours pédagogique, il s’agit de personnaliser un ensemble de séances de travail et de les organiser entre elles. Toutefois, ces contributions répondent à la plupart de nos besoins pour réaliser le module de personnalisation de parcours, qui constitue un prérequis à nos travaux puisque c’est en instrumentant ce module que nous serons capables de tracer les élaborations de parcours. Acquisition de Connaissances pour la Personnalisation de Parcours avec les Traces d’Interaction L’idée d’observer avec des traces l’activité de l’utilisateur afin d’acquérir des connaissances réutilisables sur sa manière d’interagir avec le système n’est pas nouvelle (Settouti et al, 2007). Cependant, à notre connaissance et à l’heure actuelle, aucun système ne propose une implémentation concrète et utilisable en EIAH de ces mécanismes pour la personnalisation de parcours. Nous présentons deux approches permettant l’acquisition de telles connaissances : la première se situe au moment de l’élaboration du parcours par le formateur, la seconde lors de la révision du parcours suite à l’observation des traces d’interaction de l’apprenant par le formateur. F IGURE 7: Trace d’élaboration de parcours pédagogique et une de ses reformulations. en oeuvre pour exploiter ces connaissances. Nous allons maintenant montrer au travers d’un exemple en quoi notre approche répond à cette problématique. Reprenons les parcours pédagogiques de la figure 3. Voici ce que le formateur a effectué pour obtenir ces parcours : – il a exprimé des contraintes pour sélectionner les tâches nécessaires à la réalisation de l’excercice 7 (objectif) – il a ensuite exprimé des contraintes pour retirer du parcours les tâches de formatage pour les profils où cette compétence était acquise (prise en compte des acquis) – il a exprimé une contrainte sur une valeur du profil pour autoriser ou non les alternatives (présentation) La figure 7 montre la trace de son élaboration (trace num.1). Dans cette trace, les notions d’objectifs, de prise en compte des acquis ou de présentation n’apparaissent pas. Le formateur va donc réaliser des transformations pour exprimer ces nouveaux concepts (trace 2). Ces transformations représentent bien une formalisation de connaissances. Ensuite, le formateur peut également définir des épisodes qui correspondent à des connaissances qu’il souhaite réutiliser. Il associe à ces épisodes des signatures, afin de permettre au système de les retrouver dans une trace, et leur associe une solution. Le système acquiert bien des connaissances et des mécanismes de raisonnement sur ces connaissances. Connaissances sur la révision de parcours Nous avons montré dans la section précédente qu’une manière pour le formateur de personnaliser un parcours pédagogique était d’exprimer des associations de contraintes entre différentes sources de connaissances pédagogiques (profils, métadonnées sur les tâches, etc.). Nous avons également introduit dans notre problématique la complexité que représente l’utilisation de traces lorsque l’on ne dispose ni du modèle des connaissances à acquérir, ni des raisonnements à mettre Nous avons argumenté que présenter au formateur des traces d’apprenant lui permet de formaliser des problèmes d’apprentissage et d’expliciter ses révisions de parcours. Le processus correspondant est similaire à celui présenté pour l’élaboration de parcours. Cependant, l’utilisation de ces traces pose deux problèmes principaux : d’une part, sur le respect de la vie privée de l’apprenant (Butaniaou, 2011) ; d’autre part, sur la portée des connaissances acquises. En effet, chaque apprenant a son propre style d’apprentissage, commet ses propres types d’erreurs. Il est donc difficile de savoir si ce qui est valable pour un apprenant l’est aussi pour tous les autres. La réutilisation de ces connaissances est donc bien plus délicate car il est difficile de mesurer le degré de spécificité d’une révision. Une solution consisterait à caractériser le degré de spécificité d’une révision, et à exprimer sur quels éléments de similarité deux profils sont comparables pour une révision donnée. 4èmes Rencontres Jeunes Chercheurs en EIAH 73 Connaissances sur l’élaboration de parcours Bruno Mascret Perspectives Notre thèse s’inscrit dans le cadre des développements que l’entreprise Formagraph a réalisé sur sa plateforme pédagogique d’e-learning, IMAVIA, basée sur Claroline (http://www. claroline.net/index.php).Formagraph souhaite disposer d’un outil de personnalisation de parcours pédagogiques riches à partir des contenus qu’elle va proposer pour des apprenants en situation d’illettrisme. Nous commencerons par représenter les profils avec PMDLe, implémenter une structure pour les parcours pédagogiques autorisant l’expression d’alternatives, et à instancier GEP P ET OS pour Claroline. Nous chercherons ensuite à apporter une preuve de concept pour notre approche : nous développerons une interface dédiée au formateur pour l’élaboration de parcours pédagogiques, tracerons les élaborations de parcours par les formateurs et mettrons en place le système d’acquisition de connaissances.Nous aurons la possibilité d’évaluer notre approche, au sein de Formagraph ou grâce à nos contacts avec le consortium Claroline. Enfin, une fois ce premier prototype validé, nous l’augmenterons afin de prendre en compte les autres aspects que nous avons présenté dans cet article. Références Butoianu, V ; Vidal, P and Broisin, J. 2011. Prise en compte de la vie privée des usagers dans un système à base de trace dédié à l’apprentissage en ligne. in EIAH 2011. Brusilovsky, P and Millán, 2007. User Models for Adaptive Hypermedia and Adaptive Educational Systems. The Adaptive Web, vol. 4321, Lecture Notes in Computer Science, chapter 1, p. 3–53. Springer. Cordier, A. 2008. Interactive and Opportunistic Knowledge Acquisition in Case-Based Reasoning. Thèse de doctorat en informatique, Université Lyon 1. Cordier, A ; Mascret, B and Mille, A. 2009. Extending Case-Based Reasoning with Traces. In Grand Challenges for reasoning from experiences, Workshop at IJCAI’09, Pasadena, CA. Cordier, A ; Mascret, B and Mille, A. 2010. Dynamic Case Based Reasoning for Contextual Reuse of Experience. In Provenance-Awareness in Case-Based Reasoning Workshop. ICCBR 2010. p. 69–78, Alexandria, IT. Dimitracopoulou, A and Bruillard, E. 2006. Interfaces de Forum enrichies par la visualization d’analyses automatiques des interactions et du contenu. Special Issue on “Forum de Discussion en Education”, STICEF. Vol. 13. Djouad, T ; Benmohammed , M and Mille, A. 2010. Indicators computation from modeled traces in the context of computer Human Learning environment. In International Symposium on Modelling and Implementation of Complex systems, Constantine, p. 1-7, AL. Eyssautier-Bavay, C. 2008. Modèles, langage et outils pour la réutilisation de profils d’apprenants. Thèse de doctorat en informatique, Univ. J. Fourier Grenoble 1. Garrot, E. 2008. Étude du tutorat in Plate-forme support à l’Interconnexion de Communautés de Pratique (ICP). Application au tutorat avec TE-Cap, Chapitre 1. Thèse de Doctorat en informatique, INSA Lyon. Georgeon, O ; Mille, A ; Bellet, B.T ; Mathern, B. 74 and Ritter, F. 2011. Supporting activity modelling from activity traces. Expert Systems, DOI : 10.1111/j.14680394.2011.00584.x, paru en ligne (mars 2011). Ginon, B ; Jean-Daubias, S, and Lefevre, M. 2011. Evolutive learners profiles. In Proceedings of World Conference on Educational Multimedia, Hypermedia and Telecommunications, T. Bastiaens and M. Ebner, editors, p. 3311-3320, Lisbon, Portugal. Greffier, F ; Szilagyi, I and Domenget, J-C. 2011. Pour des parcours personnalisés via un système actif et sémantique d’apprentissage, in C. Dejean, F. Mangenot et T. Soubrié. Actes du colloque Epal 2011 Gutiérrez, S and Pardo, B. 2007. Sequencing in webbased education : Approaches, standards and future trends. Evolution of teaching and learning paradigms. Intelligent environement, vol. 62, Studies in Computational Intelligence. p. 83–117. Springer. Lebrun, M. 2007a. Quality towards an expected harmony : pedagogy and technology speaking together about innovation. AACE Journal, vol. 15(2), p. 115–130. Lebrun, M. 2007b. Théories et méthodes pédagogiques pour enseigner et apprendre : Quelle place pour les TIC dans l’éducation ?. 2ème édition revue, De Boeck, Bruxelle Lefevre, M. 2009. Processus unifié pour la personnalisation des activités pédagogiques : méta-modèle, modèles et outils. Thèse de doctorat en informatique, Université Claude Bernard Lyon 1. Lefevre, M ; Mille, a ; Jean-Daubias, S and Guin, N. 2009. A Meta-Model to Acquire Relevant Knowledge for Interactive Learning Environments Personalization. In ADAPTIVE 2009, p. 78-85, Athènes, Grèce. Mille, A. 2005. Raisonner a partir de l’expérience tracée (RàPET). Définition, illustration et résonances avec le story telling Minstrell, J. 1999. Expertise in Teaching. Chapter 12 in R. J. Sternberg and J. A. Horvath, Tacit knowledge in professional practice : researcher and practitioner perspectives. pp. 215-230. Psychology Press. Pernin, J-P. 2006 Normes et standards pour la conception, la production et l’exploitation des EIAH, Chapitre 9. In Environnements Informatiques pour l’Apprentissage Humain, Grandbastien M., Labat J.-M. (ed.), p. 201-222, Hermès, Paris Robbes, B. 2009. La pédagogie différenciée : historique, problématique, cadre conceptuel et méthodologie de mise en œuvre, janvier 2009. http ://www.meirieu.com/ECHANGES/bruno robbes pedagogie differenciee.pdf, p. 1–34 Settouti, L ; Prié, Y ; Marty, J-C and Mille, A. 2009. : Vers des Systèmes a Base de Traces modélisées pour les EIAH. Rapport de recherche RR-LIRIS-2007-016 Settouti, L ; Prié, Y ; Champin, P-A ; Marty, J-C and Mille, A. 2009. A TBMS framework : Models, languages and semantics. Research Report. STICEF, 2011, numéro spécial TICE, volume 18, sous la direction de Pierre-André Caron et Serge Garlatti Tchounikine, P. 2009. Précis de recherche en ingénierie des EIAH. Internet. http ://membres-liglab. imag.fr/tchounikine/Precis.html Zouaq, A. ; Nkambou, R and Frasson, C. Une architecture d’acquisition et d’exploitation des connaissances pour les EIAH, HAL, 2007 Amiens - 23 et 24 mai 2012 Vers une mise en relation des activités d’édition et de navigation dans les ressources d’apprentissage : cas de l’apprentissage d’un langage de programmation Mahdi Miled UMR Science Technique Education Formation ENS Cachan – ENS Lyon (IFE) – UniverSud 61, avenue du Président Wilson F-94235 Cachan cedex [email protected] Résumé Cet article suggère d'apporter des mécanismes d'aide à la navigation dans les ressources d'apprentissage et d'aide à leur conception et à leur édition. Nous souhaitons instaurer des éléments de liaison entre ces activités de conception ou d'édition avec celles de la navigation. Dans une ressource que nous concevons comme un graphe d’unités d’apprentissage, nous proposons de guider l’apprenant sans le contraindre et d’informer le concepteur sur l’usage à travers les traces de navigation. Dans le but de faciliter la navigation dans ce graphe de ressources et son édition, nous développons un prototype intégrant un outil de visualisation interactive. Grâce aux résultats des simulations effectuées sur cet outil, nous avons pu déterminer quel type de visualisation était le plus approprié pour le type de graphe et la situation d'apprentissage envisagée. Ces techniques nous semblent essentielles pour soutenir les apprenants dans leur guidage sur leur parcours d’apprentissage car elles permettent de bien discerner les dépendances dans les grands graphes évolutifs. Introduction Considérant la construction d’une ressource pour l’apprentissage du langage Python en autonomie (Ortiz 2012), nous sommes confrontés à la conception d’un grand nombre de parties constituant cette ressource, à leur organisation et à leur évolution à travers l’usage qu’en feront les apprenants. La question de la conception et de l'édition des ressources numériques d'apprentissage a été déjà abordée (Broisin et Vidal 2005). Dans le contexte participatif et collaboratif du web 2.0, les utilisateurs ne sont plus seulement consommateurs de contenus mais ils en sont également producteurs, contributeurs et annoteurs. Nous utilisons ici l’idée que le parcours des apprenants est une information utilisable par les concepteurs pour améliorer la ressource et le guidage des apprenants. Nos travaux s’inscrivent d’une part dans l’aide à la conception et la modification d’une ressource de haut niveau de granularité (cours, manuels de référence), et d’autre part dans l’aide à la navigation 4ièmes Rencontres Jeunes Chercheurs en EIAH dans un vaste réseau de parties homogènes et interdépendantes au sein d’une telle ressource. La première partie de cette communication présente l’articulation entre les activités d’édition et de navigation. Tout en montrant notre positionnement, nous passons en revue dans une deuxième partie, les environnements permettant d’utiliser des ressources d’apprentissage, les techniques de visualisation interactive des graphes ainsi que quelques fondements sur les traces. La troisième propose un modèle pour l’articulation entre édition et parcours. La quatrième décrit la méthode de mise en œuvre d'un outil de visualisation de graphes pour aider les apprenants dans leur navigation. La cinquième partie fixera quelques éléments d’évaluation avant la conclusion. Articulation entre les activités d'édition et de navigation : une relation non triviale De nombreux travaux ont traité des objets d'apprentissage (Pernin 2003) et de leur conception et leur édition plus spécifiquement, dans une optique d’ingénierie pédagogique (Paquette 2002) (Burgos el al. 2005) (Wiley et Gurell 2009). D’autres travaux se sont penchés sur l’accès et la navigation dans les ressources (Nash 2005) (Wolpers et al. 2008). Cependant peu s'intéressent à la relation entre ces activités d'édition et de navigation qui ont des objectifs différents, faisant intervenir concepteurs et apprenants. Points de cadrage et contraintes Dans le cadre d’un projet connexe visant l’élaboration d’un document numérique pour l’apprentissage du langage Python en autonomie (Ortiz 2012), nous disposons d’un grand nombre (plusieurs centaines a priori) d’unités d’apprentissage (non encore stabilisées en terme de contenu). L’ensemble de ces unités peut se formaliser sous la forme d’un graphe, où chaque nœud est une unité et chaque arc est une dépendance, notamment de type pré-requis. Ce graphe est le système nerveux de la ressource. Il éclaire les concepteurs sur la cohérence et la couverture de la ressource. Il sert aussi de carte aux apprenants pour les guider à travers la 75 Mahdi Mile ressource vers leurs objectifs. Bien qu'il existe d'autres approches pour modéliser les relations entre les unités (approche par compétences, connaissances sous forme d'ontologies), nous nous limitons à la relation de type pré-requis dans la représentation destinée à l’apprenant (parfois débutant) pour lui en simplifier la lecture. Comment peut-on améliorer la visualisation générale et aider à mieux naviguer dans ces ressources ? Nos contraintes de départ font que nous ne pouvons agir ni sur la structure du graphe, ni sur les types de dépendances entre ces unités. Nous souhaitons cependant offrir un système qui permet l’évolution d’un ensemble vivant de ressources prenant en compte l’expérience de l’apprenant. Pourquoi lier édition et navigation ? Il peut paraître peu conventionnel de vouloir créer une relation entre ces activités à priori séparées qui font appel à des acteurs poursuivant des buts différents. Dans la construction du graphe, le concepteur offre sa vision pédagogique d’expert. Par leurs parcours réels, leurs succès et leurs échecs, leurs retours en arrière, leurs nouveaux choix, etc., les apprenants nous livrent leur point de vue non expert. Nous pensons que les choix de l’un et les traces des autres devraient dialoguer pour permettre une évolution (contrôlée) de la structure du graphe des ressources. Ce dernier devra malgré tout assurer une certaine stabilité pour ne pas perturber l'apprenant si les changements s’opéraient trop fréquemment et à son insu. Comment lier ces activités ? Nous suggérons de tracer les actions des apprenants qui concernent notamment les consultations et validations des unités pour repérer les séquences d'unités constituant des parcours. Ainsi, les tendances dégagées permettraient d’informer statistiquement les tuteurs ou les concepteurs sur les différents parcours. On pourrait alors utiliser cette information dans l’édition/mise à jour d’une unité ou d’un parcours. Nous envisageons aussi d’offrir à l’apprenant, par le biais d’annotations, le moyen de commenter ou évaluer des unités ou des parcours proposés par les concepteurs. Ces informations (traces de navigation et annotations) peuvent servir à l’amélioration du graphe général afin d'avoir une mise à jour semi-automatique (soit par le système soit par la communauté). Nous décrirons ces idées plus en détail dans la section modélisation générale de notre proposition. Regard sur l’existant Il s'agira dans cette section de se positionner par rapport aux environnements d'accès aux ressources dont certains permettent l'édition selon un cycle de vie spécifique. Nous nous intéresserons aussi aux mécanismes d'accès et de navigation et notamment à leurs interfaces de visualisation. Enfin, nous expliciterons la nécessité des traces dans la relation entre navigation et édition. Environnements d’accès aux ressources La plupart des environnements liés à l’utilisation des objets d'apprentissage1 et à leur co-édition (Connexions, web) permettent de partager les ressources et de suivre leur évolution selon un cycle de vie caractéristique. Ces environnements peuvent prendre la forme de plateformes dédiées à un domaine spécifique comme l’apprentissage du langage Python (PythonLearn, web), ou de plateformes d’apprentissage en ligne LMS2 de type Moodle, Blackboard, Claroline ou même encore de dépôts de ressources tels que ARIADNE (Klerxk et al. 2010), MERLOT et LORNET. Ces types d'environnements regroupent bien souvent des ressources hétérogènes, isolées et rarement disposées d'une manière faisant ressortir une cartographie complète de leurs dépendances. Les sites dédiés à une thématique spécifique, s'ils apportent parfois un contenu exhaustif du domaine, ils ne s'inscrivent pas dans des objectifs d'aiguillage de l'apprenant et de retour sur la navigation. Notre proposition vise à soutenir l’enseignement et l’apprentissage d’un thème complexe faisant appel à de nombreuses ressources interdépendantes. Nous prévoyons une première implémentation dans le cas d'un environnement dédié à l'apprentissage de la programmation en Python. Visualisation et navigation dans les graphes La question de la recherche ou la sélection de l'information devient d'autant plus importante que la quantité d'information croît. La visualisation interactive des graphes peut résoudre certains problèmes d'accès et de présentation surtout si le graphe devient de plus en plus volumineux. Elle permet également de mieux identifier les dépendances entre les nœuds. Différentes techniques de visualisation et mécanismes de navigation et d’interaction sous-jacents existent (Hermann et al. 2000). Si la navigation dans les graphes permet de visualiser l’ensemble du graphe structurel, elle doit permettre en particulier de faire des opérations d’agrandissement/réduction, de déplacement panoramique et de focalisation sur une zone de prédilection consistant à mettre l’accent sur une région ou un sous-ensemble de nœuds. Pour ce qui est des différentes mises en formes (graph layout), on peut retenir celles qui se basent sur : - les lois des forces (Force Directed) : tous les nœuds sont en interaction selon la loi physique des forces. La visualisation peut être statique ou animée, le mouvement permettant de mieux appréhender les dépendances complexes, - les arbres hyperboliques (HyperTree), - les graphes radiaux (Rgraph) - ainsi que les arbres à tiroirs (Treemap). Le champ de la visualisation de l’information a déjà été introduit dans les EIAH, notamment sur des questions de visualisation des relations entre les objets d’apprentissage (Catteau et al. 2007) voire sur des questions d’aide à l’accès et à la recherche de ressources d'apprentissage déposées dans des réservoirs 1 Learning objects 2 Learning Management Systems 76 Amiens – 23 et 24 mai 2012 Édition et navigation dans les ressources d'apprentissage (Klerkx et al. 2004). Certains travaux soulignent les limites de l'accès et la recherche des ressources par des formulaires (Klerxk et al. 2005) et proposent des stratégies basées sur une visualisation et une navigation interactive. Pour notre part, nous comptons utiliser les types de visualisation ForceDirected, HyperTree et RGraph. Nous estimons que ce genre de visualisation interactive peut aider l'utilisateur à choisir la ressource et à mieux naviguer dans un graphe de ressources sans forcément avoir besoin de connaître leur intitulé pour les exploiter. Traçage des activités d'apprentissage Une trace est une collection d'observés temporellement situés (Djouad et al. 2010). Dans la littérature des EIAH, le recours aux mécanismes de traces a pour finalité la régulation ou l'auto-régulation de l'apprentissage (Heraud et al. 2005), la modélisation et le profilage de l'apprenant, la personnalisation et l'adaptation de l'apprentissage (Brusilovsky 1999) ou encore la réingénierie des EIAH (Choquet et Iksal 2007). Nous souhaitons exploiter les traces issues des activités de navigation et d'utilisation pour des besoins d'édition pour assurer, in fine, une meilleure évolutivité à la ressource dans son ensemble. Modélisation générale Notre orientation générale (Fig. 1) montre une mise en relation entre les activités de conception (et d'édition) des ressources qui sont généralement gérées par les enseignants et les activités d'utilisation et de navigation qui sont accomplies par les apprenants. Les activités de conception et d'édition sont fortement collaboratives car nous considérons dans notre hypothèse que les ressources de haut niveau (cours, manuels de références) que nous appelons également ressources complexes (Miled 2011) nécessitent plus d’un rédacteur pour en assurer l'adaptation et la contextualisation. données liées aux interactions entre les différents acteurs (commentaires, annotations…). Dans notre vision du cycle de la conception et de l'édition d'une unité jusqu'à son intégration dans un parcours, nous pouvons noter que cela implique quasiment tous les acteurs. Le concepteur écrit un patron d'unité qui sera suivi pour une majorité d'unités. Selon le besoin, une unité sera composée de microressources (exercice d'application, présentation d'un concept, tests). Une fois produite, l'unité pré-utilisable sera indexée, validée et publiée pour être accessible par les apprenants que ce soit dans un accès indépendant (unité seule) ou bien une unité intégrée dans un parcours correspondant à un objectif d'apprentissage. Si un contributeur (co-concepteur) veut apporter des modifications sur une unité, il peut générer une copie de la structure et ainsi l'adapter selon ses orientations. La gestion des droits se fait selon le modèle proposé par (connexions, web) qui stipule que le propriétaire original devient automatiquement co-auteur. On notera également, qu'il est possible d'avoir des responsables d'unités et de parcours pour mieux aider à mettre à jour et suivre les évolutions. En ce qui concerne la validation pédagogique d'une unité, nous nous sommes inspirés des états fournis par ADL SCORM (SCORM, web). Sur la figure 2, les rectangles désignent les différents états (de parcours) d'une unité. Les formes arrondies correspondent aux actions de l'apprenant. Celui-ci peut à tout moment s'évaluer (en effectuant le test) sans forcément parcourir le contenu d'une unité. Si le test est réussi, alors l'unité est réussie, sinon il est invité à obligatoirement parcourir l'unité avant de refaire le test pour la valider. Les actions suivantes sont optionnelles et consistent à soumettre du code3 (si l'unité l'indique) et consulter les composants de l’unité pour la parcourir en totalité. Figure 1 : Relation entre activité d’édition et de navigation Ils sont éventuellement encouragés par des moyens incitant au partage et à la modification. La ressource éditée peut guider les apprenants dans leur utilisation. Les tendances dégagées par rapport aux objectifs de validation et de respect de parcours, seront remontées aux concepteurs, créant ainsi une dynamique itérative permettant une évolution prenant en compte des données objectives (traces de navigation) et des 4ièmes Rencontres Jeunes Chercheurs en EIAH Figure 2 : États d’une unité et sa validation 3 Pour être spécifique à l'apprentissage de la programmation, nous prévoyons d'ajouter un état supplémentaire (code submitted). 77 Mahdi Mile Les principaux éléments du modèle ayant été décrits dans cette partie, nous présentons dans la suivante, l’approche méthodologique suivie. Approche et méthodologie Dans le but de mettre en œuvre nos éléments de réflexion, nous avons recensé et testé divers outils libres de représentation interactive des graphes. Ces tests nous ont permis de vérifier l’adéquation de ces outils aux types de graphes qui nous concernent. À partir du choix d'outil qui s'est dégagé, nous avons commencé à implémenter un prototype. Choix d'un outil de visualisation interactive de graphes L'identification des outils de visualisation des graphes nous a permis de cibler les outils proposant des bibliothèques libres. Nous avons finalement opté pour JIT4. Ce choix est dû aux riches types de visualisations et performances vu qu'il s'appuie sur une technologie cliente (Javascript). Il utilise comme entrée un format JSON5 pour la représentation des données. Intégration d'un outil et début de prototypage Tout en commençant à développer un prototype, nous avons intégré des visualisations du graphe des ressources et quelques sous-graphes représentant d'éventuels parcours. Les figures 3, 4 et 5 illustrent les rendus issus de ForceDirected, HyperTree et RGraph. Traces liées à l'édition et à la navigation Le prototype que nous sommes en train de développer sous Zend framework 1.11.3 propose (Fig. 6) de tracer les activités relatives à la navigation dans les ressources et d'autres spécifiques à leur édition. Ces traces sont sauvegardées dans des tables MySQL. En terme de navigation, le mécanisme de génération récolte l'ensemble des unités visitées qui représente le(s) chemin(s) parcouru(s) (parcours effectifs) par l'apprenant. L'interface JIT qui est couplée avec le framework Zend doit permettre aussi de renseigner d'une manière fine sur les états de validation d'une unité (cf Fig. 2). Cette fonction est en cours d'intégration. La mémorisation des activités d'édition permet de lister les évaluations des unités ou des parcours (suite d'unités), de modifier les métadonnées relatives à une unité donnée. La génération d'une copie/structure d'un graphe conformément à notre approche ainsi que l'exportation vers une archive SCORM doivent être incluses. Tous ces éléments paraissent nécessaires pour pouvoir gérer l’évolution de la structure globale du graphe. Ainsi, nous pouvons penser qu'une évaluation d'une unité aura un impact sur l'évolution globale du graphe. Par exemple, si N évaluations globales (comprenant plusieurs critères) font ressortir que l'unité U et que le parcours P doivent être modifiés et mis à jour, selon le degré d'imminence de la mise à jour, cette modification peut être faite soit par les contributeurs si cela concerne le contenu de l'unité, soit automatiquement s'il s'agit de réordonner un parcours. Figure 3 : Visualisation issue de ForceDirected Figure 4 : Visualisation issue de HyperTree Figure 6 : Processus de génération des traces d'édition et de navigation Eléments d'évaluation Nous souhaitons vérifier à présent la validité de certaines fonctionnalités et déterminer quel type de visualisation est le plus adapté à nos besoins. Figure 5 : Visualisation issue de RGraph Eléments d'évaluation analytique 4 Javascript Infovis Toolkit 5 JavaScript Object Notation 78 Afin de mesurer quelques indications sur l'utilisabilité, nous utilisons quelques principes basés sur une démarche analytique (Nogry et al. 2004) en nous appuyant sur des check-lists pour vérifier la conformité Amiens – 23 et 24 mai 2012 Édition et navigation dans les ressources d'apprentissage Comparatif des temps d'exécution Pour comparer les performances des différents outils de visualisation, nous avons suivi les étapes suivantes : - la construction aléatoire de graphes G (n, p) à l'aide de Gephi (Gephi, web) avec n le nombre de sommets et p la probabilité de connexion, - la production de fichiers de données contenant des listes d'adjacence, - la transformation des listes d'adjacence au format JSON, - et l'exécution du type d'algorithme et de visualisation selon les données récupérées précédemment. Le protocole a consisté à générer dix graphes aléatoires et à comparer les exécutions pour les trois algorithmes choisis : HyperTree (Fig. 4), ForceDirected (Fig. 3) et RGraph (Fig. 5) avec : n =10 et p=0,5; n = {50,100} et p =0,05; n = {224, 500, 1000} et p = 0,01; n = {2000, 3000, 4000, 5000} et p = 0,001. Nous avons mesuré les performances d'exécution de trois types de visualisation de la bibliothèque JIT (HyperTree, ForceDirected et RGraph) avec les caractéristiques suivantes : Windows XP SP3, 1Go RAM, 1,66 Ghz, et le navigateur Google Chrome. Cela s'est fait à l'aide de sondes et de transcription des données temporelles : les parties du code à tester ont été encadrées par des lectures de l’horloge (temps de début et temps de fin) pour déduire la durée totale en millisecondes et identifier le comportement de chacun des algorithmes en fonction de la taille des graphes. Nous avons eu recours (pour une majorité des cas) à une dizaine d'exécutions pour la même instance de test pour pouvoir calculer une moyenne de temps d'exécution. Néanmoins ces valeurs restent indicatives et il se peut qu'il y ait des valeurs différentes selon la charge du processeur et sa vitesse, le navigateur et la quantité de mémoire disponible. Les résultats comparatifs obtenus (Fig. 7) donnent une estimation de la complexité moyenne opérationnelle et permettent surtout de discerner le comportement de chacun des algorithmes pour de plus grands graphes. Ceci nous a montré que les algorithmes RGraph et HyperTree supportent mieux le passage à l'échelle, tandis que le temps d’exécution de l'algorithme ForceDirected croît 4ièmes Rencontres Jeunes Chercheurs en EIAH plus rapidement pour des valeurs élevées (presque 14 minutes pour n=3000, p=0,001). Cela peut facilement s'expliquer par une complexité accrue avec la simulation des lois des forces. Pour cet algorithme, nous n'avons pas pu relever les temps pour n=4000 et n=5000 (temps d’exécution supérieur à 30 minutes). RGraph semble à peine plus performant que HyperTree. En revanche ForceDirected ne peut être adapté qu'aux petits graphes (n<100). Nous avons utilisé une échelle logarithmique pour les temps d'exécution pour atténuer la distance entre les temps de ForceDirected et HyperTree/RGraph. Nous pensons que pour pouvoir visualiser l'ensemble des unités sous la forme d'un graphe, nous opterons plutôt pour le type HyperTree ou RGraph vu que les valeurs de temps restent acceptables même pour n=5000. Nous privilégierons tout de même ForceDirected pour des sous-graphes que nous appelons parcours (ce type de graphe ne dépasse pas les 100 nœuds). Son intérêt réside essentiellement dans la malléabilité de la navigation où l'utilisateur peut déplacer les nœuds et ainsi modeler et personnaliser la vue qui s'adapte le mieux à ses préférences. Temps d'exécution selon le type de visualisation (Probabilité de connexion p=0,001) 1000 Tem ps en secondes de ce qui est développé et en spécifiant des cas d’utilisation. Le système permet un accès à différents utilisateurs et une interface et des privilèges adaptés à chacun des profils d'utilisation (concepteur, tuteur, étudiant). Selon ses privilèges, chacun peut éditer les métadonnées d'une unité et évaluer certaines ressources. La navigation dans le macro-graphe se fait selon la visualisation HyperTree. Pour ce qui est des cas d’utilisation, nous pouvons imaginer un étudiant souhaitant parcourir certaines unités. Il emprunte pour cela une navigation "libre" en visitant des unités selon son choix. Les événements seront tracés en termes de chemins parcourus. Un autre cas d’utilisation serait de suivre un parcours proposé par un enseignant, et regarder si l'étudiant l'a bien suivi ou s'il a eu recours à d'autres unités. 100 HyperTree ForceDirected Rgraph 10 1 2000 3000 4000 5000 Nombre de noeuds du graphe Figure 7 : Temps d'exécution selon le type de visualisation Conclusion Nous avons présenté une approche permettant d'établir des liaisons entre les activités de conception ou d'édition des ressources d'apprentissage et les activités de navigation. Cela s'inscrit d'une part dans l'aide à la navigation dans un graphe de ressources interdépendantes notamment à travers la bibliothèque JIT qui propose une navigation dynamique, et de l'autre dans l'aide à la conception et l'édition de ces ressources. Ces activités qui concernent des acteurs différents (concepteurs, tuteurs et apprenants) peuvent être liées pour permettre une évolution du graphe des unités comme ressource globale d’apprentissage. Le prototype qui est en cours de développement mettra en œuvre la validation des unités par les apprenants et le mécanisme de traçage des activités. Nous envisageons d'impliquer les concepteurs et les étudiants dans une démarche participative. Cette démarche participative permet de confronter le prototype avec les usagers finaux. Nous tiendrons compte du retour d'usage sans pour autant nous attarder sur les aspects plus fins d’IHM et d’ergonomie. 79 Mahdi Mile Références Livres Paquette, G. (2002). L'ingénierie du téléapprentissage, pour construire l'apprentissage en réseaux, Presses de l'Université du Québec, mai 2002, 490 pages. Articles de Revue Brusilovsky, P. (1999). Adaptive and Intelligent Technologies for Web-based Education. In C. Rollinger and C. Peylo (eds.), Special Issue on Intelligent Systems and Teleteaching, Künstliche Intelligenz, 4, 19-25. Burgos, D., Arnaud, M., Neuhausser, P., & Koper, R. (2005). IMS Learning Design : la flexibilité pédagogique au service des besoins de l’e-formation. Revue de l’EPI. Choquet, C., et Iksal, S. (2007). Modeling tracks for the model driven reengineering of a tel system. Journal of Interactive Learning Research, vol. 18, p. 161-184. Djouad, T., Settouti, L. S., Prié, Y., Reffay, C., Mille. A. (2010). Un Système à Base de Traces pour la modélisation et l’élaboration d’indicateurs d’activités éducatives individuelles et collectives. Mise à l’épreuve sur Moodle. In TSI. 29(6). pp. 721-741. Nash, S. S. (2005). Learning objects, learning object repositories, and learning theory: Preliminary best practices for online courses. Interdisciplinary Journal of Knowledge and Learning Objects, 1, 217–228. Pernin, J.-P. (2003). Objets pédagogiques : unités d’apprentissage, activités ou ressources ?, Revue Sciences et Techniques Educatives, Hors série Ressources numériques, XML et éducation, pp 179210, avril, éditions Hermès. Wiley, D., & Gurrell, S. (2009). A decade of development… Open Learning: The Journal of Open and Distance Learning, 24(1), 11-21. Actes de Conférences Catteau, O., Vidal, P. & Broisin, J. (2007). A 3D Representation of Relationships between Learning Objects. In C. Montgomerie & J. Seale (Eds.), Proceedings of World Conference on Educational Multimedia, Hypermedia and Telecommunications 2007 (pp. 4262-4271). Chesapeake, VA: AACE. 80 Heraud J.-M., Marty J.-C., France L., Carron T. (2005). Helping the Interpretation of Web Logs : Application to Learning Scenario Improvement. Workshop AIED’05, Amsterdam. Herman, I., Melancon, G., & Marshall, M. S. (2000). Graph visualization and navigation in information visualization: A survey. IEEE Transaction on visualization and computer graphics, 6(1), 24–43. Klerkx, J., Duval, E., & Meire, M. (2004). Using information visualization for accessing learning object repositories. Eighth International Conference on Information Visualisation. April 2004. (p. 465–470). Klerkx, J., Meire, M., Ternier, S., Verbert, K., & Duval, E. (2005). Information visualisation: towards an extensible framework for accessing learning object repositories. Proceedings of World Conference on Educational Multimedia, Hypermedia & Telecommunications (p. 4281–4287). Miled, M. (2011). Les ressources complexes pour l’apprentissage: comment exploiter les traces d’utilisation et soutenir l’édition collaborative? Poster à la Conférence EIAH 2011, Mons, Belgique. Nogry, S., Jean-Daubias, S. & Ollagnier-Beldame, M. (2004). Évaluation des EIAH: une nécessaire diversité des méthodes. Proceedings of TICE (p. 265–271). Ortiz, P. (2012). Hypermédia adaptatif à épistèmes pour l'apprentissage des langages de programmation. Poster à RJC EIAH 2012, Amiens. Wolpers M., Memmel, M., Klerkx, J., Parra, G., Vandeputte, B., Duval, E., Schirru, R., and Niemann, K. (2008). Bridging Repositories to form the MACE Experience, New Review of Information Networking, 14:102–116, Taylor & Francis Group, LLC. Références sur le web Connexions - Sharing Knowledge and Building Communities http://cnx.org/ Gephi - Gephi, an open source graph visualization and manipulation software http://gephi.org/ PythonLearn Self-paced http://www.py4inf.com learning Python SCORM - Advanced Distributed Learning Initiative http://www.adlnet.org Amiens – 23 et 24 mai 2012 Intégration de raisonnements automatiques dans le système d’annotation MémoNote Hakim MOKEDDEM Ecole National Supérieure d’Informatique ESI BP 68 M Oued -Smar 16270, Alger, Algérie [email protected] Résumé Les raisonnements automatiques dans les EIAH se font à l’aide des programmes ad hoc, ces programmes sont parfois complexes à écrire et ne garantissent pas toujours la correction des résultats et la décidabilité. Nous proposons dans cet article des cas d’utilisations basés sur les raisonnements automatiques dans le logiciel d’annotation MémoNote en utilisant les standards du web sémantique. L’utilisation des raisonneurs standards permet d’éviter d’écrire des programmes ad hoc pour répondre aux cas d’utilisations. L’intégration de ces standards est évaluée selon l’interopérabilité avec d’autres systèmes, la complétude, la correction et la complexité ainsi que les fonctionnalités limitées du système. Des problèmes restent à étudier comme la complexité du système et son utilisation avec un grand nombre d’utilisateurs. MOTS CLÉS. Annotation sémantique, raisonnements automatique, web sémantique. Introduction L’annotation est l’une des activités les plus pratiquées parmi les enseignants sur les documents papier. Elle lui sert de mémoire externe qui soulage sa propre mémoire (Sperber 2001). Elle conserve ses opinions attachées au document sans utiliser de structure formelle. Avec la grande disponibilité des supports pédagogiques électroniques sur le web, l’annotation électronique devient nécessaire comme sur le papier. Pour pouvoir être traitée par des programmes informatiques, elle doit reposer sur une structure formelle tout en conservant la facilité d’annotation du papier. Plusieurs outils d’annotations existent dans la littérature. Certains visent uniquement à aider l’annotateur à utiliser une forme graphique pour ajouter des explications sur le document, comme Microsoft Word et iMarkup (iMarkup-SolutionsInc 2004). D’autres permettent l’interprétation de la sémantique des annotations par le logiciel 4ièmes Rencontres Jeunes Chercheurs en EIAH comme Annotea (KAHAN et al. 2001). Enfin des outils comme Melita (Ciravegna et al. 2002) automatisent le processus d’annotation par apprentissage automatique d’après les actions de l’utilisateur. Tous ces outils sont génériques et ne permettent pas de supporter les activités spécifiques d’annotation de l’enseignant d’où la nécessité de concevoir un outil d’annotation dédié à l’enseignant. C’est la raison du développement de MémoNote (Azouaou et Desmoulins 2006). Par l’usage de patrons d’annotation, il facilite la création efficace d’annotations dans un contexte pédagogique donné tout en mémorisant une sémantique accessible aux programmes informatiques. Il permet ainsi la recherche avec une sémantique pédagogique et la notification automatique des annotations de rappels en fonction du contexte. Cependant, la version actuelle de MémoNote est contrainte par des limites liées aux technologies non standards sur lesquelles il repose. En effet, MémoNote utilise la version de Protégé 3.x du langage Frame (Kifer et Lausen 1995) pour représenter les ontologies, ce qui limite l’interopérabilité avec d’autres systèmes. Ce langage ne garantit pas la correction des réponses aux requêtes faites sur l’ontologie, ni leur complexité, ce qui entraine des performances variables. La complétude des réponses n’est pas non plus assurée avec ce langage. A tous ces problèmes s’ajoute le problème des fonctionnalités limitées de la version actuelle de MémoNote. L’objectif de cet article est d’étudier l’intégration des technologies standards du web sémantique (Berners-Lee 1998) comme OWL (McGuinness et van Harmelen 2004) pour modéliser l’ontologie annotation afin de l’utiliser avec des systèmes de raisonnements standards et ainsi d’obtenir l’interopérabilité de MémoNote, la complétude et la correction des réponses ainsi que des bonnes performances du système. Pour atteindre ces objectifs, nous étudions en détail les limites de MémoNote et des autres systèmes pédagogiques utilisant des 81 Hakim Mokeddem raisonnements automatiques. Nous décrivons ensuite les besoins fonctionnels de l’enseignant en termes de cas d’utilisations qui montrent la nécessité de raisonnements automatiques. Pour implanter les requêtes correspondant à ces besoins, nous développons l’utilisation de requêtes basées sur des langages standards. Enfin nous évaluons cette utilisation de standards de représentation et de raisonnement automatique. 1. Limite des systèmes pédagogiques basés sur des raisonnements sur les ontologies. MémoNote mémorise les annotations à partir d’une ontologie des annotations. Cette ontologie permet de représenter les éléments de l’annotation de l’enseignant suivants : - Le contexte de l’annotation est représenté par les données de la séance d’annotation, qui est décrite par son enseignant, son lieu, ses dates de début/fin, son domaine et niveau d’apprentissage, son type d’activité d’enseignement et d’apprentissage. - L’épisode d’annotation comprend l’ancre d’annotation dans le document et sa date. - La forme graphique comprend la forme graphique et la couleur de l’annotation. - L’objectif de l’annotation est décrit par son type, sa force et des éléments liés à son type. Pour automatiser l’annotation, MémoNote utilise des patrons d’annotation qui permettent de déduire la sémantique de l’annotation à partir de son contexte et de sa forme graphique. Les patrons sont eux aussi représentés par une ontologie qui se réfère aux éléments de l’ontologie d’annotation. Le langage de Frame de la version actuelle de MémoNote permet de représenter les éléments de ces ontologies sous forme de classes et propriétés (slots) qui décrivent les classes et les relations entre ces classes. Cependant aucun raisonneur standard n’est fourni avec ce langage, ce qui nécessite le développement de programmes de raisonnement ad hoc. Aucun résultat théorique n’existe sur ce type de langage, ne permettant pas de garantir la correction, la complétude voire même les performances de ces programmes complexes à développer. Dans le domaine des EIAH, d’autres recherches utilisent les raisonnements automatiques sur les ontologies. (Henze et al. 2004) utilisent des raisonnements dans un système hypermédia adaptatif d’apprentissage en ligne. Le système utilise des ontologies RDF (Lassila et Swick 1999) pour modéliser les ressources pédagogiques, les utilisateurs et les observations faites sur les 82 supports pédagogiques. Pour raisonner, le système utilise le langage de règle TRIPLE RULE LANGUAGE (Decker et al. 2005). L’inconvénient de ce langage est l’écriture manuelle de toutes les règles pour assurer l’inférence. L’autre inconvénient est la difficulté d’exprimer des règles complexes avec ce langage. Par exemple, pour adapter le contenu à l’apprenant, le système doit afficher tous les bons exemples des concepts d’un cours, la règle consiste à rechercher tous exemples qui sont en relation avec tous les concepts du cours. Les recherches de (Huang et al 2006) ont abouti à l’implémentation d’un système de recherche sémantique des contenus pédagogiques d’un système d’apprentissage en ligne à partir du contexte. Le contexte est modélisé avec le langage RDF sous forme de triplet (sujet, prédicat, objet). L’utilisateur effectue ainsi la recherche à partir du contexte en spécifiant les paires (prédicat, objet) et le système extrait ensuite le contenu approprié. Par exemple pour rechercher un contenu à partir du contexte, l’utilisateur choisit comme objet différents contextes (université, forum, …), et le système lui affiche le contenu qui correspond exactement à ce contexte. L’inconvénient de ce système est la simplicité des requêtes faites et aucun raisonnement automatique n’est effectué. A partir de ces études, nous constatons que l’utilisation des raisonnements avec les technologies du web sémantiques dans les outils d’apprentissage est limitée. Et pourtant, comme nous montrons dans la section suivante, les raisonnements automatiques sur l’annotation et son contexte sont nécessaires pour fournir des services profitant pleinement de la sémantique formelle des annotations. Notre objectif est donc et d’étudier les capacités de raisonnements avec les technologies standards sur l’outil d’annotation MémoNote et la résolution des problèmes rencontrés en implémentant ces types d’inférences. Enfin nous évaluons cette utilisation de standards de représentation et de raisonnement automatique et le comparons aux travaux similaires. 2. Les besoins en raisonnement Pour définir les besoins en raisonnement, nous présentons maintenant des cas d’utilisations améliorant les fonctionnalités de MémoNote. Recherche d’annotations à partir d’un contexte. Cette recherche permet à l’enseignant de retrouver les annotations produites dans un Amiens – 23 et 24 mai 2012 Raisonnements dans MémoNote contexte sémantiquement équivalent à un contexte donné. Par exemple l’enseignant recherche les annotations telles que leur auteur est dans la classe des enseignants affectés au cours CH213 et tels que le lieu de leur séance d'annotation est à Grenoble campus. Le but de cette recherche est de retrouver les annotations produites dans tous les lieux inclus dans Grenoble campus. Recherche d’annotations à partir d’un objectif. Pour chaque annotation, l’enseignant renseigne le but pour lequel l’annotation est créée. Il peut ensuite retrouver les annotations qui ont un objectif similaire à objectif donné. Par exemple, il peut rechercher les annotations du groupe d’enseignants affectés au TP CH113 telles que l’intention de l’annotation est la vérification d’un calcul chimique. Suggestions de patron d’annotation L’utilisation des patrons d’annotation est importante pour l’enseignant. Ça lui permet d’automatiser le processus d’annotation. Avec la suggestion automatique de patron le système active automatiquement le patron à utiliser selon la forme graphique choisie et le contexte d’annotation. L’enseignant ne renseigne donc pas à chaque fois l’objectif de l’annotation, c’est le rôle du patron. Dans la partie suivante nous décrivons les raisonnements automatiques nécessaires à ces cas d’utilisations. 3. Raisonnements automatiques Nous commençons par présenter la représentation des annotations sur laquelle les raisonnements automatiques reposent. L’annotation est représentée par la classe Annotation et des sous-classes pour chacun des types d’objectifs (domaine, document et pédagogique). Elle est reliée à la classe Session (représentant le contexte de l’annotation) via la propriété made_during et à la classe Visual_Shape qui représente la forme graphique par la propriété has_visual_shape. Différentes classes représentent les éléments du contexte : le lieu de l’annotation (classe Location) relié au contexte par la propriété made_at_location. Chaque lieu peut être inclus dans un autre par la relation is_part_of. Les patrons d’annotations sont représentés par la classe AnnotationPattern. La classe AnnotationPattern est reliée aux classes Visual_Shape et Objective, ainsi qu’à toutes les classes qui représentent le contexte. Avec les langages de requête du web sémantique, on ne peut pas extraire toutes les 4ièmes Rencontres Jeunes Chercheurs en EIAH instances d’annotations pour chaque cas décrit. Par exemple, pour répondre à la première requête, si on utilise SPARQL (Prud’hommeaux et Seaborne 2008) le système extrait les annotations qui ont une relation made_at_location exactement égale à « Grenoble Campus » et non tous les lieux qui font partie du campus de Grenoble (par la relation is_part_of). L’utilisation d’un raisonneur pour faire l’inférence devient alors une nécessité. Le raisonneur permet ainsi d’extraire de nouvelles relations entre les classes, et de déduire de nouveaux types d’instances à partir de tout ce qu’on définit initialement dans l’ontologie. Nous détaillons maintenant les trois cas d’utilisations décrit précédemment d’un point de vu raisonnement automatique avec l’ontologie annotation écrite en OWL Recherche d’annotations à partir d’un contexte. Pour extraire toutes les annotations du cours CH213 qui ont eu lieu à Grenoble Campus, il faut utiliser la composition de la propriété made_at_location qui relie la classe Session à la classe Location et la propriété is_part_of qui relie la classe Location à elle-même. Session made_at_location Location et Location is_part_of Grenoble_campus->session made_at_location Grenoble campus. On extrait ensuite toutes les annotations de la session « Session » avec la propriété made_during. Avec OWL 1 on ne peut pas raisonner avec la composition de propriété chainée (Property chain). Il aurait fallu utiliser des règles, comme celles de SWRL (Horrocks et al. 2004). Avec SWRL on rajoute une règle à OWL et on utilise le raisonneur standard Pellet (Sirin et al.2003) qui utilise cette règle pour faire l’inférence. On implémente la règle SWRL à l’aide de l’éditeur Protégé (Noy et al. 2000). Protégé valide la règle et l’intègre dans le fichier OWL de l’ontologie. Pour extraire ensuite toutes les annotations de la session « Session » avec la propriété made_during on utilise le langage SPARQL. Recherche d’annotations à partir d’un objectif. Pour extraire les annotations qui ont pour objectif domaine « Vérification d’un calcul chimique » on utilise le raisonneur standard Pellet, pour extraire les annotations qui ont comme value de la propriété has_objectif une sous classe de la classe « Domain objectif». SPARQL ensuite vérifie si l’instance de chaque classe est exactement égale à « vérification d’un calcul chimique ». Suggestion de patrons d’annotations 83 Hakim Mokeddem Pour suggérer des patrons d’annotations, le raisonneur effectue une comparaison sémantique de type classe / sous-classes entre les différentes classes concernées (classe du contexte et de la forme graphique). Il commence par le contexte, il extrait tous les patrons ayant un contexte équivalent au contexte de la session courante. Il raisonne ensuite sur la forme graphique en inférant les classes ayant une forme graphique équivalente à la forme graphique de l’annotation. Pour répondre à cette requête, on utilise Pellet et SPARQL pour extraire les patrons qui correspondent au contexte de la session et à la forme graphique de l’annotation. 4. Evaluation Dans cette partie nous évaluons les solutions proposées dans cet article par rapport aux points soulevés dans l’introduction à savoir l’interopérabilité, la correction, la complétude et complexité et les fonctionnalités limitées et nous les comparons avec d’autres systèmes d’annotation et d’outil EIAH. Certains outils utilisent des langages standards comme l’environnement d’apprentissage TM4L (Dicheva et Dichev 2006) basé sur les Topic Maps (Biezunski et al. 1999). Elles permettent de représenter une ontologie sous forme de sujets du domaine (Topics) et des occurrences (instances des Topics). Cette représentation est basée sur la norme XTM (XML Topic Maps). Ce standard est rarement utilisé parmi les systèmes actuels à cause de ses limites en termes d’utilisations de raisonneurs standards fournis par rapport aux standards du W3C comme OWL. Notre système assure donc l’interopérabilité avec l’utilisation des langages du W3C et qui sont recommandés. Avec l’utilisation des raisonneurs standards sur OWL DL on s’assure que toutes les réponses des requêtes de l’utilisateur sont correctes. Les raisonneurs OWL vérifie ainsi la consistance de l’ontologie grâce aux contraintes définies. Quant à la complétude du système, avec OWL DL on peut exprimer tout le domaine de connaissances, répondre à toutes les requêtes de l’utilisateur grâce aux raisonneurs fournis. La question qui n’est pas encore résolue concerne la complexité de notre système. C'està-dire le coût obtenu en exécutant les requêtes par un raisonneur. En réalité, ces raisonneurs ne fournissent pas une telle information qui sert à étudier la performance de notre système actuel. Les fonctionnalités rajoutées à MémoNote augmentent l’utilisabilité de notre système. En effet, le rajout de la recherche automatique à partir du contexte ou l’activation automatique 84 des patrons lors de la création des annotations facilitent la tâche de l’enseignant en recherchant des annotations précédentes ou en annotant, mais l’enseignant a toujours besoins d’un outil plus puissant qui l’assiste dans ses activités d’annotations. Conclusion et perspectives Pour se servir de la sémantique des annotations de MémoNote, des raisonnements automatiques sont nécessaires. Ces programmes de raisonnements ne sont faciles à implémenter si nous n’utilisons pas des standards implémentant ces services de raisonnements. Nous avons proposé dans cet article d'utiliser des technologies standard plutôt que les approches ad hoc développées. Ainsi pour modéliser l’ontologie annotation, on a utilisé le langage OWL qui fournit une bonne base pour les raisonnements automatiques. L’utilisation de OWL permet ainsi de profiter de la disponibilité de raisonneurs standards comme Pellet. Avec ces standards on s’assure déjà de l’interopérabilité du système avec l’utilisation des technologies W3C. MémoNote s’intègre et communique facilement avec n’importe quel raisonneur OWL et système d’apprentissage utilisant ces standards qui permettent ainsi de fournir à MémoNote des requêtes sémantiques qui correspondent mieux aux besoins. Les raisonneurs standards sur OWL ont des propriétés bien établies : la complétude et la correction des raisonnements. En effet, on peut exprimer toutes les requêtes des utilisateurs avec un raisonneur OWL. On peut aussi prouver que toutes les réponses sont correctes ou non, car les raisonneurs OWL utilise le sous langage OWL DL basé sur la logique de description mathématique. Les nouveaux standards utilisés ont abouti à l’implémentation de nouvelles fonctionnalités pour l’enseignant. Ces fonctionnalités correspondent vraiment à des besoins pour les enseignants qui utilisent MémoNote. La recherche contextuelle sémantique des annotations permet à l’enseignant de retrouver les annotations produites dans un contexte sémantiquement équivalent au contexte de la recherche. La suggestion des patrons permet d’assister l’enseignant dans le processus de création de l’annotation en renseignant l’objectif de l’annotation d’une façon automatique. Dans nos perspectives de recherche, la question de complexité n’est pas bien établie. Nos raisonnements sont basés sur des raisonneurs qui ne fournissent pas des Amiens – 23 et 24 mai 2012 Raisonnements dans MémoNote informations théoriques sur la complexité de leurs programmes. Il est nécessaire donc de développer l’étude des performances sur nos requêtes et nos données. Le stockage des annotations dans des fichiers externes cause également beaucoup de problèmes de performances d’accès et de réponse. Un autre problème est lié aux conditions ACID (Atomicité, Cohérence, Isolation et Durabilité) des requêtes des utilisateurs. L’étude de l’intégration avec des systèmes de gestion des bases de données relationnelles comme Oracle (http://search.oracle.com ) ou Virtuoso (Erling et Mikhailov 2007) qui intègre les technologies du web sémantique comme RDF et OWL et qui assure à la fois les propriétés ACID et les bonnes performances. Une autre perspective concerne les besoins des enseignants. Une étude plus poussée des besoins avec des cas bien précis doit être menée pour déterminer si d’autres technologies comme OWL 2.0, SWRL et Pellet sont nécessaires. Et voir si ces technologies fournissent tout pour répondre à ces besoins, et si on a besoin de développer des programmes propres à nous dans ces cas. Références Azouaou,F. ;Desmoulins, C.2006. MemoNote, a context-aware annotation tool for teachers. In the 7th International Conference on Information Technology Based Higher Education and Training (ITHET´06), pp. 621-628. Berners-Lee T. 1998. Semantic Web Roadmap. World Wide Web Consortium (W3C) http://w3.org/DesignIssues/Semantic.html Biezunski, M.;Martin,B.; Steven R. Newcomb.1999.Topic Maps: Information Technology Document Description and Markup languages,. http://www.y12.doe.gov/sgml/sc34/document/01 29.pdf Ciravegna, F.; Dingli, A.; Petrelli, D.; Wilks, Y. "Timely and Non-Intrusive Active Document Annotation via adaptive Information Extraction", in Proceedings of the Semantic Authoring, Annotation & Knowledge Decker S. et al. 2005 TRIPLE - an RDF Rule Language with Context and Use Cases. In W3C workshop on Rule languages for interoperability, Washington D.C., USA. Dicheva, D. ; Dichev, C. 2006.TM4L: creating and browsing educational Topic Maps, British Journal of Educational Technology - BJET 37(3): 391-404 Erling ,O.; Mikhailov, I. 2007. RDF Support in the Virtuoso DBMS, in: CSSW. 4ièmes Rencontres Jeunes Chercheurs en EIAH Henze, N.; Dolog, P; Nejdl, W.2004. reasoning and ontologies for personalized elearning in the Semantic Web. Educational Technology & Society, 7, 4, 82–97. Horrocks, I.; Patel-Schneider, P.F; Boley, H.; Tabet, S., Grosof, B.; Dean, M. 2004 . SWRL: A semantic web rule language combining OWL and RuleML. http://www.w3.org/Submission/2004/SUBMSW RL-20040521/ Huang, W.; Webster, D.; Wood, D.; Ishaya, T. 2006b. An intelligent semantic e-learning technologies, British Journal of Educational Technology, Vol. 37 No. 3, pp. 351-73. iMarkup-Solutions-Inc. iMarkup client Vista, California, USA. Année d’accès 2012. URL du document http://www.imarkum.com Kahan,J.;Koivunen,M.R.; Prud'hommeaux, E.;Swick, R.2001.Annotea: An Open RDF Infrastructure for Shared Web Annotations. In The Tenth International World Wide Web Conference, Hong Kong, May, pp. 623-632 http://www10.org/cdrom/papers/488/index.html Kifer, M.; Lausen, G.;Wu, J. 1995. Logical Foundations of Object- Oriented and FrameBased Languages. Journal of the ACM. Lassila, O.; Swick, R. 2002. Resource Description Framework (RDF) Model and Syntax Specification. W3C Proposed Recommendation.. http://www.w3.org/TR/PRrdf-syntax. Markup Workshop (SAAKM) McGuinness, D.L; van Harmelen, F. 2004. OWL Web Ontology Language Overview, World Wide Web Consortium (W3C) recommendation, Feb.; www.w3.org/TR/owlfeatures. Noy, N.F.; et al. 2003. Protégé-2000: an opensource ontology-development and knowledge acquisition environment, AMIA Annu Symp Proc. p. 953. Prud’hommeaux,E.;Seaborn,A.2008. SPARQL Query Language for RDF. W3C Recommendation 15 January. http://www.w3.org/TR/rdf-sparql-query/ Sirin, E.; Parsia, B.;Cuenca, B.; Kalyanpur, A.; Katz, Y. 2003.Pellet: A Practical OWL-DL reasoner. submitted for publication to Journal of web semantics. Sperber, D. 2001. L’individuel sous influence du collectif", in La Recherche, vol. 344, pp. 3235. 85 Hakim Mokeddem 86 Amiens – 23 et 24 mai 2012 Modélisation outillée d’une stratégie contextualisée d’observation dans le cadre d’un environnement d’apprentissage Mohand Akli OUALI LUNAM Université, Université du Maine, LIUM (Laboratoire d’Informatique de l’Université du Maine) Avenue Olivier Messiaen, 72085 LE MANS CEDEX 9, France [email protected] Résumé De nombreux travaux de recherche s’intéressent à l’observation dans un environnement d’apprentissage. Notre travail s’inscrit dans cette ligne de recherche sur l’observation et l’étude des traces d’usage. L’originalité de nos travaux consiste en la proposition de la notion de stratégie d’observation qui nous amène à repenser l’observation en terme de scénario d’observation. Nous présentons, dans cet article, une introduction à notre travail de recherche et une idée générale de notre problématique et des travaux à réaliser. scénario, d’où la nécessité de lui donner des moyens permettant à la fois de comprendre les résultats de l’observation et d’exprimer l’évolution de ses besoins d’observation en fonction de la nouvelle situation adaptée lors du travail de réingénierie. Le traitement de ces données collectées en session d’apprentissage peut aussi intervenir après celle-ci (Mazza et Milani 2004). De nombreux travaux existent dans ce contexte mais la plupart nécessitent l’intervention d’un spécialiste du domaine (informaticien) pour assister l’enseignant dans l’expression de ses besoins d’observation et dans la compréhension des résultats d’observation pour l’amélioration du scénario d’apprentissage conçu initialement (Pernin et Lejeune 2004). Introduction L'observation des situations d'apprentissage dans un environnement informatique pour l’apprentissage humain est basée sur le traitement des données collectées durant le déroulement de la situation d'apprentissage (Loghin 2006). Le processus de production d’un EIAH doit intégrer une phase d’observation et d’analyse des usages, destinée à informer les concepteurs sur la qualité de la situation pédagogique mise en œuvre (Choquet et Iksal 2007). En interprétant les résultats de l’observation, un enseignant, dans son rôle de tuteur, peut guider l'activité d’apprentissage en essayant de comprendre les dysfonctionnements éventuels en rapport avec le scénario pédagogique conçu (Settouti et al. 2007). Il peut alors adapter la session, introduire des aides personnalisées et fournir des supports pédagogiques adaptés en fonction des comportements et des styles d’apprentissage des différents apprenants. Un enseignant concepteur peut exploiter les traces dans un travail de réingénierie du scénario pédagogique pour un meilleur déroulement de la session d’apprentissage (Djouad et al. 2010). Certains aspects de l’apprentissage ne peuvent être mesurés qu’en cours de session, comme, par exemple, le temps de réponse à une question, la part de travail individuel réalisé par chaque apprenant et la part du travail collaboratif entre différents apprenants échangeant des informations via les supports de communication offerts par la plateforme d’apprentissage. Ceci pourrait amener l’enseignant à des interventions en cours de session pour adapter son 4ièmes Rencontres Jeunes Chercheurs en EIAH Contexte de Recherche Notre travail s’inscrit dans le cadre de la chaine éditoriale de l’observation dans un Environnement Informatique pour l’Apprentissage Humain (EIAH) (Iksal 2011). Durant le déroulement de la situation d'apprentissage, l'observation a pour but de collecter des informations sur l'activité réalisée par les sujets observés. Notre travail sur l’observation de l’utilisation d’un EIAH nous conduit à considérer la terminologie relative à ce champ d’activité (Choquet 2007) : La trace : ensemble de données collectées par un dispositif d’apprentissage. Ces traces sont enregistrées, par exemple, dans des fichiers de « logs ». L’observable et l’observé : l’observable est toute variable définie comme devant être valuée par l’observation de l’utilisation d’un EIAH. L’observé est toute valeur d’observable. L’indicateur : un indicateur est un observable signifiant sur le plan pédagogique, calculé ou établi à l’aide d’observés, et témoignant de la qualité de l’interaction, de l’activité et de l’apprentissage dans un EIAH. Les objectifs de l’observation des sessions d’apprentissage peuvent être multiples pour un même acteur, ou d’un acteur à un autre. Par exemple, pour le concepteur, l’un des objectifs est d’avoir un feedback, une information précise et exploitable pour ce qui est de la convergence entre le scénario pédagogique conçu et le déroulement effectif de la session d’apprentissage. Pour le tuteur, l’un des objectifs serait d’avoir une visibilité sur la prise en compte par les apprenants des ressources mises à leur disposition et sur leurs productions pour les accompagner dans leur processus d’acquisition des connaissances. L’apprenant pourrait 87 Mohand Akli Ouali avoir aussi besoin de vérifier son état d’avancement et sa situation dans le groupe, comme il peut utiliser sa propre trace à postériori pour comprendre sa démarche, etc. Ces différents objectifs d’observation nécessitent la mise au point d’une stratégie pour le suivi ainsi que l’analyse du déroulement et des échanges au cours d’une session d’apprentissage. La diversité des environnements de développements, des plateformes d’apprentissage et des techniques de collecte des traces a fait que la définition des stratégies d’observation et l’interprétation des résultats de l’observation sont difficiles. Dans le cadre des travaux sur la réingénierie des EIAH, Choquet et Iksal (Choquet et Iksal 2007) ont proposé un langage de description formelle des indicateurs pédagogiques. Le langage UTL (Using Tracking Language) proposé, permet, en partant de l’expression du besoin d’observation, de bâtir un indicateur à partir des données brutes de manière indépendante du langage utilisé pour la définition du scénario pédagogique et du format dans lequel les traces sont représentées. Diem Pham Thi Ngoc dans sa thèse (Pham Thi Ngoc 2011) propose un langage (DCL4UTL : Data Combination Language for UTL) qui est une extension d’UTL pour permettre une description formelle des méthodes de calcul automatisé des indicateurs à partir des traces collectées et des besoins d’observation exprimés à l’aide d’UTL. La formalisation des indicateurs les rend capitalisables et éventuellement réutilisables. Autrement dit, cette manière de procéder permet de stocker les indicateurs pour une exploitation future et une réutilisation sans redéfinir, à nouveau, les données nécessaires à leur calcul. Boubekeur Zendagui, dans sa thèse (Zendagui 2010), s’est interrogé sur la manière de faciliter pour l’enseignant l’expression de ses besoins d’observation et a proposé un outil graphique (ProtON : Prototype for the specification of Observation Needs) permettant de définir ces besoins d’observation en s’appuyant sur les informations spécifiées dans un contexte particulier en lien avec le scénario pédagogique. UTL offre à l’enseignant la possibilité d’exprimer ses besoins d’observation de manière textuelle puis un analyste se charge de la définition des données nécessaires au calcul de l’indicateur. ProtON offre une interface graphique permettant de définir les besoins et les objectifs d’observation mais ne permet pas de spécifier d’autres observables, en cours de session, que ceux prédéfinis. Avec DCL4UTL, le calcul des indicateurs est formalisé et automatisé mais les résultats retournés à l’enseignant sont sous une forme textuelle (voire texte structuré comme XML) réduisant ainsi les possibilités d’exploitation de l’information par le concepteur. Notre travail s’inscrit dans la perspective d’apporter aux acteurs du système d’apprentissage, et notamment à l’enseignant concepteur, un ensemble d’outils permettant de définir des stratégies d’observation de manière autonome à partir d’une interface de visualisation ergonomique et intuitive et ce avant, pendant ou après la session d’apprentissage. Le 88 destinataire de l’observation récupère les résultats du calcul des indicateurs à partir de son interface de visualisation. Le travail à réaliser doit permettre de capitaliser, autrement dit de stocker et de sauvegarder les stratégies d’observation pour qu’elles puissent être réutilisées. La solution à proposer doit garantir aussi l’extensibilité des stratégies d’observation qui consiste en la possibilité d’ajouter des indicateurs aux stratégies définies précédemment afin de les adapter à un nouveau contexte d’observation. Notre objectif dans le cadre de cette thèse consiste à proposer un langage, couplé à UTL, permettant de spécifier des stratégies d’observation. Pour des raisons de complexité de manipulation de ce langage, notamment par des non informaticiens, il sera également nécessaire de développer un éditeur graphique pour la définition des stratégies d’observation et de proposer des outils de visualisation pour faciliter l’interprétation des résultats de l’observation. Identification des besoins Il existe, dans la littérature scientifique, des travaux de recherche qui se sont intéressés à l’observation et à la mise à disposition des destinataires des résultats de l’observation, d’outils permettant une meilleure interprétation de ces résultats. L’outil « REFLET » (Després et Coffinet 2004) permet de visualiser l'évolution du travail d’un apprenant ou d’une promotion d’apprenants en formation ouverte à distance. Les interfaces tuteurs et apprenants sont quasiment les mêmes. Le tuteur peut visualiser l’état d’avancement d’un apprenant dont il a la charge ou comparer l’avancement de tous les apprenants d’un même groupe. Il peut également contre-valider des tâches déjà validées par les apprenants. L’apprenant peut visualiser son état d’avancement dans la réalisation des activités et savoir si une activité validée précédemment a été contre validée par le tuteur. Il peut comparer son état d’avancement à l’état d’avancement des autres apprenants qui restent anonymes à son niveau. « GISMO » (Graphical Interactive Student Monitoring System for Moodle) (Mazza et Milani 2004) permet d’extraire les traces des activités des apprenants sur Moodle et les affiche sous la forme d’un graphe représentant le nombre d’accès aux différentes ressources Moodle et les dates de ces accès par les différents apprenants. Les informations visualisées permettent à l’enseignant de mesurer la popularité des ressources mises à la disposition des apprenants et de détecter les styles d’apprentissages. GISMO permet aussi, à l’enseignant, de visualiser le nombre de messages envoyés ou reçus pour chaque apprenant. L’outil « CourseVis » (Mazza et Dimitrova 2004) est utilisé pour la visualisation 3D des traces issues des plateformes WebCT (WebCT est un spécialiste de la formation en ligne pour universités et grandes écoles. Il édite des solutions de téléformation permettant aux Amiens – 23 et 24 mai 2012 Modélisation outillée d’une stratégie contextualisée d’observation établissements de proposer à leurs apprenants des cours en ligne. WebCT a été rachetée en 2006 par Blackboard et porte désormais le nom de l’acquéreur). Le but de « CourseVis » est de faire des visualisations à partir de calcul d’indicateurs et des mesures statistiques. CourseVis permet aux tuteurs qui n’ont pas un niveau de technicité élevé, de disposer d’une sorte de tableau de bord leur permettant d’analyser le comportement des apprenants distants et leurs échanges. CourseVis peut s’accomoder à plusieurs plateformes. Néanmois, il se limite à la visualisation des indicateurs initialement prédéfinis dans la plateforme qui héberge les ressources pédagogiques en ligne et ne permet pas au tuteur d’exprimer d’autres besoins d’observation spécifiques à une session d’apprentissage particulière. Les travaux réalisés dans (France et al. 2006) sur la visualisation des traces à l’aide des figures de Chernoff permettent aux tuteurs de voir en temps réel les activités des apprenants, les parcours effectués et les activités réalisées ou en cours de réalisation au sein de l'EIAH, et d'adapter l'activité en interagissant directement sur l'interface de visualisation. La représentation des traces par des outils de visualisation permet à l'enseignant/tuteur de comprendre ce qui se passe réellement, pour pouvoir réagir avec pertinence et suivre l’activité des apprenants en session. Dans (May 2009), l’auteur s’intéresse aussi à la visualisation des résultats de l’observation en temps réel. L’observation se focalise sur une activité plus restreinte : l’utilisation d’un forum. Dans ce travail, les traces sont générées par l’apprenant lecteur. Les destinataires des traces sont multiples : l’apprenant, l’enseignant ou le chercheur. La manipulation de la trace est faite en temps réel. Il s’agit de calculer de manière automatique le nombre de messages non lus ou le temps passé pour la lecture d’un message. Dans (Avouris et al. 2007), les auteurs ont étudié les traces des activités en incluant les enregistrements vidéos et audio afin de pouvoir construire une vue complète de l’activité de collaboration et des comportements des apprenants lors d’une situation d’apprentissage, en ne se limitant pas seulement à l’analyse des fichiers de logs. Les auteurs décrivent un outil d’analyse des traces ColAT (Collaborative Analysis Tool). ColAT permet de visualiser les traces sous différentes formes comme les fichiers de logs et les enregistrements vidéo. L’outil Digital Replay System (DRS) présenté dans (Greenhalgh et al. 2007) est une application pour la relecture et l'analyse des combinaisons d’enregistrements vidéo, des transcriptions et des fichiers de logs. DRS a été développé au sein du Digital Records pour l'e-Social Science (DRESS) au cœur du Centre national pour l'E-Sciences Sociales (NCESS). Il utilisé pour l’analyse et l’observation des sessions l'apprentissage, par exemple, via des simulations de sessions d’apprentissage de l’anglais parlé, et même pour l’analyse de la gestuelle. 4ièmes Rencontres Jeunes Chercheurs en EIAH Dans leurs travaux sur l’étude des interactions et la collaboration dans l’apprentissage dans le développement des connaissances (Damsa et Ludvigsen 2010), les auteurs ont conçu des outils d'analyse et d’observation intégrés dans le système KPE (Knowledge Practices Environment ) qui est un environnement web 2.0 offrant un espace virtuel de collaboration entre apprenants. Les traces collectées dans cet environnement ont permis de construire des aperçus généraux sur le nombre et le type de contributions de chaque participant. L’outil développé est doté d’un analyseur visuel des contributions par utilisateur et d’un analyseur chronologique qui permet de représenter les distributions de types de contributions dans le temps. Les travaux de (Goodman et al. 2008), dans le projet MITRE-Sponsored Research (MSR) se sont intéressés à l’étude des échanges entre les intervenants dans une équipe de discussion pour la prise de décision sur une question posée. L’objectif concerne la synchronisation des interventions afin de comprendre la dynamique de la construction des décisions. Pour mener à bien leurs travaux, les chercheurs ont développé un outil d’analyse et d’observation permettant de visualiser les flux de données synchronisés en les représentant sur un axe temporel horizontal. Cet outil a été nommé le Synchronized Analysis Workspace (SAW). La visualisation des flux de données dans SAW permet d’aider les analystes dans leurs processus d’étude et de compréhension des interactions entre les personnes concernées par la prise de décision. ABSTRACT (Analysis of Behavior and Situation for menTal Representation Assessment and Cognitive acTivity modeling) (Georgeon et al. 2006) est un outil permettant d’analyser l’activité d’un acteur humain qui interagit avec un dispositif technique complexe. L’activité est observée et les traces collectées sont modélisées sous la forme d’un graphe. Les traces collectées sont essentiellement constituées de descripteurs d’événements qui se suivent. L’objectif général d’Abstract est de comprendre le comportement d’un utilisateur utilisant un artefact technique complexe. Dans (Morrison et al. 2006), les auteurs présentent la plateforme Replayer qui offre un ensemble coordonné d’outils de visualisation permettant l’analyse et la compréhension d’informations de différentes natures. Replayer combine des outils de visualisation vidéo et des histogrammes ou la représentation d’événements sur un axe temporel horizontal. Tatiana (Trace Analysis Tool for Interaction Analysts) (Dyke et al. 2010) est un environnement logiciel basé sur le modèle de description des activités d’apprentissage collaboratif médiatisé par ordinateur. Ce modèle est conçu pour aider les chercheurs à gérer, synchroniser, visualiser et analyser leurs données. Dans ce travail, les auteurs ont introduit la notion de « rejouable » qui est un type particulier d’artéfacts, temporellement orientés, qui conservent la notion 89 Mohand Akli Ouali d’ordre des évènements. Les rejouables peuvent être visualisés dans deux types d’afficheurs : une forme tabulaire et une visualisation temporelle horizontale. Un mécanisme de plugin permettant d’ajouter de nouvelles formes de visualisations a été intégré dans Tatiana et un éditeur graphique permettant de générer les rejouables a été mis à la disposition des chercheurs afin de ne pas les contraindre à maitriser un langage de requêtes. Tatiana a été intégré à plusieurs travaux de recherches. Dans cette section, nous avons présenté certains travaux de recherche axés sur l’observation des traces d’usage de systèmes informatiques, pour la plupart dédiés à l’apprentissage. Ces travaux ont permis de développer des outils de visualisation des résultats de calcul des indicateurs. Les outils développés permettent de mettre à la disposition des destinataires des résultats de l’observation, des moyens leur facilitant la compréhension des résultats du calcul des indicateurs à partir des traces collectées lors de l’observation des sessions d’apprentissage. Certains de ces outils permettent le suivi des situations d’apprentissage en temps réel (France et al. 2006). D’autres se limitent à la possibilité de visualisation à la fin de la session d’apprentissage (Mazza et Milani 2004). Certains outils combinent plusieurs types de visualisation pour le même indicateur (Avouris et al. 2007), tandis que d’autres optent pour la visualisation des indicateurs suivant l’axe temporel horizontal (Goodman et al. 2008), par des graphes de contingence ou par les figures de Chernoff (France et al. 2006). Quelques outils montrent les possibilités d’analyses des traces assistées par ordinateur mais sont spécialisés à certains types de données et nécessitent d’adapter leur fonctionnement aux EIAH (Greenhalgh et al. 2007). D’autres outils sont destinés plus aux tuteurs afin de leur apporter des éléments pour suivre et superviser une session d’apprentissage qu’aux concepteurs du scénario pédagogique (Després et Coffinet 2004). Ils ne leur offrent, par conséquent, que peu de possibilités d’intervention pour réguler la situation d’apprentissage sans leur donner les moyens de modifier ou d’adapter leur stratégie d’observation au cours d’une session d’apprentissage. Les indicateurs calculés et visualisés pour la plupart ne concernent que l’activité de communication entre les participants à la session (May 2009). Certains travaux se sont limités au développement d’outils spécifiques aux traces générées par une seule plateforme d’apprentissage, ce qui ne permet pas leur exploitation sur d’autres plateformes (Mazza et Dimitrova 2004). On notera aussi que la plupart des outils ne permettent la visualisation que de peu d’indicateurs qui sont portés sur les échanges de messages dans la majorité des cas. Certains travaux ont été validés par un large panel d’expérimentations mais présentent néanmoins des problèmes d’ergonomie et de facilité d’utilisation (Dyke et al. 2010). Problématique Le travail à réaliser dans le cadre de cette thèse porte sur la notion de stratégie d'observation. La stratégie d’observation est propre au destinataire des indicateurs 90 (l'enseignant, l’apprenant, le concepteur). Elle est constituée d'un ensemble d'indicateurs avec leurs interfaces de visualisation, d'un ensemble de règles de composition des indicateurs ainsi que du contexte d'utilisation de cette stratégie. Même si la stratégie d’observation peut évoluer au fur et à mesure des usages, elle doit néanmoins être pensée en amont de la situation d’apprentissage. Elle a pour but de mener de manière efficace l’activité d’observation en mettant à disposition de l’enseignant/concepteur des instruments lui permettant d’exprimer ses besoins d’observation en répondant aux interrogations suivantes : ce qu’il faut observer, le moment de l’observation (pendant la session, après la session, à la réalisation d’une action, etc.), l’objectif de l’observation (évaluation des apprenants, adaptation du scénario pédagogique, suivi d’une session d’apprentissage, etc.), le destinataire de l’observation et la forme de restitution des résultats de l’observation (tableau de bord de l’observation). On cherche à formaliser ces stratégies d’observation et à mettre à la disposition de l’enseignant/concepteur des outils lui permettant de modéliser ses stratégies en fonction du contexte et des objectifs de l’observation. La première question à laquelle il faut répondre dans le cadre de ce travail est la suivante : Comment modéliser la définition des stratégies d’observation par l’enseignant/concepteur ? Le but recherché est de doter l’enseignant concepteur d’un tableau de bord d’observation à partir duquel il pourra manipuler des objets graphiques pour modéliser ses stratégies d’observation de manière autonome (sans l’assistance d’un spécialiste). En effet, il convient de lui éviter toute manipulation technique qui pourrait le contraindre à spécifier des stratégies d’observation en fonction de ses capacités de manipulation et non pas en fonction de ses objectifs d’observation. Le langage à proposer doit permettre à l’enseignant/concepteur de définir ses scénarios d’observation en fonction de la visibilité qu’il veut avoir du déroulement de la session d’apprentissage et en fonction de ses objectifs d’observation. Comment modéliser la scénarisation de l’observation ? Comment accompagner l’enseignant/concepteur dans la spécification de sa stratégie d’observation ? Le tableau de bord à réaliser doit disposer d’un processus d’accompagnement pour la création de modèles ou de profils de stratégies qui seront sauvegardés pour permettre une réutilisation future (imaginons le cas où une même session d’apprentissage est réalisée avec plusieurs groupes d’apprenants et à des moments différents) ainsi que la possibilité de modéliser d’autres stratégies d’observation à partir des profils sauvegardés en ajoutant des indicateurs et en en éliminant d’autres. Ces nouvelles stratégies doivent pouvoir être sauvegardées comme profils de stratégies à leur tour. Les stratégies d’observation modélisées devraient être extensibles. L’extension de ces stratégies pourrait se faire de deux manières : la première consiste en l’ajout d’un ou plusieurs indicateurs parmi Amiens – 23 et 24 mai 2012 Modélisation outillée d’une stratégie contextualisée d’observation les indicateurs prédéfinis et qui n’ont pas été sélectionnés initialement, la seconde serait la définition par l’enseignant/concepteur de nouveaux indicateurs au travers de l’expression de nouveaux besoins d’observation dus à l’évolution des objectifs d’observation. Cette extensibilité est due aussi à la nature du contexte d’utilisation qui nécessite l’adaptation du scénario de l’observation. Comment formaliser la modélisation des stratégies d’observation dans un but de réutilisation ? Comment procéder pour adapter la d’observation au contexte d’utilisation ? stratégie L’un des aspects les plus importants du travail à réaliser est la proposition d’une solution de visualisation graphique des résultats de calcul des indicateurs définis lors de la description de la stratégie d’observation par l’enseignant concepteur. Plusieurs moyens de visualisation seront décrits et modélisés pour chaque indicateur. L’enseignant concepteur devrait disposer d’une palette d’outils pour sélectionner un type de graphique adéquat en fonction de la nature de l’indicateur. Cette tache de sélection est nécessaire surtout pour les indicateurs définis après la mise en place de la situation d’apprentissage. Pour les indicateurs existants, des modèles de visualisation appropriés pourraient être associés à chacun d’eux. L’apprenant pourrait être, aussi, destinataire des résultats du calcul d’indicateurs. Les indicateurs pertinents pour l’apprenant seront choisis par l’enseignant. Si l’indicateur mis à la disposition de l’apprenant fournit des informations sur le groupe, la visualisation faite doit permettre de conserver l’anonymat des autres apprenants. Ceci sous-entend la nécessité d’avoir plusieurs vues d’un même indicateur. La multiplicité des graphiques pouvant être proposés pour la visualisation des indicateurs, la spécialisation des usages de ces graphiques et le souci d’assurer un meilleur choix de visualisation pour une meilleure compréhension et donc une meilleure interprétation nous amène à essayer de répondre à cette question : Comment adapter la forme de visualisation des résultats de l’observation à la nature de l’indicateur ? Dans quelles limites faut-il laisser à l’enseignant le libre choix de personnalisation de la visualisation ? Propositions Les plateformes d’apprentissage sont manipulées par différents acteurs : les tuteurs, les apprenants, les enseignants/concepteurs, etc. où chaque acteur joue un rôle bien précis dans le processus d’apprentissage. Les acteurs de l’EIAH, le concepteur et le tuteur notamment, expriment des besoins d’observation du déroulement des sessions d’apprentissage pour récupérer des informations pouvant servir dans un objectif de réingénierie du scénario pédagogique, d’adaptation ou d’évaluation. 4ièmes Rencontres Jeunes Chercheurs en EIAH Le travail qui sera réalisé dans le cadre de notre thèse va porter sur la proposition de modèles de définition de stratégies d’observation et leur instrumentation pour l’enseignant/concepteur. Pour mener à bien ce travail et répondre aux questions soulevées dans la problématique, plusieurs propositions peuvent être faites : Une première proposition concerne l’instrumentation des utilisateurs de l’EIAH avec un tableau de bord d’observation permettant de répondre à leurs objectifs d’observation. Le tableau de bord ne doit pas avoir une interface figée dans le temps mais l’éditeur de stratégies à proposer devra permettre de générer dynamiquement le tableau de bord et ce en fonction du scénario de stratégie d’observation conçu par l’acteur concerné par la demande d’observation. La génération dynamique du tableau de bord se fera soit à la modélisation d’une nouvelle stratégie d’observation soit à l’adaptation ou à l’évolution d’une stratégie d’observation spécifiée auparavant et capitalisée. Une seconde proposition concernerait la méthode de visualisation des indicateurs calculés. Pour cela, la méthode de visualisation et les graphiques appropriés pour chaque indicateur seront prédéfinis. Cette prédéfinition sera basée sur le choix des graphiques qui conviennent le plus à la nature de l’indicateur et qui servirait mieux les objectifs ayant conduit au calcul de l’indicateur. Une caractérisation des indicateurs sera, du fait, nécessaire en apprenant, par exemple, leur évolution en fonction du temps ou s’ils ciblent un individu ou un groupe. Cette présélection des outils de visualisation aura pour objectif d’apporter la meilleure représentation possible dans le but d’une compréhension facilitée pour les acteurs concernés. Néanmoins, une palette de graphiques sera mise à la disposition de l’enseignant pour lui permettre de choisir une autre visualisation de l’indicateur. Un travail de fond sera réalisé, au préalable, sur la qualification des graphiques afin de faire une association entre les graphiques et la nature des indicateurs. Une troisième proposition concerne la modélisation d’assistants permettant à l’enseignant de définir sa stratégie d’observation et de créer des modèles de stratégies réutilisables. Le but de ses assistants est de permettre à l’enseignant de se sentir guidé lors de la modélisation de ses besoins d’observation. L’utilisation des assistants s’avère nécessaire dans un but de familiarisation et de prise en main par l’enseignant des fonctionnalités de son éditeur de définition de stratégies d’observation. L’enseignant peut toujours se passer de l’utilisation de l’assistant. Pour réaliser notre travail, nous allons suivre une orientation DSM (Domain Specific Modeling) (Kelly et Tolvanen 2008) qui est une approche outillée pour la spécification de méta-modèles et de langages graphiques. C’est une approche de développement orientée modèles favorisant l’utilisation des modèles pour la description de toutes les caractéristiques 91 Mohand Akli Ouali propres à un domaine particulier lors du développement de logiciels pour celui-ci. Le DSM apporte à la communauté des enseignants/concepteurs un environnement support pour la spécification graphique des scénarios d’apprentissage (Laforcade et al. 2007). Cette approche permettra d’augmenter le niveau d’abstraction en comparaison aux langages de programmation et d’automatiser la génération de code pour l’application de tableau de bord. Références Avouris N., Fiotakis G., Kahrimanis G., Margaritis M., Komis V. 2007. « Beyond logging of fingertip actions: analysis of collaborative learning using multiple sources of data », Journal of Interactive Learning Research JILR. vol. 18(2), pp. 231-250. Choquet C. and Iksal S. 2007. Modélisation et construction de traces d’utilisation d’une activité d’apprentissage : une approche langage pour la réingénierie d’un eiah. Revue STICEF, Vol. 14. Choquet, C. 2007. Ingénierie et réingénierie des EIAH. L’approche REDiM. HDR, Université du Maine, France Damsa, C.I. & Ludvigsen, S. (2010, August/September). Learning Through Collaborative Creation of Shared Knowledge Objects: Analytic Challenges, Paper presented at the EARLI SIG6/7 conference, Ulm, Germany. Després, C.; Coffinet, T. 2004. Reflet, un miroir sur la formation. Communication in the International Conference of Technologies de l’Information et de la Connaissance dans l’Enseignement Supérieur et l’Industrie. Compiègne, France. Djouad, T., Settouti, L. S., Prié, Y., Reffay, C., Mille, M. (2010). Un système à Base de Traces pour la modélisation et l’élaboration d’indicateurs d’activités éducatives individuelles et collectives. Mise à l’épreuve sur Moodle. In TSI. 29(6). P. 721-721. Dyke, G., Lund, K & Girardot, J.-J. (2010). Tatiana, un environnement d’aide à l’analyse de traces d’interactions humaines. Revue des Sciences et Technologies de l'Information - Série TSI : Technique et Science Informatiques. 29 (10), p. 1179-1205. France L., J.-M. Heraud, J.-C. Marty, T. Carron, and J. Heili. 2006. Monitoring virtual classroom: Visualization techniques to observe student activities in an e-learning system. In The Sixth IEEE International Conference on Advanced Learning Technologies (ICALT2006), pages 716–720. Georgeon O., Mille A., Bellet B.T. 2006. « ABSTRACT: un outil et une méthodologie pour analyser une activité humaine médiée par un artefact technique complexe », Ingéniérie des Connaissances. Semaine de la connaissance, Nantes, France. Goodman B. A., Drury J., Gaimari R. D., Kurland L., Zarrella J., Applying User Models to Improve Team Decision Making, 2006, Retrieved April 10, 2008 from http://mitre.org/work/tech_papers/tech_papers_07/06_1 351/ Greenhalgh C., A. French, J. Humble, P. Tennent, "Engineering based replay application RDF and OWL is "Online Proceedings of the UK e-Science All Hands 92 Meeting 2007, 10-13 September 2007, Nottingham: NESC / JISC. Iksal S (2011). Tracks Analysis in Learning Systems: A Prescriptive Approach. International Journal for e-Learning Security (IJeLS), Volume 1, Issue 1/2, March/June 2011. Kelly S. et Tolvanen J. (2008). Domain-specific modeling: enabling full code generation. Wiley-IEEE Computer Society Pr. Laforcade P., Barré V. et Zendagui B. (2007). Scénarisation Pédagogique et Ingénierie Dirigé par les Modèles : Cadre d’étude pour la définition de langages et environnements-outils de scénarisation pédagogique spécifiques à des domaines. Actes de la conférence EIAH 2007, Lausanne (Suisse). Loghin, G.C. 2006. Aide à la compréhension du comportement de l'utilisateur par la transformation de traces collectées. RJCEIAH. France May M. 2009. Utilisation des traces comme outils réflexifs pour les apprenants et les enseignants à distance : Application aux communications médiatisées. Doctorat insa lyon, Mazza, R.; Milani, C. 2004. GISMO: a Graphical Interactive Student Monitoring Tool for Course Management Systems. Communication in T.E.L.’04 Technology Enhanced Learning ’04 International Conference. Milan, 18-19 November 2004. Mazza, R.; Dimitrova,V. 2004. Visualising Student Tracking Data to Support Instructors in Web-Based Distance Education. In proceeding of the thirteenth International World Wide Web ConferenceEducational Track, 154-161. New York, USA. Morrison A., Tennent P., Chalmers M., « Coordinated Visualization of Video and System Log Data ». Proceedings of 4th International Conference on Coordinated & Multiple Views in Exploratory Visualization. London, 2006, 91-102. Settouti L.-S., Prie Y., Mille A., Marty J –C. (2007). Vers des Systèmes à Base de Traces modélisées pour les EIAH. Rapport de recherche RR-LIRIS-2007-016. Pernin J.-P. and Lejeune A. 2004. Dispositifs d’apprentissage instrumentés par les technologies : vers une ingénierie centrée sur les scénarios. In Colloque TICE2004, Compiègne, France. Pham Thi Ngoc Diem 2011. Spécification et conception de services d’analyse de l’utilisation d’un environnement informatique pour l’apprentissage humain. Thèse de doctorat. Université du Maine. Zendagui B. 2010. Support à la spécification des besoins d’observation dans un contexte de réingénierie des scénarios pédagogiques : une approche dirigée par les modèles. Thèse de doctorat. Université du Maine. Amiens – 23 et 24 mai 2012 POSTERS 4ièmes Rencontres Jeunes Chercheurs en EIAH 93 94 Amiens – 23 et 24 mai 2012 Ontologie pour la représentation des connaissances algorithmiques Et la proposition de parcours d’enseignement. Myriam Abdessemed Laboratoire de Recherche en Informatique (LRI), Université Badji Mokhtar, BP 12, Annaba 23000, Algérie [email protected] Résumé Ce papier présente notre contribution dans le projet EIAH d’algorithmique, du laboratoire LRI, qui consiste en la conception d’une Ontologie de savoirs et savoirfaire (compétences) algorithmiques, représentant la nature même de cette matière. Ses connaissances abstraites rendent son enseignement ainsi que son apprentissage particulièrement délicat. L’apport des ontologies est justement de fournir une forme et un aspect concret aux connaissances du domaine. Nous nous appuyons sur les ontologies et leurs spécificités dans le but de concevoir un système tuteur qui intervient particulièrement dans la négociation du ou des concepts à proposer, lors d’une situation d’apprentissage. Introduction L'algorithmique est une discipline qui favorise, notamment, l'acquisition d'une méthode de travail et de réflexion, le développement des facultés d'analyse, d'abstraction, d'anticipation et de logique. Elle est le noyau de toute formation d’informaticiens. Elle est également une matière qui a souvent été source de problèmes pour l’enseignant et l’étudiant. Pour l’enseignant, parce qu’il doit trouver les méthodes adéquates pour faire assimiler des concepts assez abstraits à des étudiants qui ne sont qu’à leur phase d’initiation. Pour les étudiants la complexité du problème est encore plus importante. On témoigne que, de part le monde, entre 25 et 80% des étudiants dans un cursus d’initiation à la programmation sont en situation d’échec ou d’abandon. Au niveau de notre université, le problème est encore plus éloquent. Le taux d’échec alarmant est aux environs de 70% pour les étudiants de 2éme année Licence LMD. Nous soutenons qu’un usage approprié des EIAH, avec des règles et stratégies pédagogiques novatrices, une bonne représentation des connaissances du domaine de l’algorithmique, une indexation sémantique des ressources et une scénarisation des parcours d’apprentissage adaptée à chaque profil, pourrait contribuer à l’amélioration de son apprentissage. Notre travail de recherche s’inscrit dans le cadre d’un projet EIAH dédié à l’apprentissage de l’algorithmique, qui vise à combattre la stéréotypie, la passivité, la logique de l’échec… 4ièmes Rencontres Jeunes Chercheurs en EIAH Ontologies et EIAH Dans la galaxie des EIAH, les recherches se bousculent pour tenter d’offrir des environnements complets, répondant aux objectifs même de leur subsistance. D’après Desmoulin (Desmoulins et Granbastien 2006), l’apport spécifique de l’ingénierie ontologique pour les EIAH est que l’IO fournit aux EIAH une représentation structurée, explicite, partagée par une communauté (agents humains ou artificiels), qui fait référence et qui guide leur conception. Peut s’ajouter à cela qu’elle peut leur fournir une représentation formelle, couplée à un mécanisme d’inférence permettant, entre autres, à ces environnements de raisonner (Psyché et al 2003). Divers EIAH utilisent les ontologies pour : • Modéliser l’ensemble des connaissances du domaine traité (l’Univers). • Les apprenants suivant plusieurs facettes (préférences, connaissances…) • Annoter et indexer des ressources pédagogiques suivant des types de métadonnées. • Les composantes d’une situation de tutorat. • ETC. Motivation et Approche proposée Ce travail entre dans le cadre du projet EIAH d’algorithmique qui ambitionne l’amélioration de son apprentissage (Bey et Bensebaa 2011), (Teimzit et al. 2011), (Bensalem et Bensebaa 2010). Il a comme principal objectif de responsabiliser l’apprenant et de l’amener à prendre conscience de ses insuffisances en matière de connaissances pour comprendre, s’exercer au raisonnement algorithmique pour mieux dénouer un problème. Dans toute activité, l’adoption d’une nouvelle méthode de travail se fait en fonction des résultats positifs qu’elle génère. Dans la perspective du Web sémantique, qui est en voie de devenir une assise pour les environnements de formation à distance, les ontologies offrent de façon spécifique une sémantique riche, mieux que toute autre méthode de représentation des connaissances (Psyché et al 2003). Les acteurs (apprenants, concepteurs, enseignants…) qui interagissent avec l’EIAH se trouvent face au besoin de partager des informations. Les ontologies se positionnent le mieux pour permettre l’Interopérabilité, le Partage et la Réutilisabilité des 95 Myriam Abdessemed connaissances du domaine. Compte tenu de leurs caractéristiques, qui mettent en relief leurs spécificités et originalités, nous nous orientons vers le développement d’une ontologie d’algorithmique (Savoir et Savoir faire) qui est au cœur du système à réaliser, en exploitant justement les apports des ontologies aux besoins des EIAH. Cette ontologie aura pour rôle de: • Proposer des parcours d’enseignement (prochain concept à enseigner) en parcourant les relations sémantiques de l’ontologie orientées apprentissage. • Indexer des ressources pédagogiques algorithmiques sur les éléments de cette ontologie, en particulier une base d’exercices en vue d’en extraire des exercices d’entraînement à proposer. L’apprentissage dans un EIAH se déroule dans un contexte fort différent de l’apprentissage traditionnel, où les interactions humaines deviennent médiatisées (Margarida Romero 2004). Dans cet environnement où l’apprenant se retrouve seul face à la machine, le tutorat devient donc d’une importance majeure. Le tuteur doit s’appuyer sur le modèle apprenant, des objectifs de formation et principalement sur une famille de règles pédagogiques qui soutiendront l’usage des relations sémantiques et hiérarchiques de l’ontologie dans le choix du prochain concept d’apprentissage, ou dans la négociation en cas de conflit entre le système et l’apprenant (à l’aide des systèmes de raisonnement) . L’étape de conceptualisation de l’ontologie d’algorithmique qui succède à l’étude comparative des outils et langages d’exploitation des ontologies sous OWL (SWRL, SPARQL…), est basée sur Methontology de Gomez-Perez. Elle spécifie de façon très détaillée cette phase (Spécification des besoins, conceptualisation, formalisation,codification). ontologie est en cours d’évaluation, nous illustrons cidessus la hiérarchie des concepts déterminés. Par la suite nous aurons à définir un ensemble de règles pédagogiques et préciser les activités du tuteur selon nos objectifs. Seront par la suite réalisées à des fins de recherches sémantiques : l’indexation de ressources algorithmiques (en entrée existantes) et la constitution d’une base d’exercices indexés par les savoir-faire de l’ontologie. Conclusion La majorité des étudiants en cours d’algorithmique, rencontrent différentes contraintes, pouvant annihiler leurs facultés de raisonnement et altérer leur confiance en soi. Nous soutenons que le développement d’un EIAH dédié pourrait remédier à ce problème. Une ontologie de domaine de l’algorithmique qui aura pour rôle de spécifier les concepts du domaine et d’expliciter les relations entre ces derniers, est d’une importance fondamentale dans un processus d’enseignement. Ceci consiste à mettre à la disposition des acteurs de l’environnement un ensemble de connaissances partagées, réutilisables et essentiellement formelles en vue de leurs manipulations future. Références Bensalem, H., and Bensebaa, T. 2010 “Contribution to the improvement of learning algorithmic“ IETC 10th International Educational Technology Conference, Turkey Istambul. Bey, A., and Bensebaa, T. 2011“An e-Assessment Approach of Algorithmic Problem-Solving Skills “. International Journal of Computer Applications 25(10):15-21. Published by Foundation of Computer Science, New York,USA. Desmoulins C., et Granbastien M. 2006. “Une ingénierie des EIAH fondée sur des ontologies“. In Environnements informatiques pour l'apprentissage humain, Grandbastien M. et Labat J-M., p. 161-179. Paris: Hermes sciences. Psyché, V., Mendes, O., Bourdeau, J. 2003 “Apport de l’ingénierie ontologique aux environnements de formation à distance“ Université Fédérale à Paraiba – Brésil. Romero, M. 2004 “Métacognition dans les EIAH” Exposé transversal. LIUM, le Mans. Teimzit, A., Belhaoues, T., and Bensebaa, T. 2011 “Ontoalgo ontologie de domaine dans un EIAH d’algorithmique“, 1st International Conference Information Systems and Technologies, ICIST, 24 au 26 Avril 2011, Tébessa, Algérie. Nous essayons de suivre ces étapes avec rigueur, cette 96 Amiens – 23 et 24 mai 2012 Assister la compréhension des problèmes algorithmiques Taki Eddine BELHAOUES Laboratoire de Recherche en Informatique (LRI), Université Badji Mokhtar, BP12, Annaba 23000, Algérie [email protected] Résumé Tout environnement de résolution de problèmes doit prendre en considération les difficultés de ses utilisateurs apprenants. Nous nous intéressons dans ce travail aux moyens et techniques d’aide utiles, pratiques et adéquats, qui pourront être mis à la disposition d’un apprenant en situation de résolution de problèmes algorithmiques afin de palier à la difficulté de la lecture et de la compréhension d’énoncés. Introduction L’algorithmique constitue le cœur du domaine de l’informatique. Elle représente en effet la manière de penser et de concevoir la résolution des problèmes en détaillant les opérations élémentaires à accomplir et la méthode pour les combiner et les agencer afin d’émerger la solution la plus optimale. L’apprentissage de l’Algorithmique est essentiellement constitué d’un processus de résolution de problèmes où un apprenant sera mis face à un exercice qu’il devra résoudre. Un tel scénario semble parfaitement conçu pour diagnostiquer les difficultés et les manques de l'étudiant et évaluer sa maîtrise des divers concepts. Selon (Tardif 1992), pour que l'activité de résolution de problèmes soit efficace, il faut s'assurer que l'étudiant prenne une part active à l'élaboration de ses connaissances. Il ne doit pas assister seulement à un exposé de connaissances. À l'intérieur de ce processus, l'enseignant a plusieurs rôles à jouer. Il doit fournir à l'apprenant un contexte d'apprentissage qui favorise le choix de l'information pertinente et la construction du réseau de connaissances. Ce rôle nécessite parfois une intervention plus explicite pour fournir à l'étudiant une rétroaction sur le processus de la tâche au niveau des connaissances à utiliser, des stratégies à choisir et de l'exécution des procédures de résolution. Concevoir un environnement dédié à la résolution de problèmes algorithmiques aura tout à gagner de l’intégration des services d’aides qui pourront être mis à la disposition des apprenants. Aide et types d’interventions système Dans (Beaufils et al. 1998) l’aide est présentée comme une notion qui peut avoir plusieurs interprétations en regroupant un ensemble de termes plus vaste : L'assistance à l'utilisateur comporte une prise en charge partielle de la tâche. Cette assistance est le plus souvent mise en œuvre par des agents qui effectuent une partie de la tâche ou qui guident très fortement l'utilisateur. Le guidage consiste à accompagner l'utilisateur dans l'accomplissement de la tâche, à commenter certaines 4ièmes Rencontres Jeunes Chercheurs en EIAH de ces actions et à lui suggérer des actions susceptibles de progresser dans la tâche ou d'améliorer son efficacité. Ce qu'on a appelé aide intelligente relève souvent du guidage, mais possède comme caractéristique supplémentaire d'effectuer une analyse relativement élaborée de l'activité de l'utilisateur et de permettre une adaptation du contenu à ses besoins particuliers. Le conseil est analogue au guidage mais il ne propose pas nécessairement la meilleure marche à suivre ; il tient compte des imperfections de l'analyse et produit des informations plutôt méthodologiques. L'explication a pour fonction de détailler et d'expliciter le fonctionnement ou le résultat d'une action ou d'un raisonnement (Blondel et al. 1997) présentent plusieurs systèmes d'aide associés à des environnements d'apprentissage conçus afin de dépasser le caractère insuffisant des aides fonctionnels qui se limitent à une présentation détaillée des outils ; Dans (Schwob, Blondel 1998) l’environnement interactif d’apprentissage développé intègre des outils logiciels susceptibles d’aider les élèves dans les activités de résolution de problèmes en chimie, une aide principalement centrée sur les concepts. En effet, les auteurs font l'hypothèse qu'une information significative portant sur un concept, et apportée à un élève en situation de manipulation ou de résolution, c’est-à-dire au moment même de la mobilisation ou de l’utilisation de ce concept, peut contribuer au processus d’apprentissage. (Guin-Duclosson et Nova 2002) présentent une architecture pour un EIAH (Environnement Informatique d’Apprentissage Humain) qui permet de proposer plusieurs types d’aide à un apprenant en situation de résolution de problèmes. Les aides varieront selon le modèle et les préférences de l’apprenant, comme rappeler à un apprenant des connaissances théoriques sur le problème, expliquer avec ces mêmes connaissances comment résoudre ce problème, lui présenter un problème analogue qu’il a déjà résolût, ou alors expliquer la solution de ce problème analogue. Aide à la lecture et compréhension des énoncés (Blondel et al. 1997) présentent la résolution des problèmes sous trois phases principales : La phase d'analyse correspond au passage de l'énoncé à une représentation explicite, souvent plus formelle du problème ou de la situation décrite dans l'énoncé. La phase d'exploration au cours de laquelle l'élève recherche les caractéristiques qui vont contribuer à la 97 Taki Eddine Belhaoues résolution, est celle qui a été la plus largement étudiée dans les environnements d’apprentissages à distance. La phase de rédaction qui a pour but de produire une trace lisible de la résolution, est celle qui est la plus proche de l'activité scolaire habituelle. Nous remarquons que tous les travaux présentés précédemment ont apporté chacun à sa manière des outils d’aide et d’assistance qui se situent essentiellement dans les phases d’exploration et de rédaction. Cependant, la phase d’analyse de l’énoncé est souvent ignorée. Elle est non seulement la première étape de tout processus de résolution de problèmes, mais aussi celle qui va conditionner toutes les étapes qui vont suivre. Notre idée tourne autour des difficultés liées à la lecture et la compréhension des énoncés qui, à notre connaissance n’ont jamais été traitées auparavant. Ces difficultés s’accoisent exponentiellement dans un environnement d’apprentissage à distance. Un apprenant qui se trouve détaché de son enseignant pourra être conduit vers deux situations critiques dans le domaine des environnements d’apprentissage : La première est que l’apprenant se trouve bloqué face à l’énoncé sans aucune option d’aide. Dans un apprentissage en présentiel, cette situation peut être esquivée par la présence de l’enseignant qui va débloquer l’apprenant en apportant des explications, éclaircissements et définitions lors de sa sollicitation. Cependant, le résultat de ce blocage dans une situation d’apprentissage à distance serait la perte et l’abandon de cet apprenant. La deuxième situation consiste en une mauvaise lecture et compréhension de l’énoncé qui peut mener l’apprenant à produire une solution erronée. Toutes les actions entreprises suite à l’évaluation de cette solution seront fondées sur un diagnostique floué et faussé par cette mal compréhension de l’énoncé et ne seront par conséquent adaptées et adéquates aux besoins de l’apprenant. Approche Après l’étude des travaux réalisés sur l’axe de l’assistance et l’aide à l’apprenant en situation de résolution de problèmes. Nous proposons un modèle d’assistance basé sur les ontologies. Ce travail fait partie du projet de réalisation d’un EIAH dédié à l’Algorithmique (Teimzit et al. 2011), (Bey et Bensebaa 2011), (Bensalem et Bensebaa 2010). Notre apport est le développement d’un modèle d’assistance dans les situations de résolution de problèmes basé sur les ontologies. Les aides proposées seront mises à la disposition d’un apprenant en situation de résolution de problèmes dans l’environnement ALGO+ (Bey et Bensebaa 2011). Chaque exercice proposé par l’enseignant sera décrit par une ontologie de description de problème algorithmique. Une base de règles heuristique sera 98 développée pour déterminer les aides adéquates selon la description ontologique de l’exercice. Conclusion La phase d’analyse d’énoncés pendant la résolution des problèmes dans les EIAH prend une place prépondérante. Au cours de ce travail, le développement d’un système d’aide pour les apprenants dans les situations de résolution de problèmes nous permettra de palier aux difficultés liées à la compréhension des énoncés qui ont un effet négatif sur la solution établie, et par conséquent, sur l’évaluation et la correction des acquis de cet apprenant. Références Beaufils, A. ; Blondel, F . M. ; Lenne, D. 1998. Aide, conseil et explication dans les logiciels éducatifs (code 40117), Rapport de synthèse, INSTITUT NATIONAL DE RECHERCHE PÉDAGOGIQUE, Technologies nouvelles et Éducation. Bensalem, H. and Bensebaa, T. 2010. Contribution to the improvement of learning algorithmic In Proceedings of the 10th International Educational Technology Conference, Turkey Istambul. Bey, A. and Bensebaa, T. 2011. Algo+, an assessment tool for algorithmic competencies. In Proceedings of IEEE Engineering Education 2011 Learning Environments and Ecosystems in Engineering Education, EDUCON Amman, Jordan. ISBN. Bey, A. and Bensebaa, T. 2011. An e-Assessment Approach of Algorithmic Problem-Solving Skills. International Journal of Computer Applications 25(10):15-21,. Published by Foundation of Computer Science, New York, USA. Blondel, F . M. ; Schowb, M. ; Tarizzo, M. 1997. Diagnostic et aide dans un environnement d'apprentissage ouvert : Un exemple en chimie. SCHNAPS, STE – vol4, no 4, 1997 Guin-Duclosson, N. and Nova, Nova. 2002. Utiliser des connaissances abstraites ou contextualisées pour proposer différents types d’aide. In Proceeding of Technologies de l’Information et de la Communication dans les Enseignements d’ingénieurs et dans l’industrie. Schowb, M. ; , Blondel, F . M. ; Max, P. ; Ringard, A. 1998. Une aide centrée sur les concepts pour faciliter l’apprentissage de la réaction chimique. In proceeding of 8èmes Journées Informatique et Pédagogie des Sciences Physiques – Montpellier. Tardif, J. 1992. Pour un enseignement stratégique, l'apport de Ia psychologie cognitive. Montréal, Editions Logiques. Teimzit, A. ; Belhaoues, T. ; Bensebaa, T. 2011. Ontoalgo : ontologie de domaine dans un EIAH d’algorithmique. In Proceedings of the 1st International Conference in Information Systems and Technologies, ICIST, Tébessa, Algérie Amiens – 23 et 24 mai 2012 Hypermédia adaptatif à épistèmes pour l'apprentissage des langages de programmation Pascal Ortiz Laboratoire STEF, ENS-Cachan, 61 avenue du Président Wilson F-94235 Cachan cedex [email protected] manuel de référence. Résumé Les langages de programmation (LP) sont des outils puissants dont l'apprentissage et la maîtrise nécessitent des années. Aucun accompagnement informatique n'offre actuellement une couverture large et approfondie de l'apprentissage des LP. L'objectif est de proposer un modèle d'hypermédia adaptatif, basé sur le modèle cognitif proposé par la théorie de la charge cognitive. Ce modèle est basé sur une segmentation très fine du corpus de connaissance. Introduction L'apprentissage de la programmation avec des langages informatiques est difficile, en particulier chez les apprenants novices (Robins et al. 2003). Les ressources pour un apprentissage en autonomie d'un curriculum de programmation consistent essentiellement en une transposition au format pdf/html du corpus imprimé. Ces hypermédias ont des fonctionnalités assez sommaires de navigation (renvoi, index, table des matières), l'interactivité, l'adaptativité et le guidage y sont inexistants, toute mise à jour ou correction est impossible et le recours au multimédia est limité. La progression est linéaire et contraignante : pour accéder à une connaissance exposée, l'apprenant doit, a priori, avoir parcouru toutes celles qui la précèdent dans le document. De nombreux hypermédias pour l'apprentissage d'un LP ont été modélisés, voire expérimentés, mais leurs ambitions de contenu sont souvent très réduites (niveau, durée de l'apprentissage, nombre faible d'apprenants) et leur utilisation reste confidentielle et non coordonnée. L'unique système pérenne (né en 1998), et d'adoption vraiment large, est BlueJ (Kölling 2008) ; il ne s'agit pas d'un système tutoré mais d'un IDE pour débutants qui a évolué vers une plate-forme pédagogique. Le but du présent travail est de permettre l'élaboration d'un hypermédia adaptatif (HA) des LP, utilisable en autonomie ou en accompagnement d'un enseignement et dont les objectifs premiers sont : i) couvrir un champ très important du langage, ii) s'adresser à un spectre large d'apprenants, iii) offrir un continuum interactif entre guide d'apprentissage et 4ièmes Rencontres Jeunes Chercheurs en EIAH Les Trois Concepts Le modèle de domaine que nous proposons est du type modèle en réseau de prérequis (Brusilovsky et Millán 2007). Notre modèle est fondé sur les trois concepts suivants : i) l'unité épistémique, ii) le graphe des matières, iii) le rasoir d'Occam. Une unité épistémique est un segment de connaissance de très petite dimension, qui a été isolé du corpus de connaissances à exposer. Le graphe des matières définit les relations de prérequis entre deux unités épistémiques. Le principe de délimitation de chaque unité est le principe de parcimonie dit du « rasoir d'Occam ». Dans les exemples suivants, on se réfère au langage Python. Admettons disposer d'un découpage du domaine de savoir en un ensemble d'unités de connaissance, de taille très réduite par rapport au corpus global (unités épistémiques ou UE). Le contenu d'une UE peut être de type très varié, à caractère conceptuel (l'itération par exemple), procédural (le schéma d'une boucle while), déclaratif (l'évolution des versions d'un langage), pratique (références bibliographiques), etc. Par exemple, on pourrait considérer une UE de l'apprentissage du langage Python intitulée : « Les booléens ». Cette unité doit répondre à la problématique didactique suivante : i) faire prendre conscience de la notion de valeur de vérité, ii) exposer par un exemple très simple la réalisation des booléens en Python, iii) préciser les contraintes d'édition (les majuscules) des constantes booléennes. Le Rasoir d'Occam et ses Conséquences Le principe fondamental de délimitation du contenu d'une UE est le principe de parcimonie d'Occam. Lors de l'exposition d'un contenu d'apprentissage, on suppose acquises par l'apprenant les connaissances nécessaires au traitement logique et à l'assimilation cognitive du contenu à exposer, et seulement ces connaissances-là. Ce principe est la réponse essentielle à la surcharge d'exposition. La dépendance entre les UE (cf. figure 1) traduit d'abord une nécessité d'ordre logique : par exemple, pour utiliser une instruction if, if l'apprenant doit savoir ce qu'est un booléen. Mais la dépendance peut aussi être d'ordre pédagogique : l'unité « Valeur de vérité d'objets quelconques » va dépendre directement de 99 Pascal Ortiz l'unité « Instruction if » car cette dernière servira à illustrer la notion vérité d'un objet non booléen ; ici, la dépendance n'est pas d'ordre logique. Un langage de programmation produit fondamentalement du code-source. Ainsi, pour constituer les UE, le développeur de contenus analysera puis décomposera un corpus de codessource. Il s'agit d'un matériel tangible. La construction du graphe des matières suit un procédé assez proche de l'heuristique décrite dans (Sosnovsky et Gavrilova 2005) : une unité est extraite par une succession de procédés descendants et ascendants. Un HA à épistèmes permet de générer automatiquement des parcours très fins d'apprentissage mais surtout optimisés : le système peut calculer, à partir des connaissances actuelles de l'apprenant et d'un objectif défini par l'apprenant ou un tuteur, la totalité du sous-graphe des unités utiles, et proposer ainsi une linéarisation cohérente et optimale parmi tous les parcours possibles. été constitués : un pool d'environ 300 UE pour une introduction au langage Python et un pool de 150 UE traitant du sous-domaine plus avancé des expressions régulières en Python. Un générateur de parcours a été implémenté. Le contenu des UE est saisi dans un langage de balisage léger (reST), convertible en XML. Un générateur de documentation html/pdf est en cours de réalisation. Le dispositif doit être complété par i) la réalisation d'une interface graphique assurant la navigation dans un espace de plusieurs centaines d'UE, ii) un module de fouille évoluée permettant d'extraire des informations à la fois fines (par ex. du code-source) et génériques, autorisant un modèle riche de l'apprenant. Enfin, il est envisagé d'incorporer dans l'hypermédia un certain nombre d'éléments de la théorie de la charge cognitive (Chanquoy et al. 2007). Avantages et Inconvénients Une documentation à UE présente les avantages suivants : − Prise en compte des connaissances préalables de l'apprenant, ce qui est un point capital dans la compréhension d'un texte (Kintsch 1998). Figure 1 : Les successeurs de l'UE « Les booléens » − La limitation de la charge cognitive. La théorie de la charge cognitive (Chanquoy et al. 2007) a montré que la limitation de la charge cognitive est un point déterminant dans l'acquisition de connaissances. Le principe d'économie du rasoir d'Occam optimise la charge cognitive intrinsèque. − Meilleur contrôle des difficultés d'apprentissage grâce à la granularité faible des UE. C'est un facteur essentiel d'adaptativité. − Extensibilité et robustesse : le système s'étend par simple ajout d'unités épistémiques, et le contenu d'une unité peut être modifié tant que son interface est préservée. Une documentation épistémique pose néanmoins quelques difficultés : risque d'atomisation des contenus, difficulté à intégrer des contenus ayant de très nombreuses dépendances, risque de duplication de contenus d'apprentissage, difficulté à recomposer des contenus sans altérer l'ensemble des dépendances. Perspectives, faisabilité Références Brusilovsky, P. ; and Millán, E. 2007. User Models for Adaptive Hypermedia and Adaptive Educational Systems. Lecture Notes in Computer Science 4321:3-53 Chanquoy, L.; Tricot, A.; et Sweller, J. 2007. La charge cognitive. Armand Colin. Kintsch, W. 1998. Comprehension, A Paradigm for Cognition. Cambridge University Press. Kölling, M. 2008. Using BlueJ to Introduce Programming. Lecture Notes in Computer Science 4821:98-11. Robins, A.; Rountree, J.; and Rountree, N. 2003. Learning and Teaching Programming: A Review and Discussion. Computer Science Education 13(2):137172. Sosnovsky S.; and Gavrilova T. 2005. Development of Educational Ontology for C-Programming. Int. Journal Information Theories & Applications 13:303308. Deux pools d'UE, complétés de leurs graphes des matières, et s'adressant à des publics différents, ont 100 Amiens – 23 et 24 mai 2012 Gamification d’environnement informatique Alain Simac-Lejeune Docteur de moins d’un an Litii, 15 rue Saint Exupéry, Alpespace, 73800 Françin, France [email protected] Résumé Depuis quelques années, « les serious games » et les « learning role-playing games » s’insèrent dans le paysage des entreprises et des dispositifs de formation grâce à leurs effets reconnus sur l’engagement. Cet engagement est directement lié aux mécanismes de jeu introduit et il est possible de créer cet engagement en dehors de jeu en insérant ces mécanismes dans n’importe quel environnement informatique : c’est le processus de Gamification. Nous proposons dans cet article de revenir sur le concept du Flow (l’état de l’utilisateur), de définir la Gamification et ses règles puis de l’appliquer à un système basique d’EIAH, avec pour objectif la conception d’une approche générique de gamification d’un système informatique. Introduction Le secteur de la formation a de plus en plus fréquemment recours à des dispositifs utilisant le jeu notamment pour ses effets reconnus sur l’engagement des participants (Gee 2003) qui est un des facteurs clés de la réussite d’un apprentissage. L’utilisation de l’informatique pour l’apprentissage et l’enseignement se développe et évolue sous le coup de différents facteurs inter-reliés comme la poussée technologique (faible coût des technologies, facilité et banalisation de leurs usages), l’évolution des connaissances scientifiques, la demande sociale ou encore l’évolution des pratiques des enseignants et des élèves. Une pratique émergente est l’utilisation du jeu dans les processus pédagogiques. Les « serious games » est définit (Alvarez, 2006) comme un logiciel combinant une intention sérieuse de type pédagogique, informative, d’entrainement avec des ressorts ludiques. Leur approche a permis de créer de nouveaux processus pédagogiques basés sur l’acquisition de compétences dans des jeux scénarisés. Cependant les « serious games » restent des jeux et il n’est pas forcément possible de transformer toute activité en jeux. Une alternative est la gamification qui consiste à introduire des mécanismes de jeu dans un système classique. Depuis 2006, l’approche « serious games » (Marty 2011) a permis de combiner une intention sérieuse de type pédagogique, informatique, communicationnelle, marketing, idéologique ou d’entraînement avec des ressorts ludiques permettant de créer de l’engagement. Mais bien que les serious games et la gamification aient la même vocation, rendre attrayant la dimension sérieuse par une forme une interaction, des règles et éventuellement des objectifs ludiques ; ils se 4ièmes Rencontres Jeunes Chercheurs en EIAH différencient également fortement par l’objet même du système. Les serious games représentent un jeu alors que la gamification consiste à apporter une dimension de jeu dans un système qui n’en est pas un au départ. La Gamification ou Ludification On définit la gamification (ou ludification) comme le transfert des mécanismes de jeu à d’autres domaines notamment les sites web, les situations d’apprentissage, les situations de travail ou les réseaux sociaux. Son objectif est l’augmentation de l’acceptabilité et l’usage d’applications en s’appuyant sur la prédisposition humaine au jeu (Zichermann 2011). Pour (Kim 2000), la gamification se résume à cinq caractéristiques principales : collectionner, gagner des points, intégrer un mécanisme de rétroaction, encourager les échanges entre joueurs et permettre la personnalisation du service. Le processus de gamification s’effectue en insérant des mécaniques et dynamiques spécifiques au jeu dans un système de vie réelle : • les points qui permettent la gratification ; • les niveaux qui permettent l’obtention de statut ; • les challenges qui permettent la réalisation ; • les badges stimulant la créativité ; • les classements pour créer la compétition ; • le don ou l’échange pour favoriser l’altruisme. Le système n’est pas un jeu mais un service stimulé par des mécaniques de jeu. Au final, pour gamifier, il faut placer au centre du système des éléments à explorer ou à maitriser et y insérer des mécaniques de jeu. Dans le cadre d’un environnement d’apprentissage, la phase de découverte et de maitrise de l’outil proposé pourrait être gamifiée. L’Etat de Flow Figure 1 : Rapport entre compétences et niveau de difficulté pour l’état du flow. 101 Alain Simac-Lejeune Les mécaniques de jeu peuvent sembler rapidement artificielles et inintéressantes (accumuler des point par exemple). Il est donc nécessaire d’avoir une moyen de rendre régulièrement attractif le système : c’est le concept fondamental du Flow (figure 1) qui a été théorisé par le psychologue positiviste Mihaly Csikszntmihalyi dans (Csikszntmihalyi 1996). C’est un état quasi hypnotique durant lequel la personne se consacre entièrement et aveuglement à la tâche qu’elle réalise en perdant la notion du temps et en connaissant un profond sentiment de réussite et de dépassement. Dans un jeu, cet état correspond à la situation où les compétences attendues par un joueur sont exactement en correspondance avec le challenge. En augmentant constamment le niveau de challenge et les capacités, le joueur connaît la sensation de dépassement perpétuel. Exemple : la Prise en Main d’un EIAH La première étape de nombreux EIAH est une phase de découverte et de prise en main de l’outil par l’utilisateur. Cette étape est réalisée de manière didactique la plupart du temps parfois légèrement ludique notamment dans les approches « serious games ». L’approche proposée consiste à construire cette phase de découverte en intégrant des mécanismes de jeu et une progression (challenge) dans l’acquisition des compétences. Il faut distinguer deux étapes dans le processus de gamification du système : la définition des tâches à maîtriser ou compétences à acquérir (les objectifs) et la définition des éléments de la mécanique du système gamifié (les moyens de réaliser ces objectifs). Dans notre démarche, le but du processus est d’être autonome dans l’utilisation du système. Pour cela, il est nécessaire d’accomplir un certain nombre d’objectifs prédéfinis à difficulté croissante et d’atteindre un statut « autonome ». Définition du système d’EIAH utilisé Le logiciel “Ambre” est un environnement informatique pour l'apprentissage humain (EIAH) utilisé pour des situations pédagogiques informatisées (SPI). Il a été développé par l’équipe SILEX du laboratoire LIRIS de Lyon (Guin-Duclosson 2011). Il a pour objectif de faire émerger des apprentissages chez l'apprenant et de l'amener à résoudre des problèmes de didactique des mathématique par Raisonnement à Partir de Cas (RàPC). Le système est composé de 5 étapes : lecture d’énoncé, réécriture de problème, choix de modèle, rédaction de solution et rangement du problème dans une classe donnée. Proposition de fonctionnement Pour faire évoluer le système à travers une approche de gamification, on introduit les mécanismes de jeu présentés. L’état de Flow est conservé par l’augmentation progressive de la difficulté des opérations à réaliser. Le gain de point est obtenu par la réalisation des étapes d’exercices, par la résolution d’exercices, par barème concernant la rapidité d’exécution, par évaluation de l’évolution de la rapidité d’exécution. Il est possible de perdre des points 102 notamment lorsqu’on utilise l’aide ou lorsque le temps d’exécution est important. Les points permettent d’obtenir des statuts au nombre de 4 (débutant, découvreur, confirmé, et apprenant). Le but étant d’obtenir le statut d’apprenant pour être un utilisateur autonome du système. Dans une première version, nous proposons de définir 20 challenges allant d’actions basiques comme « lire un énoncé » à des plus difficiles comme « résoudre un exercice de niveau 2 » ou à des actions récurrentes/répétitives comme « résoudre un exercice au moins, 3 jours de suite ». Ces challenges et les statuts permettent l’obtention de 10 badges comme « Apprenant ». A la fin de chaque exercice ou à la fin d’une séquence (groupe d’exercices), un classement basé sur les points obtenus dans un statut donné ou tout statut confondu est proposé. Des challenges pourraient être proposés concernant la position dans le classement ou l’évolution du classement entre deux séquences. Conclusions et Perspectives Nous avons proposé d’utiliser une approche de gamification dans le cadre de la prise en main d’un EIAH. La gamification est un processus particulièrement intéressant dans la découverte, l’exploration ou la recherche de maitrise d’un système et se prêt donc bien à la phase de découverte d’un EIAH. C’est une alternative particulièrement intéressante pour les EIAH qui ne reposent pas sur une approche « serious games ». Mais c’est surtout une approche d’avenir qui, comme l’affirme Jane McGonigal (McGonigal 2011), est un moyen de rendre les gens heureux mais surtout de les inspirer à collaborer pour résoudre des problèmes. Ce dernier point représente une perspective majeure pour les EIAH. La gamification serait peut-être une solution pour permettre de construire des systèmes d’apprentissage collaboratifs. Références Alvarez, J, Djaouti, D. : Introduction au Serious Game, Questions théoriques, p.22-29, 2010. Csíkszentmihályi, M. eds.1996. Creativity: Flow and the Psychology of Discovery and Invention, New York: Harper Perennial. Gee, J.P. What video games have to teach us about learning and literacy. Palgrave Macmillian, 2003. Guin-Duclosson N., Jean-Daubias S. et Nogry S. : « Le projet AMBRE : utiliser le RàPC pour enseigner des méthodes », Atelier RàPC’2011, P.17-21. Kim, A.J. eds 2000. Community Building on the Web : Secret Stragetgies, Peachpit Press. Marty, JC. And Carron T. eds 2011: Hints for Improving Motivation in Game-Based Learning Environment, Chapter of Handbook of Research on Increasing Motivation and Learning, IGI Global. McGonigal, J. eds 2011: Reality is Broken, Penguiun Press HC. Zichermann, G. and Cunningham, C. eds 2011: Gamification by Design: Implementing Game Mechanics in Web and Mobile Apps. O’Reilly Media. Amiens – 23 et 24 mai 2012 Mes notes Mes notes Mes notes Mes notes Mes notes Mes notes https://eiah.mis.u-picardie.fr/rjceiah/ RJC EIAH’2012 Actes des 4ièmes rencontres des Jeunes Chercheurs en Environnements Informatiques d’Apprentissage Humain Amiens 23 & 23 mai 2012 Édités par Thibault Carron et Céline Joiron 4ièmes Rencontres Jeunes Chercheurs en EIAH i ii Amiens – 23 et 24 mai 2012 Introduction Les quatrièmes Rencontres Jeunes Chercheurs sur les Environnements Informatiques pour l’Apprentissage Humain (RJC-EIAH 2012) se tiennent à Amiens les 23 et 24 mai 2012. Organisée tous les deux ans, cette conférence francophone parrainée par l’ATIEF (Association des Technologies de l'Information pour l'Éducation et la Formation) a pour objectif la promotion de la recherche et la formation des étudiants chercheurs. Ces journées visent à donner l’occasion aux jeunes chercheurs du domaine de se rencontrer pour présenter et échanger sur leurs travaux, entre eux et avec des chercheurs confirmés. Nous avons reçu 31 propositions de communication pour les rencontres. Ce nombre assez satisfaisant est toutefois en baisse par rapport à 2010 (38 soumissions) et reste à la hauteur du niveau de 2008. Les rencontres jeunes chercheurs représentent néanmoins une occasion unique d’échange et sont donc largement plébiscitées par la communauté EIAH en général et les jeunes chercheurs en particulier. Chaque soumission a au moins été examinée par 2 relecteurs (3 pour quelques-unes), chacun mettant un point d’honneur à proposer des critiques constructives. Le comité de programme a retenu 15 travaux pour une présentation orale et article long et 12 pour une présentation sous forme de poster et papier court. La plupart des articles acceptés proviennent de France mais d’autres pays sont également représentés : Algérie (6), Ile Maurice (1), Maroc (1) et Tunisie (2). Lors de la sélection, la plupart des travaux ont donné lieu à un avis relativement proche de la part des relecteurs ; seuls quelques articles ont suscité des débats. Comme demandé, le comité de programme s’est efforcé d’évaluer les travaux soumis en fonction de l’avancée de la thèse. Ainsi, un travail en fin de thèse a été évalué avec les critères scientifiques habituels (problématique, méthodologie, références aux autres travaux, validité des résultats, etc.) et le niveau d'exigence était finalement proche de celui d'une conférence nationale. Pour un travail de début de thèse, le comité de programme n’a pas cherché à évaluer les résultats mais s'est attaché à mesurer l'originalité du travail, l'intérêt pour la communauté et la capacité à présenter clairement le travail. Au final, un bon équilibre s’est fait dans la sélection. Par exemple, les articles longs retenus ont été écrits par 6 étudiants en 1ère année, 2 étudiants en 2ème année, 5 étudiants en 3ème année et 2 étudiants ayant plus de 3 années de thèse. Le champ scientifique des EIAH touche différentes disciplines que nous appelons traditionnellement toutes à soumettre afin de favoriser les rencontres et des collaborations fructueuses. L’informatique est, cette année encore, majoritairement représentée avec seulement 7 soumissions en Science de l’éducation et 2 en SHS. Les efforts doivent donc encore et toujours être poursuivis dans le sens de la pluridisciplinarité. Ces rencontres sont aussi l’occasion d’observer les tendances thématiques et les préoccupations de recherche de la communauté. Les questions d’ingénierie et de conception des EIAH sont bien présentes mais on voit apparaître plusieurs soumissions concernant le TAL (2), les Jeux sérieux (Serious Games) (2) et les ontologies (2). Les traces d’activités et d’interactions ainsi que les indicateurs sont toujours un thème important pour la communauté (5). La conception des scénarios pédagogiques est également une thématique bien représentée (4 soumissions). Vous retrouverez ces thématiques (et bien d’autres) au fil des sessions. La session « posters » illustre également la variété des travaux, chaque auteur ayant eu pour consigne d’expliciter le cœur de sa thématique et les apports spécifiques (avérés ou attendus) de sa thèse. Ne manquez pas de lire les articles de 2 pages proposés en support à la compréhension du poster. La conférence invitée de Patrick Felicia (Waterford Institute of Technology, Ireland) ouvre les journées par 4ièmes Rencontres Jeunes Chercheurs en EIAH iii une analyse sur le sujet émergent que représente les Serious Games et de prendre conscience des liens qu’ils offrent avec toutes les thématiques citées précédemment. Les journées font également place à l’information et aux conseils de la Communauté aux jeunes chercheurs relativement à la demande de qualification auprès du CNU, aux publications dans la revue STICEF et plus généralement à l’évaluation des chercheurs au travers de leurs publications. Pour finir, nous remercions les membres du comité de programme (47 personnes, STIC ou SHS) qui ont fait des commentaires souvent très détaillés afin d’aider au mieux les doctorants, les membres du comité d’organisation qui ont tout mis en œuvre pour la réussite de ces journées ainsi que tous les chercheurs confirmés qui viennent contribuer à la richesse des discussions. Nous remercions également l’ATIEF et les différents sponsors pour leur soutien, ainsi que l’Université de Picardie Jules Verne et le laboratoire Modélisation, Information et Systèmes (MIS) pour nous accueillir cette année. Enfin, nous remercions les jeunes chercheurs en EIAH sans qui ces journées n’existeraient pas ! iv Amiens – 23 et 24 mai 2012 Table des matières Introduction ................................................................................................................................................................................ iii Table des matières ................................................................................................................................................................................. v Conférence invitée ............................................................................................................................ vii Game-Based Learning: Understanding games from a multidisciplinary perspective PATRICK FELICIA .................................................................................................................................................. vii Articles longs ...................................................................................................................................... 1 Opérationnalisation de scénarios pédagogiques : une approche DSM centrée LMS Aymen Abedmouleh ................................................................................................................................................ 3 Le TAL pour l’analyse de contenus d’interactions et de productions dans la formation en ligne Alexandre Baudrillart .............................................................................................................................................. 9 Interprétation des traces d’interaction dans un EIAH par appariement structurel Mohamed Besnaci ................................................................................................................................................. 15 Une approche basée sur les Patrons centrée Enseignant pour la scénarisation pédagogique Jean-Pierre Clayer ................................................................................................................................................. 21 Manifestation culturelle du numérique Thierry Danquigny ................................................................................................................................................ 27 Conception d’un système de dialogue intelligent pour jeux sérieux Franck Dernoncourt ............................................................................................................................................... 33 Analyse automatique de codes informatiques pour l’aide à l’enseignant Loïc Février ........................................................................................................................................................... 39 Similarités sémantiques et contextuelles pour l’apprentissage informel en mobilité Pierre-Yves Gicquel .............................................................................................................................................. 45 Developing adaptive intelligent tutoring system Mohamed Hafidi.................................................................................................................................................... 51 Ergonomic Study of Existing Project-Based Learning Management System Ji Min..................................................................................................................................................................... 57 Une approche orientée indicateurs pour supporter les activités du tuteur Aina Lekira ............................................................................................................................................................ 63 Acquisition interactive de connaissances pédagogiques pour la personnalisation d'EIAH dans le cadre de la formation à distance Bruno Mascret ....................................................................................................................................................... 69 Vers une mise en relation des activités d’édition et de navigation dans les ressources d’apprentissage : cas de l’apprentissage d’un langage de programmation Mahdi Mile ............................................................................................................................................................ 75 4ièmes Rencontres Jeunes Chercheurs en EIAH v Intégration de raisonnements automatiques dans le système d’annotation MémoNote Hakim Mokeddem ................................................................................................................................................. 81 Modélisation outillée d’une stratégie contextualisée d’observation dans le cadre d’un environnement d’apprentissage Mohand Akli Ouali ................................................................................................................................................ 87 POSTERS ......................................................................................................................................... 93 Ontologie pour la représentation des connaissances algorithmiques Et la proposition de parcours d’enseignement. Myriam Abdessemed ............................................................................................................................................. 95 Assister la compréhension des problèmes algorithmiques Taki Eddine Belhaoues .......................................................................................................................................... 97 Hypermédia adaptatif à épistèmes pour l'apprentissage des langages de programmation Pascal Ortiz............................................................................................................................................................ 99 Gamification d’environnement informatique Alain Simac-Lejeune ........................................................................................................................................... 101 vi Amiens – 23 et 24 mai 2012 Game-Based Learning: Understanding games from a multidisciplinary perspective Patrick Felicia [email protected] Abstract This keynote will describe the multidisciplinary aspect of the research currently conducted in Game-Based learning, and the impact video games can have from different perspectives including psychology and education. The author will also present an overview of the current state of the art in the field of Game-Based Learning. The keynote will highlight key findings, current challenges faced by both GBL researchers and practitioners, provide a summary of best practices for the integration of GBL in instructional settings, and identify a road map for GBL research. 4ièmes Rencontres Jeunes Chercheurs en EIAH vii viii Amiens - 23 et 24 mai 2012 ARTICLES LONGS 4ièmes Rencontres Jeunes Chercheurs en EIAH 1 2 Amiens – 23 et 24 mai 2012 Formalisation du langage de conception pédagogique implicite d’un LMS : motivations et processus Aymen Abedmouleh LIUM, Avenue Olivier Messiaen, 72085 LE MANS CEDEX 9, France [email protected] Résumé Les utilisateurs des LMSs/plateformes de formation à distance et en particulier les enseignants-concepteurs rencontrent de nombreuses difficultés pendant la spécification de leurs cours ou de leurs scénarios pédagogiques. Ces difficultés traduisent le besoin de travaux de réingénierie ou de nouvelles approches de conception plus adaptées à leurs pratiques. Notre travail de recherche consiste à faciliter la conception et la mise en œuvre de scénarios pédagogiques sur les LMS. Nous proposons une nouvelle approche de conception basée sur le métier de conception pédagogique embarqué dans les LMS. Dans cet article, nous proposons un processus original d’identification et de formalisation de ce métier. Celui-ci s’appuie sur deux points de vue complémentaires : le point de vue IHM principalement basé sur l’analyse des interfaces du LMS, et le point de vue technique basé sur des méthodes d’analyses du LMS en tant que système informatique. Nous proposons ensuite d’exploiter le langage formalisé comme base pour la spécification de langages et outils graphiques externes. Ces outils permettront aux enseignants-concepteurs de se concentrer sur la conception pédagogique propre à la plateforme considérée mais à un niveau d’abstraction suffisant. Le processus est illustré par des extraits (forum et discussion) d’expérimentations menées sur la plateforme Moodle. Introduction Les enseignants et les concepteurs rencontrent aujourd’hui des difficultés pendant la conception et la mise en œuvre de leurs situations d’apprentissage sur les LMS (Learning Management System) ou plateformes de formation à distance (Ortiz et al. 2009). Pour configurer leurs situations d’apprentissage, ils doivent gérer et s’approprier les différents écrans et les différentes interfaces basées principalement sur des formulaires. Aujourd’hui, plusieurs standards comme IMS-LD et SCORM (Tattersall et al. 2005), plusieurs approches comme l’approche de patrons de conception (Baggetun et al. 2004), plusieurs langages de modélisation pédagogiques comme PALO (Artacho et Maíllo 2004), et plusieurs outils comme e-LD (Ortiz et al. 2009) sont proposés pour faciliter la conception pédagogique. Cependant, de nombreux obstacles rencontrés par les enseignants-concepteurs concernent principalement : (1) les difficultés de spécification des scénarios directement sur les LMSs et (2) les difficultés 4ièmes Rencontres Jeunes Chercheurs en EIAH de retranscription des concepts d’un scénario spécifié à l’extérieur des LMS avec ceux proposés par le LMS. Dans la section 2, nous présentons un aperçu des problématiques traitées. La section 3 présente notre approche dédiée à la conception pédagogique centrée LMS. Ensuite, nous détaillons, dans la section 4, le processus d’identification et de formalisation des langages de conception pédagogique de plateformes. La section 5 présente un extrait de nos expérimentations portant (1) sur l’identification du métier de conception pédagogique d’un forum sur Moodle, (2) l’ajout des fonctionnalités d’import/export à cette plateforme et (3) le développement d’un éditeur graphique basé sur le langage de conception de Moodle. Enfin, nous concluons en présentant les travaux actuels. Problématique et Positionnement Dans nos travaux, nous abordons deux problématiques principales. La première concerne la spécification des scénarios sur les LMSs tandis que la deuxième concerne les difficultés d’implémentation des scénarios pédagogiques spécifiés en dehors des LMSs. Nous supposons que les LMSs embarquent un paradigme de conception pédagogique qui lui est propre. Cependant, les praticiens-concepteurs ne sont pas familiers avec ce domaine implicite de conception pédagogique. La spécification d’un cours sur les LMSs est basée principalement sur des interfaces à base de formulaires. Elle porte sur le paramétrage de nombreux paramètres de ces formulaires qui sont parfois optionnels ou des détails techniques à un niveau très bas. Ces difficultés engendrent souvent une exploitation minimale des LMS comme un espace de partage de ressources pédagogiques (Steel 2009). La deuxième problématique est due à l’incompatibilité entre le langage de conception et le langage d’opérationnalisation (le langage implicite du LMS). Cet écart entre les deux langages pénalise le processus de transformation de scénarios. Plusieurs travaux (Abdallah et al. 2008) consistant à retranscrire les scénarios ont mis en évidence l’écart de la sémantique pédagogique entre les concepts utilisés pour spécifier les scénarios et les caractéristiques des LMS. Certaines transcriptions de scénarios entraînent des pertes d'information et de sémantiques spécifiées dans le scénario source ou, au contraire, des insuffisances d’informations pour spécifier et mettre en œuvre le scénario sur la plateforme. 3 Aymen Abedmouleh Il nous semble que les propositions actuelles n’ont pas encore atteint un niveau de maturité suffisant pour que les enseignants-concepteurs implémentent efficacement leurs scénarios. Pour cela, nous proposons une nouvelle approche de conception basée explicitement sur le métier des LMS. Une Approche de Conception Centrée LMS L’objectif principal de nos travaux est de (1) faciliter la spécification de scénarios pédagogiques, (2) proposer des outils de conception mieux adaptés aux pratiques des enseignants-concepteurs, (3) proposer des moyens de communication entre les LMS et des outils externes dédiés et enfin (4) garantir l’implémentation des scénarios spécifiés à l’extérieur des LMS sans perte de sémantiques. Nous supposons que les LMS ne sont pas pédagogiquement neutres. Ils embarquent implicitement des paradigmes de conception pour les activités pédagogiques. Notre approche porte sur l’identification et la formalisation de ce métier de conception pédagogique. D’un point de vue langage, nous nous intéressons principalement à expliciter la syntaxe abstraite implicite des LMS que nous proposons de formaliser sous la forme d’un métamodèle (concepts, attributs, relations, types, etc.). Dans un premier temps, ce choix offre l’opportunité d'exposer un langage comme base pour le développement d'outils de conception pédagogique extérieurs aux LMS (par exemple pour l'édition de scénarios, pour exporter un scénario spécifique d’un LMS vers un autre, etc.). L’un des premiers objectifs de cette approche est d’offrir aux praticiens de nouveaux VIDL (Visual Instructional Design Language) et des éditeurs externes dédiés basés sur le langage métier des LMS. Plusieurs VIDLs centrés LMS (Botturi et Todd 2007) peuvent être proposés pour le métier (entier ou partiel) de LMS. Ils doivent être composés de la même syntaxe abstraite que le langage du LMS (perspective sur le méta-modèle du domaine), mais en proposant une notation visuelle différente (pour la syntaxe concrète). Les VIDLs ainsi que leurs éditeurs dédiés facilitent la réflexion et la communication pour les praticiens. Ils doivent gérer la persistance des scénarios pédagogiques produits dans un format interprétable par la machine et conforme au langage identifié et formalisé du LMS. Dans un deuxième temps, les scénarios spécifiés à l’extérieur des LMS doivent être opérationnalisés sans pertes de sémantique ou d’information. Notre proposition consiste à étendre les LMS par des nouvelles fonctionnalités analogues à celles proposées pour le standard SCORM (Gonzalez et Ando 2010), mais reposant sur le métier du système LMS concerné afin de les rendre capable d’importer/exporter des scénarios pédagogiques. L'opérationnalisation du scénario pédagogique consiste ainsi à l'importation des scénarios formalisés. 4 Nous voulons également permettre aux enseignants d’adapter et de faire évoluer leurs scénarios déjà implémentés sur les LMSs. L’échange entre ces deux systèmes (LMS et outil de conception) facilite l’adaptation éventuelle des scénarios pédagogiques. La fonctionnalité d’import/export permet d’exporter les scénarios existants dans un format compréhensible par ces outils externes et également d’importer les scénarios spécifiés à l’aide de ces derniers. La sémantique des scénarios pédagogiques est préservée lors de l’importation et de l’exportation parce qu’aucune transformation de modèles n’est nécessaire. Les scénarios créés ou bien modifiés par l’outil de conception sont totalement opérationnalisables parce qu’ils sont conformes au langage pédagogique implicite du LMS. L'explicitation du métier des LMSs représente une nouvelle opportunité pour l’opérationnalisation des scénarios pédagogiques et également une nouvelle approche pour la spécification des VIDLs et des éditeurs dédiés. Les VIDLs et leurs éditeurs sont spécifiés selon une approche DSM (Domain Specific Modeling). Le DSM offre un cadre théorique et pratique pour la modélisation et la spécification formelle des scénarios pédagogiques (Laforcade, 2010). Cette approche est capable d’apporter une valeur ajoutée pour l’explicitation, la spécification et l’opérationnalisation de scénarios pédagogiques et de langages de modélisation pédagogique, également pour la définition de VIDL centré sur le métier des praticiens, des standards et des plateformes. Processus d’Analyse Pour définir un tel langage, nous avons spécifié un processus pour analyser, identifier et formaliser le langage de conception pédagogique des LMS. Le processus vise plusieurs communautés de recherche en EIAH et en génie logiciel de façon plus globale. Il concerne principalement la communauté des LMSs/plateformes de formation tels que les ingénieurs pédagogiques et les développeurs-concepteurs. Le processus est le résultat de plusieurs expérimentations et analyses effectuées sur plusieurs plateformes (Moodle, Ganesha, etc.). Après l’appropriation de ces systèmes, nous avons constaté que chacun d’entre eux embarque un paradigme spécifique. Cependant, une même analyse pouvait être définie afin de guider le travail d’identification et de formalisation pour chacun d’entre eux. Nous proposons ainsi un processus d’analyse basé sur deux points de vue complémentaires : un point de vue centré IHM et un point de vue centré technique. Le premier point de vue porte sur l’analyse des IHMs selon deux stratégies : analyse de cours/situations existants(es) et analyse des interfaces liées à la spécification de nouveaux cours ou de nouvelles situations. Le deuxième point porte sur des méthodes d’analyses plus techniques s’intéressant davantage à la plateforme comme artefact informatique. Amiens - 23 et 24 mai 2012 Formalisation du langage de conception pédagogique implicite d’un LMS Le processus que nous proposons (figure 1) est composé de trois étapes principales : l’analyse centrée IHM, l’analyse centrée technique, ainsi que la confrontation et formalisation finale. La première étape est conduite par 3 analyses séquentielles (macro-IHM, fonctionnelle et micro-IHM) selon une démarche descendante. Chaque analyse possède ses propres caractéristiques et produit son (ses) modèle(s) conforme(s) au formalisme proposé. L’activité de composition est basée sur les modèles résultant des analyses précédentes et consiste à formaliser le modèle métier final par la dérivation de celui issu de l’analyse centrée IHM. La seconde étape concerne l’analyse centrée technique. Plusieurs méthodes techniques peuvent être adoptées (base de données, code source, les sauvegardes de cours, etc.) mais la principale source d’informations sera l’analyse de la base de données. La dernière étape du processus concerne la confrontation entre le modèle IHM et le modèle technique, puis la formalisation du modèle métier final (méta-modèle) de conception pédagogique. Ce méta-modèle servira ensuite de base de spécification pour les modules d’import/export des LMS, ainsi que la spécification et le développement de langages/éditeurs de conceptions pédagogiques externes. L’analyse centrée IHM assure l’identification de la partie visible du langage de la plateforme. L’analyse centrée technique assure la spécification des modèles conformément au langage des plateformes. La confrontation entre les modèles assure l’affinement du modèle IHM et la détection de certains problèmes. Dans les sous-sections suivantes, nous détaillons les différentes parties du processus. titres des interfaces et des formulaires, et parfois via l’analyse des chemins de navigation. Ensuite, les relations entre les concepts du modèle sont déduites à partir des relations existantes entre les interfaces. Analyse Fonctionnelle L’analyse fonctionnelle est basée sur le modèle IHMmacro. Elle consiste à identifier les fonctionnalités relevant de la conception pédagogique. Les IHM sont ainsi analysées d’un point de vue fonctionnel. Nous avons classé les fonctionnalités embarquées en deux catégories : les fonctionnalités à critère pédagogique qu’il faudra conserver et les fonctionnalités administratives (affichage, gestion, etc.) qu’il faudra écarter. Les fonctionnalités sont implicitement embarquées dans les interfaces via des composants de l’interface graphique (des widgets) facilitant les interactions entre le système et les usagers. Les composants doivent être testés pour déterminer leur critère pédagogique. Ensuite, on attribuera un nom pour chaque composant "pédagogique". Le formalisme du modèle fonctionnel proposé s’inspire du modèle SADT (Structured Analysis and Design Technic) (Marca et McGowan 1987) en adaptant légèrement la sémantique des diagrammes de cas d’utilisation UML (Unified Modeling Language) (John et Muthig 2002). Un tel diagramme est ainsi utilisé pour représenter les modèles ‘fonctionnels’ internes. Les sous-fonctionnalités sont alors représentées dans un nouveau diagramme de cas d’utilisation lié au précédent par une relation hiérarchique explicite. Les fonctionnalités sont également identifiées en analysant les interfaces des cours existants comme celles permettant la création de nouveaux cours. Figure 1 : processus d’analyse du langage de conception pédagogique L’analyse Centrée IHM Analyse IHM-macro Les LMS sont composés de plusieurs interfaces développées pour différentes finalités et pour différentes catégories d’usagers (enseignant, apprenant, administrateur, etc.). L’analyse IHM-macro consiste à identifier les IHM relevant de la conception pédagogique. Ces IHM sont dédiées à la spécification des situations d’apprentissage (scénarios pédagogiques, cours, etc.). L’analyse macro-IHM vise à référencer ces IHM dans son modèle macro-IHM. Ce modèle est une cartographie (mindmap en anglais) d’IHMs dont chacune est représentée par son concept principal. Ces concepts sont identifiés via l’analyse sémantique des 4ièmes Rencontres Jeunes Chercheurs en EIAH Analyse IHM-micro L’analyse IHM-micro est basée sur le modèle IHMmacro et fonctionnel. Elle consiste à analyser les interfaces concernées à une échelle plus fine pour identifier les éléments relevant de la conception pédagogique. Plusieurs modèles IHM-micro résultent de cette analyse. Chaque modèle décrit un élément et ses propriétés (attributs, types, etc.). Pour mener cette analyse, nous proposons la démarche suivante. Pour chaque interface, tous les éléments doivent être analysés afin de déterminer ses caractéristiques pédagogiques. Plusieurs éléments pédagogiques peuvent être décrits par des composants d’interface graphique, des formulaires, etc. Plusieurs composants 5 Aymen Abedmouleh peuvent cacher des éléments pédagogiques. Ils doivent être testés et analysés. Il est également important d’identifier les attributs des éléments identifiés ainsi que leurs propriétés. Durant notre travail d’analyse, nous avons constaté que des domaines de valeur sont associés à plusieurs attributs dont certains sont déjà initialisés par défaut. Les domaines de valeurs ainsi que les initialisations par défaut doivent être identifiés ; ils représentent des caractéristiques importantes de la conception pédagogique centrée LMS. L’identification de ces éléments est réalisée via l’analyse des titres et des formulaires. Ces éléments sont classifiés en deux catégories : les éléments requis par les interfaces et les éléments optionnels. Les éléments requis sont soulignés par un style spécifique (gras, souligné, couleur spécifique, etc.). Ils forment des éléments principaux de la conception pédagogique. L’analyse des formulaires permet aussi de détecter les dépendances et les relations entre ces éléments. Parfois, le paramétrage de certains éléments implique le paramétrage automatique d’autres. La description des relations nécessite la définition des multiplicités entre eux. La multiplicité est représentée par un couple de bornes minimale et maximale. Enfin, nous notons que l’ordre des éléments est une caractéristique importante dans la conception pédagogique parce qu’elle influence l’organisation des concepts pédagogiques (exemple l’organisation du cours dans la plateforme Moodle). Nous avons choisi une adaptation du format mindmap pour représenter le modèle IHM-micro. Ce format permet la représentation et la description des éléments de conception pédagogique en termes d’attributs, de types, de propriétés, de domaines de valeur, d’initialisations, de contraintes et de relations. La Composition La composition vise à formaliser le langage de conception pédagogique partiel dérivé de l’analyse centrée IHM. Elle consiste à combiner les modèles IHM-micro dans un modèle unique. Les relations entre les modèles sont basées sur les relations situées dans les modèles IHM-macro et fonctionnel. Les relations situées dans le modèle IHM-macro sont facilement identifiées mais celles du modèle fonctionnel sont identifiées selon la démarche suivante. Après avoir choisi un élément du modèle IHM-macro, nous devons fixer la partie du modèle fonctionnel associée. Plusieurs cas d’utilisation référencent un ou plusieurs élément(s) requis pour la réalisation des fonctionnalités. En se basant sur la hiérarchie des cas d’utilisation, nous déduisons les relations entre ces éléments. Nous savons déjà que les sous-modèles internes du modèle fonctionnel sont représentés par niveau. Les modèles IHM-micro seront également représentés par niveau en préservant la hiérarchie équivalente du modèle fonctionnel. Enfin, les multiplicités entre les éléments/modèles sont ajoutées sur le modèle IHM. Certaines multiplicités sont déjà identifiées pendant l’analyse IHM-micro. En conclusion, le modèle IHM fusionne les modèles IHM-micro en adoptant un format 6 de type cartographie (mindmap). Analyse Centrée Technique La deuxième partie du processus concerne l’analyse centrée technique. Elle concerne plusieurs points techniques au sein des LMS à analyser : les bases de données, le code source, la sauvegarde/restauration des cours (si elle existe), etc. Dans cette étape, la source principale d’information pour identifier le langage de conception pédagogique est la base de données du LMS concerné. Les autres analyses techniques sont utilisées durant la dernière partie de confrontation. L’analyse de la base de données consiste à spécifier le modèle conceptuel de données réduit parmi le modèle fourni par les créateurs de LMS, s’il existe. Plusieurs modèles sont représentés par le biais du modèle relationnel de données généré par des outils proposant la ré-ingénierie de la base. Cependant, la majorité de ces outils ne sont pas gratuits et leurs résultats dépendent directement de la taille de la base de données. Dans notre approche, l’analyse de la base de données est réduite aux tables/colonnes en relation avec la conception pédagogique. L’obstacle principal concerne leurs identifications. Les informations issues de l’analyse centrée IHM semblent utiles pour ce cas. Pour mener cette analyse à bien, notre méthodologie consiste à (1) parcourir toutes les tables afin d’esquisser une première ébauche du modèle, (2) se focaliser sur les tables faisant référence à des éléments de conception pédagogique. Ces tables sont identifiées via l’analyse sémantique de leurs titres ou de leurs champs d’enregistrement. D’autres tables sont également identifiées via leurs dépendances avec d’autres ou bien via les clés étrangères. Notre analyse consiste à spécifier le schéma réduit de la base de données par le biais des règles de reverse engineering des bases de données. Le modèle conceptuel de données peut être finalement spécifié à partir de ce schéma. Ce modèle est efficace pour représenter le modèle métier selon un point de vue technique des données sauvegardées. Il permet aussi par construction de cacher les mauvaises structures des bases de données et d’éviter les redondances et mauvaises conceptions. Certaines relations entre tables exigent des analyses manuelles fines afin de rejeter celles créées pour des finalités uniquement à bas niveau. Confrontation des Modèles et la Formalisation du Modèle Final La dernière partie du processus concerne la confrontation des modèles IHM et technique et la formalisation du modèle final de la conception pédagogique. Les modèles sont comparés afin d’affiner le modèle IHM, détecter et corriger les différences et assurer que le modèle final est facilement spécifié dans un format interprétable par la machine. La confrontation mène à des vérifications concernant la Amiens - 23 et 24 mai 2012 Formalisation du langage de conception pédagogique implicite d’un LMS définition des éléments de conception pédagogique dans les deux modèles. Certaines ambigüités ou différences (la définition des éléments similaires, la non-existence de certains attributs, la divergence des types d’attributs, etc.) sont révélées. Elles exigent des analyses plus profondes et plus fines des modèles IHM et technique. À ce stade, d’autres analyses techniques peuvent être utiles. Par exemple, l’analyse du code source consiste à analyser directement le code du LMS. Elle concerne principalement le code de la définition des IHMs et les requêtes d’insertion/sélection des données. Cette analyse révèle plusieurs détails que le développeur a choisi d’implémenter pour des raisons de portabilité et d’efficacité. Cette partie vise à formaliser le langage de conception pédagogique. Nous avons choisi le format des métamodèles parmi d’autres (XML schéma, mindmap, ontologies, etc.) car il servira de base pour le développement de nouveaux outils de conception selon l’approche Domain Specific Modeling. Le processus vérifie l’existence de chaque élément du modèle IHM sur le modèle technique. Lorsque l’existence est vérifiée, l’élément est modélisé par une méta-classe dans le méta-modèle. Ensuite, ses attributs sont vérifiés. La vérification concerne l’existence et le type. Les attributs vérifiés sont représentés par des méta-attributs au sein de la méta-classe de l’élément parent. Enfin, les relations entre les méta-classes sont définies en tenant compte des relations existantes dans les modèles IHM et technique. Les multiplicités sont également vérifiées avant leur représentation dans le méta-modèle. Expérimentations Expérimentation du Processus Nous présentons dans cette section un extrait des expérimentations menées sur la plateforme Moodle. Cet extrait concerne l’identification et la formalisation du langage de conception d’un forum sur Moodle. Le forum est une activité fréquemment utilisée au sein d’un cours. Sa spécification nécessite le paramétrage de plusieurs IHM qui embarquent d’autres éléments dédiés à la conception de cette activité. Dans un premier temps, l’analyse IHM-macro a consisté à l’identification des IHM relevant de la spécification du forum. La création d’un nouveau forum mène à des nouvelles interfaces pour la spécification des éléments dédiés tels que le cas de l’élément «discussion ». Le modèle IHM-macro est enfin composé par deux concepts principaux : 'forum' et 'discussion'. Dans un deuxième temps, l’analyse fonctionnelle a identifié les fonctionnalités en relation avec la spécification du forum et de ses éléments. Les fonctionnalités sont également identifiées en analysant les interfaces de création d’un nouveau forum ainsi que l’analyse d’un forum existant. La fonctionnalité principale identifiée est «ajouter un forum» après l’analyse de l’interface principale du cours. Ensuite, nous avons identifié ses 4ièmes Rencontres Jeunes Chercheurs en EIAH sous-fonctionnalités (comme «ajouter une discussion»). Le modèle fonctionnel est spécifié au fur et à mesure de l’identification des fonctionnalités. Dans un troisième temps, l’analyse IHM-micro a consisté à analyser le formulaire de l’interface du forum. Ensuite, les éléments et les attributs reliés au forum doivent être identifiés. Nous avons identifié les attributs du forum, leurs types, leurs champs de valeurs et leurs initialisations. La même analyse a été reproduite concernant l’élément 'discussion'. Ensuite, nous avons déterminé les multiplicités entre forum et discussion en associant plusieurs discussions au forum. Nous avons constaté qu’une discussion n’est associée qu’à un seul forum. Enfin, cette analyse a produit deux modèles IHM-micro (figure 2). La dernière étape de l’analyse centrée IHM (la composition) a consisté à associer les deux modèles IHM-micro du forum et des discussions (figure 2). En se basant sur le modèle IHM-macro et fonctionnel, nous avons déduit qu’une discussion est un sous élément de forum. Ensuite, nous avons représenté les multiplicités déjà identifiées dans l’analyse IHMmicro. 1 0,* 1,1 0,* 1,1 2 Figure 2 : Extrait du modèle IHM de la conception du forum L’analyse centrée technique a consisté à étudier la base de données de Moodle. Nous avons tout d’abord ciblé les tables en relation avec la conception du forum via l’analyse sémantique de leurs titres (forum, forum_discussions, etc.). Certaines tables et données (forum_trak_prefs, forum_read, etc.) ne sont pas prises en compte parce qu’elles se focalisent sur des finalités techniques trop bas niveau. Ensuite les relations entre les tables sont définies. À ce stade, nous avons constaté que certaines données nécessitent l’identification d’autres tables. Ces tables sont ajoutées au schéma de la base de données avant sa transformation en modèle conceptuel. Enfin, les deux modèles IHM et technique sont confrontés en suivant la démarche que nous avons décrite. Cette confrontation a mené à la spécification du méta-modèle du langage de conception pédagogique dont un extrait est représenté dans la figure 3. 7 Aymen Abedmouleh pour la spécification des scénarios pédagogiques dédiés à la plateforme Ganesha, et (2) d’un nouveau module de communication similaire à celui de Moodle. Référence Figure 3 : Extrait du méta-modèle du langage de conception d’un forum de Moodle API pour Moodle Notre approche porte également sur l’extension des LMS par des API de communication proposant des services d’import/export. En se basant sur le métamodèle du langage de conception pédagogique du LMS, nous avons généré et adapté un schéma XML. Ce schéma est utilisé au sein de l’API que nous avons développée pour la plateforme Moodle 2.0. Cette API est intégrée au sein de l’espace enseignant de création du cours. Elle assure l’opérationnalisation de cours ainsi que l’exportation des scénarios pédagogiques conformément au schéma XML spécifié (Abedmouleh et al. 2011a). Concernant cette API, nous avons également pris en compte la possibilité de réaliser des imports/exports successifs afin d’adapter le cours grâce à des outils de conception externes. Conclusion Dans cet article, nous avons présenté nos travaux de recherche portant sur une nouvelle approche de conception basée sur le langage de conception pédagogique d’un LMS. Nous avons décrit notre approche qui propose un processus pour l’identification et la formalisation de ce langage. Nous avons pris en compte deux points de vue complémentaires : le point de vue IHM assurant l’identification du langage LMS accessible à l’utilisateur et le point de vue technique assurant l’opérationnalisation des scénarios spécifiés conformément au langage identifié. Le processus d’analyse ainsi que l’approche de conception que nous proposons sont ré-exploitables pour d’autres LMS. Le processus offre l’opportunité de comparer le langage de plusieurs LMSs. Nous avons également montré l’utilité de ce processus à travers les valeurs ajoutées qu’il peut apporter en ce qui concerne l’extension des LMS par des services de communication (import/export) avec des outils de conception externes développés sur la base du métier identifié. Ces outils de conception doivent être plus adaptés aux pratiques des enseignants, plus ergonomiques que les interfaces des LMS et dont les modèles produits seront conformes au langage de conception pédagogique dédié au LMS. Nous avons expérimenté l’utilisation du méta-modèle pour le développement d’un VIDL et d’un éditeur graphique dédié (Abedmouleh et al. 2011b) en se basant sur l’approche DSM. Nous travaillons actuellement sur le développement (1) d’un deuxième outil de conception graphique externe 8 Abdallah, F.; Toffolon, C.; and Warin, B. 2008. Models transformation to implement a Project-Based Collaborative Learning (PBCL) Scenario : Moodle case study. In 8th IEEE International Conference on Advanced Learning Technologies, 639-643. Spain. Abedmouleh, A.; Oubahssi, L.; Laforcade, P. and Choquet, C. 2011a. Operationalization of Learning Scenarios on Open and Distance Learning platforms: the case of the Moodle Platform. 11th IEEE International Conference on Advanced Learning Technologies. 396-398. Athens , USA. Abedmouleh, A.; Laforcade, P.; Oubahssi, L.; and Choquet, C. 2011b. Operationalization of learning scenarios on existent Learning Management Systems: the Moodle case-study. International Conference on Software and Data Technologies In Proceedings of the 6th International Conference on Software and Data Technologies, 143-148. Seville, Spain. Artacho, M. R.; and Maíllo M. F. V. 2004. Modeling Educational Content: The Cognitive Approach of the PALO Language. Educational Technology & Society, 7 (3):124-137. Baggetun, R.; Rusman, E.; and Poggi, C. 2004. Design Patterns for collaborative learning: from practice to theory and back. In Proc. of World Conference on Educational Multimedia, Hypermedia and Telecommunications, 2493-2498, Chesapeake, VA. Botturi, L.; and Todd, S. 2007. Handbook of Visual Languages for Instructional Design: Theories and Practices. Information Science Reference. Gonzalez, V.; and B., Anido, L., R. 2010. From SCORM to Common Cartridge: A step forward. In Computers & Education 54: 88-102. John, I.; and Muthig, D. 2002. Tailoring Use Cases for Product Line Modeling. In International Workshop on Requirements Engineering for Product Lines (REPL 2002), Essen, Germany. ISBN: 0-9724277-0-8. Laforcade, P. 2010. A Domain-Specific Modeling approach for supporting the specification of Visual Instructional Design Languages and the building of dedicated editors. In Journal of Visual Languages and Computing. Volume21 Issue6:347-358 Marca, D.A.; and McGowan, C.L. 1987. SADT: structured analysis and design technique. ISBN:0-07040235-3, New York USA. Ortiz, I. M.; Sierra, J.L.; and Fernández-Manjón B., 2009. Enhancing IMS LD Units of Learning Comprehension. The 4th International Conference on Internet and Web Applications and Services. Italy. Steel C., 2009. Reconciling university teacher beliefs to create learning designs for LMS environments. The University of Queensland. In Australasian Journal of Educational Technology Tattersall, C.; Burgos, D.; Vogten, H.; Marterns H.; Koper, R., 2005. How to use IMS Learning Design and SCORM 2004 together.IN the SCORM 2006 conference. Tamkang University, Taipei, Taiwan. Amiens - 23 et 24 mai 2012 Le TAL pour l’analyse de contenus d’interaction et de productions dans la formation en ligne. Alexandre Baudrillart LIDILEM1 – LIRIS2 Université Stendhal Grenoble 3, BP 25, 38040 Grenoble Cedex 9, France 2 Université de Lyon, CNRS, INSA-Lyon, UMR5205 F-69621, France [email protected] 1 Résumé Dans le cade d’apprentissages assistés par des environnements informatiques, les techniques du traitement automatique des langues ne sont que peu utilisés ou restreintes à des tâches ou à des domaines spécifiques comme l’ALAO (Apprentissage de la langue Assisté par Ordinateur). Nous cherchons à explorer les possibilités et les performances d’applications de ces méthodes pour des systèmes moins spécifiques dès que des traces d’interactions entre divers apprenants peuvent être collectées. Nous décrivons ici notre problématique et son contexte, nos motivations et l’orientation de nos travaux bibliographiques. Introduction Les préoccupations considérées dans le cadre de notre thèse, dirigée par Georges Antoniadis (LIDILEM) et codirigée par Sébastien George et Christine Michel (LIRIS), concernent l’analyse de matériaux langagiers de traces d’interactions et de productions dans des situations d’apprentissage collectives, c’est-à-dire les messages en langue naturelle échangés. L’objectif principal est exploratoire et consiste à évaluer les possibilités des traitements automatiques des langues actuelles dans la production d’indicateurs sur le niveau et la qualité de construction du savoir par les apprenants lors de ces situations d’apprentissage. Nous décrirons un panorama général du Traitement Automatique des Langues, qui n’est pas un domaine connu de tous (Antoniadis 2008). Puis, nous aborderons de manière non exhaustive les applications de méthodes TAL pour les EIAH et plus particulièrement pour l’ALAO. Enfin, nous expliciterons notre problématique préparatoire et tâcherons de la situer par rapport à deux travaux. de transformer des matériaux langagiers (qu’ils soient écrits ou oraux) en représentations formelles (Bouillon et Vandooren 1998) plus ou moins implicites mettant en exergue la présence, l’absence de certaines entités, l’existence de relations entre différentes entités, ou encore permettant de retrouver des documents et des contenus en fonction d’une demande formulée en langue naturelle. Par la suite, nous restreindrons notre description au traitement de l’écrit. Nous présenterons le TAL de manière générale, puis décrirons une chaîne de traitement traditionnelle en TAL et les différents étapes ou ressources mises en œuvre, et enfin nous mettrons en avant quelques méthodes répandues que sont l’Utilisation de l’Analyse Sémantique Latente (Latent Semantic Analysis), la fouille de texte ou la classification supervisée. Une chaîne de traitement de l’écrit type en TAL On distingue généralement deux types de traitement : l’analyse, dont font parties les exemples inscris ciavant, et la génération automatique de textes en langue naturelle. La génération automatique de texte consiste en la production de texte en langue naturelle à partir de données brutes ou d’une représentation formelle comme la génération automatique de bulletins météorologiques en langue naturelle (Coch 1999). Nous ne présentons ici que l’analyse car elle partage beaucoup avec la génération à part la dimension de planification et le sens de parcours de la chaîne. La chaîne de traitement traditionnelle des traitements d’analyse de l’écrit se présente comme en FIGURE 1. Le Traitement Automatique des Langues et ces Principales Techniques Le Traitement Automatique des Langues (Natural Language Processing) est par essence pluridisciplinaire (Antoniadis 2008). En effet, il consiste à fournir des modèles et des programmes informatiques permettant 4ièmes Rencontres Jeunes Chercheurs en EIAH 9 Alexandre Baudrillart intégralité ou non pour des tâches de plus haut niveau, qu’elles soient proprement linguistiques ou qu’elles répondent à des besoins, des problèmes qui ne sont pas directement liés à la langue et cela au travers de cette dernière. Approches Représentatives Figure 1 : chaîne de traitement type en traitement automatique des langues (P. Enjalbert) On segmente et on tokénise le texte source, c’est-àdire qu’on va essayer de découper en différents morceaux correspondant à des mots, des acronymes ou des séparateurs. On obtient des phrases contenant des tokens. Ensuite ou de concert, intervient une analyse morphologique permettant, à partir de la forme des mots (les graphies), de leurs désinences ou de leurs préfixes (appelons ces parties morphèmes qui sont des formes atomiques amenées à être combinées pour former les mots de la langue) pour catégoriser la nature grammaticale de ces mots (Part Of Speech Tagging). Différents analyseurs morphologiques automatiques existent et notamment TreeTagger1 répandu dans la communauté du TAL (Schmid 1994) car un des meilleurs parmi les outils gratuits. Une fois des étiquettes de catégories grammaticales attachées aux différentes graphies (qu’on ait effectué des choix ou seulement énuméré les possibles). Une étape d’analyse syntaxique entre en jeu avec deux objectifs. Le premier objectif est la validation de la correction grammaticale du texte en vérifiant si les mots et leurs catégories grammaticales obéissent à la grammaire de la langue souvent formulée sous forme d’une grammaire. Le second est de constituer les relations syntaxiques qui unissent les différents mots au sein de la phrase. C’est alors une structure arborescente qui représente la phrase. On peut citer deux analyseurs morphosyntaxiques : Syntex (Bourigault 2007) et le Xerox Incremental Parser2. Ensuite, un étiquetage sémantique des tokens prend place. On essaye d’associer chacun des tokens à un Concept d’une ontologie (a)linguistique (ex : GeneOntology), à une entrée lexicale précise d’un réseau lexicale ou sémantique (ex : WordNet) et/ou en lui prêtant différents caractéristiques sous forme d’une structure de traits. On obtient alors un arbre étiqueté par toutes ces informations supplémentaires. Ces différentes étapes représentent les prétraitements traditionnellement admis comme nécessaires dans leur 1 http://www.ims.uni-tuttgart.de/projekte/corplex/TreeTagger/ 2 http://www.xrce.xerox.com/Research-Development/DocumentContent-Laboratory/Parsing-Semantics/Robust-Parsing 10 On répartit habituellement les différentes approches du traitement automatique des langues en deux catégories : les méthodes à base de règles et les méthodes statistiques. Les Approches à Base de Règles Les approches à base de règles dérivent de l’utilisation de systèmes experts et de l’ingénierie des connaissances. Le matériau langagier est transformé en une représentation symbolique qui constitue principalement une base de faits et un ensemble de règles constituées manuellement par des experts qui vont permettre d’expliciter, au travers du moteur d’inférence, des informations encore plus implicites que celles nécessaires à la représentation de l’entrée en faits symboliques. On peut notamment trouver de telles approches dans le cadre de la résolution d’anaphore (Kennedy et Boguarev 1996, Liang et Lin 2005) Les Approches Statistiques Les méthodes statistiques s’appuient sur des propriétés de similitude ou de différence parmi différentes matériaux langagiers issus de réelles productions humaines en observant les fréquences d’apparition de termes dans les différents documents, les cooccurrences de termes ou des motifs réguliers permettant une classification supervisée ou non. Parmi les méthodes statistiques on peut retrouver l’Analyse Sémantique Latente (Deerwester et al. 1990) avec laquelle on établit les fréquences de chaque terme pour chacun des documents d’un corpus afin de construire un espace avec autant de dimensions que de termes (mots ou groupes de mots non-grammaticaux). On obtient ainsi une matrice creuse où les lignes sont les termes et les colonnes les documents. Un coefficient est alors l’effectif d’un terme ti dans un document dj normalisé selon sa rareté dans le corpus (un terme omniprésent n’est en rien discriminant pour un document). On réduit souvent le rang de cette matrice en réduisant les différents termes à leurs radicaux, en regroupant des synonymes, et en retirant les termes peu discriminants ou extrêmement rares. On peut alors obtenir des corrélations entre termes (respectivement entre documents) en effectuant le produit scalaire entre chaque ligne (respectivement chaque colonne). Une décomposition en valeurs singulières de cette matrice permet de projeter documents et termes dans un espace de concepts en évaluant cette fois-ci les corrélations entre termes et concepts et entre documents et concepts. On peut Amiens – 23 et 24 mai 2012 Le TAL pour l’analyse de contenus d’interaction et de productions dans la formation en ligne ensuite procéder à des classifications non supervisées d’un corpus selon cet espace de concepts. Une technique de segmentation thématique de suite de paragraphes dans un texte, proposée par Marty Hearst, s’appuie dans le même esprit, sur un modèle vectoriel : le Text Tiling (Hearst 1997). On change de grains : le corpus depuis le document et le document devient un passage de ce dernier. On estime qu’il y a un changement thématique lorsque deux passages consécutifs sont beaucoup plus distants, dans l’espace formé par chaque terme du document, qu’auparavant. Des méthodes de classifications automatiques liées à l’apprentissage automatique (Machine Learning) sont maintenant beaucoup utilisées en les hybridant avec des représentations symboliques, que ce soit une fouille de données traditionnelles, séquentielles ou la fouille de texte. (Lucas et Crémilleux 2004, Charnois et al. 2006, Charnois et al. 2008) Principales tâches La croissance du TAL depuis les années 50 est étroitement liée à celui du vieux rêve qu’était la traduction automatique qui a évolué vers une traduction semi-automatique, qu’elle soit automatique assistée par l’humain ou humaine assistée par ordinateur. Cette première revient à analyser une langue source pour opérer un transfert de cette première représentation vers une représentation en langue cible afin d’opérer une génération d’un texte dans la langue cible. Simuler des interactions, soit une compréhension limitée d’un message par un agent informatique et/ou la génération de sa réponse intelligible et pertinente pour l’utilisateur est aussi une tâche à laquelle peuvent répondre les traitements de langue. Enfin, le TAL contribue déjà à des systèmes pour l’apprentissage humain, nous abordons ce sujet dans la partie suivante. La Place du Traitement Automatique des Langues dans les EIAH TAL et EIAH Dans (Gurevych et al. 2009), les auteurs décrivent le panorama de l’utilisation des technologies TAL pour l’EIAH et les classe en quatre catégories : la génération automatique d’exercices, l’évaluation automatique des réponses discursives d’apprenants, l’aide à la lecture et à la rédaction, et enfin la gestion de contenus et l’apprentissage collaboratif en ligne (CSCL). Génération Automatique d’Exercices La génération automatique de QCM, d’exercices lacunaires et l’évaluation de l’efficacité de ces derniers est un enjeu bien abordé par les applications du TAL comme dans (Karamis et al. 2006) ou (Lee et Seneff 2007), néanmoins 90 % des références citées par l’auteur concernent l’ALAO. Evaluation Automatique de Prose L’analyse de textes librement rédigés par des apprenants pour répondre à des questions ouvertes, qui acceptent un raisonnement pertinent comme « bonnes réponses » ou des modèles types de bonnes réponses, est un problème de choix pour éprouver le TAL et le faire progresser. Mais la compréhension automatique reste un rêve depuis longtemps « oublié » par les spécialistes. (Antoniadis 2008) Aide à la Lecture et à la Rédaction Les technologies de langue permettent aussi d’apporter une aide à la lecture mettant en relation des textes avec les glossaires appropriés ou offrant des liens vers d’autres documents donnant définitions, prérequis et contexte. Mais aussi à la rédaction en offrant une correction automatique orthographique ou syntaxique. Avec l’essor d’internet, l’explosion du nombre de documents disponibles et celle de son débit que cela soit des articles de presse, des dépôts de brevets, les annonces des entreprises sur les marchés ou encore les publications académiques, la gestion de l’information est devenue humainement chronophage et intraitable pour respecter des délais d’instantanéité que la société d’aujourd’hui exige. Ainsi, l’organisation et le référencement de tous ces documents par une indexation, discriminante au sein d’un corpus, par concepts (vers un web sémantique), pour la recherche documentaire, l’extraction d’information et la veille stratégique, est toujours une application privilégiée des technologies de la langue. 4ièmes Rencontres Jeunes Chercheurs en EIAH La lecture de textes en langue étrangère ou avec des termes spécifiques à un domaine, abordant des concepts inconnus ou rédigés avec un style pompeux peut nécessiter une aide extérieure sous la forme de simplification de textes, de proposition de synonymes, de mise en relation avec des documents tiers explicitant définitions ou glossaires comme (Gaudio et Branco 2007), contexte et prérequis. Cela concerne aussi l’aide à la rédaction et notamment ce que peut offrir le TAL en correction orthographique ou syntaxique. CSCL et Web L’essor du Web a permis l’accès à des ressources en ligne comme des sites spécialisés ou des encyclopédies numériques, mais il a aussi créée un savoir de la foule par le partage de savoir sur des forums, des blogs ou encore des wikis. Des travaux concernant ces derniers qui sont aussi de l’ordre de l’ingénierie des connaissances : de l’organisation de ces dernières dans des espaces comme les wikis. 11 Alexandre Baudrillart Les auteurs soulignent le fait que le Tal peut notamment contribuer à tisser des liens entre des contenus similaires (Green 1998), fusionner le contenu de passages proches (Gabrilovitch et Markovitch 2007), réaliser une segmentation thématique des contenus afin de les diviser (Choï et al. 2001) ou encore extraire des termes-clés (Mihalcea et Tarau 2004). La construction de connaissance y est effleurée par la mise en évidence de techniques d’évaluation automatique de la qualité de production au sein de wikis (Druck et al. 2008) ou de forums (Weimer et al. 2007), qui reste relativement proche de l’évaluation de dissertations. L’état actuel de nos recherches bibliographiques ne nous permet pas de nous étendre sur un vaste panorama dans ce champ de recherche. Néanmoins nous présentons dans la dernière section des travaux récents à ce sujet qui entrent directement dans le cadre de notre problématique et qui nous serviront de point de repère et de point de départ afin d’identifier par la suite des mécanismes de TAL mis en jeu et les indicateurs à définir. TAL et ALAO Le Traitement Automatique des Langues (TAL) est encore peu appliqué dans le cadre d’EIAH en dehors des systèmes d’Apprentissage des Langues Assistée par Ordinateur (ALAO). Dans ces systèmes, le support de communication est aussi l’objet de l’étude, et sa maitrise « un » objectif pédagogique. Il est donc à la fois immédiat et légitime que ce matériau langagier soit diagnostiqué, analysé, et évalué. (Antoniadis 2008) La particularité de notre problématique est la volonté d’explorer les possibilités de production d’indicateurs pertinents pour évaluer la construction du savoir chez les apprenants que pourraient avoir les méthodes TAL. Les traces analysées concernent donc les propos échangés et les différentes versions des productions finales en construction et cela sans restriction des approches (si ce n’est socioconstructivistes), des scénarios pédagogiques et des disciplines. et la construction de scénarios pédagogiques, et l’évaluation de niveau de connaissance ou de maitrise chez les apprenants. L’analyse de traces considère majoritairement l’organisation linéairement temporelle des interactions avec et au travers d’interfaces homme-machine notamment pour une interaction distante avec d’autres utilisateurs et peuvent correspondre à la manipulation d’éléments d’interface, la saisie de contenu, le déclenchement de processus propres à l’environnement. Ces traces sont temporellement situées comme des intervalles sur un axe de temps avec une date de début et une date de fin, et donc une durée. La finalité de ces analyses est de produire des indicateurs pour mettre en évidence des comportements. Pour cela, on est amené à combiner différentes traces, à les synchroniser et enfin à les transformer pour produire plus ou moins directement des indicateurs visualisables amenant à informer différentes classes d’utilisateurs sur le contexte, les performances ou les comportements dans les situations d’apprentissages. Ces feedbacks sont émis à des fins d’auto-évaluation des apprenants, d’évaluation sommative par l’enseignant ou d’encadrement par et pour des tuteurs. Dans le cadre d’interactions de communications entre différents acteurs, c’est du matériau langagier qui est échangé et cet aspect de la langue constitue une dimension primordiale de ces traces. Or, souvent l’analyse des contenus des échanges verbaux ou encore de productions collectives est laissée pour compte et seules les informations événementielles ou quelques métadonnées, représentatives des contenus voire des tons ou des actes de langages (George 2004), sont utilisées. Exemple de Situation Socioconstructiviste Bénéficiaire Problématique On peut observer un cas pour lequel un apport effectif de techniques de TAL pour un traitement dans un article de Hou et Wu (Hou et Wu 2011) dans lequel une classification de messages en types d’interactions et l’évaluation de la qualité de discussion sont réalisées par des experts humains dans le but de détecter des motifs caractéristiques des bonnes ou mauvaises discussions. La finalité de notre de thèse est de pouvoir évaluer la construction du savoir chez les apprenants par rapport à des objectifs pédagogiques bien définis, en fournissant des feedbacks aux différents acteurs d’une situation d’apprentissage, comme l’apprenant, le formateur ou le tuteur, sous la forme d’indicateurs pertinents. Dans cet article, les auteurs proposent d’étudier les caractéristiques et les limitations des discussions synchrones pour l’apprentissage collaboratif, ainsi que l’impact des interactions sociales et d’une collaboration entre les différents apprenants sur la construction du savoir. Ces centres d’intérêts rejoignent les travaux sur l’étude des traces d’interactions dans les Environnements Informatiques pour l’Apprentissage Humain, et la production d’indicateurs, la modélisation L’expérience consiste à observer à long terme (3 mois) 40 étudiants répartis en groupes, de moins de dix étudiants, dont la tâche est de participer, par l’intermédiaire d’une messagerie instantanée, à des discussions dont le sujet a été fixé par leur professeur. Positionnement et Objectifs de la Thèse 12 Amiens – 23 et 24 mai 2012 Le TAL pour l’analyse de contenus d’interaction et de productions dans la formation en ligne Ces discussions doivent amener à des conclusions après des recherches et des débats. un partage de connaissance ou à organisation même s’ils ne sont pas autant productifs. On va s’intéresser, dans un premier temps, à une analyse quantitative du contenu des messages des discussions selon le comportement qu’il représente au sein de la discussion dont il fait partie. Ces comportements sont classés selon quatre catégories : élaboration de la connaissance, organisation et collaboration entre apprenants, interactions sociales ou hors-sujet. Le classement de ces messages est réalisé manuellement par des experts. On voudra ainsi guider les enseignants dans leurs interventions en conseillant de recadrer les hors-sujet, fournir un cadre de règles pour aider à coordonner les apprenants ou initier cette coordination. Organiser des sessions de jeu de rôles où les rôles sont fixés pour aussi enseigner par l’expérience une certaine collaboration. De plus, il faut parfois motiver les participants ou leurs donner des pistes lorsque ils atteignent des goulets d’étranglement. Le professeur (expert sur les sujets) classe les groupes d’étudiants selon la qualité des discussions qu’ils produisent (bonne ou mauvaise). Ils sont jugés selon quatre dimensions : la clarification du sujet, la collecte d’information, la profondeur de l’analyse et la conclusion sur le sujet. Mais qu’en est-il d’un traitement automatique ? On peut remarquer que les auteurs n’affichent ni n’évoquent aucun processus ou sous-traitement automatisé ou automatisable. Ainsi l’analyse repose sur une force humaine et un corpus spécifique. Pour compléter l’approche quantitative, on s’intéresse aux séquences de comportements significatives (statistiquement) notamment pour mettre en valeur des continuités ou discontinuités de comportements et/ou de catégories de comportements et observer les dépendances entre de comportements et/ou entre catégories de comportements. On apprend que des comportements plus collaboratifs et des décisions prises conjointement participent à améliorer la qualité de la discussion, la diversité et la profondeur des connaissances construites autour du sujet. De plus, des interactions sociales telles que des encouragements ou des félicitations est un lien vital entre les messages apportant une pierre à la discussion et la coordination qui reste primordiale pour que ces apports soient bien organisés, divers, profonds, discutés, précisés, évincés mais aussi pour conclure collectivement sur un sujet (ou encore pour le brainstorming). On observe que plus de 50 % des messages sont hors-sujet, et, contre toute attente, que la proportion est légèrement plus importante dans les discussions de bonne qualité. Mais on apprend aussi grâce aux séquences qu’il y a continuité au sein de la dimension de la construction du savoir et non la continuité d’un seul comportement. Ainsi, les discussions de bonne qualité voient une connaissance diversifiée prendre forme enchaînant, par exemple, un partage de connaissance (le plus fréquent : 30%) puis des messages appelant à un recul comme discuter des définitions de certains termes, ou voulant clarifier le sujet. Ces continuités sont aussi garantes du focus des apprenants sur le sujet et de la profondeur de la discussion. Ce qui consolide et isole les messages pertinents des messages hors-sujet. De plus, les séquences traduisent aussi une totale indépendance des messages hors-sujet vis-à-vis de toutes les autres catégories de comportements. Les comportements hors-sujet existent aussi pour créer un climat propice à 4ièmes Rencontres Jeunes Chercheurs en EIAH En effet, les messages sont classés selon certains comportements qui peuvent être eux-mêmes rangés dans des dimensions spécifiques et ces décisions ne sont pas triviales. Ainsi, dans un système automatisé, on aimerait avoir une classification automatisée des messages selon ces critères, ce qui permettrait d’inférer, à la volée, les conseils à promouvoir aux apprenants ou aux enseignants pour améliorer la qualité des discussions et de l’apprentissage (sans négliger la rapidité d’apprentissage), réagir à des séquences de comportements ou encore simuler un participant fictif qui pourra aiguiller les apprenants pour une meilleure qualité non loin d’un tuteur intelligent. Exemple de Travail Proche : PolyCAFe Dans (Trausan-Matu 2010) et (Rebedea et al. 2010), les auteurs présentent un système analysant les échanges entre des étudiants dans une optique de débat, et de synthèse, concernant un domaine bien défini : les CSCL, sur une plateforme dédiée conservant les traces de ces discussions. Ce système associe à une chaîne de traitement traditionnelle une ontologie représentant les concepts du domaine, ici les IHM, pour éviter des ambiguïtés dues à la polysémie des langues naturelles, ainsi qu’à une LSA réalisée au préalable sur un corpus afin de comparer les concepts évoqués dans deux messages dans l’espace conceptuel préconstruit et identifier les différents fils de discussion. Le système de discussion impose aux participants de préciser à quels apprenants ils répondent. Cette information est utilisée pour identifier de premières interactions explicites. Des traitements linguistiques d’un plus haut niveau prennent place pour identifier les références des uns aux autres (coréférence, distance LSA, connecteurs logiques…) afin de construire un graphe représentant les interactions sur les différents savoirs mises en jeu. Une analyse des réseaux sociaux identifie différents critères significatifs comme la 13 Alexandre Baudrillart centralité des graphes, les degrés, qui fait autorité (au sens du pagerank de Google) ou la cohésion, notamment avec le calcul de composantes fortement connexes et de cliques. Les feedbacks concernent l’évaluation de cette collaboration mais aussi de plus simples critères de lisibilité et de qualité de la prose. Ces travaux sont pour nous très intéressants car ils mettent en perspective les techniques actuelles du TAL de bas niveau (analyse morphosyntaxique, LSA, Ontologie) et de haut niveau (structure argumentative, discours et dialogisme), même si elles ne sont pas décrites, mais aussi les techniques d’analyse de réseaux sociaux pour des situations d’apprentissage collaboratif en ligne. Conclusion Nous avons décrit dans cet article le champ du traitement automatique des langues, mis en évidence qu’outre l’ALAO, l’application du TAL aux EIAH reste encore peu explorée et que des potentiels résultats peuvent être légitimement attendus, notamment dans le cadre de situations socioconstructivistes. Références Antoniadis, G. 2008. Du TAL et de son apport aux systèmes d'apprentissage des langues : Contributions, mémoire d’habilitation à diriger des recherches, Université Stendhal - Grenoble 3. Bouillon, P. and Vandooren, F. 1998. Traitement automatique des langues naturelles, Duculot. Bourigault, D. 2007. Un analyseur syntaxique operationnel : Syntex, mémoire d’habilitation à diriger des recherches, CNRS et Université de Toulouse-Le Mirail. Charnois, T.; Durand, N. and Kléma, J. 2006. Automated Information Extraction from Gene Summaries. In proceedings of the ECML/PKDD Workshop on Data and Text Mining for Integrative Biology, 4-15. Berlin, Germany. Choi, F. Y. Y.; Wiemer-Hastings, P. and Moore, J. 2001. Latent Semantic Analysis for Text Segmentation In Proceedings of EMNLP: 109-117 Coch, J. 1999. Génération multilingue de bulletins météorologiques: le logiciel MULTIMETEO. In Proceedings of GAT-99, 2éme Colloque Francophone de Génération automatique de Textes. Grenoble, France. Deerwester, S.; Dumais, S. T.; Furnas, G. W.; Landauer, T. K. and Harshman, R. 1990. Indexing by latent semantic analysis. Journal of the American Society for Information Science 1:391-407. Druck, G.; Miklau, G. & McCallum, A. 2008. Learning to Predict the Quality of Contributions to Wikipedia Proceedings of AAAI Workshops Gabrilovich, E. and Markovitch, S. 2007. Computing Semantic Relatedness using Wikipediabased Explicit Semantic Analysis 14 Proceedings of the 20th International Joint Conference on Artificial Intelligence : 6-12 Gaudio, R. D. 2007. Supporting e-learning with automatic glossary extraction : Experiments with Portuguese. In proceedings of the RANLP 2007 workshop: Natural Language Processing and Knowledge Representation for eLearning Environments, Borovets, Bulgaria. George, S. 2004. Analyse automatique de conversations textuelles synchrones d'apprenants pour la détermination de comportements sociaux. Revue Sciences et Technologies de l'Information et de la Communication pour l'Éducation et la Formation 10:165-193. Green, S. J. 1998. Automated Link Generation: Can we do Better than Term Repetition? Computer Networks 30:75-84 Gurevych, I.; Bernhard, D. and Burchardt, A. 2009. Educational Natural Language Processing, Notes for ENLP tutorial held at AIED 2009, Brighton, U. K. Hou, H.-T. and Wu, S.-Y. 2011. Analyzing the social knowledge construction behavioral patterns of an online synchronous collaborative discussion instructional activity using an instant messaging tool. A case study, Computers & Education 57:1459-1468 Karamanis, N. 2006. Generating Multiple-Choice Test Items from Medical Text: A Pilot Study. In Proceedings of INLG 2006, 104-107. Sydney, Australia. Lee, J. and Seneff, S. 2007. Automatic generation of cloze items for prepositions. In proceedings of the eighth INTERSPEECH conference, 2173-2176. Antwerp, Belgium. Lucas, N. and Crémilleux, B. 2004. Fouille de textes hiérarchisée, appliquée à la détection de fautes. Revue Document Numérique 8:107-133. Mihalcea, R. & Tarau, P. 2004. TextRank: Bringing Order into Texts Conference on Empirical Methods in Natural Language Processing Rebedea, T.; Dascalu, M.; Trausan-Matu, S.; Banica, D.; Gartner, A.; Chiru, C. and Mihaila, D. 2010. Overview and preliminary results of using PolyCAFe for collaboration analysis and feedback generation. In proceedings of the 5th European conference on Technology enhanced learning conference on Sustaining TEL: from innovation to learning and practice:420-425. Barcelona, Spain. Trausan-Matu, S. 2010. Automatic support for the analysis of online collaborative learning chat conversations. In Proceedings of the Third international conference on Hybrid learning:383-394 . Beijin, China. Weimer, M. & Gurevych, I. 2007. Predicting the Perceived Quality of Web Forum Posts Proceedings of RANLP 2007 Amiens – 23 et 24 mai 2012 Interprétation des traces d’interaction dans un EIAH par une recherche de patterns d’activité Mohamed Besnaci Université BADJI MOKHTAR d'Annaba, Département d'informatique [email protected] Résumé Notre travail s’intègre dans une perspective cherchant à trouver des nouvelles modalités pour un contrôle pédagogique dans les EIAH. Pour cela, Nous avons choisi comme outil support les traces d’interaction qui vont nous servir de source renouvelable d’informations reflétant le comportement des apprenants. Les traces sont des informations de nature technique difficilement interprétées par les pédagogues. Notre objectif est de les interpréter et d’en extraire des indicateurs aidant au contrôle pédagogique. Cette interprétation part du principe de détection de patterns d’objets et applique un processus d’appariement pour détecter d’éventuelles épisodes plus compréhensibles. Introduction Un EIAH (Environnement Informatique d’Apprentissage Humain) est un environnement informatique conçu dans le but de favoriser l’apprentissage humain. La qualité d’un EIAH peut être définie en mettant le point sur deux entités. La première c’est la qualité de ce qu’il offre comme connaissances, activités, supports, outils, contenus, etc. la seconde est la qualité et la pertinence du contrôle pédagogique (s’il existe) proposé pour assurer les objectifs d’apprentissage (Guéraud 2005). Notre article s’intègre dans cette perspective des modalités et techniques de contrôle pédagogique. L’objectif global est de penser à une nouvelle modalité pour l’aide au contrôle pédagogique. Pour cela, nous avons choisi comme outil support les traces d’interaction. Elles servent pour nous comme source renouvelable d’informations reflétant les comportements des apprenants. Nous avons choisi aussi comme terrain expérimental notre simulateur CUSIM (Central Unit SIMulator). Du point de vue de l’apprenant, CUSIM est un environnement d’apprentissage par la pratique du fonctionnement de l’unité centrale d’un ordinateur. Nous le considérons comme une source génératrice de traces. Contrôle pédagogique Un apprenant qui utilise un EIAH dans un domaine donné a besoin continuellement d’un contrôle pédagogique (Guéraud 2005) de la même façon qu’avec un tuteur humain. Que ce soit dans un EIAH ou avec un humain, un contrôle pédagogique sert à guider 4ièmes Rencontres Jeunes Chercheurs en EIAH l’apprenant et à valider ses actions. Il englobe ainsi de notre point de vue toutes les fonctionnalités d’aide, d’orientation, de suggestion, d’assistance et d’évaluation. Une stratégie de contrôle pédagogique est spécifiée en prenant en compte plusieurs considérations: l’approche d’apprentissage est elle cognitiviste ou constructiviste ? La nature de la situation d'apprentissage est elle individuelle ou collective ? Les connaissances visées sont-elles déclaratives, procédurales ou s’agit-il de méta-connaissances ? La granularité du contrôle est-elle du niveau des activités, des séquences d'activités ou des unités d'enseignement ? La délégation du contrôle est-elle laissée à la machine, à l'humain, aux deux ou est-elle effectuée par un réseau d'acteurs ? (Labat et al. 2006) Nous pouvons distinguer plusieurs catégories de techniques de contrôle pédagogique (Labat et al. 2006, Guéraud 2005, Cortes Buitrago 1999, Paquette et Tchounikine 2002): - le contrôle centré sur le comportement de l’apprenant qui consiste à observer le comportement informatique de l’apprenant et d’en déduire les rétroactions pertinentes. - le contrôle centré sur le raisonnement et les connaissances, qui dépend essentiellement du type des activités proposées qui varie de la simple lecture et parcours de connaissances à la résolution de problèmes et la manipulation de simulations. - le contrôle pédagogique basé sur la scénarisation des activités d’apprentissage. L’apprentissage dans ce cas est guidé et l’apprenant est forcé à suivre un certain scénario pédagogique. - le contrôle pédagogique basé sur un conseiller pédagogique qui a pour principe d’analyser les interactions de l’apprenant avec le système d’apprentissage, puis de trouver la bonne réaction en terme d’aide et de suggestion pédagogique. Dans ce qui suit nous allons présenter notre outil CUSIM qui est un simple simulateur de CPU (Central Processing Unit) auquel nous essayons d’associer un module de contrôle pédagogique. Ce module va s’articuler autour des traces d’interaction et de leur interprétation. 15 Mohamed Besnaci Simulateur CUSIM et traces CUSIM est un simulateur conçu pour reproduire le fonctionnement de l’unité centrale d’un ordinateur de type Intel. CUSIM a pour objectif d’aider les apprenants à connaître le fonctionnement et à manipuler les différents composants de l’unité centrale. Pédagogiquement, il est développé dans le but d’offrir un outil de test et de validation simple et efficace propre à notre équipe «EIAH» au sein de notre laboratoire LRI (Université d'Annaba, Algérie). Plus précisément, l’outil va être d’une part notre source génératrice de traces d’utilisation suite aux sessions d’utilisation des apprenants. D’autre part, CUSIM est conçu pour valider et concrétiser nos modèles et pour tester notre processus de traitement de traces. CUSIM propose aux utilisateurs quatre activités. 1. Documentation: elle a pour but de donner un bagage théorique sous forme de définitions, explications, tutoriels, schémas, sur la structure et le fonctionnement de l’ordinateur. 2. Démonstration: elle permet à l’apprenant d’observer les différents éléments de l’UC (Unité Centrale): l’unité de commande, le séquenceur, l’unité arithmétique et logique, le compteur ordinal, le registre instruction, etc., à travers des exemples de programmes soigneusement choisis. L’apprenant peut voir dynamiquement le fonctionnement de chaque élément de l’UC ainsi que leur coordination. La possibilité de changer la vitesse d’exécution des parties de programmes et de les mettre en pause peut aider considérablement les apprenants à bien renforcer leurs connaissances. 3. Manipulation: elle permet à l’utilisateur de manipuler chaque composant de l’UC séparément. Il peut faire des opérations arithmétiques et logiques, charger ou décharger des valeurs de variables en mémoire, et voir le cycle d’exécution des instructions à travers les signaux de l’unité de commande. 4. Exécution: cette activité donne plus de liberté à l’apprenant et lui permet d’écrire ses propres programmes et de voir les résultats et les conséquencesde ce qu’il écrit sur le fonctionnement de chaque composant de l’UC. L’outil CUSIM n’impose aucun ordre pour ces activités bien qu’il est suggéré aux apprenants novices de respecter l’ordre suivant: documentation puis démonstration puis manipulation puis exécution. Dans une session donnée, un apprenant peut faire tous les aller-retours qu’il veut entre les activités offertes. À la fin de chaque session d’utilisation d’un apprenant, un fichier log est généré par CUSIM. Ce fichier enregistre temporellement toutes les actions de l’apprenant faites sur l’outil. Il est considéré pour le moment comme l’unique façon de contrôler l’activité des apprenants. Par la suite, il va être plutôt une source de traçage pour alimenter notre processus de traitement et de manipulation de traces. Voici une des interfaces ainsi qu'un exemple de fichier log généré par CUSIM: 16 Fig1. Une interface et un fichier log généré par CUSIM Détection de patterns et interprétation de traces Une aide au contrôle pédagogique peut être, à notre avis, faite en montant dans les niveaux d’abstraction de description des traces d’apprentissage laissées par les apprenants. Selon la théorie des traces d’apprentissage (Champin et al. 2004, Settouti et al. 2006), les processus de traitement et d’exploitation de ces traces nécessitent des sources de traçage qualifiées de techniques. Nous entendons par «technique», que les informations traçant l’interaction de l’apprenant avec le système d’apprentissage soient dépendantes des interfaces et plateformes d’apprentissage, isolées sémantiquement les unes des autres et plutôt proches des détails de programmation que de l’esprit et des attentes du pédagogue. À cet effet, il s’avère utile de penser à une réécriture des traces premières en traces plus abstraites et plus compréhensibles. Ainsi, généraliser le processus de réécriture des traces en montant dans les niveaux d’abstraction peut être très bénéfique aux pédagogues les exploitant. Ce processus nous parait bénéfique, car il donne plusieurs dimensions en présentation de traces qui peuvent répondre à divers degrés d’objectifs pédagogiques. Dans le cadre de notre travail, nous proposons de travailler avec des traces d’un niveau d’abstraction assez bas (fichiers log de CUSIM). Nous souhaitons mettre en évidence les patterns issus des traces qui permettent à l’analyste enseignant d’établir des déductions sur l’activité des apprenants. Ainsi, l’idée est de détecter des patterns effectifs à partir des traces obtenues lors d’une expérimentation représentant l’historique de l’activité des acteurs (apprenants). Afin de découvrir les patterns, nous préparons une base de patterns et une méthode d’appariement entre les traces brutes et la base conçue. Nous nous focalisons alors essentiellement sur la recherche de motifs et la détection des séquences fréquentes. Ce processus est illustré dans le schéma suivant Fig2. Le processus commence par la Amiens – 23 et 24 mai 2012 Interprétation des traces d'un EIAH par appariement structurel collecte des traces d'interaction à partir des fichiers log. Ces traces sont ensuite appariées avec une base de patterns conçue auparavant pour chercher des patterns dans la trace. Après élimination des chevauchements entre les patterns résultats et détection des patterns avec éventuellement des observables non connus, nous procédons à une étape de recherche des séquences fréquentes pour enrichir la base de patterns. Le détail de ces étapes va faire l'objet des sections suivantes. Fig2. Processus de détection de patterns Modèle de traces pour les simulateurs pédagogiques Les fichiers log sont généralement de nature non ou semi structurés (XML). Pour pouvoir les utiliser comme support à l'interprétation de l'activité de l'apprenant dans notre contexte, il nous faut une étape de modélisation. Un modèle de trace a pour intérêt de structurer ces fichiers log et d'en retirer les informations inutiles (par rapport aux objectifs fixés). Dans ce but, nos fichiers doivent être représentés selon un modèle de trace soigneusement conçu (voir Champin et al. 2004, Settouti et al. 2006). Au vu des possibilités d'interaction et de comportement de la part de l'apprenant et du simulateur (Voir Leclet 2004, Lourdeaux 2001, Siouane 1999), il est possible d’extraire une collection d'objets formant le vocabulaire d'observables possibles dans un simulateur. Cette collection peut être arrangée dans des classes, qui font aussi partie d'autres classes, etc. Le tout forme une structure hiérarchique. Cette hiérarchie représente notre méta-modèle de trace représenté en Fig3. Trace brute Observable Communication Social Système Cognitif Demande Action Production Explicite Implicite Rétroaction Scénarisé Conditionné Automatique Fig3. Méta-modèle de trace pour simulateur • Trace brute: suite d’observables temporellement situés. • Observable: classe principale englobant tout type d’observable. 4ièmes Rencontres Jeunes Chercheurs en EIAH • Cognitif: observable englobant les comportements cognitifs demandant une réflexion et un raisonnement théorique et/ou pratique. Il peut être une configuration de paramètres, une affectation ou un changement de valeur (production). Comme il peut être un lancement d’action (action). • Social: observable décrivant les communications entre les apprenants dans un contexte collaboratif (Communication), et entre l’apprenant et le simulateur sous forme de demandes d’aide, conseils,etc. (demande). Les comportements sociaux sont toujours initiés par l’apprenant et le cas inverse n’est pas considéré ici. • Système: le comportement d’un simulateur peut être réactif suite à une demande explicite ou implicite de l’apprenant (rétroaction). Une demande explicite est lancée directement par l’apprenant tandis qu’une demande implicite est une réaction jugée pertinente suite à un comportement donné de l’apprenant. Le simulateur peut être proactif et son comportement dans ce cas est préétabli (scénarisé). Il se déclenche dans ce dernier cas soit automatiquement suite à un évènement temporel ou autre (automatique). Son déclenchement peut être conditionné par des comportements donnés de l’apprenant ou par la présence d’états donnés du simulateur. Spécification du modèle de traces pour le cas de CUSIM Les observables feuilles dans le modèle générique précédent (en gris) doivent encore être explicités et instanciés pour prendre en considération les détails de chaque simulateur. Nous partageons alors l'idée de spécification des modèles de traces à partir d'un modèle générique avec (Settouti et al. 2010). Ils ont proposé dans ce travail une approche de construction de modèles et de réutilisation d'un méta-modèle de traces d'activités dans un objectif de modélisation de l'apprenant. L'approche est basée essentiellement sur un ensemble de méta-modèles (modèle de trace des activités d'apprentissage, modèle de profil de l'apprenant et modèle de diagnostic) qu’ils spécifient pour chaque EIAH étudié dans le but de supporter et faciliter aux concepteurs les différentes taches de modélisation. Notre modèle générique a été spécifié et les observables feuilles sont alors instanciés. La Fig4. donne une spécification plus détaillée des comportements cognitifs de l’apprenant par rapport à notre simulateur CUSIM. Les observés générés par l’outil CUSIM sont de type cognitif parce qu’ils demandent une réflexion et un raisonnement théorique et pratique. Un observé peut être de type production s’il s’agit d’une configuration de paramètres, d’une affectation ou d’un changement de valeur, ou de type action s’il s’agit d’un lancement d’action. 17 Mohamed Besnaci décrit par le triplet (Type, Description, Chemin). Ainsi, l’appariement va être effectué entre des listes (formes simplifiées de graphes) de nœuds dont chacun est décrit par le triplet (Type, Description, Chemin). Supposons E un ensemble de triplets (Type, n Description, Chemin), E= {(T, D, C) , n Є N}. Supposons qu’on a L1 la représentation de la trace brute, L2 la représentation d’un pattern, tel que: L1,L2 ((L1,L2) C E2). Fig4. Modèle de trace pour les observés générés par CUSIM Les relations en lignes continues sont de type « est un » et les relations en lignes pointillées sont de type « nécessite ». Ce modèle va nous servir pour élaborer la trace à partir du fichier log de CUSIM. Chaque observable de la trace à construire est désigné par le triplet (Type, Description, Chemin). Le Type définit le type de l'activité cognitive Production ou Action. La Description définit l'activité précise réalisée en termes de manipulations sur les interfaces de CUSIM (Clique bouton Lecture, Affichage onglet Exécution, MAJ glissant Rythme démonstration, …). Le Chemin définit la succession des onglets ouverts pour arriver à l'interface conteneur de l'activité. La collecte consiste donc à définir les triplets des observables de la trace à partir du fichier log est ce de la manière suivante: à partir du champ Action de log qui contient des valeurs correspondantes directement aux feuilles du modèle de trace et en montant dans le modèle nous pouvons définir le Type de l'observable. La Description peut être directement déduite du champ Action du log. Le Chemin est déduit en combinant les deux champs Activité et Sous-Activité de log. Recherche de patterns par appariement structurel Nous avons pensé aux techniques d’appariement et de détection de motifs pour pouvoir transformer les fichiers logs matérialisant le comportement de l’apprenant d’une nature technique à une suite de patterns facile à comprendre et à interpréter. L’appariement dans notre cas consiste à comparer les suites d’observés constituants les traces brutes avec les petites suites d’observés constituants les patterns de la base. Les traces manipulées respectent obligatoirement le même modèle de traces (Fig3. Fig4.) et la base de patterns est conçue suite à une étude et des expérimentations faites sur l’environnement CUSIM. L’étude avait pour but de récolter le maximum de patterns fréquents lors de l’utilisation de CUSIM. En s’inspirant de certains travaux (Zampelli et al. 2007, Sorlin et al. 2006, Betbeder et al. 2007), notre appariement consiste à comparer la trace effective avec chacun des patterns de la base afin de mesurer la similarité entre eux. L’élément essentiel sur lequel sont basés les traces et les patterns qu'est l’observable, est 18 Un appariement entre deux listes L1 = (T1, D1, r s C1) et L2 = (T2, D2, C2) , tel que r,s Є N, est une relation: m C L1*L2. Pour mesurer la similarité entre deux listes par rapport à l’appariement m, nous proposons d’adapter la formule de similarité de (Tversky 1977) généralisée par (Sorlin et al. 2006): La formule (1) calcule la similarité entre la trace et les patterns de la base, en mettant en correspondance leurs descriptions. La fonction f définit l’importance relative des descripteurs, les uns par rapport aux autres. Cette fonction décrite par la formule (2) est souvent définie comme une somme pondérée: Afin d’affecter des valeurs pertinentes aux poids, il faut analyser soigneusement les trois descripteurs (Type, Description, Chemin) ainsi que les relations entre eux dans notre simulateur CUSIM. Pour chaque Description nous pouvons identifier au plus un et un seul Type, ainsi ces deux informations sont corrélées et le même poids est affecté pour les deux. Si nous prenons deux observés avec les couples (Description, Chemin), la similarité dans le cas où leurs Descriptions sont identiques et leurs Chemins sont différents est plus élevée que dans le cas contraire. Ainsi nous avons choisi un poids plus élevé (égal à 1) pour la Description par rapport au Chemin (égal à 0,8). Il est évident que les patterns détectés seront ceux présentant la plus grande similarité. Cette dernière doit impérativement être supérieure à un seuil d’acceptabilité indiqué par les pédagogues. Le seuil peut être exprimé par exemple par une fonction dépendante de la taille de la trace et de la taille des patterns comme suit: FSeuil(Taille_trace, Taille_patterns). Élimination de chevauchement et interprétation La valeur de la similarité est aussi utilisée dans le cas de chevauchement entre les patterns détectés. Dans une telle situation, ceux qui ont une similarité supérieure sont considérés tandis que les autres seront écartés. Dans le cas d’égalité, les deux patterns persistent et la décision est laissée aux pédagogues. Amiens – 23 et 24 mai 2012 Interprétation des traces d'un EIAH par appariement structurel La recherche de motifs fréquents ne faisant pas partie de la base de patterns permet de dégager des séquences ou épisodes d’actions dont le nombre élevé d’occurrences peut être porteur d’information. Les observés non touchés suite à l’appariement, et avant de les supprimer de la trace, sont exploités pour enrichir la base de patterns. Par l’intervention du pédagogue, s’il trouve que ces portions de trace portent une sémantique utile, il peut les ajouter pour enrichir la base, et elles seront ignorées sinon. L’extraction des motifs fréquents commence par la recherche des motifs de longueur un (un observable), ensuite les motifs fréquents sont enregistrés et combinés entre eux pour former des motifs candidats de longueur supérieure. Les motifs non fréquents sont éliminés, et par conséquent aucun de leur super-motif n’est considéré. La fréquence des motifs candidats est testée pour constituer un nouvel ensemble de motifs fréquents et l’algorithme continue tant que des nouveaux candidats peuvent être formés. Considérons E un ensemble d’observés. Pour déterminer les séquences de taille (n), nous sélectionnons les candidats possibles de telle sorte que ces probables n-séquences fréquentes soient composées par (n) sous-séquences de taille (n-1) (voir Cheype 2006). Exemple Afin de concrétiser notre idée et de présenter ces modèles, formules et processus, nous allons résumer le travail par des illustrations. Rappelons qu'on a fixé comme objectif applicatif, de concevoir un outil pédagogique interprétant les traces collectées en se basant sur des fichiers log de CUSIM. Un fichier log comme celui de la Fig1. est transformé en une trace brute en le confrontant à notre modèle de trace Fig4., comme présenté ci-dessous: L’exemple montre qu’une manipulation de registre d’adresse suivie d’une manipulation de registre mémoire suivie d’un click, peut être interprété par un pattern Ecriture_Mémoire. Un processus de détection de patterns peut être déclenché pour faire l'interprétation comme expliqué auparavant par l'appariement des structures présentées en Fig5. et Fig6., comme suit: Fig7. Appariement entre un pattern de la base et une trace. D'après la méthode d'appariement décrite, toutes les possibilités d'appariement sont effectuées. Celles qui présentent les valeurs de similarité les plus élevées sont gardées et les autres sont exclues. Par exemple pour l'appariement de la Fig7. entre le pattern et la fenêtre en gris la similarité est calculée comme suit: L'appariement m={[(4,5),(1')];[(6,7,8,9),(2')];[(10),(3')]} et la similarité est calculée avec les formules (1) et (2) en fonction de m: Sim(m). Après cette étape, seuls les patterns effectifs qui présentent une similarité importante sont gardés. L'étape suivante est l'élimination des chevauchements en gardant uniquement les patterns avec les similarités les plus élevées. L'outil d'interprétation qui a reçu un fichier log de CUSIM va générer maintenant une trace de plus haut niveau composée des différents patterns détectés (ayant une similarité importante) et d'éventuels observables restants. Fig5. Exemple de trace brute issued'un fichier log. C'est dans cette trace brute qu'on va chercher des patterns ressemblant à ceux de notre base dont voici un exemple: Fig8. Exemple de résultat du processus d'appariement et détection de patterns. Extension du processus de détection de patterns Fig6. Exemple de pattern (suite d'observables avec une sémantique) 4ièmes Rencontres Jeunes Chercheurs en EIAH Une extension de ce processus d’appariement peut être élargi pour des niveaux plus élevés que les simples 19 Mohamed Besnaci observés. L’idée est de passer d’un appariement (niveau 1) entre des listes d’observés à un appariement entre des listes de patterns déjà trouvés (niveau 2). De la même façon, le processus continue à augmenter le niveau d’appariement jusqu’à ce que les utilisateurs pédagogues jugent que le rassemblement de patterns ne va porter aucune information (il est alors inutile). Après tous ces traitements d’appariement à plusieurs niveaux et élimination de chevauchement, il sera temps de parler d’une interprétation des traces. Les pédagogues pourront ainsi, face aux niveaux de patterns trouvés dans la trace brute, se faire une idée suffisamment claire sur ce qu’un apprenant est entrain de faire et s’il est dans la bonne direction ou non. Conclusion & perspectives Le contrôle pédagogique est un module d’importance en EIAH. Ainsi, la qualité d’un EIAH est dépendante de celle de son contrôle pédagogique. Dans cet article nous avons essayé de proposer un pas vers une nouvelle modalité de contrôle pédagogique destiné aux simulateurs. L’idée était de partir des traces de comportement générées par le simulateur et à travers un processus de détection de patterns, d’exploiter ces traces. Nous avons pu, moyennant ce processus, passer des traces techniques à des formes plus agréables pouvant nous aider à comprendre le comportement des apprenants utilisant notre simulateur CUSIM. Nous espérons qu'avec l'extension du travail pour donner des niveaux plus abstraits de patterns, les enseignants pourront également profiter de ce processus. Le travail nous ouvre comme perspectives, en plus de l'extensibilité du processus pour plusieurs niveaux d'abstraction, la possibilité d'essayer d’appliquer ce même processus sur d'autres EIAH. Seuls les observables de type cognitif de notre méta-modèle sont exploités et donc il reste à l'essayer pour d'autres simulateurs. Nous attendons aussi en perspective, de lancer une expérimentation de notre processus de détection avec l’environnement CUSIM. Remerciements. Je tiens à exprimer mes sincères remerciements à mon encadrant de stage au LIRIS Mme Nathalie Guin pour son aide précieuse. Références Betbeder, M. L.; Tissot, R.; & Reffay, C. 2007. Recherche de patterns dans un corpus d’actions multimodales. EIAH'07 pp 533-544, Lausanne, Suisse Champin, P.A.; Prié, Y.;& Mille, A. 2004. MUSETTE: a framework for knowledge capture for experience. EGC’04, Clément Ferrand. EIAH. Actes de RJC-EIAH'06,SYSCOM - Université de Savoie, France. Cortes Buitrago, G. 1999. Simulations et Contrôle Pédagogique: Architectures Logicielles Réutilisables, Thèse de doctorat, Université JOSEPH FOURIER. Guéraud, G. 2005. Approches auteurs pour les situations actives d'apprentissage: scénario, suivi et ingénierie, Thèse de doctorat, laboratoire CLIPSIMAG, Université Joseph Fourier Grenoble Labat, J. M.; Pernin, J. P.; & Guéraud, V. 2006. Contrôle del’activité de l’apprenant: suivi, guidage pédagogique et scénarios d’apprentissage. Proceeding EIAH'06, Collection IC2, Hermès. Leclet, D. 2004. Environnements Interactifs d'Apprentissage dans des contextes professionnels. Des Tuteurs Intelligents aux Systèmes Supports d'Apprentissage à Distance, Mémoire d'HDR, IUP MIAGE, Universitéde Picardie. Lourdeaux, D. 2001. Réalité Virtuelle et Formation: Conception d'Environnements Virtuels Pédagogiques, Thèse de doctorat, Ecole des Mines de Paris. Paquette,G.; & Tchounikine, P. 2002. Contribution à l’ingénierie des systèmes conseillers: une approche méthodologique fondée sur l’analyse du modèle de la tâche. Revue Sciences et Techniques Educatives, Hermès, Vol 9 n°3-4, 157-184. Settouti, L.; Guin, N.; Luengo, V.; & Mille, A. 2010. A Trace-Based Learner Modelling Framework for Technology-Enhanced Learning Systems. The 10th IEEE International Conference on Advanced Learning Technologies, Sousse, Tunisia.pp.73-77.ISBN 978-14244-7144-7. Settouti, L. S.; Prié, Y.; Mille, A.;&Marty, J.C. 2006. Système à base de trace pour l’apprentissage humain, in TICE'06, Toulouse, 8 pp. Siouane, M. 1999. Architecture d'un simulateur pédagogique, Thèse demagistère, Université Badji Mokhtar de Annaba. Sorlin, S.; Sammoud, O.;Solnon, C.; & Ghédira, K. 2006. Comparaison de l'optimisation par colonies de fourmis et d'une recherche réactive sur des problèmes d'appariement de graphes. JFPC'06, Nîmes - Ecole des Mines d'Alès, France. Tversky, A. 1977. Features of similarity. Psychological Review, (84)4 pp 327-352 Zampelli, S.; Deville Y.;Solnon, C.; & Sorlin S., Dupont P. 2007. Filtrage pour l'isomorphisme de sousgraphe. JFPC'07, INRIA, France. Cheype, A. 2006. Recherche de motifs séquentiels pour guider l'interprétation des traces d'apprentissage dans un 20 Amiens – 23 et 24 mai 2012 Une approche centrée enseignant basée sur les patrons pour la scénarisation pédagogique Jean-Pierre Clayer Laboratoire LIUM, Université du Maine, Avenue Laënnec 72085 Le Mans [email protected] Résumé Les attentes de la société et les technologies évoluent. Ces évolutions changent l'enseignement en profondeur. Les enseignants et formateurs doivent organiser et formaliser leurs pratiques. Leur métier évolue, ils doivent acquérir de nouvelles compétences de concepteur pédagogique. Nous proposons de les aider au cours de cette activité de conception pédagogique et de la mise en œuvre des scénarios résultants sur des plateformes/supports informatique. Nous présentons une approche adaptative de conception à base de patrons et centrée sur l’utilisateur et l'éditeur élaboré pour supporter cette approche. Une étude de cas est proposée pour illustrer le processus de conception. I. Introduction L'enseignement change profondément depuis ces dernières années, en raison d'une part, de l'évolution des attentes de la société en la matière et, d’autre part, d'une large diffusion des nouvelles technologies. Dans ce cadre, les enseignants et les formateurs dont les pratiques -notamment de conception- sont souvent peu formalisées doivent maintenant davantage les structurer et les formaliser (Laurillard, 2012) au moyen de modèles qui pourront être mis en œuvre sur des plateformes informatiques. Ils doivent pour cela acquérir des compétences de concepteurs. Nous proposons dans ce cadre de les assister dans la démarche de conception de leur scénario pédagogique. Cet article présente une approche de conception adaptative à base de patrons centrée utilisateur. Une approche à base de patrons facilite la création et la réutilisation de scénarios implémentables par la communauté d'apprentissage (Choquet, 2007) (ELEN). L'approche est centrée utilisateur et adaptative. L'enseignant est l'acteur principal impliqué dans le processus de conception, mais aidé/guidé pendant l'élaboration du scénario pédagogique selon ses propres pratiques. La question de recherche principale de cet article est : Quelle est la faisabilité d’une approche de conception à base de patrons qui faciliterait la création et la réutilisation de scénarios pédagogiques par des enseignants/formateurs? La première section présente le contexte de recherche de notre travail. Nous proposons dans une seconde section un processus de conception basé sur l'utilisation de patrons et sur des techniques d’adaptation. Ce processus est illustré dans la troisième 4ièmes Rencontres Jeunes Chercheurs en EIAH section par une étude de cas. La conclusion synthétise nos résultats et présente les travaux futurs. II. Le Contexte de Recherche Dans la littérature, différentes approches s'intéressent à l'instrumentation de la conception pédagogique et plus particulièrement des scénarios pédagogiques. L'approche de modélisation à base d'Educational Modeling Languages (EML), comme LDL (Vignollet et Al, 2006), ou la spécification IMS-Learning Design (Koper et Tattersall, 2005) qui vise à fournir des modèles opérationnels qui peuvent être manipulés par des systèmes informatiques dédiés. Cependant ces spécifications ne sont pas vraiment utilisables par les enseignants et ne fournit pas de processus qui supporte la conception pédagogique (Hernandez-Leo et Al, 2010). Une autre approche est de permettre aux enseignants (qui peuvent être aidés par des spécialistes) de définir leur propre EML en spécifiant leur domaine métier et d'utiliser cet EML pour construire leurs scénarios (Choquet, 2007) (El Kechai, Choquet, 2007). Nos travaux basés sur cette deuxième approche supposent que les enseignants peuvent construire leurs scénarios par le biais de patrons et proposent un processus de conception adaptatif. Un patron de conception se concentre sur un problème bien connu et doit fournir une solution la plus pertinente par rapport à un contexte donné, illustrée par des diagrammes. Une approche par les patrons de conception est adaptée dans le cas d'une conception enseignante prenant en compte la complexité des représentations et la dépendance au contexte (Mor, 2010). Notre approche d'ingénierie vise à soutenir les enseignants dans leurs tâches de conception pédagogique. Les patrons de conception pédagogiques sont une façon de rassembler "les meilleures pratiques" d'apprentissage, fournissant une manière de communiquer l'expertise de la communauté à d'autres enseignants plus novices. Dans cette démarche, un outil-auteur est proposé pour aider à la conception de situations pédagogiques, par l'utilisation de patrons de conception rassemblés dans une banque de données selon la même approche que (Hernandez-Leo et Al, 2010). Les relations qui existent entre les patrons peuvent être décrites pour faciliter leur utilisation/réutilisation. Ces patrons de conception doivent permettre la définition de scénarios pédagogiques dans des 21 Jean-Pierre Clayer situations d'apprentissage différentes en termes d'objectifs, de compétences, de domaine, de méthode d'apprentissage, d'activités, de ressources, de besoins d'observation... Quelques exemples de patrons pédagogiques sont proposés dans les projets européens E-LEN ou le « Pedagogical Patterns Project ». Tracking Language qui permet de modéliser les indicateurs et les calculer en temps réel. Le projet COLLAGE (Hernandez-Leo et Al, 2006) propose un langage de modélisation pédagogique visuel à base de patrons mais mis en oeuvre dans RELOAD (Bolten, 2005), un outil-auteur basé sur IMS-LD. 1. Meta-Modèle de Patrons Notre contribution dans ce cadre est basée sur une autre approche à base de patrons. Les modèles peuvent être exprimés dans le langage métier des enseignants (Choquet, 2007) (El Kechai, Choquet, 2007) (par exemple avec leurs propres concepts métier et modèles de représentation). Nous ne visons pas encore des modèles productifs (des scénarios opérationnalisables), mais nous ne perdons pas de vue cet aspect. Ainsi, nous avons choisi de baser l'approche que nous proposons sur le Domain Specific Modeling Framework (DSM) (Kelly, Tolvanen, 2008) qui est une approche de génie logiciel éprouvée pour modéliser la dimension « métier » dans le domaine des systèmes d'information (Kelly, 2007). III. Une Approche Basée Patrons Centrée sur l’Enseignant Selon l'approche DSM, un méta-modèle (figure 1) doit être défini pour décrire le langage permettant de composer ou fusionner des patrons de formalismes différents. Le but de ce méta-modèle conforme au méta-modèle MOF (Meta-Object Facilities) est d’être utilisé pour générer un outil d’édition. Plus spécifiquement, nous avons choisi de développer notre éditeur avec EMF (Eclipse Modeling Framework) et GMF (Graphical Modeling Framework) pour mettre en oeuvre l'approche DSM . Une autre partie de la question de recherche est la problématique de l'adaptation dans l'approche visée à base de patrons centrée utilisateur. L'objectif est de proposer aux enseignants-concepteurs une assistance au cours de leur activité de conception qui s'adapte à leur profil, plus généralement à leur contexte de conception. Les modèles d'utilisateur et la modélisation utilisateur (user modelling) sont des éléments clés pour personnaliser l'interaction. La modélisation utilisateur est motivée par des différences entre les besoins individuels des utilisateurs ainsi que les caractéristiques et l'hétérogénéité entre différents groupes de personnes (Razmerita et Al, 2003). Nous définissons une approche modélisant l'utilisateur automatiquement où le modèle de l'utilisateur est défini durant l'activité de conception en fonction des caractéristiques de l'utilisateur (le profil utilisateur, les préférences de l'utilisateur, les compétences, le niveau d'activité, le niveau de connaissance …). Les caractéristiques de cet utilisateur sont des informations, issues de l’analyse des traces, pertinentes à collecter et qui seront utilisées pour aider les enseignants à gérer l'activité de scénarisation. L'analyse de ces traces est nécessaire pour adapter le système aux besoins de conception de l'utilisateur. Les traces sont structurées à partir de données « brutes » qui sont acquises et fournies par le système pendant une session de conception. Cette collecte est effectuée à l’aide des indicateurs définis comme des variables signifiantes sur le plan pédagogique, calculées ou établies à l’aide de données observées, en vue d’analyser la qualité de l’interaction, la nature de l’activité ou l’effectivité de l’apprentissage (Choquet, Iksal, 2007). Nous avons utilisé le langage défini par ces mêmes auteurs, Usage 22 Figure 1 : Méta-modèle des patrons Une étude des besoins liés aux situations pédagogiques associée à une étude des types de patrons disponibles dans le génie logiciel, nous mène à choisir les quatre types suivants de patrons, concepts du métamodèle de patrons : − Les Patrons Pédagogiques sont adaptés pour décrire les objectifs ou les stratégies pédagogiques. Ils sont structurés autour des Forces (les raisons qui poussent à l’application du patron), Resulting Context (l’objectif atteint après application du patron) et Rationale (pourquoi nous avons choisi ce patron). Ainsi par exemple,le patron « Mistake » demande aux étudiants de créer un artefact comme un programme ou une conception qui contient une erreur spécifique. L'utilisation de ce modèle montre explicitement à des étudiants comment reconnaître et corriger des erreurs. Ainsi pour spécifier le patron on définira : • Forces « Les étudiants doivent connaître une technique pour repérer les erreurs à partir des effets qu’elles produisent. » et, • Resulting Context « Les étudiants à partir d’un effet peuvent localiser une erreur pour la corriger ». − Nous avons choisi des Patrons d'Analyse pour décrire des ressources matérielles ou humaines à cause de leur structure qui permet de définir l'utilisation d'un Amiens – 23 et 24 mai 2012 Approche pour la scénarisation pédagogique matériel ou un rôle. − Les Patrons de Processus peuvent décrire les activités et les tâches réalisées comme un enchaînement d'actions ou de tâches secondaires. − Les Patrons de Conception sont utilisés pour caractériser la situation d'apprentissage. Ils sont composés de plusieurs sections spécifiques : la motivation (le contexte où le modèle peut être utilisé), les participants et la collaboration (la description des classes et des objets utilisés dans le patron interagissant l'un avec l'autre) 2. Le Contexte de Conception Pour faciliter la tâche du concepteur, l'outil d'édition récupère des informations sur le contexte de conception pour adapter les propositions de patrons au cours de l'activité de conception. Ces informations sont reliées à un ensemble d'indicateurs qui sont affectés aux cinq facettes caractérisant le contexte de conception : 1. Le Profil utilisateur est constitué d'informations sur l'utilisateur et ses préférences. Certaines informations de ce profil sont récupérées à partir des formulaires complétés par les utilisateurs euxmêmes, d’autres à partir de la configuration de l’outil. À titre d'exemple, les informations enregistrées dans ce profil sont le niveau d'adaptation proposé par l'outil et-ou fixé par le concepteur (automatiquement, avec confirmation de l'utilisateur, adaptation minimale …). pas liés strictement à l'une de ces facettes. Les facettes sont corrélées et certains indicateurs peuvent êtres associées à plusieurs facettes. 3. L’Editeur de Scénario Pédagogique L'éditeur que nous avons développé est produit grâce aux technologies EMF-GMF utilisant le méta-modèle de Patrons (figures 1 et 2). Cet éditeur permet aux enseignants de concevoir un scénario pédagogique en utilisant un langage visuel spécifique à leur domaine à base de patrons. A cet outil est ajouté le système d'adaptation capable de capitaliser les contextes de conception et d'adapter les scénarios pédagogiques et l'interface de l'éditeur. L'interface permet au concepteur de visualiser les patrons qu'il instancie comme des cadres divisés en trois compartiments : un pour le nom du patron, un pour la déclaration du problème et un pour la représentation graphique de la solution (Figure 2-A). Une boîte à outils (Figure 2-B) fournit les concepts (les patrons) manipulables. Finalement, les informations concernant le patron sont aussi accessibles par l'onglet des propriétés (Figure 2-C) par lequel GMF caractérise chaque objet. 2. Le Contexte pédagogique qualifie les objectifs et stratégies pédagogiques définies par le concepteur. 3. Le Contexte Institutionnel est un ensemble d'informations sur les contraintes et les limites imposées par l'institution (les salles de classe, les ressources disponibles ...). Figure 2: L'editeur généré avec EMF-GMF 4. Le Domaine rassemble les informations concernant les concepts du domaine d'apprentissage. 5. Le Contexte d'utilisation regroupe des informations pendant la session de conception sur les actions de l'utilisateur. Ces actions sont collectées à partir des traces d’utilisation et de modèles de tâches inspirés des travaux sur l’approche MUSETTE (Champin et Prié). Un exemple d'indicateur de la facette « Domaine » est "Concept in the Domain Vocabulary". La méthode de cet indicateur vérifie si un concept, utilisé comme une propriété pour qualifier un patron donné, fait partie de la facette « domaine » actuelle. Cette méthode est mise en œuvre selon une règle simple "si le concept actuel est dans le vocabulaire, rechercher un patron contenant ce terme". 4. Le Processus de Conception Pour concevoir un scénario pédagogique, un enseignant doit élaborer une solution en combinant les quatre types de modèles permis par le méta-modèle (Figure 1). Le processus de conception est itératif et consiste en les étapes suivantes (Figure 3) : Les indicateurs du contexte de conception ne sont 4èmes Rencontres Jeunes Chercheurs en EIAH 23 Jean-Pierre Clayer IV. Cas d’étude TPWorks est une plate-forme d’apprentissage dédiée aux sessions de TP dans le domaine de l’Automatisation dans le cursus de l’enseignement des sciences de l’ingénieur dans les lycées technique. TPWorks facilite le partage de documents et des ressources numériques. Figure 3: Le processus de conception 1 – Spécifier les besoins de la situation pédagogique: l'enseignant définit les besoins de sa situation pédagogique (objectifs, ressources, outils, stratégie, acteurs, rôles, etc); 2 - Choisir un patron : l'enseignant choisit un patron existant ou pourra en créer un nouveau selon son intention de conception et en fonction des besoins spécifiés dans l’étape précédente. Selon la situation pédagogique, l'enseignant définit des critères pour choisir le patron le plus approprié. Il peut choisir un patron parmi les quatre types de patrons proposés par l'éditeur : un patron de conception pour spécifier la situation d'apprentissage, un patron d'analyse pour les ressources humaines ou matérielles, un patron processus pour les tâches ou les activités ou un patron pédagogique pour spécifier les objectifs. Chaque session de TP doit être définie et planifiée en termes de chapitres, de sous-chapitres ordonnés selon les intentions de l’enseignant et sa motivation. Les ressources associées peuvent être définies aussi (des textes, des médias ...). Les besoins d'observation sont définis dans cette étape préliminaire dans le but de modéliser les indicateurs en relation avec chaque facette du contexte de conception. Ces indicateurs sont ajoutés aux indicateurs existants et implémentés avec UTL (avec l'aide d'un spécialiste informatique). Ensuite l'enseignant peut mettre en place la session de TP sur TPWorks. Une fois que l'enseignant a été identifié par une connexion à l'outil, ce dernier adapte l'ensemble des patrons au contexte de conception de l'utilisateur et configure les paramètres de l'outil selon son profil. Dans ce contexte, nous déroulons sur un cas d'étude quelques itérations du processus de conception avec l’outil de scénarisation. Première itération du processus de conception Etape 1 3 - Fusionner/composer les modèles : l'outil ajoute le patron choisi par l'utilisateur dans le compartiment solution du patron. Le scénario est mis à jour. Dans le même temps, les actions de l'utilisateur ainsi que les propriétés du patron sont analysées pour définir les valeurs des indicateurs. 4 - Collecter les informations du contexte : une fois l'analyse de données réalisée, les indicateurs apportent les informations au contexte de conception et des règles d'adaptation sont produites. 5 - Adapter la solution : le système propose des adaptations possibles au concepteur, en fonction de l'ensemble de règles produites par la collecte. Les adaptations peuvent mener à fournir des recommandations sur la méthode de conception, ou proposer des patrons liés à l'action de l'utilisateur, ou suggérer une évolution de l'éditeur ou sa configuration, adaptée au contexte de conception. L'utilisateur peut toujours modifier le mode d’adaptation souhaité (défini dans son profil). 24 L'enseignant définit le nom de la session comme "Dynamic behavior of a mechanical charge". Le contenu de la session de TP est composé des sections suivantes : une présentation courte du système que les étudiants utiliseront ; une explication des problèmes techniques qu'ils peuvent rencontrer ; une liste des tâches différentes à réaliser ; des activités supplémentaires pour approfondir le TP; des ressources numériques disponibles. L'enseignant doit réserver la salle de classe et l'équipement, préparer la salle de classe, vérifier l'équipement et définir le scénario de la session de TP sous TPWorks. Etape 2 L'enseignant définit son intention de conception. Il peut choisir de définir les élements de son scénario (les objectifs, la situation pédagogique, les tâches,...) dans l'ordre qu'il souhaite. Dans notre cas, l'enseignant préfère décrire d'abord la situation d'apprentissage. Il choisit alors le mode de conception associé au concept « Situation d'apprentissage ». L'éditeur propose un ensemble de patrons de conception liés à tous les types de situation d'apprentissage enregistrés dans Amiens – 23 et 24 mai 2012 Approche pour la scénarisation pédagogique l'outil ou ceux que l'enseignants avaient définis ou sélectionnés lors d'une précédente session de conception. L'enseignant sélectionne des patrons (avec les critères "lab work" et "implement"). Les choix les plus pertinents sont proposés en premier dans la liste. L'enseignant choisit le modèle "Implementation for a lab work". Etape 3 l'éditeur ajoute le patron choisi à la représentation graphique de la solution (Figure 2-A). Le scénario est mis à jour avec ce nouveau patron. Etape 4 Des indicateurs observant les concepts utilisés pour réordonner les ensembles de patrons proposés par l'outil sont mis à jour. Les concepts utilisés sont ajoutés à la facette « domaine » s'ils n'étaient pas déjà parmi les concepts du domaine. Etape 5 L'outil ajoute les nouveaux concepts à l'ensemble de concepts proposés par l'outil pour réordonner les ensembles de patrons. Seconde itération du processus de conception Étape 1 Le résultat de la première itération est conforme aux spécifications des besoins de l'enseignant qui ne spécifie pas alors de nouveaux besoins. Étape 2 Quand le concept "activity" est choisi dans la partie graphique, l'éditeur propose une liste de toutes les activités existantes. Les activités liées à la situation pédagogique sont placées au sommet de la liste. Ici, l'enseignant ne trouve pas l'activité qui lui convient et choisit d'en créer une nouvelle "Implementation of a lab work with TPworks". Étape 3 Le scénario est mis à jour et cette activité est ajoutée à la solution. Étape 4 Les indicateurs liés à cette activité de conception (ajouter une activité) sont mis à jour. La facette « domaine » est mise à jour. La méthode de l'indicateur "Concept in the Domain Vocabulary" vérifie si le concept "TPWorks" fait partie de la facette « domaine » actuelle sinon il est ajouté. Étape 5 L'outil propose à l'enseignant d’adapter la solution en ajoutant la ressource matérielle "Computer with TPWorks". 4èmes Rencontres Jeunes Chercheurs en EIAH L'enseignant ajoute ensuite à sa solution les objectifs de sa situation pédagogique. Il termine de compléter le patron principal en changeant la propriété "Participants" pour ajouter le nombre d'étudiants attendus. Figure 4: Patron de conception "Implementation of a lab work session with TPWorks" Avant de déployer sur TPWorks le scénario résultant, l'enseignant doit définir encore l'activité "Implementation of a lab work with TPworks" avec les sous-activités ("la présentation courte", "problèmes techniques", … définies dans sa réflexion préliminaire). Ces activités seront mises en œuvre comme des pages Web dans TPWorks. Les pages web réalisées dans TPWorks sont représentatives des activités ou des ressources mises à disposition des élèves. Ce lien entre une activité et une page web peut être vu comme une règle de transformation permettant ainsi de transformer le modèle que nous offrons en pages web pour TPWorks. V. Conclusion L'évolution du contexte pédagogique et des technologies numériques, nécessite une redéfinition du métier des enseignants et formateurs. En particulier, ces derniers doivent adapter leurs pratiques de scénarisation pédagogique, en les explicitant et les formalisant davantage, nécessitant pour cela de nouvelles compétences de concepteur informatique. Nous proposons dans cet article une approche adaptative de conception pédagogique à base de patrons centrée sur l'utilisateur pour aider les enseignants dans cette démarche. Nous proposons un outil d’édition pour supporter cette approche. Cet outil est généré à partir des technologies EMF-GMF depuis un méta-modèle de patrons. L'outil peut être adapté aux caractéristiques de l'utilisateur et au contexte de conception (le profil de l'utilisateur, les activités de conception …) et permet à l’enseignant de concevoir un scénario pédagogique en utilisant un langage visuel spécifique à son domaine métier. La limite de cette approche tient à la création de modèles productifs. Dans cette partie du travail, nous ne traitons pas encore 25 Jean-Pierre Clayer la création de tels modèles productifs. À ce jour, nous n'avons pas expérimenté notre proposition de recherche, nous avons juste montré, en développant cet outil, la faisabilité technique de notre approche. De nouveaux travaux seront centrés sur le raffinement du processus d'adaptation. VI. Références Bolton, Reload Project. United Kingdom: The University of Bolton, The University of Strathclyde and JISC. Retrieved August 31st 2005 Choquet C., Ingénierie et réingénierie des EIAH : L’approche REDiM. HDR en informatique, Université du Maine, 2007. Choquet C., Iksal S. Modeling Tracks for the Model Driven Reengineering of a TEL System - Journal of Interactive Learning Research (JILR), Special Issue Usage Analysis in Learning Systems: Existing Approaches and Scientific Issues, Vol. 18 n°2, p. 161184. , - 2007 Eclipse EMP, “Eclipse Modeling Projects”,http://www.eclipse.org/modeling/. Last view 12/2010 El Kechaï H., Choquet C . Understanding the Collective Design Process by Analyzing Intermediary Objects. The 6th IEEE International Conference on Advanced Learning Technologies (ICALT'2006), isbn : 0-7695-2632-2, Kerkrade(The Netherlands), p.10471051, July 5-7, 2006 Hernandez-Leo D., Jorrın-Abellan I.M. , VillasclarasFernandez E.D., Asensio-Perez J.I., Dimitriadis Y., A multicase study for the evaluation of a pattern-based visual design process for collaborative learning, Journal of Visual Languages and Computing 21 (2010), p,313-331. Hernández-Leo, D, Villasclaras-Fernández, E. D., Asensio-Pérez, J. I, Dimitriadis, Y., Jorrín-Abellán, I. M., Ruiz-Requies, I., & Rubia-Avi, B. (2006). COLLAGE: A collaborative Learning Design editor 26 based on patterns. Educational Technology & Society, 9 (1), 58-71 Kelly S. Domain Specific Languages vs. Generic Modelling Languages, interview may 2007 : http://www.ddj.com/architect/199500627 Kelly, S., Tolvanen, J.-P., Domain-Specific Modeling: Enabling full code generation , Wiley-IEEE Computer Society Press, 2008 Koper, R. and Tattersall, C., Learning Design : A Handbook on Modelling and Delivering Networked Education and Training, Springer Verlag, 2005 Mor, Y. Embedding Design Patterns in a Methodology for a Design Science of e-Learning, in Christian Kohls & Joachim Wedekind, ed., 'Problems Investigations of E-Learning Patterns: Context Factors Solutions', Information Science Publishing, Hershey, PA, 2010 Pedagogical Patterns http://www.pedagogicalpatterns.org/ Projet européen – Minerva http://www2.tisip.no/E-LEN/ Project : programme : Razmerita L., Angehrn A., Nabeth T. On the Role of User Models and User Modeling in Knowledge Management Systems, User Modeling 2003, 9th International Conference, UM 2003, Johnstown, PA, USA, June 22-26, 2003, Proceedings. Lecture Notes in Computer Science 2702 Springer 2003, ISBN 3-540-40381-7 Laurillard D, Teaching as a Design Science, Building Pedagogical Patterns for Learning and Technology, edition Routledge, 2012, ISBN 978-0-415-8038. Vignollet L., Ferraris C, David J.-P, Lejeune A, LDL: An Alternative EML, Advanced Learning Technologies, 2006. Sixth International Conference Champin P-A, Prié Y, MUSETTE : un modèle pour réutiliser l’expérience sur le web sémantique, dans Journées "Web Sémantique" Action Spécifique STIC CNRS, oct. 2002, Paris. Amiens – 23 et 24 mai 2012 Manifestation culturelle du numérique Thierry Danquigny Equipe Trigone, Laboratoire Cirel, Université Lille1 [email protected] Résumé Notre projet de recherche concerne l’influence des objets connectés sur la vie quotidienne des nouvelles générations. Nous nous interrogeons sur la réalité des différents changements dans les manières d’être et d'apprendre des nouvelles générations en contact fréquent et précoce avec des moyens numériques pour communiquer, rechercher, s’informer, apprendre et se distraire. A partir d’entretiens d’explicitation, nous analysons l’influence supposée des objets connectés au travers du modèle culturel de Edward.T. Hall (1959) . La mobilisation de ce modèle force à penser la situation des jeunes générations en termes fondamentaux. Dans cette perspective l’usage du numérique est une manière d’exister dans un milieu donné, voir de survivre. Le modèle culturel est donc indissociable de la description d’un milieu de vie, où humain et nonhumains, jouent un rôle inscrit dans une biographie mondiale. Fondamentalement, le cadre culturel demeure fixe, seuls les objets connectés évoluent, se développent en se généralisant à l’ensemble des générations. Les objets numériques sont à la fois acteurs et solutions. Pour les nouvelles générations, ils sont les moyens d’établir une médiation avec leur milieu de vie. En tant que solution adaptée, leur usage est renforcé. Nous concluons sur une constatation de l’accélération des changements culturels provoqués par l’usage du numérique. Introduction Notre société vit l'époque singulière des ''multitudes''. Une multitude d'objets connectés matériels ou immatériels pour communiquer, s'informer, apprendre ou encore se distraire peuplent notre vie quotidienne (Pisani & Piotet, 2008). Notre société vit encore l'épreuve des multiples signaux d'alerte. Le taux de chômage, les nouvelles exigences du marché de l'emploi, les différences de conditions de vie entre classes d'âge, l'injonction à la mobilité professionnelle expliquent une ''montée des incertitudes'' (Castell, 2009). Parallèlement, avec l'accroissement des populations étudiantes, l'Université française, vit la multitude des profils, l'hétérogénéité des niveaux et attentes (Alava, Romainville, 2001). Dans ce contexte, l'Université engage un processus dit de ''modernisation'' pour faire face aux différents enjeux sociétaux. Les différents rapports d'Etat Isaac (2007), Besson (2008), Demuynck et Pécresse (2011) tentent d'ouvrir des pistes pour renforcer l'efficacité de l'institution, intégrer les promesses du numérique et adapter les enseignements aux ''digital natives'' (Prensky, 2001). Le numérique, l'éducation et les nouvelles générations sont ainsi annoncés comme les enjeux de ce siècle. Selon Abbott (2010), « There are undoubtedly extraordinary times, rich in opportunity yet loaded with uncertainty. » (p. 215). Ce contexte sociétal constitue le milieu de vie 4ièmes Rencontres Jeunes Chercheurs en EIAH des étudiants dont le dénominateur commun est l'évolution et la généralisation des usages numériques (Ministère de la culture, 2010; Eurostat, 2010) dans les sphères privées, académiques ou professionnelles. Cette diffusion rapide de moyens pour accéder et traiter la connaissance modifie notre relation au savoir et à la manière d'apprendre (Buckingham, 2010; Serres, 2009). Pour certains observateurs, les objets connectés auraient ainsi une influence sur la manière de se comporter, de penser et d'apprendre. Pour certains l'influence serait positive (De Rosnay, 1995; Papert, 1999; Prensky, 2011; Tapscott, 2009) pour d'autres négative (Bauerlein, 2008; Keen, 2008; Carr, 2009; Small, 2010). Notre question de recherche est d'évaluer en quoi les objets connectés de type ordinateur, téléphone, balladeur ou encore les consoles de jeux utilisés au quotidien influencent et font évoluer les manières d'apprendre. Nous vérifions l'hypothèse que les manières d'apprendre dans le temps de la révision sont dépendantes du contexte sociétal, académique et de la connaissance pratique des objets connectés. Cette hypothèse est vérifiée dans le moment de révision qui mobilise à la fois les sphères privées, académiques et professionnelles. Notre terrain de recherche est situé à l'Université Lille1. Notre développement se décline en deux parties : Une première partie macro envisage l'environnement de l'Homme et le contexte sociétal indépendamment des situations d'apprentissage. Nous empruntons à Edward T. Hall (1959), son modèle descriptif des systèmes culturels pour bâtir une grille interprétative des conduites humaines en situation d'interaction avec l'environnement. Avec Leroi-Gourhan (1945), nous comprenons qu'au contact avec son environnement, ces conduites humaines sont des vecteurs de création et de développement des objets techniques. Au sens de Friedmann (1966) et de Ellul (1977), ces objets techniques sont pour l'humain, un nouveau milieu dit technique. Une deuxième partie micro envisage ce milieu technique constitué de dispositifs numériques comme facteur influant l'apprentissage humain. A cette étape, nous faisons un état de nos premières recherches terrains réalisées à partir de trente entretiens d'explicitation ainsi que de la mise en place d'un questionnaire. Ces recherches s'appuient sur les grilles d'interprétations et hypothèses contruites dans la première partie. Première partie : l'approche Macro Le point de vue de l'ethnotechnologie : Pour introduire ce point de vue nous utilisons les travaux de Gaudin (2010). L'auteur nous permet de comprendre l'influence réciproque de la technique et de la société. Pour l'ethnotechnologie, la technique est comprise et analysée comme activité dont l'objet est de donner une forme à la matière (ibid). Elle est un socle sur 27 Thierry Danquigny lequel repose la civilisation. Elle est la condition sine qua non de toutes activités humaines. Ce courant de pensée que nous retrouvons chez Ellul (1977) sous la forme du concept de Technique, nous permet d'introduire le concept d'empreinte comme manifestation de l'usage des moyens techniques. C'est ce concept, que nous utilisons pour notre recherche (au niveau micro) pour comprendre les pratiques étudiantes dans le moment de révision. Pour notre recherche nous postulons que cinq facettes permettent de décrire les objets influencant le milieu de vie des étudiants. Nous retiendrons l'acronyme CRIAD pour Communiquer, Rechercher, s'Informer, Apprendre et se Distraire. Le cadre théorique de l'ethnotechnologie nous permet de comprendre comment les CRIAD interagissent avec le milieu de vie des étudiants. L'ethnotechnologie réfute le principe de causalité linéaire pour adopter une causalité circulaire (Gaudin, 2009). Gaudin définit le système technique comme un ensemble cohérent de savoir-faire liés entre eux par un réseau d'interactions. Il reprend les thèses de Gille (1978) sur l'émergence des systèmes techniques . Pour Gille, l'introduction d'une technologie ne peut être isolée d'un tout, « Système technique et système social sont aussi intimement liés... » (p. 5). Il ne s'agit donc pas d'étudier la société et la technique isolément mais d'envisager société et technique en tant que système abritant des influences réciproques. C'est donc sous l'angle de la complexité (Morin, 1977) que doit se penser l'ethnotechnologie et la systémique. Flichy reprend le thème de l'influence mutuelle du social et du technique. Il présente cette thématique en décrivant un contexte favorable à l'émergence de certaines technologies et les effets initiaux non nécessairement prévus : (...)Les concepteurs du micro-ordinateur et de l'internet ont donc incorporé dans les systèmes informatiques qu'ils ont développés, des pratiques sociales nouvelles, celle de l'individualisme connecté. Mais ces nouvelles techniques à leur tour vont performer les usages. (Flichy, 2004, p.36) Flichy explique qu'il y a un avant internet, un contexte social (en l'occurrence le mouvement hippie des années 60) qui a porté le développement des objets techniques. Ces derniers eux-mêmes ont renforcé des usages qui par extension, pourraient dans un prolongement purement logique, inclure les nouvelles bases d'un développement d'objets. De ce cadre théorique nous retenons pour notre recherche que les CRIAD doivent être étudiés en interelation avec les pratiques des étudiants dont ils sont à l'origine et la conséquence. Le point de vue de la sociologie des associations : Penser les pratiques des étudiants et les CRIAD en tant que système implique d'en identifier les éléments constitutifs. Selon Ellul (1977), un « système est un ensemble d'éléments en relation les uns avec les autres... » (p. 88). Dans le cadre de la sociologie des organisations, ces éléments en interaction sont aussi agissants et sont nommés acteurs humains ou non-humains. Un CRIAD sera tout autant déterminant qu'un utilisateur humain. Dans la perspective de la sociologie des associations et de la théorie de l'acteur-réseau tout membre du système est acteur et 28 synthèse d'acteurs. Cette terminologie d'acteur qui désigne à la fois les étudiants et les CRIAD, confère une forme de neutralité à notre analyse. En effet, comme le suggère Madeleine Akrich (1987), les objets techniques, en tant que non-humain, n'en sont pas moins actifs et déterminant dans l'émergence d'un système : Les objets techniques définissent dans leur configuration une certaine partition du monde physique et social, attribuent des rôles à certains types d'acteurs humains et non-humains - en excluent d'autres, autorisent certains modes de relation entre ces différents acteurs de telle sorte qu'ils participent pleinement de la construction d'une culture, au sens anthropologique du terme, en même temps qu'ils deviennent des médiateurs obligés dans toutes les relations que nous entretenons avec le "réel". (Akrich, 1987, p.1) Selon Callon et Latour (1997), « les non humains interviennent de manière active c'est à dire qu'ils relancent l'action dans des directions inattendues. Cette participation des non-humains à l'action conduit à concevoir les entités comme des réseaux. » (p. 114). Le terme ''acteur'' recouvre ainsi deux grandes catégories que sont les humains et les non-humains. La présence d'objets techniques force la définition et la catégorisation. L'humain est en relation avec le non-humain et délimite une partition du monde en deux parties physique et social. Nous posons l'hypothèse pour notre recherche que la qualité et la fréquence des relations entre acteurs humains et nonhumains créent des habitus (Bourdieu, 1980) qui forgent des manières d'agir et d'apprendre des étudiants. Les travaux sur l'empreinte technique (Perriault, 2009) nous permettent de comprendre comment se forment ces habitus : ''Le terme «empreinte de la technique» désigne ici la façon dont la technique et l'usage d'une technologie façonnent en retour ceux qui les pratiquent. (Perriault, 1981).'' Pour l'acteur humain, l'empreinte est un acquis. Notre recherche concerne non pas l'inné mais l'acquis dans l'activité et au contact de la société et en interaction avec elle. Comme le fait remarquer Claude Levis Strauss, c'est ce qui fait la différence entre réflexe pupillaire inné et un geste acquis par la pratique ou l'entrainement (LéviStrauss, 2008, p.50). Ainsi dans le cadre de notre recherche, la manière de se tenir devant un ordinateur, la manière de prendre des notes pour un étudiant ou encore la manière d'apprendre serait à comprendre dans le contexte socio-culturel et socio-technique à un moment donné. En reprenant le concept de l'empreinte développé par Perriault dans la ''Logique de l'usage'', l'utilisation de moyens techniques pour produire, pour mener une activité professionnelle marque physiquement l'humain. La corpulence, la démarche, la forme des mains, la crasse des cheminots (Perriault, 1981), sont autant de marqueurs physiques apportant des éléments de preuve d'un contact avec une activité impliquant des acteurs non-humains. Sur le plan méthodologique, notre recherche sur les CRIAD se heurte à la difficulté de repérer des marqueurs qui ne sont pas toujours physiques. En effet, les travaux de Kandel(2007) sur l'aplysie, une limace de mer, montre que l'interaction répétée avec l'environnement provoque une modification neurologique de Amiens – 23 et 24 mai 2012 Manifestation culturelle du numérique la mémoire à long terme dont la manifestation visible est le comportement et dont la modification accessible par dissection est la structure biologique : Fondamentalement, à l'aide de Hall, nous expliquons qu'un des facteurs de mise en action de l'homme est de s'adapter à son environnement. Nous découvrîmes que la mémoire à long terme de l'aplysie, comme chez l'homme, requiert un entrainement répété entrecoupé de période de repos. La perfection nait de la pratique même chez les mollusques. Ainsi, quarante stimuli administrés consécutivement entrainent une habituation du retrait de la branchie qui ne dure qu'un jour, mais dix stimuli chaque jour durant quatre jours produisent une habituation qui dure des semaines. (Kandel, 2007, p. 199) Dans cette expérience, comme dans notre recherche seule une trace neurologique pourrait être observée. Les expériences du neurologue américain Small ont par exemple permis de mettre en évidence des traces d'activités neurologiques créées après une utilisation de quelques heures de recherche sur Google sur des groupes ayant une pratique régulière et une absence de pratique. Il s'avère qu'à l'issue de cinq heures de pratique les groupes avancés et novices présentent les mêmes traces d'activités neurologiques. Ce constat fait dire à Small : L'homme a élaboré des méthodes défensives avec une ingéniosité étonnante, non seulement en ce qui concerne la guerre, mais aussi la médecine, la religion et l'application des lois. Il doit se défendre non seulement contre des forces naturelles menaçantes, mais aussi contre des groupes humains hostiles. (Hall, 1959, p. 68) If our brains are so sensitive to just an hour a day of computer exposure, what happens when we spend more time ? What about the brains of young people, whose neural circuitry is even more malleable and plastic ? What happens to their brains when they spend their average eight hours daily with their high-tech toys and devices ? (Small, 2008, p. 17) L'ensemble de ces travaux nous permet d'affirmer que la singularité de l'humain est une prise de conscience empirique et théorique de la modification de la physiologie individuelle par interaction avec l'environnement. Que ce soit en interagissant avec une bêche, un pinceau ou un smartphone, dans un milieu naturel ou dans un milieu créé par l'humain, l'homme est transformé (Mumford, 1956; Mac Luhan, 1964) physiquement et neurologiquement. L'imagerie cérébrale est ainsi vue par le CERI (2007) comme une opportunité pour inventer une nouvelle science de l'apprentissage. Dans le questionnement de Small sont cités les paramètres de notre recherche : l'activité dans un environnement informatisé, les CRIAD et les étudiants. Pour notre recherche, notre questionnement concerne les manifestations quantifiables issues des relations entre les acteurs humains et non-humains. Le point de vue de l'anthropologie culturelle : Dans les parties précédentes, nous avons qualifié les relations entre technique et société. Dans le cadre de la théorie de l'acteur réseau, les systèmes techniques et sociaux, sont étudiés sous l'angle de l'analyse des interactions entre acteurs. Dans le cadre de l'anthropologie culturelle de Hall (1959), les individus regroupés en sociétés auront des préférences culturelles à partir d'une gamme de pratiques universellement repérées. Ce cadre nous permet de bâtir une méthodologie pour étudier les pratiques étudiantes en situation d'apprentissage. 4ième Rencontres Jeunes Chercheurs en EIAH La genèse de l'invention du silex taillé, du chopper, décrite par Leroi-Gourhan(1945) décrit cette démarche de conception de moyens aptes à garantir sa survie par une traduction matérielle « au point de contact entre le milieu intérieur et le milieu extérieur » (p. 339). Ces moyens créés par hasard ou procédant d'une démarche innovante sont confrontés au réel pour disparaître ou s'enrichir de nouvelles fonctionnalités. Les innovations ainsi émergentes deviennent pour Hall et Friedmann (1966) des prolongements de l'homme hors de l'homme. L'action de l'homme est amplifiée relativement aux effets constatés sur son milieu de vie : De nos jours, l'homme a développé des extensions de toutes les parties, ou presque, de son corps. L'évolution de l'arme va du poing et des dents à la bombe atomique. […] Des instruments tels que les lunettes, la télévision, le téléphone et les livres qui sont des extensions matérielles des membres humains, transportent la voix à travers le temps et l'espace. (Hall, 1959, p. 75) Mac Luhan (1964), reprenait ces conclusions pour caractériser les nouveaux médias de l'époque en tant que prolongements sensoriels de l'humain dans un milieu de vie marqué par l'information en tant que donnée stratégique. Dans un environnement donné, la capacité à mobiliser les prolongements sensoriels seraient ainsi une garantie pour sa propre survie. Selon Hall, chaque individu est à situer dans une culture. Comprendre un individu c'est comprendre sa propre culture. Pour Hall, la compréhension des différences culturelles est une communication. Toute communication a des mots, un vocabulaire, une grammaire. L'humain disposerait d'une grammaire fondamentale que Hall a nommé les Systèmes de Communication Primaire (SCP). Le terme Système suggère que les mots constitutifs de cette grammaire forment un tout cohérent en équilibre permanent. L'organisation de ces mots, leur agencement, leurs relations garantissent, pour l'humain, à un instant donné, une situation stable ou en cours de stabilisation. Le terme Communication nous rappelle que l'humain est en interaction avec d'autres humains évoluant dans un milieu naturel ayant des contraintes physiques. Nous esquissons dans cette description, la théorie de l'acteur-réseau fondé sur une interaction comparable entre acteurs humain et non-humains dans un même espace de vie. Le terme Primaire affirme le partipris de considérer l'homme dans ce qu'il a de plus fondamental. Avec les SCP, Hall décrit ainsi le contexte de vie de l'humain et fait de l'influence culturelle sur le comportement le point d'orgue de sa thèse : 29 Thierry Danquigny Cette question touche au but principal de cet ouvrage, qui est de prouver à quel point la culture conditionne le comportement. La culture n'est pas une idée exotique pour laquelle se passionne une petite chapelle de spécialistes au fin fond des mers du Sud. C'est un moule qui nous modèle tous; la culture conditionne notre vie quotidienne, de manière parfois inattendue. (Edward T. Hall, Le langage silencieux, 1959, p.47) Partant de l'hypothèse qu'il est nécessaire de connaître le système culturel rencontré pour pouvoir établir une communication et maintenir le rapport, Hall détermine une grille de lecture donnant accès au décodage des différences culturelles. L'hypothèse complémentaire est qu'une culture a des fondamentaux qui se situe à un niveau élémentaire, primaire. Ce niveau dit biologique imposerait des catégories communes à l'ensemble des cultures. C'est ainsi que d'un point de vue méthodologique que Hall définit les SCP : Le concept de milieu technique est historiquement étudié par Friedmann(1966). Ellul enrichit les analyses de Friedmann avec le concept de Technique. Ellul explique ainsi le milieu technique à partir du concept de Technique. La Technique est pour l'auteur un ensemble de moyens efficaces en vue d'un objectif. La Technique n'est donc pas un ensemble de technologies mais un ensemble de moyens et de méthodes qui favorise le renforcement du milieu technique. L'emploi de techniques efficaces favorisent par contre la création de technologies. Dans ce contexte, les CRIAD vont permettre à l'utilisateur étudiant d'optimiser leurs activités d'étude. En ce sens, l'accéleration des actions se doublera d'une recherche d'efficacité dans l'intéraction ou l'association (Hall, 1959). Dans le shéma ci-dessous, un téléphone portable pourra rapidement permettre d'organiser un rendez-vous, de trouver un partenaire ou encore de résoudre un problème. Les SCP de Hall dans le milieu technique sont ainsi mobilisés rapidement et efficacement. Les SCP sont : interaction, association, subsistance, bisexualité, territorialité, temporalité, connaissance, jeu, défense, exploitation (utilisation de la matière). (Hall, 1959, p. 56-57) Les SCP sont donc pour Hall une manière de cartographier les conduites humaines. Analysable globalement pour la société et par individu, ces SCP constituent des grilles de lecture de l'usage des objets techniques. Le flux de contraintes issu de l'environnement est filtré par ces SCP pour se traduire en moyens de résistances, d'agir, de réagir ou de construire : Ce processus d'adaptation mène aux formes de vie complexes qu'on trouve sur terre. Les cultures différentes sont analogues aux espèces en ce sens que certaines survivent tandis que d'autres disparaissent. Certaines s'adaptent mieux que d'autres. Analyser le changement, c'est donc analyser la survie.(Hall, 1959, p.56-57) Hall décrit un processus d'adaptation et dans le même temps un processus créatif. Toute adaptation dont le fondement primaire est la survie prend la forme d'organisations, de structures et d'objets. Les CRIAD que nous étudions peuvent être considérés comme la manifestation de ce processus créatif. Nous proposons de considérer ces CRIAD comme une réification des SCP définis par Hall. Le point de vue de la sociologie des techniques : Pour étudier cette réification des SCP en CRIAD, nous souhaitons introduire la notion de milieu technique que nous distinguons du milieu naturel. Pour Ellul, le milieu technique est vu comme une médiation entre le milieu d'origine dont est issu l'humain et le milieu maitrisé par l'humain : (…) cette médiation devient exclusive de tout autre : il n'y a plus d'autres rapports de l'homme à la nature, tout cet ensemble de liens complexes et fragiles que l'homme avait patiemment tissé (…) disparaît : il n'y a plus que la médiation technique qui s'impose et devient totale. (Ellul, 1997, p. 44) 30 (figure 1) L'étudiant (cf fig. 1) est entouré des dix SCP qui filtrent son interaction avec les acteurs humains ou non-humains. Dans son milieu technique, il tient dans la main un CRIAD (téléphone). Evoluant dans un milieu technique, l'étudiant adopte le critère d'efficacité symbolisé par les flèches bleues. Dans notre recherche, c'est par l'étude des CRIAD, des SCP mobilisés que nous tentons de qualifier et quantifier l'empreinte des environnements numériques sur les activités de l'étudiant. Eléments de synthèse : Dans cet article, nous cherchons à regrouper différents courants théoriques, à articuler la sociologie des techniques, la théorie de l'acteur-réseau et l'anthropologie culturelle. Par la théorie de l'acteur-réseau, nous identifions un ensemble socio-technique et des acteurs ayant chacun à leur niveau une influence sur la cohérence. Par la sociologie des techniques, nous identifions les facteurs d'efficacité, d'optimisation et de pragmatisme contribuant à créer un milieu technique dont la cohérence interne et à la mesure du fonctionnement d'un objet technique. Par l'anthropologie culturelle de Hall, nous comprenons la culture comme étant une matérialisation des stratégies de survie. Amiens – 23 et 24 mai 2012 Manifestation culturelle du numérique En intégrant le concept d'empreinte, nous déduisons que la culture est la manifestation d'une manière d'utiliser les objets. La culture dans la métaphore musicale de Hall est une partition de notes qui enveloppe l'ensemble des acteurs humains et non-humains (cf fig. 1). Dans l'ordre de notre exposé, les différents cadres théoriques s'articulent de la manière suivante : notre milieu de vie est créé par l'humain, il est un milieu technique (Ellul, 1977; Friedmann, 1966; Gaudin, 2010). La stabilisation de ce système ne peut être réalisée qu'à partir de moyens trouvés dans le milieu conçu par l'homme. Le milieu technique est ainsi en auto-accroissement par le simple fait qu'un problème technique suggère une solution technique (Ellul, 1977). La solution la plus efficace, la plus économe sera adoptée. Dans le modèle culturel de Hall, les dix SCP doivent être optimisés afin de réaliser des arbitrages efficaces à la mesure du projet de survie. Entre les dix SCP, l'humain ferait des arbitrages, des calculs et des négociations. En interaction dans l'environnement, la mesure du danger déclenchera l'association pour garantir la préservation de son territoire dans les meilleurs délais. Dans le monde du vivant sont rapidement négociés les SCP de Hall comme l'interaction, la défense, l'association, la subsistance, la territorialité et la temporalité. Les objets créés par l'homme pour agir sont utilisés pour optimiser les SCP. A ce stade de notre réflexion, nous pouvons introduire le statut des CRIAD pour les nouvelles générations. A notre époque quels sont les réels changements ? L'anthropologie relève aisément que nombre d'objets fabriqués par l'Homme étaient dictés par l'impérieuse nécessité de survivre. Mais de nos jours que dire d'un smartphone ou d'une console de jeux connectés au web ? Deuxième partie : l'approche Micro Notre approche micro est fondée sur une étude terrain en cours. Le travail de collecte est réalisé à partir d'une série de trente entretiens et un questionnaire sur une population étudiante à l'Université Lille1 en Licence. Notre intention est d'évaluer l'importance des CRIAD dans la vie quotidienne en termes d'intensité d'usage et d'utilisation historique. Une première partie de nos entretiens interroge la biographie individuelle numérique puis nous établissons un lien avec le métier d'étudiant pour nous intéresser à des moments clés de la vie étudiante comme l'acquisition de connaissances, la révision et l'examen. Avec le concept d'empreinte, nous cherchons ainsi à mesurer en quoi le contact avec les CRIAD modifie l'activité dans les situations de la vie quotidienne et en quoi l'activité d'étude est influencée. Méthodologie de recherche : Notre recherche est menée selon une approche fondée à partir d'entretiens d'explicitation (Vermersch, 2010) préparatoire à un questionnaire qui ne fait pas partie de cette communication. Les entretiens cherchent à répondre à des questions concernant les sphères privées-publiques et concernant les sphères académiques. Appliquée à notre terrain de recherche, notre question consiste à vérifier si des usages identifiés dans la sphère privée se transposent dans la sphère académique. Cette approche nous permet d'identifier des continuités ou des ruptures entre les différentes sphères. Nous avons vu précédemment que les 4ième Rencontres Jeunes Chercheurs en EIAH travaux de recherche du CERI (2007) et Small(2010) sur les humains et Kandel(2007) sur les invertébrés suggèrent que la répétition d'une activité est neurologiquement structurante. Notre méthodologie consiste donc à évaluer l'intensité d'usage des CRIAD dans la sphère privée et d'étudier par contraste l'activité étudiante. Nous choisissons le moment de la révision dans la mesure où ce moment est un moment clé : il est en lien avec l'obtention du diplôme ou tout au moins avec la possibilité de continuer dans un cursus. Par ailleurs il se situe à la frontière des sphères, public ou institutionnelle. Chez Leroi-Gourhan (1945) au point de contact avec les contraintes du milieu extérieur, des objets naissent. Chez Hall (1959), par le jeu des interactions dans un milieu donné, des stratégies de survie se mettent en place mobilisant humains et nonhumains. Dans nos entretiens préliminaires, nous identifions deux moments. Le premier moment concerne l'usage des CRIAD dans la sphère privée, le second l'usage des CRIAD dans la sphère académique. Entretiens correspondant à l'usage dans la sphère privée. En l'état de nos recherches, nous avons mis en évidence que les SCP sont pour un étudiant des moyens d'optimiser son temps, ses déplacements, ses efforts. Le smartphone en tant qu'outil de convergence de services est un outil qui est solution pour de multiples problèmes rencontrés dans un milieu lui-même modifié par le CRIAD. Il est solution des problèmes qu'il crée. Dans les extraits qui suivent, le CRIAD est décrit en des termes quasi-magiques et à l'usage incontournable : Une étudiante en gestion, 21 ans, parle de l'usage de son smartphone : '' (…) le smartphone çà a été un grand moment ! (…) Non çà a méchamment changé ma vie. (…) Il n'est jamais éteint. On peut m'appeler 24/24. Et parlant de son ordinateur : ''J'ai le mien qui dort avec moi, toujours allumé, prêt à répondre''. Entretiens correspondant à l'usage dans la sphère académique Le deuxième moment est le temps de l'usage académique des CRIAD. A cette même étudiante dotée d'un smartphone, d'un ordinateur portable et particulièrement active en bureautique pour avoir pratiqué très tôt le diaporama avec ses parents, nous posons la question du moment de révision en vue d'un examen. Les réponses qui suivent, indiquent des pratiques traditionnelles avec l'usage des environnements informatisés sous la forme d'une assistance : ''je fais des fiches alors un exemple concret on va prendre le droit. Le droit donc je reprends tous mes cours, j'ai toutes mes notes, je reprends mes cours je refais des fiches. Certaines notions que j'ai pas assimilées je vais voir sur internet pour avoir les def et très souvent je me fais des plans pour vraiment avoir le plan, le sommaire du cours...'' Sur l'usage de l'annotation, le papier est déterminant : ''du rouge, bleu et noir. Rouge c'est pour les titres... parce que je hum visualise beaucoup les parties le plan et donc le plan est toujours d'une autre couleur et les définitions d'une autre mais deux couleurs pas plus parce qu'après je suis perdue'. Les entretiens menés démontrent un usage ''traditionnel''. Un étudiant en biologie, particulièrement habile en informatique, 20 ans, 31 Thierry Danquigny déclare refaire ses exercices sur papier en s'isolant et imprime ses documents pour apprendre. Enseignement de cette recherche Entre les pratiques numériques dans la sphère privée et les manières d'apprendre dans la sphère académique, les étudiants interviewés ont une tendance majoritaire à utiliser des moyens différents de ceux mobilisés au quotidien. L'étudiant multitâche et adepte des nouvelles technologies mute dans le moment de révision en étudiant monotâche et concentré. Le moment de révision envisagé dans notre recherche comme rupture implique des usages eux aussi en rupture. Ce premier constat enrichit notre problématique et pose l'incidence de facteurs non technologiques sur les manières d'apprendre. La phase d'entretien confirme que le milieu des nouvelles générations est réellement constitué de CRIAD optimisant leur présence au monde. Comme le souligne différents auteurs (Aubert, 2006; Ehrenberg, 1998; Lipovetsky, 2005 ; Tremel, 2001) les CRIAD contribuent à renforcer des relations entre pairs, à être un moyen pour affirmer et construire son identité ou affermir des habilités dans des domaines non-académiques comme le jeu vidéo. Le CRIAD est dans ce contexte paré de vertus pragmatiques. Le mode connecté est vu en première analyse comme un accélérateur de négociations des SCP. Entre le moment de l'interaction et le projet d'association le temps se contracte et apporte des solutions rapides et efficaces adaptées aux conditions de vie du milieu technique. Dans le moment de révision, les conditions d'évaluation semblent influer les manières de mobiliser des familles de moyens particuliers en rupture avec la sphère nonacadémique. Notre hypothèse à l'issue de cette première partie de notre recherche est que les manières d'enseigner et les types d'évaluation influencent le moment de révision, le système social influençant le système technique (Gaudin, 2010; Gille, 1978). Conclusion Notre recherche met en évidence que les CRIAD mobilisés par les étudiants sont autant de moyens pour s'adapter au milieu technique, au nouveau milieu créé par l'humain. La particularité des CRIAD est leur mobilité dans les différentes sphères privées-publiques et académiques. Nous avons analysé l'influence d'usage de la sphère privée sur la sphère académique. La sphère privée permet de choisir librement son propre système de contraintes. Les CRIAD assurent aux nouvelles générations un accès simplifié à la connaissance et à la rencontre entre pairs. Une des manifestations culturelles du numérique est l'introduction au sein du domicile parental d'un espace numérique privé et ouvert sur des communautés extérieures. L'usage des CRIAD, adaptés au milieu optimise et accélère la gestion des SCP. La sphère académique impose ses contraintes dispositives aux étudiants. Dans la sphère académique, en situation de révision, les comportements mis en évidence anticipent la forme du dispositif d'évaluation. En contexte, les étudiants effectuent des arbitrages adaptés aux conditions prévisibles d'examen. Nos premières observations contribuent à renforcer l'idée que les CRIAD ont un pouvoir de transformation sur l'humain. Leur empreinte, leur manifestion est à déce- 32 ler dans la gestion des SCP. Il demeure, dans le cadre de la sphère académique institutionnelle de comprendre les évolutions en cours et de les anticiper. Au delà d'un débat entre pessimiste et négatifs, il s'agit d'étudier à la fois l'école, le numérique et la société qui vient (Kambouchner et al., 2012). Il s'agit encore d'imaginer des dispositifs capables d'optimiser le potentiel des nouvelles générations et ainsi fluidifier le jaillissement de l'esprit cher à Seymour Papert. Références : Abbott, J., 2010, Overshooled under educated, Continuum Akrich, M., 1987, Comment décrire les objets techniques, Technique et culture Alava, S., & Romainville, M. 2001. la pratique d'étude entre socialisation et cognition, Inrp. Aubert, N., 2006, L'individu hypermoderne, érès Bauerlein, M., 2008, The dumbest generation, Tarcher Buckingham, D., 2000, La mort de l'enfance, Armand collin Callon, M., & Law, J., 1997, l'irruption des non-humains dans les sciences humain, Cairn Carr, N., 2010, Internet rend-il bête ?, Robert Laffont Castell, R., 2009. La montée des incertitudes, Seuil Ceri, 2002, Comprendre le cerveau, Ocde De Rosnay, J.,1995, L’homme symbiotique, Seuil Ehrenberg, A.,1998, La fatigue d'être soi, Seuil Ellul, J., 1977, Le système technicien, Calmann levy Flichy, P., 2004, L'individualisme connecté, Réseaux Friedmann, G.,1966, 7 études sur l'homme et la technique, Denoël Gaudin T., & Faroult, E., 2010, L'empreinte technique, l'Harmattan Hall, E.T., 1959, Le langage silencieux, Points Kambouchner, D., Meirieu, P., & Stiegler, B., L'école, le numérique et la société qui vient., 2012, Mille et une nuit Kandel, E.,2007, A La recherche de la mémoire, Odile Jacob Keen, A., 2008, Le culte de l'amateur, Scali Latour, B., 2006, Changer de société refaire la sociologie, La découverte Lipovetsky, G., 2006, Le bonheur paradoxal, Seuil Mc Luhan, M., 1964, Pour comprendre les médias, Points Morin, E., 1977, La nature de la nature, Seuil Mumford, L., 2008, Les transformations de l'homme, L'encyclopédie des nuisances Papert, S., 1999, Le jaillissement de l'esprit, Champs Perriault, J., 1992, La logique de l'usage, Flammarion Pisani, F., & Piotet, D., 2008, Comment le web change le monde, Pearson Prensky, M., 2001, Don't bother me mom, I'm learning, Paragon Prensky, M., 2011, Teaching digital natives, Parangon Serres, M., 2004, Où vont les valeurs ?, Unesco techniques, Aubier Small, G., 2009, iBrain, Harper Tapscott, D., 2009, Grown up digital, McGrawHill Tremel, L., 2001, les jeux vidéos : un ensemble à déconstruire, RFP Amiens – 23 et 24 mai 2012 Conception d’un système de dialogue intelligent pour jeux sérieux Franck Dernoncourt Laboratoire LIP6, 4 place Jussieu, 75005 Paris, France [email protected] Résumé L'objectif de nos travaux est de concevoir un agent conversationnel (chatterbot) capable de comprendre des énoncés en langage naturel dans un cadre sémantique restreint. Cette fonctionnalité est destinée à permettre un dialogue naturel avec un apprenant, en particulier dans le cadre des jeux sérieux (serious games). Cet agent conversationnel sera expérimenté au sein d'un jeu sérieux destiné à la formation de personnel en entreprise, en simulant les propos d'un client. Il ne s’agit pas de s’attaquer à la compréhension des langues naturelles dans leur généralité dans la mesure où d’une part le domaine sémantique d’un jeu est généralement bien délimité et, d’autre part, nous restreindrons les types de phrases présentes dans le dialogue. Introduction Quel que soit le type d’apprentissage, l’un des moyens qui permettent de maintenir l'attention et la motivation du joueur dans un jeu sérieux est de lui permettre de dialoguer avec un agent virtuel. Actuellement, ce dialogue, que ce soit dans les jeux sérieux ou dans les jeux vidéo de type récit (storytelling) ainsi que dans la plupart des environnements informatiques pour l’apprentissage humain, est réalisé grâce à des arbres basés sur des questions à choix multiples (Thue et al. 2007). Le dialogue est donc très contraint, réduisant ainsi l’apprentissage du joueur qui doit se contenter de cliquer sur une des possibilités, ce qui à terme diminue la motivation, donc la réflexion. Nous pensons que les systèmes de dialogue intelligents (également appelés systèmes de dialogue évolués) peuvent constituer une réponse pertinente à ce problème. Par exemple, si l’entreprise qui nous intéresse est une pharmacie ou un hôpital, le dialogue entre le patient simulé et le joueur, en l'occurrence un membre du personnel médical, permettra à ce dernier de se former au dialogue avec les patients et tester ses connaissances pour résoudre des situations concrètes et quotidiennes, situations pouvant être urgentes et critiques, où une erreur peut s’avérer extrêmement grave, voire mortelle. Un dialogue est une activité verbale qui fait intervenir au moins deux interlocuteurs servant à accomplir une tâche dans une situation de communication donnée. Il constitue une suite coordonnée d’actions (langagières et non-langagières) devant conduire à un but (Vernant 1992). 4ièmes Rencontres Jeunes Chercheurs en EIAH L’idée d’une interaction homme-machine se basant sur les fonctionnements de la langue naturelle n’est pas nouvelle : elle a commencé à voir le jour à partir des années 50 avec le test de Turing. Néanmoins, cette problématique, aux niveaux conceptuel et pratique, demeure toujours d’actualité. Il existe, par exemple, des compétitions annuelles comme le Loebner Prize (Loebner 2003) ou le Chatterbox Challenge visant à réussir un test et imiter ainsi l’interaction verbale humaine, mais aucun programme n’a réussi à atteindre le niveau d’un humain (Floridi et al. 2009). L’histoire du traitement automatique du langage naturel, influençant directement les agents conversationnels, fait apparaître plusieurs époques dont l’évolution est intéressante : 1. une approche statistico-morphologique entre les années 1945-1955, caractérisée par le recours à des méthodes statistiques faisant intervenir la morphologie des entrées ; ces méthodes reviennent en force avec succès pour la traduction automatique ; 2. une approche syntaxique, marquée par l’utilisation de la grammaire formelle avec les travaux linguistiques de Chomsky dès 1955 ; 3. une approche sémantique dans les années 1960, représentée en particulier par la mise en œuvre du premier agent conversationnel Eliza (Weizenbaum 1966) ; 4. une approche cognitive (Grice 1979) et pragmatique (Moeschler et Reboul 1994) à partir des années 1970, qui coïncide avec l’apparition de la représentation des connaissances et qui fut une époque influencée par la psychologie cognitive mettant l’accent sur les opérations mentales ou sur les processus à la base de la production des discours (Searle 1972). Ces quatre approches sont à présent perçues comme complémentaires les unes des autres et nous nous en inspirerons tout au long de nos travaux. Afin de définir des critères d’efficacité des agents conversationnels, nous allons prendre en compte les quatre critères suivants pré-conditionnant l'élaboration d'un système de dialogue intelligent et proposés par (Rastier, 2001) : • apprentissage (intégration au moins temporaire d'informations issues des propos de l'utilisateur) ; • questionnement (demande de précisions de la part du système) ; 33 Franck Dernoncourt • rectification (suggestion de rectifications à la question posée, lorsque nécessaire) ; • explicitation (explicitation par le système d'une réponse qu'il a apportée précédemment). Dans une première partie, nous présenterons l’état de l’art en nous focalisant sur le langage AIML, puis verrons dans un second temps de quelle manière notre approche permet de dépasser les limites de ce langage. État de l’art La figure 1 montre un exemple d'architecture d'un agent conversationnel. L'utilisateur entre une phrase que l’agent conversationnel convertit en un langage abstrait, ici AIML (Wallace 2003) : cette traduction permet d'analyser le contenu de la phrase et de faire des requêtes via un moteur de recherche dans une base de connaissances. La réponse est générée via un langage abstrait, ici également AIML, qu'il faut traduire en langage naturel avant de la présenter à l'utilisateur. Néanmoins, cette architecture est rudimentaire et très rigide. Il faut par exemple souvent mettre à jour la base de connaissances pour y inclure des connaissances sur l'utilisateur, notamment dans le cadre d'une activité de tutorat qui nécessite le suivi des acquis de l'utilisateur ainsi que de sa motivation. Les agents conversationnels se divisent en deux classes principales : 1. les agents conversationnels non orientés tâche destinés à converser avec l'utilisateur sur n'importe quel sujet avec une relation souvent amicale, tel ALICE (Wallace 2009) ; 2. les agents conversationnels orientés tâche, lesquels ont un but qui leur est assigné dans leur conception. gérer un dialogue en fonction du contexte. C’est une des problématiques du sujet. Le langage AIML est le plus souvent utilisé par les agents conversationnels, notamment les agents conversationnels éducatifs tels TutorBot et TQ-Bot (Mikic et al. 2008). Bien que sa simplicité d'utilisation ainsi que la performance relativement bonne des agents conversationnels l’utilisant le rende attrayant, AIML est un langage toutefois très limité qui peut se résumer à un simple filtrage par motif, les motifs des inputs (phrases de l'utilisateur) et des outputs (réponses de l'agent conversationnel) étant définis en grande partie par extension et a priori. Par exemple, le bot Alice, un des bots les plus connus qui est pourtant un des meilleurs agents conversationnels non orientés tâche, vainqueur en 2001, 2002, et 2004 du concours Loebner et deuxième en 2010, n’est ainsi qu’une simple liste composée de dizaines de milliers de questions/réponses prédéfinies : <category><pattern>Do I like cheese</pattern> <template>How would I know if you like cheese or not?</template> </category> Approche Notre approche se veut modulaire afin de distinguer les différentes compétences requises pour gérer le dialogue et ainsi pouvoir développer de façon indépendante les différents modules, comme le montre le diagramme des flux présenté sur la Figure 2. Dans un premier temps, la phrase entrée par l'utilisateur est corrigée orthographiquement et grammaticalement si besoin. Cette étape, bien qu'évidente, est négligée par beaucoup d'agents conversationnels à l’instar de Cleverbot, pourtant un Les agents conversationnels orientés tâche sont euxmêmes classés usuellement en deux catégories : 1. les agents conversationnels orientés service, par exemple guider des clients sur un site de commerce électronique, telle l’assistante virtuelle Sarah de PayPal ; 2. les agents conversationnels éducatifs, dont le but est d'aider l'utilisateur à apprendre. Notre travail se concentre sur les agents conversationnels éducatifs (tutor bots). Un certain nombre d’agents conversationnels éducatifs ont déjà été conçus et implémentés, comme (Zhang et al. 2009), (De Pietro et al. 2005), (Core et al. 2006), (Pilato et al. 2008) ou encore (Fonte et al. 2009). Diverses architectures ont été élaborées, voici les éléments communs à la plupart d’entre elles : • une base de connaissances inhérente au domaine, objet de l’application ; • un gestionnaire de répliques ; • des structures de stockage des échanges sous forme d’arborescences surtout dans les agents conversationnels éducatifs conçus dans le cadre d’un jeu vidéo. Il n’existe pas encore d’outils standards performants permettant de comprendre le langage naturel, et de 34 Figure 1 - Exemple d'architecture d'un agent conversationnel. Source : (De Pietro et al. 2005) Amiens – 23 et 24 mai 2012 Conception d’un système de dialogue intelligent pour jeux sérieux des agents conversationnels les plus aboutis, comme le montrent ces deux exemples suivants issus du site officiel http://www.cleverbot.com : Exemple 1 : Human: Hi. Cleverbot: How clever are you? Human: Very clver. Cleverbot: How clever? Exemple 2 : Human: Hi. Cleverbot: Are you a boy? Human: Yes I am a boys. Cleverbot: Are you a girl? Dans l’exemple 1, nous voyons que la faute de frappe de l'utilisateur qui a écrit « clver » au lieu de « clever » a manifestement empêché l'agent conversationnel Cleverbot de comprendre la phrase et de proposer une suite cohérente au dialogue. Pour résoudre ce problème, nous utilisons le correcteur orthographique open-source et gratuit Hunspell, utilisé par des logiciels majeurs tels Google Chrome et LibreOffice. Si nous soumettons la phrase « Very clver » à Hunspell, ce dernier nous propose : « clver 7 0: clever, claver, clover, elver, caver, cover, cleaver ». La première suggestion est la bonne. Hunspell prend en compte beaucoup de paramètres pour ordonner ces suggestions, tels la grammaire, la prononciation, le type de clavier utilisé, etc. En plus de l'ordonnancement des suggestions proposées par Hunspell, nous pouvons également apporter nos propres critères, par exemple donner une priorité plus forte aux suggestions présentes dans les mots précédents du dialogue. L’exemple 2, qui montre une erreur de grammaire mettant à défaut l'agent conversationnel, est également corrigé par Hunspell. Si nous soumettons la phrase « Yes I am a boys » à Hunspell, ce dernier nous retourne : « * * * * +boy », le symbole * signifiant que les mots n'ont pas besoin d'être corrigés. Dans un second temps, la phrase de l'utilisateur est analysée lexicalement (tokenization) : ce processus consiste à normaliser la phrase en la découpant en mots. Si de simples heuristiques basées sur des expressions régulières, autrement dit sur des automates à états finis, suffisent pour réaliser l'analyse lexicale des langues occidentales où les mots sont usuellement séparés par des espaces, il n'en va pas de même dans d’autres langues tel le chinois. Par exemple, le segment de phrase chinoise (mandarin) 看上海风景 peut être segmenté 看/上海/风景 (littéralement « regarder / Shanghai / paysage », i.e. « regarder le paysage de Shanghai ») ou bien 看上/海风/景 ( « aimer / brise de mer / vue », i.e. « aimer la vue des brises de mer » ). En voyant cette phrase, un sinophone segmenterait toujours de la première façon car le sens issu de la seconde segmentation est étrange, comme nous le constatons dans la traduction française. Cependant, dans d'autres cas, la segmentation peut être ambiguë même pour un sinophone, à l'instar de la phrase 学生会组织演出 qui peut être segmentée de deux 4ièmes Rencontres Jeunes Chercheurs en EIAH façons différentes, précisément 学生会/组织/演出 (« Le Bureau des Élèves / organise / un spectacle ») ou bien 学生/会/组织/演出, (« le(s) étudiant(s) / va (ou peut) / organiser / un spectacle »). À la lueur de ces deux exemples, nous voyons que ce genre de phrase en chinois rend la tâche plus difficile et demande de faire appel à des heuristiques plus complexes, d’où l’existence d’analyseurs lexicaux spécifiques pour la langue chinoise tel le Stanford Chinese Word Segmenter. Ainsi, il est utile de bien distinguer cette étape de l'analyse de la phrase comme étant une étape à part entière, bien que dans notre cas le traitement soit simple car nous l'appliquons seulement sur les langues anglaise et française. Dans un troisième temps, nous réalisons un étiquetage grammatical (part-of-speech tagging), dont l'objectif est de classifier les mots selon leur fonction grammaticale (noms, pronoms, verbes, etc.). Cette classification se base d'une part sur un dictionnaire et d'autre part sur le contexte dans lequel le mot apparaît. Les étiqueteurs grammaticaux se répartissent en deux Figure 2 - Diagramme du flux des prétraitements. 35 Franck Dernoncourt groupes : les étiqueteurs stochastiques et les étiqueteurs à base de règles. Un exemple d’étiqueteur grammatical stochastique est l’étiqueteur unigramme, qui classifie les mots seulement en fonction de la probabilité d'appartenance des mots à une classe, probabilité calculée sur un corpus d'apprentissage. Par exemple, sur le corpus de Brown (Francis et Kucera 1967), un étiqueteur grammatical unigramme classifie correctement un peu plus de 80 % des mots (Bird et al. 2009), alors que les meilleurs étiqueteurs atteignent des précisions supérieures à 95 %, ce qui est un gain non négligeable, mais montre que même un étiqueteur stochastique trivial (unigramme) présente des résultats corrects. Les étiqueteurs grammaticaux sont très nombreux pour l’anglais mais rares pour le français. À notre connaissance, il n'en existe que quatre directement opérationnels : Cordial Analyseur, LIA Tagg, Stanford Tagger (disponible en français depuis le 6 janvier 2012) et TreeTagger. Dans un quatrième temps, nous établissons l'arbre syntaxique à l’aide d’un parser. Cette étape nous permet notamment de détecter les ambiguïtés structurelles, c'est-à-dire correspondant aux phrases ayant plusieurs arbres syntaxiques. Si l'analyse du contexte ne permet pas de lever l'ambiguïté, notre agent conversationnel peut ainsi poser une question intermédiaire à l'utilisateur l'invitant à clarifier sa phrase. L’extrait suivant issu du film Animal Crackers (1930) montre un exemple classique d'ambiguïté structurelle : Groucho Marx: While hunting in Africa, I shot an elephant in my pajamas. How an elephant got into my pajamas I’ll never know. La figure 3 montre les deux arbres syntaxiques construits à partir du segment de phrase souligné, ce qui signifie que ce segment est structurellement ambigu. Dans l’exemple d'ambiguïté structurelle donnée précédemment, la seconde phrase, autrement dit le contexte, lève l'ambiguïté en choisissant le sens le plus improbable, d'où le caractère humoristique du passage. Si l’agent conversationnel ne réussit pas à déduire le sens du contexte, il peut demander qui portait le pyjama au moment du tir. Ces différentes étapes de traitement de la phrase de l’utilisateur sont résumées sur la Figure 2 montrant le processus appliqué à la phrase de l'utilisateur « I am a boys ». Sur le plan technique, ces étapes (hormis la première) se basent sur la librairie open-source et gratuite NLTK (Bird et al. 2009) qui offre de nombreuses fonctionnalités de traitement des langues tout en interfaçant aussi bien des bases de données tel WordNet (Fellbaum 2005) que des librairies et logiciels tiers tels l’étiqueteur grammatical Stanford Tagger et le prouveur automatisé Prover9. Un grand nombre de corpus sont également disponibles via NLTK, ce qui est très appréciable pour mettre en oeuvre des processus d'entraînement ainsi que pour réaliser des tests, notamment des tests de performance. 36 Figure 3 - Exemple d’ambiguïté structurelle. Source : (Bird et al. 2009) Après avoir mis en place les étapes liminaires du traitement de la phrase de l'utilisateur, notre travail se focalise au niveau du moteur de raisonnement, en particulier sur l'analyse des intentions présentes dans la phrase de l'utilisateur. Ces différentes informations sont ensuite utilisées pour étudier la sémantique de la phrase tout en calculant en parallèle des données statistiques, en particulier via l'analyse sémantique latente, afin de pouvoir la soumettre au moteur de raisonnement. Ce dernier lance des requêtes vers une base de connaissances propre au domaine du sujet du dialogue comme le domaine médical si le dialogue simule une conversation entre un patient et un pharmacien. Outre la base de connaissances en tant que telle, le moteur de raisonnement doit également prendre en compte les objectifs pédagogiques du jeu. Pour cela, dans un premier temps nous utilisons des données pédagogiques basées sur des arbres de décision déjà utilisés dans des environnements informatiques pour l’apprentissage humain. Cela nous permet de réutiliser des scénarios pédagogiques déjà existants ainsi que d’orienter le dialogue afin de mener à bien les objectifs d'apprentissage. De surcroît, ces structures arborescentes atténuent la problématique de la génération de la réponse car les réponses peuvent être générées par l'agent conversationnel en se basant sur des motifs prédéfinis et en fonction de la localisation du dialogue dans l'arbre des scénarios pédagogiques. Amiens – 23 et 24 mai 2012 Conception d’un système de dialogue intelligent pour jeux sérieux Nous voyons ainsi que le point critique est la liaison entre d’un côté la phrase de l'utilisateur qui par essence est exprimée dans un espace infini, le langage naturel, bien que sémantiquement restreint par le contexte du jeu sérieux, et de l'autre côté l'espace fini correspondant aux arbres des scénarios pédagogiques. Afin de situer la phrase de l'utilisateur dans cet arbre, la connaissance des intentions est indispensable. En outre, la reconnaissance des intentions permet d'accroître la robustesse de l'analyse sémantique, comme le souligne (Horvitz et Paek, 2001). L’objectif principal de nos travaux, à présent que les phases de prétraitement ont été mises en place, est donc de concevoir un système de reconnaissance des intentions. Les travaux sur la reconnaissance des intentions ont débuté il y a environ 30 ans, (Schmidt et al. 1978), (Wilensky 1983), et (Kautz et Allen 1986) étant souvent considérés comme les premiers articles dans ce domaine. Les systèmes de reconnaissance des intentions sont très similaires à un système de reconnaissance des objectifs, à tel point que ces deux types de systèmes sont parfois confondus. La reconnaissance des intentions débouche sur de multiples applications allant du traitement automatique des langues naturelles à la détection d'intrusion informatique en passant par la stratégie militaire. Des mécanismes de reconnaissance des intentions ont déjà été mis en oeuvre dans le cadre de récits interactifs, à l’instar de LOGTELL (Karlsson et al. 2007). Comme le souligne (Sabri 2010), il y a généralement trois composants majeurs dans un système de reconnaissance des intentions : • un ensemble d'intentions parmi lesquelles le système choisit ; • des connaissances sur les relations entre actions et objectifs ; • un flux entrant d'actions observées, qui correspond dans notre cas aux actes de dialogue. La logique a souvent été utilisée pour mettre en oeuvre des systèmes de reconnaissance des intentions (Charniak et McDermott 1985), principalement en se basant sur les concepts d'abduction et de planification. L’approche logique peut être combinée avec des approches statistiques (Pereira et Anh 2009) (Demolombe et Frenandez 2006). La phrase « Ne trouves-tu pas qu’il fait chaud ? » est un exemple mettant en exergue la complexité potentielle de l'analyse des intentions : l'intention peut aussi bien être un simple constat qu'une demande indirecte d'ouvrir une fenêtre ou de mettre en marche la climatisation, ou bien que le simple souhait de continuer la conversation. Nous voyons à travers cet exemple que la recherche des intentions est très similaire, voire identique à la recherche des objectifs. Deux approches majeures ont émergé pour analyser les intentions (Raufaste et al. 2005) : d'une part l’approche classique, également appelée approche conventionnaliste, qui cherche les intentions au coeur de la structure linguistique, et d'autre part l'approche intentionnaliste, qui base la recherche d'intentions sur le contexte. Ces deux approches sont complémentaires, comme le représente la figure 4. Enfin, comme le montre (D’Mello et al. 2010), l'apprentissage par agent conversationnel peut être amélioré lorsque la modalité est orale et non écrite. Par conséquent, nous utilisons Dragon NaturallySpeaking 11, qui est le leader de la reconnaissance vocale et édité par la société française Nuance, ainsi que le logiciel AT&T Natural Voices® Text-to-Speech pour transmettre les réponses de l'agent conversationnel sous forme orale. À noter que ces deux logiciels ne sont pas libres. Conclusions et perspectives Notre système sera implémenté au sein de la plateforme pour jeux sérieux Learning Adventure (Carron et al. 2010), dans laquelle il sera évalué dans le cadre d’expérimentations avec les étudiants. La mise au point d'un dialogue entre utilisateur et ordinateur débouche sur des applications potentiellement très nombreuses qui ne se limitent pas aux jeux sérieux. Par exemple, l'interaction orale ou écrite homme-machine (Horvitz et Paek, 2001), la conception de bots, l’aide au brouillage de communication par chat flooding difficilement détectable, les systèmes de questions-réponses, etc. Cette thématique est très actuelle comme le prouvent les travaux d’IBM avec Watson (Ferrucci 2010), (Baker 2011), ainsi que le rapport de Gartner (Gartner 2011) dont la prédiction suivante montre l’importance croissante de ce domaine: By year-end 2013, at least 15 percent of Fortune 1000 companies will use a virtual assistant to serve up Web self-service content to enhance their CRM offerings and service delivery. En outre, les travaux portant sur les agents conversationnels ont de nombreuses problématiques communes avec l’analyse de documents, la fouille de données, la traduction automatique et le web sémantique : tous ces domaines représentent des applications indirectes de nos travaux et des interactions sont envisagées avec certains d'entre eux. Remerciements Je souhaite particulièrement remercier mon directeur de thèse Jean-Marc Labat pour ses précieux conseils, indispensables à la réalisation de ce projet, ainsi que la DGA pour son soutien financier. Figure 4 - Complémentarité des approches conventionnaliste et intentionnaliste. Source : (Raufaste et al. 2005) 4ièmes Rencontres Jeunes Chercheurs en EIAH 37 Franck Dernoncourt Références Baker, S. eds. 2011. Final Jeopardy: Man vs. Machine and the Quest to Know Everything. Houghton Mifflin Harcourt Bird, S., Klein, E., Loper, E. eds. 2009. Natural Language Processing with Python. O’Reilly Media. Carron, T., Marty, J.C. and Talbot S. 2010. Interactive Widgets for Regulation in Learning Games. The 10th IEEE Conference on Advanced Learning Technologies, Sousse, Tunisia. Core, M., Traum, D., Lane, H. C., Swartout, W., Gratch, J., Lent, M. V. and Marsella. S. 2006. Teaching negotiation skills through practice and reflection with virtual humans. Simulation 82(11):685– 701. D'Mello, S.K., Graesser, A. and King, B. 2010. Toward Spoken Human-Computer Tutorial Dialogues. Human--Computer Interaction. (4):289--323. De Pietro, O., De Rose, M. and G. Frontera. 2005. Automatic Update of AIML Knowledge Base in ELearning Environment. Proceedings of Computers and Advanced Technology in Education, Oranjestad, Aruba, August: 29–31. Charniak, E., McDermott, D. eds. 1985. Introduction to artificial intelligence. Reading, Mass.: AddisonWesley. Fellbaum, C. 2005. WordNet and wordnets. In: Brown, Keith et al. (eds.), Encyclopedia of Language and Linguistics, Second Edition, Oxford: Elsevier, 665670 Ferrucci, D. 2010. Build Watson: an overview of DeepQA for the Jeopardy! challenge. In Proceedings of the 19th international conference on Parallel architectures and compilation techniques (PACT 2010). ACM. Demolombe, R., Fernandez, A.M.O. 2006. Intention recognition in the situation calculus and probability theory frameworks. In Proceedings of Computational Logic in Multi-agent Systems (CLIMA). Floridi, L., Taddeo, M. and Turilli, M. 2009. Turing’s Imitation Game: Still an Impossible Challenge for All Machines and Some Judges––An Evaluation of the 2008 Loebner Contest. Minds and Machines. Springer. Fonte, F. A., Carlos, J., and Rial, B. 2009. TQ-Bot: An AIML-based Tutor and Evaluator Bot. Computer. Journal of Universal Computer Science 15(7), 14861495 Francis, W.N. and Kucera, H. eds. 1967. Computational Analysis of Present-Day American English. Brown University Press. Jacobs, J. 2011. Hartner. http://www.gartner.com/DisplayDocument?id=1522020 , Virtual Assistant Vendor Landscape. Grice, H.P., Kant, E. and Foucault, M. 1979. Logique et conversation. Communication, 30, 57-72. Horvitz, E. and Paek, T. 2001. Harnessing models of users' goals to mediate clarification dialog in spoken language systems. User Modeling 3–13. Springer. Kautz, H. and Allen, J.F. 1986. Generalized plan recognition. In Proceedings of the Fifth National Conference on Artificial Intelligence (AAAI), 32-38. 38 Loebner, Hugh. 2003. Home Page of the Loebner Prize, http://www.loebner.net/Prizef/loebner-prize.html The First Turing Test. Meier, E., Mast, M. and Luperfoy, S. 1996. Dialogue Processing in Spoken Language Systems. In ECAI'96, Workshop, Budapest, Hungary. Springer. Fernando, A., Burguillo, C., Rodríguez A., Rodríguez, E. and Llamas, M. 2008. T-Bot and Q-Bot: A couple of AIML-based bots for tutoring courses and evaluating students. Frontiers in Education Conference. FIE. 38th Annual. Karlsson, B., Ciarlini, A.E.M., Feijo, B., Furtado A.L. 2006. Applying a plan-recognition/plangeneration paradigm to interactive storytelling, The LOGTELL Case Study. Monografias em Ciência da Computação Series (MCC 24/07), Moeschler. eds. 1994, Dictionnaire encyclopédique de pragmatique. Paris: Éditions du Seuil. Pereira, L.M. and Anh, H.T. 2009. Elder care via intention recognition and evolution prospection. Procs. 18th International Conference on Applications of Declarative Programming and Knowledge Management (INAP'09), Évora, Portugal. Pilato, G., Roberto P., and Riccardo R. A kst-based system for student tutoring. 2008. Applied Artificial Intelligence 22, no. 4 (4, 2008): 283-308. Rastier, F. eds. 2001. Sémantique et recherches cognitives, PUF (2e éd). Raufaste, É., Longin, D. and Bonnefon, J.F. 2005. Utilitarisme pragmatique et reconnaissance d’intention dans les actes de langage indirects. Psychologie de l’Interaction. 21--22. Sadri, F. 2010. Logic-based approaches to intention recognition. Handbook of Research on Ambient Intelligence: Trends and Perspectives. Schmidt, C., Sridharan, N. and Goodson, J. 1978. The plan recognition problem: an intersection of psychology and artificial intelligence. Artificial Intelligence, Vol. 11, 1978, 45-83. Searle, J.R. and Pauchard, H. eds. 1972. reed. 2009. Les Actes de langage. Hermann. Thue, D., Bulitko, V., Spetch, M. and Wasylishen, E. 2007. Interactive storytelling: A player modelling approach. In The Third Conference on Artificial Intelligence and Interactive Digital Entertainment (AIIDE), Stanford, CA, pp. 43–48. Vernant, D. 1992. Modèle projectif et structure actionnelle du dialogue informatif. In Du dialogue, Recherches sur la philosophie du langage, Vrin éd., Paris, n°14, p. 295-314. Wallace, R. 2003. The elements of AIML style. Alice AI Foundation. Wallace, R. 2009. Parsing the Turing Test, The Anatomy of A.L.I.C.E. Springer. Weizenbaum, J. 1966. Eliza. Communications of the Association for Computing Machinery 9. p. 36–45. Wilensky, R. 1983. Planning and understanding. Addison Wesley, Reading, MA, 1983. Zhang, H. L., Z. Shen, X. Tao, C. Miao, B. Li, and others. 2009. Emotional agent in serious game (DINO). In Proceedings of The 8th International Conference on Autonomous Agents and Multiagent Systems-Volume 2, 1385–1386. Amiens – 23 et 24 mai 2012 Analyse automatique de codes informatiques pour l’aide à l’enseignant 3 ème Loïc Février année de Doctorat (changement de sujet en Septembre 2011) Laboratoire LIP6, 4 place Jussieu, 75005 Paris, France [email protected] Résumé L’introduction récente de l’enseignement de l’algorithmique et de la programmation au niveau du lycée est confrontée à un certain nombre de difficultés, notamment pour les enseignants. Après avoir exposé ces difficultés, nous montrerons l’intérêt d’un système d’évaluation automatique de programmes informatiques puis nous proposerons la création d’outils d’analyse de code permettant d’en pallier les limites. 1. Introduction Depuis la rentrée 2009, une composante algorithmique a été introduite au sein du programme de mathématiques dans les lycées français et ce, de la seconde à la terminale. De plus, à partir de la rentrée 2012, une spécialité informatique sera créée pour les terminales scientifiques. À la même date, en Angleterre, le programme d’étude Information and Communication Technology (l’équivalent de la formation au B2I1 en France), qualifié par le ministre anglais de l’éducation, de « démotivant et terne » sera remplacé par un programme d’études informatiques, axé sur la pratique de la programmation. L’informatique commence donc à être perçue moins comme un outil, qu’il faut savoir utiliser, mais plus comme une science, qu’il faut étudier. Si cette évolution ne peut être que saluée, les obstacles sont nombreux et le risque existe, si ils ne sont pas surmontés, de voir à terme la disparition de cet enseignement. Nous nous concentrerons dans cet article sur les composantes algorithmique et programmation de l’informatique. Après avoir exposé les difficultés rencontrées lors de l’enseignement de ces matières, nous présenterons des outils informatiques capables d’assister les enseignants et nous situerons nos travaux dans ce cadre. 2. Difficultés Rencontrées L’enseignement, dans le cadre des cours mathématiques, de l’algorithmique et de 1 Brevet Informatique et Internet 4ièmes Rencontres Jeunes Chercheurs en EIAH de la programmation, pose un certain nombre de problèmes aux enseignants. Tout d’abord, les enseignants ont en général une méconnaissance de ces deux matières (algorithmique et programmation), qui sont nouvelles pour eux. Ils ont peu de recul par rapport au contenu qu’ils doivent enseigner et ont donc tendance à se concentrer uniquement sur ce que l’informatique peut apporter à leur enseignement des mathématiques. Or, si la notion informelle d’algorithme est assez intuitive pour les élèves, sa formalisation et sa mise en pratique par l’écriture de programmes sont conceptuellement bien plus complexes. Les élèves doivent passer par une phase d’apprentissage des notions fondamentales (variables, boucles, tests...) et de la syntaxe. Cet apprentissage est long et cela peut engendrer de la frustration tant au niveau des enseignants que des élèves, chacun l’exprimant par le classique « A quoi cela sert-il ? ». L’apprentissage d’un langage de programmation est ainsi souvent perçu comme difficile voire désagréable (Bennedsen et Caspersen. 2007, Gomes et Mendes 2007, Kelleher et Pausch 2005). Ensuite, s’il est possible en mathématiques de multiplier les variantes d’un même exercice jusqu’à ce que les élèves aient assimilé un concept, ceci est plus difficile en algorithmique car il n’y a que peu d’intérêt à donner plusieurs fois exactement le même exercice. L’entraînement des élèves est donc plus complexe et il faut s’assurer que chaque exercice est bien compris par chacun, à son propre rythme. De plus, on constate rapidement de grandes différences de niveaux entre les élèves (HartMann et al. 2011), dues à la fois à des connaissances initiales hétérogènes et à des vitesses de progression très variées, différences bien plus marquées que dans les autres matières. Ainsi, l’utilisation de méthodes traditionnelles d’enseignement, cours magistral puis exercices, peine fortement à s’adapter à ces différences, les élèves les moins rapides étant rapidement perdus (HartMann et al. 2011, Gomes et Mendes 2007), les plus rapides s’ennuyant. Enfin, la nature même des travaux rendus, des programmes, rend leur évaluation difficile par les enseignants, en particulier pendant les séances d’exercices. Analyser un programme d’élève, comprendre sa logique, détecter les éventuelles erreurs et guider l’élève vers la solution, le tout en temps-réel, 39 Loïc Février demande en effet une certaine expérience et une bonne connaissance du langage utilisé. Les difficultés sont doubles, à la fois théoriques, pour ce qui concerne l’algorithme utilisé, et pratiques, pour ce qui concerne son implémentation dans un langage de programmation. Cette analyse de programmes, même une fois l’expérience acquise, reste une tâche fastidieuse et répétitive, les erreurs faites par les élèves étant, en général, peu variées. 3. Évaluation Automatique Afin de s’adapter aux différences de niveaux et de vitesses de progression, on peut permettre aux élèves d’avancer à leur rythme au sein des exercices. Il faut cependant s’assurer qu’un exercice a bien été résolu avant de passer au suivant. Comme nous l’avons vu, il est très difficile pour l’enseignant de s’acquitter efficacement de cette tâche. Pourtant un feedback adapté peut avoir une grande influence sur le processus d’apprentissage (Norcini 2010). Il semble donc naturel de mettre en place un système automatisé d’évaluation des programmes informatiques, permettant d’y détecter des erreurs éventuelles. Si de tels systèmes existent et sont utilisés dans certaines universités (Joy et al. 2005, Higgins et al. 2005, Wang et Wong, 2008) ou dans le cadre d’un apprentissage extra-scolaire (Codecademy, CodeChef, France-IOI) nous verrons qu’ils possèdent certaines limites, notamment vis à vis du type de feedback qu’ils procurent. Utilisation de Jeux de Tests Afin d’évaluer, de manière automatisée, la correction d’un programme informatique, on se restreint généralement à un certain type de programmes qui lisent des données de travail, l’entrée et écrivent des résultats, la sortie. À chaque exercice est alors associé un ensemble de tests (le jeu de tests), chacun consistant en une entrée et une sortie de référence. En comparant, pour chaque test, la sortie de référence à la sortie produite par le programme quand on lui donne cette entrée, il est possible de détecter les éventuelles différences, indiquant que le programme n’a pas donné la sortie attendue. En fonction du nombre de tests sur lesquels le programme a donné le bon résultat, il reçoit une note. Si le jeu de tests est bien construit il permet de déterminer de manière très simple et rapide la correction d’un programme. Difficultés de Mise en Œuvre La principale difficulté dans l’utilisation d’un jeu de tests pour l’évaluation de programmes informatiques, consiste en la création de tests de bonne qualité. Il faut en effet penser, autant que possible, à l’ensemble des cas particuliers et des cas limites du problème mais également aux erreurs potentielles et donc créer des tests spécifiques. Sur l’exemple du calcul des racines d’un polynôme de degré 2, il sera assez simple pour un enseignant de penser aux différents cas particuliers comme « avoir une racine double », « avoir un déterminant positif » ou 40 encore « ne pas avoir de racines », permettant de détecter des cas traités incorrectement par les programmes des élèves. Pour les exercices de géométrie, il existe en général de nombreux cas particuliers, auxquels il faudra aussi penser lors de la création des tests, à moins qu’il ne soit explicité dans l’énoncé que de tels cas particuliers ne sont pas à traiter. Il n’est cependant pas toujours facile d’identifier, à l’avance, tous les cas particuliers. Pour un exercice consistant à déterminer si les éléments d’un tableau sont donnés en ordre croissant, les deux erreurs principales faites par les élèves sont les suivantes : 1. L’élève ne compare que les deux premiers éléments, sans jamais regarder les autres. Fonction EstCroissant(T, Taille) Pour i allant de 1 à Taille - 1 Si T[i] < T[i+1] Retourner Vrai Sinon Retourner Faux FinSi FinPour FinFonction 2. L’élève a mal construit sa boucle, la faisant aller jusque Taille au lieu de Taille - 1 ce qui occasionnera une erreur. Fonction EstCroissant(T, Taille) Pour i allant de 1 à Taille - 1 Si T[i] > T[i+1] Retourner Faux FinSi FinPour Retourner Vrai FinFonction Il n’est pas évident de déterminer, a priori, les erreurs qui seront faites par les élèves, aussi c’est en étudiant les solutions proposées que l’on peut se rendre compte des erreurs typiques. Limites Tout d’abord, le fait de pouvoir vérifier de manière presque instantanée la correction de sa solution pousse certains élèves vers une stratégie « essais et erreurs » et ne les encourage pas à réellement réfléchir sur leur programme (Pears et al. 2007, Norcini 2010). Plusieurs solutions existent, par exemple en instaurant un délai entre chaque essai ou en pénalisant un trop grand nombre d’essais. Ensuite, comme nous l’avons vu, il est difficile de construire, dès le début, un bon jeu de tests et celui-ci ne peut remplacer complètement une lecture des programmes des élèves, seule à même de nous éclairer sur les erreurs faites. L’évaluation automatisée par un jeu de tests est donc un outil au service de l’enseignant, lui permettant de se décharger de cette tâche fastidieuse afin de se concentrer sur l’aide à apporter aux élèves en difficulté et la détection des problèmes de fond. Amiens – 23 et 24 mai 2012 Analyse automatique de codes informatiques Enfin, un jeu de tests permet uniquement d’indiquer la présence d’erreurs au sein d’un programme mais n’aide guère l’élève sur les modifications à apporter pour arriver à une solution correcte. Ceci reste à la charge de l’enseignant mais peut, à nouveau, représenter un investissement en temps trop important, alors même que les erreurs rencontrées sont en général les mêmes d’un élève à l’autre. Cependant, malgré ces limites, l’utilisation d’un système d’évaluation automatisée par jeu de tests permet un gain de temps important pour les enseignants, un retour (possiblement) immédiat pour les élèves et ne demande pas de connaissances informatiques spécifiques pour sa mise en œuvre, dès lors qu’une plateforme de test est mise à disposition. Évolution Afin de corriger les limites de l’utilisation d’un jeu de tests, il est par exemple possible d’ajouter un commentaire à chaque test (Wang et Wu, 2007), commentaire qui sera montré à l’élève si son programme échoue sur ce test. Ainsi, en cas d’erreur sur certains cas particuliers, l’élève peut modifier son programme en conséquence. Cela suppose cependant que le programme de l’élève marche sur le cas général. De plus, comme il existe souvent de multiples raisons pour lesquelles un programme ne donne pas le bon résultat, l’élève débutant se trouve démuni et incapable de corriger ses erreurs. Dans le cas de l’apprentissage des mathématiques, un certain nombre d’EIAH ont été développés (Hakem et al. 2005, Heffernan et al. 2008, Narciss et Huth 2006) permettant, suite à l’analyse de l’erreur de l’élève, d’adapter la réponse du système. Le point essentiel de ces outils est d’avoir à la fois une modélisation du domaine de connaissance et une compréhension fine de l’erreur faite par l’élève, ces deux composants permettant alors de guider efficacement ce dernier dans sa résolution. Pour la mise en place de tels systèmes dans le cadre de l’apprentissage de la programmation, deux difficultés se présentent : • la compréhension fine de la réponse de l’élève est difficile à acquérir, même si l’on dispose d’un excellent jeu de tests, • le domaine de connaissance dépend de l’exercice et sa modélisation demande une bonne connaissance des erreurs possibles des élèves. Pour ce second point, une analyse des solutions des élèves est essentielle mais celle-ci est difficile à faire manuellement par manque de temps : le nombre de programmes à analyser, pour une séance d’une heure dans une classe de 30 élèves, s’élève rapidement à plusieurs centaines ! Afin de faire face à ces deux difficultés, une analyse automatique de programmes informatiques s’avère donc nécessaire, afin de pouvoir catégoriser un ensemble de programmes et associer à chaque programme une ou plusieurs erreurs spécifiques. Une telle analyse étant déjà utilisée dans des outils de détection de plagiat, il semble naturel de s’intéresser aux techniques utilisées dans ce cadre. 4ièmes Rencontres Jeunes Chercheurs en EIAH 4. Détection de Plagiat En informatique, nous entendons par plagiat le fait, pour un élève, de copier un programme écrit par une autre personne et de le modifier afin de cacher autant que possible cet emprunt. Les types de modifications constatées (Prechelt et al. 2000) comprennent des modifications de la mise en page du programme (ajout de commentaires, traduction depuis une autre langue, changements de noms de variables...), de son organisation globale (réorganisation des déclarations de fonctions, ajout de « code mort »...) ou locale (réordonnement de conditions multiples, passage d’un type de boucle à un autre, ajout de variables temporaires...). La pratique du plagiat, phénomène global (Saltau 2001) et pratiqué par un grand nombre d’étudiants (Sheard, 2002) notamment en informatique, a incité au développement, depuis plus de 30 ans, de systèmes automatisés capable de détecter cette forme de triche. Désormais, s’il est toujours possible de désorienter ces systèmes, il faut mettre en œuvre des techniques élaborées (Prechelt et al. 2000, Chen et al. 2003) dont la mise en œuvre est aussi difficile que la tâche de départ, et donc hors de portée des étudiants tentés par le plagiat. Ces outils étant donc capables de détecter des similarités fortes entre programmes, alors même que des techniques élaborées de camouflage du plagiat ont été mises en œuvre, les techniques qu’ils emploient sont intéressantes à étudier dans le cadre des applications que nous envisageons. Comptage d’Attributs Les premiers systèmes de détection de plagiat calculaient, pour chaque programme, un certain nombre de métriques permettant alors d’associer à chacun de ces programmes un vecteur de caractéristiques, c’est-à-dire un point dans un espace à n dimensions. Des programmes proches dans cet espace sont alors considérés comme possibles plagiats. Le premier système de ce type (Ottenstein 1976) était basé sur les métriques suivantes : nombre d’opérateurs uniques, nombre d’opérandes uniques, nombre total d’opérateurs et nombre total d’opérandes. Par la suite, d’autres systèmes (Berghel et Sallach 1984, Faidhi et Robinson 1987, Grier 1981) ont été développés, introduisant des métriques supplémentaires, jusqu’à 24. Lorsqu’on calcule des métriques sur l’ensemble d’un programme, on perd toutes les informations liées à sa structure et il a été montré (Whale, 1990) que les systèmes de ce type étaient inefficaces car soit très sensibles (de petites modifications rendent le plagiat indétectable) soit au contraire trop peu sensibles (ce qui occasionne de nombreux faux-positifs). Métriques Structurelles Par la suite, certains systèmes (Jankowitz 1988) ont combiné l’approche « comptage d’attributs » avec des comparaisons de la structure des programmes, cette dernière technique étant la base des systèmes actuellement les plus utilisés parmi lesquels on peut citer MOSS (Schleimer et al. 2003, Aiken ), YAP (Wise 41 Loïc Février 1996), JPlag (Prechelt, et al. 2000), SIM (Gitchell et Tran, 1999) ou encore SID (Chen et al. 2003). Représentation Symbolique Tous ces systèmes commencent par associer à chaque programme une représentation symbolique permettant de s’éloigner du détail de l’implémentation afin de ne conserver que l’essence même du programme. L’ensemble des symboles choisis est de taille plus ou moins grande selon les systèmes et permet donc des compromis variables entre la non-détection de certains plagiats et la détection de faux-positifs. Ainsi, dans le cas de JPlag, un programme est représenté sous la forme d’une suite de symboles très généraux qui, dans le cas Java, comprennent notamment VARDEF, ASSIGN, APPLY, BEGINWHILE, ENDWHILE, IF, ELSE, ENDIF... Le détail des noms de variables ou même des affectations effectuées est donc oublié et seule la structure est conservée. Au contraire pour SIM, l’ensemble des symboles est plus important et un code comme for (i = 0; i < max; i++) sera transformé en TKN_FOR TKN_LPAREN TKN_ID_I TKN_EQUALS TKN_ZERO... qui conserve donc beaucoup plus d’informations, bien que les noms des variables soient également oubliés. Comparaisons Une fois les représentations symboliques des programmes obtenues, différents algorithmes de comparaison sont mis en œuvre par ces systèmes. Dans le cas de SIM, on cherche à aligner les deux séquences de symboles de manière à maximiser un certain score. Par exemple, deux symboles associés valent +1 s’ils sont égaux et -1 sinon ; un symbole qui reste seul vaudra quant à lui -2. Il est possible de maximiser très simplement un tel score en utilisant des techniques de programmation dynamique, mais le grand défaut de cette méthode est qu’elle n’est pas capable de traiter les cas où des morceaux de codes ont été inversés. Dans le cas de JPlag et de YAP, on cherche parmi ces deux séquences de symboles des sous-séquences communes, appelées tuiles. Ces tuiles étant disjointes, on déterminera la similarité entre deux programmes en calculant le taux de recouvrement maximal des deux séquences par des tuiles assez grandes (de taille supérieure à un certain paramètre). L’algorithme utilisé est de type glouton, cherchant à chaque étape la plus grande tuile possible. Le système MOSS utilise, de son côté, une technique de winnowing considérant l’ensemble des sousséquences (de longueur fixée) de symboles d’un 42 programme et extrayant pour chacune de ces sousséquences, de manière invariante localement, un élément représentatif (par exemple le minimum). L’ensemble de ces éléments constitue alors un échantillonnage de la séquence d’origine. Pour comparer deux programmes, on calcule alors le nombre d’échantillons partagés. Métrique de Compression Le système SID (Chen et al. 2003) diffère des méthodes présentées précédemment au sens où il ne compare pas réellement les représentations symboliques des programmes mais utilise une métrique, basée sur la complexité de Kolmogorov. Cette métrique est prouvée comme optimale mais, ne pouvant être calculée, est en pratique approximée par un algorithme de compression pour donner la NCD (Normalized Compression Distance). Intuitivement, plus deux programmes sont différents, plus la longueur de leur version compressée sera importante, car moins il y a d’informations répétées. Cette distance a montré d’excellents résultats lorsqu’elle est comparée aux autres systèmes comme MOSS ou JPlag (Chen et al. 2003). 5. Classification de programmes Outils existants L’analyse de similarité entre programmes (ou codes binaires décompilés) est utilisée dans un cadre industriel, que ce soit pour la détection de code dupliqué (voire Roy et al. 2009 pour une comparaison détaillée des techniques disponibles) ou pour la détection et la classification de virus informatiques (Wehner 2005, Cesare et Xiang 2011) le travail de S. Wehner s’appuyant justement sur la Normalized Compression Distance que nous avons présentée précédemment. Au contraire, si, comme nous l’avons vu, la détection de similarités entre programmes informatiques est utilisée dans de nombreux systèmes afin de détecter un éventuel plagiat, son utilisation dans un cadre pédagogique afin de fournir un feedback aux élèves n’a été proposée, à notre connaissance, que dans un système mis en place à l’université de Durham (Watson et al. 2011). Dans ce cas, la similarité entre deux programmes est déterminée en calculant la distance d’édition entre leurs deux arbres syntaxiques. Utilisation Envisagée L’intérêt pédagogique de ces techniques de comparaison de programmes nous semble très important et leur mise en œuvre apporterait beaucoup à la fois aux élèves et aux enseignants. Combinées avec l’utilisation de fichiers tests, elles permettraient à l’enseignant de classifier rapidement un grand nombre de programmes, c’est-à-dire de faire de la classification semi-supervisée. Si cette automatisation est déjà très utile au sein d’une classe, avec environ une cinquantaine de programmes à classifier par exercice, il est parfaitement possible qu’un même exercice puisse être donné à plusieurs Amiens – 23 et 24 mai 2012 Analyse automatique de codes informatiques dizaines (ou centaines) de classes s’il est présent sur une plateforme en ligne (France-IOI, Codecademy). Il est alors absolument nécessaire de disposer de tels outils afin de pouvoir analyser l’ensemble des données disponibles. Lors de la soumission par un élève d’un nouveau programme, celui-ci serait alors évalué sur le jeu de tests puis classifié grâce à la taxonomie mise en place précédemment. L’élève recevrait donc un message d’aide aussi adapté que possible à l’erreur commise. Pour l’enseignant, l’utilisation d’outils de classification de ce type permettrait d’avoir une vue globale sur les erreurs des élèves, même si ces derniers ont finalement réussi à corriger leur programme par eux-mêmes. Cadre de Mise en Œuvre L’objectif de nos travaux de recherche est donc la création d’outils d’analyse automatique de programmes permettant les utilisations pédagogiques évoquées précédemment. Nous nous appuierons sur les différentes techniques utilisées pour la détection de plagiat ou de similarités entre programmes, et nous déterminerons la plus adaptée au cadre que nous nous fixons. En effet, dans la situation qui nous intéresse, les élèves ne vont pas chercher à masquer un plagiat dans leurs programmes, mais nous devrons en revanche être capables d’en extraire les structures fondamentales permettant de les catégoriser au mieux. D’une manière générale, les programmes considérés seront également courts (10 à 30 lignes), aussi une attention particulière devra être apportée au caractère suffisamment discriminatif des outils utilisés. Les différentes techniques devront donc être étudiées et comparées sur ce type particulier de programmes. A cet effet, une base de données de programmes devra être constituée afin de pouvoir comparer ces techniques entre elles et, d’un point de vue plus général, pouvoir confronter les performances du système envisagé avec celles d’autres outils similaires, en particulier celui utilisé à l’université de Durham (Watson et al. 2011). La correction d’un programme ne pouvant être déterminée par la seule analyse de sa similarité à d’autres programmes (un seul caractère de différence pouvant le rendre invalide), les résultats issus de l’évaluation sur un jeu de tests seront également utilisés pour cette classification. Un outil de visualisation des similarités au sein d’un ensemble de programmes devra également être mis au point, la construction de l’arbre ternaire utilisé par (Chen et al. 2003) étant bien trop coûteuse en temps. Un certain nombre de contraintes s’appliqueront aux outils développés. En effet, ils devront être utilisables de manière simple par tout enseignant désireux de les appliquer sur ses propres exercices. Afin de pouvoir être utilisés de manière efficace sur des plates-formes rassemblant plusieurs milliers d’élèves, une attention toute particulière devra également être portée à la complexité des algorithmes utilisés. Enfin, l’intégration des outils sera effectuée non seulement au sein de notre université mais aussi sur la 4ièmes Rencontres Jeunes Chercheurs en EIAH plate-forme de France-IOI, afin de permettre une évaluation par les élèves et les enseignants de leurs qualités et défauts. Compétences Requises L’enseignant souhaitant utiliser de tels outils sur des exercices déjà créés et mis en place sur une plateforme existante, aura pour seule tâche d’assister le système dans la phase de classification, c’est-à-dire d’être capable d’identifier les erreurs communes à un groupe de programmes afin de les labelliser correctement. Il profitera bien entendu du travail déjà effectué par d’autres enseignants sur ces mêmes exercices. Dans le cas d’un exercice original, s’il est préférable de fournir plusieurs solutions correctes ou incorrectes (afin que l’outil soit opérationnel dès le début), il est suffisant de n’indiquer qu’une seule solution valide. Le jeu de test devra quand à lui nécessairement être créé, de manière manuelle ou plus informatisée à l’aide d’outils de création de jeux de tests, selon le niveau de compétence de l’enseignant. Détailler ce type d’outils sortirait du cadre de cet article mais leur utilisation est simple, à la portée d’un enseignant après une vingtaine d’heures de pratique de la programmation. 6. Conclusion Dans cet article nous avons tout d’abord exposé les difficultés rencontrées par les enseignants dans le cadre de l’apprentissage de l’algorithmique et de la programmation, en particulier au lycée. Après avoir présenté un cadre général pour l’évaluation automatique de programmes à l’aide de fichiers tests, puis exposé les limites d’une telle approche, nous avons montré l’intérêt de pouvoir analyser et comparer plus en détail les programmes réalisés par les élèves. Des outils adaptés à ce cadre pédagogique restent à développer puis à tester en situation réelle, ce qui est l’objet de notre travail de doctorat. Références A. Aiken. A system for detecting software plagiarism. http://theory.stanford.edu/~aiken/moss/. Jens Bennedsen and Michael E. Caspersen. Failure rates in introductory programming. SIGCSE Bull., 39:32–36, June 2007. H. L. Berghel and D. L. Sallach. Measurements of program similarity in identical task environments. SIGPLAN Not.,19 :65–76, August 1984. Silvio Cesare and Yang Xiang. Malware variant detection using similarity search over sets of control flow graphs. In Trust, Security and Privacy in Computing and Communications (TrustCom), 2011 IEEE 10th International Conference on, pages 181-189, nov. 2011. Xin Chen, Brent Francia, Ming Li, Brian Mckinnon, and Amit Seker. Shared information and program plagiarism detection. IEEE TRANS. INFORM. TH, 50:545–1551 Codecademy. http ://www.codecademy.com. CodeChef. http ://www.codechef.com. 43 Loïc Février J. A. W. Faidhi and S. K. Robinson. An empirical approach for detecting program similarity and plagiarism within a university programming environment. Comput. Educ., 11 :11–19, January 1987. France-IOI. http ://www.france-ioi.org. David Gitchell and Nicholas Tran. Sim : a utility for detecting similarity in computer programs. Science, 31(1) :266–270, 1999. Anabela Gomes and António José Mendes. Learning to program - difficulties and solutions. Proceedings of the International Conference on Engineering Education, 2007. Sam Grier. A tool that detects plagiarism in pascal programs. SIGCSE Bull., 13 :15–20, February 1981. Khider Hakem, Emmanuel Sander, and Jean-Marc Labat. Diane (diagnostic informatique sur l’arithmétique au niveau élémentaire). In Environnements Informatiques pour l’Apprentissage Humain, pages 81– 92, 2005. Werner HartMann, Michaek Näf, and Raimond Reichert. Enseigner l’informatique, 2011. Neil T. Heffernan, Kenneth R. Koedinger, and Leena Razzaq. Expanding the model-tracing architecture : A 3rd generation intelligent tutor for algebra symbolization. Int. J. Artif. Intell. Ed., 18 :153–178, April 2008. Colin A. Higgins, Geoffrey Gray, Pavlos Symeonidis, and Athanasios Tsintsifas. Automated assessment and experiences of teaching programming. J. Educ. Resour. Comput., 5, September 2005. H. T. Jankowitz. Detecting plagiarism in student pascal programs. Comput. J., 31 :1–8, February 1988. Mike Joy, Nathan Griffiths, and Russell Boyatt. The boss online submission and assessment system. J. Educ. Resour. Comput., 5, September 2005. Caitlin Kelleher and Randy Pausch. Lowering the barriers to programming : A taxonomy of programming environments and languages for novice programmers. ACM Comput. Surv., 37 :83–137, June 2005. Susanne Narciss and Katja Huth. Fostering achievement and motivation with bug-related tutoring feedback in a computer-based training for written subtraction. Learning and Instruction, 16(4) :310 – 322, 2006. J. Hattie and H. Timperley. The power of feedback. Review of Educational Research,, 77(1):81–112, 2007. K. J. Ottenstein. An algorithmic approach to the detection and prevention of plagiarism. SIGCSE Bull., 8 :30–41, December 1976. Arnold Pears, Stephen Seidman, Lauri Malmi, Linda Mannila, Elizabeth Adams, Jens Bennedsen, Marie 44 Devlin, and James Paterson. A survey of literature on the teaching of introductory programming. SIGCSE Bull., 39 :204–223, December 2007. Lutz Prechelt, Guido Malpohl, and Michael Philippsen. JPlag : Finding plagiarism among a set of programs. Technical Report 2000-1, Universität Karlsruhe, Fakultät für Informatik, March 2000. Chanchal K. Roy, James R. Cordy, and Rainer Koschke. Comparison and evaluation of code clone detection techniques and tools : A qualitative approach. SCIENCE OF COMPUTER PROGRAMMING, page 2009, 2009. C. Saltau. Fear of failure drives student exam cheats. The Age, Melbourne, page 16, 2001. Saul Schleimer, Daniel S. Wilkerson, and Alex Aiken. Winnowing : local algorithms for document fingerprinting. In Proceedings of the 2003 ACM SIGMOD international conference on Management of data, SIGMOD ’03, pages 76–85, New York, NY, USA, 2003. ACM. Judy Sheard, Martin Dick, Selby Markham, Ian Macdonald, and Meaghan Walsh. Cheating and plagiarism : perceptions and practices of first year it students. SIGCSE Bull., 34 :183–187, June 2002. Fu Lee Wang and Tak-Lam Wong. Designing programming exercises with computer assisted instruction. In Proceedings of the 1st international conference on Hybrid Learning and Education, ICHL ’08, pages 283–293, Berlin, Heidelberg, 2008. Springer-Verlag. Shu-Ling Wang and Pei-Yi Wu. Examining the role of feedback on self-efficacy and performance in webbased environment. In Innovative Computing, Information and Control, 2007. ICICIC ’07. Second International Conference on, page 161, sept. 2007. Christopher Watson, Frederick W.B. Li, and Rynson W.H. Lau. Learning programming languages through corrective feedback and concept visualisation. In Proceedings International Conference on Web Based Learning, ICWL’11, pages 11–20, 2011. Stephanie Wehner. Analyzing worms and network traffic using compression. CoRR, abs/cs/0504045, 2005. G. Whale. Identification of program similarity in large populations. Comput. J., 33 :140–146, April 1990. Michael J. Wise. Yap3 : Improved detection of similarities in computer program and other texts. In SIGCSEB : SIGCSE Bulletin (ACM Special Interest Group on Computer Science Education), pages 130– 134. ACM Press, 1996. Amiens – 23 et 24 mai 2012 Similarités sémantiques et contextuelles pour l’apprentissage informel en mobilité Pierre-Yves Gicquel 3ème année de doctorat Université de Technologie de Compiègne-CNRS, UMR Heudiasyc, BP 20259, 60200, Compiègne, France [email protected] Résumé Les dispositifs mobiles tels que tablettes et smartphones fournissent de nouvelles possibilités d'interactions situées en musées. Nous explorons dans cet article deux dimensions pour ces interactions, l'exploration (à travers la suggestion au visiteur d'œuvres, d'artistes ou de thèmes susceptibles de l'intéresser) et la communication (à travers la mise en place d'un système d'annotation contextualisée des œuvres). Afin de prendre en compte la nature située d'une visite de musée, ces interactions sont contextualisées en fonction du profil cognitif du visiteur (ex. ses intérêts et son niveau d'expertise) ainsi que de sa situation physique (ex. œuvres à proximité et historique de visite). À cette fin, nous proposons un modèle sémantique des œuvres et du contexte de visite et définissons sur ce modèle un calcul de similarité sémantique et un calcul d'adéquation au contexte. Introduction Nous nous intéressons à l'instrumentation des visites de musées par des dispositifs mobiles. Lors de la visite d'un musée par un visiteur individuel ou un petit groupe, un apprentissage informel peut prendre place place. L’apprentissage informel se distingue de l'apprentissage formel car il ne s'inscrit pas dans un cursus scolaire ou professionnel et est essentiellement centré sur les désirs d'apprentissage du visiteur (Malcolm et al. 2003). En effet, lors d’un parcours de musée, les visiteurs ne se comportent pas comme des apprenants, ils ne passent pas linéairement d'une œuvre à l'autre ou d'une salle à la suivante comme un apprenant étudie les chapitres d’un cours. Au contraire, ils survolent certaines œuvres, ne suivent pas forcément le chemin prévu et ne lisent que les textes qui les attirent (moins d'un tiers des textes selon Gob et Drouguet 2006). L'apprentissage qui a lieu en musée lors d'une visite « libre » (par opposition aux visites pédagogiques) est donc informel, car centré sur les désirs immédiats du visiteur et non structuré. Les supports numériques aux visites de musées doivent préserver ce caractère 4ièmes Rencontres Jeunes Chercheurs en EIAH informel de l'apprentissage en aidant le visiteur à construire son sens de l'exposition au fil de la visite. Dans cet article, nous présentons une utilisation de similarités sémantiques et contextuelles permettant l'adaptation dynamique des interactions entre le visiteur et les œuvres. Ces interactions comprennent la suggestion automatique d’œuvres, d'artistes ou de thèmes pouvant intéresser le visiteur ainsi que des communications contextualisées entre visiteurs au sujet des œuvres. À cette fin, nous proposons un modèle ontologique pour la description des propriétés culturelles des œuvres et du contexte de la visite. Le contexte de visite regroupe des informations sur l'environnement immédiat du visiteur (œuvres à proximité) ainsi que des informations sur son profil et son historique de visite. Ce contexte se construit au fur et à mesure des déplacements du visiteur dans le musée et de ses interactions avec le dispositif. Dans la suite de cet article, nous positionnons notre travail par rapport aux supports numériques pour la visite de musée, nous introduisons ensuite le modèle ontologique CALM (ContextuAlized Learning in Museum), permettant la description des aspects culturels des œuvres ainsi que du contexte de visite. Nous détaillons les calculs de similarité sémantique et d'adéquation au contexte permettant de fournir au visiteur des interactions adaptées à son contexte. Enfin, nous présentons nos premiers résultats expérimentaux. État de l'art Le cadre de la visite de musée se prête particulièrement bien à la mise en place de situations d'apprentissage en mobilité. Deux types de travaux de recherche émergent dans ce contexte, les travaux centrés sur l'apprentissage scolaire et les travaux centrés sur la visite individuelle. Les travaux scolaires s’intéressent à des classes d'élèves visitant un musée avec un certain objectif d'apprentissage, défini par l'enseignant (Sharples et al. 2007). Ces travaux sont centrés sur l'organisation par l'enseignant des trois temps de la visite (avant, pendant, après). Les dispositifs mobiles permettent la capitalisation de l'expérience de visite par les apprenants (prise de notes, de photos...) facilitant la 45 Pierre-Yves Gicquel phase de retour d'expérience, qui se déroulera typiquement en classe, en présence de l'enseignant. Bien que le design des outils proposés aux apprenants favorise la liberté et l'exploration, ces travaux ne se situent clairement pas dans une perspective d'apprentissage informel, les objectifs d'apprentissage étant prédéfinis et les différentes phases bien structurées. La seconde catégorie de travaux se centre sur l'apprentissage individuel en musée, et concernent la situation la plus courante où un visiteur (ou éventuellement un groupe réduit) explore le musée sans objectif prédéfini. Les études comportementales en musée montrent une variabilité importante tant des modes de visite, (Véron et Levasseur 1983) que des objectifs d'apprentissage des visiteurs. Ces objectifs sont le plus souvent vagues pour le visiteur lui-même. Le rôle du conservateur est alors de faire apparaître, à travers l'organisation physique des objets, un "sens de l'exposition", "pour permettre au visiteur de comprendre, de donner du sens à ce qu'il voit, en mobilisant sa culture, sa mémoire, son intelligence" (Gob et Drouguet 2006). Ce sens de l'exposition repose donc autant sur l'interprétation des œuvres par le visiteur que sur l'exposition elle-même. Les recherches sur les supports numériques pour la visite individuelle de musée se sont alors focalisées sur la personnalisation des informations, dans une démarche visant à aider le visiteur à construire son sens de l'exposition. Plusieurs approches sémantiques ont émergé pour offrir des contenus adaptés aux visiteurs en fonction d'une description sémantique de leur profil et des œuvres. Dans ces approches, l'utilisateur déclenche une requête d’information en interagissant implicitement (en changeant de position) ou explicitement (en interagissant avec le dispositif). Des documents pertinents sont alors proposés sur la base de calculs sémantiques entre les œuvres annotées sémantiquement et les documents. HIPPIE (Oppermann et Specht 2000) a été une des premières tentatives d'utilisation de raisonnement automatique sur une ontologie couplée à un modèle du contexte. Dans HIPPIE, les œuvres sont annotées sémantiquement par des éléments de la taxonomie ICONCLASS 1et le profil utilisateur est constitué d’un ensemble de thèmes ICONCLASS qui correspondent à ses intérêts. Lorsqu'un utilisateur est devant une œuvre, le système peut lui présenter des documents compatibles à la fois avec son profil et avec l'œuvre en question. Le mécanisme d'adaptation est basé sur la conjonction entre les concepts caractérisant l'utilisateur et ceux caractérisant l'œuvre. Le projet CHIP (Wang et al. 2009) a pour objectif de permettre la recommandation d'œuvres. Les œuvres y sont représentées comme des instances dotées de propriétés (style, thème...). Les auteurs proposent une méthode pour déterminer l'importance relative des différentes propriétés, en se basant sur une étude des habitudes de navigation des visiteurs de musées (ex. lorsqu'un visiteur consulte la notice d'une œuvre, il consultera tout d'abord la biographie de l'auteur, la propriété auteur est alors la plus importante). Le système permet alors de suggérer des œuvres en fonction des liens directs existant dans l'ontologie. Ainsi, La Joconde permettra de suggérer L'homme de Vitruve car les deux œuvres partagent la propriété artiste. Notre proposition se situe dans la continuité de ces approches de l'apprentissage en musée. Par la description fine des caractéristiques sémantiques des œuvres, et la construction du contexte du visiteur (profil et historique de visite) au long de sa visite nous visons à orienter les informations et interactions proposées, de manière à aider le visiteur à faire émerger le sens qu'a pour lui l'exposition. Le Modèle Ontologique CALM L'ontologie CALM possède trois racines principales (figure 1), les entités physiques, les entités contextuelles et les entités culturelles. Les œuvres et les visiteurs sont représentés comme étant des entités physiques dotés de propriétés culturelles et contextuelles. L'intérêt principal de ce modèle est de permettre une description unifiée des aspects culturels des œuvres (ex. styles, personnes représentées, évènements représentés...) ainsi que de leur contexte physique. Modèle sémantique des œuvres Afin de représenter les aspects culturels des œuvres, nous utilisons trois différentes sources de connaissances : CIDOC-CRM2, ICONCLASS et GETTY-AAT3. CIDOC-CRM est l'ontologie de référence pour la description du patrimoine culturel, elle définit, entre autre, les concepts d'œuvre, de personne, d'évènement historique et de lieu. Cependant, CIDOC-CRM, étant une ontologie générique, ne contient pas les éléments permettant la description fine des œuvres d'art, comme le style ou le thème. Nous avons alors étendu cette ontologie à l’aide de la taxonomie ICONCLASS et du thésaurus Getty AAT. ICONCLASS est une classification hiérarchique de l'ensemble des thèmes de l'art occidental. GettyAAT (Art and Architecture Thesaurus) est un thésaurus des techniques, styles et matériaux utilisés en art. Afin d'inclure ces vocabulaires dans l'ontologie CIDOCCRM, nous les avons exprimés sous forme de vocabulaires SKOS4, en utilisant les relations SKOS:Broader et SKOS:Narower pour l'expression des relations de subsomption. Nous avons ensuite construit 2 www.cidoc-crm.org www.getty.edu/research/tools/vocabularies 4 http://www.w3.org/2004/02/skos/ 3 1 www.iconclass.nl 46 Amiens – 23 et 24 mai 2012 Similarités sémantiques pour l’apprentissage mobile les relations permettant l'intégration de ces vocabulaires SKOS dans CIDOC-CRM. Cette représentation nous permet de décrire finement les aspects culturels des œuvres. Nous décrivons une œuvre comme possédant un style, une technique de production et un ensemble de matériaux utilisés (grâce à ICONCLASS et Getty AAT). Par ailleurs, nous décrivons l'artiste ayant créé l'œuvre, ainsi que les évènements ou personnages représentés (grâce à CIDOC-CRM). Figure 1 Fragment de l'ontologie CALM Modèle sémantique du contexte La modélisation sémantique du contexte est encore aujourd'hui une question ouverte. La plupart des modèles contextuels existants sont basés sur une définition ad hoc des éléments contextuels pertinents dans des situations spécifiques. Notre modèle sémantique du contexte se base sur la proposition de (Zimmerman et al. 2007) qui définit cinq catégories contextuelles fondamentales : localisation, temporalité, identité, relations et activité. Ces catégories permettent de représenter les relations entre objets physiques (ex. proximité) ainsi que le profil utilisateur et son contexte de visite. Dans la suite de cette section, nous décrivons le contexte de localisation et le contexte temporel, qui sont essentiels dans la prise en compte du contexte de visite. Contexte de localisation. Chaque entité physique (visiteurs et œuvres) est associée à une localisation spécifique. Cette localisation est exprimée en utilisant l'ontologie spatiale développée par le laboratoire DAIsy5. Cette ontologie décrit les relations entre des entités de type localisation, une localisation correspondant à un ensemble de coordonnées associées à un objet. Les lieux et œuvres du musée sont alors associés à des localisations et les relations entre ces 5 http://sourceforge.net/projects/spatialontology/ 4ièmes Rencontres Jeunes Chercheurs en EIAH localisations sont exprimées en utilisant l'ontologie (ex. à proximité, en dessous, au-dessus...). Un visiteur de musée est en permanence associé à une localisation dans le musée. Lorsqu'il se déplace, un évènement changement de localisation est déclenché, modifiant sa propriété de localisation dans la base de connaissance. Ainsi, le système peut en permanence attribuer à un visiteur l'ensemble des œuvres présentes autour de lui. Contexte temporel. Le contexte temporel permet la représentation des intérêts de l'utilisateur et de son historique de visite. Ce contexte temporel est décrit comme un ensemble d'évènements exprimés via l'ontologie SEM (Simple Event Model) (van Hage et al 2011). De nouveaux évènements peuvent être ajoutés à la base de connaissances de deux façons : explicitement et implicitement. Un événement implicite est déclenché lorsqu'un visiteur s'arrête pour une certaine durée devant une œuvre. Cet arrêt déclenche un événement de consultation, associant l'œuvre en question, ainsi que la date et l'heure, au visiteur. Un événement explicite est déclenché lorsque l'utilisateur interagit avec l'application pour demander des renseignements supplémentaires sur une œuvre. Un évènement d'intérêt est alors déclenché associant l'œuvre en question, ainsi que la date et l'heure, au profil du visiteur. Notre approche du contexte se rapproche de celle proposée par (Georges et al 2009) dans le projet MeCoCo (Mediated Contextual Communication). Ces derniers proposent un modèle du contexte permettant d’opérer des rapprochements automatiques entre différents messages postés en situation de mobilité. L'originalité de notre approche réside dans l'organisation de chacune des dimensions contextuelles. En effet, chaque dimension est peuplée d'instances du domaine des connaissances muséales (ex. artiste, style, etc..), structurée par une ontologie propre à la dimension considérée. Cette modélisation nous permet de quantifier la présence, dans une dimension contextuelle, de connaissances propres au domaine. Par exemple, il est possible de calculer le degré de présence de connaissances associées au style pointilliste dans le contexte de localisation d'un visiteur. Mesures de similarités sémantiques et contextuelles pour la recommandation Nous décrivons ici les différentes mesures de similarité utilisées sur le modèle ontologique CALM. Afin d'illustrer notre approche, nous décrivons ces similarités dans le contexte du processus de recommandation. Vue d’ensemble du processus de recommandation L'objectif du système de recommandation est de faciliter la navigation des visiteurs au sein des œuvres, artistes, styles, thèmes... Ainsi, lorsqu'un visiteur contemple La Joconde, le système peut lui 47 Pierre-Yves Gicquel recommander de considérer d'autres œuvres de la même période et justifier cette recommandation en informant le visiteur du lien existant entre ces œuvres (même période). La recommandation d'œuvres est généralisable aux autres concepts définis dans l'ontologie. Ainsi, si le visiteur consulte la biographie de Leonard de Vinci, le système lui recommandera de considérer des artistes ayant été maitres ou élèves de Leonard. Similarité sémantique entre instances Le processus de recommandation est basé sur un calcul de similarité sémantique entre les instances de la base de connaissance. Ce calcul est basé sur l'approche de similarité par propriétés (Pirro et Euzenat 2010), la similarité entre deux objets étant basée sur la similarité entre leurs caractéristiques. D'un point de vue ontologique les caractéristiques des objets correspondent aux propriétés des instances représentant ces objets. Afin de déterminer l'ensemble des propriétés présentant un intérêt pour les visiteurs, nous définissons alors un ensemble de concepts d'intérêts. Un concept d'intérêt est un concept de l'ontologie que l'utilisateur pourra directement utiliser lors de ses interactions avec les œuvres. Nous avons sélectionné un ensemble de sept concepts d'intérêts dans l'ontologie CIDOC-CRM : personne, style, œuvre, évènement historique, lieu et thème. Le choix de ces concepts d'intérêt nous permet de construire une matrice de propriétés d'intérêt (figure 2). Il s'agit d'une matrice T[i,j], où T[0,k]=T[k,0] sont les concepts d'intérêts et T[i,j] est l'ensemble des relations permises dans l'ontologie, T[i,0] étant le codomaine et T[0,j] le domaine. Ainsi, la ligne i de la matrice contient l'ensemble des propriétés d'intérêt que possède le concept T[i,0] et la colonne j de la matrice contient l'ensemble des propriétés dans lesquelles le concept T[0,j] est impliqué. Cidoc:Person hasParent hasMaster Cidoc:Style hasPeriod isPeriodOf Cidoc:Style hasPeriod isPeriodOf Cidoc:Artwork depicts broader narrower lin(Style,Style) visualItem hasStyle Cidoc:Person Cidoc:Artwork participatesIn creates owns ø partOf Figure 2 Matrice des propriétés d’intérêt La ligne 2 de la table 1 nous permet ainsi de déterminer les propriétés à prendre en compte pour comparer deux instances de Person. Deux personnes peuvent être comparées suivant leurs parents, maitres ou élèves, style et œuvres qu'elles ont créées ou qu'elles possèdent. Par commodité, numérotons les propriétés d'un concept, par exemple la propriété 1 de personne est hasParent et sa propriété 6 est own. Nous construisons alors un vecteur de similarité S entre deux instances a1 et a2 du même concept : S(a1,a2)= [p1...pk], où pk correspond à la valeur de 48 similarité pour la propriété k des deux instances. Cette valeur varie dans l'intervalle [0,1]. Deux cas doivent être distingués : si les valeurs des propriétés sont des instances ou des littéraux, (ex. une personne ou une date) la similarité est de 0 quand les deux propriétés sont différentes et de 1 quand elles sont égales. Le deuxième cas concerne les instances des hiérarchies de concepts intégrées à CIDOC-CRM (style et thème), nous calculons alors la valeur de similarité entre les deux instances par la similarité de Lin (Lin 1998). Celle ci varie dans l'intervalle [0,1] et permet d'exprimer la similarité entre deux éléments d'une taxonomie en se basant sur le calcul du plus petit ancêtre commun entre deux concepts ainsi que sur la profondeur de chacun des concepts. Par exemple, la similarité de Lin permet de déterminer que le style Pointillist est plus proche de Impressionist que de Cubist. Afin de classer les suggestions selon leur pertinence, le vecteur de similarité doit être agrégé en une valeur unique. Nous déterminons cette valeur en faisant l'hypothèse simplificatrice que toutes les propriétés ont le même poids et sont indépendantes. La valeur d’agrégation est alors simplement la norme du vecteur divisée par la norme du vecteur de similarité maximale, la similarité maximale correspondant à une valeur d’agrégation de 1 : Sim(a1,a2)=|[p1,…,pk]|/sqrt(k). Calcul du taux d’adéquation au contexte Le taux d'adéquation au contexte varie dans l'intervalle [0,1] et exprime, pour une instance, le nombre de propriétés de cette instance existant dans le contexte utilisateur. Dans une perspective d'apprentissage situé, il sera alors intéressant de recommander des éléments possédant un taux d'adéquation au contexte important. Le visiteur sera en effet plus à même d'appréhender la justification de la recommandation si l'élément recommandé existe dans son contexte. Par exemple, supposons que deux œuvres puissent être recommandées à partir de celle que contemple le visiteur. La première possède un style similaire et représente le même personnage que l'œuvre considérée par le visiteur et la deuxième possède un thème similaire et une technique de peinture similaire. Afin de choisir quelle œuvre recommander, il est alors intéressant de considérer le taux d'adéquation au contexte. Typiquement, si le style et le personnage de la première œuvre existent dans le contexte utilisateur, il sera intéressant de la recommander. Nous calculons le taux d'adéquation au contexte à l’aide de l'indice de Jaccard des propriétés d'une instance et du contexte utilisateur. L'indice de Jaccard est un outil permettant de comparer la similarité de deux ensembles (l'indice étant égal à 1 si les ensembles sont les mêmes). Si C est l'ensemble des instances présentes dans le contexte de localisation ou temporel de l'utilisateur et F(I) l'ensemble des propriétés de l’instance I, le taux d'adéquation au contexte de I est alors : | F(I) ∩ C | / | F(I) ∪ C |. Amiens – 23 et 24 mai 2012 Similarités sémantiques pour l’apprentissage mobile Application à l’apprentissage informel en musée Dans cette section, nous détaillons l'application des similarités sémantiques et du taux d'adéquation au contexte pour deux types d'interactions situées entre le visiteur et les œuvres : l'aide à l'exploration et la communication entre visiteurs. Aide à l’exploration L'aide à l'exploration est réalisée en recommandant au visiteur des éléments susceptibles de l'intéresser dans le musée. Ces éléments sont des instances des concepts d'intérêt définis plus haut (ex. œuvre, artiste, style...). Lorsqu'un utilisateur consulte une œuvre via le dispositif, des informations directes, comme l'artiste, le style, les personnages et évènements représentés, lui sont fournis sur cette œuvre, ces informations correspondant directement aux assertions de la base de connaissance. De plus, d'autres œuvres similaires lui sont proposées. L'application suggère des œuvres en lien avec celle qu'il contemple et justifie ces suggestions en langage naturel. Ainsi, si l'utilisateur se trouve devant une œuvre pointilliste, l'application pourra lui suggérer une œuvre impressionniste à proximité, permettant à l'utilisateur de comparer effectivement pointillisme et impressionnisme. Figure 3 Recommandations contextualisées d'œuvres Ces suggestions contextualisées ont pour objectif d'aider le visiteur à établir les liens mentaux entre les différentes entités suivant leurs similarités, la même entité, par exemple Leonard de Vinci, pouvant être suggérée de différentes manières. De Vinci pourra ainsi être suggéré successivement comme le maître de l'auteur d’un tableau consulté par l'utilisateur puis comme l'élève de l'auteur d’un autre tableau. Ces suggestions offrent alors des possibilités d'exploration et de navigation riches au sein des collections. Communication entre visiteurs La deuxième interaction située que nous nous proposons d'instrumenter est la communication entre 4ièmes Rencontres Jeunes Chercheurs en EIAH visiteurs. La communication entre apprenants est une fonction essentielle du processus d'apprentissage. Cependant, l'instrumentation des communications pose différents problèmes dans le cadre d'une visite de musée. Les communications directes (comme le téléphone) ne sont pas toujours possibles et ne permettent pas la capitalisation et la ré-exploitation des échanges. Par analogie avec l'annotation de documents numériques, nous définissons alors des annotations sur les objets physiques du musée. Dans ce contexte, une annotation est un texte, une image ou une vidéo qui sera associée avec un objet physique (œuvre, lieu), et consultable sur le dispositif mobile. La nature contextualisée de l'annotation réfère à l'intégration, à l'intérieur de l'annotation, d'éléments du contexte du visiteur qui a déposé l'annotation (ex. sa position, ses préférences). De plus, les annotations sont indexées par des instances de la base de connaissances, permettant des recherches sémantiques dans l'ensemble des annotations (Gicquel et Lenne 2011). Expérimentation Une première évaluation de l'utilisabilité du système s'est déroulée au Palais impérial de Compiègne et a porté sur 40 visiteurs « grand public ». Les visiteurs étaient invités à utiliser le système CALM sur des tablettes Archos 70, la localisation indoor étant assurée à l’aide d’un système de triangulation WiFi. L'utilisation de système à base de connaissance en mobilité reste pour le moment marginale. Il n'y a donc pas, à notre connaissance, de protocoles directement applicables à notre situation. Nous avons donc choisi une méthode classique d'évaluation inspirée de la méthode System Usability Scale. Les visiteurs étaient invités à réaliser quatre types de tâches : consulter la notice d'une œuvre, consulter les informations annexes associées à une œuvre (suggestions), lire et déposer une annotation. Figure 4 Utilité et utilisabilité des tâches A l'issue de l'expérimentation, un questionnaire permettait au visiteur d'indiquer sur une échelle de 1 à 4 (de absolument pas d'accord à tout à fait d'accord), son accord avec différentes phrases permettant d'évaluer l'utilisabilité et l'utilité des tâches proposées. (ex. J'ai réussi facilement à afficher la notice de l'œuvre que je souhaitais consulter). Pour obtenir des résultats entre 0 et 100, nous avons associé un score de 100 aux réponses de type tout à fait d'accord, 66 aux réponses de type assez d'accord, etc. La figure 4 synthétise les moyennes des scores d'utilisabilité et d'utilité des différentes tâches. Ce tableau amène plusieurs commentaires. Tout d’abord, la perception de l’intérêt et de l’utilisabilité de 49 Pierre-Yves Gicquel l’application est globalement bonne, les interactions contextuelles (utilisation de la localisation) semblent effectivement faciliter l’accès aux ressources culturelles. Ce résultat encourageant doit cependant être considéré avec prudence car la présence des expérimentateurs peut causer un biais dans les réponses données par les utilisateurs. L’utilisation d’annotations sur les œuvres est l’activité perçue comme la moins utile et la plus difficile. Ceci peut être dû en partie à l’utilisation du clavier virtuel Android pour entrer le texte des annotations, ce clavier étant en effet assez peu utilisable. Les visiteurs étaient relativement homogènes en terme de classe d’âge, ce n’était pas le cas du niveau d’étude. Nous n’avons cependant pas constaté de différence significative dans l’utilisabilité de l’application en fonction du niveau d’étude. Ce fait peut s’expliquer par la généralisation de l’utilisation d’outils mobiles. Conclusion Nous avons présenté le modèle ontologique CALM permettant la description des aspects culturels et contextuels de la visite de musée. Nous avons détaillé les mesures sémantiques utilisables sur ce modèle et les interactions situées permises par ces mesures de similarité dans un cadre d'apprentissage informel en musée. Une expérimentation a été réalisée pour valider l'utilisabilité d’un premier prototype dans un cadre réel. Une seconde expérimentation nous permettra prochainement de considérer plus finement l'impact des calculs sémantiques sur le processus d'apprentissage informel. Nous nous intéresserons en particulier à l'impact de la prise en compte du profil dans le processus de suggestion. Cette prise en compte doit aider le visiteur à se construire une représentation du sens de l'exposition, mais impose une adaptation de l'interface en fonction du profil qui pourra créer des problèmes d'utilisabilité. Références Brown. J, S. Collins, A. and Duguid, P. 1998. Situated cognition and the culture of learning. Educational researcher, vol. 18, no. 1. Gob, A. and Drouguet, N. 2005. La muséologie, Histoire développements actuels, enjeux. ArmandColin édition. George S., Lekira R. A., MeCoCo: A Context-Aware System for Mediated Communications, International 50 Journal of Interactive Mobile Technologies (iJIM), Vol. 3, n°3, 2009, p. 26-33 Gicquel, P.Y. and Lenne. D. 2011. A contextualized annotation model for mobile learning. In proceedings of 11th IEEE International Conference on Advanced Learning Technologies (ICALT). IEEE, pp. 22–24. Lin, D. 1998. An information-theoretic definition of similarity. In Proceedings of the 15th international conference on machine learning. Malcolm, J. and Hodkinson, P. and Colley, H. 2003. The interrelationships between informal and formal learning. Journal of Workplace Learning vol 15. Oppermann, R and Specht, M. 2000. A contextsensitive nomadic information system as an exhibition guide. In proceedings of the handheld and ubiquitous computing second international symposium. Pirro, G. and Euzenat, J. 2010. A feature and information theoretic framework for semantic similarity and relatedness. In proceedings of the International Semantic Web Conference (ISWC). Sharples, M.; Meek, J.; Vavoula, G.; Lonsdale, P.; and Rudman, P. 2007. An evaluation of MyArtSpace : a mobile learning service for school museum trips. In Proceedings of mLearn. Levasseur, M. and Véron, E. 1983. Ethnographie de l’exposition. Bibliothèque publique d’information du centre George Pompidou. van Hage, W.; Malais, V.; Segers, R.; Hollink, L.; and Schreiber, G. 2011 Design and use of the simple event model (SEM). In Proceedings of Web Semantics: Science, Services and Agents on the World Wide Web. Wang, Y.; Stash, N.; Aroyo, L.; Hollink, L.; and Schreiber. 2009. Using semantic relations for contentbased recommender systems in cultural heritage. In Proceedings of the Workshop on Ontology Patterns (WOP) at ISWC. Zimmermann, A.; Lorenz, A.; and Oppermann, R. 2007 An operational definition of context. In proceedings of the 6th international and interdisciplinary conference on Modeling and using context. Amiens – 23 et 24 mai 2012 Developing adaptive intelligent tutoring system Mohamed Hafidi, Taher Bensbaa Laboratoire LRI, Department of Computer Science, University of Annaba, Algeria [email protected], [email protected] Abstract To design an adaptive intelligent tutoring system which can manage both different disciplinary domains and a guide for the learner is difficult. The specialization of the analysis treatments is responsible for the loss of reusability in other disciplinary domains. The analysis is didactic and thus strongly connected to the domain concerned. It results that an intelligent tutoring system is consequently, specialized in a type of taught knowledge and not easily transposable to other domains. To propose a model transposable to different domains of learning, the former has to take into account this diversity and to situate the learning activity. In this paper, we will show how to produce a guide model parameterized by the learning domain. Our objective was to develop an adaptive intelligent tutoring system based on item response theory and metrics, adapted for letting the learners work in several disciplinary fields in the University of Annaba. In this context, our constraint is threefold: to represent knowledge relative to several disciplinary domains, to propose interactive activities to the learners and finally, to be able to support student guidance in her/his course by proposing her/him relevant support activities when he meets difficulties. Introduction Nowadays, learning systems take various forms: microworlds, intelligent tutoring systems (ITS), adaptive hypermedia (AH), learning games, etc. The conception of a learning system is a multidisciplinary task based on theoretical models inspired by pedagogy, by didactic and by psychology. The direct application of such models is not always easy, or even possible, and in general requires major adaptations. Intelligent Tutoring Systems (ITS) are designed to assist learners in the acquisition of skills rather than the complete mastery of a domain. Intelligent tutoring systems are primarily used as instruction during the tutorial section of a lecture course, or in conjunction with an alternate instruction method (Beaumont 1994), (Brusilovsky 1996), (Nogry et al. 2008), (Suraweera et al. 2004}. Conversely, Adaptive Hypermedias (AH) are primarily designed to impart the concepts of a domain that a student must know in order to utilize these skills (De La Passardiere et al. 1992), (Knutov et al. 2009), (Hendrix et al. 2008). While some adaptive hypermedia systems do provide instruction in skills, it is generally less advanced than comparable ITS instruction. For a system to provide a standalone solution comparable to a lecture course it must provide instruction in both concepts and skills. A general instruction system requires both of these instruction methods to provide a full learning system (Pipatsarun et al. 2010), (Klasnja-Milicevic et al. 2011), (Chopra 2010), (Nicholas et al. 2008). Theoretical basis Item response theory (IRT) Item response theory (IRT) was first introduced to provide a formal approach to adaptive testing (Fernandez 2003). The main purpose of IRT is to estimate an examinee’s ability (θ) or proficiency (Wainer 1990) according to his/her dichotomous responses (true/false) to test items. Based on the IRT model, the relationship between examinee’s responses and test items can be explained by so-called item characteristic curve (ICC) (Wang 2006). In the case of a typical test item, this curve is S-shaped; the horizontal axis is ability scale (in a limited range) and the vertical axis is the probability that an examinee with certain ability will give a correct answer to the item (this probability will be smaller for examinees of low ability and larger for examinees of high ability). The item characteristic curve is the basic building block of item response theory; all the other constructs of the theory depend upon this curve (Baker 2001). Several nice features of IRT include the examinee group invariance of item parameters and item invariance of an examinee’s ability estimate (Wang 2006). Under item response theory, the standard mathematical model for the item characteristic curve is the cumulative form of the logistic function. It was first used as a model for the item characteristic curve in the late 1950s and, because of its simplicity, has become the preferred model (Baker 2001). Based on the number of parameters in logistic function there are three common models for ICC; one parameter logistic model (1PL) or Rasch model, two parameter logistic model (2PL) and three parameter (3PL) (Baker 2001; Wang 2006). In the 1PL model, each item i is characterized by only one parameter, the item difficulty bi, in a logistic formation as shown (1) Where D is a constant and equals to 1.7 and θ is ability scale. In the 2PL model, another parameter, called discrimination degree ai, is added into the item characteristic function, as shown (2) 4ièmes Rencontres Jeunes Chercheurs en EIAH 51 Mohamed Hafidi The last 3PL model adds a guess degree ci to the 2PL model, as shown in Eq. (3), modeling the potential guess behavior of examinees (Wang 2006). (6) (3) Several assumptions must be met before reasonable and precise interpretations based on IRT can be made. The first is the assumption of unidimensionality, which assumes there is only one factor affecting the test performance. The second assumption is the local independence of items, which assumes test items are independent to each other. This assumption enables an estimation method called maximum likelihood estimator (MLE) to effectively estimate item parameters and examinee’s abilities (Wang 2006). (4) where Qi(θ)=1-Pi(θ).Pi (θ) denotes the probability that learner can answer the I th item correctly, Qi (θ) represents the probability that learner cannot answer the I th item correctly, and ui is 1 for correct answer to item i and 0 for incorrect answer to item i (Wainer 1990 ). Since Pi (θ) and Qi (θ) are functions of learner ability h and item parameters, the likelihood function is also a function of these parameters. Learner ability θ can be estimated by computing the maximum value of likelihood function. Restated, learner ability equals the θ value with maximum value of likelihood function (Chen et al. 2005). Item information function (IIF) in IRT plays an important role in constructing tests for examinees and evaluation of items in a test. Where Ii (θ) is the amount of information for item i at ability level θ and N is the number of items in the test. The general level of the test information function will be much higher than that for a single item information function. Thus, a test measures ability more precisely than does a single item. An important feature of the definition of test information given in Eq. (6) is that the more items in the test, the greater the amount of information. Thus, in general, longer tests will measure an examinee’s ability with greater precision than will shorter tests (Baker 2001). Item response theory usually is applied in the computerized adaptive test (CAT) domain to select the most appropriate items for examinees based on individual ability. The CAT not only can efficiently shorten the testing time and the number of testing items but also can allow finer diagnosis at a higher level of resolution. Presently, the concept of CAT has been successfully applied to replace traditional measurement instruments (which are typically fixed-length, fixed-content and paper–pencil tests) in several real-world applications, such as GMAT, GRE, and TOEFL (Chen et al. 2006). General architecture of a AITS Figure 1 gives an overview of the system overall architecture. It consists of tree main interfaces, which are associated with each of the following human actors: learner, teacher and administrator. In addition, it contains an adaptive intelligent tutoring (hafidi et al. 2011) which is made up of two components: adaptive hypermedia (domain model, learner model and adaptation model) (Karampiperis et al. 2005), (Carro 2008) and intelligent tutoring system (domain model, learner model, Instructional Model) (Bourdeau et al. 2011), (Simic 2004), (Alpert 1999), (Stankov et al. 2008). (5) Any item in a test provides some information about the ability of the examinee, but the amount of this information depends on how closely the difficulty of the item matches the ability of the person. The amount of information, based upon a single item, can be computed at any ability level and is denoted by Ii (θ), where i is the number of the items. Because only a single item is involved, the amount of information at any point on the ability scale is going to be rather small (Baker 2001). Item information function is defined: Where P (θ) is the firt derivative of Pi(θ ) and Qi(θ)=1-Pi (θ). A test is a set of items; therefore, the test information at a given ability level is simply the sum of the item information at that level. Consequently, the test information function (TIF) is defined as: 52 Figure1: General architecture of a AITS Amiens – 23 et 24 mai 2012 Developing adaptive intelligent tutoring system We present in the following sections the available features in AITS. Domain model: The domain model is based on the concepts notion that the learner can select and study. These concepts are interconnected by relations: relations of sufficiency and precedence relations. - Relationship of precedence: A concept N1 is precedence relation with a concept N2 if the control (or partial control) of N2 is necessary for learning to N1. This relationship has an attribute: S is the minimum threshold of N2 control to allow the start of learning N1. - Relationship of Sufficiency: A concept N1 is linked with a concept of sufficiency N2 if the control of N2 (or partial control) results control of N1. This relationship with two attributes: S is the minimum threshold of N2 control to activate the requisite relationship. A is the contribution (in percentage) of control N2 to N1. In addition, the teacher organizes the learning according to pedagogical activities. Linked to our domain model, we have defined a corpus of interactive activities. These activities have to be organized in a progressive manner by possibly using serious games, interactive exercises, simulation and artefacts that support the construction of the knowledge. Learner's Model: Learner modeling and adaptation are strongly correlated, in the sense that the amount and nature of information represented in the learner model depend largely on the kind of adaptation effect that the system has to deliver. The learner model in AITS was defined as three sub-models: The profile, the knowledge level and the trace. The learner profile was implemented as a set of attributes which store learner’s static personal characteristics, for example username, password, unique ID, age, e-mail. The knowledge level recorded by the system for learner's knowledge about each domain knowledge concept; It is an overlay of the domain model. It associated learner's knowledge level with each concept of the domain model. We want to continually assess the skill level of the learner to develop a map of his state of knowledge. The learner model is enriched at the end of each activity after analysis of the traces produced. Adaptation Model: The adaptation model in AITS specified the way in which the learners' knowledge modifies the content presentation. It was implemented as a set of the classical structure: If condition, then action type rules. These rules form the connection between the domain model and learner model to update the learner model and provide appropriate learning materials. The adaptation model consists of abstract concept selection rules that determine which concepts from the domain model to be covered, based on the knowledge in the learner model. To support adaptivity, AITS used a combination of adaptive navigation support and adaptive presentation technique. AITS implemented adaptive presentation by classifying learners according to their current knowledge state. Learners with different knowledge state view different presentations of the same educational material. The system implemented various adaptive navigation support technologies, which help the user in navigating the domain model. It offered linear 4ièmes Rencontres Jeunes Chercheurs en EIAH navigation (direct guidance, next and previous units) hierarchical navigation (through the tree-like structure of contents) and relational navigation (link insertion and link disabling through prerequisite concepts relationship). Instructional Model: Instructional model contains knowledge for making decisions about instructional tactics. It relies on the diagnostic processes of the learner model for making decisions about what, when and how to present activity to a learner. Following an activity, the model offers guidance in learning other activities. For that purpose it takes into account completions, context and proficiency levels, by analyzing the rest of the activities already carried out. The analysis is based on a set of metrics (Hafidi et al. 2011). The Item Response Theory - IRT- is used to ensure a proper balancing test and give their description in the form of a characteristic curve (Hafidi et al. 2009). The theory assumes that a learner's response to a test item can be approximated using a probabilistic function. We propose this method to assess the probability for a student to correctly answer an assessment activity. This method is used as an additional discriminating criterion in our guide. It would occur at the end of selection, to choose an activity of several possible after the computation using the metric. For this study, Item difficulty can be determined by using IRT approach with one parameter which uses the formula: ID = MSCA/SCAE (7) Where, ID = item difficulty, MSCA = Minimum Sum of Correct Answers, SCAE = Sum of Correct Answers of Each Question. Figure 2. An assessment activity based on IRT Results and discussion An experimental study was conducted within Annaba University (Algeria) with 1st year license students where the subject was "algorithmic". This subject is studied by several students in the license degree. In fact, students from MI (Mathematics and Informatics), ST (Science and 53 Mohamed Hafidi Technology), Economics and Sciences of Nature must take a subject termed "initiation into informatics and algorithmic". Students can use the system from any computer connected to the university intranet network. We took into account, in this experiment, only students from the MI (Mathematics and Informatics) specialty. To extract problems encountered as well as the global opinion of the teachers and the learners, we prepared one questionnaire to teachers and another one to learners after using the system. The questions of the questionnaire are divided into three categories: - General opinion about the interface of the system and the main available features. - The quality of the interface of the concerned actor (teacher and learner) as well as its options. - The quality of the content of courses. The objective of all the questions is to show the attitude and the opinion of each actor about the main interface of the system and its utility, the special features provided to each actor (teacher and learner), and finally to know the efficiency of the pedagogical strategies, the quality of traces display and the impact of merging adaptive hypermedia and intelligent tutoring of the knowledge level of learners. Views of learners: To determine the views of learners who participated in this experiment (n=20), we submitted to them a questionnaire. These questions concern three pedagogical activities: learning, assessment, and guidance. Most learners appreciated the integration of the intelligent tutoring system to adaptive hypermedia adopted in AITS and the support offered by the system. All of them found that the system is user-friendly. The participant’s opinion to use the system in the future was very high. According to them, the concepts were organized in a good manner. The content of activity guide is clear for the majority of students. Concerning the faced problems, the learners cited: 1. Lack of tools for the graphical representation of traces, 2. Knowledge assessment tool is less efficient, 3. Same activities without adaptation to learning style, 4. Lack of tools to communicate with teacher. in the use of these concepts to solve problems. This paper was dedicated to the combination of these systems. The aim of adaptive intelligent tutoring system (AITS) has been to propose a non domain-dependent model to represent teaching activity. For each teaching domain, a domain model has been used to organize the learning process. Metrics and IRT have been elaborated to associate the exercises of an activity corpus to the domain model mentioned previously. As we have explained, it is thus possible to elaborate and update dynamically a learner model and even to propose remediation activities as a function of context trace observation. Importance was also given to the use of several types of activity and many types of resources. With the spread of the LMD (Licence-Master-Doctorate) educational system in Algeria, we took into account the licence (bachelor) degree, making our system useful for the university community. Teachers and learners of various departments can use the system from any computer connected to the intranet of the university. The first results of this experiment were very encouraging. Most of the teachers and the learners appreciated the use of the system. As a result, we drew several conclusions and several research tracks were opened. In the future we would like to include many more teaching subjects (mathematics, languages, science, etc.). References Alpert, S. R. 1999. Deploying intelligent tutors on the web: An architecture and an example, In International Journal of Artificial Intelligence in Education 10:183–197. Baker, F. 2001. The basics of item response theory, ERIC clearing house on assessment and evaluation. Beaumont, I. 1994. User modeling in the interactiveanatomy tutoring system anatom- tutor. User Modeling and UserAdapted Interaction, 4(1):21–45. Bourdeau, J. ; Grandbasten. M. 2011. La modélisation du tutorat dans les systèmes tutoriels intelligents. Revue STICEF. Brusilovsky. P. 1996. Methods and techniques of adaptive hypermedia. User Modeling and User Adapted Interaction, 6(2-3):87–129. Views of teachers: For knowing the appreciation of the teachers, we submitted to them a questionnaire related to the functioning of AITS and its features. Among our main contributions in this research work is the using traces of the learner's activities. We noticed that the teachers were very satisfied about the quality of trace. Chen, C. M., Lee, H. M.,& Chen, Y. H. 2005. Personalized e-learning system using item response theory. Computers and Education, 44 , 237–255. Concerning the faced problems, the teachers cited: - Lack of tools for the graphical representation of traces, - Lack of possibilities to add teaching strategies, - Lack of tools to enrich the activities. Chen, C. M.; Liu, C. Y.; Chang, M. H. 2006, Personalized curriculum sequencing utilizing modified item response theory for web-based instruction. Expert Systems with Applications, 30, 378–396. Conclusion and future work Chopra , A. Frame based intelligent tutoring system with weighted attributes and adaptive hypermedia. International Journal of Electronic Business, 8(4-5):342–359. Adaptive Hypermedia and Intelligent Tutoring Systems are both effective methods of computer-based learning. However, adaptive hypermedia is better suited for the instruction of concepts whereas intelligent tutoring system generally assists 54 Carro, R. 2008. 2010. Applications of adaptive hypermedia in education. Computers and Education, pages 1– 12, Amiens – 23 et 24 mai 2012 Developing adaptive intelligent tutoring system Fernandez, G. 2003. Cognitive scaffolding for a web-based adaptive learning environment, Lecture notes in Computer Science, 12–20. Hafidi, M. ; Bensebaa, T. 2009. Conception et implémentation d’une plate forme d’aide à la navigation basée sur la TRI. Hypermédias et pratiques numériques H2PTM09, Paris8, France, 30/10, 2/11. Hafidi, M. ; Bensebaa T ; Trigano, P. ; Benmimoun, A. ; 2011. Guidage des apprenants dans une activité pédagogique basé sur les traces, Conférence Hypertextes et hypermédias. Produits, Outils et Méthodes, 11ème édition, Hypermédias et pratiques numériques H2PTM’11 Metz, France. Journal of Artificial Intelligence in Education, 14(3-4):375– 417. Wainer, H . 1990. Computerized adaptive testing: A primer. Hillsdale, New Jersey: Lawrence Erlbaum. Wang, F. H. 2006. Application of componential IRT model for diagnostic test in a standard conformant elearning system, In Sixth international conference on advanced learning technologies (ICALT’06). Hafidi, M. ; Bensebaa T ; Trigano, P.; 2011. A generic model for guiding learners in adaptive hypermedia, Journal of Computer Science (INFOCOMP), 10(4): 15-28. Hendrix , M.; Cristea, A. I. 2008. A spiral model for adding automatic adaptive authoring to adaptive hypermedia. Journal of Universal Computer Science (JUCS), Special Issue on Authoring of Adaptive and Adaptable Hypermedia, 14(17):2799–2818. Karampiperis, P. Sampson, D. 2005, Adaptive learning resources sequencing in educational hypermedia systems. Educational Technology and Society, 8(4):128–147. Klasnja-Milicevic, A.; Vesin, B.; Ivanovic, M.; Budimac, Z.2011, Integration of recommendations and adaptive hypermedia into java tutoring system. ComSIS, 8(1). Knutov, E.; Bra, P. D.; Pechenizkiy, M. 2009. Ah 12 years later: a comprehensive survey of adaptive hypermedia methods and techniques. New Review of Hypermedia and Multimedia, 15(1):5–38. Nicholas, A.; Martin , B. 2008. Merging adaptive hypermedia and intelligent tutoring systems using knowledge spaces. Adaptive Hypermedia, pages 426–430. Nogry, S.; Guin , N.; Jean-Daubias. S. 2008. Ambre-add: An its to teach solving arithmetic word problems. Technology, Instruction, Cognition and Learning, 6(1):53–61. Passardiere, B. D. L.; Dufresne, 1992. A. Adaptive navigational tools for educational hypermedia. Computer Assisted Learning, pages 555– 567. Pipatsarun, P.; Vicheanpanya, J. 2010. Adaptive intelligent tutoring systems for elearning systems. Computer and Information Science, 2(2):4064–4069. Simic, G.2004. The multi-courses tutoring system design. ComSIS, 1(1):141–155, 2004. Stankov, S.; Rosic, M.; Zitko , B.; Grubisic, A. 2008, Tex-sys model for building intelligent tutoring sytems, Computers and Education, 51:545–561. Suraweera, P.; Mitrovic , A.2004. An intelligent tutoring system for entity relationship modelling, International 4ièmes Rencontres Jeunes Chercheurs en EIAH 55 Mohamed Hafidi 56 Amiens – 23 et 24 mai 2012 Ergonomic Study of Existing Project-Based Learning Management System Min Ji Université de Lyon, CNRS INSA-Lyon, LIRIS, UMR5205, F-69621, France [email protected] Abstract We are interested in designing a Project-Based Learning Management System (PBLMS) for high school students. In this paper, we focus on the study of ergonomics of existing PBLMSs. We first analyze four different PBLMSs regarding three points: aims, functionalities and indicators. We particularly focus on the indicators and analyze their attributes: purpose(s), concept(s), data construction and visualization. Based on this analysis we discuss the utility, the usability and the acceptability of the studied systems according to their functionalities, the types of visualization and the users. We finally conclude with some directions of our future research work. Introduction We are interested in designing a Project-Based Learning Management System (PBLMS) for high school students, which support learners and teachers respectively in the learning and teaching process. Project-based learning is carried out under complex situations and PBLMS can help learners to build new knowledge and acquire new skills (e.g. management, communication and collaboration). More precisely, the indicators used in PBLMS aim to monitor the way of individual knowledge building. In fact, it can help participants involved in learning activities to reflect on their own behaviors, to self-regulate their activities and to improve their ability of collaboration. The objective of our research is to design a PBLMS. We define PBLMS as a computer system that provides participants with some management tools to support and monitor the learning activities in order to solve a complex issue, problem or challenge. PBLMS is characterized by supervision functions. Examples of learning activities are collaboration, coordination and production (George et Leroux 2001). Here we should specify that PBLMS could manage various aspects of the learning processes (e.g. the way the activities are carried out, the visualization mode chosen for learners, the configuration and resources of the activity) and the project outcomes (e.g. the documents produced during/after the project and the products). Obviously, PBLMS can facilitate carrying out the project activity and enhancing the learning. This study is based on previous works dedicated to the design of a paper prototype of PBLMS, named 4ièmes Rencontres Jeunes Chercheurs en EIAH MESHaT (Michel et Lavoué 2011). This prototype is composed of monitoring and expertise transfer tools for tutors and learners. They could give information to monitor individual or group learning activities as well as to support the acquisition and transfer of expertise. More particularly, MESHaT provides learners and teachers with dashboards, since we think that the use of a dashboard is a key-learning objective in the context of PBL. The dashboard is a good way to strengthen learners’ metacognitive skills and to facilitate the group works, the group cohesion and the professionalism of learners by showing explicitly the consequences of their acts (Michel et Lavoué 2011). The aim of this study is to analyze the ergonomics in PBLMS context. More precisely, we have analyzed four existing PBLMSs and proposed indicators’ features (utility, usability and acceptability). According to this analysis, we have drawn upon the strengths and weak points of the other systems. Based on these results, we propose the main lines of our future PBLMS. It should not only satisfy users’ needs as far as possible but also have suitable ergonomic user interfaces (UI) to improve learners’ collaboration. This article proceeds in three main parts. First, the paper provides an overview of project-based learning, dashboard and indicators used in PBLMS to improve the quality of learning. In the second part, we analyze and summarize the features and indicators offered in PBLMS. In the third part, through discussion, we analyze the weaknesses of PBLMS and indicators which should be avoided in our context of work and propose the direction of our future research work. Overview of PBLMSs Using Dashboard and Indicators Project-Based Learning There are many definitions of project-based learning. Harris and Katz (2000) defines it as “an instructional method that allows in-depth investigation of a topic instead of using a rigid lesson plan that directs a student down a specific path of learning outcomes or objectives”. According to Jeremic, Jovanovic and Gasevic (2009), “PBL is a teaching and learning model that organizes learning around projects. Projects comprise complex tasks and activities that involve students in a constructive investigation that results in 57 Ergonomics of PBLMS knowledge building.” Moursund (2007) defines project-based learning as “an individual or group activity that lasts for a defined period of time, which results in a product, a presentation or a performance”. Through these definitions, we can establish that: • Project-based learning is learner-centered. • Project-based learning isn’t “teacher telling”, but “learning by doing”. It is an investigation and an inquiry process. • The project results are not known in advance, each project being unique, which is different from problem-based learning for instance. • Project-based learning ends with a presentation or product that demonstrates learning and is assessed. Learners can generate new knowledge and get new skills based on their previous knowledge and experiences when they carry out a project. This kind of activity can lead students to obtain and to apply skills in collaboration, communication, and selfmanagement. Briefly, it is a good way for learners to solve practical problems in an open environment with an interdisciplinary approach. Dashboards and Indicators Used in PBLMS Generally speaking, a dashboard is expected to collect, summarize, and present information from multiple sources so that the user can see at once how various indicators are performing (Yigitbasioglu et Velcu 2011). Dashboard could be considered as a container of indicators. The indicators used in PBLMSs can give information to participants involved in the learning activities. Information could concern their activity or their group activity, and could be seen during or after the learning process. Dashboard could favor cognitive or metacognitive reflection. Based on this reflection, participant can build new knowledge and skills (soft and hard) as well as they improve their learning ability. During interactions, indicators mainly reflect three types of data: (1) the Logfiles recording learners’ actions occurring in the learning environment, (2) the products of the interactions (communication messages or documents produced during the project) (3) the data recorded by the learners themselves to describe how the activity is carry out and what they think. Compared to the first type of data, the second and third types of data are much more difficult to analyze automatically. It is also a challenge in this research domain. We can distinguish four main users of indicators: (1) learners, (2) teachers (3) observers and, (4) the learning environment (Dimitrakopoulou 2006). The learners mean the people who participate in the learning activities. The information supplied by the indicators help them to carry out the metacognitive process. The teachers are the persons who define a PBL activity and monitor the activity in order to uncover the features or the quality of the interactions. The observers, including the researchers and the administrators, are interesting in exploring the mode, the process or the quality of the collaboration. Finally, the learning environment can transform the information given by the indicators into a guiding message and send it to learners and teachers. 58 According to Dimitrakopoulou (2006), indicators have several important attributes: (1) the purpose of the indicator, (2) the output of the calculated indicator, (3) the concept of the indicator. Additionally, the data construction, which is the core of an indicator, and the visualization of the indicator, which decides the presentation style and mode, are also critical aspects. Ergonomics Analysis of Existing PBLMS Using Indicators In this part, we analyze four different PBLMSs. These systems seem the more relevant to our context because they not only help learners to achieve projects collaboratively, but also aim to improve the learning by displaying some indicators. Furthermore, the indicators of these systems refer to different targets (e.g. learners, teachers, observers and the learning environment), and these indicators also monitor different aspects of learning (activity process, communication, features and profiles of learners’ behaviors). We discuss the systems from three points: aims, functionalities and indicators. And for the indicators, we choose four attributes from those previously mentioned: purposes, concepts, data construction and visualization. System Introduction Figure 1 gives the workspace interfaces of the PBLMSs described after. The system SYNERGO (Avouris et al. 2004) supports synchronous collaboration modeling and collaboration analysis. The main goal is to facilitate the understanding of the mechanics of collaboration. It supplies learners with a chat tool and supports them to model flow charts, concept maps, entity-relation diagrams and other semantic modeling. The system DEGREE (Barros et Verdejo 2000) is conversation-based. The teachers can deploy projects, contribution type and conversational structure at the beginning. Then a group of learners can carry out collaborative activities which are based on conversation by proposing or replying to a proposal. The system and the indicators can improve learners’ metacognitive awareness and give them assistance. The learning environment proposed by (Fesakis et al. 2004) is based on the ModellingSpace (ModellingSpace 2004), which has many different channels to support learners to communicate during activities. It is synchronous conversation based and the availability of all the participants is required. In collaboration, learners and teachers can exchange chat messages through a set of logical broadcast channels. The SPLACH system (George et Leroux 2002) aims to help young learners to design and build micro-robots modeling. It incorporates asynchronous communication tools (E-mail and discussion forum), a synchronous meeting tool, and a scheduling tool in the form of a calendar for the team, which provides learners with coordination on the project, a tool to write reports during the project and, finally, specific educational robotics tools. Amiens – 23 et 24 mai 2012 Ergonomics of PBLMS Figure 1: workspace interfaces of PBLMSs: (a) SYNERGO; (b) DEGREE; (c) ModellingSpace; (d) SPLACH Synthesis and Analysis To help learners model semantically. to To facilitate proposing or replying to a proposal. To support synchronous collaborative modeling, monitoring and analyzing activities, communicating. To configure an activity, collaborating based on conversation, analyzing learners behavior, offering guiding. To support synchronous communication through a set of logical broadcast channels. To monitor the learning process, to facilitate teachers and researchers to understand mechanics of collaboration. To help learners to have metacognitive activities; to support teachers to monitor learners’ performance and changes. To help estimating style to intervention needed. To supply search results by combining a variety of parameters, assessing the collaboration level based on several attributes (creativity, attitude, elaboration etc), sending messages to alert potential problems and giving suggestions, representing evolution of attributes of the individual. Based on Logfiles, some attributes are calculated directly, others are generated by combining these attributes based on Fuzzy Logic techniques. To present amounts of Interactions, the number of Agents, Collaboration Activity Function of chat channel and certain agent’s Collaboration Activity Function in a line chart, determining agents or groups’ collaboration quantity. Based on Logfiles, collaborative action is proportional to the number of agents that were interacting and the quantity of interactions. Mainly line chart which the horizontal axis represents time, the vertical scale records the amount of various variables; information is summarized by analyzing and comparing the curves. Data construction To measure the density of occurrence of a type of event per time interval and the degree of relative contribution in the group members, presenting evolution of actors’ activities. Based on Logfiles storing in XML, formula is given. Visualization I ndicator Concept Purpose Aim ModellingSpace To support learners to express their ideas during projects. Functionality The aforementioned approaches constitute a representative specimen of PBLMSs. All of them provide tools and functionalities for supporting and SYNERGO DEGREE facilitating users’(learners’ and teachers’) activities in various levels. Table 1 summarizes the main points of these PBLMSs. Line charts showing number of every kind of action done by every learner, and evolution activity map interpreting evolution of actors’ activities, degree of collaboration in numeral. Table form listing attributes’ names and values; textual aiding messages; line chart giving the evolution of individual’s attributes’ values and interpretation. teachers learners’ offer when SPLACH To help to design and build microrobots modeling. To support asynchronous communication, synchronous meeting, specific robotics tool, writing reports, scheduling. To help understand social relationships; to provide learners insight into their own and their colleagues’ behavior. To present the values of every behavioral profile of every learner, analyzing and comparing the values of every learner and determining their corresponding behavioral profile. Based on Logfiles and semi-structured communicative acts (sentence openers); detailed formulas are given. Line chart showing how the profiles of the users evolve in time. Table 1: Main point of analyzed PBLMSs 4ièmes Rencontres Jeunes Chercheurs en EIAH 59 Ji Min Discussion In this part, we highlight the lacks of the analyzed systems according to utility, usability and acceptability criteria. Based on these analyses, we propose some directions of our future work. Utility, Usability and Acceptability Analysis Utility Analysis of Functionality When we read the literatures on PBLMSs, we find that most systems support collaboration only by offering communication tools (e.g. communication system based on ModellingSpace and DEGREE), for example, chat tools, discussion forums etc. Communication is one of the most important aspects during the collaboration but it is just one aspect in project-based learning. We assume that PBLMs should always offer other functionalities to teachers and learners. For example, it should supply learners with: • Metacognitive tools to support the metacognitive learning process and to facilitate their ability of “learn how to learn”. • Flexible configuration tools to deploy a learning activity according to different learning contexts. • Tools for documents sharing and co-writing to help learners to co-build knowledge network. • A scheduling tool. • Some special and professional tools offering to learners based on the context of learning activities. For example, SPLACH provides learners specific robotics tools to support microrobots modeling projects. Concerning the functionalities of the indicators, most of them just provide some simple reporting analyzes of the learning process (e.g. how many learners are on line, how many messages have been sent, how many times a document has been read) and some monitoring information about the learning environment (e.g. which tasks have been done and which haven’t, whether the learning process is delay according to the project schedule). We don’t criticize that simple indicators and monitoring indicators aren’t important. The importance of these indicators cannot be estimated a priori (Dimitrakopoulou 2006). But supplying the learners and teachers only with these two types of indicators is not enough because the assistance levels of these two types are lower than guiding indicators and supervision indicators. The guiding indicators can generate some information to learners to make some reflection and changes according to the context and the practical situation of learning activity. The supervision indicators can identify whether the action that learners are doing is good or bad and give alerts to learners to draw their attentions. For example, if a learner is watching a film or talking little when he joins in a synchronous discussion, the indicators can give alert. Another lack of the indicators’ functionalities is that most of them are about the activities process; while they cannot supply the information about the content of the products of the activities (e.g. the content of a proposal, the content of communication) or the hidden thoughts (ideas or moods) recorded by learners during activities. These two types of 60 information are very difficult to catch because it needs to recognize and analyze the textual content automatically. We think that this kind of information is as important as the analysis of the actions. Usability Analysis of Visualization SPLACH is considered very well because it could create a comfortable learning environment to increase the colleague mutual-understand awareness and the workspace awareness. It gives a photo of every member in the group and a “smiley” button to represent everyone’s mood, which can encourage the feelings of awareness between learners and indicate their feelings without typing any text when they participate in a synchronous meeting (George et Leroux 2001). It is important to create an environment, in which learners can be aware of the others, because it will enhance the relations between learners and shorten the distance between them. It is a good way to improve the quality of collaboration. Many classical graphical modes are used to present the results of indicators, e.g. line chart, bar chart, table form. But most of learning environments have no textual interpretation of these indicators. So the users, especially young learners, should have a high ability to understand the content of indicators and to discover some important information. We think that the learning environments should be able to interpret the contents of graphical indicators into text form, so as to be used more widely and to give much better support to the learners. The use of metaphors could also be a good way to solve this problem perfectly (e.g. i-bee, i-tree). They could present the results of a number of indicators synchronously in a nice visual frame in an indirect mode (e.g. animation), which can have a strong effect at young learners and help them have a strong awareness of their behaviors (Dimitrakopoulou 2006). Most indicators interfaces are designed previously and little customizable. The customizable feature has been considered in some UI design of PBLMSs (e.g. DEGREE, communication system based on ModellingSpace), but it hasn’t been considered in most of PBLMSs. Learners and teachers can’t choose the form of visualization they prefer. Moreover, customization is really an important aspect that could help (1) learners to visualize indicators in the way they like and to choose the kinds of information they really want to monitor, as well as (2) teachers to adjust the definitions and choices of parameters according to the different contexts of the learning activities. The visualization customization includes for example selecting monitoring variables, selecting the form of presentation, changing the configuration of the learning activity, selecting the time interval of information updating. Acceptability Analysis of indicators’ User The indicators introduced in this paper have been meant for different users: SYNERGO is used by teachers and researchers, DEGREE is used by learners, teachers and learning environment, the communication system based on ModellingSpace is used by teachers, and SPLACH is used by learners and teachers. We think that there are many indicators offered to teachers while a few are supplied to learners and learning environment. From this Amiens – 23 et 24 mai 2012 Ji Min point of view, we think that an appropriate PBLMS should manage user profiles and supply suitable information according to their profile. It can’t be ignored that the learning environment is a kind of indicators’ user to some extent because the information produced by some indicators can be processed deeply by learning environment and give useful information (e.g. DEGREE). We think that the systems analyzed in our paper design the indicators offered to the learning groups well. Most of them give the evaluation about the whole group but not about each member into the group. For example, DEGREE measures the level of creativity, attitude and other attributes of the whole group, SYNERGO gives the degree of relative contribution of group, and the communication system based on ModellingSpace computes collaborative action of the group. Through close analysis, we also can discover that these indicators could present the collaboration quality of the whole group instead of only centralize all information from individuals indicators, which just show everyone’s value in one indicator. Future Work These systems offer us good references to construct a PBLMS which not only can satisfy users’ needs as far as possible but also has suitable ergonomic user interfaces to improve learners’ collaboration. Michel and Lavoué (2011) have described a main framework of the platform, named MESHaT. It includes different interfaces according to the learning actor: a project group, a learner or a tutor. Each interface is composed of a monitoring tool (on the form of a dashboard) in order to help the actors to have a global view of their activity and a publication tool that allow them to share their experience. Based on our analysis of the four systems, we suggest some directions for our future PBLMS. The learning environment will supply many management tools to lead learners to use this space to achieve their project. This platform will be dedicated to project management education, but also could be used to support different types of PBL activities. We will analyze the utility of various tools, for example: • Blogs (individual and group) can supply spaces for learners to describe the process of their actions and their states of mind. It can help the learners to well understand the project context, to explain the reasons of some indicators’ value (as delays or the group’s state of mind). This information will be useful for teachers to be able to intervene at the right time. Two discussion tools will be offered to learners and teachers, which can help learners to communicate about the projects in the group and help teachers to share their expertise (e.g. process of every group, learning projects designing). • A scheduling tool can helps learners and teachers to plan and coordinate their activities. • A learning contract with simple questions that learners answer at the beginning of the activity can regulate their behavior during the learning and help them to acquire metacognitive skills. 4ièmes Rencontres Jeunes Chercheurs en EIAH • A documents sharing tool can help to share knowledge and to centralize the documents needed for the projects The system will include four types of indicators, (reporting, monitoring, guiding, and supervision) from two dimensions (individual and group). Grouped into a dashboard, theses indicators will display comprehensive information about the collaboration. Based on the content expressed in the groups’ vs. individuals’ blogs or in the documents produced during the activity, we can analyze what the learners are thinking and the quality of the learning. We have to analyze the possibility and limit of the different method of text analysis in order to choose the right approach. For example, text mining provides thin analyzes but requires complex natural language treatments, whereas semi-structured method should be sufficient in our case. We want to create an appropriate learning environment for learners in which they can feel like in face-to-face with the others. It will enhance their motivations and their participations. The customized interface will be used to refine the quality of human-computer interaction and to improve the participants’ satisfactions. Because of the different abilities of learners and teachers to interpret indicators, it is necessary to used different visualization mode (even for the same information). Maybe the use of textual interpretations and metaphors will help learners to well understand the information displayed by the indicators. But the use of dashboards and indicators is not easy. That’s why we choose to work, in the context of our PhD, on a participatory design approach. The prototype will be used in a real learning process in the future in order to understand its utility, usability and acceptability. Conclusion This paper presents an ergonomic study in PBL context by analyzing the utility, usability and acceptability of existing PBLMSs’ features, as well as the indicators used. To better understand the situation of PBLMSs, we have analyzed four different PBLMSs from three points: aim, functionalities and indicators. For the indicators, we have analyzed four attributes: purpose of indicator, concept of indicator, data construction and visualization. Through this analysis, we have discussed the advantages and disadvantages of the PBLMSs and their indicators in three dimensions (functionality, visualization and object users) that we can sum up as follows: • Most systems support collaboration only by offering communication tools. • Most indicators just supply some simple reporting analyzes of the learning process and some monitoring information about the learning environment, while guiding indicators and supervision indicators are not paid much attention. • Most of indicators are about the activities process, while only few indicators supply information about the content of the products of the activities or about the thoughts recorded by learners during activities. • Most of these indicators have no textual 61 Ergonomics of PBLMS interpretation or metaphors associated. The feature of customization hasn’t been considered in some UI design of PBLMSs. • PBLMSs should recognize object user profiles and supply them with suitable information according to their profile. • It is good to give the evaluation about the group as a whole instead of only centralize all information from individuals’ indicators. Our aim is to design a PBLMS with metacognitive and monitoring tools, which can help the actors to have a global view of their activity. Information sharing tools can also help them to share their experience. We suggest other directions for our future work: • We will offer several management tools for collaboration. • The system will include four types of indicators: reporting, monitoring, guiding, and supervision, from two dimensions (individual and group). • We will create an appropriate learning environment for learners in which they can get high satisfaction. This study can lay the foundation for our future works. In our future research, we will model the process of PBL and define the activities carried out in our system. At the same time, we will study further the research areas of data mining, data structure, model structuring of indicators and other important fields of PBLMS. • Acknowledgment This work is under the instruction of Christine Michel, Elise Lavoué and Sébastien George. I would like to thank them for their guidance. Conference on Computer-Supported Collaborative Learning (Euro-CSCL 2001), 269-276. George, S.; Leroux, P. 2002. An approach to automatic analysis of learners’ social behavior during computermediated synchronous conversations. In: proceedings of Intelligent Tutoring Systems'2002, 630~640. Helm, J.; Katz, L. 2000. Young investigators: The project approach in the early years. New York: Teachers Collage Press. Jeremic, Z.; Jovanovic, J.; Gasevic, D. 2009. Semantically-Enabled Project-Based Collaborative Learning of Software Patterns. in: proceedings of Advanced Learning Technologies, IEEE International Conference on. Los Alamitos, CA, USA: IEEE Computer Society, 569-571. Michel, C.; Lavoué, E. 2011. KM and Web 2.0 Methods for Project-Based Learning. MEShaT: a Monitoring and Experience Sharing Tool. Multiple Perspectives on Problem Solving and Learning in the Digital Age. Ifenthaler D., Isaias P., Spector J.M., Kinshuk, Sampson D. (Eds.), Springer, Heidelberg, 49-66. Moursund D. 2011. What is ICT-Assisted PBL? http://pages.uoregon.edu/moursund/PBL/part_3.htm. The ModellingSpace project, University of Aegean (Greece) et al, 2006. Access to: http:// modellingspace. atosorigin.es/about.htm Yigitbasioglu, O.; Velcu, O. 2011. A review of dashboards in performance management: Implications for design and research. Accounting Information Systems, doi: 10.1016/j.accinf.2011.08.002. References Avouris, N.; Margaritis, M.; Komis, V. 2004. Modeling interaction during small-group synchronous problemsolving activities: The Synergo approach. In: proceedings of ITS 2004 Workshop on Designing Computational Models of Collaborative Learning Interaction, Citeseer, 13-18. Barros, B.; Verdejo, M.F. 2000. Analysing student interaction processes in order to improve collaboration. The DEGREE approach, Articial Intelligence in Education 11 (3): 221-241. Dimitrakopoulou A.; et al 2006. State of the art of interaction analysis for metacognitive Support & Diagnosis. In: Kaleidoscope Network of Excellence. Interaction Analysis: Supporting Participants in Technology-based Learning Activities. Jointly Executed Integrated Research Project, Deliverable D.31.1. Fesakis, G.; Petrou, A. ; Dimitracopoulou, A. 2004. Collaboration Activity Function: An interaction analysis tool for Computer Supported Collaborative Learning activities. In: proceedings of 4th IEEE International Conference on Advanced Learning Technologies, 196201. Joensuu, Finland, IEEE Computer Society Editions. George, S.; Leroux, P. 2001. Project-based learning as a basis for a CSCL environment: An example in educational robotics, in: proceedings of First European 62 Amiens – 23 et 24 mai 2012 Une approche orientée indicateurs pour supporter les activités du tuteur Aina Lekira Laboratoire LIUM, avenue Laënnec, 72085 Le Mans Cedex 9, France [email protected] Résumé Dans cet article, nous proposons une approche orientée indicateurs qui vise à apporter une aide au tuteur lorsqu’il gère ses activités (réguler l’activité de l’apprenant et réguler sa propre activité de tutorat) et ce, plus particulièrement, afin de lui rendre compte des effets de ses interventions. Les résultats des expérimentations menées ont montré que fournir au tuteur des informations sur les effets de ses interventions augmente quantitativement et qualitativement l’efficacité de ses interventions ; cela a aussi par ailleurs un impact positif sur la capacité des apprenants à résoudre leurs problèmes. Introduction Les travaux de recherche en EIAH, dans le cadre de tutorat médiatisé, s‘intéressent le plus souvent au problème de la perception de l’activité de l’apprenant. Ils ont abouti à la réalisation d’outils permettant de suivre l’activité de l’apprenant et de visualiser un certain nombre de témoins de cette activité (ICALTS 2004) (Martin et al. 2009) (Martinez et al. 2003) (Guéraud et al. 2009) (Mazza et Dimitrova 2003). Dans ces travaux, le tuteur perçoit l’activité de l’apprenant grâce à des indicateurs calculés par l’environnement. Un indicateur est « une variable signifiante sur le plan pédagogique, calculée ou établie à l'aide de données observées, et témoignant de la qualité de l'interaction, de l'activité et de l'apprentissage dans un EIAH » d’après (Choquet et Iksal 2007). Ces indicateurs calculés en cours de session, permettent de révéler des situations critiques à partir desquelles le tuteur peut décider d’intervenir. Hormis ces indicateurs, d’autres éléments du contexte tels que le profil de l’apprenant (Lefèvre et al. 09), son parcours, sa progression (Guéraud et al. 2009), son style d’apprentissage (Bousbia et al. 2010), influent sur la décision d’intervention du tuteur. L’intérêt des indicateurs réside dans le fait qu’ils fournissent des informations synthétiques et pertinentes sur l’activité de l’apprenant, réduisant ainsi le temps que le tuteur passe à visualiser le travail accompli par chaque apprenant (Labat 2002). Lorsque le tuteur intervient auprès d’un apprenant, il ne dispose pas d’information directe sur les effets de son intervention. Lorsque cela lui est possible, le tuteur peut aller chercher cette information ou la déduire; cela a pour conséquence de lui ajouter une charge de travail supplémentaire. Par conséquent, notre proposition consiste à calculer et à fournir au tuteur ces informations manquantes, en nous basant sur l’étude de l’évolution des valeurs des indicateurs qui ont permis de déceler la situation critique à l’origine de l’intervention. Ces 4ièmes Rencontres Jeunes Chercheurs en EIAH informations sont calculées grâce à ce que nous appelons des méta-indicateurs : indicateurs caractérisant l’évolution des valeurs d’autres indicateurs. Dans ces situations de tutorat instrumenté, fournir au tuteur un feedback sur ses interventions et sa propre activité contribue à ce qu’il prenne conscience de ses propres actions, de ses processus et de son activité pour pouvoir les évaluer (« awareness and assessment ») (ICALTS 2004). De plus, favoriser une démarche réflexive (niveau métacognitif) de la part du tuteur en lui fournissant des informations sur son propre travail l’encourage à avoir un regard critique sur ses stratégies pédagogiques, à affiner sa pratique et à améliorer ses compétences tutorales (Denis et al. 2004) (Capa-Aydin et al. 2009). En résumé, fournir au tuteur des informations sur sa propre activité l’aide à être plus efficace dans son tutorat (ICALTS 2004). Outre la régulation de l’activité de l’apprenant, le tuteur est donc aussi amené à réguler sa propre activité en cours de session. Contexte de travail et problématique La thématique principale de notre travail porte sur le support à fournir au tuteur pour observer les effets de ses interventions et ainsi améliorer la régulation qu’il fait de l’activité de l’apprenant afin de tendre à de « better learning effects » (ICALTS 2004). Une définition largement acceptée de l’auto-régulation dans le domaine des sciences de l’éducation, et notamment celui de la psychologie éducative, est celle de Zimmerman (Zimmerman 2000). Il adopte une approche sociocognitive de l’auto-régulation et propose un modèle cyclique en trois phases : forethought, performance or volitional control et self-reflection. Nous proposons TeAMo, un modèle des activités du tuteur, lequel est déduit de cette approche sociocognitive (Lekira et al. 2011a). Ce modèle spécifie deux processus que le tuteur doit gérer dans les sessions d’apprentissage (Figure 1) : d’une part, la régulation de l’activité de l’apprenant et d’autre part, la régulation de sa propre activité de tutorat (auto-régulation tutorale). Le processus de régulation est précédé d’une phase préparatoire dans l’élaboration de la session d’apprentissage. Cette phase consiste à se fixer des objectifs liés à l’activité et à planifier les stratégies pour les atteindre. Suite à cette phase préparatoire, le processus de régulation de l’activité de l’apprenant est cyclique et comporte trois phases qui se définissent comme suit : - la phase d’observation dans laquelle le tuteur effectue un suivi et une supervision de l’activité de l’apprenant ; 63 Aina Lekira - la phase d’évaluation dans laquelle le tuteur vérifie que l’activité de l’apprenant correspond aux objectifs de la tâche ; - la phase de réaction dans laquelle le tuteur intervient en adoptant une stratégie de remédiation guidée par une intention d’intervention qui tient compte du contexte d’apprentissage. L’approche orientée indicateurs Lors du processus de régulation de l’activité de l’apprenant, le tuteur intervient quand l’apprenant est confronté à une situation jugée pédagogiquement intéressante. Pour détecter ces situations, nous nous appuyons sur les valeurs issues d’un calcul d’indicateurs. Partant du principe que le tuteur a décidé d’intervenir suite à des valeurs d’indicateurs identifiées comme étant « critiques », nous nous proposons de lui fournir un retour sur l’évolution des valeurs de ces indicateurs par le calcul de méta-indicateurs (Lekira et al. 2011b). Un méta-indicateur est un indicateur qui donne des informations sur l’évolution des valeurs d’autres indicateurs. Il est calculé en fonction du domaine d’acceptabilité de la valeur de l’indicateur dont il suit l’évolution. Dans la section suivante, pour illustrer nos propos, nous prendrons des exemples dans notre domaine d’application et d’expérimentation, celui de l’apprentissage de la programmation orientée objet. Les indicateurs de l’activité de l’apprenant Figure 1 : TEAMO, un modèle de description des activités du tuteur. De même, le processus d’auto-régulation tutorale est cyclique et comporte trois phases qui se définissent comme suit : - la phase d’auto-observation dans laquelle le tuteur observe ses interventions et leurs effets ; - la phase d’auto-évaluation dans laquelle le tuteur vérifie si ses interventions ont eu les effets escomptés, c’est-à-dire que les effets de ses interventions correspondent à son intention initiale (i.e. l’intention d’intervention du tuteur lors de la phase de réaction dans le cycle de régulation). ; - la phase d’(auto)-réaction dans laquelle le tuteur valide ses interventions ou les remet en cause en adoptant une nouvelle stratégie de remédiation Notre objectif est d’instrumenter une partie des processus décrits précédemment pour fournir au tuteur des informations sur l’activité de l’apprenant et sur les effets de son intervention. Dans ce cadre, notre problématique de recherche consiste à trouver les moyens pour rendre compte au tuteur, d’une part, de l’activité de l’apprenant et d’autre part, des effets de ses interventions. Nous adoptons ainsi une approche orientée indicateurs tant pour refléter l’activité de l’apprenant que pour mesurer les effets des interventions tutorales. Le calcul de ces indicateurs se fait à partir des traces d’interaction obtenues via l’EIAH. Par conséquent, la mise en œuvre de notre démarche doit se faire au sein d’un EIAH tracé c’est-à-dire un « EIAH permettant de collecter les traces d’utilisation » (France et al. 2007). 64 Les indicateurs procurent au tuteur des informations qualitatives ou quantitatives sur l’activité de l’apprenant (Labat 2002). Ils sont identifiés à partir des besoins d’observation du tuteur et en fonction du scénario pédagogique et des objectifs de l’activité. Les indicateurs sur l’activité de l’apprenant permettent au tuteur de réguler l’activité de l’apprenant en lui fournissant des informations sur la progression, le parcours ou les productions de l’apprenant. Ils reflètent la différence entre ce que le tuteur attend à travers les objectifs de l’activité et ce qui a été fait par l’apprenant. Nous intégrons cette notion dans la définition d’un indicateur à travers le domaine d’acceptabilité de sa valeur. Le domaine d’acceptabilité de la valeur d’un indicateur peut être une valeur, un seuil, un intervalle ou un ensemble. La valeur d’un indicateur est acceptable si elle appartient à son domaine d’acceptabilité. Le tableau 1 présente des exemples de besoins d’observation et des indicateurs correspondants en fonction de leurs domaines d’acceptabilité. Tableau 1 : Exemples de besoins d’observation et des indicateurs correspondants en fonction de leur domaine d’acceptabilité (type et valeur). Les interventions tutorales Les indicateurs donnent au tuteur des indications sur l’activité de l’apprenant. Lorsque leurs valeurs n’appartiennent pas à leurs domaines d’acceptabilité, nous considérons qu’ils reflètent une situation dite Amiens – 23 et 24 mai 2012 Une approche orientée indicateurs pour supporter les activités du tuteur critique. Cela peut amener le tuteur à intervenir. Dans ce cas, le tuteur sélectionne les indicateurs caractérisant la situation critique qui ont entraîné son intervention et le système mémorise l’association entre l’intervention et les indicateurs (Lekira et al. 2011a). Si le tuteur est amené à intervenir de nouveau sur la même situation critique, il sélectionnera son intervention originelle et le système mémorisera l’association entre l’intervention originelle et ses réinterventions successives. Les méta-indicateurs Pour mesurer les effets d’une intervention, nous proposons d’assurer le suivi de l’évolution des valeurs des indicateurs qui l’ont déclenchée et de voir s’ils reviennent à la normale i.e. s’ils appartiennent à leurs domaines d’acceptabilité. Pour cela, nous utilisons des méta-indicateurs que nous associons à une intervention afin de représenter l’évolution positive, négative ou nulle des valeurs des indicateurs (de l’activité de l’apprenant) à l’origine de cette intervention. Ces métaindicateurs servent à obtenir des informations sur les effets d’une intervention tutorale et à vérifier si cette intervention a eu les effets escomptés par le tuteur. En cas d’échec de l’intervention, nous voulons aussi savoir dans quelle mesure elle a échoué et en rendre compte au tuteur. Afin de déterminer le moment à partir duquel ce feedback peut être fourni, nous proposons de laisser au tuteur la liberté de le spécifier au moment de son intervention en définissant le moment du déclenchement du calcul des méta-indicateurs associés à l’intervention ; le calcul de ces méta-indicateurs peut être déclenché soit suite à une action spécifique du tuteur ou de l’apprenant (e.g. lors d’une compilation ou d’un changement de question), soit au bout d’un temps déterminé. En fait, le calcul des méta-indicateurs dépend du domaine d’acceptabilité des indicateurs dont ils suivent l’évolution. Pour un indicateur dont le domaine d’acceptabilité est une valeur de référence, le méta-indicateur correspondant vaudra « succès » si la nouvelle valeur de l’indicateur est identique à cette valeur de référence. Sinon, il vaudra « sans effet ». Pour un indicateur dont le domaine d’acceptabilité est un seuil de référence, le méta-indicateur correspondant vaudra « succès » si la nouvelle valeur de l’indicateur est au delà (ou en deçà, selon le cas) du seuil. Sinon, le méta-indicateur vaudra « amélioration » ou « détérioration » selon le signe de la différence entre l’ancienne et la nouvelle valeur de l’indicateur. Enfin, si cette différence est nulle, le méta-indicateur vaudra « sans effet ». Pour un indicateur dont le domaine d’acceptabilité est un intervalle de référence, le méta-indicateur vaudra « succès » si la nouvelle valeur de cet indicateur appartient à l’intervalle. Dans le cas contraire, la valeur du méta-indicateur vaudra « amélioration » si la nouvelle valeur de l’indicateur est plus proche de l’intervalle que l’ancienne valeur. Sinon, il vaudra « détérioration ». Et enfin, la valeur du méta-indicateur sera « sans effet » si la valeur de l’indicateur ne change pas. Pour un indicateur dont le domaine d’acceptabilité est un ensemble de référence, le méta-indicateur vaudra 4ièmes Rencontres Jeunes Chercheurs en EIAH « succès » si la nouvelle valeur de cet indicateur appartient à l’ensemble. Enfin, le méta-indicateur vaudra « sans effet » si la valeur de l’indicateur ne change pas, sinon il vaudra « modification non corrective ». Les effets d’une intervention tutorale Les méta-indicateurs permettent de mesurer les effets d’une intervention tutorale (Lekira et al. 2011b). Une intervention a eu du succès si tous les méta-indicateurs qui lui sont associés évoluent positivement c’est-à-dire qu’ils valent « succès ». Inversement, une intervention a échoué si tous les méta-indicateurs qui lui sont associés n’évoluent pas favorablement c’est-à-dire qu’ils valent « détérioration », « sans effet » ou « modification non corrective ». Dans tous les autres cas, on considère que l’intervention a une certaine effectivité mesurée par le pourcentage de méta-indicateurs de chaque catégorie (« succès », « sans effet », « amélioration », « détérioration » et « modification non corrective »). Une approche générique Dans le calcul des méta-indicateurs proposé, il n’est fait référence ni au domaine d’apprentissage, ni au type d’activité, ni même à l’EIAH utilisé. Pour le calcul d’un méta-indicateur, il n’est tenu compte que de la famille à laquelle appartient l’indicateur dont il suit l’évolution. De ce fait, notre démarche orientée indicateurs est générique et peut s’appliquer à n’importe quel EIAH tracé : elle consiste d’une part, pour l’enseignantconcepteur à définir des indicateurs et leurs domaines d’acceptabilité dans le domaine d’apprentissage considéré et d’autre part, pour l’informaticien à implémenter les méthodes de calcul des métaindicateurs. L’EIAH HOP3X Dans l’objectif d’opérationnaliser notre approche, nous avons utilisé l’EIAH HOP3X qui a été conçu pour l’apprentissage de la programmation. HOP3X donne au tuteur la possibilité de faire un suivi synchrone d’un groupe d’apprenants à travers une interface qui lui permet de visualiser en temps réel leurs programmes et d’intervenir par communication textuelle ou audio. HOP3X est un EIAH tracé composé de trois applications : - HOP3X-ETUDIANT permet aux apprenants d’éditer, de compiler et d’exécuter leurs programmes. Il leur donne la possibilité d’appeler le tuteur à l’aide. - HOP3X-SERVEUR collecte les traces d’interaction des participants à la session d’apprentissage et les stocke sous forme d’événements. Ces traces permettent le calcul des indicateurs et des méta-indicateurs via l’outil UTL qui utilise le méta-langage UTL (Choquet et Iksal 2007) et le langage associé DCL4UTL (Pham et al. 2010). Une application HUI (Hop3x and UTL Interaction) a été développée pour permettre l’interfaçage entre Hop3x et l’outil UTL. - HOP3X-ENSEIGNANT offre une visualisation en temps réel de l’activité de l’apprenant. Pour permettre au tuteur de visualiser les indicateurs et les méta-indicateurs, nous avons développé une interface de suivi. La figure 3 présente l’interface fournie au tuteur. 65 Aina Lekira Nous avons aussi intégré un outil permettant de visualiser les interventions avec la possibilité de revoir leurs contenus. Figure 3 : L’interface de HOP3X-ENSEIGNANT. Une visualisation détaillée des méta-indicateurs est possible. Celle-ci donne au tuteur des informations sur les effets d’une intervention. Par ailleurs, un code couleur a été mis en place dans l’interface pour permettre au tuteur de voir rapidement les interventions qui ont échoué (en rouge), celles qui ont réussi (en vert), celles ayant une majorité de méta-indicateurs valant « succès » (en orange-vert) et les autres (en orangerouge). Des statistiques globales sur l’effectivité de toutes les interventions sont fournies au tuteur à travers le pourcentage global de méta-indicateurs de chaque catégorie (« succès », « sans effet », « amélioration » et « détérioration »). Description des expérimentations Afin de mesurer l’impact de la mise à disposition d’un feedback sur les interventions au tuteur, nous avons mené deux campagnes d’expérimentations dans un contexte de tutorat synchrone : une expérimentation dans laquelle un feedback sur les interventions et des méta-indicateurs étaient fournis au tuteur et une autre sans ces informations. Ces expérimentations ont été menées sur deux années universitaires et concernaient des activités de travaux pratiques qui font partie d’une Unité d’Enseignement (U.E.) relative à la « Programmation orientée objet et Java ». Cette U.E. est dispensée aux étudiants de L3 Informatique de l’Université du Maine qui sont novices en programmation Java. 66 Avant chaque session d’apprentissage avec HOP3X, les étudiants ont préalablement vu en cours et en TD les concepts qu’ils devaient mettre en œuvre durant les TP. Les deux expérimentations se sont déroulées dans le même contexte puisque les mêmes tuteurs ont participé aux deux expérimentations, le même scénario pédagogique a été utilisé et les étudiants impliqués ont eu la même formation universitaire et ont suivi les mêmes cours. En collaboration avec l’équipe pédagogique, nous avons identifié et défini 62 indicateurs, lesquels ont été disponibles pour les deux tuteurs durant les deux expérimentations. La première expérimentation (expérimentation 1) a été menée entre janvier et février 2010. Elle a impliqué trente-six apprenants (groupe 1). La seconde expérimentation (expérimentation 2) a été menée entre janvier et février 2011 avec la participation de quarantecinq apprenants (groupe 2). Concernant la quantité de productions des apprenants et le nombre d’interventions tutorales, les deux groupes sont homogènes. En moyenne, pour trois heures de TP, il y a eu 3995 événements par étudiant pour le groupe 1 et 4391 événements pour le groupe 2. En ce qui concerne les interventions tutorales, il y a eu 84 interventions pour le groupe 1 (2,33 interventions par étudiant) et 96 interventions pour le groupe 2 (2,13 interventions par étudiant). Ces expérimentations nous ont permis de collecter des traces d’interactions telles que la trace d’activité des apprenants et les interventions audio et textuelles des tuteurs. Les indicateurs et méta-indicateurs calculés en cours de session ont aussi été sauvegardés. Résultats des expérimentations et discussion Nous voulons observer l’impact du fait de fournir au tuteur des informations sur les effets de son intervention à travers les méta-indicateurs. Pour atteindre cet objectif, notre analyse est double. Dans un premier temps, nous voulons voir si les méta-indicateurs améliorent les performances du tuteur et l’effectivité de ses interventions. Dans un deuxième temps, nous voulons voir si l’amélioration des performances du tuteur a induit un impact positif sur les résultats des apprenants. Impact des méta-indicateurs sur l’activité du tuteur Dans cette section, nous voulons étudier le bénéfice qu’apporte le fait de fournir au tuteur un feedback sur les effets de ses interventions à travers la comparaison de l’expérimentation 2, dans laquelle les méta-indicateurs ont été disponibles, et l’expérimentation 1, dans laquelle ils ne l’étaient pas. Pour notre étude, nous nous intéressons aux interventions proactives, c’est-à-dire qui surviennent lorsque les tuteurs interviennent de leur propre initiative. Ce type d’intervention peut être déclenché par des valeurs d’indicateurs non conformes à celles attendues, i.e. n’appartenant pas à leurs domaines d’acceptabilité. Dans ce cas, ces valeurs d’indicateurs font état d’une situation critique. Pour le groupe 1, parmi les 84 interventions, 89,28% sont proactives. Ce taux est similaire pour le groupe 2 puisque parmi 96 interventions, 92,70% sont proactives. Amiens – 23 et 24 mai 2012 Une approche orientée indicateurs pour supporter les activités du tuteur Nos résultats et notre analyse se sont basés sur ces données. Dans cette analyse, nous nous intéressons aux interventions qui peuvent être soit uniques, i.e. composées de l’intervention originelle (nous les appelons interventions uniques), soit une séquence d’interventions, i.e. plusieurs interventions portant sur la même situation critique. Une séquence d’interventions a eu du succès si la dernière en a eu et que l’apprenant a effectivement corrigé le problème à propos duquel le tuteur est intervenu ; sinon, elle a échoué. Les méta-indicateurs fournissent au tuteur des informations sur le résultat (succès si l’intervention a eu les effets escomptés par le tuteur ; sinon échec) de leurs interventions. En cas d’échec, ils rappellent au tuteur que l’apprenant n’a pas encore résolu le problème. Par conséquent, le tuteur est encouragé à intervenir de nouveau. Ainsi, nous pouvons émettre deux hypothèses : le fait de fournir au tuteur un feedback sur les effets de ses interventions à travers les méta-indicateurs va augmenter le taux global d’interventions qui ont eu du succès (H1) et, en particulier, cela augmente le nombre d’interventions ayant eu du succès du fait des réinterventions (H2). Comme le montre la figure 4, 75,99% des interventions (en tenant compte des interventions uniques et des séquences d’interventions) ont eu du succès pour le groupe 1. Pour le groupe 2, ce taux est de 91,42%. Ces chiffres montrent une amélioration du taux global des interventions qui ont eu du succès, lequel a augmenté de 15,43 points. Ce résultat valide notre première hypothèse H1 : globalement, lorsque les tuteurs ont eu un feedback à travers les métaindicateurs, ils ont été mieux à même de rendre leurs interventions efficaces que lorsqu’ils n’avaient pas de méta-indicateurs disponibles. d’échec des interventions uniques diminue de 14,29% (de 20% pour le groupe 1 à 5,71% pour le groupe 2). Nous expliquons cette différence par les métaindicateurs. En effet, les séquences d’interventions contiennent des ré-interventions qui sont déclenchées par les méta-indicateurs. Ces résultats tendent à valider notre seconde hypothèse H2 : il y a eu une augmentation du nombre de ré-interventions et il y aussi eu une augmentation du nombre d’interventions qui a eu du succès grâce aux ré-interventions. Deuxièmement, comme indiqué dans la figure 4, le taux d’interventions uniques ayant eu du succès a augmenté entre le groupe 1 et le groupe 2. Cela ne peut pas être du aux méta-indicateurs puisqu’il n’y pas de réinterventions. Nous expliquons cette différence par le fait que ce sont les mêmes tuteurs qui ont participé aux deux expérimentations. Après l’expérimentation 1, les tuteurs ont acquis une certaine expertise en se rappelant certaines interventions efficaces, ce qui leur a permis de mieux cibler le choix de leurs stratégies de remédiation en se basant sur leur propre expérience. Toutefois, pour le groupe 2, il reste 8,56% d’interventions qui ont échoué dont 2,85% malgré au moins une ré-intervention. Ces cas d’échec concernent des apprenants qui ont de très grandes difficultés en programmation. En effet, ces apprenants avaient essentiellement des problèmes liés à la syntaxe ou à la structure du programme ; ils avaient des difficultés à résoudre les erreurs de compilation. Les résultats des expérimentations montrent que fournir au tuteur des méta-indicateurs favorise les réinterventions en cas d’échec de l’intervention originelle. En effet, les tuteurs aident mieux les apprenants lorsque ces derniers sont confrontés à des situations critiques puisque 91,42% des interventions tutorales ont eu les effets escomptés. Ainsi, fournir au tuteur des informations sur sa propre activité améliore ses performances et augmente les chances de succès de ses interventions. Impact des méta-indicateurs sur l’activité de l’apprenant Figure 4 : Distribution des interventions tutorales pour les groupes 1 et 2. L’explication de cette augmentation du taux global des interventions qui ont eu du succès est double. Premièrement, cela est dû à l’augmentation des réinterventions. En effet, lorsque l’intervention originelle échoue, dans 40,36% des cas, le tuteur ré-intervient pour le groupe 1. Ce taux est de 72,02% pour le groupe 2. Les méta-indicateurs sont un rappel permanent qui pousse le tuteur à ré-intervenir : le taux de réinterventions du groupe 2 est de 34,44 points plus élevé que celui du groupe 1. En conséquence, le taux de séquences d’interventions qui ont eu du succès augmente de 4,95 points (de 9,33% pour le groupe 1 à 14,28% pour le groupe 2) et le taux 4ièmes Rencontres Jeunes Chercheurs en EIAH Nous voulons voir si l’amélioration des performances du tuteur et l’augmentation des ré-interventions grâce aux méta-indicateurs ont un impact positif sur l’activité de l’apprenant. Ici, nous voulons observer si les apprenants résolvent mieux leurs problèmes lorsque les tuteurs ont des méta-indicateurs à leur disposition. Pour cela, nous mettons en évidence des situations critiques (SC) i.e. des situations dans lesquelles les valeurs des indicateurs (sur l’activité de l’apprenant) ne sont pas acceptables. Parmi ces SC, nous nous intéressons à celles qui ont fait l’objet d’une intervention tutorale afin de mesurer l’impact de ces interventions sur la résolution de ces SC par l’apprenant. Dans la section précédente, nous avons constaté que fournir au tuteur des informations sur sa propre activité améliorait l’efficacité de ses interventions. Maintenant, nous voulons savoir si le taux d’échec des résolutions de SC diminue grâce aux interventions. La figure 5 montre l’état, en fin de session, des SC ayant fait l’objet d’une intervention tutorale. 67 Aina Lekira Figure 5 : État en fin de session des SC apparues en cours de session. Comme le montre la figure 5, le taux de résolution des SC grâce aux interventions passe de 83,74% à 92,32% entre le groupe 1 et le groupe 2. Cette augmentation est probablement due aux interventions qui ont eu du succès, lesquelles ont augmenté avec l’introduction des méta-indicateurs. (cf. section précédente). Cependant, pour le groupe 2, il y a 7,67% de SC non résolues malgré les interventions tutorales. Ces cas correspondent aux interventions auprès d’apprenants ayant de grandes difficultés en programmation. Ce résultat tend à prouver que l’introduction des méta-indicateurs, qui induit de meilleures interventions tant qualitativement que quantitativement (augmentation du taux de ré-interventions et augmentation du nombre d’interventions qui ont eu du succès), a un impact positif sur les performances des apprenants puisqu’ils sont capables de mieux résoudre leurs SC lorsque les tuteurs ont un feedback sur les effets de leurs interventions. Conclusion et perspectives Dans cet article, nous avons présenté une approche orientée indicateurs, générique, pour rendre compte au tuteur de l’activité de l’apprenant et des effets de ses interventions. Cette approche consiste à fournir au tuteur, d’une part, des informations sur l’activité de l’apprenant à travers des indicateurs calculés à partir de la trace et, d’autre part, à lui fournir des informations sur les effets de ses interventions à travers des métaindicateurs. Les résultats des expérimentations montrent que fournir ce type d’informations au tuteur améliore l’efficacité de ses interventions de manière qualitative et quantitative. Par ailleurs, les résultats montrent aussi que cette amélioration des performances du tuteur a une influence positive sur les performances des apprenants qui ont mieux résolu leurs problèmes. Par la suite, nous pensons pouvoir capitaliser les interventions tutorales en fonction de la mesure de leur efficacité afin de permettre au tuteur de réutiliser son savoir-faire et son expérience. Ainsi, nous voulons proposer au tuteur les interventions qui ont eu du succès lorsqu’il se retrouve dans un contexte similaire à celui de l’intervention proposée. Références Bousbia, N., Rebai, R., Labat, J. M., Balla, A., 2010. Analysing the Relationship between Learning Styles and Navigation Behaviour in Web-based educational 68 system. International Journal of Knowledge Management and E-Learning, 2(4):400-421 Capa Aydin, Y., Sungur, S., and Uzuntiryaki, E., 2009. Teacher self regulation: Examining a multidimensional construct. Educational Psychology, 29:345-356. Choquet, C., Iksal, S., 2007. Modélisation et construction de traces d’utilisation d’une activité d’apprentissage : une approche langage pour la réingénierie d’un EIAH. STICEF, 14. Denis, B., Watland, P., Pirotte, S., and Verday, N., 2004. Roles and competencies of e tutor. In Proc. Networked Learning Conference, 385–389. France, L., Heraud, J-M., Marty, J-C., Carron, T., 2007. Visualisation et régulation de l’activité des apprenants dans un EIAH tracé,In Actes Conférence EIAH, 179184. V. Guéraud, J-M. Adam, A. Lejeune, N Mandran, N. Vézian, M. Dubois, 2009. Expérimentation d'un environnement flexible pour la supervision de travaux pratiques basés sur des simulations, In Actes Conférence EIAH, 279-286. ICALTS : Interaction and Collaboration Analysis’ supporting Teachers and Students’ self regulation, délivrables 1, 2 and 3, Jointly Executed Integrated Research Project, 2004, http://www.rhodes.aegean.gr/ ltee/kaleidoscope icalts. Labat, J. M., 2002. Quel retour pour le tuteur ? In Actes de la conférence TICE. Lefevre, M., Cordier, A., Jean Daubias, A., and Guin, S., 2009. A teacher dedicated tool supporting personalization of activities. In Proc. World Conference on Educational Multimedia, Hypermedia and Telecommunications, 1136–1141. Lekira, A., Després, C., Jacoboni, P., 2011a. Supporting the identification of teachers’ intention through indicators, Proc. 3rd International Conference on Computer Supported Education, 111-116. Lekira, A., Després, C., Jacoboni, P., 2011b. An indicator-based approach to support teachers’ activities, Proc 11th IEEE International Conference on Advanced Learning Technologies, 120-122. Martin, M., Alvarez, A., Ruiz, S., and Fernandez Castro, I., 2009. Helping teachers to track student evolution in a b learning environment. In Proc. 9th IEEE International Conference on Advanced Learning Technologies, 342– 346. Martinez, A., Dimitriadis, Y., Gomez, E., Rubia, B., and De La Fuente, P., 2003. Combining qualitative and social network analysis for the study of classroom social interactions. Computers and Education, 41:353-368. Mazza, R., Dimitrova, V., 2007. CourseVis: A Graphical Student Monitoring Tool for Facilitating Instructors in Web-Based Distance Courses. International Journal in Human-Computer Studies 65(2): 125-139. Pham Thi Ngnoc, D., Iksal, S., Choquet, C., 2010. Reengineering of pedagogical scenarios using the data combination language and usage tracking language. In Proc. 10th IEEE International Conference on Advanced Learning Technologies, 506-510. Zimmerman, B J., 2000. Attaining self regulation: A social cognitive perspective. Handbook of self regulation, 13–38. Amiens – 23 et 24 mai 2012 Acquisition interactive de connaissances pédagogiques pour la personnalisation d’EIAH dans le cadre de la formation à distance Bruno MASCRET, 1ère année Université de Lyon, CNRS Université Lyon 1, LIRIS, UMR5205, F-69622, France Formagraph 1 Rue Madeleine Brès, 25000 Besançon, France Résumé Cet article s’intéresse à la problématique de l’acquisition interactive de connaissances pour la personnalisation des parcours pédagogiques dans un contexte de formation à distance. Nous mettons en évidence que la personnalisation des parcours pédagogiques par le formateur en formation à distance est un aspect important de la personnalisation de l’enseignement, mais qu’à l’heure actuelle cela reste un processus long et peu utilisé en pratique sur le terrain. Nous expliquons pourquoi l’acquisition de connaissances sur la personnalisation nous semble une piste prometteuse pour faciliter la personnalisation sur des plateformes pédagogiques. Nous identifions les pré-requis à nos travaux : la mise en place d’un système de personnalisation interactif à partir de sources de connaissances pédagogiques (profils, ressources pédagogiques, ...), basé sur des modèles existants. Nous introduisons deux contributions théoriques, défendant l’usage des traces et du raisonnement à partir de l’expérience tracée (Mille, 2005) comme mécanisme d’acquisition de connaissances pertinent. La première contribution décrit comment acquérir ces connaissances lors de l’élaboration de parcours pédagogiques par le formateur ; la seconde montre comment, en présentant au formateur l’activité de l’apprenant sous forme de traces d’interaction, il peut exprimer de nouvelles connaissances sur sa manière de réviser des parcours pédagogiques proposés. Nous terminons en présentant la manière dont nous allons implémenter un prototype au sein de la plateforme IMAVIA, de l’entreprise Formagraph, et proposons quelques pistes de recherche qui compléteraient nos travaux. Dans le cadre de la formation à distance, nous assistons à une généralisation de l’usage des plateformes pédagogiques que ce soit en formation initiale ou continue. La demande de personnalisation de l’apprentissage est de plus en plus forte ; elle se traduit entre autres par un engouement pour la pédagogie différenciée (Robbes, 2009). Les TICE (technologie de l’information et de la communication pour l’éducation) offrent de nouveaux outils qui pourraient répondre à cette demande (Lebrun, 2007b), mais en pratique, la plupart des formateurs ne peuvent se consacrer pleinement à leur rôle de pédagogue faute de temps ou de connaissances sur la manipulation d’EIAH devenus complexes (Garrot, 2008). Une des manières d’individualiser la formation est de personnaliser les parcours pédagogiques des apprenants, mais les plateformes pédagogiques actuelles offrent peu de fonctionnalités facilement utilisables pour permettre cette personnalisation (Garrot, 2008). Au mieux, elles permettent aux formateurs de définir plusieurs parcours pédagogiques qu’ils peuvent ensuite proposer à un ou plusieurs apprenants. Ces parcours sont réalisés a priori et il n’existe pas, à notre connaissance, de mécanisme permettant d’expliciter les motivations du pédagogue quant aux choix qui lui ont permis d’élaborer un parcours et de l’attribuer à un apprenant. Un autre moyen de personnaliser l’apprentissage est de permettre au formateur de réviser les parcours pédagogiques proposés quand ceux-ci ne conviennent pas aux apprenants. Mais pour que cette révision soit pertinente, le formateur doit disposer d’éléments lui permettant de comprendre pourquoi le parcours pose problème. Il est possible de s’appuyer actuellement sur des indicateurs (Dimitracopoulou et Bruillard, 2006), ou des renseignements sur le statut d’une tâche : temps passé, résultat d’évaluation automatique, nombre d’accès, nombre de tentatives. Mais ce que fait réellement l’apprenant (hésitations, retours en arrière, mauvaise compréhension ou accomplissement partiel d’une tâche) n’est pas perceptible, contrairement à des situations d’apprentissage en présentiel. Le contexte de la formation à distance limite donc le formateur dans son analyse des problèmes rencontrés par l’apprenant. Selon nous, ces limitations pourraient être réduites si les systèmes d’apprentissage en ligne étaient capables d’acquérir une partie des connaissances pédagogiques qu’utilise le formateur, et de mieux lui présenter l’activité de l’apprenant pour l’aider à résoudre les problèmes d’apprentissage. Nos travaux portent sur l’acquisition de ces connaissances pédagogiques lors de l’élaboration, la personnalisation et la révision de parcours Dans cet article, nous commençons par préciser le vocabulaire que nous employons, qui doit nous permettre notamment de faire la distinction entre ce que prescrit le formateur et ce que réalise effectivement l’apprenant. Nous mettons en évidence les enjeux de nos travaux en EIAH, pour la personnalisation des parcours pédagogiques par le formateur et en ingénierie de la connaissance, pour la conception de systèmes capables d’acquérir des connaissances et des raisonnements non modélisés a priori par un expert. Nous présentons ensuite la problématique de nos travaux, en la situant dans ces deux domaines. Nous introduisons les traces d’in- 4èmes Rencontres Jeunes Chercheurs en EIAH 69 Introduction Bruno Mascret teraction et le raisonnement à partir de l’expérience tracée (RàPET), et expliquons en quoi cette approche représente à notre avis un paradigme de raisonnement pertinent pour notre problématique. Nous présentons ensuite le système de personnalisation tel que nous l’imaginons, et indiquons quels éléments existants nous allons pouvoir utiliser. Nous expliquons en quoi ils satisfont une partie des pré-requis nécessaires à nos recherches. Notre première contribution décrit comment acquérir des connaissances lors de l’élaboration des parcours pédagogiques par le formateur, en traçant son activité et en l’incitant de manière interactive à s’impliquer dans ce mécanisme d’acquisition, en lui offrant par exemple la possibilité de reformuler ce qui a été tracé par le système, de le corriger, ou de le réorganiser. Cela va plus loin qu’une simple documentation de son activité. Notre seconde contribution s’appuie également sur les traces d’interaction, cette fois-ci produites par l’apprenant. Nous les présentons au formateur qui peut alors réviser le parcours pédagogique et introduire ces nouvelles connaissances dans le système. Nous terminons en décrivant l’architecture que nous comptons développer, et la manière dont elle répond aux attentes de la société Formagraph en matière de personnalisation de parcours pour un public très hétérogène (d’apprenants en situation d’illettrisme et/ou d’actifs aux profils variés en formation continue). Nous présentons plus particulièrement la plateforme d’e-learning IMAVIA, basée sur Claroline, sur laquelle s’appuiera une grande partie des services de formation personnalisés proposés par Formagraph. Définitions F IGURE 1: Représentation d’une tâche et d’une activité (en pointillés). Dans cet exemple, la tâche consiste à lire une documentation sur la compilation d’un programme ; l’activité pourrait être de ne lire que quelques pages de cette documentation. F IGURE 2: Un graphe de tâches du cours de programmation. Les arcs représentent les pré-requis entre les différentes tâches qui sont compiler, exécuter, débugger, documenter, formatter les entrées-sorties, et réaliser un module (Exo 1-6) du programme final (Exo 7). vités : l’apprenant peut en effet avoir plusieurs activités pour répondre à une même tâche (par exemple, lire les deux premières pages de cours, puis reprendre sa lecture plus tard ), ou une activité peut répondre à plusieurs tâches assignées. Un apprenant peut donc traiter partiellement une tâche dans une activité. Graphe de tâches : un graphe de tâches (figure 2) est une organisation de tâches où chaque nœud représente une tâche et chaque arc une relation entre deux tâches. Les arcs peuvent exprimer différents types de relations, pédagogiques ou non, entre des tâches (prérequis, dépendance, sorte de, indexation, etc ;). Nous souhaitons préciser le sens que nous donnons dans cet article à un certain nombre de notions fondamentales. Ces notions sont discutées dans (Pernin, 2006) et (Tchounikine, 2009). Nous avons notamment besoin de marquer la distinction entre la tâche qui est prescrite par le formateur et l’activité qui est réalisée par l’apprenant (Tchounikine, 2009). Les définitions qui suivent sont illustrées par l’exemple concret d’un cours de programmation. Tâche (prescrite) : une tâche (figure 1) représente ce qu’il est demandé de faire à un apprenant. Elle est prescrite la plupart du temps par le formateur, et utilise des ressources pédagogiques. Nous considérons que la tâche contient à la fois la ou les ressources pédagogiques (ressources numériques, papier, média, . . . ) et les indications données à l’apprenant pour sa réalisation (consigne). Une tâche peut être décrite à l’aide de métadonnées, dans un formalisme standardisé (par exemple LOM, SCORM, IMS-LD) ou non standardisé (format interne à l’EIAH, XML, etc.). Nous admettrons que ce formalisme permet, dans le cas de tâches informatisées 1 , de représenter les informations nécessaires pour exploiter la tâche à des fins de personnalisation et réaliser des graphes de tâches. Activité (réalisée) : l’activité (figure 1) représente ce que l’apprenant réalise réellement pour traiter une tâche prescrite par le formateur. Nous admettrons dans cet article qu’à une tâche correspond une ou plusieurs acti- F IGURE 3: Deux parcours pédagogiques, un linéaire et un non linéaire, qui ne prévoient ni la réalisation de Exo 2, ni les tâches de formatage. Le formateur a peut-être voulu ainsi simplifier le problème pour certains apprenants, ou il considère que ces apprenants n’ont pas besoin de réaliser les tâches non sélectionnées... 1. Une tâche informatisée est une représentation informatique d’une tâche : les éléments qui la composent ne sont pas tous nécessairement numériques Parcours pédagogique : un parcours pédagogique (figure 3) est une organisation de tâches que le formateur prescrit à un ou plusieurs apprenants. Lorsque le 70 Amiens - 23 et 24 mai 2012 Acquisition interactive de connaissances pédagogiques pour la personnalisation d’EIAH parcours n’exprime pas d’alternatives, c’est un simple séquencement linéaire de tâches. Dans le cas contraire, c’est un graphe. F IGURE 4: Un parcours d’activité représentant ce que l’apprenant a réellement réalisé. Apparemment, il a eu besoin de revenir sur les tâches d’exécution et de débuggage pour réussir Exo 3 (il y a donc deux activités différentes pour la tâche exec, et deux autres pour la tâche debug). Parcours d’activités : le parcours d’activités (figure 4) est un séquencement d’activités représentant le parcours effectif de l’apprenant sur un parcours pédagogique. Sa structure peut être complètement différente du parcours pédagogique, puisque d’une part il correspond à ce que l’apprenant fait réellement, d’autre part, nous l’admettrons, un apprenant ne peut traiter deux tâches en même temps (bien qu’il puisse passer alternativement de l’une à l’autre). Un parcours d’activités a donc une structure linéaire dont les nœuds sont temporellement situés. teurs (Djouad, 2010), en raisonnement à partir de cas ou en RàPET). (Soller et al., 2005) identifient trois utilisations de ces connaissances : la visualisation, la comparaison avec des observations attendues et la production de réponses élaborées pour guider l’apprenant dans son apprentissage. Un pré-requis à une acquisition de connaissance sur l’activité de l’apprenant réside dans la capacité à fournir au formateur des outils lui permettant avant tout de percevoir cette activité : comment demander à un formateur de corriger un parcours s’il n’a qu’une vision partielle et limitée de ce qu’a fait l’apprenant ? Dans le cas de la personnalisation de parcours, un des enjeux est de permettre au formateur d’expliciter une révision de parcours suite à l’observation (visualisation) de l’activité d’un apprenant. Autrement dit, que le formateur arrive à formaliser la cause d’un problème, en décire ses effets sur l’activité de l’apprenant, et dans l’idéal de pouvoir proposer une solution qui soit en accord avec sa pédagogie. Problématique Les connaissances pédagogiques et les raisonnements associés sont, par opposition aux connaissances explicites, la plupart du temps tacites, c’est–à–dire difficiles à formaliser. Elles s’appuient sur de nombreuses notions comme l’expérience du pédagogue, sa connaissance personnelle des apprenants, ses convictions, sa manière d’adapter ou de personnaliser son enseignement (Minstrell, 1999). Elles représentent une grande partie de la pédagogie du formateur, qui n’a pas toujours conscience de son expertise (il sent que cette adaptation est pertinente pour tel apprenant). À notre avis, un des grands enjeux de la personnalisation est de disposer de systèmes capables d’acquérir ces connaissances et la manière dont on s’en sert ; autrement dit, de donner au formateur la possibilité de formaliser son expérience et ses connaissances pédagogiques de personnalisation pour qu’il puisse ensuite les réutiliser ou les partager. Ainsi, il gagnera notamment du temps lors de l’élaboration de parcours ultérieurs. Certains travaux actuels portent sur la constitution d’ontologies permettant d’acquérir une partie de ces connaissances (Zouaq et al., 2007), (Greffier et al., 2011) : nous pensons cependant que ce type d’approche présente un risque d’homogénéı̈sation des connaissances pédagogiques. Dans le cadre de la formation à distance, l’importance de la présence du formateur, par sa capacité à conseiller, orienter et interagir avec les apprenants est une des clefs de la réussite dans ce mode d’apprentissage (Lebrun, 2007b). Or, bien que les plateformes pédagogiques disposent d’outils de suivi et de communication (chat, wiki, forum), l’activité de l’apprenant ne peut être finement observée par le formateur qui n’en perçoit qu’une petite partie à travers les outils existants. Plusieurs domaines de recherche en ingénierie de la connaissance et en EIAH se consacrent à la manière d’améliorer et d’augmenter les connaissances sur l’activité de l’apprenant (en datamining, avec des indica- L’ingénierie des connaissances utilise deux types d’éléments : les connaissances, qui sont extraites de sources de connaissances, et les mécanismes de raisonnement qui utilisent ces connaissances. L’un et l’autre sont représentés par des modèles (modèle de connaissances et modèle de raisonnement). Lorsque ces modèles existent, l’acquisition de nouvelles connaissances peut s’appuyer sur un formalisme, être interactive (Cordier, 2008), plus facilement interfaçable pour l’utilisateur. Cependant, il y a plusieurs inconvénients à cette formalisation (Cordier et al., 2009) : les mécanismes de raisonnement n’évoluent pas, les connaissances sont très spécifiques et les systèmes considèrent que la solution d’un problème conviendra à tous les utilisateurs. Or, dans un contexte de personnalisation de parcours pédagogiques, il est très délicat de modéliser a priori la manière dont les formateurs vont réaliser la personnalisation, car elle dépend de facteurs propres aux intentions et manières de faire du formateur, comme ses objectifs, ses stratégies, ses démarches ou ses approches pédagogiques. La connaissance qu’a le formateur de l’apprenant et son expérience de pédagogue jouent également un rôle essentiel. Le formateur doit donc pouvoir exprimer sa propre pédagogie dans une situation d’apprentissage informatisée (Lebrun, 2007a), comme il le ferait dans une situation non informatisée. Un environnement faiblement contraint, ou à large spectre (c’est-à-dire offrant de grandes possibilités d’usages différents à l’utilisateur) comme un EIAH ou un site Internet ne permet pas à son concepteur d’envisager toutes les manières d’interagir, ni d’anticiper des modèles de connaissances : cela figerait une fois pour toutes le processus de raisonnement. Les modèles de connaissance et de raisonnement ne doivent donc pas être préconçus. Comment peut-on les construire au fil de l’eau, à partir de l’expérience de l’utilisateur ? Nous pensons que les traces d’interaction (Settoutti et al, 2009) et le RàPET (Mille, 2005) offrent un paradigme de raisonnement adapté à ce genre de problèmes (Cordier et al., 2010). Une trace d’interaction est un objet informatique capable de représenter l’activité des uti- 4èmes Rencontres Jeunes Chercheurs en EIAH 71 Enjeux Bruno Mascret F IGURE 5: Deux traces reformulées par transformation, représentant un copier-coller réalisé à la souris et au clavier. Deux traces différentes peuvent représenter le même processus ; les transformations permettent de se placer dans un registre pertinent pour le raisonnement. lisateurs sous forme d’observations : les interactions de l’utilisateur avec l’environnement sont mémorisées sous forme d’observés, temporellement situés entre eux. Une trace peut également être transformée et reformulée en une autre trace incarnant un point de vue particulier sur l’activité tracée (figure 5). Des observés peuvent être associés pour former un épisode dans la trace : cet épisode correspond à un point de vue sur l’activité observée, et on lui associe une signature afin de pouvoir le retrouver dans une trace. Par exemple, les observés de la figure 5 pourraient constituer un épisode “copier-coller” dont la signature serait “Select text”, “CTRL C”, d’autres observés dont le type n’est pas important pour la signature, “CTRL V”. Décrire un épisode avec sa signature est une opération d’enrichissement des connaissances d’un système à base de traces. Actuellement, il n’existe pas, à notre connaissance de système fonctionnel ayant implémenté concrètement un mécanisme de RàPET dans un domaine dynamique et sans a priori sur la structure des épisodes. Que doit-on faire pour réaliser un tel système ? Modélisation d’un Système de Personnalisation de Parcours à Base de Traces Vers une architecture d’acquisition de connaissances pédagogiques à base de traces La figure 6 montre un système de personnalisation à base de traces tel que nous le concevons. Dans notre approche, 1 le formateur qui réalise un parcours pédagogique exprime des contraintes sur les objets pédagogiques du système (profils et tâches informatisées). Ces contraintes représentent le savoir-faire et l’expérience du formateur. 2 Les interactions du formateur avec le module d’élaboration de parcours sont tracées. Le formateur peut consulter ses traces et les reformuler dans des registres d’abstraction différents. Ces registres correspondent à des contextes ou des points de vue particuliers du formateur, comme ses différentes stratégies pédagogiques. Ce travail de reformulation permet au 72 F IGURE 6: Système de personnalisation de parcours pédagogiques à base de traces système d’acquérir des connaissances sur la manière dont le formateur souhaite formaliser son expérience. Dès que le système dispose de suffisamment de connaissances, il peut commencer à réutiliser l’expérience formalisée pour faciliter le travail d’élaboration et d’adaptation du formateur. Une fois le parcours pédagogique réalisé et affecté aux apprenants 3 , le système trace le parcours d’activités réalisé par l’apprenant. 4 La trace de l’apprenant est utilisée par le formateur pour lui permettre de détecter les éventuels problèmes d’apprentissage auxquels l’apprenant est confronté. 5 Le formateur va là encore exprimer son expérience pédagogique en reformulant cette trace pour se placer dans des registres permettant de formaliser les problèmes d’apprentissage. Cette formalisation de problèmes lui permet en dernier lieu de réviser le parcours qu’il a proposé : il peut expliciter sa révision de parcours en associant le problème détecté aux modifications des contraintes qu’il avait exprimé initialement. Le système acquiert ainsi des connaissances à la fois sur la résolution de problème d’apprentissage, mais également sur la manière de concevoir des parcours : l’idée est que lorsqu’un autre apprenant présentera des caractéristiques similaires, le formateur puisse lui proposer directement un parcours où le problème d’apprentissage détecté sera évité. Élements de l’architecture déjà existants Il existe de nombreux travaux portant sur la personnalisation en EIAH (Brusilovsky et Millán, 2007), (STICEF, 2011) et sur la représentation de parcours pédagogiques ou la manière de les concevoir (Gutiérrez et Pardo, 2007). Nous avons mené un état de l’art qui Amiens - 23 et 24 mai 2012 Acquisition interactive de connaissances pédagogiques pour la personnalisation d’EIAH nous a permis d’identifier plusieurs travaux que nous allons utiliser dans notre système de personnalisation. Notre objectif était de trouver des contributions permettant d’exprimer des contraintes sur deux types d’objets pédagogiques, les profils et les ressources pédagogiques, et de personnaliser les tâches des parcours. PMDLe (Eyssautier-Bavay, 2008), (Ginon et al. 2011) est un langage de modélisation de profils garantissant une grande généricité et de solides capacités d’adaptation à des situations d’apprentissage hétérogènes. Un langage d’expression de contraintes, cPMDLe, a été proposé par (Lefevre, 2009) dans l’approche GEP ET T OS et repris par (Ginon et al, 2011). Cette approche permet de lier des contraintes sur les profils à des contraintes sur les tâches. Dans (Lefevre et al., 2009), les auteurs présentent un modèle permettant l’acquisition de connaissances sur des EIAH à des fins de personnalisation. Ils identifient cinq types d’éléments personnalisables : les tâches, leur séquencement, les fonctionnalités disponibles, les retours proposés aux apprenants et les interfaces utilisateur. Seuls les deux premiers aspects rentrent directement dans le cadre de nos travaux. La principale limite vient du contexte d’utilisation de cette approche : elle a avant tout été pensée pour personnaliser des séances de travail, et la notion de parcours pédagogique se limite à un séquencement linéaire de tâches. Dans le cas de parcours pédagogique, il s’agit de personnaliser un ensemble de séances de travail et de les organiser entre elles. Toutefois, ces contributions répondent à la plupart de nos besoins pour réaliser le module de personnalisation de parcours, qui constitue un prérequis à nos travaux puisque c’est en instrumentant ce module que nous serons capables de tracer les élaborations de parcours. Acquisition de Connaissances pour la Personnalisation de Parcours avec les Traces d’Interaction L’idée d’observer avec des traces l’activité de l’utilisateur afin d’acquérir des connaissances réutilisables sur sa manière d’interagir avec le système n’est pas nouvelle (Settouti et al, 2007). Cependant, à notre connaissance et à l’heure actuelle, aucun système ne propose une implémentation concrète et utilisable en EIAH de ces mécanismes pour la personnalisation de parcours. Nous présentons deux approches permettant l’acquisition de telles connaissances : la première se situe au moment de l’élaboration du parcours par le formateur, la seconde lors de la révision du parcours suite à l’observation des traces d’interaction de l’apprenant par le formateur. F IGURE 7: Trace d’élaboration de parcours pédagogique et une de ses reformulations. en oeuvre pour exploiter ces connaissances. Nous allons maintenant montrer au travers d’un exemple en quoi notre approche répond à cette problématique. Reprenons les parcours pédagogiques de la figure 3. Voici ce que le formateur a effectué pour obtenir ces parcours : – il a exprimé des contraintes pour sélectionner les tâches nécessaires à la réalisation de l’excercice 7 (objectif) – il a ensuite exprimé des contraintes pour retirer du parcours les tâches de formatage pour les profils où cette compétence était acquise (prise en compte des acquis) – il a exprimé une contrainte sur une valeur du profil pour autoriser ou non les alternatives (présentation) La figure 7 montre la trace de son élaboration (trace num.1). Dans cette trace, les notions d’objectifs, de prise en compte des acquis ou de présentation n’apparaissent pas. Le formateur va donc réaliser des transformations pour exprimer ces nouveaux concepts (trace 2). Ces transformations représentent bien une formalisation de connaissances. Ensuite, le formateur peut également définir des épisodes qui correspondent à des connaissances qu’il souhaite réutiliser. Il associe à ces épisodes des signatures, afin de permettre au système de les retrouver dans une trace, et leur associe une solution. Le système acquiert bien des connaissances et des mécanismes de raisonnement sur ces connaissances. Connaissances sur la révision de parcours Nous avons montré dans la section précédente qu’une manière pour le formateur de personnaliser un parcours pédagogique était d’exprimer des associations de contraintes entre différentes sources de connaissances pédagogiques (profils, métadonnées sur les tâches, etc.). Nous avons également introduit dans notre problématique la complexité que représente l’utilisation de traces lorsque l’on ne dispose ni du modèle des connaissances à acquérir, ni des raisonnements à mettre Nous avons argumenté que présenter au formateur des traces d’apprenant lui permet de formaliser des problèmes d’apprentissage et d’expliciter ses révisions de parcours. Le processus correspondant est similaire à celui présenté pour l’élaboration de parcours. Cependant, l’utilisation de ces traces pose deux problèmes principaux : d’une part, sur le respect de la vie privée de l’apprenant (Butaniaou, 2011) ; d’autre part, sur la portée des connaissances acquises. En effet, chaque apprenant a son propre style d’apprentissage, commet ses propres types d’erreurs. Il est donc difficile de savoir si ce qui est valable pour un apprenant l’est aussi pour tous les autres. La réutilisation de ces connaissances est donc bien plus délicate car il est difficile de mesurer le degré de spécificité d’une révision. Une solution consisterait à caractériser le degré de spécificité d’une révision, et à exprimer sur quels éléments de similarité deux profils sont comparables pour une révision donnée. 4èmes Rencontres Jeunes Chercheurs en EIAH 73 Connaissances sur l’élaboration de parcours Bruno Mascret Perspectives Notre thèse s’inscrit dans le cadre des développements que l’entreprise Formagraph a réalisé sur sa plateforme pédagogique d’e-learning, IMAVIA, basée sur Claroline (http://www. claroline.net/index.php).Formagraph souhaite disposer d’un outil de personnalisation de parcours pédagogiques riches à partir des contenus qu’elle va proposer pour des apprenants en situation d’illettrisme. Nous commencerons par représenter les profils avec PMDLe, implémenter une structure pour les parcours pédagogiques autorisant l’expression d’alternatives, et à instancier GEP P ET OS pour Claroline. Nous chercherons ensuite à apporter une preuve de concept pour notre approche : nous développerons une interface dédiée au formateur pour l’élaboration de parcours pédagogiques, tracerons les élaborations de parcours par les formateurs et mettrons en place le système d’acquisition de connaissances.Nous aurons la possibilité d’évaluer notre approche, au sein de Formagraph ou grâce à nos contacts avec le consortium Claroline. Enfin, une fois ce premier prototype validé, nous l’augmenterons afin de prendre en compte les autres aspects que nous avons présenté dans cet article. Références Butoianu, V ; Vidal, P and Broisin, J. 2011. Prise en compte de la vie privée des usagers dans un système à base de trace dédié à l’apprentissage en ligne. in EIAH 2011. Brusilovsky, P and Millán, 2007. User Models for Adaptive Hypermedia and Adaptive Educational Systems. The Adaptive Web, vol. 4321, Lecture Notes in Computer Science, chapter 1, p. 3–53. Springer. Cordier, A. 2008. Interactive and Opportunistic Knowledge Acquisition in Case-Based Reasoning. Thèse de doctorat en informatique, Université Lyon 1. Cordier, A ; Mascret, B and Mille, A. 2009. Extending Case-Based Reasoning with Traces. In Grand Challenges for reasoning from experiences, Workshop at IJCAI’09, Pasadena, CA. Cordier, A ; Mascret, B and Mille, A. 2010. Dynamic Case Based Reasoning for Contextual Reuse of Experience. In Provenance-Awareness in Case-Based Reasoning Workshop. ICCBR 2010. p. 69–78, Alexandria, IT. Dimitracopoulou, A and Bruillard, E. 2006. Interfaces de Forum enrichies par la visualization d’analyses automatiques des interactions et du contenu. Special Issue on “Forum de Discussion en Education”, STICEF. Vol. 13. Djouad, T ; Benmohammed , M and Mille, A. 2010. Indicators computation from modeled traces in the context of computer Human Learning environment. In International Symposium on Modelling and Implementation of Complex systems, Constantine, p. 1-7, AL. Eyssautier-Bavay, C. 2008. Modèles, langage et outils pour la réutilisation de profils d’apprenants. Thèse de doctorat en informatique, Univ. J. Fourier Grenoble 1. Garrot, E. 2008. Étude du tutorat in Plate-forme support à l’Interconnexion de Communautés de Pratique (ICP). Application au tutorat avec TE-Cap, Chapitre 1. Thèse de Doctorat en informatique, INSA Lyon. Georgeon, O ; Mille, A ; Bellet, B.T ; Mathern, B. 74 and Ritter, F. 2011. Supporting activity modelling from activity traces. Expert Systems, DOI : 10.1111/j.14680394.2011.00584.x, paru en ligne (mars 2011). Ginon, B ; Jean-Daubias, S, and Lefevre, M. 2011. Evolutive learners profiles. In Proceedings of World Conference on Educational Multimedia, Hypermedia and Telecommunications, T. Bastiaens and M. Ebner, editors, p. 3311-3320, Lisbon, Portugal. Greffier, F ; Szilagyi, I and Domenget, J-C. 2011. Pour des parcours personnalisés via un système actif et sémantique d’apprentissage, in C. Dejean, F. Mangenot et T. Soubrié. Actes du colloque Epal 2011 Gutiérrez, S and Pardo, B. 2007. Sequencing in webbased education : Approaches, standards and future trends. Evolution of teaching and learning paradigms. Intelligent environement, vol. 62, Studies in Computational Intelligence. p. 83–117. Springer. Lebrun, M. 2007a. Quality towards an expected harmony : pedagogy and technology speaking together about innovation. AACE Journal, vol. 15(2), p. 115–130. Lebrun, M. 2007b. Théories et méthodes pédagogiques pour enseigner et apprendre : Quelle place pour les TIC dans l’éducation ?. 2ème édition revue, De Boeck, Bruxelle Lefevre, M. 2009. Processus unifié pour la personnalisation des activités pédagogiques : méta-modèle, modèles et outils. Thèse de doctorat en informatique, Université Claude Bernard Lyon 1. Lefevre, M ; Mille, a ; Jean-Daubias, S and Guin, N. 2009. A Meta-Model to Acquire Relevant Knowledge for Interactive Learning Environments Personalization. In ADAPTIVE 2009, p. 78-85, Athènes, Grèce. Mille, A. 2005. Raisonner a partir de l’expérience tracée (RàPET). Définition, illustration et résonances avec le story telling Minstrell, J. 1999. Expertise in Teaching. Chapter 12 in R. J. Sternberg and J. A. Horvath, Tacit knowledge in professional practice : researcher and practitioner perspectives. pp. 215-230. Psychology Press. Pernin, J-P. 2006 Normes et standards pour la conception, la production et l’exploitation des EIAH, Chapitre 9. In Environnements Informatiques pour l’Apprentissage Humain, Grandbastien M., Labat J.-M. (ed.), p. 201-222, Hermès, Paris Robbes, B. 2009. La pédagogie différenciée : historique, problématique, cadre conceptuel et méthodologie de mise en œuvre, janvier 2009. http ://www.meirieu.com/ECHANGES/bruno robbes pedagogie differenciee.pdf, p. 1–34 Settouti, L ; Prié, Y ; Marty, J-C and Mille, A. 2009. : Vers des Systèmes a Base de Traces modélisées pour les EIAH. Rapport de recherche RR-LIRIS-2007-016 Settouti, L ; Prié, Y ; Champin, P-A ; Marty, J-C and Mille, A. 2009. A TBMS framework : Models, languages and semantics. Research Report. STICEF, 2011, numéro spécial TICE, volume 18, sous la direction de Pierre-André Caron et Serge Garlatti Tchounikine, P. 2009. Précis de recherche en ingénierie des EIAH. Internet. http ://membres-liglab. imag.fr/tchounikine/Precis.html Zouaq, A. ; Nkambou, R and Frasson, C. Une architecture d’acquisition et d’exploitation des connaissances pour les EIAH, HAL, 2007 Amiens - 23 et 24 mai 2012 Vers une mise en relation des activités d’édition et de navigation dans les ressources d’apprentissage : cas de l’apprentissage d’un langage de programmation Mahdi Miled UMR Science Technique Education Formation ENS Cachan – ENS Lyon (IFE) – UniverSud 61, avenue du Président Wilson F-94235 Cachan cedex [email protected] Résumé Cet article suggère d'apporter des mécanismes d'aide à la navigation dans les ressources d'apprentissage et d'aide à leur conception et à leur édition. Nous souhaitons instaurer des éléments de liaison entre ces activités de conception ou d'édition avec celles de la navigation. Dans une ressource que nous concevons comme un graphe d’unités d’apprentissage, nous proposons de guider l’apprenant sans le contraindre et d’informer le concepteur sur l’usage à travers les traces de navigation. Dans le but de faciliter la navigation dans ce graphe de ressources et son édition, nous développons un prototype intégrant un outil de visualisation interactive. Grâce aux résultats des simulations effectuées sur cet outil, nous avons pu déterminer quel type de visualisation était le plus approprié pour le type de graphe et la situation d'apprentissage envisagée. Ces techniques nous semblent essentielles pour soutenir les apprenants dans leur guidage sur leur parcours d’apprentissage car elles permettent de bien discerner les dépendances dans les grands graphes évolutifs. Introduction Considérant la construction d’une ressource pour l’apprentissage du langage Python en autonomie (Ortiz 2012), nous sommes confrontés à la conception d’un grand nombre de parties constituant cette ressource, à leur organisation et à leur évolution à travers l’usage qu’en feront les apprenants. La question de la conception et de l'édition des ressources numériques d'apprentissage a été déjà abordée (Broisin et Vidal 2005). Dans le contexte participatif et collaboratif du web 2.0, les utilisateurs ne sont plus seulement consommateurs de contenus mais ils en sont également producteurs, contributeurs et annoteurs. Nous utilisons ici l’idée que le parcours des apprenants est une information utilisable par les concepteurs pour améliorer la ressource et le guidage des apprenants. Nos travaux s’inscrivent d’une part dans l’aide à la conception et la modification d’une ressource de haut niveau de granularité (cours, manuels de référence), et d’autre part dans l’aide à la navigation 4ièmes Rencontres Jeunes Chercheurs en EIAH dans un vaste réseau de parties homogènes et interdépendantes au sein d’une telle ressource. La première partie de cette communication présente l’articulation entre les activités d’édition et de navigation. Tout en montrant notre positionnement, nous passons en revue dans une deuxième partie, les environnements permettant d’utiliser des ressources d’apprentissage, les techniques de visualisation interactive des graphes ainsi que quelques fondements sur les traces. La troisième propose un modèle pour l’articulation entre édition et parcours. La quatrième décrit la méthode de mise en œuvre d'un outil de visualisation de graphes pour aider les apprenants dans leur navigation. La cinquième partie fixera quelques éléments d’évaluation avant la conclusion. Articulation entre les activités d'édition et de navigation : une relation non triviale De nombreux travaux ont traité des objets d'apprentissage (Pernin 2003) et de leur conception et leur édition plus spécifiquement, dans une optique d’ingénierie pédagogique (Paquette 2002) (Burgos el al. 2005) (Wiley et Gurell 2009). D’autres travaux se sont penchés sur l’accès et la navigation dans les ressources (Nash 2005) (Wolpers et al. 2008). Cependant peu s'intéressent à la relation entre ces activités d'édition et de navigation qui ont des objectifs différents, faisant intervenir concepteurs et apprenants. Points de cadrage et contraintes Dans le cadre d’un projet connexe visant l’élaboration d’un document numérique pour l’apprentissage du langage Python en autonomie (Ortiz 2012), nous disposons d’un grand nombre (plusieurs centaines a priori) d’unités d’apprentissage (non encore stabilisées en terme de contenu). L’ensemble de ces unités peut se formaliser sous la forme d’un graphe, où chaque nœud est une unité et chaque arc est une dépendance, notamment de type pré-requis. Ce graphe est le système nerveux de la ressource. Il éclaire les concepteurs sur la cohérence et la couverture de la ressource. Il sert aussi de carte aux apprenants pour les guider à travers la 75 Mahdi Mile ressource vers leurs objectifs. Bien qu'il existe d'autres approches pour modéliser les relations entre les unités (approche par compétences, connaissances sous forme d'ontologies), nous nous limitons à la relation de type pré-requis dans la représentation destinée à l’apprenant (parfois débutant) pour lui en simplifier la lecture. Comment peut-on améliorer la visualisation générale et aider à mieux naviguer dans ces ressources ? Nos contraintes de départ font que nous ne pouvons agir ni sur la structure du graphe, ni sur les types de dépendances entre ces unités. Nous souhaitons cependant offrir un système qui permet l’évolution d’un ensemble vivant de ressources prenant en compte l’expérience de l’apprenant. Pourquoi lier édition et navigation ? Il peut paraître peu conventionnel de vouloir créer une relation entre ces activités à priori séparées qui font appel à des acteurs poursuivant des buts différents. Dans la construction du graphe, le concepteur offre sa vision pédagogique d’expert. Par leurs parcours réels, leurs succès et leurs échecs, leurs retours en arrière, leurs nouveaux choix, etc., les apprenants nous livrent leur point de vue non expert. Nous pensons que les choix de l’un et les traces des autres devraient dialoguer pour permettre une évolution (contrôlée) de la structure du graphe des ressources. Ce dernier devra malgré tout assurer une certaine stabilité pour ne pas perturber l'apprenant si les changements s’opéraient trop fréquemment et à son insu. Comment lier ces activités ? Nous suggérons de tracer les actions des apprenants qui concernent notamment les consultations et validations des unités pour repérer les séquences d'unités constituant des parcours. Ainsi, les tendances dégagées permettraient d’informer statistiquement les tuteurs ou les concepteurs sur les différents parcours. On pourrait alors utiliser cette information dans l’édition/mise à jour d’une unité ou d’un parcours. Nous envisageons aussi d’offrir à l’apprenant, par le biais d’annotations, le moyen de commenter ou évaluer des unités ou des parcours proposés par les concepteurs. Ces informations (traces de navigation et annotations) peuvent servir à l’amélioration du graphe général afin d'avoir une mise à jour semi-automatique (soit par le système soit par la communauté). Nous décrirons ces idées plus en détail dans la section modélisation générale de notre proposition. Regard sur l’existant Il s'agira dans cette section de se positionner par rapport aux environnements d'accès aux ressources dont certains permettent l'édition selon un cycle de vie spécifique. Nous nous intéresserons aussi aux mécanismes d'accès et de navigation et notamment à leurs interfaces de visualisation. Enfin, nous expliciterons la nécessité des traces dans la relation entre navigation et édition. Environnements d’accès aux ressources La plupart des environnements liés à l’utilisation des objets d'apprentissage1 et à leur co-édition (Connexions, web) permettent de partager les ressources et de suivre leur évolution selon un cycle de vie caractéristique. Ces environnements peuvent prendre la forme de plateformes dédiées à un domaine spécifique comme l’apprentissage du langage Python (PythonLearn, web), ou de plateformes d’apprentissage en ligne LMS2 de type Moodle, Blackboard, Claroline ou même encore de dépôts de ressources tels que ARIADNE (Klerxk et al. 2010), MERLOT et LORNET. Ces types d'environnements regroupent bien souvent des ressources hétérogènes, isolées et rarement disposées d'une manière faisant ressortir une cartographie complète de leurs dépendances. Les sites dédiés à une thématique spécifique, s'ils apportent parfois un contenu exhaustif du domaine, ils ne s'inscrivent pas dans des objectifs d'aiguillage de l'apprenant et de retour sur la navigation. Notre proposition vise à soutenir l’enseignement et l’apprentissage d’un thème complexe faisant appel à de nombreuses ressources interdépendantes. Nous prévoyons une première implémentation dans le cas d'un environnement dédié à l'apprentissage de la programmation en Python. Visualisation et navigation dans les graphes La question de la recherche ou la sélection de l'information devient d'autant plus importante que la quantité d'information croît. La visualisation interactive des graphes peut résoudre certains problèmes d'accès et de présentation surtout si le graphe devient de plus en plus volumineux. Elle permet également de mieux identifier les dépendances entre les nœuds. Différentes techniques de visualisation et mécanismes de navigation et d’interaction sous-jacents existent (Hermann et al. 2000). Si la navigation dans les graphes permet de visualiser l’ensemble du graphe structurel, elle doit permettre en particulier de faire des opérations d’agrandissement/réduction, de déplacement panoramique et de focalisation sur une zone de prédilection consistant à mettre l’accent sur une région ou un sous-ensemble de nœuds. Pour ce qui est des différentes mises en formes (graph layout), on peut retenir celles qui se basent sur : - les lois des forces (Force Directed) : tous les nœuds sont en interaction selon la loi physique des forces. La visualisation peut être statique ou animée, le mouvement permettant de mieux appréhender les dépendances complexes, - les arbres hyperboliques (HyperTree), - les graphes radiaux (Rgraph) - ainsi que les arbres à tiroirs (Treemap). Le champ de la visualisation de l’information a déjà été introduit dans les EIAH, notamment sur des questions de visualisation des relations entre les objets d’apprentissage (Catteau et al. 2007) voire sur des questions d’aide à l’accès et à la recherche de ressources d'apprentissage déposées dans des réservoirs 1 Learning objects 2 Learning Management Systems 76 Amiens – 23 et 24 mai 2012 Édition et navigation dans les ressources d'apprentissage (Klerkx et al. 2004). Certains travaux soulignent les limites de l'accès et la recherche des ressources par des formulaires (Klerxk et al. 2005) et proposent des stratégies basées sur une visualisation et une navigation interactive. Pour notre part, nous comptons utiliser les types de visualisation ForceDirected, HyperTree et RGraph. Nous estimons que ce genre de visualisation interactive peut aider l'utilisateur à choisir la ressource et à mieux naviguer dans un graphe de ressources sans forcément avoir besoin de connaître leur intitulé pour les exploiter. Traçage des activités d'apprentissage Une trace est une collection d'observés temporellement situés (Djouad et al. 2010). Dans la littérature des EIAH, le recours aux mécanismes de traces a pour finalité la régulation ou l'auto-régulation de l'apprentissage (Heraud et al. 2005), la modélisation et le profilage de l'apprenant, la personnalisation et l'adaptation de l'apprentissage (Brusilovsky 1999) ou encore la réingénierie des EIAH (Choquet et Iksal 2007). Nous souhaitons exploiter les traces issues des activités de navigation et d'utilisation pour des besoins d'édition pour assurer, in fine, une meilleure évolutivité à la ressource dans son ensemble. Modélisation générale Notre orientation générale (Fig. 1) montre une mise en relation entre les activités de conception (et d'édition) des ressources qui sont généralement gérées par les enseignants et les activités d'utilisation et de navigation qui sont accomplies par les apprenants. Les activités de conception et d'édition sont fortement collaboratives car nous considérons dans notre hypothèse que les ressources de haut niveau (cours, manuels de références) que nous appelons également ressources complexes (Miled 2011) nécessitent plus d’un rédacteur pour en assurer l'adaptation et la contextualisation. données liées aux interactions entre les différents acteurs (commentaires, annotations…). Dans notre vision du cycle de la conception et de l'édition d'une unité jusqu'à son intégration dans un parcours, nous pouvons noter que cela implique quasiment tous les acteurs. Le concepteur écrit un patron d'unité qui sera suivi pour une majorité d'unités. Selon le besoin, une unité sera composée de microressources (exercice d'application, présentation d'un concept, tests). Une fois produite, l'unité pré-utilisable sera indexée, validée et publiée pour être accessible par les apprenants que ce soit dans un accès indépendant (unité seule) ou bien une unité intégrée dans un parcours correspondant à un objectif d'apprentissage. Si un contributeur (co-concepteur) veut apporter des modifications sur une unité, il peut générer une copie de la structure et ainsi l'adapter selon ses orientations. La gestion des droits se fait selon le modèle proposé par (connexions, web) qui stipule que le propriétaire original devient automatiquement co-auteur. On notera également, qu'il est possible d'avoir des responsables d'unités et de parcours pour mieux aider à mettre à jour et suivre les évolutions. En ce qui concerne la validation pédagogique d'une unité, nous nous sommes inspirés des états fournis par ADL SCORM (SCORM, web). Sur la figure 2, les rectangles désignent les différents états (de parcours) d'une unité. Les formes arrondies correspondent aux actions de l'apprenant. Celui-ci peut à tout moment s'évaluer (en effectuant le test) sans forcément parcourir le contenu d'une unité. Si le test est réussi, alors l'unité est réussie, sinon il est invité à obligatoirement parcourir l'unité avant de refaire le test pour la valider. Les actions suivantes sont optionnelles et consistent à soumettre du code3 (si l'unité l'indique) et consulter les composants de l’unité pour la parcourir en totalité. Figure 1 : Relation entre activité d’édition et de navigation Ils sont éventuellement encouragés par des moyens incitant au partage et à la modification. La ressource éditée peut guider les apprenants dans leur utilisation. Les tendances dégagées par rapport aux objectifs de validation et de respect de parcours, seront remontées aux concepteurs, créant ainsi une dynamique itérative permettant une évolution prenant en compte des données objectives (traces de navigation) et des 4ièmes Rencontres Jeunes Chercheurs en EIAH Figure 2 : États d’une unité et sa validation 3 Pour être spécifique à l'apprentissage de la programmation, nous prévoyons d'ajouter un état supplémentaire (code submitted). 77 Mahdi Mile Les principaux éléments du modèle ayant été décrits dans cette partie, nous présentons dans la suivante, l’approche méthodologique suivie. Approche et méthodologie Dans le but de mettre en œuvre nos éléments de réflexion, nous avons recensé et testé divers outils libres de représentation interactive des graphes. Ces tests nous ont permis de vérifier l’adéquation de ces outils aux types de graphes qui nous concernent. À partir du choix d'outil qui s'est dégagé, nous avons commencé à implémenter un prototype. Choix d'un outil de visualisation interactive de graphes L'identification des outils de visualisation des graphes nous a permis de cibler les outils proposant des bibliothèques libres. Nous avons finalement opté pour JIT4. Ce choix est dû aux riches types de visualisations et performances vu qu'il s'appuie sur une technologie cliente (Javascript). Il utilise comme entrée un format JSON5 pour la représentation des données. Intégration d'un outil et début de prototypage Tout en commençant à développer un prototype, nous avons intégré des visualisations du graphe des ressources et quelques sous-graphes représentant d'éventuels parcours. Les figures 3, 4 et 5 illustrent les rendus issus de ForceDirected, HyperTree et RGraph. Traces liées à l'édition et à la navigation Le prototype que nous sommes en train de développer sous Zend framework 1.11.3 propose (Fig. 6) de tracer les activités relatives à la navigation dans les ressources et d'autres spécifiques à leur édition. Ces traces sont sauvegardées dans des tables MySQL. En terme de navigation, le mécanisme de génération récolte l'ensemble des unités visitées qui représente le(s) chemin(s) parcouru(s) (parcours effectifs) par l'apprenant. L'interface JIT qui est couplée avec le framework Zend doit permettre aussi de renseigner d'une manière fine sur les états de validation d'une unité (cf Fig. 2). Cette fonction est en cours d'intégration. La mémorisation des activités d'édition permet de lister les évaluations des unités ou des parcours (suite d'unités), de modifier les métadonnées relatives à une unité donnée. La génération d'une copie/structure d'un graphe conformément à notre approche ainsi que l'exportation vers une archive SCORM doivent être incluses. Tous ces éléments paraissent nécessaires pour pouvoir gérer l’évolution de la structure globale du graphe. Ainsi, nous pouvons penser qu'une évaluation d'une unité aura un impact sur l'évolution globale du graphe. Par exemple, si N évaluations globales (comprenant plusieurs critères) font ressortir que l'unité U et que le parcours P doivent être modifiés et mis à jour, selon le degré d'imminence de la mise à jour, cette modification peut être faite soit par les contributeurs si cela concerne le contenu de l'unité, soit automatiquement s'il s'agit de réordonner un parcours. Figure 3 : Visualisation issue de ForceDirected Figure 4 : Visualisation issue de HyperTree Figure 6 : Processus de génération des traces d'édition et de navigation Eléments d'évaluation Nous souhaitons vérifier à présent la validité de certaines fonctionnalités et déterminer quel type de visualisation est le plus adapté à nos besoins. Figure 5 : Visualisation issue de RGraph Eléments d'évaluation analytique 4 Javascript Infovis Toolkit 5 JavaScript Object Notation 78 Afin de mesurer quelques indications sur l'utilisabilité, nous utilisons quelques principes basés sur une démarche analytique (Nogry et al. 2004) en nous appuyant sur des check-lists pour vérifier la conformité Amiens – 23 et 24 mai 2012 Édition et navigation dans les ressources d'apprentissage Comparatif des temps d'exécution Pour comparer les performances des différents outils de visualisation, nous avons suivi les étapes suivantes : - la construction aléatoire de graphes G (n, p) à l'aide de Gephi (Gephi, web) avec n le nombre de sommets et p la probabilité de connexion, - la production de fichiers de données contenant des listes d'adjacence, - la transformation des listes d'adjacence au format JSON, - et l'exécution du type d'algorithme et de visualisation selon les données récupérées précédemment. Le protocole a consisté à générer dix graphes aléatoires et à comparer les exécutions pour les trois algorithmes choisis : HyperTree (Fig. 4), ForceDirected (Fig. 3) et RGraph (Fig. 5) avec : n =10 et p=0,5; n = {50,100} et p =0,05; n = {224, 500, 1000} et p = 0,01; n = {2000, 3000, 4000, 5000} et p = 0,001. Nous avons mesuré les performances d'exécution de trois types de visualisation de la bibliothèque JIT (HyperTree, ForceDirected et RGraph) avec les caractéristiques suivantes : Windows XP SP3, 1Go RAM, 1,66 Ghz, et le navigateur Google Chrome. Cela s'est fait à l'aide de sondes et de transcription des données temporelles : les parties du code à tester ont été encadrées par des lectures de l’horloge (temps de début et temps de fin) pour déduire la durée totale en millisecondes et identifier le comportement de chacun des algorithmes en fonction de la taille des graphes. Nous avons eu recours (pour une majorité des cas) à une dizaine d'exécutions pour la même instance de test pour pouvoir calculer une moyenne de temps d'exécution. Néanmoins ces valeurs restent indicatives et il se peut qu'il y ait des valeurs différentes selon la charge du processeur et sa vitesse, le navigateur et la quantité de mémoire disponible. Les résultats comparatifs obtenus (Fig. 7) donnent une estimation de la complexité moyenne opérationnelle et permettent surtout de discerner le comportement de chacun des algorithmes pour de plus grands graphes. Ceci nous a montré que les algorithmes RGraph et HyperTree supportent mieux le passage à l'échelle, tandis que le temps d’exécution de l'algorithme ForceDirected croît 4ièmes Rencontres Jeunes Chercheurs en EIAH plus rapidement pour des valeurs élevées (presque 14 minutes pour n=3000, p=0,001). Cela peut facilement s'expliquer par une complexité accrue avec la simulation des lois des forces. Pour cet algorithme, nous n'avons pas pu relever les temps pour n=4000 et n=5000 (temps d’exécution supérieur à 30 minutes). RGraph semble à peine plus performant que HyperTree. En revanche ForceDirected ne peut être adapté qu'aux petits graphes (n<100). Nous avons utilisé une échelle logarithmique pour les temps d'exécution pour atténuer la distance entre les temps de ForceDirected et HyperTree/RGraph. Nous pensons que pour pouvoir visualiser l'ensemble des unités sous la forme d'un graphe, nous opterons plutôt pour le type HyperTree ou RGraph vu que les valeurs de temps restent acceptables même pour n=5000. Nous privilégierons tout de même ForceDirected pour des sous-graphes que nous appelons parcours (ce type de graphe ne dépasse pas les 100 nœuds). Son intérêt réside essentiellement dans la malléabilité de la navigation où l'utilisateur peut déplacer les nœuds et ainsi modeler et personnaliser la vue qui s'adapte le mieux à ses préférences. Temps d'exécution selon le type de visualisation (Probabilité de connexion p=0,001) 1000 Tem ps en secondes de ce qui est développé et en spécifiant des cas d’utilisation. Le système permet un accès à différents utilisateurs et une interface et des privilèges adaptés à chacun des profils d'utilisation (concepteur, tuteur, étudiant). Selon ses privilèges, chacun peut éditer les métadonnées d'une unité et évaluer certaines ressources. La navigation dans le macro-graphe se fait selon la visualisation HyperTree. Pour ce qui est des cas d’utilisation, nous pouvons imaginer un étudiant souhaitant parcourir certaines unités. Il emprunte pour cela une navigation "libre" en visitant des unités selon son choix. Les événements seront tracés en termes de chemins parcourus. Un autre cas d’utilisation serait de suivre un parcours proposé par un enseignant, et regarder si l'étudiant l'a bien suivi ou s'il a eu recours à d'autres unités. 100 HyperTree ForceDirected Rgraph 10 1 2000 3000 4000 5000 Nombre de noeuds du graphe Figure 7 : Temps d'exécution selon le type de visualisation Conclusion Nous avons présenté une approche permettant d'établir des liaisons entre les activités de conception ou d'édition des ressources d'apprentissage et les activités de navigation. Cela s'inscrit d'une part dans l'aide à la navigation dans un graphe de ressources interdépendantes notamment à travers la bibliothèque JIT qui propose une navigation dynamique, et de l'autre dans l'aide à la conception et l'édition de ces ressources. Ces activités qui concernent des acteurs différents (concepteurs, tuteurs et apprenants) peuvent être liées pour permettre une évolution du graphe des unités comme ressource globale d’apprentissage. Le prototype qui est en cours de développement mettra en œuvre la validation des unités par les apprenants et le mécanisme de traçage des activités. Nous envisageons d'impliquer les concepteurs et les étudiants dans une démarche participative. Cette démarche participative permet de confronter le prototype avec les usagers finaux. Nous tiendrons compte du retour d'usage sans pour autant nous attarder sur les aspects plus fins d’IHM et d’ergonomie. 79 Mahdi Mile Références Livres Paquette, G. (2002). L'ingénierie du téléapprentissage, pour construire l'apprentissage en réseaux, Presses de l'Université du Québec, mai 2002, 490 pages. Articles de Revue Brusilovsky, P. (1999). Adaptive and Intelligent Technologies for Web-based Education. In C. Rollinger and C. Peylo (eds.), Special Issue on Intelligent Systems and Teleteaching, Künstliche Intelligenz, 4, 19-25. Burgos, D., Arnaud, M., Neuhausser, P., & Koper, R. (2005). IMS Learning Design : la flexibilité pédagogique au service des besoins de l’e-formation. Revue de l’EPI. Choquet, C., et Iksal, S. (2007). Modeling tracks for the model driven reengineering of a tel system. Journal of Interactive Learning Research, vol. 18, p. 161-184. Djouad, T., Settouti, L. S., Prié, Y., Reffay, C., Mille. A. (2010). Un Système à Base de Traces pour la modélisation et l’élaboration d’indicateurs d’activités éducatives individuelles et collectives. Mise à l’épreuve sur Moodle. In TSI. 29(6). pp. 721-741. Nash, S. S. (2005). Learning objects, learning object repositories, and learning theory: Preliminary best practices for online courses. Interdisciplinary Journal of Knowledge and Learning Objects, 1, 217–228. Pernin, J.-P. (2003). Objets pédagogiques : unités d’apprentissage, activités ou ressources ?, Revue Sciences et Techniques Educatives, Hors série Ressources numériques, XML et éducation, pp 179210, avril, éditions Hermès. Wiley, D., & Gurrell, S. (2009). A decade of development… Open Learning: The Journal of Open and Distance Learning, 24(1), 11-21. Actes de Conférences Catteau, O., Vidal, P. & Broisin, J. (2007). A 3D Representation of Relationships between Learning Objects. In C. Montgomerie & J. Seale (Eds.), Proceedings of World Conference on Educational Multimedia, Hypermedia and Telecommunications 2007 (pp. 4262-4271). Chesapeake, VA: AACE. 80 Heraud J.-M., Marty J.-C., France L., Carron T. (2005). Helping the Interpretation of Web Logs : Application to Learning Scenario Improvement. Workshop AIED’05, Amsterdam. Herman, I., Melancon, G., & Marshall, M. S. (2000). Graph visualization and navigation in information visualization: A survey. IEEE Transaction on visualization and computer graphics, 6(1), 24–43. Klerkx, J., Duval, E., & Meire, M. (2004). Using information visualization for accessing learning object repositories. Eighth International Conference on Information Visualisation. April 2004. (p. 465–470). Klerkx, J., Meire, M., Ternier, S., Verbert, K., & Duval, E. (2005). Information visualisation: towards an extensible framework for accessing learning object repositories. Proceedings of World Conference on Educational Multimedia, Hypermedia & Telecommunications (p. 4281–4287). Miled, M. (2011). Les ressources complexes pour l’apprentissage: comment exploiter les traces d’utilisation et soutenir l’édition collaborative? Poster à la Conférence EIAH 2011, Mons, Belgique. Nogry, S., Jean-Daubias, S. & Ollagnier-Beldame, M. (2004). Évaluation des EIAH: une nécessaire diversité des méthodes. Proceedings of TICE (p. 265–271). Ortiz, P. (2012). Hypermédia adaptatif à épistèmes pour l'apprentissage des langages de programmation. Poster à RJC EIAH 2012, Amiens. Wolpers M., Memmel, M., Klerkx, J., Parra, G., Vandeputte, B., Duval, E., Schirru, R., and Niemann, K. (2008). Bridging Repositories to form the MACE Experience, New Review of Information Networking, 14:102–116, Taylor & Francis Group, LLC. Références sur le web Connexions - Sharing Knowledge and Building Communities http://cnx.org/ Gephi - Gephi, an open source graph visualization and manipulation software http://gephi.org/ PythonLearn Self-paced http://www.py4inf.com learning Python SCORM - Advanced Distributed Learning Initiative http://www.adlnet.org Amiens – 23 et 24 mai 2012 Intégration de raisonnements automatiques dans le système d’annotation MémoNote Hakim MOKEDDEM Ecole National Supérieure d’Informatique ESI BP 68 M Oued -Smar 16270, Alger, Algérie [email protected] Résumé Les raisonnements automatiques dans les EIAH se font à l’aide des programmes ad hoc, ces programmes sont parfois complexes à écrire et ne garantissent pas toujours la correction des résultats et la décidabilité. Nous proposons dans cet article des cas d’utilisations basés sur les raisonnements automatiques dans le logiciel d’annotation MémoNote en utilisant les standards du web sémantique. L’utilisation des raisonneurs standards permet d’éviter d’écrire des programmes ad hoc pour répondre aux cas d’utilisations. L’intégration de ces standards est évaluée selon l’interopérabilité avec d’autres systèmes, la complétude, la correction et la complexité ainsi que les fonctionnalités limitées du système. Des problèmes restent à étudier comme la complexité du système et son utilisation avec un grand nombre d’utilisateurs. MOTS CLÉS. Annotation sémantique, raisonnements automatique, web sémantique. Introduction L’annotation est l’une des activités les plus pratiquées parmi les enseignants sur les documents papier. Elle lui sert de mémoire externe qui soulage sa propre mémoire (Sperber 2001). Elle conserve ses opinions attachées au document sans utiliser de structure formelle. Avec la grande disponibilité des supports pédagogiques électroniques sur le web, l’annotation électronique devient nécessaire comme sur le papier. Pour pouvoir être traitée par des programmes informatiques, elle doit reposer sur une structure formelle tout en conservant la facilité d’annotation du papier. Plusieurs outils d’annotations existent dans la littérature. Certains visent uniquement à aider l’annotateur à utiliser une forme graphique pour ajouter des explications sur le document, comme Microsoft Word et iMarkup (iMarkup-SolutionsInc 2004). D’autres permettent l’interprétation de la sémantique des annotations par le logiciel 4ièmes Rencontres Jeunes Chercheurs en EIAH comme Annotea (KAHAN et al. 2001). Enfin des outils comme Melita (Ciravegna et al. 2002) automatisent le processus d’annotation par apprentissage automatique d’après les actions de l’utilisateur. Tous ces outils sont génériques et ne permettent pas de supporter les activités spécifiques d’annotation de l’enseignant d’où la nécessité de concevoir un outil d’annotation dédié à l’enseignant. C’est la raison du développement de MémoNote (Azouaou et Desmoulins 2006). Par l’usage de patrons d’annotation, il facilite la création efficace d’annotations dans un contexte pédagogique donné tout en mémorisant une sémantique accessible aux programmes informatiques. Il permet ainsi la recherche avec une sémantique pédagogique et la notification automatique des annotations de rappels en fonction du contexte. Cependant, la version actuelle de MémoNote est contrainte par des limites liées aux technologies non standards sur lesquelles il repose. En effet, MémoNote utilise la version de Protégé 3.x du langage Frame (Kifer et Lausen 1995) pour représenter les ontologies, ce qui limite l’interopérabilité avec d’autres systèmes. Ce langage ne garantit pas la correction des réponses aux requêtes faites sur l’ontologie, ni leur complexité, ce qui entraine des performances variables. La complétude des réponses n’est pas non plus assurée avec ce langage. A tous ces problèmes s’ajoute le problème des fonctionnalités limitées de la version actuelle de MémoNote. L’objectif de cet article est d’étudier l’intégration des technologies standards du web sémantique (Berners-Lee 1998) comme OWL (McGuinness et van Harmelen 2004) pour modéliser l’ontologie annotation afin de l’utiliser avec des systèmes de raisonnements standards et ainsi d’obtenir l’interopérabilité de MémoNote, la complétude et la correction des réponses ainsi que des bonnes performances du système. Pour atteindre ces objectifs, nous étudions en détail les limites de MémoNote et des autres systèmes pédagogiques utilisant des 81 Hakim Mokeddem raisonnements automatiques. Nous décrivons ensuite les besoins fonctionnels de l’enseignant en termes de cas d’utilisations qui montrent la nécessité de raisonnements automatiques. Pour implanter les requêtes correspondant à ces besoins, nous développons l’utilisation de requêtes basées sur des langages standards. Enfin nous évaluons cette utilisation de standards de représentation et de raisonnement automatique. 1. Limite des systèmes pédagogiques basés sur des raisonnements sur les ontologies. MémoNote mémorise les annotations à partir d’une ontologie des annotations. Cette ontologie permet de représenter les éléments de l’annotation de l’enseignant suivants : - Le contexte de l’annotation est représenté par les données de la séance d’annotation, qui est décrite par son enseignant, son lieu, ses dates de début/fin, son domaine et niveau d’apprentissage, son type d’activité d’enseignement et d’apprentissage. - L’épisode d’annotation comprend l’ancre d’annotation dans le document et sa date. - La forme graphique comprend la forme graphique et la couleur de l’annotation. - L’objectif de l’annotation est décrit par son type, sa force et des éléments liés à son type. Pour automatiser l’annotation, MémoNote utilise des patrons d’annotation qui permettent de déduire la sémantique de l’annotation à partir de son contexte et de sa forme graphique. Les patrons sont eux aussi représentés par une ontologie qui se réfère aux éléments de l’ontologie d’annotation. Le langage de Frame de la version actuelle de MémoNote permet de représenter les éléments de ces ontologies sous forme de classes et propriétés (slots) qui décrivent les classes et les relations entre ces classes. Cependant aucun raisonneur standard n’est fourni avec ce langage, ce qui nécessite le développement de programmes de raisonnement ad hoc. Aucun résultat théorique n’existe sur ce type de langage, ne permettant pas de garantir la correction, la complétude voire même les performances de ces programmes complexes à développer. Dans le domaine des EIAH, d’autres recherches utilisent les raisonnements automatiques sur les ontologies. (Henze et al. 2004) utilisent des raisonnements dans un système hypermédia adaptatif d’apprentissage en ligne. Le système utilise des ontologies RDF (Lassila et Swick 1999) pour modéliser les ressources pédagogiques, les utilisateurs et les observations faites sur les 82 supports pédagogiques. Pour raisonner, le système utilise le langage de règle TRIPLE RULE LANGUAGE (Decker et al. 2005). L’inconvénient de ce langage est l’écriture manuelle de toutes les règles pour assurer l’inférence. L’autre inconvénient est la difficulté d’exprimer des règles complexes avec ce langage. Par exemple, pour adapter le contenu à l’apprenant, le système doit afficher tous les bons exemples des concepts d’un cours, la règle consiste à rechercher tous exemples qui sont en relation avec tous les concepts du cours. Les recherches de (Huang et al 2006) ont abouti à l’implémentation d’un système de recherche sémantique des contenus pédagogiques d’un système d’apprentissage en ligne à partir du contexte. Le contexte est modélisé avec le langage RDF sous forme de triplet (sujet, prédicat, objet). L’utilisateur effectue ainsi la recherche à partir du contexte en spécifiant les paires (prédicat, objet) et le système extrait ensuite le contenu approprié. Par exemple pour rechercher un contenu à partir du contexte, l’utilisateur choisit comme objet différents contextes (université, forum, …), et le système lui affiche le contenu qui correspond exactement à ce contexte. L’inconvénient de ce système est la simplicité des requêtes faites et aucun raisonnement automatique n’est effectué. A partir de ces études, nous constatons que l’utilisation des raisonnements avec les technologies du web sémantiques dans les outils d’apprentissage est limitée. Et pourtant, comme nous montrons dans la section suivante, les raisonnements automatiques sur l’annotation et son contexte sont nécessaires pour fournir des services profitant pleinement de la sémantique formelle des annotations. Notre objectif est donc et d’étudier les capacités de raisonnements avec les technologies standards sur l’outil d’annotation MémoNote et la résolution des problèmes rencontrés en implémentant ces types d’inférences. Enfin nous évaluons cette utilisation de standards de représentation et de raisonnement automatique et le comparons aux travaux similaires. 2. Les besoins en raisonnement Pour définir les besoins en raisonnement, nous présentons maintenant des cas d’utilisations améliorant les fonctionnalités de MémoNote. Recherche d’annotations à partir d’un contexte. Cette recherche permet à l’enseignant de retrouver les annotations produites dans un Amiens – 23 et 24 mai 2012 Raisonnements dans MémoNote contexte sémantiquement équivalent à un contexte donné. Par exemple l’enseignant recherche les annotations telles que leur auteur est dans la classe des enseignants affectés au cours CH213 et tels que le lieu de leur séance d'annotation est à Grenoble campus. Le but de cette recherche est de retrouver les annotations produites dans tous les lieux inclus dans Grenoble campus. Recherche d’annotations à partir d’un objectif. Pour chaque annotation, l’enseignant renseigne le but pour lequel l’annotation est créée. Il peut ensuite retrouver les annotations qui ont un objectif similaire à objectif donné. Par exemple, il peut rechercher les annotations du groupe d’enseignants affectés au TP CH113 telles que l’intention de l’annotation est la vérification d’un calcul chimique. Suggestions de patron d’annotation L’utilisation des patrons d’annotation est importante pour l’enseignant. Ça lui permet d’automatiser le processus d’annotation. Avec la suggestion automatique de patron le système active automatiquement le patron à utiliser selon la forme graphique choisie et le contexte d’annotation. L’enseignant ne renseigne donc pas à chaque fois l’objectif de l’annotation, c’est le rôle du patron. Dans la partie suivante nous décrivons les raisonnements automatiques nécessaires à ces cas d’utilisations. 3. Raisonnements automatiques Nous commençons par présenter la représentation des annotations sur laquelle les raisonnements automatiques reposent. L’annotation est représentée par la classe Annotation et des sous-classes pour chacun des types d’objectifs (domaine, document et pédagogique). Elle est reliée à la classe Session (représentant le contexte de l’annotation) via la propriété made_during et à la classe Visual_Shape qui représente la forme graphique par la propriété has_visual_shape. Différentes classes représentent les éléments du contexte : le lieu de l’annotation (classe Location) relié au contexte par la propriété made_at_location. Chaque lieu peut être inclus dans un autre par la relation is_part_of. Les patrons d’annotations sont représentés par la classe AnnotationPattern. La classe AnnotationPattern est reliée aux classes Visual_Shape et Objective, ainsi qu’à toutes les classes qui représentent le contexte. Avec les langages de requête du web sémantique, on ne peut pas extraire toutes les 4ièmes Rencontres Jeunes Chercheurs en EIAH instances d’annotations pour chaque cas décrit. Par exemple, pour répondre à la première requête, si on utilise SPARQL (Prud’hommeaux et Seaborne 2008) le système extrait les annotations qui ont une relation made_at_location exactement égale à « Grenoble Campus » et non tous les lieux qui font partie du campus de Grenoble (par la relation is_part_of). L’utilisation d’un raisonneur pour faire l’inférence devient alors une nécessité. Le raisonneur permet ainsi d’extraire de nouvelles relations entre les classes, et de déduire de nouveaux types d’instances à partir de tout ce qu’on définit initialement dans l’ontologie. Nous détaillons maintenant les trois cas d’utilisations décrit précédemment d’un point de vu raisonnement automatique avec l’ontologie annotation écrite en OWL Recherche d’annotations à partir d’un contexte. Pour extraire toutes les annotations du cours CH213 qui ont eu lieu à Grenoble Campus, il faut utiliser la composition de la propriété made_at_location qui relie la classe Session à la classe Location et la propriété is_part_of qui relie la classe Location à elle-même. Session made_at_location Location et Location is_part_of Grenoble_campus->session made_at_location Grenoble campus. On extrait ensuite toutes les annotations de la session « Session » avec la propriété made_during. Avec OWL 1 on ne peut pas raisonner avec la composition de propriété chainée (Property chain). Il aurait fallu utiliser des règles, comme celles de SWRL (Horrocks et al. 2004). Avec SWRL on rajoute une règle à OWL et on utilise le raisonneur standard Pellet (Sirin et al.2003) qui utilise cette règle pour faire l’inférence. On implémente la règle SWRL à l’aide de l’éditeur Protégé (Noy et al. 2000). Protégé valide la règle et l’intègre dans le fichier OWL de l’ontologie. Pour extraire ensuite toutes les annotations de la session « Session » avec la propriété made_during on utilise le langage SPARQL. Recherche d’annotations à partir d’un objectif. Pour extraire les annotations qui ont pour objectif domaine « Vérification d’un calcul chimique » on utilise le raisonneur standard Pellet, pour extraire les annotations qui ont comme value de la propriété has_objectif une sous classe de la classe « Domain objectif». SPARQL ensuite vérifie si l’instance de chaque classe est exactement égale à « vérification d’un calcul chimique ». Suggestion de patrons d’annotations 83 Hakim Mokeddem Pour suggérer des patrons d’annotations, le raisonneur effectue une comparaison sémantique de type classe / sous-classes entre les différentes classes concernées (classe du contexte et de la forme graphique). Il commence par le contexte, il extrait tous les patrons ayant un contexte équivalent au contexte de la session courante. Il raisonne ensuite sur la forme graphique en inférant les classes ayant une forme graphique équivalente à la forme graphique de l’annotation. Pour répondre à cette requête, on utilise Pellet et SPARQL pour extraire les patrons qui correspondent au contexte de la session et à la forme graphique de l’annotation. 4. Evaluation Dans cette partie nous évaluons les solutions proposées dans cet article par rapport aux points soulevés dans l’introduction à savoir l’interopérabilité, la correction, la complétude et complexité et les fonctionnalités limitées et nous les comparons avec d’autres systèmes d’annotation et d’outil EIAH. Certains outils utilisent des langages standards comme l’environnement d’apprentissage TM4L (Dicheva et Dichev 2006) basé sur les Topic Maps (Biezunski et al. 1999). Elles permettent de représenter une ontologie sous forme de sujets du domaine (Topics) et des occurrences (instances des Topics). Cette représentation est basée sur la norme XTM (XML Topic Maps). Ce standard est rarement utilisé parmi les systèmes actuels à cause de ses limites en termes d’utilisations de raisonneurs standards fournis par rapport aux standards du W3C comme OWL. Notre système assure donc l’interopérabilité avec l’utilisation des langages du W3C et qui sont recommandés. Avec l’utilisation des raisonneurs standards sur OWL DL on s’assure que toutes les réponses des requêtes de l’utilisateur sont correctes. Les raisonneurs OWL vérifie ainsi la consistance de l’ontologie grâce aux contraintes définies. Quant à la complétude du système, avec OWL DL on peut exprimer tout le domaine de connaissances, répondre à toutes les requêtes de l’utilisateur grâce aux raisonneurs fournis. La question qui n’est pas encore résolue concerne la complexité de notre système. C'està-dire le coût obtenu en exécutant les requêtes par un raisonneur. En réalité, ces raisonneurs ne fournissent pas une telle information qui sert à étudier la performance de notre système actuel. Les fonctionnalités rajoutées à MémoNote augmentent l’utilisabilité de notre système. En effet, le rajout de la recherche automatique à partir du contexte ou l’activation automatique 84 des patrons lors de la création des annotations facilitent la tâche de l’enseignant en recherchant des annotations précédentes ou en annotant, mais l’enseignant a toujours besoins d’un outil plus puissant qui l’assiste dans ses activités d’annotations. Conclusion et perspectives Pour se servir de la sémantique des annotations de MémoNote, des raisonnements automatiques sont nécessaires. Ces programmes de raisonnements ne sont faciles à implémenter si nous n’utilisons pas des standards implémentant ces services de raisonnements. Nous avons proposé dans cet article d'utiliser des technologies standard plutôt que les approches ad hoc développées. Ainsi pour modéliser l’ontologie annotation, on a utilisé le langage OWL qui fournit une bonne base pour les raisonnements automatiques. L’utilisation de OWL permet ainsi de profiter de la disponibilité de raisonneurs standards comme Pellet. Avec ces standards on s’assure déjà de l’interopérabilité du système avec l’utilisation des technologies W3C. MémoNote s’intègre et communique facilement avec n’importe quel raisonneur OWL et système d’apprentissage utilisant ces standards qui permettent ainsi de fournir à MémoNote des requêtes sémantiques qui correspondent mieux aux besoins. Les raisonneurs standards sur OWL ont des propriétés bien établies : la complétude et la correction des raisonnements. En effet, on peut exprimer toutes les requêtes des utilisateurs avec un raisonneur OWL. On peut aussi prouver que toutes les réponses sont correctes ou non, car les raisonneurs OWL utilise le sous langage OWL DL basé sur la logique de description mathématique. Les nouveaux standards utilisés ont abouti à l’implémentation de nouvelles fonctionnalités pour l’enseignant. Ces fonctionnalités correspondent vraiment à des besoins pour les enseignants qui utilisent MémoNote. La recherche contextuelle sémantique des annotations permet à l’enseignant de retrouver les annotations produites dans un contexte sémantiquement équivalent au contexte de la recherche. La suggestion des patrons permet d’assister l’enseignant dans le processus de création de l’annotation en renseignant l’objectif de l’annotation d’une façon automatique. Dans nos perspectives de recherche, la question de complexité n’est pas bien établie. Nos raisonnements sont basés sur des raisonneurs qui ne fournissent pas des Amiens – 23 et 24 mai 2012 Raisonnements dans MémoNote informations théoriques sur la complexité de leurs programmes. Il est nécessaire donc de développer l’étude des performances sur nos requêtes et nos données. Le stockage des annotations dans des fichiers externes cause également beaucoup de problèmes de performances d’accès et de réponse. Un autre problème est lié aux conditions ACID (Atomicité, Cohérence, Isolation et Durabilité) des requêtes des utilisateurs. L’étude de l’intégration avec des systèmes de gestion des bases de données relationnelles comme Oracle (http://search.oracle.com ) ou Virtuoso (Erling et Mikhailov 2007) qui intègre les technologies du web sémantique comme RDF et OWL et qui assure à la fois les propriétés ACID et les bonnes performances. Une autre perspective concerne les besoins des enseignants. Une étude plus poussée des besoins avec des cas bien précis doit être menée pour déterminer si d’autres technologies comme OWL 2.0, SWRL et Pellet sont nécessaires. Et voir si ces technologies fournissent tout pour répondre à ces besoins, et si on a besoin de développer des programmes propres à nous dans ces cas. Références Azouaou,F. ;Desmoulins, C.2006. MemoNote, a context-aware annotation tool for teachers. In the 7th International Conference on Information Technology Based Higher Education and Training (ITHET´06), pp. 621-628. Berners-Lee T. 1998. Semantic Web Roadmap. World Wide Web Consortium (W3C) http://w3.org/DesignIssues/Semantic.html Biezunski, M.;Martin,B.; Steven R. Newcomb.1999.Topic Maps: Information Technology Document Description and Markup languages,. http://www.y12.doe.gov/sgml/sc34/document/01 29.pdf Ciravegna, F.; Dingli, A.; Petrelli, D.; Wilks, Y. "Timely and Non-Intrusive Active Document Annotation via adaptive Information Extraction", in Proceedings of the Semantic Authoring, Annotation & Knowledge Decker S. et al. 2005 TRIPLE - an RDF Rule Language with Context and Use Cases. In W3C workshop on Rule languages for interoperability, Washington D.C., USA. Dicheva, D. ; Dichev, C. 2006.TM4L: creating and browsing educational Topic Maps, British Journal of Educational Technology - BJET 37(3): 391-404 Erling ,O.; Mikhailov, I. 2007. RDF Support in the Virtuoso DBMS, in: CSSW. 4ièmes Rencontres Jeunes Chercheurs en EIAH Henze, N.; Dolog, P; Nejdl, W.2004. reasoning and ontologies for personalized elearning in the Semantic Web. Educational Technology & Society, 7, 4, 82–97. Horrocks, I.; Patel-Schneider, P.F; Boley, H.; Tabet, S., Grosof, B.; Dean, M. 2004 . SWRL: A semantic web rule language combining OWL and RuleML. http://www.w3.org/Submission/2004/SUBMSW RL-20040521/ Huang, W.; Webster, D.; Wood, D.; Ishaya, T. 2006b. An intelligent semantic e-learning technologies, British Journal of Educational Technology, Vol. 37 No. 3, pp. 351-73. iMarkup-Solutions-Inc. iMarkup client Vista, California, USA. Année d’accès 2012. URL du document http://www.imarkum.com Kahan,J.;Koivunen,M.R.; Prud'hommeaux, E.;Swick, R.2001.Annotea: An Open RDF Infrastructure for Shared Web Annotations. In The Tenth International World Wide Web Conference, Hong Kong, May, pp. 623-632 http://www10.org/cdrom/papers/488/index.html Kifer, M.; Lausen, G.;Wu, J. 1995. Logical Foundations of Object- Oriented and FrameBased Languages. Journal of the ACM. Lassila, O.; Swick, R. 2002. Resource Description Framework (RDF) Model and Syntax Specification. W3C Proposed Recommendation.. http://www.w3.org/TR/PRrdf-syntax. Markup Workshop (SAAKM) McGuinness, D.L; van Harmelen, F. 2004. OWL Web Ontology Language Overview, World Wide Web Consortium (W3C) recommendation, Feb.; www.w3.org/TR/owlfeatures. Noy, N.F.; et al. 2003. Protégé-2000: an opensource ontology-development and knowledge acquisition environment, AMIA Annu Symp Proc. p. 953. Prud’hommeaux,E.;Seaborn,A.2008. SPARQL Query Language for RDF. W3C Recommendation 15 January. http://www.w3.org/TR/rdf-sparql-query/ Sirin, E.; Parsia, B.;Cuenca, B.; Kalyanpur, A.; Katz, Y. 2003.Pellet: A Practical OWL-DL reasoner. submitted for publication to Journal of web semantics. Sperber, D. 2001. L’individuel sous influence du collectif", in La Recherche, vol. 344, pp. 3235. 85 Hakim Mokeddem 86 Amiens – 23 et 24 mai 2012 Modélisation outillée d’une stratégie contextualisée d’observation dans le cadre d’un environnement d’apprentissage Mohand Akli OUALI LUNAM Université, Université du Maine, LIUM (Laboratoire d’Informatique de l’Université du Maine) Avenue Olivier Messiaen, 72085 LE MANS CEDEX 9, France [email protected] Résumé De nombreux travaux de recherche s’intéressent à l’observation dans un environnement d’apprentissage. Notre travail s’inscrit dans cette ligne de recherche sur l’observation et l’étude des traces d’usage. L’originalité de nos travaux consiste en la proposition de la notion de stratégie d’observation qui nous amène à repenser l’observation en terme de scénario d’observation. Nous présentons, dans cet article, une introduction à notre travail de recherche et une idée générale de notre problématique et des travaux à réaliser. scénario, d’où la nécessité de lui donner des moyens permettant à la fois de comprendre les résultats de l’observation et d’exprimer l’évolution de ses besoins d’observation en fonction de la nouvelle situation adaptée lors du travail de réingénierie. Le traitement de ces données collectées en session d’apprentissage peut aussi intervenir après celle-ci (Mazza et Milani 2004). De nombreux travaux existent dans ce contexte mais la plupart nécessitent l’intervention d’un spécialiste du domaine (informaticien) pour assister l’enseignant dans l’expression de ses besoins d’observation et dans la compréhension des résultats d’observation pour l’amélioration du scénario d’apprentissage conçu initialement (Pernin et Lejeune 2004). Introduction L'observation des situations d'apprentissage dans un environnement informatique pour l’apprentissage humain est basée sur le traitement des données collectées durant le déroulement de la situation d'apprentissage (Loghin 2006). Le processus de production d’un EIAH doit intégrer une phase d’observation et d’analyse des usages, destinée à informer les concepteurs sur la qualité de la situation pédagogique mise en œuvre (Choquet et Iksal 2007). En interprétant les résultats de l’observation, un enseignant, dans son rôle de tuteur, peut guider l'activité d’apprentissage en essayant de comprendre les dysfonctionnements éventuels en rapport avec le scénario pédagogique conçu (Settouti et al. 2007). Il peut alors adapter la session, introduire des aides personnalisées et fournir des supports pédagogiques adaptés en fonction des comportements et des styles d’apprentissage des différents apprenants. Un enseignant concepteur peut exploiter les traces dans un travail de réingénierie du scénario pédagogique pour un meilleur déroulement de la session d’apprentissage (Djouad et al. 2010). Certains aspects de l’apprentissage ne peuvent être mesurés qu’en cours de session, comme, par exemple, le temps de réponse à une question, la part de travail individuel réalisé par chaque apprenant et la part du travail collaboratif entre différents apprenants échangeant des informations via les supports de communication offerts par la plateforme d’apprentissage. Ceci pourrait amener l’enseignant à des interventions en cours de session pour adapter son 4ièmes Rencontres Jeunes Chercheurs en EIAH Contexte de Recherche Notre travail s’inscrit dans le cadre de la chaine éditoriale de l’observation dans un Environnement Informatique pour l’Apprentissage Humain (EIAH) (Iksal 2011). Durant le déroulement de la situation d'apprentissage, l'observation a pour but de collecter des informations sur l'activité réalisée par les sujets observés. Notre travail sur l’observation de l’utilisation d’un EIAH nous conduit à considérer la terminologie relative à ce champ d’activité (Choquet 2007) : La trace : ensemble de données collectées par un dispositif d’apprentissage. Ces traces sont enregistrées, par exemple, dans des fichiers de « logs ». L’observable et l’observé : l’observable est toute variable définie comme devant être valuée par l’observation de l’utilisation d’un EIAH. L’observé est toute valeur d’observable. L’indicateur : un indicateur est un observable signifiant sur le plan pédagogique, calculé ou établi à l’aide d’observés, et témoignant de la qualité de l’interaction, de l’activité et de l’apprentissage dans un EIAH. Les objectifs de l’observation des sessions d’apprentissage peuvent être multiples pour un même acteur, ou d’un acteur à un autre. Par exemple, pour le concepteur, l’un des objectifs est d’avoir un feedback, une information précise et exploitable pour ce qui est de la convergence entre le scénario pédagogique conçu et le déroulement effectif de la session d’apprentissage. Pour le tuteur, l’un des objectifs serait d’avoir une visibilité sur la prise en compte par les apprenants des ressources mises à leur disposition et sur leurs productions pour les accompagner dans leur processus d’acquisition des connaissances. L’apprenant pourrait 87 Mohand Akli Ouali avoir aussi besoin de vérifier son état d’avancement et sa situation dans le groupe, comme il peut utiliser sa propre trace à postériori pour comprendre sa démarche, etc. Ces différents objectifs d’observation nécessitent la mise au point d’une stratégie pour le suivi ainsi que l’analyse du déroulement et des échanges au cours d’une session d’apprentissage. La diversité des environnements de développements, des plateformes d’apprentissage et des techniques de collecte des traces a fait que la définition des stratégies d’observation et l’interprétation des résultats de l’observation sont difficiles. Dans le cadre des travaux sur la réingénierie des EIAH, Choquet et Iksal (Choquet et Iksal 2007) ont proposé un langage de description formelle des indicateurs pédagogiques. Le langage UTL (Using Tracking Language) proposé, permet, en partant de l’expression du besoin d’observation, de bâtir un indicateur à partir des données brutes de manière indépendante du langage utilisé pour la définition du scénario pédagogique et du format dans lequel les traces sont représentées. Diem Pham Thi Ngoc dans sa thèse (Pham Thi Ngoc 2011) propose un langage (DCL4UTL : Data Combination Language for UTL) qui est une extension d’UTL pour permettre une description formelle des méthodes de calcul automatisé des indicateurs à partir des traces collectées et des besoins d’observation exprimés à l’aide d’UTL. La formalisation des indicateurs les rend capitalisables et éventuellement réutilisables. Autrement dit, cette manière de procéder permet de stocker les indicateurs pour une exploitation future et une réutilisation sans redéfinir, à nouveau, les données nécessaires à leur calcul. Boubekeur Zendagui, dans sa thèse (Zendagui 2010), s’est interrogé sur la manière de faciliter pour l’enseignant l’expression de ses besoins d’observation et a proposé un outil graphique (ProtON : Prototype for the specification of Observation Needs) permettant de définir ces besoins d’observation en s’appuyant sur les informations spécifiées dans un contexte particulier en lien avec le scénario pédagogique. UTL offre à l’enseignant la possibilité d’exprimer ses besoins d’observation de manière textuelle puis un analyste se charge de la définition des données nécessaires au calcul de l’indicateur. ProtON offre une interface graphique permettant de définir les besoins et les objectifs d’observation mais ne permet pas de spécifier d’autres observables, en cours de session, que ceux prédéfinis. Avec DCL4UTL, le calcul des indicateurs est formalisé et automatisé mais les résultats retournés à l’enseignant sont sous une forme textuelle (voire texte structuré comme XML) réduisant ainsi les possibilités d’exploitation de l’information par le concepteur. Notre travail s’inscrit dans la perspective d’apporter aux acteurs du système d’apprentissage, et notamment à l’enseignant concepteur, un ensemble d’outils permettant de définir des stratégies d’observation de manière autonome à partir d’une interface de visualisation ergonomique et intuitive et ce avant, pendant ou après la session d’apprentissage. Le 88 destinataire de l’observation récupère les résultats du calcul des indicateurs à partir de son interface de visualisation. Le travail à réaliser doit permettre de capitaliser, autrement dit de stocker et de sauvegarder les stratégies d’observation pour qu’elles puissent être réutilisées. La solution à proposer doit garantir aussi l’extensibilité des stratégies d’observation qui consiste en la possibilité d’ajouter des indicateurs aux stratégies définies précédemment afin de les adapter à un nouveau contexte d’observation. Notre objectif dans le cadre de cette thèse consiste à proposer un langage, couplé à UTL, permettant de spécifier des stratégies d’observation. Pour des raisons de complexité de manipulation de ce langage, notamment par des non informaticiens, il sera également nécessaire de développer un éditeur graphique pour la définition des stratégies d’observation et de proposer des outils de visualisation pour faciliter l’interprétation des résultats de l’observation. Identification des besoins Il existe, dans la littérature scientifique, des travaux de recherche qui se sont intéressés à l’observation et à la mise à disposition des destinataires des résultats de l’observation, d’outils permettant une meilleure interprétation de ces résultats. L’outil « REFLET » (Després et Coffinet 2004) permet de visualiser l'évolution du travail d’un apprenant ou d’une promotion d’apprenants en formation ouverte à distance. Les interfaces tuteurs et apprenants sont quasiment les mêmes. Le tuteur peut visualiser l’état d’avancement d’un apprenant dont il a la charge ou comparer l’avancement de tous les apprenants d’un même groupe. Il peut également contre-valider des tâches déjà validées par les apprenants. L’apprenant peut visualiser son état d’avancement dans la réalisation des activités et savoir si une activité validée précédemment a été contre validée par le tuteur. Il peut comparer son état d’avancement à l’état d’avancement des autres apprenants qui restent anonymes à son niveau. « GISMO » (Graphical Interactive Student Monitoring System for Moodle) (Mazza et Milani 2004) permet d’extraire les traces des activités des apprenants sur Moodle et les affiche sous la forme d’un graphe représentant le nombre d’accès aux différentes ressources Moodle et les dates de ces accès par les différents apprenants. Les informations visualisées permettent à l’enseignant de mesurer la popularité des ressources mises à la disposition des apprenants et de détecter les styles d’apprentissages. GISMO permet aussi, à l’enseignant, de visualiser le nombre de messages envoyés ou reçus pour chaque apprenant. L’outil « CourseVis » (Mazza et Dimitrova 2004) est utilisé pour la visualisation 3D des traces issues des plateformes WebCT (WebCT est un spécialiste de la formation en ligne pour universités et grandes écoles. Il édite des solutions de téléformation permettant aux Amiens – 23 et 24 mai 2012 Modélisation outillée d’une stratégie contextualisée d’observation établissements de proposer à leurs apprenants des cours en ligne. WebCT a été rachetée en 2006 par Blackboard et porte désormais le nom de l’acquéreur). Le but de « CourseVis » est de faire des visualisations à partir de calcul d’indicateurs et des mesures statistiques. CourseVis permet aux tuteurs qui n’ont pas un niveau de technicité élevé, de disposer d’une sorte de tableau de bord leur permettant d’analyser le comportement des apprenants distants et leurs échanges. CourseVis peut s’accomoder à plusieurs plateformes. Néanmois, il se limite à la visualisation des indicateurs initialement prédéfinis dans la plateforme qui héberge les ressources pédagogiques en ligne et ne permet pas au tuteur d’exprimer d’autres besoins d’observation spécifiques à une session d’apprentissage particulière. Les travaux réalisés dans (France et al. 2006) sur la visualisation des traces à l’aide des figures de Chernoff permettent aux tuteurs de voir en temps réel les activités des apprenants, les parcours effectués et les activités réalisées ou en cours de réalisation au sein de l'EIAH, et d'adapter l'activité en interagissant directement sur l'interface de visualisation. La représentation des traces par des outils de visualisation permet à l'enseignant/tuteur de comprendre ce qui se passe réellement, pour pouvoir réagir avec pertinence et suivre l’activité des apprenants en session. Dans (May 2009), l’auteur s’intéresse aussi à la visualisation des résultats de l’observation en temps réel. L’observation se focalise sur une activité plus restreinte : l’utilisation d’un forum. Dans ce travail, les traces sont générées par l’apprenant lecteur. Les destinataires des traces sont multiples : l’apprenant, l’enseignant ou le chercheur. La manipulation de la trace est faite en temps réel. Il s’agit de calculer de manière automatique le nombre de messages non lus ou le temps passé pour la lecture d’un message. Dans (Avouris et al. 2007), les auteurs ont étudié les traces des activités en incluant les enregistrements vidéos et audio afin de pouvoir construire une vue complète de l’activité de collaboration et des comportements des apprenants lors d’une situation d’apprentissage, en ne se limitant pas seulement à l’analyse des fichiers de logs. Les auteurs décrivent un outil d’analyse des traces ColAT (Collaborative Analysis Tool). ColAT permet de visualiser les traces sous différentes formes comme les fichiers de logs et les enregistrements vidéo. L’outil Digital Replay System (DRS) présenté dans (Greenhalgh et al. 2007) est une application pour la relecture et l'analyse des combinaisons d’enregistrements vidéo, des transcriptions et des fichiers de logs. DRS a été développé au sein du Digital Records pour l'e-Social Science (DRESS) au cœur du Centre national pour l'E-Sciences Sociales (NCESS). Il utilisé pour l’analyse et l’observation des sessions l'apprentissage, par exemple, via des simulations de sessions d’apprentissage de l’anglais parlé, et même pour l’analyse de la gestuelle. 4ièmes Rencontres Jeunes Chercheurs en EIAH Dans leurs travaux sur l’étude des interactions et la collaboration dans l’apprentissage dans le développement des connaissances (Damsa et Ludvigsen 2010), les auteurs ont conçu des outils d'analyse et d’observation intégrés dans le système KPE (Knowledge Practices Environment ) qui est un environnement web 2.0 offrant un espace virtuel de collaboration entre apprenants. Les traces collectées dans cet environnement ont permis de construire des aperçus généraux sur le nombre et le type de contributions de chaque participant. L’outil développé est doté d’un analyseur visuel des contributions par utilisateur et d’un analyseur chronologique qui permet de représenter les distributions de types de contributions dans le temps. Les travaux de (Goodman et al. 2008), dans le projet MITRE-Sponsored Research (MSR) se sont intéressés à l’étude des échanges entre les intervenants dans une équipe de discussion pour la prise de décision sur une question posée. L’objectif concerne la synchronisation des interventions afin de comprendre la dynamique de la construction des décisions. Pour mener à bien leurs travaux, les chercheurs ont développé un outil d’analyse et d’observation permettant de visualiser les flux de données synchronisés en les représentant sur un axe temporel horizontal. Cet outil a été nommé le Synchronized Analysis Workspace (SAW). La visualisation des flux de données dans SAW permet d’aider les analystes dans leurs processus d’étude et de compréhension des interactions entre les personnes concernées par la prise de décision. ABSTRACT (Analysis of Behavior and Situation for menTal Representation Assessment and Cognitive acTivity modeling) (Georgeon et al. 2006) est un outil permettant d’analyser l’activité d’un acteur humain qui interagit avec un dispositif technique complexe. L’activité est observée et les traces collectées sont modélisées sous la forme d’un graphe. Les traces collectées sont essentiellement constituées de descripteurs d’événements qui se suivent. L’objectif général d’Abstract est de comprendre le comportement d’un utilisateur utilisant un artefact technique complexe. Dans (Morrison et al. 2006), les auteurs présentent la plateforme Replayer qui offre un ensemble coordonné d’outils de visualisation permettant l’analyse et la compréhension d’informations de différentes natures. Replayer combine des outils de visualisation vidéo et des histogrammes ou la représentation d’événements sur un axe temporel horizontal. Tatiana (Trace Analysis Tool for Interaction Analysts) (Dyke et al. 2010) est un environnement logiciel basé sur le modèle de description des activités d’apprentissage collaboratif médiatisé par ordinateur. Ce modèle est conçu pour aider les chercheurs à gérer, synchroniser, visualiser et analyser leurs données. Dans ce travail, les auteurs ont introduit la notion de « rejouable » qui est un type particulier d’artéfacts, temporellement orientés, qui conservent la notion 89 Mohand Akli Ouali d’ordre des évènements. Les rejouables peuvent être visualisés dans deux types d’afficheurs : une forme tabulaire et une visualisation temporelle horizontale. Un mécanisme de plugin permettant d’ajouter de nouvelles formes de visualisations a été intégré dans Tatiana et un éditeur graphique permettant de générer les rejouables a été mis à la disposition des chercheurs afin de ne pas les contraindre à maitriser un langage de requêtes. Tatiana a été intégré à plusieurs travaux de recherches. Dans cette section, nous avons présenté certains travaux de recherche axés sur l’observation des traces d’usage de systèmes informatiques, pour la plupart dédiés à l’apprentissage. Ces travaux ont permis de développer des outils de visualisation des résultats de calcul des indicateurs. Les outils développés permettent de mettre à la disposition des destinataires des résultats de l’observation, des moyens leur facilitant la compréhension des résultats du calcul des indicateurs à partir des traces collectées lors de l’observation des sessions d’apprentissage. Certains de ces outils permettent le suivi des situations d’apprentissage en temps réel (France et al. 2006). D’autres se limitent à la possibilité de visualisation à la fin de la session d’apprentissage (Mazza et Milani 2004). Certains outils combinent plusieurs types de visualisation pour le même indicateur (Avouris et al. 2007), tandis que d’autres optent pour la visualisation des indicateurs suivant l’axe temporel horizontal (Goodman et al. 2008), par des graphes de contingence ou par les figures de Chernoff (France et al. 2006). Quelques outils montrent les possibilités d’analyses des traces assistées par ordinateur mais sont spécialisés à certains types de données et nécessitent d’adapter leur fonctionnement aux EIAH (Greenhalgh et al. 2007). D’autres outils sont destinés plus aux tuteurs afin de leur apporter des éléments pour suivre et superviser une session d’apprentissage qu’aux concepteurs du scénario pédagogique (Després et Coffinet 2004). Ils ne leur offrent, par conséquent, que peu de possibilités d’intervention pour réguler la situation d’apprentissage sans leur donner les moyens de modifier ou d’adapter leur stratégie d’observation au cours d’une session d’apprentissage. Les indicateurs calculés et visualisés pour la plupart ne concernent que l’activité de communication entre les participants à la session (May 2009). Certains travaux se sont limités au développement d’outils spécifiques aux traces générées par une seule plateforme d’apprentissage, ce qui ne permet pas leur exploitation sur d’autres plateformes (Mazza et Dimitrova 2004). On notera aussi que la plupart des outils ne permettent la visualisation que de peu d’indicateurs qui sont portés sur les échanges de messages dans la majorité des cas. Certains travaux ont été validés par un large panel d’expérimentations mais présentent néanmoins des problèmes d’ergonomie et de facilité d’utilisation (Dyke et al. 2010). Problématique Le travail à réaliser dans le cadre de cette thèse porte sur la notion de stratégie d'observation. La stratégie d’observation est propre au destinataire des indicateurs 90 (l'enseignant, l’apprenant, le concepteur). Elle est constituée d'un ensemble d'indicateurs avec leurs interfaces de visualisation, d'un ensemble de règles de composition des indicateurs ainsi que du contexte d'utilisation de cette stratégie. Même si la stratégie d’observation peut évoluer au fur et à mesure des usages, elle doit néanmoins être pensée en amont de la situation d’apprentissage. Elle a pour but de mener de manière efficace l’activité d’observation en mettant à disposition de l’enseignant/concepteur des instruments lui permettant d’exprimer ses besoins d’observation en répondant aux interrogations suivantes : ce qu’il faut observer, le moment de l’observation (pendant la session, après la session, à la réalisation d’une action, etc.), l’objectif de l’observation (évaluation des apprenants, adaptation du scénario pédagogique, suivi d’une session d’apprentissage, etc.), le destinataire de l’observation et la forme de restitution des résultats de l’observation (tableau de bord de l’observation). On cherche à formaliser ces stratégies d’observation et à mettre à la disposition de l’enseignant/concepteur des outils lui permettant de modéliser ses stratégies en fonction du contexte et des objectifs de l’observation. La première question à laquelle il faut répondre dans le cadre de ce travail est la suivante : Comment modéliser la définition des stratégies d’observation par l’enseignant/concepteur ? Le but recherché est de doter l’enseignant concepteur d’un tableau de bord d’observation à partir duquel il pourra manipuler des objets graphiques pour modéliser ses stratégies d’observation de manière autonome (sans l’assistance d’un spécialiste). En effet, il convient de lui éviter toute manipulation technique qui pourrait le contraindre à spécifier des stratégies d’observation en fonction de ses capacités de manipulation et non pas en fonction de ses objectifs d’observation. Le langage à proposer doit permettre à l’enseignant/concepteur de définir ses scénarios d’observation en fonction de la visibilité qu’il veut avoir du déroulement de la session d’apprentissage et en fonction de ses objectifs d’observation. Comment modéliser la scénarisation de l’observation ? Comment accompagner l’enseignant/concepteur dans la spécification de sa stratégie d’observation ? Le tableau de bord à réaliser doit disposer d’un processus d’accompagnement pour la création de modèles ou de profils de stratégies qui seront sauvegardés pour permettre une réutilisation future (imaginons le cas où une même session d’apprentissage est réalisée avec plusieurs groupes d’apprenants et à des moments différents) ainsi que la possibilité de modéliser d’autres stratégies d’observation à partir des profils sauvegardés en ajoutant des indicateurs et en en éliminant d’autres. Ces nouvelles stratégies doivent pouvoir être sauvegardées comme profils de stratégies à leur tour. Les stratégies d’observation modélisées devraient être extensibles. L’extension de ces stratégies pourrait se faire de deux manières : la première consiste en l’ajout d’un ou plusieurs indicateurs parmi Amiens – 23 et 24 mai 2012 Modélisation outillée d’une stratégie contextualisée d’observation les indicateurs prédéfinis et qui n’ont pas été sélectionnés initialement, la seconde serait la définition par l’enseignant/concepteur de nouveaux indicateurs au travers de l’expression de nouveaux besoins d’observation dus à l’évolution des objectifs d’observation. Cette extensibilité est due aussi à la nature du contexte d’utilisation qui nécessite l’adaptation du scénario de l’observation. Comment formaliser la modélisation des stratégies d’observation dans un but de réutilisation ? Comment procéder pour adapter la d’observation au contexte d’utilisation ? stratégie L’un des aspects les plus importants du travail à réaliser est la proposition d’une solution de visualisation graphique des résultats de calcul des indicateurs définis lors de la description de la stratégie d’observation par l’enseignant concepteur. Plusieurs moyens de visualisation seront décrits et modélisés pour chaque indicateur. L’enseignant concepteur devrait disposer d’une palette d’outils pour sélectionner un type de graphique adéquat en fonction de la nature de l’indicateur. Cette tache de sélection est nécessaire surtout pour les indicateurs définis après la mise en place de la situation d’apprentissage. Pour les indicateurs existants, des modèles de visualisation appropriés pourraient être associés à chacun d’eux. L’apprenant pourrait être, aussi, destinataire des résultats du calcul d’indicateurs. Les indicateurs pertinents pour l’apprenant seront choisis par l’enseignant. Si l’indicateur mis à la disposition de l’apprenant fournit des informations sur le groupe, la visualisation faite doit permettre de conserver l’anonymat des autres apprenants. Ceci sous-entend la nécessité d’avoir plusieurs vues d’un même indicateur. La multiplicité des graphiques pouvant être proposés pour la visualisation des indicateurs, la spécialisation des usages de ces graphiques et le souci d’assurer un meilleur choix de visualisation pour une meilleure compréhension et donc une meilleure interprétation nous amène à essayer de répondre à cette question : Comment adapter la forme de visualisation des résultats de l’observation à la nature de l’indicateur ? Dans quelles limites faut-il laisser à l’enseignant le libre choix de personnalisation de la visualisation ? Propositions Les plateformes d’apprentissage sont manipulées par différents acteurs : les tuteurs, les apprenants, les enseignants/concepteurs, etc. où chaque acteur joue un rôle bien précis dans le processus d’apprentissage. Les acteurs de l’EIAH, le concepteur et le tuteur notamment, expriment des besoins d’observation du déroulement des sessions d’apprentissage pour récupérer des informations pouvant servir dans un objectif de réingénierie du scénario pédagogique, d’adaptation ou d’évaluation. 4ièmes Rencontres Jeunes Chercheurs en EIAH Le travail qui sera réalisé dans le cadre de notre thèse va porter sur la proposition de modèles de définition de stratégies d’observation et leur instrumentation pour l’enseignant/concepteur. Pour mener à bien ce travail et répondre aux questions soulevées dans la problématique, plusieurs propositions peuvent être faites : Une première proposition concerne l’instrumentation des utilisateurs de l’EIAH avec un tableau de bord d’observation permettant de répondre à leurs objectifs d’observation. Le tableau de bord ne doit pas avoir une interface figée dans le temps mais l’éditeur de stratégies à proposer devra permettre de générer dynamiquement le tableau de bord et ce en fonction du scénario de stratégie d’observation conçu par l’acteur concerné par la demande d’observation. La génération dynamique du tableau de bord se fera soit à la modélisation d’une nouvelle stratégie d’observation soit à l’adaptation ou à l’évolution d’une stratégie d’observation spécifiée auparavant et capitalisée. Une seconde proposition concernerait la méthode de visualisation des indicateurs calculés. Pour cela, la méthode de visualisation et les graphiques appropriés pour chaque indicateur seront prédéfinis. Cette prédéfinition sera basée sur le choix des graphiques qui conviennent le plus à la nature de l’indicateur et qui servirait mieux les objectifs ayant conduit au calcul de l’indicateur. Une caractérisation des indicateurs sera, du fait, nécessaire en apprenant, par exemple, leur évolution en fonction du temps ou s’ils ciblent un individu ou un groupe. Cette présélection des outils de visualisation aura pour objectif d’apporter la meilleure représentation possible dans le but d’une compréhension facilitée pour les acteurs concernés. Néanmoins, une palette de graphiques sera mise à la disposition de l’enseignant pour lui permettre de choisir une autre visualisation de l’indicateur. Un travail de fond sera réalisé, au préalable, sur la qualification des graphiques afin de faire une association entre les graphiques et la nature des indicateurs. Une troisième proposition concerne la modélisation d’assistants permettant à l’enseignant de définir sa stratégie d’observation et de créer des modèles de stratégies réutilisables. Le but de ses assistants est de permettre à l’enseignant de se sentir guidé lors de la modélisation de ses besoins d’observation. L’utilisation des assistants s’avère nécessaire dans un but de familiarisation et de prise en main par l’enseignant des fonctionnalités de son éditeur de définition de stratégies d’observation. L’enseignant peut toujours se passer de l’utilisation de l’assistant. Pour réaliser notre travail, nous allons suivre une orientation DSM (Domain Specific Modeling) (Kelly et Tolvanen 2008) qui est une approche outillée pour la spécification de méta-modèles et de langages graphiques. C’est une approche de développement orientée modèles favorisant l’utilisation des modèles pour la description de toutes les caractéristiques 91 Mohand Akli Ouali propres à un domaine particulier lors du développement de logiciels pour celui-ci. Le DSM apporte à la communauté des enseignants/concepteurs un environnement support pour la spécification graphique des scénarios d’apprentissage (Laforcade et al. 2007). Cette approche permettra d’augmenter le niveau d’abstraction en comparaison aux langages de programmation et d’automatiser la génération de code pour l’application de tableau de bord. Références Avouris N., Fiotakis G., Kahrimanis G., Margaritis M., Komis V. 2007. « Beyond logging of fingertip actions: analysis of collaborative learning using multiple sources of data », Journal of Interactive Learning Research JILR. vol. 18(2), pp. 231-250. Choquet C. and Iksal S. 2007. Modélisation et construction de traces d’utilisation d’une activité d’apprentissage : une approche langage pour la réingénierie d’un eiah. Revue STICEF, Vol. 14. Choquet, C. 2007. Ingénierie et réingénierie des EIAH. L’approche REDiM. HDR, Université du Maine, France Damsa, C.I. & Ludvigsen, S. (2010, August/September). Learning Through Collaborative Creation of Shared Knowledge Objects: Analytic Challenges, Paper presented at the EARLI SIG6/7 conference, Ulm, Germany. Després, C.; Coffinet, T. 2004. Reflet, un miroir sur la formation. Communication in the International Conference of Technologies de l’Information et de la Connaissance dans l’Enseignement Supérieur et l’Industrie. Compiègne, France. Djouad, T., Settouti, L. S., Prié, Y., Reffay, C., Mille, M. (2010). Un système à Base de Traces pour la modélisation et l’élaboration d’indicateurs d’activités éducatives individuelles et collectives. Mise à l’épreuve sur Moodle. In TSI. 29(6). P. 721-721. Dyke, G., Lund, K & Girardot, J.-J. (2010). Tatiana, un environnement d’aide à l’analyse de traces d’interactions humaines. Revue des Sciences et Technologies de l'Information - Série TSI : Technique et Science Informatiques. 29 (10), p. 1179-1205. France L., J.-M. Heraud, J.-C. Marty, T. Carron, and J. Heili. 2006. Monitoring virtual classroom: Visualization techniques to observe student activities in an e-learning system. In The Sixth IEEE International Conference on Advanced Learning Technologies (ICALT2006), pages 716–720. Georgeon O., Mille A., Bellet B.T. 2006. « ABSTRACT: un outil et une méthodologie pour analyser une activité humaine médiée par un artefact technique complexe », Ingéniérie des Connaissances. Semaine de la connaissance, Nantes, France. Goodman B. A., Drury J., Gaimari R. D., Kurland L., Zarrella J., Applying User Models to Improve Team Decision Making, 2006, Retrieved April 10, 2008 from http://mitre.org/work/tech_papers/tech_papers_07/06_1 351/ Greenhalgh C., A. French, J. Humble, P. Tennent, "Engineering based replay application RDF and OWL is "Online Proceedings of the UK e-Science All Hands 92 Meeting 2007, 10-13 September 2007, Nottingham: NESC / JISC. Iksal S (2011). Tracks Analysis in Learning Systems: A Prescriptive Approach. International Journal for e-Learning Security (IJeLS), Volume 1, Issue 1/2, March/June 2011. Kelly S. et Tolvanen J. (2008). Domain-specific modeling: enabling full code generation. Wiley-IEEE Computer Society Pr. Laforcade P., Barré V. et Zendagui B. (2007). Scénarisation Pédagogique et Ingénierie Dirigé par les Modèles : Cadre d’étude pour la définition de langages et environnements-outils de scénarisation pédagogique spécifiques à des domaines. Actes de la conférence EIAH 2007, Lausanne (Suisse). Loghin, G.C. 2006. Aide à la compréhension du comportement de l'utilisateur par la transformation de traces collectées. RJCEIAH. France May M. 2009. Utilisation des traces comme outils réflexifs pour les apprenants et les enseignants à distance : Application aux communications médiatisées. Doctorat insa lyon, Mazza, R.; Milani, C. 2004. GISMO: a Graphical Interactive Student Monitoring Tool for Course Management Systems. Communication in T.E.L.’04 Technology Enhanced Learning ’04 International Conference. Milan, 18-19 November 2004. Mazza, R.; Dimitrova,V. 2004. Visualising Student Tracking Data to Support Instructors in Web-Based Distance Education. In proceeding of the thirteenth International World Wide Web ConferenceEducational Track, 154-161. New York, USA. Morrison A., Tennent P., Chalmers M., « Coordinated Visualization of Video and System Log Data ». Proceedings of 4th International Conference on Coordinated & Multiple Views in Exploratory Visualization. London, 2006, 91-102. Settouti L.-S., Prie Y., Mille A., Marty J –C. (2007). Vers des Systèmes à Base de Traces modélisées pour les EIAH. Rapport de recherche RR-LIRIS-2007-016. Pernin J.-P. and Lejeune A. 2004. Dispositifs d’apprentissage instrumentés par les technologies : vers une ingénierie centrée sur les scénarios. In Colloque TICE2004, Compiègne, France. Pham Thi Ngoc Diem 2011. Spécification et conception de services d’analyse de l’utilisation d’un environnement informatique pour l’apprentissage humain. Thèse de doctorat. Université du Maine. Zendagui B. 2010. Support à la spécification des besoins d’observation dans un contexte de réingénierie des scénarios pédagogiques : une approche dirigée par les modèles. Thèse de doctorat. Université du Maine. Amiens – 23 et 24 mai 2012 POSTERS 4ièmes Rencontres Jeunes Chercheurs en EIAH 93 94 Amiens – 23 et 24 mai 2012 Ontologie pour la représentation des connaissances algorithmiques Et la proposition de parcours d’enseignement. Myriam Abdessemed Laboratoire de Recherche en Informatique (LRI), Université Badji Mokhtar, BP 12, Annaba 23000, Algérie [email protected] Résumé Ce papier présente notre contribution dans le projet EIAH d’algorithmique, du laboratoire LRI, qui consiste en la conception d’une Ontologie de savoirs et savoirfaire (compétences) algorithmiques, représentant la nature même de cette matière. Ses connaissances abstraites rendent son enseignement ainsi que son apprentissage particulièrement délicat. L’apport des ontologies est justement de fournir une forme et un aspect concret aux connaissances du domaine. Nous nous appuyons sur les ontologies et leurs spécificités dans le but de concevoir un système tuteur qui intervient particulièrement dans la négociation du ou des concepts à proposer, lors d’une situation d’apprentissage. Introduction L'algorithmique est une discipline qui favorise, notamment, l'acquisition d'une méthode de travail et de réflexion, le développement des facultés d'analyse, d'abstraction, d'anticipation et de logique. Elle est le noyau de toute formation d’informaticiens. Elle est également une matière qui a souvent été source de problèmes pour l’enseignant et l’étudiant. Pour l’enseignant, parce qu’il doit trouver les méthodes adéquates pour faire assimiler des concepts assez abstraits à des étudiants qui ne sont qu’à leur phase d’initiation. Pour les étudiants la complexité du problème est encore plus importante. On témoigne que, de part le monde, entre 25 et 80% des étudiants dans un cursus d’initiation à la programmation sont en situation d’échec ou d’abandon. Au niveau de notre université, le problème est encore plus éloquent. Le taux d’échec alarmant est aux environs de 70% pour les étudiants de 2éme année Licence LMD. Nous soutenons qu’un usage approprié des EIAH, avec des règles et stratégies pédagogiques novatrices, une bonne représentation des connaissances du domaine de l’algorithmique, une indexation sémantique des ressources et une scénarisation des parcours d’apprentissage adaptée à chaque profil, pourrait contribuer à l’amélioration de son apprentissage. Notre travail de recherche s’inscrit dans le cadre d’un projet EIAH dédié à l’apprentissage de l’algorithmique, qui vise à combattre la stéréotypie, la passivité, la logique de l’échec… 4ièmes Rencontres Jeunes Chercheurs en EIAH Ontologies et EIAH Dans la galaxie des EIAH, les recherches se bousculent pour tenter d’offrir des environnements complets, répondant aux objectifs même de leur subsistance. D’après Desmoulin (Desmoulins et Granbastien 2006), l’apport spécifique de l’ingénierie ontologique pour les EIAH est que l’IO fournit aux EIAH une représentation structurée, explicite, partagée par une communauté (agents humains ou artificiels), qui fait référence et qui guide leur conception. Peut s’ajouter à cela qu’elle peut leur fournir une représentation formelle, couplée à un mécanisme d’inférence permettant, entre autres, à ces environnements de raisonner (Psyché et al 2003). Divers EIAH utilisent les ontologies pour : • Modéliser l’ensemble des connaissances du domaine traité (l’Univers). • Les apprenants suivant plusieurs facettes (préférences, connaissances…) • Annoter et indexer des ressources pédagogiques suivant des types de métadonnées. • Les composantes d’une situation de tutorat. • ETC. Motivation et Approche proposée Ce travail entre dans le cadre du projet EIAH d’algorithmique qui ambitionne l’amélioration de son apprentissage (Bey et Bensebaa 2011), (Teimzit et al. 2011), (Bensalem et Bensebaa 2010). Il a comme principal objectif de responsabiliser l’apprenant et de l’amener à prendre conscience de ses insuffisances en matière de connaissances pour comprendre, s’exercer au raisonnement algorithmique pour mieux dénouer un problème. Dans toute activité, l’adoption d’une nouvelle méthode de travail se fait en fonction des résultats positifs qu’elle génère. Dans la perspective du Web sémantique, qui est en voie de devenir une assise pour les environnements de formation à distance, les ontologies offrent de façon spécifique une sémantique riche, mieux que toute autre méthode de représentation des connaissances (Psyché et al 2003). Les acteurs (apprenants, concepteurs, enseignants…) qui interagissent avec l’EIAH se trouvent face au besoin de partager des informations. Les ontologies se positionnent le mieux pour permettre l’Interopérabilité, le Partage et la Réutilisabilité des 95 Myriam Abdessemed connaissances du domaine. Compte tenu de leurs caractéristiques, qui mettent en relief leurs spécificités et originalités, nous nous orientons vers le développement d’une ontologie d’algorithmique (Savoir et Savoir faire) qui est au cœur du système à réaliser, en exploitant justement les apports des ontologies aux besoins des EIAH. Cette ontologie aura pour rôle de: • Proposer des parcours d’enseignement (prochain concept à enseigner) en parcourant les relations sémantiques de l’ontologie orientées apprentissage. • Indexer des ressources pédagogiques algorithmiques sur les éléments de cette ontologie, en particulier une base d’exercices en vue d’en extraire des exercices d’entraînement à proposer. L’apprentissage dans un EIAH se déroule dans un contexte fort différent de l’apprentissage traditionnel, où les interactions humaines deviennent médiatisées (Margarida Romero 2004). Dans cet environnement où l’apprenant se retrouve seul face à la machine, le tutorat devient donc d’une importance majeure. Le tuteur doit s’appuyer sur le modèle apprenant, des objectifs de formation et principalement sur une famille de règles pédagogiques qui soutiendront l’usage des relations sémantiques et hiérarchiques de l’ontologie dans le choix du prochain concept d’apprentissage, ou dans la négociation en cas de conflit entre le système et l’apprenant (à l’aide des systèmes de raisonnement) . L’étape de conceptualisation de l’ontologie d’algorithmique qui succède à l’étude comparative des outils et langages d’exploitation des ontologies sous OWL (SWRL, SPARQL…), est basée sur Methontology de Gomez-Perez. Elle spécifie de façon très détaillée cette phase (Spécification des besoins, conceptualisation, formalisation,codification). ontologie est en cours d’évaluation, nous illustrons cidessus la hiérarchie des concepts déterminés. Par la suite nous aurons à définir un ensemble de règles pédagogiques et préciser les activités du tuteur selon nos objectifs. Seront par la suite réalisées à des fins de recherches sémantiques : l’indexation de ressources algorithmiques (en entrée existantes) et la constitution d’une base d’exercices indexés par les savoir-faire de l’ontologie. Conclusion La majorité des étudiants en cours d’algorithmique, rencontrent différentes contraintes, pouvant annihiler leurs facultés de raisonnement et altérer leur confiance en soi. Nous soutenons que le développement d’un EIAH dédié pourrait remédier à ce problème. Une ontologie de domaine de l’algorithmique qui aura pour rôle de spécifier les concepts du domaine et d’expliciter les relations entre ces derniers, est d’une importance fondamentale dans un processus d’enseignement. Ceci consiste à mettre à la disposition des acteurs de l’environnement un ensemble de connaissances partagées, réutilisables et essentiellement formelles en vue de leurs manipulations future. Références Bensalem, H., and Bensebaa, T. 2010 “Contribution to the improvement of learning algorithmic“ IETC 10th International Educational Technology Conference, Turkey Istambul. Bey, A., and Bensebaa, T. 2011“An e-Assessment Approach of Algorithmic Problem-Solving Skills “. International Journal of Computer Applications 25(10):15-21. Published by Foundation of Computer Science, New York,USA. Desmoulins C., et Granbastien M. 2006. “Une ingénierie des EIAH fondée sur des ontologies“. In Environnements informatiques pour l'apprentissage humain, Grandbastien M. et Labat J-M., p. 161-179. Paris: Hermes sciences. Psyché, V., Mendes, O., Bourdeau, J. 2003 “Apport de l’ingénierie ontologique aux environnements de formation à distance“ Université Fédérale à Paraiba – Brésil. Romero, M. 2004 “Métacognition dans les EIAH” Exposé transversal. LIUM, le Mans. Teimzit, A., Belhaoues, T., and Bensebaa, T. 2011 “Ontoalgo ontologie de domaine dans un EIAH d’algorithmique“, 1st International Conference Information Systems and Technologies, ICIST, 24 au 26 Avril 2011, Tébessa, Algérie. Nous essayons de suivre ces étapes avec rigueur, cette 96 Amiens – 23 et 24 mai 2012 Assister la compréhension des problèmes algorithmiques Taki Eddine BELHAOUES Laboratoire de Recherche en Informatique (LRI), Université Badji Mokhtar, BP12, Annaba 23000, Algérie [email protected] Résumé Tout environnement de résolution de problèmes doit prendre en considération les difficultés de ses utilisateurs apprenants. Nous nous intéressons dans ce travail aux moyens et techniques d’aide utiles, pratiques et adéquats, qui pourront être mis à la disposition d’un apprenant en situation de résolution de problèmes algorithmiques afin de palier à la difficulté de la lecture et de la compréhension d’énoncés. Introduction L’algorithmique constitue le cœur du domaine de l’informatique. Elle représente en effet la manière de penser et de concevoir la résolution des problèmes en détaillant les opérations élémentaires à accomplir et la méthode pour les combiner et les agencer afin d’émerger la solution la plus optimale. L’apprentissage de l’Algorithmique est essentiellement constitué d’un processus de résolution de problèmes où un apprenant sera mis face à un exercice qu’il devra résoudre. Un tel scénario semble parfaitement conçu pour diagnostiquer les difficultés et les manques de l'étudiant et évaluer sa maîtrise des divers concepts. Selon (Tardif 1992), pour que l'activité de résolution de problèmes soit efficace, il faut s'assurer que l'étudiant prenne une part active à l'élaboration de ses connaissances. Il ne doit pas assister seulement à un exposé de connaissances. À l'intérieur de ce processus, l'enseignant a plusieurs rôles à jouer. Il doit fournir à l'apprenant un contexte d'apprentissage qui favorise le choix de l'information pertinente et la construction du réseau de connaissances. Ce rôle nécessite parfois une intervention plus explicite pour fournir à l'étudiant une rétroaction sur le processus de la tâche au niveau des connaissances à utiliser, des stratégies à choisir et de l'exécution des procédures de résolution. Concevoir un environnement dédié à la résolution de problèmes algorithmiques aura tout à gagner de l’intégration des services d’aides qui pourront être mis à la disposition des apprenants. Aide et types d’interventions système Dans (Beaufils et al. 1998) l’aide est présentée comme une notion qui peut avoir plusieurs interprétations en regroupant un ensemble de termes plus vaste : L'assistance à l'utilisateur comporte une prise en charge partielle de la tâche. Cette assistance est le plus souvent mise en œuvre par des agents qui effectuent une partie de la tâche ou qui guident très fortement l'utilisateur. Le guidage consiste à accompagner l'utilisateur dans l'accomplissement de la tâche, à commenter certaines 4ièmes Rencontres Jeunes Chercheurs en EIAH de ces actions et à lui suggérer des actions susceptibles de progresser dans la tâche ou d'améliorer son efficacité. Ce qu'on a appelé aide intelligente relève souvent du guidage, mais possède comme caractéristique supplémentaire d'effectuer une analyse relativement élaborée de l'activité de l'utilisateur et de permettre une adaptation du contenu à ses besoins particuliers. Le conseil est analogue au guidage mais il ne propose pas nécessairement la meilleure marche à suivre ; il tient compte des imperfections de l'analyse et produit des informations plutôt méthodologiques. L'explication a pour fonction de détailler et d'expliciter le fonctionnement ou le résultat d'une action ou d'un raisonnement (Blondel et al. 1997) présentent plusieurs systèmes d'aide associés à des environnements d'apprentissage conçus afin de dépasser le caractère insuffisant des aides fonctionnels qui se limitent à une présentation détaillée des outils ; Dans (Schwob, Blondel 1998) l’environnement interactif d’apprentissage développé intègre des outils logiciels susceptibles d’aider les élèves dans les activités de résolution de problèmes en chimie, une aide principalement centrée sur les concepts. En effet, les auteurs font l'hypothèse qu'une information significative portant sur un concept, et apportée à un élève en situation de manipulation ou de résolution, c’est-à-dire au moment même de la mobilisation ou de l’utilisation de ce concept, peut contribuer au processus d’apprentissage. (Guin-Duclosson et Nova 2002) présentent une architecture pour un EIAH (Environnement Informatique d’Apprentissage Humain) qui permet de proposer plusieurs types d’aide à un apprenant en situation de résolution de problèmes. Les aides varieront selon le modèle et les préférences de l’apprenant, comme rappeler à un apprenant des connaissances théoriques sur le problème, expliquer avec ces mêmes connaissances comment résoudre ce problème, lui présenter un problème analogue qu’il a déjà résolût, ou alors expliquer la solution de ce problème analogue. Aide à la lecture et compréhension des énoncés (Blondel et al. 1997) présentent la résolution des problèmes sous trois phases principales : La phase d'analyse correspond au passage de l'énoncé à une représentation explicite, souvent plus formelle du problème ou de la situation décrite dans l'énoncé. La phase d'exploration au cours de laquelle l'élève recherche les caractéristiques qui vont contribuer à la 97 Taki Eddine Belhaoues résolution, est celle qui a été la plus largement étudiée dans les environnements d’apprentissages à distance. La phase de rédaction qui a pour but de produire une trace lisible de la résolution, est celle qui est la plus proche de l'activité scolaire habituelle. Nous remarquons que tous les travaux présentés précédemment ont apporté chacun à sa manière des outils d’aide et d’assistance qui se situent essentiellement dans les phases d’exploration et de rédaction. Cependant, la phase d’analyse de l’énoncé est souvent ignorée. Elle est non seulement la première étape de tout processus de résolution de problèmes, mais aussi celle qui va conditionner toutes les étapes qui vont suivre. Notre idée tourne autour des difficultés liées à la lecture et la compréhension des énoncés qui, à notre connaissance n’ont jamais été traitées auparavant. Ces difficultés s’accoisent exponentiellement dans un environnement d’apprentissage à distance. Un apprenant qui se trouve détaché de son enseignant pourra être conduit vers deux situations critiques dans le domaine des environnements d’apprentissage : La première est que l’apprenant se trouve bloqué face à l’énoncé sans aucune option d’aide. Dans un apprentissage en présentiel, cette situation peut être esquivée par la présence de l’enseignant qui va débloquer l’apprenant en apportant des explications, éclaircissements et définitions lors de sa sollicitation. Cependant, le résultat de ce blocage dans une situation d’apprentissage à distance serait la perte et l’abandon de cet apprenant. La deuxième situation consiste en une mauvaise lecture et compréhension de l’énoncé qui peut mener l’apprenant à produire une solution erronée. Toutes les actions entreprises suite à l’évaluation de cette solution seront fondées sur un diagnostique floué et faussé par cette mal compréhension de l’énoncé et ne seront par conséquent adaptées et adéquates aux besoins de l’apprenant. Approche Après l’étude des travaux réalisés sur l’axe de l’assistance et l’aide à l’apprenant en situation de résolution de problèmes. Nous proposons un modèle d’assistance basé sur les ontologies. Ce travail fait partie du projet de réalisation d’un EIAH dédié à l’Algorithmique (Teimzit et al. 2011), (Bey et Bensebaa 2011), (Bensalem et Bensebaa 2010). Notre apport est le développement d’un modèle d’assistance dans les situations de résolution de problèmes basé sur les ontologies. Les aides proposées seront mises à la disposition d’un apprenant en situation de résolution de problèmes dans l’environnement ALGO+ (Bey et Bensebaa 2011). Chaque exercice proposé par l’enseignant sera décrit par une ontologie de description de problème algorithmique. Une base de règles heuristique sera 98 développée pour déterminer les aides adéquates selon la description ontologique de l’exercice. Conclusion La phase d’analyse d’énoncés pendant la résolution des problèmes dans les EIAH prend une place prépondérante. Au cours de ce travail, le développement d’un système d’aide pour les apprenants dans les situations de résolution de problèmes nous permettra de palier aux difficultés liées à la compréhension des énoncés qui ont un effet négatif sur la solution établie, et par conséquent, sur l’évaluation et la correction des acquis de cet apprenant. Références Beaufils, A. ; Blondel, F . M. ; Lenne, D. 1998. Aide, conseil et explication dans les logiciels éducatifs (code 40117), Rapport de synthèse, INSTITUT NATIONAL DE RECHERCHE PÉDAGOGIQUE, Technologies nouvelles et Éducation. Bensalem, H. and Bensebaa, T. 2010. Contribution to the improvement of learning algorithmic In Proceedings of the 10th International Educational Technology Conference, Turkey Istambul. Bey, A. and Bensebaa, T. 2011. Algo+, an assessment tool for algorithmic competencies. In Proceedings of IEEE Engineering Education 2011 Learning Environments and Ecosystems in Engineering Education, EDUCON Amman, Jordan. ISBN. Bey, A. and Bensebaa, T. 2011. An e-Assessment Approach of Algorithmic Problem-Solving Skills. International Journal of Computer Applications 25(10):15-21,. Published by Foundation of Computer Science, New York, USA. Blondel, F . M. ; Schowb, M. ; Tarizzo, M. 1997. Diagnostic et aide dans un environnement d'apprentissage ouvert : Un exemple en chimie. SCHNAPS, STE – vol4, no 4, 1997 Guin-Duclosson, N. and Nova, Nova. 2002. Utiliser des connaissances abstraites ou contextualisées pour proposer différents types d’aide. In Proceeding of Technologies de l’Information et de la Communication dans les Enseignements d’ingénieurs et dans l’industrie. Schowb, M. ; , Blondel, F . M. ; Max, P. ; Ringard, A. 1998. Une aide centrée sur les concepts pour faciliter l’apprentissage de la réaction chimique. In proceeding of 8èmes Journées Informatique et Pédagogie des Sciences Physiques – Montpellier. Tardif, J. 1992. Pour un enseignement stratégique, l'apport de Ia psychologie cognitive. Montréal, Editions Logiques. Teimzit, A. ; Belhaoues, T. ; Bensebaa, T. 2011. Ontoalgo : ontologie de domaine dans un EIAH d’algorithmique. In Proceedings of the 1st International Conference in Information Systems and Technologies, ICIST, Tébessa, Algérie Amiens – 23 et 24 mai 2012 Hypermédia adaptatif à épistèmes pour l'apprentissage des langages de programmation Pascal Ortiz Laboratoire STEF, ENS-Cachan, 61 avenue du Président Wilson F-94235 Cachan cedex [email protected] manuel de référence. Résumé Les langages de programmation (LP) sont des outils puissants dont l'apprentissage et la maîtrise nécessitent des années. Aucun accompagnement informatique n'offre actuellement une couverture large et approfondie de l'apprentissage des LP. L'objectif est de proposer un modèle d'hypermédia adaptatif, basé sur le modèle cognitif proposé par la théorie de la charge cognitive. Ce modèle est basé sur une segmentation très fine du corpus de connaissance. Introduction L'apprentissage de la programmation avec des langages informatiques est difficile, en particulier chez les apprenants novices (Robins et al. 2003). Les ressources pour un apprentissage en autonomie d'un curriculum de programmation consistent essentiellement en une transposition au format pdf/html du corpus imprimé. Ces hypermédias ont des fonctionnalités assez sommaires de navigation (renvoi, index, table des matières), l'interactivité, l'adaptativité et le guidage y sont inexistants, toute mise à jour ou correction est impossible et le recours au multimédia est limité. La progression est linéaire et contraignante : pour accéder à une connaissance exposée, l'apprenant doit, a priori, avoir parcouru toutes celles qui la précèdent dans le document. De nombreux hypermédias pour l'apprentissage d'un LP ont été modélisés, voire expérimentés, mais leurs ambitions de contenu sont souvent très réduites (niveau, durée de l'apprentissage, nombre faible d'apprenants) et leur utilisation reste confidentielle et non coordonnée. L'unique système pérenne (né en 1998), et d'adoption vraiment large, est BlueJ (Kölling 2008) ; il ne s'agit pas d'un système tutoré mais d'un IDE pour débutants qui a évolué vers une plate-forme pédagogique. Le but du présent travail est de permettre l'élaboration d'un hypermédia adaptatif (HA) des LP, utilisable en autonomie ou en accompagnement d'un enseignement et dont les objectifs premiers sont : i) couvrir un champ très important du langage, ii) s'adresser à un spectre large d'apprenants, iii) offrir un continuum interactif entre guide d'apprentissage et 4ièmes Rencontres Jeunes Chercheurs en EIAH Les Trois Concepts Le modèle de domaine que nous proposons est du type modèle en réseau de prérequis (Brusilovsky et Millán 2007). Notre modèle est fondé sur les trois concepts suivants : i) l'unité épistémique, ii) le graphe des matières, iii) le rasoir d'Occam. Une unité épistémique est un segment de connaissance de très petite dimension, qui a été isolé du corpus de connaissances à exposer. Le graphe des matières définit les relations de prérequis entre deux unités épistémiques. Le principe de délimitation de chaque unité est le principe de parcimonie dit du « rasoir d'Occam ». Dans les exemples suivants, on se réfère au langage Python. Admettons disposer d'un découpage du domaine de savoir en un ensemble d'unités de connaissance, de taille très réduite par rapport au corpus global (unités épistémiques ou UE). Le contenu d'une UE peut être de type très varié, à caractère conceptuel (l'itération par exemple), procédural (le schéma d'une boucle while), déclaratif (l'évolution des versions d'un langage), pratique (références bibliographiques), etc. Par exemple, on pourrait considérer une UE de l'apprentissage du langage Python intitulée : « Les booléens ». Cette unité doit répondre à la problématique didactique suivante : i) faire prendre conscience de la notion de valeur de vérité, ii) exposer par un exemple très simple la réalisation des booléens en Python, iii) préciser les contraintes d'édition (les majuscules) des constantes booléennes. Le Rasoir d'Occam et ses Conséquences Le principe fondamental de délimitation du contenu d'une UE est le principe de parcimonie d'Occam. Lors de l'exposition d'un contenu d'apprentissage, on suppose acquises par l'apprenant les connaissances nécessaires au traitement logique et à l'assimilation cognitive du contenu à exposer, et seulement ces connaissances-là. Ce principe est la réponse essentielle à la surcharge d'exposition. La dépendance entre les UE (cf. figure 1) traduit d'abord une nécessité d'ordre logique : par exemple, pour utiliser une instruction if, if l'apprenant doit savoir ce qu'est un booléen. Mais la dépendance peut aussi être d'ordre pédagogique : l'unité « Valeur de vérité d'objets quelconques » va dépendre directement de 99 Pascal Ortiz l'unité « Instruction if » car cette dernière servira à illustrer la notion vérité d'un objet non booléen ; ici, la dépendance n'est pas d'ordre logique. Un langage de programmation produit fondamentalement du code-source. Ainsi, pour constituer les UE, le développeur de contenus analysera puis décomposera un corpus de codessource. Il s'agit d'un matériel tangible. La construction du graphe des matières suit un procédé assez proche de l'heuristique décrite dans (Sosnovsky et Gavrilova 2005) : une unité est extraite par une succession de procédés descendants et ascendants. Un HA à épistèmes permet de générer automatiquement des parcours très fins d'apprentissage mais surtout optimisés : le système peut calculer, à partir des connaissances actuelles de l'apprenant et d'un objectif défini par l'apprenant ou un tuteur, la totalité du sous-graphe des unités utiles, et proposer ainsi une linéarisation cohérente et optimale parmi tous les parcours possibles. été constitués : un pool d'environ 300 UE pour une introduction au langage Python et un pool de 150 UE traitant du sous-domaine plus avancé des expressions régulières en Python. Un générateur de parcours a été implémenté. Le contenu des UE est saisi dans un langage de balisage léger (reST), convertible en XML. Un générateur de documentation html/pdf est en cours de réalisation. Le dispositif doit être complété par i) la réalisation d'une interface graphique assurant la navigation dans un espace de plusieurs centaines d'UE, ii) un module de fouille évoluée permettant d'extraire des informations à la fois fines (par ex. du code-source) et génériques, autorisant un modèle riche de l'apprenant. Enfin, il est envisagé d'incorporer dans l'hypermédia un certain nombre d'éléments de la théorie de la charge cognitive (Chanquoy et al. 2007). Avantages et Inconvénients Une documentation à UE présente les avantages suivants : − Prise en compte des connaissances préalables de l'apprenant, ce qui est un point capital dans la compréhension d'un texte (Kintsch 1998). Figure 1 : Les successeurs de l'UE « Les booléens » − La limitation de la charge cognitive. La théorie de la charge cognitive (Chanquoy et al. 2007) a montré que la limitation de la charge cognitive est un point déterminant dans l'acquisition de connaissances. Le principe d'économie du rasoir d'Occam optimise la charge cognitive intrinsèque. − Meilleur contrôle des difficultés d'apprentissage grâce à la granularité faible des UE. C'est un facteur essentiel d'adaptativité. − Extensibilité et robustesse : le système s'étend par simple ajout d'unités épistémiques, et le contenu d'une unité peut être modifié tant que son interface est préservée. Une documentation épistémique pose néanmoins quelques difficultés : risque d'atomisation des contenus, difficulté à intégrer des contenus ayant de très nombreuses dépendances, risque de duplication de contenus d'apprentissage, difficulté à recomposer des contenus sans altérer l'ensemble des dépendances. Perspectives, faisabilité Références Brusilovsky, P. ; and Millán, E. 2007. User Models for Adaptive Hypermedia and Adaptive Educational Systems. Lecture Notes in Computer Science 4321:3-53 Chanquoy, L.; Tricot, A.; et Sweller, J. 2007. La charge cognitive. Armand Colin. Kintsch, W. 1998. Comprehension, A Paradigm for Cognition. Cambridge University Press. Kölling, M. 2008. Using BlueJ to Introduce Programming. Lecture Notes in Computer Science 4821:98-11. Robins, A.; Rountree, J.; and Rountree, N. 2003. Learning and Teaching Programming: A Review and Discussion. Computer Science Education 13(2):137172. Sosnovsky S.; and Gavrilova T. 2005. Development of Educational Ontology for C-Programming. Int. Journal Information Theories & Applications 13:303308. Deux pools d'UE, complétés de leurs graphes des matières, et s'adressant à des publics différents, ont 100 Amiens – 23 et 24 mai 2012 Gamification d’environnement informatique Alain Simac-Lejeune Docteur de moins d’un an Litii, 15 rue Saint Exupéry, Alpespace, 73800 Françin, France [email protected] Résumé Depuis quelques années, « les serious games » et les « learning role-playing games » s’insèrent dans le paysage des entreprises et des dispositifs de formation grâce à leurs effets reconnus sur l’engagement. Cet engagement est directement lié aux mécanismes de jeu introduit et il est possible de créer cet engagement en dehors de jeu en insérant ces mécanismes dans n’importe quel environnement informatique : c’est le processus de Gamification. Nous proposons dans cet article de revenir sur le concept du Flow (l’état de l’utilisateur), de définir la Gamification et ses règles puis de l’appliquer à un système basique d’EIAH, avec pour objectif la conception d’une approche générique de gamification d’un système informatique. Introduction Le secteur de la formation a de plus en plus fréquemment recours à des dispositifs utilisant le jeu notamment pour ses effets reconnus sur l’engagement des participants (Gee 2003) qui est un des facteurs clés de la réussite d’un apprentissage. L’utilisation de l’informatique pour l’apprentissage et l’enseignement se développe et évolue sous le coup de différents facteurs inter-reliés comme la poussée technologique (faible coût des technologies, facilité et banalisation de leurs usages), l’évolution des connaissances scientifiques, la demande sociale ou encore l’évolution des pratiques des enseignants et des élèves. Une pratique émergente est l’utilisation du jeu dans les processus pédagogiques. Les « serious games » est définit (Alvarez, 2006) comme un logiciel combinant une intention sérieuse de type pédagogique, informative, d’entrainement avec des ressorts ludiques. Leur approche a permis de créer de nouveaux processus pédagogiques basés sur l’acquisition de compétences dans des jeux scénarisés. Cependant les « serious games » restent des jeux et il n’est pas forcément possible de transformer toute activité en jeux. Une alternative est la gamification qui consiste à introduire des mécanismes de jeu dans un système classique. Depuis 2006, l’approche « serious games » (Marty 2011) a permis de combiner une intention sérieuse de type pédagogique, informatique, communicationnelle, marketing, idéologique ou d’entraînement avec des ressorts ludiques permettant de créer de l’engagement. Mais bien que les serious games et la gamification aient la même vocation, rendre attrayant la dimension sérieuse par une forme une interaction, des règles et éventuellement des objectifs ludiques ; ils se 4ièmes Rencontres Jeunes Chercheurs en EIAH différencient également fortement par l’objet même du système. Les serious games représentent un jeu alors que la gamification consiste à apporter une dimension de jeu dans un système qui n’en est pas un au départ. La Gamification ou Ludification On définit la gamification (ou ludification) comme le transfert des mécanismes de jeu à d’autres domaines notamment les sites web, les situations d’apprentissage, les situations de travail ou les réseaux sociaux. Son objectif est l’augmentation de l’acceptabilité et l’usage d’applications en s’appuyant sur la prédisposition humaine au jeu (Zichermann 2011). Pour (Kim 2000), la gamification se résume à cinq caractéristiques principales : collectionner, gagner des points, intégrer un mécanisme de rétroaction, encourager les échanges entre joueurs et permettre la personnalisation du service. Le processus de gamification s’effectue en insérant des mécaniques et dynamiques spécifiques au jeu dans un système de vie réelle : • les points qui permettent la gratification ; • les niveaux qui permettent l’obtention de statut ; • les challenges qui permettent la réalisation ; • les badges stimulant la créativité ; • les classements pour créer la compétition ; • le don ou l’échange pour favoriser l’altruisme. Le système n’est pas un jeu mais un service stimulé par des mécaniques de jeu. Au final, pour gamifier, il faut placer au centre du système des éléments à explorer ou à maitriser et y insérer des mécaniques de jeu. Dans le cadre d’un environnement d’apprentissage, la phase de découverte et de maitrise de l’outil proposé pourrait être gamifiée. L’Etat de Flow Figure 1 : Rapport entre compétences et niveau de difficulté pour l’état du flow. 101 Alain Simac-Lejeune Les mécaniques de jeu peuvent sembler rapidement artificielles et inintéressantes (accumuler des point par exemple). Il est donc nécessaire d’avoir une moyen de rendre régulièrement attractif le système : c’est le concept fondamental du Flow (figure 1) qui a été théorisé par le psychologue positiviste Mihaly Csikszntmihalyi dans (Csikszntmihalyi 1996). C’est un état quasi hypnotique durant lequel la personne se consacre entièrement et aveuglement à la tâche qu’elle réalise en perdant la notion du temps et en connaissant un profond sentiment de réussite et de dépassement. Dans un jeu, cet état correspond à la situation où les compétences attendues par un joueur sont exactement en correspondance avec le challenge. En augmentant constamment le niveau de challenge et les capacités, le joueur connaît la sensation de dépassement perpétuel. Exemple : la Prise en Main d’un EIAH La première étape de nombreux EIAH est une phase de découverte et de prise en main de l’outil par l’utilisateur. Cette étape est réalisée de manière didactique la plupart du temps parfois légèrement ludique notamment dans les approches « serious games ». L’approche proposée consiste à construire cette phase de découverte en intégrant des mécanismes de jeu et une progression (challenge) dans l’acquisition des compétences. Il faut distinguer deux étapes dans le processus de gamification du système : la définition des tâches à maîtriser ou compétences à acquérir (les objectifs) et la définition des éléments de la mécanique du système gamifié (les moyens de réaliser ces objectifs). Dans notre démarche, le but du processus est d’être autonome dans l’utilisation du système. Pour cela, il est nécessaire d’accomplir un certain nombre d’objectifs prédéfinis à difficulté croissante et d’atteindre un statut « autonome ». Définition du système d’EIAH utilisé Le logiciel “Ambre” est un environnement informatique pour l'apprentissage humain (EIAH) utilisé pour des situations pédagogiques informatisées (SPI). Il a été développé par l’équipe SILEX du laboratoire LIRIS de Lyon (Guin-Duclosson 2011). Il a pour objectif de faire émerger des apprentissages chez l'apprenant et de l'amener à résoudre des problèmes de didactique des mathématique par Raisonnement à Partir de Cas (RàPC). Le système est composé de 5 étapes : lecture d’énoncé, réécriture de problème, choix de modèle, rédaction de solution et rangement du problème dans une classe donnée. Proposition de fonctionnement Pour faire évoluer le système à travers une approche de gamification, on introduit les mécanismes de jeu présentés. L’état de Flow est conservé par l’augmentation progressive de la difficulté des opérations à réaliser. Le gain de point est obtenu par la réalisation des étapes d’exercices, par la résolution d’exercices, par barème concernant la rapidité d’exécution, par évaluation de l’évolution de la rapidité d’exécution. Il est possible de perdre des points 102 notamment lorsqu’on utilise l’aide ou lorsque le temps d’exécution est important. Les points permettent d’obtenir des statuts au nombre de 4 (débutant, découvreur, confirmé, et apprenant). Le but étant d’obtenir le statut d’apprenant pour être un utilisateur autonome du système. Dans une première version, nous proposons de définir 20 challenges allant d’actions basiques comme « lire un énoncé » à des plus difficiles comme « résoudre un exercice de niveau 2 » ou à des actions récurrentes/répétitives comme « résoudre un exercice au moins, 3 jours de suite ». Ces challenges et les statuts permettent l’obtention de 10 badges comme « Apprenant ». A la fin de chaque exercice ou à la fin d’une séquence (groupe d’exercices), un classement basé sur les points obtenus dans un statut donné ou tout statut confondu est proposé. Des challenges pourraient être proposés concernant la position dans le classement ou l’évolution du classement entre deux séquences. Conclusions et Perspectives Nous avons proposé d’utiliser une approche de gamification dans le cadre de la prise en main d’un EIAH. La gamification est un processus particulièrement intéressant dans la découverte, l’exploration ou la recherche de maitrise d’un système et se prêt donc bien à la phase de découverte d’un EIAH. C’est une alternative particulièrement intéressante pour les EIAH qui ne reposent pas sur une approche « serious games ». Mais c’est surtout une approche d’avenir qui, comme l’affirme Jane McGonigal (McGonigal 2011), est un moyen de rendre les gens heureux mais surtout de les inspirer à collaborer pour résoudre des problèmes. Ce dernier point représente une perspective majeure pour les EIAH. La gamification serait peut-être une solution pour permettre de construire des systèmes d’apprentissage collaboratifs. Références Alvarez, J, Djaouti, D. : Introduction au Serious Game, Questions théoriques, p.22-29, 2010. Csíkszentmihályi, M. eds.1996. Creativity: Flow and the Psychology of Discovery and Invention, New York: Harper Perennial. Gee, J.P. What video games have to teach us about learning and literacy. Palgrave Macmillian, 2003. Guin-Duclosson N., Jean-Daubias S. et Nogry S. : « Le projet AMBRE : utiliser le RàPC pour enseigner des méthodes », Atelier RàPC’2011, P.17-21. Kim, A.J. eds 2000. Community Building on the Web : Secret Stragetgies, Peachpit Press. Marty, JC. And Carron T. eds 2011: Hints for Improving Motivation in Game-Based Learning Environment, Chapter of Handbook of Research on Increasing Motivation and Learning, IGI Global. McGonigal, J. eds 2011: Reality is Broken, Penguiun Press HC. Zichermann, G. and Cunningham, C. eds 2011: Gamification by Design: Implementing Game Mechanics in Web and Mobile Apps. O’Reilly Media. Amiens – 23 et 24 mai 2012 Mes notes Mes notes Mes notes Mes notes Mes notes Mes notes Comité de programme Président : Thibault Carron (Université de Savoie) Membres : Nicolas Balacheff (LIG, Université Grenoble) George-Louis Baron (EDA, Université Paris 5) ) Marie-Laure Betbeder (LIFC, Univ. Franche Comté) Jacques Béziat (EDA, Université Paris 5) Jean-François Bourdet (LIUM, Université de Maine) Amel Bouzeghoub (GET-INT, Evry) Eric Bruillard (STEF, ENS Cachan) Jean-Marie Burkhardt (ECI, Université Paris 5) Pierre-André Caron (Cirel, Université de Lille 1) Hamid Chaachoua (LIG, Université Grenoble 1) Christophe Choquet (LIUM, Université du Maine) Thierry Condamines (MIS, Université de Picardie Jules Verne) Philippe Cottier (LIUM, Université du Maine) Bruno De lièvre (UTE, Université de Mons-Hainaut) Amaury Daele (CSE, Université de Lausanne) Elisabeth Delozanne (LUTES, Université Paris 6) Christophe Després (LIUM, Université du Maine) Stéphanie Jean-Daubias (LIRIS, Université Lyon 1) Sébastien George (Université de Lyon) Viviane Guéraud (LIG, Université Grenoble) Nathalie Guin (LIRIS, Université Lyon 1) Sébastien Iksal (LIUM, Université du Maine) Céline Joiron (MIS, Université de Picardie) Jean-Marc Labat (LIP6, Université Paris 6) Mona Laroussi (INSAT, Tunis) Elise Lavoué (CR Magellan, Université Lyon 3) Dominique Leclet (MIS, Université de Picardie Jules Verne) Marie Lefevre (Liris, Université de Lyon 1) Dominique Lenne (Heudiasyc, Université de Technologie de Compiègne) Jean-Charles Marty (LIRIS, Université de Lyon 1) Florence Michau (LIG, Université Grenoble) Alain Mille (LIRIS, Université de Lyon 1) Ludovic Morge (IUFM Auvergne) Elke Nissen (LIDILEM, Université Grenoble 3) Thierry Nodenot (LIUPPA, IUT de Bayonne) Magali Ollagnier-Beldame (LIRIS) Jean-Philippe Pernin (LIG, Université Grenoble) Yvan Peter (LIFL, Université Lille) Christophe Reffay (LIFC, Univ. Franche Comté) Marilyne Rosselle (MIS, Université de Picardie Jules Verne) Audrey Serna (Université de Lyon) Patrice Torguet (IRIT, Toulouse) André Tricot (IUFM, Toulouse) Lucile Vadcard (LSE, Université Grenoble 2) Thomas Vantroys (LIFL, Université Lille) Emmanuelle Villiot-Leclerq (IUFM Grenoble 1 et TECFA Genève) Comité d'organisation Présidente : Céline Joiron (MIS, Université de Picardie Jules Verne) Membres : Thierry Condamines Laure Devendeville Valérie Faqui Dominique Leclet Marilyne Rosselle