RJC EIAH`2012 - Université de Picardie Jules Verne

Transcription

RJC EIAH`2012 - Université de Picardie Jules Verne
https://eiah.mis.u-picardie.fr/rjceiah/
RJC EIAH’2012
Actes des
4ièmes rencontres des
Jeunes Chercheurs
en Environnements Informatiques
d’Apprentissage Humain
Amiens
23 & 23 mai 2012
Édités par Thibault Carron et Céline Joiron
4ièmes Rencontres Jeunes Chercheurs en EIAH
i
ii
Amiens – 23 et 24 mai 2012
Introduction
Les quatrièmes Rencontres Jeunes Chercheurs sur les Environnements Informatiques pour l’Apprentissage
Humain (RJC-EIAH 2012) se tiennent à Amiens les 23 et 24 mai 2012. Organisée tous les deux ans, cette
conférence francophone parrainée par l’ATIEF (Association des Technologies de l'Information pour
l'Éducation et la Formation) a pour objectif la promotion de la recherche et la formation des étudiants
chercheurs. Ces journées visent à donner l’occasion aux jeunes chercheurs du domaine de se rencontrer
pour présenter et échanger sur leurs travaux, entre eux et avec des chercheurs confirmés.
Nous avons reçu 31 propositions de communication pour les rencontres. Ce nombre assez satisfaisant est
toutefois en baisse par rapport à 2010 (38 soumissions) et reste à la hauteur du niveau de 2008. Les
rencontres jeunes chercheurs représentent néanmoins une occasion unique d’échange et sont donc
largement plébiscitées par la communauté EIAH en général et les jeunes chercheurs en particulier.
Chaque soumission a au moins été examinée par 2 relecteurs (3 pour quelques-unes), chacun mettant un
point d’honneur à proposer des critiques constructives. Le comité de programme a retenu 15 travaux pour
une présentation orale et article long et 12 pour une présentation sous forme de poster et papier court. La
plupart des articles acceptés proviennent de France mais d’autres pays sont également représentés :
Algérie (6), Ile Maurice (1), Maroc (1) et Tunisie (2). Lors de la sélection, la plupart des travaux ont donné
lieu à un avis relativement proche de la part des relecteurs ; seuls quelques articles ont suscité des débats.
Comme demandé, le comité de programme s’est efforcé d’évaluer les travaux soumis en fonction de
l’avancée de la thèse. Ainsi, un travail en fin de thèse a été évalué avec les critères scientifiques habituels
(problématique, méthodologie, références aux autres travaux, validité des résultats, etc.) et le niveau
d'exigence était finalement proche de celui d'une conférence nationale. Pour un travail de début de thèse,
le comité de programme n’a pas cherché à évaluer les résultats mais s'est attaché à mesurer l'originalité du
travail, l'intérêt pour la communauté et la capacité à présenter clairement le travail. Au final, un bon
équilibre s’est fait dans la sélection. Par exemple, les articles longs retenus ont été écrits par 6 étudiants en
1ère année, 2 étudiants en 2ème année, 5 étudiants en 3ème année et 2 étudiants ayant plus de 3 années
de thèse.
Le champ scientifique des EIAH touche différentes disciplines que nous appelons traditionnellement toutes
à soumettre afin de favoriser les rencontres et des collaborations fructueuses. L’informatique est, cette
année encore, majoritairement représentée avec seulement 7 soumissions en Science de l’éducation et 2
en SHS. Les efforts doivent donc encore et toujours être poursuivis dans le sens de la pluridisciplinarité.
Ces rencontres sont aussi l’occasion d’observer les tendances thématiques et les préoccupations de
recherche de la communauté. Les questions d’ingénierie et de conception des EIAH sont bien présentes
mais on voit apparaître plusieurs soumissions concernant le TAL (2), les Jeux sérieux (Serious Games) (2) et
les ontologies (2). Les traces d’activités et d’interactions ainsi que les indicateurs sont toujours un thème
important pour la communauté (5). La conception des scénarios pédagogiques est également une
thématique bien représentée (4 soumissions). Vous retrouverez ces thématiques (et bien d’autres) au fil
des sessions. La session « posters » illustre également la variété des travaux, chaque auteur ayant eu pour
consigne d’expliciter le cœur de sa thématique et les apports spécifiques (avérés ou attendus) de sa thèse.
Ne manquez pas de lire les articles de 2 pages proposés en support à la compréhension du poster.
La conférence invitée de Patrick Felicia (Waterford Institute of Technology, Ireland) ouvre les journées par
4ièmes Rencontres Jeunes Chercheurs en EIAH
iii
une analyse sur le sujet émergent que représente les Serious Games et de prendre conscience des liens
qu’ils offrent avec toutes les thématiques citées précédemment. Les journées font également place à
l’information et aux conseils de la Communauté aux jeunes chercheurs relativement à la demande de
qualification auprès du CNU, aux publications dans la revue STICEF et plus généralement à l’évaluation des
chercheurs au travers de leurs publications.
Pour finir, nous remercions les membres du comité de programme (47 personnes, STIC ou SHS) qui ont fait
des commentaires souvent très détaillés afin d’aider au mieux les doctorants, les membres du comité
d’organisation qui ont tout mis en œuvre pour la réussite de ces journées ainsi que tous les chercheurs
confirmés qui viennent contribuer à la richesse des discussions. Nous remercions également l’ATIEF et les
différents sponsors pour leur soutien, ainsi que l’Université de Picardie Jules Verne et le laboratoire
Modélisation, Information et Systèmes (MIS) pour nous accueillir cette année. Enfin, nous remercions les
jeunes chercheurs en EIAH sans qui ces journées n’existeraient pas !
iv
Amiens – 23 et 24 mai 2012
Table des matières
Introduction
................................................................................................................................................................................ iii
Table des matières
................................................................................................................................................................................. v
Conférence invitée ............................................................................................................................ vii
Game-Based Learning: Understanding games from a multidisciplinary perspective
PATRICK FELICIA .................................................................................................................................................. vii
Articles longs ...................................................................................................................................... 1
Opérationnalisation de scénarios pédagogiques : une approche DSM centrée LMS
Aymen Abedmouleh ................................................................................................................................................ 3
Le TAL pour l’analyse de contenus d’interactions et de productions dans la formation en ligne
Alexandre Baudrillart .............................................................................................................................................. 9
Interprétation des traces d’interaction dans un EIAH par appariement structurel
Mohamed Besnaci ................................................................................................................................................. 15
Une approche basée sur les Patrons centrée Enseignant pour la scénarisation pédagogique
Jean-Pierre Clayer ................................................................................................................................................. 21
Manifestation culturelle du numérique
Thierry Danquigny ................................................................................................................................................ 27
Conception d’un système de dialogue intelligent pour jeux sérieux
Franck Dernoncourt ............................................................................................................................................... 33
Analyse automatique de codes informatiques pour l’aide à l’enseignant
Loïc Février ........................................................................................................................................................... 39
Similarités sémantiques et contextuelles pour l’apprentissage informel en mobilité
Pierre-Yves Gicquel .............................................................................................................................................. 45
Developing adaptive intelligent tutoring system
Mohamed Hafidi.................................................................................................................................................... 51
Ergonomic Study of Existing Project-Based Learning Management System
Ji Min..................................................................................................................................................................... 57
Une approche orientée indicateurs pour supporter les activités du tuteur
Aina Lekira ............................................................................................................................................................ 63
Acquisition interactive de connaissances pédagogiques pour la personnalisation d'EIAH dans le cadre de la formation à
distance
Bruno Mascret ....................................................................................................................................................... 69
Vers une mise en relation des activités d’édition et de navigation dans les ressources d’apprentissage : cas de
l’apprentissage d’un langage de programmation
Mahdi Mile ............................................................................................................................................................ 75
4ièmes Rencontres Jeunes Chercheurs en EIAH
v
Intégration de raisonnements automatiques dans le système d’annotation MémoNote
Hakim Mokeddem ................................................................................................................................................. 81
Modélisation outillée d’une stratégie contextualisée d’observation dans le cadre d’un environnement d’apprentissage
Mohand Akli Ouali ................................................................................................................................................ 87
POSTERS ......................................................................................................................................... 93
Ontologie pour la représentation des connaissances algorithmiques Et la proposition de parcours d’enseignement.
Myriam Abdessemed ............................................................................................................................................. 95
Assister la compréhension des problèmes algorithmiques
Taki Eddine Belhaoues .......................................................................................................................................... 97
Hypermédia adaptatif à épistèmes pour l'apprentissage des langages de programmation
Pascal Ortiz............................................................................................................................................................ 99
Gamification d’environnement informatique
Alain Simac-Lejeune ........................................................................................................................................... 101
vi
Amiens – 23 et 24 mai 2012
Game-Based Learning: Understanding games from a
multidisciplinary perspective
Patrick Felicia
[email protected]
Abstract
This keynote will describe the multidisciplinary aspect of the research currently conducted in Game-Based learning, and
the impact video games can have from different perspectives including psychology and education. The author will also
present an overview of the current state of the art in the field of Game-Based Learning. The keynote will highlight key
findings, current challenges faced by both GBL researchers and practitioners, provide a summary of best practices for
the integration of GBL in instructional settings, and identify a road map for GBL research.
4ièmes Rencontres Jeunes Chercheurs en EIAH
vii
viii
Amiens - 23 et 24 mai 2012
ARTICLES LONGS
4ièmes Rencontres Jeunes Chercheurs en EIAH
1
2
Amiens – 23 et 24 mai 2012
Formalisation du langage de conception pédagogique
implicite d’un LMS : motivations et processus
Aymen Abedmouleh
LIUM, Avenue Olivier Messiaen, 72085 LE MANS CEDEX 9, France
[email protected]
Résumé
Les utilisateurs des LMSs/plateformes de formation à
distance et en particulier les enseignants-concepteurs
rencontrent de nombreuses difficultés pendant la
spécification de leurs cours ou de leurs scénarios
pédagogiques. Ces difficultés traduisent le besoin de
travaux de réingénierie ou de nouvelles approches de
conception plus adaptées à leurs pratiques. Notre
travail de recherche consiste à faciliter la conception et
la mise en œuvre de scénarios pédagogiques sur les
LMS. Nous proposons une nouvelle approche de
conception basée sur le métier de conception
pédagogique embarqué dans les LMS. Dans cet article,
nous proposons un processus original d’identification et
de formalisation de ce métier. Celui-ci s’appuie sur
deux points de vue complémentaires : le point de vue
IHM principalement basé sur l’analyse des interfaces
du LMS, et le point de vue technique basé sur des
méthodes d’analyses du LMS en tant que système
informatique. Nous proposons ensuite d’exploiter le
langage formalisé comme base pour la spécification de
langages et outils graphiques externes. Ces outils
permettront aux enseignants-concepteurs de se
concentrer sur la conception pédagogique propre à la
plateforme considérée mais à un niveau d’abstraction
suffisant. Le processus est illustré par des extraits
(forum et discussion) d’expérimentations menées sur la
plateforme Moodle.
Introduction
Les enseignants et les concepteurs rencontrent
aujourd’hui des difficultés pendant la conception et la
mise en œuvre de leurs situations d’apprentissage sur
les LMS (Learning Management System) ou
plateformes de formation à distance (Ortiz et al. 2009).
Pour configurer leurs situations d’apprentissage, ils
doivent gérer et s’approprier les différents écrans et les
différentes interfaces basées principalement sur des
formulaires. Aujourd’hui, plusieurs standards comme
IMS-LD et SCORM (Tattersall et al. 2005), plusieurs
approches comme l’approche de patrons de conception
(Baggetun et al. 2004), plusieurs langages de
modélisation pédagogiques comme PALO (Artacho et
Maíllo 2004), et plusieurs outils comme e-LD (Ortiz et
al. 2009) sont proposés pour faciliter la conception
pédagogique. Cependant, de nombreux obstacles
rencontrés par les enseignants-concepteurs concernent
principalement : (1) les difficultés de spécification des
scénarios directement sur les LMSs et (2) les difficultés
4ièmes Rencontres Jeunes Chercheurs en EIAH
de retranscription des concepts d’un scénario spécifié à
l’extérieur des LMS avec ceux proposés par le LMS.
Dans la section 2, nous présentons un aperçu des
problématiques traitées. La section 3 présente notre
approche dédiée à la conception pédagogique centrée
LMS. Ensuite, nous détaillons, dans la section 4, le
processus d’identification et de formalisation des
langages de conception pédagogique de plateformes.
La section 5 présente un extrait de nos
expérimentations portant (1) sur l’identification du
métier de conception pédagogique d’un forum sur
Moodle, (2) l’ajout des fonctionnalités d’import/export
à cette plateforme et (3) le développement d’un éditeur
graphique basé sur le langage de conception de
Moodle. Enfin, nous concluons en présentant les
travaux actuels.
Problématique et Positionnement
Dans nos travaux, nous abordons deux
problématiques principales. La première concerne la
spécification des scénarios sur les LMSs tandis que la
deuxième concerne les difficultés d’implémentation des
scénarios pédagogiques spécifiés en dehors des LMSs.
Nous supposons que les LMSs embarquent un
paradigme de conception pédagogique qui lui est
propre. Cependant, les praticiens-concepteurs ne sont
pas familiers avec ce domaine implicite de conception
pédagogique. La spécification d’un cours sur les LMSs
est basée principalement sur des interfaces à base de
formulaires. Elle porte sur le paramétrage de nombreux
paramètres de ces formulaires qui sont parfois
optionnels ou des détails techniques à un niveau très
bas. Ces difficultés engendrent souvent une exploitation
minimale des LMS comme un espace de partage de
ressources pédagogiques (Steel 2009).
La
deuxième
problématique
est
due
à
l’incompatibilité entre le langage de conception et le
langage d’opérationnalisation (le langage implicite du
LMS). Cet écart entre les deux langages pénalise le
processus de transformation de scénarios. Plusieurs
travaux (Abdallah et al. 2008) consistant à retranscrire
les scénarios ont mis en évidence l’écart de la
sémantique pédagogique entre les concepts utilisés
pour spécifier les scénarios et les caractéristiques des
LMS. Certaines transcriptions de scénarios entraînent
des pertes d'information et de sémantiques spécifiées
dans le scénario source ou, au contraire, des
insuffisances d’informations pour spécifier et mettre en
œuvre le scénario sur la plateforme.
3
Aymen Abedmouleh
Il nous semble que les propositions actuelles n’ont
pas encore atteint un niveau de maturité suffisant pour
que
les
enseignants-concepteurs
implémentent
efficacement leurs scénarios. Pour cela, nous proposons
une nouvelle approche de conception basée
explicitement sur le métier des LMS.
Une Approche de Conception Centrée
LMS
L’objectif principal de nos travaux est de (1) faciliter
la spécification de scénarios pédagogiques, (2)
proposer des outils de conception mieux adaptés aux
pratiques des enseignants-concepteurs, (3) proposer des
moyens de communication entre les LMS et des outils
externes dédiés et enfin (4) garantir l’implémentation
des scénarios spécifiés à l’extérieur des LMS sans perte
de sémantiques.
Nous supposons que les LMS ne sont pas
pédagogiquement
neutres.
Ils
embarquent
implicitement des paradigmes de conception pour les
activités pédagogiques. Notre approche porte sur
l’identification et la formalisation de ce métier de
conception pédagogique. D’un point de vue langage,
nous nous intéressons principalement à expliciter la
syntaxe abstraite implicite des LMS que nous
proposons de formaliser sous la forme d’un métamodèle (concepts, attributs, relations, types, etc.).
Dans un premier temps, ce choix offre l’opportunité
d'exposer un langage comme base pour le
développement d'outils de conception pédagogique
extérieurs aux LMS (par exemple pour l'édition de
scénarios, pour exporter un scénario spécifique d’un
LMS vers un autre, etc.). L’un des premiers objectifs de
cette approche est d’offrir aux praticiens de nouveaux
VIDL (Visual Instructional Design Language) et des
éditeurs externes dédiés basés sur le langage métier des
LMS. Plusieurs VIDLs centrés LMS (Botturi et Todd
2007) peuvent être proposés pour le métier (entier ou
partiel) de LMS. Ils doivent être composés de la même
syntaxe abstraite que le langage du LMS (perspective
sur le méta-modèle du domaine), mais en proposant une
notation visuelle différente (pour la syntaxe concrète).
Les VIDLs ainsi que leurs éditeurs dédiés facilitent la
réflexion et la communication pour les praticiens. Ils
doivent gérer la persistance des scénarios pédagogiques
produits dans un format interprétable par la machine et
conforme au langage identifié et formalisé du LMS.
Dans un deuxième temps, les scénarios spécifiés à
l’extérieur des LMS doivent être opérationnalisés sans
pertes de sémantique ou d’information. Notre
proposition consiste à étendre les LMS par des
nouvelles fonctionnalités analogues à celles proposées
pour le standard SCORM (Gonzalez et Ando 2010),
mais reposant sur le métier du système LMS concerné
afin de les rendre capable d’importer/exporter des
scénarios pédagogiques. L'opérationnalisation du
scénario pédagogique consiste ainsi à l'importation des
scénarios formalisés.
4
Nous voulons également permettre aux enseignants
d’adapter et de faire évoluer leurs scénarios déjà
implémentés sur les LMSs. L’échange entre ces deux
systèmes (LMS et outil de conception) facilite
l’adaptation éventuelle des scénarios pédagogiques. La
fonctionnalité d’import/export permet d’exporter les
scénarios existants dans un format compréhensible par
ces outils externes et également d’importer les
scénarios spécifiés à l’aide de ces derniers.
La sémantique des scénarios pédagogiques est
préservée lors de l’importation et de l’exportation parce
qu’aucune transformation de modèles n’est nécessaire.
Les scénarios créés ou bien modifiés par l’outil de
conception sont totalement opérationnalisables parce
qu’ils sont conformes au langage pédagogique implicite
du LMS.
L'explicitation du métier des LMSs représente une
nouvelle opportunité pour l’opérationnalisation des
scénarios pédagogiques et également une nouvelle
approche pour la spécification des VIDLs et des
éditeurs dédiés. Les VIDLs et leurs éditeurs sont
spécifiés selon une approche DSM (Domain Specific
Modeling). Le DSM offre un cadre théorique et
pratique pour la modélisation et la spécification
formelle des scénarios pédagogiques (Laforcade,
2010). Cette approche est capable d’apporter une
valeur ajoutée pour l’explicitation, la spécification et
l’opérationnalisation de scénarios pédagogiques et de
langages de modélisation pédagogique, également pour
la définition de VIDL centré sur le métier des
praticiens, des standards et des plateformes.
Processus d’Analyse
Pour définir un tel langage, nous avons spécifié un
processus pour analyser, identifier et formaliser le
langage de conception pédagogique des LMS. Le
processus vise plusieurs communautés de recherche en
EIAH et en génie logiciel de façon plus globale. Il
concerne principalement la communauté des
LMSs/plateformes de formation tels que les ingénieurs
pédagogiques et les développeurs-concepteurs.
Le processus est le résultat de plusieurs
expérimentations et analyses effectuées sur plusieurs
plateformes (Moodle, Ganesha, etc.). Après
l’appropriation de ces systèmes, nous avons constaté
que chacun d’entre eux embarque un paradigme
spécifique. Cependant, une même analyse pouvait être
définie afin de guider le travail d’identification et de
formalisation pour chacun d’entre eux. Nous proposons
ainsi un processus d’analyse basé sur deux points de
vue complémentaires : un point de vue centré IHM et
un point de vue centré technique. Le premier point de
vue porte sur l’analyse des IHMs selon deux stratégies :
analyse de cours/situations existants(es) et analyse des
interfaces liées à la spécification de nouveaux cours ou
de nouvelles situations. Le deuxième point porte sur
des méthodes d’analyses plus techniques s’intéressant
davantage à la plateforme comme artefact informatique.
Amiens - 23 et 24 mai 2012
Formalisation du langage de conception pédagogique implicite d’un LMS
Le processus que nous proposons (figure 1) est
composé de trois étapes principales : l’analyse centrée
IHM, l’analyse centrée technique, ainsi que la
confrontation et formalisation finale. La première étape
est conduite par 3 analyses séquentielles (macro-IHM,
fonctionnelle et micro-IHM) selon une démarche
descendante. Chaque analyse possède ses propres
caractéristiques et produit son (ses) modèle(s)
conforme(s) au formalisme proposé. L’activité de
composition est basée sur les modèles résultant des
analyses précédentes et consiste à formaliser le modèle
métier final par la dérivation de celui issu de l’analyse
centrée IHM. La seconde étape concerne l’analyse
centrée technique. Plusieurs méthodes techniques
peuvent être adoptées (base de données, code source,
les sauvegardes de cours, etc.) mais la principale source
d’informations sera l’analyse de la base de données. La
dernière étape du processus concerne la confrontation
entre le modèle IHM et le modèle technique, puis la
formalisation du modèle métier final (méta-modèle) de
conception pédagogique. Ce méta-modèle servira
ensuite de base de spécification pour les modules
d’import/export des LMS, ainsi que la spécification et
le développement de langages/éditeurs de conceptions
pédagogiques externes.
L’analyse centrée IHM assure l’identification de la
partie visible du langage de la plateforme. L’analyse
centrée technique assure la spécification des modèles
conformément au langage des plateformes. La
confrontation entre les modèles assure l’affinement du
modèle IHM et la détection de certains problèmes.
Dans les sous-sections suivantes, nous détaillons les
différentes parties du processus.
titres des interfaces et des formulaires, et parfois via
l’analyse des chemins de navigation. Ensuite, les
relations entre les concepts du modèle sont déduites à
partir des relations existantes entre les interfaces.
Analyse Fonctionnelle
L’analyse fonctionnelle est basée sur le modèle IHMmacro. Elle consiste à identifier les fonctionnalités
relevant de la conception pédagogique. Les IHM sont
ainsi analysées d’un point de vue fonctionnel. Nous
avons classé les fonctionnalités embarquées en deux
catégories : les fonctionnalités à critère pédagogique
qu’il faudra conserver et les fonctionnalités
administratives (affichage, gestion, etc.) qu’il faudra
écarter. Les fonctionnalités sont implicitement
embarquées dans les interfaces via des composants de
l’interface graphique (des widgets) facilitant les
interactions entre le système et les usagers. Les
composants doivent être testés pour déterminer leur
critère pédagogique. Ensuite, on attribuera un nom pour
chaque composant "pédagogique". Le formalisme du
modèle fonctionnel proposé s’inspire du modèle SADT
(Structured Analysis and Design Technic) (Marca et
McGowan 1987) en adaptant légèrement la sémantique
des diagrammes de cas d’utilisation UML (Unified
Modeling Language) (John et Muthig 2002). Un tel
diagramme est ainsi utilisé pour représenter les modèles
‘fonctionnels’ internes. Les sous-fonctionnalités sont
alors représentées dans un nouveau diagramme de cas
d’utilisation lié au précédent par une relation
hiérarchique explicite. Les fonctionnalités sont
également identifiées en analysant les interfaces des
cours existants comme celles permettant la création de
nouveaux cours.
Figure 1 : processus d’analyse du langage de conception pédagogique
L’analyse Centrée IHM
Analyse IHM-macro
Les LMS sont composés de plusieurs interfaces
développées pour différentes finalités et pour
différentes catégories d’usagers (enseignant, apprenant,
administrateur, etc.). L’analyse IHM-macro consiste à
identifier les IHM relevant de la conception
pédagogique. Ces IHM sont dédiées à la spécification
des situations d’apprentissage (scénarios pédagogiques,
cours, etc.). L’analyse macro-IHM vise à référencer ces
IHM dans son modèle macro-IHM. Ce modèle est une
cartographie (mindmap en anglais) d’IHMs dont
chacune est représentée par son concept principal. Ces
concepts sont identifiés via l’analyse sémantique des
4ièmes Rencontres Jeunes Chercheurs en EIAH
Analyse IHM-micro
L’analyse IHM-micro est basée sur le modèle IHMmacro et fonctionnel. Elle consiste à analyser les
interfaces concernées à une échelle plus fine pour
identifier les éléments relevant de la conception
pédagogique. Plusieurs modèles IHM-micro résultent
de cette analyse. Chaque modèle décrit un élément et
ses propriétés (attributs, types, etc.). Pour mener cette
analyse, nous proposons la démarche suivante. Pour
chaque interface, tous les éléments doivent être
analysés afin de déterminer ses caractéristiques
pédagogiques. Plusieurs éléments pédagogiques
peuvent être décrits par des composants d’interface
graphique, des formulaires, etc. Plusieurs composants
5
Aymen Abedmouleh
peuvent cacher des éléments pédagogiques. Ils doivent
être testés et analysés. Il est également important
d’identifier les attributs des éléments identifiés ainsi
que leurs propriétés. Durant notre travail d’analyse,
nous avons constaté que des domaines de valeur sont
associés à plusieurs attributs dont certains sont déjà
initialisés par défaut. Les domaines de valeurs ainsi que
les initialisations par défaut doivent être identifiés ; ils
représentent des caractéristiques importantes de la
conception pédagogique centrée LMS. L’identification
de ces éléments est réalisée via l’analyse des titres et
des formulaires. Ces éléments sont classifiés en deux
catégories : les éléments requis par les interfaces et les
éléments optionnels. Les éléments requis sont soulignés
par un style spécifique (gras, souligné, couleur
spécifique, etc.). Ils forment des éléments principaux de
la conception pédagogique. L’analyse des formulaires
permet aussi de détecter les dépendances et les
relations entre ces éléments. Parfois, le paramétrage de
certains éléments implique le paramétrage automatique
d’autres. La description des relations nécessite la
définition des multiplicités entre eux. La multiplicité est
représentée par un couple de bornes minimale et
maximale. Enfin, nous notons que l’ordre des éléments
est une caractéristique importante dans la conception
pédagogique parce qu’elle influence l’organisation des
concepts pédagogiques (exemple l’organisation du
cours dans la plateforme Moodle). Nous avons choisi
une adaptation du format mindmap pour représenter le
modèle IHM-micro. Ce format permet la représentation
et la description des éléments de conception
pédagogique en termes d’attributs, de types, de
propriétés, de domaines de valeur, d’initialisations, de
contraintes et de relations.
La Composition
La composition vise à formaliser le langage de
conception pédagogique partiel dérivé de l’analyse
centrée IHM. Elle consiste à combiner les modèles
IHM-micro dans un modèle unique. Les relations entre
les modèles sont basées sur les relations situées dans les
modèles IHM-macro et fonctionnel. Les relations
situées dans le modèle IHM-macro sont facilement
identifiées mais celles du modèle fonctionnel sont
identifiées selon la démarche suivante. Après avoir
choisi un élément du modèle IHM-macro, nous devons
fixer la partie du modèle fonctionnel associée. Plusieurs
cas d’utilisation référencent un ou plusieurs élément(s)
requis pour la réalisation des fonctionnalités. En se
basant sur la hiérarchie des cas d’utilisation, nous
déduisons les relations entre ces éléments. Nous savons
déjà que les sous-modèles internes du modèle
fonctionnel sont représentés par niveau. Les modèles
IHM-micro seront également représentés par niveau en
préservant la hiérarchie équivalente du modèle
fonctionnel. Enfin, les multiplicités entre les
éléments/modèles sont ajoutées sur le modèle IHM.
Certaines multiplicités sont déjà identifiées pendant
l’analyse IHM-micro. En conclusion, le modèle IHM
fusionne les modèles IHM-micro en adoptant un format
6
de type cartographie (mindmap).
Analyse Centrée Technique
La deuxième partie du processus concerne l’analyse
centrée technique. Elle concerne plusieurs points
techniques au sein des LMS à analyser : les bases de
données, le code source, la sauvegarde/restauration des
cours (si elle existe), etc. Dans cette étape, la source
principale d’information pour identifier le langage de
conception pédagogique est la base de données du
LMS concerné. Les autres analyses techniques sont
utilisées durant la dernière partie de confrontation.
L’analyse de la base de données consiste à spécifier le
modèle conceptuel de données réduit parmi le modèle
fourni par les créateurs de LMS, s’il existe. Plusieurs
modèles sont représentés par le biais du modèle
relationnel de données généré par des outils proposant
la ré-ingénierie de la base. Cependant, la majorité de
ces outils ne sont pas gratuits et leurs résultats
dépendent directement de la taille de la base de
données. Dans notre approche, l’analyse de la base de
données est réduite aux tables/colonnes en relation avec
la conception pédagogique. L’obstacle principal
concerne leurs identifications. Les informations issues
de l’analyse centrée IHM semblent utiles pour ce cas.
Pour mener cette analyse à bien, notre méthodologie
consiste à (1) parcourir toutes les tables afin
d’esquisser une première ébauche du modèle, (2) se
focaliser sur les tables faisant référence à des éléments
de conception pédagogique. Ces tables sont identifiées
via l’analyse sémantique de leurs titres ou de leurs
champs d’enregistrement. D’autres tables sont
également identifiées via leurs dépendances avec
d’autres ou bien via les clés étrangères. Notre analyse
consiste à spécifier le schéma réduit de la base de
données par le biais des règles de reverse engineering
des bases de données. Le modèle conceptuel de
données peut être finalement spécifié à partir de ce
schéma.
Ce modèle est efficace pour représenter le modèle
métier selon un point de vue technique des données
sauvegardées. Il permet aussi par construction de
cacher les mauvaises structures des bases de données et
d’éviter les redondances et mauvaises conceptions.
Certaines relations entre tables exigent des analyses
manuelles fines afin de rejeter celles créées pour des
finalités uniquement à bas niveau.
Confrontation des Modèles et la Formalisation
du Modèle Final
La dernière partie du processus concerne la
confrontation des modèles IHM et technique et la
formalisation du modèle final de la conception
pédagogique. Les modèles sont comparés afin d’affiner
le modèle IHM, détecter et corriger les différences et
assurer que le modèle final est facilement spécifié dans
un format interprétable par la machine. La
confrontation mène à des vérifications concernant la
Amiens - 23 et 24 mai 2012
Formalisation du langage de conception pédagogique implicite d’un LMS
définition des éléments de conception pédagogique
dans les deux modèles. Certaines ambigüités ou
différences (la définition des éléments similaires, la
non-existence de certains attributs, la divergence des
types d’attributs, etc.) sont révélées. Elles exigent des
analyses plus profondes et plus fines des modèles IHM
et technique. À ce stade, d’autres analyses techniques
peuvent être utiles. Par exemple, l’analyse du code
source consiste à analyser directement le code du LMS.
Elle concerne principalement le code de la définition
des IHMs et les requêtes d’insertion/sélection des
données. Cette analyse révèle plusieurs détails que le
développeur a choisi d’implémenter pour des raisons de
portabilité et d’efficacité.
Cette partie vise à formaliser le langage de conception
pédagogique. Nous avons choisi le format des métamodèles parmi d’autres (XML schéma, mindmap,
ontologies, etc.) car il servira de base pour le
développement de nouveaux outils de conception selon
l’approche Domain Specific Modeling. Le processus
vérifie l’existence de chaque élément du modèle IHM
sur le modèle technique. Lorsque l’existence est
vérifiée, l’élément est modélisé par une méta-classe
dans le méta-modèle. Ensuite, ses attributs sont vérifiés.
La vérification concerne l’existence et le type. Les
attributs vérifiés sont représentés par des méta-attributs
au sein de la méta-classe de l’élément parent. Enfin, les
relations entre les méta-classes sont définies en tenant
compte des relations existantes dans les modèles IHM
et technique. Les multiplicités sont également vérifiées
avant leur représentation dans le méta-modèle.
Expérimentations
Expérimentation du Processus
Nous présentons dans cette section un extrait des
expérimentations menées sur la plateforme Moodle. Cet
extrait concerne l’identification et la formalisation du
langage de conception d’un forum sur Moodle. Le
forum est une activité fréquemment utilisée au sein
d’un cours. Sa spécification nécessite le paramétrage de
plusieurs IHM qui embarquent d’autres éléments dédiés
à la conception de cette activité. Dans un premier
temps, l’analyse IHM-macro a consisté à
l’identification des IHM relevant de la spécification du
forum. La création d’un nouveau forum mène à des
nouvelles interfaces pour la spécification des éléments
dédiés tels que le cas de l’élément «discussion ». Le
modèle IHM-macro est enfin composé par deux
concepts principaux : 'forum' et 'discussion'. Dans un
deuxième temps, l’analyse fonctionnelle a identifié les
fonctionnalités en relation avec la spécification du
forum et de ses éléments. Les fonctionnalités sont
également identifiées en analysant les interfaces de
création d’un nouveau forum ainsi que l’analyse d’un
forum existant. La fonctionnalité principale identifiée
est «ajouter un forum» après l’analyse de l’interface
principale du cours. Ensuite, nous avons identifié ses
4ièmes Rencontres Jeunes Chercheurs en EIAH
sous-fonctionnalités (comme «ajouter une discussion»).
Le modèle fonctionnel est spécifié au fur et à mesure de
l’identification des fonctionnalités. Dans un troisième
temps, l’analyse IHM-micro a consisté à analyser le
formulaire de l’interface du forum. Ensuite, les
éléments et les attributs reliés au forum doivent être
identifiés. Nous avons identifié les attributs du forum,
leurs types, leurs champs de valeurs et leurs
initialisations. La même analyse a été reproduite
concernant l’élément 'discussion'. Ensuite, nous avons
déterminé les multiplicités entre forum et discussion en
associant plusieurs discussions au forum. Nous avons
constaté qu’une discussion n’est associée qu’à un seul
forum. Enfin, cette analyse a produit deux modèles
IHM-micro (figure 2). La dernière étape de l’analyse
centrée IHM (la composition) a consisté à associer les
deux modèles IHM-micro du forum et des discussions
(figure 2). En se basant sur le modèle IHM-macro et
fonctionnel, nous avons déduit qu’une discussion est un
sous élément de forum. Ensuite, nous avons représenté
les multiplicités déjà identifiées dans l’analyse IHMmicro.
1
0,* 1,1
0,*
1,1
2
Figure 2 : Extrait du modèle IHM de la conception du forum
L’analyse centrée technique a consisté à étudier la base
de données de Moodle. Nous avons tout d’abord ciblé
les tables en relation avec la conception du forum via
l’analyse sémantique de leurs titres (forum,
forum_discussions, etc.). Certaines tables et données
(forum_trak_prefs, forum_read, etc.) ne sont pas prises
en compte parce qu’elles se focalisent sur des finalités
techniques trop bas niveau. Ensuite les relations entre
les tables sont définies. À ce stade, nous avons constaté
que certaines données nécessitent l’identification
d’autres tables. Ces tables sont ajoutées au schéma de
la base de données avant sa transformation en modèle
conceptuel.
Enfin, les deux modèles IHM et technique sont
confrontés en suivant la démarche que nous avons
décrite. Cette confrontation a mené à la spécification du
méta-modèle du langage de conception pédagogique
dont un extrait est représenté dans la figure 3.
7
Aymen Abedmouleh
pour la spécification des scénarios pédagogiques dédiés
à la plateforme Ganesha, et (2) d’un nouveau module
de communication similaire à celui de Moodle.
Référence
Figure 3 : Extrait du méta-modèle du langage de conception
d’un forum de Moodle
API pour Moodle
Notre approche porte également sur l’extension des
LMS par des API de communication proposant des
services d’import/export. En se basant sur le métamodèle du langage de conception pédagogique du
LMS, nous avons généré et adapté un schéma XML. Ce
schéma est utilisé au sein de l’API que nous avons
développée pour la plateforme Moodle 2.0. Cette API
est intégrée au sein de l’espace enseignant de création
du cours. Elle assure l’opérationnalisation de cours
ainsi que l’exportation des scénarios pédagogiques
conformément au schéma XML spécifié (Abedmouleh
et al. 2011a). Concernant cette API, nous avons
également pris en compte la possibilité de réaliser des
imports/exports successifs afin d’adapter le cours grâce
à des outils de conception externes.
Conclusion
Dans cet article, nous avons présenté nos travaux de
recherche portant sur une nouvelle approche de
conception basée sur le langage de conception
pédagogique d’un LMS. Nous avons décrit notre
approche qui propose un processus pour l’identification
et la formalisation de ce langage. Nous avons pris en
compte deux points de vue complémentaires : le point
de vue IHM assurant l’identification du langage LMS
accessible à l’utilisateur et le point de vue technique
assurant l’opérationnalisation des scénarios spécifiés
conformément au langage identifié.
Le processus d’analyse ainsi que l’approche de
conception que nous proposons sont ré-exploitables
pour d’autres LMS. Le processus offre l’opportunité de
comparer le langage de plusieurs LMSs. Nous avons
également montré l’utilité de ce processus à travers les
valeurs ajoutées qu’il peut apporter en ce qui concerne
l’extension des LMS par des services de
communication (import/export) avec des outils de
conception externes développés sur la base du métier
identifié. Ces outils de conception doivent être plus
adaptés aux pratiques des enseignants, plus
ergonomiques que les interfaces des LMS et dont les
modèles produits seront conformes au langage de
conception pédagogique dédié au LMS. Nous avons
expérimenté l’utilisation du méta-modèle pour le
développement d’un VIDL et d’un éditeur graphique
dédié (Abedmouleh et al. 2011b) en se basant sur
l’approche DSM.
Nous travaillons actuellement sur le développement (1)
d’un deuxième outil de conception graphique externe
8
Abdallah, F.; Toffolon, C.; and Warin, B. 2008.
Models transformation to implement a Project-Based
Collaborative Learning (PBCL) Scenario : Moodle case
study. In 8th IEEE International Conference on
Advanced Learning Technologies, 639-643. Spain.
Abedmouleh, A.; Oubahssi, L.; Laforcade, P. and
Choquet, C. 2011a. Operationalization of Learning
Scenarios on Open and Distance Learning platforms:
the case of the Moodle Platform. 11th IEEE
International Conference on Advanced Learning
Technologies. 396-398. Athens , USA.
Abedmouleh, A.; Laforcade, P.; Oubahssi, L.; and
Choquet, C. 2011b. Operationalization of learning
scenarios on existent Learning Management Systems:
the Moodle case-study. International Conference on
Software and Data Technologies In Proceedings of the
6th International Conference on Software and Data
Technologies, 143-148. Seville, Spain.
Artacho, M. R.; and Maíllo M. F. V. 2004. Modeling
Educational Content: The Cognitive Approach of the
PALO Language. Educational Technology & Society, 7
(3):124-137.
Baggetun, R.; Rusman, E.; and Poggi, C. 2004.
Design Patterns for collaborative learning: from
practice to theory and back. In Proc. of World
Conference on Educational Multimedia, Hypermedia
and Telecommunications, 2493-2498, Chesapeake, VA.
Botturi, L.; and Todd, S. 2007. Handbook of Visual
Languages for Instructional Design: Theories and
Practices. Information Science Reference.
Gonzalez, V.; and B., Anido, L., R. 2010. From
SCORM to Common Cartridge: A step forward. In
Computers & Education 54: 88-102.
John, I.; and Muthig, D. 2002. Tailoring Use Cases
for Product Line Modeling. In International Workshop
on Requirements Engineering for Product Lines (REPL
2002), Essen, Germany. ISBN: 0-9724277-0-8.
Laforcade, P. 2010. A Domain-Specific Modeling
approach for supporting the specification of Visual
Instructional Design Languages and the building of
dedicated editors. In Journal of Visual Languages and
Computing. Volume21 Issue6:347-358
Marca, D.A.; and McGowan, C.L. 1987. SADT:
structured analysis and design technique. ISBN:0-07040235-3, New York USA.
Ortiz, I. M.; Sierra, J.L.; and Fernández-Manjón B.,
2009. Enhancing IMS LD Units of Learning
Comprehension. The 4th International Conference on
Internet and Web Applications and Services. Italy.
Steel C., 2009. Reconciling university teacher beliefs
to create learning designs for LMS environments. The
University of Queensland. In Australasian Journal of
Educational Technology
Tattersall, C.; Burgos, D.; Vogten, H.; Marterns H.;
Koper, R., 2005. How to use IMS Learning Design and
SCORM 2004 together.IN the SCORM 2006
conference. Tamkang University, Taipei, Taiwan.
Amiens - 23 et 24 mai 2012
Le TAL pour l’analyse de contenus d’interaction et de
productions dans la formation en ligne.
Alexandre Baudrillart
LIDILEM1 – LIRIS2
Université Stendhal Grenoble 3, BP 25, 38040
Grenoble Cedex 9, France
2
Université de Lyon, CNRS, INSA-Lyon, UMR5205
F-69621, France
[email protected]
1
Résumé
Dans le cade d’apprentissages assistés par des
environnements informatiques, les techniques du
traitement automatique des langues ne sont que peu
utilisés ou restreintes à des tâches ou à des domaines
spécifiques comme l’ALAO (Apprentissage de la
langue Assisté par Ordinateur). Nous cherchons à
explorer les possibilités et les performances
d’applications de ces méthodes pour des systèmes
moins spécifiques dès que des traces d’interactions
entre divers apprenants peuvent être collectées. Nous
décrivons ici notre problématique et son contexte, nos
motivations et l’orientation de nos travaux
bibliographiques.
Introduction
Les préoccupations considérées dans le cadre de notre
thèse, dirigée par Georges Antoniadis (LIDILEM) et
codirigée par Sébastien George et Christine Michel
(LIRIS), concernent l’analyse de matériaux langagiers
de traces d’interactions et de productions dans des
situations d’apprentissage collectives, c’est-à-dire les
messages en langue naturelle échangés.
L’objectif principal est exploratoire et consiste à
évaluer les possibilités des traitements automatiques
des langues actuelles dans la production d’indicateurs
sur le niveau et la qualité de construction du savoir par
les apprenants lors de ces situations d’apprentissage.
Nous décrirons un panorama général du Traitement
Automatique des Langues, qui n’est pas un domaine
connu de tous (Antoniadis 2008). Puis, nous
aborderons de manière non exhaustive les applications
de méthodes TAL pour les EIAH et
plus
particulièrement pour l’ALAO. Enfin,
nous
expliciterons notre problématique préparatoire et
tâcherons de la situer par rapport à deux travaux.
de transformer des matériaux langagiers (qu’ils soient
écrits ou oraux) en représentations formelles (Bouillon
et Vandooren 1998) plus ou moins implicites mettant
en exergue la présence, l’absence de certaines entités,
l’existence de relations entre différentes entités, ou
encore permettant de retrouver des documents et des
contenus en fonction d’une demande formulée en
langue naturelle.
Par la suite, nous restreindrons notre description au
traitement de l’écrit. Nous présenterons le TAL de
manière générale, puis décrirons une chaîne de
traitement traditionnelle en TAL et les différents étapes
ou ressources mises en œuvre, et enfin nous mettrons
en avant quelques méthodes répandues que sont
l’Utilisation de l’Analyse Sémantique Latente (Latent
Semantic Analysis), la fouille de texte ou la
classification supervisée.
Une chaîne de traitement de l’écrit type en
TAL
On distingue généralement deux types de traitement :
l’analyse, dont font parties les exemples inscris ciavant, et la génération automatique de textes en langue
naturelle.
La génération automatique de texte consiste en la
production de texte en langue naturelle à partir de
données brutes ou d’une représentation formelle
comme la génération automatique de bulletins
météorologiques en langue naturelle (Coch 1999).
Nous ne présentons ici que l’analyse car elle partage
beaucoup avec la génération à part la dimension de
planification et le sens de parcours de la chaîne.
La chaîne de traitement traditionnelle des traitements
d’analyse de l’écrit se présente comme en FIGURE 1.
Le Traitement Automatique des Langues et
ces Principales Techniques
Le Traitement Automatique des Langues (Natural
Language Processing) est par essence pluridisciplinaire
(Antoniadis 2008). En effet, il consiste à fournir des
modèles et des programmes informatiques permettant
4ièmes Rencontres Jeunes Chercheurs en EIAH
9
Alexandre Baudrillart
intégralité ou non pour des tâches de plus haut niveau,
qu’elles soient proprement linguistiques ou qu’elles
répondent à des besoins, des problèmes qui ne sont pas
directement liés à la langue et cela au travers de cette
dernière.
Approches Représentatives
Figure 1 : chaîne de traitement type en traitement
automatique des langues (P. Enjalbert)
On segmente et on tokénise le texte source, c’est-àdire qu’on va essayer de découper en différents
morceaux correspondant à des mots, des acronymes ou
des séparateurs. On obtient des phrases contenant des
tokens.
Ensuite ou de concert, intervient une analyse
morphologique permettant, à partir de la forme des
mots (les graphies), de leurs désinences ou de leurs
préfixes (appelons ces parties morphèmes qui sont des
formes atomiques amenées à être combinées pour
former les mots de la langue) pour catégoriser la nature
grammaticale de ces mots (Part Of Speech Tagging).
Différents analyseurs morphologiques automatiques
existent et notamment TreeTagger1 répandu dans la
communauté du TAL (Schmid 1994) car un des
meilleurs parmi les outils gratuits.
Une fois des étiquettes de catégories grammaticales
attachées aux différentes graphies (qu’on ait effectué
des choix ou seulement énuméré les possibles). Une
étape d’analyse syntaxique entre en jeu avec deux
objectifs. Le premier objectif est la validation de la
correction grammaticale du texte en vérifiant si les
mots et leurs catégories grammaticales obéissent à la
grammaire de la langue souvent formulée sous forme
d’une grammaire. Le second est de constituer les
relations syntaxiques qui unissent les différents mots au
sein de la phrase. C’est alors une structure arborescente
qui représente la phrase. On peut citer deux analyseurs
morphosyntaxiques : Syntex (Bourigault 2007) et le
Xerox Incremental Parser2.
Ensuite, un étiquetage sémantique des tokens prend
place. On essaye d’associer chacun des tokens à un
Concept d’une ontologie (a)linguistique (ex :
GeneOntology), à une entrée lexicale précise d’un
réseau lexicale ou sémantique (ex : WordNet) et/ou en
lui prêtant différents caractéristiques sous forme d’une
structure de traits. On obtient alors un arbre étiqueté
par toutes ces informations supplémentaires.
Ces différentes étapes représentent les prétraitements
traditionnellement admis comme nécessaires dans leur
1
http://www.ims.uni-tuttgart.de/projekte/corplex/TreeTagger/
2
http://www.xrce.xerox.com/Research-Development/DocumentContent-Laboratory/Parsing-Semantics/Robust-Parsing
10
On répartit habituellement les différentes approches du
traitement automatique des langues en deux
catégories : les méthodes à base de règles et les
méthodes statistiques.
Les Approches à Base de Règles
Les approches à base de règles dérivent de l’utilisation
de systèmes experts et de l’ingénierie des
connaissances. Le matériau langagier est transformé en
une représentation symbolique qui constitue
principalement une base de faits et un ensemble de
règles constituées manuellement par des experts qui
vont permettre d’expliciter, au travers du moteur
d’inférence, des informations encore plus implicites
que celles nécessaires à la représentation de l’entrée en
faits symboliques. On peut notamment trouver de telles
approches dans le cadre de la résolution d’anaphore
(Kennedy et Boguarev 1996, Liang et Lin 2005)
Les Approches Statistiques
Les méthodes statistiques s’appuient sur des propriétés
de similitude ou de différence parmi différentes
matériaux langagiers issus de réelles productions
humaines en observant les fréquences d’apparition de
termes dans les différents documents, les cooccurrences de termes ou des motifs réguliers
permettant une classification supervisée ou non.
Parmi les méthodes statistiques on peut retrouver
l’Analyse Sémantique Latente (Deerwester et al. 1990)
avec laquelle on établit les fréquences de chaque terme
pour chacun des documents d’un corpus afin de
construire un espace avec autant de dimensions que de
termes (mots ou groupes de mots non-grammaticaux).
On obtient ainsi une matrice creuse où les lignes sont
les termes et les colonnes les documents. Un
coefficient est alors l’effectif d’un terme ti dans un
document dj normalisé selon sa rareté dans le corpus
(un terme omniprésent n’est en rien discriminant pour
un document). On réduit souvent le rang de cette
matrice en réduisant les différents termes à leurs
radicaux, en regroupant des synonymes, et en retirant
les termes peu discriminants ou extrêmement rares. On
peut alors obtenir des corrélations entre termes
(respectivement entre documents) en effectuant
le
produit scalaire entre chaque ligne (respectivement
chaque colonne). Une décomposition en valeurs
singulières de cette matrice permet de projeter
documents et termes dans un espace de concepts en
évaluant cette fois-ci les corrélations entre termes et
concepts et entre documents et concepts. On peut
Amiens – 23 et 24 mai 2012
Le TAL pour l’analyse de contenus d’interaction et de productions dans la formation en ligne
ensuite procéder à des classifications non supervisées
d’un corpus selon cet espace de concepts.
Une technique de segmentation thématique de suite
de paragraphes dans un texte, proposée par Marty
Hearst, s’appuie dans le même esprit, sur un modèle
vectoriel : le Text Tiling (Hearst 1997). On change de
grains : le corpus depuis le document et le document
devient un passage de ce dernier. On estime qu’il y a
un changement thématique lorsque deux passages
consécutifs sont beaucoup plus distants, dans l’espace
formé par chaque terme du document, qu’auparavant.
Des méthodes de classifications automatiques liées à
l’apprentissage automatique (Machine Learning) sont
maintenant beaucoup utilisées en les hybridant avec
des représentations symboliques, que ce soit une fouille
de données traditionnelles, séquentielles ou la fouille
de texte. (Lucas et Crémilleux 2004, Charnois et al.
2006, Charnois et al. 2008)
Principales tâches
La croissance du TAL depuis les années 50 est
étroitement liée à celui du vieux rêve qu’était la
traduction automatique qui a évolué vers une traduction
semi-automatique, qu’elle soit automatique assistée par
l’humain ou humaine assistée par ordinateur. Cette
première revient à analyser une langue source pour
opérer un transfert de cette première représentation
vers une représentation en langue cible afin d’opérer
une génération d’un texte dans la langue cible.
Simuler des interactions, soit une compréhension
limitée d’un message par un agent informatique et/ou
la génération de sa réponse intelligible et pertinente
pour l’utilisateur est aussi une tâche à laquelle peuvent
répondre les traitements de langue.
Enfin, le TAL contribue déjà à des systèmes pour
l’apprentissage humain, nous abordons ce sujet dans la
partie suivante.
La Place du Traitement Automatique des
Langues dans les EIAH
TAL et EIAH
Dans (Gurevych et al. 2009), les auteurs décrivent le
panorama de l’utilisation des technologies TAL pour
l’EIAH et les classe en quatre catégories : la génération
automatique d’exercices, l’évaluation automatique des
réponses discursives d’apprenants, l’aide à la lecture et
à la rédaction, et enfin la gestion de contenus et
l’apprentissage collaboratif en ligne (CSCL).
Génération Automatique d’Exercices
La génération automatique de QCM, d’exercices
lacunaires et l’évaluation de l’efficacité de ces derniers
est un enjeu bien abordé par les applications du TAL
comme dans (Karamis et al. 2006) ou (Lee et Seneff
2007), néanmoins 90 % des références citées par
l’auteur concernent l’ALAO.
Evaluation Automatique de Prose
L’analyse de textes librement rédigés par des
apprenants pour répondre à des questions ouvertes, qui
acceptent un raisonnement pertinent comme « bonnes
réponses » ou des modèles types de bonnes
réponses, est un problème de choix pour éprouver le
TAL et le faire progresser. Mais la compréhension
automatique reste un rêve depuis longtemps « oublié »
par les spécialistes. (Antoniadis 2008)
Aide à la Lecture et à la Rédaction
Les technologies de langue permettent aussi
d’apporter une aide à la lecture mettant en relation des
textes avec les glossaires appropriés ou offrant des
liens vers d’autres documents donnant définitions,
prérequis et contexte. Mais aussi à la rédaction en
offrant une correction automatique orthographique ou
syntaxique.
Avec l’essor d’internet, l’explosion du nombre de
documents disponibles et celle de son débit que cela
soit des articles de presse, des dépôts de brevets, les
annonces des entreprises sur les marchés ou encore les
publications académiques, la gestion de l’information
est devenue humainement chronophage et intraitable
pour respecter des délais d’instantanéité que la société
d’aujourd’hui exige. Ainsi, l’organisation et le
référencement de tous ces documents par une
indexation, discriminante au sein d’un corpus, par
concepts (vers un web sémantique), pour la recherche
documentaire, l’extraction d’information et la veille
stratégique, est toujours une application privilégiée des
technologies de la langue.
4ièmes Rencontres Jeunes Chercheurs en EIAH
La lecture de textes en langue étrangère ou avec des
termes spécifiques à un domaine, abordant des
concepts inconnus ou rédigés avec un style pompeux
peut nécessiter une aide extérieure sous la forme de
simplification de textes, de proposition de synonymes,
de mise en relation avec des documents tiers explicitant
définitions ou glossaires comme (Gaudio et Branco
2007), contexte et prérequis.
Cela concerne aussi l’aide à la rédaction et
notamment ce que peut offrir le TAL en correction
orthographique ou syntaxique.
CSCL et Web
L’essor du Web a permis l’accès à des ressources en
ligne comme des sites spécialisés ou des encyclopédies
numériques, mais il a aussi créée un savoir de la foule
par le partage de savoir sur des forums, des blogs ou
encore des wikis. Des travaux concernant ces derniers
qui sont aussi de l’ordre de l’ingénierie des
connaissances : de l’organisation de ces dernières dans
des espaces comme les wikis.
11
Alexandre Baudrillart
Les auteurs soulignent le fait que le Tal peut
notamment contribuer à tisser des liens entre des
contenus similaires (Green 1998), fusionner le contenu
de passages proches (Gabrilovitch et Markovitch
2007), réaliser une segmentation thématique des
contenus afin de les diviser (Choï et al. 2001) ou
encore extraire des termes-clés (Mihalcea et Tarau
2004).
La construction de connaissance y est effleurée par la
mise en évidence de techniques d’évaluation
automatique de la qualité de production au sein de
wikis (Druck et al. 2008) ou de forums (Weimer et al.
2007), qui reste relativement proche de l’évaluation de
dissertations.
L’état actuel de nos recherches bibliographiques ne
nous permet pas de nous étendre sur un vaste panorama
dans ce champ de recherche. Néanmoins nous
présentons dans la dernière section des travaux récents
à ce sujet qui entrent directement dans le cadre de notre
problématique et qui nous serviront de point de repère
et de point de départ afin d’identifier par la suite des
mécanismes de TAL mis en jeu et les indicateurs à
définir.
TAL et ALAO
Le Traitement Automatique des Langues (TAL) est
encore peu appliqué dans le cadre d’EIAH en dehors
des systèmes d’Apprentissage des Langues Assistée
par Ordinateur (ALAO). Dans ces systèmes, le support
de communication est aussi l’objet de l’étude, et sa
maitrise « un » objectif pédagogique. Il est donc à la
fois immédiat et légitime que ce matériau langagier
soit diagnostiqué, analysé, et évalué. (Antoniadis 2008)
La particularité de notre problématique est la volonté
d’explorer les possibilités de production d’indicateurs
pertinents pour évaluer la construction du savoir chez
les apprenants que pourraient avoir les méthodes TAL.
Les traces analysées concernent donc les propos
échangés et les différentes versions des productions
finales en construction et cela sans restriction des
approches (si ce n’est socioconstructivistes), des
scénarios pédagogiques et des disciplines.
et la construction de scénarios pédagogiques, et
l’évaluation de niveau de connaissance ou de maitrise
chez les apprenants.
L’analyse de traces considère majoritairement
l’organisation linéairement temporelle des interactions
avec et au travers d’interfaces homme-machine
notamment pour une interaction distante avec d’autres
utilisateurs et peuvent correspondre à la manipulation
d’éléments d’interface, la saisie de contenu, le
déclenchement
de
processus
propres
à
l’environnement. Ces traces sont temporellement
situées comme des intervalles sur un axe de temps avec
une date de début et une date de fin, et donc une durée.
La finalité de ces analyses est de produire des
indicateurs
pour
mettre
en
évidence
des
comportements. Pour cela, on est amené à combiner
différentes traces, à les synchroniser et enfin à les
transformer pour produire plus ou moins directement
des indicateurs visualisables amenant à informer
différentes classes d’utilisateurs sur le contexte, les
performances ou les comportements dans les situations
d’apprentissages. Ces feedbacks sont émis à des fins
d’auto-évaluation des apprenants, d’évaluation
sommative par l’enseignant ou d’encadrement par et
pour des tuteurs.
Dans le cadre d’interactions de communications
entre différents acteurs, c’est du matériau langagier qui
est échangé et cet aspect de la langue constitue une
dimension primordiale de ces traces. Or, souvent
l’analyse des contenus des échanges verbaux ou encore
de productions collectives est laissée pour compte et
seules les informations événementielles ou quelques
métadonnées, représentatives des contenus voire des
tons ou des actes de langages (George 2004), sont
utilisées.
Exemple de Situation Socioconstructiviste
Bénéficiaire
Problématique
On peut observer un cas pour lequel un apport effectif
de techniques de TAL pour un traitement dans un
article de Hou et Wu (Hou et Wu 2011) dans lequel
une classification de messages en types d’interactions
et l’évaluation de la qualité de discussion sont réalisées
par des experts humains dans le but de détecter des
motifs caractéristiques des bonnes ou mauvaises
discussions.
La finalité de notre de thèse est de pouvoir évaluer la
construction du savoir chez les apprenants par rapport à
des objectifs pédagogiques bien définis, en fournissant
des feedbacks aux différents acteurs d’une situation
d’apprentissage, comme l’apprenant, le formateur ou le
tuteur, sous la forme d’indicateurs pertinents.
Dans cet article, les auteurs proposent d’étudier les
caractéristiques et les limitations des discussions
synchrones pour l’apprentissage collaboratif, ainsi que
l’impact des interactions sociales et d’une collaboration
entre les différents apprenants sur la construction du
savoir.
Ces centres d’intérêts rejoignent les travaux sur
l’étude des traces d’interactions dans
les
Environnements Informatiques pour l’Apprentissage
Humain, et la production d’indicateurs, la modélisation
L’expérience consiste à observer à long terme (3
mois) 40 étudiants répartis en groupes, de moins de dix
étudiants, dont la tâche est de participer, par
l’intermédiaire d’une messagerie instantanée, à des
discussions dont le sujet a été fixé par leur professeur.
Positionnement et Objectifs de la Thèse
12
Amiens – 23 et 24 mai 2012
Le TAL pour l’analyse de contenus d’interaction et de productions dans la formation en ligne
Ces discussions doivent amener à des conclusions
après des recherches et des débats.
un partage de connaissance ou à organisation même
s’ils ne sont pas autant productifs.
On va s’intéresser, dans un premier temps, à une
analyse quantitative du contenu des messages des
discussions selon le comportement qu’il représente au
sein de la discussion dont il fait partie. Ces
comportements sont classés selon quatre catégories :
élaboration de la connaissance, organisation et
collaboration entre apprenants, interactions sociales ou
hors-sujet. Le classement de ces messages est réalisé
manuellement par des experts.
On voudra ainsi guider les enseignants dans leurs
interventions en conseillant de recadrer les hors-sujet,
fournir un cadre de règles pour aider à coordonner les
apprenants ou initier cette coordination. Organiser des
sessions de jeu de rôles où les rôles sont fixés pour
aussi enseigner par l’expérience une certaine
collaboration. De plus, il faut parfois motiver les
participants ou leurs donner des pistes lorsque ils
atteignent des goulets d’étranglement.
Le professeur (expert sur les sujets) classe les
groupes d’étudiants selon la qualité des discussions
qu’ils produisent (bonne ou mauvaise). Ils sont jugés
selon quatre dimensions : la clarification du sujet, la
collecte d’information, la profondeur de l’analyse et la
conclusion sur le sujet.
Mais qu’en est-il d’un traitement automatique ? On
peut remarquer que les auteurs n’affichent ni
n’évoquent aucun processus ou sous-traitement
automatisé ou automatisable. Ainsi l’analyse repose sur
une force humaine et un corpus spécifique.
Pour compléter l’approche quantitative, on
s’intéresse aux séquences de comportements
significatives (statistiquement) notamment pour mettre
en valeur des continuités ou discontinuités de
comportements et/ou de catégories de comportements
et observer les dépendances entre de comportements
et/ou entre catégories de comportements.
On apprend que des comportements plus
collaboratifs et des décisions prises conjointement
participent à améliorer la qualité de la discussion, la
diversité et la profondeur des connaissances construites
autour du sujet.
De plus, des interactions sociales telles que des
encouragements ou des félicitations est un lien vital
entre les messages apportant une pierre à la discussion
et la coordination qui reste primordiale pour que ces
apports soient bien organisés, divers, profonds,
discutés, précisés, évincés mais aussi pour conclure
collectivement sur un sujet (ou encore pour le
brainstorming).
On observe que plus de 50 % des messages sont
hors-sujet, et, contre toute attente, que la proportion est
légèrement plus importante dans les discussions de
bonne qualité. Mais on apprend aussi grâce aux
séquences qu’il y a continuité au sein de la dimension
de la construction du savoir et non la continuité d’un
seul comportement. Ainsi, les discussions de bonne
qualité voient une connaissance diversifiée prendre
forme enchaînant, par exemple, un partage de
connaissance (le plus fréquent : 30%) puis des
messages appelant à un recul comme discuter des
définitions de certains termes, ou voulant clarifier le
sujet. Ces continuités sont aussi garantes du focus des
apprenants sur le sujet et de la profondeur de la
discussion. Ce qui consolide et isole les messages
pertinents des messages hors-sujet. De plus, les
séquences traduisent aussi une totale indépendance des
messages hors-sujet vis-à-vis de toutes les autres
catégories de comportements. Les comportements
hors-sujet existent aussi pour créer un climat propice à
4ièmes Rencontres Jeunes Chercheurs en EIAH
En effet, les messages sont classés selon certains
comportements qui peuvent être eux-mêmes rangés
dans des dimensions spécifiques et ces décisions ne
sont pas triviales.
Ainsi, dans un système automatisé, on aimerait avoir
une classification automatisée des messages selon ces
critères, ce qui permettrait d’inférer, à la volée, les
conseils à promouvoir aux apprenants ou aux
enseignants pour améliorer la qualité des discussions et
de l’apprentissage (sans négliger la rapidité
d’apprentissage), réagir à des séquences de
comportements ou encore simuler un participant fictif
qui pourra aiguiller les apprenants pour une meilleure
qualité non loin d’un tuteur intelligent.
Exemple de Travail Proche : PolyCAFe
Dans (Trausan-Matu 2010) et (Rebedea et al. 2010),
les auteurs présentent un système analysant les
échanges entre des étudiants dans une optique de débat,
et de synthèse, concernant un domaine bien défini : les
CSCL, sur une plateforme dédiée conservant les traces
de ces discussions.
Ce système associe à une chaîne de traitement
traditionnelle une ontologie représentant les concepts
du domaine, ici les IHM, pour éviter des ambiguïtés
dues à la polysémie des langues naturelles, ainsi qu’à
une LSA réalisée au préalable sur un corpus afin de
comparer les concepts évoqués dans deux messages
dans l’espace conceptuel préconstruit et identifier les
différents fils de discussion.
Le système de discussion impose aux participants de
préciser à quels apprenants ils répondent. Cette
information est utilisée pour identifier de premières
interactions explicites. Des traitements linguistiques
d’un plus haut niveau prennent place pour identifier les
références des uns aux autres (coréférence, distance
LSA, connecteurs logiques…) afin de construire un
graphe représentant les interactions sur les différents
savoirs mises en jeu. Une analyse des réseaux sociaux
identifie différents critères significatifs comme la
13
Alexandre Baudrillart
centralité des graphes, les degrés, qui fait autorité (au
sens du pagerank de Google) ou la cohésion,
notamment avec le calcul de composantes fortement
connexes et de cliques.
Les feedbacks concernent l’évaluation de cette
collaboration mais aussi de plus simples critères de
lisibilité et de qualité de la prose.
Ces travaux sont pour nous très intéressants car ils
mettent en perspective les techniques actuelles du TAL
de bas niveau (analyse morphosyntaxique, LSA,
Ontologie) et de haut niveau (structure argumentative,
discours et dialogisme), même si elles ne sont pas
décrites, mais aussi les techniques d’analyse de réseaux
sociaux pour des situations d’apprentissage collaboratif
en ligne.
Conclusion
Nous avons décrit dans cet article le champ du
traitement automatique des langues, mis en évidence
qu’outre l’ALAO, l’application du TAL aux EIAH
reste encore peu explorée et que des potentiels résultats
peuvent être légitimement attendus, notamment dans le
cadre de situations socioconstructivistes.
Références
Antoniadis, G. 2008. Du TAL et de son apport aux
systèmes d'apprentissage des langues : Contributions,
mémoire d’habilitation à diriger des recherches,
Université Stendhal - Grenoble 3.
Bouillon, P. and Vandooren, F. 1998. Traitement
automatique des langues naturelles, Duculot.
Bourigault, D. 2007. Un analyseur syntaxique
operationnel : Syntex, mémoire d’habilitation à diriger
des recherches, CNRS et Université de Toulouse-Le
Mirail.
Charnois, T.; Durand, N. and Kléma, J. 2006.
Automated Information Extraction from Gene
Summaries. In proceedings of the ECML/PKDD
Workshop on Data and Text Mining for Integrative
Biology, 4-15. Berlin, Germany.
Choi, F. Y. Y.; Wiemer-Hastings, P. and Moore, J.
2001. Latent Semantic Analysis for Text Segmentation
In Proceedings of EMNLP: 109-117
Coch, J. 1999. Génération multilingue de bulletins
météorologiques: le logiciel MULTIMETEO. In
Proceedings of GAT-99, 2éme Colloque Francophone
de Génération automatique de Textes. Grenoble,
France.
Deerwester, S.; Dumais, S. T.; Furnas, G. W.;
Landauer, T. K. and Harshman, R. 1990. Indexing by
latent semantic analysis. Journal of the American
Society for Information Science 1:391-407.
Druck, G.; Miklau, G. & McCallum, A. 2008.
Learning to Predict the Quality of Contributions to
Wikipedia
Proceedings of AAAI Workshops
Gabrilovich, E. and Markovitch, S. 2007.
Computing Semantic Relatedness using Wikipediabased
Explicit
Semantic
Analysis
14
Proceedings of the 20th International Joint Conference
on Artificial Intelligence : 6-12
Gaudio, R. D. 2007. Supporting e-learning with
automatic glossary extraction : Experiments with
Portuguese. In proceedings of the RANLP 2007
workshop: Natural Language Processing and
Knowledge
Representation
for
eLearning
Environments, Borovets, Bulgaria.
George, S. 2004. Analyse automatique de
conversations textuelles synchrones d'apprenants pour
la détermination de comportements sociaux. Revue
Sciences et Technologies de l'Information et de la
Communication pour l'Éducation et la Formation
10:165-193.
Green, S. J. 1998. Automated Link Generation: Can we
do Better than Term Repetition? Computer Networks
30:75-84
Gurevych, I.; Bernhard, D. and Burchardt, A. 2009.
Educational Natural Language Processing, Notes for
ENLP tutorial held at AIED 2009, Brighton, U. K.
Hou, H.-T. and Wu, S.-Y. 2011. Analyzing the social
knowledge construction behavioral patterns of an
online
synchronous
collaborative
discussion
instructional activity using an instant messaging tool. A
case study, Computers & Education 57:1459-1468
Karamanis, N. 2006. Generating Multiple-Choice Test
Items from Medical Text: A Pilot Study. In
Proceedings of INLG 2006, 104-107. Sydney,
Australia.
Lee, J. and Seneff, S. 2007. Automatic generation of
cloze items for prepositions. In proceedings of the
eighth INTERSPEECH conference, 2173-2176.
Antwerp, Belgium.
Lucas, N. and Crémilleux, B. 2004. Fouille de textes
hiérarchisée, appliquée à la détection de fautes. Revue
Document Numérique 8:107-133.
Mihalcea,
R.
&
Tarau,
P.
2004.
TextRank:
Bringing
Order
into
Texts
Conference on Empirical Methods in Natural Language
Processing
Rebedea, T.; Dascalu, M.; Trausan-Matu, S.; Banica,
D.; Gartner, A.; Chiru, C. and Mihaila, D. 2010.
Overview and preliminary results of using PolyCAFe
for collaboration analysis and feedback generation. In
proceedings of the 5th European conference on
Technology enhanced learning conference on
Sustaining TEL: from innovation to learning and
practice:420-425. Barcelona, Spain.
Trausan-Matu, S. 2010. Automatic support for the
analysis of online collaborative learning chat
conversations. In Proceedings of the Third international
conference on Hybrid learning:383-394 . Beijin, China.
Weimer,
M.
&
Gurevych,
I.
2007.
Predicting the Perceived Quality of Web Forum Posts
Proceedings of RANLP 2007
Amiens – 23 et 24 mai 2012
Interprétation des traces d’interaction dans un EIAH par une
recherche de patterns d’activité
Mohamed Besnaci
Université BADJI MOKHTAR d'Annaba, Département d'informatique
[email protected]
Résumé
Notre travail s’intègre dans une perspective cherchant à
trouver des nouvelles modalités pour un contrôle
pédagogique dans les EIAH. Pour cela, Nous avons
choisi comme outil support les traces d’interaction qui
vont nous servir de source renouvelable d’informations
reflétant le comportement des apprenants. Les traces
sont des informations de nature technique difficilement
interprétées par les pédagogues. Notre objectif est de
les interpréter et d’en extraire des indicateurs aidant au
contrôle pédagogique. Cette interprétation part du
principe de détection de patterns d’objets et applique
un processus d’appariement pour détecter d’éventuelles
épisodes plus compréhensibles.
Introduction
Un
EIAH
(Environnement
Informatique
d’Apprentissage Humain) est un environnement
informatique conçu dans le but de favoriser
l’apprentissage humain. La qualité d’un EIAH peut être
définie en mettant le point sur deux entités. La première
c’est la qualité de ce qu’il offre comme connaissances,
activités, supports, outils, contenus, etc. la seconde est
la qualité et la pertinence du contrôle pédagogique (s’il
existe) proposé pour assurer les objectifs
d’apprentissage (Guéraud 2005).
Notre article s’intègre dans cette perspective des
modalités et techniques de contrôle pédagogique.
L’objectif global est de penser à une nouvelle modalité
pour l’aide au contrôle pédagogique. Pour cela, nous
avons choisi comme outil support les traces
d’interaction. Elles servent pour nous comme source
renouvelable
d’informations
reflétant
les
comportements des apprenants. Nous avons choisi aussi
comme terrain expérimental notre simulateur CUSIM
(Central Unit SIMulator). Du point de vue de
l’apprenant,
CUSIM
est
un
environnement
d’apprentissage par la pratique du fonctionnement de
l’unité centrale d’un ordinateur. Nous le considérons
comme une source génératrice de traces.
Contrôle pédagogique
Un apprenant qui utilise un EIAH dans un domaine
donné a besoin continuellement d’un contrôle
pédagogique (Guéraud 2005) de la même façon qu’avec
un tuteur humain. Que ce soit dans un EIAH ou avec un
humain, un contrôle pédagogique sert à guider
4ièmes Rencontres Jeunes Chercheurs en EIAH
l’apprenant et à valider ses actions. Il englobe ainsi de
notre point de vue toutes les fonctionnalités d’aide,
d’orientation,
de
suggestion,
d’assistance
et
d’évaluation.
Une stratégie de contrôle pédagogique est spécifiée
en prenant en compte plusieurs considérations:
l’approche d’apprentissage est elle cognitiviste ou
constructiviste ? La nature de la situation
d'apprentissage est elle individuelle ou collective ? Les
connaissances
visées
sont-elles
déclaratives,
procédurales ou s’agit-il de méta-connaissances ? La
granularité du contrôle est-elle du niveau des activités,
des séquences d'activités ou des unités d'enseignement ?
La délégation du contrôle est-elle laissée à la machine, à
l'humain, aux deux ou est-elle effectuée par un réseau
d'acteurs ? (Labat et al. 2006)
Nous pouvons distinguer plusieurs catégories de
techniques de contrôle pédagogique (Labat et al. 2006,
Guéraud 2005, Cortes Buitrago 1999, Paquette et
Tchounikine 2002):
- le contrôle centré sur le comportement de l’apprenant
qui consiste à observer le comportement informatique
de l’apprenant et d’en déduire les rétroactions
pertinentes.
- le contrôle centré sur le raisonnement et les
connaissances, qui dépend essentiellement du type
des activités proposées qui varie de la simple lecture
et parcours de connaissances à la résolution de
problèmes et la manipulation de simulations.
- le contrôle pédagogique basé sur la scénarisation des
activités d’apprentissage. L’apprentissage dans ce cas
est guidé et l’apprenant est forcé à suivre un certain
scénario pédagogique.
- le contrôle pédagogique basé sur un conseiller
pédagogique qui a pour principe d’analyser les
interactions de l’apprenant avec le système
d’apprentissage, puis de trouver la bonne réaction en
terme d’aide et de suggestion pédagogique.
Dans ce qui suit nous allons présenter notre outil
CUSIM qui est un simple simulateur de CPU (Central
Processing Unit) auquel nous essayons d’associer un
module de contrôle pédagogique. Ce module va
s’articuler autour des traces d’interaction et de leur
interprétation.
15
Mohamed Besnaci
Simulateur CUSIM et traces
CUSIM est un simulateur conçu pour reproduire le
fonctionnement de l’unité centrale d’un ordinateur de
type Intel. CUSIM a pour objectif d’aider les apprenants
à connaître le fonctionnement et à manipuler les
différents
composants
de
l’unité
centrale.
Pédagogiquement, il est développé dans le but d’offrir
un outil de test et de validation simple et efficace propre
à notre équipe «EIAH» au sein de notre laboratoire LRI
(Université d'Annaba, Algérie). Plus précisément,
l’outil va être d’une part notre source génératrice de
traces d’utilisation suite aux sessions d’utilisation des
apprenants. D’autre part, CUSIM est conçu pour valider
et concrétiser nos modèles et pour tester notre processus
de traitement de traces.
CUSIM propose aux utilisateurs quatre activités.
1. Documentation: elle a pour but de donner un
bagage théorique sous forme de définitions,
explications, tutoriels, schémas, sur la structure et le
fonctionnement de l’ordinateur.
2. Démonstration: elle permet à l’apprenant
d’observer les différents éléments de l’UC (Unité
Centrale): l’unité de commande, le séquenceur, l’unité
arithmétique et logique, le compteur ordinal, le registre
instruction, etc., à travers des exemples de programmes
soigneusement
choisis. L’apprenant peut voir
dynamiquement le fonctionnement de chaque élément
de l’UC ainsi que leur coordination. La possibilité de
changer la vitesse d’exécution des parties de
programmes et de les mettre en pause peut aider
considérablement les apprenants à bien renforcer leurs
connaissances.
3. Manipulation: elle permet à l’utilisateur de
manipuler chaque composant de l’UC séparément. Il
peut faire des opérations arithmétiques et logiques,
charger ou décharger des valeurs de variables en
mémoire, et voir le cycle d’exécution des instructions à
travers les signaux de l’unité de commande.
4. Exécution: cette activité donne plus de liberté à
l’apprenant et lui permet d’écrire ses propres
programmes et de voir les résultats et les
conséquencesde ce qu’il écrit sur le fonctionnement de
chaque composant de l’UC.
L’outil CUSIM n’impose aucun ordre pour ces
activités bien qu’il est suggéré aux apprenants novices
de respecter l’ordre suivant: documentation puis
démonstration puis manipulation puis exécution. Dans
une session donnée, un apprenant peut faire tous les
aller-retours qu’il veut entre les activités offertes.
À la fin de chaque session d’utilisation d’un
apprenant, un fichier log est généré par CUSIM. Ce
fichier enregistre temporellement toutes les actions de
l’apprenant faites sur l’outil. Il est considéré pour le
moment comme l’unique façon de contrôler l’activité
des apprenants. Par la suite, il va être plutôt une source
de traçage pour alimenter notre processus de traitement
et de manipulation de traces.
Voici une des interfaces ainsi qu'un exemple de
fichier log généré par CUSIM:
16
Fig1. Une interface et un fichier log généré par CUSIM
Détection de patterns et interprétation de
traces
Une aide au contrôle pédagogique peut être, à notre
avis, faite en montant dans les niveaux d’abstraction de
description des traces d’apprentissage laissées par les
apprenants. Selon la théorie des traces d’apprentissage
(Champin et al. 2004, Settouti et al. 2006), les processus
de traitement et d’exploitation de ces traces nécessitent
des sources de traçage qualifiées de techniques. Nous
entendons par «technique», que les informations traçant
l’interaction de l’apprenant avec le système
d’apprentissage soient dépendantes des interfaces et
plateformes d’apprentissage, isolées sémantiquement
les unes des autres et plutôt proches des détails de
programmation que de l’esprit et des attentes du
pédagogue. À cet effet, il s’avère utile de penser à une
réécriture des traces premières en traces plus abstraites
et plus compréhensibles. Ainsi, généraliser le processus
de réécriture des traces en montant dans les niveaux
d’abstraction peut être très bénéfique aux pédagogues
les exploitant. Ce processus nous parait bénéfique, car il
donne plusieurs dimensions en présentation de traces
qui peuvent répondre à divers degrés d’objectifs
pédagogiques.
Dans le cadre de notre travail, nous proposons de
travailler avec des traces d’un niveau d’abstraction
assez bas (fichiers log de CUSIM). Nous souhaitons
mettre en évidence les patterns issus des traces qui
permettent à l’analyste enseignant d’établir des
déductions sur l’activité des apprenants. Ainsi, l’idée est
de détecter des patterns effectifs à partir des traces
obtenues lors d’une expérimentation représentant
l’historique de l’activité des acteurs (apprenants). Afin
de découvrir les patterns, nous préparons une base de
patterns et une méthode d’appariement entre les traces
brutes et la base conçue. Nous nous focalisons alors
essentiellement sur la recherche de motifs et la détection
des séquences fréquentes. Ce processus est illustré dans
le schéma suivant Fig2. Le processus commence par la
Amiens – 23 et 24 mai 2012
Interprétation des traces d'un EIAH par appariement structurel
collecte des traces d'interaction à partir des fichiers log.
Ces traces sont ensuite appariées avec une base de
patterns conçue auparavant pour chercher des patterns
dans la trace. Après élimination des chevauchements
entre les patterns résultats et détection des patterns avec
éventuellement des observables non connus, nous
procédons à une étape de recherche des séquences
fréquentes pour enrichir la base de patterns. Le détail de
ces étapes va faire l'objet des sections suivantes.
Fig2. Processus de détection de patterns
Modèle de traces pour les simulateurs
pédagogiques
Les fichiers log sont généralement de nature non ou
semi structurés (XML). Pour pouvoir les utiliser comme
support à l'interprétation de l'activité de l'apprenant dans
notre contexte, il nous faut une étape de modélisation.
Un modèle de trace a pour intérêt de structurer ces
fichiers log et d'en retirer les informations inutiles (par
rapport aux objectifs fixés). Dans ce but, nos fichiers
doivent être représentés selon un modèle de trace
soigneusement conçu (voir Champin et al. 2004,
Settouti et al. 2006).
Au vu des possibilités d'interaction et de
comportement de la part de l'apprenant et du simulateur
(Voir Leclet 2004, Lourdeaux 2001, Siouane 1999), il
est possible d’extraire une collection d'objets formant le
vocabulaire d'observables possibles dans un simulateur.
Cette collection peut être arrangée dans des classes, qui
font aussi partie d'autres classes, etc. Le tout forme une
structure hiérarchique. Cette hiérarchie représente notre
méta-modèle de trace représenté en Fig3.
Trace brute
Observable
Communication
Social
Système
Cognitif
Demande
Action
Production
Explicite
Implicite
Rétroaction
Scénarisé
Conditionné
Automatique
Fig3. Méta-modèle de trace pour simulateur
• Trace brute: suite d’observables temporellement
situés.
• Observable: classe principale englobant tout type
d’observable.
4ièmes Rencontres Jeunes Chercheurs en EIAH
• Cognitif: observable englobant les comportements
cognitifs demandant une réflexion et un
raisonnement théorique et/ou pratique. Il peut être
une configuration de paramètres, une affectation ou
un changement de valeur (production). Comme il
peut être un lancement d’action (action).
• Social: observable décrivant les communications
entre les apprenants dans un contexte collaboratif
(Communication), et entre l’apprenant et le
simulateur sous forme de demandes d’aide,
conseils,etc. (demande). Les comportements sociaux
sont toujours initiés par l’apprenant et le cas inverse
n’est pas considéré ici.
• Système: le comportement d’un simulateur peut
être réactif suite à une demande explicite ou
implicite de l’apprenant (rétroaction). Une demande
explicite est lancée directement par l’apprenant
tandis qu’une demande implicite est une réaction
jugée pertinente suite à un comportement donné de
l’apprenant. Le simulateur peut être proactif et son
comportement dans ce cas est préétabli (scénarisé). Il
se déclenche dans ce dernier cas soit
automatiquement suite à un évènement temporel ou
autre (automatique). Son déclenchement peut être
conditionné par des comportements donnés de
l’apprenant ou par la présence d’états donnés du
simulateur.
Spécification du modèle de traces pour le cas
de CUSIM
Les observables feuilles dans le modèle générique
précédent (en gris) doivent encore être explicités et
instanciés pour prendre en considération les détails de
chaque simulateur. Nous partageons alors l'idée de
spécification des modèles de traces à partir d'un modèle
générique avec (Settouti et al. 2010). Ils ont proposé
dans ce travail une approche de construction de modèles
et de réutilisation d'un méta-modèle de traces d'activités
dans un objectif de modélisation de l'apprenant.
L'approche est basée essentiellement sur un ensemble
de méta-modèles (modèle de trace des activités
d'apprentissage, modèle de profil de l'apprenant et
modèle de diagnostic) qu’ils spécifient pour chaque
EIAH étudié dans le but de supporter et faciliter aux
concepteurs les différentes taches de modélisation.
Notre modèle générique a été spécifié et les
observables feuilles sont alors instanciés. La Fig4.
donne une spécification plus détaillée des
comportements cognitifs de l’apprenant par rapport à
notre simulateur CUSIM.
Les observés générés par l’outil CUSIM sont de
type cognitif parce qu’ils demandent une réflexion et un
raisonnement théorique et pratique. Un observé peut
être de type production s’il s’agit d’une configuration de
paramètres, d’une affectation ou d’un changement de
valeur, ou de type action s’il s’agit d’un lancement
d’action.
17
Mohamed Besnaci
décrit par le triplet (Type, Description, Chemin). Ainsi,
l’appariement va être effectué entre des listes (formes
simplifiées de graphes) de nœuds dont chacun est décrit
par le triplet (Type, Description, Chemin).
Supposons E un ensemble de triplets (Type,
n
Description, Chemin), E= {(T, D, C) , n Є N}.
Supposons qu’on a L1 la représentation de la trace
brute, L2 la représentation d’un pattern, tel que:
L1,L2 ((L1,L2) C E2).
Fig4. Modèle de trace pour les observés générés par
CUSIM
Les relations en lignes continues sont de type « est
un » et les relations en lignes pointillées sont de type
« nécessite ».
Ce modèle va nous servir pour élaborer la trace à
partir du fichier log de CUSIM. Chaque observable de
la trace à construire est désigné par le triplet (Type,
Description, Chemin). Le Type définit le type de
l'activité cognitive Production ou Action. La
Description définit l'activité précise réalisée en termes
de manipulations sur les interfaces de CUSIM (Clique
bouton Lecture, Affichage onglet Exécution, MAJ
glissant Rythme démonstration, …). Le Chemin définit
la succession des onglets ouverts pour arriver à
l'interface conteneur de l'activité. La collecte consiste
donc à définir les triplets des observables de la trace à
partir du fichier log est ce de la manière suivante: à
partir du champ Action de log qui contient des valeurs
correspondantes directement aux feuilles du modèle de
trace et en montant dans le modèle nous pouvons définir
le Type de l'observable. La Description peut être
directement déduite du champ Action du log. Le
Chemin est déduit en combinant les deux champs
Activité et Sous-Activité de log.
Recherche de patterns par appariement
structurel
Nous avons pensé aux techniques d’appariement et de
détection de motifs pour pouvoir transformer les
fichiers logs matérialisant le comportement de
l’apprenant d’une nature technique à une suite de
patterns facile à comprendre et à interpréter.
L’appariement dans notre cas consiste à comparer les
suites d’observés constituants les traces brutes avec les
petites suites d’observés constituants les patterns de la
base. Les traces manipulées respectent obligatoirement
le même modèle de traces (Fig3. Fig4.) et la base de
patterns est conçue suite à une étude et des
expérimentations faites sur l’environnement CUSIM.
L’étude avait pour but de récolter le maximum de
patterns fréquents lors de l’utilisation de CUSIM.
En s’inspirant de certains travaux (Zampelli et al.
2007, Sorlin et al. 2006, Betbeder et al. 2007), notre
appariement consiste à comparer la trace effective avec
chacun des patterns de la base afin de mesurer la
similarité entre eux. L’élément essentiel sur lequel sont
basés les traces et les patterns qu'est l’observable, est
18
Un appariement entre deux listes L1 = (T1, D1,
r
s
C1) et L2 = (T2, D2, C2) , tel que r,s Є N, est une
relation: m C L1*L2.
Pour mesurer la similarité entre deux listes par
rapport à l’appariement m, nous proposons d’adapter la
formule de similarité de (Tversky 1977) généralisée par
(Sorlin et al. 2006):
La formule (1) calcule la similarité entre la trace et
les patterns de la base, en mettant en correspondance
leurs descriptions. La fonction f définit l’importance
relative des descripteurs, les uns par rapport aux autres.
Cette fonction décrite par la formule (2) est souvent
définie comme une somme pondérée:
Afin d’affecter des valeurs pertinentes aux poids, il
faut analyser soigneusement les trois descripteurs (Type,
Description, Chemin) ainsi que les relations entre eux
dans notre simulateur CUSIM. Pour chaque Description
nous pouvons identifier au plus un et un seul Type, ainsi
ces deux informations sont corrélées et le même poids
est affecté pour les deux. Si nous prenons deux observés
avec les couples (Description, Chemin), la similarité
dans le cas où leurs Descriptions sont identiques et leurs
Chemins sont différents est plus élevée que dans le cas
contraire. Ainsi nous avons choisi un poids plus élevé
(égal à 1) pour la Description par rapport au Chemin
(égal à 0,8).
Il est évident que les patterns détectés seront ceux
présentant la plus grande similarité. Cette dernière doit
impérativement être supérieure à un seuil
d’acceptabilité indiqué par les pédagogues. Le seuil
peut être exprimé par exemple par une fonction
dépendante de la taille de la trace et de la taille des
patterns comme suit:
FSeuil(Taille_trace, Taille_patterns).
Élimination de chevauchement et
interprétation
La valeur de la similarité est aussi utilisée dans le cas de
chevauchement entre les patterns détectés. Dans une
telle situation, ceux qui ont une similarité supérieure
sont considérés tandis que les autres seront écartés.
Dans le cas d’égalité, les deux patterns persistent et la
décision est laissée aux pédagogues.
Amiens – 23 et 24 mai 2012
Interprétation des traces d'un EIAH par appariement structurel
La recherche de motifs fréquents ne faisant pas
partie de la base de patterns permet de dégager des
séquences ou épisodes d’actions dont le nombre élevé
d’occurrences peut être porteur d’information. Les
observés non touchés suite à l’appariement, et avant de
les supprimer de la trace, sont exploités pour enrichir la
base de patterns. Par l’intervention du pédagogue, s’il
trouve que ces portions de trace portent une sémantique
utile, il peut les ajouter pour enrichir la base, et elles
seront ignorées sinon.
L’extraction des motifs fréquents commence par la
recherche des motifs de longueur un (un observable),
ensuite les motifs fréquents sont enregistrés et combinés
entre eux pour former des motifs candidats de longueur
supérieure. Les motifs non fréquents sont éliminés, et
par conséquent aucun de leur super-motif n’est
considéré. La fréquence des motifs candidats est testée
pour constituer un nouvel ensemble de motifs fréquents
et l’algorithme continue tant que des nouveaux
candidats peuvent être formés. Considérons E un
ensemble d’observés. Pour déterminer les séquences de
taille (n), nous sélectionnons les candidats possibles de
telle sorte que ces probables n-séquences fréquentes
soient composées par (n) sous-séquences de taille (n-1)
(voir Cheype 2006).
Exemple
Afin de concrétiser notre idée et de présenter ces
modèles, formules et processus, nous allons résumer le
travail par des illustrations. Rappelons qu'on a fixé
comme objectif applicatif, de concevoir un outil
pédagogique interprétant les traces collectées en se
basant sur des fichiers log de CUSIM.
Un fichier log comme celui de la Fig1. est
transformé en une trace brute en le confrontant à notre
modèle de trace Fig4., comme présenté ci-dessous:
L’exemple montre qu’une manipulation de registre
d’adresse suivie d’une manipulation de registre
mémoire suivie d’un click, peut être interprété par un
pattern Ecriture_Mémoire.
Un processus de détection de patterns peut être
déclenché pour faire l'interprétation comme expliqué
auparavant par l'appariement des structures présentées
en Fig5. et Fig6., comme suit:
Fig7. Appariement entre un pattern de la base et une trace.
D'après la méthode d'appariement décrite, toutes les
possibilités d'appariement sont effectuées. Celles qui
présentent les valeurs de similarité les plus élevées sont
gardées et les autres sont exclues. Par exemple pour
l'appariement de la Fig7. entre le pattern et la fenêtre en
gris la similarité est calculée comme suit:
L'appariement
m={[(4,5),(1')];[(6,7,8,9),(2')];[(10),(3')]} et la similarité
est calculée avec les formules (1) et (2) en fonction de
m: Sim(m).
Après cette étape, seuls les patterns effectifs qui
présentent une similarité importante sont gardés. L'étape
suivante est l'élimination des chevauchements en
gardant uniquement les patterns avec les similarités les
plus élevées.
L'outil d'interprétation qui a reçu un fichier log de
CUSIM va générer maintenant une trace de plus haut
niveau composée des différents patterns détectés (ayant
une similarité importante) et d'éventuels observables
restants.
Fig5. Exemple de trace brute issued'un fichier log.
C'est dans cette trace brute qu'on va chercher des
patterns ressemblant à ceux de notre base dont voici un
exemple:
Fig8. Exemple de résultat du processus d'appariement et
détection de patterns.
Extension du processus de détection de
patterns
Fig6. Exemple de pattern (suite d'observables avec une
sémantique)
4ièmes Rencontres Jeunes Chercheurs en EIAH
Une extension de ce processus d’appariement peut
être élargi pour des niveaux plus élevés que les simples
19
Mohamed Besnaci
observés. L’idée est de passer d’un appariement (niveau
1) entre des listes d’observés à un appariement entre des
listes de patterns déjà trouvés (niveau 2). De la même
façon, le processus continue à augmenter le niveau
d’appariement jusqu’à ce que les utilisateurs
pédagogues jugent que le rassemblement de patterns ne
va porter aucune information (il est alors inutile).
Après tous ces traitements d’appariement à plusieurs
niveaux et élimination de chevauchement, il sera temps
de parler d’une interprétation des traces. Les
pédagogues pourront ainsi, face aux niveaux de patterns
trouvés dans la trace brute, se faire une idée
suffisamment claire sur ce qu’un apprenant est entrain
de faire et s’il est dans la bonne direction ou non.
Conclusion & perspectives
Le contrôle pédagogique est un module d’importance en
EIAH. Ainsi, la qualité d’un EIAH est dépendante de
celle de son contrôle pédagogique. Dans cet article nous
avons essayé de proposer un pas vers une nouvelle
modalité de contrôle pédagogique destiné aux
simulateurs. L’idée était de partir des traces de
comportement générées par le simulateur et à travers un
processus de détection de patterns, d’exploiter ces
traces. Nous avons pu, moyennant ce processus, passer
des traces techniques à des formes plus agréables
pouvant nous aider à comprendre le comportement des
apprenants utilisant notre simulateur CUSIM. Nous
espérons qu'avec l'extension du travail pour donner des
niveaux plus abstraits de patterns, les enseignants
pourront également profiter de ce processus.
Le travail nous ouvre comme perspectives, en plus
de l'extensibilité du processus pour plusieurs niveaux
d'abstraction, la possibilité d'essayer d’appliquer ce
même processus sur d'autres EIAH. Seuls les
observables de type cognitif de notre méta-modèle sont
exploités et donc il reste à l'essayer pour d'autres
simulateurs. Nous attendons aussi en perspective, de
lancer une expérimentation de notre processus de
détection avec l’environnement CUSIM.
Remerciements. Je tiens à exprimer mes sincères
remerciements à mon encadrant de stage au LIRIS Mme
Nathalie Guin pour son aide précieuse.
Références
Betbeder, M. L.; Tissot, R.; & Reffay, C. 2007.
Recherche de patterns dans un corpus d’actions
multimodales. EIAH'07 pp 533-544, Lausanne, Suisse
Champin, P.A.; Prié, Y.;& Mille, A. 2004. MUSETTE:
a framework for knowledge capture for experience.
EGC’04, Clément Ferrand.
EIAH. Actes de RJC-EIAH'06,SYSCOM - Université
de Savoie, France.
Cortes Buitrago, G. 1999. Simulations et Contrôle
Pédagogique: Architectures Logicielles Réutilisables,
Thèse de doctorat, Université JOSEPH FOURIER.
Guéraud, G. 2005. Approches auteurs pour les
situations actives d'apprentissage: scénario, suivi et
ingénierie, Thèse de doctorat, laboratoire CLIPSIMAG, Université Joseph Fourier Grenoble
Labat, J. M.; Pernin, J. P.; & Guéraud, V. 2006.
Contrôle del’activité de l’apprenant: suivi, guidage
pédagogique et scénarios d’apprentissage. Proceeding
EIAH'06, Collection IC2, Hermès.
Leclet, D. 2004. Environnements Interactifs
d'Apprentissage dans des contextes professionnels. Des
Tuteurs
Intelligents
aux
Systèmes
Supports
d'Apprentissage à Distance, Mémoire d'HDR, IUP
MIAGE, Universitéde Picardie.
Lourdeaux, D. 2001. Réalité Virtuelle et Formation:
Conception d'Environnements Virtuels Pédagogiques,
Thèse de doctorat, Ecole des Mines de Paris.
Paquette,G.; & Tchounikine, P. 2002. Contribution à
l’ingénierie des systèmes conseillers: une approche
méthodologique fondée sur l’analyse du modèle de la
tâche. Revue Sciences et Techniques Educatives,
Hermès, Vol 9 n°3-4, 157-184.
Settouti, L.; Guin, N.; Luengo, V.; & Mille, A. 2010. A
Trace-Based Learner Modelling Framework for
Technology-Enhanced Learning Systems. The 10th
IEEE International Conference on Advanced Learning
Technologies, Sousse, Tunisia.pp.73-77.ISBN 978-14244-7144-7.
Settouti, L. S.; Prié, Y.; Mille, A.;&Marty, J.C. 2006.
Système à base de trace pour l’apprentissage humain, in
TICE'06, Toulouse, 8 pp.
Siouane, M. 1999. Architecture d'un simulateur
pédagogique, Thèse demagistère, Université Badji
Mokhtar de Annaba.
Sorlin, S.; Sammoud, O.;Solnon, C.; & Ghédira, K.
2006. Comparaison de l'optimisation par colonies de
fourmis et d'une recherche réactive sur des problèmes
d'appariement de graphes. JFPC'06, Nîmes - Ecole des
Mines d'Alès, France.
Tversky, A. 1977. Features of similarity. Psychological
Review, (84)4 pp 327-352
Zampelli, S.; Deville Y.;Solnon, C.; & Sorlin S.,
Dupont P. 2007. Filtrage pour l'isomorphisme de sousgraphe. JFPC'07, INRIA, France.
Cheype, A. 2006. Recherche de motifs séquentiels pour
guider l'interprétation des traces d'apprentissage dans un
20
Amiens – 23 et 24 mai 2012
Une approche centrée enseignant basée sur les patrons pour la
scénarisation pédagogique
Jean-Pierre Clayer
Laboratoire LIUM, Université du Maine, Avenue Laënnec 72085 Le Mans
[email protected]
Résumé
Les attentes de la société et les technologies
évoluent. Ces évolutions changent l'enseignement en
profondeur. Les enseignants et formateurs doivent
organiser et formaliser leurs pratiques. Leur métier
évolue, ils doivent acquérir de nouvelles compétences
de concepteur pédagogique. Nous proposons de les
aider au cours de cette activité de conception
pédagogique et de la mise en œuvre des scénarios
résultants sur des plateformes/supports informatique.
Nous présentons une approche adaptative de
conception à base de patrons et centrée sur l’utilisateur
et l'éditeur élaboré pour supporter cette approche. Une
étude de cas est proposée pour illustrer le processus de
conception.
I. Introduction
L'enseignement change profondément depuis ces
dernières années, en raison d'une part, de l'évolution
des attentes de la société en la matière et, d’autre part,
d'une large diffusion des nouvelles technologies. Dans
ce cadre, les enseignants et les formateurs dont les
pratiques -notamment de conception- sont souvent peu
formalisées doivent maintenant davantage les structurer
et les formaliser (Laurillard, 2012) au moyen de
modèles qui pourront être mis en œuvre sur des
plateformes informatiques. Ils doivent pour cela
acquérir des compétences de concepteurs. Nous
proposons dans ce cadre de les assister dans la
démarche de conception de leur scénario pédagogique.
Cet article présente une approche de conception
adaptative à base de patrons centrée utilisateur. Une
approche à base de patrons facilite la création et la
réutilisation de scénarios implémentables par la
communauté d'apprentissage (Choquet, 2007) (ELEN). L'approche est centrée utilisateur et adaptative.
L'enseignant est l'acteur principal impliqué dans le
processus de conception, mais aidé/guidé pendant
l'élaboration du scénario pédagogique selon ses propres
pratiques.
La question de recherche principale de cet article est
: Quelle est la faisabilité d’une approche de conception
à base de patrons qui faciliterait la création et la
réutilisation de scénarios pédagogiques par des
enseignants/formateurs?
La première section présente le contexte de
recherche de notre travail. Nous proposons dans une
seconde section un processus de conception basé sur
l'utilisation de patrons et sur des techniques
d’adaptation. Ce processus est illustré dans la troisième
4ièmes Rencontres Jeunes Chercheurs en EIAH
section par une étude de cas. La conclusion synthétise
nos résultats et présente les travaux futurs.
II. Le Contexte de Recherche
Dans la littérature, différentes approches s'intéressent
à l'instrumentation de la conception pédagogique et
plus particulièrement des scénarios pédagogiques.
L'approche de modélisation à base d'Educational
Modeling Languages (EML), comme LDL (Vignollet
et Al, 2006), ou la spécification IMS-Learning Design
(Koper et Tattersall, 2005) qui vise à fournir des
modèles opérationnels qui peuvent être manipulés par
des systèmes informatiques dédiés. Cependant ces
spécifications ne sont pas vraiment utilisables par les
enseignants et ne fournit pas de processus qui supporte
la conception pédagogique (Hernandez-Leo et Al,
2010). Une autre approche est de permettre aux
enseignants (qui peuvent être aidés par des spécialistes)
de définir leur propre EML en spécifiant leur domaine
métier et d'utiliser cet EML pour construire leurs
scénarios (Choquet, 2007) (El Kechai, Choquet, 2007).
Nos travaux basés sur cette deuxième approche
supposent que les enseignants peuvent construire leurs
scénarios par le biais de patrons et proposent un
processus de conception adaptatif.
Un patron de conception se concentre sur un
problème bien connu et doit fournir une solution la plus
pertinente par rapport à un contexte donné, illustrée par
des diagrammes. Une approche par les patrons de
conception est adaptée dans le cas d'une conception
enseignante prenant en compte la complexité des
représentations et la dépendance au contexte (Mor,
2010).
Notre approche d'ingénierie vise à soutenir les
enseignants dans leurs tâches de conception
pédagogique. Les patrons de conception pédagogiques
sont une façon de rassembler "les meilleures pratiques"
d'apprentissage, fournissant une manière de
communiquer l'expertise de la communauté à d'autres
enseignants plus novices. Dans cette démarche, un
outil-auteur est proposé pour aider à la conception de
situations pédagogiques, par l'utilisation de patrons de
conception rassemblés dans une banque de données
selon la même approche que (Hernandez-Leo et Al,
2010). Les relations qui existent entre les patrons
peuvent
être
décrites
pour
faciliter
leur
utilisation/réutilisation.
Ces patrons de conception doivent permettre la
définition de scénarios pédagogiques dans des
21
Jean-Pierre Clayer
situations d'apprentissage différentes en termes
d'objectifs, de compétences, de domaine, de méthode
d'apprentissage, d'activités, de ressources, de besoins
d'observation... Quelques exemples de patrons
pédagogiques sont proposés dans les projets européens
E-LEN ou le « Pedagogical Patterns Project ».
Tracking Language qui permet de modéliser les
indicateurs et les calculer en temps réel.
Le projet COLLAGE (Hernandez-Leo et Al, 2006)
propose un langage de modélisation pédagogique
visuel à base de patrons mais mis en oeuvre dans
RELOAD (Bolten, 2005), un outil-auteur basé sur
IMS-LD.
1. Meta-Modèle de Patrons
Notre contribution dans ce cadre est basée sur une
autre approche à base de patrons. Les modèles peuvent
être exprimés dans le langage métier des enseignants
(Choquet, 2007) (El Kechai, Choquet, 2007) (par
exemple avec leurs propres concepts métier et modèles
de représentation). Nous ne visons pas encore des
modèles productifs (des scénarios opérationnalisables),
mais nous ne perdons pas de vue cet aspect. Ainsi, nous
avons choisi de baser l'approche que nous proposons
sur le Domain Specific Modeling Framework (DSM)
(Kelly, Tolvanen, 2008) qui est une approche de génie
logiciel
éprouvée
pour
modéliser
la
dimension « métier » dans le domaine des systèmes
d'information (Kelly, 2007).
III. Une Approche Basée Patrons Centrée
sur l’Enseignant
Selon l'approche DSM, un méta-modèle (figure 1)
doit être défini pour décrire le langage permettant de
composer ou fusionner des patrons de formalismes
différents. Le but de ce méta-modèle conforme au
méta-modèle MOF (Meta-Object Facilities) est d’être
utilisé pour générer un outil d’édition.
Plus spécifiquement, nous avons choisi de
développer notre éditeur avec EMF (Eclipse Modeling
Framework) et GMF (Graphical Modeling Framework)
pour mettre en oeuvre l'approche DSM .
Une autre partie de la question de recherche est la
problématique de l'adaptation dans l'approche visée à
base de patrons centrée utilisateur. L'objectif est de
proposer aux enseignants-concepteurs une assistance
au cours de leur activité de conception qui s'adapte à
leur profil, plus généralement à leur contexte de
conception. Les modèles d'utilisateur et la modélisation
utilisateur (user modelling) sont des éléments clés pour
personnaliser l'interaction. La modélisation utilisateur
est motivée par des différences entre les besoins
individuels
des
utilisateurs
ainsi
que
les
caractéristiques et l'hétérogénéité entre différents
groupes de personnes (Razmerita et Al, 2003). Nous
définissons une approche modélisant l'utilisateur
automatiquement où le modèle de l'utilisateur est défini
durant l'activité de conception en fonction des
caractéristiques de l'utilisateur (le profil utilisateur, les
préférences de l'utilisateur, les compétences, le niveau
d'activité, le niveau de connaissance …). Les
caractéristiques de cet utilisateur sont des informations,
issues de l’analyse des traces, pertinentes à collecter et
qui seront utilisées pour aider les enseignants à gérer
l'activité de scénarisation. L'analyse de ces traces est
nécessaire pour adapter le système aux besoins de
conception de l'utilisateur. Les traces sont structurées à
partir de données « brutes » qui sont acquises et
fournies par le système pendant une session de
conception. Cette collecte est effectuée à l’aide des
indicateurs définis comme des variables signifiantes
sur le plan pédagogique, calculées ou établies à l’aide
de données observées, en vue d’analyser la qualité de
l’interaction, la nature de l’activité ou l’effectivité de
l’apprentissage (Choquet, Iksal, 2007). Nous avons
utilisé le langage défini par ces mêmes auteurs, Usage
22
Figure 1 : Méta-modèle des patrons
Une étude des besoins liés aux situations
pédagogiques associée à une étude des types de patrons
disponibles dans le génie logiciel, nous mène à choisir
les quatre types suivants de patrons, concepts du métamodèle de patrons :
− Les Patrons Pédagogiques sont adaptés pour décrire
les objectifs ou les stratégies pédagogiques. Ils sont
structurés autour des Forces (les raisons qui poussent à
l’application du patron), Resulting Context (l’objectif
atteint après application du patron) et Rationale
(pourquoi nous avons choisi ce patron). Ainsi par
exemple,le patron « Mistake » demande aux étudiants
de créer un artefact comme un programme ou une
conception qui contient une erreur spécifique.
L'utilisation de ce modèle montre explicitement à des
étudiants comment reconnaître et corriger des erreurs.
Ainsi pour spécifier le patron on définira :
• Forces « Les étudiants doivent connaître une
technique pour repérer les erreurs à partir des effets
qu’elles produisent. » et,
• Resulting Context « Les étudiants à partir d’un effet
peuvent localiser une erreur pour la corriger ».
− Nous avons choisi des Patrons d'Analyse pour
décrire des ressources matérielles ou humaines à cause
de leur structure qui permet de définir l'utilisation d'un
Amiens – 23 et 24 mai 2012
Approche pour la scénarisation pédagogique
matériel ou un rôle.
− Les Patrons de Processus peuvent décrire les
activités et les tâches réalisées comme un
enchaînement d'actions ou de tâches secondaires.
− Les Patrons de Conception sont utilisés pour
caractériser la situation d'apprentissage. Ils sont
composés de plusieurs sections spécifiques : la
motivation (le contexte où le modèle peut être utilisé),
les participants et la collaboration (la description des
classes et des objets utilisés dans le patron interagissant
l'un avec l'autre)
2. Le Contexte de Conception
Pour faciliter la tâche du concepteur, l'outil d'édition
récupère des informations sur le contexte de conception
pour adapter les propositions de patrons au cours de
l'activité de conception. Ces informations sont reliées à
un ensemble d'indicateurs qui sont affectés aux cinq
facettes caractérisant le contexte de conception :
1. Le Profil utilisateur est constitué d'informations
sur l'utilisateur et ses préférences. Certaines
informations de ce profil sont récupérées à partir des
formulaires complétés par les utilisateurs euxmêmes, d’autres à partir de la configuration de
l’outil. À titre d'exemple, les informations
enregistrées dans ce profil sont le niveau
d'adaptation proposé par l'outil et-ou fixé par le
concepteur (automatiquement, avec confirmation de
l'utilisateur, adaptation minimale …).
pas liés strictement à l'une de ces facettes. Les facettes
sont corrélées et certains indicateurs peuvent êtres
associées à plusieurs facettes.
3. L’Editeur de Scénario Pédagogique
L'éditeur que nous avons développé est produit grâce
aux technologies EMF-GMF utilisant le méta-modèle
de Patrons (figures 1 et 2). Cet éditeur permet aux
enseignants de concevoir un scénario pédagogique en
utilisant un langage visuel spécifique à leur domaine à
base de patrons. A cet outil est ajouté le système
d'adaptation capable de capitaliser les contextes de
conception et d'adapter les scénarios pédagogiques et
l'interface de l'éditeur. L'interface permet au concepteur
de visualiser les patrons qu'il instancie comme des
cadres divisés en trois compartiments : un pour le nom
du patron, un pour la déclaration du problème et un
pour la représentation graphique de la solution (Figure
2-A). Une boîte à outils (Figure 2-B) fournit les
concepts (les patrons) manipulables. Finalement, les
informations concernant le patron sont aussi
accessibles par l'onglet des propriétés (Figure 2-C) par
lequel GMF caractérise chaque objet.
2. Le Contexte pédagogique qualifie les objectifs et
stratégies pédagogiques définies par le concepteur.
3. Le Contexte Institutionnel est un ensemble
d'informations sur les contraintes et les limites
imposées par l'institution (les salles de classe, les
ressources disponibles ...).
Figure 2: L'editeur généré avec EMF-GMF
4. Le Domaine rassemble les informations
concernant les concepts du domaine d'apprentissage.
5. Le Contexte d'utilisation regroupe des informations
pendant la session de conception sur les actions de
l'utilisateur. Ces actions sont collectées à partir des
traces d’utilisation et de modèles de tâches inspirés des
travaux sur l’approche MUSETTE (Champin et Prié).
Un exemple d'indicateur de la facette « Domaine »
est "Concept in the Domain Vocabulary". La méthode
de cet indicateur vérifie si un concept, utilisé comme
une propriété pour qualifier un patron donné, fait partie
de la facette « domaine » actuelle. Cette méthode est
mise en œuvre selon une règle simple "si le concept
actuel est dans le vocabulaire, rechercher un patron
contenant ce terme".
4. Le Processus de Conception
Pour concevoir un scénario pédagogique, un enseignant
doit élaborer une solution en combinant les quatre
types de modèles permis par le méta-modèle (Figure
1).
Le processus de conception est itératif et consiste en les
étapes suivantes (Figure 3) :
Les indicateurs du contexte de conception ne sont
4èmes Rencontres Jeunes Chercheurs en EIAH
23
Jean-Pierre Clayer
IV. Cas d’étude
TPWorks est une plate-forme d’apprentissage dédiée
aux sessions de TP dans le domaine de
l’Automatisation dans le cursus de l’enseignement des
sciences de l’ingénieur dans les lycées technique.
TPWorks facilite le partage de documents et des
ressources numériques.
Figure 3: Le processus de conception
1 – Spécifier les besoins de la situation
pédagogique: l'enseignant définit les besoins de sa
situation pédagogique (objectifs, ressources, outils,
stratégie, acteurs, rôles, etc);
2 - Choisir un patron : l'enseignant choisit un patron
existant ou pourra en créer un nouveau selon son
intention de conception et en fonction des besoins
spécifiés dans l’étape précédente. Selon la situation
pédagogique, l'enseignant définit des critères pour
choisir le patron le plus approprié. Il peut choisir un
patron parmi les quatre types de patrons proposés par
l'éditeur : un patron de conception pour spécifier la
situation d'apprentissage, un patron d'analyse pour les
ressources humaines ou matérielles, un patron
processus pour les tâches ou les activités ou un patron
pédagogique pour spécifier les objectifs.
Chaque session de TP doit être définie et planifiée en
termes de chapitres, de sous-chapitres ordonnés selon
les intentions de l’enseignant et sa motivation. Les
ressources associées peuvent être définies aussi (des
textes, des médias ...). Les besoins d'observation sont
définis dans cette étape préliminaire dans le but de
modéliser les indicateurs en relation avec chaque
facette du contexte de conception. Ces indicateurs sont
ajoutés aux indicateurs existants et implémentés avec
UTL (avec l'aide d'un spécialiste informatique). Ensuite
l'enseignant peut mettre en place la session de TP sur
TPWorks. Une fois que l'enseignant a été identifié par
une connexion à l'outil, ce dernier adapte l'ensemble
des patrons au contexte de conception de l'utilisateur et
configure les paramètres de l'outil selon son profil.
Dans ce contexte, nous déroulons sur un cas d'étude
quelques itérations du processus de conception avec
l’outil de scénarisation.
Première itération du processus de conception
Etape 1
3 - Fusionner/composer les modèles : l'outil ajoute
le patron choisi par l'utilisateur dans le compartiment
solution du patron. Le scénario est mis à jour. Dans le
même temps, les actions de l'utilisateur ainsi que les
propriétés du patron sont analysées pour définir les
valeurs des indicateurs.
4 - Collecter les informations du contexte : une fois
l'analyse de données réalisée, les indicateurs apportent
les informations au contexte de conception et des
règles d'adaptation sont produites.
5 - Adapter la solution : le système propose des
adaptations possibles au concepteur, en fonction de
l'ensemble de règles produites par la collecte. Les
adaptations
peuvent
mener
à
fournir
des
recommandations sur la méthode de conception, ou
proposer des patrons liés à l'action de l'utilisateur, ou
suggérer une évolution de l'éditeur ou sa configuration,
adaptée au contexte de conception. L'utilisateur peut
toujours modifier le mode d’adaptation souhaité (défini
dans son profil).
24
L'enseignant définit le nom de la session
comme "Dynamic behavior of a
mechanical charge". Le contenu de la
session de TP est composé des sections
suivantes : une présentation courte du
système que les étudiants utiliseront ; une
explication des problèmes techniques qu'ils
peuvent rencontrer ; une liste des tâches
différentes à
réaliser ; des activités
supplémentaires pour approfondir le TP;
des ressources numériques disponibles.
L'enseignant doit réserver la salle de
classe et l'équipement, préparer la salle de
classe, vérifier l'équipement et définir le
scénario de la session de TP sous TPWorks.
Etape 2
L'enseignant définit son intention de
conception. Il peut choisir de définir les
élements de son scénario (les objectifs, la
situation pédagogique, les tâches,...) dans
l'ordre qu'il souhaite. Dans notre cas,
l'enseignant préfère décrire d'abord la
situation d'apprentissage. Il choisit alors le
mode de conception associé au concept «
Situation d'apprentissage ».
L'éditeur propose un ensemble de patrons
de conception liés à tous les types de
situation d'apprentissage enregistrés dans
Amiens – 23 et 24 mai 2012
Approche pour la scénarisation pédagogique
l'outil ou ceux que l'enseignants avaient
définis ou sélectionnés lors d'une
précédente
session
de
conception.
L'enseignant sélectionne des patrons (avec
les critères "lab work" et "implement"). Les
choix les plus pertinents sont proposés en
premier dans la liste. L'enseignant choisit
le modèle "Implementation for a lab work".
Etape 3
l'éditeur ajoute le patron choisi à la
représentation graphique de la solution
(Figure 2-A). Le scénario est mis à jour
avec ce nouveau patron.
Etape 4
Des indicateurs observant les concepts
utilisés pour réordonner les ensembles de
patrons proposés par l'outil sont mis à jour.
Les concepts utilisés sont ajoutés à la
facette « domaine » s'ils n'étaient pas déjà
parmi les concepts du domaine.
Etape 5
L'outil ajoute les nouveaux concepts à
l'ensemble de concepts proposés par l'outil
pour réordonner les ensembles de patrons.
Seconde itération du processus de conception
Étape 1
Le résultat de la première itération est
conforme aux spécifications des besoins de
l'enseignant qui ne spécifie pas alors de
nouveaux besoins.
Étape 2
Quand le concept "activity" est choisi dans la
partie graphique, l'éditeur propose une liste
de toutes les activités existantes. Les
activités liées à la situation pédagogique
sont placées au sommet de la liste. Ici,
l'enseignant ne trouve pas l'activité qui lui
convient et choisit d'en créer une nouvelle
"Implementation of a lab work with
TPworks".
Étape 3
Le scénario est mis à jour et cette activité est
ajoutée à la solution.
Étape 4
Les indicateurs liés à cette activité de
conception (ajouter une activité) sont mis à
jour. La facette « domaine » est mise à jour.
La méthode de l'indicateur "Concept in the
Domain Vocabulary" vérifie si le concept
"TPWorks" fait partie de la facette
« domaine » actuelle sinon il est ajouté.
Étape 5
L'outil propose à l'enseignant d’adapter la
solution en ajoutant la ressource matérielle
"Computer with TPWorks".
4èmes Rencontres Jeunes Chercheurs en EIAH
L'enseignant ajoute ensuite à sa solution les objectifs
de sa situation pédagogique. Il termine de compléter le
patron principal en changeant la propriété
"Participants" pour ajouter le nombre d'étudiants
attendus.
Figure 4: Patron de conception "Implementation of a lab work
session with TPWorks"
Avant de déployer sur TPWorks le scénario résultant,
l'enseignant
doit
définir
encore
l'activité
"Implementation of a lab work with TPworks" avec les
sous-activités ("la présentation courte", "problèmes
techniques", … définies dans sa réflexion
préliminaire). Ces activités seront mises en œuvre
comme des pages Web dans TPWorks. Les pages web
réalisées dans TPWorks sont représentatives des
activités ou des ressources mises à disposition des
élèves. Ce lien entre une activité et une page web peut
être vu comme une règle de transformation permettant
ainsi de transformer le modèle que nous offrons en
pages web pour TPWorks.
V. Conclusion
L'évolution du contexte pédagogique et des
technologies numériques, nécessite une redéfinition du
métier des enseignants et formateurs. En particulier, ces
derniers doivent adapter leurs pratiques de
scénarisation pédagogique, en les explicitant et les
formalisant davantage, nécessitant pour cela de
nouvelles compétences de concepteur informatique.
Nous proposons dans cet article une approche
adaptative de conception pédagogique à base de
patrons centrée sur l'utilisateur pour aider les
enseignants dans cette démarche. Nous proposons un
outil d’édition pour supporter cette approche. Cet outil
est généré à partir des technologies EMF-GMF depuis
un méta-modèle de patrons. L'outil peut être adapté aux
caractéristiques de l'utilisateur et au contexte de
conception (le profil de l'utilisateur, les activités de
conception …) et permet à l’enseignant de concevoir
un scénario pédagogique en utilisant un langage visuel
spécifique à son domaine métier. La limite de cette
approche tient à la création de modèles productifs.
Dans cette partie du travail, nous ne traitons pas encore
25
Jean-Pierre Clayer
la création de tels modèles productifs. À ce jour, nous
n'avons pas expérimenté notre proposition de
recherche, nous avons juste montré, en développant cet
outil, la faisabilité technique de notre approche. De
nouveaux travaux seront centrés sur le raffinement du
processus d'adaptation.
VI. Références
Bolton, Reload Project. United Kingdom: The
University of Bolton, The University of Strathclyde
and JISC. Retrieved August 31st 2005
Choquet C., Ingénierie et réingénierie des EIAH :
L’approche REDiM. HDR en informatique, Université
du Maine, 2007.
Choquet C., Iksal S. Modeling Tracks for the Model
Driven Reengineering of a TEL System - Journal of
Interactive Learning Research (JILR), Special Issue
Usage Analysis in Learning Systems: Existing
Approaches and Scientific Issues, Vol. 18 n°2, p. 161184. , - 2007
Eclipse
EMP,
“Eclipse
Modeling
Projects”,http://www.eclipse.org/modeling/. Last view
12/2010
El Kechaï H., Choquet C . Understanding the
Collective Design Process by Analyzing Intermediary
Objects. The 6th IEEE International Conference on
Advanced Learning Technologies (ICALT'2006), isbn :
0-7695-2632-2, Kerkrade(The Netherlands), p.10471051, July 5-7, 2006
Hernandez-Leo D., Jorrın-Abellan I.M. , VillasclarasFernandez E.D., Asensio-Perez J.I., Dimitriadis Y., A
multicase study for the evaluation of a pattern-based
visual design process for collaborative learning,
Journal of Visual Languages and Computing 21 (2010),
p,313-331.
Hernández-Leo, D, Villasclaras-Fernández, E. D.,
Asensio-Pérez, J. I, Dimitriadis, Y., Jorrín-Abellán, I.
M., Ruiz-Requies, I., & Rubia-Avi, B. (2006).
COLLAGE: A collaborative Learning Design editor
26
based on patterns. Educational Technology & Society,
9 (1), 58-71
Kelly S. Domain Specific Languages vs. Generic
Modelling Languages, interview may 2007 :
http://www.ddj.com/architect/199500627
Kelly, S., Tolvanen, J.-P., Domain-Specific Modeling:
Enabling full code generation , Wiley-IEEE Computer
Society Press, 2008
Koper, R. and Tattersall, C., Learning Design : A
Handbook on Modelling and Delivering Networked
Education and Training, Springer Verlag, 2005
Mor, Y. Embedding Design Patterns in a Methodology
for a Design Science of e-Learning, in Christian Kohls
& Joachim Wedekind, ed., 'Problems Investigations of
E-Learning Patterns: Context Factors Solutions',
Information Science Publishing, Hershey, PA, 2010
Pedagogical
Patterns
http://www.pedagogicalpatterns.org/
Projet
européen
–
Minerva
http://www2.tisip.no/E-LEN/
Project :
programme :
Razmerita
L.,
Angehrn
A.,
Nabeth
T.
On the Role of User Models and User Modeling
in Knowledge Management Systems, User Modeling
2003, 9th International Conference, UM 2003,
Johnstown, PA, USA, June 22-26, 2003, Proceedings.
Lecture Notes in Computer Science 2702 Springer
2003, ISBN 3-540-40381-7
Laurillard D, Teaching as a Design Science, Building
Pedagogical Patterns for Learning and Technology,
edition Routledge, 2012, ISBN 978-0-415-8038.
Vignollet L., Ferraris C, David J.-P, Lejeune A, LDL:
An
Alternative
EML,
Advanced
Learning
Technologies, 2006. Sixth International Conference
Champin P-A, Prié Y, MUSETTE : un modèle pour
réutiliser l’expérience sur le web sémantique, dans
Journées "Web Sémantique" Action Spécifique STIC
CNRS, oct. 2002, Paris.
Amiens – 23 et 24 mai 2012
Manifestation culturelle du numérique
Thierry Danquigny
Equipe Trigone, Laboratoire Cirel, Université Lille1
[email protected]
Résumé
Notre projet de recherche concerne l’influence des objets connectés sur la vie quotidienne des nouvelles générations. Nous nous interrogeons sur la réalité des différents
changements dans les manières d’être et d'apprendre des
nouvelles générations en contact fréquent et précoce avec
des moyens numériques pour communiquer, rechercher,
s’informer, apprendre et se distraire. A partir d’entretiens
d’explicitation, nous analysons l’influence supposée des
objets connectés au travers du modèle culturel de Edward.T. Hall (1959) . La mobilisation de ce modèle force
à penser la situation des jeunes générations en termes
fondamentaux. Dans cette perspective l’usage du numérique est une manière d’exister dans un milieu donné, voir
de survivre. Le modèle culturel est donc indissociable de
la description d’un milieu de vie, où humain et nonhumains, jouent un rôle inscrit dans une biographie mondiale. Fondamentalement, le cadre culturel demeure fixe,
seuls les objets connectés évoluent, se développent en se
généralisant à l’ensemble des générations. Les objets
numériques sont à la fois acteurs et solutions. Pour les
nouvelles générations, ils sont les moyens d’établir une
médiation avec leur milieu de vie. En tant que solution
adaptée, leur usage est renforcé. Nous concluons sur une
constatation de l’accélération des changements culturels
provoqués par l’usage du numérique.
Introduction
Notre société vit l'époque singulière des ''multitudes''.
Une multitude d'objets connectés matériels ou immatériels pour communiquer, s'informer, apprendre ou encore
se distraire peuplent notre vie quotidienne (Pisani &
Piotet, 2008).
Notre société vit encore l'épreuve des multiples signaux
d'alerte. Le taux de chômage, les nouvelles exigences du
marché de l'emploi, les différences de conditions de vie
entre classes d'âge, l'injonction à la mobilité professionnelle expliquent une ''montée des incertitudes'' (Castell,
2009). Parallèlement, avec l'accroissement des populations étudiantes, l'Université française, vit la multitude
des profils, l'hétérogénéité des niveaux et attentes (Alava,
Romainville, 2001). Dans ce contexte, l'Université engage
un processus dit de ''modernisation'' pour faire face aux
différents enjeux sociétaux. Les différents rapports d'Etat
Isaac (2007), Besson (2008), Demuynck et Pécresse (2011)
tentent d'ouvrir des pistes pour renforcer l'efficacité de
l'institution, intégrer les promesses du numérique et adapter les enseignements aux ''digital natives'' (Prensky,
2001). Le numérique, l'éducation et les nouvelles générations sont ainsi annoncés comme les enjeux de ce siècle.
Selon Abbott (2010), « There are undoubtedly extraordinary times, rich in opportunity yet loaded with uncertainty.
» (p. 215). Ce contexte sociétal constitue le milieu de vie
4ièmes Rencontres Jeunes Chercheurs en EIAH
des étudiants dont le dénominateur commun est l'évolution et la généralisation des usages numériques (Ministère
de la culture, 2010; Eurostat, 2010) dans les sphères privées, académiques ou professionnelles. Cette diffusion
rapide de moyens pour accéder et traiter la connaissance
modifie notre relation au savoir et à la manière d'apprendre (Buckingham, 2010; Serres, 2009). Pour certains
observateurs, les objets connectés auraient ainsi une influence sur la manière de se comporter, de penser et d'apprendre. Pour certains l'influence serait positive (De Rosnay, 1995; Papert, 1999; Prensky, 2011; Tapscott, 2009)
pour d'autres négative (Bauerlein, 2008; Keen, 2008; Carr,
2009; Small, 2010).
Notre question de recherche est d'évaluer en quoi les
objets connectés de type ordinateur, téléphone, balladeur
ou encore les consoles de jeux utilisés au quotidien influencent et font évoluer les manières d'apprendre. Nous
vérifions l'hypothèse que les manières d'apprendre dans le
temps de la révision sont dépendantes du contexte sociétal,
académique et de la connaissance pratique des objets
connectés. Cette hypothèse est vérifiée dans le moment de
révision qui mobilise à la fois les sphères privées, académiques et professionnelles. Notre terrain de recherche est
situé à l'Université Lille1. Notre développement se décline en deux parties :
Une première partie macro envisage l'environnement de
l'Homme et le contexte sociétal indépendamment des
situations d'apprentissage. Nous empruntons à Edward T.
Hall (1959), son modèle descriptif des systèmes culturels
pour bâtir une grille interprétative des conduites humaines
en situation d'interaction avec l'environnement. Avec
Leroi-Gourhan (1945), nous comprenons qu'au contact
avec son environnement, ces conduites humaines sont des
vecteurs de création et de développement des objets techniques. Au sens de Friedmann (1966) et de Ellul (1977),
ces objets techniques sont pour l'humain, un nouveau
milieu dit technique. Une deuxième partie micro envisage
ce milieu technique constitué de dispositifs numériques
comme facteur influant l'apprentissage humain. A cette
étape, nous faisons un état de nos premières recherches
terrains réalisées à partir de trente entretiens d'explicitation ainsi que de la mise en place d'un questionnaire. Ces
recherches s'appuient sur les grilles d'interprétations et
hypothèses contruites dans la première partie.
Première partie : l'approche Macro
Le point de vue de l'ethnotechnologie :
Pour introduire ce point de vue nous utilisons les travaux de Gaudin (2010). L'auteur nous permet de comprendre l'influence réciproque de la technique et de la
société. Pour l'ethnotechnologie, la technique est comprise et analysée comme activité dont l'objet est de donner une forme à la matière (ibid). Elle est un socle sur
27
Thierry Danquigny
lequel repose la civilisation. Elle est la condition sine qua
non de toutes activités humaines. Ce courant de pensée
que nous retrouvons chez Ellul (1977) sous la forme du
concept de Technique, nous permet d'introduire le concept
d'empreinte comme manifestation de l'usage des moyens
techniques. C'est ce concept, que nous utilisons pour notre
recherche (au niveau micro) pour comprendre les pratiques étudiantes dans le moment de révision.
Pour notre recherche nous postulons que cinq facettes
permettent de décrire les objets influencant le milieu de
vie des étudiants. Nous retiendrons l'acronyme CRIAD
pour Communiquer, Rechercher, s'Informer, Apprendre et
se Distraire. Le cadre théorique de l'ethnotechnologie
nous permet de comprendre comment les CRIAD interagissent avec le milieu de vie des étudiants.
L'ethnotechnologie réfute le principe de causalité linéaire pour adopter une causalité circulaire (Gaudin,
2009). Gaudin définit le système technique comme un
ensemble cohérent de savoir-faire liés entre eux par un
réseau d'interactions. Il reprend les thèses de Gille (1978)
sur l'émergence des systèmes techniques . Pour Gille,
l'introduction d'une technologie ne peut être isolée d'un
tout, « Système technique et système social sont aussi
intimement liés... » (p. 5). Il ne s'agit donc pas d'étudier la
société et la technique isolément mais d'envisager société
et technique en tant que système abritant des influences
réciproques. C'est donc sous l'angle de la complexité
(Morin, 1977) que doit se penser l'ethnotechnologie et la
systémique. Flichy reprend le thème de l'influence mutuelle du social et du technique. Il présente cette thématique en décrivant un contexte favorable à l'émergence de
certaines technologies et les effets initiaux non nécessairement prévus :
(...)Les concepteurs du micro-ordinateur et de l'internet ont donc incorporé dans les systèmes informatiques qu'ils ont développés, des pratiques sociales
nouvelles, celle de l'individualisme connecté. Mais
ces nouvelles techniques à leur tour vont performer
les usages. (Flichy, 2004, p.36)
Flichy explique qu'il y a un avant internet, un contexte
social (en l'occurrence le mouvement hippie des années
60) qui a porté le développement des objets techniques.
Ces derniers eux-mêmes ont renforcé des usages qui par
extension, pourraient dans un prolongement purement
logique, inclure les nouvelles bases d'un développement
d'objets.
De ce cadre théorique nous retenons pour notre recherche que les CRIAD doivent être étudiés en interelation avec les pratiques des étudiants dont ils sont à l'origine et la conséquence.
Le point de vue de la sociologie des associations :
Penser les pratiques des étudiants et les CRIAD en tant
que système implique d'en identifier les éléments constitutifs. Selon Ellul (1977), un « système est un ensemble
d'éléments en relation les uns avec les autres... » (p. 88).
Dans le cadre de la sociologie des organisations, ces éléments en interaction sont aussi agissants et sont nommés
acteurs humains ou non-humains. Un CRIAD sera tout
autant déterminant qu'un utilisateur humain. Dans la perspective de la sociologie des associations et de la théorie
de l'acteur-réseau tout membre du système est acteur et
28
synthèse d'acteurs. Cette terminologie d'acteur qui désigne à la fois les étudiants et les CRIAD, confère une
forme de neutralité à notre analyse. En effet, comme le
suggère Madeleine Akrich (1987), les objets techniques,
en tant que non-humain, n'en sont pas moins actifs et
déterminant dans l'émergence d'un système :
Les objets techniques définissent dans leur configuration une certaine partition du monde physique et
social, attribuent des rôles à certains types d'acteurs humains et non-humains - en excluent d'autres, autorisent certains modes de relation entre ces différents
acteurs de telle sorte qu'ils participent pleinement de
la construction d'une culture, au sens anthropologique du terme, en même temps qu'ils
deviennent des médiateurs obligés dans toutes les relations que nous entretenons avec le "réel". (Akrich,
1987, p.1)
Selon Callon et Latour (1997), « les non humains interviennent de manière active c'est à dire qu'ils relancent
l'action dans des directions inattendues. Cette participation des non-humains à l'action conduit à concevoir les
entités comme des réseaux. » (p. 114). Le terme ''acteur''
recouvre ainsi deux grandes catégories que sont les humains et les non-humains. La présence d'objets techniques
force la définition et la catégorisation. L'humain est en
relation avec le non-humain et délimite une partition du
monde en deux parties physique et social. Nous posons
l'hypothèse pour notre recherche que la qualité et la fréquence des relations entre acteurs humains et nonhumains créent des habitus (Bourdieu, 1980) qui forgent
des manières d'agir et d'apprendre des étudiants.
Les travaux sur l'empreinte technique (Perriault, 2009)
nous permettent de comprendre comment se forment ces
habitus : ''Le terme «empreinte de la technique» désigne
ici la façon dont la technique et l'usage d'une technologie
façonnent en retour ceux qui les pratiquent. (Perriault,
1981).'' Pour l'acteur humain, l'empreinte est un acquis.
Notre recherche concerne non pas l'inné mais l'acquis
dans l'activité et au contact de la société et en interaction
avec elle. Comme le fait remarquer Claude Levis Strauss,
c'est ce qui fait la différence entre réflexe pupillaire inné
et un geste acquis par la pratique ou l'entrainement (LéviStrauss, 2008, p.50). Ainsi dans le cadre de notre recherche, la manière de se tenir devant un ordinateur, la
manière de prendre des notes pour un étudiant ou encore
la manière d'apprendre serait à comprendre dans le contexte socio-culturel et socio-technique à un moment donné. En reprenant le concept de l'empreinte développé par
Perriault dans la ''Logique de l'usage'', l'utilisation de
moyens techniques pour produire, pour mener une activité
professionnelle marque physiquement l'humain. La corpulence, la démarche, la forme des mains, la crasse des
cheminots (Perriault, 1981), sont autant de marqueurs
physiques apportant des éléments de preuve d'un contact
avec une activité impliquant des acteurs non-humains.
Sur le plan méthodologique, notre recherche sur les
CRIAD se heurte à la difficulté de repérer des marqueurs
qui ne sont pas toujours physiques.
En effet, les travaux de Kandel(2007) sur l'aplysie, une
limace de mer, montre que l'interaction répétée avec l'environnement provoque une modification neurologique de
Amiens – 23 et 24 mai 2012
Manifestation culturelle du numérique
la mémoire à long terme dont la manifestation visible est
le comportement et dont la modification accessible par
dissection est la structure biologique :
Fondamentalement, à l'aide de Hall, nous expliquons
qu'un des facteurs de mise en action de l'homme est de
s'adapter à son environnement.
Nous découvrîmes que la mémoire à long terme de
l'aplysie, comme chez l'homme, requiert un entrainement répété entrecoupé de période de repos. La
perfection nait de la pratique même chez les mollusques. Ainsi, quarante stimuli administrés consécutivement entrainent une habituation du retrait de la
branchie qui ne dure qu'un jour, mais dix stimuli
chaque jour durant quatre jours produisent une habituation qui dure des semaines. (Kandel, 2007, p.
199)
Dans cette expérience, comme dans notre recherche
seule une trace neurologique pourrait être observée. Les
expériences du neurologue américain Small ont par
exemple permis de mettre en évidence des traces d'activités neurologiques créées après une utilisation de quelques
heures de recherche sur Google sur des groupes ayant une
pratique régulière et une absence de pratique. Il s'avère
qu'à l'issue de cinq heures de pratique les groupes avancés
et novices présentent les mêmes traces d'activités neurologiques. Ce constat fait dire à Small :
L'homme a élaboré des méthodes défensives avec
une ingéniosité étonnante, non seulement en ce qui
concerne la guerre, mais aussi la médecine, la religion et l'application des lois. Il doit se défendre non
seulement contre des forces naturelles menaçantes,
mais aussi contre des groupes humains hostiles. (Hall,
1959, p. 68)
If our brains are so sensitive to just an hour a day
of computer exposure, what happens when we spend
more time ? What about the brains of young people,
whose neural circuitry is even more malleable and
plastic ? What happens to their brains when they
spend their average eight hours daily with their
high-tech toys and devices ? (Small, 2008, p. 17)
L'ensemble de ces travaux nous permet d'affirmer que
la singularité de l'humain est une prise de conscience
empirique et théorique de la modification de la physiologie individuelle par interaction avec l'environnement. Que
ce soit en interagissant avec une bêche, un pinceau ou un
smartphone, dans un milieu naturel ou dans un milieu créé
par l'humain, l'homme est transformé (Mumford, 1956;
Mac Luhan, 1964) physiquement et neurologiquement.
L'imagerie cérébrale est ainsi vue par le CERI (2007)
comme une opportunité pour inventer une nouvelle
science de l'apprentissage.
Dans le questionnement de Small sont cités les paramètres de notre recherche : l'activité dans un environnement informatisé, les CRIAD et les étudiants.
Pour notre recherche, notre questionnement concerne
les manifestations quantifiables issues des relations entre
les acteurs humains et non-humains.
Le point de vue de l'anthropologie culturelle :
Dans les parties précédentes, nous avons qualifié les relations entre technique et société. Dans le cadre de la
théorie de l'acteur réseau, les systèmes techniques et sociaux, sont étudiés sous l'angle de l'analyse des interactions entre acteurs. Dans le cadre de l'anthropologie culturelle de Hall (1959), les individus regroupés en sociétés
auront des préférences culturelles à partir d'une gamme de
pratiques universellement repérées. Ce cadre nous permet
de bâtir une méthodologie pour étudier les pratiques étudiantes en situation d'apprentissage.
4ième Rencontres Jeunes Chercheurs en EIAH
La genèse de l'invention du silex taillé, du chopper, décrite par Leroi-Gourhan(1945) décrit cette démarche de
conception de moyens aptes à garantir sa survie par une
traduction matérielle « au point de contact entre le milieu
intérieur et le milieu extérieur » (p. 339). Ces moyens
créés par hasard ou procédant d'une démarche innovante
sont confrontés au réel pour disparaître ou s'enrichir de
nouvelles fonctionnalités. Les innovations ainsi émergentes deviennent pour Hall et Friedmann (1966) des
prolongements de l'homme hors de l'homme. L'action de
l'homme est amplifiée relativement aux effets constatés
sur son milieu de vie :
De nos jours, l'homme a développé des extensions de
toutes les parties, ou presque, de son corps. L'évolution de l'arme va du poing et des dents à la bombe
atomique. […] Des instruments tels que les lunettes,
la télévision, le téléphone et les livres qui sont des
extensions matérielles des membres humains, transportent la voix à travers le temps et l'espace. (Hall,
1959, p. 75)
Mac Luhan (1964), reprenait ces conclusions pour caractériser les nouveaux médias de l'époque en tant que
prolongements sensoriels de l'humain dans un milieu de
vie marqué par l'information en tant que donnée stratégique. Dans un environnement donné, la capacité à mobiliser les prolongements sensoriels seraient ainsi une garantie pour sa propre survie. Selon Hall, chaque individu
est à situer dans une culture. Comprendre un individu
c'est comprendre sa propre culture. Pour Hall, la compréhension des différences culturelles est une communication.
Toute communication a des mots, un vocabulaire, une
grammaire. L'humain disposerait d'une grammaire fondamentale que Hall a nommé les Systèmes de Communication Primaire (SCP). Le terme Système suggère que les
mots constitutifs de cette grammaire forment un tout
cohérent en équilibre permanent. L'organisation de ces
mots, leur agencement, leurs relations garantissent, pour
l'humain, à un instant donné, une situation stable ou en
cours de stabilisation. Le terme Communication nous
rappelle que l'humain est en interaction avec d'autres
humains évoluant dans un milieu naturel ayant des contraintes physiques. Nous esquissons dans cette description,
la théorie de l'acteur-réseau fondé sur une interaction
comparable entre acteurs humain et non-humains dans un
même espace de vie. Le terme Primaire affirme le partipris de considérer l'homme dans ce qu'il a de plus fondamental. Avec les SCP, Hall décrit ainsi le contexte de vie
de l'humain et fait de l'influence culturelle sur le comportement le point d'orgue de sa thèse :
29
Thierry Danquigny
Cette question touche au but principal de cet ouvrage,
qui est de prouver à quel point la culture conditionne
le comportement. La culture n'est pas une idée exotique pour laquelle se passionne une petite chapelle
de spécialistes au fin fond des mers du Sud. C'est un
moule qui nous modèle tous; la culture conditionne
notre vie quotidienne, de manière parfois inattendue.
(Edward T. Hall, Le langage silencieux, 1959, p.47)
Partant de l'hypothèse qu'il est nécessaire de connaître
le système culturel rencontré pour pouvoir établir une
communication et maintenir le rapport, Hall détermine
une grille de lecture donnant accès au décodage des différences culturelles. L'hypothèse complémentaire est qu'une
culture a des fondamentaux qui se situe à un niveau élémentaire, primaire. Ce niveau dit biologique imposerait
des catégories communes à l'ensemble des cultures. C'est
ainsi que d'un point de vue méthodologique que Hall
définit les SCP :
Le concept de milieu technique est historiquement étudié par Friedmann(1966). Ellul enrichit les analyses de
Friedmann avec le concept de Technique. Ellul explique
ainsi le milieu technique à partir du concept de Technique.
La Technique est pour l'auteur un ensemble de moyens
efficaces en vue d'un objectif. La Technique n'est donc
pas un ensemble de technologies mais un ensemble de
moyens et de méthodes qui favorise le renforcement du
milieu technique. L'emploi de techniques efficaces favorisent par contre la création de technologies. Dans ce contexte, les CRIAD vont permettre à l'utilisateur étudiant
d'optimiser leurs activités d'étude. En ce sens, l'accéleration des actions se doublera d'une recherche d'efficacité
dans l'intéraction ou l'association (Hall, 1959). Dans le
shéma ci-dessous, un téléphone portable pourra rapidement permettre d'organiser un rendez-vous, de trouver un
partenaire ou encore de résoudre un problème. Les SCP
de Hall dans le milieu technique sont ainsi mobilisés
rapidement et efficacement.
Les SCP sont : interaction, association, subsistance,
bisexualité, territorialité, temporalité, connaissance,
jeu, défense, exploitation (utilisation de la matière).
(Hall, 1959, p. 56-57)
Les SCP sont donc pour Hall une manière de cartographier les conduites humaines. Analysable globalement
pour la société et par individu, ces SCP constituent des
grilles de lecture de l'usage des objets techniques. Le flux
de contraintes issu de l'environnement est filtré par ces
SCP pour se traduire en moyens de résistances, d'agir, de
réagir ou de construire :
Ce processus d'adaptation mène aux formes de vie
complexes qu'on trouve sur terre. Les cultures différentes sont analogues aux espèces en ce sens que certaines survivent tandis que d'autres disparaissent.
Certaines s'adaptent mieux que d'autres. Analyser le
changement, c'est donc analyser la survie.(Hall, 1959,
p.56-57)
Hall décrit un processus d'adaptation et dans le même
temps un processus créatif. Toute adaptation dont le fondement primaire est la survie prend la forme d'organisations, de structures et d'objets. Les CRIAD que nous étudions peuvent être considérés comme la manifestation de
ce processus créatif. Nous proposons de considérer ces
CRIAD comme une réification des SCP définis par Hall.
Le point de vue de la sociologie des techniques :
Pour étudier cette réification des SCP en CRIAD, nous
souhaitons introduire la notion de milieu technique que
nous distinguons du milieu naturel. Pour Ellul, le milieu
technique est vu comme une médiation entre le milieu
d'origine dont est issu l'humain et le milieu maitrisé par
l'humain :
(…) cette médiation devient exclusive de tout autre :
il n'y a plus d'autres rapports de l'homme à la nature,
tout cet ensemble de liens complexes et fragiles que
l'homme avait patiemment tissé (…) disparaît : il n'y
a plus que la médiation technique qui s'impose et
devient totale. (Ellul, 1997, p. 44)
30
(figure 1)
L'étudiant (cf fig. 1) est entouré des dix SCP qui filtrent
son interaction avec les acteurs humains ou non-humains.
Dans son milieu technique, il tient dans la main un
CRIAD (téléphone). Evoluant dans un milieu technique,
l'étudiant adopte le critère d'efficacité symbolisé par les
flèches bleues. Dans notre recherche, c'est par l'étude des
CRIAD, des SCP mobilisés que nous tentons de qualifier
et quantifier l'empreinte des environnements numériques
sur les activités de l'étudiant.
Eléments de synthèse :
Dans cet article, nous cherchons à regrouper différents
courants théoriques, à articuler la sociologie des techniques, la théorie de l'acteur-réseau et l'anthropologie
culturelle.
Par la théorie de l'acteur-réseau, nous identifions un
ensemble socio-technique et des acteurs ayant chacun à
leur niveau une influence sur la cohérence.
Par la sociologie des techniques, nous identifions les
facteurs d'efficacité, d'optimisation et de pragmatisme
contribuant à créer un milieu technique dont la cohérence
interne et à la mesure du fonctionnement d'un objet technique.
Par l'anthropologie culturelle de Hall, nous comprenons
la culture comme étant une matérialisation des stratégies
de survie.
Amiens – 23 et 24 mai 2012
Manifestation culturelle du numérique
En intégrant le concept d'empreinte, nous déduisons que
la culture est la manifestation d'une manière d'utiliser les
objets. La culture dans la métaphore musicale de Hall est
une partition de notes qui enveloppe l'ensemble des acteurs humains et non-humains (cf fig. 1).
Dans l'ordre de notre exposé, les différents cadres théoriques s'articulent de la manière suivante : notre milieu de
vie est créé par l'humain, il est un milieu technique (Ellul,
1977; Friedmann, 1966; Gaudin, 2010). La stabilisation
de ce système ne peut être réalisée qu'à partir de moyens
trouvés dans le milieu conçu par l'homme. Le milieu
technique est ainsi en auto-accroissement par le simple
fait qu'un problème technique suggère une solution technique (Ellul, 1977). La solution la plus efficace, la plus
économe sera adoptée.
Dans le modèle culturel de Hall, les dix SCP doivent
être optimisés afin de réaliser des arbitrages efficaces à la
mesure du projet de survie. Entre les dix SCP, l'humain
ferait des arbitrages, des calculs et des négociations. En
interaction dans l'environnement, la mesure du danger
déclenchera l'association pour garantir la préservation de
son territoire dans les meilleurs délais. Dans le monde du
vivant sont rapidement négociés les SCP de Hall comme
l'interaction, la défense, l'association, la subsistance, la
territorialité et la temporalité. Les objets créés par
l'homme pour agir sont utilisés pour optimiser les SCP. A
ce stade de notre réflexion, nous pouvons introduire le
statut des CRIAD pour les nouvelles générations. A notre
époque quels sont les réels changements ? L'anthropologie relève aisément que nombre d'objets fabriqués par
l'Homme étaient dictés par l'impérieuse nécessité de survivre. Mais de nos jours que dire d'un smartphone ou
d'une console de jeux connectés au web ?
Deuxième partie : l'approche Micro
Notre approche micro est fondée sur une étude terrain
en cours. Le travail de collecte est réalisé à partir d'une
série de trente entretiens et un questionnaire sur une population étudiante à l'Université Lille1 en Licence. Notre
intention est d'évaluer l'importance des CRIAD dans la
vie quotidienne en termes d'intensité d'usage et d'utilisation historique. Une première partie de nos entretiens
interroge la biographie individuelle numérique puis nous
établissons un lien avec le métier d'étudiant pour nous
intéresser à des moments clés de la vie étudiante comme
l'acquisition de connaissances, la révision et l'examen.
Avec le concept d'empreinte, nous cherchons ainsi à mesurer en quoi le contact avec les CRIAD modifie l'activité
dans les situations de la vie quotidienne et en quoi l'activité d'étude est influencée.
Méthodologie de recherche :
Notre recherche est menée selon une approche fondée à
partir d'entretiens d'explicitation (Vermersch, 2010) préparatoire à un questionnaire qui ne fait pas partie de cette
communication. Les entretiens cherchent à répondre à des
questions concernant les sphères privées-publiques et
concernant les sphères académiques. Appliquée à notre
terrain de recherche, notre question consiste à vérifier si
des usages identifiés dans la sphère privée se transposent
dans la sphère académique. Cette approche nous permet
d'identifier des continuités ou des ruptures entre les différentes sphères. Nous avons vu précédemment que les
4ième Rencontres Jeunes Chercheurs en EIAH
travaux de recherche du CERI (2007) et Small(2010) sur
les humains et Kandel(2007) sur les invertébrés suggèrent
que la répétition d'une activité est neurologiquement
structurante. Notre méthodologie consiste donc à évaluer
l'intensité d'usage des CRIAD dans la sphère privée et
d'étudier par contraste l'activité étudiante. Nous choisissons le moment de la révision dans la mesure où ce moment est un moment clé : il est en lien avec l'obtention du
diplôme ou tout au moins avec la possibilité de continuer
dans un cursus. Par ailleurs il se situe à la frontière des
sphères, public ou institutionnelle. Chez Leroi-Gourhan
(1945) au point de contact avec les contraintes du milieu
extérieur, des objets naissent. Chez Hall (1959), par le jeu
des interactions dans un milieu donné, des stratégies de
survie se mettent en place mobilisant humains et nonhumains.
Dans nos entretiens préliminaires, nous identifions deux
moments. Le premier moment concerne l'usage des
CRIAD dans la sphère privée, le second l'usage des
CRIAD dans la sphère académique.
Entretiens correspondant à l'usage dans la sphère
privée.
En l'état de nos recherches, nous avons mis en évidence
que les SCP sont pour un étudiant des moyens d'optimiser
son temps, ses déplacements, ses efforts. Le smartphone
en tant qu'outil de convergence de services est un outil qui
est solution pour de multiples problèmes rencontrés dans
un milieu lui-même modifié par le CRIAD. Il est solution
des problèmes qu'il crée. Dans les extraits qui suivent, le
CRIAD est décrit en des termes quasi-magiques et à
l'usage incontournable :
Une étudiante en gestion, 21 ans, parle de l'usage de son
smartphone : '' (…) le smartphone çà a été un grand moment ! (…) Non çà a méchamment changé ma vie. (…) Il
n'est jamais éteint. On peut m'appeler 24/24. Et parlant de
son ordinateur : ''J'ai le mien qui dort avec moi, toujours
allumé, prêt à répondre''.
Entretiens correspondant à l'usage dans la sphère
académique
Le deuxième moment est le temps de l'usage académique des CRIAD. A cette même étudiante dotée d'un
smartphone, d'un ordinateur portable et particulièrement
active en bureautique pour avoir pratiqué très tôt le diaporama avec ses parents, nous posons la question du moment de révision en vue d'un examen. Les réponses qui
suivent, indiquent des pratiques traditionnelles avec
l'usage des environnements informatisés sous la forme
d'une assistance : ''je fais des fiches alors un exemple
concret on va prendre le droit. Le droit donc je reprends
tous mes cours, j'ai toutes mes notes, je reprends mes
cours je refais des fiches. Certaines notions que j'ai pas
assimilées je vais voir sur internet pour avoir les def et
très souvent je me fais des plans pour vraiment avoir le
plan, le sommaire du cours...'' Sur l'usage de l'annotation,
le papier est déterminant : ''du rouge, bleu et noir. Rouge
c'est pour les titres... parce que je hum visualise beaucoup
les parties le plan et donc le plan est toujours d'une autre
couleur et les définitions d'une autre mais deux couleurs
pas plus parce qu'après je suis perdue'. Les entretiens
menés démontrent un usage ''traditionnel''. Un étudiant en
biologie, particulièrement habile en informatique, 20 ans,
31
Thierry Danquigny
déclare refaire ses exercices sur papier en s'isolant et
imprime ses documents pour apprendre.
Enseignement de cette recherche
Entre les pratiques numériques dans la sphère privée et
les manières d'apprendre dans la sphère académique, les
étudiants interviewés ont une tendance majoritaire à utiliser des moyens différents de ceux mobilisés au quotidien.
L'étudiant multitâche et adepte des nouvelles technologies
mute dans le moment de révision en étudiant monotâche
et concentré. Le moment de révision envisagé dans notre
recherche comme rupture implique des usages eux aussi
en rupture. Ce premier constat enrichit notre problématique et pose l'incidence de facteurs non technologiques
sur les manières d'apprendre.
La phase d'entretien confirme que le milieu des nouvelles générations est réellement constitué de CRIAD
optimisant leur présence au monde. Comme le souligne
différents auteurs (Aubert, 2006; Ehrenberg, 1998; Lipovetsky, 2005 ; Tremel, 2001) les CRIAD contribuent à
renforcer des relations entre pairs, à être un moyen pour
affirmer et construire son identité ou affermir des habilités
dans des domaines non-académiques comme le jeu vidéo.
Le CRIAD est dans ce contexte paré de vertus pragmatiques. Le mode connecté est vu en première analyse
comme un accélérateur de négociations des SCP. Entre le
moment de l'interaction et le projet d'association le temps
se contracte et apporte des solutions rapides et efficaces
adaptées aux conditions de vie du milieu technique. Dans
le moment de révision, les conditions d'évaluation semblent influer les manières de mobiliser des familles de
moyens particuliers en rupture avec la sphère nonacadémique.
Notre hypothèse à l'issue de cette première partie de
notre recherche est que les manières d'enseigner et les
types d'évaluation influencent le moment de révision, le
système social influençant le système technique (Gaudin,
2010; Gille, 1978).
Conclusion
Notre recherche met en évidence que les CRIAD mobilisés par les étudiants sont autant de moyens pour s'adapter au milieu technique, au nouveau milieu créé par l'humain. La particularité des CRIAD est leur mobilité dans
les différentes sphères privées-publiques et académiques.
Nous avons analysé l'influence d'usage de la sphère privée
sur la sphère académique.
La sphère privée permet de choisir librement son propre
système de contraintes. Les CRIAD assurent aux nouvelles générations un accès simplifié à la connaissance et
à la rencontre entre pairs. Une des manifestations culturelles du numérique est l'introduction au sein du domicile
parental d'un espace numérique privé et ouvert sur des
communautés extérieures. L'usage des CRIAD, adaptés
au milieu optimise et accélère la gestion des SCP.
La sphère académique impose ses contraintes dispositives aux étudiants. Dans la sphère académique, en situation de révision, les comportements mis en évidence anticipent la forme du dispositif d'évaluation. En contexte, les
étudiants effectuent des arbitrages adaptés aux conditions
prévisibles d'examen.
Nos premières observations contribuent à renforcer
l'idée que les CRIAD ont un pouvoir de transformation
sur l'humain. Leur empreinte, leur manifestion est à déce-
32
ler dans la gestion des SCP. Il demeure, dans le cadre de
la sphère académique institutionnelle de comprendre les
évolutions en cours et de les anticiper. Au delà d'un débat
entre pessimiste et négatifs, il s'agit d'étudier à la fois
l'école, le numérique et la société qui vient (Kambouchner
et al., 2012). Il s'agit encore d'imaginer des dispositifs
capables d'optimiser le potentiel des nouvelles générations et ainsi fluidifier le jaillissement de l'esprit cher à
Seymour Papert.
Références :
Abbott, J., 2010, Overshooled under educated, Continuum
Akrich, M., 1987, Comment décrire les objets techniques,
Technique et culture
Alava, S., & Romainville, M. 2001. la pratique d'étude
entre socialisation et cognition, Inrp.
Aubert, N., 2006, L'individu hypermoderne, érès
Bauerlein, M., 2008, The dumbest generation, Tarcher
Buckingham, D., 2000, La mort de l'enfance, Armand
collin
Callon, M., & Law, J., 1997, l'irruption des non-humains
dans les sciences humain, Cairn
Carr, N., 2010, Internet rend-il bête ?, Robert Laffont
Castell, R., 2009. La montée des incertitudes, Seuil
Ceri, 2002, Comprendre le cerveau, Ocde
De Rosnay, J.,1995, L’homme symbiotique, Seuil
Ehrenberg, A.,1998, La fatigue d'être soi, Seuil
Ellul, J., 1977, Le système technicien, Calmann levy
Flichy, P., 2004, L'individualisme connecté, Réseaux
Friedmann, G.,1966, 7 études sur l'homme et la technique,
Denoël
Gaudin T., & Faroult, E., 2010, L'empreinte technique,
l'Harmattan
Hall, E.T., 1959, Le langage silencieux, Points
Kambouchner, D., Meirieu, P., & Stiegler, B., L'école, le
numérique et la société qui vient., 2012, Mille et une nuit
Kandel, E.,2007, A La recherche de la mémoire, Odile
Jacob
Keen, A., 2008, Le culte de l'amateur, Scali
Latour, B., 2006, Changer de société refaire la sociologie,
La découverte
Lipovetsky, G., 2006, Le bonheur paradoxal, Seuil
Mc Luhan, M., 1964, Pour comprendre les médias, Points
Morin, E., 1977, La nature de la nature, Seuil
Mumford, L., 2008, Les transformations de l'homme,
L'encyclopédie des nuisances
Papert, S., 1999, Le jaillissement de l'esprit, Champs
Perriault, J., 1992, La logique de l'usage, Flammarion
Pisani, F., & Piotet, D., 2008, Comment le web change le
monde, Pearson
Prensky, M., 2001, Don't bother me mom, I'm learning,
Paragon
Prensky, M., 2011, Teaching digital natives, Parangon
Serres, M., 2004, Où vont les valeurs ?, Unesco
techniques, Aubier
Small, G., 2009, iBrain, Harper
Tapscott, D., 2009, Grown up digital, McGrawHill
Tremel, L., 2001, les jeux vidéos : un ensemble à
déconstruire, RFP
Amiens – 23 et 24 mai 2012
Conception d’un système de dialogue intelligent pour jeux sérieux
Franck Dernoncourt
Laboratoire LIP6, 4 place Jussieu, 75005 Paris, France
[email protected]
Résumé
L'objectif de nos travaux est de concevoir un agent
conversationnel (chatterbot) capable de comprendre
des énoncés en langage naturel dans un cadre
sémantique restreint. Cette fonctionnalité est destinée à
permettre un dialogue naturel avec un apprenant, en
particulier dans le cadre des jeux sérieux (serious
games). Cet agent conversationnel sera expérimenté au
sein d'un jeu sérieux destiné à la formation de
personnel en entreprise, en simulant les propos d'un
client. Il ne s’agit pas de s’attaquer à la compréhension
des langues naturelles dans leur généralité dans la
mesure où d’une part le domaine sémantique d’un jeu
est généralement bien délimité et, d’autre part, nous
restreindrons les types de phrases présentes dans le
dialogue.
Introduction
Quel que soit le type d’apprentissage, l’un des moyens
qui permettent de maintenir l'attention et la motivation
du joueur dans un jeu sérieux est de lui permettre de
dialoguer avec un agent virtuel. Actuellement, ce
dialogue, que ce soit dans les jeux sérieux ou dans les
jeux vidéo de type récit (storytelling) ainsi que dans la
plupart des environnements informatiques pour
l’apprentissage humain, est réalisé grâce à des arbres
basés sur des questions à choix multiples (Thue et al.
2007). Le dialogue est donc très contraint, réduisant
ainsi l’apprentissage du joueur qui doit se contenter de
cliquer sur une des possibilités, ce qui à terme diminue
la motivation, donc la réflexion. Nous pensons que les
systèmes de dialogue intelligents (également appelés
systèmes de dialogue évolués) peuvent constituer une
réponse pertinente à ce problème. Par exemple, si
l’entreprise qui nous intéresse est une pharmacie ou un
hôpital, le dialogue entre le patient simulé et le joueur,
en l'occurrence un membre du personnel médical,
permettra à ce dernier de se former au dialogue avec les
patients et tester ses connaissances pour résoudre des
situations concrètes et quotidiennes, situations pouvant
être urgentes et critiques, où une erreur peut s’avérer
extrêmement grave, voire mortelle.
Un dialogue est une activité verbale qui fait
intervenir au moins deux interlocuteurs servant à
accomplir une tâche dans une situation de
communication donnée. Il constitue une suite
coordonnée d’actions (langagières et non-langagières)
devant conduire à un but (Vernant 1992).
4ièmes Rencontres Jeunes Chercheurs en EIAH
L’idée d’une interaction homme-machine se basant
sur les fonctionnements de la langue naturelle n’est pas
nouvelle : elle a commencé à voir le jour à partir des
années 50 avec le test de Turing. Néanmoins, cette
problématique, aux niveaux conceptuel et pratique,
demeure toujours d’actualité. Il existe, par exemple, des
compétitions annuelles comme le Loebner Prize
(Loebner 2003) ou le Chatterbox Challenge visant à
réussir un test et imiter ainsi l’interaction verbale
humaine, mais aucun programme n’a réussi à atteindre
le niveau d’un humain (Floridi et al. 2009).
L’histoire du traitement automatique du langage
naturel,
influençant
directement
les
agents
conversationnels, fait apparaître plusieurs époques dont
l’évolution est intéressante :
1. une approche statistico-morphologique entre les
années 1945-1955, caractérisée par le recours à des
méthodes statistiques faisant intervenir la
morphologie des entrées ; ces méthodes reviennent
en force avec succès pour la traduction
automatique ;
2. une approche syntaxique, marquée par l’utilisation
de la grammaire formelle avec les travaux
linguistiques de Chomsky dès 1955 ;
3. une approche sémantique dans les années 1960,
représentée en particulier par la mise en œuvre du
premier agent conversationnel Eliza (Weizenbaum
1966) ;
4. une approche cognitive (Grice 1979) et pragmatique
(Moeschler et Reboul 1994) à partir des années
1970, qui coïncide avec l’apparition de la
représentation des connaissances et qui fut une
époque influencée par la psychologie cognitive
mettant l’accent sur les opérations mentales ou sur
les processus à la base de la production des discours
(Searle 1972).
Ces quatre approches sont à présent perçues comme
complémentaires les unes des autres et nous nous en
inspirerons tout au long de nos travaux.
Afin de définir des critères d’efficacité des agents
conversationnels, nous allons prendre en compte les
quatre critères suivants pré-conditionnant l'élaboration
d'un système de dialogue intelligent et proposés par
(Rastier, 2001) :
• apprentissage (intégration au moins temporaire
d'informations issues des propos de l'utilisateur) ;
• questionnement (demande de précisions de la part
du système) ;
33
Franck Dernoncourt
• rectification (suggestion de rectifications à la
question posée, lorsque nécessaire) ;
• explicitation (explicitation par le système d'une
réponse qu'il a apportée précédemment).
Dans une première partie, nous présenterons l’état
de l’art en nous focalisant sur le langage AIML, puis
verrons dans un second temps de quelle manière notre
approche permet de dépasser les limites de ce langage.
État de l’art
La figure 1 montre un exemple d'architecture d'un agent
conversationnel. L'utilisateur entre une phrase que
l’agent conversationnel convertit en un langage abstrait,
ici AIML (Wallace 2003) : cette traduction permet
d'analyser le contenu de la phrase et de faire des
requêtes via un moteur de recherche dans une base de
connaissances. La réponse est générée via un langage
abstrait, ici également AIML, qu'il faut traduire en
langage naturel avant de la présenter à l'utilisateur.
Néanmoins, cette architecture est rudimentaire et très
rigide. Il faut par exemple souvent mettre à jour la base
de connaissances pour y inclure des connaissances sur
l'utilisateur, notamment dans le cadre d'une activité de
tutorat qui nécessite le suivi des acquis de l'utilisateur
ainsi que de sa motivation.
Les agents conversationnels se divisent en deux
classes principales :
1. les agents conversationnels non orientés tâche
destinés à converser avec l'utilisateur sur n'importe
quel sujet avec une relation souvent amicale, tel
ALICE (Wallace 2009) ;
2. les agents conversationnels orientés tâche, lesquels
ont un but qui leur est assigné dans leur conception.
gérer un dialogue en fonction du contexte. C’est une
des problématiques du sujet.
Le langage AIML est le plus souvent utilisé par les
agents conversationnels, notamment les agents
conversationnels éducatifs tels TutorBot et TQ-Bot
(Mikic et al. 2008). Bien que sa simplicité d'utilisation
ainsi que la performance relativement bonne des agents
conversationnels l’utilisant le rende attrayant, AIML est
un langage toutefois très limité qui peut se résumer à un
simple filtrage par motif, les motifs des inputs (phrases
de l'utilisateur) et des outputs (réponses de l'agent
conversationnel) étant définis en grande partie par
extension et a priori. Par exemple, le bot Alice, un des
bots les plus connus qui est pourtant un des meilleurs
agents conversationnels non orientés tâche, vainqueur
en 2001, 2002, et 2004 du concours Loebner et
deuxième en 2010, n’est ainsi qu’une simple liste
composée de dizaines de milliers de questions/réponses
prédéfinies :
<category><pattern>Do I like cheese</pattern>
<template>How would I know if you like cheese or
not?</template>
</category>
Approche
Notre approche se veut modulaire afin de distinguer les
différentes compétences requises pour gérer le dialogue
et ainsi pouvoir développer de façon indépendante les
différents modules, comme le montre le diagramme des
flux présenté sur la Figure 2.
Dans un premier temps, la phrase entrée par
l'utilisateur est corrigée orthographiquement et
grammaticalement si besoin. Cette étape, bien
qu'évidente, est négligée par beaucoup d'agents
conversationnels à l’instar de Cleverbot, pourtant un
Les agents conversationnels orientés tâche sont euxmêmes classés usuellement en deux catégories :
1. les agents conversationnels orientés service, par
exemple guider des clients sur un site de commerce
électronique, telle l’assistante virtuelle Sarah de
PayPal ;
2. les agents conversationnels éducatifs, dont le but est
d'aider l'utilisateur à apprendre.
Notre travail se concentre sur les agents
conversationnels éducatifs (tutor bots). Un certain
nombre d’agents conversationnels éducatifs ont déjà été
conçus et implémentés, comme (Zhang et al. 2009),
(De Pietro et al. 2005), (Core et al. 2006), (Pilato et al.
2008) ou encore (Fonte et al. 2009).
Diverses architectures ont été élaborées, voici les
éléments communs à la plupart d’entre elles :
• une base de connaissances inhérente au domaine,
objet de l’application ;
• un gestionnaire de répliques ;
• des structures de stockage des échanges sous forme
d’arborescences
surtout
dans
les
agents
conversationnels éducatifs conçus dans le cadre
d’un jeu vidéo.
Il n’existe pas encore d’outils standards performants
permettant de comprendre le langage naturel, et de
34
Figure 1 - Exemple d'architecture d'un agent
conversationnel. Source : (De Pietro et al. 2005)
Amiens – 23 et 24 mai 2012
Conception d’un système de dialogue intelligent pour jeux sérieux
des agents conversationnels les plus aboutis, comme le
montrent ces deux exemples suivants issus du site
officiel http://www.cleverbot.com :
Exemple 1 :
Human: Hi.
Cleverbot: How clever are you?
Human: Very clver.
Cleverbot: How clever?
Exemple 2 :
Human: Hi.
Cleverbot: Are you a boy?
Human: Yes I am a boys.
Cleverbot: Are you a girl?
Dans l’exemple 1, nous voyons que la faute de frappe
de l'utilisateur qui a écrit « clver » au lieu de « clever »
a manifestement empêché l'agent conversationnel
Cleverbot de comprendre la phrase et de proposer une
suite cohérente au dialogue. Pour résoudre ce
problème, nous utilisons le correcteur orthographique
open-source et gratuit Hunspell, utilisé par des logiciels
majeurs tels Google Chrome et LibreOffice. Si nous
soumettons la phrase « Very clver » à Hunspell, ce
dernier nous propose : « clver 7 0: clever, claver,
clover, elver, caver, cover, cleaver ». La première
suggestion est la bonne. Hunspell prend en compte
beaucoup de paramètres pour ordonner ces suggestions,
tels la grammaire, la prononciation, le type de clavier
utilisé, etc. En plus de l'ordonnancement des
suggestions proposées par Hunspell, nous pouvons
également apporter nos propres critères, par exemple
donner une priorité plus forte aux suggestions présentes
dans les mots précédents du dialogue. L’exemple 2, qui
montre une erreur de grammaire mettant à défaut
l'agent conversationnel, est également corrigé par
Hunspell. Si nous soumettons la phrase « Yes I am a
boys » à Hunspell, ce dernier nous retourne : « * * * *
+boy », le symbole * signifiant que les mots n'ont pas
besoin d'être corrigés.
Dans un second temps, la phrase de l'utilisateur est
analysée lexicalement (tokenization) : ce processus
consiste à normaliser la phrase en la découpant en
mots. Si de simples heuristiques basées sur des
expressions régulières, autrement dit sur des automates
à états finis, suffisent pour réaliser l'analyse lexicale des
langues occidentales où les mots sont usuellement
séparés par des espaces, il n'en va pas de même dans
d’autres langues tel le chinois. Par exemple, le segment
de phrase chinoise (mandarin) 看上海风景 peut être
segmenté 看/上海/风景 (littéralement « regarder /
Shanghai / paysage », i.e. « regarder le paysage de
Shanghai ») ou bien 看上/海风/景 ( « aimer / brise de
mer / vue », i.e. « aimer la vue des brises de mer » ). En
voyant cette phrase, un sinophone segmenterait
toujours de la première façon car le sens issu de la
seconde segmentation est étrange, comme nous le
constatons dans la traduction française. Cependant,
dans d'autres cas, la segmentation peut être ambiguë
même pour un sinophone, à l'instar de la phrase
学生会组织演出 qui peut être segmentée de deux
4ièmes Rencontres Jeunes Chercheurs en EIAH
façons différentes, précisément 学生会/组织/演出
(« Le Bureau des Élèves / organise / un spectacle ») ou
bien 学生/会/组织/演出, (« le(s) étudiant(s) / va (ou
peut) / organiser / un spectacle »). À la lueur de ces
deux exemples, nous voyons que ce genre de phrase en
chinois rend la tâche plus difficile et demande de faire
appel à des heuristiques plus complexes, d’où
l’existence d’analyseurs lexicaux spécifiques pour la
langue chinoise tel le Stanford Chinese Word
Segmenter. Ainsi, il est utile de bien distinguer cette
étape de l'analyse de la phrase comme étant une étape à
part entière, bien que dans notre cas le traitement soit
simple car nous l'appliquons seulement sur les langues
anglaise et française.
Dans un troisième temps, nous réalisons un
étiquetage grammatical (part-of-speech tagging), dont
l'objectif est de classifier les mots selon leur fonction
grammaticale (noms, pronoms, verbes, etc.). Cette
classification se base d'une part sur un dictionnaire et
d'autre part sur le contexte dans lequel le mot apparaît.
Les étiqueteurs grammaticaux se répartissent en deux
Figure 2 - Diagramme du flux des prétraitements.
35
Franck Dernoncourt
groupes : les étiqueteurs stochastiques et les étiqueteurs à base de règles. Un exemple d’étiqueteur
grammatical stochastique est l’étiqueteur unigramme,
qui classifie les mots seulement en fonction de la
probabilité d'appartenance des mots à une classe,
probabilité calculée sur un corpus d'apprentissage. Par
exemple, sur le corpus de Brown (Francis et Kucera
1967), un étiqueteur grammatical unigramme classifie
correctement un peu plus de 80 % des mots (Bird et al.
2009), alors que les meilleurs étiqueteurs atteignent des
précisions supérieures à 95 %, ce qui est un gain non
négligeable, mais montre que même un étiqueteur
stochastique trivial (unigramme) présente des résultats
corrects. Les étiqueteurs grammaticaux sont très
nombreux pour l’anglais mais rares pour le français. À
notre connaissance, il n'en existe que quatre
directement opérationnels : Cordial Analyseur, LIA
Tagg, Stanford Tagger (disponible en français depuis le
6 janvier 2012) et TreeTagger.
Dans un quatrième temps, nous établissons l'arbre
syntaxique à l’aide d’un parser. Cette étape nous
permet notamment de détecter les ambiguïtés
structurelles, c'est-à-dire correspondant aux phrases
ayant plusieurs arbres syntaxiques. Si l'analyse du
contexte ne permet pas de lever l'ambiguïté, notre agent
conversationnel peut ainsi poser une question
intermédiaire à l'utilisateur l'invitant à clarifier sa
phrase. L’extrait suivant issu du film Animal Crackers
(1930) montre un exemple classique d'ambiguïté
structurelle :
Groucho Marx: While hunting in Africa, I shot an
elephant in my pajamas. How an elephant got into
my pajamas I’ll never know.
La figure 3 montre les deux arbres syntaxiques
construits à partir du segment de phrase souligné, ce
qui signifie que ce segment est structurellement
ambigu. Dans l’exemple d'ambiguïté structurelle donnée précédemment, la seconde phrase, autrement dit le contexte, lève l'ambiguïté en choisissant le
sens le plus improbable, d'où le caractère humoristique
du passage. Si l’agent conversationnel ne réussit pas à
déduire le sens du contexte, il peut demander qui
portait le pyjama au moment du tir.
Ces différentes étapes de traitement de la phrase de
l’utilisateur sont résumées sur la Figure 2 montrant le
processus appliqué à la phrase de l'utilisateur « I am a
boys ». Sur le plan technique, ces étapes (hormis la
première) se basent sur la librairie open-source et
gratuite NLTK (Bird et al. 2009) qui offre de
nombreuses fonctionnalités de traitement des langues
tout en interfaçant aussi bien des bases de données tel
WordNet (Fellbaum 2005) que des librairies et
logiciels tiers tels l’étiqueteur grammatical Stanford
Tagger et le prouveur automatisé Prover9. Un grand
nombre de corpus sont également disponibles via
NLTK, ce qui est très appréciable pour mettre en
oeuvre des processus d'entraînement ainsi que pour
réaliser des tests, notamment des tests de performance.
36
Figure 3 - Exemple d’ambiguïté structurelle.
Source : (Bird et al. 2009)
Après avoir mis en place les étapes liminaires du
traitement de la phrase de l'utilisateur, notre travail se
focalise au niveau du moteur de raisonnement, en
particulier sur l'analyse des intentions présentes dans la
phrase de l'utilisateur. Ces différentes informations sont
ensuite utilisées pour étudier la sémantique de la phrase
tout en calculant en parallèle des données statistiques,
en particulier via l'analyse sémantique latente, afin de
pouvoir la soumettre au moteur de raisonnement. Ce
dernier
lance des requêtes vers une base de
connaissances propre au domaine du sujet du dialogue
comme le domaine médical si le dialogue simule une
conversation entre un patient et un pharmacien.
Outre la base de connaissances en tant que telle, le
moteur de raisonnement doit également prendre en
compte les objectifs pédagogiques du jeu. Pour cela,
dans un premier temps nous utilisons des données
pédagogiques basées sur des arbres de décision déjà
utilisés dans des environnements informatiques pour
l’apprentissage humain. Cela nous permet de réutiliser
des scénarios pédagogiques déjà existants ainsi que
d’orienter le dialogue afin de mener à bien les objectifs
d'apprentissage. De surcroît, ces structures arborescentes atténuent la problématique de la génération de la
réponse car les réponses peuvent être générées par
l'agent conversationnel en se basant sur des motifs
prédéfinis et en fonction de la localisation du dialogue
dans l'arbre des scénarios pédagogiques.
Amiens – 23 et 24 mai 2012
Conception d’un système de dialogue intelligent pour jeux sérieux
Nous voyons ainsi que le point critique est la liaison
entre d’un côté la phrase de l'utilisateur qui par essence
est exprimée dans un espace infini, le langage naturel,
bien que sémantiquement restreint par le contexte du
jeu sérieux, et de l'autre côté l'espace fini correspondant
aux arbres des scénarios pédagogiques. Afin de situer
la phrase de l'utilisateur dans cet arbre, la connaissance
des intentions est indispensable. En outre, la
reconnaissance des intentions permet d'accroître la
robustesse de l'analyse sémantique, comme le souligne
(Horvitz et Paek, 2001). L’objectif principal de nos
travaux, à présent que les phases de prétraitement ont
été mises en place, est donc de concevoir un système de
reconnaissance des intentions.
Les travaux sur la reconnaissance des intentions ont
débuté il y a environ 30 ans, (Schmidt et al. 1978),
(Wilensky 1983), et (Kautz et Allen 1986) étant
souvent considérés comme les premiers articles dans ce
domaine. Les systèmes de reconnaissance des
intentions sont très similaires à un système de
reconnaissance des objectifs, à tel point que ces deux
types de systèmes sont parfois confondus. La
reconnaissance des intentions débouche sur de
multiples applications allant du traitement automatique
des langues naturelles à la détection d'intrusion
informatique en passant par la stratégie militaire. Des
mécanismes de reconnaissance des intentions ont déjà
été mis en oeuvre dans le cadre de récits interactifs, à
l’instar de LOGTELL (Karlsson et al. 2007).
Comme le souligne (Sabri 2010), il y a généralement
trois composants majeurs dans un système de
reconnaissance des intentions :
• un ensemble d'intentions parmi lesquelles le
système choisit ;
• des connaissances sur les relations entre actions et
objectifs ;
• un flux entrant d'actions observées, qui correspond
dans notre cas aux actes de dialogue.
La logique a souvent été utilisée pour mettre en
oeuvre des systèmes de reconnaissance des intentions
(Charniak et McDermott 1985), principalement en se
basant sur les concepts d'abduction et de planification.
L’approche logique peut être combinée avec des
approches statistiques (Pereira et Anh 2009)
(Demolombe et Frenandez 2006). La phrase « Ne
trouves-tu pas qu’il fait chaud ? » est un exemple
mettant en exergue la complexité potentielle de
l'analyse des intentions : l'intention peut aussi bien être
un simple constat qu'une demande indirecte d'ouvrir
une fenêtre ou de mettre en marche la climatisation, ou
bien que le simple souhait de continuer la conversation.
Nous voyons à travers cet exemple que la recherche des
intentions est très similaire, voire identique à la
recherche des objectifs.
Deux approches majeures ont émergé pour analyser
les intentions (Raufaste et al. 2005) : d'une part
l’approche classique, également appelée approche
conventionnaliste, qui cherche les intentions au coeur
de la structure linguistique, et d'autre part l'approche
intentionnaliste, qui base la recherche d'intentions sur le
contexte. Ces deux approches sont complémentaires,
comme le représente la figure 4.
Enfin, comme le montre (D’Mello et al. 2010),
l'apprentissage par agent conversationnel peut être
amélioré lorsque la modalité est orale et non écrite. Par
conséquent, nous utilisons Dragon NaturallySpeaking
11, qui est le leader de la reconnaissance vocale et édité
par la société française Nuance, ainsi que le logiciel
AT&T Natural Voices® Text-to-Speech pour
transmettre les réponses de l'agent conversationnel sous
forme orale. À noter que ces deux logiciels ne sont pas
libres.
Conclusions et perspectives
Notre système sera implémenté au sein de la plateforme pour jeux sérieux Learning Adventure (Carron et
al. 2010), dans laquelle il sera évalué dans le cadre
d’expérimentations avec les étudiants.
La mise au point d'un dialogue entre utilisateur et
ordinateur
débouche
sur
des
applications
potentiellement très nombreuses qui ne se limitent pas
aux jeux sérieux. Par exemple, l'interaction orale ou
écrite homme-machine (Horvitz et Paek, 2001), la
conception de bots, l’aide au brouillage de
communication par chat flooding difficilement
détectable, les systèmes de questions-réponses, etc.
Cette thématique est très actuelle comme le prouvent
les travaux d’IBM avec Watson (Ferrucci 2010),
(Baker 2011), ainsi que le rapport de Gartner (Gartner
2011) dont la prédiction suivante montre l’importance
croissante de ce domaine:
By year-end 2013, at least 15 percent of Fortune
1000 companies will use a virtual assistant to serve
up Web self-service content to enhance their CRM
offerings and service delivery.
En outre, les travaux portant sur les agents
conversationnels ont de nombreuses problématiques
communes avec l’analyse de documents, la fouille de
données, la traduction automatique et le web
sémantique : tous ces domaines représentent des
applications indirectes de nos travaux et des
interactions sont envisagées avec certains d'entre eux.
Remerciements
Je souhaite particulièrement remercier mon directeur de
thèse Jean-Marc Labat pour ses précieux conseils,
indispensables à la réalisation de ce projet, ainsi que la
DGA pour son soutien financier.
Figure 4 - Complémentarité des approches
conventionnaliste et intentionnaliste.
Source : (Raufaste et al. 2005)
4ièmes Rencontres Jeunes Chercheurs en EIAH
37
Franck Dernoncourt
Références
Baker, S. eds. 2011. Final Jeopardy: Man vs.
Machine and the Quest to Know Everything. Houghton
Mifflin Harcourt
Bird, S., Klein, E., Loper, E. eds. 2009. Natural
Language Processing with Python. O’Reilly Media.
Carron, T., Marty, J.C. and Talbot S. 2010.
Interactive Widgets for Regulation in Learning Games.
The 10th IEEE Conference on Advanced Learning
Technologies, Sousse, Tunisia.
Core, M., Traum, D., Lane, H. C., Swartout, W.,
Gratch, J., Lent, M. V. and Marsella. S. 2006.
Teaching negotiation skills through practice and
reflection with virtual humans. Simulation 82(11):685–
701.
D'Mello, S.K., Graesser, A. and King, B. 2010.
Toward Spoken Human-Computer Tutorial Dialogues.
Human--Computer Interaction. (4):289--323.
De Pietro, O., De Rose, M. and G. Frontera. 2005.
Automatic Update of AIML Knowledge Base in ELearning Environment. Proceedings of Computers and
Advanced Technology in Education, Oranjestad,
Aruba, August: 29–31.
Charniak, E., McDermott, D. eds. 1985. Introduction
to artificial intelligence. Reading, Mass.: AddisonWesley.
Fellbaum, C. 2005. WordNet and wordnets. In:
Brown, Keith et al. (eds.), Encyclopedia of Language
and Linguistics, Second Edition, Oxford: Elsevier, 665670
Ferrucci, D. 2010. Build Watson: an overview of
DeepQA for the Jeopardy! challenge. In Proceedings of
the 19th international conference on Parallel
architectures and compilation techniques (PACT 2010).
ACM.
Demolombe, R., Fernandez, A.M.O. 2006. Intention
recognition in the situation calculus and probability
theory frameworks. In Proceedings of Computational
Logic in Multi-agent Systems (CLIMA).
Floridi, L., Taddeo, M. and Turilli, M. 2009.
Turing’s Imitation Game: Still an Impossible Challenge
for All Machines and Some Judges––An Evaluation of
the 2008 Loebner Contest. Minds and Machines.
Springer.
Fonte, F. A., Carlos, J., and Rial, B. 2009. TQ-Bot:
An AIML-based Tutor and Evaluator Bot. Computer.
Journal of Universal Computer Science 15(7), 14861495
Francis, W.N. and Kucera, H. eds. 1967.
Computational Analysis of Present-Day American
English. Brown University Press.
Jacobs, J. 2011. Hartner.
http://www.gartner.com/DisplayDocument?id=1522020
, Virtual Assistant Vendor Landscape.
Grice, H.P., Kant, E. and Foucault, M. 1979.
Logique et conversation. Communication, 30, 57-72.
Horvitz, E. and Paek, T. 2001. Harnessing models of
users' goals to mediate clarification dialog in spoken
language systems. User Modeling 3–13. Springer.
Kautz, H. and Allen, J.F. 1986. Generalized plan
recognition. In Proceedings of the Fifth National
Conference on Artificial Intelligence (AAAI), 32-38.
38
Loebner, Hugh. 2003. Home Page of the Loebner
Prize, http://www.loebner.net/Prizef/loebner-prize.html
The First Turing Test.
Meier, E., Mast, M. and Luperfoy, S. 1996. Dialogue
Processing in Spoken Language Systems. In ECAI'96,
Workshop, Budapest, Hungary. Springer.
Fernando, A., Burguillo, C., Rodríguez A.,
Rodríguez, E. and Llamas, M. 2008. T-Bot and Q-Bot:
A couple of AIML-based bots for tutoring courses and
evaluating students. Frontiers in Education Conference.
FIE. 38th Annual.
Karlsson, B., Ciarlini, A.E.M., Feijo, B., Furtado
A.L. 2006. Applying a plan-recognition/plangeneration paradigm to interactive storytelling, The
LOGTELL Case Study. Monografias em Ciência da
Computação Series (MCC 24/07),
Moeschler. eds. 1994, Dictionnaire encyclopédique
de pragmatique. Paris: Éditions du Seuil.
Pereira, L.M. and Anh, H.T. 2009. Elder care via
intention recognition and evolution prospection. Procs.
18th International Conference on Applications of
Declarative Programming and Knowledge Management
(INAP'09), Évora, Portugal.
Pilato, G., Roberto P., and Riccardo R. A kst-based
system for student tutoring. 2008. Applied Artificial
Intelligence 22, no. 4 (4, 2008): 283-308.
Rastier, F. eds. 2001. Sémantique et recherches
cognitives, PUF (2e éd).
Raufaste, É., Longin, D. and Bonnefon, J.F. 2005.
Utilitarisme pragmatique et reconnaissance d’intention
dans les actes de langage indirects. Psychologie de
l’Interaction. 21--22.
Sadri, F. 2010. Logic-based approaches to intention
recognition. Handbook of Research on Ambient
Intelligence: Trends and Perspectives.
Schmidt, C., Sridharan, N. and Goodson, J. 1978.
The plan recognition problem: an intersection of
psychology and artificial intelligence. Artificial
Intelligence, Vol. 11, 1978, 45-83.
Searle, J.R. and Pauchard, H. eds. 1972. reed. 2009.
Les Actes de langage. Hermann.
Thue, D., Bulitko, V., Spetch, M. and Wasylishen, E.
2007. Interactive storytelling: A player modelling
approach. In The Third Conference on Artificial
Intelligence and Interactive Digital Entertainment
(AIIDE), Stanford, CA, pp. 43–48.
Vernant, D. 1992. Modèle projectif et structure
actionnelle du dialogue informatif. In Du dialogue,
Recherches sur la philosophie du langage, Vrin éd.,
Paris, n°14, p. 295-314.
Wallace, R. 2003. The elements of AIML style. Alice
AI Foundation.
Wallace, R. 2009. Parsing the Turing Test, The
Anatomy of A.L.I.C.E. Springer.
Weizenbaum, J. 1966. Eliza. Communications of the
Association for Computing Machinery 9. p. 36–45.
Wilensky, R. 1983. Planning and understanding.
Addison Wesley, Reading, MA, 1983.
Zhang, H. L., Z. Shen, X. Tao, C. Miao, B. Li, and
others. 2009. Emotional agent in serious game (DINO).
In Proceedings of The 8th International Conference on
Autonomous Agents and Multiagent Systems-Volume
2, 1385–1386.
Amiens – 23 et 24 mai 2012
Analyse automatique de codes informatiques
pour l’aide à l’enseignant
3
ème
Loïc Février
année de Doctorat (changement de sujet en Septembre 2011)
Laboratoire LIP6, 4 place Jussieu, 75005 Paris, France
[email protected]
Résumé
L’introduction récente de l’enseignement de
l’algorithmique et de la programmation au niveau du
lycée est confrontée à un certain nombre de difficultés,
notamment pour les enseignants. Après avoir exposé
ces difficultés, nous montrerons l’intérêt d’un système
d’évaluation
automatique
de
programmes
informatiques puis nous proposerons la création
d’outils d’analyse de code permettant d’en pallier les
limites.
1. Introduction
Depuis la rentrée 2009, une composante algorithmique
a été introduite au sein du programme de
mathématiques dans les lycées français et ce, de la
seconde à la terminale. De plus, à partir de la rentrée
2012, une spécialité informatique sera créée pour les
terminales scientifiques. À la même date, en
Angleterre, le programme d’étude Information and
Communication Technology (l’équivalent de la
formation au B2I1 en France), qualifié par le ministre
anglais de l’éducation, de « démotivant et terne » sera
remplacé par un programme d’études informatiques,
axé sur la pratique de la programmation.
L’informatique commence donc à être perçue moins
comme un outil, qu’il faut savoir utiliser, mais plus
comme une science, qu’il faut étudier. Si cette
évolution ne peut être que saluée, les obstacles sont
nombreux et le risque existe, si ils ne sont pas
surmontés, de voir à terme la disparition de cet
enseignement.
Nous nous concentrerons dans cet article sur les
composantes algorithmique et programmation de
l’informatique. Après avoir exposé les difficultés
rencontrées lors de l’enseignement de ces matières,
nous présenterons des outils informatiques capables
d’assister les enseignants et nous situerons nos travaux
dans ce cadre.
2. Difficultés Rencontrées
L’enseignement, dans le cadre des cours
mathématiques, de l’algorithmique et de
1 Brevet Informatique et Internet
4ièmes Rencontres Jeunes Chercheurs en EIAH
de
la
programmation, pose un certain nombre de problèmes
aux enseignants.
Tout d’abord, les enseignants ont en général une
méconnaissance de ces deux matières (algorithmique et
programmation), qui sont nouvelles pour eux. Ils ont
peu de recul par rapport au contenu qu’ils doivent
enseigner et ont donc tendance à se concentrer
uniquement sur ce que l’informatique peut apporter à
leur enseignement des mathématiques. Or, si la notion
informelle d’algorithme est assez intuitive pour les
élèves, sa formalisation et sa mise en pratique par
l’écriture de programmes sont conceptuellement bien
plus complexes. Les élèves doivent passer par une
phase d’apprentissage des notions fondamentales
(variables, boucles, tests...) et de la syntaxe. Cet
apprentissage est long et cela peut engendrer de la
frustration tant au niveau des enseignants que des
élèves, chacun l’exprimant par le classique « A quoi
cela sert-il ? ». L’apprentissage d’un langage de
programmation est ainsi souvent perçu comme difficile
voire désagréable (Bennedsen et Caspersen. 2007,
Gomes et Mendes 2007, Kelleher et Pausch 2005).
Ensuite, s’il est possible en mathématiques de
multiplier les variantes d’un même exercice jusqu’à ce
que les élèves aient assimilé un concept, ceci est plus
difficile en algorithmique car il n’y a que peu d’intérêt
à donner plusieurs fois exactement le même exercice.
L’entraînement des élèves est donc plus complexe et il
faut s’assurer que chaque exercice est bien compris par
chacun, à son propre rythme.
De plus, on constate rapidement de grandes
différences de niveaux entre les élèves (HartMann et
al. 2011), dues à la fois à des connaissances initiales
hétérogènes et à des vitesses de progression très
variées, différences bien plus marquées que dans les
autres matières.
Ainsi, l’utilisation de méthodes traditionnelles
d’enseignement, cours magistral puis exercices, peine
fortement à s’adapter à ces différences, les élèves les
moins rapides étant rapidement perdus (HartMann et
al. 2011, Gomes et Mendes 2007), les plus rapides
s’ennuyant.
Enfin, la nature même des travaux rendus, des
programmes, rend leur évaluation difficile par les
enseignants, en particulier pendant les séances
d’exercices. Analyser un programme d’élève,
comprendre sa logique, détecter les éventuelles erreurs
et guider l’élève vers la solution, le tout en temps-réel,
39
Loïc Février
demande en effet une certaine expérience et une bonne
connaissance du langage utilisé. Les difficultés sont
doubles, à la fois théoriques, pour ce qui concerne
l’algorithme utilisé, et pratiques, pour ce qui concerne
son
implémentation
dans
un
langage
de
programmation. Cette analyse de programmes, même
une fois l’expérience acquise, reste une tâche
fastidieuse et répétitive, les erreurs faites par les élèves
étant, en général, peu variées.
3. Évaluation Automatique
Afin de s’adapter aux différences de niveaux et de
vitesses de progression, on peut permettre aux élèves
d’avancer à leur rythme au sein des exercices. Il faut
cependant s’assurer qu’un exercice a bien été résolu
avant de passer au suivant. Comme nous l’avons vu, il
est très difficile pour l’enseignant de s’acquitter
efficacement de cette tâche. Pourtant un feedback
adapté peut avoir une grande influence sur le processus
d’apprentissage (Norcini 2010).
Il semble donc naturel de mettre en place un système
automatisé
d’évaluation
des
programmes
informatiques, permettant d’y détecter des erreurs
éventuelles. Si de tels systèmes existent et sont utilisés
dans certaines universités (Joy et al. 2005, Higgins et
al. 2005, Wang et Wong, 2008) ou dans le cadre d’un
apprentissage extra-scolaire (Codecademy, CodeChef,
France-IOI) nous verrons qu’ils possèdent certaines
limites, notamment vis à vis du type de feedback qu’ils
procurent.
Utilisation de Jeux de Tests
Afin d’évaluer, de manière automatisée, la correction
d’un programme informatique, on se restreint
généralement à un certain type de programmes qui
lisent des données de travail, l’entrée et écrivent des
résultats, la sortie.
À chaque exercice est alors associé un ensemble de
tests (le jeu de tests), chacun consistant en une entrée et
une sortie de référence. En comparant, pour chaque
test, la sortie de référence à la sortie produite par le
programme quand on lui donne cette entrée, il est
possible de détecter les éventuelles différences,
indiquant que le programme n’a pas donné la sortie
attendue. En fonction du nombre de tests sur lesquels le
programme a donné le bon résultat, il reçoit une note.
Si le jeu de tests est bien construit il permet de
déterminer de manière très simple et rapide la
correction d’un programme.
Difficultés de Mise en Œuvre
La principale difficulté dans l’utilisation d’un jeu de
tests pour l’évaluation de programmes informatiques,
consiste en la création de tests de bonne qualité. Il faut
en effet penser, autant que possible, à l’ensemble des
cas particuliers et des cas limites du problème mais
également aux erreurs potentielles et donc créer des
tests spécifiques.
Sur l’exemple du calcul des racines d’un polynôme
de degré 2, il sera assez simple pour un enseignant de
penser aux différents cas particuliers comme « avoir
une racine double », « avoir un déterminant positif » ou
40
encore « ne pas avoir de racines », permettant de
détecter des cas traités incorrectement par les
programmes des élèves. Pour les exercices de
géométrie, il existe en général de nombreux cas
particuliers, auxquels il faudra aussi penser lors de la
création des tests, à moins qu’il ne soit explicité dans
l’énoncé que de tels cas particuliers ne sont pas à
traiter.
Il n’est cependant pas toujours facile d’identifier, à
l’avance, tous les cas particuliers. Pour un exercice
consistant à déterminer si les éléments d’un tableau
sont donnés en ordre croissant, les deux erreurs
principales faites par les élèves sont les suivantes :
1. L’élève ne compare que les deux premiers
éléments, sans jamais regarder les autres.
Fonction EstCroissant(T, Taille)
Pour i allant de 1 à Taille - 1
Si T[i] < T[i+1]
Retourner Vrai
Sinon
Retourner Faux
FinSi
FinPour
FinFonction
2. L’élève a mal construit sa boucle, la faisant aller
jusque Taille au lieu de Taille - 1 ce qui
occasionnera une erreur.
Fonction EstCroissant(T, Taille)
Pour i allant de 1 à Taille - 1
Si T[i] > T[i+1]
Retourner Faux
FinSi
FinPour
Retourner Vrai
FinFonction
Il n’est pas évident de déterminer, a priori, les erreurs
qui seront faites par les élèves, aussi c’est en étudiant
les solutions proposées que l’on peut se rendre compte
des erreurs typiques.
Limites
Tout d’abord, le fait de pouvoir vérifier de manière
presque instantanée la correction de sa solution pousse
certains élèves vers une stratégie « essais et erreurs » et
ne les encourage pas à réellement réfléchir sur leur
programme (Pears et al. 2007, Norcini 2010). Plusieurs
solutions existent, par exemple en instaurant un délai
entre chaque essai ou en pénalisant un trop grand
nombre d’essais.
Ensuite, comme nous l’avons vu, il est difficile de
construire, dès le début, un bon jeu de tests et celui-ci
ne peut remplacer complètement une lecture des
programmes des élèves, seule à même de nous éclairer
sur les erreurs faites. L’évaluation automatisée par un
jeu de tests est donc un outil au service de l’enseignant,
lui permettant de se décharger de cette tâche fastidieuse
afin de se concentrer sur l’aide à apporter aux élèves en
difficulté et la détection des problèmes de fond.
Amiens – 23 et 24 mai 2012
Analyse automatique de codes informatiques
Enfin, un jeu de tests permet uniquement d’indiquer
la présence d’erreurs au sein d’un programme mais
n’aide guère l’élève sur les modifications à apporter
pour arriver à une solution correcte. Ceci reste à la
charge de l’enseignant mais peut, à nouveau,
représenter un investissement en temps trop important,
alors même que les erreurs rencontrées sont en général
les mêmes d’un élève à l’autre.
Cependant, malgré ces limites, l’utilisation d’un
système d’évaluation automatisée par jeu de tests
permet un gain de temps important pour les
enseignants, un retour (possiblement) immédiat pour
les élèves et ne demande pas de connaissances
informatiques spécifiques pour sa mise en œuvre, dès
lors qu’une plateforme de test est mise à disposition.
Évolution
Afin de corriger les limites de l’utilisation d’un jeu de
tests, il est par exemple possible d’ajouter un
commentaire à chaque test (Wang et Wu, 2007),
commentaire qui sera montré à l’élève si son
programme échoue sur ce test. Ainsi, en cas d’erreur
sur certains cas particuliers, l’élève peut modifier son
programme en conséquence. Cela suppose cependant
que le programme de l’élève marche sur le cas général.
De plus, comme il existe souvent de multiples raisons
pour lesquelles un programme ne donne pas le bon
résultat, l’élève débutant se trouve démuni et incapable
de corriger ses erreurs.
Dans le cas de l’apprentissage des mathématiques, un
certain nombre d’EIAH ont été développés (Hakem et
al. 2005, Heffernan et al. 2008, Narciss et Huth 2006)
permettant, suite à l’analyse de l’erreur de l’élève,
d’adapter la réponse du système. Le point essentiel de
ces outils est d’avoir à la fois une modélisation du
domaine de connaissance et une compréhension fine de
l’erreur faite par l’élève, ces deux composants
permettant alors de guider efficacement ce dernier dans
sa résolution.
Pour la mise en place de tels systèmes dans le cadre
de l’apprentissage de la programmation, deux
difficultés se présentent :
• la compréhension fine de la réponse de l’élève est
difficile à acquérir, même si l’on dispose d’un
excellent jeu de tests,
• le domaine de connaissance dépend de l’exercice
et sa modélisation demande une bonne
connaissance des erreurs possibles des élèves.
Pour ce second point, une analyse des solutions des
élèves est essentielle mais celle-ci est difficile à faire
manuellement par manque de temps : le nombre de
programmes à analyser, pour une séance d’une heure
dans une classe de 30 élèves, s’élève rapidement à
plusieurs centaines !
Afin de faire face à ces deux difficultés, une analyse
automatique de programmes informatiques s’avère
donc nécessaire, afin de pouvoir catégoriser un
ensemble de programmes et associer à chaque
programme une ou plusieurs erreurs spécifiques.
Une telle analyse étant déjà utilisée dans des outils de
détection de plagiat, il semble naturel de s’intéresser
aux techniques utilisées dans ce cadre.
4ièmes Rencontres Jeunes Chercheurs en EIAH
4. Détection de Plagiat
En informatique, nous entendons par plagiat le fait,
pour un élève, de copier un programme écrit par une
autre personne et de le modifier afin de cacher autant
que possible cet emprunt.
Les types de modifications constatées (Prechelt et al.
2000) comprennent des modifications de la mise en
page du programme (ajout de commentaires, traduction
depuis une autre langue, changements de noms de
variables...),
de
son
organisation
globale
(réorganisation des déclarations de fonctions, ajout de
« code mort »...) ou locale (réordonnement de
conditions multiples, passage d’un type de boucle à un
autre, ajout de variables temporaires...).
La pratique du plagiat, phénomène global (Saltau
2001) et pratiqué par un grand nombre d’étudiants
(Sheard, 2002) notamment en informatique, a incité au
développement, depuis plus de 30 ans, de systèmes
automatisés capable de détecter cette forme de triche.
Désormais, s’il est toujours possible de désorienter
ces systèmes, il faut mettre en œuvre des techniques
élaborées (Prechelt et al. 2000, Chen et al. 2003) dont
la mise en œuvre est aussi difficile que la tâche de
départ, et donc hors de portée des étudiants tentés par
le plagiat.
Ces outils étant donc capables de détecter des
similarités fortes entre programmes, alors même que
des techniques élaborées de camouflage du plagiat ont
été mises en œuvre, les techniques qu’ils emploient
sont intéressantes à étudier dans le cadre des
applications que nous envisageons.
Comptage d’Attributs
Les premiers systèmes de détection de plagiat
calculaient, pour chaque programme, un certain
nombre de métriques permettant alors d’associer à
chacun de ces programmes un vecteur de
caractéristiques, c’est-à-dire un point dans un espace à
n dimensions. Des programmes proches dans cet
espace sont alors considérés comme possibles plagiats.
Le premier système de ce type (Ottenstein 1976) était
basé sur les métriques suivantes : nombre d’opérateurs
uniques, nombre d’opérandes uniques, nombre total
d’opérateurs et nombre total d’opérandes. Par la suite,
d’autres systèmes (Berghel et Sallach 1984, Faidhi et
Robinson 1987, Grier 1981) ont été développés,
introduisant des métriques supplémentaires, jusqu’à 24.
Lorsqu’on calcule des métriques sur l’ensemble d’un
programme, on perd toutes les informations liées à sa
structure et il a été montré (Whale, 1990) que les
systèmes de ce type étaient inefficaces car soit très
sensibles (de petites modifications rendent le plagiat
indétectable) soit au contraire trop peu sensibles (ce qui
occasionne de nombreux faux-positifs).
Métriques Structurelles
Par la suite, certains systèmes (Jankowitz 1988) ont
combiné l’approche « comptage d’attributs » avec des
comparaisons de la structure des programmes, cette
dernière technique étant la base des systèmes
actuellement les plus utilisés parmi lesquels on peut
citer MOSS (Schleimer et al. 2003, Aiken ), YAP (Wise
41
Loïc Février
1996), JPlag (Prechelt, et al. 2000), SIM (Gitchell et
Tran, 1999) ou encore SID (Chen et al. 2003).
Représentation Symbolique
Tous ces systèmes commencent par associer à chaque
programme une représentation symbolique permettant
de s’éloigner du détail de l’implémentation afin de ne
conserver que l’essence même du programme.
L’ensemble des symboles choisis est de taille plus ou
moins grande selon les systèmes et permet donc des
compromis variables entre la non-détection de certains
plagiats et la détection de faux-positifs.
Ainsi, dans le cas de JPlag, un programme est
représenté sous la forme d’une suite de symboles très
généraux qui, dans le cas Java, comprennent
notamment
VARDEF, ASSIGN, APPLY,
BEGINWHILE, ENDWHILE,
IF, ELSE, ENDIF...
Le détail des noms de variables ou même des
affectations effectuées est donc oublié et seule la
structure est conservée.
Au contraire pour SIM, l’ensemble des symboles est
plus important et un code comme
for (i = 0; i < max; i++)
sera transformé en
TKN_FOR TKN_LPAREN TKN_ID_I
TKN_EQUALS TKN_ZERO...
qui conserve donc beaucoup plus d’informations, bien
que les noms des variables soient également oubliés.
Comparaisons
Une fois les représentations symboliques des
programmes obtenues, différents algorithmes de
comparaison sont mis en œuvre par ces systèmes.
Dans le cas de SIM, on cherche à aligner les deux
séquences de symboles de manière à maximiser un
certain score. Par exemple, deux symboles associés
valent +1 s’ils sont égaux et -1 sinon ; un symbole qui
reste seul vaudra quant à lui -2. Il est possible de
maximiser très simplement un tel score en utilisant des
techniques de programmation dynamique, mais le
grand
défaut de cette méthode est qu’elle n’est pas capable de
traiter les cas où des morceaux de codes ont été
inversés.
Dans le cas de JPlag et de YAP, on cherche parmi
ces deux séquences de symboles des sous-séquences
communes, appelées tuiles. Ces tuiles étant disjointes,
on déterminera la similarité entre deux programmes en
calculant le taux de recouvrement maximal des deux
séquences par des tuiles assez grandes (de taille
supérieure à un certain paramètre). L’algorithme utilisé
est de type glouton, cherchant à chaque étape la plus
grande tuile possible.
Le système MOSS utilise, de son côté, une technique
de winnowing considérant l’ensemble des sousséquences (de longueur fixée) de symboles d’un
42
programme et extrayant pour chacune de ces sousséquences, de manière invariante localement, un
élément représentatif (par exemple le minimum).
L’ensemble de ces éléments constitue alors un
échantillonnage de la séquence d’origine. Pour
comparer deux programmes, on calcule alors le nombre
d’échantillons partagés.
Métrique de Compression
Le système SID (Chen et al. 2003) diffère des
méthodes présentées précédemment au sens où il ne
compare
pas
réellement
les
représentations
symboliques des programmes mais utilise une
métrique, basée sur la complexité de Kolmogorov.
Cette métrique est prouvée comme optimale mais, ne
pouvant être calculée, est en pratique approximée par
un algorithme de compression pour donner la NCD
(Normalized Compression Distance).
Intuitivement, plus deux programmes sont différents,
plus la longueur de leur version compressée sera
importante, car moins il y a d’informations répétées.
Cette distance a montré d’excellents résultats
lorsqu’elle est comparée aux autres systèmes comme
MOSS ou JPlag (Chen et al. 2003).
5. Classification de programmes
Outils existants
L’analyse de similarité entre programmes (ou codes
binaires décompilés) est utilisée dans un cadre
industriel, que ce soit pour la détection de code
dupliqué (voire Roy et al. 2009 pour une comparaison
détaillée des techniques disponibles) ou pour la
détection et la classification de virus informatiques
(Wehner 2005, Cesare et Xiang 2011) le travail de S.
Wehner s’appuyant justement sur la Normalized
Compression Distance que nous avons présentée
précédemment.
Au contraire, si, comme nous l’avons vu, la détection
de similarités entre programmes informatiques est
utilisée dans de nombreux systèmes afin de détecter un
éventuel plagiat, son utilisation dans un cadre
pédagogique afin de fournir un feedback aux élèves n’a
été proposée, à notre connaissance, que dans un
système mis en place à l’université de Durham
(Watson et al. 2011). Dans ce cas, la similarité entre
deux programmes est déterminée en calculant la
distance d’édition entre leurs deux arbres syntaxiques.
Utilisation Envisagée
L’intérêt pédagogique de ces techniques de
comparaison de programmes nous semble très
important et leur mise en œuvre apporterait beaucoup à
la fois aux élèves et aux enseignants.
Combinées avec l’utilisation de fichiers tests, elles
permettraient à l’enseignant de classifier rapidement un
grand nombre de programmes, c’est-à-dire de faire de
la
classification
semi-supervisée.
Si
cette
automatisation est déjà très utile au sein d’une classe,
avec environ une cinquantaine de programmes à
classifier par exercice, il est parfaitement possible
qu’un même exercice puisse être donné à plusieurs
Amiens – 23 et 24 mai 2012
Analyse automatique de codes informatiques
dizaines (ou centaines) de classes s’il est présent sur
une plateforme en ligne (France-IOI, Codecademy). Il
est alors absolument nécessaire de disposer de tels
outils afin de pouvoir analyser l’ensemble des données
disponibles.
Lors de la soumission par un élève d’un nouveau
programme, celui-ci serait alors évalué sur le jeu de
tests puis classifié grâce à la taxonomie mise en place
précédemment. L’élève recevrait donc un message
d’aide aussi adapté que possible à l’erreur commise.
Pour l’enseignant, l’utilisation d’outils de
classification de ce type permettrait d’avoir une vue
globale sur les erreurs des élèves, même si ces derniers
ont finalement réussi à corriger leur programme par
eux-mêmes.
Cadre de Mise en Œuvre
L’objectif de nos travaux de recherche est donc la
création d’outils d’analyse automatique de programmes
permettant les utilisations pédagogiques évoquées
précédemment.
Nous nous appuierons sur les différentes techniques
utilisées pour la détection de plagiat ou de similarités
entre programmes, et nous déterminerons la plus
adaptée au cadre que nous nous fixons. En effet, dans
la situation qui nous intéresse, les élèves ne vont pas
chercher à masquer un plagiat dans leurs programmes,
mais nous devrons en revanche être capables d’en
extraire les structures fondamentales permettant de les
catégoriser au mieux. D’une manière générale, les
programmes considérés seront également courts (10 à
30 lignes), aussi une attention particulière devra être
apportée au caractère suffisamment discriminatif des
outils utilisés. Les différentes techniques devront donc
être étudiées et comparées sur ce type particulier de
programmes.
A cet effet, une base de données de programmes
devra être constituée afin de pouvoir comparer ces
techniques entre elles et, d’un point de vue plus
général, pouvoir confronter les performances du
système envisagé avec celles d’autres outils similaires,
en particulier celui utilisé à l’université de Durham
(Watson et al. 2011).
La correction d’un programme ne pouvant être
déterminée par la seule analyse de sa similarité à
d’autres programmes (un seul caractère de différence
pouvant le rendre invalide), les résultats issus de
l’évaluation sur un jeu de tests seront également
utilisés pour cette classification.
Un outil de visualisation des similarités au sein d’un
ensemble de programmes devra également être mis au
point, la construction de l’arbre ternaire utilisé par
(Chen et al. 2003) étant bien trop coûteuse en temps.
Un certain nombre de contraintes s’appliqueront aux
outils développés. En effet, ils devront être utilisables
de manière simple par tout enseignant désireux de les
appliquer sur ses propres exercices. Afin de pouvoir
être utilisés de manière efficace sur des plates-formes
rassemblant plusieurs milliers d’élèves, une attention
toute particulière devra également être portée à la
complexité des algorithmes utilisés.
Enfin, l’intégration des outils sera effectuée non
seulement au sein de notre université mais aussi sur la
4ièmes Rencontres Jeunes Chercheurs en EIAH
plate-forme de France-IOI, afin de permettre une
évaluation par les élèves et les enseignants de leurs
qualités et défauts.
Compétences Requises
L’enseignant souhaitant utiliser de tels outils sur des
exercices déjà créés et mis en place sur une plateforme
existante, aura pour seule tâche d’assister le système
dans la phase de classification, c’est-à-dire d’être
capable d’identifier les erreurs communes à un groupe
de programmes afin de les labelliser correctement. Il
profitera bien entendu du travail déjà effectué par
d’autres enseignants sur ces mêmes exercices.
Dans le cas d’un exercice original, s’il est préférable
de fournir plusieurs solutions correctes ou incorrectes
(afin que l’outil soit opérationnel dès le début), il est
suffisant de n’indiquer qu’une seule solution valide. Le
jeu de test devra quand à lui nécessairement être créé,
de manière manuelle ou plus informatisée à l’aide
d’outils de création de jeux de tests, selon le niveau de
compétence de l’enseignant. Détailler ce type d’outils
sortirait du cadre de cet article mais leur utilisation est
simple, à la portée d’un enseignant après une vingtaine
d’heures de pratique de la programmation.
6. Conclusion
Dans cet article nous avons tout d’abord exposé les
difficultés rencontrées par les enseignants dans le cadre
de l’apprentissage de l’algorithmique et de la
programmation, en particulier au lycée.
Après avoir présenté un cadre général pour
l’évaluation automatique de programmes à l’aide de
fichiers tests, puis exposé les limites d’une telle
approche, nous avons montré l’intérêt de pouvoir
analyser et comparer plus en détail les programmes
réalisés par les élèves.
Des outils adaptés à ce cadre pédagogique restent à
développer puis à tester en situation réelle, ce qui est
l’objet de notre travail de doctorat.
Références
A. Aiken. A system for detecting software
plagiarism. http://theory.stanford.edu/~aiken/moss/.
Jens Bennedsen and Michael E. Caspersen. Failure
rates in introductory programming. SIGCSE Bull.,
39:32–36, June 2007.
H. L. Berghel and D. L. Sallach. Measurements of
program similarity in identical task environments.
SIGPLAN Not.,19 :65–76, August 1984.
Silvio Cesare and Yang Xiang. Malware variant
detection using similarity search over sets of control
flow graphs. In Trust, Security and Privacy in
Computing and Communications (TrustCom), 2011
IEEE 10th International Conference on, pages 181-189,
nov. 2011.
Xin Chen, Brent Francia, Ming Li, Brian Mckinnon,
and Amit Seker. Shared information and program
plagiarism detection. IEEE TRANS. INFORM. TH,
50:545–1551
Codecademy. http ://www.codecademy.com.
CodeChef. http ://www.codechef.com.
43
Loïc Février
J. A. W. Faidhi and S. K. Robinson. An empirical
approach for detecting program similarity and
plagiarism within a university programming
environment. Comput. Educ., 11 :11–19, January 1987.
France-IOI. http ://www.france-ioi.org.
David Gitchell and Nicholas Tran. Sim : a utility for
detecting similarity in computer programs. Science,
31(1) :266–270, 1999.
Anabela Gomes and António José Mendes. Learning
to program - difficulties and solutions. Proceedings of
the International Conference on Engineering
Education, 2007.
Sam Grier. A tool that detects plagiarism in pascal
programs. SIGCSE Bull., 13 :15–20, February 1981.
Khider Hakem, Emmanuel Sander, and Jean-Marc
Labat. Diane (diagnostic informatique sur l’arithmétique au niveau élémentaire). In Environnements
Informatiques pour l’Apprentissage Humain, pages 81–
92, 2005.
Werner HartMann, Michaek Näf, and Raimond
Reichert. Enseigner l’informatique, 2011.
Neil T. Heffernan, Kenneth R. Koedinger, and Leena
Razzaq. Expanding the model-tracing architecture : A
3rd generation intelligent tutor for algebra
symbolization. Int. J. Artif. Intell. Ed., 18 :153–178,
April 2008.
Colin A. Higgins, Geoffrey Gray, Pavlos
Symeonidis, and Athanasios Tsintsifas. Automated
assessment and experiences of teaching programming.
J. Educ. Resour. Comput., 5, September 2005.
H. T. Jankowitz. Detecting plagiarism in student
pascal programs. Comput. J., 31 :1–8, February 1988.
Mike Joy, Nathan Griffiths, and Russell Boyatt. The
boss online submission and assessment system. J. Educ.
Resour. Comput., 5, September 2005.
Caitlin Kelleher and Randy Pausch. Lowering the
barriers to programming : A taxonomy of
programming environments and languages for novice
programmers. ACM Comput. Surv., 37 :83–137, June
2005.
Susanne Narciss and Katja Huth. Fostering
achievement and motivation with bug-related tutoring
feedback in a computer-based training for written
subtraction. Learning and Instruction, 16(4) :310 –
322, 2006.
J. Hattie and H. Timperley. The power of feedback.
Review of Educational Research,, 77(1):81–112, 2007.
K. J. Ottenstein. An algorithmic approach to the
detection and prevention of plagiarism. SIGCSE Bull.,
8 :30–41, December 1976.
Arnold Pears, Stephen Seidman, Lauri Malmi, Linda
Mannila, Elizabeth Adams, Jens Bennedsen, Marie
44
Devlin, and James Paterson. A survey of literature on
the teaching of introductory programming. SIGCSE
Bull., 39 :204–223, December 2007.
Lutz Prechelt, Guido Malpohl, and Michael
Philippsen. JPlag : Finding plagiarism among a set of
programs. Technical Report 2000-1, Universität
Karlsruhe, Fakultät für Informatik, March 2000.
Chanchal K. Roy, James R. Cordy, and Rainer
Koschke. Comparison and evaluation of code clone
detection techniques and tools : A qualitative
approach.
SCIENCE
OF
COMPUTER
PROGRAMMING, page 2009, 2009.
C. Saltau. Fear of failure drives student exam cheats.
The Age, Melbourne, page 16, 2001.
Saul Schleimer, Daniel S. Wilkerson, and Alex
Aiken. Winnowing : local algorithms for document
fingerprinting. In Proceedings of the 2003 ACM
SIGMOD international conference on Management of
data, SIGMOD ’03, pages 76–85, New York, NY,
USA, 2003. ACM.
Judy Sheard, Martin Dick, Selby Markham, Ian
Macdonald, and Meaghan Walsh. Cheating and
plagiarism : perceptions and practices of first year it
students. SIGCSE Bull., 34 :183–187, June 2002.
Fu Lee Wang and Tak-Lam Wong. Designing
programming exercises with computer assisted
instruction. In Proceedings of the 1st international
conference on Hybrid Learning and Education, ICHL
’08, pages 283–293, Berlin, Heidelberg, 2008.
Springer-Verlag.
Shu-Ling Wang and Pei-Yi Wu. Examining the role
of feedback on self-efficacy and performance in webbased environment. In Innovative Computing,
Information and Control, 2007. ICICIC ’07. Second
International Conference on, page 161, sept. 2007.
Christopher Watson, Frederick W.B. Li, and Rynson
W.H. Lau. Learning programming languages through
corrective feedback and concept visualisation. In
Proceedings International Conference on Web Based
Learning, ICWL’11, pages 11–20, 2011.
Stephanie Wehner. Analyzing worms and network
traffic using compression. CoRR, abs/cs/0504045,
2005.
G. Whale. Identification of program similarity in
large populations. Comput. J., 33 :140–146, April
1990.
Michael J. Wise. Yap3 : Improved detection of
similarities in computer program and other texts. In
SIGCSEB : SIGCSE Bulletin (ACM Special Interest
Group on Computer Science Education), pages 130–
134. ACM Press, 1996.
Amiens – 23 et 24 mai 2012
Similarités sémantiques et contextuelles pour l’apprentissage
informel en mobilité
Pierre-Yves Gicquel
3ème année de doctorat
Université de Technologie de Compiègne-CNRS, UMR Heudiasyc, BP 20259, 60200,
Compiègne, France
[email protected]
Résumé
Les dispositifs mobiles tels que tablettes et
smartphones fournissent de nouvelles possibilités
d'interactions situées en musées. Nous explorons
dans cet article deux dimensions pour ces
interactions, l'exploration (à travers la suggestion
au visiteur d'œuvres, d'artistes ou de thèmes
susceptibles de l'intéresser) et la communication (à
travers la mise en place d'un système d'annotation
contextualisée des œuvres). Afin de prendre en
compte la nature située d'une visite de musée, ces
interactions sont contextualisées en fonction du
profil cognitif du visiteur (ex. ses intérêts et son
niveau d'expertise) ainsi que de sa situation
physique (ex. œuvres à proximité et historique de
visite). À cette fin, nous proposons un modèle
sémantique des œuvres et du contexte de visite et
définissons sur ce modèle un calcul de similarité
sémantique et un calcul d'adéquation au contexte.
Introduction
Nous nous intéressons à l'instrumentation des visites de
musées par des dispositifs mobiles. Lors de la visite
d'un musée par un visiteur individuel ou un petit
groupe, un apprentissage informel peut prendre place
place. L’apprentissage informel se distingue de
l'apprentissage formel car il ne s'inscrit pas dans un
cursus scolaire ou professionnel et est essentiellement
centré sur les désirs d'apprentissage du visiteur
(Malcolm et al. 2003). En effet, lors d’un parcours de
musée, les visiteurs ne se comportent pas comme des
apprenants, ils ne passent pas linéairement d'une œuvre
à l'autre ou d'une salle à la suivante comme un
apprenant étudie les chapitres d’un cours. Au contraire,
ils survolent certaines œuvres, ne suivent pas forcément
le chemin prévu et ne lisent que les textes qui les
attirent (moins d'un tiers des textes selon Gob et
Drouguet 2006).
L'apprentissage qui a lieu en musée lors d'une visite
« libre » (par opposition aux visites pédagogiques) est
donc informel, car centré sur les désirs immédiats du
visiteur et non structuré. Les supports numériques aux
visites de musées doivent préserver ce caractère
4ièmes Rencontres Jeunes Chercheurs en EIAH
informel de l'apprentissage en aidant le visiteur à
construire son sens de l'exposition au fil de la visite.
Dans cet article, nous présentons une utilisation de
similarités sémantiques et contextuelles permettant
l'adaptation dynamique des interactions entre le visiteur
et les œuvres. Ces interactions comprennent la
suggestion automatique d’œuvres, d'artistes ou de
thèmes pouvant intéresser le visiteur ainsi que des
communications contextualisées entre visiteurs au sujet
des œuvres. À cette fin, nous proposons un modèle
ontologique pour la description des propriétés
culturelles des œuvres et du contexte de la visite. Le
contexte de visite regroupe des informations sur
l'environnement immédiat du visiteur (œuvres à
proximité) ainsi que des informations sur son profil et
son historique de visite. Ce contexte se construit au fur
et à mesure des déplacements du visiteur dans le musée
et de ses interactions avec le dispositif.
Dans la suite de cet article, nous positionnons notre
travail par rapport aux supports numériques pour la
visite de musée, nous introduisons ensuite le modèle
ontologique CALM (ContextuAlized Learning in
Museum), permettant la description des aspects
culturels des œuvres ainsi que du contexte de visite.
Nous détaillons les calculs de similarité sémantique et
d'adéquation au contexte permettant de fournir au
visiteur des interactions adaptées à son contexte. Enfin,
nous présentons nos premiers résultats expérimentaux.
État de l'art
Le cadre de la visite de musée se prête particulièrement
bien à la mise en place de situations d'apprentissage en
mobilité. Deux types de travaux de recherche émergent
dans ce contexte, les travaux centrés sur l'apprentissage
scolaire et les travaux centrés sur la visite individuelle.
Les travaux scolaires s’intéressent à des classes d'élèves
visitant un musée avec un certain objectif
d'apprentissage, défini par l'enseignant (Sharples et al.
2007). Ces travaux sont centrés sur l'organisation par
l'enseignant des trois temps de la visite (avant, pendant,
après). Les dispositifs mobiles permettent la
capitalisation de l'expérience de visite par les
apprenants (prise de notes, de photos...) facilitant la
45
Pierre-Yves Gicquel
phase de retour d'expérience, qui se déroulera
typiquement en classe, en présence de l'enseignant.
Bien que le design des outils proposés aux
apprenants favorise la liberté et l'exploration, ces
travaux ne se situent clairement pas dans une
perspective d'apprentissage informel, les objectifs
d'apprentissage étant prédéfinis et les différentes phases
bien structurées.
La seconde catégorie de travaux se centre sur
l'apprentissage individuel en musée, et concernent la
situation la plus courante où un visiteur (ou
éventuellement un groupe réduit) explore le musée sans
objectif prédéfini. Les études comportementales en
musée montrent une variabilité importante tant des
modes de visite, (Véron et Levasseur 1983) que des
objectifs d'apprentissage des visiteurs. Ces objectifs
sont le plus souvent vagues pour le visiteur lui-même.
Le rôle du conservateur est alors de faire apparaître, à
travers l'organisation physique des objets, un "sens de
l'exposition", "pour permettre au visiteur de
comprendre, de donner du sens à ce qu'il voit, en
mobilisant sa culture, sa mémoire, son intelligence"
(Gob et Drouguet 2006).
Ce sens de l'exposition repose donc autant sur
l'interprétation des œuvres par le visiteur que sur
l'exposition elle-même. Les recherches sur les supports
numériques pour la visite individuelle de musée se sont
alors focalisées sur la personnalisation des
informations, dans une démarche visant à aider le
visiteur à construire son sens de l'exposition.
Plusieurs approches sémantiques ont émergé pour offrir
des contenus adaptés aux visiteurs en fonction d'une
description sémantique de leur profil et des œuvres.
Dans ces approches, l'utilisateur déclenche une requête
d’information en interagissant implicitement (en
changeant de position) ou explicitement (en
interagissant avec le dispositif). Des documents
pertinents sont alors proposés sur la base de calculs
sémantiques entre les œuvres annotées sémantiquement
et les documents.
HIPPIE (Oppermann et Specht 2000) a été une des
premières tentatives d'utilisation de raisonnement
automatique sur une ontologie couplée à un modèle du
contexte. Dans HIPPIE, les œuvres sont annotées
sémantiquement par des éléments de la taxonomie
ICONCLASS 1et le profil utilisateur est constitué d’un
ensemble de thèmes ICONCLASS qui correspondent à
ses intérêts. Lorsqu'un utilisateur est devant une œuvre,
le système peut lui présenter des documents
compatibles à la fois avec son profil et avec l'œuvre en
question. Le mécanisme d'adaptation est basé sur la
conjonction entre les concepts caractérisant l'utilisateur
et ceux caractérisant l'œuvre.
Le projet CHIP (Wang et al. 2009) a pour objectif de
permettre la recommandation d'œuvres. Les œuvres y
sont représentées comme des instances dotées de
propriétés (style, thème...). Les auteurs proposent une
méthode pour déterminer l'importance relative des
différentes propriétés, en se basant sur une étude des
habitudes de navigation des visiteurs de musées (ex.
lorsqu'un visiteur consulte la notice d'une œuvre, il
consultera tout d'abord la biographie de l'auteur, la
propriété auteur est alors la plus importante). Le
système permet alors de suggérer des œuvres en
fonction des liens directs existant dans l'ontologie.
Ainsi, La Joconde permettra de suggérer L'homme de
Vitruve car les deux œuvres partagent la propriété
artiste.
Notre proposition se situe dans la continuité de ces
approches de l'apprentissage en musée. Par la
description fine des caractéristiques sémantiques des
œuvres, et la construction du contexte du visiteur
(profil et historique de visite) au long de sa visite nous
visons à orienter les informations et interactions
proposées, de manière à aider le visiteur à faire
émerger le sens qu'a pour lui l'exposition.
Le Modèle Ontologique CALM
L'ontologie CALM possède trois racines principales
(figure 1), les entités physiques, les entités
contextuelles et les entités culturelles. Les œuvres et les
visiteurs sont représentés comme étant des entités
physiques dotés de propriétés culturelles et
contextuelles. L'intérêt principal de ce modèle est de
permettre une description unifiée des aspects culturels
des œuvres (ex. styles, personnes représentées,
évènements représentés...) ainsi que de leur contexte
physique.
Modèle sémantique des œuvres
Afin de représenter les aspects culturels des œuvres,
nous utilisons trois différentes sources de
connaissances : CIDOC-CRM2, ICONCLASS et
GETTY-AAT3. CIDOC-CRM est l'ontologie de
référence pour la description du patrimoine culturel,
elle définit, entre autre, les concepts d'œuvre, de
personne, d'évènement historique et de lieu.
Cependant, CIDOC-CRM, étant une ontologie
générique, ne contient pas les éléments permettant la
description fine des œuvres d'art, comme le style ou le
thème. Nous avons alors étendu cette ontologie à l’aide
de la taxonomie ICONCLASS et du thésaurus Getty
AAT. ICONCLASS est une classification hiérarchique
de l'ensemble des thèmes de l'art occidental. GettyAAT (Art and Architecture Thesaurus) est un thésaurus
des techniques, styles et matériaux utilisés en art. Afin
d'inclure ces vocabulaires dans l'ontologie CIDOCCRM, nous les avons exprimés sous forme de
vocabulaires SKOS4, en utilisant les relations
SKOS:Broader et SKOS:Narower pour l'expression des
relations de subsomption. Nous avons ensuite construit
2
www.cidoc-crm.org
www.getty.edu/research/tools/vocabularies
4
http://www.w3.org/2004/02/skos/
3
1
www.iconclass.nl
46
Amiens – 23 et 24 mai 2012
Similarités sémantiques pour l’apprentissage mobile
les relations permettant l'intégration de ces vocabulaires
SKOS dans CIDOC-CRM.
Cette représentation nous permet de décrire finement
les aspects culturels des œuvres. Nous décrivons une
œuvre comme possédant un style, une technique de
production et un ensemble de matériaux utilisés (grâce
à ICONCLASS et Getty AAT). Par ailleurs, nous
décrivons l'artiste ayant créé l'œuvre, ainsi que les
évènements ou personnages représentés (grâce à
CIDOC-CRM).
Figure 1 Fragment de l'ontologie CALM
Modèle sémantique du contexte
La modélisation sémantique du contexte est encore
aujourd'hui une question ouverte. La plupart des
modèles contextuels existants sont basés sur une
définition ad hoc des éléments contextuels pertinents
dans des situations spécifiques.
Notre modèle sémantique du contexte se base sur la
proposition de (Zimmerman et al. 2007) qui définit
cinq
catégories
contextuelles
fondamentales :
localisation, temporalité, identité, relations et activité.
Ces catégories permettent de représenter les relations
entre objets physiques (ex. proximité) ainsi que le
profil utilisateur et son contexte de visite. Dans la suite
de cette section, nous décrivons le contexte de
localisation et le contexte temporel, qui sont essentiels
dans la prise en compte du contexte de visite.
Contexte de localisation. Chaque entité physique
(visiteurs et œuvres) est associée à une localisation
spécifique. Cette localisation est exprimée en utilisant
l'ontologie spatiale développée par le laboratoire
DAIsy5. Cette ontologie décrit les relations entre des
entités de type localisation, une localisation
correspondant à un ensemble de coordonnées associées
à un objet. Les lieux et œuvres du musée sont alors
associés à des localisations et les relations entre ces
5
http://sourceforge.net/projects/spatialontology/
4ièmes Rencontres Jeunes Chercheurs en EIAH
localisations sont exprimées en utilisant l'ontologie (ex.
à proximité, en dessous, au-dessus...). Un visiteur de
musée est en permanence associé à une localisation
dans le musée. Lorsqu'il se déplace, un évènement
changement de localisation est déclenché, modifiant sa
propriété de localisation dans la base de connaissance.
Ainsi, le système peut en permanence attribuer à un
visiteur l'ensemble des œuvres présentes autour de lui.
Contexte temporel. Le contexte temporel permet la
représentation des intérêts de l'utilisateur et de son
historique de visite. Ce contexte temporel est décrit
comme un ensemble d'évènements exprimés via
l'ontologie SEM (Simple Event Model) (van Hage et al
2011). De nouveaux évènements peuvent être ajoutés à
la base de connaissances de deux façons : explicitement
et implicitement. Un événement implicite est
déclenché lorsqu'un visiteur s'arrête pour une certaine
durée devant une œuvre. Cet arrêt déclenche un
événement de consultation, associant l'œuvre en
question, ainsi que la date et l'heure, au visiteur. Un
événement explicite est déclenché lorsque l'utilisateur
interagit avec l'application pour demander des
renseignements supplémentaires sur une œuvre. Un
évènement d'intérêt est alors déclenché associant
l'œuvre en question, ainsi que la date et l'heure, au
profil du visiteur.
Notre approche du contexte se rapproche de celle
proposée par (Georges et al 2009) dans le projet
MeCoCo (Mediated Contextual Communication). Ces
derniers proposent un modèle du contexte permettant
d’opérer des rapprochements automatiques entre
différents messages postés en situation de mobilité.
L'originalité de notre approche réside dans
l'organisation de chacune des dimensions contextuelles.
En effet, chaque dimension est peuplée d'instances du
domaine des connaissances muséales (ex. artiste, style,
etc..), structurée par une ontologie propre à la
dimension considérée. Cette modélisation nous permet
de quantifier la présence, dans une dimension
contextuelle, de connaissances propres au domaine. Par
exemple, il est possible de calculer le degré de présence
de connaissances associées au style pointilliste dans le
contexte de localisation d'un visiteur.
Mesures de similarités sémantiques et
contextuelles pour la recommandation
Nous décrivons ici les différentes mesures de similarité
utilisées sur le modèle ontologique CALM. Afin
d'illustrer notre approche, nous décrivons ces
similarités dans le contexte du processus de
recommandation.
Vue d’ensemble du processus de
recommandation
L'objectif du système de recommandation est de
faciliter la navigation des visiteurs au sein des œuvres,
artistes, styles, thèmes... Ainsi, lorsqu'un visiteur
contemple La Joconde, le système peut lui
47
Pierre-Yves Gicquel
recommander de considérer d'autres œuvres de la même
période et justifier cette recommandation en informant
le visiteur du lien existant entre ces œuvres (même
période).
La
recommandation
d'œuvres
est
généralisable aux autres concepts définis dans
l'ontologie. Ainsi, si le visiteur consulte la biographie
de Leonard de Vinci, le système lui recommandera de
considérer des artistes ayant été maitres ou élèves de
Leonard.
Similarité sémantique entre instances
Le processus de recommandation est basé sur un calcul
de similarité sémantique entre les instances de la base
de connaissance. Ce calcul est basé sur l'approche de
similarité par propriétés (Pirro et Euzenat 2010), la
similarité entre deux objets étant basée sur la similarité
entre leurs caractéristiques. D'un point de vue
ontologique
les
caractéristiques
des
objets
correspondent aux propriétés des instances représentant
ces objets.
Afin de déterminer l'ensemble des propriétés
présentant un intérêt pour les visiteurs, nous définissons
alors un ensemble de concepts d'intérêts. Un concept
d'intérêt est un concept de l'ontologie que l'utilisateur
pourra directement utiliser lors de ses interactions avec
les œuvres. Nous avons sélectionné un ensemble de
sept concepts d'intérêts dans l'ontologie CIDOC-CRM :
personne, style, œuvre, évènement historique, lieu et
thème.
Le choix de ces concepts d'intérêt nous permet de
construire une matrice de propriétés d'intérêt (figure 2).
Il s'agit d'une matrice T[i,j], où T[0,k]=T[k,0] sont les
concepts d'intérêts et T[i,j] est l'ensemble des relations
permises dans l'ontologie, T[i,0] étant le codomaine et
T[0,j] le domaine. Ainsi, la ligne i de la matrice
contient l'ensemble des propriétés d'intérêt que possède
le concept T[i,0] et la colonne j de la matrice contient
l'ensemble des propriétés dans lesquelles le concept
T[0,j] est impliqué.
Cidoc:Person
hasParent
hasMaster
Cidoc:Style
hasPeriod
isPeriodOf
Cidoc:Style
hasPeriod
isPeriodOf
Cidoc:Artwork
depicts
broader
narrower
lin(Style,Style)
visualItem
hasStyle
Cidoc:Person
Cidoc:Artwork
participatesIn
creates
owns
ø
partOf
Figure 2 Matrice des propriétés d’intérêt
La ligne 2 de la table 1 nous permet ainsi de
déterminer les propriétés à prendre en compte pour
comparer deux instances de Person. Deux personnes
peuvent être comparées suivant leurs parents, maitres
ou élèves, style et œuvres qu'elles ont créées ou qu'elles
possèdent. Par commodité, numérotons les propriétés
d'un concept, par exemple la propriété 1 de personne
est hasParent et sa propriété 6 est own. Nous
construisons alors un vecteur de similarité S entre deux
instances a1 et a2 du même concept :
S(a1,a2)= [p1...pk], où pk correspond à la valeur de
48
similarité pour la propriété k des deux instances. Cette
valeur varie dans l'intervalle [0,1]. Deux cas doivent
être distingués : si les valeurs des propriétés sont des
instances ou des littéraux, (ex. une personne ou une
date) la similarité est de 0 quand les deux propriétés
sont différentes et de 1 quand elles sont égales. Le
deuxième cas concerne les instances des hiérarchies de
concepts intégrées à CIDOC-CRM (style et thème),
nous calculons alors la valeur de similarité entre les
deux instances par la similarité de Lin (Lin 1998). Celle
ci varie dans l'intervalle [0,1] et permet d'exprimer la
similarité entre deux éléments d'une taxonomie en se
basant sur le calcul du plus petit ancêtre commun entre
deux concepts ainsi que sur la profondeur de chacun
des concepts. Par exemple, la similarité de Lin permet
de déterminer que le style Pointillist est plus proche de
Impressionist que de Cubist.
Afin de classer les suggestions selon leur pertinence,
le vecteur de similarité doit être agrégé en une valeur
unique. Nous déterminons cette valeur en faisant
l'hypothèse simplificatrice que toutes les propriétés ont
le même poids et sont indépendantes. La valeur
d’agrégation est alors simplement la norme du vecteur
divisée par la norme du vecteur de similarité maximale,
la similarité maximale correspondant à une valeur
d’agrégation de 1 : Sim(a1,a2)=|[p1,…,pk]|/sqrt(k).
Calcul du taux d’adéquation au contexte
Le taux d'adéquation au contexte varie dans l'intervalle
[0,1] et exprime, pour une instance, le nombre de
propriétés de cette instance existant dans le contexte
utilisateur.
Dans une perspective d'apprentissage situé, il sera
alors intéressant de recommander des éléments
possédant un taux d'adéquation au contexte important.
Le visiteur sera en effet plus à même d'appréhender la
justification de la recommandation si l'élément
recommandé existe dans son contexte. Par exemple,
supposons que deux œuvres puissent être
recommandées à partir de celle que contemple le
visiteur. La première possède un style similaire et
représente le même personnage que l'œuvre considérée
par le visiteur et la deuxième possède un thème
similaire et une technique de peinture similaire. Afin de
choisir quelle œuvre recommander, il est alors
intéressant de considérer le taux d'adéquation au
contexte. Typiquement, si le style et le personnage de la
première œuvre existent dans le contexte utilisateur, il
sera intéressant de la recommander.
Nous calculons le taux d'adéquation au contexte
à l’aide de l'indice de Jaccard des propriétés d'une
instance et du contexte utilisateur. L'indice de Jaccard
est un outil permettant de comparer la similarité de
deux ensembles (l'indice étant égal à 1 si les ensembles
sont les mêmes). Si C est l'ensemble des instances
présentes dans le contexte de localisation ou temporel
de l'utilisateur et F(I) l'ensemble des propriétés de
l’instance I, le taux d'adéquation au contexte de I est
alors : | F(I) ∩ C | / | F(I) ∪ C |.
Amiens – 23 et 24 mai 2012
Similarités sémantiques pour l’apprentissage mobile
Application à l’apprentissage informel en
musée
Dans cette section, nous détaillons l'application des
similarités sémantiques et du taux d'adéquation au
contexte pour deux types d'interactions situées entre le
visiteur et les œuvres : l'aide à l'exploration et la
communication entre visiteurs.
Aide à l’exploration
L'aide à l'exploration est réalisée en recommandant au
visiteur des éléments susceptibles de l'intéresser dans le
musée. Ces éléments sont des instances des concepts
d'intérêt définis plus haut (ex. œuvre, artiste, style...).
Lorsqu'un utilisateur consulte une œuvre via le
dispositif, des informations directes, comme l'artiste, le
style, les personnages et évènements représentés, lui
sont fournis sur cette œuvre, ces informations
correspondant directement aux assertions de la base de
connaissance.
De plus, d'autres œuvres similaires lui sont
proposées. L'application suggère des œuvres en lien
avec celle qu'il contemple et justifie ces suggestions en
langage naturel. Ainsi, si l'utilisateur se trouve devant
une œuvre pointilliste, l'application pourra lui suggérer
une œuvre impressionniste à proximité, permettant à
l'utilisateur de comparer effectivement pointillisme et
impressionnisme.
Figure
3
Recommandations
contextualisées
d'œuvres
Ces suggestions contextualisées ont pour objectif
d'aider le visiteur à établir les liens mentaux entre les
différentes entités suivant leurs similarités, la même
entité, par exemple Leonard de Vinci, pouvant être
suggérée de différentes manières. De Vinci pourra ainsi
être suggéré successivement comme le maître de
l'auteur d’un tableau consulté par l'utilisateur puis
comme l'élève de l'auteur d’un autre tableau. Ces
suggestions offrent alors des possibilités d'exploration
et de navigation riches au sein des collections.
Communication entre visiteurs
La deuxième interaction située que nous nous
proposons d'instrumenter est la communication entre
4ièmes Rencontres Jeunes Chercheurs en EIAH
visiteurs. La communication entre apprenants est une
fonction essentielle du processus d'apprentissage.
Cependant, l'instrumentation des communications pose
différents problèmes dans le cadre d'une visite de
musée. Les communications directes (comme le
téléphone) ne sont pas toujours possibles et ne
permettent pas la capitalisation et la ré-exploitation des
échanges.
Par analogie avec l'annotation de documents
numériques, nous définissons alors des annotations sur
les objets physiques du musée. Dans ce contexte, une
annotation est un texte, une image ou une vidéo qui
sera associée avec un objet physique (œuvre, lieu), et
consultable sur le dispositif mobile. La nature
contextualisée de l'annotation réfère à l'intégration, à
l'intérieur de l'annotation, d'éléments du contexte du
visiteur qui a déposé l'annotation (ex. sa position, ses
préférences). De plus, les annotations sont indexées par
des instances de la base de connaissances, permettant
des recherches sémantiques dans l'ensemble des
annotations (Gicquel et Lenne 2011).
Expérimentation
Une première évaluation de l'utilisabilité du système
s'est déroulée au Palais impérial de Compiègne et a
porté sur 40 visiteurs « grand public ». Les visiteurs
étaient invités à utiliser le système CALM sur des
tablettes Archos 70, la localisation indoor étant assurée
à l’aide d’un système de triangulation WiFi.
L'utilisation de système à base de connaissance en
mobilité reste pour le moment marginale. Il n'y a donc
pas, à notre connaissance, de protocoles directement
applicables à notre situation. Nous avons donc choisi
une méthode classique d'évaluation inspirée de la
méthode System Usability Scale. Les visiteurs étaient
invités à réaliser quatre types de tâches : consulter la
notice d'une œuvre, consulter les informations annexes
associées à une œuvre (suggestions), lire et déposer une
annotation.
Figure 4 Utilité et utilisabilité des tâches
A l'issue de l'expérimentation, un questionnaire
permettait au visiteur d'indiquer sur une échelle de 1 à 4
(de absolument pas d'accord à tout à fait d'accord),
son accord avec différentes phrases permettant
d'évaluer l'utilisabilité et l'utilité des tâches proposées.
(ex. J'ai réussi facilement à afficher la notice de l'œuvre
que je souhaitais consulter). Pour obtenir des résultats
entre 0 et 100, nous avons associé un score de 100 aux
réponses de type tout à fait d'accord, 66 aux réponses
de type assez d'accord, etc. La figure 4 synthétise les
moyennes des scores d'utilisabilité et d'utilité des
différentes tâches.
Ce tableau amène plusieurs commentaires. Tout
d’abord, la perception de l’intérêt et de l’utilisabilité de
49
Pierre-Yves Gicquel
l’application est globalement bonne, les interactions
contextuelles (utilisation de la localisation) semblent
effectivement faciliter l’accès aux ressources
culturelles. Ce résultat encourageant doit cependant
être considéré avec prudence car la présence des
expérimentateurs peut causer un biais dans les réponses
données par les utilisateurs. L’utilisation d’annotations
sur les œuvres est l’activité perçue comme la moins
utile et la plus difficile. Ceci peut être dû en partie à
l’utilisation du clavier virtuel Android pour entrer le
texte des annotations, ce clavier étant en effet assez peu
utilisable. Les visiteurs étaient relativement homogènes
en terme de classe d’âge, ce n’était pas le cas du niveau
d’étude. Nous n’avons cependant pas constaté de
différence significative dans l’utilisabilité de
l’application en fonction du niveau d’étude. Ce fait peut
s’expliquer par la généralisation de l’utilisation d’outils
mobiles.
Conclusion
Nous avons présenté le modèle ontologique CALM
permettant la description des aspects culturels et
contextuels de la visite de musée. Nous avons détaillé
les mesures sémantiques utilisables sur ce modèle et les
interactions situées permises par ces mesures de
similarité dans un cadre d'apprentissage informel en
musée.
Une expérimentation a été réalisée pour valider
l'utilisabilité d’un premier prototype dans un cadre réel.
Une seconde expérimentation nous permettra
prochainement de considérer plus finement l'impact des
calculs sémantiques sur le processus d'apprentissage
informel. Nous nous intéresserons en particulier à
l'impact de la prise en compte du profil dans le
processus de suggestion. Cette prise en compte doit
aider le visiteur à se construire une représentation du
sens de l'exposition, mais impose une adaptation de
l'interface en fonction du profil qui pourra créer des
problèmes d'utilisabilité.
Références
Brown. J, S. Collins, A. and Duguid, P. 1998. Situated
cognition and the culture of learning. Educational
researcher, vol. 18, no. 1.
Gob, A. and Drouguet, N. 2005. La muséologie,
Histoire développements actuels, enjeux. ArmandColin édition.
George S., Lekira R. A., MeCoCo: A Context-Aware
System for Mediated Communications, International
50
Journal of Interactive Mobile Technologies (iJIM),
Vol. 3, n°3, 2009, p. 26-33
Gicquel, P.Y. and Lenne. D. 2011. A contextualized
annotation model for mobile learning. In proceedings
of 11th IEEE International Conference on Advanced
Learning Technologies (ICALT). IEEE, pp. 22–24.
Lin, D. 1998. An information-theoretic definition of
similarity. In Proceedings of the 15th international
conference on machine learning.
Malcolm, J. and Hodkinson, P. and Colley, H. 2003.
The interrelationships between informal and formal
learning. Journal of Workplace Learning vol 15.
Oppermann, R and Specht, M. 2000. A contextsensitive nomadic information system as an exhibition
guide. In proceedings of the handheld and ubiquitous
computing second international symposium.
Pirro, G. and Euzenat, J. 2010. A feature and
information theoretic framework for semantic similarity
and relatedness. In proceedings of the International
Semantic Web Conference (ISWC).
Sharples, M.; Meek, J.; Vavoula, G.; Lonsdale, P.; and
Rudman, P. 2007. An evaluation of MyArtSpace : a
mobile learning service for school museum trips. In
Proceedings of mLearn.
Levasseur, M. and Véron, E. 1983. Ethnographie de
l’exposition. Bibliothèque publique d’information du
centre George Pompidou.
van Hage, W.; Malais, V.; Segers, R.; Hollink, L.; and
Schreiber, G. 2011 Design and use of the simple event
model (SEM). In Proceedings of Web Semantics:
Science, Services and Agents on the World Wide Web.
Wang, Y.; Stash, N.; Aroyo, L.; Hollink, L.; and
Schreiber. 2009. Using semantic relations for contentbased recommender systems in cultural heritage. In
Proceedings of the Workshop on Ontology Patterns
(WOP) at ISWC.
Zimmermann, A.; Lorenz, A.; and Oppermann, R.
2007 An operational definition of context. In
proceedings
of
the
6th
international
and
interdisciplinary conference on Modeling and using
context.
Amiens – 23 et 24 mai 2012
Developing adaptive intelligent tutoring system
Mohamed Hafidi, Taher Bensbaa
Laboratoire LRI, Department of Computer Science, University of Annaba, Algeria
[email protected], [email protected]
Abstract
To design an adaptive intelligent tutoring system which
can manage both different disciplinary domains and a
guide for the learner is difficult. The specialization of
the analysis treatments is responsible for the loss of
reusability in other disciplinary domains. The analysis
is didactic and thus strongly connected to the domain
concerned. It results that an intelligent tutoring system
is consequently, specialized in a type of taught
knowledge and not easily transposable to other
domains. To propose a model transposable to different
domains of learning, the former has to take into account
this diversity and to situate the learning activity. In this
paper, we will show how to produce a guide model
parameterized by the learning domain. Our objective
was to develop an adaptive intelligent tutoring system
based on item response theory and metrics, adapted for
letting the learners work in several disciplinary fields in
the University of Annaba. In this context, our constraint
is threefold: to represent knowledge relative to several
disciplinary domains, to propose interactive activities
to the learners and finally, to be able to support student
guidance in her/his course by proposing her/him
relevant support activities when he meets difficulties.
Introduction
Nowadays, learning systems take various forms: microworlds, intelligent tutoring systems (ITS), adaptive
hypermedia (AH), learning games, etc. The conception of a
learning system is a multidisciplinary task based on
theoretical models inspired by pedagogy, by didactic and by
psychology. The direct application of such models is not
always easy, or even possible, and in general requires major
adaptations. Intelligent Tutoring Systems (ITS) are designed
to assist learners in the acquisition of skills rather than the
complete mastery of a domain. Intelligent tutoring systems
are primarily used as instruction during the tutorial section of
a lecture course, or in conjunction with an alternate
instruction method (Beaumont 1994), (Brusilovsky 1996),
(Nogry et al. 2008), (Suraweera et al. 2004}. Conversely,
Adaptive Hypermedias (AH) are primarily designed to impart
the concepts of a domain that a student must know in order to
utilize these skills (De La Passardiere et al. 1992), (Knutov et
al. 2009), (Hendrix et al. 2008). While some adaptive
hypermedia systems do provide instruction in skills, it is
generally less advanced than comparable ITS instruction. For
a system to provide a standalone solution comparable to a
lecture course it must provide instruction in both concepts
and skills. A general instruction system requires both of these
instruction methods to provide a full learning system
(Pipatsarun et al. 2010), (Klasnja-Milicevic et al. 2011),
(Chopra 2010), (Nicholas et al. 2008).
Theoretical basis
Item response theory (IRT)
Item response theory (IRT) was first introduced to provide a
formal approach to adaptive testing (Fernandez 2003). The
main purpose of IRT is to estimate an examinee’s ability (θ)
or proficiency (Wainer 1990) according to his/her
dichotomous responses (true/false) to test items. Based on the
IRT model, the relationship between examinee’s responses
and test items can be explained by so-called item
characteristic curve (ICC) (Wang 2006). In the case of a
typical test item, this curve is S-shaped; the horizontal axis is
ability scale (in a limited range) and the vertical axis is the
probability that an examinee with certain ability will give a
correct answer to the item (this probability will be smaller for
examinees of low ability and larger for examinees of high
ability). The item characteristic curve is the basic building
block of item response theory; all the other constructs of the
theory depend upon this curve (Baker 2001). Several nice
features of IRT include the examinee group invariance of
item parameters and item invariance of an examinee’s ability
estimate (Wang 2006). Under item response theory, the
standard mathematical model for the item characteristic curve
is the cumulative form of the logistic function. It was first
used as a model for the item characteristic curve in the late
1950s and, because of its simplicity, has become the
preferred model (Baker 2001).
Based on the number of parameters in logistic function there
are three common models for ICC; one parameter logistic
model (1PL) or Rasch model, two parameter logistic model
(2PL) and three parameter (3PL) (Baker 2001; Wang 2006).
In the 1PL model, each item i is characterized by only one
parameter, the item difficulty bi, in a logistic formation as
shown
(1)
Where D is a constant and equals to 1.7 and θ is ability scale.
In the 2PL model, another parameter, called discrimination
degree ai, is added into the item characteristic function, as
shown
(2)
4ièmes Rencontres Jeunes Chercheurs en EIAH
51
Mohamed Hafidi
The last 3PL model adds a guess degree ci to the 2PL model,
as shown in Eq. (3), modeling the potential guess behavior of
examinees (Wang 2006).
(6)
(3)
Several assumptions must be met before reasonable and
precise interpretations based on IRT can be made. The first is
the assumption of unidimensionality, which assumes there is
only one factor affecting the test performance. The second
assumption is the local independence of items, which
assumes test items are independent to each other. This
assumption enables an estimation method called maximum
likelihood estimator (MLE) to effectively estimate item
parameters and examinee’s abilities (Wang 2006).
(4)
where Qi(θ)=1-Pi(θ).Pi (θ) denotes the probability that
learner can answer the I th item correctly, Qi (θ) represents
the probability that learner cannot answer the I th item
correctly, and ui is 1 for correct answer to item i and 0 for
incorrect answer to item i (Wainer 1990 ).
Since Pi (θ) and Qi (θ) are functions of learner ability h and
item parameters, the likelihood function is also a function of
these parameters. Learner ability θ can be estimated by
computing the maximum value of likelihood function.
Restated, learner ability equals the θ value with maximum
value of likelihood function (Chen et al. 2005).
Item information function (IIF) in IRT plays an important
role in constructing tests for examinees and evaluation of
items in a test.
Where Ii (θ) is the amount of information for item i at ability
level θ and N is the number of items in the test. The general
level of the test information function will be much higher
than that for a single item information function. Thus, a test
measures ability more precisely than does a single item. An
important feature of the definition of test information given
in Eq. (6) is that the more items in the test, the greater the
amount of information. Thus, in general, longer tests will
measure an examinee’s ability with greater precision than
will shorter tests (Baker 2001).
Item response theory usually is applied in the computerized
adaptive test (CAT) domain to select the most appropriate
items for examinees based on individual ability. The CAT not
only can efficiently shorten the testing time and the number
of testing items but also can allow finer diagnosis at a higher
level of resolution.
Presently, the concept of CAT has been successfully applied
to replace traditional measurement instruments (which are
typically fixed-length, fixed-content and paper–pencil tests)
in several real-world applications, such as GMAT, GRE, and
TOEFL (Chen et al. 2006).
General architecture of a AITS
Figure 1 gives an overview of the system overall architecture.
It consists of tree main interfaces, which are associated with
each of the following human actors: learner, teacher and
administrator. In addition, it contains an adaptive intelligent
tutoring (hafidi et al. 2011) which is made up of two
components: adaptive hypermedia (domain model, learner
model and adaptation model) (Karampiperis et al. 2005),
(Carro 2008) and intelligent tutoring system (domain model,
learner model, Instructional Model) (Bourdeau et al. 2011),
(Simic 2004), (Alpert 1999), (Stankov et al. 2008).
(5)
Any item in a test provides some information about the
ability of the examinee, but the amount of this information
depends on how closely the difficulty of the item matches the
ability of the person. The amount of information, based upon
a single item, can be computed at any ability level and is
denoted by Ii (θ), where i is the number of the items. Because
only a single item is involved, the amount of information at
any point on the ability scale is going to be rather small
(Baker 2001). Item information function is defined:
Where P (θ) is the firt derivative of Pi(θ ) and Qi(θ)=1-Pi (θ).
A test is a set of items; therefore, the test information at a
given ability level is simply the sum of the item information
at that level. Consequently, the test information function
(TIF) is defined as:
52
Figure1: General architecture of a AITS
Amiens – 23 et 24 mai 2012
Developing adaptive intelligent tutoring system
We present in the following sections the available features in
AITS.
Domain model: The domain model is based on the concepts
notion that the learner can select and study. These concepts
are interconnected by relations: relations of sufficiency and
precedence relations.
- Relationship of precedence: A concept N1 is precedence
relation with a concept N2 if the control (or partial control)
of N2 is necessary for learning to N1. This relationship has
an attribute: S is the minimum threshold of N2 control to
allow the start of learning N1.
- Relationship of Sufficiency: A concept N1 is linked with a
concept of sufficiency N2 if the control of N2 (or partial
control) results control of N1. This relationship with two
attributes: S is the minimum threshold of N2 control to
activate the requisite relationship. A is the contribution (in
percentage) of control N2 to N1.
In addition, the teacher organizes the learning according to
pedagogical activities. Linked to our domain model, we have
defined a corpus of interactive activities. These activities
have to be organized in a progressive manner by possibly
using serious games, interactive exercises, simulation and
artefacts that support the construction of the knowledge.
Learner's Model: Learner modeling and adaptation
are strongly correlated, in the sense that the amount and
nature of information represented in the learner model
depend largely on the kind of adaptation effect that the
system has to deliver. The learner model in AITS was
defined as three sub-models: The profile, the
knowledge level and the trace. The learner profile was
implemented as a set of attributes which store learner’s
static personal characteristics, for example username,
password, unique ID, age, e-mail. The knowledge level
recorded by the system for learner's knowledge about
each domain knowledge concept; It is an overlay of the
domain model. It associated learner's knowledge level
with each concept of the domain model. We want to
continually assess the skill level of the learner to
develop a map of his state of knowledge. The learner
model is enriched at the end of each activity after
analysis of the traces produced.
Adaptation Model: The adaptation model in AITS
specified the way in which the learners' knowledge modifies
the content presentation. It was implemented as a set of the
classical structure: If condition, then action type rules. These
rules form the connection between the domain model and
learner model to update the learner model and provide
appropriate learning materials. The adaptation model consists
of abstract concept selection rules that determine which
concepts from the domain model to be covered, based on the
knowledge in the learner model.
To support adaptivity, AITS used a combination of adaptive
navigation support and adaptive presentation technique.
AITS implemented adaptive presentation by classifying
learners according to their current knowledge state. Learners
with different knowledge state view different presentations of
the same educational material. The system implemented
various adaptive navigation support technologies, which help
the user in navigating the domain model. It offered linear
4ièmes Rencontres Jeunes Chercheurs en EIAH
navigation (direct guidance, next and previous units)
hierarchical navigation (through the tree-like structure of
contents) and relational navigation (link insertion and link
disabling through prerequisite concepts relationship).
Instructional Model: Instructional model contains
knowledge for making decisions about instructional tactics. It
relies on the diagnostic processes of the learner model for
making decisions about what, when and how to present
activity to a learner. Following an activity, the model offers
guidance in learning other activities. For that purpose it takes
into account completions, context and proficiency levels, by
analyzing the rest of the activities already carried out. The
analysis is based on a set of metrics (Hafidi et al. 2011).
The Item Response Theory - IRT- is used to ensure a proper
balancing test and give their description in the form of a
characteristic curve (Hafidi et al. 2009). The theory assumes
that a learner's response to a test item can be approximated
using
a
probabilistic
function.
We propose this method to assess the probability for a
student to correctly answer an assessment activity. This
method is used as an additional discriminating criterion in
our guide. It would occur at the end of selection, to choose an
activity of several possible after the computation using the
metric.
For this study, Item difficulty can be determined by using
IRT approach with one parameter which uses the formula:
ID = MSCA/SCAE
(7)
Where, ID = item difficulty, MSCA = Minimum Sum of
Correct Answers, SCAE = Sum of Correct Answers of Each
Question.
Figure 2. An assessment activity based on IRT
Results and discussion
An experimental study was conducted within Annaba
University (Algeria) with 1st year license students where the
subject was "algorithmic". This subject is studied by several
students in the license degree. In fact, students from MI
(Mathematics and Informatics), ST (Science and
53
Mohamed Hafidi
Technology), Economics and Sciences of Nature must take a
subject termed "initiation into informatics and algorithmic".
Students can use the system from any computer connected to
the university intranet network. We took into account, in this
experiment, only students from the MI (Mathematics and
Informatics) specialty.
To extract problems encountered as well as the global
opinion of the teachers and the learners, we prepared one
questionnaire to teachers and another one to learners after
using the system. The questions of the questionnaire are
divided into three categories:
- General opinion about the interface of the system and the
main available features.
- The quality of the interface of the concerned actor (teacher
and learner) as well as its options.
- The quality of the content of courses.
The objective of all the questions is to show the attitude and
the opinion of each actor about the main interface of the
system and its utility, the special features provided to each
actor (teacher and learner), and finally to know the efficiency
of the pedagogical strategies, the quality of traces display and
the impact of merging adaptive hypermedia and intelligent
tutoring of the knowledge level of learners.
Views of learners:
To determine the views of learners who participated in this
experiment (n=20), we submitted to them a questionnaire.
These questions concern three pedagogical activities:
learning, assessment, and guidance.
Most learners appreciated the integration of the intelligent
tutoring system to adaptive hypermedia adopted in AITS and
the support offered by the system. All of them found that the
system is user-friendly. The participant’s opinion to use the
system in the future was very high. According to them, the
concepts were organized in a good manner. The content of
activity guide is clear for the majority of students.
Concerning the faced problems, the learners cited:
1. Lack of tools for the graphical representation of traces,
2. Knowledge assessment tool is less efficient,
3. Same activities without adaptation to learning style,
4. Lack of tools to communicate with teacher.
in the use of these concepts to solve problems. This paper
was dedicated to the combination of these systems. The aim
of adaptive intelligent tutoring system (AITS) has been to
propose a non domain-dependent model to represent teaching
activity. For each teaching domain, a domain model has been
used to organize the learning process.
Metrics and IRT have been elaborated to associate the
exercises of an activity corpus to the domain model
mentioned previously. As we have explained, it is thus
possible to elaborate and update dynamically a learner model
and even to propose remediation activities as a function of
context trace observation. Importance was also given to the
use of several types of activity and many types of resources.
With the spread of the LMD (Licence-Master-Doctorate)
educational system in Algeria, we took into account the
licence (bachelor) degree, making our system useful for the
university community. Teachers and learners of various
departments can use the system from any computer connected
to the intranet of the university. The first results of this
experiment were very encouraging. Most of the teachers and
the learners appreciated the use of the system. As a result, we
drew several conclusions and several research tracks were
opened. In the future we would like to include many more
teaching subjects (mathematics, languages, science, etc.).
References
Alpert, S. R. 1999. Deploying intelligent tutors on the web:
An architecture and an example, In International Journal of
Artificial Intelligence in Education 10:183–197.
Baker, F. 2001. The basics of item response theory, ERIC
clearing house on assessment and evaluation.
Beaumont, I. 1994. User modeling in the interactiveanatomy
tutoring system anatom- tutor. User Modeling and UserAdapted Interaction, 4(1):21–45.
Bourdeau, J. ; Grandbasten. M. 2011. La modélisation du
tutorat dans les systèmes tutoriels intelligents. Revue
STICEF.
Brusilovsky. P. 1996. Methods and techniques of adaptive
hypermedia. User Modeling and User Adapted Interaction,
6(2-3):87–129.
Views of teachers:
For knowing the appreciation of the teachers, we submitted
to them a questionnaire related to the functioning of AITS
and its features. Among our main contributions in this
research work is the using traces of the learner's activities.
We noticed that the teachers were very satisfied about the
quality of trace.
Chen, C. M., Lee, H. M.,& Chen, Y. H. 2005. Personalized
e-learning system using item response theory. Computers and
Education, 44 , 237–255.
Concerning the faced problems, the teachers cited:
- Lack of tools for the graphical representation of traces,
- Lack of possibilities to add teaching strategies,
- Lack of tools to enrich the activities.
Chen, C. M.; Liu, C. Y.; Chang, M. H. 2006, Personalized
curriculum sequencing utilizing modified item response
theory for web-based instruction. Expert Systems with
Applications, 30, 378–396.
Conclusion and future work
Chopra , A. Frame based intelligent tutoring system with
weighted attributes and adaptive hypermedia. International
Journal of Electronic Business, 8(4-5):342–359.
Adaptive Hypermedia and Intelligent Tutoring Systems are
both effective methods of computer-based learning. However,
adaptive hypermedia is better suited for the instruction of
concepts whereas intelligent tutoring system generally assists
54
Carro, R. 2008. 2010. Applications of adaptive hypermedia
in education. Computers and Education, pages 1– 12,
Amiens – 23 et 24 mai 2012
Developing adaptive intelligent tutoring system
Fernandez, G. 2003. Cognitive scaffolding for a web-based
adaptive learning environment, Lecture notes in Computer
Science, 12–20.
Hafidi, M. ; Bensebaa, T. 2009. Conception et
implémentation d’une plate forme d’aide à la navigation
basée sur la TRI. Hypermédias et pratiques numériques
H2PTM09, Paris8, France, 30/10, 2/11.
Hafidi, M. ; Bensebaa T ; Trigano, P. ; Benmimoun, A. ;
2011. Guidage des apprenants dans une activité pédagogique
basé sur les traces, Conférence Hypertextes et hypermédias.
Produits, Outils et Méthodes, 11ème édition, Hypermédias et
pratiques numériques H2PTM’11 Metz, France.
Journal of Artificial Intelligence in Education, 14(3-4):375–
417.
Wainer, H . 1990. Computerized adaptive testing: A primer.
Hillsdale, New Jersey: Lawrence Erlbaum.
Wang, F. H. 2006. Application of componential IRT model
for diagnostic test in a standard conformant elearning system,
In Sixth international conference on advanced learning
technologies (ICALT’06).
Hafidi, M. ; Bensebaa T ; Trigano, P.; 2011. A generic model
for guiding learners in adaptive hypermedia, Journal of
Computer Science (INFOCOMP), 10(4): 15-28.
Hendrix , M.; Cristea, A. I. 2008. A spiral model for adding
automatic adaptive authoring to adaptive hypermedia.
Journal of Universal Computer Science (JUCS), Special
Issue on Authoring of Adaptive and Adaptable Hypermedia,
14(17):2799–2818.
Karampiperis, P. Sampson, D. 2005, Adaptive learning
resources sequencing in educational hypermedia systems.
Educational Technology and Society, 8(4):128–147.
Klasnja-Milicevic, A.; Vesin, B.; Ivanovic, M.; Budimac,
Z.2011, Integration of recommendations and adaptive
hypermedia into java tutoring system. ComSIS, 8(1).
Knutov, E.; Bra, P. D.; Pechenizkiy, M. 2009. Ah 12 years
later: a comprehensive survey of adaptive hypermedia
methods and techniques. New Review of Hypermedia and
Multimedia, 15(1):5–38.
Nicholas, A.; Martin , B. 2008. Merging adaptive hypermedia
and intelligent tutoring systems using knowledge spaces.
Adaptive Hypermedia, pages 426–430.
Nogry, S.; Guin , N.; Jean-Daubias. S. 2008. Ambre-add: An
its to teach solving arithmetic word problems. Technology,
Instruction, Cognition and Learning, 6(1):53–61.
Passardiere, B. D. L.; Dufresne, 1992. A. Adaptive
navigational tools for educational hypermedia. Computer
Assisted Learning, pages 555– 567.
Pipatsarun, P.; Vicheanpanya, J. 2010. Adaptive intelligent
tutoring systems for elearning systems. Computer and
Information Science, 2(2):4064–4069.
Simic, G.2004. The multi-courses tutoring system design.
ComSIS, 1(1):141–155, 2004.
Stankov, S.; Rosic, M.; Zitko , B.; Grubisic, A. 2008, Tex-sys
model for building intelligent tutoring sytems, Computers
and Education, 51:545–561.
Suraweera, P.; Mitrovic , A.2004. An intelligent tutoring
system for entity relationship modelling, International
4ièmes Rencontres Jeunes Chercheurs en EIAH
55
Mohamed Hafidi
56
Amiens – 23 et 24 mai 2012
Ergonomic Study of Existing Project-Based Learning
Management System
Min Ji
Université de Lyon, CNRS
INSA-Lyon, LIRIS, UMR5205, F-69621, France
[email protected]
Abstract
We are interested in designing a Project-Based
Learning Management System (PBLMS) for high
school students. In this paper, we focus on the study of
ergonomics of existing PBLMSs. We first analyze four
different PBLMSs regarding three points: aims,
functionalities and indicators. We particularly focus on
the indicators and analyze their attributes: purpose(s),
concept(s), data construction and visualization. Based
on this analysis we discuss the utility, the usability and
the acceptability of the studied systems according to
their functionalities, the types of visualization and the
users. We finally conclude with some directions of our
future research work.
Introduction
We are interested in designing a Project-Based
Learning Management System (PBLMS) for high
school students, which support learners and teachers
respectively in the learning and teaching process.
Project-based learning is carried out under complex
situations and PBLMS can help learners to build new
knowledge and acquire new skills (e.g. management,
communication and collaboration). More precisely, the
indicators used in PBLMS aim to monitor the way of
individual knowledge building. In fact, it can help
participants involved in learning activities to reflect on
their own behaviors, to self-regulate their activities and
to improve their ability of collaboration.
The objective of our research is to design a PBLMS.
We define PBLMS as a computer system that provides
participants with some management tools to support
and monitor the learning activities in order to solve a
complex issue, problem or challenge. PBLMS is
characterized by supervision functions. Examples of
learning activities are collaboration, coordination and
production (George et Leroux 2001). Here we should
specify that PBLMS could manage various aspects of
the learning processes (e.g. the way the activities are
carried out, the visualization mode chosen for learners,
the configuration and resources of the activity) and the
project outcomes (e.g. the documents produced
during/after the project and the products). Obviously,
PBLMS can facilitate carrying out the project activity
and enhancing the learning.
This study is based on previous works dedicated to
the design of a paper prototype of PBLMS, named
4ièmes Rencontres Jeunes Chercheurs en EIAH
MESHaT (Michel et Lavoué 2011). This prototype is
composed of monitoring and expertise transfer tools for
tutors and learners. They could give information to
monitor individual or group learning activities as well
as to support the acquisition and transfer of expertise.
More particularly, MESHaT provides learners and
teachers with dashboards, since we think that the use of
a dashboard is a key-learning objective in the context
of PBL. The dashboard is a good way to strengthen
learners’ metacognitive skills and to facilitate the group
works, the group cohesion and the professionalism of
learners by showing explicitly the consequences of
their acts (Michel et Lavoué 2011).
The aim of this study is to analyze the ergonomics in
PBLMS context. More precisely, we have analyzed
four existing PBLMSs and proposed indicators’
features (utility, usability and acceptability). According
to this analysis, we have drawn upon the strengths and
weak points of the other systems. Based on these
results, we propose the main lines of our future
PBLMS. It should not only satisfy users’ needs as far
as possible but also have suitable ergonomic user
interfaces (UI) to improve learners’ collaboration.
This article proceeds in three main parts. First, the
paper provides an overview of project-based learning,
dashboard and indicators used in PBLMS to improve
the quality of learning. In the second part, we analyze
and summarize the features and indicators offered in
PBLMS. In the third part, through discussion, we
analyze the weaknesses of PBLMS and indicators
which should be avoided in our context of work and
propose the direction of our future research work.
Overview of PBLMSs Using Dashboard
and Indicators
Project-Based Learning
There are many definitions of project-based learning.
Harris and Katz (2000) defines it as “an instructional
method that allows in-depth investigation of a topic
instead of using a rigid lesson plan that directs a
student down a specific path of learning outcomes or
objectives”. According to Jeremic, Jovanovic and
Gasevic (2009), “PBL is a teaching and learning model
that organizes learning around projects. Projects
comprise complex tasks and activities that involve
students in a constructive investigation that results in
57
Ergonomics of PBLMS
knowledge building.” Moursund (2007) defines
project-based learning as “an individual or group
activity that lasts for a defined period of time, which
results in a product, a presentation or a performance”.
Through these definitions, we can establish that:
• Project-based learning is learner-centered.
• Project-based learning isn’t “teacher telling”,
but “learning by doing”. It is an investigation
and an inquiry process.
• The project results are not known in advance,
each project being unique, which is different
from problem-based learning for instance.
• Project-based
learning
ends
with
a
presentation or product that demonstrates
learning and is assessed.
Learners can generate new knowledge and get new
skills based on their previous knowledge and
experiences when they carry out a project. This kind of
activity can lead students to obtain and to apply skills
in
collaboration,
communication,
and
selfmanagement. Briefly, it is a good way for learners to
solve practical problems in an open environment with
an interdisciplinary approach.
Dashboards and Indicators Used in PBLMS
Generally speaking, a dashboard is expected to collect,
summarize, and present information from multiple
sources so that the user can see at once how various
indicators are performing (Yigitbasioglu et Velcu
2011). Dashboard could be considered as a container of
indicators. The indicators used in PBLMSs can give
information to participants involved in the learning
activities. Information could concern their activity or
their group activity, and could be seen during or after
the learning process. Dashboard could favor cognitive
or metacognitive reflection. Based on this reflection,
participant can build new knowledge and skills (soft
and hard) as well as they improve their learning ability.
During interactions, indicators mainly reflect three
types of data: (1) the Logfiles recording learners’
actions occurring in the learning environment, (2) the
products of the interactions (communication messages
or documents produced during the project) (3) the data
recorded by the learners themselves to describe how
the activity is carry out and what they think. Compared
to the first type of data, the second and third types of
data are much more difficult to analyze automatically.
It is also a challenge in this research domain.
We can distinguish four main users of indicators: (1)
learners, (2) teachers (3) observers and, (4) the learning
environment (Dimitrakopoulou 2006). The learners
mean the people who participate in the learning
activities. The information supplied by the indicators
help them to carry out the metacognitive process. The
teachers are the persons who define a PBL activity and
monitor the activity in order to uncover the features or
the quality of the interactions. The observers, including
the researchers and the administrators, are interesting in
exploring the mode, the process or the quality of the
collaboration. Finally, the learning environment can
transform the information given by the indicators into a
guiding message and send it to learners and teachers.
58
According to Dimitrakopoulou (2006), indicators
have several important attributes: (1) the purpose of the
indicator, (2) the output of the calculated indicator, (3)
the concept of the indicator. Additionally, the data
construction, which is the core of an indicator, and the
visualization of the indicator, which decides the
presentation style and mode, are also critical aspects.
Ergonomics Analysis of Existing PBLMS
Using Indicators
In this part, we analyze four different PBLMSs. These
systems seem the more relevant to our context because
they not only help learners to achieve projects
collaboratively, but also aim to improve the learning by
displaying some indicators. Furthermore, the indicators
of these systems refer to different targets (e.g. learners,
teachers, observers and the learning environment), and
these indicators also monitor different aspects of
learning (activity process, communication, features and
profiles of learners’ behaviors). We discuss the systems
from three points: aims, functionalities and indicators.
And for the indicators, we choose four attributes from
those previously mentioned: purposes, concepts, data
construction and visualization.
System Introduction
Figure 1 gives the workspace interfaces of the
PBLMSs described after.
The system SYNERGO (Avouris et al. 2004)
supports synchronous collaboration modeling and
collaboration analysis. The main goal is to facilitate the
understanding of the mechanics of collaboration. It
supplies learners with a chat tool and supports them to
model flow charts, concept maps, entity-relation
diagrams and other semantic modeling.
The system DEGREE (Barros et Verdejo 2000) is
conversation-based. The teachers can deploy projects,
contribution type and conversational structure at the
beginning. Then a group of learners can carry out
collaborative activities which are based on
conversation by proposing or replying to a proposal.
The system and the indicators can improve learners’
metacognitive awareness and give them assistance.
The learning environment proposed by (Fesakis et al.
2004)
is
based
on
the
ModellingSpace
(ModellingSpace 2004), which has many different
channels to support learners to communicate during
activities. It is synchronous conversation based and the
availability of all the participants is required. In
collaboration, learners and teachers can exchange chat
messages through a set of logical broadcast channels.
The SPLACH system (George et Leroux 2002) aims
to help young learners to design and build micro-robots
modeling. It incorporates asynchronous communication
tools (E-mail and discussion forum), a synchronous
meeting tool, and a scheduling tool in the form of a
calendar for the team, which provides learners with
coordination on the project, a tool to write reports
during the project and, finally, specific educational
robotics tools.
Amiens – 23 et 24 mai 2012
Ergonomics of PBLMS
Figure 1: workspace interfaces of PBLMSs: (a) SYNERGO; (b) DEGREE; (c) ModellingSpace; (d) SPLACH
Synthesis and Analysis
To help learners
model semantically.
to
To facilitate proposing or
replying to a proposal.
To support synchronous
collaborative modeling,
monitoring
and
analyzing
activities,
communicating.
To configure an activity,
collaborating based on
conversation,
analyzing
learners behavior, offering
guiding.
To support synchronous
communication through
a
set
of
logical
broadcast channels.
To monitor the learning
process, to facilitate
teachers and researchers
to understand mechanics
of collaboration.
To help learners to have
metacognitive activities; to
support teachers to monitor
learners’ performance and
changes.
To
help
estimating
style
to
intervention
needed.
To supply search results by
combining a variety of
parameters, assessing the
collaboration level based on
several attributes (creativity,
attitude, elaboration etc),
sending messages to alert
potential problems and
giving
suggestions,
representing evolution of
attributes of the individual.
Based on Logfiles, some
attributes are calculated
directly,
others
are
generated by combining
these attributes based on
Fuzzy Logic techniques.
To present amounts of
Interactions, the number
of
Agents,
Collaboration Activity
Function
of
chat
channel and certain
agent’s Collaboration
Activity Function in a
line chart, determining
agents
or
groups’
collaboration quantity.
Based on Logfiles,
collaborative action is
proportional to the
number of agents that
were interacting and the
quantity of interactions.
Mainly line chart which
the horizontal axis
represents time, the
vertical scale records
the amount of various
variables; information is
summarized
by
analyzing
and
comparing the curves.
Data
construction
To measure the density
of occurrence of a type
of event per time
interval and the degree
of relative contribution
in the group members,
presenting evolution of
actors’ activities.
Based
on
Logfiles
storing in XML, formula
is given.
Visualization
I ndicator
Concept
Purpose
Aim
ModellingSpace
To support learners to
express their ideas
during projects.
Functionality
The aforementioned approaches constitute a
representative specimen of PBLMSs. All of them
provide tools and functionalities for supporting and
SYNERGO
DEGREE
facilitating users’(learners’ and teachers’) activities
in various levels. Table 1 summarizes the main points
of these PBLMSs.
Line charts showing
number of every kind of
action done by every
learner, and evolution
activity map interpreting
evolution of actors’
activities, degree of
collaboration
in
numeral.
Table
form
listing
attributes’
names
and
values;
textual
aiding
messages; line chart giving
the evolution of individual’s
attributes’
values
and
interpretation.
teachers
learners’
offer
when
SPLACH
To help to design
and build microrobots modeling.
To support
asynchronous
communication,
synchronous
meeting, specific
robotics tool, writing
reports, scheduling.
To help understand
social relationships;
to provide learners
insight into their
own
and
their
colleagues’
behavior.
To present the values
of every behavioral
profile of every
learner,
analyzing
and comparing the
values of every
learner
and
determining
their
corresponding
behavioral profile.
Based on Logfiles
and semi-structured
communicative acts
(sentence openers);
detailed formulas are
given.
Line chart showing
how the profiles of
the users evolve in
time.
Table 1: Main point of analyzed PBLMSs
4ièmes Rencontres Jeunes Chercheurs en EIAH
59
Ji Min
Discussion
In this part, we highlight the lacks of the analyzed
systems according to utility, usability and acceptability
criteria. Based on these analyses, we propose some
directions of our future work.
Utility, Usability and Acceptability Analysis
Utility Analysis of Functionality
When we read the literatures on PBLMSs, we find that
most systems support collaboration only by offering
communication tools (e.g. communication system based
on ModellingSpace and DEGREE), for example, chat
tools, discussion forums etc. Communication is one of
the most important aspects during the collaboration but it
is just one aspect in project-based learning. We assume
that PBLMs should always offer other functionalities to
teachers and learners. For example, it should supply
learners with:
• Metacognitive
tools
to
support
the
metacognitive learning process and to facilitate
their ability of “learn how to learn”.
• Flexible configuration tools to deploy a learning
activity according to different learning contexts.
• Tools for documents sharing and co-writing to
help learners to co-build knowledge network.
• A scheduling tool.
• Some special and professional tools offering to
learners based on the context of learning
activities. For example, SPLACH provides
learners specific robotics tools to support microrobots modeling projects.
Concerning the functionalities of the indicators, most of
them just provide some simple reporting analyzes of the
learning process (e.g. how many learners are on line,
how many messages have been sent, how many times a
document has been read) and some monitoring
information about the learning environment (e.g. which
tasks have been done and which haven’t, whether the
learning process is delay according to the project
schedule). We don’t criticize that simple indicators and
monitoring indicators aren’t important. The importance
of these indicators cannot be estimated a priori
(Dimitrakopoulou 2006). But supplying the learners and
teachers only with these two types of indicators is not
enough because the assistance levels of these two types
are lower than guiding indicators and supervision
indicators. The guiding indicators can generate some
information to learners to make some reflection and
changes according to the context and the practical
situation of learning activity. The supervision indicators
can identify whether the action that learners are doing is
good or bad and give alerts to learners to draw their
attentions. For example, if a learner is watching a film or
talking little when he joins in a synchronous discussion,
the indicators can give alert. Another lack of the
indicators’ functionalities is that most of them are about
the activities process; while they cannot supply the
information about the content of the products of the
activities (e.g. the content of a proposal, the content of
communication) or the hidden thoughts (ideas or moods)
recorded by learners during activities. These two types of
60
information are very difficult to catch because it needs to
recognize and analyze the textual content automatically.
We think that this kind of information is as important as
the analysis of the actions.
Usability Analysis of Visualization
SPLACH is considered very well because it could create
a comfortable learning environment to increase the
colleague mutual-understand awareness and the
workspace awareness. It gives a photo of every member
in the group and a “smiley” button to represent
everyone’s mood, which can encourage the feelings of
awareness between learners and indicate their feelings
without typing any text when they participate in a
synchronous meeting (George et Leroux 2001). It is
important to create an environment, in which learners
can be aware of the others, because it will enhance the
relations between learners and shorten the distance
between them. It is a good way to improve the quality of
collaboration.
Many classical graphical modes are used to present the
results of indicators, e.g. line chart, bar chart, table form.
But most of learning environments have no textual
interpretation of these indicators. So the users, especially
young learners, should have a high ability to understand
the content of indicators and to discover some important
information. We think that the learning environments
should be able to interpret the contents of graphical
indicators into text form, so as to be used more widely
and to give much better support to the learners. The use
of metaphors could also be a good way to solve this
problem perfectly (e.g. i-bee, i-tree). They could present
the results of a number of indicators synchronously in a
nice visual frame in an indirect mode (e.g. animation),
which can have a strong effect at young learners and help
them have a strong awareness of their behaviors
(Dimitrakopoulou 2006).
Most indicators interfaces are designed previously and
little customizable. The customizable feature has been
considered in some UI design of PBLMSs (e.g.
DEGREE,
communication
system
based
on
ModellingSpace), but it hasn’t been considered in most
of PBLMSs. Learners and teachers can’t choose the form
of visualization they prefer. Moreover, customization is
really an important aspect that could help (1) learners to
visualize indicators in the way they like and to choose
the kinds of information they really want to monitor, as
well as (2) teachers to adjust the definitions and choices
of parameters according to the different contexts of the
learning activities. The visualization customization
includes for example selecting monitoring variables,
selecting the form of presentation, changing the
configuration of the learning activity, selecting the time
interval of information updating.
Acceptability Analysis of indicators’ User
The indicators introduced in this paper have been meant
for different users: SYNERGO is used by teachers and
researchers, DEGREE is used by learners, teachers and
learning environment, the communication system based
on ModellingSpace is used by teachers, and SPLACH is
used by learners and teachers. We think that there are
many indicators offered to teachers while a few are
supplied to learners and learning environment. From this
Amiens – 23 et 24 mai 2012
Ji Min
point of view, we think that an appropriate PBLMS
should manage user profiles and supply suitable
information according to their profile. It can’t be ignored
that the learning environment is a kind of indicators’ user
to some extent because the information produced by
some indicators can be processed deeply by learning
environment and give useful information (e.g.
DEGREE).
We think that the systems analyzed in our paper design
the indicators offered to the learning groups well. Most
of them give the evaluation about the whole group but
not about each member into the group. For example,
DEGREE measures the level of creativity, attitude and
other attributes of the whole group, SYNERGO gives the
degree of relative contribution of group, and the
communication system based on ModellingSpace
computes collaborative action of the group. Through
close analysis, we also can discover that these indicators
could present the collaboration quality of the whole
group instead of only centralize all information from
individuals indicators, which just show everyone’s value
in one indicator.
Future Work
These systems offer us good references to construct a
PBLMS which not only can satisfy users’ needs as far as
possible but also has suitable ergonomic user interfaces
to improve learners’ collaboration. Michel and Lavoué
(2011) have described a main framework of the platform,
named MESHaT. It includes different interfaces
according to the learning actor: a project group, a learner
or a tutor. Each interface is composed of a monitoring
tool (on the form of a dashboard) in order to help the
actors to have a global view of their activity and a
publication tool that allow them to share their
experience. Based on our analysis of the four systems,
we suggest some directions for our future PBLMS.
The learning environment will supply many
management tools to lead learners to use this space to
achieve their project. This platform will be dedicated to
project management education, but also could be used to
support different types of PBL activities. We will
analyze the utility of various tools, for example:
• Blogs (individual and group) can supply spaces
for learners to describe the process of their
actions and their states of mind. It can help the
learners to well understand the project context,
to explain the reasons of some indicators’ value
(as delays or the group’s state of mind). This
information will be useful for teachers to be
able to intervene at the right time. Two
discussion tools will be offered to learners and
teachers, which can help learners to
communicate about the projects in the group
and help teachers to share their expertise (e.g.
process of every group, learning projects
designing).
• A scheduling tool can helps learners and
teachers to plan and coordinate their activities.
• A learning contract with simple questions that
learners answer at the beginning of the activity
can regulate their behavior during the learning
and help them to acquire metacognitive skills.
4ièmes Rencontres Jeunes Chercheurs en EIAH
•
A documents sharing tool can help to share
knowledge and to centralize the documents
needed for the projects
The system will include four types of indicators,
(reporting, monitoring, guiding, and supervision) from
two dimensions (individual and group). Grouped into a
dashboard, theses indicators will display comprehensive
information about the collaboration. Based on the
content expressed in the groups’ vs. individuals’ blogs or
in the documents produced during the activity, we can
analyze what the learners are thinking and the quality of
the learning. We have to analyze the possibility and limit
of the different method of text analysis in order to choose
the right approach. For example, text mining provides
thin analyzes but requires complex natural language
treatments, whereas semi-structured method should be
sufficient in our case.
We want to create an appropriate learning environment
for learners in which they can feel like in face-to-face
with the others. It will enhance their motivations and
their participations. The customized interface will be
used to refine the quality of human-computer interaction
and to improve the participants’ satisfactions. Because of
the different abilities of learners and teachers to interpret
indicators, it is necessary to used different visualization
mode (even for the same information). Maybe the use of
textual interpretations and metaphors will help learners
to well understand the information displayed by the
indicators.
But the use of dashboards and indicators is not easy.
That’s why we choose to work, in the context of our
PhD, on a participatory design approach. The prototype
will be used in a real learning process in the future in
order to understand its utility, usability and acceptability.
Conclusion
This paper presents an ergonomic study in PBL context
by analyzing the utility, usability and acceptability of
existing PBLMSs’ features, as well as the indicators
used. To better understand the situation of PBLMSs, we
have analyzed four different PBLMSs from three points:
aim, functionalities and indicators. For the indicators, we
have analyzed four attributes: purpose of indicator,
concept of indicator, data construction and visualization.
Through this analysis, we have discussed the advantages
and disadvantages of the PBLMSs and their indicators in
three dimensions (functionality, visualization and object
users) that we can sum up as follows:
• Most systems support collaboration only by
offering communication tools.
• Most indicators just supply some simple
reporting analyzes of the learning process and
some monitoring information about the learning
environment, while guiding indicators and
supervision indicators are not paid much
attention.
• Most of indicators are about the activities
process, while only few indicators supply
information about the content of the products of
the activities or about the thoughts recorded by
learners during activities.
• Most of these indicators have no textual
61
Ergonomics of PBLMS
interpretation or metaphors associated.
The feature of customization hasn’t been
considered in some UI design of PBLMSs.
• PBLMSs should recognize object user profiles
and supply them with suitable information
according to their profile.
• It is good to give the evaluation about the group
as a whole instead of only centralize all
information from individuals’ indicators.
Our aim is to design a PBLMS with metacognitive and
monitoring tools, which can help the actors to have a
global view of their activity. Information sharing tools
can also help them to share their experience. We suggest
other directions for our future work:
• We will offer several management tools for
collaboration.
• The system will include four types of indicators:
reporting, monitoring, guiding, and supervision,
from two dimensions (individual and group).
• We will create an appropriate learning
environment for learners in which they can get
high satisfaction.
This study can lay the foundation for our future works. In
our future research, we will model the process of PBL
and define the activities carried out in our system. At the
same time, we will study further the research areas of
data mining, data structure, model structuring of
indicators and other important fields of PBLMS.
•
Acknowledgment
This work is under the instruction of Christine Michel,
Elise Lavoué and Sébastien George. I would like to
thank them for their guidance.
Conference on Computer-Supported Collaborative
Learning (Euro-CSCL 2001), 269-276.
George, S.; Leroux, P. 2002. An approach to automatic
analysis of learners’ social behavior during computermediated synchronous conversations. In: proceedings of
Intelligent Tutoring Systems'2002, 630~640.
Helm, J.; Katz, L. 2000. Young investigators: The project
approach in the early years. New York: Teachers Collage
Press.
Jeremic, Z.; Jovanovic, J.; Gasevic, D. 2009.
Semantically-Enabled
Project-Based
Collaborative
Learning of Software Patterns. in: proceedings of
Advanced Learning Technologies, IEEE International
Conference on. Los Alamitos, CA, USA: IEEE
Computer Society, 569-571.
Michel, C.; Lavoué, E. 2011. KM and Web 2.0 Methods
for Project-Based Learning. MEShaT: a Monitoring and
Experience Sharing Tool. Multiple Perspectives on
Problem Solving and Learning in the Digital Age.
Ifenthaler D., Isaias P., Spector J.M., Kinshuk, Sampson
D. (Eds.), Springer, Heidelberg, 49-66.
Moursund D. 2011. What is ICT-Assisted PBL?
http://pages.uoregon.edu/moursund/PBL/part_3.htm.
The ModellingSpace project, University of Aegean
(Greece) et al, 2006. Access to: http:// modellingspace.
atosorigin.es/about.htm
Yigitbasioglu, O.; Velcu, O. 2011. A review of
dashboards in performance management: Implications
for design and research. Accounting Information Systems,
doi: 10.1016/j.accinf.2011.08.002.
References
Avouris, N.; Margaritis, M.; Komis, V. 2004. Modeling
interaction during small-group synchronous problemsolving activities: The Synergo approach. In:
proceedings of ITS 2004 Workshop on Designing
Computational Models of Collaborative Learning
Interaction, Citeseer, 13-18.
Barros, B.; Verdejo, M.F. 2000. Analysing student
interaction processes in order to improve collaboration.
The DEGREE approach, Articial Intelligence in
Education 11 (3): 221-241.
Dimitrakopoulou A.; et al 2006. State of the art of
interaction analysis for metacognitive Support &
Diagnosis. In: Kaleidoscope Network of Excellence.
Interaction Analysis: Supporting Participants in
Technology-based Learning Activities. Jointly Executed
Integrated Research Project, Deliverable D.31.1.
Fesakis, G.; Petrou, A. ; Dimitracopoulou, A. 2004.
Collaboration Activity Function: An interaction analysis
tool for Computer Supported Collaborative Learning
activities. In: proceedings of 4th IEEE International
Conference on Advanced Learning Technologies, 196201. Joensuu, Finland, IEEE Computer Society Editions.
George, S.; Leroux, P. 2001. Project-based learning as a
basis for a CSCL environment: An example in
educational robotics, in: proceedings of First European
62
Amiens – 23 et 24 mai 2012
Une approche orientée indicateurs pour supporter les activités du tuteur
Aina Lekira
Laboratoire LIUM, avenue Laënnec, 72085 Le Mans Cedex 9, France
[email protected]
Résumé
Dans cet article, nous proposons une approche orientée
indicateurs qui vise à apporter une aide au tuteur
lorsqu’il gère ses activités (réguler l’activité de
l’apprenant et réguler sa propre activité de tutorat) et ce,
plus particulièrement, afin de lui rendre compte des
effets de ses interventions. Les résultats des
expérimentations menées ont montré que fournir au
tuteur des informations sur les effets de ses interventions
augmente
quantitativement
et
qualitativement
l’efficacité de ses interventions ; cela a aussi par ailleurs
un impact positif sur la capacité des apprenants à
résoudre leurs problèmes.
Introduction
Les travaux de recherche en EIAH, dans le cadre de
tutorat médiatisé, s‘intéressent le plus souvent au
problème de la perception de l’activité de l’apprenant.
Ils ont abouti à la réalisation d’outils permettant de
suivre l’activité de l’apprenant et de visualiser un
certain nombre de témoins de cette activité (ICALTS
2004) (Martin et al. 2009) (Martinez et al. 2003)
(Guéraud et al. 2009) (Mazza et Dimitrova 2003). Dans
ces travaux, le tuteur perçoit l’activité de l’apprenant
grâce à des indicateurs calculés par l’environnement. Un
indicateur est « une variable signifiante sur le plan
pédagogique, calculée ou établie à l'aide de données
observées, et témoignant de la qualité de l'interaction, de
l'activité et de l'apprentissage dans un EIAH » d’après
(Choquet et Iksal 2007).
Ces indicateurs calculés en cours de session,
permettent de révéler des situations critiques à partir
desquelles le tuteur peut décider d’intervenir. Hormis
ces indicateurs, d’autres éléments du contexte tels que le
profil de l’apprenant (Lefèvre et al. 09), son parcours,
sa progression (Guéraud et al. 2009), son style
d’apprentissage (Bousbia et al. 2010), influent sur la
décision d’intervention du tuteur. L’intérêt des
indicateurs réside dans le fait qu’ils fournissent des
informations synthétiques et pertinentes sur l’activité de
l’apprenant, réduisant ainsi le temps que le tuteur passe
à visualiser le travail accompli par chaque apprenant
(Labat 2002).
Lorsque le tuteur intervient auprès d’un apprenant, il
ne dispose pas d’information directe sur les effets de son
intervention. Lorsque cela lui est possible, le tuteur peut
aller chercher cette information ou la déduire; cela a
pour conséquence de lui ajouter une charge de travail
supplémentaire. Par conséquent, notre proposition
consiste à calculer et à fournir au tuteur ces informations
manquantes, en nous basant sur l’étude de l’évolution
des valeurs des indicateurs qui ont permis de déceler la
situation critique à l’origine de l’intervention. Ces
4ièmes Rencontres Jeunes Chercheurs en EIAH
informations sont calculées grâce à ce que nous appelons
des méta-indicateurs : indicateurs caractérisant
l’évolution des valeurs d’autres indicateurs.
Dans ces situations de tutorat instrumenté, fournir au
tuteur un feedback sur ses interventions et sa propre
activité contribue à ce qu’il prenne conscience de ses
propres actions, de ses processus et de son activité pour
pouvoir les évaluer (« awareness and assessment »)
(ICALTS 2004). De plus, favoriser une démarche
réflexive (niveau métacognitif) de la part du tuteur en lui
fournissant des informations sur son propre travail
l’encourage à avoir un regard critique sur ses stratégies
pédagogiques, à affiner sa pratique et à améliorer ses
compétences tutorales (Denis et al. 2004) (Capa-Aydin
et al. 2009). En résumé, fournir au tuteur des
informations sur sa propre activité l’aide à être plus
efficace dans son tutorat (ICALTS 2004). Outre la
régulation de l’activité de l’apprenant, le tuteur est donc
aussi amené à réguler sa propre activité en cours de
session.
Contexte de travail et problématique
La thématique principale de notre travail porte sur le
support à fournir au tuteur pour observer les effets de ses
interventions et ainsi améliorer la régulation qu’il fait de
l’activité de l’apprenant afin de tendre à de « better
learning effects » (ICALTS 2004).
Une définition largement acceptée de l’auto-régulation
dans le domaine des sciences de l’éducation, et
notamment celui de la psychologie éducative, est celle de
Zimmerman (Zimmerman 2000). Il adopte une approche
sociocognitive de l’auto-régulation et propose un modèle
cyclique en trois phases : forethought, performance or
volitional control et self-reflection.
Nous proposons TeAMo, un modèle des activités du
tuteur, lequel est déduit de cette approche sociocognitive (Lekira et al. 2011a). Ce modèle spécifie deux
processus que le tuteur doit gérer dans les sessions
d’apprentissage (Figure 1) : d’une part, la régulation de
l’activité de l’apprenant et d’autre part, la régulation de
sa propre activité de tutorat (auto-régulation tutorale).
Le processus de régulation est précédé d’une phase
préparatoire dans l’élaboration de la session
d’apprentissage. Cette phase consiste à se fixer des
objectifs liés à l’activité et à planifier les stratégies pour
les atteindre. Suite à cette phase préparatoire, le
processus de régulation de l’activité de l’apprenant est
cyclique et comporte trois phases qui se définissent
comme suit :
- la phase d’observation dans laquelle le tuteur
effectue un suivi et une supervision de l’activité de
l’apprenant ;
63
Aina Lekira
- la phase d’évaluation dans laquelle le tuteur vérifie
que l’activité de l’apprenant correspond aux objectifs de
la tâche ;
- la phase de réaction dans laquelle le tuteur
intervient en adoptant une stratégie de remédiation
guidée par une intention d’intervention qui tient compte
du contexte d’apprentissage.
L’approche orientée indicateurs
Lors du processus de régulation de l’activité de
l’apprenant, le tuteur intervient quand l’apprenant est
confronté à une situation jugée pédagogiquement
intéressante. Pour détecter ces situations, nous nous
appuyons sur les valeurs issues d’un calcul d’indicateurs.
Partant du principe que le tuteur a décidé d’intervenir
suite à des valeurs d’indicateurs identifiées comme étant
« critiques », nous nous proposons de lui fournir un
retour sur l’évolution des valeurs de ces indicateurs par
le calcul de méta-indicateurs (Lekira et al. 2011b).
Un méta-indicateur est un indicateur qui donne des
informations sur l’évolution des valeurs d’autres
indicateurs. Il est calculé en fonction du domaine
d’acceptabilité de la valeur de l’indicateur dont il suit
l’évolution.
Dans la section suivante, pour illustrer nos propos,
nous prendrons des exemples dans notre domaine
d’application
et
d’expérimentation,
celui
de
l’apprentissage de la programmation orientée objet.
Les indicateurs de l’activité de l’apprenant
Figure 1 : TEAMO, un modèle de description des activités du
tuteur.
De même, le processus d’auto-régulation tutorale est
cyclique et comporte trois phases qui se définissent
comme suit :
- la phase d’auto-observation dans laquelle le tuteur
observe ses interventions et leurs effets ;
- la phase d’auto-évaluation dans laquelle le tuteur
vérifie si ses interventions ont eu les effets escomptés,
c’est-à-dire que les effets de ses interventions
correspondent à son intention initiale (i.e. l’intention
d’intervention du tuteur lors de la phase de réaction
dans le cycle de régulation). ;
- la phase d’(auto)-réaction dans laquelle le tuteur
valide ses interventions ou les remet en cause en
adoptant une nouvelle stratégie de remédiation
Notre objectif est d’instrumenter une partie des
processus décrits précédemment pour fournir au tuteur
des informations sur l’activité de l’apprenant et sur les
effets de son intervention. Dans ce cadre, notre
problématique de recherche consiste à trouver les
moyens pour rendre compte au tuteur, d’une part, de
l’activité de l’apprenant et d’autre part, des effets de ses
interventions. Nous adoptons ainsi une approche
orientée indicateurs tant pour refléter l’activité de
l’apprenant que pour mesurer les effets des interventions
tutorales. Le calcul de ces indicateurs se fait à partir des
traces d’interaction obtenues via l’EIAH. Par
conséquent, la mise en œuvre de notre démarche doit se
faire au sein d’un EIAH tracé c’est-à-dire un « EIAH
permettant de collecter les traces d’utilisation » (France
et al. 2007).
64
Les indicateurs procurent au tuteur des informations
qualitatives ou quantitatives sur l’activité de l’apprenant
(Labat 2002). Ils sont identifiés à partir des besoins
d’observation du tuteur et en fonction du scénario
pédagogique et des objectifs de l’activité.
Les indicateurs sur l’activité de l’apprenant permettent
au tuteur de réguler l’activité de l’apprenant en lui
fournissant des informations sur la progression, le
parcours ou les productions de l’apprenant. Ils reflètent
la différence entre ce que le tuteur attend à travers les
objectifs de l’activité et ce qui a été fait par l’apprenant.
Nous intégrons cette notion dans la définition d’un
indicateur à travers le domaine d’acceptabilité de sa
valeur. Le domaine d’acceptabilité de la valeur d’un
indicateur peut être une valeur, un seuil, un intervalle ou
un ensemble. La valeur d’un indicateur est acceptable si
elle appartient à son domaine d’acceptabilité.
Le tableau 1 présente des exemples de besoins
d’observation et des indicateurs correspondants en
fonction de leurs domaines d’acceptabilité.
Tableau 1 : Exemples de besoins d’observation et des
indicateurs correspondants en fonction de leur domaine
d’acceptabilité (type et valeur).
Les interventions tutorales
Les indicateurs donnent au tuteur des indications sur
l’activité de l’apprenant. Lorsque leurs valeurs
n’appartiennent pas à leurs domaines d’acceptabilité,
nous considérons qu’ils reflètent une situation dite
Amiens – 23 et 24 mai 2012
Une approche orientée indicateurs pour supporter les activités du tuteur
critique. Cela peut amener le tuteur à intervenir. Dans ce
cas, le tuteur sélectionne les indicateurs caractérisant la
situation critique qui ont entraîné son intervention et le
système mémorise l’association entre l’intervention et
les indicateurs (Lekira et al. 2011a).
Si le tuteur est amené à intervenir de nouveau sur la
même situation critique, il sélectionnera son
intervention originelle et le système mémorisera
l’association entre l’intervention originelle et ses réinterventions successives.
Les méta-indicateurs
Pour mesurer les effets d’une intervention, nous
proposons d’assurer le suivi de l’évolution des valeurs
des indicateurs qui l’ont déclenchée et de voir s’ils
reviennent à la normale i.e. s’ils appartiennent à leurs
domaines d’acceptabilité. Pour cela, nous utilisons des
méta-indicateurs que nous associons à une intervention
afin de représenter l’évolution positive, négative ou
nulle des valeurs des indicateurs (de l’activité de
l’apprenant) à l’origine de cette intervention. Ces métaindicateurs servent à obtenir des informations sur les
effets d’une intervention tutorale et à vérifier si cette
intervention a eu les effets escomptés par le tuteur. En
cas d’échec de l’intervention, nous voulons aussi savoir
dans quelle mesure elle a échoué et en rendre compte au
tuteur. Afin de déterminer le moment à partir duquel ce
feedback peut être fourni, nous proposons de laisser au
tuteur la liberté de le spécifier au moment de son
intervention en définissant le moment du déclenchement
du calcul des méta-indicateurs associés à l’intervention ;
le calcul de ces méta-indicateurs peut être déclenché soit
suite à une action spécifique du tuteur ou de l’apprenant
(e.g. lors d’une compilation ou d’un changement de
question), soit au bout d’un temps déterminé.
En fait, le calcul des méta-indicateurs dépend du
domaine d’acceptabilité des indicateurs dont ils suivent
l’évolution.
Pour un indicateur dont le domaine d’acceptabilité est
une valeur de référence, le méta-indicateur
correspondant vaudra « succès » si la nouvelle valeur de
l’indicateur est identique à cette valeur de référence.
Sinon, il vaudra « sans effet ».
Pour un indicateur dont le domaine d’acceptabilité est
un seuil de référence, le méta-indicateur correspondant
vaudra « succès » si la nouvelle valeur de l’indicateur
est au delà (ou en deçà, selon le cas) du seuil. Sinon, le
méta-indicateur
vaudra
« amélioration »
ou
« détérioration » selon le signe de la différence entre
l’ancienne et la nouvelle valeur de l’indicateur. Enfin, si
cette différence est nulle, le méta-indicateur vaudra
« sans effet ».
Pour un indicateur dont le domaine d’acceptabilité est
un intervalle de référence, le méta-indicateur vaudra
« succès » si la nouvelle valeur de cet indicateur
appartient à l’intervalle. Dans le cas contraire, la valeur
du méta-indicateur vaudra « amélioration » si la
nouvelle valeur de l’indicateur est plus proche de
l’intervalle que l’ancienne valeur. Sinon, il vaudra
« détérioration ». Et enfin, la valeur du méta-indicateur
sera « sans effet » si la valeur de l’indicateur ne change
pas.
Pour un indicateur dont le domaine d’acceptabilité est
un ensemble de référence, le méta-indicateur vaudra
4ièmes Rencontres Jeunes Chercheurs en EIAH
« succès » si la nouvelle valeur de cet indicateur
appartient à l’ensemble. Enfin, le méta-indicateur vaudra
« sans effet » si la valeur de l’indicateur ne change pas,
sinon il vaudra « modification non corrective ».
Les effets d’une intervention tutorale
Les méta-indicateurs permettent de mesurer les effets
d’une intervention tutorale (Lekira et al. 2011b). Une
intervention a eu du succès si tous les méta-indicateurs
qui lui sont associés évoluent positivement c’est-à-dire
qu’ils valent « succès ». Inversement, une intervention a
échoué si tous les méta-indicateurs qui lui sont associés
n’évoluent pas favorablement c’est-à-dire qu’ils valent
« détérioration », « sans effet » ou « modification non
corrective ». Dans tous les autres cas, on considère que
l’intervention a une certaine effectivité mesurée par le
pourcentage de méta-indicateurs de chaque catégorie
(« succès »,
« sans
effet »,
« amélioration »,
« détérioration » et « modification non corrective »).
Une approche générique
Dans le calcul des méta-indicateurs proposé, il n’est fait
référence ni au domaine d’apprentissage, ni au type
d’activité, ni même à l’EIAH utilisé. Pour le calcul d’un
méta-indicateur, il n’est tenu compte que de la famille à
laquelle appartient l’indicateur dont il suit l’évolution.
De ce fait, notre démarche orientée indicateurs est
générique et peut s’appliquer à n’importe quel EIAH
tracé : elle consiste d’une part, pour l’enseignantconcepteur à définir des indicateurs et leurs domaines
d’acceptabilité dans le domaine d’apprentissage
considéré et d’autre part, pour l’informaticien à
implémenter les méthodes de calcul des métaindicateurs.
L’EIAH HOP3X
Dans l’objectif d’opérationnaliser notre approche, nous
avons utilisé l’EIAH HOP3X qui a été conçu pour
l’apprentissage de la programmation. HOP3X donne au
tuteur la possibilité de faire un suivi synchrone d’un
groupe d’apprenants à travers une interface qui lui
permet de visualiser en temps réel leurs programmes et
d’intervenir par communication textuelle ou audio.
HOP3X est un EIAH tracé composé de trois
applications :
- HOP3X-ETUDIANT permet aux apprenants d’éditer,
de compiler et d’exécuter leurs programmes. Il leur
donne la possibilité d’appeler le tuteur à l’aide.
- HOP3X-SERVEUR collecte les traces d’interaction
des participants à la session d’apprentissage et les stocke
sous forme d’événements. Ces traces permettent le calcul
des indicateurs et des méta-indicateurs via l’outil UTL
qui utilise le méta-langage UTL (Choquet et Iksal 2007)
et le langage associé DCL4UTL (Pham et al. 2010). Une
application HUI (Hop3x and UTL Interaction) a été
développée pour permettre l’interfaçage entre Hop3x et
l’outil UTL.
- HOP3X-ENSEIGNANT offre une visualisation en
temps réel de l’activité de l’apprenant.
Pour permettre au tuteur de visualiser les indicateurs et
les méta-indicateurs, nous avons développé une interface
de suivi. La figure 3 présente l’interface fournie au
tuteur.
65
Aina Lekira
Nous avons aussi intégré un outil permettant de
visualiser les interventions avec la possibilité de revoir
leurs contenus.
Figure 3 : L’interface de HOP3X-ENSEIGNANT.
Une visualisation détaillée des méta-indicateurs est
possible. Celle-ci donne au tuteur des informations sur
les effets d’une intervention. Par ailleurs, un code
couleur a été mis en place dans l’interface pour
permettre au tuteur de voir rapidement les interventions
qui ont échoué (en rouge), celles qui ont réussi (en vert),
celles ayant une majorité de méta-indicateurs valant
« succès » (en orange-vert) et les autres (en orangerouge).
Des statistiques globales sur l’effectivité de toutes les
interventions sont fournies au tuteur à travers le
pourcentage global de méta-indicateurs de chaque
catégorie (« succès », « sans effet », « amélioration » et
« détérioration »).
Description des expérimentations
Afin de mesurer l’impact de la mise à disposition d’un
feedback sur les interventions au tuteur, nous avons
mené deux campagnes d’expérimentations dans un
contexte de tutorat synchrone : une expérimentation
dans laquelle un feedback sur les interventions et des
méta-indicateurs étaient fournis au tuteur et une autre
sans ces informations.
Ces expérimentations ont été menées sur deux années
universitaires et concernaient des activités de travaux
pratiques qui font partie d’une Unité d’Enseignement
(U.E.) relative à la « Programmation orientée objet et
Java ». Cette U.E. est dispensée aux étudiants de L3
Informatique de l’Université du Maine qui sont novices
en programmation Java.
66
Avant chaque session d’apprentissage avec HOP3X,
les étudiants ont préalablement vu en cours et en TD les
concepts qu’ils devaient mettre en œuvre durant les TP.
Les deux expérimentations se sont déroulées dans le
même contexte puisque les mêmes tuteurs ont participé
aux deux expérimentations, le même scénario
pédagogique a été utilisé et les étudiants impliqués ont
eu la même formation universitaire et ont suivi les
mêmes cours.
En collaboration avec l’équipe pédagogique, nous
avons identifié et défini 62 indicateurs, lesquels ont été
disponibles pour les deux tuteurs durant les deux
expérimentations.
La première expérimentation (expérimentation 1) a
été menée entre janvier et février 2010. Elle a impliqué
trente-six apprenants (groupe 1). La seconde
expérimentation (expérimentation 2) a été menée entre
janvier et février 2011 avec la participation de quarantecinq apprenants (groupe 2).
Concernant la quantité de productions des apprenants
et le nombre d’interventions tutorales, les deux groupes
sont homogènes. En moyenne, pour trois heures de TP, il
y a eu 3995 événements par étudiant pour le groupe 1 et
4391 événements pour le groupe 2. En ce qui concerne
les interventions tutorales, il y a eu 84 interventions pour
le groupe 1 (2,33 interventions par étudiant) et 96
interventions pour le groupe 2 (2,13 interventions par
étudiant).
Ces expérimentations nous ont permis de collecter des
traces d’interactions telles que la trace d’activité des
apprenants et les interventions audio et textuelles des
tuteurs. Les indicateurs et méta-indicateurs calculés en
cours de session ont aussi été sauvegardés.
Résultats des expérimentations et discussion
Nous voulons observer l’impact du fait de fournir au
tuteur des informations sur les effets de son intervention
à travers les méta-indicateurs. Pour atteindre cet objectif,
notre analyse est double. Dans un premier temps, nous
voulons voir si les méta-indicateurs améliorent les
performances du tuteur et l’effectivité de ses
interventions. Dans un deuxième temps, nous voulons
voir si l’amélioration des performances du tuteur a induit
un impact positif sur les résultats des apprenants.
Impact des méta-indicateurs sur l’activité du
tuteur
Dans cette section, nous voulons étudier le bénéfice
qu’apporte le fait de fournir au tuteur un feedback sur les
effets de ses interventions à travers la comparaison de
l’expérimentation 2, dans laquelle les méta-indicateurs
ont été disponibles, et l’expérimentation 1, dans laquelle
ils ne l’étaient pas. Pour notre étude, nous nous
intéressons aux interventions proactives, c’est-à-dire qui
surviennent lorsque les tuteurs interviennent de leur
propre initiative. Ce type d’intervention peut être
déclenché par des valeurs d’indicateurs non conformes à
celles attendues, i.e. n’appartenant pas à leurs domaines
d’acceptabilité. Dans ce cas, ces valeurs d’indicateurs
font état d’une situation critique.
Pour le groupe 1, parmi les 84 interventions, 89,28%
sont proactives. Ce taux est similaire pour le groupe 2
puisque parmi 96 interventions, 92,70% sont proactives.
Amiens – 23 et 24 mai 2012
Une approche orientée indicateurs pour supporter les activités du tuteur
Nos résultats et notre analyse se sont basés sur ces
données.
Dans cette analyse, nous nous intéressons aux
interventions qui peuvent être soit uniques, i.e.
composées de l’intervention originelle (nous les
appelons interventions uniques), soit une séquence
d’interventions, i.e. plusieurs interventions portant sur la
même situation critique. Une séquence d’interventions a
eu du succès si la dernière en a eu et que l’apprenant a
effectivement corrigé le problème à propos duquel le
tuteur est intervenu ; sinon, elle a échoué.
Les méta-indicateurs fournissent au tuteur des
informations sur le résultat (succès si l’intervention a eu
les effets escomptés par le tuteur ; sinon échec) de leurs
interventions. En cas d’échec, ils rappellent au tuteur
que l’apprenant n’a pas encore résolu le problème. Par
conséquent, le tuteur est encouragé à intervenir de
nouveau. Ainsi, nous pouvons émettre deux hypothèses :
le fait de fournir au tuteur un feedback sur les effets de
ses interventions à travers les méta-indicateurs va
augmenter le taux global d’interventions qui ont eu du
succès (H1) et, en particulier, cela augmente le nombre
d’interventions ayant eu du succès du fait des réinterventions (H2).
Comme le montre la figure 4, 75,99% des
interventions (en tenant compte des interventions
uniques et des séquences d’interventions) ont eu du
succès pour le groupe 1. Pour le groupe 2, ce taux est de
91,42%. Ces chiffres montrent une amélioration du taux
global des interventions qui ont eu du succès, lequel a
augmenté de 15,43 points. Ce résultat valide notre
première hypothèse H1 : globalement, lorsque les
tuteurs ont eu un feedback à travers les métaindicateurs, ils ont été mieux à même de rendre leurs
interventions efficaces que lorsqu’ils n’avaient pas de
méta-indicateurs disponibles.
d’échec des interventions uniques diminue de 14,29%
(de 20% pour le groupe 1 à 5,71% pour le groupe 2).
Nous expliquons cette différence par les métaindicateurs. En effet, les séquences d’interventions
contiennent des ré-interventions qui sont déclenchées par
les méta-indicateurs. Ces résultats tendent à valider notre
seconde hypothèse H2 : il y a eu une augmentation du
nombre de ré-interventions et il y aussi eu une
augmentation du nombre d’interventions qui a eu du
succès grâce aux ré-interventions.
Deuxièmement, comme indiqué dans la figure 4, le
taux d’interventions uniques ayant eu du succès a
augmenté entre le groupe 1 et le groupe 2. Cela ne peut
pas être du aux méta-indicateurs puisqu’il n’y pas de réinterventions. Nous expliquons cette différence par le
fait que ce sont les mêmes tuteurs qui ont participé aux
deux expérimentations. Après l’expérimentation 1, les
tuteurs ont acquis une certaine expertise en se rappelant
certaines interventions efficaces, ce qui leur a permis de
mieux cibler le choix de leurs stratégies de remédiation
en se basant sur leur propre expérience.
Toutefois, pour le groupe 2, il reste 8,56%
d’interventions qui ont échoué dont 2,85% malgré au
moins une ré-intervention. Ces cas d’échec concernent
des apprenants qui ont de très grandes difficultés en
programmation. En effet, ces apprenants avaient
essentiellement des problèmes liés à la syntaxe ou à la
structure du programme ; ils avaient des difficultés à
résoudre les erreurs de compilation.
Les résultats des expérimentations montrent que
fournir au tuteur des méta-indicateurs favorise les réinterventions en cas d’échec de l’intervention originelle.
En effet, les tuteurs aident mieux les apprenants lorsque
ces derniers sont confrontés à des situations critiques
puisque 91,42% des interventions tutorales ont eu les
effets escomptés. Ainsi, fournir au tuteur des
informations sur sa propre activité améliore ses
performances et augmente les chances de succès de ses
interventions.
Impact des méta-indicateurs sur l’activité de
l’apprenant
Figure 4 : Distribution des interventions tutorales pour les
groupes 1 et 2.
L’explication de cette augmentation du taux global
des interventions qui ont eu du succès est double.
Premièrement, cela est dû à l’augmentation des réinterventions. En effet, lorsque l’intervention originelle
échoue, dans 40,36% des cas, le tuteur ré-intervient
pour le groupe 1. Ce taux est de 72,02% pour le groupe
2. Les méta-indicateurs sont un rappel permanent qui
pousse le tuteur à ré-intervenir : le taux de réinterventions du groupe 2 est de 34,44 points plus élevé
que celui du groupe 1.
En conséquence, le taux de séquences d’interventions
qui ont eu du succès augmente de 4,95 points (de 9,33%
pour le groupe 1 à 14,28% pour le groupe 2) et le taux
4ièmes Rencontres Jeunes Chercheurs en EIAH
Nous voulons voir si l’amélioration des performances du
tuteur et l’augmentation des ré-interventions grâce aux
méta-indicateurs ont un impact positif sur l’activité de
l’apprenant. Ici, nous voulons observer si les apprenants
résolvent mieux leurs problèmes lorsque les tuteurs ont
des méta-indicateurs à leur disposition. Pour cela, nous
mettons en évidence des situations critiques (SC) i.e. des
situations dans lesquelles les valeurs des indicateurs (sur
l’activité de l’apprenant) ne sont pas acceptables. Parmi
ces SC, nous nous intéressons à celles qui ont fait l’objet
d’une intervention tutorale afin de mesurer l’impact de
ces interventions sur la résolution de ces SC par
l’apprenant.
Dans la section précédente, nous avons constaté que
fournir au tuteur des informations sur sa propre activité
améliorait l’efficacité de ses interventions. Maintenant,
nous voulons savoir si le taux d’échec des résolutions de
SC diminue grâce aux interventions. La figure 5 montre
l’état, en fin de session, des SC ayant fait l’objet d’une
intervention tutorale.
67
Aina Lekira
Figure 5 : État en fin de session des SC apparues en cours de
session.
Comme le montre la figure 5, le taux de résolution des
SC grâce aux interventions passe de 83,74% à 92,32%
entre le groupe 1 et le groupe 2. Cette augmentation est
probablement due aux interventions qui ont eu du
succès, lesquelles ont augmenté avec l’introduction des
méta-indicateurs. (cf. section précédente).
Cependant, pour le groupe 2, il y a 7,67% de SC non
résolues malgré les interventions tutorales. Ces cas
correspondent aux interventions auprès d’apprenants
ayant de grandes difficultés en programmation.
Ce résultat tend à prouver que l’introduction des
méta-indicateurs, qui induit de meilleures interventions
tant qualitativement que quantitativement (augmentation
du taux de ré-interventions et augmentation du nombre
d’interventions qui ont eu du succès), a un impact positif
sur les performances des apprenants puisqu’ils sont
capables de mieux résoudre leurs SC lorsque les tuteurs
ont un feedback sur les effets de leurs interventions.
Conclusion et perspectives
Dans cet article, nous avons présenté une approche
orientée indicateurs, générique, pour rendre compte au
tuteur de l’activité de l’apprenant et des effets de ses
interventions. Cette approche consiste à fournir au
tuteur, d’une part, des informations sur l’activité de
l’apprenant à travers des indicateurs calculés à partir de
la trace et, d’autre part, à lui fournir des informations
sur les effets de ses interventions à travers des métaindicateurs.
Les résultats des expérimentations montrent que
fournir ce type d’informations au tuteur améliore
l’efficacité de ses interventions de manière qualitative et
quantitative. Par ailleurs, les résultats montrent aussi
que cette amélioration des performances du tuteur a une
influence positive sur les performances des apprenants
qui ont mieux résolu leurs problèmes.
Par la suite, nous pensons pouvoir capitaliser les
interventions tutorales en fonction de la mesure de leur
efficacité afin de permettre au tuteur de réutiliser son
savoir-faire et son expérience. Ainsi, nous voulons
proposer au tuteur les interventions qui ont eu du succès
lorsqu’il se retrouve dans un contexte similaire à celui
de l’intervention proposée.
Références
Bousbia, N., Rebai, R., Labat, J. M., Balla, A., 2010.
Analysing the Relationship between Learning Styles and
Navigation Behaviour in Web-based educational
68
system.
International
Journal
of
Knowledge
Management and E-Learning, 2(4):400-421
Capa Aydin, Y., Sungur, S., and Uzuntiryaki, E., 2009.
Teacher self regulation: Examining a multidimensional
construct. Educational Psychology, 29:345-356.
Choquet, C., Iksal, S., 2007. Modélisation et
construction de traces d’utilisation d’une activité
d’apprentissage : une approche langage pour la
réingénierie d’un EIAH. STICEF, 14.
Denis, B., Watland, P., Pirotte, S., and Verday, N., 2004.
Roles and competencies of e tutor. In Proc. Networked
Learning Conference, 385–389.
France, L., Heraud, J-M., Marty, J-C., Carron, T., 2007.
Visualisation et régulation de l’activité des apprenants
dans un EIAH tracé,In Actes Conférence EIAH, 179184.
V. Guéraud, J-M. Adam, A. Lejeune, N Mandran, N.
Vézian, M. Dubois, 2009. Expérimentation d'un
environnement flexible pour la supervision de travaux
pratiques basés sur des simulations, In Actes Conférence
EIAH, 279-286.
ICALTS : Interaction and Collaboration Analysis’
supporting Teachers and Students’ self regulation,
délivrables 1, 2 and 3, Jointly Executed Integrated
Research Project, 2004, http://www.rhodes.aegean.gr/
ltee/kaleidoscope icalts.
Labat, J. M., 2002. Quel retour pour le tuteur ? In Actes
de la conférence TICE.
Lefevre, M., Cordier, A., Jean Daubias, A., and Guin, S.,
2009. A teacher dedicated tool supporting
personalization of activities. In Proc. World Conference
on Educational Multimedia, Hypermedia and
Telecommunications, 1136–1141.
Lekira, A., Després, C., Jacoboni, P., 2011a. Supporting
the identification of teachers’ intention through
indicators, Proc. 3rd International Conference on
Computer Supported Education, 111-116.
Lekira, A., Després, C., Jacoboni, P., 2011b. An
indicator-based approach to support teachers’ activities,
Proc 11th IEEE International Conference on Advanced
Learning Technologies, 120-122.
Martin, M., Alvarez, A., Ruiz, S., and Fernandez Castro,
I., 2009. Helping teachers to track student evolution in a
b learning environment. In Proc. 9th IEEE International
Conference on Advanced Learning Technologies, 342–
346.
Martinez, A., Dimitriadis, Y., Gomez, E., Rubia, B., and
De La Fuente, P., 2003. Combining qualitative and
social network analysis for the study of classroom social
interactions. Computers and Education, 41:353-368.
Mazza, R., Dimitrova, V., 2007. CourseVis: A Graphical
Student Monitoring Tool for Facilitating Instructors in
Web-Based Distance Courses. International Journal in
Human-Computer Studies 65(2): 125-139.
Pham Thi Ngnoc, D., Iksal, S., Choquet, C., 2010. Reengineering of pedagogical scenarios using the data
combination language and usage tracking language. In
Proc. 10th IEEE International Conference on Advanced
Learning Technologies, 506-510.
Zimmerman, B J., 2000. Attaining self regulation: A
social cognitive perspective. Handbook of self
regulation, 13–38.
Amiens – 23 et 24 mai 2012
Acquisition interactive de connaissances pédagogiques pour la
personnalisation d’EIAH dans le cadre de la formation à distance
Bruno MASCRET, 1ère année
Université de Lyon, CNRS
Université Lyon 1, LIRIS, UMR5205, F-69622, France
Formagraph
1 Rue Madeleine Brès, 25000 Besançon, France
Résumé
Cet article s’intéresse à la problématique de l’acquisition interactive de connaissances pour la personnalisation des parcours pédagogiques dans un contexte de
formation à distance. Nous mettons en évidence que la
personnalisation des parcours pédagogiques par le formateur en formation à distance est un aspect important de la personnalisation de l’enseignement, mais qu’à
l’heure actuelle cela reste un processus long et peu utilisé en pratique sur le terrain. Nous expliquons pourquoi l’acquisition de connaissances sur la personnalisation nous semble une piste prometteuse pour faciliter
la personnalisation sur des plateformes pédagogiques.
Nous identifions les pré-requis à nos travaux : la mise en
place d’un système de personnalisation interactif à partir de sources de connaissances pédagogiques (profils,
ressources pédagogiques, ...), basé sur des modèles existants. Nous introduisons deux contributions théoriques,
défendant l’usage des traces et du raisonnement à partir
de l’expérience tracée (Mille, 2005) comme mécanisme
d’acquisition de connaissances pertinent. La première
contribution décrit comment acquérir ces connaissances
lors de l’élaboration de parcours pédagogiques par le
formateur ; la seconde montre comment, en présentant
au formateur l’activité de l’apprenant sous forme de
traces d’interaction, il peut exprimer de nouvelles
connaissances sur sa manière de réviser des parcours
pédagogiques proposés. Nous terminons en présentant
la manière dont nous allons implémenter un prototype
au sein de la plateforme IMAVIA, de l’entreprise Formagraph, et proposons quelques pistes de recherche qui
compléteraient nos travaux.
Dans le cadre de la formation à distance, nous assistons à une généralisation de l’usage des plateformes
pédagogiques que ce soit en formation initiale ou continue. La demande de personnalisation de l’apprentissage est de plus en plus forte ; elle se traduit entre
autres par un engouement pour la pédagogie différenciée
(Robbes, 2009). Les TICE (technologie de l’information et de la communication pour l’éducation) offrent
de nouveaux outils qui pourraient répondre à cette demande (Lebrun, 2007b), mais en pratique, la plupart des
formateurs ne peuvent se consacrer pleinement à leur
rôle de pédagogue faute de temps ou de connaissances
sur la manipulation d’EIAH devenus complexes (Garrot,
2008).
Une des manières d’individualiser la formation est de
personnaliser les parcours pédagogiques des apprenants,
mais les plateformes pédagogiques actuelles offrent peu
de fonctionnalités facilement utilisables pour permettre
cette personnalisation (Garrot, 2008). Au mieux, elles
permettent aux formateurs de définir plusieurs parcours
pédagogiques qu’ils peuvent ensuite proposer à un ou
plusieurs apprenants. Ces parcours sont réalisés a priori
et il n’existe pas, à notre connaissance, de mécanisme
permettant d’expliciter les motivations du pédagogue
quant aux choix qui lui ont permis d’élaborer un parcours et de l’attribuer à un apprenant.
Un autre moyen de personnaliser l’apprentissage
est de permettre au formateur de réviser les parcours
pédagogiques proposés quand ceux-ci ne conviennent
pas aux apprenants. Mais pour que cette révision
soit pertinente, le formateur doit disposer d’éléments
lui permettant de comprendre pourquoi le parcours
pose problème. Il est possible de s’appuyer actuellement sur des indicateurs (Dimitracopoulou et Bruillard,
2006), ou des renseignements sur le statut d’une
tâche : temps passé, résultat d’évaluation automatique,
nombre d’accès, nombre de tentatives. Mais ce que fait
réellement l’apprenant (hésitations, retours en arrière,
mauvaise compréhension ou accomplissement partiel
d’une tâche) n’est pas perceptible, contrairement à des
situations d’apprentissage en présentiel. Le contexte de
la formation à distance limite donc le formateur dans son
analyse des problèmes rencontrés par l’apprenant.
Selon nous, ces limitations pourraient être réduites si
les systèmes d’apprentissage en ligne étaient capables
d’acquérir une partie des connaissances pédagogiques
qu’utilise le formateur, et de mieux lui présenter l’activité de l’apprenant pour l’aider à résoudre les problèmes
d’apprentissage. Nos travaux portent sur l’acquisition de
ces connaissances pédagogiques lors de l’élaboration, la
personnalisation et la révision de parcours
Dans cet article, nous commençons par préciser le vocabulaire que nous employons, qui doit nous permettre
notamment de faire la distinction entre ce que prescrit le formateur et ce que réalise effectivement l’apprenant. Nous mettons en évidence les enjeux de nos travaux en EIAH, pour la personnalisation des parcours
pédagogiques par le formateur et en ingénierie de la
connaissance, pour la conception de systèmes capables
d’acquérir des connaissances et des raisonnements non
modélisés a priori par un expert. Nous présentons ensuite la problématique de nos travaux, en la situant dans
ces deux domaines. Nous introduisons les traces d’in-
4èmes Rencontres Jeunes Chercheurs en EIAH
69
Introduction
Bruno Mascret
teraction et le raisonnement à partir de l’expérience
tracée (RàPET), et expliquons en quoi cette approche
représente à notre avis un paradigme de raisonnement
pertinent pour notre problématique. Nous présentons ensuite le système de personnalisation tel que nous l’imaginons, et indiquons quels éléments existants nous allons
pouvoir utiliser. Nous expliquons en quoi ils satisfont
une partie des pré-requis nécessaires à nos recherches.
Notre première contribution décrit comment acquérir
des connaissances lors de l’élaboration des parcours
pédagogiques par le formateur, en traçant son activité
et en l’incitant de manière interactive à s’impliquer dans
ce mécanisme d’acquisition, en lui offrant par exemple
la possibilité de reformuler ce qui a été tracé par le
système, de le corriger, ou de le réorganiser. Cela va
plus loin qu’une simple documentation de son activité.
Notre seconde contribution s’appuie également sur les
traces d’interaction, cette fois-ci produites par l’apprenant. Nous les présentons au formateur qui peut alors
réviser le parcours pédagogique et introduire ces nouvelles connaissances dans le système. Nous terminons en
décrivant l’architecture que nous comptons développer,
et la manière dont elle répond aux attentes de la société
Formagraph en matière de personnalisation de parcours
pour un public très hétérogène (d’apprenants en situation d’illettrisme et/ou d’actifs aux profils variés en formation continue). Nous présentons plus particulièrement
la plateforme d’e-learning IMAVIA, basée sur Claroline,
sur laquelle s’appuiera une grande partie des services de
formation personnalisés proposés par Formagraph.
Définitions
F IGURE 1: Représentation d’une tâche et d’une activité (en
pointillés). Dans cet exemple, la tâche consiste à lire une documentation sur la compilation d’un programme ; l’activité pourrait être de ne lire que quelques pages de cette documentation.
F IGURE 2: Un graphe de tâches du cours de programmation.
Les arcs représentent les pré-requis entre les différentes tâches
qui sont compiler, exécuter, débugger, documenter, formatter
les entrées-sorties, et réaliser un module (Exo 1-6) du programme final (Exo 7).
vités : l’apprenant peut en effet avoir plusieurs activités
pour répondre à une même tâche (par exemple, lire les
deux premières pages de cours, puis reprendre sa lecture plus tard ), ou une activité peut répondre à plusieurs
tâches assignées. Un apprenant peut donc traiter partiellement une tâche dans une activité.
Graphe de tâches : un graphe de tâches (figure 2) est
une organisation de tâches où chaque nœud représente
une tâche et chaque arc une relation entre deux tâches.
Les arcs peuvent exprimer différents types de relations, pédagogiques ou non, entre des tâches (prérequis,
dépendance, sorte de, indexation, etc ;).
Nous souhaitons préciser le sens que nous donnons dans
cet article à un certain nombre de notions fondamentales. Ces notions sont discutées dans (Pernin, 2006) et
(Tchounikine, 2009). Nous avons notamment besoin de
marquer la distinction entre la tâche qui est prescrite par
le formateur et l’activité qui est réalisée par l’apprenant
(Tchounikine, 2009).
Les définitions qui suivent sont illustrées par
l’exemple concret d’un cours de programmation.
Tâche (prescrite) : une tâche (figure 1) représente ce
qu’il est demandé de faire à un apprenant. Elle est prescrite la plupart du temps par le formateur, et utilise des
ressources pédagogiques. Nous considérons que la tâche
contient à la fois la ou les ressources pédagogiques (ressources numériques, papier, média, . . . ) et les indications
données à l’apprenant pour sa réalisation (consigne).
Une tâche peut être décrite à l’aide de métadonnées, dans
un formalisme standardisé (par exemple LOM, SCORM,
IMS-LD) ou non standardisé (format interne à l’EIAH,
XML, etc.). Nous admettrons que ce formalisme permet,
dans le cas de tâches informatisées 1 , de représenter les
informations nécessaires pour exploiter la tâche à des
fins de personnalisation et réaliser des graphes de tâches.
Activité (réalisée) : l’activité (figure 1) représente ce
que l’apprenant réalise réellement pour traiter une tâche
prescrite par le formateur. Nous admettrons dans cet article qu’à une tâche correspond une ou plusieurs acti-
F IGURE 3: Deux parcours pédagogiques, un linéaire et un non
linéaire, qui ne prévoient ni la réalisation de Exo 2, ni les
tâches de formatage. Le formateur a peut-être voulu ainsi simplifier le problème pour certains apprenants, ou il considère
que ces apprenants n’ont pas besoin de réaliser les tâches non
sélectionnées...
1. Une tâche informatisée est une représentation informatique d’une tâche : les éléments qui la composent ne sont pas
tous nécessairement numériques
Parcours pédagogique : un parcours pédagogique
(figure 3) est une organisation de tâches que le formateur prescrit à un ou plusieurs apprenants. Lorsque le
70
Amiens - 23 et 24 mai 2012
Acquisition interactive de connaissances pédagogiques pour la personnalisation d’EIAH
parcours n’exprime pas d’alternatives, c’est un simple
séquencement linéaire de tâches. Dans le cas contraire,
c’est un graphe.
F IGURE 4: Un parcours d’activité représentant ce que l’apprenant a réellement réalisé. Apparemment, il a eu besoin de revenir sur les tâches d’exécution et de débuggage pour réussir
Exo 3 (il y a donc deux activités différentes pour la tâche exec,
et deux autres pour la tâche debug).
Parcours d’activités : le parcours d’activités (figure 4) est un séquencement d’activités représentant
le parcours effectif de l’apprenant sur un parcours
pédagogique. Sa structure peut être complètement
différente du parcours pédagogique, puisque d’une part
il correspond à ce que l’apprenant fait réellement,
d’autre part, nous l’admettrons, un apprenant ne peut
traiter deux tâches en même temps (bien qu’il puisse
passer alternativement de l’une à l’autre). Un parcours
d’activités a donc une structure linéaire dont les nœuds
sont temporellement situés.
teurs (Djouad, 2010), en raisonnement à partir de cas ou
en RàPET). (Soller et al., 2005) identifient trois utilisations de ces connaissances : la visualisation, la comparaison avec des observations attendues et la production
de réponses élaborées pour guider l’apprenant dans son
apprentissage.
Un pré-requis à une acquisition de connaissance sur
l’activité de l’apprenant réside dans la capacité à fournir
au formateur des outils lui permettant avant tout de percevoir cette activité : comment demander à un formateur
de corriger un parcours s’il n’a qu’une vision partielle et
limitée de ce qu’a fait l’apprenant ? Dans le cas de la personnalisation de parcours, un des enjeux est de permettre
au formateur d’expliciter une révision de parcours suite
à l’observation (visualisation) de l’activité d’un apprenant. Autrement dit, que le formateur arrive à formaliser
la cause d’un problème, en décire ses effets sur l’activité
de l’apprenant, et dans l’idéal de pouvoir proposer une
solution qui soit en accord avec sa pédagogie.
Problématique
Les connaissances pédagogiques et les raisonnements
associés sont, par opposition aux connaissances explicites, la plupart du temps tacites, c’est–à–dire difficiles
à formaliser. Elles s’appuient sur de nombreuses notions
comme l’expérience du pédagogue, sa connaissance personnelle des apprenants, ses convictions, sa manière
d’adapter ou de personnaliser son enseignement (Minstrell, 1999). Elles représentent une grande partie de la
pédagogie du formateur, qui n’a pas toujours conscience
de son expertise (il sent que cette adaptation est pertinente pour tel apprenant).
À notre avis, un des grands enjeux de la personnalisation est de disposer de systèmes capables d’acquérir
ces connaissances et la manière dont on s’en sert ;
autrement dit, de donner au formateur la possibilité de formaliser son expérience et ses connaissances
pédagogiques de personnalisation pour qu’il puisse ensuite les réutiliser ou les partager. Ainsi, il gagnera notamment du temps lors de l’élaboration de parcours
ultérieurs. Certains travaux actuels portent sur la constitution d’ontologies permettant d’acquérir une partie de
ces connaissances (Zouaq et al., 2007), (Greffier et al.,
2011) : nous pensons cependant que ce type d’approche
présente un risque d’homogénéı̈sation des connaissances
pédagogiques.
Dans le cadre de la formation à distance, l’importance de la présence du formateur, par sa capacité à
conseiller, orienter et interagir avec les apprenants est
une des clefs de la réussite dans ce mode d’apprentissage (Lebrun, 2007b). Or, bien que les plateformes
pédagogiques disposent d’outils de suivi et de communication (chat, wiki, forum), l’activité de l’apprenant ne
peut être finement observée par le formateur qui n’en
perçoit qu’une petite partie à travers les outils existants. Plusieurs domaines de recherche en ingénierie de
la connaissance et en EIAH se consacrent à la manière
d’améliorer et d’augmenter les connaissances sur l’activité de l’apprenant (en datamining, avec des indica-
L’ingénierie des connaissances utilise deux types
d’éléments : les connaissances, qui sont extraites de
sources de connaissances, et les mécanismes de raisonnement qui utilisent ces connaissances. L’un et l’autre
sont représentés par des modèles (modèle de connaissances et modèle de raisonnement).
Lorsque ces modèles existent, l’acquisition de nouvelles connaissances peut s’appuyer sur un formalisme, être interactive (Cordier, 2008), plus facilement
interfaçable pour l’utilisateur.
Cependant, il y a plusieurs inconvénients à cette formalisation (Cordier et al., 2009) : les mécanismes de raisonnement n’évoluent pas, les connaissances sont très
spécifiques et les systèmes considèrent que la solution d’un problème conviendra à tous les utilisateurs.
Or, dans un contexte de personnalisation de parcours
pédagogiques, il est très délicat de modéliser a priori
la manière dont les formateurs vont réaliser la personnalisation, car elle dépend de facteurs propres aux intentions et manières de faire du formateur, comme ses
objectifs, ses stratégies, ses démarches ou ses approches
pédagogiques. La connaissance qu’a le formateur de
l’apprenant et son expérience de pédagogue jouent
également un rôle essentiel. Le formateur doit donc pouvoir exprimer sa propre pédagogie dans une situation
d’apprentissage informatisée (Lebrun, 2007a), comme
il le ferait dans une situation non informatisée. Un environnement faiblement contraint, ou à large spectre
(c’est-à-dire offrant de grandes possibilités d’usages
différents à l’utilisateur) comme un EIAH ou un site Internet ne permet pas à son concepteur d’envisager toutes
les manières d’interagir, ni d’anticiper des modèles de
connaissances : cela figerait une fois pour toutes le processus de raisonnement. Les modèles de connaissance
et de raisonnement ne doivent donc pas être préconçus.
Comment peut-on les construire au fil de l’eau, à partir de l’expérience de l’utilisateur ?
Nous pensons que les traces d’interaction (Settoutti
et al, 2009) et le RàPET (Mille, 2005) offrent un paradigme de raisonnement adapté à ce genre de problèmes
(Cordier et al., 2010). Une trace d’interaction est un objet informatique capable de représenter l’activité des uti-
4èmes Rencontres Jeunes Chercheurs en EIAH
71
Enjeux
Bruno Mascret
F IGURE 5: Deux traces reformulées par transformation,
représentant un copier-coller réalisé à la souris et au clavier.
Deux traces différentes peuvent représenter le même processus ; les transformations permettent de se placer dans un registre pertinent pour le raisonnement.
lisateurs sous forme d’observations : les interactions de
l’utilisateur avec l’environnement sont mémorisées sous
forme d’observés, temporellement situés entre eux. Une
trace peut également être transformée et reformulée en
une autre trace incarnant un point de vue particulier sur
l’activité tracée (figure 5). Des observés peuvent être associés pour former un épisode dans la trace : cet épisode
correspond à un point de vue sur l’activité observée, et
on lui associe une signature afin de pouvoir le retrouver
dans une trace. Par exemple, les observés de la figure 5
pourraient constituer un épisode “copier-coller” dont la
signature serait “Select text”, “CTRL C”, d’autres observés dont le type n’est pas important pour la signature, “CTRL V”. Décrire un épisode avec sa signature est
une opération d’enrichissement des connaissances d’un
système à base de traces.
Actuellement, il n’existe pas, à notre connaissance de
système fonctionnel ayant implémenté concrètement un
mécanisme de RàPET dans un domaine dynamique et
sans a priori sur la structure des épisodes. Que doit-on
faire pour réaliser un tel système ?
Modélisation d’un Système de Personnalisation de Parcours à Base de Traces
Vers une architecture d’acquisition de
connaissances pédagogiques à base de traces
La figure 6 montre un système de personnalisation
à base de traces tel que nous le concevons. Dans
notre approche, 1 le formateur qui réalise un parcours pédagogique exprime des contraintes sur les objets pédagogiques du système (profils et tâches informatisées). Ces contraintes représentent le savoir-faire et
l’expérience du formateur.
2
Les interactions du formateur avec le module
d’élaboration de parcours sont tracées. Le formateur
peut consulter ses traces et les reformuler dans des
registres d’abstraction différents. Ces registres correspondent à des contextes ou des points de vue particuliers du formateur, comme ses différentes stratégies
pédagogiques. Ce travail de reformulation permet au
72
F IGURE 6: Système de personnalisation de parcours
pédagogiques à base de traces
système d’acquérir des connaissances sur la manière
dont le formateur souhaite formaliser son expérience.
Dès que le système dispose de suffisamment de connaissances, il peut commencer à réutiliser l’expérience formalisée pour faciliter le travail d’élaboration et d’adaptation du formateur.
Une fois le parcours pédagogique réalisé et affecté
aux apprenants 3 , le système trace le parcours d’activités réalisé par l’apprenant. 4 La trace de l’apprenant est utilisée par le formateur pour lui permettre de
détecter les éventuels problèmes d’apprentissage auxquels l’apprenant est confronté.
5 Le formateur va là encore exprimer son expérience
pédagogique en reformulant cette trace pour se placer dans des registres permettant de formaliser les
problèmes d’apprentissage. Cette formalisation de
problèmes lui permet en dernier lieu de réviser le parcours qu’il a proposé : il peut expliciter sa révision de
parcours en associant le problème détecté aux modifications des contraintes qu’il avait exprimé initialement. Le
système acquiert ainsi des connaissances à la fois sur la
résolution de problème d’apprentissage, mais également
sur la manière de concevoir des parcours : l’idée est que
lorsqu’un autre apprenant présentera des caractéristiques
similaires, le formateur puisse lui proposer directement
un parcours où le problème d’apprentissage détecté sera
évité.
Élements de l’architecture déjà existants
Il existe de nombreux travaux portant sur la personnalisation en EIAH (Brusilovsky et Millán, 2007),
(STICEF, 2011) et sur la représentation de parcours
pédagogiques ou la manière de les concevoir (Gutiérrez
et Pardo, 2007). Nous avons mené un état de l’art qui
Amiens - 23 et 24 mai 2012
Acquisition interactive de connaissances pédagogiques pour la personnalisation d’EIAH
nous a permis d’identifier plusieurs travaux que nous
allons utiliser dans notre système de personnalisation.
Notre objectif était de trouver des contributions permettant d’exprimer des contraintes sur deux types d’objets
pédagogiques, les profils et les ressources pédagogiques,
et de personnaliser les tâches des parcours.
PMDLe (Eyssautier-Bavay, 2008), (Ginon et al. 2011)
est un langage de modélisation de profils garantissant
une grande généricité et de solides capacités d’adaptation à des situations d’apprentissage hétérogènes. Un
langage d’expression de contraintes, cPMDLe, a été proposé par (Lefevre, 2009) dans l’approche GEP ET T OS
et repris par (Ginon et al, 2011). Cette approche permet
de lier des contraintes sur les profils à des contraintes sur
les tâches.
Dans (Lefevre et al., 2009), les auteurs présentent un
modèle permettant l’acquisition de connaissances sur
des EIAH à des fins de personnalisation. Ils identifient
cinq types d’éléments personnalisables : les tâches, leur
séquencement, les fonctionnalités disponibles, les retours proposés aux apprenants et les interfaces utilisateur. Seuls les deux premiers aspects rentrent directement dans le cadre de nos travaux.
La principale limite vient du contexte d’utilisation de
cette approche : elle a avant tout été pensée pour personnaliser des séances de travail, et la notion de parcours pédagogique se limite à un séquencement linéaire
de tâches. Dans le cas de parcours pédagogique, il s’agit
de personnaliser un ensemble de séances de travail et de
les organiser entre elles.
Toutefois, ces contributions répondent à la plupart de
nos besoins pour réaliser le module de personnalisation
de parcours, qui constitue un prérequis à nos travaux
puisque c’est en instrumentant ce module que nous serons capables de tracer les élaborations de parcours.
Acquisition de Connaissances pour la Personnalisation de Parcours avec les Traces
d’Interaction
L’idée d’observer avec des traces l’activité de l’utilisateur afin d’acquérir des connaissances réutilisables sur
sa manière d’interagir avec le système n’est pas nouvelle (Settouti et al, 2007). Cependant, à notre connaissance et à l’heure actuelle, aucun système ne propose
une implémentation concrète et utilisable en EIAH de
ces mécanismes pour la personnalisation de parcours.
Nous présentons deux approches permettant l’acquisition de telles connaissances : la première se situe au
moment de l’élaboration du parcours par le formateur,
la seconde lors de la révision du parcours suite à l’observation des traces d’interaction de l’apprenant par le
formateur.
F IGURE 7: Trace d’élaboration de parcours pédagogique et une
de ses reformulations.
en oeuvre pour exploiter ces connaissances. Nous allons maintenant montrer au travers d’un exemple en quoi
notre approche répond à cette problématique.
Reprenons les parcours pédagogiques de la figure 3.
Voici ce que le formateur a effectué pour obtenir ces parcours :
– il a exprimé des contraintes pour sélectionner les
tâches nécessaires à la réalisation de l’excercice 7
(objectif)
– il a ensuite exprimé des contraintes pour retirer du
parcours les tâches de formatage pour les profils où
cette compétence était acquise (prise en compte des
acquis)
– il a exprimé une contrainte sur une valeur du profil
pour autoriser ou non les alternatives (présentation)
La figure 7 montre la trace de son élaboration (trace
num.1). Dans cette trace, les notions d’objectifs, de prise
en compte des acquis ou de présentation n’apparaissent
pas. Le formateur va donc réaliser des transformations
pour exprimer ces nouveaux concepts (trace 2). Ces
transformations représentent bien une formalisation de
connaissances.
Ensuite, le formateur peut également définir des
épisodes qui correspondent à des connaissances qu’il
souhaite réutiliser. Il associe à ces épisodes des signatures, afin de permettre au système de les retrouver dans
une trace, et leur associe une solution.
Le système acquiert bien des connaissances et des
mécanismes de raisonnement sur ces connaissances.
Connaissances sur la révision de parcours
Nous avons montré dans la section précédente qu’une
manière pour le formateur de personnaliser un parcours pédagogique était d’exprimer des associations
de contraintes entre différentes sources de connaissances pédagogiques (profils, métadonnées sur les
tâches, etc.). Nous avons également introduit dans notre
problématique la complexité que représente l’utilisation de traces lorsque l’on ne dispose ni du modèle des
connaissances à acquérir, ni des raisonnements à mettre
Nous avons argumenté que présenter au formateur
des traces d’apprenant lui permet de formaliser des
problèmes d’apprentissage et d’expliciter ses révisions
de parcours. Le processus correspondant est similaire à
celui présenté pour l’élaboration de parcours.
Cependant, l’utilisation de ces traces pose deux
problèmes principaux : d’une part, sur le respect de la
vie privée de l’apprenant (Butaniaou, 2011) ; d’autre
part, sur la portée des connaissances acquises. En effet, chaque apprenant a son propre style d’apprentissage,
commet ses propres types d’erreurs. Il est donc difficile
de savoir si ce qui est valable pour un apprenant l’est
aussi pour tous les autres.
La réutilisation de ces connaissances est donc bien
plus délicate car il est difficile de mesurer le degré de
spécificité d’une révision. Une solution consisterait à caractériser le degré de spécificité d’une révision, et à exprimer sur quels éléments de similarité deux profils sont
comparables pour une révision donnée.
4èmes Rencontres Jeunes Chercheurs en EIAH
73
Connaissances sur l’élaboration de parcours
Bruno Mascret
Perspectives
Notre thèse s’inscrit dans le cadre des
développements que l’entreprise Formagraph a
réalisé sur sa plateforme pédagogique d’e-learning,
IMAVIA, basée sur Claroline (http://www.
claroline.net/index.php).Formagraph souhaite disposer d’un outil de personnalisation de parcours
pédagogiques riches à partir des contenus qu’elle va
proposer pour des apprenants en situation d’illettrisme.
Nous commencerons par représenter les profils avec
PMDLe, implémenter une structure pour les parcours
pédagogiques autorisant l’expression d’alternatives, et à
instancier GEP P ET OS pour Claroline.
Nous chercherons ensuite à apporter une preuve de
concept pour notre approche : nous développerons une
interface dédiée au formateur pour l’élaboration de parcours pédagogiques, tracerons les élaborations de parcours par les formateurs et mettrons en place le système
d’acquisition de connaissances.Nous aurons la possibilité d’évaluer notre approche, au sein de Formagraph ou
grâce à nos contacts avec le consortium Claroline.
Enfin, une fois ce premier prototype validé, nous
l’augmenterons afin de prendre en compte les autres aspects que nous avons présenté dans cet article.
Références
Butoianu, V ; Vidal, P and Broisin, J. 2011. Prise en
compte de la vie privée des usagers dans un système à
base de trace dédié à l’apprentissage en ligne. in EIAH
2011.
Brusilovsky, P and Millán, 2007. User Models for
Adaptive Hypermedia and Adaptive Educational Systems. The Adaptive Web, vol. 4321, Lecture Notes in
Computer Science, chapter 1, p. 3–53. Springer.
Cordier, A. 2008. Interactive and Opportunistic
Knowledge Acquisition in Case-Based Reasoning.
Thèse de doctorat en informatique, Université Lyon 1.
Cordier, A ; Mascret, B and Mille, A. 2009. Extending Case-Based Reasoning with Traces. In Grand Challenges for reasoning from experiences, Workshop at
IJCAI’09, Pasadena, CA.
Cordier, A ; Mascret, B and Mille, A. 2010. Dynamic
Case Based Reasoning for Contextual Reuse of Experience. In Provenance-Awareness in Case-Based Reasoning Workshop. ICCBR 2010. p. 69–78, Alexandria, IT.
Dimitracopoulou, A and Bruillard, E. 2006. Interfaces
de Forum enrichies par la visualization d’analyses automatiques des interactions et du contenu. Special Issue on
“Forum de Discussion en Education”, STICEF. Vol. 13.
Djouad, T ; Benmohammed , M and Mille, A. 2010.
Indicators computation from modeled traces in the
context of computer Human Learning environment. In
International Symposium on Modelling and Implementation of Complex systems, Constantine, p. 1-7, AL.
Eyssautier-Bavay, C. 2008. Modèles, langage et outils pour la réutilisation de profils d’apprenants. Thèse de
doctorat en informatique, Univ. J. Fourier Grenoble 1.
Garrot, E. 2008. Étude du tutorat in Plate-forme support à l’Interconnexion de Communautés de Pratique
(ICP). Application au tutorat avec TE-Cap, Chapitre 1.
Thèse de Doctorat en informatique, INSA Lyon.
Georgeon, O ; Mille, A ; Bellet, B.T ; Mathern, B.
74
and Ritter, F. 2011. Supporting activity modelling from
activity traces. Expert Systems, DOI : 10.1111/j.14680394.2011.00584.x, paru en ligne (mars 2011).
Ginon, B ; Jean-Daubias, S, and Lefevre, M. 2011.
Evolutive learners profiles. In Proceedings of World
Conference on Educational Multimedia, Hypermedia
and Telecommunications, T. Bastiaens and M. Ebner,
editors, p. 3311-3320, Lisbon, Portugal.
Greffier, F ; Szilagyi, I and Domenget, J-C. 2011.
Pour des parcours personnalisés via un système actif et
sémantique d’apprentissage, in C. Dejean, F. Mangenot
et T. Soubrié. Actes du colloque Epal 2011
Gutiérrez, S and Pardo, B. 2007. Sequencing in webbased education : Approaches, standards and future
trends. Evolution of teaching and learning paradigms.
Intelligent environement, vol. 62, Studies in Computational Intelligence. p. 83–117. Springer.
Lebrun, M. 2007a. Quality towards an expected harmony : pedagogy and technology speaking together
about innovation. AACE Journal, vol. 15(2), p. 115–130.
Lebrun, M. 2007b. Théories et méthodes
pédagogiques pour enseigner et apprendre : Quelle
place pour les TIC dans l’éducation ?. 2ème édition
revue, De Boeck, Bruxelle
Lefevre, M. 2009. Processus unifié pour la personnalisation des activités pédagogiques : méta-modèle,
modèles et outils. Thèse de doctorat en informatique,
Université Claude Bernard Lyon 1.
Lefevre, M ; Mille, a ; Jean-Daubias, S and Guin, N.
2009. A Meta-Model to Acquire Relevant Knowledge
for Interactive Learning Environments Personalization.
In ADAPTIVE 2009, p. 78-85, Athènes, Grèce.
Mille, A. 2005. Raisonner a partir de l’expérience
tracée (RàPET). Définition, illustration et résonances
avec le story telling Minstrell, J. 1999. Expertise in Teaching. Chapter 12
in R. J. Sternberg and J. A. Horvath, Tacit knowledge in
professional practice : researcher and practitioner perspectives. pp. 215-230. Psychology Press.
Pernin, J-P. 2006 Normes et standards pour la conception, la production et l’exploitation des EIAH, Chapitre
9. In Environnements Informatiques pour l’Apprentissage Humain, Grandbastien M., Labat J.-M. (ed.), p.
201-222, Hermès, Paris
Robbes, B. 2009. La pédagogie différenciée :
historique, problématique, cadre conceptuel et
méthodologie de mise en œuvre, janvier 2009.
http ://www.meirieu.com/ECHANGES/bruno robbes
pedagogie differenciee.pdf, p. 1–34
Settouti, L ; Prié, Y ; Marty, J-C and Mille, A. 2009. :
Vers des Systèmes a Base de Traces modélisées pour les
EIAH. Rapport de recherche RR-LIRIS-2007-016
Settouti, L ; Prié, Y ; Champin, P-A ; Marty, J-C and
Mille, A. 2009. A TBMS framework : Models, languages and semantics. Research Report.
STICEF, 2011, numéro spécial TICE, volume 18, sous
la direction de Pierre-André Caron et Serge Garlatti
Tchounikine, P. 2009. Précis de recherche en
ingénierie des EIAH. Internet. http ://membres-liglab.
imag.fr/tchounikine/Precis.html
Zouaq, A. ; Nkambou, R and Frasson, C. Une architecture d’acquisition et d’exploitation des connaissances
pour les EIAH, HAL, 2007
Amiens - 23 et 24 mai 2012
Vers une mise en relation des activités d’édition et de navigation
dans les ressources d’apprentissage : cas de l’apprentissage d’un
langage de programmation
Mahdi Miled
UMR Science Technique Education Formation
ENS Cachan – ENS Lyon (IFE) – UniverSud
61, avenue du Président Wilson F-94235 Cachan cedex
[email protected]
Résumé
Cet article suggère d'apporter des mécanismes d'aide à
la navigation dans les ressources d'apprentissage et
d'aide à leur conception et à leur édition. Nous
souhaitons instaurer des éléments de liaison entre ces
activités de conception ou d'édition avec celles de la
navigation. Dans une ressource que nous concevons
comme un graphe d’unités d’apprentissage, nous
proposons de guider l’apprenant sans le contraindre et
d’informer le concepteur sur l’usage à travers les traces
de navigation. Dans le but de faciliter la navigation
dans ce graphe de ressources et son édition, nous
développons un prototype intégrant un outil de
visualisation interactive. Grâce aux résultats des
simulations effectuées sur cet outil, nous avons pu
déterminer quel type de visualisation était le plus
approprié pour le type de graphe et la situation
d'apprentissage envisagée. Ces techniques nous
semblent essentielles pour soutenir les apprenants dans
leur guidage sur leur parcours d’apprentissage car elles
permettent de bien discerner les dépendances dans les
grands graphes évolutifs.
Introduction
Considérant la construction d’une ressource pour
l’apprentissage du langage Python en autonomie (Ortiz
2012), nous sommes confrontés à la conception d’un
grand nombre de parties constituant cette ressource, à
leur organisation et à leur évolution à travers l’usage
qu’en feront les apprenants.
La question de la conception et de l'édition des
ressources numériques d'apprentissage a été déjà
abordée (Broisin et Vidal 2005). Dans le contexte
participatif et collaboratif du web 2.0, les utilisateurs ne
sont plus seulement consommateurs de contenus mais
ils en sont également producteurs, contributeurs et
annoteurs. Nous utilisons ici l’idée que le parcours des
apprenants est une information utilisable par les
concepteurs pour améliorer la ressource et le guidage
des apprenants. Nos travaux s’inscrivent d’une part
dans l’aide à la conception et la modification d’une
ressource de haut niveau de granularité (cours, manuels
de référence), et d’autre part dans l’aide à la navigation
4ièmes Rencontres Jeunes Chercheurs en EIAH
dans un vaste réseau de parties homogènes et
interdépendantes au sein d’une telle ressource. La
première partie de cette communication présente
l’articulation entre les activités d’édition et de
navigation. Tout en montrant notre positionnement,
nous passons en revue dans une deuxième partie, les
environnements permettant d’utiliser des ressources
d’apprentissage, les techniques de visualisation
interactive des graphes ainsi que quelques fondements
sur les traces. La troisième propose un modèle pour
l’articulation entre édition et parcours. La quatrième
décrit la méthode de mise en œuvre d'un outil de
visualisation de graphes pour aider les apprenants dans
leur navigation. La cinquième partie fixera quelques
éléments d’évaluation avant la conclusion.
Articulation entre les activités d'édition et
de navigation : une relation non triviale
De nombreux travaux ont traité des objets
d'apprentissage (Pernin 2003) et de leur conception et
leur édition plus spécifiquement, dans une optique
d’ingénierie pédagogique (Paquette 2002) (Burgos el
al. 2005) (Wiley et Gurell 2009). D’autres travaux se
sont penchés sur l’accès et la navigation dans les
ressources (Nash 2005) (Wolpers et al. 2008).
Cependant peu s'intéressent à la relation entre ces
activités d'édition et de navigation qui ont des objectifs
différents, faisant intervenir concepteurs et apprenants.
Points de cadrage et contraintes
Dans le cadre d’un projet connexe visant l’élaboration
d’un document numérique pour l’apprentissage du
langage Python en autonomie (Ortiz 2012), nous
disposons d’un grand nombre (plusieurs centaines a
priori) d’unités d’apprentissage (non encore stabilisées
en terme de contenu). L’ensemble de ces unités peut se
formaliser sous la forme d’un graphe, où chaque nœud
est une unité et chaque arc est une dépendance,
notamment de type pré-requis. Ce graphe est le système
nerveux de la ressource. Il éclaire les concepteurs sur la
cohérence et la couverture de la ressource. Il sert aussi
de carte aux apprenants pour les guider à travers la
75
Mahdi Mile
ressource vers leurs objectifs. Bien qu'il existe d'autres
approches pour modéliser les relations entre les unités
(approche par compétences, connaissances sous forme
d'ontologies), nous nous limitons à la relation de type
pré-requis dans la représentation destinée à l’apprenant
(parfois débutant) pour lui en simplifier la lecture.
Comment peut-on améliorer la visualisation générale et
aider à mieux naviguer dans ces ressources ? Nos
contraintes de départ font que nous ne pouvons agir ni
sur la structure du graphe, ni sur les types de
dépendances entre ces unités. Nous souhaitons
cependant offrir un système qui permet l’évolution d’un
ensemble vivant de ressources prenant en compte
l’expérience de l’apprenant.
Pourquoi lier édition et navigation ?
Il peut paraître peu conventionnel de vouloir créer une
relation entre ces activités à priori séparées qui font
appel à des acteurs poursuivant des buts différents.
Dans la construction du graphe, le concepteur offre sa
vision pédagogique d’expert. Par leurs parcours réels,
leurs succès et leurs échecs, leurs retours en arrière,
leurs nouveaux choix, etc., les apprenants nous livrent
leur point de vue non expert. Nous pensons que les
choix de l’un et les traces des autres devraient
dialoguer pour permettre une évolution (contrôlée) de
la structure du graphe des ressources. Ce dernier devra
malgré tout assurer une certaine stabilité pour ne pas
perturber l'apprenant si les changements s’opéraient
trop fréquemment et à son insu.
Comment lier ces activités ?
Nous suggérons de tracer les actions des apprenants qui
concernent notamment les consultations et validations
des unités pour repérer les séquences d'unités
constituant des parcours. Ainsi, les tendances dégagées
permettraient d’informer statistiquement les tuteurs ou
les concepteurs sur les différents parcours. On pourrait
alors utiliser cette information dans l’édition/mise à
jour d’une unité ou d’un parcours. Nous envisageons
aussi d’offrir à l’apprenant, par le biais d’annotations,
le moyen de commenter ou évaluer des unités ou des
parcours proposés par les concepteurs. Ces
informations (traces de navigation et annotations)
peuvent servir à l’amélioration du graphe général afin
d'avoir une mise à jour semi-automatique (soit par le
système soit par la communauté). Nous décrirons ces
idées plus en détail dans la section modélisation
générale de notre proposition.
Regard sur l’existant
Il s'agira dans cette section de se positionner par
rapport aux environnements d'accès aux ressources
dont certains permettent l'édition selon un cycle de vie
spécifique. Nous nous intéresserons aussi aux
mécanismes d'accès et de navigation et notamment à
leurs interfaces de visualisation. Enfin, nous
expliciterons la nécessité des traces dans la relation
entre navigation et édition.
Environnements d’accès aux ressources
La plupart des environnements liés à l’utilisation des
objets d'apprentissage1 et à leur co-édition
(Connexions, web) permettent de partager les
ressources et de suivre leur évolution selon un cycle de
vie caractéristique. Ces environnements peuvent
prendre la forme de plateformes dédiées à un domaine
spécifique comme l’apprentissage du langage Python
(PythonLearn, web), ou de plateformes d’apprentissage
en ligne LMS2 de type Moodle, Blackboard, Claroline
ou même encore de dépôts de ressources tels que
ARIADNE (Klerxk et al. 2010), MERLOT et
LORNET. Ces types d'environnements regroupent bien
souvent des ressources hétérogènes, isolées et rarement
disposées d'une manière faisant ressortir une
cartographie complète de leurs dépendances. Les sites
dédiés à une thématique spécifique, s'ils apportent
parfois un contenu exhaustif du domaine, ils ne
s'inscrivent pas dans des objectifs d'aiguillage de
l'apprenant et de retour sur la navigation.
Notre proposition vise à soutenir l’enseignement et
l’apprentissage d’un thème complexe faisant appel à de
nombreuses ressources interdépendantes. Nous
prévoyons une première implémentation dans le cas
d'un environnement dédié à l'apprentissage de la
programmation en Python.
Visualisation et navigation dans les graphes
La question de la recherche ou la sélection de
l'information devient d'autant plus importante que la
quantité d'information croît. La visualisation interactive
des graphes peut résoudre certains problèmes d'accès et
de présentation surtout si le graphe devient de plus en
plus volumineux. Elle permet également de mieux
identifier les dépendances entre les nœuds. Différentes
techniques de visualisation et mécanismes de
navigation et d’interaction sous-jacents existent
(Hermann et al. 2000). Si la navigation dans les
graphes permet de visualiser l’ensemble du graphe
structurel, elle doit permettre en particulier de faire des
opérations d’agrandissement/réduction, de déplacement
panoramique et de focalisation sur une zone de
prédilection consistant à mettre l’accent sur une région
ou un sous-ensemble de nœuds.
Pour ce qui est des différentes mises en formes (graph
layout), on peut retenir celles qui se basent sur :
- les lois des forces (Force Directed) : tous les
nœuds sont en interaction selon la loi physique
des forces. La visualisation peut être statique
ou animée, le mouvement permettant de mieux
appréhender les dépendances complexes,
- les arbres hyperboliques (HyperTree),
- les graphes radiaux (Rgraph)
- ainsi que les arbres à tiroirs (Treemap).
Le champ de la visualisation de l’information a déjà été
introduit dans les EIAH, notamment sur des questions
de visualisation des relations entre les objets
d’apprentissage (Catteau et al. 2007) voire sur des
questions d’aide à l’accès et à la recherche de
ressources d'apprentissage déposées dans des réservoirs
1 Learning objects
2 Learning Management Systems
76
Amiens – 23 et 24 mai 2012
Édition et navigation dans les ressources d'apprentissage
(Klerkx et al. 2004). Certains travaux soulignent les
limites de l'accès et la recherche des ressources par des
formulaires (Klerxk et al. 2005) et proposent des
stratégies basées sur une visualisation et une navigation
interactive. Pour notre part, nous comptons utiliser les
types de visualisation ForceDirected, HyperTree et
RGraph. Nous estimons que ce genre de visualisation
interactive peut aider l'utilisateur à choisir la ressource
et à mieux naviguer dans un graphe de ressources sans
forcément avoir besoin de connaître leur intitulé pour
les exploiter.
Traçage des activités d'apprentissage
Une trace est une collection d'observés temporellement
situés (Djouad et al. 2010). Dans la littérature des
EIAH, le recours aux mécanismes de traces a pour
finalité la régulation ou l'auto-régulation de
l'apprentissage (Heraud et al. 2005), la modélisation et
le profilage de l'apprenant, la personnalisation et
l'adaptation de l'apprentissage (Brusilovsky 1999) ou
encore la réingénierie des EIAH (Choquet et Iksal
2007). Nous souhaitons exploiter les traces issues des
activités de navigation et d'utilisation pour des besoins
d'édition pour assurer, in fine, une meilleure évolutivité
à la ressource dans son ensemble.
Modélisation générale
Notre orientation générale (Fig. 1) montre une mise en
relation entre les activités de conception (et d'édition)
des ressources qui sont généralement gérées par les
enseignants et les activités d'utilisation et de navigation
qui sont accomplies par les apprenants. Les activités de
conception et d'édition sont fortement collaboratives
car nous considérons dans notre hypothèse que les
ressources de haut niveau (cours, manuels de
références) que nous appelons également ressources
complexes (Miled 2011) nécessitent plus d’un
rédacteur pour en assurer l'adaptation et la
contextualisation.
données liées aux interactions entre les différents
acteurs (commentaires, annotations…).
Dans notre vision du cycle de la conception et de
l'édition d'une unité jusqu'à son intégration dans un
parcours, nous pouvons noter que cela implique
quasiment tous les acteurs. Le concepteur écrit un
patron d'unité qui sera suivi pour une majorité d'unités.
Selon le besoin, une unité sera composée de microressources (exercice d'application, présentation d'un
concept, tests). Une fois produite, l'unité pré-utilisable
sera indexée, validée et publiée pour être accessible par
les apprenants que ce soit dans un accès indépendant
(unité seule) ou bien une unité intégrée dans un
parcours correspondant à un objectif d'apprentissage. Si
un contributeur (co-concepteur) veut apporter des
modifications sur une unité, il peut générer une copie
de la structure et ainsi l'adapter selon ses orientations.
La gestion des droits se fait selon le modèle proposé
par (connexions, web) qui stipule que le propriétaire
original devient automatiquement co-auteur. On notera
également, qu'il est possible d'avoir des responsables
d'unités et de parcours pour mieux aider à mettre à jour
et suivre les évolutions. En ce qui concerne la
validation pédagogique d'une unité, nous nous sommes
inspirés des états fournis par ADL SCORM (SCORM,
web). Sur la figure 2, les rectangles désignent les
différents états (de parcours) d'une unité. Les formes
arrondies correspondent aux actions de l'apprenant.
Celui-ci peut à tout moment s'évaluer (en effectuant le
test) sans forcément parcourir le contenu d'une unité. Si
le test est réussi, alors l'unité est réussie, sinon il est
invité à obligatoirement parcourir l'unité avant de
refaire le test pour la valider. Les actions suivantes sont
optionnelles et consistent à soumettre du code3 (si
l'unité l'indique) et consulter les composants de l’unité
pour la parcourir en totalité.
Figure 1 : Relation entre activité d’édition et de
navigation
Ils sont éventuellement encouragés par des moyens
incitant au partage et à la modification. La ressource
éditée peut guider les apprenants dans leur utilisation.
Les tendances dégagées par rapport aux objectifs de
validation et de respect de parcours, seront remontées
aux concepteurs, créant ainsi une dynamique itérative
permettant une évolution prenant en compte des
données objectives (traces de navigation) et des
4ièmes Rencontres Jeunes Chercheurs en EIAH
Figure 2 : États d’une unité et sa validation
3 Pour être spécifique à l'apprentissage de la programmation, nous
prévoyons d'ajouter un état supplémentaire (code submitted).
77
Mahdi Mile
Les principaux éléments du modèle ayant été décrits
dans cette partie, nous présentons dans la suivante,
l’approche méthodologique suivie.
Approche et méthodologie
Dans le but de mettre en œuvre nos éléments de
réflexion, nous avons recensé et testé divers outils
libres de représentation interactive des graphes. Ces
tests nous ont permis de vérifier l’adéquation de ces
outils aux types de graphes qui nous concernent. À
partir du choix d'outil qui s'est dégagé, nous avons
commencé à implémenter un prototype.
Choix d'un outil de visualisation interactive de
graphes
L'identification des outils de visualisation des graphes
nous a permis de cibler les outils proposant des
bibliothèques libres. Nous avons finalement opté pour
JIT4. Ce choix est dû aux riches types de visualisations
et performances vu qu'il s'appuie sur une technologie
cliente (Javascript). Il utilise comme entrée un format
JSON5 pour la représentation des données.
Intégration d'un outil et début de prototypage
Tout en commençant à développer un prototype, nous
avons intégré des visualisations du graphe des
ressources et quelques sous-graphes représentant
d'éventuels parcours. Les figures 3, 4 et 5 illustrent les
rendus issus de ForceDirected, HyperTree et RGraph.
Traces liées à l'édition et à la navigation
Le prototype que nous sommes en train de développer
sous Zend framework 1.11.3 propose (Fig. 6) de tracer
les activités relatives à la navigation dans les ressources
et d'autres spécifiques à leur édition. Ces traces sont
sauvegardées dans des tables MySQL. En terme de
navigation, le mécanisme de génération récolte
l'ensemble des unités visitées qui représente le(s)
chemin(s) parcouru(s) (parcours effectifs) par
l'apprenant. L'interface JIT qui est couplée avec le
framework Zend doit permettre aussi de renseigner
d'une manière fine sur les états de validation d'une unité
(cf Fig. 2). Cette fonction est en cours d'intégration. La
mémorisation des activités d'édition permet de lister les
évaluations des unités ou des parcours (suite d'unités),
de modifier les métadonnées relatives à une unité
donnée. La génération d'une copie/structure d'un graphe
conformément à notre approche ainsi que l'exportation
vers une archive SCORM doivent être incluses. Tous
ces éléments paraissent nécessaires pour pouvoir gérer
l’évolution de la structure globale du graphe. Ainsi,
nous pouvons penser qu'une évaluation d'une unité aura
un impact sur l'évolution globale du graphe. Par
exemple, si N évaluations globales (comprenant
plusieurs critères) font ressortir que l'unité U et que le
parcours P doivent être modifiés et mis à jour, selon le
degré d'imminence de la mise à jour, cette modification
peut être faite soit par les contributeurs si cela concerne
le contenu de l'unité, soit automatiquement s'il s'agit de
réordonner un parcours.
Figure 3 : Visualisation issue de ForceDirected
Figure 4 : Visualisation issue de HyperTree
Figure 6 : Processus de génération des traces
d'édition et de navigation
Eléments d'évaluation
Nous souhaitons vérifier à présent la validité de
certaines fonctionnalités et déterminer quel type de
visualisation est le plus adapté à nos besoins.
Figure 5 : Visualisation issue de RGraph
Eléments d'évaluation analytique
4 Javascript Infovis Toolkit
5 JavaScript Object Notation
78
Afin de mesurer quelques indications sur l'utilisabilité,
nous utilisons quelques principes basés sur une
démarche analytique (Nogry et al. 2004) en nous
appuyant sur des check-lists pour vérifier la conformité
Amiens – 23 et 24 mai 2012
Édition et navigation dans les ressources d'apprentissage
Comparatif des temps d'exécution
Pour comparer les performances des différents outils de
visualisation, nous avons suivi les étapes suivantes :
- la construction aléatoire de graphes G (n, p) à
l'aide de Gephi (Gephi, web) avec n le nombre
de sommets et p la probabilité de connexion,
- la production de fichiers de données contenant
des listes d'adjacence,
- la transformation des listes d'adjacence au
format JSON,
- et l'exécution du type d'algorithme et de
visualisation selon les données récupérées
précédemment.
Le protocole a consisté à générer dix graphes aléatoires
et à comparer les exécutions pour les trois algorithmes
choisis : HyperTree (Fig. 4), ForceDirected (Fig. 3) et
RGraph (Fig. 5) avec :
n =10 et p=0,5;
n = {50,100} et p =0,05;
n = {224, 500, 1000} et p = 0,01;
n = {2000, 3000, 4000, 5000} et p = 0,001.
Nous avons mesuré les performances d'exécution de
trois types de visualisation de la bibliothèque JIT
(HyperTree, ForceDirected et RGraph) avec les
caractéristiques suivantes : Windows XP SP3, 1Go
RAM, 1,66 Ghz, et le navigateur Google Chrome. Cela
s'est fait à l'aide de sondes et de transcription des
données temporelles : les parties du code à tester ont
été encadrées par des lectures de l’horloge (temps de
début et temps de fin) pour déduire la durée totale en
millisecondes et identifier le comportement de chacun
des algorithmes en fonction de la taille des graphes.
Nous avons eu recours (pour une majorité des cas) à
une dizaine d'exécutions pour la même instance de test
pour pouvoir calculer une moyenne de temps
d'exécution. Néanmoins ces valeurs restent indicatives
et il se peut qu'il y ait des valeurs différentes selon la
charge du processeur et sa vitesse, le navigateur et la
quantité de mémoire disponible. Les résultats
comparatifs obtenus (Fig. 7) donnent une estimation de
la complexité moyenne opérationnelle et permettent
surtout de discerner le comportement de chacun des
algorithmes pour de plus grands graphes. Ceci nous a
montré que les algorithmes RGraph et HyperTree
supportent mieux le passage à l'échelle, tandis que le
temps d’exécution de l'algorithme ForceDirected croît
4ièmes Rencontres Jeunes Chercheurs en EIAH
plus rapidement pour des valeurs élevées (presque 14
minutes pour n=3000, p=0,001). Cela peut facilement
s'expliquer par une complexité accrue avec la
simulation des lois des forces. Pour cet algorithme,
nous n'avons pas pu relever les temps pour n=4000 et
n=5000 (temps d’exécution supérieur à 30 minutes).
RGraph semble à peine plus performant que
HyperTree. En revanche ForceDirected ne peut être
adapté qu'aux petits graphes (n<100). Nous avons
utilisé une échelle logarithmique pour les temps
d'exécution pour atténuer la distance entre les temps de
ForceDirected et HyperTree/RGraph. Nous pensons
que pour pouvoir visualiser l'ensemble des unités sous
la forme d'un graphe, nous opterons plutôt pour le type
HyperTree ou RGraph vu que les valeurs de temps
restent acceptables même pour n=5000. Nous
privilégierons tout de même ForceDirected pour des
sous-graphes que nous appelons parcours (ce type de
graphe ne dépasse pas les 100 nœuds). Son intérêt
réside essentiellement dans la malléabilité de la
navigation où l'utilisateur peut déplacer les nœuds et
ainsi modeler et personnaliser la vue qui s'adapte le
mieux à ses préférences.
Temps d'exécution selon le type de visualisation
(Probabilité de connexion p=0,001)
1000
Tem ps en secondes
de ce qui est développé et en spécifiant des cas
d’utilisation. Le système permet un accès à différents
utilisateurs et une interface et des privilèges adaptés à
chacun des profils d'utilisation (concepteur, tuteur,
étudiant). Selon ses privilèges, chacun peut éditer les
métadonnées d'une unité et évaluer certaines
ressources. La navigation dans le macro-graphe se fait
selon la visualisation HyperTree. Pour ce qui est des
cas d’utilisation, nous pouvons imaginer un étudiant
souhaitant parcourir certaines unités. Il emprunte pour
cela une navigation "libre" en visitant des unités selon
son choix. Les événements seront tracés en termes de
chemins parcourus. Un autre cas d’utilisation serait de
suivre un parcours proposé par un enseignant, et
regarder si l'étudiant l'a bien suivi ou s'il a eu recours à
d'autres unités.
100
HyperTree
ForceDirected
Rgraph
10
1
2000
3000
4000
5000
Nombre de noeuds du graphe
Figure 7 : Temps d'exécution selon le type de visualisation
Conclusion
Nous avons présenté une approche permettant d'établir
des liaisons entre les activités de conception ou
d'édition des ressources d'apprentissage et les activités
de navigation. Cela s'inscrit d'une part dans l'aide à la
navigation
dans
un
graphe
de
ressources
interdépendantes notamment à travers la bibliothèque
JIT qui propose une navigation dynamique, et de l'autre
dans l'aide à la conception et l'édition de ces ressources.
Ces activités qui concernent des acteurs différents
(concepteurs, tuteurs et apprenants) peuvent être liées
pour permettre une évolution du graphe des unités
comme ressource globale d’apprentissage. Le prototype
qui est en cours de développement mettra en œuvre la
validation des unités par les apprenants et le mécanisme
de traçage des activités. Nous envisageons d'impliquer
les concepteurs et les étudiants dans une démarche
participative. Cette démarche participative permet de
confronter le prototype avec les usagers finaux. Nous
tiendrons compte du retour d'usage sans pour autant
nous attarder sur les aspects plus fins d’IHM et
d’ergonomie.
79
Mahdi Mile
Références
Livres
Paquette, G. (2002). L'ingénierie du téléapprentissage, pour construire l'apprentissage en
réseaux, Presses de l'Université du Québec, mai 2002,
490 pages.
Articles de Revue
Brusilovsky, P. (1999). Adaptive and Intelligent
Technologies for Web-based Education. In C.
Rollinger and C. Peylo (eds.), Special Issue on
Intelligent Systems and Teleteaching, Künstliche
Intelligenz, 4, 19-25.
Burgos, D., Arnaud, M., Neuhausser, P., & Koper, R.
(2005). IMS Learning Design : la flexibilité
pédagogique au service des besoins de l’e-formation.
Revue de l’EPI.
Choquet, C., et Iksal, S. (2007). Modeling tracks for
the model driven reengineering of a tel system. Journal
of Interactive Learning Research, vol. 18, p. 161-184.
Djouad, T., Settouti, L. S., Prié, Y., Reffay, C., Mille.
A. (2010). Un Système à Base de Traces pour la
modélisation et l’élaboration d’indicateurs d’activités
éducatives individuelles et collectives. Mise à l’épreuve
sur Moodle. In TSI. 29(6). pp. 721-741.
Nash, S. S. (2005). Learning objects, learning object
repositories, and learning theory: Preliminary best
practices for online courses. Interdisciplinary Journal of
Knowledge and Learning Objects, 1, 217–228.
Pernin, J.-P. (2003). Objets pédagogiques : unités
d’apprentissage, activités ou ressources ?, Revue
Sciences et Techniques Educatives, Hors série
Ressources numériques, XML et éducation, pp 179210, avril, éditions Hermès.
Wiley, D., & Gurrell, S. (2009). A decade of
development… Open Learning: The Journal of Open
and Distance Learning, 24(1), 11-21.
Actes de Conférences
Catteau, O., Vidal, P. & Broisin, J. (2007). A 3D
Representation of Relationships between Learning
Objects. In C. Montgomerie & J. Seale (Eds.),
Proceedings of World Conference on Educational
Multimedia, Hypermedia and Telecommunications
2007 (pp. 4262-4271). Chesapeake, VA: AACE.
80
Heraud J.-M., Marty J.-C., France L., Carron T. (2005).
Helping the Interpretation of Web Logs : Application
to Learning Scenario Improvement. Workshop
AIED’05, Amsterdam.
Herman, I., Melancon, G., & Marshall, M. S. (2000).
Graph visualization and navigation in information
visualization: A survey. IEEE Transaction on
visualization and computer graphics, 6(1), 24–43.
Klerkx, J., Duval, E., & Meire, M. (2004). Using
information visualization for accessing learning object
repositories. Eighth International Conference on
Information Visualisation. April 2004. (p. 465–470).
Klerkx, J., Meire, M., Ternier, S., Verbert, K., &
Duval, E. (2005). Information visualisation: towards an
extensible framework for accessing learning object
repositories. Proceedings of World Conference on
Educational
Multimedia,
Hypermedia
&
Telecommunications (p. 4281–4287).
Miled, M. (2011). Les ressources complexes pour
l’apprentissage: comment exploiter les traces
d’utilisation et soutenir l’édition collaborative? Poster à
la Conférence EIAH 2011, Mons, Belgique.
Nogry, S., Jean-Daubias, S. & Ollagnier-Beldame, M.
(2004). Évaluation des EIAH: une nécessaire diversité
des méthodes. Proceedings of TICE (p. 265–271).
Ortiz, P. (2012). Hypermédia adaptatif à épistèmes
pour l'apprentissage des langages de programmation.
Poster à RJC EIAH 2012, Amiens.
Wolpers M., Memmel, M., Klerkx, J., Parra, G.,
Vandeputte, B., Duval, E., Schirru, R., and Niemann,
K. (2008). Bridging Repositories to form the MACE
Experience, New Review of Information Networking,
14:102–116, Taylor & Francis Group, LLC.
Références sur le web
Connexions - Sharing Knowledge and Building
Communities http://cnx.org/
Gephi - Gephi, an open source graph visualization and
manipulation software http://gephi.org/
PythonLearn
Self-paced
http://www.py4inf.com
learning
Python
SCORM - Advanced Distributed Learning Initiative
http://www.adlnet.org
Amiens – 23 et 24 mai 2012
Intégration de raisonnements automatiques
dans le système d’annotation MémoNote
Hakim MOKEDDEM
Ecole National Supérieure d’Informatique ESI
BP 68 M Oued -Smar 16270, Alger, Algérie
[email protected]
Résumé
Les raisonnements automatiques dans les
EIAH se font à l’aide des programmes ad hoc,
ces programmes sont parfois complexes à écrire
et ne garantissent pas toujours la correction des
résultats et la décidabilité. Nous proposons dans
cet article des cas d’utilisations basés sur les
raisonnements automatiques dans le logiciel
d’annotation MémoNote en utilisant les
standards du web sémantique. L’utilisation des
raisonneurs standards permet d’éviter d’écrire
des programmes ad hoc pour répondre aux cas
d’utilisations. L’intégration de ces standards est
évaluée selon l’interopérabilité avec d’autres
systèmes, la complétude, la correction et la
complexité ainsi que les fonctionnalités limitées
du système. Des problèmes restent à étudier
comme la complexité du système et son
utilisation avec un grand nombre d’utilisateurs.
MOTS CLÉS.
Annotation sémantique,
raisonnements automatique, web sémantique.
Introduction
L’annotation est l’une des activités les plus
pratiquées parmi les enseignants sur les
documents papier. Elle lui sert de mémoire
externe qui soulage sa propre mémoire (Sperber
2001). Elle conserve ses opinions attachées au
document sans utiliser de structure formelle.
Avec la grande disponibilité des supports
pédagogiques électroniques sur le web,
l’annotation électronique devient nécessaire
comme sur le papier. Pour pouvoir être traitée
par des programmes informatiques, elle doit
reposer sur une structure formelle tout en
conservant la facilité d’annotation du papier.
Plusieurs outils d’annotations existent dans la
littérature. Certains visent uniquement à aider
l’annotateur à utiliser une forme graphique pour
ajouter des explications sur le document, comme
Microsoft Word et iMarkup (iMarkup-SolutionsInc 2004). D’autres permettent l’interprétation de
la sémantique des annotations par le logiciel
4ièmes Rencontres Jeunes Chercheurs en EIAH
comme Annotea (KAHAN et al. 2001). Enfin
des outils comme Melita (Ciravegna et al. 2002)
automatisent le processus
d’annotation par
apprentissage automatique d’après les actions de
l’utilisateur.
Tous ces outils sont génériques et ne
permettent pas de supporter les activités
spécifiques d’annotation de l’enseignant d’où la
nécessité de concevoir un outil d’annotation
dédié à l’enseignant. C’est la raison du
développement de MémoNote (Azouaou et
Desmoulins 2006). Par l’usage de patrons
d’annotation, il facilite la création efficace
d’annotations dans un contexte pédagogique
donné tout en mémorisant une sémantique
accessible aux programmes informatiques. Il
permet ainsi la recherche avec une sémantique
pédagogique et la notification automatique des
annotations de rappels en fonction du contexte.
Cependant, la version actuelle de MémoNote
est contrainte par des limites liées aux
technologies non standards sur lesquelles il
repose. En effet, MémoNote utilise la version de
Protégé 3.x du langage Frame (Kifer et Lausen
1995) pour représenter les ontologies, ce qui
limite l’interopérabilité avec d’autres systèmes.
Ce langage ne garantit pas la correction des
réponses aux requêtes faites sur l’ontologie, ni
leur complexité, ce qui entraine des
performances variables. La complétude des
réponses n’est pas non plus assurée avec ce
langage. A tous ces problèmes s’ajoute le
problème des fonctionnalités limitées de la
version actuelle de MémoNote.
L’objectif de cet article est d’étudier
l’intégration des technologies standards du web
sémantique (Berners-Lee 1998) comme OWL
(McGuinness et van Harmelen 2004)
pour
modéliser l’ontologie annotation afin de l’utiliser
avec des systèmes de raisonnements standards et
ainsi d’obtenir l’interopérabilité de MémoNote,
la complétude et la correction des réponses ainsi
que des bonnes performances du système.
Pour atteindre ces objectifs, nous étudions en
détail les limites de MémoNote et des autres
systèmes
pédagogiques
utilisant
des
81
Hakim Mokeddem
raisonnements automatiques. Nous décrivons
ensuite les besoins fonctionnels de l’enseignant
en termes de cas d’utilisations qui montrent la
nécessité de raisonnements automatiques. Pour
implanter les requêtes correspondant à ces
besoins, nous développons l’utilisation de
requêtes basées sur des langages standards. Enfin
nous évaluons cette utilisation de standards de
représentation et de raisonnement automatique.
1. Limite des systèmes pédagogiques
basés sur des raisonnements sur les
ontologies.
MémoNote mémorise les annotations à partir
d’une ontologie des annotations. Cette ontologie
permet de représenter les éléments de
l’annotation
de
l’enseignant
suivants :
- Le contexte de l’annotation est représenté par
les données de la séance d’annotation, qui est
décrite par son enseignant, son lieu, ses dates de
début/fin,
son
domaine
et
niveau
d’apprentissage,
son
type
d’activité
d’enseignement et d’apprentissage.
- L’épisode d’annotation comprend l’ancre
d’annotation dans le document et sa date.
- La forme graphique comprend la forme
graphique et la couleur de l’annotation.
- L’objectif de l’annotation est décrit par son
type, sa force et des éléments liés à son type.
Pour automatiser l’annotation, MémoNote
utilise des patrons d’annotation qui permettent de
déduire la sémantique de l’annotation à partir de
son contexte et de sa forme graphique. Les
patrons sont eux aussi représentés par une
ontologie qui se réfère aux éléments de
l’ontologie d’annotation.
Le langage de Frame de la version actuelle de
MémoNote permet de représenter les éléments de
ces ontologies sous forme de classes et propriétés
(slots) qui décrivent les classes et les relations
entre ces classes. Cependant aucun raisonneur
standard n’est fourni avec ce langage, ce qui
nécessite le développement de programmes de
raisonnement ad hoc. Aucun résultat théorique
n’existe sur ce type de langage, ne permettant
pas de garantir la correction, la complétude voire
même les performances de ces programmes
complexes à développer.
Dans le domaine des EIAH, d’autres
recherches
utilisent
les
raisonnements
automatiques sur les ontologies.
(Henze et al. 2004) utilisent des raisonnements
dans un système hypermédia adaptatif
d’apprentissage en ligne. Le système utilise des
ontologies RDF (Lassila et Swick 1999) pour
modéliser les ressources pédagogiques, les
utilisateurs et les observations faites sur les
82
supports pédagogiques. Pour raisonner, le
système utilise le langage de règle TRIPLE
RULE LANGUAGE (Decker et al. 2005).
L’inconvénient de ce langage est l’écriture
manuelle de toutes les règles pour assurer
l’inférence. L’autre inconvénient est la difficulté
d’exprimer des règles complexes avec ce
langage. Par exemple, pour adapter le contenu à
l’apprenant, le système doit afficher tous les bons
exemples des concepts d’un cours, la règle
consiste à rechercher tous exemples qui sont en
relation avec tous les concepts du cours.
Les recherches de (Huang et al 2006) ont
abouti à l’implémentation d’un système de
recherche sémantique des contenus pédagogiques
d’un système d’apprentissage en ligne à partir du
contexte. Le contexte est modélisé avec le
langage RDF sous forme de triplet (sujet,
prédicat, objet). L’utilisateur effectue ainsi la
recherche à partir du contexte en spécifiant les
paires (prédicat, objet) et le système extrait
ensuite le contenu approprié. Par exemple pour
rechercher un contenu à partir du contexte,
l’utilisateur choisit comme objet différents
contextes (université, forum, …), et le système
lui affiche le contenu qui correspond exactement
à ce contexte. L’inconvénient de ce système est
la simplicité des requêtes faites et aucun
raisonnement automatique n’est effectué.
A partir de ces études, nous constatons que
l’utilisation des raisonnements avec les
technologies du web sémantiques dans les outils
d’apprentissage est limitée. Et pourtant, comme
nous montrons dans la section suivante, les
raisonnements automatiques sur l’annotation et
son contexte sont nécessaires pour fournir des
services profitant pleinement de la sémantique
formelle des annotations. Notre objectif est donc
et d’étudier les capacités de raisonnements avec
les
technologies
standards
sur
l’outil
d’annotation MémoNote et la résolution des
problèmes rencontrés en implémentant ces types
d’inférences.
Enfin nous évaluons cette utilisation de
standards de représentation et de raisonnement
automatique et le comparons aux travaux
similaires.
2. Les besoins en raisonnement
Pour définir les besoins en raisonnement, nous
présentons maintenant des cas d’utilisations
améliorant les fonctionnalités de MémoNote.
Recherche d’annotations à partir d’un
contexte.
Cette recherche permet à l’enseignant de
retrouver les annotations produites dans un
Amiens – 23 et 24 mai 2012
Raisonnements dans MémoNote
contexte sémantiquement équivalent à un
contexte donné. Par exemple l’enseignant
recherche les annotations telles que leur auteur
est dans la classe des enseignants affectés au
cours CH213 et tels que le lieu de leur séance
d'annotation est à Grenoble campus. Le but de
cette recherche est de retrouver les annotations
produites dans tous les lieux inclus dans
Grenoble campus.
Recherche d’annotations à partir d’un
objectif.
Pour
chaque
annotation,
l’enseignant
renseigne le but pour lequel l’annotation est
créée. Il peut ensuite retrouver les annotations
qui ont un objectif similaire à objectif donné. Par
exemple, il peut rechercher les annotations du
groupe d’enseignants affectés au TP CH113
telles que l’intention de l’annotation est la
vérification d’un calcul chimique.
Suggestions de patron d’annotation
L’utilisation des patrons d’annotation est
importante pour l’enseignant. Ça lui permet
d’automatiser le processus d’annotation. Avec la
suggestion automatique de patron le système
active automatiquement le patron à utiliser selon
la forme graphique choisie et le contexte
d’annotation. L’enseignant ne renseigne donc pas
à chaque fois l’objectif de l’annotation, c’est le
rôle du patron.
Dans la partie suivante nous décrivons les
raisonnements automatiques nécessaires à ces
cas d’utilisations.
3. Raisonnements automatiques
Nous commençons par présenter la
représentation des annotations sur laquelle les
raisonnements automatiques reposent.
L’annotation est représentée par la classe
Annotation et des sous-classes pour chacun des
types
d’objectifs (domaine, document et
pédagogique). Elle est reliée à la classe Session
(représentant le contexte de l’annotation) via la
propriété made_during et à la classe
Visual_Shape qui représente la forme graphique
par la propriété has_visual_shape.
Différentes classes représentent les éléments
du contexte : le lieu de l’annotation (classe
Location) relié au contexte par la propriété
made_at_location. Chaque lieu peut être inclus
dans un autre par la relation is_part_of.
Les patrons d’annotations sont représentés par
la classe AnnotationPattern. La classe
AnnotationPattern est reliée aux classes
Visual_Shape et Objective, ainsi qu’à toutes les
classes qui représentent le contexte.
Avec les langages de requête du web
sémantique, on ne peut pas extraire toutes les
4ièmes Rencontres Jeunes Chercheurs en EIAH
instances d’annotations pour chaque cas décrit.
Par exemple, pour répondre à la première
requête, si on utilise SPARQL (Prud’hommeaux
et Seaborne 2008) le système extrait les
annotations
qui
ont
une
relation
made_at_location exactement égale à « Grenoble
Campus » et non tous les lieux qui font partie du
campus de Grenoble (par la relation is_part_of).
L’utilisation d’un raisonneur pour faire
l’inférence devient alors une nécessité. Le
raisonneur permet ainsi d’extraire de nouvelles
relations entre les classes, et de déduire de
nouveaux types d’instances à partir de tout ce
qu’on définit initialement dans l’ontologie.
Nous détaillons maintenant les trois cas
d’utilisations décrit précédemment d’un point de
vu raisonnement automatique avec l’ontologie
annotation écrite en OWL
Recherche d’annotations à partir d’un
contexte.
Pour extraire toutes les annotations du cours
CH213 qui ont eu lieu à Grenoble Campus, il
faut utiliser la composition de la propriété
made_at_location qui relie la classe Session à la
classe Location et la propriété is_part_of qui
relie la classe Location à elle-même.
Session made_at_location Location et
Location is_part_of Grenoble_campus->session
made_at_location Grenoble campus.
On extrait ensuite toutes les annotations de la
session
« Session »
avec
la
propriété
made_during.
Avec OWL 1 on ne peut pas raisonner avec la
composition de propriété chainée (Property
chain). Il aurait fallu utiliser des règles, comme
celles de SWRL (Horrocks et al. 2004). Avec
SWRL on rajoute une règle à OWL et on utilise
le raisonneur standard Pellet (Sirin et al.2003)
qui utilise cette règle pour faire l’inférence. On
implémente la règle SWRL à l’aide de l’éditeur
Protégé (Noy et al. 2000). Protégé valide la règle
et l’intègre dans le fichier OWL de l’ontologie.
Pour extraire ensuite toutes les annotations de
la session « Session » avec la propriété
made_during on utilise le langage SPARQL.
Recherche d’annotations à partir d’un
objectif.
Pour extraire les annotations qui ont pour
objectif domaine « Vérification d’un calcul
chimique » on utilise le raisonneur standard
Pellet, pour extraire les annotations qui ont
comme value de la propriété has_objectif une
sous classe de la classe « Domain objectif».
SPARQL ensuite vérifie si l’instance de chaque
classe est exactement égale à « vérification d’un
calcul chimique ».
Suggestion de patrons d’annotations
83
Hakim Mokeddem
Pour suggérer des patrons d’annotations, le
raisonneur effectue une comparaison sémantique
de type classe / sous-classes entre les différentes
classes concernées (classe du contexte et de la
forme graphique). Il commence par le contexte,
il extrait tous les patrons ayant un contexte
équivalent au contexte de la session courante. Il
raisonne ensuite sur la forme graphique en
inférant les classes ayant une forme graphique
équivalente à la forme graphique de l’annotation.
Pour répondre à cette requête, on utilise Pellet
et SPARQL pour extraire les patrons qui
correspondent au contexte de la session et à la
forme graphique de l’annotation.
4. Evaluation
Dans cette partie nous évaluons les solutions
proposées dans cet article par rapport aux points
soulevés
dans
l’introduction
à
savoir
l’interopérabilité, la correction, la complétude et
complexité et les fonctionnalités limitées et nous
les comparons avec d’autres systèmes
d’annotation et d’outil EIAH.
Certains outils
utilisent des langages
standards
comme
l’environnement
d’apprentissage TM4L (Dicheva et Dichev 2006)
basé sur les Topic Maps (Biezunski et al. 1999).
Elles permettent de représenter une ontologie
sous forme de sujets du domaine (Topics) et des
occurrences (instances des Topics). Cette
représentation est basée sur la norme XTM
(XML Topic Maps). Ce standard est rarement
utilisé parmi les systèmes actuels à cause de ses
limites en termes d’utilisations de raisonneurs
standards fournis par rapport aux standards du
W3C comme OWL. Notre système assure donc
l’interopérabilité avec l’utilisation des langages
du W3C et qui sont recommandés.
Avec l’utilisation des raisonneurs standards
sur OWL DL on s’assure que toutes les réponses
des requêtes de l’utilisateur sont correctes. Les
raisonneurs OWL vérifie ainsi la consistance de
l’ontologie grâce aux contraintes définies.
Quant à la complétude du système, avec OWL
DL on peut exprimer tout le domaine de
connaissances, répondre à toutes les requêtes de
l’utilisateur grâce aux raisonneurs fournis.
La question qui n’est pas encore résolue
concerne la complexité de notre système. C'està-dire le coût obtenu en exécutant les requêtes
par un raisonneur. En réalité, ces raisonneurs ne
fournissent pas une telle information qui sert à
étudier la performance de notre système actuel.
Les fonctionnalités rajoutées à MémoNote
augmentent l’utilisabilité de notre système. En
effet, le rajout de la recherche automatique à
partir du contexte ou l’activation automatique
84
des patrons lors de la création des annotations
facilitent la tâche de l’enseignant en recherchant
des annotations précédentes ou en annotant, mais
l’enseignant a toujours besoins d’un outil plus
puissant qui l’assiste dans ses activités
d’annotations.
Conclusion et perspectives
Pour se servir de la sémantique des
annotations de MémoNote, des raisonnements
automatiques sont nécessaires. Ces programmes
de raisonnements ne sont faciles à implémenter
si nous n’utilisons pas des standards
implémentant ces services de raisonnements.
Nous avons proposé dans cet article d'utiliser
des technologies standard plutôt que les
approches ad hoc développées. Ainsi pour
modéliser l’ontologie annotation, on a utilisé le
langage OWL qui fournit une bonne base pour
les raisonnements automatiques.
L’utilisation de OWL permet ainsi de profiter
de la disponibilité de raisonneurs standards
comme Pellet. Avec ces standards on s’assure
déjà de l’interopérabilité du système avec
l’utilisation des technologies W3C. MémoNote
s’intègre et communique facilement avec
n’importe quel raisonneur OWL et système
d’apprentissage utilisant ces standards qui
permettent ainsi de fournir à MémoNote des
requêtes sémantiques qui correspondent mieux
aux besoins.
Les raisonneurs standards sur OWL ont des
propriétés bien établies : la complétude et la
correction des raisonnements. En effet, on peut
exprimer toutes les requêtes des utilisateurs avec
un raisonneur OWL. On peut aussi prouver que
toutes les réponses sont correctes ou non, car les
raisonneurs OWL utilise le sous langage OWL
DL
basé sur la logique de description
mathématique.
Les nouveaux standards utilisés ont abouti à
l’implémentation de nouvelles fonctionnalités
pour
l’enseignant.
Ces
fonctionnalités
correspondent vraiment à des besoins pour les
enseignants qui utilisent MémoNote. La
recherche
contextuelle
sémantique
des
annotations permet à l’enseignant de retrouver
les annotations produites dans un contexte
sémantiquement équivalent au contexte de la
recherche. La suggestion des patrons permet
d’assister l’enseignant dans le processus de
création de l’annotation en renseignant l’objectif
de l’annotation d’une façon automatique.
Dans nos perspectives de recherche, la
question de complexité n’est pas bien établie.
Nos raisonnements sont basés sur des
raisonneurs qui ne fournissent pas des
Amiens – 23 et 24 mai 2012
Raisonnements dans MémoNote
informations théoriques sur la complexité de
leurs programmes. Il est nécessaire donc de
développer l’étude des performances sur nos
requêtes et nos données.
Le stockage des annotations dans des fichiers
externes cause également beaucoup de
problèmes
de performances d’accès et de
réponse. Un autre
problème est lié aux
conditions
ACID (Atomicité, Cohérence,
Isolation et Durabilité) des requêtes des
utilisateurs. L’étude de l’intégration avec des
systèmes de gestion des bases de données
relationnelles
comme
Oracle
(http://search.oracle.com ) ou Virtuoso (Erling et
Mikhailov 2007) qui intègre les technologies du
web sémantique comme RDF et OWL et qui
assure à la fois les propriétés ACID et les bonnes
performances.
Une autre perspective concerne les besoins des
enseignants. Une étude plus poussée des besoins
avec des cas bien précis doit être menée pour
déterminer si d’autres technologies comme OWL
2.0, SWRL et Pellet sont nécessaires. Et voir si
ces technologies fournissent tout pour répondre à
ces besoins, et si on a besoin de développer des
programmes propres à nous dans ces cas.
Références
Azouaou,F. ;Desmoulins, C.2006. MemoNote,
a context-aware annotation tool for teachers. In
the 7th International Conference on Information
Technology Based Higher Education and
Training (ITHET´06), pp. 621-628.
Berners-Lee T. 1998. Semantic Web
Roadmap. World Wide Web Consortium (W3C)
http://w3.org/DesignIssues/Semantic.html
Biezunski,
M.;Martin,B.;
Steven
R.
Newcomb.1999.Topic
Maps:
Information
Technology Document Description and Markup
languages,.
http://www.y12.doe.gov/sgml/sc34/document/01
29.pdf
Ciravegna, F.; Dingli, A.; Petrelli, D.; Wilks,
Y. "Timely and Non-Intrusive Active Document
Annotation via adaptive Information Extraction",
in Proceedings of the Semantic Authoring,
Annotation & Knowledge
Decker S. et al. 2005 TRIPLE - an RDF Rule
Language with Context and Use Cases. In W3C
workshop on Rule languages for interoperability,
Washington D.C., USA.
Dicheva, D. ; Dichev, C. 2006.TM4L: creating
and browsing educational Topic Maps, British
Journal of Educational Technology - BJET
37(3): 391-404
Erling ,O.; Mikhailov, I. 2007. RDF Support
in the Virtuoso DBMS, in: CSSW.
4ièmes Rencontres Jeunes Chercheurs en EIAH
Henze, N.; Dolog, P; Nejdl, W.2004.
reasoning and ontologies for personalized elearning in the Semantic Web. Educational
Technology & Society, 7, 4, 82–97.
Horrocks, I.; Patel-Schneider, P.F; Boley, H.;
Tabet, S., Grosof, B.; Dean, M. 2004 . SWRL:
A semantic web rule language combining OWL
and RuleML.
http://www.w3.org/Submission/2004/SUBMSW
RL-20040521/
Huang, W.; Webster, D.; Wood, D.; Ishaya, T.
2006b. An intelligent semantic e-learning
technologies, British Journal of Educational
Technology, Vol. 37 No. 3, pp. 351-73.
iMarkup-Solutions-Inc. iMarkup client Vista,
California, USA. Année d’accès 2012. URL du
document http://www.imarkum.com
Kahan,J.;Koivunen,M.R.;
Prud'hommeaux,
E.;Swick, R.2001.Annotea: An Open RDF
Infrastructure for Shared Web Annotations. In
The Tenth International World Wide Web
Conference, Hong Kong, May, pp. 623-632
http://www10.org/cdrom/papers/488/index.html
Kifer, M.; Lausen, G.;Wu, J. 1995. Logical
Foundations of Object- Oriented and FrameBased Languages. Journal of the ACM.
Lassila, O.; Swick, R. 2002. Resource
Description Framework (RDF) Model and
Syntax
Specification.
W3C
Proposed
Recommendation.. http://www.w3.org/TR/PRrdf-syntax. Markup Workshop (SAAKM)
McGuinness, D.L; van Harmelen, F. 2004.
OWL Web Ontology Language Overview,
World Wide Web Consortium (W3C)
recommendation, Feb.; www.w3.org/TR/owlfeatures.
Noy, N.F.; et al. 2003. Protégé-2000: an opensource ontology-development and knowledge
acquisition environment, AMIA Annu Symp
Proc. p. 953.
Prud’hommeaux,E.;Seaborn,A.2008.
SPARQL Query Language for RDF. W3C
Recommendation 15 January.
http://www.w3.org/TR/rdf-sparql-query/
Sirin, E.; Parsia, B.;Cuenca, B.; Kalyanpur,
A.; Katz, Y. 2003.Pellet: A Practical OWL-DL
reasoner. submitted for publication to Journal of
web semantics.
Sperber, D. 2001. L’individuel sous influence
du collectif", in La Recherche, vol. 344, pp. 3235.
85
Hakim Mokeddem
86
Amiens – 23 et 24 mai 2012
Modélisation outillée d’une stratégie contextualisée d’observation
dans le cadre d’un environnement d’apprentissage
Mohand Akli OUALI
LUNAM Université, Université du Maine, LIUM (Laboratoire d’Informatique de l’Université du Maine)
Avenue Olivier Messiaen, 72085 LE MANS CEDEX 9, France
[email protected]
Résumé
De nombreux travaux de recherche s’intéressent à
l’observation dans un environnement d’apprentissage.
Notre travail s’inscrit dans cette ligne de recherche sur
l’observation et l’étude des traces d’usage.
L’originalité de nos travaux consiste en la proposition
de la notion de stratégie d’observation qui nous amène
à repenser l’observation en terme de scénario
d’observation. Nous présentons, dans cet article, une
introduction à notre travail de recherche et une idée
générale de notre problématique et des travaux à
réaliser.
scénario, d’où la nécessité de lui donner des moyens
permettant à la fois de comprendre les résultats de
l’observation et d’exprimer l’évolution de ses besoins
d’observation en fonction de la nouvelle situation
adaptée lors du travail de réingénierie. Le traitement de
ces données collectées en session d’apprentissage peut
aussi intervenir après celle-ci (Mazza et Milani 2004).
De nombreux travaux existent dans ce contexte mais
la plupart nécessitent l’intervention d’un spécialiste du
domaine (informaticien) pour assister l’enseignant dans
l’expression de ses besoins d’observation et dans la
compréhension des résultats d’observation pour
l’amélioration du scénario d’apprentissage conçu
initialement (Pernin et Lejeune 2004).
Introduction
L'observation des situations d'apprentissage dans un
environnement informatique pour l’apprentissage
humain est basée sur le traitement des données
collectées durant le déroulement de la situation
d'apprentissage (Loghin 2006). Le processus de
production d’un EIAH doit intégrer une phase
d’observation et d’analyse des usages, destinée à
informer les concepteurs sur la qualité de la situation
pédagogique mise en œuvre (Choquet et Iksal 2007).
En interprétant les résultats de l’observation, un
enseignant, dans son rôle de tuteur, peut guider
l'activité d’apprentissage en essayant de comprendre
les dysfonctionnements éventuels en rapport avec le
scénario pédagogique conçu (Settouti et al. 2007). Il
peut alors adapter la session, introduire des aides
personnalisées et fournir des supports pédagogiques
adaptés en fonction des comportements et des styles
d’apprentissage des différents apprenants. Un
enseignant concepteur peut exploiter les traces dans un
travail de réingénierie du scénario pédagogique pour un
meilleur déroulement de la session d’apprentissage
(Djouad et al. 2010).
Certains aspects de l’apprentissage ne peuvent être
mesurés qu’en cours de session, comme, par exemple,
le temps de réponse à une question, la part de travail
individuel réalisé par chaque apprenant et la part du
travail collaboratif entre différents apprenants
échangeant des informations via les supports de
communication
offerts
par
la
plateforme
d’apprentissage. Ceci pourrait amener l’enseignant à
des interventions en cours de session pour adapter son
4ièmes Rencontres Jeunes Chercheurs en EIAH
Contexte de Recherche
Notre travail s’inscrit dans le cadre de la chaine
éditoriale de l’observation dans un Environnement
Informatique pour l’Apprentissage Humain (EIAH)
(Iksal 2011). Durant le déroulement de la situation
d'apprentissage, l'observation a pour but de collecter
des informations sur l'activité réalisée par les sujets
observés. Notre travail sur l’observation de l’utilisation
d’un EIAH nous conduit à considérer la terminologie
relative à ce champ d’activité (Choquet 2007) :
La trace : ensemble de données collectées par un
dispositif d’apprentissage. Ces traces sont enregistrées,
par exemple, dans des fichiers de « logs ».
L’observable et l’observé : l’observable est toute
variable définie comme devant être valuée par
l’observation de l’utilisation d’un EIAH. L’observé est
toute valeur d’observable.
L’indicateur : un indicateur est un observable signifiant
sur le plan pédagogique, calculé ou établi à l’aide
d’observés, et témoignant de la qualité de l’interaction,
de l’activité et de l’apprentissage dans un EIAH.
Les objectifs de l’observation des sessions
d’apprentissage peuvent être multiples pour un même
acteur, ou d’un acteur à un autre. Par exemple, pour le
concepteur, l’un des objectifs est d’avoir un feedback,
une information précise et exploitable pour ce qui est
de la convergence entre le scénario pédagogique conçu
et le déroulement effectif de la session d’apprentissage.
Pour le tuteur, l’un des objectifs serait d’avoir une
visibilité sur la prise en compte par les apprenants des
ressources mises à leur disposition et sur leurs
productions pour les accompagner dans leur processus
d’acquisition des connaissances. L’apprenant pourrait
87
Mohand Akli Ouali
avoir aussi besoin de vérifier son état d’avancement et
sa situation dans le groupe, comme il peut utiliser sa
propre trace à postériori pour comprendre sa démarche,
etc. Ces différents objectifs d’observation nécessitent la
mise au point d’une stratégie pour le suivi ainsi que
l’analyse du déroulement et des échanges au cours
d’une session d’apprentissage. La diversité des
environnements de développements, des plateformes
d’apprentissage et des techniques de collecte des traces
a fait que la définition des stratégies d’observation et
l’interprétation des résultats de l’observation sont
difficiles.
Dans le cadre des travaux sur la réingénierie des
EIAH, Choquet et Iksal (Choquet et Iksal 2007) ont
proposé un langage de description formelle des
indicateurs pédagogiques. Le langage UTL (Using
Tracking Language) proposé, permet, en partant de
l’expression du besoin d’observation, de bâtir un
indicateur à partir des données brutes de manière
indépendante du langage utilisé pour la définition du
scénario pédagogique et du format dans lequel les
traces sont représentées. Diem Pham Thi Ngoc dans sa
thèse (Pham Thi Ngoc 2011) propose un langage
(DCL4UTL : Data Combination Language for UTL)
qui est une extension d’UTL pour permettre une
description formelle des méthodes de calcul automatisé
des indicateurs à partir des traces collectées et des
besoins d’observation exprimés à l’aide d’UTL. La
formalisation des indicateurs les rend capitalisables et
éventuellement réutilisables. Autrement dit, cette
manière de procéder permet de stocker les indicateurs
pour une exploitation future et une réutilisation sans
redéfinir, à nouveau, les données nécessaires à leur
calcul. Boubekeur Zendagui, dans sa thèse (Zendagui
2010), s’est interrogé sur la manière de faciliter pour
l’enseignant l’expression de ses besoins d’observation
et a proposé un outil graphique (ProtON : Prototype for
the specification of Observation Needs) permettant de
définir ces besoins d’observation en s’appuyant sur les
informations spécifiées dans un contexte particulier en
lien avec le scénario pédagogique. UTL offre à
l’enseignant la possibilité d’exprimer ses besoins
d’observation de manière textuelle puis un analyste se
charge de la définition des données nécessaires au
calcul de l’indicateur. ProtON offre une interface
graphique permettant de définir les besoins et les
objectifs d’observation mais ne permet pas de spécifier
d’autres observables, en cours de session, que ceux
prédéfinis. Avec DCL4UTL, le calcul des indicateurs
est formalisé et automatisé mais les résultats retournés
à l’enseignant sont sous une forme textuelle (voire
texte structuré comme XML) réduisant ainsi les
possibilités d’exploitation de l’information par le
concepteur.
Notre travail s’inscrit dans la perspective d’apporter
aux acteurs du système d’apprentissage, et notamment
à l’enseignant concepteur, un ensemble d’outils
permettant de définir des stratégies d’observation de
manière autonome à partir d’une interface de
visualisation ergonomique et intuitive et ce avant,
pendant ou après la session d’apprentissage. Le
88
destinataire de l’observation récupère les résultats du
calcul des indicateurs à partir de son interface de
visualisation. Le travail à réaliser doit permettre de
capitaliser, autrement dit de stocker et de sauvegarder
les stratégies d’observation pour qu’elles puissent être
réutilisées. La solution à proposer doit garantir aussi
l’extensibilité des stratégies d’observation qui consiste
en la possibilité d’ajouter des indicateurs aux stratégies
définies précédemment afin de les adapter à un
nouveau contexte d’observation.
Notre objectif dans le cadre de cette thèse consiste à
proposer un langage, couplé à UTL, permettant de
spécifier des stratégies d’observation. Pour des raisons
de complexité de manipulation de ce langage,
notamment par des non informaticiens, il sera
également nécessaire de développer un éditeur
graphique pour la définition des stratégies
d’observation et de proposer des outils de visualisation
pour faciliter l’interprétation des résultats de
l’observation.
Identification des besoins
Il existe, dans la littérature scientifique, des travaux de
recherche qui se sont intéressés à l’observation et à la
mise à disposition des destinataires des résultats de
l’observation, d’outils permettant une meilleure
interprétation de ces résultats.
L’outil « REFLET » (Després et Coffinet 2004)
permet de visualiser l'évolution du travail d’un
apprenant ou d’une promotion d’apprenants en
formation ouverte à distance. Les interfaces tuteurs et
apprenants sont quasiment les mêmes. Le tuteur peut
visualiser l’état d’avancement d’un apprenant dont il a
la charge ou comparer l’avancement de tous les
apprenants d’un même groupe. Il peut également
contre-valider des tâches déjà validées par les
apprenants. L’apprenant peut visualiser son état
d’avancement dans la réalisation des activités et savoir
si une activité validée précédemment a été contre
validée par le tuteur. Il peut comparer son état
d’avancement à l’état d’avancement des autres
apprenants qui restent anonymes à son niveau.
« GISMO » (Graphical Interactive Student
Monitoring System for Moodle) (Mazza et Milani
2004) permet d’extraire les traces des activités des
apprenants sur Moodle et les affiche sous la forme d’un
graphe représentant le nombre d’accès aux différentes
ressources Moodle et les dates de ces accès par les
différents apprenants. Les informations visualisées
permettent à l’enseignant de mesurer la popularité des
ressources mises à la disposition des apprenants et de
détecter les styles d’apprentissages. GISMO permet
aussi, à l’enseignant, de visualiser le nombre de
messages envoyés ou reçus pour chaque apprenant.
L’outil « CourseVis » (Mazza et Dimitrova 2004) est
utilisé pour la visualisation 3D des traces issues des
plateformes WebCT (WebCT est un spécialiste de la
formation en ligne pour universités et grandes écoles. Il
édite des solutions de téléformation permettant aux
Amiens – 23 et 24 mai 2012
Modélisation outillée d’une stratégie contextualisée d’observation
établissements de proposer à leurs apprenants des cours
en ligne. WebCT a été rachetée en 2006 par
Blackboard et porte désormais le nom de l’acquéreur).
Le but de « CourseVis » est de faire des visualisations
à partir de calcul d’indicateurs et des mesures
statistiques. CourseVis permet aux tuteurs qui n’ont
pas un niveau de technicité élevé, de disposer d’une
sorte de tableau de bord leur permettant d’analyser le
comportement des apprenants distants et leurs
échanges. CourseVis peut s’accomoder à plusieurs
plateformes. Néanmois, il se limite à la visualisation
des indicateurs initialement prédéfinis dans la
plateforme qui héberge les ressources pédagogiques en
ligne et ne permet pas au tuteur d’exprimer d’autres
besoins d’observation spécifiques à une session
d’apprentissage particulière.
Les travaux réalisés dans (France et al. 2006) sur la
visualisation des traces à l’aide des figures de Chernoff
permettent aux tuteurs de voir en temps réel les
activités des apprenants, les parcours effectués et les
activités réalisées ou en cours de réalisation au sein de
l'EIAH, et d'adapter l'activité en interagissant
directement sur l'interface de visualisation. La
représentation des traces par des outils de visualisation
permet à l'enseignant/tuteur de comprendre ce qui se
passe réellement, pour pouvoir réagir avec pertinence
et suivre l’activité des apprenants en session.
Dans (May 2009), l’auteur s’intéresse aussi à la
visualisation des résultats de l’observation en temps
réel. L’observation se focalise sur une activité plus
restreinte : l’utilisation d’un forum. Dans ce travail, les
traces sont générées par l’apprenant lecteur. Les
destinataires des traces sont multiples : l’apprenant,
l’enseignant ou le chercheur. La manipulation de la
trace est faite en temps réel. Il s’agit de calculer de
manière automatique le nombre de messages non lus
ou le temps passé pour la lecture d’un message.
Dans (Avouris et al. 2007), les auteurs ont étudié les
traces des activités en incluant les enregistrements
vidéos et audio afin de pouvoir construire une vue
complète de l’activité de collaboration et des
comportements des apprenants lors d’une situation
d’apprentissage, en ne se limitant pas seulement à
l’analyse des fichiers de logs. Les auteurs décrivent un
outil d’analyse des traces ColAT (Collaborative
Analysis Tool). ColAT permet de visualiser les traces
sous différentes formes comme les fichiers de logs et
les enregistrements vidéo.
L’outil Digital Replay System (DRS) présenté dans
(Greenhalgh et al. 2007) est une application pour la
relecture
et
l'analyse
des
combinaisons
d’enregistrements vidéo, des transcriptions et des
fichiers de logs. DRS a été développé au sein du
Digital Records pour l'e-Social Science (DRESS) au
cœur du Centre national pour l'E-Sciences Sociales
(NCESS). Il utilisé pour l’analyse et l’observation des
sessions l'apprentissage, par exemple, via des
simulations de sessions d’apprentissage de l’anglais
parlé, et même pour l’analyse de la gestuelle.
4ièmes Rencontres Jeunes Chercheurs en EIAH
Dans leurs travaux sur l’étude des interactions et la
collaboration
dans
l’apprentissage
dans
le
développement des connaissances (Damsa et
Ludvigsen 2010), les auteurs ont conçu des outils
d'analyse et d’observation intégrés dans le système
KPE (Knowledge Practices Environment ) qui est un
environnement web 2.0 offrant un espace virtuel de
collaboration entre apprenants. Les traces collectées
dans cet environnement ont permis de construire des
aperçus généraux sur le nombre et le type de
contributions de chaque participant. L’outil développé
est doté d’un analyseur visuel des contributions par
utilisateur et d’un analyseur chronologique qui permet
de représenter les distributions de types de
contributions dans le temps.
Les travaux de (Goodman et al. 2008), dans le projet
MITRE-Sponsored Research (MSR) se sont intéressés
à l’étude des échanges entre les intervenants dans une
équipe de discussion pour la prise de décision sur une
question posée. L’objectif concerne la synchronisation
des interventions afin de comprendre la dynamique de
la construction des décisions. Pour mener à bien leurs
travaux, les chercheurs ont développé un outil
d’analyse et d’observation permettant de visualiser les
flux de données synchronisés en les représentant sur un
axe temporel horizontal. Cet outil a été nommé le
Synchronized Analysis Workspace (SAW). La
visualisation des flux de données dans SAW permet
d’aider les analystes dans leurs processus d’étude et de
compréhension des interactions entre les personnes
concernées par la prise de décision.
ABSTRACT (Analysis of Behavior and Situation for
menTal Representation Assessment and Cognitive
acTivity modeling) (Georgeon et al. 2006) est un outil
permettant d’analyser l’activité d’un acteur humain qui
interagit avec un dispositif technique complexe.
L’activité est observée et les traces collectées sont
modélisées sous la forme d’un graphe. Les traces
collectées sont essentiellement constituées de
descripteurs d’événements qui se suivent. L’objectif
général d’Abstract est de comprendre le comportement
d’un utilisateur utilisant un artefact technique
complexe.
Dans (Morrison et al. 2006), les auteurs présentent la
plateforme Replayer qui offre un ensemble coordonné
d’outils de visualisation permettant l’analyse et la
compréhension d’informations de différentes natures.
Replayer combine des outils de visualisation vidéo et
des histogrammes ou la représentation d’événements
sur un axe temporel horizontal.
Tatiana (Trace Analysis Tool for Interaction
Analysts) (Dyke et al. 2010) est un environnement
logiciel basé sur le modèle de description des activités
d’apprentissage collaboratif médiatisé par ordinateur.
Ce modèle est conçu pour aider les chercheurs à gérer,
synchroniser, visualiser et analyser leurs données. Dans
ce travail, les auteurs ont introduit la notion de
« rejouable » qui est un type particulier d’artéfacts,
temporellement orientés, qui conservent la notion
89
Mohand Akli Ouali
d’ordre des évènements. Les rejouables peuvent être
visualisés dans deux types d’afficheurs : une forme
tabulaire et une visualisation temporelle horizontale.
Un mécanisme de plugin permettant d’ajouter de
nouvelles formes de visualisations a été intégré dans
Tatiana et un éditeur graphique permettant de générer
les rejouables a été mis à la disposition des chercheurs
afin de ne pas les contraindre à maitriser un langage de
requêtes. Tatiana a été intégré à plusieurs travaux de
recherches.
Dans cette section, nous avons présenté certains
travaux de recherche axés sur l’observation des traces
d’usage de systèmes informatiques, pour la plupart
dédiés à l’apprentissage. Ces travaux ont permis de
développer des outils de visualisation des résultats de
calcul des indicateurs. Les outils développés permettent
de mettre à la disposition des destinataires des résultats
de l’observation, des moyens leur facilitant la
compréhension des résultats du calcul des indicateurs à
partir des traces collectées lors de l’observation des
sessions d’apprentissage. Certains de ces outils
permettent le suivi des situations d’apprentissage en
temps réel (France et al. 2006). D’autres se limitent à la
possibilité de visualisation à la fin de la session
d’apprentissage (Mazza et Milani 2004). Certains outils
combinent plusieurs types de visualisation pour le
même indicateur (Avouris et al. 2007), tandis que
d’autres optent pour la visualisation des indicateurs
suivant l’axe temporel horizontal (Goodman et al.
2008), par des graphes de contingence ou par les
figures de Chernoff (France et al. 2006). Quelques
outils montrent les possibilités d’analyses des traces
assistées par ordinateur mais sont spécialisés à certains
types de données et nécessitent d’adapter leur
fonctionnement aux EIAH (Greenhalgh et al. 2007).
D’autres outils sont destinés plus aux tuteurs afin de
leur apporter des éléments pour suivre et superviser
une session d’apprentissage qu’aux concepteurs du
scénario pédagogique (Després et Coffinet 2004). Ils
ne leur offrent, par conséquent, que peu de possibilités
d’intervention pour réguler la situation d’apprentissage
sans leur donner les moyens de modifier ou d’adapter
leur stratégie d’observation au cours d’une session
d’apprentissage. Les indicateurs calculés et visualisés
pour la plupart ne concernent que l’activité de
communication entre les participants à la session (May
2009). Certains travaux se sont limités au
développement d’outils spécifiques aux traces générées
par une seule plateforme d’apprentissage, ce qui ne
permet pas leur exploitation sur d’autres plateformes
(Mazza et Dimitrova 2004). On notera aussi que la
plupart des outils ne permettent la visualisation que de
peu d’indicateurs qui sont portés sur les échanges de
messages dans la majorité des cas. Certains travaux ont
été validés par un large panel d’expérimentations mais
présentent néanmoins des problèmes d’ergonomie et de
facilité d’utilisation (Dyke et al. 2010).
Problématique
Le travail à réaliser dans le cadre de cette thèse porte
sur la notion de stratégie d'observation. La stratégie
d’observation est propre au destinataire des indicateurs
90
(l'enseignant, l’apprenant, le concepteur). Elle est
constituée d'un ensemble d'indicateurs avec leurs
interfaces de visualisation, d'un ensemble de règles de
composition des indicateurs ainsi que du contexte
d'utilisation de cette stratégie. Même si la stratégie
d’observation peut évoluer au fur et à mesure des
usages, elle doit néanmoins être pensée en amont de la
situation d’apprentissage. Elle a pour but de mener de
manière efficace l’activité d’observation en mettant à
disposition de l’enseignant/concepteur des instruments
lui permettant d’exprimer ses besoins d’observation en
répondant aux interrogations suivantes : ce qu’il faut
observer, le moment de l’observation (pendant la
session, après la session, à la réalisation d’une action,
etc.), l’objectif de l’observation (évaluation des
apprenants, adaptation du scénario pédagogique, suivi
d’une session d’apprentissage, etc.), le destinataire de
l’observation et la forme de restitution des résultats de
l’observation (tableau de bord de l’observation). On
cherche à formaliser ces stratégies d’observation et à
mettre à la disposition de l’enseignant/concepteur des
outils lui permettant de modéliser ses stratégies en
fonction du contexte et des objectifs de l’observation.
La première question à laquelle il faut répondre dans le
cadre de ce travail est la suivante :
Comment modéliser la définition des stratégies
d’observation par l’enseignant/concepteur ?
Le but recherché est de doter l’enseignant
concepteur d’un tableau de bord d’observation à partir
duquel il pourra manipuler des objets graphiques pour
modéliser ses stratégies d’observation de manière
autonome (sans l’assistance d’un spécialiste). En effet,
il convient de lui éviter toute manipulation technique
qui pourrait le contraindre à spécifier des stratégies
d’observation en fonction de ses capacités de
manipulation et non pas en fonction de ses objectifs
d’observation. Le langage à proposer doit permettre à
l’enseignant/concepteur de définir ses scénarios
d’observation en fonction de la visibilité qu’il veut
avoir du déroulement de la session d’apprentissage et
en fonction de ses objectifs d’observation.
Comment modéliser la scénarisation de l’observation ?
Comment accompagner l’enseignant/concepteur dans
la spécification de sa stratégie d’observation ?
Le tableau de bord à réaliser doit disposer d’un
processus d’accompagnement pour la création de
modèles ou de profils de stratégies qui seront
sauvegardés pour permettre une réutilisation future
(imaginons le cas où une même session d’apprentissage
est réalisée avec plusieurs groupes d’apprenants et à
des moments différents) ainsi que la possibilité de
modéliser d’autres stratégies d’observation à partir des
profils sauvegardés en ajoutant des indicateurs et en en
éliminant d’autres. Ces nouvelles stratégies doivent
pouvoir être sauvegardées comme profils de stratégies
à leur tour. Les stratégies d’observation modélisées
devraient être extensibles. L’extension de ces stratégies
pourrait se faire de deux manières : la première
consiste en l’ajout d’un ou plusieurs indicateurs parmi
Amiens – 23 et 24 mai 2012
Modélisation outillée d’une stratégie contextualisée d’observation
les indicateurs prédéfinis et qui n’ont pas été
sélectionnés initialement, la seconde serait la définition
par l’enseignant/concepteur de nouveaux indicateurs au
travers de l’expression de nouveaux besoins
d’observation dus à l’évolution des objectifs
d’observation. Cette extensibilité est due aussi à la
nature du contexte d’utilisation qui nécessite
l’adaptation du scénario de l’observation.
Comment formaliser la modélisation des stratégies
d’observation dans un but de réutilisation ?
Comment procéder pour adapter la
d’observation au contexte d’utilisation ?
stratégie
L’un des aspects les plus importants du travail à
réaliser est la proposition d’une solution de
visualisation graphique des résultats de calcul des
indicateurs définis lors de la description de la stratégie
d’observation par l’enseignant concepteur. Plusieurs
moyens de visualisation seront décrits et modélisés
pour chaque indicateur. L’enseignant concepteur
devrait disposer d’une palette d’outils pour sélectionner
un type de graphique adéquat en fonction de la nature
de l’indicateur. Cette tache de sélection est nécessaire
surtout pour les indicateurs définis après la mise en
place de la situation d’apprentissage. Pour les
indicateurs existants, des modèles de visualisation
appropriés pourraient être associés à chacun d’eux.
L’apprenant pourrait être, aussi, destinataire des
résultats du calcul d’indicateurs. Les indicateurs
pertinents pour l’apprenant seront choisis par
l’enseignant. Si l’indicateur mis à la disposition de
l’apprenant fournit des informations sur le groupe, la
visualisation faite doit permettre de conserver
l’anonymat des autres apprenants. Ceci sous-entend la
nécessité d’avoir plusieurs vues d’un même indicateur.
La multiplicité des graphiques pouvant être proposés
pour la visualisation des indicateurs, la spécialisation
des usages de ces graphiques et le souci d’assurer un
meilleur choix de visualisation pour une meilleure
compréhension et donc une meilleure interprétation
nous amène à essayer de répondre à cette question :
Comment adapter la forme de visualisation des
résultats de l’observation à la nature de l’indicateur ?
Dans quelles limites faut-il laisser à l’enseignant le
libre choix de personnalisation de la visualisation ?
Propositions
Les plateformes d’apprentissage sont manipulées par
différents acteurs : les tuteurs, les apprenants, les
enseignants/concepteurs, etc. où chaque acteur joue un
rôle bien précis dans le processus d’apprentissage.
Les acteurs de l’EIAH, le concepteur et le tuteur
notamment, expriment des besoins d’observation du
déroulement des sessions d’apprentissage pour
récupérer des informations pouvant servir dans un
objectif de réingénierie du scénario pédagogique,
d’adaptation ou d’évaluation.
4ièmes Rencontres Jeunes Chercheurs en EIAH
Le travail qui sera réalisé dans le cadre de notre
thèse va porter sur la proposition de modèles de
définition de stratégies d’observation et leur
instrumentation pour l’enseignant/concepteur. Pour
mener à bien ce travail et répondre aux questions
soulevées dans la problématique, plusieurs propositions
peuvent être faites :
Une première proposition concerne l’instrumentation
des utilisateurs de l’EIAH avec un tableau de bord
d’observation permettant de répondre à leurs objectifs
d’observation. Le tableau de bord ne doit pas avoir une
interface figée dans le temps mais l’éditeur de
stratégies à proposer devra permettre de générer
dynamiquement le tableau de bord et ce en fonction du
scénario de stratégie d’observation conçu par l’acteur
concerné par la demande d’observation. La génération
dynamique du tableau de bord se fera soit à la
modélisation d’une nouvelle stratégie d’observation
soit à l’adaptation ou à l’évolution d’une stratégie
d’observation spécifiée auparavant et capitalisée.
Une seconde proposition concernerait la méthode de
visualisation des indicateurs calculés. Pour cela, la
méthode de visualisation et les graphiques appropriés
pour chaque indicateur seront prédéfinis. Cette
prédéfinition sera basée sur le choix des graphiques qui
conviennent le plus à la nature de l’indicateur et qui
servirait mieux les objectifs ayant conduit au calcul de
l’indicateur. Une caractérisation des indicateurs sera,
du fait, nécessaire en apprenant, par exemple, leur
évolution en fonction du temps ou s’ils ciblent un
individu ou un groupe. Cette présélection des outils de
visualisation aura pour objectif d’apporter la meilleure
représentation possible dans le but d’une
compréhension facilitée pour les acteurs concernés.
Néanmoins, une palette de graphiques sera mise à la
disposition de l’enseignant pour lui permettre de
choisir une autre visualisation de l’indicateur. Un
travail de fond sera réalisé, au préalable, sur la
qualification des graphiques afin de faire une
association entre les graphiques et la nature des
indicateurs.
Une troisième proposition concerne la modélisation
d’assistants permettant à l’enseignant de définir sa
stratégie d’observation et de créer des modèles de
stratégies réutilisables. Le but de ses assistants est de
permettre à l’enseignant de se sentir guidé lors de la
modélisation de ses besoins d’observation. L’utilisation
des assistants s’avère nécessaire dans un but de
familiarisation et de prise en main par l’enseignant des
fonctionnalités de son éditeur de définition de
stratégies d’observation. L’enseignant peut toujours se
passer de l’utilisation de l’assistant.
Pour réaliser notre travail, nous allons suivre une
orientation DSM (Domain Specific Modeling) (Kelly et
Tolvanen 2008) qui est une approche outillée pour la
spécification de méta-modèles et de langages
graphiques. C’est une approche de développement
orientée modèles favorisant l’utilisation des modèles
pour la description de toutes les caractéristiques
91
Mohand Akli Ouali
propres à un domaine particulier lors du
développement de logiciels pour celui-ci. Le DSM
apporte à la communauté des enseignants/concepteurs
un environnement support pour la spécification
graphique des scénarios d’apprentissage (Laforcade et
al. 2007). Cette approche permettra d’augmenter le
niveau d’abstraction en comparaison aux langages de
programmation et d’automatiser la génération de code
pour l’application de tableau de bord.
Références
Avouris N., Fiotakis G., Kahrimanis G., Margaritis
M., Komis V. 2007. « Beyond logging of fingertip
actions: analysis of collaborative learning using
multiple sources of data », Journal of Interactive
Learning Research JILR. vol. 18(2), pp. 231-250.
Choquet C. and Iksal S. 2007. Modélisation et
construction de traces d’utilisation d’une activité
d’apprentissage : une approche langage pour la
réingénierie d’un eiah. Revue STICEF, Vol. 14.
Choquet, C. 2007. Ingénierie et réingénierie des
EIAH. L’approche REDiM. HDR, Université du
Maine, France
Damsa,
C.I.
&
Ludvigsen,
S.
(2010,
August/September). Learning Through Collaborative
Creation of Shared Knowledge Objects: Analytic
Challenges, Paper presented at the EARLI SIG6/7
conference, Ulm, Germany.
Després, C.; Coffinet, T. 2004. Reflet, un miroir sur
la formation. Communication in the International
Conference of Technologies de l’Information et de la
Connaissance dans l’Enseignement Supérieur et
l’Industrie. Compiègne, France.
Djouad, T., Settouti, L. S., Prié, Y., Reffay, C.,
Mille, M. (2010). Un système à Base de Traces pour la
modélisation et l’élaboration d’indicateurs d’activités
éducatives individuelles et collectives. Mise à
l’épreuve sur Moodle. In TSI. 29(6). P. 721-721.
Dyke, G., Lund, K & Girardot, J.-J. (2010). Tatiana,
un environnement d’aide à l’analyse de traces
d’interactions humaines. Revue des Sciences et
Technologies de l'Information - Série TSI : Technique
et Science Informatiques. 29 (10), p. 1179-1205.
France L., J.-M. Heraud, J.-C. Marty, T. Carron, and
J. Heili. 2006. Monitoring virtual classroom:
Visualization techniques to observe student activities in
an e-learning system. In The Sixth IEEE International
Conference on Advanced Learning Technologies
(ICALT2006), pages 716–720.
Georgeon O., Mille A., Bellet B.T. 2006. «
ABSTRACT: un outil et une méthodologie pour
analyser une activité humaine médiée par un artefact
technique complexe », Ingéniérie des Connaissances.
Semaine de la connaissance, Nantes, France.
Goodman B. A., Drury J., Gaimari R. D., Kurland
L., Zarrella J., Applying User Models to Improve Team
Decision Making, 2006, Retrieved April 10, 2008 from
http://mitre.org/work/tech_papers/tech_papers_07/06_1
351/
Greenhalgh C., A. French, J. Humble, P. Tennent,
"Engineering based replay application RDF and OWL
is "Online Proceedings of the UK e-Science All Hands
92
Meeting 2007, 10-13 September 2007, Nottingham:
NESC / JISC.
Iksal S (2011). Tracks Analysis in Learning
Systems: A Prescriptive Approach. International
Journal for e-Learning Security (IJeLS), Volume 1,
Issue 1/2, March/June 2011.
Kelly S. et Tolvanen J. (2008). Domain-specific
modeling: enabling full code generation. Wiley-IEEE
Computer Society Pr.
Laforcade P., Barré V. et Zendagui B. (2007).
Scénarisation Pédagogique et Ingénierie Dirigé par les
Modèles : Cadre d’étude pour la définition de langages
et environnements-outils de scénarisation pédagogique
spécifiques à des domaines. Actes de la conférence
EIAH 2007, Lausanne (Suisse).
Loghin, G.C. 2006. Aide à la compréhension du
comportement de l'utilisateur par la transformation de
traces collectées. RJCEIAH. France
May M. 2009. Utilisation des traces comme outils
réflexifs pour les apprenants et les enseignants à
distance
:
Application
aux
communications
médiatisées. Doctorat insa lyon,
Mazza, R.; Milani, C. 2004. GISMO: a Graphical
Interactive Student Monitoring Tool for Course
Management Systems. Communication in T.E.L.’04
Technology Enhanced Learning ’04 International
Conference. Milan, 18-19 November 2004.
Mazza, R.; Dimitrova,V. 2004. Visualising Student
Tracking Data to Support Instructors in Web-Based
Distance Education. In proceeding of the thirteenth
International World Wide Web ConferenceEducational Track, 154-161. New York, USA.
Morrison A., Tennent P., Chalmers M., «
Coordinated Visualization of Video and System Log
Data ». Proceedings of 4th International Conference on
Coordinated & Multiple Views in Exploratory
Visualization. London, 2006, 91-102.
Settouti L.-S., Prie Y., Mille A., Marty J –C. (2007).
Vers des Systèmes à Base de Traces modélisées pour
les EIAH. Rapport de recherche RR-LIRIS-2007-016.
Pernin J.-P. and Lejeune A. 2004. Dispositifs
d’apprentissage instrumentés par les technologies : vers
une ingénierie centrée sur les scénarios. In Colloque
TICE2004, Compiègne, France.
Pham Thi Ngoc Diem 2011. Spécification et
conception de services d’analyse de l’utilisation d’un
environnement informatique pour l’apprentissage
humain. Thèse de doctorat. Université du Maine.
Zendagui B. 2010. Support à la spécification des
besoins d’observation dans un contexte de réingénierie
des scénarios pédagogiques : une approche dirigée par
les modèles. Thèse de doctorat. Université du Maine.
Amiens – 23 et 24 mai 2012
POSTERS
4ièmes Rencontres Jeunes Chercheurs en EIAH
93
94
Amiens – 23 et 24 mai 2012
Ontologie pour la représentation des connaissances algorithmiques
Et la proposition de parcours d’enseignement.
Myriam Abdessemed
Laboratoire de Recherche en Informatique (LRI), Université Badji Mokhtar, BP 12, Annaba 23000, Algérie
[email protected]
Résumé
Ce papier présente notre contribution dans le projet
EIAH d’algorithmique, du laboratoire LRI, qui consiste
en la conception d’une Ontologie de savoirs et savoirfaire (compétences) algorithmiques, représentant la
nature même de cette matière. Ses connaissances
abstraites rendent son enseignement ainsi que son
apprentissage particulièrement délicat. L’apport des
ontologies est justement de fournir une forme et un
aspect concret aux connaissances du domaine. Nous
nous appuyons sur les ontologies et leurs spécificités
dans le but de concevoir un système tuteur qui intervient
particulièrement dans la négociation du ou des concepts
à proposer, lors d’une situation d’apprentissage.
Introduction
L'algorithmique est une discipline qui favorise,
notamment, l'acquisition d'une méthode de travail et de
réflexion, le développement des facultés d'analyse,
d'abstraction, d'anticipation et de logique. Elle est le
noyau de toute formation d’informaticiens. Elle est
également une matière qui a souvent été source de
problèmes pour l’enseignant et l’étudiant. Pour
l’enseignant, parce qu’il doit trouver les méthodes
adéquates pour faire assimiler des concepts assez
abstraits à des étudiants qui ne sont qu’à leur phase
d’initiation. Pour les étudiants la complexité du
problème est encore plus importante. On témoigne que,
de part le monde, entre 25 et 80% des étudiants dans un
cursus d’initiation à la programmation sont en situation
d’échec ou d’abandon. Au niveau de notre université, le
problème est encore plus éloquent. Le taux d’échec
alarmant est aux environs de 70% pour les étudiants de
2éme année Licence LMD. Nous soutenons qu’un usage
approprié des EIAH, avec des règles et stratégies
pédagogiques novatrices, une bonne représentation des
connaissances du domaine de l’algorithmique, une
indexation
sémantique des ressources et une
scénarisation des parcours d’apprentissage adaptée à
chaque profil, pourrait contribuer à l’amélioration de
son apprentissage.
Notre travail de recherche s’inscrit dans le cadre d’un
projet EIAH dédié à l’apprentissage de l’algorithmique,
qui vise à combattre la stéréotypie, la passivité, la
logique de l’échec…
4ièmes Rencontres Jeunes Chercheurs en EIAH
Ontologies et EIAH
Dans la galaxie des EIAH, les recherches se bousculent
pour tenter d’offrir des environnements complets,
répondant aux objectifs même de leur subsistance.
D’après Desmoulin (Desmoulins et Granbastien 2006),
l’apport spécifique de l’ingénierie ontologique pour les
EIAH est que l’IO fournit aux EIAH une représentation
structurée, explicite, partagée par une communauté
(agents humains ou artificiels), qui fait référence et qui
guide leur conception. Peut s’ajouter à cela qu’elle peut
leur fournir une représentation formelle, couplée à un
mécanisme d’inférence permettant, entre autres, à ces
environnements de raisonner (Psyché et al 2003).
Divers EIAH utilisent les ontologies pour :
•
Modéliser l’ensemble des connaissances du
domaine traité (l’Univers).
•
Les apprenants suivant plusieurs facettes
(préférences, connaissances…)
•
Annoter
et
indexer
des
ressources
pédagogiques suivant des types de métadonnées.
•
Les composantes d’une situation de tutorat.
•
ETC.
Motivation et Approche proposée
Ce travail entre dans le cadre du projet EIAH
d’algorithmique qui ambitionne l’amélioration de son
apprentissage (Bey et Bensebaa 2011), (Teimzit et al.
2011), (Bensalem et Bensebaa 2010). Il a comme
principal objectif de responsabiliser l’apprenant et de
l’amener à prendre conscience de ses insuffisances en
matière de connaissances pour comprendre, s’exercer au
raisonnement algorithmique pour mieux dénouer un
problème.
Dans toute activité, l’adoption d’une nouvelle méthode
de travail se fait en fonction des résultats positifs qu’elle
génère. Dans la perspective du Web sémantique, qui est
en voie de devenir une assise pour les environnements
de formation à distance, les ontologies offrent de façon
spécifique une sémantique riche, mieux que toute autre
méthode de représentation des connaissances (Psyché et
al 2003). Les acteurs (apprenants, concepteurs,
enseignants…) qui interagissent avec l’EIAH se
trouvent face au besoin de partager des informations.
Les ontologies se positionnent le mieux pour permettre
l’Interopérabilité, le Partage et la Réutilisabilité des
95
Myriam Abdessemed
connaissances du domaine.
Compte tenu de leurs caractéristiques, qui mettent en
relief leurs spécificités et originalités, nous nous
orientons vers le développement d’une ontologie
d’algorithmique (Savoir et Savoir faire) qui est au cœur
du système à réaliser, en exploitant justement les apports
des ontologies aux besoins des EIAH.
Cette ontologie aura pour rôle de:
• Proposer des parcours d’enseignement (prochain
concept à enseigner) en parcourant les relations
sémantiques
de
l’ontologie
orientées
apprentissage.
• Indexer
des
ressources
pédagogiques
algorithmiques sur les éléments de cette
ontologie, en particulier une base d’exercices en
vue d’en extraire des exercices d’entraînement à
proposer.
L’apprentissage dans un EIAH se déroule dans un
contexte fort différent de l’apprentissage traditionnel, où
les interactions humaines deviennent médiatisées
(Margarida Romero 2004).
Dans cet environnement où l’apprenant se retrouve seul
face à la machine, le tutorat devient donc d’une
importance majeure. Le tuteur doit s’appuyer sur le
modèle apprenant, des objectifs de formation et
principalement sur une famille de règles pédagogiques
qui soutiendront l’usage des relations sémantiques et
hiérarchiques de l’ontologie dans le choix du prochain
concept d’apprentissage, ou dans la négociation en cas
de conflit entre le système et l’apprenant (à l’aide des
systèmes de raisonnement) .
L’étape
de
conceptualisation
de
l’ontologie
d’algorithmique qui succède à l’étude comparative des
outils et langages d’exploitation des ontologies sous
OWL (SWRL, SPARQL…), est basée sur Methontology
de Gomez-Perez. Elle spécifie de façon très détaillée
cette
phase
(Spécification
des
besoins,
conceptualisation,
formalisation,codification).
ontologie est en cours d’évaluation, nous illustrons cidessus la hiérarchie des concepts déterminés.
Par la suite nous aurons à définir un ensemble de règles
pédagogiques et préciser les activités du tuteur selon
nos objectifs. Seront par la suite réalisées à des fins de
recherches sémantiques : l’indexation de ressources
algorithmiques (en entrée existantes) et la constitution
d’une base d’exercices indexés par les savoir-faire de
l’ontologie.
Conclusion
La majorité des étudiants en cours d’algorithmique,
rencontrent différentes contraintes, pouvant annihiler
leurs facultés de raisonnement et altérer leur confiance
en soi. Nous soutenons que le développement d’un
EIAH dédié pourrait remédier à ce problème. Une
ontologie de domaine de l’algorithmique qui aura pour
rôle de spécifier les concepts du domaine et d’expliciter
les relations entre ces derniers, est d’une importance
fondamentale dans un processus d’enseignement. Ceci
consiste à mettre à la disposition des acteurs de
l’environnement un ensemble de connaissances
partagées, réutilisables et essentiellement formelles en
vue de leurs manipulations future.
Références
Bensalem, H., and Bensebaa, T. 2010 “Contribution to
the improvement of learning algorithmic“ IETC 10th
International Educational Technology Conference,
Turkey Istambul.
Bey, A., and Bensebaa, T. 2011“An e-Assessment
Approach of Algorithmic Problem-Solving Skills “.
International Journal of Computer Applications
25(10):15-21. Published by Foundation of Computer
Science, New York,USA.
Desmoulins C., et Granbastien M. 2006. “Une
ingénierie des EIAH fondée sur des ontologies“. In
Environnements informatiques pour l'apprentissage
humain, Grandbastien M. et Labat J-M., p. 161-179.
Paris: Hermes sciences.
Psyché, V., Mendes, O., Bourdeau, J. 2003 “Apport de
l’ingénierie ontologique aux environnements de
formation à distance“ Université Fédérale à Paraiba –
Brésil.
Romero, M. 2004 “Métacognition dans les EIAH”
Exposé transversal. LIUM, le Mans.
Teimzit, A., Belhaoues, T., and Bensebaa, T. 2011
“Ontoalgo ontologie de domaine dans un EIAH
d’algorithmique“, 1st International Conference
Information Systems and Technologies, ICIST, 24 au 26
Avril 2011, Tébessa, Algérie.
Nous essayons de suivre ces étapes avec rigueur, cette
96
Amiens – 23 et 24 mai 2012
Assister la compréhension des problèmes algorithmiques
Taki Eddine BELHAOUES
Laboratoire de Recherche en Informatique (LRI), Université Badji Mokhtar, BP12, Annaba 23000, Algérie
[email protected]
Résumé
Tout environnement de résolution de problèmes doit
prendre en considération les difficultés
de ses
utilisateurs apprenants. Nous nous intéressons dans ce
travail aux moyens et techniques d’aide utiles,
pratiques et adéquats, qui pourront être mis à la
disposition d’un apprenant en situation de résolution de
problèmes algorithmiques afin de palier à la difficulté
de la lecture et de la compréhension d’énoncés.
Introduction
L’algorithmique constitue le cœur du domaine de
l’informatique. Elle représente en effet la manière de
penser et de concevoir la résolution des problèmes en
détaillant les opérations élémentaires à accomplir et la
méthode pour les combiner et les agencer afin
d’émerger la solution la plus optimale.
L’apprentissage de l’Algorithmique est essentiellement
constitué d’un processus de résolution de problèmes où
un apprenant sera mis face à un exercice qu’il devra
résoudre. Un tel scénario semble parfaitement conçu
pour diagnostiquer les difficultés et les manques de
l'étudiant et évaluer sa maîtrise des divers concepts.
Selon (Tardif 1992), pour que l'activité de résolution de
problèmes soit efficace, il faut s'assurer que l'étudiant
prenne une part active à l'élaboration de ses
connaissances. Il ne doit pas assister seulement à un
exposé de connaissances. À l'intérieur de ce processus,
l'enseignant a plusieurs rôles à jouer. Il doit fournir à
l'apprenant un contexte d'apprentissage qui favorise le
choix de l'information pertinente et la construction du
réseau de connaissances. Ce rôle nécessite parfois une
intervention plus explicite pour fournir à l'étudiant une
rétroaction sur le processus de la tâche au niveau des
connaissances à utiliser, des stratégies à choisir et de
l'exécution des procédures de résolution.
Concevoir un environnement dédié à la résolution de
problèmes algorithmiques aura tout à gagner de
l’intégration des services d’aides qui pourront être mis
à la disposition des apprenants.
Aide et types d’interventions système
Dans (Beaufils et al. 1998) l’aide est présentée comme
une notion qui peut avoir plusieurs interprétations en
regroupant un ensemble de termes plus vaste :
L'assistance à l'utilisateur comporte une prise en
charge partielle de la tâche. Cette assistance est le plus
souvent mise en œuvre par des agents qui effectuent
une partie de la tâche ou qui guident très fortement
l'utilisateur.
Le guidage consiste à accompagner l'utilisateur dans
l'accomplissement de la tâche, à commenter certaines
4ièmes Rencontres Jeunes Chercheurs en EIAH
de ces actions et à lui suggérer des actions susceptibles
de progresser dans la tâche ou d'améliorer son
efficacité. Ce qu'on a appelé aide intelligente relève
souvent du guidage, mais possède comme
caractéristique supplémentaire d'effectuer une analyse
relativement élaborée de l'activité de l'utilisateur et de
permettre une adaptation du contenu à ses besoins
particuliers.
Le conseil est analogue au guidage mais il ne
propose pas nécessairement la meilleure marche à
suivre ; il tient compte des imperfections de l'analyse et
produit des informations plutôt méthodologiques.
L'explication a pour fonction de détailler et
d'expliciter le fonctionnement ou le résultat d'une
action ou d'un raisonnement
(Blondel et al. 1997) présentent plusieurs systèmes
d'aide associés à des environnements d'apprentissage
conçus afin de dépasser le caractère insuffisant des
aides fonctionnels qui se limitent à une présentation
détaillée des outils ;
Dans (Schwob, Blondel 1998) l’environnement
interactif d’apprentissage développé intègre des outils
logiciels susceptibles d’aider les élèves dans les
activités de résolution de problèmes en chimie, une
aide principalement centrée sur les concepts. En effet,
les auteurs font l'hypothèse qu'une information
significative portant sur un concept, et apportée à un
élève en situation de manipulation ou de résolution,
c’est-à-dire au moment même de la mobilisation ou de
l’utilisation de ce concept, peut contribuer au processus
d’apprentissage.
(Guin-Duclosson et Nova 2002) présentent une
architecture pour un EIAH (Environnement
Informatique d’Apprentissage Humain) qui permet de
proposer plusieurs types d’aide à un apprenant en
situation de résolution de problèmes. Les aides
varieront selon le modèle et les préférences de
l’apprenant, comme rappeler à un apprenant des
connaissances théoriques sur le problème, expliquer
avec ces mêmes connaissances comment résoudre ce
problème, lui présenter un problème analogue qu’il a
déjà résolût, ou alors expliquer la solution de ce
problème analogue.
Aide à la lecture et compréhension des énoncés
(Blondel et al. 1997) présentent la résolution des
problèmes sous trois phases principales :
La phase d'analyse correspond au passage de
l'énoncé à une représentation explicite, souvent plus
formelle du problème ou de la situation décrite dans
l'énoncé.
La phase d'exploration au cours de laquelle l'élève
recherche les caractéristiques qui vont contribuer à la
97
Taki Eddine Belhaoues
résolution, est celle qui a été la plus largement étudiée
dans les environnements d’apprentissages à distance.
La phase de rédaction qui a pour but de produire une
trace lisible de la résolution, est celle qui est la plus
proche de l'activité scolaire habituelle.
Nous remarquons que tous les travaux présentés
précédemment ont apporté chacun à sa manière des
outils d’aide et d’assistance qui se situent
essentiellement dans les phases d’exploration et de
rédaction. Cependant, la phase d’analyse de l’énoncé
est souvent ignorée. Elle est non seulement la première
étape de tout processus de résolution de problèmes,
mais aussi celle qui va conditionner toutes les étapes
qui vont suivre.
Notre idée tourne autour des difficultés liées à la
lecture et la compréhension des énoncés qui, à notre
connaissance n’ont jamais été traitées auparavant.
Ces difficultés s’accoisent exponentiellement dans un
environnement d’apprentissage à distance. Un
apprenant qui se trouve détaché de son enseignant
pourra être conduit vers deux situations critiques dans
le domaine des environnements d’apprentissage :
La première est que l’apprenant se trouve bloqué
face à l’énoncé sans aucune option d’aide. Dans un
apprentissage en présentiel, cette situation peut être
esquivée par la présence de l’enseignant qui va
débloquer l’apprenant en apportant des explications,
éclaircissements et définitions lors de sa sollicitation.
Cependant, le résultat de ce blocage dans une situation
d’apprentissage à distance serait la perte et l’abandon
de cet apprenant.
La deuxième situation consiste en une mauvaise
lecture et compréhension de l’énoncé qui peut mener
l’apprenant à produire une solution erronée. Toutes les
actions entreprises suite à l’évaluation de cette solution
seront fondées sur un diagnostique floué et faussé par
cette mal compréhension de l’énoncé et ne seront par
conséquent adaptées et adéquates aux besoins de
l’apprenant.
Approche
Après l’étude des travaux réalisés sur l’axe de
l’assistance et l’aide à l’apprenant en situation de
résolution de problèmes. Nous proposons un modèle
d’assistance basé sur les ontologies.
Ce travail fait partie du projet de réalisation d’un
EIAH dédié à l’Algorithmique (Teimzit et al. 2011),
(Bey et Bensebaa 2011), (Bensalem et Bensebaa 2010).
Notre apport est le développement d’un modèle
d’assistance dans les situations de résolution de
problèmes basé sur les ontologies. Les aides proposées
seront mises à la disposition d’un apprenant en
situation de résolution de problèmes dans
l’environnement ALGO+ (Bey et Bensebaa 2011).
Chaque exercice proposé par l’enseignant sera décrit
par une ontologie de description de problème
algorithmique. Une base de règles heuristique sera
98
développée pour déterminer les aides adéquates selon
la description ontologique de l’exercice.
Conclusion
La phase d’analyse d’énoncés pendant la résolution des
problèmes dans les EIAH prend une place
prépondérante. Au cours de ce travail, le
développement d’un système d’aide pour les
apprenants dans les situations de résolution de
problèmes nous permettra de palier aux difficultés liées
à la compréhension des énoncés qui ont un effet négatif
sur la solution établie, et par conséquent, sur
l’évaluation et la correction des acquis de cet
apprenant.
Références
Beaufils, A. ; Blondel, F . M. ; Lenne, D. 1998. Aide,
conseil et explication dans les logiciels éducatifs (code
40117), Rapport de synthèse, INSTITUT NATIONAL DE
RECHERCHE PÉDAGOGIQUE, Technologies nouvelles
et Éducation.
Bensalem, H. and Bensebaa, T. 2010. Contribution to the
improvement of learning algorithmic In Proceedings of
the 10th International Educational Technology
Conference, Turkey Istambul.
Bey, A. and Bensebaa, T. 2011. Algo+, an assessment
tool for algorithmic competencies. In Proceedings of IEEE
Engineering Education 2011 Learning Environments and
Ecosystems in Engineering Education, EDUCON
Amman, Jordan. ISBN.
Bey, A. and Bensebaa, T. 2011. An e-Assessment
Approach of Algorithmic Problem-Solving Skills.
International Journal of Computer Applications
25(10):15-21,. Published by Foundation of Computer
Science, New York, USA.
Blondel, F . M. ; Schowb, M. ; Tarizzo, M. 1997.
Diagnostic et aide dans un environnement d'apprentissage
ouvert : Un exemple en chimie. SCHNAPS, STE – vol4,
no 4, 1997
Guin-Duclosson, N. and Nova, Nova. 2002. Utiliser des
connaissances abstraites ou contextualisées pour proposer
différents types d’aide. In Proceeding of Technologies de
l’Information et de la Communication dans les
Enseignements d’ingénieurs et dans l’industrie.
Schowb, M. ; , Blondel, F . M. ; Max, P. ; Ringard, A.
1998. Une aide centrée sur les concepts pour faciliter
l’apprentissage de la réaction chimique. In proceeding of
8èmes Journées Informatique et Pédagogie des Sciences
Physiques – Montpellier.
Tardif, J. 1992. Pour un enseignement stratégique,
l'apport de Ia psychologie cognitive. Montréal, Editions
Logiques.
Teimzit, A. ; Belhaoues, T. ; Bensebaa, T. 2011.
Ontoalgo : ontologie de domaine dans un EIAH
d’algorithmique. In Proceedings of the 1st International
Conference in Information Systems and Technologies,
ICIST, Tébessa, Algérie
Amiens – 23 et 24 mai 2012
Hypermédia adaptatif à épistèmes
pour l'apprentissage des langages de programmation
Pascal Ortiz
Laboratoire STEF, ENS-Cachan, 61 avenue du Président Wilson F-94235 Cachan cedex
[email protected]
manuel de référence.
Résumé
Les langages de programmation (LP) sont des outils
puissants dont l'apprentissage et la maîtrise
nécessitent des années. Aucun accompagnement
informatique n'offre actuellement une couverture
large et approfondie de l'apprentissage des LP.
L'objectif est de proposer un modèle d'hypermédia
adaptatif, basé sur le modèle cognitif proposé par la
théorie de la charge cognitive. Ce modèle est basé
sur une segmentation très fine du corpus de
connaissance.
Introduction
L'apprentissage de la programmation avec des
langages informatiques est difficile, en particulier
chez les apprenants novices (Robins et al. 2003). Les
ressources pour un apprentissage en autonomie d'un
curriculum
de
programmation
consistent
essentiellement en une transposition au format
pdf/html du corpus imprimé. Ces hypermédias ont
des fonctionnalités assez sommaires de navigation
(renvoi, index, table des matières), l'interactivité,
l'adaptativité et le guidage y sont inexistants, toute
mise à jour ou correction est impossible et le recours
au multimédia est limité. La progression est linéaire
et contraignante : pour accéder à une connaissance
exposée, l'apprenant doit, a priori, avoir parcouru
toutes celles qui la précèdent dans le document.
De nombreux hypermédias pour l'apprentissage d'un
LP ont été modélisés, voire expérimentés, mais leurs
ambitions de contenu sont souvent très réduites
(niveau, durée de l'apprentissage, nombre faible
d'apprenants) et leur utilisation reste confidentielle et
non coordonnée. L'unique système pérenne (né en
1998), et d'adoption vraiment large, est BlueJ
(Kölling 2008) ; il ne s'agit pas d'un système tutoré
mais d'un IDE pour débutants qui a évolué vers une
plate-forme pédagogique.
Le but du présent travail est de permettre
l'élaboration d'un hypermédia adaptatif (HA) des LP,
utilisable en autonomie ou en accompagnement d'un
enseignement et dont les objectifs premiers sont : i)
couvrir un champ très important du langage, ii)
s'adresser à un spectre large d'apprenants, iii) offrir un
continuum interactif entre guide d'apprentissage et
4ièmes Rencontres Jeunes Chercheurs en EIAH
Les Trois Concepts
Le modèle de domaine que nous proposons est du
type modèle en réseau de prérequis (Brusilovsky et
Millán 2007). Notre modèle est fondé sur les trois
concepts suivants : i) l'unité épistémique, ii) le graphe
des matières, iii) le rasoir d'Occam. Une unité
épistémique est un segment de connaissance de très
petite dimension, qui a été isolé du corpus de
connaissances à exposer. Le graphe des matières
définit les relations de prérequis entre deux unités
épistémiques. Le principe de délimitation de chaque
unité est le principe de parcimonie dit du « rasoir
d'Occam ».
Dans les exemples suivants, on se réfère au langage
Python. Admettons disposer d'un découpage du
domaine de savoir en un ensemble d'unités de
connaissance, de taille très réduite par rapport au
corpus global (unités épistémiques ou UE). Le contenu
d'une UE peut être de type très varié, à caractère
conceptuel (l'itération par exemple), procédural (le
schéma d'une boucle while), déclaratif (l'évolution des
versions d'un langage), pratique (références
bibliographiques), etc. Par exemple, on pourrait
considérer une UE de l'apprentissage du langage
Python intitulée : « Les booléens ». Cette unité doit
répondre à la problématique didactique suivante : i)
faire prendre conscience de la notion de valeur de
vérité, ii) exposer par un exemple très simple la
réalisation des booléens en Python, iii) préciser les
contraintes d'édition (les majuscules) des constantes
booléennes.
Le Rasoir d'Occam et ses Conséquences
Le principe fondamental de délimitation du contenu
d'une UE est le principe de parcimonie d'Occam.
Lors de l'exposition d'un contenu d'apprentissage, on
suppose acquises par l'apprenant les connaissances
nécessaires au traitement logique et à l'assimilation
cognitive du contenu à exposer, et seulement ces
connaissances-là. Ce principe est la réponse
essentielle à la surcharge d'exposition.
La dépendance entre les UE (cf. figure 1) traduit
d'abord une nécessité d'ordre logique : par exemple,
pour utiliser une instruction if,
if l'apprenant doit savoir
ce qu'est un booléen. Mais la dépendance peut aussi
être d'ordre pédagogique : l'unité « Valeur de vérité
d'objets quelconques » va dépendre directement de
99
Pascal Ortiz
l'unité « Instruction if » car cette dernière servira à
illustrer la notion vérité d'un objet non booléen ; ici,
la dépendance n'est pas d'ordre logique.
Un
langage
de
programmation
produit
fondamentalement du code-source. Ainsi, pour
constituer les UE, le développeur de contenus
analysera puis décomposera un corpus de codessource. Il s'agit d'un matériel tangible. La construction
du graphe des matières suit un procédé assez proche de
l'heuristique décrite dans (Sosnovsky et Gavrilova
2005) : une unité est extraite par une succession de
procédés descendants et ascendants.
Un HA à épistèmes permet de générer
automatiquement des parcours très fins d'apprentissage
mais surtout optimisés : le système peut calculer, à
partir des connaissances actuelles de l'apprenant et d'un
objectif défini par l'apprenant ou un tuteur, la totalité
du sous-graphe des unités
utiles, et proposer ainsi une
linéarisation cohérente et
optimale parmi tous les
parcours possibles.
été constitués : un pool d'environ 300 UE pour une
introduction au langage Python et un pool de 150 UE
traitant du sous-domaine plus avancé des expressions
régulières en Python. Un générateur de parcours a
été implémenté. Le contenu des UE est saisi dans un
langage de balisage léger (reST), convertible en XML.
Un générateur de documentation html/pdf est en
cours de réalisation. Le dispositif doit être complété
par i) la réalisation d'une interface graphique assurant
la navigation dans un espace de plusieurs centaines
d'UE, ii) un module de fouille évoluée permettant
d'extraire des informations à la fois fines (par ex. du
code-source) et génériques, autorisant un modèle
riche de l'apprenant.
Enfin, il est envisagé
d'incorporer dans l'hypermédia un certain nombre
d'éléments de la théorie de la charge cognitive
(Chanquoy et al. 2007).
Avantages et
Inconvénients
Une documentation à UE
présente
les
avantages
suivants :
− Prise en compte des
connaissances préalables
de l'apprenant, ce qui est
un point capital dans la
compréhension d'un texte
(Kintsch 1998).
Figure 1 : Les successeurs de l'UE « Les booléens »
− La limitation de la charge cognitive. La théorie de
la charge cognitive (Chanquoy et al. 2007) a
montré que la limitation de la charge cognitive est
un point déterminant dans l'acquisition de
connaissances. Le principe d'économie du rasoir
d'Occam optimise la charge cognitive intrinsèque.
− Meilleur contrôle des difficultés d'apprentissage
grâce à la granularité faible des UE. C'est un
facteur essentiel d'adaptativité.
− Extensibilité et robustesse : le système s'étend par
simple ajout d'unités épistémiques, et le contenu
d'une unité peut être modifié tant que son interface
est préservée.
Une documentation épistémique pose néanmoins
quelques difficultés : risque d'atomisation des
contenus, difficulté à intégrer des contenus ayant de
très nombreuses dépendances, risque de duplication de
contenus d'apprentissage, difficulté à recomposer des
contenus sans altérer l'ensemble des dépendances.
Perspectives, faisabilité
Références
Brusilovsky, P. ; and Millán, E. 2007. User Models
for Adaptive Hypermedia and Adaptive Educational
Systems. Lecture Notes in Computer Science
4321:3-53
Chanquoy, L.; Tricot, A.; et Sweller, J. 2007. La
charge cognitive. Armand Colin.
Kintsch, W. 1998. Comprehension, A Paradigm for
Cognition. Cambridge University Press.
Kölling, M. 2008. Using BlueJ to Introduce
Programming. Lecture Notes in Computer Science
4821:98-11.
Robins, A.; Rountree, J.; and Rountree, N. 2003.
Learning and Teaching Programming: A Review and
Discussion. Computer Science Education 13(2):137172.
Sosnovsky S.; and Gavrilova T. 2005. Development of
Educational Ontology for C-Programming. Int.
Journal Information Theories & Applications 13:303308.
Deux pools d'UE, complétés de leurs graphes des
matières, et s'adressant à des publics différents, ont
100
Amiens – 23 et 24 mai 2012
Gamification d’environnement informatique
Alain Simac-Lejeune
Docteur de moins d’un an
Litii, 15 rue Saint Exupéry, Alpespace, 73800 Françin, France
[email protected]
Résumé
Depuis quelques années, « les serious games » et les
« learning role-playing games » s’insèrent dans le
paysage des entreprises et des dispositifs de formation
grâce à leurs effets reconnus sur l’engagement. Cet
engagement est directement lié aux mécanismes de jeu
introduit et il est possible de créer cet engagement en
dehors de jeu en insérant ces mécanismes dans
n’importe quel environnement informatique : c’est le
processus de Gamification. Nous proposons dans cet
article de revenir sur le concept du Flow (l’état de
l’utilisateur), de définir la Gamification et ses règles
puis de l’appliquer à un système basique d’EIAH, avec
pour objectif la conception d’une approche générique de
gamification d’un système informatique.
Introduction
Le secteur de la formation a de plus en plus
fréquemment recours à des dispositifs utilisant le jeu
notamment pour ses effets reconnus sur l’engagement
des participants (Gee 2003) qui est un des facteurs clés
de la réussite d’un apprentissage. L’utilisation de
l’informatique pour l’apprentissage et l’enseignement se
développe et évolue sous le coup de différents facteurs
inter-reliés comme la poussée technologique (faible coût
des technologies, facilité et banalisation de leurs
usages), l’évolution des connaissances scientifiques, la
demande sociale ou encore l’évolution des pratiques des
enseignants et des élèves. Une pratique émergente est
l’utilisation du jeu dans les processus pédagogiques. Les
« serious games » est définit (Alvarez, 2006) comme un
logiciel combinant une intention sérieuse de type
pédagogique, informative, d’entrainement avec des
ressorts ludiques. Leur approche a permis de créer de
nouveaux
processus
pédagogiques
basés
sur
l’acquisition de compétences dans des jeux scénarisés.
Cependant les « serious games » restent des jeux et il
n’est pas forcément possible de transformer toute
activité en jeux. Une alternative est la gamification qui
consiste à introduire des mécanismes de jeu dans un
système classique.
Depuis 2006, l’approche « serious games » (Marty
2011) a permis de combiner une intention sérieuse de
type pédagogique, informatique, communicationnelle,
marketing, idéologique ou d’entraînement avec des
ressorts ludiques permettant de créer de l’engagement.
Mais bien que les serious games et la gamification aient
la même vocation, rendre attrayant la dimension sérieuse
par une forme une interaction, des règles et
éventuellement des objectifs ludiques ; ils se
4ièmes Rencontres Jeunes Chercheurs en EIAH
différencient également fortement par l’objet même du
système. Les serious games représentent un jeu alors
que la gamification consiste à apporter une dimension de
jeu dans un système qui n’en est pas un au départ.
La Gamification ou Ludification
On définit la gamification (ou ludification) comme le
transfert des mécanismes de jeu à d’autres domaines
notamment les sites web, les situations d’apprentissage,
les situations de travail ou les réseaux sociaux. Son
objectif est l’augmentation de l’acceptabilité et l’usage
d’applications en s’appuyant sur la prédisposition
humaine au jeu (Zichermann 2011). Pour (Kim 2000), la
gamification se résume à cinq caractéristiques
principales : collectionner, gagner des points, intégrer un
mécanisme de rétroaction, encourager les échanges entre
joueurs et permettre la personnalisation du service. Le
processus de gamification s’effectue en insérant des
mécaniques et dynamiques spécifiques au jeu dans un
système de vie réelle :
• les points qui permettent la gratification ;
• les niveaux qui permettent l’obtention de statut ;
• les challenges qui permettent la réalisation ;
• les badges stimulant la créativité ;
• les classements pour créer la compétition ;
• le don ou l’échange pour favoriser l’altruisme.
Le système n’est pas un jeu mais un service stimulé par
des mécaniques de jeu. Au final, pour gamifier, il faut
placer au centre du système des éléments à explorer ou à
maitriser et y insérer des mécaniques de jeu. Dans le
cadre d’un environnement d’apprentissage, la phase de
découverte et de maitrise de l’outil proposé pourrait être
gamifiée.
L’Etat de Flow
Figure 1 : Rapport entre compétences et niveau de difficulté
pour l’état du flow.
101
Alain Simac-Lejeune
Les mécaniques de jeu peuvent sembler rapidement
artificielles et inintéressantes (accumuler des point par
exemple). Il est donc nécessaire d’avoir une moyen de
rendre régulièrement attractif le système : c’est le
concept fondamental du Flow (figure 1) qui a été
théorisé par le psychologue positiviste Mihaly
Csikszntmihalyi dans (Csikszntmihalyi 1996). C’est un
état quasi hypnotique durant lequel la personne se
consacre entièrement et aveuglement à la tâche qu’elle
réalise en perdant la notion du temps et en connaissant
un profond sentiment de réussite et de dépassement.
Dans un jeu, cet état correspond à la situation où les
compétences attendues par un joueur sont exactement en
correspondance avec le challenge. En augmentant
constamment le niveau de challenge et les capacités, le
joueur connaît la sensation de dépassement perpétuel.
Exemple : la Prise en Main d’un EIAH
La première étape de nombreux EIAH est une phase de
découverte et de prise en main de l’outil par l’utilisateur.
Cette étape est réalisée de manière didactique la plupart
du temps parfois légèrement ludique notamment dans
les approches « serious games ». L’approche proposée
consiste à construire cette phase de découverte en
intégrant des mécanismes de jeu et une progression
(challenge) dans l’acquisition des compétences. Il faut
distinguer deux étapes dans le processus de gamification
du système : la définition des tâches à maîtriser ou
compétences à acquérir (les objectifs) et la définition des
éléments de la mécanique du système gamifié (les
moyens de réaliser ces objectifs). Dans notre démarche,
le but du processus est d’être autonome dans l’utilisation
du système. Pour cela, il est nécessaire d’accomplir un
certain nombre d’objectifs prédéfinis à difficulté
croissante et d’atteindre un statut « autonome ».
Définition du système d’EIAH utilisé
Le logiciel “Ambre” est un environnement informatique
pour l'apprentissage humain (EIAH) utilisé pour des
situations pédagogiques informatisées (SPI). Il a été
développé par l’équipe SILEX du laboratoire LIRIS de
Lyon (Guin-Duclosson 2011). Il a pour objectif de faire
émerger des apprentissages chez l'apprenant et de
l'amener à résoudre des problèmes de didactique des
mathématique par Raisonnement à Partir de Cas (RàPC).
Le système est composé de 5 étapes : lecture d’énoncé,
réécriture de problème, choix de modèle, rédaction de
solution et rangement du problème dans une classe
donnée.
Proposition de fonctionnement
Pour faire évoluer le système à travers une approche de
gamification, on introduit les mécanismes de jeu
présentés. L’état de Flow est conservé par
l’augmentation progressive de la difficulté des
opérations à réaliser. Le gain de point est obtenu par la
réalisation des étapes d’exercices, par la résolution
d’exercices, par barème concernant la rapidité
d’exécution, par évaluation de l’évolution de la rapidité
d’exécution. Il est possible de perdre des points
102
notamment lorsqu’on utilise l’aide ou lorsque le temps
d’exécution est important. Les points permettent
d’obtenir des statuts au nombre de 4 (débutant,
découvreur, confirmé, et apprenant). Le but étant
d’obtenir le statut d’apprenant pour être un utilisateur
autonome du système. Dans une première version, nous
proposons de définir 20 challenges allant d’actions
basiques comme « lire un énoncé » à des plus difficiles
comme « résoudre un exercice de niveau 2 » ou à des
actions récurrentes/répétitives comme « résoudre un
exercice au moins, 3 jours de suite ». Ces challenges et
les statuts permettent l’obtention de 10 badges comme
« Apprenant ». A la fin de chaque exercice ou à la fin
d’une séquence (groupe d’exercices), un classement
basé sur les points obtenus dans un statut donné ou tout
statut confondu est proposé. Des challenges pourraient
être proposés concernant la position dans le classement
ou l’évolution du classement entre deux séquences.
Conclusions et Perspectives
Nous avons proposé d’utiliser une approche de
gamification dans le cadre de la prise en main d’un
EIAH.
La
gamification
est
un
processus
particulièrement intéressant dans la découverte,
l’exploration ou la recherche de maitrise d’un système et
se prêt donc bien à la phase de découverte d’un EIAH.
C’est une alternative particulièrement intéressante pour
les EIAH qui ne reposent pas sur une approche « serious
games ». Mais c’est surtout une approche d’avenir qui,
comme l’affirme Jane McGonigal (McGonigal 2011),
est un moyen de rendre les gens heureux mais surtout de
les inspirer à collaborer pour résoudre des problèmes.
Ce dernier point représente une perspective majeure
pour les EIAH. La gamification serait peut-être une
solution pour permettre de construire des systèmes
d’apprentissage collaboratifs.
Références
Alvarez, J, Djaouti, D. : Introduction au Serious Game,
Questions théoriques, p.22-29, 2010.
Csíkszentmihályi, M. eds.1996. Creativity: Flow and the
Psychology of Discovery and Invention, New York:
Harper Perennial.
Gee, J.P. What video games have to teach us about
learning and literacy. Palgrave Macmillian, 2003.
Guin-Duclosson N., Jean-Daubias S. et Nogry S. : « Le
projet AMBRE : utiliser le RàPC pour enseigner des
méthodes », Atelier RàPC’2011, P.17-21.
Kim, A.J. eds 2000. Community Building on the Web :
Secret Stragetgies, Peachpit Press.
Marty, JC. And Carron T. eds 2011: Hints for Improving
Motivation in Game-Based Learning Environment,
Chapter of Handbook of Research on Increasing
Motivation and Learning, IGI Global.
McGonigal, J. eds 2011: Reality is Broken, Penguiun
Press HC.
Zichermann, G. and Cunningham, C. eds 2011:
Gamification by Design: Implementing Game
Mechanics in Web and Mobile Apps. O’Reilly Media.
Amiens – 23 et 24 mai 2012
Mes notes
Mes notes
Mes notes
Mes notes
Mes notes
Mes notes
https://eiah.mis.u-picardie.fr/rjceiah/
RJC EIAH’2012
Actes des
4ièmes rencontres des
Jeunes Chercheurs
en Environnements Informatiques
d’Apprentissage Humain
Amiens
23 & 23 mai 2012
Édités par Thibault Carron et Céline Joiron
4ièmes Rencontres Jeunes Chercheurs en EIAH
i
ii
Amiens – 23 et 24 mai 2012
Introduction
Les quatrièmes Rencontres Jeunes Chercheurs sur les Environnements Informatiques pour l’Apprentissage
Humain (RJC-EIAH 2012) se tiennent à Amiens les 23 et 24 mai 2012. Organisée tous les deux ans, cette
conférence francophone parrainée par l’ATIEF (Association des Technologies de l'Information pour
l'Éducation et la Formation) a pour objectif la promotion de la recherche et la formation des étudiants
chercheurs. Ces journées visent à donner l’occasion aux jeunes chercheurs du domaine de se rencontrer
pour présenter et échanger sur leurs travaux, entre eux et avec des chercheurs confirmés.
Nous avons reçu 31 propositions de communication pour les rencontres. Ce nombre assez satisfaisant est
toutefois en baisse par rapport à 2010 (38 soumissions) et reste à la hauteur du niveau de 2008. Les
rencontres jeunes chercheurs représentent néanmoins une occasion unique d’échange et sont donc
largement plébiscitées par la communauté EIAH en général et les jeunes chercheurs en particulier.
Chaque soumission a au moins été examinée par 2 relecteurs (3 pour quelques-unes), chacun mettant un
point d’honneur à proposer des critiques constructives. Le comité de programme a retenu 15 travaux pour
une présentation orale et article long et 12 pour une présentation sous forme de poster et papier court. La
plupart des articles acceptés proviennent de France mais d’autres pays sont également représentés :
Algérie (6), Ile Maurice (1), Maroc (1) et Tunisie (2). Lors de la sélection, la plupart des travaux ont donné
lieu à un avis relativement proche de la part des relecteurs ; seuls quelques articles ont suscité des débats.
Comme demandé, le comité de programme s’est efforcé d’évaluer les travaux soumis en fonction de
l’avancée de la thèse. Ainsi, un travail en fin de thèse a été évalué avec les critères scientifiques habituels
(problématique, méthodologie, références aux autres travaux, validité des résultats, etc.) et le niveau
d'exigence était finalement proche de celui d'une conférence nationale. Pour un travail de début de thèse,
le comité de programme n’a pas cherché à évaluer les résultats mais s'est attaché à mesurer l'originalité du
travail, l'intérêt pour la communauté et la capacité à présenter clairement le travail. Au final, un bon
équilibre s’est fait dans la sélection. Par exemple, les articles longs retenus ont été écrits par 6 étudiants en
1ère année, 2 étudiants en 2ème année, 5 étudiants en 3ème année et 2 étudiants ayant plus de 3 années
de thèse.
Le champ scientifique des EIAH touche différentes disciplines que nous appelons traditionnellement toutes
à soumettre afin de favoriser les rencontres et des collaborations fructueuses. L’informatique est, cette
année encore, majoritairement représentée avec seulement 7 soumissions en Science de l’éducation et 2
en SHS. Les efforts doivent donc encore et toujours être poursuivis dans le sens de la pluridisciplinarité.
Ces rencontres sont aussi l’occasion d’observer les tendances thématiques et les préoccupations de
recherche de la communauté. Les questions d’ingénierie et de conception des EIAH sont bien présentes
mais on voit apparaître plusieurs soumissions concernant le TAL (2), les Jeux sérieux (Serious Games) (2) et
les ontologies (2). Les traces d’activités et d’interactions ainsi que les indicateurs sont toujours un thème
important pour la communauté (5). La conception des scénarios pédagogiques est également une
thématique bien représentée (4 soumissions). Vous retrouverez ces thématiques (et bien d’autres) au fil
des sessions. La session « posters » illustre également la variété des travaux, chaque auteur ayant eu pour
consigne d’expliciter le cœur de sa thématique et les apports spécifiques (avérés ou attendus) de sa thèse.
Ne manquez pas de lire les articles de 2 pages proposés en support à la compréhension du poster.
La conférence invitée de Patrick Felicia (Waterford Institute of Technology, Ireland) ouvre les journées par
4ièmes Rencontres Jeunes Chercheurs en EIAH
iii
une analyse sur le sujet émergent que représente les Serious Games et de prendre conscience des liens
qu’ils offrent avec toutes les thématiques citées précédemment. Les journées font également place à
l’information et aux conseils de la Communauté aux jeunes chercheurs relativement à la demande de
qualification auprès du CNU, aux publications dans la revue STICEF et plus généralement à l’évaluation des
chercheurs au travers de leurs publications.
Pour finir, nous remercions les membres du comité de programme (47 personnes, STIC ou SHS) qui ont fait
des commentaires souvent très détaillés afin d’aider au mieux les doctorants, les membres du comité
d’organisation qui ont tout mis en œuvre pour la réussite de ces journées ainsi que tous les chercheurs
confirmés qui viennent contribuer à la richesse des discussions. Nous remercions également l’ATIEF et les
différents sponsors pour leur soutien, ainsi que l’Université de Picardie Jules Verne et le laboratoire
Modélisation, Information et Systèmes (MIS) pour nous accueillir cette année. Enfin, nous remercions les
jeunes chercheurs en EIAH sans qui ces journées n’existeraient pas !
iv
Amiens – 23 et 24 mai 2012
Table des matières
Introduction
................................................................................................................................................................................ iii
Table des matières
................................................................................................................................................................................. v
Conférence invitée ............................................................................................................................ vii
Game-Based Learning: Understanding games from a multidisciplinary perspective
PATRICK FELICIA .................................................................................................................................................. vii
Articles longs ...................................................................................................................................... 1
Opérationnalisation de scénarios pédagogiques : une approche DSM centrée LMS
Aymen Abedmouleh ................................................................................................................................................ 3
Le TAL pour l’analyse de contenus d’interactions et de productions dans la formation en ligne
Alexandre Baudrillart .............................................................................................................................................. 9
Interprétation des traces d’interaction dans un EIAH par appariement structurel
Mohamed Besnaci ................................................................................................................................................. 15
Une approche basée sur les Patrons centrée Enseignant pour la scénarisation pédagogique
Jean-Pierre Clayer ................................................................................................................................................. 21
Manifestation culturelle du numérique
Thierry Danquigny ................................................................................................................................................ 27
Conception d’un système de dialogue intelligent pour jeux sérieux
Franck Dernoncourt ............................................................................................................................................... 33
Analyse automatique de codes informatiques pour l’aide à l’enseignant
Loïc Février ........................................................................................................................................................... 39
Similarités sémantiques et contextuelles pour l’apprentissage informel en mobilité
Pierre-Yves Gicquel .............................................................................................................................................. 45
Developing adaptive intelligent tutoring system
Mohamed Hafidi.................................................................................................................................................... 51
Ergonomic Study of Existing Project-Based Learning Management System
Ji Min..................................................................................................................................................................... 57
Une approche orientée indicateurs pour supporter les activités du tuteur
Aina Lekira ............................................................................................................................................................ 63
Acquisition interactive de connaissances pédagogiques pour la personnalisation d'EIAH dans le cadre de la formation à
distance
Bruno Mascret ....................................................................................................................................................... 69
Vers une mise en relation des activités d’édition et de navigation dans les ressources d’apprentissage : cas de
l’apprentissage d’un langage de programmation
Mahdi Mile ............................................................................................................................................................ 75
4ièmes Rencontres Jeunes Chercheurs en EIAH
v
Intégration de raisonnements automatiques dans le système d’annotation MémoNote
Hakim Mokeddem ................................................................................................................................................. 81
Modélisation outillée d’une stratégie contextualisée d’observation dans le cadre d’un environnement d’apprentissage
Mohand Akli Ouali ................................................................................................................................................ 87
POSTERS ......................................................................................................................................... 93
Ontologie pour la représentation des connaissances algorithmiques Et la proposition de parcours d’enseignement.
Myriam Abdessemed ............................................................................................................................................. 95
Assister la compréhension des problèmes algorithmiques
Taki Eddine Belhaoues .......................................................................................................................................... 97
Hypermédia adaptatif à épistèmes pour l'apprentissage des langages de programmation
Pascal Ortiz............................................................................................................................................................ 99
Gamification d’environnement informatique
Alain Simac-Lejeune ........................................................................................................................................... 101
vi
Amiens – 23 et 24 mai 2012
Game-Based Learning: Understanding games from a
multidisciplinary perspective
Patrick Felicia
[email protected]
Abstract
This keynote will describe the multidisciplinary aspect of the research currently conducted in Game-Based learning, and
the impact video games can have from different perspectives including psychology and education. The author will also
present an overview of the current state of the art in the field of Game-Based Learning. The keynote will highlight key
findings, current challenges faced by both GBL researchers and practitioners, provide a summary of best practices for
the integration of GBL in instructional settings, and identify a road map for GBL research.
4ièmes Rencontres Jeunes Chercheurs en EIAH
vii
viii
Amiens - 23 et 24 mai 2012
ARTICLES LONGS
4ièmes Rencontres Jeunes Chercheurs en EIAH
1
2
Amiens – 23 et 24 mai 2012
Formalisation du langage de conception pédagogique
implicite d’un LMS : motivations et processus
Aymen Abedmouleh
LIUM, Avenue Olivier Messiaen, 72085 LE MANS CEDEX 9, France
[email protected]
Résumé
Les utilisateurs des LMSs/plateformes de formation à
distance et en particulier les enseignants-concepteurs
rencontrent de nombreuses difficultés pendant la
spécification de leurs cours ou de leurs scénarios
pédagogiques. Ces difficultés traduisent le besoin de
travaux de réingénierie ou de nouvelles approches de
conception plus adaptées à leurs pratiques. Notre
travail de recherche consiste à faciliter la conception et
la mise en œuvre de scénarios pédagogiques sur les
LMS. Nous proposons une nouvelle approche de
conception basée sur le métier de conception
pédagogique embarqué dans les LMS. Dans cet article,
nous proposons un processus original d’identification et
de formalisation de ce métier. Celui-ci s’appuie sur
deux points de vue complémentaires : le point de vue
IHM principalement basé sur l’analyse des interfaces
du LMS, et le point de vue technique basé sur des
méthodes d’analyses du LMS en tant que système
informatique. Nous proposons ensuite d’exploiter le
langage formalisé comme base pour la spécification de
langages et outils graphiques externes. Ces outils
permettront aux enseignants-concepteurs de se
concentrer sur la conception pédagogique propre à la
plateforme considérée mais à un niveau d’abstraction
suffisant. Le processus est illustré par des extraits
(forum et discussion) d’expérimentations menées sur la
plateforme Moodle.
Introduction
Les enseignants et les concepteurs rencontrent
aujourd’hui des difficultés pendant la conception et la
mise en œuvre de leurs situations d’apprentissage sur
les LMS (Learning Management System) ou
plateformes de formation à distance (Ortiz et al. 2009).
Pour configurer leurs situations d’apprentissage, ils
doivent gérer et s’approprier les différents écrans et les
différentes interfaces basées principalement sur des
formulaires. Aujourd’hui, plusieurs standards comme
IMS-LD et SCORM (Tattersall et al. 2005), plusieurs
approches comme l’approche de patrons de conception
(Baggetun et al. 2004), plusieurs langages de
modélisation pédagogiques comme PALO (Artacho et
Maíllo 2004), et plusieurs outils comme e-LD (Ortiz et
al. 2009) sont proposés pour faciliter la conception
pédagogique. Cependant, de nombreux obstacles
rencontrés par les enseignants-concepteurs concernent
principalement : (1) les difficultés de spécification des
scénarios directement sur les LMSs et (2) les difficultés
4ièmes Rencontres Jeunes Chercheurs en EIAH
de retranscription des concepts d’un scénario spécifié à
l’extérieur des LMS avec ceux proposés par le LMS.
Dans la section 2, nous présentons un aperçu des
problématiques traitées. La section 3 présente notre
approche dédiée à la conception pédagogique centrée
LMS. Ensuite, nous détaillons, dans la section 4, le
processus d’identification et de formalisation des
langages de conception pédagogique de plateformes.
La section 5 présente un extrait de nos
expérimentations portant (1) sur l’identification du
métier de conception pédagogique d’un forum sur
Moodle, (2) l’ajout des fonctionnalités d’import/export
à cette plateforme et (3) le développement d’un éditeur
graphique basé sur le langage de conception de
Moodle. Enfin, nous concluons en présentant les
travaux actuels.
Problématique et Positionnement
Dans nos travaux, nous abordons deux
problématiques principales. La première concerne la
spécification des scénarios sur les LMSs tandis que la
deuxième concerne les difficultés d’implémentation des
scénarios pédagogiques spécifiés en dehors des LMSs.
Nous supposons que les LMSs embarquent un
paradigme de conception pédagogique qui lui est
propre. Cependant, les praticiens-concepteurs ne sont
pas familiers avec ce domaine implicite de conception
pédagogique. La spécification d’un cours sur les LMSs
est basée principalement sur des interfaces à base de
formulaires. Elle porte sur le paramétrage de nombreux
paramètres de ces formulaires qui sont parfois
optionnels ou des détails techniques à un niveau très
bas. Ces difficultés engendrent souvent une exploitation
minimale des LMS comme un espace de partage de
ressources pédagogiques (Steel 2009).
La
deuxième
problématique
est
due
à
l’incompatibilité entre le langage de conception et le
langage d’opérationnalisation (le langage implicite du
LMS). Cet écart entre les deux langages pénalise le
processus de transformation de scénarios. Plusieurs
travaux (Abdallah et al. 2008) consistant à retranscrire
les scénarios ont mis en évidence l’écart de la
sémantique pédagogique entre les concepts utilisés
pour spécifier les scénarios et les caractéristiques des
LMS. Certaines transcriptions de scénarios entraînent
des pertes d'information et de sémantiques spécifiées
dans le scénario source ou, au contraire, des
insuffisances d’informations pour spécifier et mettre en
œuvre le scénario sur la plateforme.
3
Aymen Abedmouleh
Il nous semble que les propositions actuelles n’ont
pas encore atteint un niveau de maturité suffisant pour
que
les
enseignants-concepteurs
implémentent
efficacement leurs scénarios. Pour cela, nous proposons
une nouvelle approche de conception basée
explicitement sur le métier des LMS.
Une Approche de Conception Centrée
LMS
L’objectif principal de nos travaux est de (1) faciliter
la spécification de scénarios pédagogiques, (2)
proposer des outils de conception mieux adaptés aux
pratiques des enseignants-concepteurs, (3) proposer des
moyens de communication entre les LMS et des outils
externes dédiés et enfin (4) garantir l’implémentation
des scénarios spécifiés à l’extérieur des LMS sans perte
de sémantiques.
Nous supposons que les LMS ne sont pas
pédagogiquement
neutres.
Ils
embarquent
implicitement des paradigmes de conception pour les
activités pédagogiques. Notre approche porte sur
l’identification et la formalisation de ce métier de
conception pédagogique. D’un point de vue langage,
nous nous intéressons principalement à expliciter la
syntaxe abstraite implicite des LMS que nous
proposons de formaliser sous la forme d’un métamodèle (concepts, attributs, relations, types, etc.).
Dans un premier temps, ce choix offre l’opportunité
d'exposer un langage comme base pour le
développement d'outils de conception pédagogique
extérieurs aux LMS (par exemple pour l'édition de
scénarios, pour exporter un scénario spécifique d’un
LMS vers un autre, etc.). L’un des premiers objectifs de
cette approche est d’offrir aux praticiens de nouveaux
VIDL (Visual Instructional Design Language) et des
éditeurs externes dédiés basés sur le langage métier des
LMS. Plusieurs VIDLs centrés LMS (Botturi et Todd
2007) peuvent être proposés pour le métier (entier ou
partiel) de LMS. Ils doivent être composés de la même
syntaxe abstraite que le langage du LMS (perspective
sur le méta-modèle du domaine), mais en proposant une
notation visuelle différente (pour la syntaxe concrète).
Les VIDLs ainsi que leurs éditeurs dédiés facilitent la
réflexion et la communication pour les praticiens. Ils
doivent gérer la persistance des scénarios pédagogiques
produits dans un format interprétable par la machine et
conforme au langage identifié et formalisé du LMS.
Dans un deuxième temps, les scénarios spécifiés à
l’extérieur des LMS doivent être opérationnalisés sans
pertes de sémantique ou d’information. Notre
proposition consiste à étendre les LMS par des
nouvelles fonctionnalités analogues à celles proposées
pour le standard SCORM (Gonzalez et Ando 2010),
mais reposant sur le métier du système LMS concerné
afin de les rendre capable d’importer/exporter des
scénarios pédagogiques. L'opérationnalisation du
scénario pédagogique consiste ainsi à l'importation des
scénarios formalisés.
4
Nous voulons également permettre aux enseignants
d’adapter et de faire évoluer leurs scénarios déjà
implémentés sur les LMSs. L’échange entre ces deux
systèmes (LMS et outil de conception) facilite
l’adaptation éventuelle des scénarios pédagogiques. La
fonctionnalité d’import/export permet d’exporter les
scénarios existants dans un format compréhensible par
ces outils externes et également d’importer les
scénarios spécifiés à l’aide de ces derniers.
La sémantique des scénarios pédagogiques est
préservée lors de l’importation et de l’exportation parce
qu’aucune transformation de modèles n’est nécessaire.
Les scénarios créés ou bien modifiés par l’outil de
conception sont totalement opérationnalisables parce
qu’ils sont conformes au langage pédagogique implicite
du LMS.
L'explicitation du métier des LMSs représente une
nouvelle opportunité pour l’opérationnalisation des
scénarios pédagogiques et également une nouvelle
approche pour la spécification des VIDLs et des
éditeurs dédiés. Les VIDLs et leurs éditeurs sont
spécifiés selon une approche DSM (Domain Specific
Modeling). Le DSM offre un cadre théorique et
pratique pour la modélisation et la spécification
formelle des scénarios pédagogiques (Laforcade,
2010). Cette approche est capable d’apporter une
valeur ajoutée pour l’explicitation, la spécification et
l’opérationnalisation de scénarios pédagogiques et de
langages de modélisation pédagogique, également pour
la définition de VIDL centré sur le métier des
praticiens, des standards et des plateformes.
Processus d’Analyse
Pour définir un tel langage, nous avons spécifié un
processus pour analyser, identifier et formaliser le
langage de conception pédagogique des LMS. Le
processus vise plusieurs communautés de recherche en
EIAH et en génie logiciel de façon plus globale. Il
concerne principalement la communauté des
LMSs/plateformes de formation tels que les ingénieurs
pédagogiques et les développeurs-concepteurs.
Le processus est le résultat de plusieurs
expérimentations et analyses effectuées sur plusieurs
plateformes (Moodle, Ganesha, etc.). Après
l’appropriation de ces systèmes, nous avons constaté
que chacun d’entre eux embarque un paradigme
spécifique. Cependant, une même analyse pouvait être
définie afin de guider le travail d’identification et de
formalisation pour chacun d’entre eux. Nous proposons
ainsi un processus d’analyse basé sur deux points de
vue complémentaires : un point de vue centré IHM et
un point de vue centré technique. Le premier point de
vue porte sur l’analyse des IHMs selon deux stratégies :
analyse de cours/situations existants(es) et analyse des
interfaces liées à la spécification de nouveaux cours ou
de nouvelles situations. Le deuxième point porte sur
des méthodes d’analyses plus techniques s’intéressant
davantage à la plateforme comme artefact informatique.
Amiens - 23 et 24 mai 2012
Formalisation du langage de conception pédagogique implicite d’un LMS
Le processus que nous proposons (figure 1) est
composé de trois étapes principales : l’analyse centrée
IHM, l’analyse centrée technique, ainsi que la
confrontation et formalisation finale. La première étape
est conduite par 3 analyses séquentielles (macro-IHM,
fonctionnelle et micro-IHM) selon une démarche
descendante. Chaque analyse possède ses propres
caractéristiques et produit son (ses) modèle(s)
conforme(s) au formalisme proposé. L’activité de
composition est basée sur les modèles résultant des
analyses précédentes et consiste à formaliser le modèle
métier final par la dérivation de celui issu de l’analyse
centrée IHM. La seconde étape concerne l’analyse
centrée technique. Plusieurs méthodes techniques
peuvent être adoptées (base de données, code source,
les sauvegardes de cours, etc.) mais la principale source
d’informations sera l’analyse de la base de données. La
dernière étape du processus concerne la confrontation
entre le modèle IHM et le modèle technique, puis la
formalisation du modèle métier final (méta-modèle) de
conception pédagogique. Ce méta-modèle servira
ensuite de base de spécification pour les modules
d’import/export des LMS, ainsi que la spécification et
le développement de langages/éditeurs de conceptions
pédagogiques externes.
L’analyse centrée IHM assure l’identification de la
partie visible du langage de la plateforme. L’analyse
centrée technique assure la spécification des modèles
conformément au langage des plateformes. La
confrontation entre les modèles assure l’affinement du
modèle IHM et la détection de certains problèmes.
Dans les sous-sections suivantes, nous détaillons les
différentes parties du processus.
titres des interfaces et des formulaires, et parfois via
l’analyse des chemins de navigation. Ensuite, les
relations entre les concepts du modèle sont déduites à
partir des relations existantes entre les interfaces.
Analyse Fonctionnelle
L’analyse fonctionnelle est basée sur le modèle IHMmacro. Elle consiste à identifier les fonctionnalités
relevant de la conception pédagogique. Les IHM sont
ainsi analysées d’un point de vue fonctionnel. Nous
avons classé les fonctionnalités embarquées en deux
catégories : les fonctionnalités à critère pédagogique
qu’il faudra conserver et les fonctionnalités
administratives (affichage, gestion, etc.) qu’il faudra
écarter. Les fonctionnalités sont implicitement
embarquées dans les interfaces via des composants de
l’interface graphique (des widgets) facilitant les
interactions entre le système et les usagers. Les
composants doivent être testés pour déterminer leur
critère pédagogique. Ensuite, on attribuera un nom pour
chaque composant "pédagogique". Le formalisme du
modèle fonctionnel proposé s’inspire du modèle SADT
(Structured Analysis and Design Technic) (Marca et
McGowan 1987) en adaptant légèrement la sémantique
des diagrammes de cas d’utilisation UML (Unified
Modeling Language) (John et Muthig 2002). Un tel
diagramme est ainsi utilisé pour représenter les modèles
‘fonctionnels’ internes. Les sous-fonctionnalités sont
alors représentées dans un nouveau diagramme de cas
d’utilisation lié au précédent par une relation
hiérarchique explicite. Les fonctionnalités sont
également identifiées en analysant les interfaces des
cours existants comme celles permettant la création de
nouveaux cours.
Figure 1 : processus d’analyse du langage de conception pédagogique
L’analyse Centrée IHM
Analyse IHM-macro
Les LMS sont composés de plusieurs interfaces
développées pour différentes finalités et pour
différentes catégories d’usagers (enseignant, apprenant,
administrateur, etc.). L’analyse IHM-macro consiste à
identifier les IHM relevant de la conception
pédagogique. Ces IHM sont dédiées à la spécification
des situations d’apprentissage (scénarios pédagogiques,
cours, etc.). L’analyse macro-IHM vise à référencer ces
IHM dans son modèle macro-IHM. Ce modèle est une
cartographie (mindmap en anglais) d’IHMs dont
chacune est représentée par son concept principal. Ces
concepts sont identifiés via l’analyse sémantique des
4ièmes Rencontres Jeunes Chercheurs en EIAH
Analyse IHM-micro
L’analyse IHM-micro est basée sur le modèle IHMmacro et fonctionnel. Elle consiste à analyser les
interfaces concernées à une échelle plus fine pour
identifier les éléments relevant de la conception
pédagogique. Plusieurs modèles IHM-micro résultent
de cette analyse. Chaque modèle décrit un élément et
ses propriétés (attributs, types, etc.). Pour mener cette
analyse, nous proposons la démarche suivante. Pour
chaque interface, tous les éléments doivent être
analysés afin de déterminer ses caractéristiques
pédagogiques. Plusieurs éléments pédagogiques
peuvent être décrits par des composants d’interface
graphique, des formulaires, etc. Plusieurs composants
5
Aymen Abedmouleh
peuvent cacher des éléments pédagogiques. Ils doivent
être testés et analysés. Il est également important
d’identifier les attributs des éléments identifiés ainsi
que leurs propriétés. Durant notre travail d’analyse,
nous avons constaté que des domaines de valeur sont
associés à plusieurs attributs dont certains sont déjà
initialisés par défaut. Les domaines de valeurs ainsi que
les initialisations par défaut doivent être identifiés ; ils
représentent des caractéristiques importantes de la
conception pédagogique centrée LMS. L’identification
de ces éléments est réalisée via l’analyse des titres et
des formulaires. Ces éléments sont classifiés en deux
catégories : les éléments requis par les interfaces et les
éléments optionnels. Les éléments requis sont soulignés
par un style spécifique (gras, souligné, couleur
spécifique, etc.). Ils forment des éléments principaux de
la conception pédagogique. L’analyse des formulaires
permet aussi de détecter les dépendances et les
relations entre ces éléments. Parfois, le paramétrage de
certains éléments implique le paramétrage automatique
d’autres. La description des relations nécessite la
définition des multiplicités entre eux. La multiplicité est
représentée par un couple de bornes minimale et
maximale. Enfin, nous notons que l’ordre des éléments
est une caractéristique importante dans la conception
pédagogique parce qu’elle influence l’organisation des
concepts pédagogiques (exemple l’organisation du
cours dans la plateforme Moodle). Nous avons choisi
une adaptation du format mindmap pour représenter le
modèle IHM-micro. Ce format permet la représentation
et la description des éléments de conception
pédagogique en termes d’attributs, de types, de
propriétés, de domaines de valeur, d’initialisations, de
contraintes et de relations.
La Composition
La composition vise à formaliser le langage de
conception pédagogique partiel dérivé de l’analyse
centrée IHM. Elle consiste à combiner les modèles
IHM-micro dans un modèle unique. Les relations entre
les modèles sont basées sur les relations situées dans les
modèles IHM-macro et fonctionnel. Les relations
situées dans le modèle IHM-macro sont facilement
identifiées mais celles du modèle fonctionnel sont
identifiées selon la démarche suivante. Après avoir
choisi un élément du modèle IHM-macro, nous devons
fixer la partie du modèle fonctionnel associée. Plusieurs
cas d’utilisation référencent un ou plusieurs élément(s)
requis pour la réalisation des fonctionnalités. En se
basant sur la hiérarchie des cas d’utilisation, nous
déduisons les relations entre ces éléments. Nous savons
déjà que les sous-modèles internes du modèle
fonctionnel sont représentés par niveau. Les modèles
IHM-micro seront également représentés par niveau en
préservant la hiérarchie équivalente du modèle
fonctionnel. Enfin, les multiplicités entre les
éléments/modèles sont ajoutées sur le modèle IHM.
Certaines multiplicités sont déjà identifiées pendant
l’analyse IHM-micro. En conclusion, le modèle IHM
fusionne les modèles IHM-micro en adoptant un format
6
de type cartographie (mindmap).
Analyse Centrée Technique
La deuxième partie du processus concerne l’analyse
centrée technique. Elle concerne plusieurs points
techniques au sein des LMS à analyser : les bases de
données, le code source, la sauvegarde/restauration des
cours (si elle existe), etc. Dans cette étape, la source
principale d’information pour identifier le langage de
conception pédagogique est la base de données du
LMS concerné. Les autres analyses techniques sont
utilisées durant la dernière partie de confrontation.
L’analyse de la base de données consiste à spécifier le
modèle conceptuel de données réduit parmi le modèle
fourni par les créateurs de LMS, s’il existe. Plusieurs
modèles sont représentés par le biais du modèle
relationnel de données généré par des outils proposant
la ré-ingénierie de la base. Cependant, la majorité de
ces outils ne sont pas gratuits et leurs résultats
dépendent directement de la taille de la base de
données. Dans notre approche, l’analyse de la base de
données est réduite aux tables/colonnes en relation avec
la conception pédagogique. L’obstacle principal
concerne leurs identifications. Les informations issues
de l’analyse centrée IHM semblent utiles pour ce cas.
Pour mener cette analyse à bien, notre méthodologie
consiste à (1) parcourir toutes les tables afin
d’esquisser une première ébauche du modèle, (2) se
focaliser sur les tables faisant référence à des éléments
de conception pédagogique. Ces tables sont identifiées
via l’analyse sémantique de leurs titres ou de leurs
champs d’enregistrement. D’autres tables sont
également identifiées via leurs dépendances avec
d’autres ou bien via les clés étrangères. Notre analyse
consiste à spécifier le schéma réduit de la base de
données par le biais des règles de reverse engineering
des bases de données. Le modèle conceptuel de
données peut être finalement spécifié à partir de ce
schéma.
Ce modèle est efficace pour représenter le modèle
métier selon un point de vue technique des données
sauvegardées. Il permet aussi par construction de
cacher les mauvaises structures des bases de données et
d’éviter les redondances et mauvaises conceptions.
Certaines relations entre tables exigent des analyses
manuelles fines afin de rejeter celles créées pour des
finalités uniquement à bas niveau.
Confrontation des Modèles et la Formalisation
du Modèle Final
La dernière partie du processus concerne la
confrontation des modèles IHM et technique et la
formalisation du modèle final de la conception
pédagogique. Les modèles sont comparés afin d’affiner
le modèle IHM, détecter et corriger les différences et
assurer que le modèle final est facilement spécifié dans
un format interprétable par la machine. La
confrontation mène à des vérifications concernant la
Amiens - 23 et 24 mai 2012
Formalisation du langage de conception pédagogique implicite d’un LMS
définition des éléments de conception pédagogique
dans les deux modèles. Certaines ambigüités ou
différences (la définition des éléments similaires, la
non-existence de certains attributs, la divergence des
types d’attributs, etc.) sont révélées. Elles exigent des
analyses plus profondes et plus fines des modèles IHM
et technique. À ce stade, d’autres analyses techniques
peuvent être utiles. Par exemple, l’analyse du code
source consiste à analyser directement le code du LMS.
Elle concerne principalement le code de la définition
des IHMs et les requêtes d’insertion/sélection des
données. Cette analyse révèle plusieurs détails que le
développeur a choisi d’implémenter pour des raisons de
portabilité et d’efficacité.
Cette partie vise à formaliser le langage de conception
pédagogique. Nous avons choisi le format des métamodèles parmi d’autres (XML schéma, mindmap,
ontologies, etc.) car il servira de base pour le
développement de nouveaux outils de conception selon
l’approche Domain Specific Modeling. Le processus
vérifie l’existence de chaque élément du modèle IHM
sur le modèle technique. Lorsque l’existence est
vérifiée, l’élément est modélisé par une méta-classe
dans le méta-modèle. Ensuite, ses attributs sont vérifiés.
La vérification concerne l’existence et le type. Les
attributs vérifiés sont représentés par des méta-attributs
au sein de la méta-classe de l’élément parent. Enfin, les
relations entre les méta-classes sont définies en tenant
compte des relations existantes dans les modèles IHM
et technique. Les multiplicités sont également vérifiées
avant leur représentation dans le méta-modèle.
Expérimentations
Expérimentation du Processus
Nous présentons dans cette section un extrait des
expérimentations menées sur la plateforme Moodle. Cet
extrait concerne l’identification et la formalisation du
langage de conception d’un forum sur Moodle. Le
forum est une activité fréquemment utilisée au sein
d’un cours. Sa spécification nécessite le paramétrage de
plusieurs IHM qui embarquent d’autres éléments dédiés
à la conception de cette activité. Dans un premier
temps, l’analyse IHM-macro a consisté à
l’identification des IHM relevant de la spécification du
forum. La création d’un nouveau forum mène à des
nouvelles interfaces pour la spécification des éléments
dédiés tels que le cas de l’élément «discussion ». Le
modèle IHM-macro est enfin composé par deux
concepts principaux : 'forum' et 'discussion'. Dans un
deuxième temps, l’analyse fonctionnelle a identifié les
fonctionnalités en relation avec la spécification du
forum et de ses éléments. Les fonctionnalités sont
également identifiées en analysant les interfaces de
création d’un nouveau forum ainsi que l’analyse d’un
forum existant. La fonctionnalité principale identifiée
est «ajouter un forum» après l’analyse de l’interface
principale du cours. Ensuite, nous avons identifié ses
4ièmes Rencontres Jeunes Chercheurs en EIAH
sous-fonctionnalités (comme «ajouter une discussion»).
Le modèle fonctionnel est spécifié au fur et à mesure de
l’identification des fonctionnalités. Dans un troisième
temps, l’analyse IHM-micro a consisté à analyser le
formulaire de l’interface du forum. Ensuite, les
éléments et les attributs reliés au forum doivent être
identifiés. Nous avons identifié les attributs du forum,
leurs types, leurs champs de valeurs et leurs
initialisations. La même analyse a été reproduite
concernant l’élément 'discussion'. Ensuite, nous avons
déterminé les multiplicités entre forum et discussion en
associant plusieurs discussions au forum. Nous avons
constaté qu’une discussion n’est associée qu’à un seul
forum. Enfin, cette analyse a produit deux modèles
IHM-micro (figure 2). La dernière étape de l’analyse
centrée IHM (la composition) a consisté à associer les
deux modèles IHM-micro du forum et des discussions
(figure 2). En se basant sur le modèle IHM-macro et
fonctionnel, nous avons déduit qu’une discussion est un
sous élément de forum. Ensuite, nous avons représenté
les multiplicités déjà identifiées dans l’analyse IHMmicro.
1
0,* 1,1
0,*
1,1
2
Figure 2 : Extrait du modèle IHM de la conception du forum
L’analyse centrée technique a consisté à étudier la base
de données de Moodle. Nous avons tout d’abord ciblé
les tables en relation avec la conception du forum via
l’analyse sémantique de leurs titres (forum,
forum_discussions, etc.). Certaines tables et données
(forum_trak_prefs, forum_read, etc.) ne sont pas prises
en compte parce qu’elles se focalisent sur des finalités
techniques trop bas niveau. Ensuite les relations entre
les tables sont définies. À ce stade, nous avons constaté
que certaines données nécessitent l’identification
d’autres tables. Ces tables sont ajoutées au schéma de
la base de données avant sa transformation en modèle
conceptuel.
Enfin, les deux modèles IHM et technique sont
confrontés en suivant la démarche que nous avons
décrite. Cette confrontation a mené à la spécification du
méta-modèle du langage de conception pédagogique
dont un extrait est représenté dans la figure 3.
7
Aymen Abedmouleh
pour la spécification des scénarios pédagogiques dédiés
à la plateforme Ganesha, et (2) d’un nouveau module
de communication similaire à celui de Moodle.
Référence
Figure 3 : Extrait du méta-modèle du langage de conception
d’un forum de Moodle
API pour Moodle
Notre approche porte également sur l’extension des
LMS par des API de communication proposant des
services d’import/export. En se basant sur le métamodèle du langage de conception pédagogique du
LMS, nous avons généré et adapté un schéma XML. Ce
schéma est utilisé au sein de l’API que nous avons
développée pour la plateforme Moodle 2.0. Cette API
est intégrée au sein de l’espace enseignant de création
du cours. Elle assure l’opérationnalisation de cours
ainsi que l’exportation des scénarios pédagogiques
conformément au schéma XML spécifié (Abedmouleh
et al. 2011a). Concernant cette API, nous avons
également pris en compte la possibilité de réaliser des
imports/exports successifs afin d’adapter le cours grâce
à des outils de conception externes.
Conclusion
Dans cet article, nous avons présenté nos travaux de
recherche portant sur une nouvelle approche de
conception basée sur le langage de conception
pédagogique d’un LMS. Nous avons décrit notre
approche qui propose un processus pour l’identification
et la formalisation de ce langage. Nous avons pris en
compte deux points de vue complémentaires : le point
de vue IHM assurant l’identification du langage LMS
accessible à l’utilisateur et le point de vue technique
assurant l’opérationnalisation des scénarios spécifiés
conformément au langage identifié.
Le processus d’analyse ainsi que l’approche de
conception que nous proposons sont ré-exploitables
pour d’autres LMS. Le processus offre l’opportunité de
comparer le langage de plusieurs LMSs. Nous avons
également montré l’utilité de ce processus à travers les
valeurs ajoutées qu’il peut apporter en ce qui concerne
l’extension des LMS par des services de
communication (import/export) avec des outils de
conception externes développés sur la base du métier
identifié. Ces outils de conception doivent être plus
adaptés aux pratiques des enseignants, plus
ergonomiques que les interfaces des LMS et dont les
modèles produits seront conformes au langage de
conception pédagogique dédié au LMS. Nous avons
expérimenté l’utilisation du méta-modèle pour le
développement d’un VIDL et d’un éditeur graphique
dédié (Abedmouleh et al. 2011b) en se basant sur
l’approche DSM.
Nous travaillons actuellement sur le développement (1)
d’un deuxième outil de conception graphique externe
8
Abdallah, F.; Toffolon, C.; and Warin, B. 2008.
Models transformation to implement a Project-Based
Collaborative Learning (PBCL) Scenario : Moodle case
study. In 8th IEEE International Conference on
Advanced Learning Technologies, 639-643. Spain.
Abedmouleh, A.; Oubahssi, L.; Laforcade, P. and
Choquet, C. 2011a. Operationalization of Learning
Scenarios on Open and Distance Learning platforms:
the case of the Moodle Platform. 11th IEEE
International Conference on Advanced Learning
Technologies. 396-398. Athens , USA.
Abedmouleh, A.; Laforcade, P.; Oubahssi, L.; and
Choquet, C. 2011b. Operationalization of learning
scenarios on existent Learning Management Systems:
the Moodle case-study. International Conference on
Software and Data Technologies In Proceedings of the
6th International Conference on Software and Data
Technologies, 143-148. Seville, Spain.
Artacho, M. R.; and Maíllo M. F. V. 2004. Modeling
Educational Content: The Cognitive Approach of the
PALO Language. Educational Technology & Society, 7
(3):124-137.
Baggetun, R.; Rusman, E.; and Poggi, C. 2004.
Design Patterns for collaborative learning: from
practice to theory and back. In Proc. of World
Conference on Educational Multimedia, Hypermedia
and Telecommunications, 2493-2498, Chesapeake, VA.
Botturi, L.; and Todd, S. 2007. Handbook of Visual
Languages for Instructional Design: Theories and
Practices. Information Science Reference.
Gonzalez, V.; and B., Anido, L., R. 2010. From
SCORM to Common Cartridge: A step forward. In
Computers & Education 54: 88-102.
John, I.; and Muthig, D. 2002. Tailoring Use Cases
for Product Line Modeling. In International Workshop
on Requirements Engineering for Product Lines (REPL
2002), Essen, Germany. ISBN: 0-9724277-0-8.
Laforcade, P. 2010. A Domain-Specific Modeling
approach for supporting the specification of Visual
Instructional Design Languages and the building of
dedicated editors. In Journal of Visual Languages and
Computing. Volume21 Issue6:347-358
Marca, D.A.; and McGowan, C.L. 1987. SADT:
structured analysis and design technique. ISBN:0-07040235-3, New York USA.
Ortiz, I. M.; Sierra, J.L.; and Fernández-Manjón B.,
2009. Enhancing IMS LD Units of Learning
Comprehension. The 4th International Conference on
Internet and Web Applications and Services. Italy.
Steel C., 2009. Reconciling university teacher beliefs
to create learning designs for LMS environments. The
University of Queensland. In Australasian Journal of
Educational Technology
Tattersall, C.; Burgos, D.; Vogten, H.; Marterns H.;
Koper, R., 2005. How to use IMS Learning Design and
SCORM 2004 together.IN the SCORM 2006
conference. Tamkang University, Taipei, Taiwan.
Amiens - 23 et 24 mai 2012
Le TAL pour l’analyse de contenus d’interaction et de
productions dans la formation en ligne.
Alexandre Baudrillart
LIDILEM1 – LIRIS2
Université Stendhal Grenoble 3, BP 25, 38040
Grenoble Cedex 9, France
2
Université de Lyon, CNRS, INSA-Lyon, UMR5205
F-69621, France
[email protected]
1
Résumé
Dans le cade d’apprentissages assistés par des
environnements informatiques, les techniques du
traitement automatique des langues ne sont que peu
utilisés ou restreintes à des tâches ou à des domaines
spécifiques comme l’ALAO (Apprentissage de la
langue Assisté par Ordinateur). Nous cherchons à
explorer les possibilités et les performances
d’applications de ces méthodes pour des systèmes
moins spécifiques dès que des traces d’interactions
entre divers apprenants peuvent être collectées. Nous
décrivons ici notre problématique et son contexte, nos
motivations et l’orientation de nos travaux
bibliographiques.
Introduction
Les préoccupations considérées dans le cadre de notre
thèse, dirigée par Georges Antoniadis (LIDILEM) et
codirigée par Sébastien George et Christine Michel
(LIRIS), concernent l’analyse de matériaux langagiers
de traces d’interactions et de productions dans des
situations d’apprentissage collectives, c’est-à-dire les
messages en langue naturelle échangés.
L’objectif principal est exploratoire et consiste à
évaluer les possibilités des traitements automatiques
des langues actuelles dans la production d’indicateurs
sur le niveau et la qualité de construction du savoir par
les apprenants lors de ces situations d’apprentissage.
Nous décrirons un panorama général du Traitement
Automatique des Langues, qui n’est pas un domaine
connu de tous (Antoniadis 2008). Puis, nous
aborderons de manière non exhaustive les applications
de méthodes TAL pour les EIAH et
plus
particulièrement pour l’ALAO. Enfin,
nous
expliciterons notre problématique préparatoire et
tâcherons de la situer par rapport à deux travaux.
de transformer des matériaux langagiers (qu’ils soient
écrits ou oraux) en représentations formelles (Bouillon
et Vandooren 1998) plus ou moins implicites mettant
en exergue la présence, l’absence de certaines entités,
l’existence de relations entre différentes entités, ou
encore permettant de retrouver des documents et des
contenus en fonction d’une demande formulée en
langue naturelle.
Par la suite, nous restreindrons notre description au
traitement de l’écrit. Nous présenterons le TAL de
manière générale, puis décrirons une chaîne de
traitement traditionnelle en TAL et les différents étapes
ou ressources mises en œuvre, et enfin nous mettrons
en avant quelques méthodes répandues que sont
l’Utilisation de l’Analyse Sémantique Latente (Latent
Semantic Analysis), la fouille de texte ou la
classification supervisée.
Une chaîne de traitement de l’écrit type en
TAL
On distingue généralement deux types de traitement :
l’analyse, dont font parties les exemples inscris ciavant, et la génération automatique de textes en langue
naturelle.
La génération automatique de texte consiste en la
production de texte en langue naturelle à partir de
données brutes ou d’une représentation formelle
comme la génération automatique de bulletins
météorologiques en langue naturelle (Coch 1999).
Nous ne présentons ici que l’analyse car elle partage
beaucoup avec la génération à part la dimension de
planification et le sens de parcours de la chaîne.
La chaîne de traitement traditionnelle des traitements
d’analyse de l’écrit se présente comme en FIGURE 1.
Le Traitement Automatique des Langues et
ces Principales Techniques
Le Traitement Automatique des Langues (Natural
Language Processing) est par essence pluridisciplinaire
(Antoniadis 2008). En effet, il consiste à fournir des
modèles et des programmes informatiques permettant
4ièmes Rencontres Jeunes Chercheurs en EIAH
9
Alexandre Baudrillart
intégralité ou non pour des tâches de plus haut niveau,
qu’elles soient proprement linguistiques ou qu’elles
répondent à des besoins, des problèmes qui ne sont pas
directement liés à la langue et cela au travers de cette
dernière.
Approches Représentatives
Figure 1 : chaîne de traitement type en traitement
automatique des langues (P. Enjalbert)
On segmente et on tokénise le texte source, c’est-àdire qu’on va essayer de découper en différents
morceaux correspondant à des mots, des acronymes ou
des séparateurs. On obtient des phrases contenant des
tokens.
Ensuite ou de concert, intervient une analyse
morphologique permettant, à partir de la forme des
mots (les graphies), de leurs désinences ou de leurs
préfixes (appelons ces parties morphèmes qui sont des
formes atomiques amenées à être combinées pour
former les mots de la langue) pour catégoriser la nature
grammaticale de ces mots (Part Of Speech Tagging).
Différents analyseurs morphologiques automatiques
existent et notamment TreeTagger1 répandu dans la
communauté du TAL (Schmid 1994) car un des
meilleurs parmi les outils gratuits.
Une fois des étiquettes de catégories grammaticales
attachées aux différentes graphies (qu’on ait effectué
des choix ou seulement énuméré les possibles). Une
étape d’analyse syntaxique entre en jeu avec deux
objectifs. Le premier objectif est la validation de la
correction grammaticale du texte en vérifiant si les
mots et leurs catégories grammaticales obéissent à la
grammaire de la langue souvent formulée sous forme
d’une grammaire. Le second est de constituer les
relations syntaxiques qui unissent les différents mots au
sein de la phrase. C’est alors une structure arborescente
qui représente la phrase. On peut citer deux analyseurs
morphosyntaxiques : Syntex (Bourigault 2007) et le
Xerox Incremental Parser2.
Ensuite, un étiquetage sémantique des tokens prend
place. On essaye d’associer chacun des tokens à un
Concept d’une ontologie (a)linguistique (ex :
GeneOntology), à une entrée lexicale précise d’un
réseau lexicale ou sémantique (ex : WordNet) et/ou en
lui prêtant différents caractéristiques sous forme d’une
structure de traits. On obtient alors un arbre étiqueté
par toutes ces informations supplémentaires.
Ces différentes étapes représentent les prétraitements
traditionnellement admis comme nécessaires dans leur
1
http://www.ims.uni-tuttgart.de/projekte/corplex/TreeTagger/
2
http://www.xrce.xerox.com/Research-Development/DocumentContent-Laboratory/Parsing-Semantics/Robust-Parsing
10
On répartit habituellement les différentes approches du
traitement automatique des langues en deux
catégories : les méthodes à base de règles et les
méthodes statistiques.
Les Approches à Base de Règles
Les approches à base de règles dérivent de l’utilisation
de systèmes experts et de l’ingénierie des
connaissances. Le matériau langagier est transformé en
une représentation symbolique qui constitue
principalement une base de faits et un ensemble de
règles constituées manuellement par des experts qui
vont permettre d’expliciter, au travers du moteur
d’inférence, des informations encore plus implicites
que celles nécessaires à la représentation de l’entrée en
faits symboliques. On peut notamment trouver de telles
approches dans le cadre de la résolution d’anaphore
(Kennedy et Boguarev 1996, Liang et Lin 2005)
Les Approches Statistiques
Les méthodes statistiques s’appuient sur des propriétés
de similitude ou de différence parmi différentes
matériaux langagiers issus de réelles productions
humaines en observant les fréquences d’apparition de
termes dans les différents documents, les cooccurrences de termes ou des motifs réguliers
permettant une classification supervisée ou non.
Parmi les méthodes statistiques on peut retrouver
l’Analyse Sémantique Latente (Deerwester et al. 1990)
avec laquelle on établit les fréquences de chaque terme
pour chacun des documents d’un corpus afin de
construire un espace avec autant de dimensions que de
termes (mots ou groupes de mots non-grammaticaux).
On obtient ainsi une matrice creuse où les lignes sont
les termes et les colonnes les documents. Un
coefficient est alors l’effectif d’un terme ti dans un
document dj normalisé selon sa rareté dans le corpus
(un terme omniprésent n’est en rien discriminant pour
un document). On réduit souvent le rang de cette
matrice en réduisant les différents termes à leurs
radicaux, en regroupant des synonymes, et en retirant
les termes peu discriminants ou extrêmement rares. On
peut alors obtenir des corrélations entre termes
(respectivement entre documents) en effectuant
le
produit scalaire entre chaque ligne (respectivement
chaque colonne). Une décomposition en valeurs
singulières de cette matrice permet de projeter
documents et termes dans un espace de concepts en
évaluant cette fois-ci les corrélations entre termes et
concepts et entre documents et concepts. On peut
Amiens – 23 et 24 mai 2012
Le TAL pour l’analyse de contenus d’interaction et de productions dans la formation en ligne
ensuite procéder à des classifications non supervisées
d’un corpus selon cet espace de concepts.
Une technique de segmentation thématique de suite
de paragraphes dans un texte, proposée par Marty
Hearst, s’appuie dans le même esprit, sur un modèle
vectoriel : le Text Tiling (Hearst 1997). On change de
grains : le corpus depuis le document et le document
devient un passage de ce dernier. On estime qu’il y a
un changement thématique lorsque deux passages
consécutifs sont beaucoup plus distants, dans l’espace
formé par chaque terme du document, qu’auparavant.
Des méthodes de classifications automatiques liées à
l’apprentissage automatique (Machine Learning) sont
maintenant beaucoup utilisées en les hybridant avec
des représentations symboliques, que ce soit une fouille
de données traditionnelles, séquentielles ou la fouille
de texte. (Lucas et Crémilleux 2004, Charnois et al.
2006, Charnois et al. 2008)
Principales tâches
La croissance du TAL depuis les années 50 est
étroitement liée à celui du vieux rêve qu’était la
traduction automatique qui a évolué vers une traduction
semi-automatique, qu’elle soit automatique assistée par
l’humain ou humaine assistée par ordinateur. Cette
première revient à analyser une langue source pour
opérer un transfert de cette première représentation
vers une représentation en langue cible afin d’opérer
une génération d’un texte dans la langue cible.
Simuler des interactions, soit une compréhension
limitée d’un message par un agent informatique et/ou
la génération de sa réponse intelligible et pertinente
pour l’utilisateur est aussi une tâche à laquelle peuvent
répondre les traitements de langue.
Enfin, le TAL contribue déjà à des systèmes pour
l’apprentissage humain, nous abordons ce sujet dans la
partie suivante.
La Place du Traitement Automatique des
Langues dans les EIAH
TAL et EIAH
Dans (Gurevych et al. 2009), les auteurs décrivent le
panorama de l’utilisation des technologies TAL pour
l’EIAH et les classe en quatre catégories : la génération
automatique d’exercices, l’évaluation automatique des
réponses discursives d’apprenants, l’aide à la lecture et
à la rédaction, et enfin la gestion de contenus et
l’apprentissage collaboratif en ligne (CSCL).
Génération Automatique d’Exercices
La génération automatique de QCM, d’exercices
lacunaires et l’évaluation de l’efficacité de ces derniers
est un enjeu bien abordé par les applications du TAL
comme dans (Karamis et al. 2006) ou (Lee et Seneff
2007), néanmoins 90 % des références citées par
l’auteur concernent l’ALAO.
Evaluation Automatique de Prose
L’analyse de textes librement rédigés par des
apprenants pour répondre à des questions ouvertes, qui
acceptent un raisonnement pertinent comme « bonnes
réponses » ou des modèles types de bonnes
réponses, est un problème de choix pour éprouver le
TAL et le faire progresser. Mais la compréhension
automatique reste un rêve depuis longtemps « oublié »
par les spécialistes. (Antoniadis 2008)
Aide à la Lecture et à la Rédaction
Les technologies de langue permettent aussi
d’apporter une aide à la lecture mettant en relation des
textes avec les glossaires appropriés ou offrant des
liens vers d’autres documents donnant définitions,
prérequis et contexte. Mais aussi à la rédaction en
offrant une correction automatique orthographique ou
syntaxique.
Avec l’essor d’internet, l’explosion du nombre de
documents disponibles et celle de son débit que cela
soit des articles de presse, des dépôts de brevets, les
annonces des entreprises sur les marchés ou encore les
publications académiques, la gestion de l’information
est devenue humainement chronophage et intraitable
pour respecter des délais d’instantanéité que la société
d’aujourd’hui exige. Ainsi, l’organisation et le
référencement de tous ces documents par une
indexation, discriminante au sein d’un corpus, par
concepts (vers un web sémantique), pour la recherche
documentaire, l’extraction d’information et la veille
stratégique, est toujours une application privilégiée des
technologies de la langue.
4ièmes Rencontres Jeunes Chercheurs en EIAH
La lecture de textes en langue étrangère ou avec des
termes spécifiques à un domaine, abordant des
concepts inconnus ou rédigés avec un style pompeux
peut nécessiter une aide extérieure sous la forme de
simplification de textes, de proposition de synonymes,
de mise en relation avec des documents tiers explicitant
définitions ou glossaires comme (Gaudio et Branco
2007), contexte et prérequis.
Cela concerne aussi l’aide à la rédaction et
notamment ce que peut offrir le TAL en correction
orthographique ou syntaxique.
CSCL et Web
L’essor du Web a permis l’accès à des ressources en
ligne comme des sites spécialisés ou des encyclopédies
numériques, mais il a aussi créée un savoir de la foule
par le partage de savoir sur des forums, des blogs ou
encore des wikis. Des travaux concernant ces derniers
qui sont aussi de l’ordre de l’ingénierie des
connaissances : de l’organisation de ces dernières dans
des espaces comme les wikis.
11
Alexandre Baudrillart
Les auteurs soulignent le fait que le Tal peut
notamment contribuer à tisser des liens entre des
contenus similaires (Green 1998), fusionner le contenu
de passages proches (Gabrilovitch et Markovitch
2007), réaliser une segmentation thématique des
contenus afin de les diviser (Choï et al. 2001) ou
encore extraire des termes-clés (Mihalcea et Tarau
2004).
La construction de connaissance y est effleurée par la
mise en évidence de techniques d’évaluation
automatique de la qualité de production au sein de
wikis (Druck et al. 2008) ou de forums (Weimer et al.
2007), qui reste relativement proche de l’évaluation de
dissertations.
L’état actuel de nos recherches bibliographiques ne
nous permet pas de nous étendre sur un vaste panorama
dans ce champ de recherche. Néanmoins nous
présentons dans la dernière section des travaux récents
à ce sujet qui entrent directement dans le cadre de notre
problématique et qui nous serviront de point de repère
et de point de départ afin d’identifier par la suite des
mécanismes de TAL mis en jeu et les indicateurs à
définir.
TAL et ALAO
Le Traitement Automatique des Langues (TAL) est
encore peu appliqué dans le cadre d’EIAH en dehors
des systèmes d’Apprentissage des Langues Assistée
par Ordinateur (ALAO). Dans ces systèmes, le support
de communication est aussi l’objet de l’étude, et sa
maitrise « un » objectif pédagogique. Il est donc à la
fois immédiat et légitime que ce matériau langagier
soit diagnostiqué, analysé, et évalué. (Antoniadis 2008)
La particularité de notre problématique est la volonté
d’explorer les possibilités de production d’indicateurs
pertinents pour évaluer la construction du savoir chez
les apprenants que pourraient avoir les méthodes TAL.
Les traces analysées concernent donc les propos
échangés et les différentes versions des productions
finales en construction et cela sans restriction des
approches (si ce n’est socioconstructivistes), des
scénarios pédagogiques et des disciplines.
et la construction de scénarios pédagogiques, et
l’évaluation de niveau de connaissance ou de maitrise
chez les apprenants.
L’analyse de traces considère majoritairement
l’organisation linéairement temporelle des interactions
avec et au travers d’interfaces homme-machine
notamment pour une interaction distante avec d’autres
utilisateurs et peuvent correspondre à la manipulation
d’éléments d’interface, la saisie de contenu, le
déclenchement
de
processus
propres
à
l’environnement. Ces traces sont temporellement
situées comme des intervalles sur un axe de temps avec
une date de début et une date de fin, et donc une durée.
La finalité de ces analyses est de produire des
indicateurs
pour
mettre
en
évidence
des
comportements. Pour cela, on est amené à combiner
différentes traces, à les synchroniser et enfin à les
transformer pour produire plus ou moins directement
des indicateurs visualisables amenant à informer
différentes classes d’utilisateurs sur le contexte, les
performances ou les comportements dans les situations
d’apprentissages. Ces feedbacks sont émis à des fins
d’auto-évaluation des apprenants, d’évaluation
sommative par l’enseignant ou d’encadrement par et
pour des tuteurs.
Dans le cadre d’interactions de communications
entre différents acteurs, c’est du matériau langagier qui
est échangé et cet aspect de la langue constitue une
dimension primordiale de ces traces. Or, souvent
l’analyse des contenus des échanges verbaux ou encore
de productions collectives est laissée pour compte et
seules les informations événementielles ou quelques
métadonnées, représentatives des contenus voire des
tons ou des actes de langages (George 2004), sont
utilisées.
Exemple de Situation Socioconstructiviste
Bénéficiaire
Problématique
On peut observer un cas pour lequel un apport effectif
de techniques de TAL pour un traitement dans un
article de Hou et Wu (Hou et Wu 2011) dans lequel
une classification de messages en types d’interactions
et l’évaluation de la qualité de discussion sont réalisées
par des experts humains dans le but de détecter des
motifs caractéristiques des bonnes ou mauvaises
discussions.
La finalité de notre de thèse est de pouvoir évaluer la
construction du savoir chez les apprenants par rapport à
des objectifs pédagogiques bien définis, en fournissant
des feedbacks aux différents acteurs d’une situation
d’apprentissage, comme l’apprenant, le formateur ou le
tuteur, sous la forme d’indicateurs pertinents.
Dans cet article, les auteurs proposent d’étudier les
caractéristiques et les limitations des discussions
synchrones pour l’apprentissage collaboratif, ainsi que
l’impact des interactions sociales et d’une collaboration
entre les différents apprenants sur la construction du
savoir.
Ces centres d’intérêts rejoignent les travaux sur
l’étude des traces d’interactions dans
les
Environnements Informatiques pour l’Apprentissage
Humain, et la production d’indicateurs, la modélisation
L’expérience consiste à observer à long terme (3
mois) 40 étudiants répartis en groupes, de moins de dix
étudiants, dont la tâche est de participer, par
l’intermédiaire d’une messagerie instantanée, à des
discussions dont le sujet a été fixé par leur professeur.
Positionnement et Objectifs de la Thèse
12
Amiens – 23 et 24 mai 2012
Le TAL pour l’analyse de contenus d’interaction et de productions dans la formation en ligne
Ces discussions doivent amener à des conclusions
après des recherches et des débats.
un partage de connaissance ou à organisation même
s’ils ne sont pas autant productifs.
On va s’intéresser, dans un premier temps, à une
analyse quantitative du contenu des messages des
discussions selon le comportement qu’il représente au
sein de la discussion dont il fait partie. Ces
comportements sont classés selon quatre catégories :
élaboration de la connaissance, organisation et
collaboration entre apprenants, interactions sociales ou
hors-sujet. Le classement de ces messages est réalisé
manuellement par des experts.
On voudra ainsi guider les enseignants dans leurs
interventions en conseillant de recadrer les hors-sujet,
fournir un cadre de règles pour aider à coordonner les
apprenants ou initier cette coordination. Organiser des
sessions de jeu de rôles où les rôles sont fixés pour
aussi enseigner par l’expérience une certaine
collaboration. De plus, il faut parfois motiver les
participants ou leurs donner des pistes lorsque ils
atteignent des goulets d’étranglement.
Le professeur (expert sur les sujets) classe les
groupes d’étudiants selon la qualité des discussions
qu’ils produisent (bonne ou mauvaise). Ils sont jugés
selon quatre dimensions : la clarification du sujet, la
collecte d’information, la profondeur de l’analyse et la
conclusion sur le sujet.
Mais qu’en est-il d’un traitement automatique ? On
peut remarquer que les auteurs n’affichent ni
n’évoquent aucun processus ou sous-traitement
automatisé ou automatisable. Ainsi l’analyse repose sur
une force humaine et un corpus spécifique.
Pour compléter l’approche quantitative, on
s’intéresse aux séquences de comportements
significatives (statistiquement) notamment pour mettre
en valeur des continuités ou discontinuités de
comportements et/ou de catégories de comportements
et observer les dépendances entre de comportements
et/ou entre catégories de comportements.
On apprend que des comportements plus
collaboratifs et des décisions prises conjointement
participent à améliorer la qualité de la discussion, la
diversité et la profondeur des connaissances construites
autour du sujet.
De plus, des interactions sociales telles que des
encouragements ou des félicitations est un lien vital
entre les messages apportant une pierre à la discussion
et la coordination qui reste primordiale pour que ces
apports soient bien organisés, divers, profonds,
discutés, précisés, évincés mais aussi pour conclure
collectivement sur un sujet (ou encore pour le
brainstorming).
On observe que plus de 50 % des messages sont
hors-sujet, et, contre toute attente, que la proportion est
légèrement plus importante dans les discussions de
bonne qualité. Mais on apprend aussi grâce aux
séquences qu’il y a continuité au sein de la dimension
de la construction du savoir et non la continuité d’un
seul comportement. Ainsi, les discussions de bonne
qualité voient une connaissance diversifiée prendre
forme enchaînant, par exemple, un partage de
connaissance (le plus fréquent : 30%) puis des
messages appelant à un recul comme discuter des
définitions de certains termes, ou voulant clarifier le
sujet. Ces continuités sont aussi garantes du focus des
apprenants sur le sujet et de la profondeur de la
discussion. Ce qui consolide et isole les messages
pertinents des messages hors-sujet. De plus, les
séquences traduisent aussi une totale indépendance des
messages hors-sujet vis-à-vis de toutes les autres
catégories de comportements. Les comportements
hors-sujet existent aussi pour créer un climat propice à
4ièmes Rencontres Jeunes Chercheurs en EIAH
En effet, les messages sont classés selon certains
comportements qui peuvent être eux-mêmes rangés
dans des dimensions spécifiques et ces décisions ne
sont pas triviales.
Ainsi, dans un système automatisé, on aimerait avoir
une classification automatisée des messages selon ces
critères, ce qui permettrait d’inférer, à la volée, les
conseils à promouvoir aux apprenants ou aux
enseignants pour améliorer la qualité des discussions et
de l’apprentissage (sans négliger la rapidité
d’apprentissage), réagir à des séquences de
comportements ou encore simuler un participant fictif
qui pourra aiguiller les apprenants pour une meilleure
qualité non loin d’un tuteur intelligent.
Exemple de Travail Proche : PolyCAFe
Dans (Trausan-Matu 2010) et (Rebedea et al. 2010),
les auteurs présentent un système analysant les
échanges entre des étudiants dans une optique de débat,
et de synthèse, concernant un domaine bien défini : les
CSCL, sur une plateforme dédiée conservant les traces
de ces discussions.
Ce système associe à une chaîne de traitement
traditionnelle une ontologie représentant les concepts
du domaine, ici les IHM, pour éviter des ambiguïtés
dues à la polysémie des langues naturelles, ainsi qu’à
une LSA réalisée au préalable sur un corpus afin de
comparer les concepts évoqués dans deux messages
dans l’espace conceptuel préconstruit et identifier les
différents fils de discussion.
Le système de discussion impose aux participants de
préciser à quels apprenants ils répondent. Cette
information est utilisée pour identifier de premières
interactions explicites. Des traitements linguistiques
d’un plus haut niveau prennent place pour identifier les
références des uns aux autres (coréférence, distance
LSA, connecteurs logiques…) afin de construire un
graphe représentant les interactions sur les différents
savoirs mises en jeu. Une analyse des réseaux sociaux
identifie différents critères significatifs comme la
13
Alexandre Baudrillart
centralité des graphes, les degrés, qui fait autorité (au
sens du pagerank de Google) ou la cohésion,
notamment avec le calcul de composantes fortement
connexes et de cliques.
Les feedbacks concernent l’évaluation de cette
collaboration mais aussi de plus simples critères de
lisibilité et de qualité de la prose.
Ces travaux sont pour nous très intéressants car ils
mettent en perspective les techniques actuelles du TAL
de bas niveau (analyse morphosyntaxique, LSA,
Ontologie) et de haut niveau (structure argumentative,
discours et dialogisme), même si elles ne sont pas
décrites, mais aussi les techniques d’analyse de réseaux
sociaux pour des situations d’apprentissage collaboratif
en ligne.
Conclusion
Nous avons décrit dans cet article le champ du
traitement automatique des langues, mis en évidence
qu’outre l’ALAO, l’application du TAL aux EIAH
reste encore peu explorée et que des potentiels résultats
peuvent être légitimement attendus, notamment dans le
cadre de situations socioconstructivistes.
Références
Antoniadis, G. 2008. Du TAL et de son apport aux
systèmes d'apprentissage des langues : Contributions,
mémoire d’habilitation à diriger des recherches,
Université Stendhal - Grenoble 3.
Bouillon, P. and Vandooren, F. 1998. Traitement
automatique des langues naturelles, Duculot.
Bourigault, D. 2007. Un analyseur syntaxique
operationnel : Syntex, mémoire d’habilitation à diriger
des recherches, CNRS et Université de Toulouse-Le
Mirail.
Charnois, T.; Durand, N. and Kléma, J. 2006.
Automated Information Extraction from Gene
Summaries. In proceedings of the ECML/PKDD
Workshop on Data and Text Mining for Integrative
Biology, 4-15. Berlin, Germany.
Choi, F. Y. Y.; Wiemer-Hastings, P. and Moore, J.
2001. Latent Semantic Analysis for Text Segmentation
In Proceedings of EMNLP: 109-117
Coch, J. 1999. Génération multilingue de bulletins
météorologiques: le logiciel MULTIMETEO. In
Proceedings of GAT-99, 2éme Colloque Francophone
de Génération automatique de Textes. Grenoble,
France.
Deerwester, S.; Dumais, S. T.; Furnas, G. W.;
Landauer, T. K. and Harshman, R. 1990. Indexing by
latent semantic analysis. Journal of the American
Society for Information Science 1:391-407.
Druck, G.; Miklau, G. & McCallum, A. 2008.
Learning to Predict the Quality of Contributions to
Wikipedia
Proceedings of AAAI Workshops
Gabrilovich, E. and Markovitch, S. 2007.
Computing Semantic Relatedness using Wikipediabased
Explicit
Semantic
Analysis
14
Proceedings of the 20th International Joint Conference
on Artificial Intelligence : 6-12
Gaudio, R. D. 2007. Supporting e-learning with
automatic glossary extraction : Experiments with
Portuguese. In proceedings of the RANLP 2007
workshop: Natural Language Processing and
Knowledge
Representation
for
eLearning
Environments, Borovets, Bulgaria.
George, S. 2004. Analyse automatique de
conversations textuelles synchrones d'apprenants pour
la détermination de comportements sociaux. Revue
Sciences et Technologies de l'Information et de la
Communication pour l'Éducation et la Formation
10:165-193.
Green, S. J. 1998. Automated Link Generation: Can we
do Better than Term Repetition? Computer Networks
30:75-84
Gurevych, I.; Bernhard, D. and Burchardt, A. 2009.
Educational Natural Language Processing, Notes for
ENLP tutorial held at AIED 2009, Brighton, U. K.
Hou, H.-T. and Wu, S.-Y. 2011. Analyzing the social
knowledge construction behavioral patterns of an
online
synchronous
collaborative
discussion
instructional activity using an instant messaging tool. A
case study, Computers & Education 57:1459-1468
Karamanis, N. 2006. Generating Multiple-Choice Test
Items from Medical Text: A Pilot Study. In
Proceedings of INLG 2006, 104-107. Sydney,
Australia.
Lee, J. and Seneff, S. 2007. Automatic generation of
cloze items for prepositions. In proceedings of the
eighth INTERSPEECH conference, 2173-2176.
Antwerp, Belgium.
Lucas, N. and Crémilleux, B. 2004. Fouille de textes
hiérarchisée, appliquée à la détection de fautes. Revue
Document Numérique 8:107-133.
Mihalcea,
R.
&
Tarau,
P.
2004.
TextRank:
Bringing
Order
into
Texts
Conference on Empirical Methods in Natural Language
Processing
Rebedea, T.; Dascalu, M.; Trausan-Matu, S.; Banica,
D.; Gartner, A.; Chiru, C. and Mihaila, D. 2010.
Overview and preliminary results of using PolyCAFe
for collaboration analysis and feedback generation. In
proceedings of the 5th European conference on
Technology enhanced learning conference on
Sustaining TEL: from innovation to learning and
practice:420-425. Barcelona, Spain.
Trausan-Matu, S. 2010. Automatic support for the
analysis of online collaborative learning chat
conversations. In Proceedings of the Third international
conference on Hybrid learning:383-394 . Beijin, China.
Weimer,
M.
&
Gurevych,
I.
2007.
Predicting the Perceived Quality of Web Forum Posts
Proceedings of RANLP 2007
Amiens – 23 et 24 mai 2012
Interprétation des traces d’interaction dans un EIAH par une
recherche de patterns d’activité
Mohamed Besnaci
Université BADJI MOKHTAR d'Annaba, Département d'informatique
[email protected]
Résumé
Notre travail s’intègre dans une perspective cherchant à
trouver des nouvelles modalités pour un contrôle
pédagogique dans les EIAH. Pour cela, Nous avons
choisi comme outil support les traces d’interaction qui
vont nous servir de source renouvelable d’informations
reflétant le comportement des apprenants. Les traces
sont des informations de nature technique difficilement
interprétées par les pédagogues. Notre objectif est de
les interpréter et d’en extraire des indicateurs aidant au
contrôle pédagogique. Cette interprétation part du
principe de détection de patterns d’objets et applique
un processus d’appariement pour détecter d’éventuelles
épisodes plus compréhensibles.
Introduction
Un
EIAH
(Environnement
Informatique
d’Apprentissage Humain) est un environnement
informatique conçu dans le but de favoriser
l’apprentissage humain. La qualité d’un EIAH peut être
définie en mettant le point sur deux entités. La première
c’est la qualité de ce qu’il offre comme connaissances,
activités, supports, outils, contenus, etc. la seconde est
la qualité et la pertinence du contrôle pédagogique (s’il
existe) proposé pour assurer les objectifs
d’apprentissage (Guéraud 2005).
Notre article s’intègre dans cette perspective des
modalités et techniques de contrôle pédagogique.
L’objectif global est de penser à une nouvelle modalité
pour l’aide au contrôle pédagogique. Pour cela, nous
avons choisi comme outil support les traces
d’interaction. Elles servent pour nous comme source
renouvelable
d’informations
reflétant
les
comportements des apprenants. Nous avons choisi aussi
comme terrain expérimental notre simulateur CUSIM
(Central Unit SIMulator). Du point de vue de
l’apprenant,
CUSIM
est
un
environnement
d’apprentissage par la pratique du fonctionnement de
l’unité centrale d’un ordinateur. Nous le considérons
comme une source génératrice de traces.
Contrôle pédagogique
Un apprenant qui utilise un EIAH dans un domaine
donné a besoin continuellement d’un contrôle
pédagogique (Guéraud 2005) de la même façon qu’avec
un tuteur humain. Que ce soit dans un EIAH ou avec un
humain, un contrôle pédagogique sert à guider
4ièmes Rencontres Jeunes Chercheurs en EIAH
l’apprenant et à valider ses actions. Il englobe ainsi de
notre point de vue toutes les fonctionnalités d’aide,
d’orientation,
de
suggestion,
d’assistance
et
d’évaluation.
Une stratégie de contrôle pédagogique est spécifiée
en prenant en compte plusieurs considérations:
l’approche d’apprentissage est elle cognitiviste ou
constructiviste ? La nature de la situation
d'apprentissage est elle individuelle ou collective ? Les
connaissances
visées
sont-elles
déclaratives,
procédurales ou s’agit-il de méta-connaissances ? La
granularité du contrôle est-elle du niveau des activités,
des séquences d'activités ou des unités d'enseignement ?
La délégation du contrôle est-elle laissée à la machine, à
l'humain, aux deux ou est-elle effectuée par un réseau
d'acteurs ? (Labat et al. 2006)
Nous pouvons distinguer plusieurs catégories de
techniques de contrôle pédagogique (Labat et al. 2006,
Guéraud 2005, Cortes Buitrago 1999, Paquette et
Tchounikine 2002):
- le contrôle centré sur le comportement de l’apprenant
qui consiste à observer le comportement informatique
de l’apprenant et d’en déduire les rétroactions
pertinentes.
- le contrôle centré sur le raisonnement et les
connaissances, qui dépend essentiellement du type
des activités proposées qui varie de la simple lecture
et parcours de connaissances à la résolution de
problèmes et la manipulation de simulations.
- le contrôle pédagogique basé sur la scénarisation des
activités d’apprentissage. L’apprentissage dans ce cas
est guidé et l’apprenant est forcé à suivre un certain
scénario pédagogique.
- le contrôle pédagogique basé sur un conseiller
pédagogique qui a pour principe d’analyser les
interactions de l’apprenant avec le système
d’apprentissage, puis de trouver la bonne réaction en
terme d’aide et de suggestion pédagogique.
Dans ce qui suit nous allons présenter notre outil
CUSIM qui est un simple simulateur de CPU (Central
Processing Unit) auquel nous essayons d’associer un
module de contrôle pédagogique. Ce module va
s’articuler autour des traces d’interaction et de leur
interprétation.
15
Mohamed Besnaci
Simulateur CUSIM et traces
CUSIM est un simulateur conçu pour reproduire le
fonctionnement de l’unité centrale d’un ordinateur de
type Intel. CUSIM a pour objectif d’aider les apprenants
à connaître le fonctionnement et à manipuler les
différents
composants
de
l’unité
centrale.
Pédagogiquement, il est développé dans le but d’offrir
un outil de test et de validation simple et efficace propre
à notre équipe «EIAH» au sein de notre laboratoire LRI
(Université d'Annaba, Algérie). Plus précisément,
l’outil va être d’une part notre source génératrice de
traces d’utilisation suite aux sessions d’utilisation des
apprenants. D’autre part, CUSIM est conçu pour valider
et concrétiser nos modèles et pour tester notre processus
de traitement de traces.
CUSIM propose aux utilisateurs quatre activités.
1. Documentation: elle a pour but de donner un
bagage théorique sous forme de définitions,
explications, tutoriels, schémas, sur la structure et le
fonctionnement de l’ordinateur.
2. Démonstration: elle permet à l’apprenant
d’observer les différents éléments de l’UC (Unité
Centrale): l’unité de commande, le séquenceur, l’unité
arithmétique et logique, le compteur ordinal, le registre
instruction, etc., à travers des exemples de programmes
soigneusement
choisis. L’apprenant peut voir
dynamiquement le fonctionnement de chaque élément
de l’UC ainsi que leur coordination. La possibilité de
changer la vitesse d’exécution des parties de
programmes et de les mettre en pause peut aider
considérablement les apprenants à bien renforcer leurs
connaissances.
3. Manipulation: elle permet à l’utilisateur de
manipuler chaque composant de l’UC séparément. Il
peut faire des opérations arithmétiques et logiques,
charger ou décharger des valeurs de variables en
mémoire, et voir le cycle d’exécution des instructions à
travers les signaux de l’unité de commande.
4. Exécution: cette activité donne plus de liberté à
l’apprenant et lui permet d’écrire ses propres
programmes et de voir les résultats et les
conséquencesde ce qu’il écrit sur le fonctionnement de
chaque composant de l’UC.
L’outil CUSIM n’impose aucun ordre pour ces
activités bien qu’il est suggéré aux apprenants novices
de respecter l’ordre suivant: documentation puis
démonstration puis manipulation puis exécution. Dans
une session donnée, un apprenant peut faire tous les
aller-retours qu’il veut entre les activités offertes.
À la fin de chaque session d’utilisation d’un
apprenant, un fichier log est généré par CUSIM. Ce
fichier enregistre temporellement toutes les actions de
l’apprenant faites sur l’outil. Il est considéré pour le
moment comme l’unique façon de contrôler l’activité
des apprenants. Par la suite, il va être plutôt une source
de traçage pour alimenter notre processus de traitement
et de manipulation de traces.
Voici une des interfaces ainsi qu'un exemple de
fichier log généré par CUSIM:
16
Fig1. Une interface et un fichier log généré par CUSIM
Détection de patterns et interprétation de
traces
Une aide au contrôle pédagogique peut être, à notre
avis, faite en montant dans les niveaux d’abstraction de
description des traces d’apprentissage laissées par les
apprenants. Selon la théorie des traces d’apprentissage
(Champin et al. 2004, Settouti et al. 2006), les processus
de traitement et d’exploitation de ces traces nécessitent
des sources de traçage qualifiées de techniques. Nous
entendons par «technique», que les informations traçant
l’interaction de l’apprenant avec le système
d’apprentissage soient dépendantes des interfaces et
plateformes d’apprentissage, isolées sémantiquement
les unes des autres et plutôt proches des détails de
programmation que de l’esprit et des attentes du
pédagogue. À cet effet, il s’avère utile de penser à une
réécriture des traces premières en traces plus abstraites
et plus compréhensibles. Ainsi, généraliser le processus
de réécriture des traces en montant dans les niveaux
d’abstraction peut être très bénéfique aux pédagogues
les exploitant. Ce processus nous parait bénéfique, car il
donne plusieurs dimensions en présentation de traces
qui peuvent répondre à divers degrés d’objectifs
pédagogiques.
Dans le cadre de notre travail, nous proposons de
travailler avec des traces d’un niveau d’abstraction
assez bas (fichiers log de CUSIM). Nous souhaitons
mettre en évidence les patterns issus des traces qui
permettent à l’analyste enseignant d’établir des
déductions sur l’activité des apprenants. Ainsi, l’idée est
de détecter des patterns effectifs à partir des traces
obtenues lors d’une expérimentation représentant
l’historique de l’activité des acteurs (apprenants). Afin
de découvrir les patterns, nous préparons une base de
patterns et une méthode d’appariement entre les traces
brutes et la base conçue. Nous nous focalisons alors
essentiellement sur la recherche de motifs et la détection
des séquences fréquentes. Ce processus est illustré dans
le schéma suivant Fig2. Le processus commence par la
Amiens – 23 et 24 mai 2012
Interprétation des traces d'un EIAH par appariement structurel
collecte des traces d'interaction à partir des fichiers log.
Ces traces sont ensuite appariées avec une base de
patterns conçue auparavant pour chercher des patterns
dans la trace. Après élimination des chevauchements
entre les patterns résultats et détection des patterns avec
éventuellement des observables non connus, nous
procédons à une étape de recherche des séquences
fréquentes pour enrichir la base de patterns. Le détail de
ces étapes va faire l'objet des sections suivantes.
Fig2. Processus de détection de patterns
Modèle de traces pour les simulateurs
pédagogiques
Les fichiers log sont généralement de nature non ou
semi structurés (XML). Pour pouvoir les utiliser comme
support à l'interprétation de l'activité de l'apprenant dans
notre contexte, il nous faut une étape de modélisation.
Un modèle de trace a pour intérêt de structurer ces
fichiers log et d'en retirer les informations inutiles (par
rapport aux objectifs fixés). Dans ce but, nos fichiers
doivent être représentés selon un modèle de trace
soigneusement conçu (voir Champin et al. 2004,
Settouti et al. 2006).
Au vu des possibilités d'interaction et de
comportement de la part de l'apprenant et du simulateur
(Voir Leclet 2004, Lourdeaux 2001, Siouane 1999), il
est possible d’extraire une collection d'objets formant le
vocabulaire d'observables possibles dans un simulateur.
Cette collection peut être arrangée dans des classes, qui
font aussi partie d'autres classes, etc. Le tout forme une
structure hiérarchique. Cette hiérarchie représente notre
méta-modèle de trace représenté en Fig3.
Trace brute
Observable
Communication
Social
Système
Cognitif
Demande
Action
Production
Explicite
Implicite
Rétroaction
Scénarisé
Conditionné
Automatique
Fig3. Méta-modèle de trace pour simulateur
• Trace brute: suite d’observables temporellement
situés.
• Observable: classe principale englobant tout type
d’observable.
4ièmes Rencontres Jeunes Chercheurs en EIAH
• Cognitif: observable englobant les comportements
cognitifs demandant une réflexion et un
raisonnement théorique et/ou pratique. Il peut être
une configuration de paramètres, une affectation ou
un changement de valeur (production). Comme il
peut être un lancement d’action (action).
• Social: observable décrivant les communications
entre les apprenants dans un contexte collaboratif
(Communication), et entre l’apprenant et le
simulateur sous forme de demandes d’aide,
conseils,etc. (demande). Les comportements sociaux
sont toujours initiés par l’apprenant et le cas inverse
n’est pas considéré ici.
• Système: le comportement d’un simulateur peut
être réactif suite à une demande explicite ou
implicite de l’apprenant (rétroaction). Une demande
explicite est lancée directement par l’apprenant
tandis qu’une demande implicite est une réaction
jugée pertinente suite à un comportement donné de
l’apprenant. Le simulateur peut être proactif et son
comportement dans ce cas est préétabli (scénarisé). Il
se déclenche dans ce dernier cas soit
automatiquement suite à un évènement temporel ou
autre (automatique). Son déclenchement peut être
conditionné par des comportements donnés de
l’apprenant ou par la présence d’états donnés du
simulateur.
Spécification du modèle de traces pour le cas
de CUSIM
Les observables feuilles dans le modèle générique
précédent (en gris) doivent encore être explicités et
instanciés pour prendre en considération les détails de
chaque simulateur. Nous partageons alors l'idée de
spécification des modèles de traces à partir d'un modèle
générique avec (Settouti et al. 2010). Ils ont proposé
dans ce travail une approche de construction de modèles
et de réutilisation d'un méta-modèle de traces d'activités
dans un objectif de modélisation de l'apprenant.
L'approche est basée essentiellement sur un ensemble
de méta-modèles (modèle de trace des activités
d'apprentissage, modèle de profil de l'apprenant et
modèle de diagnostic) qu’ils spécifient pour chaque
EIAH étudié dans le but de supporter et faciliter aux
concepteurs les différentes taches de modélisation.
Notre modèle générique a été spécifié et les
observables feuilles sont alors instanciés. La Fig4.
donne une spécification plus détaillée des
comportements cognitifs de l’apprenant par rapport à
notre simulateur CUSIM.
Les observés générés par l’outil CUSIM sont de
type cognitif parce qu’ils demandent une réflexion et un
raisonnement théorique et pratique. Un observé peut
être de type production s’il s’agit d’une configuration de
paramètres, d’une affectation ou d’un changement de
valeur, ou de type action s’il s’agit d’un lancement
d’action.
17
Mohamed Besnaci
décrit par le triplet (Type, Description, Chemin). Ainsi,
l’appariement va être effectué entre des listes (formes
simplifiées de graphes) de nœuds dont chacun est décrit
par le triplet (Type, Description, Chemin).
Supposons E un ensemble de triplets (Type,
n
Description, Chemin), E= {(T, D, C) , n Є N}.
Supposons qu’on a L1 la représentation de la trace
brute, L2 la représentation d’un pattern, tel que:
L1,L2 ((L1,L2) C E2).
Fig4. Modèle de trace pour les observés générés par
CUSIM
Les relations en lignes continues sont de type « est
un » et les relations en lignes pointillées sont de type
« nécessite ».
Ce modèle va nous servir pour élaborer la trace à
partir du fichier log de CUSIM. Chaque observable de
la trace à construire est désigné par le triplet (Type,
Description, Chemin). Le Type définit le type de
l'activité cognitive Production ou Action. La
Description définit l'activité précise réalisée en termes
de manipulations sur les interfaces de CUSIM (Clique
bouton Lecture, Affichage onglet Exécution, MAJ
glissant Rythme démonstration, …). Le Chemin définit
la succession des onglets ouverts pour arriver à
l'interface conteneur de l'activité. La collecte consiste
donc à définir les triplets des observables de la trace à
partir du fichier log est ce de la manière suivante: à
partir du champ Action de log qui contient des valeurs
correspondantes directement aux feuilles du modèle de
trace et en montant dans le modèle nous pouvons définir
le Type de l'observable. La Description peut être
directement déduite du champ Action du log. Le
Chemin est déduit en combinant les deux champs
Activité et Sous-Activité de log.
Recherche de patterns par appariement
structurel
Nous avons pensé aux techniques d’appariement et de
détection de motifs pour pouvoir transformer les
fichiers logs matérialisant le comportement de
l’apprenant d’une nature technique à une suite de
patterns facile à comprendre et à interpréter.
L’appariement dans notre cas consiste à comparer les
suites d’observés constituants les traces brutes avec les
petites suites d’observés constituants les patterns de la
base. Les traces manipulées respectent obligatoirement
le même modèle de traces (Fig3. Fig4.) et la base de
patterns est conçue suite à une étude et des
expérimentations faites sur l’environnement CUSIM.
L’étude avait pour but de récolter le maximum de
patterns fréquents lors de l’utilisation de CUSIM.
En s’inspirant de certains travaux (Zampelli et al.
2007, Sorlin et al. 2006, Betbeder et al. 2007), notre
appariement consiste à comparer la trace effective avec
chacun des patterns de la base afin de mesurer la
similarité entre eux. L’élément essentiel sur lequel sont
basés les traces et les patterns qu'est l’observable, est
18
Un appariement entre deux listes L1 = (T1, D1,
r
s
C1) et L2 = (T2, D2, C2) , tel que r,s Є N, est une
relation: m C L1*L2.
Pour mesurer la similarité entre deux listes par
rapport à l’appariement m, nous proposons d’adapter la
formule de similarité de (Tversky 1977) généralisée par
(Sorlin et al. 2006):
La formule (1) calcule la similarité entre la trace et
les patterns de la base, en mettant en correspondance
leurs descriptions. La fonction f définit l’importance
relative des descripteurs, les uns par rapport aux autres.
Cette fonction décrite par la formule (2) est souvent
définie comme une somme pondérée:
Afin d’affecter des valeurs pertinentes aux poids, il
faut analyser soigneusement les trois descripteurs (Type,
Description, Chemin) ainsi que les relations entre eux
dans notre simulateur CUSIM. Pour chaque Description
nous pouvons identifier au plus un et un seul Type, ainsi
ces deux informations sont corrélées et le même poids
est affecté pour les deux. Si nous prenons deux observés
avec les couples (Description, Chemin), la similarité
dans le cas où leurs Descriptions sont identiques et leurs
Chemins sont différents est plus élevée que dans le cas
contraire. Ainsi nous avons choisi un poids plus élevé
(égal à 1) pour la Description par rapport au Chemin
(égal à 0,8).
Il est évident que les patterns détectés seront ceux
présentant la plus grande similarité. Cette dernière doit
impérativement être supérieure à un seuil
d’acceptabilité indiqué par les pédagogues. Le seuil
peut être exprimé par exemple par une fonction
dépendante de la taille de la trace et de la taille des
patterns comme suit:
FSeuil(Taille_trace, Taille_patterns).
Élimination de chevauchement et
interprétation
La valeur de la similarité est aussi utilisée dans le cas de
chevauchement entre les patterns détectés. Dans une
telle situation, ceux qui ont une similarité supérieure
sont considérés tandis que les autres seront écartés.
Dans le cas d’égalité, les deux patterns persistent et la
décision est laissée aux pédagogues.
Amiens – 23 et 24 mai 2012
Interprétation des traces d'un EIAH par appariement structurel
La recherche de motifs fréquents ne faisant pas
partie de la base de patterns permet de dégager des
séquences ou épisodes d’actions dont le nombre élevé
d’occurrences peut être porteur d’information. Les
observés non touchés suite à l’appariement, et avant de
les supprimer de la trace, sont exploités pour enrichir la
base de patterns. Par l’intervention du pédagogue, s’il
trouve que ces portions de trace portent une sémantique
utile, il peut les ajouter pour enrichir la base, et elles
seront ignorées sinon.
L’extraction des motifs fréquents commence par la
recherche des motifs de longueur un (un observable),
ensuite les motifs fréquents sont enregistrés et combinés
entre eux pour former des motifs candidats de longueur
supérieure. Les motifs non fréquents sont éliminés, et
par conséquent aucun de leur super-motif n’est
considéré. La fréquence des motifs candidats est testée
pour constituer un nouvel ensemble de motifs fréquents
et l’algorithme continue tant que des nouveaux
candidats peuvent être formés. Considérons E un
ensemble d’observés. Pour déterminer les séquences de
taille (n), nous sélectionnons les candidats possibles de
telle sorte que ces probables n-séquences fréquentes
soient composées par (n) sous-séquences de taille (n-1)
(voir Cheype 2006).
Exemple
Afin de concrétiser notre idée et de présenter ces
modèles, formules et processus, nous allons résumer le
travail par des illustrations. Rappelons qu'on a fixé
comme objectif applicatif, de concevoir un outil
pédagogique interprétant les traces collectées en se
basant sur des fichiers log de CUSIM.
Un fichier log comme celui de la Fig1. est
transformé en une trace brute en le confrontant à notre
modèle de trace Fig4., comme présenté ci-dessous:
L’exemple montre qu’une manipulation de registre
d’adresse suivie d’une manipulation de registre
mémoire suivie d’un click, peut être interprété par un
pattern Ecriture_Mémoire.
Un processus de détection de patterns peut être
déclenché pour faire l'interprétation comme expliqué
auparavant par l'appariement des structures présentées
en Fig5. et Fig6., comme suit:
Fig7. Appariement entre un pattern de la base et une trace.
D'après la méthode d'appariement décrite, toutes les
possibilités d'appariement sont effectuées. Celles qui
présentent les valeurs de similarité les plus élevées sont
gardées et les autres sont exclues. Par exemple pour
l'appariement de la Fig7. entre le pattern et la fenêtre en
gris la similarité est calculée comme suit:
L'appariement
m={[(4,5),(1')];[(6,7,8,9),(2')];[(10),(3')]} et la similarité
est calculée avec les formules (1) et (2) en fonction de
m: Sim(m).
Après cette étape, seuls les patterns effectifs qui
présentent une similarité importante sont gardés. L'étape
suivante est l'élimination des chevauchements en
gardant uniquement les patterns avec les similarités les
plus élevées.
L'outil d'interprétation qui a reçu un fichier log de
CUSIM va générer maintenant une trace de plus haut
niveau composée des différents patterns détectés (ayant
une similarité importante) et d'éventuels observables
restants.
Fig5. Exemple de trace brute issued'un fichier log.
C'est dans cette trace brute qu'on va chercher des
patterns ressemblant à ceux de notre base dont voici un
exemple:
Fig8. Exemple de résultat du processus d'appariement et
détection de patterns.
Extension du processus de détection de
patterns
Fig6. Exemple de pattern (suite d'observables avec une
sémantique)
4ièmes Rencontres Jeunes Chercheurs en EIAH
Une extension de ce processus d’appariement peut
être élargi pour des niveaux plus élevés que les simples
19
Mohamed Besnaci
observés. L’idée est de passer d’un appariement (niveau
1) entre des listes d’observés à un appariement entre des
listes de patterns déjà trouvés (niveau 2). De la même
façon, le processus continue à augmenter le niveau
d’appariement jusqu’à ce que les utilisateurs
pédagogues jugent que le rassemblement de patterns ne
va porter aucune information (il est alors inutile).
Après tous ces traitements d’appariement à plusieurs
niveaux et élimination de chevauchement, il sera temps
de parler d’une interprétation des traces. Les
pédagogues pourront ainsi, face aux niveaux de patterns
trouvés dans la trace brute, se faire une idée
suffisamment claire sur ce qu’un apprenant est entrain
de faire et s’il est dans la bonne direction ou non.
Conclusion & perspectives
Le contrôle pédagogique est un module d’importance en
EIAH. Ainsi, la qualité d’un EIAH est dépendante de
celle de son contrôle pédagogique. Dans cet article nous
avons essayé de proposer un pas vers une nouvelle
modalité de contrôle pédagogique destiné aux
simulateurs. L’idée était de partir des traces de
comportement générées par le simulateur et à travers un
processus de détection de patterns, d’exploiter ces
traces. Nous avons pu, moyennant ce processus, passer
des traces techniques à des formes plus agréables
pouvant nous aider à comprendre le comportement des
apprenants utilisant notre simulateur CUSIM. Nous
espérons qu'avec l'extension du travail pour donner des
niveaux plus abstraits de patterns, les enseignants
pourront également profiter de ce processus.
Le travail nous ouvre comme perspectives, en plus
de l'extensibilité du processus pour plusieurs niveaux
d'abstraction, la possibilité d'essayer d’appliquer ce
même processus sur d'autres EIAH. Seuls les
observables de type cognitif de notre méta-modèle sont
exploités et donc il reste à l'essayer pour d'autres
simulateurs. Nous attendons aussi en perspective, de
lancer une expérimentation de notre processus de
détection avec l’environnement CUSIM.
Remerciements. Je tiens à exprimer mes sincères
remerciements à mon encadrant de stage au LIRIS Mme
Nathalie Guin pour son aide précieuse.
Références
Betbeder, M. L.; Tissot, R.; & Reffay, C. 2007.
Recherche de patterns dans un corpus d’actions
multimodales. EIAH'07 pp 533-544, Lausanne, Suisse
Champin, P.A.; Prié, Y.;& Mille, A. 2004. MUSETTE:
a framework for knowledge capture for experience.
EGC’04, Clément Ferrand.
EIAH. Actes de RJC-EIAH'06,SYSCOM - Université
de Savoie, France.
Cortes Buitrago, G. 1999. Simulations et Contrôle
Pédagogique: Architectures Logicielles Réutilisables,
Thèse de doctorat, Université JOSEPH FOURIER.
Guéraud, G. 2005. Approches auteurs pour les
situations actives d'apprentissage: scénario, suivi et
ingénierie, Thèse de doctorat, laboratoire CLIPSIMAG, Université Joseph Fourier Grenoble
Labat, J. M.; Pernin, J. P.; & Guéraud, V. 2006.
Contrôle del’activité de l’apprenant: suivi, guidage
pédagogique et scénarios d’apprentissage. Proceeding
EIAH'06, Collection IC2, Hermès.
Leclet, D. 2004. Environnements Interactifs
d'Apprentissage dans des contextes professionnels. Des
Tuteurs
Intelligents
aux
Systèmes
Supports
d'Apprentissage à Distance, Mémoire d'HDR, IUP
MIAGE, Universitéde Picardie.
Lourdeaux, D. 2001. Réalité Virtuelle et Formation:
Conception d'Environnements Virtuels Pédagogiques,
Thèse de doctorat, Ecole des Mines de Paris.
Paquette,G.; & Tchounikine, P. 2002. Contribution à
l’ingénierie des systèmes conseillers: une approche
méthodologique fondée sur l’analyse du modèle de la
tâche. Revue Sciences et Techniques Educatives,
Hermès, Vol 9 n°3-4, 157-184.
Settouti, L.; Guin, N.; Luengo, V.; & Mille, A. 2010. A
Trace-Based Learner Modelling Framework for
Technology-Enhanced Learning Systems. The 10th
IEEE International Conference on Advanced Learning
Technologies, Sousse, Tunisia.pp.73-77.ISBN 978-14244-7144-7.
Settouti, L. S.; Prié, Y.; Mille, A.;&Marty, J.C. 2006.
Système à base de trace pour l’apprentissage humain, in
TICE'06, Toulouse, 8 pp.
Siouane, M. 1999. Architecture d'un simulateur
pédagogique, Thèse demagistère, Université Badji
Mokhtar de Annaba.
Sorlin, S.; Sammoud, O.;Solnon, C.; & Ghédira, K.
2006. Comparaison de l'optimisation par colonies de
fourmis et d'une recherche réactive sur des problèmes
d'appariement de graphes. JFPC'06, Nîmes - Ecole des
Mines d'Alès, France.
Tversky, A. 1977. Features of similarity. Psychological
Review, (84)4 pp 327-352
Zampelli, S.; Deville Y.;Solnon, C.; & Sorlin S.,
Dupont P. 2007. Filtrage pour l'isomorphisme de sousgraphe. JFPC'07, INRIA, France.
Cheype, A. 2006. Recherche de motifs séquentiels pour
guider l'interprétation des traces d'apprentissage dans un
20
Amiens – 23 et 24 mai 2012
Une approche centrée enseignant basée sur les patrons pour la
scénarisation pédagogique
Jean-Pierre Clayer
Laboratoire LIUM, Université du Maine, Avenue Laënnec 72085 Le Mans
[email protected]
Résumé
Les attentes de la société et les technologies
évoluent. Ces évolutions changent l'enseignement en
profondeur. Les enseignants et formateurs doivent
organiser et formaliser leurs pratiques. Leur métier
évolue, ils doivent acquérir de nouvelles compétences
de concepteur pédagogique. Nous proposons de les
aider au cours de cette activité de conception
pédagogique et de la mise en œuvre des scénarios
résultants sur des plateformes/supports informatique.
Nous présentons une approche adaptative de
conception à base de patrons et centrée sur l’utilisateur
et l'éditeur élaboré pour supporter cette approche. Une
étude de cas est proposée pour illustrer le processus de
conception.
I. Introduction
L'enseignement change profondément depuis ces
dernières années, en raison d'une part, de l'évolution
des attentes de la société en la matière et, d’autre part,
d'une large diffusion des nouvelles technologies. Dans
ce cadre, les enseignants et les formateurs dont les
pratiques -notamment de conception- sont souvent peu
formalisées doivent maintenant davantage les structurer
et les formaliser (Laurillard, 2012) au moyen de
modèles qui pourront être mis en œuvre sur des
plateformes informatiques. Ils doivent pour cela
acquérir des compétences de concepteurs. Nous
proposons dans ce cadre de les assister dans la
démarche de conception de leur scénario pédagogique.
Cet article présente une approche de conception
adaptative à base de patrons centrée utilisateur. Une
approche à base de patrons facilite la création et la
réutilisation de scénarios implémentables par la
communauté d'apprentissage (Choquet, 2007) (ELEN). L'approche est centrée utilisateur et adaptative.
L'enseignant est l'acteur principal impliqué dans le
processus de conception, mais aidé/guidé pendant
l'élaboration du scénario pédagogique selon ses propres
pratiques.
La question de recherche principale de cet article est
: Quelle est la faisabilité d’une approche de conception
à base de patrons qui faciliterait la création et la
réutilisation de scénarios pédagogiques par des
enseignants/formateurs?
La première section présente le contexte de
recherche de notre travail. Nous proposons dans une
seconde section un processus de conception basé sur
l'utilisation de patrons et sur des techniques
d’adaptation. Ce processus est illustré dans la troisième
4ièmes Rencontres Jeunes Chercheurs en EIAH
section par une étude de cas. La conclusion synthétise
nos résultats et présente les travaux futurs.
II. Le Contexte de Recherche
Dans la littérature, différentes approches s'intéressent
à l'instrumentation de la conception pédagogique et
plus particulièrement des scénarios pédagogiques.
L'approche de modélisation à base d'Educational
Modeling Languages (EML), comme LDL (Vignollet
et Al, 2006), ou la spécification IMS-Learning Design
(Koper et Tattersall, 2005) qui vise à fournir des
modèles opérationnels qui peuvent être manipulés par
des systèmes informatiques dédiés. Cependant ces
spécifications ne sont pas vraiment utilisables par les
enseignants et ne fournit pas de processus qui supporte
la conception pédagogique (Hernandez-Leo et Al,
2010). Une autre approche est de permettre aux
enseignants (qui peuvent être aidés par des spécialistes)
de définir leur propre EML en spécifiant leur domaine
métier et d'utiliser cet EML pour construire leurs
scénarios (Choquet, 2007) (El Kechai, Choquet, 2007).
Nos travaux basés sur cette deuxième approche
supposent que les enseignants peuvent construire leurs
scénarios par le biais de patrons et proposent un
processus de conception adaptatif.
Un patron de conception se concentre sur un
problème bien connu et doit fournir une solution la plus
pertinente par rapport à un contexte donné, illustrée par
des diagrammes. Une approche par les patrons de
conception est adaptée dans le cas d'une conception
enseignante prenant en compte la complexité des
représentations et la dépendance au contexte (Mor,
2010).
Notre approche d'ingénierie vise à soutenir les
enseignants dans leurs tâches de conception
pédagogique. Les patrons de conception pédagogiques
sont une façon de rassembler "les meilleures pratiques"
d'apprentissage, fournissant une manière de
communiquer l'expertise de la communauté à d'autres
enseignants plus novices. Dans cette démarche, un
outil-auteur est proposé pour aider à la conception de
situations pédagogiques, par l'utilisation de patrons de
conception rassemblés dans une banque de données
selon la même approche que (Hernandez-Leo et Al,
2010). Les relations qui existent entre les patrons
peuvent
être
décrites
pour
faciliter
leur
utilisation/réutilisation.
Ces patrons de conception doivent permettre la
définition de scénarios pédagogiques dans des
21
Jean-Pierre Clayer
situations d'apprentissage différentes en termes
d'objectifs, de compétences, de domaine, de méthode
d'apprentissage, d'activités, de ressources, de besoins
d'observation... Quelques exemples de patrons
pédagogiques sont proposés dans les projets européens
E-LEN ou le « Pedagogical Patterns Project ».
Tracking Language qui permet de modéliser les
indicateurs et les calculer en temps réel.
Le projet COLLAGE (Hernandez-Leo et Al, 2006)
propose un langage de modélisation pédagogique
visuel à base de patrons mais mis en oeuvre dans
RELOAD (Bolten, 2005), un outil-auteur basé sur
IMS-LD.
1. Meta-Modèle de Patrons
Notre contribution dans ce cadre est basée sur une
autre approche à base de patrons. Les modèles peuvent
être exprimés dans le langage métier des enseignants
(Choquet, 2007) (El Kechai, Choquet, 2007) (par
exemple avec leurs propres concepts métier et modèles
de représentation). Nous ne visons pas encore des
modèles productifs (des scénarios opérationnalisables),
mais nous ne perdons pas de vue cet aspect. Ainsi, nous
avons choisi de baser l'approche que nous proposons
sur le Domain Specific Modeling Framework (DSM)
(Kelly, Tolvanen, 2008) qui est une approche de génie
logiciel
éprouvée
pour
modéliser
la
dimension « métier » dans le domaine des systèmes
d'information (Kelly, 2007).
III. Une Approche Basée Patrons Centrée
sur l’Enseignant
Selon l'approche DSM, un méta-modèle (figure 1)
doit être défini pour décrire le langage permettant de
composer ou fusionner des patrons de formalismes
différents. Le but de ce méta-modèle conforme au
méta-modèle MOF (Meta-Object Facilities) est d’être
utilisé pour générer un outil d’édition.
Plus spécifiquement, nous avons choisi de
développer notre éditeur avec EMF (Eclipse Modeling
Framework) et GMF (Graphical Modeling Framework)
pour mettre en oeuvre l'approche DSM .
Une autre partie de la question de recherche est la
problématique de l'adaptation dans l'approche visée à
base de patrons centrée utilisateur. L'objectif est de
proposer aux enseignants-concepteurs une assistance
au cours de leur activité de conception qui s'adapte à
leur profil, plus généralement à leur contexte de
conception. Les modèles d'utilisateur et la modélisation
utilisateur (user modelling) sont des éléments clés pour
personnaliser l'interaction. La modélisation utilisateur
est motivée par des différences entre les besoins
individuels
des
utilisateurs
ainsi
que
les
caractéristiques et l'hétérogénéité entre différents
groupes de personnes (Razmerita et Al, 2003). Nous
définissons une approche modélisant l'utilisateur
automatiquement où le modèle de l'utilisateur est défini
durant l'activité de conception en fonction des
caractéristiques de l'utilisateur (le profil utilisateur, les
préférences de l'utilisateur, les compétences, le niveau
d'activité, le niveau de connaissance …). Les
caractéristiques de cet utilisateur sont des informations,
issues de l’analyse des traces, pertinentes à collecter et
qui seront utilisées pour aider les enseignants à gérer
l'activité de scénarisation. L'analyse de ces traces est
nécessaire pour adapter le système aux besoins de
conception de l'utilisateur. Les traces sont structurées à
partir de données « brutes » qui sont acquises et
fournies par le système pendant une session de
conception. Cette collecte est effectuée à l’aide des
indicateurs définis comme des variables signifiantes
sur le plan pédagogique, calculées ou établies à l’aide
de données observées, en vue d’analyser la qualité de
l’interaction, la nature de l’activité ou l’effectivité de
l’apprentissage (Choquet, Iksal, 2007). Nous avons
utilisé le langage défini par ces mêmes auteurs, Usage
22
Figure 1 : Méta-modèle des patrons
Une étude des besoins liés aux situations
pédagogiques associée à une étude des types de patrons
disponibles dans le génie logiciel, nous mène à choisir
les quatre types suivants de patrons, concepts du métamodèle de patrons :
− Les Patrons Pédagogiques sont adaptés pour décrire
les objectifs ou les stratégies pédagogiques. Ils sont
structurés autour des Forces (les raisons qui poussent à
l’application du patron), Resulting Context (l’objectif
atteint après application du patron) et Rationale
(pourquoi nous avons choisi ce patron). Ainsi par
exemple,le patron « Mistake » demande aux étudiants
de créer un artefact comme un programme ou une
conception qui contient une erreur spécifique.
L'utilisation de ce modèle montre explicitement à des
étudiants comment reconnaître et corriger des erreurs.
Ainsi pour spécifier le patron on définira :
• Forces « Les étudiants doivent connaître une
technique pour repérer les erreurs à partir des effets
qu’elles produisent. » et,
• Resulting Context « Les étudiants à partir d’un effet
peuvent localiser une erreur pour la corriger ».
− Nous avons choisi des Patrons d'Analyse pour
décrire des ressources matérielles ou humaines à cause
de leur structure qui permet de définir l'utilisation d'un
Amiens – 23 et 24 mai 2012
Approche pour la scénarisation pédagogique
matériel ou un rôle.
− Les Patrons de Processus peuvent décrire les
activités et les tâches réalisées comme un
enchaînement d'actions ou de tâches secondaires.
− Les Patrons de Conception sont utilisés pour
caractériser la situation d'apprentissage. Ils sont
composés de plusieurs sections spécifiques : la
motivation (le contexte où le modèle peut être utilisé),
les participants et la collaboration (la description des
classes et des objets utilisés dans le patron interagissant
l'un avec l'autre)
2. Le Contexte de Conception
Pour faciliter la tâche du concepteur, l'outil d'édition
récupère des informations sur le contexte de conception
pour adapter les propositions de patrons au cours de
l'activité de conception. Ces informations sont reliées à
un ensemble d'indicateurs qui sont affectés aux cinq
facettes caractérisant le contexte de conception :
1. Le Profil utilisateur est constitué d'informations
sur l'utilisateur et ses préférences. Certaines
informations de ce profil sont récupérées à partir des
formulaires complétés par les utilisateurs euxmêmes, d’autres à partir de la configuration de
l’outil. À titre d'exemple, les informations
enregistrées dans ce profil sont le niveau
d'adaptation proposé par l'outil et-ou fixé par le
concepteur (automatiquement, avec confirmation de
l'utilisateur, adaptation minimale …).
pas liés strictement à l'une de ces facettes. Les facettes
sont corrélées et certains indicateurs peuvent êtres
associées à plusieurs facettes.
3. L’Editeur de Scénario Pédagogique
L'éditeur que nous avons développé est produit grâce
aux technologies EMF-GMF utilisant le méta-modèle
de Patrons (figures 1 et 2). Cet éditeur permet aux
enseignants de concevoir un scénario pédagogique en
utilisant un langage visuel spécifique à leur domaine à
base de patrons. A cet outil est ajouté le système
d'adaptation capable de capitaliser les contextes de
conception et d'adapter les scénarios pédagogiques et
l'interface de l'éditeur. L'interface permet au concepteur
de visualiser les patrons qu'il instancie comme des
cadres divisés en trois compartiments : un pour le nom
du patron, un pour la déclaration du problème et un
pour la représentation graphique de la solution (Figure
2-A). Une boîte à outils (Figure 2-B) fournit les
concepts (les patrons) manipulables. Finalement, les
informations concernant le patron sont aussi
accessibles par l'onglet des propriétés (Figure 2-C) par
lequel GMF caractérise chaque objet.
2. Le Contexte pédagogique qualifie les objectifs et
stratégies pédagogiques définies par le concepteur.
3. Le Contexte Institutionnel est un ensemble
d'informations sur les contraintes et les limites
imposées par l'institution (les salles de classe, les
ressources disponibles ...).
Figure 2: L'editeur généré avec EMF-GMF
4. Le Domaine rassemble les informations
concernant les concepts du domaine d'apprentissage.
5. Le Contexte d'utilisation regroupe des informations
pendant la session de conception sur les actions de
l'utilisateur. Ces actions sont collectées à partir des
traces d’utilisation et de modèles de tâches inspirés des
travaux sur l’approche MUSETTE (Champin et Prié).
Un exemple d'indicateur de la facette « Domaine »
est "Concept in the Domain Vocabulary". La méthode
de cet indicateur vérifie si un concept, utilisé comme
une propriété pour qualifier un patron donné, fait partie
de la facette « domaine » actuelle. Cette méthode est
mise en œuvre selon une règle simple "si le concept
actuel est dans le vocabulaire, rechercher un patron
contenant ce terme".
4. Le Processus de Conception
Pour concevoir un scénario pédagogique, un enseignant
doit élaborer une solution en combinant les quatre
types de modèles permis par le méta-modèle (Figure
1).
Le processus de conception est itératif et consiste en les
étapes suivantes (Figure 3) :
Les indicateurs du contexte de conception ne sont
4èmes Rencontres Jeunes Chercheurs en EIAH
23
Jean-Pierre Clayer
IV. Cas d’étude
TPWorks est une plate-forme d’apprentissage dédiée
aux sessions de TP dans le domaine de
l’Automatisation dans le cursus de l’enseignement des
sciences de l’ingénieur dans les lycées technique.
TPWorks facilite le partage de documents et des
ressources numériques.
Figure 3: Le processus de conception
1 – Spécifier les besoins de la situation
pédagogique: l'enseignant définit les besoins de sa
situation pédagogique (objectifs, ressources, outils,
stratégie, acteurs, rôles, etc);
2 - Choisir un patron : l'enseignant choisit un patron
existant ou pourra en créer un nouveau selon son
intention de conception et en fonction des besoins
spécifiés dans l’étape précédente. Selon la situation
pédagogique, l'enseignant définit des critères pour
choisir le patron le plus approprié. Il peut choisir un
patron parmi les quatre types de patrons proposés par
l'éditeur : un patron de conception pour spécifier la
situation d'apprentissage, un patron d'analyse pour les
ressources humaines ou matérielles, un patron
processus pour les tâches ou les activités ou un patron
pédagogique pour spécifier les objectifs.
Chaque session de TP doit être définie et planifiée en
termes de chapitres, de sous-chapitres ordonnés selon
les intentions de l’enseignant et sa motivation. Les
ressources associées peuvent être définies aussi (des
textes, des médias ...). Les besoins d'observation sont
définis dans cette étape préliminaire dans le but de
modéliser les indicateurs en relation avec chaque
facette du contexte de conception. Ces indicateurs sont
ajoutés aux indicateurs existants et implémentés avec
UTL (avec l'aide d'un spécialiste informatique). Ensuite
l'enseignant peut mettre en place la session de TP sur
TPWorks. Une fois que l'enseignant a été identifié par
une connexion à l'outil, ce dernier adapte l'ensemble
des patrons au contexte de conception de l'utilisateur et
configure les paramètres de l'outil selon son profil.
Dans ce contexte, nous déroulons sur un cas d'étude
quelques itérations du processus de conception avec
l’outil de scénarisation.
Première itération du processus de conception
Etape 1
3 - Fusionner/composer les modèles : l'outil ajoute
le patron choisi par l'utilisateur dans le compartiment
solution du patron. Le scénario est mis à jour. Dans le
même temps, les actions de l'utilisateur ainsi que les
propriétés du patron sont analysées pour définir les
valeurs des indicateurs.
4 - Collecter les informations du contexte : une fois
l'analyse de données réalisée, les indicateurs apportent
les informations au contexte de conception et des
règles d'adaptation sont produites.
5 - Adapter la solution : le système propose des
adaptations possibles au concepteur, en fonction de
l'ensemble de règles produites par la collecte. Les
adaptations
peuvent
mener
à
fournir
des
recommandations sur la méthode de conception, ou
proposer des patrons liés à l'action de l'utilisateur, ou
suggérer une évolution de l'éditeur ou sa configuration,
adaptée au contexte de conception. L'utilisateur peut
toujours modifier le mode d’adaptation souhaité (défini
dans son profil).
24
L'enseignant définit le nom de la session
comme "Dynamic behavior of a
mechanical charge". Le contenu de la
session de TP est composé des sections
suivantes : une présentation courte du
système que les étudiants utiliseront ; une
explication des problèmes techniques qu'ils
peuvent rencontrer ; une liste des tâches
différentes à
réaliser ; des activités
supplémentaires pour approfondir le TP;
des ressources numériques disponibles.
L'enseignant doit réserver la salle de
classe et l'équipement, préparer la salle de
classe, vérifier l'équipement et définir le
scénario de la session de TP sous TPWorks.
Etape 2
L'enseignant définit son intention de
conception. Il peut choisir de définir les
élements de son scénario (les objectifs, la
situation pédagogique, les tâches,...) dans
l'ordre qu'il souhaite. Dans notre cas,
l'enseignant préfère décrire d'abord la
situation d'apprentissage. Il choisit alors le
mode de conception associé au concept «
Situation d'apprentissage ».
L'éditeur propose un ensemble de patrons
de conception liés à tous les types de
situation d'apprentissage enregistrés dans
Amiens – 23 et 24 mai 2012
Approche pour la scénarisation pédagogique
l'outil ou ceux que l'enseignants avaient
définis ou sélectionnés lors d'une
précédente
session
de
conception.
L'enseignant sélectionne des patrons (avec
les critères "lab work" et "implement"). Les
choix les plus pertinents sont proposés en
premier dans la liste. L'enseignant choisit
le modèle "Implementation for a lab work".
Etape 3
l'éditeur ajoute le patron choisi à la
représentation graphique de la solution
(Figure 2-A). Le scénario est mis à jour
avec ce nouveau patron.
Etape 4
Des indicateurs observant les concepts
utilisés pour réordonner les ensembles de
patrons proposés par l'outil sont mis à jour.
Les concepts utilisés sont ajoutés à la
facette « domaine » s'ils n'étaient pas déjà
parmi les concepts du domaine.
Etape 5
L'outil ajoute les nouveaux concepts à
l'ensemble de concepts proposés par l'outil
pour réordonner les ensembles de patrons.
Seconde itération du processus de conception
Étape 1
Le résultat de la première itération est
conforme aux spécifications des besoins de
l'enseignant qui ne spécifie pas alors de
nouveaux besoins.
Étape 2
Quand le concept "activity" est choisi dans la
partie graphique, l'éditeur propose une liste
de toutes les activités existantes. Les
activités liées à la situation pédagogique
sont placées au sommet de la liste. Ici,
l'enseignant ne trouve pas l'activité qui lui
convient et choisit d'en créer une nouvelle
"Implementation of a lab work with
TPworks".
Étape 3
Le scénario est mis à jour et cette activité est
ajoutée à la solution.
Étape 4
Les indicateurs liés à cette activité de
conception (ajouter une activité) sont mis à
jour. La facette « domaine » est mise à jour.
La méthode de l'indicateur "Concept in the
Domain Vocabulary" vérifie si le concept
"TPWorks" fait partie de la facette
« domaine » actuelle sinon il est ajouté.
Étape 5
L'outil propose à l'enseignant d’adapter la
solution en ajoutant la ressource matérielle
"Computer with TPWorks".
4èmes Rencontres Jeunes Chercheurs en EIAH
L'enseignant ajoute ensuite à sa solution les objectifs
de sa situation pédagogique. Il termine de compléter le
patron principal en changeant la propriété
"Participants" pour ajouter le nombre d'étudiants
attendus.
Figure 4: Patron de conception "Implementation of a lab work
session with TPWorks"
Avant de déployer sur TPWorks le scénario résultant,
l'enseignant
doit
définir
encore
l'activité
"Implementation of a lab work with TPworks" avec les
sous-activités ("la présentation courte", "problèmes
techniques", … définies dans sa réflexion
préliminaire). Ces activités seront mises en œuvre
comme des pages Web dans TPWorks. Les pages web
réalisées dans TPWorks sont représentatives des
activités ou des ressources mises à disposition des
élèves. Ce lien entre une activité et une page web peut
être vu comme une règle de transformation permettant
ainsi de transformer le modèle que nous offrons en
pages web pour TPWorks.
V. Conclusion
L'évolution du contexte pédagogique et des
technologies numériques, nécessite une redéfinition du
métier des enseignants et formateurs. En particulier, ces
derniers doivent adapter leurs pratiques de
scénarisation pédagogique, en les explicitant et les
formalisant davantage, nécessitant pour cela de
nouvelles compétences de concepteur informatique.
Nous proposons dans cet article une approche
adaptative de conception pédagogique à base de
patrons centrée sur l'utilisateur pour aider les
enseignants dans cette démarche. Nous proposons un
outil d’édition pour supporter cette approche. Cet outil
est généré à partir des technologies EMF-GMF depuis
un méta-modèle de patrons. L'outil peut être adapté aux
caractéristiques de l'utilisateur et au contexte de
conception (le profil de l'utilisateur, les activités de
conception …) et permet à l’enseignant de concevoir
un scénario pédagogique en utilisant un langage visuel
spécifique à son domaine métier. La limite de cette
approche tient à la création de modèles productifs.
Dans cette partie du travail, nous ne traitons pas encore
25
Jean-Pierre Clayer
la création de tels modèles productifs. À ce jour, nous
n'avons pas expérimenté notre proposition de
recherche, nous avons juste montré, en développant cet
outil, la faisabilité technique de notre approche. De
nouveaux travaux seront centrés sur le raffinement du
processus d'adaptation.
VI. Références
Bolton, Reload Project. United Kingdom: The
University of Bolton, The University of Strathclyde
and JISC. Retrieved August 31st 2005
Choquet C., Ingénierie et réingénierie des EIAH :
L’approche REDiM. HDR en informatique, Université
du Maine, 2007.
Choquet C., Iksal S. Modeling Tracks for the Model
Driven Reengineering of a TEL System - Journal of
Interactive Learning Research (JILR), Special Issue
Usage Analysis in Learning Systems: Existing
Approaches and Scientific Issues, Vol. 18 n°2, p. 161184. , - 2007
Eclipse
EMP,
“Eclipse
Modeling
Projects”,http://www.eclipse.org/modeling/. Last view
12/2010
El Kechaï H., Choquet C . Understanding the
Collective Design Process by Analyzing Intermediary
Objects. The 6th IEEE International Conference on
Advanced Learning Technologies (ICALT'2006), isbn :
0-7695-2632-2, Kerkrade(The Netherlands), p.10471051, July 5-7, 2006
Hernandez-Leo D., Jorrın-Abellan I.M. , VillasclarasFernandez E.D., Asensio-Perez J.I., Dimitriadis Y., A
multicase study for the evaluation of a pattern-based
visual design process for collaborative learning,
Journal of Visual Languages and Computing 21 (2010),
p,313-331.
Hernández-Leo, D, Villasclaras-Fernández, E. D.,
Asensio-Pérez, J. I, Dimitriadis, Y., Jorrín-Abellán, I.
M., Ruiz-Requies, I., & Rubia-Avi, B. (2006).
COLLAGE: A collaborative Learning Design editor
26
based on patterns. Educational Technology & Society,
9 (1), 58-71
Kelly S. Domain Specific Languages vs. Generic
Modelling Languages, interview may 2007 :
http://www.ddj.com/architect/199500627
Kelly, S., Tolvanen, J.-P., Domain-Specific Modeling:
Enabling full code generation , Wiley-IEEE Computer
Society Press, 2008
Koper, R. and Tattersall, C., Learning Design : A
Handbook on Modelling and Delivering Networked
Education and Training, Springer Verlag, 2005
Mor, Y. Embedding Design Patterns in a Methodology
for a Design Science of e-Learning, in Christian Kohls
& Joachim Wedekind, ed., 'Problems Investigations of
E-Learning Patterns: Context Factors Solutions',
Information Science Publishing, Hershey, PA, 2010
Pedagogical
Patterns
http://www.pedagogicalpatterns.org/
Projet
européen
–
Minerva
http://www2.tisip.no/E-LEN/
Project :
programme :
Razmerita
L.,
Angehrn
A.,
Nabeth
T.
On the Role of User Models and User Modeling
in Knowledge Management Systems, User Modeling
2003, 9th International Conference, UM 2003,
Johnstown, PA, USA, June 22-26, 2003, Proceedings.
Lecture Notes in Computer Science 2702 Springer
2003, ISBN 3-540-40381-7
Laurillard D, Teaching as a Design Science, Building
Pedagogical Patterns for Learning and Technology,
edition Routledge, 2012, ISBN 978-0-415-8038.
Vignollet L., Ferraris C, David J.-P, Lejeune A, LDL:
An
Alternative
EML,
Advanced
Learning
Technologies, 2006. Sixth International Conference
Champin P-A, Prié Y, MUSETTE : un modèle pour
réutiliser l’expérience sur le web sémantique, dans
Journées "Web Sémantique" Action Spécifique STIC
CNRS, oct. 2002, Paris.
Amiens – 23 et 24 mai 2012
Manifestation culturelle du numérique
Thierry Danquigny
Equipe Trigone, Laboratoire Cirel, Université Lille1
[email protected]
Résumé
Notre projet de recherche concerne l’influence des objets connectés sur la vie quotidienne des nouvelles générations. Nous nous interrogeons sur la réalité des différents
changements dans les manières d’être et d'apprendre des
nouvelles générations en contact fréquent et précoce avec
des moyens numériques pour communiquer, rechercher,
s’informer, apprendre et se distraire. A partir d’entretiens
d’explicitation, nous analysons l’influence supposée des
objets connectés au travers du modèle culturel de Edward.T. Hall (1959) . La mobilisation de ce modèle force
à penser la situation des jeunes générations en termes
fondamentaux. Dans cette perspective l’usage du numérique est une manière d’exister dans un milieu donné, voir
de survivre. Le modèle culturel est donc indissociable de
la description d’un milieu de vie, où humain et nonhumains, jouent un rôle inscrit dans une biographie mondiale. Fondamentalement, le cadre culturel demeure fixe,
seuls les objets connectés évoluent, se développent en se
généralisant à l’ensemble des générations. Les objets
numériques sont à la fois acteurs et solutions. Pour les
nouvelles générations, ils sont les moyens d’établir une
médiation avec leur milieu de vie. En tant que solution
adaptée, leur usage est renforcé. Nous concluons sur une
constatation de l’accélération des changements culturels
provoqués par l’usage du numérique.
Introduction
Notre société vit l'époque singulière des ''multitudes''.
Une multitude d'objets connectés matériels ou immatériels pour communiquer, s'informer, apprendre ou encore
se distraire peuplent notre vie quotidienne (Pisani &
Piotet, 2008).
Notre société vit encore l'épreuve des multiples signaux
d'alerte. Le taux de chômage, les nouvelles exigences du
marché de l'emploi, les différences de conditions de vie
entre classes d'âge, l'injonction à la mobilité professionnelle expliquent une ''montée des incertitudes'' (Castell,
2009). Parallèlement, avec l'accroissement des populations étudiantes, l'Université française, vit la multitude
des profils, l'hétérogénéité des niveaux et attentes (Alava,
Romainville, 2001). Dans ce contexte, l'Université engage
un processus dit de ''modernisation'' pour faire face aux
différents enjeux sociétaux. Les différents rapports d'Etat
Isaac (2007), Besson (2008), Demuynck et Pécresse (2011)
tentent d'ouvrir des pistes pour renforcer l'efficacité de
l'institution, intégrer les promesses du numérique et adapter les enseignements aux ''digital natives'' (Prensky,
2001). Le numérique, l'éducation et les nouvelles générations sont ainsi annoncés comme les enjeux de ce siècle.
Selon Abbott (2010), « There are undoubtedly extraordinary times, rich in opportunity yet loaded with uncertainty.
» (p. 215). Ce contexte sociétal constitue le milieu de vie
4ièmes Rencontres Jeunes Chercheurs en EIAH
des étudiants dont le dénominateur commun est l'évolution et la généralisation des usages numériques (Ministère
de la culture, 2010; Eurostat, 2010) dans les sphères privées, académiques ou professionnelles. Cette diffusion
rapide de moyens pour accéder et traiter la connaissance
modifie notre relation au savoir et à la manière d'apprendre (Buckingham, 2010; Serres, 2009). Pour certains
observateurs, les objets connectés auraient ainsi une influence sur la manière de se comporter, de penser et d'apprendre. Pour certains l'influence serait positive (De Rosnay, 1995; Papert, 1999; Prensky, 2011; Tapscott, 2009)
pour d'autres négative (Bauerlein, 2008; Keen, 2008; Carr,
2009; Small, 2010).
Notre question de recherche est d'évaluer en quoi les
objets connectés de type ordinateur, téléphone, balladeur
ou encore les consoles de jeux utilisés au quotidien influencent et font évoluer les manières d'apprendre. Nous
vérifions l'hypothèse que les manières d'apprendre dans le
temps de la révision sont dépendantes du contexte sociétal,
académique et de la connaissance pratique des objets
connectés. Cette hypothèse est vérifiée dans le moment de
révision qui mobilise à la fois les sphères privées, académiques et professionnelles. Notre terrain de recherche est
situé à l'Université Lille1. Notre développement se décline en deux parties :
Une première partie macro envisage l'environnement de
l'Homme et le contexte sociétal indépendamment des
situations d'apprentissage. Nous empruntons à Edward T.
Hall (1959), son modèle descriptif des systèmes culturels
pour bâtir une grille interprétative des conduites humaines
en situation d'interaction avec l'environnement. Avec
Leroi-Gourhan (1945), nous comprenons qu'au contact
avec son environnement, ces conduites humaines sont des
vecteurs de création et de développement des objets techniques. Au sens de Friedmann (1966) et de Ellul (1977),
ces objets techniques sont pour l'humain, un nouveau
milieu dit technique. Une deuxième partie micro envisage
ce milieu technique constitué de dispositifs numériques
comme facteur influant l'apprentissage humain. A cette
étape, nous faisons un état de nos premières recherches
terrains réalisées à partir de trente entretiens d'explicitation ainsi que de la mise en place d'un questionnaire. Ces
recherches s'appuient sur les grilles d'interprétations et
hypothèses contruites dans la première partie.
Première partie : l'approche Macro
Le point de vue de l'ethnotechnologie :
Pour introduire ce point de vue nous utilisons les travaux de Gaudin (2010). L'auteur nous permet de comprendre l'influence réciproque de la technique et de la
société. Pour l'ethnotechnologie, la technique est comprise et analysée comme activité dont l'objet est de donner une forme à la matière (ibid). Elle est un socle sur
27
Thierry Danquigny
lequel repose la civilisation. Elle est la condition sine qua
non de toutes activités humaines. Ce courant de pensée
que nous retrouvons chez Ellul (1977) sous la forme du
concept de Technique, nous permet d'introduire le concept
d'empreinte comme manifestation de l'usage des moyens
techniques. C'est ce concept, que nous utilisons pour notre
recherche (au niveau micro) pour comprendre les pratiques étudiantes dans le moment de révision.
Pour notre recherche nous postulons que cinq facettes
permettent de décrire les objets influencant le milieu de
vie des étudiants. Nous retiendrons l'acronyme CRIAD
pour Communiquer, Rechercher, s'Informer, Apprendre et
se Distraire. Le cadre théorique de l'ethnotechnologie
nous permet de comprendre comment les CRIAD interagissent avec le milieu de vie des étudiants.
L'ethnotechnologie réfute le principe de causalité linéaire pour adopter une causalité circulaire (Gaudin,
2009). Gaudin définit le système technique comme un
ensemble cohérent de savoir-faire liés entre eux par un
réseau d'interactions. Il reprend les thèses de Gille (1978)
sur l'émergence des systèmes techniques . Pour Gille,
l'introduction d'une technologie ne peut être isolée d'un
tout, « Système technique et système social sont aussi
intimement liés... » (p. 5). Il ne s'agit donc pas d'étudier la
société et la technique isolément mais d'envisager société
et technique en tant que système abritant des influences
réciproques. C'est donc sous l'angle de la complexité
(Morin, 1977) que doit se penser l'ethnotechnologie et la
systémique. Flichy reprend le thème de l'influence mutuelle du social et du technique. Il présente cette thématique en décrivant un contexte favorable à l'émergence de
certaines technologies et les effets initiaux non nécessairement prévus :
(...)Les concepteurs du micro-ordinateur et de l'internet ont donc incorporé dans les systèmes informatiques qu'ils ont développés, des pratiques sociales
nouvelles, celle de l'individualisme connecté. Mais
ces nouvelles techniques à leur tour vont performer
les usages. (Flichy, 2004, p.36)
Flichy explique qu'il y a un avant internet, un contexte
social (en l'occurrence le mouvement hippie des années
60) qui a porté le développement des objets techniques.
Ces derniers eux-mêmes ont renforcé des usages qui par
extension, pourraient dans un prolongement purement
logique, inclure les nouvelles bases d'un développement
d'objets.
De ce cadre théorique nous retenons pour notre recherche que les CRIAD doivent être étudiés en interelation avec les pratiques des étudiants dont ils sont à l'origine et la conséquence.
Le point de vue de la sociologie des associations :
Penser les pratiques des étudiants et les CRIAD en tant
que système implique d'en identifier les éléments constitutifs. Selon Ellul (1977), un « système est un ensemble
d'éléments en relation les uns avec les autres... » (p. 88).
Dans le cadre de la sociologie des organisations, ces éléments en interaction sont aussi agissants et sont nommés
acteurs humains ou non-humains. Un CRIAD sera tout
autant déterminant qu'un utilisateur humain. Dans la perspective de la sociologie des associations et de la théorie
de l'acteur-réseau tout membre du système est acteur et
28
synthèse d'acteurs. Cette terminologie d'acteur qui désigne à la fois les étudiants et les CRIAD, confère une
forme de neutralité à notre analyse. En effet, comme le
suggère Madeleine Akrich (1987), les objets techniques,
en tant que non-humain, n'en sont pas moins actifs et
déterminant dans l'émergence d'un système :
Les objets techniques définissent dans leur configuration une certaine partition du monde physique et
social, attribuent des rôles à certains types d'acteurs humains et non-humains - en excluent d'autres, autorisent certains modes de relation entre ces différents
acteurs de telle sorte qu'ils participent pleinement de
la construction d'une culture, au sens anthropologique du terme, en même temps qu'ils
deviennent des médiateurs obligés dans toutes les relations que nous entretenons avec le "réel". (Akrich,
1987, p.1)
Selon Callon et Latour (1997), « les non humains interviennent de manière active c'est à dire qu'ils relancent
l'action dans des directions inattendues. Cette participation des non-humains à l'action conduit à concevoir les
entités comme des réseaux. » (p. 114). Le terme ''acteur''
recouvre ainsi deux grandes catégories que sont les humains et les non-humains. La présence d'objets techniques
force la définition et la catégorisation. L'humain est en
relation avec le non-humain et délimite une partition du
monde en deux parties physique et social. Nous posons
l'hypothèse pour notre recherche que la qualité et la fréquence des relations entre acteurs humains et nonhumains créent des habitus (Bourdieu, 1980) qui forgent
des manières d'agir et d'apprendre des étudiants.
Les travaux sur l'empreinte technique (Perriault, 2009)
nous permettent de comprendre comment se forment ces
habitus : ''Le terme «empreinte de la technique» désigne
ici la façon dont la technique et l'usage d'une technologie
façonnent en retour ceux qui les pratiquent. (Perriault,
1981).'' Pour l'acteur humain, l'empreinte est un acquis.
Notre recherche concerne non pas l'inné mais l'acquis
dans l'activité et au contact de la société et en interaction
avec elle. Comme le fait remarquer Claude Levis Strauss,
c'est ce qui fait la différence entre réflexe pupillaire inné
et un geste acquis par la pratique ou l'entrainement (LéviStrauss, 2008, p.50). Ainsi dans le cadre de notre recherche, la manière de se tenir devant un ordinateur, la
manière de prendre des notes pour un étudiant ou encore
la manière d'apprendre serait à comprendre dans le contexte socio-culturel et socio-technique à un moment donné. En reprenant le concept de l'empreinte développé par
Perriault dans la ''Logique de l'usage'', l'utilisation de
moyens techniques pour produire, pour mener une activité
professionnelle marque physiquement l'humain. La corpulence, la démarche, la forme des mains, la crasse des
cheminots (Perriault, 1981), sont autant de marqueurs
physiques apportant des éléments de preuve d'un contact
avec une activité impliquant des acteurs non-humains.
Sur le plan méthodologique, notre recherche sur les
CRIAD se heurte à la difficulté de repérer des marqueurs
qui ne sont pas toujours physiques.
En effet, les travaux de Kandel(2007) sur l'aplysie, une
limace de mer, montre que l'interaction répétée avec l'environnement provoque une modification neurologique de
Amiens – 23 et 24 mai 2012
Manifestation culturelle du numérique
la mémoire à long terme dont la manifestation visible est
le comportement et dont la modification accessible par
dissection est la structure biologique :
Fondamentalement, à l'aide de Hall, nous expliquons
qu'un des facteurs de mise en action de l'homme est de
s'adapter à son environnement.
Nous découvrîmes que la mémoire à long terme de
l'aplysie, comme chez l'homme, requiert un entrainement répété entrecoupé de période de repos. La
perfection nait de la pratique même chez les mollusques. Ainsi, quarante stimuli administrés consécutivement entrainent une habituation du retrait de la
branchie qui ne dure qu'un jour, mais dix stimuli
chaque jour durant quatre jours produisent une habituation qui dure des semaines. (Kandel, 2007, p.
199)
Dans cette expérience, comme dans notre recherche
seule une trace neurologique pourrait être observée. Les
expériences du neurologue américain Small ont par
exemple permis de mettre en évidence des traces d'activités neurologiques créées après une utilisation de quelques
heures de recherche sur Google sur des groupes ayant une
pratique régulière et une absence de pratique. Il s'avère
qu'à l'issue de cinq heures de pratique les groupes avancés
et novices présentent les mêmes traces d'activités neurologiques. Ce constat fait dire à Small :
L'homme a élaboré des méthodes défensives avec
une ingéniosité étonnante, non seulement en ce qui
concerne la guerre, mais aussi la médecine, la religion et l'application des lois. Il doit se défendre non
seulement contre des forces naturelles menaçantes,
mais aussi contre des groupes humains hostiles. (Hall,
1959, p. 68)
If our brains are so sensitive to just an hour a day
of computer exposure, what happens when we spend
more time ? What about the brains of young people,
whose neural circuitry is even more malleable and
plastic ? What happens to their brains when they
spend their average eight hours daily with their
high-tech toys and devices ? (Small, 2008, p. 17)
L'ensemble de ces travaux nous permet d'affirmer que
la singularité de l'humain est une prise de conscience
empirique et théorique de la modification de la physiologie individuelle par interaction avec l'environnement. Que
ce soit en interagissant avec une bêche, un pinceau ou un
smartphone, dans un milieu naturel ou dans un milieu créé
par l'humain, l'homme est transformé (Mumford, 1956;
Mac Luhan, 1964) physiquement et neurologiquement.
L'imagerie cérébrale est ainsi vue par le CERI (2007)
comme une opportunité pour inventer une nouvelle
science de l'apprentissage.
Dans le questionnement de Small sont cités les paramètres de notre recherche : l'activité dans un environnement informatisé, les CRIAD et les étudiants.
Pour notre recherche, notre questionnement concerne
les manifestations quantifiables issues des relations entre
les acteurs humains et non-humains.
Le point de vue de l'anthropologie culturelle :
Dans les parties précédentes, nous avons qualifié les relations entre technique et société. Dans le cadre de la
théorie de l'acteur réseau, les systèmes techniques et sociaux, sont étudiés sous l'angle de l'analyse des interactions entre acteurs. Dans le cadre de l'anthropologie culturelle de Hall (1959), les individus regroupés en sociétés
auront des préférences culturelles à partir d'une gamme de
pratiques universellement repérées. Ce cadre nous permet
de bâtir une méthodologie pour étudier les pratiques étudiantes en situation d'apprentissage.
4ième Rencontres Jeunes Chercheurs en EIAH
La genèse de l'invention du silex taillé, du chopper, décrite par Leroi-Gourhan(1945) décrit cette démarche de
conception de moyens aptes à garantir sa survie par une
traduction matérielle « au point de contact entre le milieu
intérieur et le milieu extérieur » (p. 339). Ces moyens
créés par hasard ou procédant d'une démarche innovante
sont confrontés au réel pour disparaître ou s'enrichir de
nouvelles fonctionnalités. Les innovations ainsi émergentes deviennent pour Hall et Friedmann (1966) des
prolongements de l'homme hors de l'homme. L'action de
l'homme est amplifiée relativement aux effets constatés
sur son milieu de vie :
De nos jours, l'homme a développé des extensions de
toutes les parties, ou presque, de son corps. L'évolution de l'arme va du poing et des dents à la bombe
atomique. […] Des instruments tels que les lunettes,
la télévision, le téléphone et les livres qui sont des
extensions matérielles des membres humains, transportent la voix à travers le temps et l'espace. (Hall,
1959, p. 75)
Mac Luhan (1964), reprenait ces conclusions pour caractériser les nouveaux médias de l'époque en tant que
prolongements sensoriels de l'humain dans un milieu de
vie marqué par l'information en tant que donnée stratégique. Dans un environnement donné, la capacité à mobiliser les prolongements sensoriels seraient ainsi une garantie pour sa propre survie. Selon Hall, chaque individu
est à situer dans une culture. Comprendre un individu
c'est comprendre sa propre culture. Pour Hall, la compréhension des différences culturelles est une communication.
Toute communication a des mots, un vocabulaire, une
grammaire. L'humain disposerait d'une grammaire fondamentale que Hall a nommé les Systèmes de Communication Primaire (SCP). Le terme Système suggère que les
mots constitutifs de cette grammaire forment un tout
cohérent en équilibre permanent. L'organisation de ces
mots, leur agencement, leurs relations garantissent, pour
l'humain, à un instant donné, une situation stable ou en
cours de stabilisation. Le terme Communication nous
rappelle que l'humain est en interaction avec d'autres
humains évoluant dans un milieu naturel ayant des contraintes physiques. Nous esquissons dans cette description,
la théorie de l'acteur-réseau fondé sur une interaction
comparable entre acteurs humain et non-humains dans un
même espace de vie. Le terme Primaire affirme le partipris de considérer l'homme dans ce qu'il a de plus fondamental. Avec les SCP, Hall décrit ainsi le contexte de vie
de l'humain et fait de l'influence culturelle sur le comportement le point d'orgue de sa thèse :
29
Thierry Danquigny
Cette question touche au but principal de cet ouvrage,
qui est de prouver à quel point la culture conditionne
le comportement. La culture n'est pas une idée exotique pour laquelle se passionne une petite chapelle
de spécialistes au fin fond des mers du Sud. C'est un
moule qui nous modèle tous; la culture conditionne
notre vie quotidienne, de manière parfois inattendue.
(Edward T. Hall, Le langage silencieux, 1959, p.47)
Partant de l'hypothèse qu'il est nécessaire de connaître
le système culturel rencontré pour pouvoir établir une
communication et maintenir le rapport, Hall détermine
une grille de lecture donnant accès au décodage des différences culturelles. L'hypothèse complémentaire est qu'une
culture a des fondamentaux qui se situe à un niveau élémentaire, primaire. Ce niveau dit biologique imposerait
des catégories communes à l'ensemble des cultures. C'est
ainsi que d'un point de vue méthodologique que Hall
définit les SCP :
Le concept de milieu technique est historiquement étudié par Friedmann(1966). Ellul enrichit les analyses de
Friedmann avec le concept de Technique. Ellul explique
ainsi le milieu technique à partir du concept de Technique.
La Technique est pour l'auteur un ensemble de moyens
efficaces en vue d'un objectif. La Technique n'est donc
pas un ensemble de technologies mais un ensemble de
moyens et de méthodes qui favorise le renforcement du
milieu technique. L'emploi de techniques efficaces favorisent par contre la création de technologies. Dans ce contexte, les CRIAD vont permettre à l'utilisateur étudiant
d'optimiser leurs activités d'étude. En ce sens, l'accéleration des actions se doublera d'une recherche d'efficacité
dans l'intéraction ou l'association (Hall, 1959). Dans le
shéma ci-dessous, un téléphone portable pourra rapidement permettre d'organiser un rendez-vous, de trouver un
partenaire ou encore de résoudre un problème. Les SCP
de Hall dans le milieu technique sont ainsi mobilisés
rapidement et efficacement.
Les SCP sont : interaction, association, subsistance,
bisexualité, territorialité, temporalité, connaissance,
jeu, défense, exploitation (utilisation de la matière).
(Hall, 1959, p. 56-57)
Les SCP sont donc pour Hall une manière de cartographier les conduites humaines. Analysable globalement
pour la société et par individu, ces SCP constituent des
grilles de lecture de l'usage des objets techniques. Le flux
de contraintes issu de l'environnement est filtré par ces
SCP pour se traduire en moyens de résistances, d'agir, de
réagir ou de construire :
Ce processus d'adaptation mène aux formes de vie
complexes qu'on trouve sur terre. Les cultures différentes sont analogues aux espèces en ce sens que certaines survivent tandis que d'autres disparaissent.
Certaines s'adaptent mieux que d'autres. Analyser le
changement, c'est donc analyser la survie.(Hall, 1959,
p.56-57)
Hall décrit un processus d'adaptation et dans le même
temps un processus créatif. Toute adaptation dont le fondement primaire est la survie prend la forme d'organisations, de structures et d'objets. Les CRIAD que nous étudions peuvent être considérés comme la manifestation de
ce processus créatif. Nous proposons de considérer ces
CRIAD comme une réification des SCP définis par Hall.
Le point de vue de la sociologie des techniques :
Pour étudier cette réification des SCP en CRIAD, nous
souhaitons introduire la notion de milieu technique que
nous distinguons du milieu naturel. Pour Ellul, le milieu
technique est vu comme une médiation entre le milieu
d'origine dont est issu l'humain et le milieu maitrisé par
l'humain :
(…) cette médiation devient exclusive de tout autre :
il n'y a plus d'autres rapports de l'homme à la nature,
tout cet ensemble de liens complexes et fragiles que
l'homme avait patiemment tissé (…) disparaît : il n'y
a plus que la médiation technique qui s'impose et
devient totale. (Ellul, 1997, p. 44)
30
(figure 1)
L'étudiant (cf fig. 1) est entouré des dix SCP qui filtrent
son interaction avec les acteurs humains ou non-humains.
Dans son milieu technique, il tient dans la main un
CRIAD (téléphone). Evoluant dans un milieu technique,
l'étudiant adopte le critère d'efficacité symbolisé par les
flèches bleues. Dans notre recherche, c'est par l'étude des
CRIAD, des SCP mobilisés que nous tentons de qualifier
et quantifier l'empreinte des environnements numériques
sur les activités de l'étudiant.
Eléments de synthèse :
Dans cet article, nous cherchons à regrouper différents
courants théoriques, à articuler la sociologie des techniques, la théorie de l'acteur-réseau et l'anthropologie
culturelle.
Par la théorie de l'acteur-réseau, nous identifions un
ensemble socio-technique et des acteurs ayant chacun à
leur niveau une influence sur la cohérence.
Par la sociologie des techniques, nous identifions les
facteurs d'efficacité, d'optimisation et de pragmatisme
contribuant à créer un milieu technique dont la cohérence
interne et à la mesure du fonctionnement d'un objet technique.
Par l'anthropologie culturelle de Hall, nous comprenons
la culture comme étant une matérialisation des stratégies
de survie.
Amiens – 23 et 24 mai 2012
Manifestation culturelle du numérique
En intégrant le concept d'empreinte, nous déduisons que
la culture est la manifestation d'une manière d'utiliser les
objets. La culture dans la métaphore musicale de Hall est
une partition de notes qui enveloppe l'ensemble des acteurs humains et non-humains (cf fig. 1).
Dans l'ordre de notre exposé, les différents cadres théoriques s'articulent de la manière suivante : notre milieu de
vie est créé par l'humain, il est un milieu technique (Ellul,
1977; Friedmann, 1966; Gaudin, 2010). La stabilisation
de ce système ne peut être réalisée qu'à partir de moyens
trouvés dans le milieu conçu par l'homme. Le milieu
technique est ainsi en auto-accroissement par le simple
fait qu'un problème technique suggère une solution technique (Ellul, 1977). La solution la plus efficace, la plus
économe sera adoptée.
Dans le modèle culturel de Hall, les dix SCP doivent
être optimisés afin de réaliser des arbitrages efficaces à la
mesure du projet de survie. Entre les dix SCP, l'humain
ferait des arbitrages, des calculs et des négociations. En
interaction dans l'environnement, la mesure du danger
déclenchera l'association pour garantir la préservation de
son territoire dans les meilleurs délais. Dans le monde du
vivant sont rapidement négociés les SCP de Hall comme
l'interaction, la défense, l'association, la subsistance, la
territorialité et la temporalité. Les objets créés par
l'homme pour agir sont utilisés pour optimiser les SCP. A
ce stade de notre réflexion, nous pouvons introduire le
statut des CRIAD pour les nouvelles générations. A notre
époque quels sont les réels changements ? L'anthropologie relève aisément que nombre d'objets fabriqués par
l'Homme étaient dictés par l'impérieuse nécessité de survivre. Mais de nos jours que dire d'un smartphone ou
d'une console de jeux connectés au web ?
Deuxième partie : l'approche Micro
Notre approche micro est fondée sur une étude terrain
en cours. Le travail de collecte est réalisé à partir d'une
série de trente entretiens et un questionnaire sur une population étudiante à l'Université Lille1 en Licence. Notre
intention est d'évaluer l'importance des CRIAD dans la
vie quotidienne en termes d'intensité d'usage et d'utilisation historique. Une première partie de nos entretiens
interroge la biographie individuelle numérique puis nous
établissons un lien avec le métier d'étudiant pour nous
intéresser à des moments clés de la vie étudiante comme
l'acquisition de connaissances, la révision et l'examen.
Avec le concept d'empreinte, nous cherchons ainsi à mesurer en quoi le contact avec les CRIAD modifie l'activité
dans les situations de la vie quotidienne et en quoi l'activité d'étude est influencée.
Méthodologie de recherche :
Notre recherche est menée selon une approche fondée à
partir d'entretiens d'explicitation (Vermersch, 2010) préparatoire à un questionnaire qui ne fait pas partie de cette
communication. Les entretiens cherchent à répondre à des
questions concernant les sphères privées-publiques et
concernant les sphères académiques. Appliquée à notre
terrain de recherche, notre question consiste à vérifier si
des usages identifiés dans la sphère privée se transposent
dans la sphère académique. Cette approche nous permet
d'identifier des continuités ou des ruptures entre les différentes sphères. Nous avons vu précédemment que les
4ième Rencontres Jeunes Chercheurs en EIAH
travaux de recherche du CERI (2007) et Small(2010) sur
les humains et Kandel(2007) sur les invertébrés suggèrent
que la répétition d'une activité est neurologiquement
structurante. Notre méthodologie consiste donc à évaluer
l'intensité d'usage des CRIAD dans la sphère privée et
d'étudier par contraste l'activité étudiante. Nous choisissons le moment de la révision dans la mesure où ce moment est un moment clé : il est en lien avec l'obtention du
diplôme ou tout au moins avec la possibilité de continuer
dans un cursus. Par ailleurs il se situe à la frontière des
sphères, public ou institutionnelle. Chez Leroi-Gourhan
(1945) au point de contact avec les contraintes du milieu
extérieur, des objets naissent. Chez Hall (1959), par le jeu
des interactions dans un milieu donné, des stratégies de
survie se mettent en place mobilisant humains et nonhumains.
Dans nos entretiens préliminaires, nous identifions deux
moments. Le premier moment concerne l'usage des
CRIAD dans la sphère privée, le second l'usage des
CRIAD dans la sphère académique.
Entretiens correspondant à l'usage dans la sphère
privée.
En l'état de nos recherches, nous avons mis en évidence
que les SCP sont pour un étudiant des moyens d'optimiser
son temps, ses déplacements, ses efforts. Le smartphone
en tant qu'outil de convergence de services est un outil qui
est solution pour de multiples problèmes rencontrés dans
un milieu lui-même modifié par le CRIAD. Il est solution
des problèmes qu'il crée. Dans les extraits qui suivent, le
CRIAD est décrit en des termes quasi-magiques et à
l'usage incontournable :
Une étudiante en gestion, 21 ans, parle de l'usage de son
smartphone : '' (…) le smartphone çà a été un grand moment ! (…) Non çà a méchamment changé ma vie. (…) Il
n'est jamais éteint. On peut m'appeler 24/24. Et parlant de
son ordinateur : ''J'ai le mien qui dort avec moi, toujours
allumé, prêt à répondre''.
Entretiens correspondant à l'usage dans la sphère
académique
Le deuxième moment est le temps de l'usage académique des CRIAD. A cette même étudiante dotée d'un
smartphone, d'un ordinateur portable et particulièrement
active en bureautique pour avoir pratiqué très tôt le diaporama avec ses parents, nous posons la question du moment de révision en vue d'un examen. Les réponses qui
suivent, indiquent des pratiques traditionnelles avec
l'usage des environnements informatisés sous la forme
d'une assistance : ''je fais des fiches alors un exemple
concret on va prendre le droit. Le droit donc je reprends
tous mes cours, j'ai toutes mes notes, je reprends mes
cours je refais des fiches. Certaines notions que j'ai pas
assimilées je vais voir sur internet pour avoir les def et
très souvent je me fais des plans pour vraiment avoir le
plan, le sommaire du cours...'' Sur l'usage de l'annotation,
le papier est déterminant : ''du rouge, bleu et noir. Rouge
c'est pour les titres... parce que je hum visualise beaucoup
les parties le plan et donc le plan est toujours d'une autre
couleur et les définitions d'une autre mais deux couleurs
pas plus parce qu'après je suis perdue'. Les entretiens
menés démontrent un usage ''traditionnel''. Un étudiant en
biologie, particulièrement habile en informatique, 20 ans,
31
Thierry Danquigny
déclare refaire ses exercices sur papier en s'isolant et
imprime ses documents pour apprendre.
Enseignement de cette recherche
Entre les pratiques numériques dans la sphère privée et
les manières d'apprendre dans la sphère académique, les
étudiants interviewés ont une tendance majoritaire à utiliser des moyens différents de ceux mobilisés au quotidien.
L'étudiant multitâche et adepte des nouvelles technologies
mute dans le moment de révision en étudiant monotâche
et concentré. Le moment de révision envisagé dans notre
recherche comme rupture implique des usages eux aussi
en rupture. Ce premier constat enrichit notre problématique et pose l'incidence de facteurs non technologiques
sur les manières d'apprendre.
La phase d'entretien confirme que le milieu des nouvelles générations est réellement constitué de CRIAD
optimisant leur présence au monde. Comme le souligne
différents auteurs (Aubert, 2006; Ehrenberg, 1998; Lipovetsky, 2005 ; Tremel, 2001) les CRIAD contribuent à
renforcer des relations entre pairs, à être un moyen pour
affirmer et construire son identité ou affermir des habilités
dans des domaines non-académiques comme le jeu vidéo.
Le CRIAD est dans ce contexte paré de vertus pragmatiques. Le mode connecté est vu en première analyse
comme un accélérateur de négociations des SCP. Entre le
moment de l'interaction et le projet d'association le temps
se contracte et apporte des solutions rapides et efficaces
adaptées aux conditions de vie du milieu technique. Dans
le moment de révision, les conditions d'évaluation semblent influer les manières de mobiliser des familles de
moyens particuliers en rupture avec la sphère nonacadémique.
Notre hypothèse à l'issue de cette première partie de
notre recherche est que les manières d'enseigner et les
types d'évaluation influencent le moment de révision, le
système social influençant le système technique (Gaudin,
2010; Gille, 1978).
Conclusion
Notre recherche met en évidence que les CRIAD mobilisés par les étudiants sont autant de moyens pour s'adapter au milieu technique, au nouveau milieu créé par l'humain. La particularité des CRIAD est leur mobilité dans
les différentes sphères privées-publiques et académiques.
Nous avons analysé l'influence d'usage de la sphère privée
sur la sphère académique.
La sphère privée permet de choisir librement son propre
système de contraintes. Les CRIAD assurent aux nouvelles générations un accès simplifié à la connaissance et
à la rencontre entre pairs. Une des manifestations culturelles du numérique est l'introduction au sein du domicile
parental d'un espace numérique privé et ouvert sur des
communautés extérieures. L'usage des CRIAD, adaptés
au milieu optimise et accélère la gestion des SCP.
La sphère académique impose ses contraintes dispositives aux étudiants. Dans la sphère académique, en situation de révision, les comportements mis en évidence anticipent la forme du dispositif d'évaluation. En contexte, les
étudiants effectuent des arbitrages adaptés aux conditions
prévisibles d'examen.
Nos premières observations contribuent à renforcer
l'idée que les CRIAD ont un pouvoir de transformation
sur l'humain. Leur empreinte, leur manifestion est à déce-
32
ler dans la gestion des SCP. Il demeure, dans le cadre de
la sphère académique institutionnelle de comprendre les
évolutions en cours et de les anticiper. Au delà d'un débat
entre pessimiste et négatifs, il s'agit d'étudier à la fois
l'école, le numérique et la société qui vient (Kambouchner
et al., 2012). Il s'agit encore d'imaginer des dispositifs
capables d'optimiser le potentiel des nouvelles générations et ainsi fluidifier le jaillissement de l'esprit cher à
Seymour Papert.
Références :
Abbott, J., 2010, Overshooled under educated, Continuum
Akrich, M., 1987, Comment décrire les objets techniques,
Technique et culture
Alava, S., & Romainville, M. 2001. la pratique d'étude
entre socialisation et cognition, Inrp.
Aubert, N., 2006, L'individu hypermoderne, érès
Bauerlein, M., 2008, The dumbest generation, Tarcher
Buckingham, D., 2000, La mort de l'enfance, Armand
collin
Callon, M., & Law, J., 1997, l'irruption des non-humains
dans les sciences humain, Cairn
Carr, N., 2010, Internet rend-il bête ?, Robert Laffont
Castell, R., 2009. La montée des incertitudes, Seuil
Ceri, 2002, Comprendre le cerveau, Ocde
De Rosnay, J.,1995, L’homme symbiotique, Seuil
Ehrenberg, A.,1998, La fatigue d'être soi, Seuil
Ellul, J., 1977, Le système technicien, Calmann levy
Flichy, P., 2004, L'individualisme connecté, Réseaux
Friedmann, G.,1966, 7 études sur l'homme et la technique,
Denoël
Gaudin T., & Faroult, E., 2010, L'empreinte technique,
l'Harmattan
Hall, E.T., 1959, Le langage silencieux, Points
Kambouchner, D., Meirieu, P., & Stiegler, B., L'école, le
numérique et la société qui vient., 2012, Mille et une nuit
Kandel, E.,2007, A La recherche de la mémoire, Odile
Jacob
Keen, A., 2008, Le culte de l'amateur, Scali
Latour, B., 2006, Changer de société refaire la sociologie,
La découverte
Lipovetsky, G., 2006, Le bonheur paradoxal, Seuil
Mc Luhan, M., 1964, Pour comprendre les médias, Points
Morin, E., 1977, La nature de la nature, Seuil
Mumford, L., 2008, Les transformations de l'homme,
L'encyclopédie des nuisances
Papert, S., 1999, Le jaillissement de l'esprit, Champs
Perriault, J., 1992, La logique de l'usage, Flammarion
Pisani, F., & Piotet, D., 2008, Comment le web change le
monde, Pearson
Prensky, M., 2001, Don't bother me mom, I'm learning,
Paragon
Prensky, M., 2011, Teaching digital natives, Parangon
Serres, M., 2004, Où vont les valeurs ?, Unesco
techniques, Aubier
Small, G., 2009, iBrain, Harper
Tapscott, D., 2009, Grown up digital, McGrawHill
Tremel, L., 2001, les jeux vidéos : un ensemble à
déconstruire, RFP
Amiens – 23 et 24 mai 2012
Conception d’un système de dialogue intelligent pour jeux sérieux
Franck Dernoncourt
Laboratoire LIP6, 4 place Jussieu, 75005 Paris, France
[email protected]
Résumé
L'objectif de nos travaux est de concevoir un agent
conversationnel (chatterbot) capable de comprendre
des énoncés en langage naturel dans un cadre
sémantique restreint. Cette fonctionnalité est destinée à
permettre un dialogue naturel avec un apprenant, en
particulier dans le cadre des jeux sérieux (serious
games). Cet agent conversationnel sera expérimenté au
sein d'un jeu sérieux destiné à la formation de
personnel en entreprise, en simulant les propos d'un
client. Il ne s’agit pas de s’attaquer à la compréhension
des langues naturelles dans leur généralité dans la
mesure où d’une part le domaine sémantique d’un jeu
est généralement bien délimité et, d’autre part, nous
restreindrons les types de phrases présentes dans le
dialogue.
Introduction
Quel que soit le type d’apprentissage, l’un des moyens
qui permettent de maintenir l'attention et la motivation
du joueur dans un jeu sérieux est de lui permettre de
dialoguer avec un agent virtuel. Actuellement, ce
dialogue, que ce soit dans les jeux sérieux ou dans les
jeux vidéo de type récit (storytelling) ainsi que dans la
plupart des environnements informatiques pour
l’apprentissage humain, est réalisé grâce à des arbres
basés sur des questions à choix multiples (Thue et al.
2007). Le dialogue est donc très contraint, réduisant
ainsi l’apprentissage du joueur qui doit se contenter de
cliquer sur une des possibilités, ce qui à terme diminue
la motivation, donc la réflexion. Nous pensons que les
systèmes de dialogue intelligents (également appelés
systèmes de dialogue évolués) peuvent constituer une
réponse pertinente à ce problème. Par exemple, si
l’entreprise qui nous intéresse est une pharmacie ou un
hôpital, le dialogue entre le patient simulé et le joueur,
en l'occurrence un membre du personnel médical,
permettra à ce dernier de se former au dialogue avec les
patients et tester ses connaissances pour résoudre des
situations concrètes et quotidiennes, situations pouvant
être urgentes et critiques, où une erreur peut s’avérer
extrêmement grave, voire mortelle.
Un dialogue est une activité verbale qui fait
intervenir au moins deux interlocuteurs servant à
accomplir une tâche dans une situation de
communication donnée. Il constitue une suite
coordonnée d’actions (langagières et non-langagières)
devant conduire à un but (Vernant 1992).
4ièmes Rencontres Jeunes Chercheurs en EIAH
L’idée d’une interaction homme-machine se basant
sur les fonctionnements de la langue naturelle n’est pas
nouvelle : elle a commencé à voir le jour à partir des
années 50 avec le test de Turing. Néanmoins, cette
problématique, aux niveaux conceptuel et pratique,
demeure toujours d’actualité. Il existe, par exemple, des
compétitions annuelles comme le Loebner Prize
(Loebner 2003) ou le Chatterbox Challenge visant à
réussir un test et imiter ainsi l’interaction verbale
humaine, mais aucun programme n’a réussi à atteindre
le niveau d’un humain (Floridi et al. 2009).
L’histoire du traitement automatique du langage
naturel,
influençant
directement
les
agents
conversationnels, fait apparaître plusieurs époques dont
l’évolution est intéressante :
1. une approche statistico-morphologique entre les
années 1945-1955, caractérisée par le recours à des
méthodes statistiques faisant intervenir la
morphologie des entrées ; ces méthodes reviennent
en force avec succès pour la traduction
automatique ;
2. une approche syntaxique, marquée par l’utilisation
de la grammaire formelle avec les travaux
linguistiques de Chomsky dès 1955 ;
3. une approche sémantique dans les années 1960,
représentée en particulier par la mise en œuvre du
premier agent conversationnel Eliza (Weizenbaum
1966) ;
4. une approche cognitive (Grice 1979) et pragmatique
(Moeschler et Reboul 1994) à partir des années
1970, qui coïncide avec l’apparition de la
représentation des connaissances et qui fut une
époque influencée par la psychologie cognitive
mettant l’accent sur les opérations mentales ou sur
les processus à la base de la production des discours
(Searle 1972).
Ces quatre approches sont à présent perçues comme
complémentaires les unes des autres et nous nous en
inspirerons tout au long de nos travaux.
Afin de définir des critères d’efficacité des agents
conversationnels, nous allons prendre en compte les
quatre critères suivants pré-conditionnant l'élaboration
d'un système de dialogue intelligent et proposés par
(Rastier, 2001) :
• apprentissage (intégration au moins temporaire
d'informations issues des propos de l'utilisateur) ;
• questionnement (demande de précisions de la part
du système) ;
33
Franck Dernoncourt
• rectification (suggestion de rectifications à la
question posée, lorsque nécessaire) ;
• explicitation (explicitation par le système d'une
réponse qu'il a apportée précédemment).
Dans une première partie, nous présenterons l’état
de l’art en nous focalisant sur le langage AIML, puis
verrons dans un second temps de quelle manière notre
approche permet de dépasser les limites de ce langage.
État de l’art
La figure 1 montre un exemple d'architecture d'un agent
conversationnel. L'utilisateur entre une phrase que
l’agent conversationnel convertit en un langage abstrait,
ici AIML (Wallace 2003) : cette traduction permet
d'analyser le contenu de la phrase et de faire des
requêtes via un moteur de recherche dans une base de
connaissances. La réponse est générée via un langage
abstrait, ici également AIML, qu'il faut traduire en
langage naturel avant de la présenter à l'utilisateur.
Néanmoins, cette architecture est rudimentaire et très
rigide. Il faut par exemple souvent mettre à jour la base
de connaissances pour y inclure des connaissances sur
l'utilisateur, notamment dans le cadre d'une activité de
tutorat qui nécessite le suivi des acquis de l'utilisateur
ainsi que de sa motivation.
Les agents conversationnels se divisent en deux
classes principales :
1. les agents conversationnels non orientés tâche
destinés à converser avec l'utilisateur sur n'importe
quel sujet avec une relation souvent amicale, tel
ALICE (Wallace 2009) ;
2. les agents conversationnels orientés tâche, lesquels
ont un but qui leur est assigné dans leur conception.
gérer un dialogue en fonction du contexte. C’est une
des problématiques du sujet.
Le langage AIML est le plus souvent utilisé par les
agents conversationnels, notamment les agents
conversationnels éducatifs tels TutorBot et TQ-Bot
(Mikic et al. 2008). Bien que sa simplicité d'utilisation
ainsi que la performance relativement bonne des agents
conversationnels l’utilisant le rende attrayant, AIML est
un langage toutefois très limité qui peut se résumer à un
simple filtrage par motif, les motifs des inputs (phrases
de l'utilisateur) et des outputs (réponses de l'agent
conversationnel) étant définis en grande partie par
extension et a priori. Par exemple, le bot Alice, un des
bots les plus connus qui est pourtant un des meilleurs
agents conversationnels non orientés tâche, vainqueur
en 2001, 2002, et 2004 du concours Loebner et
deuxième en 2010, n’est ainsi qu’une simple liste
composée de dizaines de milliers de questions/réponses
prédéfinies :
<category><pattern>Do I like cheese</pattern>
<template>How would I know if you like cheese or
not?</template>
</category>
Approche
Notre approche se veut modulaire afin de distinguer les
différentes compétences requises pour gérer le dialogue
et ainsi pouvoir développer de façon indépendante les
différents modules, comme le montre le diagramme des
flux présenté sur la Figure 2.
Dans un premier temps, la phrase entrée par
l'utilisateur est corrigée orthographiquement et
grammaticalement si besoin. Cette étape, bien
qu'évidente, est négligée par beaucoup d'agents
conversationnels à l’instar de Cleverbot, pourtant un
Les agents conversationnels orientés tâche sont euxmêmes classés usuellement en deux catégories :
1. les agents conversationnels orientés service, par
exemple guider des clients sur un site de commerce
électronique, telle l’assistante virtuelle Sarah de
PayPal ;
2. les agents conversationnels éducatifs, dont le but est
d'aider l'utilisateur à apprendre.
Notre travail se concentre sur les agents
conversationnels éducatifs (tutor bots). Un certain
nombre d’agents conversationnels éducatifs ont déjà été
conçus et implémentés, comme (Zhang et al. 2009),
(De Pietro et al. 2005), (Core et al. 2006), (Pilato et al.
2008) ou encore (Fonte et al. 2009).
Diverses architectures ont été élaborées, voici les
éléments communs à la plupart d’entre elles :
• une base de connaissances inhérente au domaine,
objet de l’application ;
• un gestionnaire de répliques ;
• des structures de stockage des échanges sous forme
d’arborescences
surtout
dans
les
agents
conversationnels éducatifs conçus dans le cadre
d’un jeu vidéo.
Il n’existe pas encore d’outils standards performants
permettant de comprendre le langage naturel, et de
34
Figure 1 - Exemple d'architecture d'un agent
conversationnel. Source : (De Pietro et al. 2005)
Amiens – 23 et 24 mai 2012
Conception d’un système de dialogue intelligent pour jeux sérieux
des agents conversationnels les plus aboutis, comme le
montrent ces deux exemples suivants issus du site
officiel http://www.cleverbot.com :
Exemple 1 :
Human: Hi.
Cleverbot: How clever are you?
Human: Very clver.
Cleverbot: How clever?
Exemple 2 :
Human: Hi.
Cleverbot: Are you a boy?
Human: Yes I am a boys.
Cleverbot: Are you a girl?
Dans l’exemple 1, nous voyons que la faute de frappe
de l'utilisateur qui a écrit « clver » au lieu de « clever »
a manifestement empêché l'agent conversationnel
Cleverbot de comprendre la phrase et de proposer une
suite cohérente au dialogue. Pour résoudre ce
problème, nous utilisons le correcteur orthographique
open-source et gratuit Hunspell, utilisé par des logiciels
majeurs tels Google Chrome et LibreOffice. Si nous
soumettons la phrase « Very clver » à Hunspell, ce
dernier nous propose : « clver 7 0: clever, claver,
clover, elver, caver, cover, cleaver ». La première
suggestion est la bonne. Hunspell prend en compte
beaucoup de paramètres pour ordonner ces suggestions,
tels la grammaire, la prononciation, le type de clavier
utilisé, etc. En plus de l'ordonnancement des
suggestions proposées par Hunspell, nous pouvons
également apporter nos propres critères, par exemple
donner une priorité plus forte aux suggestions présentes
dans les mots précédents du dialogue. L’exemple 2, qui
montre une erreur de grammaire mettant à défaut
l'agent conversationnel, est également corrigé par
Hunspell. Si nous soumettons la phrase « Yes I am a
boys » à Hunspell, ce dernier nous retourne : « * * * *
+boy », le symbole * signifiant que les mots n'ont pas
besoin d'être corrigés.
Dans un second temps, la phrase de l'utilisateur est
analysée lexicalement (tokenization) : ce processus
consiste à normaliser la phrase en la découpant en
mots. Si de simples heuristiques basées sur des
expressions régulières, autrement dit sur des automates
à états finis, suffisent pour réaliser l'analyse lexicale des
langues occidentales où les mots sont usuellement
séparés par des espaces, il n'en va pas de même dans
d’autres langues tel le chinois. Par exemple, le segment
de phrase chinoise (mandarin) 看上海风景 peut être
segmenté 看/上海/风景 (littéralement « regarder /
Shanghai / paysage », i.e. « regarder le paysage de
Shanghai ») ou bien 看上/海风/景 ( « aimer / brise de
mer / vue », i.e. « aimer la vue des brises de mer » ). En
voyant cette phrase, un sinophone segmenterait
toujours de la première façon car le sens issu de la
seconde segmentation est étrange, comme nous le
constatons dans la traduction française. Cependant,
dans d'autres cas, la segmentation peut être ambiguë
même pour un sinophone, à l'instar de la phrase
学生会组织演出 qui peut être segmentée de deux
4ièmes Rencontres Jeunes Chercheurs en EIAH
façons différentes, précisément 学生会/组织/演出
(« Le Bureau des Élèves / organise / un spectacle ») ou
bien 学生/会/组织/演出, (« le(s) étudiant(s) / va (ou
peut) / organiser / un spectacle »). À la lueur de ces
deux exemples, nous voyons que ce genre de phrase en
chinois rend la tâche plus difficile et demande de faire
appel à des heuristiques plus complexes, d’où
l’existence d’analyseurs lexicaux spécifiques pour la
langue chinoise tel le Stanford Chinese Word
Segmenter. Ainsi, il est utile de bien distinguer cette
étape de l'analyse de la phrase comme étant une étape à
part entière, bien que dans notre cas le traitement soit
simple car nous l'appliquons seulement sur les langues
anglaise et française.
Dans un troisième temps, nous réalisons un
étiquetage grammatical (part-of-speech tagging), dont
l'objectif est de classifier les mots selon leur fonction
grammaticale (noms, pronoms, verbes, etc.). Cette
classification se base d'une part sur un dictionnaire et
d'autre part sur le contexte dans lequel le mot apparaît.
Les étiqueteurs grammaticaux se répartissent en deux
Figure 2 - Diagramme du flux des prétraitements.
35
Franck Dernoncourt
groupes : les étiqueteurs stochastiques et les étiqueteurs à base de règles. Un exemple d’étiqueteur
grammatical stochastique est l’étiqueteur unigramme,
qui classifie les mots seulement en fonction de la
probabilité d'appartenance des mots à une classe,
probabilité calculée sur un corpus d'apprentissage. Par
exemple, sur le corpus de Brown (Francis et Kucera
1967), un étiqueteur grammatical unigramme classifie
correctement un peu plus de 80 % des mots (Bird et al.
2009), alors que les meilleurs étiqueteurs atteignent des
précisions supérieures à 95 %, ce qui est un gain non
négligeable, mais montre que même un étiqueteur
stochastique trivial (unigramme) présente des résultats
corrects. Les étiqueteurs grammaticaux sont très
nombreux pour l’anglais mais rares pour le français. À
notre connaissance, il n'en existe que quatre
directement opérationnels : Cordial Analyseur, LIA
Tagg, Stanford Tagger (disponible en français depuis le
6 janvier 2012) et TreeTagger.
Dans un quatrième temps, nous établissons l'arbre
syntaxique à l’aide d’un parser. Cette étape nous
permet notamment de détecter les ambiguïtés
structurelles, c'est-à-dire correspondant aux phrases
ayant plusieurs arbres syntaxiques. Si l'analyse du
contexte ne permet pas de lever l'ambiguïté, notre agent
conversationnel peut ainsi poser une question
intermédiaire à l'utilisateur l'invitant à clarifier sa
phrase. L’extrait suivant issu du film Animal Crackers
(1930) montre un exemple classique d'ambiguïté
structurelle :
Groucho Marx: While hunting in Africa, I shot an
elephant in my pajamas. How an elephant got into
my pajamas I’ll never know.
La figure 3 montre les deux arbres syntaxiques
construits à partir du segment de phrase souligné, ce
qui signifie que ce segment est structurellement
ambigu. Dans l’exemple d'ambiguïté structurelle donnée précédemment, la seconde phrase, autrement dit le contexte, lève l'ambiguïté en choisissant le
sens le plus improbable, d'où le caractère humoristique
du passage. Si l’agent conversationnel ne réussit pas à
déduire le sens du contexte, il peut demander qui
portait le pyjama au moment du tir.
Ces différentes étapes de traitement de la phrase de
l’utilisateur sont résumées sur la Figure 2 montrant le
processus appliqué à la phrase de l'utilisateur « I am a
boys ». Sur le plan technique, ces étapes (hormis la
première) se basent sur la librairie open-source et
gratuite NLTK (Bird et al. 2009) qui offre de
nombreuses fonctionnalités de traitement des langues
tout en interfaçant aussi bien des bases de données tel
WordNet (Fellbaum 2005) que des librairies et
logiciels tiers tels l’étiqueteur grammatical Stanford
Tagger et le prouveur automatisé Prover9. Un grand
nombre de corpus sont également disponibles via
NLTK, ce qui est très appréciable pour mettre en
oeuvre des processus d'entraînement ainsi que pour
réaliser des tests, notamment des tests de performance.
36
Figure 3 - Exemple d’ambiguïté structurelle.
Source : (Bird et al. 2009)
Après avoir mis en place les étapes liminaires du
traitement de la phrase de l'utilisateur, notre travail se
focalise au niveau du moteur de raisonnement, en
particulier sur l'analyse des intentions présentes dans la
phrase de l'utilisateur. Ces différentes informations sont
ensuite utilisées pour étudier la sémantique de la phrase
tout en calculant en parallèle des données statistiques,
en particulier via l'analyse sémantique latente, afin de
pouvoir la soumettre au moteur de raisonnement. Ce
dernier
lance des requêtes vers une base de
connaissances propre au domaine du sujet du dialogue
comme le domaine médical si le dialogue simule une
conversation entre un patient et un pharmacien.
Outre la base de connaissances en tant que telle, le
moteur de raisonnement doit également prendre en
compte les objectifs pédagogiques du jeu. Pour cela,
dans un premier temps nous utilisons des données
pédagogiques basées sur des arbres de décision déjà
utilisés dans des environnements informatiques pour
l’apprentissage humain. Cela nous permet de réutiliser
des scénarios pédagogiques déjà existants ainsi que
d’orienter le dialogue afin de mener à bien les objectifs
d'apprentissage. De surcroît, ces structures arborescentes atténuent la problématique de la génération de la
réponse car les réponses peuvent être générées par
l'agent conversationnel en se basant sur des motifs
prédéfinis et en fonction de la localisation du dialogue
dans l'arbre des scénarios pédagogiques.
Amiens – 23 et 24 mai 2012
Conception d’un système de dialogue intelligent pour jeux sérieux
Nous voyons ainsi que le point critique est la liaison
entre d’un côté la phrase de l'utilisateur qui par essence
est exprimée dans un espace infini, le langage naturel,
bien que sémantiquement restreint par le contexte du
jeu sérieux, et de l'autre côté l'espace fini correspondant
aux arbres des scénarios pédagogiques. Afin de situer
la phrase de l'utilisateur dans cet arbre, la connaissance
des intentions est indispensable. En outre, la
reconnaissance des intentions permet d'accroître la
robustesse de l'analyse sémantique, comme le souligne
(Horvitz et Paek, 2001). L’objectif principal de nos
travaux, à présent que les phases de prétraitement ont
été mises en place, est donc de concevoir un système de
reconnaissance des intentions.
Les travaux sur la reconnaissance des intentions ont
débuté il y a environ 30 ans, (Schmidt et al. 1978),
(Wilensky 1983), et (Kautz et Allen 1986) étant
souvent considérés comme les premiers articles dans ce
domaine. Les systèmes de reconnaissance des
intentions sont très similaires à un système de
reconnaissance des objectifs, à tel point que ces deux
types de systèmes sont parfois confondus. La
reconnaissance des intentions débouche sur de
multiples applications allant du traitement automatique
des langues naturelles à la détection d'intrusion
informatique en passant par la stratégie militaire. Des
mécanismes de reconnaissance des intentions ont déjà
été mis en oeuvre dans le cadre de récits interactifs, à
l’instar de LOGTELL (Karlsson et al. 2007).
Comme le souligne (Sabri 2010), il y a généralement
trois composants majeurs dans un système de
reconnaissance des intentions :
• un ensemble d'intentions parmi lesquelles le
système choisit ;
• des connaissances sur les relations entre actions et
objectifs ;
• un flux entrant d'actions observées, qui correspond
dans notre cas aux actes de dialogue.
La logique a souvent été utilisée pour mettre en
oeuvre des systèmes de reconnaissance des intentions
(Charniak et McDermott 1985), principalement en se
basant sur les concepts d'abduction et de planification.
L’approche logique peut être combinée avec des
approches statistiques (Pereira et Anh 2009)
(Demolombe et Frenandez 2006). La phrase « Ne
trouves-tu pas qu’il fait chaud ? » est un exemple
mettant en exergue la complexité potentielle de
l'analyse des intentions : l'intention peut aussi bien être
un simple constat qu'une demande indirecte d'ouvrir
une fenêtre ou de mettre en marche la climatisation, ou
bien que le simple souhait de continuer la conversation.
Nous voyons à travers cet exemple que la recherche des
intentions est très similaire, voire identique à la
recherche des objectifs.
Deux approches majeures ont émergé pour analyser
les intentions (Raufaste et al. 2005) : d'une part
l’approche classique, également appelée approche
conventionnaliste, qui cherche les intentions au coeur
de la structure linguistique, et d'autre part l'approche
intentionnaliste, qui base la recherche d'intentions sur le
contexte. Ces deux approches sont complémentaires,
comme le représente la figure 4.
Enfin, comme le montre (D’Mello et al. 2010),
l'apprentissage par agent conversationnel peut être
amélioré lorsque la modalité est orale et non écrite. Par
conséquent, nous utilisons Dragon NaturallySpeaking
11, qui est le leader de la reconnaissance vocale et édité
par la société française Nuance, ainsi que le logiciel
AT&T Natural Voices® Text-to-Speech pour
transmettre les réponses de l'agent conversationnel sous
forme orale. À noter que ces deux logiciels ne sont pas
libres.
Conclusions et perspectives
Notre système sera implémenté au sein de la plateforme pour jeux sérieux Learning Adventure (Carron et
al. 2010), dans laquelle il sera évalué dans le cadre
d’expérimentations avec les étudiants.
La mise au point d'un dialogue entre utilisateur et
ordinateur
débouche
sur
des
applications
potentiellement très nombreuses qui ne se limitent pas
aux jeux sérieux. Par exemple, l'interaction orale ou
écrite homme-machine (Horvitz et Paek, 2001), la
conception de bots, l’aide au brouillage de
communication par chat flooding difficilement
détectable, les systèmes de questions-réponses, etc.
Cette thématique est très actuelle comme le prouvent
les travaux d’IBM avec Watson (Ferrucci 2010),
(Baker 2011), ainsi que le rapport de Gartner (Gartner
2011) dont la prédiction suivante montre l’importance
croissante de ce domaine:
By year-end 2013, at least 15 percent of Fortune
1000 companies will use a virtual assistant to serve
up Web self-service content to enhance their CRM
offerings and service delivery.
En outre, les travaux portant sur les agents
conversationnels ont de nombreuses problématiques
communes avec l’analyse de documents, la fouille de
données, la traduction automatique et le web
sémantique : tous ces domaines représentent des
applications indirectes de nos travaux et des
interactions sont envisagées avec certains d'entre eux.
Remerciements
Je souhaite particulièrement remercier mon directeur de
thèse Jean-Marc Labat pour ses précieux conseils,
indispensables à la réalisation de ce projet, ainsi que la
DGA pour son soutien financier.
Figure 4 - Complémentarité des approches
conventionnaliste et intentionnaliste.
Source : (Raufaste et al. 2005)
4ièmes Rencontres Jeunes Chercheurs en EIAH
37
Franck Dernoncourt
Références
Baker, S. eds. 2011. Final Jeopardy: Man vs.
Machine and the Quest to Know Everything. Houghton
Mifflin Harcourt
Bird, S., Klein, E., Loper, E. eds. 2009. Natural
Language Processing with Python. O’Reilly Media.
Carron, T., Marty, J.C. and Talbot S. 2010.
Interactive Widgets for Regulation in Learning Games.
The 10th IEEE Conference on Advanced Learning
Technologies, Sousse, Tunisia.
Core, M., Traum, D., Lane, H. C., Swartout, W.,
Gratch, J., Lent, M. V. and Marsella. S. 2006.
Teaching negotiation skills through practice and
reflection with virtual humans. Simulation 82(11):685–
701.
D'Mello, S.K., Graesser, A. and King, B. 2010.
Toward Spoken Human-Computer Tutorial Dialogues.
Human--Computer Interaction. (4):289--323.
De Pietro, O., De Rose, M. and G. Frontera. 2005.
Automatic Update of AIML Knowledge Base in ELearning Environment. Proceedings of Computers and
Advanced Technology in Education, Oranjestad,
Aruba, August: 29–31.
Charniak, E., McDermott, D. eds. 1985. Introduction
to artificial intelligence. Reading, Mass.: AddisonWesley.
Fellbaum, C. 2005. WordNet and wordnets. In:
Brown, Keith et al. (eds.), Encyclopedia of Language
and Linguistics, Second Edition, Oxford: Elsevier, 665670
Ferrucci, D. 2010. Build Watson: an overview of
DeepQA for the Jeopardy! challenge. In Proceedings of
the 19th international conference on Parallel
architectures and compilation techniques (PACT 2010).
ACM.
Demolombe, R., Fernandez, A.M.O. 2006. Intention
recognition in the situation calculus and probability
theory frameworks. In Proceedings of Computational
Logic in Multi-agent Systems (CLIMA).
Floridi, L., Taddeo, M. and Turilli, M. 2009.
Turing’s Imitation Game: Still an Impossible Challenge
for All Machines and Some Judges––An Evaluation of
the 2008 Loebner Contest. Minds and Machines.
Springer.
Fonte, F. A., Carlos, J., and Rial, B. 2009. TQ-Bot:
An AIML-based Tutor and Evaluator Bot. Computer.
Journal of Universal Computer Science 15(7), 14861495
Francis, W.N. and Kucera, H. eds. 1967.
Computational Analysis of Present-Day American
English. Brown University Press.
Jacobs, J. 2011. Hartner.
http://www.gartner.com/DisplayDocument?id=1522020
, Virtual Assistant Vendor Landscape.
Grice, H.P., Kant, E. and Foucault, M. 1979.
Logique et conversation. Communication, 30, 57-72.
Horvitz, E. and Paek, T. 2001. Harnessing models of
users' goals to mediate clarification dialog in spoken
language systems. User Modeling 3–13. Springer.
Kautz, H. and Allen, J.F. 1986. Generalized plan
recognition. In Proceedings of the Fifth National
Conference on Artificial Intelligence (AAAI), 32-38.
38
Loebner, Hugh. 2003. Home Page of the Loebner
Prize, http://www.loebner.net/Prizef/loebner-prize.html
The First Turing Test.
Meier, E., Mast, M. and Luperfoy, S. 1996. Dialogue
Processing in Spoken Language Systems. In ECAI'96,
Workshop, Budapest, Hungary. Springer.
Fernando, A., Burguillo, C., Rodríguez A.,
Rodríguez, E. and Llamas, M. 2008. T-Bot and Q-Bot:
A couple of AIML-based bots for tutoring courses and
evaluating students. Frontiers in Education Conference.
FIE. 38th Annual.
Karlsson, B., Ciarlini, A.E.M., Feijo, B., Furtado
A.L. 2006. Applying a plan-recognition/plangeneration paradigm to interactive storytelling, The
LOGTELL Case Study. Monografias em Ciência da
Computação Series (MCC 24/07),
Moeschler. eds. 1994, Dictionnaire encyclopédique
de pragmatique. Paris: Éditions du Seuil.
Pereira, L.M. and Anh, H.T. 2009. Elder care via
intention recognition and evolution prospection. Procs.
18th International Conference on Applications of
Declarative Programming and Knowledge Management
(INAP'09), Évora, Portugal.
Pilato, G., Roberto P., and Riccardo R. A kst-based
system for student tutoring. 2008. Applied Artificial
Intelligence 22, no. 4 (4, 2008): 283-308.
Rastier, F. eds. 2001. Sémantique et recherches
cognitives, PUF (2e éd).
Raufaste, É., Longin, D. and Bonnefon, J.F. 2005.
Utilitarisme pragmatique et reconnaissance d’intention
dans les actes de langage indirects. Psychologie de
l’Interaction. 21--22.
Sadri, F. 2010. Logic-based approaches to intention
recognition. Handbook of Research on Ambient
Intelligence: Trends and Perspectives.
Schmidt, C., Sridharan, N. and Goodson, J. 1978.
The plan recognition problem: an intersection of
psychology and artificial intelligence. Artificial
Intelligence, Vol. 11, 1978, 45-83.
Searle, J.R. and Pauchard, H. eds. 1972. reed. 2009.
Les Actes de langage. Hermann.
Thue, D., Bulitko, V., Spetch, M. and Wasylishen, E.
2007. Interactive storytelling: A player modelling
approach. In The Third Conference on Artificial
Intelligence and Interactive Digital Entertainment
(AIIDE), Stanford, CA, pp. 43–48.
Vernant, D. 1992. Modèle projectif et structure
actionnelle du dialogue informatif. In Du dialogue,
Recherches sur la philosophie du langage, Vrin éd.,
Paris, n°14, p. 295-314.
Wallace, R. 2003. The elements of AIML style. Alice
AI Foundation.
Wallace, R. 2009. Parsing the Turing Test, The
Anatomy of A.L.I.C.E. Springer.
Weizenbaum, J. 1966. Eliza. Communications of the
Association for Computing Machinery 9. p. 36–45.
Wilensky, R. 1983. Planning and understanding.
Addison Wesley, Reading, MA, 1983.
Zhang, H. L., Z. Shen, X. Tao, C. Miao, B. Li, and
others. 2009. Emotional agent in serious game (DINO).
In Proceedings of The 8th International Conference on
Autonomous Agents and Multiagent Systems-Volume
2, 1385–1386.
Amiens – 23 et 24 mai 2012
Analyse automatique de codes informatiques
pour l’aide à l’enseignant
3
ème
Loïc Février
année de Doctorat (changement de sujet en Septembre 2011)
Laboratoire LIP6, 4 place Jussieu, 75005 Paris, France
[email protected]
Résumé
L’introduction récente de l’enseignement de
l’algorithmique et de la programmation au niveau du
lycée est confrontée à un certain nombre de difficultés,
notamment pour les enseignants. Après avoir exposé
ces difficultés, nous montrerons l’intérêt d’un système
d’évaluation
automatique
de
programmes
informatiques puis nous proposerons la création
d’outils d’analyse de code permettant d’en pallier les
limites.
1. Introduction
Depuis la rentrée 2009, une composante algorithmique
a été introduite au sein du programme de
mathématiques dans les lycées français et ce, de la
seconde à la terminale. De plus, à partir de la rentrée
2012, une spécialité informatique sera créée pour les
terminales scientifiques. À la même date, en
Angleterre, le programme d’étude Information and
Communication Technology (l’équivalent de la
formation au B2I1 en France), qualifié par le ministre
anglais de l’éducation, de « démotivant et terne » sera
remplacé par un programme d’études informatiques,
axé sur la pratique de la programmation.
L’informatique commence donc à être perçue moins
comme un outil, qu’il faut savoir utiliser, mais plus
comme une science, qu’il faut étudier. Si cette
évolution ne peut être que saluée, les obstacles sont
nombreux et le risque existe, si ils ne sont pas
surmontés, de voir à terme la disparition de cet
enseignement.
Nous nous concentrerons dans cet article sur les
composantes algorithmique et programmation de
l’informatique. Après avoir exposé les difficultés
rencontrées lors de l’enseignement de ces matières,
nous présenterons des outils informatiques capables
d’assister les enseignants et nous situerons nos travaux
dans ce cadre.
2. Difficultés Rencontrées
L’enseignement, dans le cadre des cours
mathématiques, de l’algorithmique et de
1 Brevet Informatique et Internet
4ièmes Rencontres Jeunes Chercheurs en EIAH
de
la
programmation, pose un certain nombre de problèmes
aux enseignants.
Tout d’abord, les enseignants ont en général une
méconnaissance de ces deux matières (algorithmique et
programmation), qui sont nouvelles pour eux. Ils ont
peu de recul par rapport au contenu qu’ils doivent
enseigner et ont donc tendance à se concentrer
uniquement sur ce que l’informatique peut apporter à
leur enseignement des mathématiques. Or, si la notion
informelle d’algorithme est assez intuitive pour les
élèves, sa formalisation et sa mise en pratique par
l’écriture de programmes sont conceptuellement bien
plus complexes. Les élèves doivent passer par une
phase d’apprentissage des notions fondamentales
(variables, boucles, tests...) et de la syntaxe. Cet
apprentissage est long et cela peut engendrer de la
frustration tant au niveau des enseignants que des
élèves, chacun l’exprimant par le classique « A quoi
cela sert-il ? ». L’apprentissage d’un langage de
programmation est ainsi souvent perçu comme difficile
voire désagréable (Bennedsen et Caspersen. 2007,
Gomes et Mendes 2007, Kelleher et Pausch 2005).
Ensuite, s’il est possible en mathématiques de
multiplier les variantes d’un même exercice jusqu’à ce
que les élèves aient assimilé un concept, ceci est plus
difficile en algorithmique car il n’y a que peu d’intérêt
à donner plusieurs fois exactement le même exercice.
L’entraînement des élèves est donc plus complexe et il
faut s’assurer que chaque exercice est bien compris par
chacun, à son propre rythme.
De plus, on constate rapidement de grandes
différences de niveaux entre les élèves (HartMann et
al. 2011), dues à la fois à des connaissances initiales
hétérogènes et à des vitesses de progression très
variées, différences bien plus marquées que dans les
autres matières.
Ainsi, l’utilisation de méthodes traditionnelles
d’enseignement, cours magistral puis exercices, peine
fortement à s’adapter à ces différences, les élèves les
moins rapides étant rapidement perdus (HartMann et
al. 2011, Gomes et Mendes 2007), les plus rapides
s’ennuyant.
Enfin, la nature même des travaux rendus, des
programmes, rend leur évaluation difficile par les
enseignants, en particulier pendant les séances
d’exercices. Analyser un programme d’élève,
comprendre sa logique, détecter les éventuelles erreurs
et guider l’élève vers la solution, le tout en temps-réel,
39
Loïc Février
demande en effet une certaine expérience et une bonne
connaissance du langage utilisé. Les difficultés sont
doubles, à la fois théoriques, pour ce qui concerne
l’algorithme utilisé, et pratiques, pour ce qui concerne
son
implémentation
dans
un
langage
de
programmation. Cette analyse de programmes, même
une fois l’expérience acquise, reste une tâche
fastidieuse et répétitive, les erreurs faites par les élèves
étant, en général, peu variées.
3. Évaluation Automatique
Afin de s’adapter aux différences de niveaux et de
vitesses de progression, on peut permettre aux élèves
d’avancer à leur rythme au sein des exercices. Il faut
cependant s’assurer qu’un exercice a bien été résolu
avant de passer au suivant. Comme nous l’avons vu, il
est très difficile pour l’enseignant de s’acquitter
efficacement de cette tâche. Pourtant un feedback
adapté peut avoir une grande influence sur le processus
d’apprentissage (Norcini 2010).
Il semble donc naturel de mettre en place un système
automatisé
d’évaluation
des
programmes
informatiques, permettant d’y détecter des erreurs
éventuelles. Si de tels systèmes existent et sont utilisés
dans certaines universités (Joy et al. 2005, Higgins et
al. 2005, Wang et Wong, 2008) ou dans le cadre d’un
apprentissage extra-scolaire (Codecademy, CodeChef,
France-IOI) nous verrons qu’ils possèdent certaines
limites, notamment vis à vis du type de feedback qu’ils
procurent.
Utilisation de Jeux de Tests
Afin d’évaluer, de manière automatisée, la correction
d’un programme informatique, on se restreint
généralement à un certain type de programmes qui
lisent des données de travail, l’entrée et écrivent des
résultats, la sortie.
À chaque exercice est alors associé un ensemble de
tests (le jeu de tests), chacun consistant en une entrée et
une sortie de référence. En comparant, pour chaque
test, la sortie de référence à la sortie produite par le
programme quand on lui donne cette entrée, il est
possible de détecter les éventuelles différences,
indiquant que le programme n’a pas donné la sortie
attendue. En fonction du nombre de tests sur lesquels le
programme a donné le bon résultat, il reçoit une note.
Si le jeu de tests est bien construit il permet de
déterminer de manière très simple et rapide la
correction d’un programme.
Difficultés de Mise en Œuvre
La principale difficulté dans l’utilisation d’un jeu de
tests pour l’évaluation de programmes informatiques,
consiste en la création de tests de bonne qualité. Il faut
en effet penser, autant que possible, à l’ensemble des
cas particuliers et des cas limites du problème mais
également aux erreurs potentielles et donc créer des
tests spécifiques.
Sur l’exemple du calcul des racines d’un polynôme
de degré 2, il sera assez simple pour un enseignant de
penser aux différents cas particuliers comme « avoir
une racine double », « avoir un déterminant positif » ou
40
encore « ne pas avoir de racines », permettant de
détecter des cas traités incorrectement par les
programmes des élèves. Pour les exercices de
géométrie, il existe en général de nombreux cas
particuliers, auxquels il faudra aussi penser lors de la
création des tests, à moins qu’il ne soit explicité dans
l’énoncé que de tels cas particuliers ne sont pas à
traiter.
Il n’est cependant pas toujours facile d’identifier, à
l’avance, tous les cas particuliers. Pour un exercice
consistant à déterminer si les éléments d’un tableau
sont donnés en ordre croissant, les deux erreurs
principales faites par les élèves sont les suivantes :
1. L’élève ne compare que les deux premiers
éléments, sans jamais regarder les autres.
Fonction EstCroissant(T, Taille)
Pour i allant de 1 à Taille - 1
Si T[i] < T[i+1]
Retourner Vrai
Sinon
Retourner Faux
FinSi
FinPour
FinFonction
2. L’élève a mal construit sa boucle, la faisant aller
jusque Taille au lieu de Taille - 1 ce qui
occasionnera une erreur.
Fonction EstCroissant(T, Taille)
Pour i allant de 1 à Taille - 1
Si T[i] > T[i+1]
Retourner Faux
FinSi
FinPour
Retourner Vrai
FinFonction
Il n’est pas évident de déterminer, a priori, les erreurs
qui seront faites par les élèves, aussi c’est en étudiant
les solutions proposées que l’on peut se rendre compte
des erreurs typiques.
Limites
Tout d’abord, le fait de pouvoir vérifier de manière
presque instantanée la correction de sa solution pousse
certains élèves vers une stratégie « essais et erreurs » et
ne les encourage pas à réellement réfléchir sur leur
programme (Pears et al. 2007, Norcini 2010). Plusieurs
solutions existent, par exemple en instaurant un délai
entre chaque essai ou en pénalisant un trop grand
nombre d’essais.
Ensuite, comme nous l’avons vu, il est difficile de
construire, dès le début, un bon jeu de tests et celui-ci
ne peut remplacer complètement une lecture des
programmes des élèves, seule à même de nous éclairer
sur les erreurs faites. L’évaluation automatisée par un
jeu de tests est donc un outil au service de l’enseignant,
lui permettant de se décharger de cette tâche fastidieuse
afin de se concentrer sur l’aide à apporter aux élèves en
difficulté et la détection des problèmes de fond.
Amiens – 23 et 24 mai 2012
Analyse automatique de codes informatiques
Enfin, un jeu de tests permet uniquement d’indiquer
la présence d’erreurs au sein d’un programme mais
n’aide guère l’élève sur les modifications à apporter
pour arriver à une solution correcte. Ceci reste à la
charge de l’enseignant mais peut, à nouveau,
représenter un investissement en temps trop important,
alors même que les erreurs rencontrées sont en général
les mêmes d’un élève à l’autre.
Cependant, malgré ces limites, l’utilisation d’un
système d’évaluation automatisée par jeu de tests
permet un gain de temps important pour les
enseignants, un retour (possiblement) immédiat pour
les élèves et ne demande pas de connaissances
informatiques spécifiques pour sa mise en œuvre, dès
lors qu’une plateforme de test est mise à disposition.
Évolution
Afin de corriger les limites de l’utilisation d’un jeu de
tests, il est par exemple possible d’ajouter un
commentaire à chaque test (Wang et Wu, 2007),
commentaire qui sera montré à l’élève si son
programme échoue sur ce test. Ainsi, en cas d’erreur
sur certains cas particuliers, l’élève peut modifier son
programme en conséquence. Cela suppose cependant
que le programme de l’élève marche sur le cas général.
De plus, comme il existe souvent de multiples raisons
pour lesquelles un programme ne donne pas le bon
résultat, l’élève débutant se trouve démuni et incapable
de corriger ses erreurs.
Dans le cas de l’apprentissage des mathématiques, un
certain nombre d’EIAH ont été développés (Hakem et
al. 2005, Heffernan et al. 2008, Narciss et Huth 2006)
permettant, suite à l’analyse de l’erreur de l’élève,
d’adapter la réponse du système. Le point essentiel de
ces outils est d’avoir à la fois une modélisation du
domaine de connaissance et une compréhension fine de
l’erreur faite par l’élève, ces deux composants
permettant alors de guider efficacement ce dernier dans
sa résolution.
Pour la mise en place de tels systèmes dans le cadre
de l’apprentissage de la programmation, deux
difficultés se présentent :
• la compréhension fine de la réponse de l’élève est
difficile à acquérir, même si l’on dispose d’un
excellent jeu de tests,
• le domaine de connaissance dépend de l’exercice
et sa modélisation demande une bonne
connaissance des erreurs possibles des élèves.
Pour ce second point, une analyse des solutions des
élèves est essentielle mais celle-ci est difficile à faire
manuellement par manque de temps : le nombre de
programmes à analyser, pour une séance d’une heure
dans une classe de 30 élèves, s’élève rapidement à
plusieurs centaines !
Afin de faire face à ces deux difficultés, une analyse
automatique de programmes informatiques s’avère
donc nécessaire, afin de pouvoir catégoriser un
ensemble de programmes et associer à chaque
programme une ou plusieurs erreurs spécifiques.
Une telle analyse étant déjà utilisée dans des outils de
détection de plagiat, il semble naturel de s’intéresser
aux techniques utilisées dans ce cadre.
4ièmes Rencontres Jeunes Chercheurs en EIAH
4. Détection de Plagiat
En informatique, nous entendons par plagiat le fait,
pour un élève, de copier un programme écrit par une
autre personne et de le modifier afin de cacher autant
que possible cet emprunt.
Les types de modifications constatées (Prechelt et al.
2000) comprennent des modifications de la mise en
page du programme (ajout de commentaires, traduction
depuis une autre langue, changements de noms de
variables...),
de
son
organisation
globale
(réorganisation des déclarations de fonctions, ajout de
« code mort »...) ou locale (réordonnement de
conditions multiples, passage d’un type de boucle à un
autre, ajout de variables temporaires...).
La pratique du plagiat, phénomène global (Saltau
2001) et pratiqué par un grand nombre d’étudiants
(Sheard, 2002) notamment en informatique, a incité au
développement, depuis plus de 30 ans, de systèmes
automatisés capable de détecter cette forme de triche.
Désormais, s’il est toujours possible de désorienter
ces systèmes, il faut mettre en œuvre des techniques
élaborées (Prechelt et al. 2000, Chen et al. 2003) dont
la mise en œuvre est aussi difficile que la tâche de
départ, et donc hors de portée des étudiants tentés par
le plagiat.
Ces outils étant donc capables de détecter des
similarités fortes entre programmes, alors même que
des techniques élaborées de camouflage du plagiat ont
été mises en œuvre, les techniques qu’ils emploient
sont intéressantes à étudier dans le cadre des
applications que nous envisageons.
Comptage d’Attributs
Les premiers systèmes de détection de plagiat
calculaient, pour chaque programme, un certain
nombre de métriques permettant alors d’associer à
chacun de ces programmes un vecteur de
caractéristiques, c’est-à-dire un point dans un espace à
n dimensions. Des programmes proches dans cet
espace sont alors considérés comme possibles plagiats.
Le premier système de ce type (Ottenstein 1976) était
basé sur les métriques suivantes : nombre d’opérateurs
uniques, nombre d’opérandes uniques, nombre total
d’opérateurs et nombre total d’opérandes. Par la suite,
d’autres systèmes (Berghel et Sallach 1984, Faidhi et
Robinson 1987, Grier 1981) ont été développés,
introduisant des métriques supplémentaires, jusqu’à 24.
Lorsqu’on calcule des métriques sur l’ensemble d’un
programme, on perd toutes les informations liées à sa
structure et il a été montré (Whale, 1990) que les
systèmes de ce type étaient inefficaces car soit très
sensibles (de petites modifications rendent le plagiat
indétectable) soit au contraire trop peu sensibles (ce qui
occasionne de nombreux faux-positifs).
Métriques Structurelles
Par la suite, certains systèmes (Jankowitz 1988) ont
combiné l’approche « comptage d’attributs » avec des
comparaisons de la structure des programmes, cette
dernière technique étant la base des systèmes
actuellement les plus utilisés parmi lesquels on peut
citer MOSS (Schleimer et al. 2003, Aiken ), YAP (Wise
41
Loïc Février
1996), JPlag (Prechelt, et al. 2000), SIM (Gitchell et
Tran, 1999) ou encore SID (Chen et al. 2003).
Représentation Symbolique
Tous ces systèmes commencent par associer à chaque
programme une représentation symbolique permettant
de s’éloigner du détail de l’implémentation afin de ne
conserver que l’essence même du programme.
L’ensemble des symboles choisis est de taille plus ou
moins grande selon les systèmes et permet donc des
compromis variables entre la non-détection de certains
plagiats et la détection de faux-positifs.
Ainsi, dans le cas de JPlag, un programme est
représenté sous la forme d’une suite de symboles très
généraux qui, dans le cas Java, comprennent
notamment
VARDEF, ASSIGN, APPLY,
BEGINWHILE, ENDWHILE,
IF, ELSE, ENDIF...
Le détail des noms de variables ou même des
affectations effectuées est donc oublié et seule la
structure est conservée.
Au contraire pour SIM, l’ensemble des symboles est
plus important et un code comme
for (i = 0; i < max; i++)
sera transformé en
TKN_FOR TKN_LPAREN TKN_ID_I
TKN_EQUALS TKN_ZERO...
qui conserve donc beaucoup plus d’informations, bien
que les noms des variables soient également oubliés.
Comparaisons
Une fois les représentations symboliques des
programmes obtenues, différents algorithmes de
comparaison sont mis en œuvre par ces systèmes.
Dans le cas de SIM, on cherche à aligner les deux
séquences de symboles de manière à maximiser un
certain score. Par exemple, deux symboles associés
valent +1 s’ils sont égaux et -1 sinon ; un symbole qui
reste seul vaudra quant à lui -2. Il est possible de
maximiser très simplement un tel score en utilisant des
techniques de programmation dynamique, mais le
grand
défaut de cette méthode est qu’elle n’est pas capable de
traiter les cas où des morceaux de codes ont été
inversés.
Dans le cas de JPlag et de YAP, on cherche parmi
ces deux séquences de symboles des sous-séquences
communes, appelées tuiles. Ces tuiles étant disjointes,
on déterminera la similarité entre deux programmes en
calculant le taux de recouvrement maximal des deux
séquences par des tuiles assez grandes (de taille
supérieure à un certain paramètre). L’algorithme utilisé
est de type glouton, cherchant à chaque étape la plus
grande tuile possible.
Le système MOSS utilise, de son côté, une technique
de winnowing considérant l’ensemble des sousséquences (de longueur fixée) de symboles d’un
42
programme et extrayant pour chacune de ces sousséquences, de manière invariante localement, un
élément représentatif (par exemple le minimum).
L’ensemble de ces éléments constitue alors un
échantillonnage de la séquence d’origine. Pour
comparer deux programmes, on calcule alors le nombre
d’échantillons partagés.
Métrique de Compression
Le système SID (Chen et al. 2003) diffère des
méthodes présentées précédemment au sens où il ne
compare
pas
réellement
les
représentations
symboliques des programmes mais utilise une
métrique, basée sur la complexité de Kolmogorov.
Cette métrique est prouvée comme optimale mais, ne
pouvant être calculée, est en pratique approximée par
un algorithme de compression pour donner la NCD
(Normalized Compression Distance).
Intuitivement, plus deux programmes sont différents,
plus la longueur de leur version compressée sera
importante, car moins il y a d’informations répétées.
Cette distance a montré d’excellents résultats
lorsqu’elle est comparée aux autres systèmes comme
MOSS ou JPlag (Chen et al. 2003).
5. Classification de programmes
Outils existants
L’analyse de similarité entre programmes (ou codes
binaires décompilés) est utilisée dans un cadre
industriel, que ce soit pour la détection de code
dupliqué (voire Roy et al. 2009 pour une comparaison
détaillée des techniques disponibles) ou pour la
détection et la classification de virus informatiques
(Wehner 2005, Cesare et Xiang 2011) le travail de S.
Wehner s’appuyant justement sur la Normalized
Compression Distance que nous avons présentée
précédemment.
Au contraire, si, comme nous l’avons vu, la détection
de similarités entre programmes informatiques est
utilisée dans de nombreux systèmes afin de détecter un
éventuel plagiat, son utilisation dans un cadre
pédagogique afin de fournir un feedback aux élèves n’a
été proposée, à notre connaissance, que dans un
système mis en place à l’université de Durham
(Watson et al. 2011). Dans ce cas, la similarité entre
deux programmes est déterminée en calculant la
distance d’édition entre leurs deux arbres syntaxiques.
Utilisation Envisagée
L’intérêt pédagogique de ces techniques de
comparaison de programmes nous semble très
important et leur mise en œuvre apporterait beaucoup à
la fois aux élèves et aux enseignants.
Combinées avec l’utilisation de fichiers tests, elles
permettraient à l’enseignant de classifier rapidement un
grand nombre de programmes, c’est-à-dire de faire de
la
classification
semi-supervisée.
Si
cette
automatisation est déjà très utile au sein d’une classe,
avec environ une cinquantaine de programmes à
classifier par exercice, il est parfaitement possible
qu’un même exercice puisse être donné à plusieurs
Amiens – 23 et 24 mai 2012
Analyse automatique de codes informatiques
dizaines (ou centaines) de classes s’il est présent sur
une plateforme en ligne (France-IOI, Codecademy). Il
est alors absolument nécessaire de disposer de tels
outils afin de pouvoir analyser l’ensemble des données
disponibles.
Lors de la soumission par un élève d’un nouveau
programme, celui-ci serait alors évalué sur le jeu de
tests puis classifié grâce à la taxonomie mise en place
précédemment. L’élève recevrait donc un message
d’aide aussi adapté que possible à l’erreur commise.
Pour l’enseignant, l’utilisation d’outils de
classification de ce type permettrait d’avoir une vue
globale sur les erreurs des élèves, même si ces derniers
ont finalement réussi à corriger leur programme par
eux-mêmes.
Cadre de Mise en Œuvre
L’objectif de nos travaux de recherche est donc la
création d’outils d’analyse automatique de programmes
permettant les utilisations pédagogiques évoquées
précédemment.
Nous nous appuierons sur les différentes techniques
utilisées pour la détection de plagiat ou de similarités
entre programmes, et nous déterminerons la plus
adaptée au cadre que nous nous fixons. En effet, dans
la situation qui nous intéresse, les élèves ne vont pas
chercher à masquer un plagiat dans leurs programmes,
mais nous devrons en revanche être capables d’en
extraire les structures fondamentales permettant de les
catégoriser au mieux. D’une manière générale, les
programmes considérés seront également courts (10 à
30 lignes), aussi une attention particulière devra être
apportée au caractère suffisamment discriminatif des
outils utilisés. Les différentes techniques devront donc
être étudiées et comparées sur ce type particulier de
programmes.
A cet effet, une base de données de programmes
devra être constituée afin de pouvoir comparer ces
techniques entre elles et, d’un point de vue plus
général, pouvoir confronter les performances du
système envisagé avec celles d’autres outils similaires,
en particulier celui utilisé à l’université de Durham
(Watson et al. 2011).
La correction d’un programme ne pouvant être
déterminée par la seule analyse de sa similarité à
d’autres programmes (un seul caractère de différence
pouvant le rendre invalide), les résultats issus de
l’évaluation sur un jeu de tests seront également
utilisés pour cette classification.
Un outil de visualisation des similarités au sein d’un
ensemble de programmes devra également être mis au
point, la construction de l’arbre ternaire utilisé par
(Chen et al. 2003) étant bien trop coûteuse en temps.
Un certain nombre de contraintes s’appliqueront aux
outils développés. En effet, ils devront être utilisables
de manière simple par tout enseignant désireux de les
appliquer sur ses propres exercices. Afin de pouvoir
être utilisés de manière efficace sur des plates-formes
rassemblant plusieurs milliers d’élèves, une attention
toute particulière devra également être portée à la
complexité des algorithmes utilisés.
Enfin, l’intégration des outils sera effectuée non
seulement au sein de notre université mais aussi sur la
4ièmes Rencontres Jeunes Chercheurs en EIAH
plate-forme de France-IOI, afin de permettre une
évaluation par les élèves et les enseignants de leurs
qualités et défauts.
Compétences Requises
L’enseignant souhaitant utiliser de tels outils sur des
exercices déjà créés et mis en place sur une plateforme
existante, aura pour seule tâche d’assister le système
dans la phase de classification, c’est-à-dire d’être
capable d’identifier les erreurs communes à un groupe
de programmes afin de les labelliser correctement. Il
profitera bien entendu du travail déjà effectué par
d’autres enseignants sur ces mêmes exercices.
Dans le cas d’un exercice original, s’il est préférable
de fournir plusieurs solutions correctes ou incorrectes
(afin que l’outil soit opérationnel dès le début), il est
suffisant de n’indiquer qu’une seule solution valide. Le
jeu de test devra quand à lui nécessairement être créé,
de manière manuelle ou plus informatisée à l’aide
d’outils de création de jeux de tests, selon le niveau de
compétence de l’enseignant. Détailler ce type d’outils
sortirait du cadre de cet article mais leur utilisation est
simple, à la portée d’un enseignant après une vingtaine
d’heures de pratique de la programmation.
6. Conclusion
Dans cet article nous avons tout d’abord exposé les
difficultés rencontrées par les enseignants dans le cadre
de l’apprentissage de l’algorithmique et de la
programmation, en particulier au lycée.
Après avoir présenté un cadre général pour
l’évaluation automatique de programmes à l’aide de
fichiers tests, puis exposé les limites d’une telle
approche, nous avons montré l’intérêt de pouvoir
analyser et comparer plus en détail les programmes
réalisés par les élèves.
Des outils adaptés à ce cadre pédagogique restent à
développer puis à tester en situation réelle, ce qui est
l’objet de notre travail de doctorat.
Références
A. Aiken. A system for detecting software
plagiarism. http://theory.stanford.edu/~aiken/moss/.
Jens Bennedsen and Michael E. Caspersen. Failure
rates in introductory programming. SIGCSE Bull.,
39:32–36, June 2007.
H. L. Berghel and D. L. Sallach. Measurements of
program similarity in identical task environments.
SIGPLAN Not.,19 :65–76, August 1984.
Silvio Cesare and Yang Xiang. Malware variant
detection using similarity search over sets of control
flow graphs. In Trust, Security and Privacy in
Computing and Communications (TrustCom), 2011
IEEE 10th International Conference on, pages 181-189,
nov. 2011.
Xin Chen, Brent Francia, Ming Li, Brian Mckinnon,
and Amit Seker. Shared information and program
plagiarism detection. IEEE TRANS. INFORM. TH,
50:545–1551
Codecademy. http ://www.codecademy.com.
CodeChef. http ://www.codechef.com.
43
Loïc Février
J. A. W. Faidhi and S. K. Robinson. An empirical
approach for detecting program similarity and
plagiarism within a university programming
environment. Comput. Educ., 11 :11–19, January 1987.
France-IOI. http ://www.france-ioi.org.
David Gitchell and Nicholas Tran. Sim : a utility for
detecting similarity in computer programs. Science,
31(1) :266–270, 1999.
Anabela Gomes and António José Mendes. Learning
to program - difficulties and solutions. Proceedings of
the International Conference on Engineering
Education, 2007.
Sam Grier. A tool that detects plagiarism in pascal
programs. SIGCSE Bull., 13 :15–20, February 1981.
Khider Hakem, Emmanuel Sander, and Jean-Marc
Labat. Diane (diagnostic informatique sur l’arithmétique au niveau élémentaire). In Environnements
Informatiques pour l’Apprentissage Humain, pages 81–
92, 2005.
Werner HartMann, Michaek Näf, and Raimond
Reichert. Enseigner l’informatique, 2011.
Neil T. Heffernan, Kenneth R. Koedinger, and Leena
Razzaq. Expanding the model-tracing architecture : A
3rd generation intelligent tutor for algebra
symbolization. Int. J. Artif. Intell. Ed., 18 :153–178,
April 2008.
Colin A. Higgins, Geoffrey Gray, Pavlos
Symeonidis, and Athanasios Tsintsifas. Automated
assessment and experiences of teaching programming.
J. Educ. Resour. Comput., 5, September 2005.
H. T. Jankowitz. Detecting plagiarism in student
pascal programs. Comput. J., 31 :1–8, February 1988.
Mike Joy, Nathan Griffiths, and Russell Boyatt. The
boss online submission and assessment system. J. Educ.
Resour. Comput., 5, September 2005.
Caitlin Kelleher and Randy Pausch. Lowering the
barriers to programming : A taxonomy of
programming environments and languages for novice
programmers. ACM Comput. Surv., 37 :83–137, June
2005.
Susanne Narciss and Katja Huth. Fostering
achievement and motivation with bug-related tutoring
feedback in a computer-based training for written
subtraction. Learning and Instruction, 16(4) :310 –
322, 2006.
J. Hattie and H. Timperley. The power of feedback.
Review of Educational Research,, 77(1):81–112, 2007.
K. J. Ottenstein. An algorithmic approach to the
detection and prevention of plagiarism. SIGCSE Bull.,
8 :30–41, December 1976.
Arnold Pears, Stephen Seidman, Lauri Malmi, Linda
Mannila, Elizabeth Adams, Jens Bennedsen, Marie
44
Devlin, and James Paterson. A survey of literature on
the teaching of introductory programming. SIGCSE
Bull., 39 :204–223, December 2007.
Lutz Prechelt, Guido Malpohl, and Michael
Philippsen. JPlag : Finding plagiarism among a set of
programs. Technical Report 2000-1, Universität
Karlsruhe, Fakultät für Informatik, March 2000.
Chanchal K. Roy, James R. Cordy, and Rainer
Koschke. Comparison and evaluation of code clone
detection techniques and tools : A qualitative
approach.
SCIENCE
OF
COMPUTER
PROGRAMMING, page 2009, 2009.
C. Saltau. Fear of failure drives student exam cheats.
The Age, Melbourne, page 16, 2001.
Saul Schleimer, Daniel S. Wilkerson, and Alex
Aiken. Winnowing : local algorithms for document
fingerprinting. In Proceedings of the 2003 ACM
SIGMOD international conference on Management of
data, SIGMOD ’03, pages 76–85, New York, NY,
USA, 2003. ACM.
Judy Sheard, Martin Dick, Selby Markham, Ian
Macdonald, and Meaghan Walsh. Cheating and
plagiarism : perceptions and practices of first year it
students. SIGCSE Bull., 34 :183–187, June 2002.
Fu Lee Wang and Tak-Lam Wong. Designing
programming exercises with computer assisted
instruction. In Proceedings of the 1st international
conference on Hybrid Learning and Education, ICHL
’08, pages 283–293, Berlin, Heidelberg, 2008.
Springer-Verlag.
Shu-Ling Wang and Pei-Yi Wu. Examining the role
of feedback on self-efficacy and performance in webbased environment. In Innovative Computing,
Information and Control, 2007. ICICIC ’07. Second
International Conference on, page 161, sept. 2007.
Christopher Watson, Frederick W.B. Li, and Rynson
W.H. Lau. Learning programming languages through
corrective feedback and concept visualisation. In
Proceedings International Conference on Web Based
Learning, ICWL’11, pages 11–20, 2011.
Stephanie Wehner. Analyzing worms and network
traffic using compression. CoRR, abs/cs/0504045,
2005.
G. Whale. Identification of program similarity in
large populations. Comput. J., 33 :140–146, April
1990.
Michael J. Wise. Yap3 : Improved detection of
similarities in computer program and other texts. In
SIGCSEB : SIGCSE Bulletin (ACM Special Interest
Group on Computer Science Education), pages 130–
134. ACM Press, 1996.
Amiens – 23 et 24 mai 2012
Similarités sémantiques et contextuelles pour l’apprentissage
informel en mobilité
Pierre-Yves Gicquel
3ème année de doctorat
Université de Technologie de Compiègne-CNRS, UMR Heudiasyc, BP 20259, 60200,
Compiègne, France
[email protected]
Résumé
Les dispositifs mobiles tels que tablettes et
smartphones fournissent de nouvelles possibilités
d'interactions situées en musées. Nous explorons
dans cet article deux dimensions pour ces
interactions, l'exploration (à travers la suggestion
au visiteur d'œuvres, d'artistes ou de thèmes
susceptibles de l'intéresser) et la communication (à
travers la mise en place d'un système d'annotation
contextualisée des œuvres). Afin de prendre en
compte la nature située d'une visite de musée, ces
interactions sont contextualisées en fonction du
profil cognitif du visiteur (ex. ses intérêts et son
niveau d'expertise) ainsi que de sa situation
physique (ex. œuvres à proximité et historique de
visite). À cette fin, nous proposons un modèle
sémantique des œuvres et du contexte de visite et
définissons sur ce modèle un calcul de similarité
sémantique et un calcul d'adéquation au contexte.
Introduction
Nous nous intéressons à l'instrumentation des visites de
musées par des dispositifs mobiles. Lors de la visite
d'un musée par un visiteur individuel ou un petit
groupe, un apprentissage informel peut prendre place
place. L’apprentissage informel se distingue de
l'apprentissage formel car il ne s'inscrit pas dans un
cursus scolaire ou professionnel et est essentiellement
centré sur les désirs d'apprentissage du visiteur
(Malcolm et al. 2003). En effet, lors d’un parcours de
musée, les visiteurs ne se comportent pas comme des
apprenants, ils ne passent pas linéairement d'une œuvre
à l'autre ou d'une salle à la suivante comme un
apprenant étudie les chapitres d’un cours. Au contraire,
ils survolent certaines œuvres, ne suivent pas forcément
le chemin prévu et ne lisent que les textes qui les
attirent (moins d'un tiers des textes selon Gob et
Drouguet 2006).
L'apprentissage qui a lieu en musée lors d'une visite
« libre » (par opposition aux visites pédagogiques) est
donc informel, car centré sur les désirs immédiats du
visiteur et non structuré. Les supports numériques aux
visites de musées doivent préserver ce caractère
4ièmes Rencontres Jeunes Chercheurs en EIAH
informel de l'apprentissage en aidant le visiteur à
construire son sens de l'exposition au fil de la visite.
Dans cet article, nous présentons une utilisation de
similarités sémantiques et contextuelles permettant
l'adaptation dynamique des interactions entre le visiteur
et les œuvres. Ces interactions comprennent la
suggestion automatique d’œuvres, d'artistes ou de
thèmes pouvant intéresser le visiteur ainsi que des
communications contextualisées entre visiteurs au sujet
des œuvres. À cette fin, nous proposons un modèle
ontologique pour la description des propriétés
culturelles des œuvres et du contexte de la visite. Le
contexte de visite regroupe des informations sur
l'environnement immédiat du visiteur (œuvres à
proximité) ainsi que des informations sur son profil et
son historique de visite. Ce contexte se construit au fur
et à mesure des déplacements du visiteur dans le musée
et de ses interactions avec le dispositif.
Dans la suite de cet article, nous positionnons notre
travail par rapport aux supports numériques pour la
visite de musée, nous introduisons ensuite le modèle
ontologique CALM (ContextuAlized Learning in
Museum), permettant la description des aspects
culturels des œuvres ainsi que du contexte de visite.
Nous détaillons les calculs de similarité sémantique et
d'adéquation au contexte permettant de fournir au
visiteur des interactions adaptées à son contexte. Enfin,
nous présentons nos premiers résultats expérimentaux.
État de l'art
Le cadre de la visite de musée se prête particulièrement
bien à la mise en place de situations d'apprentissage en
mobilité. Deux types de travaux de recherche émergent
dans ce contexte, les travaux centrés sur l'apprentissage
scolaire et les travaux centrés sur la visite individuelle.
Les travaux scolaires s’intéressent à des classes d'élèves
visitant un musée avec un certain objectif
d'apprentissage, défini par l'enseignant (Sharples et al.
2007). Ces travaux sont centrés sur l'organisation par
l'enseignant des trois temps de la visite (avant, pendant,
après). Les dispositifs mobiles permettent la
capitalisation de l'expérience de visite par les
apprenants (prise de notes, de photos...) facilitant la
45
Pierre-Yves Gicquel
phase de retour d'expérience, qui se déroulera
typiquement en classe, en présence de l'enseignant.
Bien que le design des outils proposés aux
apprenants favorise la liberté et l'exploration, ces
travaux ne se situent clairement pas dans une
perspective d'apprentissage informel, les objectifs
d'apprentissage étant prédéfinis et les différentes phases
bien structurées.
La seconde catégorie de travaux se centre sur
l'apprentissage individuel en musée, et concernent la
situation la plus courante où un visiteur (ou
éventuellement un groupe réduit) explore le musée sans
objectif prédéfini. Les études comportementales en
musée montrent une variabilité importante tant des
modes de visite, (Véron et Levasseur 1983) que des
objectifs d'apprentissage des visiteurs. Ces objectifs
sont le plus souvent vagues pour le visiteur lui-même.
Le rôle du conservateur est alors de faire apparaître, à
travers l'organisation physique des objets, un "sens de
l'exposition", "pour permettre au visiteur de
comprendre, de donner du sens à ce qu'il voit, en
mobilisant sa culture, sa mémoire, son intelligence"
(Gob et Drouguet 2006).
Ce sens de l'exposition repose donc autant sur
l'interprétation des œuvres par le visiteur que sur
l'exposition elle-même. Les recherches sur les supports
numériques pour la visite individuelle de musée se sont
alors focalisées sur la personnalisation des
informations, dans une démarche visant à aider le
visiteur à construire son sens de l'exposition.
Plusieurs approches sémantiques ont émergé pour offrir
des contenus adaptés aux visiteurs en fonction d'une
description sémantique de leur profil et des œuvres.
Dans ces approches, l'utilisateur déclenche une requête
d’information en interagissant implicitement (en
changeant de position) ou explicitement (en
interagissant avec le dispositif). Des documents
pertinents sont alors proposés sur la base de calculs
sémantiques entre les œuvres annotées sémantiquement
et les documents.
HIPPIE (Oppermann et Specht 2000) a été une des
premières tentatives d'utilisation de raisonnement
automatique sur une ontologie couplée à un modèle du
contexte. Dans HIPPIE, les œuvres sont annotées
sémantiquement par des éléments de la taxonomie
ICONCLASS 1et le profil utilisateur est constitué d’un
ensemble de thèmes ICONCLASS qui correspondent à
ses intérêts. Lorsqu'un utilisateur est devant une œuvre,
le système peut lui présenter des documents
compatibles à la fois avec son profil et avec l'œuvre en
question. Le mécanisme d'adaptation est basé sur la
conjonction entre les concepts caractérisant l'utilisateur
et ceux caractérisant l'œuvre.
Le projet CHIP (Wang et al. 2009) a pour objectif de
permettre la recommandation d'œuvres. Les œuvres y
sont représentées comme des instances dotées de
propriétés (style, thème...). Les auteurs proposent une
méthode pour déterminer l'importance relative des
différentes propriétés, en se basant sur une étude des
habitudes de navigation des visiteurs de musées (ex.
lorsqu'un visiteur consulte la notice d'une œuvre, il
consultera tout d'abord la biographie de l'auteur, la
propriété auteur est alors la plus importante). Le
système permet alors de suggérer des œuvres en
fonction des liens directs existant dans l'ontologie.
Ainsi, La Joconde permettra de suggérer L'homme de
Vitruve car les deux œuvres partagent la propriété
artiste.
Notre proposition se situe dans la continuité de ces
approches de l'apprentissage en musée. Par la
description fine des caractéristiques sémantiques des
œuvres, et la construction du contexte du visiteur
(profil et historique de visite) au long de sa visite nous
visons à orienter les informations et interactions
proposées, de manière à aider le visiteur à faire
émerger le sens qu'a pour lui l'exposition.
Le Modèle Ontologique CALM
L'ontologie CALM possède trois racines principales
(figure 1), les entités physiques, les entités
contextuelles et les entités culturelles. Les œuvres et les
visiteurs sont représentés comme étant des entités
physiques dotés de propriétés culturelles et
contextuelles. L'intérêt principal de ce modèle est de
permettre une description unifiée des aspects culturels
des œuvres (ex. styles, personnes représentées,
évènements représentés...) ainsi que de leur contexte
physique.
Modèle sémantique des œuvres
Afin de représenter les aspects culturels des œuvres,
nous utilisons trois différentes sources de
connaissances : CIDOC-CRM2, ICONCLASS et
GETTY-AAT3. CIDOC-CRM est l'ontologie de
référence pour la description du patrimoine culturel,
elle définit, entre autre, les concepts d'œuvre, de
personne, d'évènement historique et de lieu.
Cependant, CIDOC-CRM, étant une ontologie
générique, ne contient pas les éléments permettant la
description fine des œuvres d'art, comme le style ou le
thème. Nous avons alors étendu cette ontologie à l’aide
de la taxonomie ICONCLASS et du thésaurus Getty
AAT. ICONCLASS est une classification hiérarchique
de l'ensemble des thèmes de l'art occidental. GettyAAT (Art and Architecture Thesaurus) est un thésaurus
des techniques, styles et matériaux utilisés en art. Afin
d'inclure ces vocabulaires dans l'ontologie CIDOCCRM, nous les avons exprimés sous forme de
vocabulaires SKOS4, en utilisant les relations
SKOS:Broader et SKOS:Narower pour l'expression des
relations de subsomption. Nous avons ensuite construit
2
www.cidoc-crm.org
www.getty.edu/research/tools/vocabularies
4
http://www.w3.org/2004/02/skos/
3
1
www.iconclass.nl
46
Amiens – 23 et 24 mai 2012
Similarités sémantiques pour l’apprentissage mobile
les relations permettant l'intégration de ces vocabulaires
SKOS dans CIDOC-CRM.
Cette représentation nous permet de décrire finement
les aspects culturels des œuvres. Nous décrivons une
œuvre comme possédant un style, une technique de
production et un ensemble de matériaux utilisés (grâce
à ICONCLASS et Getty AAT). Par ailleurs, nous
décrivons l'artiste ayant créé l'œuvre, ainsi que les
évènements ou personnages représentés (grâce à
CIDOC-CRM).
Figure 1 Fragment de l'ontologie CALM
Modèle sémantique du contexte
La modélisation sémantique du contexte est encore
aujourd'hui une question ouverte. La plupart des
modèles contextuels existants sont basés sur une
définition ad hoc des éléments contextuels pertinents
dans des situations spécifiques.
Notre modèle sémantique du contexte se base sur la
proposition de (Zimmerman et al. 2007) qui définit
cinq
catégories
contextuelles
fondamentales :
localisation, temporalité, identité, relations et activité.
Ces catégories permettent de représenter les relations
entre objets physiques (ex. proximité) ainsi que le
profil utilisateur et son contexte de visite. Dans la suite
de cette section, nous décrivons le contexte de
localisation et le contexte temporel, qui sont essentiels
dans la prise en compte du contexte de visite.
Contexte de localisation. Chaque entité physique
(visiteurs et œuvres) est associée à une localisation
spécifique. Cette localisation est exprimée en utilisant
l'ontologie spatiale développée par le laboratoire
DAIsy5. Cette ontologie décrit les relations entre des
entités de type localisation, une localisation
correspondant à un ensemble de coordonnées associées
à un objet. Les lieux et œuvres du musée sont alors
associés à des localisations et les relations entre ces
5
http://sourceforge.net/projects/spatialontology/
4ièmes Rencontres Jeunes Chercheurs en EIAH
localisations sont exprimées en utilisant l'ontologie (ex.
à proximité, en dessous, au-dessus...). Un visiteur de
musée est en permanence associé à une localisation
dans le musée. Lorsqu'il se déplace, un évènement
changement de localisation est déclenché, modifiant sa
propriété de localisation dans la base de connaissance.
Ainsi, le système peut en permanence attribuer à un
visiteur l'ensemble des œuvres présentes autour de lui.
Contexte temporel. Le contexte temporel permet la
représentation des intérêts de l'utilisateur et de son
historique de visite. Ce contexte temporel est décrit
comme un ensemble d'évènements exprimés via
l'ontologie SEM (Simple Event Model) (van Hage et al
2011). De nouveaux évènements peuvent être ajoutés à
la base de connaissances de deux façons : explicitement
et implicitement. Un événement implicite est
déclenché lorsqu'un visiteur s'arrête pour une certaine
durée devant une œuvre. Cet arrêt déclenche un
événement de consultation, associant l'œuvre en
question, ainsi que la date et l'heure, au visiteur. Un
événement explicite est déclenché lorsque l'utilisateur
interagit avec l'application pour demander des
renseignements supplémentaires sur une œuvre. Un
évènement d'intérêt est alors déclenché associant
l'œuvre en question, ainsi que la date et l'heure, au
profil du visiteur.
Notre approche du contexte se rapproche de celle
proposée par (Georges et al 2009) dans le projet
MeCoCo (Mediated Contextual Communication). Ces
derniers proposent un modèle du contexte permettant
d’opérer des rapprochements automatiques entre
différents messages postés en situation de mobilité.
L'originalité de notre approche réside dans
l'organisation de chacune des dimensions contextuelles.
En effet, chaque dimension est peuplée d'instances du
domaine des connaissances muséales (ex. artiste, style,
etc..), structurée par une ontologie propre à la
dimension considérée. Cette modélisation nous permet
de quantifier la présence, dans une dimension
contextuelle, de connaissances propres au domaine. Par
exemple, il est possible de calculer le degré de présence
de connaissances associées au style pointilliste dans le
contexte de localisation d'un visiteur.
Mesures de similarités sémantiques et
contextuelles pour la recommandation
Nous décrivons ici les différentes mesures de similarité
utilisées sur le modèle ontologique CALM. Afin
d'illustrer notre approche, nous décrivons ces
similarités dans le contexte du processus de
recommandation.
Vue d’ensemble du processus de
recommandation
L'objectif du système de recommandation est de
faciliter la navigation des visiteurs au sein des œuvres,
artistes, styles, thèmes... Ainsi, lorsqu'un visiteur
contemple La Joconde, le système peut lui
47
Pierre-Yves Gicquel
recommander de considérer d'autres œuvres de la même
période et justifier cette recommandation en informant
le visiteur du lien existant entre ces œuvres (même
période).
La
recommandation
d'œuvres
est
généralisable aux autres concepts définis dans
l'ontologie. Ainsi, si le visiteur consulte la biographie
de Leonard de Vinci, le système lui recommandera de
considérer des artistes ayant été maitres ou élèves de
Leonard.
Similarité sémantique entre instances
Le processus de recommandation est basé sur un calcul
de similarité sémantique entre les instances de la base
de connaissance. Ce calcul est basé sur l'approche de
similarité par propriétés (Pirro et Euzenat 2010), la
similarité entre deux objets étant basée sur la similarité
entre leurs caractéristiques. D'un point de vue
ontologique
les
caractéristiques
des
objets
correspondent aux propriétés des instances représentant
ces objets.
Afin de déterminer l'ensemble des propriétés
présentant un intérêt pour les visiteurs, nous définissons
alors un ensemble de concepts d'intérêts. Un concept
d'intérêt est un concept de l'ontologie que l'utilisateur
pourra directement utiliser lors de ses interactions avec
les œuvres. Nous avons sélectionné un ensemble de
sept concepts d'intérêts dans l'ontologie CIDOC-CRM :
personne, style, œuvre, évènement historique, lieu et
thème.
Le choix de ces concepts d'intérêt nous permet de
construire une matrice de propriétés d'intérêt (figure 2).
Il s'agit d'une matrice T[i,j], où T[0,k]=T[k,0] sont les
concepts d'intérêts et T[i,j] est l'ensemble des relations
permises dans l'ontologie, T[i,0] étant le codomaine et
T[0,j] le domaine. Ainsi, la ligne i de la matrice
contient l'ensemble des propriétés d'intérêt que possède
le concept T[i,0] et la colonne j de la matrice contient
l'ensemble des propriétés dans lesquelles le concept
T[0,j] est impliqué.
Cidoc:Person
hasParent
hasMaster
Cidoc:Style
hasPeriod
isPeriodOf
Cidoc:Style
hasPeriod
isPeriodOf
Cidoc:Artwork
depicts
broader
narrower
lin(Style,Style)
visualItem
hasStyle
Cidoc:Person
Cidoc:Artwork
participatesIn
creates
owns
ø
partOf
Figure 2 Matrice des propriétés d’intérêt
La ligne 2 de la table 1 nous permet ainsi de
déterminer les propriétés à prendre en compte pour
comparer deux instances de Person. Deux personnes
peuvent être comparées suivant leurs parents, maitres
ou élèves, style et œuvres qu'elles ont créées ou qu'elles
possèdent. Par commodité, numérotons les propriétés
d'un concept, par exemple la propriété 1 de personne
est hasParent et sa propriété 6 est own. Nous
construisons alors un vecteur de similarité S entre deux
instances a1 et a2 du même concept :
S(a1,a2)= [p1...pk], où pk correspond à la valeur de
48
similarité pour la propriété k des deux instances. Cette
valeur varie dans l'intervalle [0,1]. Deux cas doivent
être distingués : si les valeurs des propriétés sont des
instances ou des littéraux, (ex. une personne ou une
date) la similarité est de 0 quand les deux propriétés
sont différentes et de 1 quand elles sont égales. Le
deuxième cas concerne les instances des hiérarchies de
concepts intégrées à CIDOC-CRM (style et thème),
nous calculons alors la valeur de similarité entre les
deux instances par la similarité de Lin (Lin 1998). Celle
ci varie dans l'intervalle [0,1] et permet d'exprimer la
similarité entre deux éléments d'une taxonomie en se
basant sur le calcul du plus petit ancêtre commun entre
deux concepts ainsi que sur la profondeur de chacun
des concepts. Par exemple, la similarité de Lin permet
de déterminer que le style Pointillist est plus proche de
Impressionist que de Cubist.
Afin de classer les suggestions selon leur pertinence,
le vecteur de similarité doit être agrégé en une valeur
unique. Nous déterminons cette valeur en faisant
l'hypothèse simplificatrice que toutes les propriétés ont
le même poids et sont indépendantes. La valeur
d’agrégation est alors simplement la norme du vecteur
divisée par la norme du vecteur de similarité maximale,
la similarité maximale correspondant à une valeur
d’agrégation de 1 : Sim(a1,a2)=|[p1,…,pk]|/sqrt(k).
Calcul du taux d’adéquation au contexte
Le taux d'adéquation au contexte varie dans l'intervalle
[0,1] et exprime, pour une instance, le nombre de
propriétés de cette instance existant dans le contexte
utilisateur.
Dans une perspective d'apprentissage situé, il sera
alors intéressant de recommander des éléments
possédant un taux d'adéquation au contexte important.
Le visiteur sera en effet plus à même d'appréhender la
justification de la recommandation si l'élément
recommandé existe dans son contexte. Par exemple,
supposons que deux œuvres puissent être
recommandées à partir de celle que contemple le
visiteur. La première possède un style similaire et
représente le même personnage que l'œuvre considérée
par le visiteur et la deuxième possède un thème
similaire et une technique de peinture similaire. Afin de
choisir quelle œuvre recommander, il est alors
intéressant de considérer le taux d'adéquation au
contexte. Typiquement, si le style et le personnage de la
première œuvre existent dans le contexte utilisateur, il
sera intéressant de la recommander.
Nous calculons le taux d'adéquation au contexte
à l’aide de l'indice de Jaccard des propriétés d'une
instance et du contexte utilisateur. L'indice de Jaccard
est un outil permettant de comparer la similarité de
deux ensembles (l'indice étant égal à 1 si les ensembles
sont les mêmes). Si C est l'ensemble des instances
présentes dans le contexte de localisation ou temporel
de l'utilisateur et F(I) l'ensemble des propriétés de
l’instance I, le taux d'adéquation au contexte de I est
alors : | F(I) ∩ C | / | F(I) ∪ C |.
Amiens – 23 et 24 mai 2012
Similarités sémantiques pour l’apprentissage mobile
Application à l’apprentissage informel en
musée
Dans cette section, nous détaillons l'application des
similarités sémantiques et du taux d'adéquation au
contexte pour deux types d'interactions situées entre le
visiteur et les œuvres : l'aide à l'exploration et la
communication entre visiteurs.
Aide à l’exploration
L'aide à l'exploration est réalisée en recommandant au
visiteur des éléments susceptibles de l'intéresser dans le
musée. Ces éléments sont des instances des concepts
d'intérêt définis plus haut (ex. œuvre, artiste, style...).
Lorsqu'un utilisateur consulte une œuvre via le
dispositif, des informations directes, comme l'artiste, le
style, les personnages et évènements représentés, lui
sont fournis sur cette œuvre, ces informations
correspondant directement aux assertions de la base de
connaissance.
De plus, d'autres œuvres similaires lui sont
proposées. L'application suggère des œuvres en lien
avec celle qu'il contemple et justifie ces suggestions en
langage naturel. Ainsi, si l'utilisateur se trouve devant
une œuvre pointilliste, l'application pourra lui suggérer
une œuvre impressionniste à proximité, permettant à
l'utilisateur de comparer effectivement pointillisme et
impressionnisme.
Figure
3
Recommandations
contextualisées
d'œuvres
Ces suggestions contextualisées ont pour objectif
d'aider le visiteur à établir les liens mentaux entre les
différentes entités suivant leurs similarités, la même
entité, par exemple Leonard de Vinci, pouvant être
suggérée de différentes manières. De Vinci pourra ainsi
être suggéré successivement comme le maître de
l'auteur d’un tableau consulté par l'utilisateur puis
comme l'élève de l'auteur d’un autre tableau. Ces
suggestions offrent alors des possibilités d'exploration
et de navigation riches au sein des collections.
Communication entre visiteurs
La deuxième interaction située que nous nous
proposons d'instrumenter est la communication entre
4ièmes Rencontres Jeunes Chercheurs en EIAH
visiteurs. La communication entre apprenants est une
fonction essentielle du processus d'apprentissage.
Cependant, l'instrumentation des communications pose
différents problèmes dans le cadre d'une visite de
musée. Les communications directes (comme le
téléphone) ne sont pas toujours possibles et ne
permettent pas la capitalisation et la ré-exploitation des
échanges.
Par analogie avec l'annotation de documents
numériques, nous définissons alors des annotations sur
les objets physiques du musée. Dans ce contexte, une
annotation est un texte, une image ou une vidéo qui
sera associée avec un objet physique (œuvre, lieu), et
consultable sur le dispositif mobile. La nature
contextualisée de l'annotation réfère à l'intégration, à
l'intérieur de l'annotation, d'éléments du contexte du
visiteur qui a déposé l'annotation (ex. sa position, ses
préférences). De plus, les annotations sont indexées par
des instances de la base de connaissances, permettant
des recherches sémantiques dans l'ensemble des
annotations (Gicquel et Lenne 2011).
Expérimentation
Une première évaluation de l'utilisabilité du système
s'est déroulée au Palais impérial de Compiègne et a
porté sur 40 visiteurs « grand public ». Les visiteurs
étaient invités à utiliser le système CALM sur des
tablettes Archos 70, la localisation indoor étant assurée
à l’aide d’un système de triangulation WiFi.
L'utilisation de système à base de connaissance en
mobilité reste pour le moment marginale. Il n'y a donc
pas, à notre connaissance, de protocoles directement
applicables à notre situation. Nous avons donc choisi
une méthode classique d'évaluation inspirée de la
méthode System Usability Scale. Les visiteurs étaient
invités à réaliser quatre types de tâches : consulter la
notice d'une œuvre, consulter les informations annexes
associées à une œuvre (suggestions), lire et déposer une
annotation.
Figure 4 Utilité et utilisabilité des tâches
A l'issue de l'expérimentation, un questionnaire
permettait au visiteur d'indiquer sur une échelle de 1 à 4
(de absolument pas d'accord à tout à fait d'accord),
son accord avec différentes phrases permettant
d'évaluer l'utilisabilité et l'utilité des tâches proposées.
(ex. J'ai réussi facilement à afficher la notice de l'œuvre
que je souhaitais consulter). Pour obtenir des résultats
entre 0 et 100, nous avons associé un score de 100 aux
réponses de type tout à fait d'accord, 66 aux réponses
de type assez d'accord, etc. La figure 4 synthétise les
moyennes des scores d'utilisabilité et d'utilité des
différentes tâches.
Ce tableau amène plusieurs commentaires. Tout
d’abord, la perception de l’intérêt et de l’utilisabilité de
49
Pierre-Yves Gicquel
l’application est globalement bonne, les interactions
contextuelles (utilisation de la localisation) semblent
effectivement faciliter l’accès aux ressources
culturelles. Ce résultat encourageant doit cependant
être considéré avec prudence car la présence des
expérimentateurs peut causer un biais dans les réponses
données par les utilisateurs. L’utilisation d’annotations
sur les œuvres est l’activité perçue comme la moins
utile et la plus difficile. Ceci peut être dû en partie à
l’utilisation du clavier virtuel Android pour entrer le
texte des annotations, ce clavier étant en effet assez peu
utilisable. Les visiteurs étaient relativement homogènes
en terme de classe d’âge, ce n’était pas le cas du niveau
d’étude. Nous n’avons cependant pas constaté de
différence significative dans l’utilisabilité de
l’application en fonction du niveau d’étude. Ce fait peut
s’expliquer par la généralisation de l’utilisation d’outils
mobiles.
Conclusion
Nous avons présenté le modèle ontologique CALM
permettant la description des aspects culturels et
contextuels de la visite de musée. Nous avons détaillé
les mesures sémantiques utilisables sur ce modèle et les
interactions situées permises par ces mesures de
similarité dans un cadre d'apprentissage informel en
musée.
Une expérimentation a été réalisée pour valider
l'utilisabilité d’un premier prototype dans un cadre réel.
Une seconde expérimentation nous permettra
prochainement de considérer plus finement l'impact des
calculs sémantiques sur le processus d'apprentissage
informel. Nous nous intéresserons en particulier à
l'impact de la prise en compte du profil dans le
processus de suggestion. Cette prise en compte doit
aider le visiteur à se construire une représentation du
sens de l'exposition, mais impose une adaptation de
l'interface en fonction du profil qui pourra créer des
problèmes d'utilisabilité.
Références
Brown. J, S. Collins, A. and Duguid, P. 1998. Situated
cognition and the culture of learning. Educational
researcher, vol. 18, no. 1.
Gob, A. and Drouguet, N. 2005. La muséologie,
Histoire développements actuels, enjeux. ArmandColin édition.
George S., Lekira R. A., MeCoCo: A Context-Aware
System for Mediated Communications, International
50
Journal of Interactive Mobile Technologies (iJIM),
Vol. 3, n°3, 2009, p. 26-33
Gicquel, P.Y. and Lenne. D. 2011. A contextualized
annotation model for mobile learning. In proceedings
of 11th IEEE International Conference on Advanced
Learning Technologies (ICALT). IEEE, pp. 22–24.
Lin, D. 1998. An information-theoretic definition of
similarity. In Proceedings of the 15th international
conference on machine learning.
Malcolm, J. and Hodkinson, P. and Colley, H. 2003.
The interrelationships between informal and formal
learning. Journal of Workplace Learning vol 15.
Oppermann, R and Specht, M. 2000. A contextsensitive nomadic information system as an exhibition
guide. In proceedings of the handheld and ubiquitous
computing second international symposium.
Pirro, G. and Euzenat, J. 2010. A feature and
information theoretic framework for semantic similarity
and relatedness. In proceedings of the International
Semantic Web Conference (ISWC).
Sharples, M.; Meek, J.; Vavoula, G.; Lonsdale, P.; and
Rudman, P. 2007. An evaluation of MyArtSpace : a
mobile learning service for school museum trips. In
Proceedings of mLearn.
Levasseur, M. and Véron, E. 1983. Ethnographie de
l’exposition. Bibliothèque publique d’information du
centre George Pompidou.
van Hage, W.; Malais, V.; Segers, R.; Hollink, L.; and
Schreiber, G. 2011 Design and use of the simple event
model (SEM). In Proceedings of Web Semantics:
Science, Services and Agents on the World Wide Web.
Wang, Y.; Stash, N.; Aroyo, L.; Hollink, L.; and
Schreiber. 2009. Using semantic relations for contentbased recommender systems in cultural heritage. In
Proceedings of the Workshop on Ontology Patterns
(WOP) at ISWC.
Zimmermann, A.; Lorenz, A.; and Oppermann, R.
2007 An operational definition of context. In
proceedings
of
the
6th
international
and
interdisciplinary conference on Modeling and using
context.
Amiens – 23 et 24 mai 2012
Developing adaptive intelligent tutoring system
Mohamed Hafidi, Taher Bensbaa
Laboratoire LRI, Department of Computer Science, University of Annaba, Algeria
[email protected], [email protected]
Abstract
To design an adaptive intelligent tutoring system which
can manage both different disciplinary domains and a
guide for the learner is difficult. The specialization of
the analysis treatments is responsible for the loss of
reusability in other disciplinary domains. The analysis
is didactic and thus strongly connected to the domain
concerned. It results that an intelligent tutoring system
is consequently, specialized in a type of taught
knowledge and not easily transposable to other
domains. To propose a model transposable to different
domains of learning, the former has to take into account
this diversity and to situate the learning activity. In this
paper, we will show how to produce a guide model
parameterized by the learning domain. Our objective
was to develop an adaptive intelligent tutoring system
based on item response theory and metrics, adapted for
letting the learners work in several disciplinary fields in
the University of Annaba. In this context, our constraint
is threefold: to represent knowledge relative to several
disciplinary domains, to propose interactive activities
to the learners and finally, to be able to support student
guidance in her/his course by proposing her/him
relevant support activities when he meets difficulties.
Introduction
Nowadays, learning systems take various forms: microworlds, intelligent tutoring systems (ITS), adaptive
hypermedia (AH), learning games, etc. The conception of a
learning system is a multidisciplinary task based on
theoretical models inspired by pedagogy, by didactic and by
psychology. The direct application of such models is not
always easy, or even possible, and in general requires major
adaptations. Intelligent Tutoring Systems (ITS) are designed
to assist learners in the acquisition of skills rather than the
complete mastery of a domain. Intelligent tutoring systems
are primarily used as instruction during the tutorial section of
a lecture course, or in conjunction with an alternate
instruction method (Beaumont 1994), (Brusilovsky 1996),
(Nogry et al. 2008), (Suraweera et al. 2004}. Conversely,
Adaptive Hypermedias (AH) are primarily designed to impart
the concepts of a domain that a student must know in order to
utilize these skills (De La Passardiere et al. 1992), (Knutov et
al. 2009), (Hendrix et al. 2008). While some adaptive
hypermedia systems do provide instruction in skills, it is
generally less advanced than comparable ITS instruction. For
a system to provide a standalone solution comparable to a
lecture course it must provide instruction in both concepts
and skills. A general instruction system requires both of these
instruction methods to provide a full learning system
(Pipatsarun et al. 2010), (Klasnja-Milicevic et al. 2011),
(Chopra 2010), (Nicholas et al. 2008).
Theoretical basis
Item response theory (IRT)
Item response theory (IRT) was first introduced to provide a
formal approach to adaptive testing (Fernandez 2003). The
main purpose of IRT is to estimate an examinee’s ability (θ)
or proficiency (Wainer 1990) according to his/her
dichotomous responses (true/false) to test items. Based on the
IRT model, the relationship between examinee’s responses
and test items can be explained by so-called item
characteristic curve (ICC) (Wang 2006). In the case of a
typical test item, this curve is S-shaped; the horizontal axis is
ability scale (in a limited range) and the vertical axis is the
probability that an examinee with certain ability will give a
correct answer to the item (this probability will be smaller for
examinees of low ability and larger for examinees of high
ability). The item characteristic curve is the basic building
block of item response theory; all the other constructs of the
theory depend upon this curve (Baker 2001). Several nice
features of IRT include the examinee group invariance of
item parameters and item invariance of an examinee’s ability
estimate (Wang 2006). Under item response theory, the
standard mathematical model for the item characteristic curve
is the cumulative form of the logistic function. It was first
used as a model for the item characteristic curve in the late
1950s and, because of its simplicity, has become the
preferred model (Baker 2001).
Based on the number of parameters in logistic function there
are three common models for ICC; one parameter logistic
model (1PL) or Rasch model, two parameter logistic model
(2PL) and three parameter (3PL) (Baker 2001; Wang 2006).
In the 1PL model, each item i is characterized by only one
parameter, the item difficulty bi, in a logistic formation as
shown
(1)
Where D is a constant and equals to 1.7 and θ is ability scale.
In the 2PL model, another parameter, called discrimination
degree ai, is added into the item characteristic function, as
shown
(2)
4ièmes Rencontres Jeunes Chercheurs en EIAH
51
Mohamed Hafidi
The last 3PL model adds a guess degree ci to the 2PL model,
as shown in Eq. (3), modeling the potential guess behavior of
examinees (Wang 2006).
(6)
(3)
Several assumptions must be met before reasonable and
precise interpretations based on IRT can be made. The first is
the assumption of unidimensionality, which assumes there is
only one factor affecting the test performance. The second
assumption is the local independence of items, which
assumes test items are independent to each other. This
assumption enables an estimation method called maximum
likelihood estimator (MLE) to effectively estimate item
parameters and examinee’s abilities (Wang 2006).
(4)
where Qi(θ)=1-Pi(θ).Pi (θ) denotes the probability that
learner can answer the I th item correctly, Qi (θ) represents
the probability that learner cannot answer the I th item
correctly, and ui is 1 for correct answer to item i and 0 for
incorrect answer to item i (Wainer 1990 ).
Since Pi (θ) and Qi (θ) are functions of learner ability h and
item parameters, the likelihood function is also a function of
these parameters. Learner ability θ can be estimated by
computing the maximum value of likelihood function.
Restated, learner ability equals the θ value with maximum
value of likelihood function (Chen et al. 2005).
Item information function (IIF) in IRT plays an important
role in constructing tests for examinees and evaluation of
items in a test.
Where Ii (θ) is the amount of information for item i at ability
level θ and N is the number of items in the test. The general
level of the test information function will be much higher
than that for a single item information function. Thus, a test
measures ability more precisely than does a single item. An
important feature of the definition of test information given
in Eq. (6) is that the more items in the test, the greater the
amount of information. Thus, in general, longer tests will
measure an examinee’s ability with greater precision than
will shorter tests (Baker 2001).
Item response theory usually is applied in the computerized
adaptive test (CAT) domain to select the most appropriate
items for examinees based on individual ability. The CAT not
only can efficiently shorten the testing time and the number
of testing items but also can allow finer diagnosis at a higher
level of resolution.
Presently, the concept of CAT has been successfully applied
to replace traditional measurement instruments (which are
typically fixed-length, fixed-content and paper–pencil tests)
in several real-world applications, such as GMAT, GRE, and
TOEFL (Chen et al. 2006).
General architecture of a AITS
Figure 1 gives an overview of the system overall architecture.
It consists of tree main interfaces, which are associated with
each of the following human actors: learner, teacher and
administrator. In addition, it contains an adaptive intelligent
tutoring (hafidi et al. 2011) which is made up of two
components: adaptive hypermedia (domain model, learner
model and adaptation model) (Karampiperis et al. 2005),
(Carro 2008) and intelligent tutoring system (domain model,
learner model, Instructional Model) (Bourdeau et al. 2011),
(Simic 2004), (Alpert 1999), (Stankov et al. 2008).
(5)
Any item in a test provides some information about the
ability of the examinee, but the amount of this information
depends on how closely the difficulty of the item matches the
ability of the person. The amount of information, based upon
a single item, can be computed at any ability level and is
denoted by Ii (θ), where i is the number of the items. Because
only a single item is involved, the amount of information at
any point on the ability scale is going to be rather small
(Baker 2001). Item information function is defined:
Where P (θ) is the firt derivative of Pi(θ ) and Qi(θ)=1-Pi (θ).
A test is a set of items; therefore, the test information at a
given ability level is simply the sum of the item information
at that level. Consequently, the test information function
(TIF) is defined as:
52
Figure1: General architecture of a AITS
Amiens – 23 et 24 mai 2012
Developing adaptive intelligent tutoring system
We present in the following sections the available features in
AITS.
Domain model: The domain model is based on the concepts
notion that the learner can select and study. These concepts
are interconnected by relations: relations of sufficiency and
precedence relations.
- Relationship of precedence: A concept N1 is precedence
relation with a concept N2 if the control (or partial control)
of N2 is necessary for learning to N1. This relationship has
an attribute: S is the minimum threshold of N2 control to
allow the start of learning N1.
- Relationship of Sufficiency: A concept N1 is linked with a
concept of sufficiency N2 if the control of N2 (or partial
control) results control of N1. This relationship with two
attributes: S is the minimum threshold of N2 control to
activate the requisite relationship. A is the contribution (in
percentage) of control N2 to N1.
In addition, the teacher organizes the learning according to
pedagogical activities. Linked to our domain model, we have
defined a corpus of interactive activities. These activities
have to be organized in a progressive manner by possibly
using serious games, interactive exercises, simulation and
artefacts that support the construction of the knowledge.
Learner's Model: Learner modeling and adaptation
are strongly correlated, in the sense that the amount and
nature of information represented in the learner model
depend largely on the kind of adaptation effect that the
system has to deliver. The learner model in AITS was
defined as three sub-models: The profile, the
knowledge level and the trace. The learner profile was
implemented as a set of attributes which store learner’s
static personal characteristics, for example username,
password, unique ID, age, e-mail. The knowledge level
recorded by the system for learner's knowledge about
each domain knowledge concept; It is an overlay of the
domain model. It associated learner's knowledge level
with each concept of the domain model. We want to
continually assess the skill level of the learner to
develop a map of his state of knowledge. The learner
model is enriched at the end of each activity after
analysis of the traces produced.
Adaptation Model: The adaptation model in AITS
specified the way in which the learners' knowledge modifies
the content presentation. It was implemented as a set of the
classical structure: If condition, then action type rules. These
rules form the connection between the domain model and
learner model to update the learner model and provide
appropriate learning materials. The adaptation model consists
of abstract concept selection rules that determine which
concepts from the domain model to be covered, based on the
knowledge in the learner model.
To support adaptivity, AITS used a combination of adaptive
navigation support and adaptive presentation technique.
AITS implemented adaptive presentation by classifying
learners according to their current knowledge state. Learners
with different knowledge state view different presentations of
the same educational material. The system implemented
various adaptive navigation support technologies, which help
the user in navigating the domain model. It offered linear
4ièmes Rencontres Jeunes Chercheurs en EIAH
navigation (direct guidance, next and previous units)
hierarchical navigation (through the tree-like structure of
contents) and relational navigation (link insertion and link
disabling through prerequisite concepts relationship).
Instructional Model: Instructional model contains
knowledge for making decisions about instructional tactics. It
relies on the diagnostic processes of the learner model for
making decisions about what, when and how to present
activity to a learner. Following an activity, the model offers
guidance in learning other activities. For that purpose it takes
into account completions, context and proficiency levels, by
analyzing the rest of the activities already carried out. The
analysis is based on a set of metrics (Hafidi et al. 2011).
The Item Response Theory - IRT- is used to ensure a proper
balancing test and give their description in the form of a
characteristic curve (Hafidi et al. 2009). The theory assumes
that a learner's response to a test item can be approximated
using
a
probabilistic
function.
We propose this method to assess the probability for a
student to correctly answer an assessment activity. This
method is used as an additional discriminating criterion in
our guide. It would occur at the end of selection, to choose an
activity of several possible after the computation using the
metric.
For this study, Item difficulty can be determined by using
IRT approach with one parameter which uses the formula:
ID = MSCA/SCAE
(7)
Where, ID = item difficulty, MSCA = Minimum Sum of
Correct Answers, SCAE = Sum of Correct Answers of Each
Question.
Figure 2. An assessment activity based on IRT
Results and discussion
An experimental study was conducted within Annaba
University (Algeria) with 1st year license students where the
subject was "algorithmic". This subject is studied by several
students in the license degree. In fact, students from MI
(Mathematics and Informatics), ST (Science and
53
Mohamed Hafidi
Technology), Economics and Sciences of Nature must take a
subject termed "initiation into informatics and algorithmic".
Students can use the system from any computer connected to
the university intranet network. We took into account, in this
experiment, only students from the MI (Mathematics and
Informatics) specialty.
To extract problems encountered as well as the global
opinion of the teachers and the learners, we prepared one
questionnaire to teachers and another one to learners after
using the system. The questions of the questionnaire are
divided into three categories:
- General opinion about the interface of the system and the
main available features.
- The quality of the interface of the concerned actor (teacher
and learner) as well as its options.
- The quality of the content of courses.
The objective of all the questions is to show the attitude and
the opinion of each actor about the main interface of the
system and its utility, the special features provided to each
actor (teacher and learner), and finally to know the efficiency
of the pedagogical strategies, the quality of traces display and
the impact of merging adaptive hypermedia and intelligent
tutoring of the knowledge level of learners.
Views of learners:
To determine the views of learners who participated in this
experiment (n=20), we submitted to them a questionnaire.
These questions concern three pedagogical activities:
learning, assessment, and guidance.
Most learners appreciated the integration of the intelligent
tutoring system to adaptive hypermedia adopted in AITS and
the support offered by the system. All of them found that the
system is user-friendly. The participant’s opinion to use the
system in the future was very high. According to them, the
concepts were organized in a good manner. The content of
activity guide is clear for the majority of students.
Concerning the faced problems, the learners cited:
1. Lack of tools for the graphical representation of traces,
2. Knowledge assessment tool is less efficient,
3. Same activities without adaptation to learning style,
4. Lack of tools to communicate with teacher.
in the use of these concepts to solve problems. This paper
was dedicated to the combination of these systems. The aim
of adaptive intelligent tutoring system (AITS) has been to
propose a non domain-dependent model to represent teaching
activity. For each teaching domain, a domain model has been
used to organize the learning process.
Metrics and IRT have been elaborated to associate the
exercises of an activity corpus to the domain model
mentioned previously. As we have explained, it is thus
possible to elaborate and update dynamically a learner model
and even to propose remediation activities as a function of
context trace observation. Importance was also given to the
use of several types of activity and many types of resources.
With the spread of the LMD (Licence-Master-Doctorate)
educational system in Algeria, we took into account the
licence (bachelor) degree, making our system useful for the
university community. Teachers and learners of various
departments can use the system from any computer connected
to the intranet of the university. The first results of this
experiment were very encouraging. Most of the teachers and
the learners appreciated the use of the system. As a result, we
drew several conclusions and several research tracks were
opened. In the future we would like to include many more
teaching subjects (mathematics, languages, science, etc.).
References
Alpert, S. R. 1999. Deploying intelligent tutors on the web:
An architecture and an example, In International Journal of
Artificial Intelligence in Education 10:183–197.
Baker, F. 2001. The basics of item response theory, ERIC
clearing house on assessment and evaluation.
Beaumont, I. 1994. User modeling in the interactiveanatomy
tutoring system anatom- tutor. User Modeling and UserAdapted Interaction, 4(1):21–45.
Bourdeau, J. ; Grandbasten. M. 2011. La modélisation du
tutorat dans les systèmes tutoriels intelligents. Revue
STICEF.
Brusilovsky. P. 1996. Methods and techniques of adaptive
hypermedia. User Modeling and User Adapted Interaction,
6(2-3):87–129.
Views of teachers:
For knowing the appreciation of the teachers, we submitted
to them a questionnaire related to the functioning of AITS
and its features. Among our main contributions in this
research work is the using traces of the learner's activities.
We noticed that the teachers were very satisfied about the
quality of trace.
Chen, C. M., Lee, H. M.,& Chen, Y. H. 2005. Personalized
e-learning system using item response theory. Computers and
Education, 44 , 237–255.
Concerning the faced problems, the teachers cited:
- Lack of tools for the graphical representation of traces,
- Lack of possibilities to add teaching strategies,
- Lack of tools to enrich the activities.
Chen, C. M.; Liu, C. Y.; Chang, M. H. 2006, Personalized
curriculum sequencing utilizing modified item response
theory for web-based instruction. Expert Systems with
Applications, 30, 378–396.
Conclusion and future work
Chopra , A. Frame based intelligent tutoring system with
weighted attributes and adaptive hypermedia. International
Journal of Electronic Business, 8(4-5):342–359.
Adaptive Hypermedia and Intelligent Tutoring Systems are
both effective methods of computer-based learning. However,
adaptive hypermedia is better suited for the instruction of
concepts whereas intelligent tutoring system generally assists
54
Carro, R. 2008. 2010. Applications of adaptive hypermedia
in education. Computers and Education, pages 1– 12,
Amiens – 23 et 24 mai 2012
Developing adaptive intelligent tutoring system
Fernandez, G. 2003. Cognitive scaffolding for a web-based
adaptive learning environment, Lecture notes in Computer
Science, 12–20.
Hafidi, M. ; Bensebaa, T. 2009. Conception et
implémentation d’une plate forme d’aide à la navigation
basée sur la TRI. Hypermédias et pratiques numériques
H2PTM09, Paris8, France, 30/10, 2/11.
Hafidi, M. ; Bensebaa T ; Trigano, P. ; Benmimoun, A. ;
2011. Guidage des apprenants dans une activité pédagogique
basé sur les traces, Conférence Hypertextes et hypermédias.
Produits, Outils et Méthodes, 11ème édition, Hypermédias et
pratiques numériques H2PTM’11 Metz, France.
Journal of Artificial Intelligence in Education, 14(3-4):375–
417.
Wainer, H . 1990. Computerized adaptive testing: A primer.
Hillsdale, New Jersey: Lawrence Erlbaum.
Wang, F. H. 2006. Application of componential IRT model
for diagnostic test in a standard conformant elearning system,
In Sixth international conference on advanced learning
technologies (ICALT’06).
Hafidi, M. ; Bensebaa T ; Trigano, P.; 2011. A generic model
for guiding learners in adaptive hypermedia, Journal of
Computer Science (INFOCOMP), 10(4): 15-28.
Hendrix , M.; Cristea, A. I. 2008. A spiral model for adding
automatic adaptive authoring to adaptive hypermedia.
Journal of Universal Computer Science (JUCS), Special
Issue on Authoring of Adaptive and Adaptable Hypermedia,
14(17):2799–2818.
Karampiperis, P. Sampson, D. 2005, Adaptive learning
resources sequencing in educational hypermedia systems.
Educational Technology and Society, 8(4):128–147.
Klasnja-Milicevic, A.; Vesin, B.; Ivanovic, M.; Budimac,
Z.2011, Integration of recommendations and adaptive
hypermedia into java tutoring system. ComSIS, 8(1).
Knutov, E.; Bra, P. D.; Pechenizkiy, M. 2009. Ah 12 years
later: a comprehensive survey of adaptive hypermedia
methods and techniques. New Review of Hypermedia and
Multimedia, 15(1):5–38.
Nicholas, A.; Martin , B. 2008. Merging adaptive hypermedia
and intelligent tutoring systems using knowledge spaces.
Adaptive Hypermedia, pages 426–430.
Nogry, S.; Guin , N.; Jean-Daubias. S. 2008. Ambre-add: An
its to teach solving arithmetic word problems. Technology,
Instruction, Cognition and Learning, 6(1):53–61.
Passardiere, B. D. L.; Dufresne, 1992. A. Adaptive
navigational tools for educational hypermedia. Computer
Assisted Learning, pages 555– 567.
Pipatsarun, P.; Vicheanpanya, J. 2010. Adaptive intelligent
tutoring systems for elearning systems. Computer and
Information Science, 2(2):4064–4069.
Simic, G.2004. The multi-courses tutoring system design.
ComSIS, 1(1):141–155, 2004.
Stankov, S.; Rosic, M.; Zitko , B.; Grubisic, A. 2008, Tex-sys
model for building intelligent tutoring sytems, Computers
and Education, 51:545–561.
Suraweera, P.; Mitrovic , A.2004. An intelligent tutoring
system for entity relationship modelling, International
4ièmes Rencontres Jeunes Chercheurs en EIAH
55
Mohamed Hafidi
56
Amiens – 23 et 24 mai 2012
Ergonomic Study of Existing Project-Based Learning
Management System
Min Ji
Université de Lyon, CNRS
INSA-Lyon, LIRIS, UMR5205, F-69621, France
[email protected]
Abstract
We are interested in designing a Project-Based
Learning Management System (PBLMS) for high
school students. In this paper, we focus on the study of
ergonomics of existing PBLMSs. We first analyze four
different PBLMSs regarding three points: aims,
functionalities and indicators. We particularly focus on
the indicators and analyze their attributes: purpose(s),
concept(s), data construction and visualization. Based
on this analysis we discuss the utility, the usability and
the acceptability of the studied systems according to
their functionalities, the types of visualization and the
users. We finally conclude with some directions of our
future research work.
Introduction
We are interested in designing a Project-Based
Learning Management System (PBLMS) for high
school students, which support learners and teachers
respectively in the learning and teaching process.
Project-based learning is carried out under complex
situations and PBLMS can help learners to build new
knowledge and acquire new skills (e.g. management,
communication and collaboration). More precisely, the
indicators used in PBLMS aim to monitor the way of
individual knowledge building. In fact, it can help
participants involved in learning activities to reflect on
their own behaviors, to self-regulate their activities and
to improve their ability of collaboration.
The objective of our research is to design a PBLMS.
We define PBLMS as a computer system that provides
participants with some management tools to support
and monitor the learning activities in order to solve a
complex issue, problem or challenge. PBLMS is
characterized by supervision functions. Examples of
learning activities are collaboration, coordination and
production (George et Leroux 2001). Here we should
specify that PBLMS could manage various aspects of
the learning processes (e.g. the way the activities are
carried out, the visualization mode chosen for learners,
the configuration and resources of the activity) and the
project outcomes (e.g. the documents produced
during/after the project and the products). Obviously,
PBLMS can facilitate carrying out the project activity
and enhancing the learning.
This study is based on previous works dedicated to
the design of a paper prototype of PBLMS, named
4ièmes Rencontres Jeunes Chercheurs en EIAH
MESHaT (Michel et Lavoué 2011). This prototype is
composed of monitoring and expertise transfer tools for
tutors and learners. They could give information to
monitor individual or group learning activities as well
as to support the acquisition and transfer of expertise.
More particularly, MESHaT provides learners and
teachers with dashboards, since we think that the use of
a dashboard is a key-learning objective in the context
of PBL. The dashboard is a good way to strengthen
learners’ metacognitive skills and to facilitate the group
works, the group cohesion and the professionalism of
learners by showing explicitly the consequences of
their acts (Michel et Lavoué 2011).
The aim of this study is to analyze the ergonomics in
PBLMS context. More precisely, we have analyzed
four existing PBLMSs and proposed indicators’
features (utility, usability and acceptability). According
to this analysis, we have drawn upon the strengths and
weak points of the other systems. Based on these
results, we propose the main lines of our future
PBLMS. It should not only satisfy users’ needs as far
as possible but also have suitable ergonomic user
interfaces (UI) to improve learners’ collaboration.
This article proceeds in three main parts. First, the
paper provides an overview of project-based learning,
dashboard and indicators used in PBLMS to improve
the quality of learning. In the second part, we analyze
and summarize the features and indicators offered in
PBLMS. In the third part, through discussion, we
analyze the weaknesses of PBLMS and indicators
which should be avoided in our context of work and
propose the direction of our future research work.
Overview of PBLMSs Using Dashboard
and Indicators
Project-Based Learning
There are many definitions of project-based learning.
Harris and Katz (2000) defines it as “an instructional
method that allows in-depth investigation of a topic
instead of using a rigid lesson plan that directs a
student down a specific path of learning outcomes or
objectives”. According to Jeremic, Jovanovic and
Gasevic (2009), “PBL is a teaching and learning model
that organizes learning around projects. Projects
comprise complex tasks and activities that involve
students in a constructive investigation that results in
57
Ergonomics of PBLMS
knowledge building.” Moursund (2007) defines
project-based learning as “an individual or group
activity that lasts for a defined period of time, which
results in a product, a presentation or a performance”.
Through these definitions, we can establish that:
• Project-based learning is learner-centered.
• Project-based learning isn’t “teacher telling”,
but “learning by doing”. It is an investigation
and an inquiry process.
• The project results are not known in advance,
each project being unique, which is different
from problem-based learning for instance.
• Project-based
learning
ends
with
a
presentation or product that demonstrates
learning and is assessed.
Learners can generate new knowledge and get new
skills based on their previous knowledge and
experiences when they carry out a project. This kind of
activity can lead students to obtain and to apply skills
in
collaboration,
communication,
and
selfmanagement. Briefly, it is a good way for learners to
solve practical problems in an open environment with
an interdisciplinary approach.
Dashboards and Indicators Used in PBLMS
Generally speaking, a dashboard is expected to collect,
summarize, and present information from multiple
sources so that the user can see at once how various
indicators are performing (Yigitbasioglu et Velcu
2011). Dashboard could be considered as a container of
indicators. The indicators used in PBLMSs can give
information to participants involved in the learning
activities. Information could concern their activity or
their group activity, and could be seen during or after
the learning process. Dashboard could favor cognitive
or metacognitive reflection. Based on this reflection,
participant can build new knowledge and skills (soft
and hard) as well as they improve their learning ability.
During interactions, indicators mainly reflect three
types of data: (1) the Logfiles recording learners’
actions occurring in the learning environment, (2) the
products of the interactions (communication messages
or documents produced during the project) (3) the data
recorded by the learners themselves to describe how
the activity is carry out and what they think. Compared
to the first type of data, the second and third types of
data are much more difficult to analyze automatically.
It is also a challenge in this research domain.
We can distinguish four main users of indicators: (1)
learners, (2) teachers (3) observers and, (4) the learning
environment (Dimitrakopoulou 2006). The learners
mean the people who participate in the learning
activities. The information supplied by the indicators
help them to carry out the metacognitive process. The
teachers are the persons who define a PBL activity and
monitor the activity in order to uncover the features or
the quality of the interactions. The observers, including
the researchers and the administrators, are interesting in
exploring the mode, the process or the quality of the
collaboration. Finally, the learning environment can
transform the information given by the indicators into a
guiding message and send it to learners and teachers.
58
According to Dimitrakopoulou (2006), indicators
have several important attributes: (1) the purpose of the
indicator, (2) the output of the calculated indicator, (3)
the concept of the indicator. Additionally, the data
construction, which is the core of an indicator, and the
visualization of the indicator, which decides the
presentation style and mode, are also critical aspects.
Ergonomics Analysis of Existing PBLMS
Using Indicators
In this part, we analyze four different PBLMSs. These
systems seem the more relevant to our context because
they not only help learners to achieve projects
collaboratively, but also aim to improve the learning by
displaying some indicators. Furthermore, the indicators
of these systems refer to different targets (e.g. learners,
teachers, observers and the learning environment), and
these indicators also monitor different aspects of
learning (activity process, communication, features and
profiles of learners’ behaviors). We discuss the systems
from three points: aims, functionalities and indicators.
And for the indicators, we choose four attributes from
those previously mentioned: purposes, concepts, data
construction and visualization.
System Introduction
Figure 1 gives the workspace interfaces of the
PBLMSs described after.
The system SYNERGO (Avouris et al. 2004)
supports synchronous collaboration modeling and
collaboration analysis. The main goal is to facilitate the
understanding of the mechanics of collaboration. It
supplies learners with a chat tool and supports them to
model flow charts, concept maps, entity-relation
diagrams and other semantic modeling.
The system DEGREE (Barros et Verdejo 2000) is
conversation-based. The teachers can deploy projects,
contribution type and conversational structure at the
beginning. Then a group of learners can carry out
collaborative activities which are based on
conversation by proposing or replying to a proposal.
The system and the indicators can improve learners’
metacognitive awareness and give them assistance.
The learning environment proposed by (Fesakis et al.
2004)
is
based
on
the
ModellingSpace
(ModellingSpace 2004), which has many different
channels to support learners to communicate during
activities. It is synchronous conversation based and the
availability of all the participants is required. In
collaboration, learners and teachers can exchange chat
messages through a set of logical broadcast channels.
The SPLACH system (George et Leroux 2002) aims
to help young learners to design and build micro-robots
modeling. It incorporates asynchronous communication
tools (E-mail and discussion forum), a synchronous
meeting tool, and a scheduling tool in the form of a
calendar for the team, which provides learners with
coordination on the project, a tool to write reports
during the project and, finally, specific educational
robotics tools.
Amiens – 23 et 24 mai 2012
Ergonomics of PBLMS
Figure 1: workspace interfaces of PBLMSs: (a) SYNERGO; (b) DEGREE; (c) ModellingSpace; (d) SPLACH
Synthesis and Analysis
To help learners
model semantically.
to
To facilitate proposing or
replying to a proposal.
To support synchronous
collaborative modeling,
monitoring
and
analyzing
activities,
communicating.
To configure an activity,
collaborating based on
conversation,
analyzing
learners behavior, offering
guiding.
To support synchronous
communication through
a
set
of
logical
broadcast channels.
To monitor the learning
process, to facilitate
teachers and researchers
to understand mechanics
of collaboration.
To help learners to have
metacognitive activities; to
support teachers to monitor
learners’ performance and
changes.
To
help
estimating
style
to
intervention
needed.
To supply search results by
combining a variety of
parameters, assessing the
collaboration level based on
several attributes (creativity,
attitude, elaboration etc),
sending messages to alert
potential problems and
giving
suggestions,
representing evolution of
attributes of the individual.
Based on Logfiles, some
attributes are calculated
directly,
others
are
generated by combining
these attributes based on
Fuzzy Logic techniques.
To present amounts of
Interactions, the number
of
Agents,
Collaboration Activity
Function
of
chat
channel and certain
agent’s Collaboration
Activity Function in a
line chart, determining
agents
or
groups’
collaboration quantity.
Based on Logfiles,
collaborative action is
proportional to the
number of agents that
were interacting and the
quantity of interactions.
Mainly line chart which
the horizontal axis
represents time, the
vertical scale records
the amount of various
variables; information is
summarized
by
analyzing
and
comparing the curves.
Data
construction
To measure the density
of occurrence of a type
of event per time
interval and the degree
of relative contribution
in the group members,
presenting evolution of
actors’ activities.
Based
on
Logfiles
storing in XML, formula
is given.
Visualization
I ndicator
Concept
Purpose
Aim
ModellingSpace
To support learners to
express their ideas
during projects.
Functionality
The aforementioned approaches constitute a
representative specimen of PBLMSs. All of them
provide tools and functionalities for supporting and
SYNERGO
DEGREE
facilitating users’(learners’ and teachers’) activities
in various levels. Table 1 summarizes the main points
of these PBLMSs.
Line charts showing
number of every kind of
action done by every
learner, and evolution
activity map interpreting
evolution of actors’
activities, degree of
collaboration
in
numeral.
Table
form
listing
attributes’
names
and
values;
textual
aiding
messages; line chart giving
the evolution of individual’s
attributes’
values
and
interpretation.
teachers
learners’
offer
when
SPLACH
To help to design
and build microrobots modeling.
To support
asynchronous
communication,
synchronous
meeting, specific
robotics tool, writing
reports, scheduling.
To help understand
social relationships;
to provide learners
insight into their
own
and
their
colleagues’
behavior.
To present the values
of every behavioral
profile of every
learner,
analyzing
and comparing the
values of every
learner
and
determining
their
corresponding
behavioral profile.
Based on Logfiles
and semi-structured
communicative acts
(sentence openers);
detailed formulas are
given.
Line chart showing
how the profiles of
the users evolve in
time.
Table 1: Main point of analyzed PBLMSs
4ièmes Rencontres Jeunes Chercheurs en EIAH
59
Ji Min
Discussion
In this part, we highlight the lacks of the analyzed
systems according to utility, usability and acceptability
criteria. Based on these analyses, we propose some
directions of our future work.
Utility, Usability and Acceptability Analysis
Utility Analysis of Functionality
When we read the literatures on PBLMSs, we find that
most systems support collaboration only by offering
communication tools (e.g. communication system based
on ModellingSpace and DEGREE), for example, chat
tools, discussion forums etc. Communication is one of
the most important aspects during the collaboration but it
is just one aspect in project-based learning. We assume
that PBLMs should always offer other functionalities to
teachers and learners. For example, it should supply
learners with:
• Metacognitive
tools
to
support
the
metacognitive learning process and to facilitate
their ability of “learn how to learn”.
• Flexible configuration tools to deploy a learning
activity according to different learning contexts.
• Tools for documents sharing and co-writing to
help learners to co-build knowledge network.
• A scheduling tool.
• Some special and professional tools offering to
learners based on the context of learning
activities. For example, SPLACH provides
learners specific robotics tools to support microrobots modeling projects.
Concerning the functionalities of the indicators, most of
them just provide some simple reporting analyzes of the
learning process (e.g. how many learners are on line,
how many messages have been sent, how many times a
document has been read) and some monitoring
information about the learning environment (e.g. which
tasks have been done and which haven’t, whether the
learning process is delay according to the project
schedule). We don’t criticize that simple indicators and
monitoring indicators aren’t important. The importance
of these indicators cannot be estimated a priori
(Dimitrakopoulou 2006). But supplying the learners and
teachers only with these two types of indicators is not
enough because the assistance levels of these two types
are lower than guiding indicators and supervision
indicators. The guiding indicators can generate some
information to learners to make some reflection and
changes according to the context and the practical
situation of learning activity. The supervision indicators
can identify whether the action that learners are doing is
good or bad and give alerts to learners to draw their
attentions. For example, if a learner is watching a film or
talking little when he joins in a synchronous discussion,
the indicators can give alert. Another lack of the
indicators’ functionalities is that most of them are about
the activities process; while they cannot supply the
information about the content of the products of the
activities (e.g. the content of a proposal, the content of
communication) or the hidden thoughts (ideas or moods)
recorded by learners during activities. These two types of
60
information are very difficult to catch because it needs to
recognize and analyze the textual content automatically.
We think that this kind of information is as important as
the analysis of the actions.
Usability Analysis of Visualization
SPLACH is considered very well because it could create
a comfortable learning environment to increase the
colleague mutual-understand awareness and the
workspace awareness. It gives a photo of every member
in the group and a “smiley” button to represent
everyone’s mood, which can encourage the feelings of
awareness between learners and indicate their feelings
without typing any text when they participate in a
synchronous meeting (George et Leroux 2001). It is
important to create an environment, in which learners
can be aware of the others, because it will enhance the
relations between learners and shorten the distance
between them. It is a good way to improve the quality of
collaboration.
Many classical graphical modes are used to present the
results of indicators, e.g. line chart, bar chart, table form.
But most of learning environments have no textual
interpretation of these indicators. So the users, especially
young learners, should have a high ability to understand
the content of indicators and to discover some important
information. We think that the learning environments
should be able to interpret the contents of graphical
indicators into text form, so as to be used more widely
and to give much better support to the learners. The use
of metaphors could also be a good way to solve this
problem perfectly (e.g. i-bee, i-tree). They could present
the results of a number of indicators synchronously in a
nice visual frame in an indirect mode (e.g. animation),
which can have a strong effect at young learners and help
them have a strong awareness of their behaviors
(Dimitrakopoulou 2006).
Most indicators interfaces are designed previously and
little customizable. The customizable feature has been
considered in some UI design of PBLMSs (e.g.
DEGREE,
communication
system
based
on
ModellingSpace), but it hasn’t been considered in most
of PBLMSs. Learners and teachers can’t choose the form
of visualization they prefer. Moreover, customization is
really an important aspect that could help (1) learners to
visualize indicators in the way they like and to choose
the kinds of information they really want to monitor, as
well as (2) teachers to adjust the definitions and choices
of parameters according to the different contexts of the
learning activities. The visualization customization
includes for example selecting monitoring variables,
selecting the form of presentation, changing the
configuration of the learning activity, selecting the time
interval of information updating.
Acceptability Analysis of indicators’ User
The indicators introduced in this paper have been meant
for different users: SYNERGO is used by teachers and
researchers, DEGREE is used by learners, teachers and
learning environment, the communication system based
on ModellingSpace is used by teachers, and SPLACH is
used by learners and teachers. We think that there are
many indicators offered to teachers while a few are
supplied to learners and learning environment. From this
Amiens – 23 et 24 mai 2012
Ji Min
point of view, we think that an appropriate PBLMS
should manage user profiles and supply suitable
information according to their profile. It can’t be ignored
that the learning environment is a kind of indicators’ user
to some extent because the information produced by
some indicators can be processed deeply by learning
environment and give useful information (e.g.
DEGREE).
We think that the systems analyzed in our paper design
the indicators offered to the learning groups well. Most
of them give the evaluation about the whole group but
not about each member into the group. For example,
DEGREE measures the level of creativity, attitude and
other attributes of the whole group, SYNERGO gives the
degree of relative contribution of group, and the
communication system based on ModellingSpace
computes collaborative action of the group. Through
close analysis, we also can discover that these indicators
could present the collaboration quality of the whole
group instead of only centralize all information from
individuals indicators, which just show everyone’s value
in one indicator.
Future Work
These systems offer us good references to construct a
PBLMS which not only can satisfy users’ needs as far as
possible but also has suitable ergonomic user interfaces
to improve learners’ collaboration. Michel and Lavoué
(2011) have described a main framework of the platform,
named MESHaT. It includes different interfaces
according to the learning actor: a project group, a learner
or a tutor. Each interface is composed of a monitoring
tool (on the form of a dashboard) in order to help the
actors to have a global view of their activity and a
publication tool that allow them to share their
experience. Based on our analysis of the four systems,
we suggest some directions for our future PBLMS.
The learning environment will supply many
management tools to lead learners to use this space to
achieve their project. This platform will be dedicated to
project management education, but also could be used to
support different types of PBL activities. We will
analyze the utility of various tools, for example:
• Blogs (individual and group) can supply spaces
for learners to describe the process of their
actions and their states of mind. It can help the
learners to well understand the project context,
to explain the reasons of some indicators’ value
(as delays or the group’s state of mind). This
information will be useful for teachers to be
able to intervene at the right time. Two
discussion tools will be offered to learners and
teachers, which can help learners to
communicate about the projects in the group
and help teachers to share their expertise (e.g.
process of every group, learning projects
designing).
• A scheduling tool can helps learners and
teachers to plan and coordinate their activities.
• A learning contract with simple questions that
learners answer at the beginning of the activity
can regulate their behavior during the learning
and help them to acquire metacognitive skills.
4ièmes Rencontres Jeunes Chercheurs en EIAH
•
A documents sharing tool can help to share
knowledge and to centralize the documents
needed for the projects
The system will include four types of indicators,
(reporting, monitoring, guiding, and supervision) from
two dimensions (individual and group). Grouped into a
dashboard, theses indicators will display comprehensive
information about the collaboration. Based on the
content expressed in the groups’ vs. individuals’ blogs or
in the documents produced during the activity, we can
analyze what the learners are thinking and the quality of
the learning. We have to analyze the possibility and limit
of the different method of text analysis in order to choose
the right approach. For example, text mining provides
thin analyzes but requires complex natural language
treatments, whereas semi-structured method should be
sufficient in our case.
We want to create an appropriate learning environment
for learners in which they can feel like in face-to-face
with the others. It will enhance their motivations and
their participations. The customized interface will be
used to refine the quality of human-computer interaction
and to improve the participants’ satisfactions. Because of
the different abilities of learners and teachers to interpret
indicators, it is necessary to used different visualization
mode (even for the same information). Maybe the use of
textual interpretations and metaphors will help learners
to well understand the information displayed by the
indicators.
But the use of dashboards and indicators is not easy.
That’s why we choose to work, in the context of our
PhD, on a participatory design approach. The prototype
will be used in a real learning process in the future in
order to understand its utility, usability and acceptability.
Conclusion
This paper presents an ergonomic study in PBL context
by analyzing the utility, usability and acceptability of
existing PBLMSs’ features, as well as the indicators
used. To better understand the situation of PBLMSs, we
have analyzed four different PBLMSs from three points:
aim, functionalities and indicators. For the indicators, we
have analyzed four attributes: purpose of indicator,
concept of indicator, data construction and visualization.
Through this analysis, we have discussed the advantages
and disadvantages of the PBLMSs and their indicators in
three dimensions (functionality, visualization and object
users) that we can sum up as follows:
• Most systems support collaboration only by
offering communication tools.
• Most indicators just supply some simple
reporting analyzes of the learning process and
some monitoring information about the learning
environment, while guiding indicators and
supervision indicators are not paid much
attention.
• Most of indicators are about the activities
process, while only few indicators supply
information about the content of the products of
the activities or about the thoughts recorded by
learners during activities.
• Most of these indicators have no textual
61
Ergonomics of PBLMS
interpretation or metaphors associated.
The feature of customization hasn’t been
considered in some UI design of PBLMSs.
• PBLMSs should recognize object user profiles
and supply them with suitable information
according to their profile.
• It is good to give the evaluation about the group
as a whole instead of only centralize all
information from individuals’ indicators.
Our aim is to design a PBLMS with metacognitive and
monitoring tools, which can help the actors to have a
global view of their activity. Information sharing tools
can also help them to share their experience. We suggest
other directions for our future work:
• We will offer several management tools for
collaboration.
• The system will include four types of indicators:
reporting, monitoring, guiding, and supervision,
from two dimensions (individual and group).
• We will create an appropriate learning
environment for learners in which they can get
high satisfaction.
This study can lay the foundation for our future works. In
our future research, we will model the process of PBL
and define the activities carried out in our system. At the
same time, we will study further the research areas of
data mining, data structure, model structuring of
indicators and other important fields of PBLMS.
•
Acknowledgment
This work is under the instruction of Christine Michel,
Elise Lavoué and Sébastien George. I would like to
thank them for their guidance.
Conference on Computer-Supported Collaborative
Learning (Euro-CSCL 2001), 269-276.
George, S.; Leroux, P. 2002. An approach to automatic
analysis of learners’ social behavior during computermediated synchronous conversations. In: proceedings of
Intelligent Tutoring Systems'2002, 630~640.
Helm, J.; Katz, L. 2000. Young investigators: The project
approach in the early years. New York: Teachers Collage
Press.
Jeremic, Z.; Jovanovic, J.; Gasevic, D. 2009.
Semantically-Enabled
Project-Based
Collaborative
Learning of Software Patterns. in: proceedings of
Advanced Learning Technologies, IEEE International
Conference on. Los Alamitos, CA, USA: IEEE
Computer Society, 569-571.
Michel, C.; Lavoué, E. 2011. KM and Web 2.0 Methods
for Project-Based Learning. MEShaT: a Monitoring and
Experience Sharing Tool. Multiple Perspectives on
Problem Solving and Learning in the Digital Age.
Ifenthaler D., Isaias P., Spector J.M., Kinshuk, Sampson
D. (Eds.), Springer, Heidelberg, 49-66.
Moursund D. 2011. What is ICT-Assisted PBL?
http://pages.uoregon.edu/moursund/PBL/part_3.htm.
The ModellingSpace project, University of Aegean
(Greece) et al, 2006. Access to: http:// modellingspace.
atosorigin.es/about.htm
Yigitbasioglu, O.; Velcu, O. 2011. A review of
dashboards in performance management: Implications
for design and research. Accounting Information Systems,
doi: 10.1016/j.accinf.2011.08.002.
References
Avouris, N.; Margaritis, M.; Komis, V. 2004. Modeling
interaction during small-group synchronous problemsolving activities: The Synergo approach. In:
proceedings of ITS 2004 Workshop on Designing
Computational Models of Collaborative Learning
Interaction, Citeseer, 13-18.
Barros, B.; Verdejo, M.F. 2000. Analysing student
interaction processes in order to improve collaboration.
The DEGREE approach, Articial Intelligence in
Education 11 (3): 221-241.
Dimitrakopoulou A.; et al 2006. State of the art of
interaction analysis for metacognitive Support &
Diagnosis. In: Kaleidoscope Network of Excellence.
Interaction Analysis: Supporting Participants in
Technology-based Learning Activities. Jointly Executed
Integrated Research Project, Deliverable D.31.1.
Fesakis, G.; Petrou, A. ; Dimitracopoulou, A. 2004.
Collaboration Activity Function: An interaction analysis
tool for Computer Supported Collaborative Learning
activities. In: proceedings of 4th IEEE International
Conference on Advanced Learning Technologies, 196201. Joensuu, Finland, IEEE Computer Society Editions.
George, S.; Leroux, P. 2001. Project-based learning as a
basis for a CSCL environment: An example in
educational robotics, in: proceedings of First European
62
Amiens – 23 et 24 mai 2012
Une approche orientée indicateurs pour supporter les activités du tuteur
Aina Lekira
Laboratoire LIUM, avenue Laënnec, 72085 Le Mans Cedex 9, France
[email protected]
Résumé
Dans cet article, nous proposons une approche orientée
indicateurs qui vise à apporter une aide au tuteur
lorsqu’il gère ses activités (réguler l’activité de
l’apprenant et réguler sa propre activité de tutorat) et ce,
plus particulièrement, afin de lui rendre compte des
effets de ses interventions. Les résultats des
expérimentations menées ont montré que fournir au
tuteur des informations sur les effets de ses interventions
augmente
quantitativement
et
qualitativement
l’efficacité de ses interventions ; cela a aussi par ailleurs
un impact positif sur la capacité des apprenants à
résoudre leurs problèmes.
Introduction
Les travaux de recherche en EIAH, dans le cadre de
tutorat médiatisé, s‘intéressent le plus souvent au
problème de la perception de l’activité de l’apprenant.
Ils ont abouti à la réalisation d’outils permettant de
suivre l’activité de l’apprenant et de visualiser un
certain nombre de témoins de cette activité (ICALTS
2004) (Martin et al. 2009) (Martinez et al. 2003)
(Guéraud et al. 2009) (Mazza et Dimitrova 2003). Dans
ces travaux, le tuteur perçoit l’activité de l’apprenant
grâce à des indicateurs calculés par l’environnement. Un
indicateur est « une variable signifiante sur le plan
pédagogique, calculée ou établie à l'aide de données
observées, et témoignant de la qualité de l'interaction, de
l'activité et de l'apprentissage dans un EIAH » d’après
(Choquet et Iksal 2007).
Ces indicateurs calculés en cours de session,
permettent de révéler des situations critiques à partir
desquelles le tuteur peut décider d’intervenir. Hormis
ces indicateurs, d’autres éléments du contexte tels que le
profil de l’apprenant (Lefèvre et al. 09), son parcours,
sa progression (Guéraud et al. 2009), son style
d’apprentissage (Bousbia et al. 2010), influent sur la
décision d’intervention du tuteur. L’intérêt des
indicateurs réside dans le fait qu’ils fournissent des
informations synthétiques et pertinentes sur l’activité de
l’apprenant, réduisant ainsi le temps que le tuteur passe
à visualiser le travail accompli par chaque apprenant
(Labat 2002).
Lorsque le tuteur intervient auprès d’un apprenant, il
ne dispose pas d’information directe sur les effets de son
intervention. Lorsque cela lui est possible, le tuteur peut
aller chercher cette information ou la déduire; cela a
pour conséquence de lui ajouter une charge de travail
supplémentaire. Par conséquent, notre proposition
consiste à calculer et à fournir au tuteur ces informations
manquantes, en nous basant sur l’étude de l’évolution
des valeurs des indicateurs qui ont permis de déceler la
situation critique à l’origine de l’intervention. Ces
4ièmes Rencontres Jeunes Chercheurs en EIAH
informations sont calculées grâce à ce que nous appelons
des méta-indicateurs : indicateurs caractérisant
l’évolution des valeurs d’autres indicateurs.
Dans ces situations de tutorat instrumenté, fournir au
tuteur un feedback sur ses interventions et sa propre
activité contribue à ce qu’il prenne conscience de ses
propres actions, de ses processus et de son activité pour
pouvoir les évaluer (« awareness and assessment »)
(ICALTS 2004). De plus, favoriser une démarche
réflexive (niveau métacognitif) de la part du tuteur en lui
fournissant des informations sur son propre travail
l’encourage à avoir un regard critique sur ses stratégies
pédagogiques, à affiner sa pratique et à améliorer ses
compétences tutorales (Denis et al. 2004) (Capa-Aydin
et al. 2009). En résumé, fournir au tuteur des
informations sur sa propre activité l’aide à être plus
efficace dans son tutorat (ICALTS 2004). Outre la
régulation de l’activité de l’apprenant, le tuteur est donc
aussi amené à réguler sa propre activité en cours de
session.
Contexte de travail et problématique
La thématique principale de notre travail porte sur le
support à fournir au tuteur pour observer les effets de ses
interventions et ainsi améliorer la régulation qu’il fait de
l’activité de l’apprenant afin de tendre à de « better
learning effects » (ICALTS 2004).
Une définition largement acceptée de l’auto-régulation
dans le domaine des sciences de l’éducation, et
notamment celui de la psychologie éducative, est celle de
Zimmerman (Zimmerman 2000). Il adopte une approche
sociocognitive de l’auto-régulation et propose un modèle
cyclique en trois phases : forethought, performance or
volitional control et self-reflection.
Nous proposons TeAMo, un modèle des activités du
tuteur, lequel est déduit de cette approche sociocognitive (Lekira et al. 2011a). Ce modèle spécifie deux
processus que le tuteur doit gérer dans les sessions
d’apprentissage (Figure 1) : d’une part, la régulation de
l’activité de l’apprenant et d’autre part, la régulation de
sa propre activité de tutorat (auto-régulation tutorale).
Le processus de régulation est précédé d’une phase
préparatoire dans l’élaboration de la session
d’apprentissage. Cette phase consiste à se fixer des
objectifs liés à l’activité et à planifier les stratégies pour
les atteindre. Suite à cette phase préparatoire, le
processus de régulation de l’activité de l’apprenant est
cyclique et comporte trois phases qui se définissent
comme suit :
- la phase d’observation dans laquelle le tuteur
effectue un suivi et une supervision de l’activité de
l’apprenant ;
63
Aina Lekira
- la phase d’évaluation dans laquelle le tuteur vérifie
que l’activité de l’apprenant correspond aux objectifs de
la tâche ;
- la phase de réaction dans laquelle le tuteur
intervient en adoptant une stratégie de remédiation
guidée par une intention d’intervention qui tient compte
du contexte d’apprentissage.
L’approche orientée indicateurs
Lors du processus de régulation de l’activité de
l’apprenant, le tuteur intervient quand l’apprenant est
confronté à une situation jugée pédagogiquement
intéressante. Pour détecter ces situations, nous nous
appuyons sur les valeurs issues d’un calcul d’indicateurs.
Partant du principe que le tuteur a décidé d’intervenir
suite à des valeurs d’indicateurs identifiées comme étant
« critiques », nous nous proposons de lui fournir un
retour sur l’évolution des valeurs de ces indicateurs par
le calcul de méta-indicateurs (Lekira et al. 2011b).
Un méta-indicateur est un indicateur qui donne des
informations sur l’évolution des valeurs d’autres
indicateurs. Il est calculé en fonction du domaine
d’acceptabilité de la valeur de l’indicateur dont il suit
l’évolution.
Dans la section suivante, pour illustrer nos propos,
nous prendrons des exemples dans notre domaine
d’application
et
d’expérimentation,
celui
de
l’apprentissage de la programmation orientée objet.
Les indicateurs de l’activité de l’apprenant
Figure 1 : TEAMO, un modèle de description des activités du
tuteur.
De même, le processus d’auto-régulation tutorale est
cyclique et comporte trois phases qui se définissent
comme suit :
- la phase d’auto-observation dans laquelle le tuteur
observe ses interventions et leurs effets ;
- la phase d’auto-évaluation dans laquelle le tuteur
vérifie si ses interventions ont eu les effets escomptés,
c’est-à-dire que les effets de ses interventions
correspondent à son intention initiale (i.e. l’intention
d’intervention du tuteur lors de la phase de réaction
dans le cycle de régulation). ;
- la phase d’(auto)-réaction dans laquelle le tuteur
valide ses interventions ou les remet en cause en
adoptant une nouvelle stratégie de remédiation
Notre objectif est d’instrumenter une partie des
processus décrits précédemment pour fournir au tuteur
des informations sur l’activité de l’apprenant et sur les
effets de son intervention. Dans ce cadre, notre
problématique de recherche consiste à trouver les
moyens pour rendre compte au tuteur, d’une part, de
l’activité de l’apprenant et d’autre part, des effets de ses
interventions. Nous adoptons ainsi une approche
orientée indicateurs tant pour refléter l’activité de
l’apprenant que pour mesurer les effets des interventions
tutorales. Le calcul de ces indicateurs se fait à partir des
traces d’interaction obtenues via l’EIAH. Par
conséquent, la mise en œuvre de notre démarche doit se
faire au sein d’un EIAH tracé c’est-à-dire un « EIAH
permettant de collecter les traces d’utilisation » (France
et al. 2007).
64
Les indicateurs procurent au tuteur des informations
qualitatives ou quantitatives sur l’activité de l’apprenant
(Labat 2002). Ils sont identifiés à partir des besoins
d’observation du tuteur et en fonction du scénario
pédagogique et des objectifs de l’activité.
Les indicateurs sur l’activité de l’apprenant permettent
au tuteur de réguler l’activité de l’apprenant en lui
fournissant des informations sur la progression, le
parcours ou les productions de l’apprenant. Ils reflètent
la différence entre ce que le tuteur attend à travers les
objectifs de l’activité et ce qui a été fait par l’apprenant.
Nous intégrons cette notion dans la définition d’un
indicateur à travers le domaine d’acceptabilité de sa
valeur. Le domaine d’acceptabilité de la valeur d’un
indicateur peut être une valeur, un seuil, un intervalle ou
un ensemble. La valeur d’un indicateur est acceptable si
elle appartient à son domaine d’acceptabilité.
Le tableau 1 présente des exemples de besoins
d’observation et des indicateurs correspondants en
fonction de leurs domaines d’acceptabilité.
Tableau 1 : Exemples de besoins d’observation et des
indicateurs correspondants en fonction de leur domaine
d’acceptabilité (type et valeur).
Les interventions tutorales
Les indicateurs donnent au tuteur des indications sur
l’activité de l’apprenant. Lorsque leurs valeurs
n’appartiennent pas à leurs domaines d’acceptabilité,
nous considérons qu’ils reflètent une situation dite
Amiens – 23 et 24 mai 2012
Une approche orientée indicateurs pour supporter les activités du tuteur
critique. Cela peut amener le tuteur à intervenir. Dans ce
cas, le tuteur sélectionne les indicateurs caractérisant la
situation critique qui ont entraîné son intervention et le
système mémorise l’association entre l’intervention et
les indicateurs (Lekira et al. 2011a).
Si le tuteur est amené à intervenir de nouveau sur la
même situation critique, il sélectionnera son
intervention originelle et le système mémorisera
l’association entre l’intervention originelle et ses réinterventions successives.
Les méta-indicateurs
Pour mesurer les effets d’une intervention, nous
proposons d’assurer le suivi de l’évolution des valeurs
des indicateurs qui l’ont déclenchée et de voir s’ils
reviennent à la normale i.e. s’ils appartiennent à leurs
domaines d’acceptabilité. Pour cela, nous utilisons des
méta-indicateurs que nous associons à une intervention
afin de représenter l’évolution positive, négative ou
nulle des valeurs des indicateurs (de l’activité de
l’apprenant) à l’origine de cette intervention. Ces métaindicateurs servent à obtenir des informations sur les
effets d’une intervention tutorale et à vérifier si cette
intervention a eu les effets escomptés par le tuteur. En
cas d’échec de l’intervention, nous voulons aussi savoir
dans quelle mesure elle a échoué et en rendre compte au
tuteur. Afin de déterminer le moment à partir duquel ce
feedback peut être fourni, nous proposons de laisser au
tuteur la liberté de le spécifier au moment de son
intervention en définissant le moment du déclenchement
du calcul des méta-indicateurs associés à l’intervention ;
le calcul de ces méta-indicateurs peut être déclenché soit
suite à une action spécifique du tuteur ou de l’apprenant
(e.g. lors d’une compilation ou d’un changement de
question), soit au bout d’un temps déterminé.
En fait, le calcul des méta-indicateurs dépend du
domaine d’acceptabilité des indicateurs dont ils suivent
l’évolution.
Pour un indicateur dont le domaine d’acceptabilité est
une valeur de référence, le méta-indicateur
correspondant vaudra « succès » si la nouvelle valeur de
l’indicateur est identique à cette valeur de référence.
Sinon, il vaudra « sans effet ».
Pour un indicateur dont le domaine d’acceptabilité est
un seuil de référence, le méta-indicateur correspondant
vaudra « succès » si la nouvelle valeur de l’indicateur
est au delà (ou en deçà, selon le cas) du seuil. Sinon, le
méta-indicateur
vaudra
« amélioration »
ou
« détérioration » selon le signe de la différence entre
l’ancienne et la nouvelle valeur de l’indicateur. Enfin, si
cette différence est nulle, le méta-indicateur vaudra
« sans effet ».
Pour un indicateur dont le domaine d’acceptabilité est
un intervalle de référence, le méta-indicateur vaudra
« succès » si la nouvelle valeur de cet indicateur
appartient à l’intervalle. Dans le cas contraire, la valeur
du méta-indicateur vaudra « amélioration » si la
nouvelle valeur de l’indicateur est plus proche de
l’intervalle que l’ancienne valeur. Sinon, il vaudra
« détérioration ». Et enfin, la valeur du méta-indicateur
sera « sans effet » si la valeur de l’indicateur ne change
pas.
Pour un indicateur dont le domaine d’acceptabilité est
un ensemble de référence, le méta-indicateur vaudra
4ièmes Rencontres Jeunes Chercheurs en EIAH
« succès » si la nouvelle valeur de cet indicateur
appartient à l’ensemble. Enfin, le méta-indicateur vaudra
« sans effet » si la valeur de l’indicateur ne change pas,
sinon il vaudra « modification non corrective ».
Les effets d’une intervention tutorale
Les méta-indicateurs permettent de mesurer les effets
d’une intervention tutorale (Lekira et al. 2011b). Une
intervention a eu du succès si tous les méta-indicateurs
qui lui sont associés évoluent positivement c’est-à-dire
qu’ils valent « succès ». Inversement, une intervention a
échoué si tous les méta-indicateurs qui lui sont associés
n’évoluent pas favorablement c’est-à-dire qu’ils valent
« détérioration », « sans effet » ou « modification non
corrective ». Dans tous les autres cas, on considère que
l’intervention a une certaine effectivité mesurée par le
pourcentage de méta-indicateurs de chaque catégorie
(« succès »,
« sans
effet »,
« amélioration »,
« détérioration » et « modification non corrective »).
Une approche générique
Dans le calcul des méta-indicateurs proposé, il n’est fait
référence ni au domaine d’apprentissage, ni au type
d’activité, ni même à l’EIAH utilisé. Pour le calcul d’un
méta-indicateur, il n’est tenu compte que de la famille à
laquelle appartient l’indicateur dont il suit l’évolution.
De ce fait, notre démarche orientée indicateurs est
générique et peut s’appliquer à n’importe quel EIAH
tracé : elle consiste d’une part, pour l’enseignantconcepteur à définir des indicateurs et leurs domaines
d’acceptabilité dans le domaine d’apprentissage
considéré et d’autre part, pour l’informaticien à
implémenter les méthodes de calcul des métaindicateurs.
L’EIAH HOP3X
Dans l’objectif d’opérationnaliser notre approche, nous
avons utilisé l’EIAH HOP3X qui a été conçu pour
l’apprentissage de la programmation. HOP3X donne au
tuteur la possibilité de faire un suivi synchrone d’un
groupe d’apprenants à travers une interface qui lui
permet de visualiser en temps réel leurs programmes et
d’intervenir par communication textuelle ou audio.
HOP3X est un EIAH tracé composé de trois
applications :
- HOP3X-ETUDIANT permet aux apprenants d’éditer,
de compiler et d’exécuter leurs programmes. Il leur
donne la possibilité d’appeler le tuteur à l’aide.
- HOP3X-SERVEUR collecte les traces d’interaction
des participants à la session d’apprentissage et les stocke
sous forme d’événements. Ces traces permettent le calcul
des indicateurs et des méta-indicateurs via l’outil UTL
qui utilise le méta-langage UTL (Choquet et Iksal 2007)
et le langage associé DCL4UTL (Pham et al. 2010). Une
application HUI (Hop3x and UTL Interaction) a été
développée pour permettre l’interfaçage entre Hop3x et
l’outil UTL.
- HOP3X-ENSEIGNANT offre une visualisation en
temps réel de l’activité de l’apprenant.
Pour permettre au tuteur de visualiser les indicateurs et
les méta-indicateurs, nous avons développé une interface
de suivi. La figure 3 présente l’interface fournie au
tuteur.
65
Aina Lekira
Nous avons aussi intégré un outil permettant de
visualiser les interventions avec la possibilité de revoir
leurs contenus.
Figure 3 : L’interface de HOP3X-ENSEIGNANT.
Une visualisation détaillée des méta-indicateurs est
possible. Celle-ci donne au tuteur des informations sur
les effets d’une intervention. Par ailleurs, un code
couleur a été mis en place dans l’interface pour
permettre au tuteur de voir rapidement les interventions
qui ont échoué (en rouge), celles qui ont réussi (en vert),
celles ayant une majorité de méta-indicateurs valant
« succès » (en orange-vert) et les autres (en orangerouge).
Des statistiques globales sur l’effectivité de toutes les
interventions sont fournies au tuteur à travers le
pourcentage global de méta-indicateurs de chaque
catégorie (« succès », « sans effet », « amélioration » et
« détérioration »).
Description des expérimentations
Afin de mesurer l’impact de la mise à disposition d’un
feedback sur les interventions au tuteur, nous avons
mené deux campagnes d’expérimentations dans un
contexte de tutorat synchrone : une expérimentation
dans laquelle un feedback sur les interventions et des
méta-indicateurs étaient fournis au tuteur et une autre
sans ces informations.
Ces expérimentations ont été menées sur deux années
universitaires et concernaient des activités de travaux
pratiques qui font partie d’une Unité d’Enseignement
(U.E.) relative à la « Programmation orientée objet et
Java ». Cette U.E. est dispensée aux étudiants de L3
Informatique de l’Université du Maine qui sont novices
en programmation Java.
66
Avant chaque session d’apprentissage avec HOP3X,
les étudiants ont préalablement vu en cours et en TD les
concepts qu’ils devaient mettre en œuvre durant les TP.
Les deux expérimentations se sont déroulées dans le
même contexte puisque les mêmes tuteurs ont participé
aux deux expérimentations, le même scénario
pédagogique a été utilisé et les étudiants impliqués ont
eu la même formation universitaire et ont suivi les
mêmes cours.
En collaboration avec l’équipe pédagogique, nous
avons identifié et défini 62 indicateurs, lesquels ont été
disponibles pour les deux tuteurs durant les deux
expérimentations.
La première expérimentation (expérimentation 1) a
été menée entre janvier et février 2010. Elle a impliqué
trente-six apprenants (groupe 1). La seconde
expérimentation (expérimentation 2) a été menée entre
janvier et février 2011 avec la participation de quarantecinq apprenants (groupe 2).
Concernant la quantité de productions des apprenants
et le nombre d’interventions tutorales, les deux groupes
sont homogènes. En moyenne, pour trois heures de TP, il
y a eu 3995 événements par étudiant pour le groupe 1 et
4391 événements pour le groupe 2. En ce qui concerne
les interventions tutorales, il y a eu 84 interventions pour
le groupe 1 (2,33 interventions par étudiant) et 96
interventions pour le groupe 2 (2,13 interventions par
étudiant).
Ces expérimentations nous ont permis de collecter des
traces d’interactions telles que la trace d’activité des
apprenants et les interventions audio et textuelles des
tuteurs. Les indicateurs et méta-indicateurs calculés en
cours de session ont aussi été sauvegardés.
Résultats des expérimentations et discussion
Nous voulons observer l’impact du fait de fournir au
tuteur des informations sur les effets de son intervention
à travers les méta-indicateurs. Pour atteindre cet objectif,
notre analyse est double. Dans un premier temps, nous
voulons voir si les méta-indicateurs améliorent les
performances du tuteur et l’effectivité de ses
interventions. Dans un deuxième temps, nous voulons
voir si l’amélioration des performances du tuteur a induit
un impact positif sur les résultats des apprenants.
Impact des méta-indicateurs sur l’activité du
tuteur
Dans cette section, nous voulons étudier le bénéfice
qu’apporte le fait de fournir au tuteur un feedback sur les
effets de ses interventions à travers la comparaison de
l’expérimentation 2, dans laquelle les méta-indicateurs
ont été disponibles, et l’expérimentation 1, dans laquelle
ils ne l’étaient pas. Pour notre étude, nous nous
intéressons aux interventions proactives, c’est-à-dire qui
surviennent lorsque les tuteurs interviennent de leur
propre initiative. Ce type d’intervention peut être
déclenché par des valeurs d’indicateurs non conformes à
celles attendues, i.e. n’appartenant pas à leurs domaines
d’acceptabilité. Dans ce cas, ces valeurs d’indicateurs
font état d’une situation critique.
Pour le groupe 1, parmi les 84 interventions, 89,28%
sont proactives. Ce taux est similaire pour le groupe 2
puisque parmi 96 interventions, 92,70% sont proactives.
Amiens – 23 et 24 mai 2012
Une approche orientée indicateurs pour supporter les activités du tuteur
Nos résultats et notre analyse se sont basés sur ces
données.
Dans cette analyse, nous nous intéressons aux
interventions qui peuvent être soit uniques, i.e.
composées de l’intervention originelle (nous les
appelons interventions uniques), soit une séquence
d’interventions, i.e. plusieurs interventions portant sur la
même situation critique. Une séquence d’interventions a
eu du succès si la dernière en a eu et que l’apprenant a
effectivement corrigé le problème à propos duquel le
tuteur est intervenu ; sinon, elle a échoué.
Les méta-indicateurs fournissent au tuteur des
informations sur le résultat (succès si l’intervention a eu
les effets escomptés par le tuteur ; sinon échec) de leurs
interventions. En cas d’échec, ils rappellent au tuteur
que l’apprenant n’a pas encore résolu le problème. Par
conséquent, le tuteur est encouragé à intervenir de
nouveau. Ainsi, nous pouvons émettre deux hypothèses :
le fait de fournir au tuteur un feedback sur les effets de
ses interventions à travers les méta-indicateurs va
augmenter le taux global d’interventions qui ont eu du
succès (H1) et, en particulier, cela augmente le nombre
d’interventions ayant eu du succès du fait des réinterventions (H2).
Comme le montre la figure 4, 75,99% des
interventions (en tenant compte des interventions
uniques et des séquences d’interventions) ont eu du
succès pour le groupe 1. Pour le groupe 2, ce taux est de
91,42%. Ces chiffres montrent une amélioration du taux
global des interventions qui ont eu du succès, lequel a
augmenté de 15,43 points. Ce résultat valide notre
première hypothèse H1 : globalement, lorsque les
tuteurs ont eu un feedback à travers les métaindicateurs, ils ont été mieux à même de rendre leurs
interventions efficaces que lorsqu’ils n’avaient pas de
méta-indicateurs disponibles.
d’échec des interventions uniques diminue de 14,29%
(de 20% pour le groupe 1 à 5,71% pour le groupe 2).
Nous expliquons cette différence par les métaindicateurs. En effet, les séquences d’interventions
contiennent des ré-interventions qui sont déclenchées par
les méta-indicateurs. Ces résultats tendent à valider notre
seconde hypothèse H2 : il y a eu une augmentation du
nombre de ré-interventions et il y aussi eu une
augmentation du nombre d’interventions qui a eu du
succès grâce aux ré-interventions.
Deuxièmement, comme indiqué dans la figure 4, le
taux d’interventions uniques ayant eu du succès a
augmenté entre le groupe 1 et le groupe 2. Cela ne peut
pas être du aux méta-indicateurs puisqu’il n’y pas de réinterventions. Nous expliquons cette différence par le
fait que ce sont les mêmes tuteurs qui ont participé aux
deux expérimentations. Après l’expérimentation 1, les
tuteurs ont acquis une certaine expertise en se rappelant
certaines interventions efficaces, ce qui leur a permis de
mieux cibler le choix de leurs stratégies de remédiation
en se basant sur leur propre expérience.
Toutefois, pour le groupe 2, il reste 8,56%
d’interventions qui ont échoué dont 2,85% malgré au
moins une ré-intervention. Ces cas d’échec concernent
des apprenants qui ont de très grandes difficultés en
programmation. En effet, ces apprenants avaient
essentiellement des problèmes liés à la syntaxe ou à la
structure du programme ; ils avaient des difficultés à
résoudre les erreurs de compilation.
Les résultats des expérimentations montrent que
fournir au tuteur des méta-indicateurs favorise les réinterventions en cas d’échec de l’intervention originelle.
En effet, les tuteurs aident mieux les apprenants lorsque
ces derniers sont confrontés à des situations critiques
puisque 91,42% des interventions tutorales ont eu les
effets escomptés. Ainsi, fournir au tuteur des
informations sur sa propre activité améliore ses
performances et augmente les chances de succès de ses
interventions.
Impact des méta-indicateurs sur l’activité de
l’apprenant
Figure 4 : Distribution des interventions tutorales pour les
groupes 1 et 2.
L’explication de cette augmentation du taux global
des interventions qui ont eu du succès est double.
Premièrement, cela est dû à l’augmentation des réinterventions. En effet, lorsque l’intervention originelle
échoue, dans 40,36% des cas, le tuteur ré-intervient
pour le groupe 1. Ce taux est de 72,02% pour le groupe
2. Les méta-indicateurs sont un rappel permanent qui
pousse le tuteur à ré-intervenir : le taux de réinterventions du groupe 2 est de 34,44 points plus élevé
que celui du groupe 1.
En conséquence, le taux de séquences d’interventions
qui ont eu du succès augmente de 4,95 points (de 9,33%
pour le groupe 1 à 14,28% pour le groupe 2) et le taux
4ièmes Rencontres Jeunes Chercheurs en EIAH
Nous voulons voir si l’amélioration des performances du
tuteur et l’augmentation des ré-interventions grâce aux
méta-indicateurs ont un impact positif sur l’activité de
l’apprenant. Ici, nous voulons observer si les apprenants
résolvent mieux leurs problèmes lorsque les tuteurs ont
des méta-indicateurs à leur disposition. Pour cela, nous
mettons en évidence des situations critiques (SC) i.e. des
situations dans lesquelles les valeurs des indicateurs (sur
l’activité de l’apprenant) ne sont pas acceptables. Parmi
ces SC, nous nous intéressons à celles qui ont fait l’objet
d’une intervention tutorale afin de mesurer l’impact de
ces interventions sur la résolution de ces SC par
l’apprenant.
Dans la section précédente, nous avons constaté que
fournir au tuteur des informations sur sa propre activité
améliorait l’efficacité de ses interventions. Maintenant,
nous voulons savoir si le taux d’échec des résolutions de
SC diminue grâce aux interventions. La figure 5 montre
l’état, en fin de session, des SC ayant fait l’objet d’une
intervention tutorale.
67
Aina Lekira
Figure 5 : État en fin de session des SC apparues en cours de
session.
Comme le montre la figure 5, le taux de résolution des
SC grâce aux interventions passe de 83,74% à 92,32%
entre le groupe 1 et le groupe 2. Cette augmentation est
probablement due aux interventions qui ont eu du
succès, lesquelles ont augmenté avec l’introduction des
méta-indicateurs. (cf. section précédente).
Cependant, pour le groupe 2, il y a 7,67% de SC non
résolues malgré les interventions tutorales. Ces cas
correspondent aux interventions auprès d’apprenants
ayant de grandes difficultés en programmation.
Ce résultat tend à prouver que l’introduction des
méta-indicateurs, qui induit de meilleures interventions
tant qualitativement que quantitativement (augmentation
du taux de ré-interventions et augmentation du nombre
d’interventions qui ont eu du succès), a un impact positif
sur les performances des apprenants puisqu’ils sont
capables de mieux résoudre leurs SC lorsque les tuteurs
ont un feedback sur les effets de leurs interventions.
Conclusion et perspectives
Dans cet article, nous avons présenté une approche
orientée indicateurs, générique, pour rendre compte au
tuteur de l’activité de l’apprenant et des effets de ses
interventions. Cette approche consiste à fournir au
tuteur, d’une part, des informations sur l’activité de
l’apprenant à travers des indicateurs calculés à partir de
la trace et, d’autre part, à lui fournir des informations
sur les effets de ses interventions à travers des métaindicateurs.
Les résultats des expérimentations montrent que
fournir ce type d’informations au tuteur améliore
l’efficacité de ses interventions de manière qualitative et
quantitative. Par ailleurs, les résultats montrent aussi
que cette amélioration des performances du tuteur a une
influence positive sur les performances des apprenants
qui ont mieux résolu leurs problèmes.
Par la suite, nous pensons pouvoir capitaliser les
interventions tutorales en fonction de la mesure de leur
efficacité afin de permettre au tuteur de réutiliser son
savoir-faire et son expérience. Ainsi, nous voulons
proposer au tuteur les interventions qui ont eu du succès
lorsqu’il se retrouve dans un contexte similaire à celui
de l’intervention proposée.
Références
Bousbia, N., Rebai, R., Labat, J. M., Balla, A., 2010.
Analysing the Relationship between Learning Styles and
Navigation Behaviour in Web-based educational
68
system.
International
Journal
of
Knowledge
Management and E-Learning, 2(4):400-421
Capa Aydin, Y., Sungur, S., and Uzuntiryaki, E., 2009.
Teacher self regulation: Examining a multidimensional
construct. Educational Psychology, 29:345-356.
Choquet, C., Iksal, S., 2007. Modélisation et
construction de traces d’utilisation d’une activité
d’apprentissage : une approche langage pour la
réingénierie d’un EIAH. STICEF, 14.
Denis, B., Watland, P., Pirotte, S., and Verday, N., 2004.
Roles and competencies of e tutor. In Proc. Networked
Learning Conference, 385–389.
France, L., Heraud, J-M., Marty, J-C., Carron, T., 2007.
Visualisation et régulation de l’activité des apprenants
dans un EIAH tracé,In Actes Conférence EIAH, 179184.
V. Guéraud, J-M. Adam, A. Lejeune, N Mandran, N.
Vézian, M. Dubois, 2009. Expérimentation d'un
environnement flexible pour la supervision de travaux
pratiques basés sur des simulations, In Actes Conférence
EIAH, 279-286.
ICALTS : Interaction and Collaboration Analysis’
supporting Teachers and Students’ self regulation,
délivrables 1, 2 and 3, Jointly Executed Integrated
Research Project, 2004, http://www.rhodes.aegean.gr/
ltee/kaleidoscope icalts.
Labat, J. M., 2002. Quel retour pour le tuteur ? In Actes
de la conférence TICE.
Lefevre, M., Cordier, A., Jean Daubias, A., and Guin, S.,
2009. A teacher dedicated tool supporting
personalization of activities. In Proc. World Conference
on Educational Multimedia, Hypermedia and
Telecommunications, 1136–1141.
Lekira, A., Després, C., Jacoboni, P., 2011a. Supporting
the identification of teachers’ intention through
indicators, Proc. 3rd International Conference on
Computer Supported Education, 111-116.
Lekira, A., Després, C., Jacoboni, P., 2011b. An
indicator-based approach to support teachers’ activities,
Proc 11th IEEE International Conference on Advanced
Learning Technologies, 120-122.
Martin, M., Alvarez, A., Ruiz, S., and Fernandez Castro,
I., 2009. Helping teachers to track student evolution in a
b learning environment. In Proc. 9th IEEE International
Conference on Advanced Learning Technologies, 342–
346.
Martinez, A., Dimitriadis, Y., Gomez, E., Rubia, B., and
De La Fuente, P., 2003. Combining qualitative and
social network analysis for the study of classroom social
interactions. Computers and Education, 41:353-368.
Mazza, R., Dimitrova, V., 2007. CourseVis: A Graphical
Student Monitoring Tool for Facilitating Instructors in
Web-Based Distance Courses. International Journal in
Human-Computer Studies 65(2): 125-139.
Pham Thi Ngnoc, D., Iksal, S., Choquet, C., 2010. Reengineering of pedagogical scenarios using the data
combination language and usage tracking language. In
Proc. 10th IEEE International Conference on Advanced
Learning Technologies, 506-510.
Zimmerman, B J., 2000. Attaining self regulation: A
social cognitive perspective. Handbook of self
regulation, 13–38.
Amiens – 23 et 24 mai 2012
Acquisition interactive de connaissances pédagogiques pour la
personnalisation d’EIAH dans le cadre de la formation à distance
Bruno MASCRET, 1ère année
Université de Lyon, CNRS
Université Lyon 1, LIRIS, UMR5205, F-69622, France
Formagraph
1 Rue Madeleine Brès, 25000 Besançon, France
Résumé
Cet article s’intéresse à la problématique de l’acquisition interactive de connaissances pour la personnalisation des parcours pédagogiques dans un contexte de
formation à distance. Nous mettons en évidence que la
personnalisation des parcours pédagogiques par le formateur en formation à distance est un aspect important de la personnalisation de l’enseignement, mais qu’à
l’heure actuelle cela reste un processus long et peu utilisé en pratique sur le terrain. Nous expliquons pourquoi l’acquisition de connaissances sur la personnalisation nous semble une piste prometteuse pour faciliter
la personnalisation sur des plateformes pédagogiques.
Nous identifions les pré-requis à nos travaux : la mise en
place d’un système de personnalisation interactif à partir de sources de connaissances pédagogiques (profils,
ressources pédagogiques, ...), basé sur des modèles existants. Nous introduisons deux contributions théoriques,
défendant l’usage des traces et du raisonnement à partir
de l’expérience tracée (Mille, 2005) comme mécanisme
d’acquisition de connaissances pertinent. La première
contribution décrit comment acquérir ces connaissances
lors de l’élaboration de parcours pédagogiques par le
formateur ; la seconde montre comment, en présentant
au formateur l’activité de l’apprenant sous forme de
traces d’interaction, il peut exprimer de nouvelles
connaissances sur sa manière de réviser des parcours
pédagogiques proposés. Nous terminons en présentant
la manière dont nous allons implémenter un prototype
au sein de la plateforme IMAVIA, de l’entreprise Formagraph, et proposons quelques pistes de recherche qui
compléteraient nos travaux.
Dans le cadre de la formation à distance, nous assistons à une généralisation de l’usage des plateformes
pédagogiques que ce soit en formation initiale ou continue. La demande de personnalisation de l’apprentissage est de plus en plus forte ; elle se traduit entre
autres par un engouement pour la pédagogie différenciée
(Robbes, 2009). Les TICE (technologie de l’information et de la communication pour l’éducation) offrent
de nouveaux outils qui pourraient répondre à cette demande (Lebrun, 2007b), mais en pratique, la plupart des
formateurs ne peuvent se consacrer pleinement à leur
rôle de pédagogue faute de temps ou de connaissances
sur la manipulation d’EIAH devenus complexes (Garrot,
2008).
Une des manières d’individualiser la formation est de
personnaliser les parcours pédagogiques des apprenants,
mais les plateformes pédagogiques actuelles offrent peu
de fonctionnalités facilement utilisables pour permettre
cette personnalisation (Garrot, 2008). Au mieux, elles
permettent aux formateurs de définir plusieurs parcours
pédagogiques qu’ils peuvent ensuite proposer à un ou
plusieurs apprenants. Ces parcours sont réalisés a priori
et il n’existe pas, à notre connaissance, de mécanisme
permettant d’expliciter les motivations du pédagogue
quant aux choix qui lui ont permis d’élaborer un parcours et de l’attribuer à un apprenant.
Un autre moyen de personnaliser l’apprentissage
est de permettre au formateur de réviser les parcours
pédagogiques proposés quand ceux-ci ne conviennent
pas aux apprenants. Mais pour que cette révision
soit pertinente, le formateur doit disposer d’éléments
lui permettant de comprendre pourquoi le parcours
pose problème. Il est possible de s’appuyer actuellement sur des indicateurs (Dimitracopoulou et Bruillard,
2006), ou des renseignements sur le statut d’une
tâche : temps passé, résultat d’évaluation automatique,
nombre d’accès, nombre de tentatives. Mais ce que fait
réellement l’apprenant (hésitations, retours en arrière,
mauvaise compréhension ou accomplissement partiel
d’une tâche) n’est pas perceptible, contrairement à des
situations d’apprentissage en présentiel. Le contexte de
la formation à distance limite donc le formateur dans son
analyse des problèmes rencontrés par l’apprenant.
Selon nous, ces limitations pourraient être réduites si
les systèmes d’apprentissage en ligne étaient capables
d’acquérir une partie des connaissances pédagogiques
qu’utilise le formateur, et de mieux lui présenter l’activité de l’apprenant pour l’aider à résoudre les problèmes
d’apprentissage. Nos travaux portent sur l’acquisition de
ces connaissances pédagogiques lors de l’élaboration, la
personnalisation et la révision de parcours
Dans cet article, nous commençons par préciser le vocabulaire que nous employons, qui doit nous permettre
notamment de faire la distinction entre ce que prescrit le formateur et ce que réalise effectivement l’apprenant. Nous mettons en évidence les enjeux de nos travaux en EIAH, pour la personnalisation des parcours
pédagogiques par le formateur et en ingénierie de la
connaissance, pour la conception de systèmes capables
d’acquérir des connaissances et des raisonnements non
modélisés a priori par un expert. Nous présentons ensuite la problématique de nos travaux, en la situant dans
ces deux domaines. Nous introduisons les traces d’in-
4èmes Rencontres Jeunes Chercheurs en EIAH
69
Introduction
Bruno Mascret
teraction et le raisonnement à partir de l’expérience
tracée (RàPET), et expliquons en quoi cette approche
représente à notre avis un paradigme de raisonnement
pertinent pour notre problématique. Nous présentons ensuite le système de personnalisation tel que nous l’imaginons, et indiquons quels éléments existants nous allons
pouvoir utiliser. Nous expliquons en quoi ils satisfont
une partie des pré-requis nécessaires à nos recherches.
Notre première contribution décrit comment acquérir
des connaissances lors de l’élaboration des parcours
pédagogiques par le formateur, en traçant son activité
et en l’incitant de manière interactive à s’impliquer dans
ce mécanisme d’acquisition, en lui offrant par exemple
la possibilité de reformuler ce qui a été tracé par le
système, de le corriger, ou de le réorganiser. Cela va
plus loin qu’une simple documentation de son activité.
Notre seconde contribution s’appuie également sur les
traces d’interaction, cette fois-ci produites par l’apprenant. Nous les présentons au formateur qui peut alors
réviser le parcours pédagogique et introduire ces nouvelles connaissances dans le système. Nous terminons en
décrivant l’architecture que nous comptons développer,
et la manière dont elle répond aux attentes de la société
Formagraph en matière de personnalisation de parcours
pour un public très hétérogène (d’apprenants en situation d’illettrisme et/ou d’actifs aux profils variés en formation continue). Nous présentons plus particulièrement
la plateforme d’e-learning IMAVIA, basée sur Claroline,
sur laquelle s’appuiera une grande partie des services de
formation personnalisés proposés par Formagraph.
Définitions
F IGURE 1: Représentation d’une tâche et d’une activité (en
pointillés). Dans cet exemple, la tâche consiste à lire une documentation sur la compilation d’un programme ; l’activité pourrait être de ne lire que quelques pages de cette documentation.
F IGURE 2: Un graphe de tâches du cours de programmation.
Les arcs représentent les pré-requis entre les différentes tâches
qui sont compiler, exécuter, débugger, documenter, formatter
les entrées-sorties, et réaliser un module (Exo 1-6) du programme final (Exo 7).
vités : l’apprenant peut en effet avoir plusieurs activités
pour répondre à une même tâche (par exemple, lire les
deux premières pages de cours, puis reprendre sa lecture plus tard ), ou une activité peut répondre à plusieurs
tâches assignées. Un apprenant peut donc traiter partiellement une tâche dans une activité.
Graphe de tâches : un graphe de tâches (figure 2) est
une organisation de tâches où chaque nœud représente
une tâche et chaque arc une relation entre deux tâches.
Les arcs peuvent exprimer différents types de relations, pédagogiques ou non, entre des tâches (prérequis,
dépendance, sorte de, indexation, etc ;).
Nous souhaitons préciser le sens que nous donnons dans
cet article à un certain nombre de notions fondamentales. Ces notions sont discutées dans (Pernin, 2006) et
(Tchounikine, 2009). Nous avons notamment besoin de
marquer la distinction entre la tâche qui est prescrite par
le formateur et l’activité qui est réalisée par l’apprenant
(Tchounikine, 2009).
Les définitions qui suivent sont illustrées par
l’exemple concret d’un cours de programmation.
Tâche (prescrite) : une tâche (figure 1) représente ce
qu’il est demandé de faire à un apprenant. Elle est prescrite la plupart du temps par le formateur, et utilise des
ressources pédagogiques. Nous considérons que la tâche
contient à la fois la ou les ressources pédagogiques (ressources numériques, papier, média, . . . ) et les indications
données à l’apprenant pour sa réalisation (consigne).
Une tâche peut être décrite à l’aide de métadonnées, dans
un formalisme standardisé (par exemple LOM, SCORM,
IMS-LD) ou non standardisé (format interne à l’EIAH,
XML, etc.). Nous admettrons que ce formalisme permet,
dans le cas de tâches informatisées 1 , de représenter les
informations nécessaires pour exploiter la tâche à des
fins de personnalisation et réaliser des graphes de tâches.
Activité (réalisée) : l’activité (figure 1) représente ce
que l’apprenant réalise réellement pour traiter une tâche
prescrite par le formateur. Nous admettrons dans cet article qu’à une tâche correspond une ou plusieurs acti-
F IGURE 3: Deux parcours pédagogiques, un linéaire et un non
linéaire, qui ne prévoient ni la réalisation de Exo 2, ni les
tâches de formatage. Le formateur a peut-être voulu ainsi simplifier le problème pour certains apprenants, ou il considère
que ces apprenants n’ont pas besoin de réaliser les tâches non
sélectionnées...
1. Une tâche informatisée est une représentation informatique d’une tâche : les éléments qui la composent ne sont pas
tous nécessairement numériques
Parcours pédagogique : un parcours pédagogique
(figure 3) est une organisation de tâches que le formateur prescrit à un ou plusieurs apprenants. Lorsque le
70
Amiens - 23 et 24 mai 2012
Acquisition interactive de connaissances pédagogiques pour la personnalisation d’EIAH
parcours n’exprime pas d’alternatives, c’est un simple
séquencement linéaire de tâches. Dans le cas contraire,
c’est un graphe.
F IGURE 4: Un parcours d’activité représentant ce que l’apprenant a réellement réalisé. Apparemment, il a eu besoin de revenir sur les tâches d’exécution et de débuggage pour réussir
Exo 3 (il y a donc deux activités différentes pour la tâche exec,
et deux autres pour la tâche debug).
Parcours d’activités : le parcours d’activités (figure 4) est un séquencement d’activités représentant
le parcours effectif de l’apprenant sur un parcours
pédagogique. Sa structure peut être complètement
différente du parcours pédagogique, puisque d’une part
il correspond à ce que l’apprenant fait réellement,
d’autre part, nous l’admettrons, un apprenant ne peut
traiter deux tâches en même temps (bien qu’il puisse
passer alternativement de l’une à l’autre). Un parcours
d’activités a donc une structure linéaire dont les nœuds
sont temporellement situés.
teurs (Djouad, 2010), en raisonnement à partir de cas ou
en RàPET). (Soller et al., 2005) identifient trois utilisations de ces connaissances : la visualisation, la comparaison avec des observations attendues et la production
de réponses élaborées pour guider l’apprenant dans son
apprentissage.
Un pré-requis à une acquisition de connaissance sur
l’activité de l’apprenant réside dans la capacité à fournir
au formateur des outils lui permettant avant tout de percevoir cette activité : comment demander à un formateur
de corriger un parcours s’il n’a qu’une vision partielle et
limitée de ce qu’a fait l’apprenant ? Dans le cas de la personnalisation de parcours, un des enjeux est de permettre
au formateur d’expliciter une révision de parcours suite
à l’observation (visualisation) de l’activité d’un apprenant. Autrement dit, que le formateur arrive à formaliser
la cause d’un problème, en décire ses effets sur l’activité
de l’apprenant, et dans l’idéal de pouvoir proposer une
solution qui soit en accord avec sa pédagogie.
Problématique
Les connaissances pédagogiques et les raisonnements
associés sont, par opposition aux connaissances explicites, la plupart du temps tacites, c’est–à–dire difficiles
à formaliser. Elles s’appuient sur de nombreuses notions
comme l’expérience du pédagogue, sa connaissance personnelle des apprenants, ses convictions, sa manière
d’adapter ou de personnaliser son enseignement (Minstrell, 1999). Elles représentent une grande partie de la
pédagogie du formateur, qui n’a pas toujours conscience
de son expertise (il sent que cette adaptation est pertinente pour tel apprenant).
À notre avis, un des grands enjeux de la personnalisation est de disposer de systèmes capables d’acquérir
ces connaissances et la manière dont on s’en sert ;
autrement dit, de donner au formateur la possibilité de formaliser son expérience et ses connaissances
pédagogiques de personnalisation pour qu’il puisse ensuite les réutiliser ou les partager. Ainsi, il gagnera notamment du temps lors de l’élaboration de parcours
ultérieurs. Certains travaux actuels portent sur la constitution d’ontologies permettant d’acquérir une partie de
ces connaissances (Zouaq et al., 2007), (Greffier et al.,
2011) : nous pensons cependant que ce type d’approche
présente un risque d’homogénéı̈sation des connaissances
pédagogiques.
Dans le cadre de la formation à distance, l’importance de la présence du formateur, par sa capacité à
conseiller, orienter et interagir avec les apprenants est
une des clefs de la réussite dans ce mode d’apprentissage (Lebrun, 2007b). Or, bien que les plateformes
pédagogiques disposent d’outils de suivi et de communication (chat, wiki, forum), l’activité de l’apprenant ne
peut être finement observée par le formateur qui n’en
perçoit qu’une petite partie à travers les outils existants. Plusieurs domaines de recherche en ingénierie de
la connaissance et en EIAH se consacrent à la manière
d’améliorer et d’augmenter les connaissances sur l’activité de l’apprenant (en datamining, avec des indica-
L’ingénierie des connaissances utilise deux types
d’éléments : les connaissances, qui sont extraites de
sources de connaissances, et les mécanismes de raisonnement qui utilisent ces connaissances. L’un et l’autre
sont représentés par des modèles (modèle de connaissances et modèle de raisonnement).
Lorsque ces modèles existent, l’acquisition de nouvelles connaissances peut s’appuyer sur un formalisme, être interactive (Cordier, 2008), plus facilement
interfaçable pour l’utilisateur.
Cependant, il y a plusieurs inconvénients à cette formalisation (Cordier et al., 2009) : les mécanismes de raisonnement n’évoluent pas, les connaissances sont très
spécifiques et les systèmes considèrent que la solution d’un problème conviendra à tous les utilisateurs.
Or, dans un contexte de personnalisation de parcours
pédagogiques, il est très délicat de modéliser a priori
la manière dont les formateurs vont réaliser la personnalisation, car elle dépend de facteurs propres aux intentions et manières de faire du formateur, comme ses
objectifs, ses stratégies, ses démarches ou ses approches
pédagogiques. La connaissance qu’a le formateur de
l’apprenant et son expérience de pédagogue jouent
également un rôle essentiel. Le formateur doit donc pouvoir exprimer sa propre pédagogie dans une situation
d’apprentissage informatisée (Lebrun, 2007a), comme
il le ferait dans une situation non informatisée. Un environnement faiblement contraint, ou à large spectre
(c’est-à-dire offrant de grandes possibilités d’usages
différents à l’utilisateur) comme un EIAH ou un site Internet ne permet pas à son concepteur d’envisager toutes
les manières d’interagir, ni d’anticiper des modèles de
connaissances : cela figerait une fois pour toutes le processus de raisonnement. Les modèles de connaissance
et de raisonnement ne doivent donc pas être préconçus.
Comment peut-on les construire au fil de l’eau, à partir de l’expérience de l’utilisateur ?
Nous pensons que les traces d’interaction (Settoutti
et al, 2009) et le RàPET (Mille, 2005) offrent un paradigme de raisonnement adapté à ce genre de problèmes
(Cordier et al., 2010). Une trace d’interaction est un objet informatique capable de représenter l’activité des uti-
4èmes Rencontres Jeunes Chercheurs en EIAH
71
Enjeux
Bruno Mascret
F IGURE 5: Deux traces reformulées par transformation,
représentant un copier-coller réalisé à la souris et au clavier.
Deux traces différentes peuvent représenter le même processus ; les transformations permettent de se placer dans un registre pertinent pour le raisonnement.
lisateurs sous forme d’observations : les interactions de
l’utilisateur avec l’environnement sont mémorisées sous
forme d’observés, temporellement situés entre eux. Une
trace peut également être transformée et reformulée en
une autre trace incarnant un point de vue particulier sur
l’activité tracée (figure 5). Des observés peuvent être associés pour former un épisode dans la trace : cet épisode
correspond à un point de vue sur l’activité observée, et
on lui associe une signature afin de pouvoir le retrouver
dans une trace. Par exemple, les observés de la figure 5
pourraient constituer un épisode “copier-coller” dont la
signature serait “Select text”, “CTRL C”, d’autres observés dont le type n’est pas important pour la signature, “CTRL V”. Décrire un épisode avec sa signature est
une opération d’enrichissement des connaissances d’un
système à base de traces.
Actuellement, il n’existe pas, à notre connaissance de
système fonctionnel ayant implémenté concrètement un
mécanisme de RàPET dans un domaine dynamique et
sans a priori sur la structure des épisodes. Que doit-on
faire pour réaliser un tel système ?
Modélisation d’un Système de Personnalisation de Parcours à Base de Traces
Vers une architecture d’acquisition de
connaissances pédagogiques à base de traces
La figure 6 montre un système de personnalisation
à base de traces tel que nous le concevons. Dans
notre approche, 1 le formateur qui réalise un parcours pédagogique exprime des contraintes sur les objets pédagogiques du système (profils et tâches informatisées). Ces contraintes représentent le savoir-faire et
l’expérience du formateur.
2
Les interactions du formateur avec le module
d’élaboration de parcours sont tracées. Le formateur
peut consulter ses traces et les reformuler dans des
registres d’abstraction différents. Ces registres correspondent à des contextes ou des points de vue particuliers du formateur, comme ses différentes stratégies
pédagogiques. Ce travail de reformulation permet au
72
F IGURE 6: Système de personnalisation de parcours
pédagogiques à base de traces
système d’acquérir des connaissances sur la manière
dont le formateur souhaite formaliser son expérience.
Dès que le système dispose de suffisamment de connaissances, il peut commencer à réutiliser l’expérience formalisée pour faciliter le travail d’élaboration et d’adaptation du formateur.
Une fois le parcours pédagogique réalisé et affecté
aux apprenants 3 , le système trace le parcours d’activités réalisé par l’apprenant. 4 La trace de l’apprenant est utilisée par le formateur pour lui permettre de
détecter les éventuels problèmes d’apprentissage auxquels l’apprenant est confronté.
5 Le formateur va là encore exprimer son expérience
pédagogique en reformulant cette trace pour se placer dans des registres permettant de formaliser les
problèmes d’apprentissage. Cette formalisation de
problèmes lui permet en dernier lieu de réviser le parcours qu’il a proposé : il peut expliciter sa révision de
parcours en associant le problème détecté aux modifications des contraintes qu’il avait exprimé initialement. Le
système acquiert ainsi des connaissances à la fois sur la
résolution de problème d’apprentissage, mais également
sur la manière de concevoir des parcours : l’idée est que
lorsqu’un autre apprenant présentera des caractéristiques
similaires, le formateur puisse lui proposer directement
un parcours où le problème d’apprentissage détecté sera
évité.
Élements de l’architecture déjà existants
Il existe de nombreux travaux portant sur la personnalisation en EIAH (Brusilovsky et Millán, 2007),
(STICEF, 2011) et sur la représentation de parcours
pédagogiques ou la manière de les concevoir (Gutiérrez
et Pardo, 2007). Nous avons mené un état de l’art qui
Amiens - 23 et 24 mai 2012
Acquisition interactive de connaissances pédagogiques pour la personnalisation d’EIAH
nous a permis d’identifier plusieurs travaux que nous
allons utiliser dans notre système de personnalisation.
Notre objectif était de trouver des contributions permettant d’exprimer des contraintes sur deux types d’objets
pédagogiques, les profils et les ressources pédagogiques,
et de personnaliser les tâches des parcours.
PMDLe (Eyssautier-Bavay, 2008), (Ginon et al. 2011)
est un langage de modélisation de profils garantissant
une grande généricité et de solides capacités d’adaptation à des situations d’apprentissage hétérogènes. Un
langage d’expression de contraintes, cPMDLe, a été proposé par (Lefevre, 2009) dans l’approche GEP ET T OS
et repris par (Ginon et al, 2011). Cette approche permet
de lier des contraintes sur les profils à des contraintes sur
les tâches.
Dans (Lefevre et al., 2009), les auteurs présentent un
modèle permettant l’acquisition de connaissances sur
des EIAH à des fins de personnalisation. Ils identifient
cinq types d’éléments personnalisables : les tâches, leur
séquencement, les fonctionnalités disponibles, les retours proposés aux apprenants et les interfaces utilisateur. Seuls les deux premiers aspects rentrent directement dans le cadre de nos travaux.
La principale limite vient du contexte d’utilisation de
cette approche : elle a avant tout été pensée pour personnaliser des séances de travail, et la notion de parcours pédagogique se limite à un séquencement linéaire
de tâches. Dans le cas de parcours pédagogique, il s’agit
de personnaliser un ensemble de séances de travail et de
les organiser entre elles.
Toutefois, ces contributions répondent à la plupart de
nos besoins pour réaliser le module de personnalisation
de parcours, qui constitue un prérequis à nos travaux
puisque c’est en instrumentant ce module que nous serons capables de tracer les élaborations de parcours.
Acquisition de Connaissances pour la Personnalisation de Parcours avec les Traces
d’Interaction
L’idée d’observer avec des traces l’activité de l’utilisateur afin d’acquérir des connaissances réutilisables sur
sa manière d’interagir avec le système n’est pas nouvelle (Settouti et al, 2007). Cependant, à notre connaissance et à l’heure actuelle, aucun système ne propose
une implémentation concrète et utilisable en EIAH de
ces mécanismes pour la personnalisation de parcours.
Nous présentons deux approches permettant l’acquisition de telles connaissances : la première se situe au
moment de l’élaboration du parcours par le formateur,
la seconde lors de la révision du parcours suite à l’observation des traces d’interaction de l’apprenant par le
formateur.
F IGURE 7: Trace d’élaboration de parcours pédagogique et une
de ses reformulations.
en oeuvre pour exploiter ces connaissances. Nous allons maintenant montrer au travers d’un exemple en quoi
notre approche répond à cette problématique.
Reprenons les parcours pédagogiques de la figure 3.
Voici ce que le formateur a effectué pour obtenir ces parcours :
– il a exprimé des contraintes pour sélectionner les
tâches nécessaires à la réalisation de l’excercice 7
(objectif)
– il a ensuite exprimé des contraintes pour retirer du
parcours les tâches de formatage pour les profils où
cette compétence était acquise (prise en compte des
acquis)
– il a exprimé une contrainte sur une valeur du profil
pour autoriser ou non les alternatives (présentation)
La figure 7 montre la trace de son élaboration (trace
num.1). Dans cette trace, les notions d’objectifs, de prise
en compte des acquis ou de présentation n’apparaissent
pas. Le formateur va donc réaliser des transformations
pour exprimer ces nouveaux concepts (trace 2). Ces
transformations représentent bien une formalisation de
connaissances.
Ensuite, le formateur peut également définir des
épisodes qui correspondent à des connaissances qu’il
souhaite réutiliser. Il associe à ces épisodes des signatures, afin de permettre au système de les retrouver dans
une trace, et leur associe une solution.
Le système acquiert bien des connaissances et des
mécanismes de raisonnement sur ces connaissances.
Connaissances sur la révision de parcours
Nous avons montré dans la section précédente qu’une
manière pour le formateur de personnaliser un parcours pédagogique était d’exprimer des associations
de contraintes entre différentes sources de connaissances pédagogiques (profils, métadonnées sur les
tâches, etc.). Nous avons également introduit dans notre
problématique la complexité que représente l’utilisation de traces lorsque l’on ne dispose ni du modèle des
connaissances à acquérir, ni des raisonnements à mettre
Nous avons argumenté que présenter au formateur
des traces d’apprenant lui permet de formaliser des
problèmes d’apprentissage et d’expliciter ses révisions
de parcours. Le processus correspondant est similaire à
celui présenté pour l’élaboration de parcours.
Cependant, l’utilisation de ces traces pose deux
problèmes principaux : d’une part, sur le respect de la
vie privée de l’apprenant (Butaniaou, 2011) ; d’autre
part, sur la portée des connaissances acquises. En effet, chaque apprenant a son propre style d’apprentissage,
commet ses propres types d’erreurs. Il est donc difficile
de savoir si ce qui est valable pour un apprenant l’est
aussi pour tous les autres.
La réutilisation de ces connaissances est donc bien
plus délicate car il est difficile de mesurer le degré de
spécificité d’une révision. Une solution consisterait à caractériser le degré de spécificité d’une révision, et à exprimer sur quels éléments de similarité deux profils sont
comparables pour une révision donnée.
4èmes Rencontres Jeunes Chercheurs en EIAH
73
Connaissances sur l’élaboration de parcours
Bruno Mascret
Perspectives
Notre thèse s’inscrit dans le cadre des
développements que l’entreprise Formagraph a
réalisé sur sa plateforme pédagogique d’e-learning,
IMAVIA, basée sur Claroline (http://www.
claroline.net/index.php).Formagraph souhaite disposer d’un outil de personnalisation de parcours
pédagogiques riches à partir des contenus qu’elle va
proposer pour des apprenants en situation d’illettrisme.
Nous commencerons par représenter les profils avec
PMDLe, implémenter une structure pour les parcours
pédagogiques autorisant l’expression d’alternatives, et à
instancier GEP P ET OS pour Claroline.
Nous chercherons ensuite à apporter une preuve de
concept pour notre approche : nous développerons une
interface dédiée au formateur pour l’élaboration de parcours pédagogiques, tracerons les élaborations de parcours par les formateurs et mettrons en place le système
d’acquisition de connaissances.Nous aurons la possibilité d’évaluer notre approche, au sein de Formagraph ou
grâce à nos contacts avec le consortium Claroline.
Enfin, une fois ce premier prototype validé, nous
l’augmenterons afin de prendre en compte les autres aspects que nous avons présenté dans cet article.
Références
Butoianu, V ; Vidal, P and Broisin, J. 2011. Prise en
compte de la vie privée des usagers dans un système à
base de trace dédié à l’apprentissage en ligne. in EIAH
2011.
Brusilovsky, P and Millán, 2007. User Models for
Adaptive Hypermedia and Adaptive Educational Systems. The Adaptive Web, vol. 4321, Lecture Notes in
Computer Science, chapter 1, p. 3–53. Springer.
Cordier, A. 2008. Interactive and Opportunistic
Knowledge Acquisition in Case-Based Reasoning.
Thèse de doctorat en informatique, Université Lyon 1.
Cordier, A ; Mascret, B and Mille, A. 2009. Extending Case-Based Reasoning with Traces. In Grand Challenges for reasoning from experiences, Workshop at
IJCAI’09, Pasadena, CA.
Cordier, A ; Mascret, B and Mille, A. 2010. Dynamic
Case Based Reasoning for Contextual Reuse of Experience. In Provenance-Awareness in Case-Based Reasoning Workshop. ICCBR 2010. p. 69–78, Alexandria, IT.
Dimitracopoulou, A and Bruillard, E. 2006. Interfaces
de Forum enrichies par la visualization d’analyses automatiques des interactions et du contenu. Special Issue on
“Forum de Discussion en Education”, STICEF. Vol. 13.
Djouad, T ; Benmohammed , M and Mille, A. 2010.
Indicators computation from modeled traces in the
context of computer Human Learning environment. In
International Symposium on Modelling and Implementation of Complex systems, Constantine, p. 1-7, AL.
Eyssautier-Bavay, C. 2008. Modèles, langage et outils pour la réutilisation de profils d’apprenants. Thèse de
doctorat en informatique, Univ. J. Fourier Grenoble 1.
Garrot, E. 2008. Étude du tutorat in Plate-forme support à l’Interconnexion de Communautés de Pratique
(ICP). Application au tutorat avec TE-Cap, Chapitre 1.
Thèse de Doctorat en informatique, INSA Lyon.
Georgeon, O ; Mille, A ; Bellet, B.T ; Mathern, B.
74
and Ritter, F. 2011. Supporting activity modelling from
activity traces. Expert Systems, DOI : 10.1111/j.14680394.2011.00584.x, paru en ligne (mars 2011).
Ginon, B ; Jean-Daubias, S, and Lefevre, M. 2011.
Evolutive learners profiles. In Proceedings of World
Conference on Educational Multimedia, Hypermedia
and Telecommunications, T. Bastiaens and M. Ebner,
editors, p. 3311-3320, Lisbon, Portugal.
Greffier, F ; Szilagyi, I and Domenget, J-C. 2011.
Pour des parcours personnalisés via un système actif et
sémantique d’apprentissage, in C. Dejean, F. Mangenot
et T. Soubrié. Actes du colloque Epal 2011
Gutiérrez, S and Pardo, B. 2007. Sequencing in webbased education : Approaches, standards and future
trends. Evolution of teaching and learning paradigms.
Intelligent environement, vol. 62, Studies in Computational Intelligence. p. 83–117. Springer.
Lebrun, M. 2007a. Quality towards an expected harmony : pedagogy and technology speaking together
about innovation. AACE Journal, vol. 15(2), p. 115–130.
Lebrun, M. 2007b. Théories et méthodes
pédagogiques pour enseigner et apprendre : Quelle
place pour les TIC dans l’éducation ?. 2ème édition
revue, De Boeck, Bruxelle
Lefevre, M. 2009. Processus unifié pour la personnalisation des activités pédagogiques : méta-modèle,
modèles et outils. Thèse de doctorat en informatique,
Université Claude Bernard Lyon 1.
Lefevre, M ; Mille, a ; Jean-Daubias, S and Guin, N.
2009. A Meta-Model to Acquire Relevant Knowledge
for Interactive Learning Environments Personalization.
In ADAPTIVE 2009, p. 78-85, Athènes, Grèce.
Mille, A. 2005. Raisonner a partir de l’expérience
tracée (RàPET). Définition, illustration et résonances
avec le story telling Minstrell, J. 1999. Expertise in Teaching. Chapter 12
in R. J. Sternberg and J. A. Horvath, Tacit knowledge in
professional practice : researcher and practitioner perspectives. pp. 215-230. Psychology Press.
Pernin, J-P. 2006 Normes et standards pour la conception, la production et l’exploitation des EIAH, Chapitre
9. In Environnements Informatiques pour l’Apprentissage Humain, Grandbastien M., Labat J.-M. (ed.), p.
201-222, Hermès, Paris
Robbes, B. 2009. La pédagogie différenciée :
historique, problématique, cadre conceptuel et
méthodologie de mise en œuvre, janvier 2009.
http ://www.meirieu.com/ECHANGES/bruno robbes
pedagogie differenciee.pdf, p. 1–34
Settouti, L ; Prié, Y ; Marty, J-C and Mille, A. 2009. :
Vers des Systèmes a Base de Traces modélisées pour les
EIAH. Rapport de recherche RR-LIRIS-2007-016
Settouti, L ; Prié, Y ; Champin, P-A ; Marty, J-C and
Mille, A. 2009. A TBMS framework : Models, languages and semantics. Research Report.
STICEF, 2011, numéro spécial TICE, volume 18, sous
la direction de Pierre-André Caron et Serge Garlatti
Tchounikine, P. 2009. Précis de recherche en
ingénierie des EIAH. Internet. http ://membres-liglab.
imag.fr/tchounikine/Precis.html
Zouaq, A. ; Nkambou, R and Frasson, C. Une architecture d’acquisition et d’exploitation des connaissances
pour les EIAH, HAL, 2007
Amiens - 23 et 24 mai 2012
Vers une mise en relation des activités d’édition et de navigation
dans les ressources d’apprentissage : cas de l’apprentissage d’un
langage de programmation
Mahdi Miled
UMR Science Technique Education Formation
ENS Cachan – ENS Lyon (IFE) – UniverSud
61, avenue du Président Wilson F-94235 Cachan cedex
[email protected]
Résumé
Cet article suggère d'apporter des mécanismes d'aide à
la navigation dans les ressources d'apprentissage et
d'aide à leur conception et à leur édition. Nous
souhaitons instaurer des éléments de liaison entre ces
activités de conception ou d'édition avec celles de la
navigation. Dans une ressource que nous concevons
comme un graphe d’unités d’apprentissage, nous
proposons de guider l’apprenant sans le contraindre et
d’informer le concepteur sur l’usage à travers les traces
de navigation. Dans le but de faciliter la navigation
dans ce graphe de ressources et son édition, nous
développons un prototype intégrant un outil de
visualisation interactive. Grâce aux résultats des
simulations effectuées sur cet outil, nous avons pu
déterminer quel type de visualisation était le plus
approprié pour le type de graphe et la situation
d'apprentissage envisagée. Ces techniques nous
semblent essentielles pour soutenir les apprenants dans
leur guidage sur leur parcours d’apprentissage car elles
permettent de bien discerner les dépendances dans les
grands graphes évolutifs.
Introduction
Considérant la construction d’une ressource pour
l’apprentissage du langage Python en autonomie (Ortiz
2012), nous sommes confrontés à la conception d’un
grand nombre de parties constituant cette ressource, à
leur organisation et à leur évolution à travers l’usage
qu’en feront les apprenants.
La question de la conception et de l'édition des
ressources numériques d'apprentissage a été déjà
abordée (Broisin et Vidal 2005). Dans le contexte
participatif et collaboratif du web 2.0, les utilisateurs ne
sont plus seulement consommateurs de contenus mais
ils en sont également producteurs, contributeurs et
annoteurs. Nous utilisons ici l’idée que le parcours des
apprenants est une information utilisable par les
concepteurs pour améliorer la ressource et le guidage
des apprenants. Nos travaux s’inscrivent d’une part
dans l’aide à la conception et la modification d’une
ressource de haut niveau de granularité (cours, manuels
de référence), et d’autre part dans l’aide à la navigation
4ièmes Rencontres Jeunes Chercheurs en EIAH
dans un vaste réseau de parties homogènes et
interdépendantes au sein d’une telle ressource. La
première partie de cette communication présente
l’articulation entre les activités d’édition et de
navigation. Tout en montrant notre positionnement,
nous passons en revue dans une deuxième partie, les
environnements permettant d’utiliser des ressources
d’apprentissage, les techniques de visualisation
interactive des graphes ainsi que quelques fondements
sur les traces. La troisième propose un modèle pour
l’articulation entre édition et parcours. La quatrième
décrit la méthode de mise en œuvre d'un outil de
visualisation de graphes pour aider les apprenants dans
leur navigation. La cinquième partie fixera quelques
éléments d’évaluation avant la conclusion.
Articulation entre les activités d'édition et
de navigation : une relation non triviale
De nombreux travaux ont traité des objets
d'apprentissage (Pernin 2003) et de leur conception et
leur édition plus spécifiquement, dans une optique
d’ingénierie pédagogique (Paquette 2002) (Burgos el
al. 2005) (Wiley et Gurell 2009). D’autres travaux se
sont penchés sur l’accès et la navigation dans les
ressources (Nash 2005) (Wolpers et al. 2008).
Cependant peu s'intéressent à la relation entre ces
activités d'édition et de navigation qui ont des objectifs
différents, faisant intervenir concepteurs et apprenants.
Points de cadrage et contraintes
Dans le cadre d’un projet connexe visant l’élaboration
d’un document numérique pour l’apprentissage du
langage Python en autonomie (Ortiz 2012), nous
disposons d’un grand nombre (plusieurs centaines a
priori) d’unités d’apprentissage (non encore stabilisées
en terme de contenu). L’ensemble de ces unités peut se
formaliser sous la forme d’un graphe, où chaque nœud
est une unité et chaque arc est une dépendance,
notamment de type pré-requis. Ce graphe est le système
nerveux de la ressource. Il éclaire les concepteurs sur la
cohérence et la couverture de la ressource. Il sert aussi
de carte aux apprenants pour les guider à travers la
75
Mahdi Mile
ressource vers leurs objectifs. Bien qu'il existe d'autres
approches pour modéliser les relations entre les unités
(approche par compétences, connaissances sous forme
d'ontologies), nous nous limitons à la relation de type
pré-requis dans la représentation destinée à l’apprenant
(parfois débutant) pour lui en simplifier la lecture.
Comment peut-on améliorer la visualisation générale et
aider à mieux naviguer dans ces ressources ? Nos
contraintes de départ font que nous ne pouvons agir ni
sur la structure du graphe, ni sur les types de
dépendances entre ces unités. Nous souhaitons
cependant offrir un système qui permet l’évolution d’un
ensemble vivant de ressources prenant en compte
l’expérience de l’apprenant.
Pourquoi lier édition et navigation ?
Il peut paraître peu conventionnel de vouloir créer une
relation entre ces activités à priori séparées qui font
appel à des acteurs poursuivant des buts différents.
Dans la construction du graphe, le concepteur offre sa
vision pédagogique d’expert. Par leurs parcours réels,
leurs succès et leurs échecs, leurs retours en arrière,
leurs nouveaux choix, etc., les apprenants nous livrent
leur point de vue non expert. Nous pensons que les
choix de l’un et les traces des autres devraient
dialoguer pour permettre une évolution (contrôlée) de
la structure du graphe des ressources. Ce dernier devra
malgré tout assurer une certaine stabilité pour ne pas
perturber l'apprenant si les changements s’opéraient
trop fréquemment et à son insu.
Comment lier ces activités ?
Nous suggérons de tracer les actions des apprenants qui
concernent notamment les consultations et validations
des unités pour repérer les séquences d'unités
constituant des parcours. Ainsi, les tendances dégagées
permettraient d’informer statistiquement les tuteurs ou
les concepteurs sur les différents parcours. On pourrait
alors utiliser cette information dans l’édition/mise à
jour d’une unité ou d’un parcours. Nous envisageons
aussi d’offrir à l’apprenant, par le biais d’annotations,
le moyen de commenter ou évaluer des unités ou des
parcours proposés par les concepteurs. Ces
informations (traces de navigation et annotations)
peuvent servir à l’amélioration du graphe général afin
d'avoir une mise à jour semi-automatique (soit par le
système soit par la communauté). Nous décrirons ces
idées plus en détail dans la section modélisation
générale de notre proposition.
Regard sur l’existant
Il s'agira dans cette section de se positionner par
rapport aux environnements d'accès aux ressources
dont certains permettent l'édition selon un cycle de vie
spécifique. Nous nous intéresserons aussi aux
mécanismes d'accès et de navigation et notamment à
leurs interfaces de visualisation. Enfin, nous
expliciterons la nécessité des traces dans la relation
entre navigation et édition.
Environnements d’accès aux ressources
La plupart des environnements liés à l’utilisation des
objets d'apprentissage1 et à leur co-édition
(Connexions, web) permettent de partager les
ressources et de suivre leur évolution selon un cycle de
vie caractéristique. Ces environnements peuvent
prendre la forme de plateformes dédiées à un domaine
spécifique comme l’apprentissage du langage Python
(PythonLearn, web), ou de plateformes d’apprentissage
en ligne LMS2 de type Moodle, Blackboard, Claroline
ou même encore de dépôts de ressources tels que
ARIADNE (Klerxk et al. 2010), MERLOT et
LORNET. Ces types d'environnements regroupent bien
souvent des ressources hétérogènes, isolées et rarement
disposées d'une manière faisant ressortir une
cartographie complète de leurs dépendances. Les sites
dédiés à une thématique spécifique, s'ils apportent
parfois un contenu exhaustif du domaine, ils ne
s'inscrivent pas dans des objectifs d'aiguillage de
l'apprenant et de retour sur la navigation.
Notre proposition vise à soutenir l’enseignement et
l’apprentissage d’un thème complexe faisant appel à de
nombreuses ressources interdépendantes. Nous
prévoyons une première implémentation dans le cas
d'un environnement dédié à l'apprentissage de la
programmation en Python.
Visualisation et navigation dans les graphes
La question de la recherche ou la sélection de
l'information devient d'autant plus importante que la
quantité d'information croît. La visualisation interactive
des graphes peut résoudre certains problèmes d'accès et
de présentation surtout si le graphe devient de plus en
plus volumineux. Elle permet également de mieux
identifier les dépendances entre les nœuds. Différentes
techniques de visualisation et mécanismes de
navigation et d’interaction sous-jacents existent
(Hermann et al. 2000). Si la navigation dans les
graphes permet de visualiser l’ensemble du graphe
structurel, elle doit permettre en particulier de faire des
opérations d’agrandissement/réduction, de déplacement
panoramique et de focalisation sur une zone de
prédilection consistant à mettre l’accent sur une région
ou un sous-ensemble de nœuds.
Pour ce qui est des différentes mises en formes (graph
layout), on peut retenir celles qui se basent sur :
- les lois des forces (Force Directed) : tous les
nœuds sont en interaction selon la loi physique
des forces. La visualisation peut être statique
ou animée, le mouvement permettant de mieux
appréhender les dépendances complexes,
- les arbres hyperboliques (HyperTree),
- les graphes radiaux (Rgraph)
- ainsi que les arbres à tiroirs (Treemap).
Le champ de la visualisation de l’information a déjà été
introduit dans les EIAH, notamment sur des questions
de visualisation des relations entre les objets
d’apprentissage (Catteau et al. 2007) voire sur des
questions d’aide à l’accès et à la recherche de
ressources d'apprentissage déposées dans des réservoirs
1 Learning objects
2 Learning Management Systems
76
Amiens – 23 et 24 mai 2012
Édition et navigation dans les ressources d'apprentissage
(Klerkx et al. 2004). Certains travaux soulignent les
limites de l'accès et la recherche des ressources par des
formulaires (Klerxk et al. 2005) et proposent des
stratégies basées sur une visualisation et une navigation
interactive. Pour notre part, nous comptons utiliser les
types de visualisation ForceDirected, HyperTree et
RGraph. Nous estimons que ce genre de visualisation
interactive peut aider l'utilisateur à choisir la ressource
et à mieux naviguer dans un graphe de ressources sans
forcément avoir besoin de connaître leur intitulé pour
les exploiter.
Traçage des activités d'apprentissage
Une trace est une collection d'observés temporellement
situés (Djouad et al. 2010). Dans la littérature des
EIAH, le recours aux mécanismes de traces a pour
finalité la régulation ou l'auto-régulation de
l'apprentissage (Heraud et al. 2005), la modélisation et
le profilage de l'apprenant, la personnalisation et
l'adaptation de l'apprentissage (Brusilovsky 1999) ou
encore la réingénierie des EIAH (Choquet et Iksal
2007). Nous souhaitons exploiter les traces issues des
activités de navigation et d'utilisation pour des besoins
d'édition pour assurer, in fine, une meilleure évolutivité
à la ressource dans son ensemble.
Modélisation générale
Notre orientation générale (Fig. 1) montre une mise en
relation entre les activités de conception (et d'édition)
des ressources qui sont généralement gérées par les
enseignants et les activités d'utilisation et de navigation
qui sont accomplies par les apprenants. Les activités de
conception et d'édition sont fortement collaboratives
car nous considérons dans notre hypothèse que les
ressources de haut niveau (cours, manuels de
références) que nous appelons également ressources
complexes (Miled 2011) nécessitent plus d’un
rédacteur pour en assurer l'adaptation et la
contextualisation.
données liées aux interactions entre les différents
acteurs (commentaires, annotations…).
Dans notre vision du cycle de la conception et de
l'édition d'une unité jusqu'à son intégration dans un
parcours, nous pouvons noter que cela implique
quasiment tous les acteurs. Le concepteur écrit un
patron d'unité qui sera suivi pour une majorité d'unités.
Selon le besoin, une unité sera composée de microressources (exercice d'application, présentation d'un
concept, tests). Une fois produite, l'unité pré-utilisable
sera indexée, validée et publiée pour être accessible par
les apprenants que ce soit dans un accès indépendant
(unité seule) ou bien une unité intégrée dans un
parcours correspondant à un objectif d'apprentissage. Si
un contributeur (co-concepteur) veut apporter des
modifications sur une unité, il peut générer une copie
de la structure et ainsi l'adapter selon ses orientations.
La gestion des droits se fait selon le modèle proposé
par (connexions, web) qui stipule que le propriétaire
original devient automatiquement co-auteur. On notera
également, qu'il est possible d'avoir des responsables
d'unités et de parcours pour mieux aider à mettre à jour
et suivre les évolutions. En ce qui concerne la
validation pédagogique d'une unité, nous nous sommes
inspirés des états fournis par ADL SCORM (SCORM,
web). Sur la figure 2, les rectangles désignent les
différents états (de parcours) d'une unité. Les formes
arrondies correspondent aux actions de l'apprenant.
Celui-ci peut à tout moment s'évaluer (en effectuant le
test) sans forcément parcourir le contenu d'une unité. Si
le test est réussi, alors l'unité est réussie, sinon il est
invité à obligatoirement parcourir l'unité avant de
refaire le test pour la valider. Les actions suivantes sont
optionnelles et consistent à soumettre du code3 (si
l'unité l'indique) et consulter les composants de l’unité
pour la parcourir en totalité.
Figure 1 : Relation entre activité d’édition et de
navigation
Ils sont éventuellement encouragés par des moyens
incitant au partage et à la modification. La ressource
éditée peut guider les apprenants dans leur utilisation.
Les tendances dégagées par rapport aux objectifs de
validation et de respect de parcours, seront remontées
aux concepteurs, créant ainsi une dynamique itérative
permettant une évolution prenant en compte des
données objectives (traces de navigation) et des
4ièmes Rencontres Jeunes Chercheurs en EIAH
Figure 2 : États d’une unité et sa validation
3 Pour être spécifique à l'apprentissage de la programmation, nous
prévoyons d'ajouter un état supplémentaire (code submitted).
77
Mahdi Mile
Les principaux éléments du modèle ayant été décrits
dans cette partie, nous présentons dans la suivante,
l’approche méthodologique suivie.
Approche et méthodologie
Dans le but de mettre en œuvre nos éléments de
réflexion, nous avons recensé et testé divers outils
libres de représentation interactive des graphes. Ces
tests nous ont permis de vérifier l’adéquation de ces
outils aux types de graphes qui nous concernent. À
partir du choix d'outil qui s'est dégagé, nous avons
commencé à implémenter un prototype.
Choix d'un outil de visualisation interactive de
graphes
L'identification des outils de visualisation des graphes
nous a permis de cibler les outils proposant des
bibliothèques libres. Nous avons finalement opté pour
JIT4. Ce choix est dû aux riches types de visualisations
et performances vu qu'il s'appuie sur une technologie
cliente (Javascript). Il utilise comme entrée un format
JSON5 pour la représentation des données.
Intégration d'un outil et début de prototypage
Tout en commençant à développer un prototype, nous
avons intégré des visualisations du graphe des
ressources et quelques sous-graphes représentant
d'éventuels parcours. Les figures 3, 4 et 5 illustrent les
rendus issus de ForceDirected, HyperTree et RGraph.
Traces liées à l'édition et à la navigation
Le prototype que nous sommes en train de développer
sous Zend framework 1.11.3 propose (Fig. 6) de tracer
les activités relatives à la navigation dans les ressources
et d'autres spécifiques à leur édition. Ces traces sont
sauvegardées dans des tables MySQL. En terme de
navigation, le mécanisme de génération récolte
l'ensemble des unités visitées qui représente le(s)
chemin(s) parcouru(s) (parcours effectifs) par
l'apprenant. L'interface JIT qui est couplée avec le
framework Zend doit permettre aussi de renseigner
d'une manière fine sur les états de validation d'une unité
(cf Fig. 2). Cette fonction est en cours d'intégration. La
mémorisation des activités d'édition permet de lister les
évaluations des unités ou des parcours (suite d'unités),
de modifier les métadonnées relatives à une unité
donnée. La génération d'une copie/structure d'un graphe
conformément à notre approche ainsi que l'exportation
vers une archive SCORM doivent être incluses. Tous
ces éléments paraissent nécessaires pour pouvoir gérer
l’évolution de la structure globale du graphe. Ainsi,
nous pouvons penser qu'une évaluation d'une unité aura
un impact sur l'évolution globale du graphe. Par
exemple, si N évaluations globales (comprenant
plusieurs critères) font ressortir que l'unité U et que le
parcours P doivent être modifiés et mis à jour, selon le
degré d'imminence de la mise à jour, cette modification
peut être faite soit par les contributeurs si cela concerne
le contenu de l'unité, soit automatiquement s'il s'agit de
réordonner un parcours.
Figure 3 : Visualisation issue de ForceDirected
Figure 4 : Visualisation issue de HyperTree
Figure 6 : Processus de génération des traces
d'édition et de navigation
Eléments d'évaluation
Nous souhaitons vérifier à présent la validité de
certaines fonctionnalités et déterminer quel type de
visualisation est le plus adapté à nos besoins.
Figure 5 : Visualisation issue de RGraph
Eléments d'évaluation analytique
4 Javascript Infovis Toolkit
5 JavaScript Object Notation
78
Afin de mesurer quelques indications sur l'utilisabilité,
nous utilisons quelques principes basés sur une
démarche analytique (Nogry et al. 2004) en nous
appuyant sur des check-lists pour vérifier la conformité
Amiens – 23 et 24 mai 2012
Édition et navigation dans les ressources d'apprentissage
Comparatif des temps d'exécution
Pour comparer les performances des différents outils de
visualisation, nous avons suivi les étapes suivantes :
- la construction aléatoire de graphes G (n, p) à
l'aide de Gephi (Gephi, web) avec n le nombre
de sommets et p la probabilité de connexion,
- la production de fichiers de données contenant
des listes d'adjacence,
- la transformation des listes d'adjacence au
format JSON,
- et l'exécution du type d'algorithme et de
visualisation selon les données récupérées
précédemment.
Le protocole a consisté à générer dix graphes aléatoires
et à comparer les exécutions pour les trois algorithmes
choisis : HyperTree (Fig. 4), ForceDirected (Fig. 3) et
RGraph (Fig. 5) avec :
n =10 et p=0,5;
n = {50,100} et p =0,05;
n = {224, 500, 1000} et p = 0,01;
n = {2000, 3000, 4000, 5000} et p = 0,001.
Nous avons mesuré les performances d'exécution de
trois types de visualisation de la bibliothèque JIT
(HyperTree, ForceDirected et RGraph) avec les
caractéristiques suivantes : Windows XP SP3, 1Go
RAM, 1,66 Ghz, et le navigateur Google Chrome. Cela
s'est fait à l'aide de sondes et de transcription des
données temporelles : les parties du code à tester ont
été encadrées par des lectures de l’horloge (temps de
début et temps de fin) pour déduire la durée totale en
millisecondes et identifier le comportement de chacun
des algorithmes en fonction de la taille des graphes.
Nous avons eu recours (pour une majorité des cas) à
une dizaine d'exécutions pour la même instance de test
pour pouvoir calculer une moyenne de temps
d'exécution. Néanmoins ces valeurs restent indicatives
et il se peut qu'il y ait des valeurs différentes selon la
charge du processeur et sa vitesse, le navigateur et la
quantité de mémoire disponible. Les résultats
comparatifs obtenus (Fig. 7) donnent une estimation de
la complexité moyenne opérationnelle et permettent
surtout de discerner le comportement de chacun des
algorithmes pour de plus grands graphes. Ceci nous a
montré que les algorithmes RGraph et HyperTree
supportent mieux le passage à l'échelle, tandis que le
temps d’exécution de l'algorithme ForceDirected croît
4ièmes Rencontres Jeunes Chercheurs en EIAH
plus rapidement pour des valeurs élevées (presque 14
minutes pour n=3000, p=0,001). Cela peut facilement
s'expliquer par une complexité accrue avec la
simulation des lois des forces. Pour cet algorithme,
nous n'avons pas pu relever les temps pour n=4000 et
n=5000 (temps d’exécution supérieur à 30 minutes).
RGraph semble à peine plus performant que
HyperTree. En revanche ForceDirected ne peut être
adapté qu'aux petits graphes (n<100). Nous avons
utilisé une échelle logarithmique pour les temps
d'exécution pour atténuer la distance entre les temps de
ForceDirected et HyperTree/RGraph. Nous pensons
que pour pouvoir visualiser l'ensemble des unités sous
la forme d'un graphe, nous opterons plutôt pour le type
HyperTree ou RGraph vu que les valeurs de temps
restent acceptables même pour n=5000. Nous
privilégierons tout de même ForceDirected pour des
sous-graphes que nous appelons parcours (ce type de
graphe ne dépasse pas les 100 nœuds). Son intérêt
réside essentiellement dans la malléabilité de la
navigation où l'utilisateur peut déplacer les nœuds et
ainsi modeler et personnaliser la vue qui s'adapte le
mieux à ses préférences.
Temps d'exécution selon le type de visualisation
(Probabilité de connexion p=0,001)
1000
Tem ps en secondes
de ce qui est développé et en spécifiant des cas
d’utilisation. Le système permet un accès à différents
utilisateurs et une interface et des privilèges adaptés à
chacun des profils d'utilisation (concepteur, tuteur,
étudiant). Selon ses privilèges, chacun peut éditer les
métadonnées d'une unité et évaluer certaines
ressources. La navigation dans le macro-graphe se fait
selon la visualisation HyperTree. Pour ce qui est des
cas d’utilisation, nous pouvons imaginer un étudiant
souhaitant parcourir certaines unités. Il emprunte pour
cela une navigation "libre" en visitant des unités selon
son choix. Les événements seront tracés en termes de
chemins parcourus. Un autre cas d’utilisation serait de
suivre un parcours proposé par un enseignant, et
regarder si l'étudiant l'a bien suivi ou s'il a eu recours à
d'autres unités.
100
HyperTree
ForceDirected
Rgraph
10
1
2000
3000
4000
5000
Nombre de noeuds du graphe
Figure 7 : Temps d'exécution selon le type de visualisation
Conclusion
Nous avons présenté une approche permettant d'établir
des liaisons entre les activités de conception ou
d'édition des ressources d'apprentissage et les activités
de navigation. Cela s'inscrit d'une part dans l'aide à la
navigation
dans
un
graphe
de
ressources
interdépendantes notamment à travers la bibliothèque
JIT qui propose une navigation dynamique, et de l'autre
dans l'aide à la conception et l'édition de ces ressources.
Ces activités qui concernent des acteurs différents
(concepteurs, tuteurs et apprenants) peuvent être liées
pour permettre une évolution du graphe des unités
comme ressource globale d’apprentissage. Le prototype
qui est en cours de développement mettra en œuvre la
validation des unités par les apprenants et le mécanisme
de traçage des activités. Nous envisageons d'impliquer
les concepteurs et les étudiants dans une démarche
participative. Cette démarche participative permet de
confronter le prototype avec les usagers finaux. Nous
tiendrons compte du retour d'usage sans pour autant
nous attarder sur les aspects plus fins d’IHM et
d’ergonomie.
79
Mahdi Mile
Références
Livres
Paquette, G. (2002). L'ingénierie du téléapprentissage, pour construire l'apprentissage en
réseaux, Presses de l'Université du Québec, mai 2002,
490 pages.
Articles de Revue
Brusilovsky, P. (1999). Adaptive and Intelligent
Technologies for Web-based Education. In C.
Rollinger and C. Peylo (eds.), Special Issue on
Intelligent Systems and Teleteaching, Künstliche
Intelligenz, 4, 19-25.
Burgos, D., Arnaud, M., Neuhausser, P., & Koper, R.
(2005). IMS Learning Design : la flexibilité
pédagogique au service des besoins de l’e-formation.
Revue de l’EPI.
Choquet, C., et Iksal, S. (2007). Modeling tracks for
the model driven reengineering of a tel system. Journal
of Interactive Learning Research, vol. 18, p. 161-184.
Djouad, T., Settouti, L. S., Prié, Y., Reffay, C., Mille.
A. (2010). Un Système à Base de Traces pour la
modélisation et l’élaboration d’indicateurs d’activités
éducatives individuelles et collectives. Mise à l’épreuve
sur Moodle. In TSI. 29(6). pp. 721-741.
Nash, S. S. (2005). Learning objects, learning object
repositories, and learning theory: Preliminary best
practices for online courses. Interdisciplinary Journal of
Knowledge and Learning Objects, 1, 217–228.
Pernin, J.-P. (2003). Objets pédagogiques : unités
d’apprentissage, activités ou ressources ?, Revue
Sciences et Techniques Educatives, Hors série
Ressources numériques, XML et éducation, pp 179210, avril, éditions Hermès.
Wiley, D., & Gurrell, S. (2009). A decade of
development… Open Learning: The Journal of Open
and Distance Learning, 24(1), 11-21.
Actes de Conférences
Catteau, O., Vidal, P. & Broisin, J. (2007). A 3D
Representation of Relationships between Learning
Objects. In C. Montgomerie & J. Seale (Eds.),
Proceedings of World Conference on Educational
Multimedia, Hypermedia and Telecommunications
2007 (pp. 4262-4271). Chesapeake, VA: AACE.
80
Heraud J.-M., Marty J.-C., France L., Carron T. (2005).
Helping the Interpretation of Web Logs : Application
to Learning Scenario Improvement. Workshop
AIED’05, Amsterdam.
Herman, I., Melancon, G., & Marshall, M. S. (2000).
Graph visualization and navigation in information
visualization: A survey. IEEE Transaction on
visualization and computer graphics, 6(1), 24–43.
Klerkx, J., Duval, E., & Meire, M. (2004). Using
information visualization for accessing learning object
repositories. Eighth International Conference on
Information Visualisation. April 2004. (p. 465–470).
Klerkx, J., Meire, M., Ternier, S., Verbert, K., &
Duval, E. (2005). Information visualisation: towards an
extensible framework for accessing learning object
repositories. Proceedings of World Conference on
Educational
Multimedia,
Hypermedia
&
Telecommunications (p. 4281–4287).
Miled, M. (2011). Les ressources complexes pour
l’apprentissage: comment exploiter les traces
d’utilisation et soutenir l’édition collaborative? Poster à
la Conférence EIAH 2011, Mons, Belgique.
Nogry, S., Jean-Daubias, S. & Ollagnier-Beldame, M.
(2004). Évaluation des EIAH: une nécessaire diversité
des méthodes. Proceedings of TICE (p. 265–271).
Ortiz, P. (2012). Hypermédia adaptatif à épistèmes
pour l'apprentissage des langages de programmation.
Poster à RJC EIAH 2012, Amiens.
Wolpers M., Memmel, M., Klerkx, J., Parra, G.,
Vandeputte, B., Duval, E., Schirru, R., and Niemann,
K. (2008). Bridging Repositories to form the MACE
Experience, New Review of Information Networking,
14:102–116, Taylor & Francis Group, LLC.
Références sur le web
Connexions - Sharing Knowledge and Building
Communities http://cnx.org/
Gephi - Gephi, an open source graph visualization and
manipulation software http://gephi.org/
PythonLearn
Self-paced
http://www.py4inf.com
learning
Python
SCORM - Advanced Distributed Learning Initiative
http://www.adlnet.org
Amiens – 23 et 24 mai 2012
Intégration de raisonnements automatiques
dans le système d’annotation MémoNote
Hakim MOKEDDEM
Ecole National Supérieure d’Informatique ESI
BP 68 M Oued -Smar 16270, Alger, Algérie
[email protected]
Résumé
Les raisonnements automatiques dans les
EIAH se font à l’aide des programmes ad hoc,
ces programmes sont parfois complexes à écrire
et ne garantissent pas toujours la correction des
résultats et la décidabilité. Nous proposons dans
cet article des cas d’utilisations basés sur les
raisonnements automatiques dans le logiciel
d’annotation MémoNote en utilisant les
standards du web sémantique. L’utilisation des
raisonneurs standards permet d’éviter d’écrire
des programmes ad hoc pour répondre aux cas
d’utilisations. L’intégration de ces standards est
évaluée selon l’interopérabilité avec d’autres
systèmes, la complétude, la correction et la
complexité ainsi que les fonctionnalités limitées
du système. Des problèmes restent à étudier
comme la complexité du système et son
utilisation avec un grand nombre d’utilisateurs.
MOTS CLÉS.
Annotation sémantique,
raisonnements automatique, web sémantique.
Introduction
L’annotation est l’une des activités les plus
pratiquées parmi les enseignants sur les
documents papier. Elle lui sert de mémoire
externe qui soulage sa propre mémoire (Sperber
2001). Elle conserve ses opinions attachées au
document sans utiliser de structure formelle.
Avec la grande disponibilité des supports
pédagogiques électroniques sur le web,
l’annotation électronique devient nécessaire
comme sur le papier. Pour pouvoir être traitée
par des programmes informatiques, elle doit
reposer sur une structure formelle tout en
conservant la facilité d’annotation du papier.
Plusieurs outils d’annotations existent dans la
littérature. Certains visent uniquement à aider
l’annotateur à utiliser une forme graphique pour
ajouter des explications sur le document, comme
Microsoft Word et iMarkup (iMarkup-SolutionsInc 2004). D’autres permettent l’interprétation de
la sémantique des annotations par le logiciel
4ièmes Rencontres Jeunes Chercheurs en EIAH
comme Annotea (KAHAN et al. 2001). Enfin
des outils comme Melita (Ciravegna et al. 2002)
automatisent le processus
d’annotation par
apprentissage automatique d’après les actions de
l’utilisateur.
Tous ces outils sont génériques et ne
permettent pas de supporter les activités
spécifiques d’annotation de l’enseignant d’où la
nécessité de concevoir un outil d’annotation
dédié à l’enseignant. C’est la raison du
développement de MémoNote (Azouaou et
Desmoulins 2006). Par l’usage de patrons
d’annotation, il facilite la création efficace
d’annotations dans un contexte pédagogique
donné tout en mémorisant une sémantique
accessible aux programmes informatiques. Il
permet ainsi la recherche avec une sémantique
pédagogique et la notification automatique des
annotations de rappels en fonction du contexte.
Cependant, la version actuelle de MémoNote
est contrainte par des limites liées aux
technologies non standards sur lesquelles il
repose. En effet, MémoNote utilise la version de
Protégé 3.x du langage Frame (Kifer et Lausen
1995) pour représenter les ontologies, ce qui
limite l’interopérabilité avec d’autres systèmes.
Ce langage ne garantit pas la correction des
réponses aux requêtes faites sur l’ontologie, ni
leur complexité, ce qui entraine des
performances variables. La complétude des
réponses n’est pas non plus assurée avec ce
langage. A tous ces problèmes s’ajoute le
problème des fonctionnalités limitées de la
version actuelle de MémoNote.
L’objectif de cet article est d’étudier
l’intégration des technologies standards du web
sémantique (Berners-Lee 1998) comme OWL
(McGuinness et van Harmelen 2004)
pour
modéliser l’ontologie annotation afin de l’utiliser
avec des systèmes de raisonnements standards et
ainsi d’obtenir l’interopérabilité de MémoNote,
la complétude et la correction des réponses ainsi
que des bonnes performances du système.
Pour atteindre ces objectifs, nous étudions en
détail les limites de MémoNote et des autres
systèmes
pédagogiques
utilisant
des
81
Hakim Mokeddem
raisonnements automatiques. Nous décrivons
ensuite les besoins fonctionnels de l’enseignant
en termes de cas d’utilisations qui montrent la
nécessité de raisonnements automatiques. Pour
implanter les requêtes correspondant à ces
besoins, nous développons l’utilisation de
requêtes basées sur des langages standards. Enfin
nous évaluons cette utilisation de standards de
représentation et de raisonnement automatique.
1. Limite des systèmes pédagogiques
basés sur des raisonnements sur les
ontologies.
MémoNote mémorise les annotations à partir
d’une ontologie des annotations. Cette ontologie
permet de représenter les éléments de
l’annotation
de
l’enseignant
suivants :
- Le contexte de l’annotation est représenté par
les données de la séance d’annotation, qui est
décrite par son enseignant, son lieu, ses dates de
début/fin,
son
domaine
et
niveau
d’apprentissage,
son
type
d’activité
d’enseignement et d’apprentissage.
- L’épisode d’annotation comprend l’ancre
d’annotation dans le document et sa date.
- La forme graphique comprend la forme
graphique et la couleur de l’annotation.
- L’objectif de l’annotation est décrit par son
type, sa force et des éléments liés à son type.
Pour automatiser l’annotation, MémoNote
utilise des patrons d’annotation qui permettent de
déduire la sémantique de l’annotation à partir de
son contexte et de sa forme graphique. Les
patrons sont eux aussi représentés par une
ontologie qui se réfère aux éléments de
l’ontologie d’annotation.
Le langage de Frame de la version actuelle de
MémoNote permet de représenter les éléments de
ces ontologies sous forme de classes et propriétés
(slots) qui décrivent les classes et les relations
entre ces classes. Cependant aucun raisonneur
standard n’est fourni avec ce langage, ce qui
nécessite le développement de programmes de
raisonnement ad hoc. Aucun résultat théorique
n’existe sur ce type de langage, ne permettant
pas de garantir la correction, la complétude voire
même les performances de ces programmes
complexes à développer.
Dans le domaine des EIAH, d’autres
recherches
utilisent
les
raisonnements
automatiques sur les ontologies.
(Henze et al. 2004) utilisent des raisonnements
dans un système hypermédia adaptatif
d’apprentissage en ligne. Le système utilise des
ontologies RDF (Lassila et Swick 1999) pour
modéliser les ressources pédagogiques, les
utilisateurs et les observations faites sur les
82
supports pédagogiques. Pour raisonner, le
système utilise le langage de règle TRIPLE
RULE LANGUAGE (Decker et al. 2005).
L’inconvénient de ce langage est l’écriture
manuelle de toutes les règles pour assurer
l’inférence. L’autre inconvénient est la difficulté
d’exprimer des règles complexes avec ce
langage. Par exemple, pour adapter le contenu à
l’apprenant, le système doit afficher tous les bons
exemples des concepts d’un cours, la règle
consiste à rechercher tous exemples qui sont en
relation avec tous les concepts du cours.
Les recherches de (Huang et al 2006) ont
abouti à l’implémentation d’un système de
recherche sémantique des contenus pédagogiques
d’un système d’apprentissage en ligne à partir du
contexte. Le contexte est modélisé avec le
langage RDF sous forme de triplet (sujet,
prédicat, objet). L’utilisateur effectue ainsi la
recherche à partir du contexte en spécifiant les
paires (prédicat, objet) et le système extrait
ensuite le contenu approprié. Par exemple pour
rechercher un contenu à partir du contexte,
l’utilisateur choisit comme objet différents
contextes (université, forum, …), et le système
lui affiche le contenu qui correspond exactement
à ce contexte. L’inconvénient de ce système est
la simplicité des requêtes faites et aucun
raisonnement automatique n’est effectué.
A partir de ces études, nous constatons que
l’utilisation des raisonnements avec les
technologies du web sémantiques dans les outils
d’apprentissage est limitée. Et pourtant, comme
nous montrons dans la section suivante, les
raisonnements automatiques sur l’annotation et
son contexte sont nécessaires pour fournir des
services profitant pleinement de la sémantique
formelle des annotations. Notre objectif est donc
et d’étudier les capacités de raisonnements avec
les
technologies
standards
sur
l’outil
d’annotation MémoNote et la résolution des
problèmes rencontrés en implémentant ces types
d’inférences.
Enfin nous évaluons cette utilisation de
standards de représentation et de raisonnement
automatique et le comparons aux travaux
similaires.
2. Les besoins en raisonnement
Pour définir les besoins en raisonnement, nous
présentons maintenant des cas d’utilisations
améliorant les fonctionnalités de MémoNote.
Recherche d’annotations à partir d’un
contexte.
Cette recherche permet à l’enseignant de
retrouver les annotations produites dans un
Amiens – 23 et 24 mai 2012
Raisonnements dans MémoNote
contexte sémantiquement équivalent à un
contexte donné. Par exemple l’enseignant
recherche les annotations telles que leur auteur
est dans la classe des enseignants affectés au
cours CH213 et tels que le lieu de leur séance
d'annotation est à Grenoble campus. Le but de
cette recherche est de retrouver les annotations
produites dans tous les lieux inclus dans
Grenoble campus.
Recherche d’annotations à partir d’un
objectif.
Pour
chaque
annotation,
l’enseignant
renseigne le but pour lequel l’annotation est
créée. Il peut ensuite retrouver les annotations
qui ont un objectif similaire à objectif donné. Par
exemple, il peut rechercher les annotations du
groupe d’enseignants affectés au TP CH113
telles que l’intention de l’annotation est la
vérification d’un calcul chimique.
Suggestions de patron d’annotation
L’utilisation des patrons d’annotation est
importante pour l’enseignant. Ça lui permet
d’automatiser le processus d’annotation. Avec la
suggestion automatique de patron le système
active automatiquement le patron à utiliser selon
la forme graphique choisie et le contexte
d’annotation. L’enseignant ne renseigne donc pas
à chaque fois l’objectif de l’annotation, c’est le
rôle du patron.
Dans la partie suivante nous décrivons les
raisonnements automatiques nécessaires à ces
cas d’utilisations.
3. Raisonnements automatiques
Nous commençons par présenter la
représentation des annotations sur laquelle les
raisonnements automatiques reposent.
L’annotation est représentée par la classe
Annotation et des sous-classes pour chacun des
types
d’objectifs (domaine, document et
pédagogique). Elle est reliée à la classe Session
(représentant le contexte de l’annotation) via la
propriété made_during et à la classe
Visual_Shape qui représente la forme graphique
par la propriété has_visual_shape.
Différentes classes représentent les éléments
du contexte : le lieu de l’annotation (classe
Location) relié au contexte par la propriété
made_at_location. Chaque lieu peut être inclus
dans un autre par la relation is_part_of.
Les patrons d’annotations sont représentés par
la classe AnnotationPattern. La classe
AnnotationPattern est reliée aux classes
Visual_Shape et Objective, ainsi qu’à toutes les
classes qui représentent le contexte.
Avec les langages de requête du web
sémantique, on ne peut pas extraire toutes les
4ièmes Rencontres Jeunes Chercheurs en EIAH
instances d’annotations pour chaque cas décrit.
Par exemple, pour répondre à la première
requête, si on utilise SPARQL (Prud’hommeaux
et Seaborne 2008) le système extrait les
annotations
qui
ont
une
relation
made_at_location exactement égale à « Grenoble
Campus » et non tous les lieux qui font partie du
campus de Grenoble (par la relation is_part_of).
L’utilisation d’un raisonneur pour faire
l’inférence devient alors une nécessité. Le
raisonneur permet ainsi d’extraire de nouvelles
relations entre les classes, et de déduire de
nouveaux types d’instances à partir de tout ce
qu’on définit initialement dans l’ontologie.
Nous détaillons maintenant les trois cas
d’utilisations décrit précédemment d’un point de
vu raisonnement automatique avec l’ontologie
annotation écrite en OWL
Recherche d’annotations à partir d’un
contexte.
Pour extraire toutes les annotations du cours
CH213 qui ont eu lieu à Grenoble Campus, il
faut utiliser la composition de la propriété
made_at_location qui relie la classe Session à la
classe Location et la propriété is_part_of qui
relie la classe Location à elle-même.
Session made_at_location Location et
Location is_part_of Grenoble_campus->session
made_at_location Grenoble campus.
On extrait ensuite toutes les annotations de la
session
« Session »
avec
la
propriété
made_during.
Avec OWL 1 on ne peut pas raisonner avec la
composition de propriété chainée (Property
chain). Il aurait fallu utiliser des règles, comme
celles de SWRL (Horrocks et al. 2004). Avec
SWRL on rajoute une règle à OWL et on utilise
le raisonneur standard Pellet (Sirin et al.2003)
qui utilise cette règle pour faire l’inférence. On
implémente la règle SWRL à l’aide de l’éditeur
Protégé (Noy et al. 2000). Protégé valide la règle
et l’intègre dans le fichier OWL de l’ontologie.
Pour extraire ensuite toutes les annotations de
la session « Session » avec la propriété
made_during on utilise le langage SPARQL.
Recherche d’annotations à partir d’un
objectif.
Pour extraire les annotations qui ont pour
objectif domaine « Vérification d’un calcul
chimique » on utilise le raisonneur standard
Pellet, pour extraire les annotations qui ont
comme value de la propriété has_objectif une
sous classe de la classe « Domain objectif».
SPARQL ensuite vérifie si l’instance de chaque
classe est exactement égale à « vérification d’un
calcul chimique ».
Suggestion de patrons d’annotations
83
Hakim Mokeddem
Pour suggérer des patrons d’annotations, le
raisonneur effectue une comparaison sémantique
de type classe / sous-classes entre les différentes
classes concernées (classe du contexte et de la
forme graphique). Il commence par le contexte,
il extrait tous les patrons ayant un contexte
équivalent au contexte de la session courante. Il
raisonne ensuite sur la forme graphique en
inférant les classes ayant une forme graphique
équivalente à la forme graphique de l’annotation.
Pour répondre à cette requête, on utilise Pellet
et SPARQL pour extraire les patrons qui
correspondent au contexte de la session et à la
forme graphique de l’annotation.
4. Evaluation
Dans cette partie nous évaluons les solutions
proposées dans cet article par rapport aux points
soulevés
dans
l’introduction
à
savoir
l’interopérabilité, la correction, la complétude et
complexité et les fonctionnalités limitées et nous
les comparons avec d’autres systèmes
d’annotation et d’outil EIAH.
Certains outils
utilisent des langages
standards
comme
l’environnement
d’apprentissage TM4L (Dicheva et Dichev 2006)
basé sur les Topic Maps (Biezunski et al. 1999).
Elles permettent de représenter une ontologie
sous forme de sujets du domaine (Topics) et des
occurrences (instances des Topics). Cette
représentation est basée sur la norme XTM
(XML Topic Maps). Ce standard est rarement
utilisé parmi les systèmes actuels à cause de ses
limites en termes d’utilisations de raisonneurs
standards fournis par rapport aux standards du
W3C comme OWL. Notre système assure donc
l’interopérabilité avec l’utilisation des langages
du W3C et qui sont recommandés.
Avec l’utilisation des raisonneurs standards
sur OWL DL on s’assure que toutes les réponses
des requêtes de l’utilisateur sont correctes. Les
raisonneurs OWL vérifie ainsi la consistance de
l’ontologie grâce aux contraintes définies.
Quant à la complétude du système, avec OWL
DL on peut exprimer tout le domaine de
connaissances, répondre à toutes les requêtes de
l’utilisateur grâce aux raisonneurs fournis.
La question qui n’est pas encore résolue
concerne la complexité de notre système. C'està-dire le coût obtenu en exécutant les requêtes
par un raisonneur. En réalité, ces raisonneurs ne
fournissent pas une telle information qui sert à
étudier la performance de notre système actuel.
Les fonctionnalités rajoutées à MémoNote
augmentent l’utilisabilité de notre système. En
effet, le rajout de la recherche automatique à
partir du contexte ou l’activation automatique
84
des patrons lors de la création des annotations
facilitent la tâche de l’enseignant en recherchant
des annotations précédentes ou en annotant, mais
l’enseignant a toujours besoins d’un outil plus
puissant qui l’assiste dans ses activités
d’annotations.
Conclusion et perspectives
Pour se servir de la sémantique des
annotations de MémoNote, des raisonnements
automatiques sont nécessaires. Ces programmes
de raisonnements ne sont faciles à implémenter
si nous n’utilisons pas des standards
implémentant ces services de raisonnements.
Nous avons proposé dans cet article d'utiliser
des technologies standard plutôt que les
approches ad hoc développées. Ainsi pour
modéliser l’ontologie annotation, on a utilisé le
langage OWL qui fournit une bonne base pour
les raisonnements automatiques.
L’utilisation de OWL permet ainsi de profiter
de la disponibilité de raisonneurs standards
comme Pellet. Avec ces standards on s’assure
déjà de l’interopérabilité du système avec
l’utilisation des technologies W3C. MémoNote
s’intègre et communique facilement avec
n’importe quel raisonneur OWL et système
d’apprentissage utilisant ces standards qui
permettent ainsi de fournir à MémoNote des
requêtes sémantiques qui correspondent mieux
aux besoins.
Les raisonneurs standards sur OWL ont des
propriétés bien établies : la complétude et la
correction des raisonnements. En effet, on peut
exprimer toutes les requêtes des utilisateurs avec
un raisonneur OWL. On peut aussi prouver que
toutes les réponses sont correctes ou non, car les
raisonneurs OWL utilise le sous langage OWL
DL
basé sur la logique de description
mathématique.
Les nouveaux standards utilisés ont abouti à
l’implémentation de nouvelles fonctionnalités
pour
l’enseignant.
Ces
fonctionnalités
correspondent vraiment à des besoins pour les
enseignants qui utilisent MémoNote. La
recherche
contextuelle
sémantique
des
annotations permet à l’enseignant de retrouver
les annotations produites dans un contexte
sémantiquement équivalent au contexte de la
recherche. La suggestion des patrons permet
d’assister l’enseignant dans le processus de
création de l’annotation en renseignant l’objectif
de l’annotation d’une façon automatique.
Dans nos perspectives de recherche, la
question de complexité n’est pas bien établie.
Nos raisonnements sont basés sur des
raisonneurs qui ne fournissent pas des
Amiens – 23 et 24 mai 2012
Raisonnements dans MémoNote
informations théoriques sur la complexité de
leurs programmes. Il est nécessaire donc de
développer l’étude des performances sur nos
requêtes et nos données.
Le stockage des annotations dans des fichiers
externes cause également beaucoup de
problèmes
de performances d’accès et de
réponse. Un autre
problème est lié aux
conditions
ACID (Atomicité, Cohérence,
Isolation et Durabilité) des requêtes des
utilisateurs. L’étude de l’intégration avec des
systèmes de gestion des bases de données
relationnelles
comme
Oracle
(http://search.oracle.com ) ou Virtuoso (Erling et
Mikhailov 2007) qui intègre les technologies du
web sémantique comme RDF et OWL et qui
assure à la fois les propriétés ACID et les bonnes
performances.
Une autre perspective concerne les besoins des
enseignants. Une étude plus poussée des besoins
avec des cas bien précis doit être menée pour
déterminer si d’autres technologies comme OWL
2.0, SWRL et Pellet sont nécessaires. Et voir si
ces technologies fournissent tout pour répondre à
ces besoins, et si on a besoin de développer des
programmes propres à nous dans ces cas.
Références
Azouaou,F. ;Desmoulins, C.2006. MemoNote,
a context-aware annotation tool for teachers. In
the 7th International Conference on Information
Technology Based Higher Education and
Training (ITHET´06), pp. 621-628.
Berners-Lee T. 1998. Semantic Web
Roadmap. World Wide Web Consortium (W3C)
http://w3.org/DesignIssues/Semantic.html
Biezunski,
M.;Martin,B.;
Steven
R.
Newcomb.1999.Topic
Maps:
Information
Technology Document Description and Markup
languages,.
http://www.y12.doe.gov/sgml/sc34/document/01
29.pdf
Ciravegna, F.; Dingli, A.; Petrelli, D.; Wilks,
Y. "Timely and Non-Intrusive Active Document
Annotation via adaptive Information Extraction",
in Proceedings of the Semantic Authoring,
Annotation & Knowledge
Decker S. et al. 2005 TRIPLE - an RDF Rule
Language with Context and Use Cases. In W3C
workshop on Rule languages for interoperability,
Washington D.C., USA.
Dicheva, D. ; Dichev, C. 2006.TM4L: creating
and browsing educational Topic Maps, British
Journal of Educational Technology - BJET
37(3): 391-404
Erling ,O.; Mikhailov, I. 2007. RDF Support
in the Virtuoso DBMS, in: CSSW.
4ièmes Rencontres Jeunes Chercheurs en EIAH
Henze, N.; Dolog, P; Nejdl, W.2004.
reasoning and ontologies for personalized elearning in the Semantic Web. Educational
Technology & Society, 7, 4, 82–97.
Horrocks, I.; Patel-Schneider, P.F; Boley, H.;
Tabet, S., Grosof, B.; Dean, M. 2004 . SWRL:
A semantic web rule language combining OWL
and RuleML.
http://www.w3.org/Submission/2004/SUBMSW
RL-20040521/
Huang, W.; Webster, D.; Wood, D.; Ishaya, T.
2006b. An intelligent semantic e-learning
technologies, British Journal of Educational
Technology, Vol. 37 No. 3, pp. 351-73.
iMarkup-Solutions-Inc. iMarkup client Vista,
California, USA. Année d’accès 2012. URL du
document http://www.imarkum.com
Kahan,J.;Koivunen,M.R.;
Prud'hommeaux,
E.;Swick, R.2001.Annotea: An Open RDF
Infrastructure for Shared Web Annotations. In
The Tenth International World Wide Web
Conference, Hong Kong, May, pp. 623-632
http://www10.org/cdrom/papers/488/index.html
Kifer, M.; Lausen, G.;Wu, J. 1995. Logical
Foundations of Object- Oriented and FrameBased Languages. Journal of the ACM.
Lassila, O.; Swick, R. 2002. Resource
Description Framework (RDF) Model and
Syntax
Specification.
W3C
Proposed
Recommendation.. http://www.w3.org/TR/PRrdf-syntax. Markup Workshop (SAAKM)
McGuinness, D.L; van Harmelen, F. 2004.
OWL Web Ontology Language Overview,
World Wide Web Consortium (W3C)
recommendation, Feb.; www.w3.org/TR/owlfeatures.
Noy, N.F.; et al. 2003. Protégé-2000: an opensource ontology-development and knowledge
acquisition environment, AMIA Annu Symp
Proc. p. 953.
Prud’hommeaux,E.;Seaborn,A.2008.
SPARQL Query Language for RDF. W3C
Recommendation 15 January.
http://www.w3.org/TR/rdf-sparql-query/
Sirin, E.; Parsia, B.;Cuenca, B.; Kalyanpur,
A.; Katz, Y. 2003.Pellet: A Practical OWL-DL
reasoner. submitted for publication to Journal of
web semantics.
Sperber, D. 2001. L’individuel sous influence
du collectif", in La Recherche, vol. 344, pp. 3235.
85
Hakim Mokeddem
86
Amiens – 23 et 24 mai 2012
Modélisation outillée d’une stratégie contextualisée d’observation
dans le cadre d’un environnement d’apprentissage
Mohand Akli OUALI
LUNAM Université, Université du Maine, LIUM (Laboratoire d’Informatique de l’Université du Maine)
Avenue Olivier Messiaen, 72085 LE MANS CEDEX 9, France
[email protected]
Résumé
De nombreux travaux de recherche s’intéressent à
l’observation dans un environnement d’apprentissage.
Notre travail s’inscrit dans cette ligne de recherche sur
l’observation et l’étude des traces d’usage.
L’originalité de nos travaux consiste en la proposition
de la notion de stratégie d’observation qui nous amène
à repenser l’observation en terme de scénario
d’observation. Nous présentons, dans cet article, une
introduction à notre travail de recherche et une idée
générale de notre problématique et des travaux à
réaliser.
scénario, d’où la nécessité de lui donner des moyens
permettant à la fois de comprendre les résultats de
l’observation et d’exprimer l’évolution de ses besoins
d’observation en fonction de la nouvelle situation
adaptée lors du travail de réingénierie. Le traitement de
ces données collectées en session d’apprentissage peut
aussi intervenir après celle-ci (Mazza et Milani 2004).
De nombreux travaux existent dans ce contexte mais
la plupart nécessitent l’intervention d’un spécialiste du
domaine (informaticien) pour assister l’enseignant dans
l’expression de ses besoins d’observation et dans la
compréhension des résultats d’observation pour
l’amélioration du scénario d’apprentissage conçu
initialement (Pernin et Lejeune 2004).
Introduction
L'observation des situations d'apprentissage dans un
environnement informatique pour l’apprentissage
humain est basée sur le traitement des données
collectées durant le déroulement de la situation
d'apprentissage (Loghin 2006). Le processus de
production d’un EIAH doit intégrer une phase
d’observation et d’analyse des usages, destinée à
informer les concepteurs sur la qualité de la situation
pédagogique mise en œuvre (Choquet et Iksal 2007).
En interprétant les résultats de l’observation, un
enseignant, dans son rôle de tuteur, peut guider
l'activité d’apprentissage en essayant de comprendre
les dysfonctionnements éventuels en rapport avec le
scénario pédagogique conçu (Settouti et al. 2007). Il
peut alors adapter la session, introduire des aides
personnalisées et fournir des supports pédagogiques
adaptés en fonction des comportements et des styles
d’apprentissage des différents apprenants. Un
enseignant concepteur peut exploiter les traces dans un
travail de réingénierie du scénario pédagogique pour un
meilleur déroulement de la session d’apprentissage
(Djouad et al. 2010).
Certains aspects de l’apprentissage ne peuvent être
mesurés qu’en cours de session, comme, par exemple,
le temps de réponse à une question, la part de travail
individuel réalisé par chaque apprenant et la part du
travail collaboratif entre différents apprenants
échangeant des informations via les supports de
communication
offerts
par
la
plateforme
d’apprentissage. Ceci pourrait amener l’enseignant à
des interventions en cours de session pour adapter son
4ièmes Rencontres Jeunes Chercheurs en EIAH
Contexte de Recherche
Notre travail s’inscrit dans le cadre de la chaine
éditoriale de l’observation dans un Environnement
Informatique pour l’Apprentissage Humain (EIAH)
(Iksal 2011). Durant le déroulement de la situation
d'apprentissage, l'observation a pour but de collecter
des informations sur l'activité réalisée par les sujets
observés. Notre travail sur l’observation de l’utilisation
d’un EIAH nous conduit à considérer la terminologie
relative à ce champ d’activité (Choquet 2007) :
La trace : ensemble de données collectées par un
dispositif d’apprentissage. Ces traces sont enregistrées,
par exemple, dans des fichiers de « logs ».
L’observable et l’observé : l’observable est toute
variable définie comme devant être valuée par
l’observation de l’utilisation d’un EIAH. L’observé est
toute valeur d’observable.
L’indicateur : un indicateur est un observable signifiant
sur le plan pédagogique, calculé ou établi à l’aide
d’observés, et témoignant de la qualité de l’interaction,
de l’activité et de l’apprentissage dans un EIAH.
Les objectifs de l’observation des sessions
d’apprentissage peuvent être multiples pour un même
acteur, ou d’un acteur à un autre. Par exemple, pour le
concepteur, l’un des objectifs est d’avoir un feedback,
une information précise et exploitable pour ce qui est
de la convergence entre le scénario pédagogique conçu
et le déroulement effectif de la session d’apprentissage.
Pour le tuteur, l’un des objectifs serait d’avoir une
visibilité sur la prise en compte par les apprenants des
ressources mises à leur disposition et sur leurs
productions pour les accompagner dans leur processus
d’acquisition des connaissances. L’apprenant pourrait
87
Mohand Akli Ouali
avoir aussi besoin de vérifier son état d’avancement et
sa situation dans le groupe, comme il peut utiliser sa
propre trace à postériori pour comprendre sa démarche,
etc. Ces différents objectifs d’observation nécessitent la
mise au point d’une stratégie pour le suivi ainsi que
l’analyse du déroulement et des échanges au cours
d’une session d’apprentissage. La diversité des
environnements de développements, des plateformes
d’apprentissage et des techniques de collecte des traces
a fait que la définition des stratégies d’observation et
l’interprétation des résultats de l’observation sont
difficiles.
Dans le cadre des travaux sur la réingénierie des
EIAH, Choquet et Iksal (Choquet et Iksal 2007) ont
proposé un langage de description formelle des
indicateurs pédagogiques. Le langage UTL (Using
Tracking Language) proposé, permet, en partant de
l’expression du besoin d’observation, de bâtir un
indicateur à partir des données brutes de manière
indépendante du langage utilisé pour la définition du
scénario pédagogique et du format dans lequel les
traces sont représentées. Diem Pham Thi Ngoc dans sa
thèse (Pham Thi Ngoc 2011) propose un langage
(DCL4UTL : Data Combination Language for UTL)
qui est une extension d’UTL pour permettre une
description formelle des méthodes de calcul automatisé
des indicateurs à partir des traces collectées et des
besoins d’observation exprimés à l’aide d’UTL. La
formalisation des indicateurs les rend capitalisables et
éventuellement réutilisables. Autrement dit, cette
manière de procéder permet de stocker les indicateurs
pour une exploitation future et une réutilisation sans
redéfinir, à nouveau, les données nécessaires à leur
calcul. Boubekeur Zendagui, dans sa thèse (Zendagui
2010), s’est interrogé sur la manière de faciliter pour
l’enseignant l’expression de ses besoins d’observation
et a proposé un outil graphique (ProtON : Prototype for
the specification of Observation Needs) permettant de
définir ces besoins d’observation en s’appuyant sur les
informations spécifiées dans un contexte particulier en
lien avec le scénario pédagogique. UTL offre à
l’enseignant la possibilité d’exprimer ses besoins
d’observation de manière textuelle puis un analyste se
charge de la définition des données nécessaires au
calcul de l’indicateur. ProtON offre une interface
graphique permettant de définir les besoins et les
objectifs d’observation mais ne permet pas de spécifier
d’autres observables, en cours de session, que ceux
prédéfinis. Avec DCL4UTL, le calcul des indicateurs
est formalisé et automatisé mais les résultats retournés
à l’enseignant sont sous une forme textuelle (voire
texte structuré comme XML) réduisant ainsi les
possibilités d’exploitation de l’information par le
concepteur.
Notre travail s’inscrit dans la perspective d’apporter
aux acteurs du système d’apprentissage, et notamment
à l’enseignant concepteur, un ensemble d’outils
permettant de définir des stratégies d’observation de
manière autonome à partir d’une interface de
visualisation ergonomique et intuitive et ce avant,
pendant ou après la session d’apprentissage. Le
88
destinataire de l’observation récupère les résultats du
calcul des indicateurs à partir de son interface de
visualisation. Le travail à réaliser doit permettre de
capitaliser, autrement dit de stocker et de sauvegarder
les stratégies d’observation pour qu’elles puissent être
réutilisées. La solution à proposer doit garantir aussi
l’extensibilité des stratégies d’observation qui consiste
en la possibilité d’ajouter des indicateurs aux stratégies
définies précédemment afin de les adapter à un
nouveau contexte d’observation.
Notre objectif dans le cadre de cette thèse consiste à
proposer un langage, couplé à UTL, permettant de
spécifier des stratégies d’observation. Pour des raisons
de complexité de manipulation de ce langage,
notamment par des non informaticiens, il sera
également nécessaire de développer un éditeur
graphique pour la définition des stratégies
d’observation et de proposer des outils de visualisation
pour faciliter l’interprétation des résultats de
l’observation.
Identification des besoins
Il existe, dans la littérature scientifique, des travaux de
recherche qui se sont intéressés à l’observation et à la
mise à disposition des destinataires des résultats de
l’observation, d’outils permettant une meilleure
interprétation de ces résultats.
L’outil « REFLET » (Després et Coffinet 2004)
permet de visualiser l'évolution du travail d’un
apprenant ou d’une promotion d’apprenants en
formation ouverte à distance. Les interfaces tuteurs et
apprenants sont quasiment les mêmes. Le tuteur peut
visualiser l’état d’avancement d’un apprenant dont il a
la charge ou comparer l’avancement de tous les
apprenants d’un même groupe. Il peut également
contre-valider des tâches déjà validées par les
apprenants. L’apprenant peut visualiser son état
d’avancement dans la réalisation des activités et savoir
si une activité validée précédemment a été contre
validée par le tuteur. Il peut comparer son état
d’avancement à l’état d’avancement des autres
apprenants qui restent anonymes à son niveau.
« GISMO » (Graphical Interactive Student
Monitoring System for Moodle) (Mazza et Milani
2004) permet d’extraire les traces des activités des
apprenants sur Moodle et les affiche sous la forme d’un
graphe représentant le nombre d’accès aux différentes
ressources Moodle et les dates de ces accès par les
différents apprenants. Les informations visualisées
permettent à l’enseignant de mesurer la popularité des
ressources mises à la disposition des apprenants et de
détecter les styles d’apprentissages. GISMO permet
aussi, à l’enseignant, de visualiser le nombre de
messages envoyés ou reçus pour chaque apprenant.
L’outil « CourseVis » (Mazza et Dimitrova 2004) est
utilisé pour la visualisation 3D des traces issues des
plateformes WebCT (WebCT est un spécialiste de la
formation en ligne pour universités et grandes écoles. Il
édite des solutions de téléformation permettant aux
Amiens – 23 et 24 mai 2012
Modélisation outillée d’une stratégie contextualisée d’observation
établissements de proposer à leurs apprenants des cours
en ligne. WebCT a été rachetée en 2006 par
Blackboard et porte désormais le nom de l’acquéreur).
Le but de « CourseVis » est de faire des visualisations
à partir de calcul d’indicateurs et des mesures
statistiques. CourseVis permet aux tuteurs qui n’ont
pas un niveau de technicité élevé, de disposer d’une
sorte de tableau de bord leur permettant d’analyser le
comportement des apprenants distants et leurs
échanges. CourseVis peut s’accomoder à plusieurs
plateformes. Néanmois, il se limite à la visualisation
des indicateurs initialement prédéfinis dans la
plateforme qui héberge les ressources pédagogiques en
ligne et ne permet pas au tuteur d’exprimer d’autres
besoins d’observation spécifiques à une session
d’apprentissage particulière.
Les travaux réalisés dans (France et al. 2006) sur la
visualisation des traces à l’aide des figures de Chernoff
permettent aux tuteurs de voir en temps réel les
activités des apprenants, les parcours effectués et les
activités réalisées ou en cours de réalisation au sein de
l'EIAH, et d'adapter l'activité en interagissant
directement sur l'interface de visualisation. La
représentation des traces par des outils de visualisation
permet à l'enseignant/tuteur de comprendre ce qui se
passe réellement, pour pouvoir réagir avec pertinence
et suivre l’activité des apprenants en session.
Dans (May 2009), l’auteur s’intéresse aussi à la
visualisation des résultats de l’observation en temps
réel. L’observation se focalise sur une activité plus
restreinte : l’utilisation d’un forum. Dans ce travail, les
traces sont générées par l’apprenant lecteur. Les
destinataires des traces sont multiples : l’apprenant,
l’enseignant ou le chercheur. La manipulation de la
trace est faite en temps réel. Il s’agit de calculer de
manière automatique le nombre de messages non lus
ou le temps passé pour la lecture d’un message.
Dans (Avouris et al. 2007), les auteurs ont étudié les
traces des activités en incluant les enregistrements
vidéos et audio afin de pouvoir construire une vue
complète de l’activité de collaboration et des
comportements des apprenants lors d’une situation
d’apprentissage, en ne se limitant pas seulement à
l’analyse des fichiers de logs. Les auteurs décrivent un
outil d’analyse des traces ColAT (Collaborative
Analysis Tool). ColAT permet de visualiser les traces
sous différentes formes comme les fichiers de logs et
les enregistrements vidéo.
L’outil Digital Replay System (DRS) présenté dans
(Greenhalgh et al. 2007) est une application pour la
relecture
et
l'analyse
des
combinaisons
d’enregistrements vidéo, des transcriptions et des
fichiers de logs. DRS a été développé au sein du
Digital Records pour l'e-Social Science (DRESS) au
cœur du Centre national pour l'E-Sciences Sociales
(NCESS). Il utilisé pour l’analyse et l’observation des
sessions l'apprentissage, par exemple, via des
simulations de sessions d’apprentissage de l’anglais
parlé, et même pour l’analyse de la gestuelle.
4ièmes Rencontres Jeunes Chercheurs en EIAH
Dans leurs travaux sur l’étude des interactions et la
collaboration
dans
l’apprentissage
dans
le
développement des connaissances (Damsa et
Ludvigsen 2010), les auteurs ont conçu des outils
d'analyse et d’observation intégrés dans le système
KPE (Knowledge Practices Environment ) qui est un
environnement web 2.0 offrant un espace virtuel de
collaboration entre apprenants. Les traces collectées
dans cet environnement ont permis de construire des
aperçus généraux sur le nombre et le type de
contributions de chaque participant. L’outil développé
est doté d’un analyseur visuel des contributions par
utilisateur et d’un analyseur chronologique qui permet
de représenter les distributions de types de
contributions dans le temps.
Les travaux de (Goodman et al. 2008), dans le projet
MITRE-Sponsored Research (MSR) se sont intéressés
à l’étude des échanges entre les intervenants dans une
équipe de discussion pour la prise de décision sur une
question posée. L’objectif concerne la synchronisation
des interventions afin de comprendre la dynamique de
la construction des décisions. Pour mener à bien leurs
travaux, les chercheurs ont développé un outil
d’analyse et d’observation permettant de visualiser les
flux de données synchronisés en les représentant sur un
axe temporel horizontal. Cet outil a été nommé le
Synchronized Analysis Workspace (SAW). La
visualisation des flux de données dans SAW permet
d’aider les analystes dans leurs processus d’étude et de
compréhension des interactions entre les personnes
concernées par la prise de décision.
ABSTRACT (Analysis of Behavior and Situation for
menTal Representation Assessment and Cognitive
acTivity modeling) (Georgeon et al. 2006) est un outil
permettant d’analyser l’activité d’un acteur humain qui
interagit avec un dispositif technique complexe.
L’activité est observée et les traces collectées sont
modélisées sous la forme d’un graphe. Les traces
collectées sont essentiellement constituées de
descripteurs d’événements qui se suivent. L’objectif
général d’Abstract est de comprendre le comportement
d’un utilisateur utilisant un artefact technique
complexe.
Dans (Morrison et al. 2006), les auteurs présentent la
plateforme Replayer qui offre un ensemble coordonné
d’outils de visualisation permettant l’analyse et la
compréhension d’informations de différentes natures.
Replayer combine des outils de visualisation vidéo et
des histogrammes ou la représentation d’événements
sur un axe temporel horizontal.
Tatiana (Trace Analysis Tool for Interaction
Analysts) (Dyke et al. 2010) est un environnement
logiciel basé sur le modèle de description des activités
d’apprentissage collaboratif médiatisé par ordinateur.
Ce modèle est conçu pour aider les chercheurs à gérer,
synchroniser, visualiser et analyser leurs données. Dans
ce travail, les auteurs ont introduit la notion de
« rejouable » qui est un type particulier d’artéfacts,
temporellement orientés, qui conservent la notion
89
Mohand Akli Ouali
d’ordre des évènements. Les rejouables peuvent être
visualisés dans deux types d’afficheurs : une forme
tabulaire et une visualisation temporelle horizontale.
Un mécanisme de plugin permettant d’ajouter de
nouvelles formes de visualisations a été intégré dans
Tatiana et un éditeur graphique permettant de générer
les rejouables a été mis à la disposition des chercheurs
afin de ne pas les contraindre à maitriser un langage de
requêtes. Tatiana a été intégré à plusieurs travaux de
recherches.
Dans cette section, nous avons présenté certains
travaux de recherche axés sur l’observation des traces
d’usage de systèmes informatiques, pour la plupart
dédiés à l’apprentissage. Ces travaux ont permis de
développer des outils de visualisation des résultats de
calcul des indicateurs. Les outils développés permettent
de mettre à la disposition des destinataires des résultats
de l’observation, des moyens leur facilitant la
compréhension des résultats du calcul des indicateurs à
partir des traces collectées lors de l’observation des
sessions d’apprentissage. Certains de ces outils
permettent le suivi des situations d’apprentissage en
temps réel (France et al. 2006). D’autres se limitent à la
possibilité de visualisation à la fin de la session
d’apprentissage (Mazza et Milani 2004). Certains outils
combinent plusieurs types de visualisation pour le
même indicateur (Avouris et al. 2007), tandis que
d’autres optent pour la visualisation des indicateurs
suivant l’axe temporel horizontal (Goodman et al.
2008), par des graphes de contingence ou par les
figures de Chernoff (France et al. 2006). Quelques
outils montrent les possibilités d’analyses des traces
assistées par ordinateur mais sont spécialisés à certains
types de données et nécessitent d’adapter leur
fonctionnement aux EIAH (Greenhalgh et al. 2007).
D’autres outils sont destinés plus aux tuteurs afin de
leur apporter des éléments pour suivre et superviser
une session d’apprentissage qu’aux concepteurs du
scénario pédagogique (Després et Coffinet 2004). Ils
ne leur offrent, par conséquent, que peu de possibilités
d’intervention pour réguler la situation d’apprentissage
sans leur donner les moyens de modifier ou d’adapter
leur stratégie d’observation au cours d’une session
d’apprentissage. Les indicateurs calculés et visualisés
pour la plupart ne concernent que l’activité de
communication entre les participants à la session (May
2009). Certains travaux se sont limités au
développement d’outils spécifiques aux traces générées
par une seule plateforme d’apprentissage, ce qui ne
permet pas leur exploitation sur d’autres plateformes
(Mazza et Dimitrova 2004). On notera aussi que la
plupart des outils ne permettent la visualisation que de
peu d’indicateurs qui sont portés sur les échanges de
messages dans la majorité des cas. Certains travaux ont
été validés par un large panel d’expérimentations mais
présentent néanmoins des problèmes d’ergonomie et de
facilité d’utilisation (Dyke et al. 2010).
Problématique
Le travail à réaliser dans le cadre de cette thèse porte
sur la notion de stratégie d'observation. La stratégie
d’observation est propre au destinataire des indicateurs
90
(l'enseignant, l’apprenant, le concepteur). Elle est
constituée d'un ensemble d'indicateurs avec leurs
interfaces de visualisation, d'un ensemble de règles de
composition des indicateurs ainsi que du contexte
d'utilisation de cette stratégie. Même si la stratégie
d’observation peut évoluer au fur et à mesure des
usages, elle doit néanmoins être pensée en amont de la
situation d’apprentissage. Elle a pour but de mener de
manière efficace l’activité d’observation en mettant à
disposition de l’enseignant/concepteur des instruments
lui permettant d’exprimer ses besoins d’observation en
répondant aux interrogations suivantes : ce qu’il faut
observer, le moment de l’observation (pendant la
session, après la session, à la réalisation d’une action,
etc.), l’objectif de l’observation (évaluation des
apprenants, adaptation du scénario pédagogique, suivi
d’une session d’apprentissage, etc.), le destinataire de
l’observation et la forme de restitution des résultats de
l’observation (tableau de bord de l’observation). On
cherche à formaliser ces stratégies d’observation et à
mettre à la disposition de l’enseignant/concepteur des
outils lui permettant de modéliser ses stratégies en
fonction du contexte et des objectifs de l’observation.
La première question à laquelle il faut répondre dans le
cadre de ce travail est la suivante :
Comment modéliser la définition des stratégies
d’observation par l’enseignant/concepteur ?
Le but recherché est de doter l’enseignant
concepteur d’un tableau de bord d’observation à partir
duquel il pourra manipuler des objets graphiques pour
modéliser ses stratégies d’observation de manière
autonome (sans l’assistance d’un spécialiste). En effet,
il convient de lui éviter toute manipulation technique
qui pourrait le contraindre à spécifier des stratégies
d’observation en fonction de ses capacités de
manipulation et non pas en fonction de ses objectifs
d’observation. Le langage à proposer doit permettre à
l’enseignant/concepteur de définir ses scénarios
d’observation en fonction de la visibilité qu’il veut
avoir du déroulement de la session d’apprentissage et
en fonction de ses objectifs d’observation.
Comment modéliser la scénarisation de l’observation ?
Comment accompagner l’enseignant/concepteur dans
la spécification de sa stratégie d’observation ?
Le tableau de bord à réaliser doit disposer d’un
processus d’accompagnement pour la création de
modèles ou de profils de stratégies qui seront
sauvegardés pour permettre une réutilisation future
(imaginons le cas où une même session d’apprentissage
est réalisée avec plusieurs groupes d’apprenants et à
des moments différents) ainsi que la possibilité de
modéliser d’autres stratégies d’observation à partir des
profils sauvegardés en ajoutant des indicateurs et en en
éliminant d’autres. Ces nouvelles stratégies doivent
pouvoir être sauvegardées comme profils de stratégies
à leur tour. Les stratégies d’observation modélisées
devraient être extensibles. L’extension de ces stratégies
pourrait se faire de deux manières : la première
consiste en l’ajout d’un ou plusieurs indicateurs parmi
Amiens – 23 et 24 mai 2012
Modélisation outillée d’une stratégie contextualisée d’observation
les indicateurs prédéfinis et qui n’ont pas été
sélectionnés initialement, la seconde serait la définition
par l’enseignant/concepteur de nouveaux indicateurs au
travers de l’expression de nouveaux besoins
d’observation dus à l’évolution des objectifs
d’observation. Cette extensibilité est due aussi à la
nature du contexte d’utilisation qui nécessite
l’adaptation du scénario de l’observation.
Comment formaliser la modélisation des stratégies
d’observation dans un but de réutilisation ?
Comment procéder pour adapter la
d’observation au contexte d’utilisation ?
stratégie
L’un des aspects les plus importants du travail à
réaliser est la proposition d’une solution de
visualisation graphique des résultats de calcul des
indicateurs définis lors de la description de la stratégie
d’observation par l’enseignant concepteur. Plusieurs
moyens de visualisation seront décrits et modélisés
pour chaque indicateur. L’enseignant concepteur
devrait disposer d’une palette d’outils pour sélectionner
un type de graphique adéquat en fonction de la nature
de l’indicateur. Cette tache de sélection est nécessaire
surtout pour les indicateurs définis après la mise en
place de la situation d’apprentissage. Pour les
indicateurs existants, des modèles de visualisation
appropriés pourraient être associés à chacun d’eux.
L’apprenant pourrait être, aussi, destinataire des
résultats du calcul d’indicateurs. Les indicateurs
pertinents pour l’apprenant seront choisis par
l’enseignant. Si l’indicateur mis à la disposition de
l’apprenant fournit des informations sur le groupe, la
visualisation faite doit permettre de conserver
l’anonymat des autres apprenants. Ceci sous-entend la
nécessité d’avoir plusieurs vues d’un même indicateur.
La multiplicité des graphiques pouvant être proposés
pour la visualisation des indicateurs, la spécialisation
des usages de ces graphiques et le souci d’assurer un
meilleur choix de visualisation pour une meilleure
compréhension et donc une meilleure interprétation
nous amène à essayer de répondre à cette question :
Comment adapter la forme de visualisation des
résultats de l’observation à la nature de l’indicateur ?
Dans quelles limites faut-il laisser à l’enseignant le
libre choix de personnalisation de la visualisation ?
Propositions
Les plateformes d’apprentissage sont manipulées par
différents acteurs : les tuteurs, les apprenants, les
enseignants/concepteurs, etc. où chaque acteur joue un
rôle bien précis dans le processus d’apprentissage.
Les acteurs de l’EIAH, le concepteur et le tuteur
notamment, expriment des besoins d’observation du
déroulement des sessions d’apprentissage pour
récupérer des informations pouvant servir dans un
objectif de réingénierie du scénario pédagogique,
d’adaptation ou d’évaluation.
4ièmes Rencontres Jeunes Chercheurs en EIAH
Le travail qui sera réalisé dans le cadre de notre
thèse va porter sur la proposition de modèles de
définition de stratégies d’observation et leur
instrumentation pour l’enseignant/concepteur. Pour
mener à bien ce travail et répondre aux questions
soulevées dans la problématique, plusieurs propositions
peuvent être faites :
Une première proposition concerne l’instrumentation
des utilisateurs de l’EIAH avec un tableau de bord
d’observation permettant de répondre à leurs objectifs
d’observation. Le tableau de bord ne doit pas avoir une
interface figée dans le temps mais l’éditeur de
stratégies à proposer devra permettre de générer
dynamiquement le tableau de bord et ce en fonction du
scénario de stratégie d’observation conçu par l’acteur
concerné par la demande d’observation. La génération
dynamique du tableau de bord se fera soit à la
modélisation d’une nouvelle stratégie d’observation
soit à l’adaptation ou à l’évolution d’une stratégie
d’observation spécifiée auparavant et capitalisée.
Une seconde proposition concernerait la méthode de
visualisation des indicateurs calculés. Pour cela, la
méthode de visualisation et les graphiques appropriés
pour chaque indicateur seront prédéfinis. Cette
prédéfinition sera basée sur le choix des graphiques qui
conviennent le plus à la nature de l’indicateur et qui
servirait mieux les objectifs ayant conduit au calcul de
l’indicateur. Une caractérisation des indicateurs sera,
du fait, nécessaire en apprenant, par exemple, leur
évolution en fonction du temps ou s’ils ciblent un
individu ou un groupe. Cette présélection des outils de
visualisation aura pour objectif d’apporter la meilleure
représentation possible dans le but d’une
compréhension facilitée pour les acteurs concernés.
Néanmoins, une palette de graphiques sera mise à la
disposition de l’enseignant pour lui permettre de
choisir une autre visualisation de l’indicateur. Un
travail de fond sera réalisé, au préalable, sur la
qualification des graphiques afin de faire une
association entre les graphiques et la nature des
indicateurs.
Une troisième proposition concerne la modélisation
d’assistants permettant à l’enseignant de définir sa
stratégie d’observation et de créer des modèles de
stratégies réutilisables. Le but de ses assistants est de
permettre à l’enseignant de se sentir guidé lors de la
modélisation de ses besoins d’observation. L’utilisation
des assistants s’avère nécessaire dans un but de
familiarisation et de prise en main par l’enseignant des
fonctionnalités de son éditeur de définition de
stratégies d’observation. L’enseignant peut toujours se
passer de l’utilisation de l’assistant.
Pour réaliser notre travail, nous allons suivre une
orientation DSM (Domain Specific Modeling) (Kelly et
Tolvanen 2008) qui est une approche outillée pour la
spécification de méta-modèles et de langages
graphiques. C’est une approche de développement
orientée modèles favorisant l’utilisation des modèles
pour la description de toutes les caractéristiques
91
Mohand Akli Ouali
propres à un domaine particulier lors du
développement de logiciels pour celui-ci. Le DSM
apporte à la communauté des enseignants/concepteurs
un environnement support pour la spécification
graphique des scénarios d’apprentissage (Laforcade et
al. 2007). Cette approche permettra d’augmenter le
niveau d’abstraction en comparaison aux langages de
programmation et d’automatiser la génération de code
pour l’application de tableau de bord.
Références
Avouris N., Fiotakis G., Kahrimanis G., Margaritis
M., Komis V. 2007. « Beyond logging of fingertip
actions: analysis of collaborative learning using
multiple sources of data », Journal of Interactive
Learning Research JILR. vol. 18(2), pp. 231-250.
Choquet C. and Iksal S. 2007. Modélisation et
construction de traces d’utilisation d’une activité
d’apprentissage : une approche langage pour la
réingénierie d’un eiah. Revue STICEF, Vol. 14.
Choquet, C. 2007. Ingénierie et réingénierie des
EIAH. L’approche REDiM. HDR, Université du
Maine, France
Damsa,
C.I.
&
Ludvigsen,
S.
(2010,
August/September). Learning Through Collaborative
Creation of Shared Knowledge Objects: Analytic
Challenges, Paper presented at the EARLI SIG6/7
conference, Ulm, Germany.
Després, C.; Coffinet, T. 2004. Reflet, un miroir sur
la formation. Communication in the International
Conference of Technologies de l’Information et de la
Connaissance dans l’Enseignement Supérieur et
l’Industrie. Compiègne, France.
Djouad, T., Settouti, L. S., Prié, Y., Reffay, C.,
Mille, M. (2010). Un système à Base de Traces pour la
modélisation et l’élaboration d’indicateurs d’activités
éducatives individuelles et collectives. Mise à
l’épreuve sur Moodle. In TSI. 29(6). P. 721-721.
Dyke, G., Lund, K & Girardot, J.-J. (2010). Tatiana,
un environnement d’aide à l’analyse de traces
d’interactions humaines. Revue des Sciences et
Technologies de l'Information - Série TSI : Technique
et Science Informatiques. 29 (10), p. 1179-1205.
France L., J.-M. Heraud, J.-C. Marty, T. Carron, and
J. Heili. 2006. Monitoring virtual classroom:
Visualization techniques to observe student activities in
an e-learning system. In The Sixth IEEE International
Conference on Advanced Learning Technologies
(ICALT2006), pages 716–720.
Georgeon O., Mille A., Bellet B.T. 2006. «
ABSTRACT: un outil et une méthodologie pour
analyser une activité humaine médiée par un artefact
technique complexe », Ingéniérie des Connaissances.
Semaine de la connaissance, Nantes, France.
Goodman B. A., Drury J., Gaimari R. D., Kurland
L., Zarrella J., Applying User Models to Improve Team
Decision Making, 2006, Retrieved April 10, 2008 from
http://mitre.org/work/tech_papers/tech_papers_07/06_1
351/
Greenhalgh C., A. French, J. Humble, P. Tennent,
"Engineering based replay application RDF and OWL
is "Online Proceedings of the UK e-Science All Hands
92
Meeting 2007, 10-13 September 2007, Nottingham:
NESC / JISC.
Iksal S (2011). Tracks Analysis in Learning
Systems: A Prescriptive Approach. International
Journal for e-Learning Security (IJeLS), Volume 1,
Issue 1/2, March/June 2011.
Kelly S. et Tolvanen J. (2008). Domain-specific
modeling: enabling full code generation. Wiley-IEEE
Computer Society Pr.
Laforcade P., Barré V. et Zendagui B. (2007).
Scénarisation Pédagogique et Ingénierie Dirigé par les
Modèles : Cadre d’étude pour la définition de langages
et environnements-outils de scénarisation pédagogique
spécifiques à des domaines. Actes de la conférence
EIAH 2007, Lausanne (Suisse).
Loghin, G.C. 2006. Aide à la compréhension du
comportement de l'utilisateur par la transformation de
traces collectées. RJCEIAH. France
May M. 2009. Utilisation des traces comme outils
réflexifs pour les apprenants et les enseignants à
distance
:
Application
aux
communications
médiatisées. Doctorat insa lyon,
Mazza, R.; Milani, C. 2004. GISMO: a Graphical
Interactive Student Monitoring Tool for Course
Management Systems. Communication in T.E.L.’04
Technology Enhanced Learning ’04 International
Conference. Milan, 18-19 November 2004.
Mazza, R.; Dimitrova,V. 2004. Visualising Student
Tracking Data to Support Instructors in Web-Based
Distance Education. In proceeding of the thirteenth
International World Wide Web ConferenceEducational Track, 154-161. New York, USA.
Morrison A., Tennent P., Chalmers M., «
Coordinated Visualization of Video and System Log
Data ». Proceedings of 4th International Conference on
Coordinated & Multiple Views in Exploratory
Visualization. London, 2006, 91-102.
Settouti L.-S., Prie Y., Mille A., Marty J –C. (2007).
Vers des Systèmes à Base de Traces modélisées pour
les EIAH. Rapport de recherche RR-LIRIS-2007-016.
Pernin J.-P. and Lejeune A. 2004. Dispositifs
d’apprentissage instrumentés par les technologies : vers
une ingénierie centrée sur les scénarios. In Colloque
TICE2004, Compiègne, France.
Pham Thi Ngoc Diem 2011. Spécification et
conception de services d’analyse de l’utilisation d’un
environnement informatique pour l’apprentissage
humain. Thèse de doctorat. Université du Maine.
Zendagui B. 2010. Support à la spécification des
besoins d’observation dans un contexte de réingénierie
des scénarios pédagogiques : une approche dirigée par
les modèles. Thèse de doctorat. Université du Maine.
Amiens – 23 et 24 mai 2012
POSTERS
4ièmes Rencontres Jeunes Chercheurs en EIAH
93
94
Amiens – 23 et 24 mai 2012
Ontologie pour la représentation des connaissances algorithmiques
Et la proposition de parcours d’enseignement.
Myriam Abdessemed
Laboratoire de Recherche en Informatique (LRI), Université Badji Mokhtar, BP 12, Annaba 23000, Algérie
[email protected]
Résumé
Ce papier présente notre contribution dans le projet
EIAH d’algorithmique, du laboratoire LRI, qui consiste
en la conception d’une Ontologie de savoirs et savoirfaire (compétences) algorithmiques, représentant la
nature même de cette matière. Ses connaissances
abstraites rendent son enseignement ainsi que son
apprentissage particulièrement délicat. L’apport des
ontologies est justement de fournir une forme et un
aspect concret aux connaissances du domaine. Nous
nous appuyons sur les ontologies et leurs spécificités
dans le but de concevoir un système tuteur qui intervient
particulièrement dans la négociation du ou des concepts
à proposer, lors d’une situation d’apprentissage.
Introduction
L'algorithmique est une discipline qui favorise,
notamment, l'acquisition d'une méthode de travail et de
réflexion, le développement des facultés d'analyse,
d'abstraction, d'anticipation et de logique. Elle est le
noyau de toute formation d’informaticiens. Elle est
également une matière qui a souvent été source de
problèmes pour l’enseignant et l’étudiant. Pour
l’enseignant, parce qu’il doit trouver les méthodes
adéquates pour faire assimiler des concepts assez
abstraits à des étudiants qui ne sont qu’à leur phase
d’initiation. Pour les étudiants la complexité du
problème est encore plus importante. On témoigne que,
de part le monde, entre 25 et 80% des étudiants dans un
cursus d’initiation à la programmation sont en situation
d’échec ou d’abandon. Au niveau de notre université, le
problème est encore plus éloquent. Le taux d’échec
alarmant est aux environs de 70% pour les étudiants de
2éme année Licence LMD. Nous soutenons qu’un usage
approprié des EIAH, avec des règles et stratégies
pédagogiques novatrices, une bonne représentation des
connaissances du domaine de l’algorithmique, une
indexation
sémantique des ressources et une
scénarisation des parcours d’apprentissage adaptée à
chaque profil, pourrait contribuer à l’amélioration de
son apprentissage.
Notre travail de recherche s’inscrit dans le cadre d’un
projet EIAH dédié à l’apprentissage de l’algorithmique,
qui vise à combattre la stéréotypie, la passivité, la
logique de l’échec…
4ièmes Rencontres Jeunes Chercheurs en EIAH
Ontologies et EIAH
Dans la galaxie des EIAH, les recherches se bousculent
pour tenter d’offrir des environnements complets,
répondant aux objectifs même de leur subsistance.
D’après Desmoulin (Desmoulins et Granbastien 2006),
l’apport spécifique de l’ingénierie ontologique pour les
EIAH est que l’IO fournit aux EIAH une représentation
structurée, explicite, partagée par une communauté
(agents humains ou artificiels), qui fait référence et qui
guide leur conception. Peut s’ajouter à cela qu’elle peut
leur fournir une représentation formelle, couplée à un
mécanisme d’inférence permettant, entre autres, à ces
environnements de raisonner (Psyché et al 2003).
Divers EIAH utilisent les ontologies pour :
•
Modéliser l’ensemble des connaissances du
domaine traité (l’Univers).
•
Les apprenants suivant plusieurs facettes
(préférences, connaissances…)
•
Annoter
et
indexer
des
ressources
pédagogiques suivant des types de métadonnées.
•
Les composantes d’une situation de tutorat.
•
ETC.
Motivation et Approche proposée
Ce travail entre dans le cadre du projet EIAH
d’algorithmique qui ambitionne l’amélioration de son
apprentissage (Bey et Bensebaa 2011), (Teimzit et al.
2011), (Bensalem et Bensebaa 2010). Il a comme
principal objectif de responsabiliser l’apprenant et de
l’amener à prendre conscience de ses insuffisances en
matière de connaissances pour comprendre, s’exercer au
raisonnement algorithmique pour mieux dénouer un
problème.
Dans toute activité, l’adoption d’une nouvelle méthode
de travail se fait en fonction des résultats positifs qu’elle
génère. Dans la perspective du Web sémantique, qui est
en voie de devenir une assise pour les environnements
de formation à distance, les ontologies offrent de façon
spécifique une sémantique riche, mieux que toute autre
méthode de représentation des connaissances (Psyché et
al 2003). Les acteurs (apprenants, concepteurs,
enseignants…) qui interagissent avec l’EIAH se
trouvent face au besoin de partager des informations.
Les ontologies se positionnent le mieux pour permettre
l’Interopérabilité, le Partage et la Réutilisabilité des
95
Myriam Abdessemed
connaissances du domaine.
Compte tenu de leurs caractéristiques, qui mettent en
relief leurs spécificités et originalités, nous nous
orientons vers le développement d’une ontologie
d’algorithmique (Savoir et Savoir faire) qui est au cœur
du système à réaliser, en exploitant justement les apports
des ontologies aux besoins des EIAH.
Cette ontologie aura pour rôle de:
• Proposer des parcours d’enseignement (prochain
concept à enseigner) en parcourant les relations
sémantiques
de
l’ontologie
orientées
apprentissage.
• Indexer
des
ressources
pédagogiques
algorithmiques sur les éléments de cette
ontologie, en particulier une base d’exercices en
vue d’en extraire des exercices d’entraînement à
proposer.
L’apprentissage dans un EIAH se déroule dans un
contexte fort différent de l’apprentissage traditionnel, où
les interactions humaines deviennent médiatisées
(Margarida Romero 2004).
Dans cet environnement où l’apprenant se retrouve seul
face à la machine, le tutorat devient donc d’une
importance majeure. Le tuteur doit s’appuyer sur le
modèle apprenant, des objectifs de formation et
principalement sur une famille de règles pédagogiques
qui soutiendront l’usage des relations sémantiques et
hiérarchiques de l’ontologie dans le choix du prochain
concept d’apprentissage, ou dans la négociation en cas
de conflit entre le système et l’apprenant (à l’aide des
systèmes de raisonnement) .
L’étape
de
conceptualisation
de
l’ontologie
d’algorithmique qui succède à l’étude comparative des
outils et langages d’exploitation des ontologies sous
OWL (SWRL, SPARQL…), est basée sur Methontology
de Gomez-Perez. Elle spécifie de façon très détaillée
cette
phase
(Spécification
des
besoins,
conceptualisation,
formalisation,codification).
ontologie est en cours d’évaluation, nous illustrons cidessus la hiérarchie des concepts déterminés.
Par la suite nous aurons à définir un ensemble de règles
pédagogiques et préciser les activités du tuteur selon
nos objectifs. Seront par la suite réalisées à des fins de
recherches sémantiques : l’indexation de ressources
algorithmiques (en entrée existantes) et la constitution
d’une base d’exercices indexés par les savoir-faire de
l’ontologie.
Conclusion
La majorité des étudiants en cours d’algorithmique,
rencontrent différentes contraintes, pouvant annihiler
leurs facultés de raisonnement et altérer leur confiance
en soi. Nous soutenons que le développement d’un
EIAH dédié pourrait remédier à ce problème. Une
ontologie de domaine de l’algorithmique qui aura pour
rôle de spécifier les concepts du domaine et d’expliciter
les relations entre ces derniers, est d’une importance
fondamentale dans un processus d’enseignement. Ceci
consiste à mettre à la disposition des acteurs de
l’environnement un ensemble de connaissances
partagées, réutilisables et essentiellement formelles en
vue de leurs manipulations future.
Références
Bensalem, H., and Bensebaa, T. 2010 “Contribution to
the improvement of learning algorithmic“ IETC 10th
International Educational Technology Conference,
Turkey Istambul.
Bey, A., and Bensebaa, T. 2011“An e-Assessment
Approach of Algorithmic Problem-Solving Skills “.
International Journal of Computer Applications
25(10):15-21. Published by Foundation of Computer
Science, New York,USA.
Desmoulins C., et Granbastien M. 2006. “Une
ingénierie des EIAH fondée sur des ontologies“. In
Environnements informatiques pour l'apprentissage
humain, Grandbastien M. et Labat J-M., p. 161-179.
Paris: Hermes sciences.
Psyché, V., Mendes, O., Bourdeau, J. 2003 “Apport de
l’ingénierie ontologique aux environnements de
formation à distance“ Université Fédérale à Paraiba –
Brésil.
Romero, M. 2004 “Métacognition dans les EIAH”
Exposé transversal. LIUM, le Mans.
Teimzit, A., Belhaoues, T., and Bensebaa, T. 2011
“Ontoalgo ontologie de domaine dans un EIAH
d’algorithmique“, 1st International Conference
Information Systems and Technologies, ICIST, 24 au 26
Avril 2011, Tébessa, Algérie.
Nous essayons de suivre ces étapes avec rigueur, cette
96
Amiens – 23 et 24 mai 2012
Assister la compréhension des problèmes algorithmiques
Taki Eddine BELHAOUES
Laboratoire de Recherche en Informatique (LRI), Université Badji Mokhtar, BP12, Annaba 23000, Algérie
[email protected]
Résumé
Tout environnement de résolution de problèmes doit
prendre en considération les difficultés
de ses
utilisateurs apprenants. Nous nous intéressons dans ce
travail aux moyens et techniques d’aide utiles,
pratiques et adéquats, qui pourront être mis à la
disposition d’un apprenant en situation de résolution de
problèmes algorithmiques afin de palier à la difficulté
de la lecture et de la compréhension d’énoncés.
Introduction
L’algorithmique constitue le cœur du domaine de
l’informatique. Elle représente en effet la manière de
penser et de concevoir la résolution des problèmes en
détaillant les opérations élémentaires à accomplir et la
méthode pour les combiner et les agencer afin
d’émerger la solution la plus optimale.
L’apprentissage de l’Algorithmique est essentiellement
constitué d’un processus de résolution de problèmes où
un apprenant sera mis face à un exercice qu’il devra
résoudre. Un tel scénario semble parfaitement conçu
pour diagnostiquer les difficultés et les manques de
l'étudiant et évaluer sa maîtrise des divers concepts.
Selon (Tardif 1992), pour que l'activité de résolution de
problèmes soit efficace, il faut s'assurer que l'étudiant
prenne une part active à l'élaboration de ses
connaissances. Il ne doit pas assister seulement à un
exposé de connaissances. À l'intérieur de ce processus,
l'enseignant a plusieurs rôles à jouer. Il doit fournir à
l'apprenant un contexte d'apprentissage qui favorise le
choix de l'information pertinente et la construction du
réseau de connaissances. Ce rôle nécessite parfois une
intervention plus explicite pour fournir à l'étudiant une
rétroaction sur le processus de la tâche au niveau des
connaissances à utiliser, des stratégies à choisir et de
l'exécution des procédures de résolution.
Concevoir un environnement dédié à la résolution de
problèmes algorithmiques aura tout à gagner de
l’intégration des services d’aides qui pourront être mis
à la disposition des apprenants.
Aide et types d’interventions système
Dans (Beaufils et al. 1998) l’aide est présentée comme
une notion qui peut avoir plusieurs interprétations en
regroupant un ensemble de termes plus vaste :
L'assistance à l'utilisateur comporte une prise en
charge partielle de la tâche. Cette assistance est le plus
souvent mise en œuvre par des agents qui effectuent
une partie de la tâche ou qui guident très fortement
l'utilisateur.
Le guidage consiste à accompagner l'utilisateur dans
l'accomplissement de la tâche, à commenter certaines
4ièmes Rencontres Jeunes Chercheurs en EIAH
de ces actions et à lui suggérer des actions susceptibles
de progresser dans la tâche ou d'améliorer son
efficacité. Ce qu'on a appelé aide intelligente relève
souvent du guidage, mais possède comme
caractéristique supplémentaire d'effectuer une analyse
relativement élaborée de l'activité de l'utilisateur et de
permettre une adaptation du contenu à ses besoins
particuliers.
Le conseil est analogue au guidage mais il ne
propose pas nécessairement la meilleure marche à
suivre ; il tient compte des imperfections de l'analyse et
produit des informations plutôt méthodologiques.
L'explication a pour fonction de détailler et
d'expliciter le fonctionnement ou le résultat d'une
action ou d'un raisonnement
(Blondel et al. 1997) présentent plusieurs systèmes
d'aide associés à des environnements d'apprentissage
conçus afin de dépasser le caractère insuffisant des
aides fonctionnels qui se limitent à une présentation
détaillée des outils ;
Dans (Schwob, Blondel 1998) l’environnement
interactif d’apprentissage développé intègre des outils
logiciels susceptibles d’aider les élèves dans les
activités de résolution de problèmes en chimie, une
aide principalement centrée sur les concepts. En effet,
les auteurs font l'hypothèse qu'une information
significative portant sur un concept, et apportée à un
élève en situation de manipulation ou de résolution,
c’est-à-dire au moment même de la mobilisation ou de
l’utilisation de ce concept, peut contribuer au processus
d’apprentissage.
(Guin-Duclosson et Nova 2002) présentent une
architecture pour un EIAH (Environnement
Informatique d’Apprentissage Humain) qui permet de
proposer plusieurs types d’aide à un apprenant en
situation de résolution de problèmes. Les aides
varieront selon le modèle et les préférences de
l’apprenant, comme rappeler à un apprenant des
connaissances théoriques sur le problème, expliquer
avec ces mêmes connaissances comment résoudre ce
problème, lui présenter un problème analogue qu’il a
déjà résolût, ou alors expliquer la solution de ce
problème analogue.
Aide à la lecture et compréhension des énoncés
(Blondel et al. 1997) présentent la résolution des
problèmes sous trois phases principales :
La phase d'analyse correspond au passage de
l'énoncé à une représentation explicite, souvent plus
formelle du problème ou de la situation décrite dans
l'énoncé.
La phase d'exploration au cours de laquelle l'élève
recherche les caractéristiques qui vont contribuer à la
97
Taki Eddine Belhaoues
résolution, est celle qui a été la plus largement étudiée
dans les environnements d’apprentissages à distance.
La phase de rédaction qui a pour but de produire une
trace lisible de la résolution, est celle qui est la plus
proche de l'activité scolaire habituelle.
Nous remarquons que tous les travaux présentés
précédemment ont apporté chacun à sa manière des
outils d’aide et d’assistance qui se situent
essentiellement dans les phases d’exploration et de
rédaction. Cependant, la phase d’analyse de l’énoncé
est souvent ignorée. Elle est non seulement la première
étape de tout processus de résolution de problèmes,
mais aussi celle qui va conditionner toutes les étapes
qui vont suivre.
Notre idée tourne autour des difficultés liées à la
lecture et la compréhension des énoncés qui, à notre
connaissance n’ont jamais été traitées auparavant.
Ces difficultés s’accoisent exponentiellement dans un
environnement d’apprentissage à distance. Un
apprenant qui se trouve détaché de son enseignant
pourra être conduit vers deux situations critiques dans
le domaine des environnements d’apprentissage :
La première est que l’apprenant se trouve bloqué
face à l’énoncé sans aucune option d’aide. Dans un
apprentissage en présentiel, cette situation peut être
esquivée par la présence de l’enseignant qui va
débloquer l’apprenant en apportant des explications,
éclaircissements et définitions lors de sa sollicitation.
Cependant, le résultat de ce blocage dans une situation
d’apprentissage à distance serait la perte et l’abandon
de cet apprenant.
La deuxième situation consiste en une mauvaise
lecture et compréhension de l’énoncé qui peut mener
l’apprenant à produire une solution erronée. Toutes les
actions entreprises suite à l’évaluation de cette solution
seront fondées sur un diagnostique floué et faussé par
cette mal compréhension de l’énoncé et ne seront par
conséquent adaptées et adéquates aux besoins de
l’apprenant.
Approche
Après l’étude des travaux réalisés sur l’axe de
l’assistance et l’aide à l’apprenant en situation de
résolution de problèmes. Nous proposons un modèle
d’assistance basé sur les ontologies.
Ce travail fait partie du projet de réalisation d’un
EIAH dédié à l’Algorithmique (Teimzit et al. 2011),
(Bey et Bensebaa 2011), (Bensalem et Bensebaa 2010).
Notre apport est le développement d’un modèle
d’assistance dans les situations de résolution de
problèmes basé sur les ontologies. Les aides proposées
seront mises à la disposition d’un apprenant en
situation de résolution de problèmes dans
l’environnement ALGO+ (Bey et Bensebaa 2011).
Chaque exercice proposé par l’enseignant sera décrit
par une ontologie de description de problème
algorithmique. Une base de règles heuristique sera
98
développée pour déterminer les aides adéquates selon
la description ontologique de l’exercice.
Conclusion
La phase d’analyse d’énoncés pendant la résolution des
problèmes dans les EIAH prend une place
prépondérante. Au cours de ce travail, le
développement d’un système d’aide pour les
apprenants dans les situations de résolution de
problèmes nous permettra de palier aux difficultés liées
à la compréhension des énoncés qui ont un effet négatif
sur la solution établie, et par conséquent, sur
l’évaluation et la correction des acquis de cet
apprenant.
Références
Beaufils, A. ; Blondel, F . M. ; Lenne, D. 1998. Aide,
conseil et explication dans les logiciels éducatifs (code
40117), Rapport de synthèse, INSTITUT NATIONAL DE
RECHERCHE PÉDAGOGIQUE, Technologies nouvelles
et Éducation.
Bensalem, H. and Bensebaa, T. 2010. Contribution to the
improvement of learning algorithmic In Proceedings of
the 10th International Educational Technology
Conference, Turkey Istambul.
Bey, A. and Bensebaa, T. 2011. Algo+, an assessment
tool for algorithmic competencies. In Proceedings of IEEE
Engineering Education 2011 Learning Environments and
Ecosystems in Engineering Education, EDUCON
Amman, Jordan. ISBN.
Bey, A. and Bensebaa, T. 2011. An e-Assessment
Approach of Algorithmic Problem-Solving Skills.
International Journal of Computer Applications
25(10):15-21,. Published by Foundation of Computer
Science, New York, USA.
Blondel, F . M. ; Schowb, M. ; Tarizzo, M. 1997.
Diagnostic et aide dans un environnement d'apprentissage
ouvert : Un exemple en chimie. SCHNAPS, STE – vol4,
no 4, 1997
Guin-Duclosson, N. and Nova, Nova. 2002. Utiliser des
connaissances abstraites ou contextualisées pour proposer
différents types d’aide. In Proceeding of Technologies de
l’Information et de la Communication dans les
Enseignements d’ingénieurs et dans l’industrie.
Schowb, M. ; , Blondel, F . M. ; Max, P. ; Ringard, A.
1998. Une aide centrée sur les concepts pour faciliter
l’apprentissage de la réaction chimique. In proceeding of
8èmes Journées Informatique et Pédagogie des Sciences
Physiques – Montpellier.
Tardif, J. 1992. Pour un enseignement stratégique,
l'apport de Ia psychologie cognitive. Montréal, Editions
Logiques.
Teimzit, A. ; Belhaoues, T. ; Bensebaa, T. 2011.
Ontoalgo : ontologie de domaine dans un EIAH
d’algorithmique. In Proceedings of the 1st International
Conference in Information Systems and Technologies,
ICIST, Tébessa, Algérie
Amiens – 23 et 24 mai 2012
Hypermédia adaptatif à épistèmes
pour l'apprentissage des langages de programmation
Pascal Ortiz
Laboratoire STEF, ENS-Cachan, 61 avenue du Président Wilson F-94235 Cachan cedex
[email protected]
manuel de référence.
Résumé
Les langages de programmation (LP) sont des outils
puissants dont l'apprentissage et la maîtrise
nécessitent des années. Aucun accompagnement
informatique n'offre actuellement une couverture
large et approfondie de l'apprentissage des LP.
L'objectif est de proposer un modèle d'hypermédia
adaptatif, basé sur le modèle cognitif proposé par la
théorie de la charge cognitive. Ce modèle est basé
sur une segmentation très fine du corpus de
connaissance.
Introduction
L'apprentissage de la programmation avec des
langages informatiques est difficile, en particulier
chez les apprenants novices (Robins et al. 2003). Les
ressources pour un apprentissage en autonomie d'un
curriculum
de
programmation
consistent
essentiellement en une transposition au format
pdf/html du corpus imprimé. Ces hypermédias ont
des fonctionnalités assez sommaires de navigation
(renvoi, index, table des matières), l'interactivité,
l'adaptativité et le guidage y sont inexistants, toute
mise à jour ou correction est impossible et le recours
au multimédia est limité. La progression est linéaire
et contraignante : pour accéder à une connaissance
exposée, l'apprenant doit, a priori, avoir parcouru
toutes celles qui la précèdent dans le document.
De nombreux hypermédias pour l'apprentissage d'un
LP ont été modélisés, voire expérimentés, mais leurs
ambitions de contenu sont souvent très réduites
(niveau, durée de l'apprentissage, nombre faible
d'apprenants) et leur utilisation reste confidentielle et
non coordonnée. L'unique système pérenne (né en
1998), et d'adoption vraiment large, est BlueJ
(Kölling 2008) ; il ne s'agit pas d'un système tutoré
mais d'un IDE pour débutants qui a évolué vers une
plate-forme pédagogique.
Le but du présent travail est de permettre
l'élaboration d'un hypermédia adaptatif (HA) des LP,
utilisable en autonomie ou en accompagnement d'un
enseignement et dont les objectifs premiers sont : i)
couvrir un champ très important du langage, ii)
s'adresser à un spectre large d'apprenants, iii) offrir un
continuum interactif entre guide d'apprentissage et
4ièmes Rencontres Jeunes Chercheurs en EIAH
Les Trois Concepts
Le modèle de domaine que nous proposons est du
type modèle en réseau de prérequis (Brusilovsky et
Millán 2007). Notre modèle est fondé sur les trois
concepts suivants : i) l'unité épistémique, ii) le graphe
des matières, iii) le rasoir d'Occam. Une unité
épistémique est un segment de connaissance de très
petite dimension, qui a été isolé du corpus de
connaissances à exposer. Le graphe des matières
définit les relations de prérequis entre deux unités
épistémiques. Le principe de délimitation de chaque
unité est le principe de parcimonie dit du « rasoir
d'Occam ».
Dans les exemples suivants, on se réfère au langage
Python. Admettons disposer d'un découpage du
domaine de savoir en un ensemble d'unités de
connaissance, de taille très réduite par rapport au
corpus global (unités épistémiques ou UE). Le contenu
d'une UE peut être de type très varié, à caractère
conceptuel (l'itération par exemple), procédural (le
schéma d'une boucle while), déclaratif (l'évolution des
versions d'un langage), pratique (références
bibliographiques), etc. Par exemple, on pourrait
considérer une UE de l'apprentissage du langage
Python intitulée : « Les booléens ». Cette unité doit
répondre à la problématique didactique suivante : i)
faire prendre conscience de la notion de valeur de
vérité, ii) exposer par un exemple très simple la
réalisation des booléens en Python, iii) préciser les
contraintes d'édition (les majuscules) des constantes
booléennes.
Le Rasoir d'Occam et ses Conséquences
Le principe fondamental de délimitation du contenu
d'une UE est le principe de parcimonie d'Occam.
Lors de l'exposition d'un contenu d'apprentissage, on
suppose acquises par l'apprenant les connaissances
nécessaires au traitement logique et à l'assimilation
cognitive du contenu à exposer, et seulement ces
connaissances-là. Ce principe est la réponse
essentielle à la surcharge d'exposition.
La dépendance entre les UE (cf. figure 1) traduit
d'abord une nécessité d'ordre logique : par exemple,
pour utiliser une instruction if,
if l'apprenant doit savoir
ce qu'est un booléen. Mais la dépendance peut aussi
être d'ordre pédagogique : l'unité « Valeur de vérité
d'objets quelconques » va dépendre directement de
99
Pascal Ortiz
l'unité « Instruction if » car cette dernière servira à
illustrer la notion vérité d'un objet non booléen ; ici,
la dépendance n'est pas d'ordre logique.
Un
langage
de
programmation
produit
fondamentalement du code-source. Ainsi, pour
constituer les UE, le développeur de contenus
analysera puis décomposera un corpus de codessource. Il s'agit d'un matériel tangible. La construction
du graphe des matières suit un procédé assez proche de
l'heuristique décrite dans (Sosnovsky et Gavrilova
2005) : une unité est extraite par une succession de
procédés descendants et ascendants.
Un HA à épistèmes permet de générer
automatiquement des parcours très fins d'apprentissage
mais surtout optimisés : le système peut calculer, à
partir des connaissances actuelles de l'apprenant et d'un
objectif défini par l'apprenant ou un tuteur, la totalité
du sous-graphe des unités
utiles, et proposer ainsi une
linéarisation cohérente et
optimale parmi tous les
parcours possibles.
été constitués : un pool d'environ 300 UE pour une
introduction au langage Python et un pool de 150 UE
traitant du sous-domaine plus avancé des expressions
régulières en Python. Un générateur de parcours a
été implémenté. Le contenu des UE est saisi dans un
langage de balisage léger (reST), convertible en XML.
Un générateur de documentation html/pdf est en
cours de réalisation. Le dispositif doit être complété
par i) la réalisation d'une interface graphique assurant
la navigation dans un espace de plusieurs centaines
d'UE, ii) un module de fouille évoluée permettant
d'extraire des informations à la fois fines (par ex. du
code-source) et génériques, autorisant un modèle
riche de l'apprenant.
Enfin, il est envisagé
d'incorporer dans l'hypermédia un certain nombre
d'éléments de la théorie de la charge cognitive
(Chanquoy et al. 2007).
Avantages et
Inconvénients
Une documentation à UE
présente
les
avantages
suivants :
− Prise en compte des
connaissances préalables
de l'apprenant, ce qui est
un point capital dans la
compréhension d'un texte
(Kintsch 1998).
Figure 1 : Les successeurs de l'UE « Les booléens »
− La limitation de la charge cognitive. La théorie de
la charge cognitive (Chanquoy et al. 2007) a
montré que la limitation de la charge cognitive est
un point déterminant dans l'acquisition de
connaissances. Le principe d'économie du rasoir
d'Occam optimise la charge cognitive intrinsèque.
− Meilleur contrôle des difficultés d'apprentissage
grâce à la granularité faible des UE. C'est un
facteur essentiel d'adaptativité.
− Extensibilité et robustesse : le système s'étend par
simple ajout d'unités épistémiques, et le contenu
d'une unité peut être modifié tant que son interface
est préservée.
Une documentation épistémique pose néanmoins
quelques difficultés : risque d'atomisation des
contenus, difficulté à intégrer des contenus ayant de
très nombreuses dépendances, risque de duplication de
contenus d'apprentissage, difficulté à recomposer des
contenus sans altérer l'ensemble des dépendances.
Perspectives, faisabilité
Références
Brusilovsky, P. ; and Millán, E. 2007. User Models
for Adaptive Hypermedia and Adaptive Educational
Systems. Lecture Notes in Computer Science
4321:3-53
Chanquoy, L.; Tricot, A.; et Sweller, J. 2007. La
charge cognitive. Armand Colin.
Kintsch, W. 1998. Comprehension, A Paradigm for
Cognition. Cambridge University Press.
Kölling, M. 2008. Using BlueJ to Introduce
Programming. Lecture Notes in Computer Science
4821:98-11.
Robins, A.; Rountree, J.; and Rountree, N. 2003.
Learning and Teaching Programming: A Review and
Discussion. Computer Science Education 13(2):137172.
Sosnovsky S.; and Gavrilova T. 2005. Development of
Educational Ontology for C-Programming. Int.
Journal Information Theories & Applications 13:303308.
Deux pools d'UE, complétés de leurs graphes des
matières, et s'adressant à des publics différents, ont
100
Amiens – 23 et 24 mai 2012
Gamification d’environnement informatique
Alain Simac-Lejeune
Docteur de moins d’un an
Litii, 15 rue Saint Exupéry, Alpespace, 73800 Françin, France
[email protected]
Résumé
Depuis quelques années, « les serious games » et les
« learning role-playing games » s’insèrent dans le
paysage des entreprises et des dispositifs de formation
grâce à leurs effets reconnus sur l’engagement. Cet
engagement est directement lié aux mécanismes de jeu
introduit et il est possible de créer cet engagement en
dehors de jeu en insérant ces mécanismes dans
n’importe quel environnement informatique : c’est le
processus de Gamification. Nous proposons dans cet
article de revenir sur le concept du Flow (l’état de
l’utilisateur), de définir la Gamification et ses règles
puis de l’appliquer à un système basique d’EIAH, avec
pour objectif la conception d’une approche générique de
gamification d’un système informatique.
Introduction
Le secteur de la formation a de plus en plus
fréquemment recours à des dispositifs utilisant le jeu
notamment pour ses effets reconnus sur l’engagement
des participants (Gee 2003) qui est un des facteurs clés
de la réussite d’un apprentissage. L’utilisation de
l’informatique pour l’apprentissage et l’enseignement se
développe et évolue sous le coup de différents facteurs
inter-reliés comme la poussée technologique (faible coût
des technologies, facilité et banalisation de leurs
usages), l’évolution des connaissances scientifiques, la
demande sociale ou encore l’évolution des pratiques des
enseignants et des élèves. Une pratique émergente est
l’utilisation du jeu dans les processus pédagogiques. Les
« serious games » est définit (Alvarez, 2006) comme un
logiciel combinant une intention sérieuse de type
pédagogique, informative, d’entrainement avec des
ressorts ludiques. Leur approche a permis de créer de
nouveaux
processus
pédagogiques
basés
sur
l’acquisition de compétences dans des jeux scénarisés.
Cependant les « serious games » restent des jeux et il
n’est pas forcément possible de transformer toute
activité en jeux. Une alternative est la gamification qui
consiste à introduire des mécanismes de jeu dans un
système classique.
Depuis 2006, l’approche « serious games » (Marty
2011) a permis de combiner une intention sérieuse de
type pédagogique, informatique, communicationnelle,
marketing, idéologique ou d’entraînement avec des
ressorts ludiques permettant de créer de l’engagement.
Mais bien que les serious games et la gamification aient
la même vocation, rendre attrayant la dimension sérieuse
par une forme une interaction, des règles et
éventuellement des objectifs ludiques ; ils se
4ièmes Rencontres Jeunes Chercheurs en EIAH
différencient également fortement par l’objet même du
système. Les serious games représentent un jeu alors
que la gamification consiste à apporter une dimension de
jeu dans un système qui n’en est pas un au départ.
La Gamification ou Ludification
On définit la gamification (ou ludification) comme le
transfert des mécanismes de jeu à d’autres domaines
notamment les sites web, les situations d’apprentissage,
les situations de travail ou les réseaux sociaux. Son
objectif est l’augmentation de l’acceptabilité et l’usage
d’applications en s’appuyant sur la prédisposition
humaine au jeu (Zichermann 2011). Pour (Kim 2000), la
gamification se résume à cinq caractéristiques
principales : collectionner, gagner des points, intégrer un
mécanisme de rétroaction, encourager les échanges entre
joueurs et permettre la personnalisation du service. Le
processus de gamification s’effectue en insérant des
mécaniques et dynamiques spécifiques au jeu dans un
système de vie réelle :
• les points qui permettent la gratification ;
• les niveaux qui permettent l’obtention de statut ;
• les challenges qui permettent la réalisation ;
• les badges stimulant la créativité ;
• les classements pour créer la compétition ;
• le don ou l’échange pour favoriser l’altruisme.
Le système n’est pas un jeu mais un service stimulé par
des mécaniques de jeu. Au final, pour gamifier, il faut
placer au centre du système des éléments à explorer ou à
maitriser et y insérer des mécaniques de jeu. Dans le
cadre d’un environnement d’apprentissage, la phase de
découverte et de maitrise de l’outil proposé pourrait être
gamifiée.
L’Etat de Flow
Figure 1 : Rapport entre compétences et niveau de difficulté
pour l’état du flow.
101
Alain Simac-Lejeune
Les mécaniques de jeu peuvent sembler rapidement
artificielles et inintéressantes (accumuler des point par
exemple). Il est donc nécessaire d’avoir une moyen de
rendre régulièrement attractif le système : c’est le
concept fondamental du Flow (figure 1) qui a été
théorisé par le psychologue positiviste Mihaly
Csikszntmihalyi dans (Csikszntmihalyi 1996). C’est un
état quasi hypnotique durant lequel la personne se
consacre entièrement et aveuglement à la tâche qu’elle
réalise en perdant la notion du temps et en connaissant
un profond sentiment de réussite et de dépassement.
Dans un jeu, cet état correspond à la situation où les
compétences attendues par un joueur sont exactement en
correspondance avec le challenge. En augmentant
constamment le niveau de challenge et les capacités, le
joueur connaît la sensation de dépassement perpétuel.
Exemple : la Prise en Main d’un EIAH
La première étape de nombreux EIAH est une phase de
découverte et de prise en main de l’outil par l’utilisateur.
Cette étape est réalisée de manière didactique la plupart
du temps parfois légèrement ludique notamment dans
les approches « serious games ». L’approche proposée
consiste à construire cette phase de découverte en
intégrant des mécanismes de jeu et une progression
(challenge) dans l’acquisition des compétences. Il faut
distinguer deux étapes dans le processus de gamification
du système : la définition des tâches à maîtriser ou
compétences à acquérir (les objectifs) et la définition des
éléments de la mécanique du système gamifié (les
moyens de réaliser ces objectifs). Dans notre démarche,
le but du processus est d’être autonome dans l’utilisation
du système. Pour cela, il est nécessaire d’accomplir un
certain nombre d’objectifs prédéfinis à difficulté
croissante et d’atteindre un statut « autonome ».
Définition du système d’EIAH utilisé
Le logiciel “Ambre” est un environnement informatique
pour l'apprentissage humain (EIAH) utilisé pour des
situations pédagogiques informatisées (SPI). Il a été
développé par l’équipe SILEX du laboratoire LIRIS de
Lyon (Guin-Duclosson 2011). Il a pour objectif de faire
émerger des apprentissages chez l'apprenant et de
l'amener à résoudre des problèmes de didactique des
mathématique par Raisonnement à Partir de Cas (RàPC).
Le système est composé de 5 étapes : lecture d’énoncé,
réécriture de problème, choix de modèle, rédaction de
solution et rangement du problème dans une classe
donnée.
Proposition de fonctionnement
Pour faire évoluer le système à travers une approche de
gamification, on introduit les mécanismes de jeu
présentés. L’état de Flow est conservé par
l’augmentation progressive de la difficulté des
opérations à réaliser. Le gain de point est obtenu par la
réalisation des étapes d’exercices, par la résolution
d’exercices, par barème concernant la rapidité
d’exécution, par évaluation de l’évolution de la rapidité
d’exécution. Il est possible de perdre des points
102
notamment lorsqu’on utilise l’aide ou lorsque le temps
d’exécution est important. Les points permettent
d’obtenir des statuts au nombre de 4 (débutant,
découvreur, confirmé, et apprenant). Le but étant
d’obtenir le statut d’apprenant pour être un utilisateur
autonome du système. Dans une première version, nous
proposons de définir 20 challenges allant d’actions
basiques comme « lire un énoncé » à des plus difficiles
comme « résoudre un exercice de niveau 2 » ou à des
actions récurrentes/répétitives comme « résoudre un
exercice au moins, 3 jours de suite ». Ces challenges et
les statuts permettent l’obtention de 10 badges comme
« Apprenant ». A la fin de chaque exercice ou à la fin
d’une séquence (groupe d’exercices), un classement
basé sur les points obtenus dans un statut donné ou tout
statut confondu est proposé. Des challenges pourraient
être proposés concernant la position dans le classement
ou l’évolution du classement entre deux séquences.
Conclusions et Perspectives
Nous avons proposé d’utiliser une approche de
gamification dans le cadre de la prise en main d’un
EIAH.
La
gamification
est
un
processus
particulièrement intéressant dans la découverte,
l’exploration ou la recherche de maitrise d’un système et
se prêt donc bien à la phase de découverte d’un EIAH.
C’est une alternative particulièrement intéressante pour
les EIAH qui ne reposent pas sur une approche « serious
games ». Mais c’est surtout une approche d’avenir qui,
comme l’affirme Jane McGonigal (McGonigal 2011),
est un moyen de rendre les gens heureux mais surtout de
les inspirer à collaborer pour résoudre des problèmes.
Ce dernier point représente une perspective majeure
pour les EIAH. La gamification serait peut-être une
solution pour permettre de construire des systèmes
d’apprentissage collaboratifs.
Références
Alvarez, J, Djaouti, D. : Introduction au Serious Game,
Questions théoriques, p.22-29, 2010.
Csíkszentmihályi, M. eds.1996. Creativity: Flow and the
Psychology of Discovery and Invention, New York:
Harper Perennial.
Gee, J.P. What video games have to teach us about
learning and literacy. Palgrave Macmillian, 2003.
Guin-Duclosson N., Jean-Daubias S. et Nogry S. : « Le
projet AMBRE : utiliser le RàPC pour enseigner des
méthodes », Atelier RàPC’2011, P.17-21.
Kim, A.J. eds 2000. Community Building on the Web :
Secret Stragetgies, Peachpit Press.
Marty, JC. And Carron T. eds 2011: Hints for Improving
Motivation in Game-Based Learning Environment,
Chapter of Handbook of Research on Increasing
Motivation and Learning, IGI Global.
McGonigal, J. eds 2011: Reality is Broken, Penguiun
Press HC.
Zichermann, G. and Cunningham, C. eds 2011:
Gamification by Design: Implementing Game
Mechanics in Web and Mobile Apps. O’Reilly Media.
Amiens – 23 et 24 mai 2012
Mes notes
Mes notes
Mes notes
Mes notes
Mes notes
Mes notes
Comité de programme
Président : Thibault Carron (Université de Savoie)
Membres :
Nicolas Balacheff (LIG, Université Grenoble)
George-Louis Baron (EDA, Université Paris 5) )
Marie-Laure Betbeder (LIFC, Univ. Franche Comté)
Jacques Béziat (EDA, Université Paris 5)
Jean-François Bourdet (LIUM, Université de Maine)
Amel Bouzeghoub (GET-INT, Evry)
Eric Bruillard (STEF, ENS Cachan)
Jean-Marie Burkhardt (ECI, Université Paris 5)
Pierre-André Caron (Cirel, Université de Lille 1)
Hamid Chaachoua (LIG, Université Grenoble 1)
Christophe Choquet (LIUM, Université du Maine)
Thierry Condamines (MIS, Université de Picardie Jules
Verne)
Philippe Cottier (LIUM, Université du Maine)
Bruno De lièvre (UTE, Université de Mons-Hainaut)
Amaury Daele (CSE, Université de Lausanne)
Elisabeth Delozanne (LUTES, Université Paris 6)
Christophe Després (LIUM, Université du Maine)
Stéphanie Jean-Daubias (LIRIS, Université Lyon 1)
Sébastien George (Université de Lyon)
Viviane Guéraud (LIG, Université Grenoble)
Nathalie Guin (LIRIS, Université Lyon 1)
Sébastien Iksal (LIUM, Université du Maine)
Céline Joiron (MIS, Université de Picardie)
Jean-Marc Labat (LIP6, Université Paris 6)
Mona Laroussi (INSAT, Tunis)
Elise Lavoué (CR Magellan, Université Lyon 3)
Dominique Leclet (MIS, Université de Picardie Jules
Verne)
Marie Lefevre (Liris, Université de Lyon 1)
Dominique Lenne (Heudiasyc, Université de
Technologie de Compiègne)
Jean-Charles Marty (LIRIS, Université de Lyon 1)
Florence Michau (LIG, Université Grenoble)
Alain Mille (LIRIS, Université de Lyon 1)
Ludovic Morge (IUFM Auvergne)
Elke Nissen (LIDILEM, Université Grenoble 3)
Thierry Nodenot (LIUPPA, IUT de Bayonne)
Magali Ollagnier-Beldame (LIRIS)
Jean-Philippe Pernin (LIG, Université Grenoble)
Yvan Peter (LIFL, Université Lille)
Christophe Reffay (LIFC, Univ. Franche Comté)
Marilyne Rosselle (MIS, Université de Picardie Jules
Verne)
Audrey Serna (Université de Lyon)
Patrice Torguet (IRIT, Toulouse)
André Tricot (IUFM, Toulouse)
Lucile Vadcard (LSE, Université Grenoble 2)
Thomas Vantroys (LIFL, Université Lille)
Emmanuelle Villiot-Leclerq (IUFM Grenoble 1 et
TECFA Genève)
Comité d'organisation
Présidente : Céline Joiron (MIS, Université de Picardie Jules Verne)
Membres :
Thierry Condamines
Laure Devendeville
Valérie Faqui
Dominique Leclet
Marilyne Rosselle