dispositif d`evaluation
Transcription
dispositif d`evaluation
1 DISPOSITIF D’EVALUATION Michel ARNAUD CRIS Paris Ouest I- Evaluation dans le cas de l’audit, du cahier des charges ou du prototype Dans les trois cas (audit, cahier des charges pour un projet et prototype), il est nécessaire de mettre au point un dispositif d’évaluation. Les étapes en vue de produire le document demandé dans le cadre de cet EC concernent : • le choix des critères d’évaluation et la rédaction d’une batterie d’indicateurs, • l’organisation du test du prototype ou dans les deux premiers cas, une compilation de données recueillies à des fins d’évaluation (à partir d’études antérieures ou au moyen d’un questionnaire spécifique), • l’analyse des résultats, • les propositions d’amélioration du dispositif au vu des résultats de l’évaluation. II 1) Définition des indicateurs pour réaliser l’évaluation Définition des critères d’évaluation Définition des critères d’évaluation par rapport : - au public cible, - à la problématique, - aux objectifs, - aux contenus proposés, - aux services proposés, - à la structure d’accompagnement. Le public cible tel qu’il a été défini dans l’étude de besoins permet de préciser les aspects spécifiques de la demande qui sont à prendre en compte. Il se peut qu’il y ait des besoins non exprimés et qui doivent être mis à jour et pris en considération, au-delà de ceux dont le projet a tenu compte. Cet aspect fait partie de la problématique. Celle-ci peut également concerner de manière plus large la manière dont les moyens sont mobilisés pour atteindre les objectifs du projet. L’équipe projet a interprété les enjeux à sa manière et peut être évaluée en fonction des services, contenus et structure d’accompagnement qu’elle a mis en place pour répondre à la demande. Les objectifs étant définis dans les spécifications fonctionnelles et repris dans le cahier des charges, peuvent donc être évalués en fonction de ce qu’on connaît du projet, à savoir s’ils ont été bien définis en fonction de la demande ou d’autres considérations. Les contenus aussi sont à évaluer en fonction des objectifs fixés (pertinence, accessibilité, etc..) et aussi de la manière aussi dont ils sont présentés. L’évaluation des services d’accompagnement peut s’effectuer à partir de l’analyse de leur adéquation à la demande d’aide de la part des publics concernés. 2 La structure du projet est à évaluer en fonction de critères liés à sa nature (robuste, facile à utiliser, efficacité des fonctions proposées, etc.), et à sa construction (rigueur du cahier des charges, développement ayant suivi à la lettre ce dernier). Il est évident que la personne qui a conçu le projet ne peut pas l’évaluer, si vous êtes dans le cas du prototype que vous avez développé. Il convient alors que vous trouviez des collègues ou d’autres personnes qualifiées pouvant évaluer votre projet. 2) Mise au point des indicateurs Dans le cas du prototype, après avoir sélectionné les sites de test, il s’agit de déterminer le public cible, les animateurs et évaluateurs à mobiliser, les contenus à rendre accessibles aux moments demandés, d’établir le calendrier de l’évaluation. Dans les trois cas, c’est-à-dire y compris pour l’audit et le cahier des charges, il convient d’identifier les variables significatives relatives aux points mentionnés dans l’étude de faisabilité, l’étude de besoins, les spécifications portant sur : 1) le contenu du projet : respect de la définition du public cible, adéquation aux objectifs, validité du contenu, efficacité de l’approche multimédia. 2) le mode de développement du projet : cohérence du projet, conduite rigoureuse, motivation des personnes concernées par sa conception. De nombreux indicateurs peuvent être conçus en guise de tableau de bord des activités d’un dispositif que vous auditez ou dont vous faites partie (cahier des charges) ou enfin que vous expérimentez (prototype), afin de mesurer autant que faire se peut l’adéquation des réponses apportées aux besoins de la population cible. Au stade où vous en êtes rendus pour l'instant dans le développement de votre projet, sauf s’il s’agit d’un audit, il est prématuré d'entrer trop avant dans les différentes problématiques qualité. Toutefois, nous vous recommandons de le planifier, dès à présent, dans une optique de management de la qualité avec, au minimum, une volonté de mise sous contrôle en suivant, dès le départ, les recommandations suivantes : Gérer la qualité 1. Définissez vos processus en élaborant un tableau de bord pour sa réalisation : les processus définissent les activités développées dans le cadre du dispositif étudié. Dans le cas d’un audit ou d’un cahier des charges, ces procédures sont à évaluer au moyen d’indicateurs à définir avec le plus de précision possible sans pour autant que vous soyez en mesure de les utiliser complètement par manque d’information pertinente. Dans le cas d’un prototype, ces indicateurs vous permettront de contrôler la bonne marche de votre projet et de suivre les actions de préparation et de sa mise en place dans un EPN ou un réseau d’EPN. L’efficacité de votre action dépend largement de la qualité de sa conception. Prévoyez plusieurs indicateurs pour mesurer l’écart entre vos prévisions et vos réalisations. Veillez à la pertinence de ces indicateurs : rendent-ils compte du suivi général de l’action ? De l’atteinte des objectifs ? De l’efficacité des ressources mises en œuvre ? 2. Déterminez 5 types d’indicateurs : • des indicateurs de conformité : ce que j’observe est-il conforme à ce qui était 3 • • • • prévu ? des indicateurs de cohérence : ce qui est mis en place est-il cohérent ou contradictoire avec d’autres procédures de l’institution, l’entreprise ou l’organisation ? des indicateurs de pertinence : ce qui a été mis en place est-il adapté à l’objectif visé ? des indicateurs d’efficience : ce qui a été mis en place produit-il les effets escomptés en respectant les coûts, la qualité, la quantité et les délais ? des indicateurs de satisfaction qui seront surtout pertinents lors de la réalisation de la prestation. 3. Définissez les indicateurs relatifs à une politique d’entreprise, en fonction des priorités d’action : existe-t-il un suivi pertinent des objectifs à court, moyen et long terme ? La réduction de la fracture numérique, le développement du lien social par les TIC ou autre thème choisi doivent être au centre de votre analyse. 4. Collectez les informations d’évaluation de la qualité à partir de diverses méthodes qualitatives et quantitatives. Etablissez des questionnaires concernant : • les utilisateurs : la population des utilisateurs est-elle bien ciblée ? Ont-ils les prérequis nécessaires (compétences procédurales) pour mener à bien leur projet personnel ou collectif? Sont-ils satisfaits ? • les ateliers d’animation et de formation : le programme est-il pertinent ? Correspond-il à l’attente des utilisateurs et des commanditaires ? La formation pratique est-elle suffisamment développée ? Les moyens techniques, organisationnels et humains mis à disposition sont-ils adaptés ? • la pertinence du programme par rapport au projet de l’organisation : le programme est-il cohérent avec la politique de l’organisation ? La planification ? Le nombre et la répartition des utilisateurs sont-ils raisonnables ? La durée prévue pour les ateliers estelle adaptée ? • les résultats attendus : ont-ils été atteints ? La partie exercices et travaux pratiques est-elle suffisante ? L’efficacité et la performance sont-elles prises en considération dans la grille de résultats ? Comment s’est fait le transfert en situation professionnelle ? Veillez à ce que chacun s’accorde sur l’importance des résultats. Si les avis diffèrent, réexaminez en conséquence la mise en œuvre du plan de formation et de développement. 5. Analyser les informations recueillies pour évaluer et améliorer les programmes. Observez attentivement la réalité par rapport au programme initial : ce qui est observé estil conforme à ce qui était prévu ? Si tel n’est pas le cas, quels sont les risques encourus ? Comment s’expliquent-ils ? Le budget et les délais sont-ils respectés ? 6. Réfléchissez aux moyens d’améliorer la situation pour éviter de répéter les erreurs passées. Repérez les points forts et les points faibles de chacune des actions par rapport aux différents critères des questionnaires. Etablissez des recommandations pour traiter les causes de dysfonctionnement. 7. Mettez en œuvre un dispositif de suivi et de régulation : rédigez une synthèse des évaluations et communiquez-la aux décisionnaires pour obtenir leur feed-back. Visez toujours la qualité optimale. 4 III - Organisation de l’évaluation du projet Il y a deux formes d’évaluation à envisager : dans le cas d’un audit de dispositifs existants ou d’un cahier des charges pour un projet en cours ou en gestation, il s’agit de réaliser une évaluation globale sous forme d’interprétation des données disponibles à compléter par des entretiens pour vérifier les interprétations tirées de l’analyse des données. Tandis que dans le cas d’un prototype, il est possible d’envisager un questionnaire à faire remplir par les utilisateurs cobayes et une grille d’évaluation remplie par les évaluateurs qui auront observé en présentiel (dans le même lieu que les utilisateurs cobayes) ce qui se sera passé, afin de pouvoir analyser des données recueillies selon une méthodologie la mieux adaptée aux buts poursuivis. 1) Cas particulier de l’évaluation du prototype a) Sélectionner les sites de tests, déterminer le public cible, les animateurs et évaluateurs à mobiliser, les contenus à rendre accessibles aux moments demandés, établir un calendrier Pour les sites à sélectionner, il s’agit de définir les lieux où vont se dérouler les expérimentations du projet, que ce soit une salle de cours équipée d’ordinateurs, une salle de ressources informatiques, un télécentre communautaire, des locaux privés, etc… Les caractéristiques des utilisateurs cobayes doivent correspondre à celles du public cible. On veillera à avoir un échantillon le plus représentatif possible. Les contenus à mettre à disposition seront en ligne et accessibles aux utilisateurs et aux animateurs/tuteurs, ce qui signifie que les droits d’accès correspondants leur aient été accordés. Le calendrier est à fixer en fonction des disponibilités à la fois du public cible, des animateurs, des évaluateurs et des locaux où vont se dérouler les expérimentations. Le temps à consacrer avant l’expérimentation proprement dite comprend celui passé à la mise en ligne des contenus y compris l’ouverture des droits, la préparation des lieux de réception, la convocation des utilisateurs, animateurs/tuteurs et évaluateurs. Dans le cas d’un audit, il serait souhaitable de trouver des résultats recensés correspondant à des configurations équivalentes à celle précédemment décrite. b) Mise au point des modalités de l’évaluation : constitution de l’équipe d’évaluateurs de votre prototype L’évaluation se déroule à deux niveaux. D’abord, il est souhaitable que vous soyiez en mesure de recueillir les performances des utilisateurs cobayes de telle sorte que vous puissiez mesurer leur degré de réussite et leur degré de compréhension des contenus proposés. Si votre panel d’utilisateurs cobayes est bien constitué, vous devriez avoir un éventail assez large de résultats permettant de repérer qui a obtenu quel résultat et pour quelles raisons. 5 L’autre niveau de l’évaluation se déroule sous la forme du recueil et de l’analyse des réponses aux questionnaires donnés aux utilisateurs cobayes après que les séquences d’initiation à Internet, au suivi de projets individuels et collectifs (apprentissage en ligne par exemple) aient été complétées ainsi qu’aux évaluateurs ayant observé le déroulement de ces mêmes séquences à la fois pour la partie se déroulant sur place et pour celle se déroulant à distance. Cette équipe d’évaluateurs doit être la plus impartiale possible, ni pour ni contre le projet en question, mais capable de faire des observations fondées. Il serait souhaitable de vérifier que ces évaluateurs ont bien compris ce qu’il leur est demandé en parcourant avec eux les questionnaires de telle sorte qu’ils sachent aider éventuellement les utilisateurs s’ils ne saisissaient pas les termes d’une question et puissent la reformuler. Il serait souhaitable de pouvoir croiser les résultats effectifs obtenus par tel et tel type d’utilisateurs et leurs réponses aux questionnaires d’évaluation de telle sorte qu’on puisse discerner une éventuelle corrélation entre profils spécifiques d’utilisateurs, résultats obtenus et appréciations portées sur le projet lui-même. Le rapport réalisé par l’équipe d’évaluateurs à partir de l’analyse des résultats tirés des questionnaires doit être adressé à l’animateur référent dans le cadre de votre projet dans les délais fixés d’un commun accord et en tout cas respectant les dates limites de remise des travaux. c) Estimation et programmation du temps nécessaire pour tester le prototype, en activant l’équipe d’animateurs et d’évaluateurs. Le temps consacré à l’expérimentation proprement dite comprend celui nécessaire à la complétion des séquences d’initiation à Internet, au suivi des projets individuels et collectifs, entrant dans l’évaluation ainsi que celui passé à remplir ensuite les questionnaires d’évaluation. IV - Exploitation des résultats de l’évaluation 1) Compilation des résultats par indicateurs. Des calculs statistiques sont à effectuer éventuellement pour vérifier la validité des résultats (calculs de la variance, du Khi 2, etc..). On veut utiliser des résultats quantifiés tirés des questions relatives aux contenus, aux démarches d’interactions, à la réalité et au sentiment d’avoir appris quelque chose, enfin aux rapports aux tuteurs et aux autres apprenants. Les indicateurs sont à bâtir en fonction de certaines variables de base relatives à l’appréciation de l’utilisateur vis-à-vis du dispositif, telles que la mesure de : - l’accessibilité (du local, des machines), - la facilité d’usage des outils disponibles («chat », forum, etc…), - l’ergonomie du dispositif (système d’identification, présentation générale, etc..), - la lisibilité des icônes sur l’écran (pour le « browsing », la navigation, etc…), - la présentation des contenus (clarté, concision, etc..), 6 - l’intérêt des exercices proposés etc... NB : le même questionnaire doit être rempli par les animateurs/tuteurs donnant ainsi son avis sur ces mêmes aspects du projet présenté. 2) l’évaluation de l’utilisateur par l’animateur/tuteur, telles que la mesure de : - sa facilité d’accès au logiciel, - son mode d’usage des outils de communication (intuitif, raisonné, etc..), - sa manière de naviguer dans la séquence (séquentielle, décousue, etc..), - son mode de communication avec les autres utilisateurs (très, peu ou pas du tout communicatif), - ses réactions devant une difficulté (fait appel plutôt à un autre utilisateur ou à l’animateur/tuteur présent ou à distance, etc..). A rapprocher des résultats obtenus aux tests finaux de la séquence (ce qui suppose évidemment que les utilisateurs soient identifiés à la fois pour les tests finaux et leurs réponses aux questionnaires). Les indices à formuler à partir de l’analyse des résultats tirés de ces indicateurs tourneraient autour de l’identification du comportement des utilisateurs en fonction de leurs attitudes personnelles et des possibilités d’interactions offertes par le projet. Ceci entrerait dans une démarche d’optimisation de la valeur sociale du projet. 2) Présentation et interprétation des résultats Les principaux objectifs de ce rapport sont de pouvoir mesurer à partir de l’analyse de l’ensemble des indicateurs tirés des résultats des questionnaires. La présentation des résultats doit prouver la bonne qualité de certains aspects du projet et déterminer les autres aspects nécessitant une amélioration ou une remise en ordre. V - Amélioration du projet et élaboration d’une charte de conception en fonction des résultats de l’évaluation Cette étape est difficile à implémenter dans le cadre d’un projet durant seulement quelques mois. Néanmoins, il nous a paru utile de l’inclure de telle sorte que vous ayez une idée de la manière de procéder si d’aventure vous étiez en position de pouvoir continuer votre projet et de l’améliorer dans une phase ultérieure. 1) Modification de la conception en fonction des résultats de l’évaluation Modification de la conception en fonction des résultats de l’évaluation dont les conséquences se font sentir sur : - les choix les plus adaptés aux besoins et capacités des utilisateurs, avec indication des seuils de progression, 7 - les options technologiques en fonction des données techniques : capacités des réseaux, équipement disponible pour les utilisateurs, et les scénarios combinant les choix et les capacités des utilisateurs en fonction du matériel disponible (y compris les conditions de connexion). Le modèle idéal serait un projet qui offrirait la possibilité de modifier les scénarios d’usages en fonction des souhaits des utilisateurs. Il y aurait donc une adaptabilité du projet en fonction du degré d’autonomie des utilisateurs, de leur possibilité de se prendre en charge seuls et en groupe, de leur besoin de communiquer entre eux et avec les animateurs/tuteurs. 2) Nouvelle expérimentation comprenant également une nouvelle évaluation sur les points améliorés Dans le cadre de votre projet, si les modifications envisagées ne remettent pas en question les fondements de votre approche conceptuelle et de votre développement, vous pouvez envisager de modifier certains aspects afin de le rendre plus performant et plus proche des besoins des utilisateurs. Il est toujours souhaitable de se donner les moyens de modifier un modèle, une approche à condition d’en avoir les moyens matériels et humains. 3) Elaboration d’une charte de conception de telle sorte que cette démarche soit à la fois la plus flexible et la plus formalisée possible. Au vu de toutes ces considérations relatives à l’évaluation de votre projet et des résultats obtenus, il serait souhaitable que vous envisagiez de rédiger en annexe de votre projet une charte de conception décrivant très précisément ce qui s’est passé depuis les phases initiales de l’étude de besoins, des spécifications fonctionnelles et du cahier des charges jusqu’à l ‘évaluation de votre projet complètement développé. Cette charte expliquerait les conseils que vous donneriez à un concepteur de telle sorte qu’il/elle évite les pièges où vous pensez être tombé ou que vous avez justement réussi à éviter. Bibliographie : Manuel d’évaluation des projets du 5ème PCRD de l’Union Européenne http://www.cordis.lu/fp5/src/evalman.htm