Évaluer l`efficacité des documents techniques procéduraux
Transcription
Évaluer l`efficacité des documents techniques procéduraux
Cet article est disponible en ligne à l’adresse : http://www.cairn.info/article.php?ID_REVUE=TH&ID_NUMPUBLIE=TH_651&ID_ARTICLE=TH_651_0001 Évaluer l’efficacité des documents techniques procéduraux : un panorama des méthodes par F. GANIER | Presses Universitaires de France | Le travail humain 2002/1 - Volume 65 ISSN 0041-1868 | ISBN 2130526950 | pages 1 à 27 Pour citer cet article : — Ganier F., Évaluer l’efficacité des documents techniques procéduraux : un panorama des méthodes, Le travail humain 2002/1, Volume 65, p. 1-27. Distribution électronique Cairn pour Presses Universitaires de France . © Presses Universitaires de France . Tous droits réservés pour tous pays. La reproduction ou représentation de cet article, notamment par photocopie, n'est autorisée que dans les limites des conditions générales d'utilisation du site ou, le cas échéant, des conditions générales de la licence souscrite par votre établissement. Toute autre reproduction ou représentation, en tout ou partie, sous quelque forme et de quelque manière que ce soit, est interdite sauf accord préalable et écrit de l'éditeur, en dehors des cas prévus par la législation en vigueur en France. Il est précisé que son stockage dans une base de données est également interdit. THÉORIES ET MÉTHODOLOGIES THEORIES AND METHODOLOGIES ÉVALUER L’EFFICACITÉ DES DOCUMENTS TECHNIQUES PROCÉDURAUX : UN PANORAMA DES MÉTHODES par F. GANIER* SUMMARY EVALUATING THE EFFICIENCY OF TECHNICAL DOCUMENTS : A PANORAMIC VIEW This paper takes a panoramic view of the methods employed in testing the usability of technical documents. Three different kinds of approach are distinguished that, between them, embrace the multi-faceted aims of different kinds of evaluation (i.e., usability verification, choice-support and troubleshooting). These three approaches have been described by Schriver (1989) as (a) document-focused ; (b) expert-focused ; and (c) user-focused. This paper outlines the main characteristics and ways of proceeding for each set of approaches, and discusses their strengths and weaknesses. Document-focused methods focus on the document itself (and use measures such as readability formulae). Such measures can be used without recourse to experts or to readers. This advantage, however, has limitations. Readability formulae, for example, are only suitable for assessing the text, and they do not consider linguistic factors (e.g., terminology, syntax, and information organisation), para-linguistic factors (e.g., information layout), extra-linguistic factors (e.g., information presentation format), contextual factors (e.g., device affordance) or individual factors (e.g., prior knowledge). However, they can be used to compare different versions of the same or similar documents. Expert-focused methods focus on expert readers (and use measures such as technical review). Such methods are useful for assessing the content of a document, because of the experts’ knowledge, but experts sometimes lack the ability to assess the suitability of the text for non-expert readers. User-focused methods focus on these actual readers. Such methods include both process and outcome measures. Process measures rely on behavioural tests (such as performance tests, and analyses of reading behaviour) as well as verbal protocols. Outcome measures include comprehension and memory tests and users’ judgements. User-focused methods are useful for revealing misconceptions in the design of a document and in its suitability for the user, but they are rarely suitable for judging the content of a document. The review concludes by suggesting that an integrated approach that combines expert- and reader-focused methods is a precondition for the effective design and evaluation of technical documents. Key words : Document-Focused Methods, Evaluation, Expert-Focused Methods, Reader-Focused Methods, Technical Writing, Usability Testing. * SUFC, Université de Bretagne occidentale, 20, avenue Le Gorgeu, 29200 Brest, et CRP2C, Université de Haute-Bretagne - Rennes II, 6, avenue Gaston-Berger, 35000 Rennes. E-mail : [email protected]. Le Travail Humain, tome 65, no 1/2002, 1-27 2 F. Ganier I. INTRODUCTION Depuis quelques années, de nombreuses recherches ont pour objet l’évaluation de l’utilisabilité de produits destinés au grand public (notamment dans le domaine de l’ergonomie de logiciels). Toutefois, très peu sont consacrées à l’évaluation de l’utilisabilité des documents les accompagnant. Or, les constats fréquents d’échecs d’utilisation de tels produits et de retours-clients de produits ne présentant aucun défaut technique ou fonctionnel renverraient à l’inefficacité de ces documents (Ganier, 1999 ; Ganier & Heurley, sous presse ; Heurley, 1994 ; Heurley & Ganier, sous presse ; Richard, 1990 ; Sweller & Chandler, 1994). Pourtant, une conception adaptée de ces documents s’avère essentielle du fait qu’ils constituent la principale – voire l’unique – source d’information disponible en termes d’aide à l’apprentissage et d’aide à la résolution de difficultés (Allwood & Kalen, 1997 ; De Jong & Lentz, 1996). Dans la pratique, on constate que les industriels qui utilisent systématiquement ce type de document, n’ont pas, en général, dépassé l’intuition dans le développement d’études ou de techniques visant à en améliorer la qualité (c’est-à-dire la lisibilité et l’efficacité). De fait, la démarche d’évaluation de l’utilisabilité des documents techniques est souvent absente du processus de conception, alors qu’elle devrait naturellement en faire partie. Au mieux, elle survient au terme du processus de conception du produit que les documents sont destinés à accompagner, au risque de manquer de temps pour les réviser avant leur lancement sur le marché (Clegg, 1995 ; Weiss, 1988). Parmi les arguments avancés par les industriels pour marquer leurs réticences à mettre en pratique l’évaluation de documents, Clegg (1995) cite le coût et la durée de telles études, ainsi que la non-disponibilité d’un produit fonctionnel au moment de l’évaluation du document. Un travail important reste donc à effectuer pour convaincre les industriels de l’avantage qu’ils auraient à disposer de documents pertinents et clairs, et pour les aider à élaborer et à tester de tels documents. De ce point de vue, les connaissances accumulées en psychologie et ergonomie devraient permettre de mettre à la disposition des rédacteurs techniques et des industriels des indications méthodologiques et techniques quant à la façon de concevoir et réaliser des tests d’utilisabilité des notices, modes d’emploi, fiches techniques, etc. Dans cette perspective, cet article présente une revue des méthodes consacrées à l’évaluation de l’utilisabilité des documents techniques procéduraux. Visant d’abord l’application sur le terrain, l’accent est mis sur l’importance que revêtent les objectifs de l’évaluation dans le choix de méthodes appropriées et sur la simplicité de mise en œuvre et la rapidité de recueil de données permises par les méthodes présentées. Évaluer l’efficacité des documents techniques I . 1. SPÉCIFICITÉS 3 DES DOCUMENTS TECHNIQUES Présentés sur support papier, magnétique (cassettes vidéo) ou numérique (CD-ROM), les documents techniques combinent un volume important d’informations de nature déclarative et procédurale (Ummelen, 1997) sous forme linguistique (écrite ou sonore), graphique (statique ou animée) ou audiovisuelle. On peut les diviser en deux catégories : documents procéduraux et non procéduraux, selon qu’ils sont destinés à la réalisation de tâches ou l’apprentissage du fonctionnement de systèmes, mécanismes ou processus (Heurley & Ganier, sous presse ; Ummelen, 1997). Les documents techniques procéduraux (aides en ligne, consignes de sécurité, instructions de montage, livres de recettes, manuels d’utilisation, modes d’emploi, etc. : Heurley, 1994, 1997) renvoient à l’utilisation de produits de consommation (programmer un magnétoscope, utiliser un logiciel) ou à l’exécution de procédures dans la vie quotidienne (remplir un formulaire administratif, jouer à un jeu, réaliser une recette de cuisine) ou en situation de travail (réaliser un montage particulier, résoudre une situation incidentelle). Ces documents contiennent en majeure partie des instructions procédurales qui décrivent des actions à accomplir en vue de la réalisation d’un but (Heurley, 1994, 1997), mais aussi des définitions et des descriptions concernant les conditions des actions et les résultats de celles-ci (Kieras & Bovair, 1984). Ils sont généralement conçus pour répondre à la question : « Comment faire pour... ? » (Kieras & Bovair, 1984) et leur utilisation vise essentiellement l’exécution immédiate des procédures décrites. De ce fait, leur lecture ne constitue qu’une tâche secondaire permettant de réaliser une tâche principale : exécuter une procédure, résoudre un problème, etc. En outre, la réalisation correcte des actions peut constituer un critère de contrôle de la compréhension des informations présentées (Ganier & Heurley, sous presse ; Richard, 1994). Les documents techniques non procéduraux (fiches techniques, encyclopédies techniques, etc.) ont pour objectif d’expliquer la structure et le fonctionnement d’un dispositif (ex. : moteur, système de freinage) ou le déroulement d’un processus (ex. : traitement biologique des eaux usées) en l’absence de ceux-ci (Mayer, 1989). Ces documents explicatifs contiennent principalement des informations de nature déclarative (définitions et descriptions des composantes d’un système, de leurs relations, des principes généraux de fonctionnement ainsi que du contexte dans lequel il est utilisé) et sont conçus pour répondre à la question : « Comment le système fonctionne-t-il ? » (Kieras & Bovair, 1984). Leur objectif principal est la compréhension et/ou la mémorisation des informations présentées, éventuellement en vue d’une application ultérieure. En effet, dans certains cas, les descriptions figurant dans les documents non procéduraux peuvent être transformées en procédures par l’utilisateur1. Par 1. Du fait de la diversité des objectifs de lecture (retrouver l’information nécessaire à la résolution d’un problème, lire pour faire, lire pour apprendre, etc.) et de la variété des activités induites par le traitement des informations présentées dans les documents techniques (recherche d’informations, apprentissage, réalisation d’une tâche, etc.), les individus qui interagissent avec ces documents sont qualifiés d’utilisateurs et non de lecteurs. 4 F. Ganier exemple, la description de mouvements natatoires particuliers lue dans une fiche technique peut être transformée en instructions lorsqu’il s’agit d’enseigner ces mouvements à d’autres individus. Bien que l’évaluation de l’utilisabilité des documents techniques procéduraux constitue l’objet principal de cet article, les objectifs d’évaluation et les méthodes décrites peuvent s’appliquer dans certains cas aux documents techniques non procéduraux, du fait qu’ils induisent un certain nombre d’activités similaires : recherche d’informations, résolution de problèmes, apprentissage, etc. I . 2. LA CONCEPTION DES DOCUMENTS PROCÉDURAUX Lorsqu’on considère les différentes étapes d’élaboration d’un document procédural, depuis sa conception jusqu’à son utilisation, on constate que l’information initiale livrée sous forme de descriptif technique par le concepteur du produit subit diverses transformations avant d’aboutir à la mise en forme du document fourni à l’utilisateur. Ces transformations d’informations essentiellement descriptives en informations procédurales semblent poser des difficultés aux rédacteurs qui se trouvent de surcroît confrontés au problème du choix d’images, de schémas, de tableaux, de textes pour transmettre ces informations. Pour leur venir en aide, certains organismes publics ou privés publient des recueils de recommandations (CEP, 1983 ; ISO/CEI, 1995). Par ailleurs, ils peuvent également s’appuyer ÉLABORATION DU PRODUIT ET DU DOCUMENT L’ACCOMPAGNANT CONCEPTEUR DU PRODUIT Descriptif technique RÉDACTEUR DU DOCUMENT TECHNIQUE COMMERCIALISATION Document final UTILISATEUR DU PRODUIT Version(s) intermédiaire(s) RÉVISION par des experts internes à l'entreprise (dont concepteur du produit) Fig. 1. — Exemple de processus classique d’élaboration d’un document technique destiné à accompagner un produit de consommation. Les chiffres indiquent les principales étapes de l’élaboration ainsi que les états successifs revêtus par le document Technical document design process traditionally used in industry for consumer products. Main steps are given in circled numbers Évaluer l’efficacité des documents techniques 5 sur certaines préconisations particulières issues de recherches expérimentales sur le traitement et la compréhension de textes et/ou de documents techniques ou sur les conseils d’experts de divers secteurs de l’entreprise (Services Qualité, Recherche et Développement, Industrialisation, Relations-clients, etc.). Toutefois, ils ne disposent que très rarement d’éléments les renseignant sur la manière dont les documents produits sont traités par les utilisateurs. De fait, ceux-ci n’interviennent que très rarement dans le processus de conception d’un document technique (fig. 1). Considérant que la simple application de recommandations ou le seul recours à des experts du domaine ne peuvent pas toujours garantir l’efficacité de tels documents, certains auteurs ont montré l’importance de vérifier leur utilisabilité, c’est-à-dire leur appropriation par l’utilisateur (Allwood & Kalen, 1997 ; Clegg, 1995 ; Ganier, 1999 ; Hartley, 1995 ; McClelland, 1995). Selon ces auteurs, évaluer l’utilisabilité d’un document technique permettrait de s’assurer que des défauts importants de conception peuvent être interceptés et corrigés avant sa diffusion au grand public et de réduire les risques de retours-clients de produits liés à une mauvaise compréhension des informations présentées (Ganier, 1999). I . 3. OBJECTIF DE L’ÉVALUATION Pour être efficace, l’évaluation d’un document technique (procédural ou non) doit répondre à un objectif précis. De Jong et ses collaborateurs (De Jong & Van der Poort, 1994 ; De Jong & Schellens, 1997) considèrent qu’elle doit être conduite différemment selon qu’il s’agit de vérifier l’utilisabilité du document, de choisir une option de conception parmi plusieurs alternatives ou d’améliorer le document. L’évaluation de vérification de l’utilisabilité d’un document (usability verification evaluation) est généralement réalisée à l’issue du processus de conception (Weiss, 1988). L’objectif de cette démarche n’est pas nécessairement d’améliorer le document, mais plutôt d’en évaluer l’intelligibilité ou l’efficacité en s’appuyant essentiellement sur le recueil de données quantitatives (par exemple, le nombre de participants parvenus à réaliser une tâche donnée à l’aide du document). L’évaluation d’aide à la décision (choice-support evaluation) est destinée à identifier les avantages et inconvénients de formes alternatives de présentation de l’information dans un document. Elle est réalisée lorsqu’un choix doit être effectué entre plusieurs alternatives de présentation d’une information ; par exemple, lorsqu’il s’agit de choisir entre différents styles (impératif contre infinitif) ou différents formats de présentation (texte contre image). Elle peut être également effectuée lorsqu’il s’agit de comparer la version modifiée d’un document à la version originale. De façon générale, les évaluations d’aide à la décision peuvent être effectuées tant au cours du processus de conception du document qu’à l’issue de celui-ci. Centrées sur une comparaison interdocuments relativement à une tâche déterminée, elles s’appuient sur le recueil et l’analyse de données quantitatives, éventuellement complétées par des données qualitatives (par exemple, les protocoles d’utilisation et la technique des choix motivés). 6 F. Ganier L’évaluation de diagnostic-remédiation (troubleshooting evaluation) est effectuée dans une perspective de révision. Elle consiste à localiser et diagnostiquer les problèmes rencontrés par les utilisateurs dans le but d’améliorer le document. Ce type d’évaluation qui peut être réalisé tout au long du processus de conception du document, s’appuie essentiellement sur des données de nature qualitative (voir par exemple, les protocoles de lecture). L’intention de révision inhérente à ce type d’évaluation la rend complexe. En effet, lorsqu’un problème a été détecté, le rédacteur peut adopter diverses stratégies : par exemple, ignorer le problème ou essayer de le résoudre en réécrivant ou en modifiant le passage concerné. À ce niveau, une certaine expertise est nécessaire : a) pour décider que les problèmes rencontrés par les utilisateurs sont suffisamment importants pour induire une révision (il est possible d’effectuer des modifications sur la base de problèmes détectés par un seul utilisateur), et b) pour modifier efficacement les parties du document ayant induit des difficultés de traitement chez les utilisateurs. La distinction entre ces trois approches est importante parce que l’objectif poursuivi sera déterminant dans le choix des méthodes à adopter, le moment d’application et le type de collecte des données qui sera effectué. Ainsi, une évaluation de diagnostic-remédiation induira une approche qualitative (revue technique, protocoles d’utilisation, technique du +/–) réalisée au cours du processus de conception du document. Une évaluation d’aide à la décision nécessitera de faire appel à des méthodes permettant de recueillir des données quantitatives et éventuellement qualitatives (formules de lisibilité, enregistrement des comportements de lecture, technique des choix motivés, questionnaires d’évaluation), et sera réalisée indifféremment au cours du processus de conception ou à l’issue de celui-ci. Enfin, une évaluation de vérification sera réalisée à l’issue du processus de conception en ayant recours à des données quantitatives (tests de réalisation). II. LES MÉTHODES D’ÉVALUATION II. DES DOCUMENTS TECHNIQUES Schriver (1989) définit trois catégories générales de méthodes destinées à évaluer l’efficacité des documents techniques : 1 / les méthodes centrées sur le document ; 2 / les méthodes centrées sur le jugement d’experts, et 3 / les méthodes centrées sur l’utilisateur. La distinction entre ces trois catégories est basée sur la source d’information permettant d’évaluer le document. Ainsi, l’évaluation centrée sur le document peut être réalisée directement par le rédacteur lui-même, alors que l’évaluation centrée sur le jugement d’experts nécessite le recours à des professionnels possédant des connaissances sur le produit ou le dispositif, la rédaction de documents, l’évaluation de l’utilisabilité, etc. Enfin, l’évaluation centrée sur l’utilisateur est réalisée à partir d’un échantillon d’utilisateurs provenant du public-cible. Évaluer l’efficacité des documents techniques II . 1. LES 7 MÉTHODES D’ÉVALUATION CENTRÉES SUR LE DOCUMENT Les méthodes d’évaluation centrées sur le document consistent à évaluer sa qualité à l’aide de listes de recommandations ou d’outils spécifiques, telles les formules de lisibilité (Hartley, 1995, 2000). La simplicité d’utilisation, le faible coût et la rapidité d’application de ces méthodes, mais aussi les difficultés éprouvées par les rédacteurs à opérer des autoévaluations de leurs productions (Heurley & Ganier, sous presse), ont contribué à en répandre très largement l’usage dans les pays anglo-saxons. Malgré ces atouts, les méthodes centrées sur le document présentent des limites pour l’évaluation des documents techniques procéduraux. II . 1 . A. Les listes de recommandations Utilisées généralement comme aides à la rédaction, les listes de recommandations peuvent également être utilisées comme guides de vérification (checklists) dans le cas d’évaluation de diagnostic-remédiation. Elles peuvent être publiées par des organismes publics (ISO/CEI, 1995) ou privés (CEP, 1983), ou issues de recherches expérimentales, et s’étendent de principes généraux à la formulation de préconisations très précises. Par exemple : utiliser la voix active plutôt que la voix passive, utiliser la forme affirmative plutôt que la forme négative, utiliser des phrases courtes, placer les illustrations en regard des textes correspondants (Hartley, 1994 ; Sweller & Chandler, 1994). Wright (1985) constate que l’évaluation de documents à partir de telles checklists peut, dans certains cas (notamment lorsque les listes sont longues), constituer une charge cognitive élevée pour le rédacteur, au risque d’induire une évaluation peu efficace. II . 1 . B. Les formules de lisibilité Les formules de lisibilité (présentées la plupart du temps sous forme d’un programme informatique intégré à un logiciel de traitement de texte) constituent les méthodes d’évaluation centrées sur le document les plus répandues (Duffy, 1985, en dénombre plus d’une centaine). Leur utilisation permet d’estimer la lisibilité d’un texte (c’est-à-dire son niveau de difficulté) en mettant en relation des mesures quantitatives réalisées sur celui-ci et un niveau scolaire ou un niveau de compétence en lecture donnés. La lisibilité est donc considérée comme une caractéristique textuelle qui peut être déterminée indépendamment du lecteur. La plupart des formules de lisibilité (par exemple Flesch, 1948 ; Gunning, 1952) combinent deux aspects d’un texte pour prédire sa difficulté : la longueur des phrases, estimée par le nombre de mots qu’elles contiennent, et la complexité des mots, estimée par leur nombre de syllabes (Hartley, 1994 ; Sawyer, 1991 ; Schriver, 1989 ; Schumacher & Waller, 1985). Le principe sous-jacent à leur élaboration est que plus les phrases sont longues et le vocabulaire complexe, moins le texte est « lisible ». Si l’on considère qu’elles ont été créées à l’origine pour déterminer le niveau 8 F. Ganier de lecture correspondant à des textes écrits pour des manuels scolaires, on peut s’interroger sur la pertinence et la validité de leur usage pour l’évaluation de documents techniques, a fortiori s’il s’agit de documents procéduraux. II . 1 . C. Pertinence des formules de lisibilité De nombreuses études ont cherché à analyser dans quelle mesure les formules de lisibilité pouvaient être appliquées à la documentation technique, et notamment aux textes procéduraux. Les revues des recherches dans ce domaine (Giles, 1990 ; Klare, 1984 ; Redish, 1981 ; Schumacher & Waller, 1985) montrent que ces formules manquent souvent de validité prédictive, du fait de la spécificité et de la complexité de ce type de document et des nombreux facteurs qui exercent un effet sur leur utilisation. En effet, outre les facteurs cognitifs et contextuels connus pour exercer un effet sur la compréhension et/ou l’utilisation des documents procéduraux (tels les objectifs de la lecture, la capacité limitée de la mémoire de travail, l’existence de connaissances préalables, les affordances du dispositif : Ganier, 1999 ; Ganier, Gombert, & Fayol, 2000 ; Ganier & Heurley, sous presse), certains facteurs linguistiques, paralinguistiques ou extralinguistiques (Heurley, 1994) ne sont pas pris en compte par les formules de lisibilité. Les facteurs linguistiques Certains facteurs linguistiques – la terminologie, la syntaxe, l’organisation des informations – sont difficiles à intégrer dans le calcul de la lisibilité des documents techniques procéduraux. Dans certains cas, ils peuvent affecter le score de lisibilité obtenu sans toutefois affecter la compréhension ; dans d’autres cas – les plus fréquents –, ils affectent la compréhension sans affecter les scores de lisibilité. Terminologie Hartley (2000) considère que l’utilisation de termes techniques dans les documents procéduraux peut induire deux types de difficultés relatifs au calcul de la lisibilité. Le premier réside dans le fait que certains mots polysémiques (police, franchise, cavalier) ou certains acronymes (MODEM) peuvent exercer un effet sur la compréhension du texte sans toutefois affecter les scores de lisibilité. Inversement, le second tient au fait que certains mots polysyllabiques longs (canalisation, commutateur, imprimante) peuvent affecter négativement les scores des formules de lisibilité basées sur le comptage du nombre de syllabes (par exemple, les formules de Flesch ou de Gunning) sans toutefois perturber la compréhension de l’utilisateur. Syntaxe Redish (1981) a montré que les formules de lisibilité ne tiennent pas compte de la syntaxe (propositions subordonnées, incises) ou des incor- Évaluer l’efficacité des documents techniques 9 rections grammaticales qui peuvent perturber la lecture. Par ailleurs, la rareté des pronoms anaphoriques qui caractérisent les textes procéduraux (Puglielli, 1990) peut avoir une incidence dans le comptage des syllabes. Organisation des informations Les travaux sur les grammaires d’action ont montré l’importance de la correspondance entre la forme de surface des instructions et l’organisation des plans mentaux. Or, les formules de lisibilité ne prennent pas en compte ce principe d’ordre de présentation des informations. Par exemple, à score de lisibilité supposé égal, Dixon (1987) a montré que le temps de lecture des instructions : « Ce sera le dessin d’un wagon. Dessinez un long rectangle avec deux cercles au-dessous » correspondant à une organisation hiérarchique du plan mental est plus bref que lorsque ces instructions sont inversées. Les facteurs paralinguistiques Des recherches réalisées en linguistique et psycholinguistique ont étudié le rôle des propriétés typographiques et dispositionnelles (la mise en forme matérielle du texte ; Virbel, 1989) sur le guidage de la lecture (Schmid & Baccino, 2001) et sur le traitement cognitif d’instructions en compréhension et en mémorisation (Grandaty, Degeilh, & GarciaDebanc, 1997). Ces recherches montrent que les instructions dans lesquelles les étapes sont présentées sous forme de séquences sont lues plus rapidement que la même information présentée en paragraphes (or, les variations de mise en forme matérielle du texte n’affectent pas les scores de lisibilité). Les facteurs extralinguistiques Conjointement aux instructions textuelles, l’utilisation de logigrammes, de tableaux ou de représentations analogiques du dispositif sous forme de photographies, dessins, schémas exerce un effet facilitateur sur la compréhension et l’utilisation d’instructions (Ganier, Gombert, & Fayol, 2000 ; Veyrac, Cellier, & Bertrand, 1997). Or, l’utilisation de formules de lisibilité reste restreinte à la mesure du texte et ne permet pas de prendre en compte ces formats de présentation alternatifs ou complémentaires. II . 1 . D. Validité des formules de lisibilité Hartley (1995) constate que les formules de lisibilité offrent des résultats différents de l’une à l’autre. Elles ne permettent pas de prédire avec précision le niveau de lecture ou le niveau d’expertise du domaine requis pour comprendre le texte. Par exemple, l’application de deux formules de lisibilité (Gunning Fog Index et Flesch Reading Ease Score)1 aux mêmes 1. Les tentatives d’adaptation des formules de lisibilité au français restent rares (voir par exemple, De Landsheere, 1963). Pour cette raison, les formules présentées ici correspondent à celles développées initialement pour l’anglais (États-Unis). Ainsi, le « Fog Index » (FI) de Gunning est 10 F. Ganier paragraphes aboutit à un niveau de compétence en lecture équivalent à l’âge de 18 ans pour la première et 15-17 ans pour la seconde (Hartley, 2000). Par ailleurs, une même formule peut être transcrite sous forme d’algorithmes de calcul différents selon les programmes informatiques, au risque d’aboutir à des résultats différents. Sydes et Hartley (1997) et Mailloux, Johnson, Fisher et Pettibone (1995) ont montré que l’application des mêmes formules (Flesch-Kincaid, Flesch et Gunning) à partir de logiciels distincts (Corporate Voice, Grammatix IV, Grammatik 5, MS Word 2 et 6, Read et RightWriter) se traduit par des scores variables, significativement différents pour certains. II . 1 . E. Conclusion Les principales limites des méthodes centrées sur le document sont liées à l’absence de feedback d’utilisateurs ou d’experts du domaine. Utilisées seules, elles ne peuvent rendre compte de l’utilisabilité d’un texte à visée pragmatique. Toutefois, elles peuvent être utilisées complémentairement aux évaluations centrées sur les utilisateurs et le jugement d’experts. Ainsi, dans une démarche d’évaluation de diagnostic-remédiation, l’utilisation de checklists peut permettre au rédacteur d’effectuer un premier contrôle de sa production. Par ailleurs, dans une démarche d’évaluation d’aide à la décision, l’utilisation d’une même formule pour comparer une version originale et une version révisée d’un texte peut procurer une indication de la difficulté relative des deux versions évaluées (Hartley, 1995 ; Hartley & Ganier, 2000). II . 2. LES II . 2. SUR MÉTHODES D’ÉVALUATION CENTRÉES LE JUGEMENT D’EXPERTS Les méthodes d’évaluation centrées sur le jugement d’experts (Schriver, 1989), ou « revues techniques », sont destinées à fournir des informations détaillées sur le contenu du document et doivent notamment permettre de préciser dans quelle mesure il peut être imprécis relativement au produit décrit et/ou à son utilisation. Ces méthodes consistent à demander à un ou plusieurs experts du domaine d’analyser le document dans le but de le réviser. Il s’agit de re-concevoir le document dans son ensemble (Duffy, Curran, & Sass, 1983) ou d’en réécrire certains paragraphes (Britton, Van Dusen, Gulgöz, & Glynn, 1989), avec possibilité obtenu en appliquant la formule suivante : FI = 0,4 (ASL + %PW). Dans cette formule, ASL représente la longueur moyenne des phrases d’un texte (exprimée en nombre moyen de mots par phrase) et %PW, le pourcentage de mots de 3 syllabes ou plus. Le résultat obtenu correspond au niveau de lecture utilisé aux États-Unis (Grade 1 = 6 ans, Grade 2 = 7 ans, etc.). Plus l’indice FI est élevé, moins le texte est « lisible ». Pour des documents destinés au grand public américain, l’indice doit être équivalent à 12. Le « Reading Ease Score » (RES) de Flesch permet d’évaluer le document selon un barème de 0 à 100. Il consiste à appliquer la formule suivante : RES = 206,835 – 0,846 wl – 1,015 sl. Dans cette formule, wl représente le nombre de syllabes pour 100 mots et sl, le nombre moyen de mots par phrase. Le document est d’autant plus facile à lire que le score RES est élevé. Pour la plupart des documents ordinaires, le score obtenu par l’application de cette formule est d’environ 60 à 70. Évaluer l’efficacité des documents techniques 11 d’ajouter, retirer ou modifier l’information de façon plus ou moins systématique. Les techniques utilisées peuvent s’appuyer sur des recommandations, checklists, heuristiques, etc. Elles sont éventuellement accompagnées : — d’évaluations concernant différents critères (forme, style, contenu, compréhensibilité), réalisées à l’aide d’échelles multiples (notes de 0 à 10, échelles en 6 points, etc.), de réponses à des questionnaires à choix multiples, ou de techniques inspirées de la technique du +/– (De Jong & Lentz, 1996 ; Wright, 1985) ; — de prédictions concernant les problèmes de compréhension que pourraient rencontrer les utilisateurs (De Jong & Lentz, 1996 ; Wright, 1985) ; — d’estimation de l’efficacité des révisions apportées sur la compréhension ou la rétention de l’information (Britton et al., 1989). Parmi les techniques les plus systématiques, on peut citer celle proposée par De Jong et Lentz (1996), qui demandent à des rédacteurs techniques experts d’inscrire dans un tableau : a) la localisation des problèmes détectés (en y associant les numéros des lignes correspondantes), b) la description des problèmes, et c) des propositions de modifications ; et celle utilisée par De Jong et Lentz (1996) et Wright (1985), qui demandent aux évaluateurs d’inscrire le signe + à côté de chaque phrase estimée correcte et le signe – à côté de chaque phrase estimée incorrecte, puis de suggérer une alternative à chaque phrase jugée incorrecte. II . 2 . A. Efficacité des méthodes centrées sur le jugement d’experts L’évaluation ou la révision d’un document, même par un expert, constitue une activité difficile et ne se traduit pas toujours par une amélioration de son efficacité. Par exemple, Duffy et Kabance (1982) ont montré que la révision de documents techniques procéduraux par des experts, même si elle permettait d’améliorer considérablement le score obtenu par l’application de formules de lisibilité, n’induisait pas d’amélioration des performances des utilisateurs. À la suite de ces travaux, Duffy, Curran et Sass (1983) ont demandé à trois experts de réviser un document technique de neuf pages concernant le fonctionnement d’un amplificateur de fréquence radio. Une évaluation des documents modifiés réalisée avec 379 techniciens en électronique ne possédant aucune connaissance sur ce type d’amplificateur a montré qu’aucun des trois documents révisés n’améliorait la rétention des informations (à des épreuves de rappel indicé) ou les performances des participants en termes de précision ou de vitesse à des tâches de résolution de problème. L’un des documents révisés a même abouti à de plus mauvais scores que le document original à ce dernier type d’épreuve. Poursuivant le même objectif de vérification de l’efficacité des révisions apportées par des experts, Britton et al. (1989) ont demandé à cinq experts de réviser 52 textes de nature diverse (instructions d’utilisation, textes explicatifs, textes scientifiques, etc.). Une évaluation de l’efficacité de ces révisions réalisée avec 700 étudiants de 12 F. Ganier Licence (Undergraduates) à l’aide d’épreuves de reconnaissance (Questionnaires à choix multiples) et de rappel (Questionnaires à réponses courtes et épreuves de rappel libre) administrées soit immédiatement, soit après un délai de vingt-quatre heures, montre que seulement trois experts sur cinq ont effectué des révisions permettant d’améliorer la mémorisation des informations contenues dans les documents. Outre l’inefficacité des révisions apportées par certains experts, ces travaux conduisent au constat d’un manque de cohérence entre les experts qui se manifeste par un très faible taux de recouvrement entre les révisions apportées aux documents (voir également les travaux de Nielsen (1992) et Pollier (1992) dans le domaine de l’évaluation d’interfaces). Ce manque de cohérence a été observé par Wright (1985), qui a demandé à des rédacteurs techniques experts d’évaluer et/ou de réviser différents documents techniques (règles de jeux, formulaires administratifs) à l’aide de méthodes variées (tâches de jugement, technique du +/–, réponses à des QCM, etc.). L’ensemble des résultats indique des différences interindividuelles très importantes en ce qui concerne la quantité et la qualité des révisions effectuées par les experts. II . 2 . B. Les techniques utilisées pour améliorer la cohérence interjuges Dans une expérience, Wright (1985) montre que le manque de cohérence entre les juges peut être réduit grâce à une technique qui consiste à diviser les documents à évaluer en sections numérotées (une section = un paragraphe, un titre, une colonne d’un tableau, etc.). Les évaluateurs doivent lire l’intégralité du document avec attention et estimer les difficultés de compréhension d’utilisateurs pour chacune des sections par une note comprise entre 1 et 6 (1 = très facile à comprendre ; 6 = très difficile à comprendre). Les résultats indiquent non seulement que cette technique permet d’obtenir une grande cohérence entre les juges, mais aussi qu’elle aboutit à déterminer assez précisément les éléments sur lesquels la révision doit porter. Constatant le manque de cohérence interjuges dans le domaine de l’évaluation d’interfaces homme-machine, Nielsen (1992) a demandé à trois groupes d’individus (des étudiants en informatique ne possédant pas de connaissances formelles dans le domaine de l’utilisabilité, des spécialistes de l’utilisabilité et des évaluateurs possédant une double compétence : à la fois spécialistes de l’utilisabilité et experts du type d’interface évaluée), d’évaluer des interfaces à l’aide d’une dizaine d’heuristiques (Nielsen, 1993). Outre le manque de cohérence inter- et intra-groupes observé, les résultats, en accord avec ceux obtenus par Nielsen et Molich (1990), montrent que s’ils possèdent une double compétence, deux ou trois évaluateurs suffisent pour repérer entre 81 % et 90 % des problèmes d’utilisabilité de l’interface, alors que s’ils n’en possèdent qu’une seule, trois à cinq évaluateurs sont nécessaires pour découvrir entre 74 % et 87 % des problèmes. En revanche, lorsque l’évaluation est réalisée par des non-spécialistes, 14 individus sont nécessaires pour mettre en évidence au moins 75 % des problèmes. Évaluer l’efficacité des documents techniques 13 II . 2 . C. Conclusion Bien que les évaluations centrées sur les jugements d’experts soient utiles pour la révision du document et qu’elles permettent d’obtenir une grande quantité d’informations, elles souffrent souvent du fait que l’évaluateur est trop proche du produit décrit dans celui-ci. Dans de nombreux contextes, les seuls « utilisateurs » qui participent à l’évaluation sont des experts possédant un niveau élevé de connaissances sur le produit. Ainsi, en contexte industriel, les revues techniques sont souvent réalisées par des ingénieurs qui évaluent la correspondance entre le contenu du document et la fonctionnalité d’un produit ou d’une machine, souvent en leur absence. Au cours de cette évaluation, ils doivent, d’une part, élaborer une représentation du fonctionnement et de l’utilisation de l’appareil à partir de leur expérience propre et, d’autre part, se constituer un modèle plus ou moins précis des connaissances dont dispose l’utilisateur. Une partie des difficultés peut provenir du fait que des connaissances postulées comme existantes sont dans la réalité absentes (Veyrac, Bertrand, & Cellier, 1997). Il en résulte que le document peut s’avérer très efficace du point de vue des personnes qui ont développé ou influencé la création du produit (ingénieurs, informaticiens, spécialistes du marketing) mais peu efficace pour l’utilisateur débutant (Duffy & Kabance, 1982). Schriver (1989, 1997) montre que des experts (rédacteurs ou experts techniques) possédant un niveau élevé de connaissance de leur domaine se représentent difficilement les besoins d’utilisateurs possédant peu de connaissances dans ce domaine. Par conséquent, cet auteur propose que les méthodes d’évaluation centrées sur les jugements d’experts ne soient pas utilisées isolément, mais qu’elles soient complétées par d’autres méthodes d’évaluation de documents et plus particulièrement des méthodes centrées sur l’utilisateur. II . 3. LES MÉTHODES D’ÉVALUATION CENTRÉES SUR L’UTILISATEUR Une troisième catégorie de méthodes d’évaluation de documents techniques est basée sur l’implication d’utilisateurs dans l’évaluation. Ces méthodes sont destinées à vérifier si les caractéristiques du document sont suffisamment adaptées aux caractéristiques perceptives et cognitives des utilisateurs impliqués dans la recherche ou la compréhension des informations en vue de leur mémorisation ou leur application. Très diversifiées, les méthodes utilisées peuvent s’appuyer sur des feedback aussi bien quantitatifs que qualitatifs du public-cible pour recueillir des données relatives à l’un ou l’autre des aspects étudiés (adaptation des informations à la localisation, la compréhension, la mémorisation ou l’application). Par ailleurs, elles peuvent reposer sur le recueil de données objectives (mesures de comportement) ou subjectives (échelles d’évaluation). Enfin, selon l’objectif visé (évaluer l’efficacité du document en regard des activités de lecture ou de recherche d’information ou des activités relatives à l’application des informations), les mesures réalisées pourront être focali- 14 F. Ganier sées soit sur le document, soit sur la réalisation de la tâche ou l’exécution d’actions. McClelland (1995), Schriver (1989), et Schumacher et Waller (1985) classent les méthodes ayant recours au feedback des utilisateurs en deux catégories : — les méthodes de recueil du feedback en temps réel, nommées également « mesures concurrentes » (concurrent testing, Schriver, 1989) ou « mesures en cours de traitement » (process measures, Schumacher & Waller, 1985), qui consistent à recueillir en temps réel des données relatives aux comportements des utilisateurs impliqués dans la lecture et l’application des informations présentées dans le document ; — les méthodes de recueil du feedback différé, nommées également « mesures en sortie » (outcome measures, Schumacher & Waller, 1985) ou « mesures rétrospectives » (retrospective testing, Schriver, 1989), qui sont destinées à recueillir un feedback après que l’utilisateur a fini de lire et d’utiliser le document. II . 3 . A. Les méthodes de recueil de feedback en temps réel Les méthodes de recueil de feedback en temps réel permettent d’enregistrer les actions, comportements et verbalisations des utilisateurs au cours de l’utilisation de documents. Elles reposent sur l’analyse séparée de données comportementales (tests de réalisation, enregistrement des comportements de lecture) et verbales (protocoles de lecture) ou sur leur analyse conjointe (protocoles d’utilisation). Les méthodes basées sur le recueil de données comportementales La caractéristique principale des méthodes basées sur le recueil de données comportementales est que les participants exécutent simplement une tâche alors que leurs actions sont observées et/ou enregistrées à l’aide d’un dispositif vidéo ou informatique. L’évaluation de documents par l’observation d’utilisateurs conduit à identifier les déterminants textuels, graphiques (et éventuellement cognitifs et contextuels) qui ont induit les comportements et/ou événements observés. Pour cela, l’utilisation efficace de techniques de mesure appropriées nécessite de déterminer clairement l’objectif de l’observation. Selon les objectifs fixés, les mesures effectuées peuvent se focaliser sur la lecture ou la manipulation du document, la réalisation de la tâche, ou l’ensemble de ces activités. L’évaluation peut concerner des caractéristiques générales du document (son contenu et sa présentation générale, etc.) ou des caractéristiques plus spécifiques, en rapport avec le contenu et la présentation de plus petites unités (chapitres, sections, paragraphes, phrases, mots, tableaux, graphiques, etc.). Les tests de réalisation Issus de la recherche expérimentale, les tests de réalisation consistent à demander à des individus de réaliser une tâche ou une série de tâches à Évaluer l’efficacité des documents techniques 15 l’aide de documents dont on a fait varier et/ou dont on contrôle une ou plusieurs caractéristique(s). Ces tests reposent sur le postulat que la mesure d’indicateurs tels que les temps de recherche et de localisation de l’information, de lecture ou de réalisation d’une tâche devrait permettre de révéler les problèmes de conception, dans la mesure où une dégradation des performances serait due au traitement d’un matériel inadéquat1 (dans l’hypothèse d’une surcharge cognitive induite par de l’information inadaptée ; Ganier, Gombert, & Fayol, 2000 ; Sweller & Chandler, 1994). Les données recueillies peuvent recouvrir plusieurs formes. Elles peuvent être temporelles (durée des prises d’information, durée d’exécution de la tâche, etc.) ou basées sur des scores de précision ou d’erreur (nombre d’erreurs, exécution correcte ou non de la procédure, etc.). L’avantage des tests de réalisation réside dans le fait que les résultats obtenus reposent sur des données quantitatives recueillies en temps réel dans des situations d’utilisation contrôlées (Ganier et al., 2000). Ce type de test constitue un outil très approprié à des évaluations de vérification ou d’aide à la décision. L’enregistrement des comportements de lecture Les recherches réalisées en psycholinguistique depuis une trentaine d’années ont conduit à l’élaboration de dispositifs permettant d’enregistrer des comportements de lecture de plus en plus fins. Parmi ceux-ci, l’enregistrement des mouvements oculaires a été utilisé notamment pour étudier comment des individus lisent des documents techniques incluant du texte et des images (Hegarty, Carpenter, & Just, 1996). Bien qu’il subsiste certaines incertitudes concernant l’interprétation de ce que les mouvements oculaires reflètent, la plupart des recherches ont validé l’hypothèse que la position de l’œil correspond à ce qui est traité (Just & Carpenter, 1987). Restreint la plupart du temps à des mesures centrées sur le document, l’enregistrement des mouvements oculaires peut s’avérer utile pour aider à déterminer les principes de conception qui influencent les comportements de lecture et/ou de recherche-localisation de l’information (par exemple, la mise en page). Il a été utilisé par Schmid et Baccino (2001) pour montrer le rôle de la mise en forme matérielle du texte (Virbel, 1989) sur le guidage de la prise d’information dans des textes procéduraux du type règles de jeu. L’utilisation de cette technique offre des avantages certains dans une démarche d’évaluation d’aide à la décision ou de vérification : les mouvements enregistrés sont ceux que l’utilisateur accomplit de façon naturelle pendant son activité. Par ailleurs, de nombreuses recherches montrent que les indicateurs analysés (nombre et durée des fixations oculaires, des saccades de progression, des saccades de régression) sont sensibles à de nombreux facteurs linguistiques : lexicaux, syntaxiques, etc. (Coirier, Gaonac’h, & Passerault, 1996). Toute1. Dans le cadre de l’étude des documents procéduraux, la réalisation correcte des actions constitue un critère de contrôle de la compréhension des informations présentées. Toutefois, d’autres facteurs (tels les affordances du dispositif et les connaissances de l’utilisateur) exercent un effet sur la réalisation des actions : il est nécessaire de les neutraliser lorsqu’on souhaite étudier l’efficacité des instructions seules. 16 F. Ganier fois, cette méthode nécessite un appareillage coûteux et parfois contraignant pour l’utilisateur. Pour remédier à ces inconvénients, d’autres techniques d’enregistrement des comportements de lecture ont été développées. Portant plus sur des directions de regards que sur l’analyse des mouvements fins des yeux, ces techniques permettent toutefois d’appréhender la localisation de la source d’information de façon relativement précise. Par exemple, Ummelen (1997) a développé la méthode click-andread qui consiste à rendre lisibles les parties floues d’instructions présentées sur écran d’ordinateur en cliquant sur la partie désirée. Les méthodes basées sur le recueil de protocoles verbaux Les techniques décrites précédemment sont particulièrement adaptées à des évaluations d’aide à la décision ou de vérification. Elles peuvent aider les rédacteurs techniques et/ou les industriels à examiner l’effet exercé par certains choix de conception du document ou à en vérifier l’utilisabilité. Elles se révèlent toutefois d’un intérêt limité lorsqu’il s’agit d’indiquer précisément où et comment réviser un document pour le rendre plus efficace. En conséquence, le rédacteur a également besoin d’informations qualitatives complètes et explicites qui l’aideront dans ses décisions de révision. Pour répondre à ces besoins, la technique de recueil des verbalisations provoquées utilisée dans les recherches sur la résolution de problème par Newell et Simon (1972) a été adaptée à la lecture et à l’utilisation de documents (Flower, Hayes, & Swarts, 1983 ; Swaney, Janik, Bond, & Hayes, 1991). Cette technique, exposée et discutée de façon approfondie par Ericsson et Simon (1993), a pour principe de demander aux participants de verbaliser tout ce qui leur vient à l’esprit alors qu’ils tentent de résoudre un problème donné. Dans cette perspective, l’analyse des protocoles verbaux devrait permettre de révéler la localisation et la nature des difficultés rencontrées, fournissant ainsi des informations utiles pour la révision du document. Les protocoles de lecture Le recueil de protocoles de lecture est destiné à obtenir des données permettant la révision d’un document grâce à l’identification des aspects qui engendrent des difficultés de lecture ou de compréhension. Cette technique consiste à demander aux participants de lire à voix haute les parties du texte traitées et de verbaliser leurs pensées ( « penser à voix haute » ou « dire toutes les idées qui viennent à l’esprit » ) lorsqu’une partie induit des commentaires. Utilisant cette méthode, Allwood et Kalen (1993) ont demandé à un groupe d’aides-soignantes de lire le texte d’un manuel d’utilisation de logiciel à voix haute et de verbaliser leurs commentaires. Ils ont observé que certaines participantes commençaient à lire le texte en silence puis s’arrêtaient et recommençaient à le lire à voix haute. Une explication avancée par ces auteurs est que la lecture à voix haute et la verbalisation des pensées constituent des activités langagières fortement interférentes. Ainsi, la difficulté à gérer parallèlement ces deux Évaluer l’efficacité des documents techniques 17 activités conduirait les participantes à donner la priorité à l’une des tâches, reléguant l’autre au second plan. Dans une nouvelle étude, cet effet d’interférence a été réduit en demandant aux participants de lire d’abord le texte en silence puis de verbaliser leurs commentaires à voix haute (Allwood & Kalen, 1997). Pour éviter les effets liés à la gestion simultanée de deux types de tâches par les participants, certains auteurs ont recours à des techniques de recueil différé des protocoles de lecture. Ces techniques consistent à demander aux utilisateurs de repérer chaque élément du document à commenter au cours d’une première lecture, puis à les interroger afin d’obtenir une explicitation des difficultés rencontrées ou des interruptions survenues au cours de la lecture (voir plus loin la technique du +/– et la technique de l’interruption signalée). Les méthodes basées sur l’association de données comportementales et verbales La technique précédente, essentiellement centrée sur la lecture du document, a été associée à des indicateurs relatifs à son utilisation (Swaney et al., 1991). Très proche d’une situation réelle, cette approche se focalise sur ce qui survient lorsque le document est effectivement utilisé pour réaliser une tâche. Les protocoles d’utilisation La technique de recueil des protocoles d’utilisation consiste à observer en temps réel des utilisateurs (généralement inexpérimentés) qui interagissent avec un appareil ou un système technique uniquement à l’aide du document. Les participants ont pour consigne de verbaliser leurs pensées relatives à la lecture du document et/ou à la réalisation de la tâche (Allwood & Kalen, 1997, préconisent que les utilisateurs lisent en silence les parties du document qu’ils traitent pour éviter les effets d’interférence entre les activités de lecture et de verbalisation à voix haute). Les protocoles d’utilisation recueillis sont constitués des données comportementales de lecture (prises d’information sur le document) et de réalisation de la tâche associées aux verbalisations des participants. Les avantages de cette méthode résident dans le fait qu’elle se déroule dans une situation quasi écologique et qu’elle permet de recueillir une grande quantité de données, aussi bien qualitatives que quantitatives. Toutefois, la richesse des données obtenues constitue un inconvénient qui réside dans le temps nécessaire à leur dépouillement et leur analyse (verbalisations, comportements, états du dispositif, etc.). Les effets bénéfiques de l’usage des protocoles d’utilisation pour l’amélioration de documents ont été mis en évidence sur la compréhension et l’application d’informations présentées dans des manuels d’utilisation (Schriver, 1997), des formulaires administratifs (Steehouder & Jansen, 1992) et des polices d’assurance (Swaney et al., 1991). Cependant, certains auteurs ont suggéré que, du fait que les utilisateurs sont limités dans la somme des activités qu’ils peuvent effectuer à un moment donné, leur demander d’effectuer une activité de verbalisation (dans ce cas, commenter leur lecture et/ou leurs actions) simultanément à la lecture du document peut altérer le traitement de celui-ci. Pour 18 F. Ganier remédier à ce problème, Miyake (1986) demande aux utilisateurs de travailler par paires et de discuter ensemble des difficultés qu’ils rencontrent. D’autres auteurs demandent aux participants de verbaliser après exécution de la tâche. Par exemple, Vermersch (1990) utilise la méthode des protocoles verbaux différés qui consiste à enregistrer la procédure par vidéo et demander aux utilisateurs de commenter le film obtenu. Cette procédure est supposée permettre d’obtenir des observables dont la validité et la richesse seraient similaires à ceux obtenus avec les verbalisations simultanées, tout en évitant les risques d’interférence entre la verbalisation et le déroulement des activités cognitives impliquées dans l’exécution de la tâche. Hoc et Leplat (1983) ont comparé l’efficacité de ces différentes conditions de verbalisation (verbalisations simultanées ; verbalisations différées avec indices de récupération obtenus par autoconfrontation aux traces comportementales ; verbalisations différées sans indice de récupération) lors de la réalisation d’une tâche de tri. Ils ont montré que les verbalisations simultanées ralentissaient le déroulement de l’activité et induisaient des erreurs et que les verbalisations différées avec indices de récupération permettaient d’obtenir des protocoles verbaux plus riches et plus précis que les verbalisations différées sans indice de récupération et presque aussi riches que les verbalisations simultanées. II . 3 . B. Les méthodes de recueil de feedback différé Selon Schriver (1989), les méthodes centrées sur l’utilisateur les plus fréquemment utilisées sont celles qui consistent à recueillir un feedback après la lecture ou l’utilisation du document. Ces méthodes de recueil de feedback différé comprennent une grande diversité d’épreuves de compréhension et de mémorisation et de techniques de recueil de jugement. Les tests de compréhension et de mémorisation Issus des recherches sur la compréhension de texte et la mémoire, les tests de compréhension et de mémorisation ont été largement utilisés comme mesures d’évaluation de la qualité de documents techniques explicatifs (Hartley, 1995 ; Mayer, 1989) et – dans une moindre mesure – de documents procéduraux (Britton et al., 1989). Parce qu’ils ne sollicitent pas les mêmes processus cognitifs, ces tests (qui consistent à demander aux utilisateurs de rappeler, reconnaître, résumer ou inférer) ne sont pas tous adaptés aux mêmes types de documents techniques. Ainsi, les tâches de rappel et de résumé sont particulièrement adaptées aux documents techniques non procéduraux (notamment pour évaluer l’apprentissage et la compréhension ; Mayer, 1989), les tâches de reconnaissance et de rappel s’avèrent mieux adaptées aux documents techniques procéduraux à exécution différée (Britton et al., 1989), et les tâches de réalisation d’inférences sont mieux adaptées aux documents destinés à la maintenance de systèmes (du fait que ceux-ci impliquent des activités de diagnostic et de résolution de problème : Duffy, Curran, & Sass, 1983). Pour vérifier l’efficacité des révisions de manuels de formation de l’armée Évaluer l’efficacité des documents techniques 19 effectuées par des experts, Britton et al. (1989) ont utilisé des épreuves de reconnaissance (questionnaires à choix multiples : QCM) et de rappel (questionnaires à réponse courte : QRC)1. Ils ont montré qu’en situation de test immédiat, les scores aux QCM et QCR étaient identiques pour les deux types de document (original contre révisé). Toutefois, même si une diminution des performances était observée en situation de test différé (après 24 heures), les scores aux QCM et QRC étaient meilleurs pour les documents révisés. Ces résultats ont été interprétés par Britton et al. (1989) comme rendant compte de l’amélioration de la qualité d’encodage des informations due aux révisions effectuées par les experts. Les techniques de recueil de jugement d’utilisateurs McClelland (1995) considère que lorsqu’un document est complexe, l’information relative à l’interaction entre l’utilisateur et celui-ci peut être efficacement obtenue à partir d’entretiens et/ou d’enquêtes. Ces techniques permettent à l’évaluateur d’obtenir, d’une part, des réponses individuelles détaillées (dans le cas d’entretiens) et, d’autre part, un nombre de réponses suffisamment important pour permettre une généralisation des résultats (dans le cas d’enquêtes réalisées sur de grands échantillons). Pour ces raisons, les méthodes d’enquêtes sont très communément utilisées pour évaluer la qualité d’un document (évaluation de vérification), alors que les entretiens sont utilisés dans le cas d’évaluations de diagnostic-remédiation ou d’aide à la décision, éventuellement en complément d’autres tests (par exemple, test de réalisation). Quatre techniques utilisées pour l’évaluation de documents seront présentées : la première peut être utilisée indifféremment au cours d’enquêtes ou d’entretiens (le questionnaire d’évaluation du document) et les trois autres sont destinées plus spécifiquement aux situations d’entretien (la technique des choix motivés, la technique du plus-moins et la technique de l’interruption signalée). Le questionnaire d’évaluation du document Le questionnaire d’évaluation du document est couramment utilisé au cours d’enquêtes (évaluation de vérification) et d’entretiens (évaluation d’aide à la décision). Après avoir lu le document, les participants doivent répondre à un questionnaire (oral ou écrit) pour en évaluer les caractéristiques. Ce questionnaire peut permettre de recueillir : — une estimation du niveau de satisfaction concernant certains attributs du document (utilisation de termes tels que « Très bien », « Bien », « Assez bien », etc.). Les échelles d’estimation sont habituellement utilisées pour accéder aux niveaux de confort, praticité et/ou facilité d’utilisation du document (Ganier, 1999) ; — un jugement de préférence, utilisé pour indiquer l’ordre relatif d’une série de caractéristiques ou de documents selon un/des attribut(s) précis (Hartley & Ganier, 2000) ; 1. Le choix de ces épreuves était justifié par le fait que ce type de document contient des informations déclaratives et procédurales et vise une exécution différée. 20 F. Ganier — des réponses à des questions factuelles, ouvertes ou fermées, concernant certains aspects généraux ou particuliers du document (perception de certaines caractéristiques, interprétation d’images, etc.). En situation d’entretien, le questionnaire d’évaluation du document peut être utilisé pour l’évaluation de documents techniques procéduraux et non procéduraux. Par exemple, la technique utilisée par Wright (1985) pour augmenter la cohérence interjuges dans le cas d’évaluations centrées sur le jugement d’experts (voir plus haut) peut être utilisée pour réaliser des évaluations de vérification et d’aide à la décision centrées sur l’utilisateur. En outre, le recueil des commentaires des participants peut permettre d’étendre cette technique à la réalisation d’évaluations de diagnostic-remédiation. Une technique d’enquête utilisée pour évaluer la qualité de documents non procéduraux a été décrite par McClelland (1995) et Schriver (1989). Cette technique consiste à insérer dans le document une « carte-réponse » comportant le questionnaire d’évaluation et à demander aux utilisateurs de la renvoyer. Malgré les risques de biais d’échantillonnage (les utilisateurs qui renvoient la carte-réponse ne sont pas forcément représentatifs du public-cible), cette technique permettrait de recueillir un nombre important de données. La technique des choix motivés Utilisée par De Jong et Schellens (1994) pour évaluer les effets de la révision d’un document administratif destiné au grand public, la technique des choix motivés consiste à présenter différentes versions d’un document aux participants qui sont invités à en évaluer certaines parties ou certaines caractéristiques (par exemple, à l’aide d’une échelle en 5 points) puis à justifier les notes attribuées. Cette technique d’évaluation d’aide à la décision permet de recueillir, d’une part, des données quantitatives permettant de comparer les documents sur la base des préférences des utilisateurs et, d’autre part, des données qualitatives indiquant les raisons de leurs choix. Peu coûteuse et nécessitant peu de temps d’administration et de traitement des données, cette technique s’avère très efficace pour choisir entre deux versions d’un même document ou pour déterminer quelles caractéristiques d’un manuel d’utilisation révisé sont préférées à celles du manuel original, et pourquoi (Ganier, 1999). La technique du plus-moins (+/–) La technique du +/– (De Jong & Van der Poort, 1994 ; Wright, 1985) constitue une méthode d’évaluation de diagnostic-remédiation peu coûteuse et facile à mettre en œuvre. Au cours de la lecture, les participants indiquent par le signe + ou – les éléments (mots, paragraphes, chapitres, images) présentant des aspects positifs ou négatifs. Lors d’un entretien individuel, ils sont ensuite invités à expliciter les signes + et – apposés dans le document. L’évaluateur propose une révision du document sur la base des commentaires recueillis. Cette méthode offre l’avantage de ne pas affecter le cours de la lecture (le marquage des éléments positifs et négatifs du document constitue un indice de récupération) et permet de Évaluer l’efficacité des documents techniques 21 recueillir des remarques utiles pour la révision du document. Schellens et De Jong (1997) préconisent de l’utiliser pour la révision de documents relativement courts. En effet, selon ces auteurs, la somme importante de commentaires recueillis et leur diversité peut compliquer la phase de révision qui suivra la collecte des données. Par ailleurs, il semblerait que cette technique ne permet pas de recueillir de données relatives aux aspects globaux et macrostructuraux du document (les utilisateurs ne se focaliseraient que sur des problèmes locaux, microstructuraux). Des documents administratifs révisés grâce à cette méthode se sont révélés plus efficaces et mieux appréciés par le public-cible que les originaux (Schellens & De Jong, 1997). La technique de l’interruption signalée La technique de l’interruption signalée consiste à demander au participant de lire un texte et d’indiquer par une barre oblique l’endroit où il interrompt le cours de sa lecture (un code peut être utilisé pour indiquer la cause des interruptions). Il est ensuite interrogé pour expliciter les problèmes rencontrés aux points indiqués. Cette technique, utilisée pour détecter et comprendre les déterminants des interruptions de lecture (Jackson, 1974) a fait l’objet de peu de recherches. De ce fait, son utilisabilité et son efficacité restent à vérifier. Toutefois, elle peut s’avérer une méthode de diagnostic-remédiation intéressante si l’on considère qu’elle peut contribuer à la définition des unités textuelles correspondant aux séquences d’actions à réaliser dans le cadre de l’utilisation de documents procéduraux (voir le phénomène d’atomisation de l’action, Vermersch, 1985). II . 3 . C. Conclusion La complexité des documents techniques et la diversité des activités induites par leur utilisation ont contribué au développement d’une grande variété de méthodes d’évaluation centrées sur les utilisateurs. Pour aider les rédacteurs ou les industriels à opérer des choix adaptés à leurs besoins, il est nécessaire de déterminer préalablement à la réalisation de l’évaluation : — le type de document à évaluer (s’agit-il d’un document procédural ou non ?) ; — l’objectif de l’évaluation (s’agit-il de vérifier l’utilisabilité du document, de comparer deux versions ou d’améliorer le document ?) ; — le type d’activité induite par l’utilisation du document (les utilisateurs ont-ils à réaliser des activités de recherche d’information, de lecture/compréhension, de mémorisation ou d’application des informations présentées ?) ; — les caractéristiques du document à évaluer : s’agit-il d’évaluer son contenu (l’adéquation du texte au public-cible et au produit décrit), sa structure (la présentation de l’information : chronologie, disposition, mise en forme matérielle du texte), certains dispositifs spécifiques (titres, typographie) ou l’utilisation de matériel illustratif (diagrammes, schémas, tableaux, exemples) ? 22 F. Ganier À ces indications pourraient s’ajouter des indications concernant l’échantillon requis, la durée de réalisation, ou encore des indications relatives à l’efficacité des différentes techniques existantes. Toutefois, à l’instar des recherches concernant les méthodes d’évaluation centrées sur le document et sur le jugement d’experts, des recherches visant à évaluer la pertinence et la validité des méthodes centrées sur l’utilisateur ou à comparer l’efficacité de ces méthodes entre elles sont encore à réaliser (les travaux effectués jusqu’à présent consistent à comparer l’efficacité d’un document révisé à l’aide d’une de ces méthodes contre le document original). III. CONCLUSION : VERS UNE PROCÉDURE III. D’ÉVALUATION DES DOCUMENTS TECHNIQUES Schriver (1989) considère qu’une méthode optimale d’évaluation d’un document technique doit fournir aux rédacteurs deux sortes d’informations : 1 / des informations concernant la qualité du document et son adéquation au produit, et 2 / des informations concernant la façon dont le public interagit avec celui-ci. Toutefois, Hartley (1994), constate qu’il n’existe aucun outil d’évaluation standard des documents techniques permettant d’obtenir ces types d’informations. La complexité des documents, due au volume d’informations ou à la combinaison d’informations de nature différente qu’ils renferment, la diversité des objectifs d’utiliÉLABORATION DU PRODUIT ET DU DOCUMENT L’ACCOMPAGNANT COMMERCIALISATION Révisions Experts Maquette « test » Modifications Guide d’utilisation final Évaluations Utilisateurs Éventuellement : Réitération du cycle Fig. 2. — Étapes de conception / évaluation / révision de documents techniques Technical documents design / evaluation / revision process Évaluer l’efficacité des documents techniques 23 sation, des situations d’utilisation, voire des documents eux-mêmes, contribuent à rendre leur évaluation difficile. De ce fait, il apparaît nécessaire de prendre en compte différents constituants de ces documents. Dans cette perspective, une évaluation appropriée implique nécessairement l’utilisation d’une combinaison de certaines des techniques disponibles, qui devrait s’avérer plus utile et fournir des résultats plus complets que l’utilisation d’une seule méthode. En conséquence, nous proposons une démarche de conception/évaluation/révision de documents techniques combinant méthodes d’évaluation centrées sur le jugement d’experts et sur l’utilisateur. Ce type d’approche consiste à tester la première version du document (maquette) auprès d’un groupe d’utilisateurs puis à effectuer des révisions sur la base des résultats obtenus, conjointement aux révisions apportées par les experts (fig. 2). L’adoption d’une telle démarche permettrait à la fois de respecter l’adéquation du document au produit (grâce aux propositions de révisions émises par les experts) et de corriger certains défauts de conception du document mis en évidence par une approche centrée sur les utilisateurs. Des exemples d’application de démarches similaires sont décrits par Clegg (1995), Hartley (1995, 2000) et Waller (1984), qui proposent qu’une ou plusieurs réitérations du cycle permettent une plus grande efficacité. REMERCIEMENTS L’auteur tient à remercier Mme C. Mariné, dont les commentaires ont permis d’améliorer notablement la qualité de cet article et M. J. Hartley, pour l’aide amicale apportée lors de la révision du summary. BIBLIOGRAPHIE Allwood, C. M., & Kalen, T. (1993). User-competence and other usability aspects when introducing a patient administrative system : A case study. Interacting with Computers, 2, 167-191. Allwood, C. M., & Kalen, T. (1997). Evaluating and improving the usability of a user manual. Behaviour & Information Technology, 16, 43-57. Britton, B. K., Van Dusen, L., Gulgöz, S., & Glynn, S. M. (1989). Instructional texts rewritten by five expert teams : Revisions and retention improvements. Journal of Educational Psychology, 81, 226-239. CEP (1983). Guide pratique à l’usage des fabricants et fournisseurs pour la rédaction des notices destinées aux acheteurs et utilisateurs. Saint-Étienne : Le Hénaff. Clegg, J. M. (1995). What if you cannot test all documents for usability ? Journal of Technical Writing and Communication, 25, 43-56. Coirier, P., Gaonac’h, D., & Passerault, J.-M. (1996). Psycholinguistique textuelle. Paris : Armand Colin. De Jong, M., & Lentz, L. (1996). Expert judgements versus reader feedback : A comparison of text evaluation techniques. Journal of Technical Writing and Communication, 26, 507-519. De Jong, M., & Schellens, P. J. (1994). Towards a valid design for pretesting and revising leaflets. In L. van Waes, E. Woudstra, & P. Van den Hoven (Eds.), Functional Communication Quality (pp. 104-114). Atlanta, GA : Rodopi. 24 F. Ganier De Jong, M., & Schellens, P. J. (1997). Reader-focused text evaluation : An overview of goals and methods. Journal of Business and Technical Communication, 11, 402-432. De Jong, M., & Van der Poort, P. (1994). Towards a usability test procedure for technical documents. In M. Steehouder, C. Jansen, P. Van der Poort, & R. Verheijen (Eds.), Quality of technical documentation (pp. 229-238). Amsterdam : Rodopi. De Landsheere, G. (1963). Pour une application des tests de lisibilité de Flesch à la langue française. Le Travail Humain, 26, 141-154. Dixon, P. (1987). The processing of organizational and component step information in written directions. Journal of Memory and Language, 26, 24-35. Duffy, T. M. (1985). Readability formulas : What’s the use ? In T. M. Duffy & R. Waller (Eds.), Designing usable texts (pp. 113-143). London : Academic Press. Duffy, T. M., Curran, T. E., & Sass, D. (1983). Document design for technical job tasks : An evaluation. Human Factors, 25, 143-160. Duffy, T. M., & Kabance, P. (1982). Testing a readable writing approach to text revision. Journal of Educational Psychology, 74, 733-748. Ericsson, K. A., & Simon, H. A. (1993). Protocol analysis. Verbal reports as data. Cambridge, MA : MIT Press (Édition originale, 1984). Flesch, R. (1948). A new readability yardstick. Journal of Applied Psychology, 32, 221-233. Flower, L., Hayes, J. R., & Swarts, H. (1983). Revising functional documents : The scenario principle. In P. V. Anderson, R. J. Brockman, & C. R. Miller (Eds.), New essays in technical and scientific communication (pp. 41-58). New York : Baywood Press. Ganier, F. (1999). Le traitement cognitif : déterminant de la conception de documents procéduraux. Thèse, Université de Bourgogne, Dijon, France. Ganier, F., Gombert, J.-E., & Fayol, M. (2000). Effets du format de présentation des instructions sur l’apprentissage de procédures à l’aide de documents techniques. Le Travail Humain, 63, 121-152. Ganier, F., & Heurley, L. (sous presse). La compréhension de consignes écrites. In D. Gaonac’h & M. Fayol (Eds.), La compréhension. Paris : Hachette. Giles, T. D. (1990). The readability controversy : A technical writing review. Journal of Technical Writing and Communication, 20, 131-138. Grandaty, M., Degeilh, S., & Garcia-Debanc, C. (1997). Rôle de la mise en forme matérielle dans la constitution du sens des textes à consignes : analyse psycholinguistique et premiers résultats expérimentaux. In J. Virbel, J.-M. Cellier, & J.-L. Nespoulous (Eds.), Cognition, Discours procédural, Action (pp. 55-74). Toulouse : Prescot. Gunning, R. (1952). The technique of clear writing. New York : McGraw Hill. Hartley, J. (1994). Designing instructional text (3rd ed.). London : Kogan Page. Hartley, J. (1995). Is this chapter any use ? Methods for evaluating text. In J. R. Wilson & E. N. Corlett (Eds.), Evaluation of human work (pp. 285-309). London : Taylor & Francis. Hartley, J. (2000). Can you read this ? Tools for evaluating text. In J. Hartley & A. Branthwaite (Eds.), The Applied Psychologist (pp. 113-125). Buckingham : Open University Press. Hartley, J., & Ganier, F. (2000). Which do you prefer ? Some observations on preference measures in studies of structured abstracts. European Science Editing, 26, 4-7. Hegarty, M., Carpenter, P., & Just, M. A. (1996). Diagrams in the comprehension of scientific texts. In R. Barr, M. L. Kamil, P. B. Mosenthal, & P. D. Pearson (Eds.), Handbook of reading research (Vol. 2) (pp. 641-668). Mahwah, NJ : Lawrence Erlbaum Associates. Évaluer l’efficacité des documents techniques 25 Heurley, L. (1994). Traitement de textes procéduraux : étude de psycholinguistique cognitive des processus de production et de compréhension chez des adultes non experts. Thèse, Université de Bourgogne, Dijon, France. Heurley, L. (1997). Vers une définition du concept de texte procédural : le point de vue de la psycholinguistique. Cahiers du Français contemporain, 4, 109-133. Heurley, L., & Ganier, F. (sous presse). La production de textes techniques. In M. Fayol (Éd.), Traité des sciences cognitives. Production du langage. Paris : Hermès. Hoc, J. M., & Leplat, J. (1983). Evaluation of different modalities of verbalization in a sorting task. International Journal of Man-Machine Studies, 18, 283-306. ISO/CEI (1995). Guide ISO/CEI 37 : Instructions d’emploi pour les produits présentant un intérêt pour les consommateurs. Genève, Suisse : Organisation Internationale de Normalisation et Commission Électrotechnique Internationale. Jackson, K. M. (1974). Monitoring communication activity : New techniques of observation. Journalism Quaterly, 51, 47-55. Just, M. A., & Carpenter, P. A. (1987). The psychology of reading and language comprehension. Boston : Ally and Bacon. Kieras, D. E., & Bovair, S. (1984). The role of a mental model in learning to operate a device. Cognitive Science, 8, 255-273. Klare, G. R. (1984). Readability. In P. D. Pearson (Ed.), Handbook of Reading Research (pp. 681-744). New York : Longman. Mailloux, S. L., Johnson, M. E., Fisher, D. G., & Pettibone, T. J. (1995). How reliable is computer assessment of readability ? Computers in Nursing, 13, 221225. Mayer, R. E. (1989). Models for understanding. Review of Educational Research, 59, 43-64. McClelland, I. (1995). Product assessment and user trials. In J. R. Wilson & E. N. Corlett (Eds.), Evaluation of human work (pp. 249-284). London : Taylor & Francis. Miyake, N. (1986). Constructive interaction and the iterative process of understanding. Cognitive Science, 10, 151-177. Newell, A., & Simon, H. A. (1972). Human problem solving. Englewood Cliffs, NJ : Prentice Hall. Nielsen, J. (1992). Finding usability problems through heuristic evaluation. CHI’92 Conference Proceedings (pp. 373-380). New York : Addison-Wesley. Nielsen, J. (1993). Usability engineering. Boston : Academic Press. Nielsen, J., & Molich, R. (1990). Heuristic evaluation of user interfaces. CHI’90 Conference Proceedings (pp. 249-256). New York : Addison-Wesley. Puglielli, A. (1990). Instructions for use : From macro to micro linguistic analysis. In M. A. K. Halliday, J. Gibbons, & H. Nicholas (Eds.), Learning, keeping and using language (Vol. 2) (pp. 315-332). Amsterdam : John Benjamins Publishing Company. Pollier, A. (1992). Évaluation d’une interface par des ergonomes : diagnostics et stratégies. Le Travail Humain, 55, 71-96. Redish, J.-C. (1981). Understanding the limitations of readability formulas. IEEE Transactions on Professional Communication, 24, 46-48. Richard, J. F. (1990). Compréhension de textes à visée pragmatique. In J..F. Richard, C. Bonnet, & R. Ghiglione (Eds.), Traité de psychologie cognitive. Tome 2. Le traitement de l’information symbolique (pp. 80-92). Paris : Dunod. Richard, J.-F. (1994). Compréhension de textes de consignes d’action. In R. Ghiglione & J.-F. Richard (Eds.), Cours de psychologie. (Vol. 3). Champs et théories (pp. 23-33). Paris : Dunod. Sawyer, M. H. (1991). A review of research in revising instructional text. Journal of Reading Behavior, 23, 307-333. 26 F. Ganier Schellens, P. J., & De Jong, M. T. (1997). Revision of public information brochures on the basis of reader feedback. Journal of Business and Technical Communication, 11, 483-501. Schmid, S., & Baccino, T. (2001). Stratégies de lecture pour les textes à consigne. Langages, 141, 105-127. Schriver, K. A. (1989). Evaluating text quality : The continuum from text-focused to reader-focused methods. IEEE Transactions on Professional Communication, 32, 238-255. Schriver, K. A. (1997). Dynamics in document design. New York : John Wiley & Sons. Schumacher, G. M., & Waller, R. (1985). Testing design alternatives : A comparison of procedures. In T. M. Duffy & R. Waller (Eds.), Designing usable texts (pp. 377-403). London : Academic Press. Steehouder, M., & Jansen, C. (1992). Optimizing the quality of forms. In H. Pander Maat & M. Steehouder (Eds.), Studies of functional text quality (pp. 159172). Amsterdam : Rodopi. Swaney, J. H., Janik, C. J., Bond, S. J., & Hayes, J. R. (1991). Editing for comprehension : Improving the process through reading protocols. In E. R. Steinberg (Ed.), Plain language : Principle and practice (pp. 173-203). Detroit, MI : Wayne State University Press. Sweller, J., & Chandler, P. (1994). Why some material is difficult to learn. Cognition and Instruction, 12, 185-233. Sydes, M., & Hartley, J. (1997). A thorn in the Flesch : Observations on the unreliability of computer-based readability formulae. British Journal of Educational Technology, 28, 143-145. Ummelen, N. (1997). Procedural and declarative information in software manuals. Amsterdam : Rodopi. Vermersch, P. (1985). Données d’observation sur l’utilisation d’une consigne écrite : L’atomisation de l’action. Le Travail Humain, 48, 161-172. Vermersch, P. (1990). Questionner l’action : l’entretien d’explicitation. Psychologie française, 35, 227-235. Veyrac, H., Bertrand, A., & Cellier, J.-M. (1997). Utilisation de consignes et compatibilité entre modèle de l’opérateur et modèle du prescripteur. In E. Pascual, J.-L. Nespoulous, & J. Virbel (Eds.), Le texte procédural : langage, action et cognition (pp. 265-284). Toulouse : Prescot. Veyrac, H., Cellier, J.-M., & Bertrand, A. (1997). Modèle de l’opérateur et modèle du prescripteur. Le cas des consignes de résolution de situations incidentelles pour les conducteurs de trains. Le Travail Humain, 60, 387-407. Virbel, J. (1989). The contribution of linguistic knowledge to the interpretation of text structure. In J. André, V. Quint, & R. Furuta (Eds.), Structured document (pp. 161-180). Cambridge, UK : Cambridge University Press. Waller, R. (1984). Designing a government form : A case history. Information Design Journal, 4, 36-57. Weiss, E. H. (1988). Usability : Stereotypes and traps. In E. Barrett (Ed.), Text, context and hypertext (pp. 175-185). Cambridge, MA : MIT Press. Wright, P. (1985). Editing : Policies and processes. In T. M. Duffy & R. Waller (Eds.), Designing usable texts (pp. 63-96). London : Academic Press. RÉSUMÉ L’évaluation de la qualité et/ou de l’utilisabilité des documents techniques procéduraux (guides d’utilisation, modes d’emploi, etc.) reste souvent absente du processus de conception, au risque de produire des documents inadaptés aux utilisateurs, voire inutiles. L’objectif de cet Évaluer l’efficacité des documents techniques 27 article est de présenter les principales méthodes d’évaluation centrées sur le document, les jugements d’experts et les utilisateurs en regard de différents objectifs de l’évaluation (diagnosticremédiation, aide à la décision et vérification de l’utilisabilité). Il est conclu que la combinaison de plusieurs types d’approches intégrés dans une démarche itérative constitue une condition d’évaluation efficace de l’utilisabilité de ces documents complexes et d’amélioration de leur conception. Ainsi, l’approche centrée sur le jugement d’experts devrait permettre de respecter l’adéquation du document au produit qu’il accompagne et celle centrée sur l’utilisateur devrait permettre de mettre en évidence et corriger certains défauts de conception du document. Mots-clés : Écrits techniques, Évaluation, Documents procéduraux, Utilisabilité. Manuscrit reçu : juillet 2000. Accepté par J.-M. Hoc après révision : août 2001.