É L`Évaluation Heuristique
Transcription
É L`Évaluation Heuristique
Chapitre 09 L’Évaluation É Heuristique Interface Personne Machine Alicia HERAZ - Hiver 2009 Département Informatique et Recherche Opérationnelle Université de Montréal Les 10 principes de Nielsen L règles Les è l d de N Norman Les 16 principes de Tognazzini Les 8 règles en or de Shneiderman Comment effectuer une évaluation heuristique ? IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal So omm maire e • • • • • L’évaluation L évaluation heuristique Introduction Pi i Principes H Heuristiques i ti IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal La visibilité Des heuristiques ? • Aussi appelé guides d’utilisabilité, ce sont des règles è l quii ressortent t t les l principes i i quii composentt une bonne interface (principes vus en cours) • Elles aident les experts à trouver les problèmes d’interface • Elles aident les concepteurs à choisir parmi plusieurs designs d’interface d interface • Il existe plusieurs guides heuristiques (Nielsen, Norman Tognazzini et Shneiderman) Norman, IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal La visibilité Les principes • • • • • • • Facilité d’apprentissage d apprentissage (A) Simplicité (S) Visibilité (V) Contrôle Utilisateur et Liberté (CU) ( ) Erreur (R) Effi i Efficience (E) Design graphique (DG) L’évaluation L évaluation heuristique Les Guides d d’Utilisabilité Utilisabilité Ni l Nielesen, N Norman, T Tognazzini i i ett Shneiderman Sh id IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal Guides d’utilisabilité Les 10 règles de Nielsen • • • • • • • • • • Être conforme au monde réel (A) Consistance et Standards (A) ( ) Aide et Documentation (A) Contrôle Utilisateur et Liberté (CU) Visibilité du statut du système (V) Fl ibilité ett Efficience Flexibilité Effi i (E) Prévention des erreurs (R) Reconnaissance et Non Rappel (R) Report des erreurs et recouvrement (R) Esthétique et Design minimaliste (DG, S) IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal Guides d’utilisabilité Les 4 règles de Norman • • • • Affordance (A) Mappage Naturel (A) Vi ibilité (V) Visibilité Feedback (V) IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal Guides d’utilisabilité Les 16 règles de Togazzini http://www.asktog.com/basics/firstPrinciples.html • • • • • • • • • Anticipation (E) Autonomie (CU) Daltonisme (DG) Consistance (A) Défauts (E) Efficience (E) Explorabilité (CU) La loi de Fitt (E) Objets d d’interface interface humain (A) • Réduction de la latence (V) • Apprentissage (A) • Métaphores (A) • Protection du travail d l’l’utilisateur de tili t (R) • Lisibilité (DG) • Retracer les états (E) • Visibilité de la navigation (V) IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal Guides d’utilisabilité Les 8 règles de Shneiderman • • • • • • • • Consistance (A) ( ) Raccourcis (E) Feedback (V) Dialogue avec fin explicite (V) Si lifi ti d Simplification de lla gestion ti d des erreur (E) Retour en arrière (CU) L’Utilisateur est le maitre qui contrôle (CU) Ne pas trop solliciter la mémoire CT (E) L’évaluation L évaluation heuristique Processus de ll’évaluation évaluation G id d Guide des ét étapes IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal Processus de l’évaluation heuristique Évaluation Heuristique • Pratiquée par un expert • Étapes a suivre • Bien inspecter l’interface utilisateur • Vérifier l’application l application de chaque heuristique • Lister les problèmes d’utilisabilité • Expliquer E li et jjustifier ifi chaque h problème blè ((en citant i l’heuristique dont il est question) IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal Processus de l’évaluation heuristique Explication des étapes • Expliquer et justifier chaque problème • Trop de choix sur la page d’accueil (esthétique et design minimaliste) • Ne peut pas juste dire : je n’aime pas le vert ! • Citer tous les problèmes • Même si les problèmes concernent le même élément de l’interface • Bien inspecter l’interface l interface au moins deux fois • Une 1e fois pour avoir une vision globale du système • U Une 2e fois f i pour se concentrer t sur certains t i éléments élé t de d l’interface IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal Processus de l’évaluation heuristique Explication des étapes • Expliquer et justifier chaque problème • Trop de choix sur la page d’accueil (esthétique et design minimaliste) • Ne peut pas juste dire : je n’aime pas le vert ! • Citer tous les problèmes • Même si les problèmes concernent le même élément de l’interface • Bien inspecter l’interface l interface au moins deux fois • Une 1e fois pour avoir une vision globale du système • U Une 2e fois f i pour se concentrer t sur certains t i éléments élé t de d l’interface IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal Processus de l’évaluation heuristique Le Test Utilisateur • L’expert n’est pas l’utilisateur mais il simule un utilisateur tili t typique. t i • L’expert inspecte tandis que l’utilisateur teste • L’expert préviens les problèmes qu’un testeur peut rencontrer (p p (polices inconsistantes,, problèmes avec la loi de Fitt…) • L L’évaluation évaluation heuristique coûte moins cher • Le Test Utilisateur demeure cependant le plus i important t t des d tests t t d’utilisabilité d’ tili bilité IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal Processus de l’évaluation heuristique Quelques conseils • Utiliser plusieurs évaluateurs car différents évaluateurs trouvent différents problèmes. Nielsen recommande 3 à 5 experts • Alterner l’évaluation heuristique avec le test q méthode trouve différents utilisateur. Chaque problèmes. • Contrairement à un test utilisateur, utilisateur il est autorisé que l’observateur aide l’expert à trouver les problèmes dans son interface interface. IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal Processus de l’évaluation heuristique Processus formel • Entrainement • Introduire l’application pp à l’expert. p Expliquer p q la nature des utilisateurs, le domaine, les scénarii • Évaluation • Séparer les experts et leur donner 1 à 2 heures pour générer é é un rapportt d’é d’évaluation. l ti • Sévérité de l’évaluation • Lister tous les problèmes trouvés et leur attribuer une moyenne d’évaluation d évaluation • Discussion entre les experts et les concepteurs IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal Processus de l’évaluation heuristique Sévérité de ll’évaluation évaluation • Les facteurs influençant la note d’évaluation d évaluation • Fréquence du problème • Impact du problème • Persistance de l’impact l impact du problème • Échelle d’évaluation • 0 … 4 (P (Pas d de P Problème blè … Il ffaut absolument b l régler le problème) IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal Processus de l’évaluation heuristique Évaluation des prototypes • L’évaluation heuristique se fait sur : • Des D esquisses i • Des prototypes papiers • Des implémentations préliminaires • Il est difficile de trouver les problèmes liés au manque d’éléments sur des esquisses • Il estt difficile diffi il d de ttester t certaines t i h heuristiques i ti sur un prototype papier (exemple : la loi de Fitt) IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal Processus de l’évaluation heuristique Écrire un rapport d d’évaluation évaluation • Un rapport d’évaluation inclut les bonnes et les mauvaises observations • La barre d’icones est simple avec peu de couleur et un bon contraste (design minimale) • Il faut avoir du tact • Au lieu de : L’organisation du menu est catastrophique > Dire : Le menu n’est pas organisé par fonction ;) • Il faut être spécifique • Au lieu de : Le texte est illisible > Dire : Le texte est trop p petit et a un faible contraste (noir sur bleu foncé) IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal Processus de l’évaluation heuristique Suggestion de formats • Inclure : le problème, l’heuristique, la description, la sévérité, la recommandation, la capture écran • Exemple : L’utilisateur peut fermer la fenêtre sans sauvegarder son travail (Prévention des erreurs) • Si l’utilisateur a effectué des changements sans sauvegarder et ensuite ferme f la fenêtre f ê en cliquant sur le X (au lieu de fichier, quitter) alors il n y a pas de boite de dialogue qui apparait. • Recommandation : montrer une boite de dialogue ou sauvegarder automatiquement. IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal L’évaluation heuristique Pour résumer • L’évaluation heuristique trouve les problèmes d’utilisabilité d utilisabilité d’une d une interface via l’inspection l inspection