É L`Évaluation Heuristique

Transcription

É L`Évaluation Heuristique
Chapitre 09
L’Évaluation
É
Heuristique
Interface Personne Machine
Alicia HERAZ - Hiver 2009
Département Informatique et Recherche Opérationnelle
Université de Montréal
Les 10 principes de Nielsen
L règles
Les
è l d
de N
Norman
Les 16 principes de Tognazzini
Les 8 règles en or de Shneiderman
Comment effectuer une évaluation
heuristique ?
IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal
So
omm
maire
e
•
•
•
•
•
L’évaluation
L
évaluation heuristique
Introduction
Pi i
Principes
H
Heuristiques
i ti
IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal
IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal
La visibilité
Des heuristiques ?
• Aussi appelé guides d’utilisabilité, ce sont des
règles
è l quii ressortent
t t les
l principes
i i
quii composentt
une bonne interface (principes vus en cours)
• Elles aident les experts à trouver les problèmes
d’interface
• Elles aident les concepteurs à choisir parmi
plusieurs designs d’interface
d interface
• Il existe plusieurs guides heuristiques (Nielsen,
Norman Tognazzini et Shneiderman)
Norman,
IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal
La visibilité
Les principes
•
•
•
•
•
•
•
Facilité d’apprentissage
d apprentissage (A)
Simplicité (S)
Visibilité (V)
Contrôle Utilisateur et Liberté (CU)
( )
Erreur (R)
Effi i
Efficience
(E)
Design graphique (DG)
L’évaluation
L
évaluation heuristique
Les Guides d
d’Utilisabilité
Utilisabilité
Ni l
Nielesen,
N
Norman,
T
Tognazzini
i i ett Shneiderman
Sh id
IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal
IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal
Guides d’utilisabilité
Les 10 règles de Nielsen
•
•
•
•
•
•
•
•
•
•
Être conforme au monde réel (A)
Consistance et Standards (A)
( )
Aide et Documentation (A)
Contrôle Utilisateur et Liberté (CU)
Visibilité du statut du système (V)
Fl ibilité ett Efficience
Flexibilité
Effi i
(E)
Prévention des erreurs (R)
Reconnaissance et Non Rappel (R)
Report des erreurs et recouvrement (R)
Esthétique et Design minimaliste (DG, S)
IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal
Guides d’utilisabilité
Les 4 règles de Norman
•
•
•
•
Affordance (A)
Mappage Naturel (A)
Vi ibilité (V)
Visibilité
Feedback (V)
IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal
Guides d’utilisabilité
Les 16 règles de Togazzini
http://www.asktog.com/basics/firstPrinciples.html
•
•
•
•
•
•
•
•
•
Anticipation (E)
Autonomie (CU)
Daltonisme (DG)
Consistance (A)
Défauts (E)
Efficience (E)
Explorabilité (CU)
La loi de Fitt (E)
Objets d
d’interface
interface
humain (A)
• Réduction de la
latence (V)
• Apprentissage (A)
• Métaphores (A)
• Protection du travail
d l’l’utilisateur
de
tili t
(R)
• Lisibilité (DG)
• Retracer les états (E)
• Visibilité de la
navigation (V)
IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal
Guides d’utilisabilité
Les 8 règles de Shneiderman
•
•
•
•
•
•
•
•
Consistance (A)
( )
Raccourcis (E)
Feedback (V)
Dialogue avec fin explicite (V)
Si lifi ti d
Simplification
de lla gestion
ti d
des erreur (E)
Retour en arrière (CU)
L’Utilisateur est le maitre qui contrôle (CU)
Ne pas trop solliciter la mémoire CT (E)
L’évaluation
L
évaluation heuristique
Processus de ll’évaluation
évaluation
G id d
Guide
des ét
étapes
IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal
IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal
Processus de l’évaluation heuristique
Évaluation Heuristique
• Pratiquée par un expert
• Étapes a suivre
• Bien inspecter l’interface utilisateur
• Vérifier l’application
l application de chaque heuristique
• Lister les problèmes d’utilisabilité
• Expliquer
E li
et jjustifier
ifi chaque
h
problème
blè
((en citant
i
l’heuristique dont il est question)
IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal
Processus de l’évaluation heuristique
Explication des étapes
• Expliquer et justifier chaque problème
• Trop de choix sur la page d’accueil (esthétique et
design minimaliste)
• Ne peut pas juste dire : je n’aime pas le vert !
• Citer tous les problèmes
• Même si les problèmes concernent le même élément
de l’interface
• Bien inspecter l’interface
l interface au moins deux fois
• Une 1e fois pour avoir une vision globale du système
• U
Une 2e fois
f i pour se concentrer
t
sur certains
t i éléments
élé
t de
d
l’interface
IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal
Processus de l’évaluation heuristique
Explication des étapes
• Expliquer et justifier chaque problème
• Trop de choix sur la page d’accueil (esthétique et
design minimaliste)
• Ne peut pas juste dire : je n’aime pas le vert !
• Citer tous les problèmes
• Même si les problèmes concernent le même élément
de l’interface
• Bien inspecter l’interface
l interface au moins deux fois
• Une 1e fois pour avoir une vision globale du système
• U
Une 2e fois
f i pour se concentrer
t
sur certains
t i éléments
élé
t de
d
l’interface
IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal
Processus de l’évaluation heuristique
Le Test Utilisateur
• L’expert n’est pas l’utilisateur mais il simule un
utilisateur
tili t
typique.
t i
• L’expert inspecte tandis que l’utilisateur teste
• L’expert préviens les problèmes qu’un testeur
peut rencontrer (p
p
(polices inconsistantes,,
problèmes avec la loi de Fitt…)
• L
L’évaluation
évaluation heuristique coûte moins cher
• Le Test Utilisateur demeure cependant le plus
i
important
t t des
d tests
t t d’utilisabilité
d’ tili bilité
IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal
Processus de l’évaluation heuristique
Quelques conseils
• Utiliser plusieurs évaluateurs car différents
évaluateurs trouvent différents problèmes.
Nielsen recommande 3 à 5 experts
• Alterner l’évaluation heuristique avec le test
q méthode trouve différents
utilisateur. Chaque
problèmes.
• Contrairement à un test utilisateur,
utilisateur il est autorisé
que l’observateur aide l’expert à trouver les
problèmes dans son interface
interface.
IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal
Processus de l’évaluation heuristique
Processus formel
• Entrainement
• Introduire l’application
pp
à l’expert.
p
Expliquer
p q
la
nature des utilisateurs, le domaine, les scénarii
• Évaluation
• Séparer les experts et leur donner 1 à 2 heures
pour générer
é é un rapportt d’é
d’évaluation.
l ti
• Sévérité de l’évaluation
• Lister tous les problèmes trouvés et leur
attribuer une moyenne d’évaluation
d évaluation
• Discussion entre les experts et les concepteurs
IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal
Processus de l’évaluation heuristique
Sévérité de ll’évaluation
évaluation
• Les facteurs influençant la note d’évaluation
d évaluation
• Fréquence du problème
• Impact du problème
• Persistance de l’impact
l impact du problème
• Échelle d’évaluation
• 0 … 4 (P
(Pas d
de P
Problème
blè
… Il ffaut absolument
b l
régler le problème)
IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal
Processus de l’évaluation heuristique
Évaluation des prototypes
• L’évaluation heuristique se fait sur :
• Des
D esquisses
i
• Des prototypes papiers
• Des implémentations préliminaires
• Il est difficile de trouver les problèmes liés au
manque d’éléments sur des esquisses
• Il estt difficile
diffi il d
de ttester
t certaines
t i
h
heuristiques
i ti
sur
un prototype papier (exemple : la loi de Fitt)
IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal
Processus de l’évaluation heuristique
Écrire un rapport d
d’évaluation
évaluation
• Un rapport d’évaluation inclut les bonnes et les
mauvaises observations
• La barre d’icones est simple avec peu de couleur et un
bon contraste (design minimale)
• Il faut avoir du tact
• Au lieu de : L’organisation du menu est catastrophique
> Dire : Le menu n’est pas organisé par fonction ;)
• Il faut être spécifique
• Au lieu de : Le texte est illisible > Dire : Le texte est trop
p
petit et a un faible contraste (noir sur bleu foncé)
IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal
Processus de l’évaluation heuristique
Suggestion de formats
• Inclure : le problème, l’heuristique, la description,
la sévérité, la recommandation, la capture écran
• Exemple : L’utilisateur peut fermer la fenêtre sans
sauvegarder son travail (Prévention des erreurs)
• Si l’utilisateur a effectué des changements sans
sauvegarder et ensuite ferme
f
la fenêtre
f ê en
cliquant sur le X (au lieu de fichier, quitter) alors
il n y a pas de boite de dialogue qui apparait.
• Recommandation : montrer une boite de
dialogue ou sauvegarder automatiquement.
IFT2905 - Interface Personne Machine - Alicia HERAZ - Hiver 2009 - DIRO - Université de Montréal
L’évaluation heuristique
Pour résumer
• L’évaluation heuristique trouve les problèmes
d’utilisabilité
d
utilisabilité d’une
d une interface via l’inspection
l inspection