n° d`ordre - Centre de Recherche en Neurosciences de Lyon

Transcription

n° d`ordre - Centre de Recherche en Neurosciences de Lyon
N° d’ordre
ANNEE 2004
THESE
présentée devant
L’Université Claude Bernard Lyon I
pour l’obtention
du DIPLOME DE DOCTORAT
(arrêté du 25 avril 2002)
Mention : NEUROSCIENCES
Dynamique cérébrale de la reconnaissance
des expressions faciales
Présentée et soutenue publiquement le 26 octobre 2004
par
Pierre Krolak-Salmon
Le Jury :
O. Bertrand
L. Cohen
T. Landis (Rapporteur)
B. Laurent (Rapporteur)
F. Mauguière
A. Vighetto
2
N° d’ordre
ANNEE 2004
THESE
présentée devant
L’Université Claude Bernard Lyon I
pour l’obtention
du DIPLOME DE DOCTORAT
(arrêté du 25 avril 2002)
Mention : NEUROSCIENCES
Dynamique cérébrale de la reconnaissance
des expressions faciales
Présentée et soutenue publiquement le 26 octobre 2004
par
Pierre Krolak-Salmon
Le Jury :
O. Bertrand
L. Cohen
T. Landis (Rapporteur)
B. Laurent (Rapporteur)
F. Mauguière
A. Vighetto
3
4
L’émotion est un mouvement de l’âme.
Paul Claudel
Couverture :
Le fou de peur ou Le désespéré (détail)
Gustave Courbet (1843)
5
6
A Marie-Anne
7
8
Remerciements
Mes remerciements vont tout d’abord à Marie-Anne Hénaff dont l’intelligence, la
curiosité, l’énergie, la grande disponibilité et le sourire ont tant apporté à ces travaux.
Compter sur une complicité de tous les instants était si précieux. Une rencontre déterminante
pour moi, et mieux que tout, une amitié.
Je remercie chaleureusement Olivier Bertrand et François Mauguière qui ont dirigé
cette thèse. La sagacité et les connaissances scientifiques d’Olivier Bertrand n’ont eu d’égal
que son enthousiasme et son sourire. François Mauguière continue à veiller avec toute sa
perspicacité sur nos travaux. Ses conseils scientifiques et humains sont uniques.
Alain Vighetto est l’un des instigateurs de cette recherche. Son regard aiguisé et ses
connaissances ont su guider les grandes orientations de cette thèse. Je le remercie pour sa
confiance et son soutien de chaque jour lors de ces années de collaboration. C’est un plaisir
immense sans cesse renouvelé.
Malgré leurs charges et responsabilités de premier ordre, Bernard Laurent et Théodore
Landis ont gentiment accepté d’être rapporteurs de cette thèse. Je les en remercie vivement.
Leurs travaux scientifiques font référence, ils ont grandement enrichi la compréhension de la
neuropsychologie moderne. Les travaux de Laurent Cohen forcent l’admiration, je suis honoré
qu’il participe au jury de cette thèse.
Merci aux membres de l’unité 280. Leur accueil, leur bonne humeur, leurs conseils
éclairés et leur aide si précieuse ont coloré ces quatre années et apporté un chaleureux
réconfort. Un espoir, continuer.
Je tiens à exprimer toute ma reconnaissance à Jacqueline, Christine, Hélène et tous
ceux du Service d’Explorations Fonctionnelles de l’Hôpital Neurologique. Une force
tranquille qui a toujours su rassurer et apaiser les patients et à laquelle aucune impédance
récalcitrante n’a finalement pu résister. Je tiens enfin à rendre hommage aux patients qui ont
accepté de participer à ces études et qui se sont souvent intéressés à leurs fondements, ainsi
qu’aux médecins et chirurgiens qui veillent sur eux.
9
10
TABLE DES MATIERES
Résumé .................................................................................................................................... 13
Avant-propos .......................................................................................................................... 15
Chapitre 1 : Organisation anatomo-fonctionnelle du système visuel ................................ 17
A. Organisation générale...................................................................................................... 20
B. Anatomie du système visuel ............................................................................................ 21
C. Les voies de traitement dorsale et ventrale...................................................................... 25
Chapitre 2 : La reconnaissance des visages ......................................................................... 29
A. Les études psychologiques : vers une dissociation entre la reconnaissance de l’identité et
de l’expression...................................................................................................................... 30
B. Les études neurophysiologiques...................................................................................... 34
C. L’imagerie fonctionnelle ................................................................................................. 38
D. « Un système neuronal distribué pour la perception des visages » ................................. 42
Chapitre 3 : Introduction à la reconnaissance des expressions faciales............................ 45
A. Qu’est-ce qu’une émotion ? ............................................................................................ 49
B. Qu’est-ce qu’une expression faciale ? ............................................................................. 52
C. Perception et reconnaissance ........................................................................................... 54
1) Comment reconnaissons-nous une émotion à partir d’une expression faciale ?.......... 54
2) Mécanismes de la reconnaissance des émotions à travers les visages......................... 57
3) Le développement de la reconnaissance des expressions ............................................ 60
4) Structures impliquées dans la reconnaissance des expressions faciales ...................... 61
5) La perception des émotions est-elle latéralisée ? ......................................................... 84
6) L’influence de la tâche................................................................................................. 87
Chapitre 4 : Travaux expérimentaux ................................................................................... 89
A. Protocole de stimulation.................................................................................................. 90
1) Stimuli.......................................................................................................................... 90
2) Conditions .................................................................................................................... 91
3) Tâches .......................................................................................................................... 91
B. Enregistrements de scalp : Etude n°1 .............................................................................. 92
1) Matériels et méthodes .................................................................................................. 92
2) Principaux résultats...................................................................................................... 93
3) Article n°1.................................................................................................................... 97
4) Discussion complémentaire ....................................................................................... 107
11
C. Enregistrements intra-crâniens ...................................................................................... 113
1) Matériels et méthodes ................................................................................................ 113
2) Etude n°2 : « About serendipity ».............................................................................. 118
3) Etude n°3 : Le dégoût et l’insula................................................................................ 131
4) Etude N°4 : Un réseau distribué dans le temps et dans l’espace ............................... 149
5) Etude n° 5 : Le sourire en miroir ............................................................................... 167
Chapitre 5 : Discussion Générale....................................................................................... 189
A.
Quel(s) aspect(s) de la reconnaissance des expressions faciales avons-nous exploré ?
……………………………………………………………………………………….189
1) Implication de la voie visuelle principale .................................................................. 189
2) La voie sous-corticale thalamo-amygdalienne est-elle impliquée ? .......................... 193
3) Deux voies visuelles, deux amies, deux rivales !...................................................... 198
B.
Vers un modèle de la reconnaissance des expressions faciales ................................. 200
1) Le modèle de Ralph Adolphs (Adolphs, 2002) ......................................................... 200
2) Commentaires ............................................................................................................ 204
C.
Perspectives................................................................................................................ 206
Conclusion............................................................................................................................. 208
Références ............................................................................................................................. 209
Abréviations.......................................................................................................................... 227
12
Résumé
La
neuropsychologie
et
l’imagerie
fonctionnelle
ont
montré
que
la
reconnaissance des expressions faciales, message émotionnel à grande valeur
sociale, implique de vastes réseaux neuronaux dans le cerveau humain. Les
structures corticales et sous-corticales impliquées diffèrent selon la nature de
l’émotion véhiculée par le visage. Ainsi, l’amygdale participe au traitement des
émotions aversives comme la peur et la colère alors que l’insula est particulièrement
impliquée dans la reconnaissance du dégoût. Le cortex orbito-frontal, participant
également à la reconnaissance des expressions faciales, serait déterminant dans
l’interprétation des stimuli émotionnels dans un contexte social déterminé.
Or les moments d’implication de ces différentes structures, les éventuelles
séquences d’activation voire l’identification de périodes d’interaction potentielles
entre les éléments de ces vastes réseaux neuronaux sont très mal connus.
L’électrophysiologie dont la résolution temporelle reste inégalée et dont la résolution
spatiale progresse représente un outil indispensable pour étudier ces questions.
Nous avons ainsi recueilli, grâce à des enregistrements de scalp dans une
population de sujets sains et grâce à des enregistrements intracérébraux chez 25
patients épileptiques pharmaco-résistants, des potentiels évoqués par des visages
exprimant différentes émotions. Les enregistrements de scalp ont mis en évidence
une activité spécifique des expressions émotionnelles dans la région occipitotemporale droite débutant 250 ms après le début du stimulus. Ces activités se
poursuivaient tardivement dans les régions occipitales et temporales droites. Les
enregistrements intra-cérébraux ont permis d’objectiver des réponses spécifiques au
dégoût dans l’insula ventrale antérieure après 300 ms et des réponses spécifiques à
la peur dans l’amygdale après 200 ms, soit 100 ms plus tôt que les réponses au
dégoût dans l’insula. Des réponses spécifiques à différentes expressions faciales
étaient ensuite enregistrées de façon prolongée dans les aires visuelles extra-striées,
le cortex temporal externe (complexe STS/GTM), et le cortex orbito-frontal. Chez une
patiente implantée dans l’aire motrice supplémentaire, des réponses à la joie étaient
évoquées dès 150 ms. Les stimulations électriques des contacts ayant recueilli ces
13
réponses provoquaient systématiquement sourire puis une sensation de gaieté chez
cette patiente.
L’ensemble de ces résultats confirme l’implication de réseaux spécifiques
dans la reconnaissance des expressions faciales, suggère une hiérarchie temporelle
dans le traitement de ces stimuli émotionnels, et montre une implication extrêmement
soutenue dans le temps des principales structures déterminantes pour cette fonction.
Cette chronologie d’activation est compatible avec l’existence de vastes périodes
d’interactions entre les aires corticales postérieures impliquées dans la perception et
les régions limbiques et paralimbiques permettant la reconnaissance des
expressions faciales et l’adaptation au contexte social.
14
Avant-propos
Le visage humain représente un puissant vecteur de communication. Les
messages riches, subtils et rapides qu’il véhicule, peuvent venir compléter le langage
verbal. Outre l’identité, le sexe et l’origine ethnique de la personne, l’expression
faciale combinée à la direction du regard viennent préciser les intentions et l’état
émotionnel de notre interlocuteur. La lecture labiale peut également aider à la
compréhension du langage parlé. Les réseaux neuronaux impliqués dans la
reconnaissance des différents caractères faciaux semblent multiples et les
populations neuronales les constituant sont largement distribuées.
Les études neuropsychologiques et d’imagerie fonctionnelle réalisées chez
l’homme ces dernières années ont montré que la reconnaissance des émotions, en
particulier des expressions faciales, mettait en jeu des réseaux neuronaux
dépendants du message émotionnel. Il paraît maintenant établi que certaines
structures corticales et sous-corticales comme l’amygdale, l’insula ou le cortex orbitofrontal, réagissent plus particulièrement à certains messages émotionnels.
Cependant, les renseignements temporels concernant ces implications multiples et
complexes sont rares chez l’Homme. Certaines études électrophysiologiques de
scalp et de rares travaux utilisant la magnétoencéphalographie ont permis de
dévoiler quelques aspects temporels originaux du traitement des émotions. Les
caractéristiques de l’activation de ces différentes structures restent cependant
inconnues, de même que d’éventuelles périodes d’interaction et de coopération
permettant de reconnaître pleinement l’émotion traduite sur le visage. Enfin, ces
propriétés temporelles dépendent-elles de la nature émotionnelle du message reçu ?
Nous proposons dans cette thèse de tenter de préciser le décours temporel du
traitement neuronal des expressions faciales chez l’Homme, grâce à des études
électrophysiologiques de scalp et intracérébrales, alliant la résolution temporelle
inégalée de la technique des potentiels évoqués et une résolution spatiale
particulièrement intéressante.
15
16
Chapitre 1 : Organisation anatomo-fonctionnelle du
système visuel
17
"On peut s'imaginer que le réalisme consiste à copier un verre tel qu'il est sur la
table. En fait on ne copie jamais la vision qu'il en reste à chaque instant, l'image qui
devient consciente. Vous ne copiez jamais le verre sur la table, vous copiez le résidu
d'un verre […]
Lorsque je regarde le verre, de sa couleur, de sa forme, de sa lumière, il ne me
parvient à chaque regard qu'une toute petite chose très difficile à déterminer, qui
peut se traduire par un tout petit trait, une petite tâche, à chaque fois que je regarde
le verre, il a l'air de se refaire, c'est à dire que sa réalité devient douteuse, parce que
sa projection dans mon cerveau est douteuse ou partielle.
On le voit comme s'il disparaissait…ressurgissait…disparaissait…ressurgissait…
C'est à dire qu'il se trouve toujours bel et bien entre l'être et le non-être. Et c'est cela
qu'on peut copier."
"L'Art ce n'est qu'un moyen de vie"
Alberto Giacometti
18
Le système visuel est certainement le système perceptif le plus complexe et le
plus étudié. Sa tâche herculéenne est de dégager d’un bruit de fond extrêmement
riche les informations pertinentes nécessaires à la construction d’une image en trois
dimensions. Nous verrons comment cette image est « construite » par le cerveau qui
doit combiner les informations purement perceptives et ce qu’il sait ou ce qu’il attend
de l’objet visuel pour une perception optimale. La recherche actuelle porte autant sur
l’étude des substrats neuronaux des étapes perceptives pures permettant de
construire une image que ceux sous-tendant la véritable la reconnaissance visuelle
jusqu’à l’accès au lexique correspondant.
Ainsi, nous présenterons l’architecture fonctionnelle du système visuel chez
l’Homme et le primate, en insistant sur les différentes voies de traitement visuel
intervenant en proportions différentes en fonction des attributs de l’objet et du
contexte. Dans un deuxième temps, nous présenterons les différentes théories
concernant les phénomènes perceptifs et de reconnaissance visuelle mettant en jeu
une organisation hiérarchique du système visuel.
La compréhension du système visuel a bénéficié ces dernières années des
travaux anatomiques et électrophysiologiques réalisés chez l’animal et de
l’avènement de l’imagerie fonctionnelle chez l’Homme. Dans un esprit didactique, il
convient d’intégrer le traitement de l’information visuelle dans un schéma par
définition trop simple, mais permettant de manier les concepts et d’avancer
progressivement dans la réflexion. Les mécanismes mis en jeu dans le traitement de
l’information visuelle ont une organisation hiérarchique intégrant les informations de
façon séquentielle et parallèle, avec une dynamique à la fois ascendante ou
« bottom-up » et descendante ou « top-down ». Pour comprendre ces mécanismes, il
nous faudra préciser les éléments neuronaux et anatomiques mis en jeu et leur
organisation en réseaux sous-corticaux et corticaux.
19
A. Organisation générale
Le système visuel doit construire, à partir d’indices élémentaires fournis par la
rétine, une représentation stable de l’objet visuel dans le monde environnant.
Cependant, un objet visuel peut être perçu selon différents points de vue, dans
divers contextes et doit générer dans le cerveau un percept tridimensionnel stable et
unique afin de permettre l’identification et la reconnaissance dans toutes les
circonstances. Une pleine reconnaissance n’est possible que si cette représentation
tridimensionnelle unique est comparée à des représentations prototypiques stockées
en mémoire. On peut déjà différencier les deux grandes étapes conduisant à la
reconnaissance visuelle : l’ensemble des processus perceptifs construisant un
invariant tridimensionnel et l’identification par comparaison et accès au cortège
d’informations sémantiques et lexicales concernant l’objet perçu. Nous verrons
jusqu’à quel point le phénomène de reconnaissance est exigeant et requiert un
investissement cognitif (jusqu’à la préparation motrice par exemple). Cette
organisation discrète des phénomènes perceptifs et de la reconnaissance
proprement dite, pour certains des traitements de bas niveau et des traitements de
haut niveau, n’est qu’apparente, puisque les passerelles entre ces deux grands
ensembles d’activités cognitives sont innombrables et à double sens.
Les traitements dits « précoces » ou de "bas niveau" correspondent à
l’encodage des caractéristiques élémentaires comme la fréquence spatiale, la
disparité rétinienne, l’orientation des contours, les dimensions, la couleur et la
direction du mouvement. Ces traitements de bas niveaux seraient plutôt associés à
des processus de type ascendant ou bottom-up depuis les informations recueillies
par la rétine jusqu’aux traitement corticaux plus intégrés. Les processus de
structuration reliant les informations locales obtenues à l’étape ci-dessus
interviendraient secondairement. Cependant, les traitements perceptifs de bas
niveaux peuvent être influencés par des informations descendantes ou top-down,
comme cela a été montré pour certaines illusions optiques. Ces différentes
opérations ne peuvent s’effectuer sur un mode séquentiel exclusif, des traitements
parallèles
intervenant
pour
différentes
opérations
visuelles
aux
exigences
temporelles importantes. En dépit d’une résolution temporelle faible des processus
20
rétiniens, cette organisation serait la clef de l’efficacité exemplaire du système visuel
alliant rapidité et précision.
Outre un système visuel hiérarchique, séquentiel et parallèle, l’hypothèse d’un
système d’organisation modulaire est discutée (Fodor, 1985). A chaque module ou
système réalisant sa propre analyse serait dévolu le traitement d’une caractéristique
particulière. L’approche modulaire et hiérarchique présente l’avantage de faciliter la
compréhension globale du système visuel, mais de nombreux faits expérimentaux
remettent en question cette théorie. Ce système s’oppose aux traitements distribués
de l’information. Une approche plus globale de la connectivité et des dynamiques
d’implication des différentes aires visuelles paraît plus proche de la réalité. Un
exemple typique de spécificité modulaire est représenté par le traitement des visages
et le déficit associé, la prosopagnosie (Bodamer, 1947). Ce principe de modularité
implique l’existence de neurones ou groupes de neurones spécialisés dans le
traitement de telle ou telle caractéristique de l’information, impliquant un codage
local. Outre la prosopagnosie, d’autres types d’agnosies visuelles spécifiques
viennent soutenir cette hypothèse, comme les déficits dans la reconnaissance des
objets inanimés (Warrington, 1982) par exemple. Mais les déficit spécifiques sont
rarement isolés chez l’homme, prosopagnosie et achromatopsie, ou prospagnosie et
agnosie d’objets par exemple étant souvent associées (Damasio et al., 1982; Zeki,
1990a). Les recouvrements importants des latences d’activations des aires visuelles
remettent en cause la hiérarchie absolue dans l’analyse de l’image (Ashford and
Fuster, 1985; Nowak et al., 1995).L’implication de V1 et V2 dans dans des processus
de « haut niveau » doit également nuancer le système hiérarchique. En effet, les
objets activeraient préférentiellement V1 que le fond (Lamme, 1995), alors que V2
pourrait déjà être impliquée dans la détection de textures (Merigan et al., 1993).
L’étude des composantes oscillatoires dans la bande gamma a renforcé l’hypohèse
d’une l’existence de mécanismes de liage perceptif par synchronisation d’une
assemblée neuronale (Tallon-Baudry and Bertrand, 1999).
B. Anatomie du système visuel
Le nombre d’aires visuelles répertoriées dans le cerveau n’a cessé
d’augmenter depuis les premiers travaux anatomiques et électrophysiologiques
21
(Hubel and Wiesel, 1968). Parmi la trentaine d’aires visuelles répertoriées chez le
primate, les connexions feedforward, feedback et latérales permettent d’enrichir
l’information visuelle intégrée différemment selon les aires (Felleman and Van Essen,
1991). L’imagerie fonctionnelle a permis d’établir une certaine homologie entre les
aires visuelles du primate et de l’Homme.
La rétine est composée de cellules réceptrices (cônes et bâtonnets), de
cellules relais (cellules bipolaires), de cellules projetant à l’extérieur de la rétine
(cellules ganglionnaires M, P et K) et d’interneurones (cellules amacrines et
horizontales). Les axones des cellules ganglionnaires forment le nerf optique et se
projettent dans le corps genouillé latéral (CGL) du thalamus. Il existe trois types de
cellules ganglionnaires se projetant dans le corps genouillé latéral : les cellules
magnocellulaires (M), parvocellulaires (P) et koniocellulaires (k).
Figure 1 : Coupe schématique du corps genouillé latéral représentant les différentes
couches cellulaires : parvocellulaires (P), magnocellulaires (M) et koniocellulaires (K).
Les cellules de type P aux petits champs récepteurs situées principalement
dans la région centrale du champ visuel sont spécialisées dans la vision des détails
et des couleurs. Les cellules de type M aux grands champs récepteurs plus
représentés en périphérie détectent facilement le mouvement. Les informations
gagnent ensuite l’aire visuelle primaire (V1) via les radiations optiques en 60 à 80 ms
post-stimulus (Thorpe et al., 1996).
L’aire
V1
dite
striée
du
fait
de
la
strie
de
Genari
identifiable
macroscopiquement, correspondant à l’aire 17 de Brodmann, est située à la face
interne du lobe occipital sur les berges de la scissure calcarine. Elle est constituée de
22
6 couches cellulaires, alors que la couche 4 (couche granulaire externe) reçoit les
projections du corps genouillé latéral. Les couches parvocellulaires du corps
genouillé latéral projettent principalement sur la sous-couche 4Cβ, alors que les
couches magnocellulaires se projettent surtout sur les sous-couches 4Cα et 4B. Les
neurones de la couche 4C sont organisés en colonnes de dominance oculaire,
d’orientation et de couleur. Ils se projettent sur les couches 2 et 3 présentant une
alternance de cellules sensibles à l’orientation (interblobs) ou non (blobs), ce qui
poursuit au sein de V1 la dichotomie fonctionnelle relative du système visuel initiée
dans la rétine (Livingstone and Hubel, 1984). L’aire visuelle primaire analyse de
façon parcellaire ou locale, selon une organisation rétinotopique, les lignes, angles,
différences de luminance et d’orientation composant une image, alors que l’analyse
globale est conduite dans d’autres visuelles corticales. Au-delà de V1, les cortex préstriés et extra-striés à la rétinotopie de moins en moins marquée assurent des
traitements plus globaux et spécialisés.
Figure 2 : Coactivation du LGN et du cortex visuel primaire par inversion de damier
noir et blanc. En bleu, après stimulation de l’hémichamp gauche, en orange après
stimulation de l’hémichamp droit (O'Connor et al., 2002)
23
Les neurones des couches 2 et 3 projettent sur le cortex pré-strié (aires V2 et
V3 ou aires 18 et 19 selon la classification de Brodmann) entourant l’aire V1. Le
même type de ségrégation fonctionnelle observée dans V1 opère dans V2 avec une
organisation en bandes pâles ou marquées. Les bandes marquées recevant des
projections des blobs sont sensibles à la couleur, alors que les bandes pâles
connectées avec les interblobs sont sensibles à l’orientation (Livingstone and Hubel,
1983). L’aire V3 est une aire pivot projetant sur V4 et MT/V5 appartenant
respectivement aux systèmes P et M.
L’imagerie fonctionnelle, la TEP puis surtout l’IRMf, ont permis d’obtenir une
vision plus ou moins précise du cortex extra-strié (DeYoe et al., 1996). L’aire V4 est
située dans la région des gyri lingual et fusiforme chez l’Homme. Les neurones de
l’aire V4 répondent fortement à la couleur (Zeki, 1980) et permettent d’accéder à une
perception cohérente des formes. L’aire MT (médio-temporale) ou V5, située dans la
partie postérieure du STS chez le singe et au niveau du carrefour occipito-temporopariétal chez l’Homme est spécialisée dans la perception et l’interprétation des
mouvements des objets et des formes (Desimone and Ungerleider, 1986; Zeki,
1991). L’étude des connexions calleuses, de la cytoarchitectonie et du degré de
myélinisation ont permis de préciser les positions relatives des aires V1, V2, V3, VP
et MT, une rétinotopie étant retrouvée dans les aires V1, V2, V3, VP, V3A et V4v
chez l’Homme (Clarke and Miklossy, 1990).
24
Figure 3 : Localisation des aires visuelles chez l’Homme (A, B et C) et le macaque
(D), déterminées en IRM fonctionnelle (Tootell et al., 1996)
C. Les voies de traitement dorsale et ventrale
Les études anatomiques de connectivité, de lésions et électrophysiologiques
(Ungerleider et al., 1983) ont démontré que les aires visuelles extrastriées étaient
organisées en deux voies anatomiques et fonctionnelles. La voie ventrale occipitotemporale, incluant V4, renseigne préférentiellement sur la nature de l’objet visuel
perçu, sa forme, sa couleur, permettant son identification. La voie dorsale occipitopariétale, incluant MT/V5, fournit les informations concernant l’espace, la localisation
des objets et le mouvement par exemple. La dichotomie observée dès la rétine se
poursuit donc. Ainsi, la voie ventrale serait préférentiellement nourrie par les
25
informations provenant des neurones parvocellulaires, alors que la voie dorsale
serait alimentée par les neurones magnocellulaires (Livingstone and Hubel, 1988a;
Livingstone and Hubel, 1988b).
Les aires participant à ces deux voies de traitement fonctionnent partiellement
sur un mode séquentiel et hiérarchique. Ainsi, l’analyse est plus complexe et plus
spécialisée au fur et à mesure que l’on progresse le long de ces voies qui se
séparent après V3 (Desimone and Ungerleider, 1986).
Chez le singe, le cortex occipito-temporal est subdivisé en aires TEO (cortex
inféro-temporal postérieur) et TE (cortex inféro-temporal antérieur) construisant une
représentation cohérente des objets visuels. Certains neurones comme ceux situés
au fond du sillon temporal supérieur peuvent ne répondre qu’à des stimuli visuels
complexes (Perrett et al., 1982; Desimone et al., 1984). Chez l’Homme, l’imagerie
fonctionnelle a permis de démontrer un rôle crucial dans la reconnaissance des objet
visuels des régions occipito-temporales inférieures, en particulier le gyrus
parahippocampique participant à la reconnaissance de scènes naturelles (Epstein
and Kanwisher, 1998; Maguire et al., 2001), le gyrus lingual et le gyrus fusiforme
médian pour la reconnaissance des immeubles et maisons (Aguirre et al., 1998;
Haxby et al., 1999), et le gyrus fusiforme latéral ou Fusiform Face Area (FFA) pour la
reconnaissance des visages (Haxby et al., 1994; Kanwisher et al., 1997; Ishai et al.,
1999).
Certaines tâches de catégorisation d’objets visuels peuvent impliquer un
traitement différentiel rapide, essentiellement mis en évidence chez l’Homme par la
technique des potentiels évoqués. Des réponses spécifiques à certaines catégories
d’objets ont été enregistrées dès 150 ms après la présentation du stimulus (Botzel
and Grusser, 1989; Allison et al., 1994; Thorpe et al., 1996; Fabre-Thorpe et al.,
2001), parfois même avant 100 ms
(Seeck et al., 1997b; Pizzagalli et al., 1999;
Halgren et al., 2000). Chez le singe, des neurones temporaux répondent à des
stimuli spécifiques dès 100 ms (Perrett et al., 1982; Desimone et al., 1984; Baizer et
al., 1991; Rolls and Tovee, 1994; Rolls et al., 1994b). Une organisation strictement
hiérarchique et séquentielle du traitement visuel ne pourrait rendre compte de telles
contraintes temporelles, qui suggèrent un codage distribué fondé sur le niveau de
26
synchronisation des différentes aires visuelles. Un traitement de type parallèle est
conforté par des études chez le singe montrant un recouvrement des latences des
réponses dans les différentes aires visuelles corticales (Ashford and Fuster, 1985;
Raiguel et al., 1989). La dichotomie observée entre le système ventral et le système
dorsal pourrait se poursuivre au niveau du cortex préfrontal, les neurones de la voie
ventrale projetant préférentiellement sur le cortex orbito-frontal et ceux de la voie
dorsale sur le cortex frontal dorso-latéral (Wilson et al., 1993).
Une intervention de la voie extra-géniculo-striée pourrait expliquer ces
résultats. Des projections directes de structures sous-corticales telles que le corps
genouillé latéral et le pulvinar sur les aires visuelles corticales extrastriées
existeraient chez le singe (Fries, 1981; Standage and Benevento, 1983). Le pulvinar
reçoit des projections directes des cellules ganglionnaires de la rétine (Cowey et al.,
1994) et projette lui-même sur le cortex occipito-temporal (Zeki, 1990b). Certains
neurones efférents du corps genouillé latéral court-circuitant V1 se projetteraient
directement sur le cortex pré-strié et temporal inférieur (Fries, 1981; Yukie and Iwai,
1981). Les aires TE et TEO de la voie occipito-temporale recevraient des projections
non réciproques de l’hypothalamus supra-chiasmatique, du colliculus supérieur, du
noyau de Meynert, du raphé médian et dorsal, du locus cœlomes et de la formation
réticulée (Webster et al., 1993). La découverte de la vision aveugle chez l’Homme
corrobore ces études chez le singe (Cowey and Stoerig, 1991).
L’approche dite « computationnelle » visant à identifier différents modules de
traitement sous-jacents à la réalisation d’une fonction est un des héritages directs de
la théorie des niveaux de traitement. Cette théorie adaptée dans le domaine de la
perception et de l’imagerie visuelle en psychologie cognitive, ainsi qu’en intelligence
artificielle fut développée par Kosslyn (Kosslyn et al., 1992; Kosslyn et al., 1997;
Kosslyn et al., 1999; Kosslyn et al., 2001). Elle suppose l’existence de soussystèmes ou modules sous-tendant les différentes opérations cognitives impliquées
dans le traitement de l’information visuelle. Cette approche aboutit à une
cartographie fonctionnelle cognitive permettant d’éclairer la compréhension du poids
et des interrelations entre les structures cérébrales impliquées dans toute tâche
cognitive. Cependant, cette conception modulaire et hiérarchique n’intègre pas les
composantes dynamiques du traitement de l’information.
27
La reconnaissance des visages, et plus particulièrement celle des expressions
faciales, pourrait ainsi bénéficier des mécanismes du traitement visuel décrits cidessus,
séquentiels
et
hiérarchisés,
parallèles
et
distribués,
et
parfois
computationnels. L’expression faciale représente l’un des attributs variants du
visage, le reflet d’un état émotionnel ou témoin de son message social, un moyen de
communiquer.
Sa
reconnaissance
doit
s’opérer
au
sein
du
système
de
reconnaissance des visages, tout en faisant appel au concept de l’émotion qu’elle
traduit. Il est donc nécessaire de situer les expressions faciales, d’une part dans le
groupe des attributs faciaux, d’autre part, au sein des multiples messages à
caractère émotionnel que peut percevoir l’être humain.
28
Chapitre 2 : La reconnaissance des visages
Autoportrait
Léonard de Vinci
29
Les visages doivent être considérés différemment des autres types de stimuli
visuels. En effet, nous avons besoin de distinguer des milliers de visages aux
caractères très similaires, de traiter cette information très rapidement, d’établir les
liens entre les représentations perceptuelles d’un visage et les connaissances
sociales de la catégorie à laquelle il appartient. Ce type de stimulus requiert un
niveau de connaissance individuel, ce qui est très rare pour les autres types de
stimuli, à l’exception experts dans la reconnaissance des papillons, des timbres
postes ou des voitures. La reconnaissance des visages englobe plusieurs
composantes, en particulier la reconnaissance d’un visage en tant que tel parmi les
autres objets visuels, la reconnaissance de l’identité d’un individu, son sexe, son
origine ethnique, son âge, l’expression faciale traduisant son état émotionnel et la
direction du regard pouvant fournir des indications sur les intentions de l’individu. Il
semble que les réseaux neuronaux impliqués dans le traitement de ces différentes
composantes soient, au moins en partie, dissociés.
A. Les études psychologiques : vers une dissociation
entre la reconnaissance de l’identité et de l’expression
Les premiers indices proviennent des études comportementales mettant en
évidence une double dissociation dans la reconnaissance de l'identité et de
l'expression faciale. La prosopagnosie correspond à un défaut de reconnaissance de
l’identité d’un individu par son visage. La littérature distingue prosopagnosie
« aperceptive » et prosopagnosie « associative » (Damasio et al., 1990). Dans la
prosopagnosie aperceptive, la reconnaissance des visages est rendue impossible du
fait de troubles perceptifs visuels précoces, correspondant à des lésions occipitopariétales droites. Dans la prosopagnosie associative, l’étape perceptive semble
globalement respectée, alors que la reconnaissance d’un individu n’est pas possible.
Elle est due à des lésions bilatérales occipito-temporales inférieures (BA 18, 19) ou
temporales postérieures (BA 37). D’autres régions corticales adjacentes remplissent
le même type de rôle, liant les représentations perceptives aux connaissances
concernant tel ou tel visage (A qui appartient ce visage ?). Les lésions de ces régions
conduisent à l’incapacité de reconnaître l’identité des visages sans que la
30
discrimination perceptive soit altérée, ni la discrimination du genre, de l’expression
faciale ou de l’âge (Tranel et al., 1988). La reconnaissance de l’identité du visage
peut être altérée après lésion du cortex temporo-polaire droit (Tranel et al., 1997), sa
dénomination après lésion du cortex temporo-polaire gauche (Damasio et al., 1996).
Dans la prosopagnosie, la question de la spécificité du déficit dans la
reconnaissance des visages est ouverte, certains avançant l’idée d’un déficit dans la
reconnaissance d’objets visuels au sein d’une classe riche en représentants, pour
laquelle nous développons une expertise.
Des études classiques conduites par Patterson et Baddeley ont montré qu’un
changement modéré de l’angle de vision et conjointement de l’expression d’un
visage inconnu n’altérait pas les performances de reconnaissance, alors que la vision
de profil altère significativement ces performances (Patterson and Baddeley, 1977).
Cela montre qu’une vision unique d’un visage contient assez de paramètres
invariants pour permettre la reconnaissance malgré des changements d’orientation
ou d’expression. Ellis et collaborateurs ont suggéré secondairement qu’un contact
répété avec un même visage permet d’établir une représentation structurale
caractérisant ce visage (Ellis et al., 1979). Bruce a montré que les visages non
familiers montrés de ¾ avec une expression différente par rapport au premier contact
étaient tout de même reconnus moins précisément et moins rapidement, alors que
pour les visages familiers, cette altération n’était retrouvée que pour la vitesse de
réponse et non pas pour les performances (Bruce, 1982). Il en ressort que les
performances
de
reconnaissance
d’un
visage
dépendent
de
la
quantité
d’informations invariantes que l’on a pu déduire de l’observation. Ainsi, les visages
connus ont déjà permis d’accumuler une masse d’informations invariantes
permettant une reconnaissance plus solide et plus rapide.
Bruce et Young ont présenté un modèle maintenant classique de
reconnaissance des visages prenant en compte différents réseaux de traitements et
différents modules (Bruce and Young, 1986). Selon Bruce et Young, les différentes
informations apportées par les visages peuvent être traitées par des sous-systèmes
déjà distincts au niveau de l’intégration perceptive, c’est à dire à l’étape de
l’encodage structurel (Bruce and Young, 1986). Ces auteurs ont suggéré
l’intervention de 7 types d’informations contenus dans les visages : les informations
31
picturales, structurales, l’expression faciale, les mouvements des lèvres, les
informations sémantiques dérivées du traitement visuel (âge, sexe, ethnie),
sémantiques liées à l’identité de la personne, dernière étape permettant d’accéder au
registre des noms. Ces 7 étapes sont liées au « système cognitif » dont les
composantes et fonctions sont mal définies et non validées expérimentalement.
Le code pictural intègre les informations de luminance, de texture, de
contraste conduisant à une image cohérente du visage en deux dimensions.
L’encodage structural permettant d’extraire les invariants faciaux forme la
configuration en trois dimensions du visage rendant possible la reconnaissance
parmi d’autres visages. Cette étape indépendante de l’orientation du stimulus,
permet d’éliminer les propriétés variables du code pictural et d’effectuer une
« normalisation » de l’image. Il est alors possible de comparer cette configuration
faciale unique à une représentation prototypique stockée en mémoire. Ces deux
premières étapes correspondent au traitement perceptif initial des visages inconnus
ou familiers. Les expressions faciales seraient analysées indépendamment par le
système cognitif dévolu aux émotions. Les informations structurales seraient confiées
de façon indépendante des expressions aux « Face Recognition Units », ce qui
sous-tend l’indépendance entre le système de reconnaissance de l’identité d’une part
et de l’expression d’autre part. Ainsi, dans les travaux de Bruce et Young, il n’y avait
pas de différence dans les temps de réaction pour la reconnaissance des
expressions entre les visages familiers et les visages non familiers (Bruce and
Young, 1986). Calder et collaborateurs ont même montré que, sur des
images
digitales, les pixels caractérisant l’identité diffèrent de façon statistiquement
significative de ceux définissant l’expression faciale, ce qui peut ainsi être supposé
pour les composants principaux définissant ces attributs faciaux (Calder et al., 2001).
Cette indépendance absolue fut contredite par la suite. Par exemple, les
performances dans la catégorisation de visages familiers ou non familiers sont
modifiées si le visage exprime une expression de joie, par rapport à un visage neutre
(Baudouin et al., 2000). Cela montre l’importance de la quantité d’informations
invariantes que l’on a pu acquérir pour assurer la reconnaissance la plus efficace
d'un visage familier.
32
Figure 4 : Représentation du modèle fonctionnel de Bruce et Young
(Bruce and Young, 1986)
Ainsi, l’analyse des expressions faciales pourrait intervenir lors d’une étape
consécutive à l’étape perceptive, à un niveau requérant déjà un degré de
reconnaissance. Le modèle de Bruce et Young suggère une étape perceptive
commune nécessaire à la reconnaissance de l’identité, du genre, des expressions
faciales (Bruce and Young, 1986). Un des arguments forts est représenté par les
dissociations observées après lésions neurologiques, survenant à une étape de
reconnaissance et d’encodage structurel. Il s’agit principalement d’agnosies
spécifiques de catégories et non d’incapacité d’encodage structural. Par exemple,
des dissociations dans la reconnaissance des expressions et de l’identité furent
rapportées après lésions cérébrales, alors que la capacité à distinguer deux visages
33
présentés simultanément était préservée (Tranel et al., 1988; Adolphs et al., 1994).
Cependant, l’analyse des expressions faciales pourrait faire appel d’une part à des
voies relativement spécifiques à l’étape perceptuelle précoce et d’autre part à une
étape de différenciation conceptuelle de l’expression.
La
reconnaissance
de
l’identité
faciale
dépend
essentiellement
des
informations configurationnelles et des rapports spatiaux entres les différentes
parties d’un visage, bien mieux perçus si le visage est à l’endroit (Searcy and
Bartlett, 1996). Il s’agit d’une propriété essentiellement « holistique » dans la mesure
où elle ne peut être décomposée en une somme de traitements perceptifs distincts
des différents caractères faciaux (Tanaka and Farah, 1993). De nombreuses études
ont permis d’appréhender le traitement des différentes régions du visage et leurs
aspects configurationnels dans la reconnaissance de l’identité. Alors que certains
modèles prédisent que l’analyse des régions faciales est suffisante pour reconnaître
les expressions (Dailey et al., 2002), d’autres suggèrent qu’un certain degré de
reconstruction configurationnelle globale est nécessaire (Calder et al., 2000a). Ces
deux approches peuvent jouer un rôle différent selon les expressions. Par exemple,
la reconnaissance de la joie peut se baser sur la seule analyse de la bouche, c’est à
dire du sourire, alors que les émotions négatives requièrent une analyse
configurationnelle.
B. Les études neurophysiologiques
Les enregistrements unitaires chez le singe tendent à confirmer les
dissociations dans la reconnaissance des différents attributs faciaux. De nombreux
neurones situés dans le cortex inféro-temporal répondent de manière différente à la
vision de visages (Perrett et al., 1982) ou autres objets visuels (Gross et al., 1972).
Alors que la majorité de ces cellules répondent en mêmes proportions aux visages
de différents individus de face et de profil, certaines sont sensibles à l'identité. Ces
neurones du cortex inféro-temporal répondent de façon précoce et transitoire à la
catégorisation grossière visage/non visage, et plus tardivement de façon prolongée
pour déterminer les caractéristiques intrinsèques plus fines des visages comme
l’identité et l’expression (Sugase et al., 1999). La réponse de certains neurones est
34
modulée en fonction des propriétés des visages, par exemple l’identité, le statut
social, l’expression faciale. Il semble qu’il existe une ségrégation des neurones
temporaux en fonction du type d’information qu’ils véhiculent : alors que les neurones
du Sillon Temporal Supérieur (STS) peuvent coder pour l’expression du visage, les
neurones inféro-temporaux codent pour l’identité (Hasselmo et al., 1989; Perrett et
al., 1992). Les premières réponses neuronales dans le cortex temporal surviennent
entre 20 ms et 50 ms (Tovee et al., 1993), mais le moment du traitement de
l’information concernant les visages semble varier en fonction du contenu : le
traitement permettant de catégoriser un visage en tant que tel s’opère à partir de 120
ms, alors que celui plus fin et détaillé permettant de reconnaître l’identité intervient à
170 ms (Sugase et al., 1999). Cependant, une réponse d’un neurone spécifique de
l’identité peut débuter vers 100 ms (Oram and Perrett, 1992). Cela n’implique pas
que ces régions soient nécessaires, puisque les lésions du STS chez le singe
n’impliquent pas de déficit dans la reconnaissance des expressions faciales
(Heywood and Cowey, 1992).
Figure 4 : Localisation de neurones répondant sélectivement aux visages dans le
cortex temporal du singe macaque à travers huit études unitaires : les neurones
répondant électivement aux expressions (cercles) se situent préférentiellement au
fond du STS contrairement à ceux répondant à l’identité ou aux deux caractères
faciaux (respectivement triangles et disques pleins) (Perrett et al., 1992).
Des études intracérébrales humaines ont pu être conduites chez des
patients épileptiques pharmaco-résistants implantés par électrodes profondes dans
le cadre d'explorations préchirurgicales. Les travaux de Penfield et Perot ont permis
35
entre autres d'explorer les aires visuelles occipitales (Penfield and Perot, 1963). La
première étude d'enregistrements unitaires explorant les réponses aux visages chez
l'Homme fut conduite par Ojemann et collaborateurs (Ojemann et al., 1992) chez 11
patients. Différentes populations de neurones situés dans le gyrus temporal
supérieur droit et surtout le gyrus temporal moyen droit étaient sensibles à la
présentation d’un visage. Seules les populations neuronales situées dans le GTM
étaient sensibles à l’expression du visage. Ainsi, la spécificité relative enregistrée par
d’autres chez le singe était mise en évidence chez l’Homme (Hasselmo et al., 1989).
Les réponses neuronales aux visages étaient disséminées dans le cortex temporal
externe et soutenues dans le temps, puisqu’elles étaient enregistrées pendant
plusieurs secondes après la présentation du stimulus. Les auteurs avançaient un rôle
de l’attention sélective portée sur le type de stimulus dans l’entretien de ces
réponses dans le temps. Dans une étude ancienne utilisant la stimulation électrique
intracérébrale chez des patients épileptiques, seule la stimulation du gyrus temporal
moyen altérait la catégoristion des expressions faciales (Fried et al., 1982).
Allison, McCarthy, Puce et collaborateurs ont décrit dans trois articles successifs les
réponses visuelles enregistrées à la surface du cortex occipito-temporal inférieur
grâce à des « grids » (filets d’électrodes posés sur le cortex) (Allison et al., 1999;
McCarthy et al., 1999; Puce et al., 1999). Quatre-vingt dix-huit patients ont été inclus
dans ces études. Dans le premier article, Allison et collaborateurs décrivent dans ces
régions 4 types d’activités en réponses aux visages (N200, P290, P350, N700)
(Allison et al., 1999). Ces réponses aux visages sont plus amples que celles liées
aux réseaux sinusoïdaux, aux autres objets visuels et aux lettres. Elles ont été
enregistrées dans les deux hémisphères, mais elles étaient plus amples à droite. Les
réponses aux visages survenant vers 200 ms sur le gyrus fusiforme sont insensibles
à la couleur, la taille, la fréquence spatiale, mais le N200 apparaît plus tardivement
lorsque les visages sont inversés, est moins ample en réponse aux yeux, à la
bouche, au nez, aux lèvres et aux contours faciaux présentés isolément (McCarthy et
al., 1999). Le N200 ne semble pas subir d’influence top-down, puisqu’il n’est pas
modifié par l’amorçage sémantique, n’est pas victime de l’habituation et n’est pas
sensible à la familiarité (Puce et al., 1999). Ce potentiel N200 semble correspondre
au N170 enregistré sur le scalp, et le groupe d’auteurs qui l’a décrit suggère qu’il
reflète l’étape d’encodage structural des visages dans le modèle de Bruce et Young.
36
Au niveau du scalp, le corrélat électrophysiologique de l’encodage structural
des visages semble être représenté par une négativité bitemporale (prédominant à
droite) enregistrée autour de 170 ms (N170, M170 en MEG) (Bentin et al., 1996;
Bentin and Carmel, 2002). La spécificité de cette onde est discutée dans les mêmes
termes que l'activation de la Fusiform Face Area qui sera décrite plus tard (Rossion
et al., 2002). La question d’une influence top-down sur cette réponse temporale fut
étudiée en examinant les réponses à des visages familiers ou inconnus, alors que
l’attention est portée sur des papillons (Bentin et al., 1999). Aucun effet de la
familiarité ne fut observé sur le N170, correspondant essentiellement à un traitement
de type bottom-up. Un tel effet fut observé plus tard autour de 350 ms, la négativité
de type N400 étant plus ample pour les visages familiers (Bentin et al., 1996; Eimer,
2000; Bentin and Carmel, 2002).
La question du traitement de l’identité et de l’expression faciales fut peu
explorée par l’électrophysiologie de scalp. Münte et collaborateurs ont observé les
premières réponses spécifiques de l’identité à partir de 200 ms et de l’expression
après 450 ms (Munte et al., 1998). En MEG, Streit et collaborateurs ont mis en
évidence une activité autour de 240 ms n’apparaissant que lors d’une tâche de
discrimination d’expressions faciales (Streit et al., 2000). Les potentiels évoqués et la
magnétoencéphalographie (MEG) ont montré qu’une catégorisation grossière des
stimuli visuels peut survenir dès 50 ms à 90 ms dans la région occipito-temporale
(Seeck et al., 1993; Seeck et al., 1997a; VanRullen and Thorpe, 2001), ce qui est
compatible avec un traitement du genre du visage entre 45 ms et 85 ms
(Mouchetant-Rostaing et al., 2000), sans qu’il n’y ait toutefois de corrélat
comportemental (VanRullen and Thorpe, 2001). La première activité différant selon
l’expression faciale fut enregistrée dans le cortex occipital médian entre 80 ms
(Pizzagalli et al., 1999) et 100 ms (Halgren et al., 2000), puis au niveau du cortex
temporal entre 140 et 170 ms (Streit et al., 1999). Il est possible que ces effets très
précoces soient dus à des différences de traitement visuel de bas niveau ou à des
effets de répétition. Le traitement post-perceptif des visages comme celui de l’identité
survient secondairement (après 200 ms) au niveau temporal antérieur (Seeck et al.,
1993; Tranel et al., 1997).
37
Ainsi, alors que la construction d’une représentation structurelle détaillée
semble nécessiter 170 ms, il est possible que des informations grossières
concernant le genre et les expressions faciales soient obtenues plus précocement,
indiquant qu’un traitement grossier peut se faire en parallèle d’un traitement
structurel plus complet. Il est possible que les expressions exprimant la colère ou un
danger soient traitées plus rapidement que les autres. Ainsi, des visages exprimant
la peur préalablement associés à des chocs électriques peuvent induire des
réponses conditionnées lorsqu’ils sont présentés de façon subliminale (Esteves et
al., 1994).
C. L’imagerie fonctionnelle
L’importance écologique de la reconnaissance des visages est telle que
différents systèmes neuronaux experts participent à l’analyse des différents attributs
des visages. Une grande attention est portée sur une région occipito-temporale
ventrale, le gyrus fusiforme. Une des études les plus anciennes en imagerie
fonctionnelle a utilisé la TEP pour objectiver les activités différentielles liées à la
reconnaissance des visages et au traitement visuo-spatial (Haxby et al., 1991).
Figure 5 : Activités différentielles observées en TEP lors d’une tâche d’association
d’ « objets visuels » comprenant des visages et lors d’une tâche de discrimination
visuo-spatiale (Haxby et al., 1991).
38
L’étude en TEP sur le traitement des visages conduite peu après par l’équipe
de Sergent en 1992 fait maintenant référence (Sergent et al., 1992). Ces auteurs ont
montré que le gyrus fusiforme, le gyrus para-hippocampique, le cortex temporal
antérieur et les pôles temporaux étaient plus activés lors d’une tâche de
discrimination de l’identité de l’individu à travers son visage, par rapport à une tâche
de discrimination de genre.
Figure 6 : Activation du gyrus fusiforme par les visages à travers 5 études (TEP ou
IRMf), contrastes visages / images brouillées dans les études de Haxby et
collaborateurs (Haxby et al., 1994) et Clark et collaborateurs (Clark et al., 1996),
visages / autres objets visuels dans les études de Kanwisher et collaborateurs
(Kanwisher et al., 1997) et McCarthy (McCarthy, 1997) et entre une tâche de
discrimination d’identité et une tâche de discrimination de genre pour Sergent et
collaborateurs (Sergent et al., 1992).
39
La reconnaissance des objets visuels implique un réseau neuronal occipitotemporal distribué. Le gyrus fusiforme latéral est plus activé par les visages que par
les objets ou images brouillées, de façon bilatérale mais plus intensément à droite
(Kanwisher et al., 1997). Cette activation modulée par l’attention (Haxby et al., 1994),
serait relativement spécifique des visages, au moins à droite (McCarthy, 1997). Mais
cette région cérébrale est également activée par d’autres objets visuels lorsque les
sujets doivent les catégoriser ou des objets subordonnés au sein d’une classe
d’objets pour lesquels l’observateur est expert (Gauthier et al., 1999; Gauthier et al.,
2000).
Ce réseau occipito-temporal participerait également à la reconnaissance
d’autres objets visuels, en particulier le gyrus fusiforme médial pour la
reconnaissance des maisons et immeubles, le gyrus temporal inférieur pour les
chaises, le gyrus para-hippocampique pour les lieux (Ishai et al., 1999). Ces travaux
plaident en faveur d’un traitement en partie modulaire, mais la reconnaissance de
chacune de ces catégories implique également a minima des aires secondaires
répondant préférentiellement à une autre catégorie d’objets. Ces aires secondaires
sont plus ou moins activées selon le type d’attention, ce qui leur confère un rôle
important dans la comparaison avec des objets visuellement proches de l’objet ciblé.
Haxby et collaborateurs ont montré, qu’après soustraction des régions principales
activées par chaque catégorie d’objets, le pattern d’activation des régions
secondaires rendait compte à 94 % de la reconnaissance de chaque objet (Haxby et
al., 2001). Cela démontre l’intervention de réseaux distribués en partie communs
pour la reconnaissance des objets et des visages dans le cortex occipito-temporal.
Cette région participe à la construction de la représentation structurale détaillée des
visages, qui permettra secondairement d’accéder à la reconnaissance d’un visage
particulier. Ainsi, la Fusiform Face Area ne traiterait pas à part entière la
représentation structurale des visages, mais ferait partie d’un réseau distribué
(Haxby et al., 2001). Dans cet esprit, le traitement holistique des visages serait plus
assuré
par
l’hémisphère
droit,
alors
que
l’hémisphère
gauche
assurerait
préférentiellement l’analyse des traits faciaux (Rhodes, 1993).
Alors que la Fusiform Face Area participe au traitement des attributs
structuraux statiques des visages préparant à la reconnaissance de l’identité des
40
visages, d’autres régions plus antérieures et dorsales dans le cortex temporal
permettent de reconnaître les caractères variants du visage, comme la direction du
regard, les mouvements des lèvres et l’expression (Haxby et al., 2000), sans exclure
un traitement commun entre ces deux régions (Allison et al., 2000). L’imagerie
fonctionnelle a montré l’implication du STS et des régions adjacentes dans le
traitement de ces mouvements faciaux (Puce et al., 1998), reflétant peut-être la
réception des informations structurales et variables des visages (Seltzer and Pandya,
1994). Ainsi, la FFA, le STS et d’autres régions adjacentes mal connues participent
au réseau distribué construisant un percept des différents aspects du visage.
L’encodage mnésique des visages (versus la perception) impliquerait le cortex
préfrontal gauche, la région temporale interne droite, l’hippocampe, le cortex
cingulaire antérieur et le gyrus temporal inférieur gauche, alors que la
reconnaissance des visages activerait préférentiellement le cortex préfrontal droit, le
cortex cingulaire antérieur, le cortex pariétal inférieur, occipital ventral bilatéral et le
cervelet (Haxby, 1996). La prédominance du cortex préfrontal droit dans la
reconnaissance
a
été
également
rapportée
récemment
par
Bernstein
et
collaborateurs (Wiser et al., 2000; Bernstein et al., 2002). Wiser et collaborateurs ont
comparé les structures impliquées dans la reconnaissance de visages découverts
quelques minutes avant l’enregistrement (« visages nouveaux »), à celles activées
lors de la reconnaissance de visages découverts et appris une semaine auparavant
(« visages bien connus ») lors d’une étude en TEP (Wiser et al., 2000). Les deux
tâches engageaient des réseaux très similaires, mais la reconnaissance des
« visages nouveaux » impliquait plus le cortex préfrontal, alors que celle des
« visages bien connus » activait préférentiellement les aires postérieures.
41
D. « Un système neuronal distribué pour la perception
des visages »
Ainsi, les caractéristiques configurationnelles invariantes et les changements
dynamiques (Haxby et al., 2000) définissent deux aspects de l’information structurale
du visage. D’une part, il semble nécessaire de construire une représentation
invariante du visage pour permettre sa reconnaissance en toutes situations. Ainsi, le
traitement cortical des visages débute au niveau occipital avec celui de la structure et
de la configuration des traits, les distinguant du fond de l’image. L’extraction du fond
et l’assemblage des caractères visuels permettent de construire une représentation
du stimulus issue d’un traitement essentiellement de type bottom-up, c’est à dire
dépendant uniquement des caractères de l’image. D’autre part, il s’agit d’interpréter
les aspects changeants du visage comme l’expression, la direction du regard ou les
mouvements des lèvres, particulièrement impliqués dans la communication et les
rapports sociaux.
Le modèle proposé par Haxby et collaborateurs est hiérarchisé et subdivisé en
noyaux fonctionnels au sein d’un réseau distribué. Les trois régions déterminantes
situées dans le cortex visuel extra-strié occipito-temporal sont le gyrus occipital
inférieur, le gyrus fusiforme latéral et le STS. Le gyrus fusiforme analyse les aspects
invariants du visage caractéristiques de l’identité, alors que le STS traite les aspects
variants. Ce noyau fonctionnel est en relation avec de nombreuses autres structures
intervenant dans les multiples aspects de la reconnaissance des visages. Le contenu
émotionnel fait intervenir l’amygdale, l’insula et le système limbique. Le cortex auditif
participe à la lecture labiale alors que le sillon pariétal traite particulièrement les
aspects spatiaux des visages en particulier la direction du regard. L’identité, le nom
et
les
informations
biographiques
impliquent
la
région
temporale
42
antérieure.
Figure 7 : Modèle anatomique de reconnaissance des visages proposé par Haxby
et collaborateurs (Haxby et al., 2000). Ce modèle insiste sur la dichotomie entre le
système de reconnaissance des caractères invariants des visages, et celui de la
reconnaissance des paramètres variants permettant la communication entre
individus.
Ainsi, la reconnaissance des visages revêt de multiples aspects, dont
l’importance relative dépend du contexte et du message principal que doit
communiquer le visage. L’analyse des expressions faciales vise à en extraire le
message émotionnel. La reconnaissance d’une expression faciale implique celle d’un
des attributs variants du visage, mais aussi celle du concept émotionnel et du
cortège de références sémantiques qui peut lui être attribué.
43
Le verre de vin
Johannes Vermeer (1658)
44
Chapitre 3 : Introduction à la reconnaissance des
expressions faciales
L’usage de toutes les passions consiste en cela seul qu’elles disposent l’âme
à vouloir les choses que la nature dicte de nous être utile.
(…)
Ce sont de nos passions et d’elles seules que dépend tout le bien et le mal de
cette vie. L’âme peut avoir ses plaisirs à part, mais pour ceux qui lui sont communs
avec le corps, ils dépendent entièrement des passions, en sorte que les hommes
qu’elles peuvent le plus émouvoir sont capables de goûter le plus de douceur en
cette vie.
« Passions de l’âme»
René Descartes, 1649
45
Darwin
L’intérêt de Darwin pour les émotions remonte à 1839, année de naissance de
son fils William, lorsqu’il a commencé à noter les étapes de son développement, en
particulier celui de l'expression de ses émotions. « …c’est en vertu d’un sentiment
inné qu’il comprit que les larmes de sa nourrice exprimaient le chagrin… ». Peu
après, un autre événement stimulait l'intérêt de Darwin pour l'expression des
émotions. En 1840, Charles Bell publiait un livre intitulé "The Anatomy and
Philosophy of Expression". Darwin en fut très choqué. En effet, selon Bell, les
muscles faciaux de l'être humain auraient été conçus pour exprimer certaines
émotions qui lui sont propres. Ces propos venaient se télescoper avec la théorie de
Darwin. Pour ce dernier, les expressions sont apparues au cours de l'évolution de
l'espèce humaine, « …l’étude de la théorie de l’expression confirme, dans une
certaine mesure, la conception qui fait dériver l’Homme de quelque animal
inférieur… »
Charles Darwin
Concernant les émotions, Darwin a surtout basé ses recherches sur
l'observation des expressions faciales. Outre son fils William, il a étudié d'autres
enfants et adultes, puis les expressions faciales des animaux. Il a analysé des
peintures et des photographies d'enfants et d'adultes exprimant différentes émotions,
naturellement ou sur commande. Ses recherches l'amenèrent à s'intéresser aux
différentes cultures et ethnies peuplant la planète. Il rédigea un questionnaire qu'il
donna à des missionnaires qui pouvaient observer des expressions faciales dans
46
d'autres cultures. Son approche différait radicalement de celle de GuillaumeBenjamin Duchenne de Boulogne qui, dans les années 1860, cherchait à reproduire
des expressions faciales en stimulant électriquement les muscles faciaux. Darwin
emprunta d’ailleurs quelques photos de son livre "The Mechanism of Human Facial
Expression" (1862) pour mettre en exergue les différences entres les expressions
spontanées et les expressions provoquées volontairement, au caractère bien
artificiel. L’absence de contraction de ce muscle démasque les faux amis, écrivait
Duchenne de Boulogne à propos du muscle orbiculaire des paupières et du sourire.
Pour Darwin, l'expression ne traduit pas nécessairement un état émotionnel,
puisqu'elle peut être volontaire (et même créée de toutes pièces, comme dans
l'expérience de Duchenne de Boulogne). L'inverse est également vrai : l'absence
d'expression n’implique pas nécessairement l’absence d’émotion.
Figure 8 : Photographies du fils de Charles Darwin (Darwin, 1872)
47
Selon Darwin, quelques expressions sont innées (la capacité de les reconnaître
aussi), alors que certaines sont apprises. Toutes peuvent être exprimées de façon
volontaire par l'être humain ou l'animal. Selon lui, les expressions faciales sont en
majorité universelles, puisqu’elles apportent un bénéfice en terme d’évolution. Elles
doivent être utiles, « …en elle-même l’expression ou le langage des émotions…a
certainement son importance pour le bien de l’humanité. » Les pleurs, par exemple.
"Pourquoi pleurons-nous ?" Le plissement des yeux de l’enfant qui pleure, combiné
aux larmes, protégerait l’espèce. L'adulte qui pleure crie beaucoup moins, mais le
réflexe de larmoiement persiste. « Nos premiers ancêtres ne durent froncer les
sourcils et retirer les coins de leur bouche, quand ils étaient chagrins ou inquiets, que
lorsqu’ils eurent pris l’habitude de chercher à retenir leurs cris. » Le fait d’écarter les
paupières lorsque l’on est surpris aurait servi à l’origine à capter plus d'information.
Au cours du développement, cette action est devenue automatique. Darwin admet
qu'en général, l'expression sert à communiquer, mais l’observation d'une émotion
n’est pas fiable pour apprécier l’émotion chez autrui. Elle pourrait maintenant être
utile à l’adaptation sociale et à la survie dans les nouvelles sociétés.
Darwin a publié, vers la fin de sa vie, sa dernière grand œuvre intitulée « The
expression of the Emotions in Man and Animals » (Darwin, 1872). Les observations
faites sur son fils William furent publiées dans le journal « Mind » en 1877.
48
A. Qu’est-ce qu’une émotion ?
Les neurobiologistes et les psychologues définissent l’émotion comme un
changement phasique, généralement concerté et adaptatif, survenant dans de
multiples systèmes biologiques d’un même individu (incluant des composants
somatiques et neuronaux) en réponse à un stimulus (Damasio, 1994). La réaction
émotionnelle (réponse physiologique émotionnelle) doit être distinguée du sentiment
émotionnel (dépendant des représentations mentales de cette réaction émotionnelle
physiologique)
(Damasio,
2003).
Une
réaction
émotionnelle
implique
des
modifications concertées de multiples systèmes physiologiques comme le système
endocrinien, viscéral, végétatif et musculo-tendineux, y compris celui des muscles
faciaux. Ces différents systèmes sont impliqués en proportions variables et à des
moments différents.
Les six émotions primitives
selon Descartes (1631)
Admiration
Amour
Haine
Désir
Joie
Tristesse
Les émotions se manifestent sur le théâtre du corps, les sentiments sur celui
de l’esprit. Les émotions et les sentiments sont un des piliers de la régulation de la
vie, les derniers à un niveau supérieur. On peut classer les émotions proprement
dîtes en trois types : les émotions d’arrière-plan, les émotions primaires et les
émotions sociales. L’idée des émotions d’arrière-plan est développée par Damasio.
Ces états d’être ou humeurs, pouvant durer plusieurs heures, dépendent autant de
facteurs métaboliques que de stimuli extérieurs (Damasio, 2001b). La liste la plus
répandue d’émotions primaires (ou émotions de base) comprend la peur, le dégoût,
la joie, la colère, la tristesse et la surprise. Elles représentent les émotions les plus
49
communes à travers les cultures du globe (Ekman, 1992). Les émotions dites
sociales comprennent la sympathie, l’embarras, la honte, la culpabilité, l’orgueil,
l’envie, la gratitude, l’admiration, l’indignation et le mépris. Certaines réactions
émotionnelles pourraient être strictement innées, alors que d’autres nécessiteraient
une exposition préalable à l’environnement. Robert Hinde a montré que les singes
n’avaient peur des serpents que s’ils avaient été en contact au préalable et que la
mère avait exprimé une réaction de peur à ce stimulus (Hinde, 1989).
Les hypothèses sous forme de définition
(Damasio, 2001a)
1. Une émotion comme la joie, la tristesse, l’embarras ou la sympathie, est une
collection complète de réponses chimiques et neurales formant une entité
distincte.
2. Les émotions sont produites par le cerveau normal lorsqu’il détecte un
Stimulus Emotionnellement Compétent (SEC), objet ou évènement dont la
présence, réelle ou sous forme de souvenir, est apte à déclencher l’émotion.
Les réponses sont automatiques.
3. Le cerveau est préparé par l’évolution à répondre à certains SEC selon des
répertoires d’action. Toutefois, la liste des SEC n’est pas limitée à ceux que
prescrit l’évolution. Elle en inclut de nombreux autres appris avec l’expérience.
4. Le résultat immédiat de ces réponses est un changement temporaire dans
l’état du corps et dans celui des structures formant les cartes du corps et
sous-tendant la pensée.
5. Le résultat final de ces réponses place l’organisme, directement ou
indirectement, dans des circonstances contribuant à sa survie et son bienêtre.
50
L’homogénéité des concepts émotionnels est débattue, de même que leur
caractère individuel ou partie intégrante d’un continuum. Certains plaident en faveur
de concepts émotionnels bien individualisés (ceux que l’on peut nommer ou exprimer
avec un visage par exemple) (Ekman, 1992), d’autres en faveur d’un continuum dans
un espace bidimensionnel - dont les axes seraient représentés par le niveau d’éveil
et la valence émotionnelle (Russell, 1994) - ou en faveur d’assemblages dynamiques
et transitoires dépendants du contexte. Bien que les expressions faciales puissent
être réparties dans différentes catégories individualisées, elles pourraient appartenir
à différentes catégories en même temps, catégories dont les limites peuvent parfois
être floues (Russell and Bullock, 1986). La catégorisation d’une expression faciale
peut dépendre du contexte et de la comparaison avec d’autres expressions (Russell
and Fehr, 1987). Certains modèles mathématiques proposent que les expressions
faciales adoptent les caractéristiques de concepts émotionnels individuels, modulés
dans un espace continu (Calder et al., 2001).
Les images numérisées de visages aux expressions intermédiaires entre deux
états émotionnels (morphing) sont souvent utilisées pour la recherche.
Figure 9 : « Morphings » réalisés par Calder et collaborateurs, faisant varier
l’écartement des paupières et l’abaissement des joues (ligne du haut), et la position
des coins des lèvres et l’écartement des paupières (ligne du bas) pour modifier
l’expression faciale (Calder et al., 2001). Les images furent modifiées à partir des
visages d’Ekman et Friesen (Ekman and Friesen, 1975).
51
Le premier procédé fait varier progressivement la luminance des pixels d’un
niveau obtenu pour une expression vers le niveau atteint pour une autre expression.
Le deuxième maintient le niveau de luminance des pixels, mais les fait glisser
progressivement d’une position à une autre dans le visage qui exprime une nouvelle
émotion. Ces « morphings » peuvent même être utilisés pour exprimer une
expression exagérée, caricaturale. Ces manipulations conduisent à générer des
expressions faciales qui ne sont jamais observées en réalité. Les capacités à
catégoriser les expressions et à les hiérarchiser dans un espace à deux dimensions,
joyeux ou mécontent par exemple, peuvent être dissociées. Ainsi, un patient avec
des lésions bitemporales présentait une altération de la catégorisation des
principales
expressions
faciales,
mais
une
préservation
de
l’évaluation
bidimensionnelle de la valence émotionnelle (Adolphs et al., 2003).
Les émotions de base semblent être exprimées de façon similaire dans toutes
les cultures (Ekman, 1994), même si ces cultures adoptent différents moyens pour
lier les concepts aux noms, et si différentes ethnies expriment différemment les
émotions dans des circonstances différentes (Fridlund et al., 1985). Bien que cette
notion soit encore débattue, il paraît probable que les expressions faciales soient
traitées de la même façon à l’étape perceptuelle, mais qu’elles fassent appel à
différents paramètres sociaux dépendant du contexte culturel avant d’aboutir à une
pleine reconnaissance. Les similarités dans la reconnaissance des expressions
faciales peuvent ainsi prédominer pour les tâches de discrimination et de
catégorisation perceptuelles , alors que les différences peuvent apparaître au niveau
de la reconnaissance symbolique et la dénomination (Russell et al., 1989).
B. Qu’est-ce qu’une expression faciale ?
La nature des expressions faciales pouvant refléter, en proportions variables,
l’état émotionnel d’un individu ou un aspect de communication sociale, est
déterminante (Darwin, 1872; Fridlund et al., 1985). Ces deux composantes agissent
de concert pour générer les expressions faciales, l’une ou l’autre pouvant prédominer
selon les circonstances, les individus et les cultures.
52
Figure 10 : Visage d’écorché
La musculature faciale, très développée chez les humains et les grands singes, est
contrôlée par des réseaux neuronaux complexes activés selon des modes
automatiques et volontaires. Ces deux modes peuvent être dissociés après lésion
cérébrale : alors que les lésions de la voie pyramidale peuvent être responsables
d’une incapacité à produire des expressions faciales sur un mode volontaire, les
lésions insulaires, de l’aire motrice supplémentaire, des ganglions de la base et du
tronc cérébral peuvent induire une altération de
la production d’expressions
émotionnellement guidées (Hopf et al., 1992). Les études anatomiques avec traceurs
neuronaux chez le singe ont montré que l’innervation de la face inférieure (par le
noyau facial) provient principalement du cortex moteur primaire controlatéral M1, M4,
LPMCv et LPMCd, alors que celle de la face supérieure prend origine dans M2 et
M3, bien qu’il existe un certain degré de superposition (Morecraft et al., 2001). Les
projections de M3 et M4 et du cortex cingulaire moteur sur le noyau facial, contrôlées
par certains sous-noyaux amygdaliens, régulent les expressions émotionnelles
(Morecraft, 1998).
La reconnaissance des expressions faciales a bénéficié depuis plusieurs
décennies de nombreuses études comportementales, et plus récemment de
multiples approches neurobiologiques comme l’étude de lésions, l’électrophysiologie
53
en particulier l’électro-encéphalographie (EEG) et l’étude de potentiels évoqués (PE),
la magnétoencéphalographie (MEG), la tomographie par émission de positons (TEP)
et l’IRM fonctionnelle (IRMf). La grande diversité des résultats interdit toute
conclusion uniciste et ne permet pas de définir de façon exhaustive les structures
cérébrales impliquées dans la reconnaissance des expressions faciales. Il semble
que de multiples stratégies impliquant différemment de nombreux ensembles
neuronaux interviennent dans cette activité mentale.
C. Perception et reconnaissance
1) Comment reconnaissons-nous une émotion à partir
d’une expression faciale ?
Il est important d’analyser chaque élément de cette question. Il faut distinguer
le terme « perception » du terme « reconnaissance » (Lissauer, 1890). La perception
se réfère à l’ensemble des processus impliquant assez précocement et de façon
prédominante les cortex sensoriels reconstituant les caractéristiques d’une image et
leur configuration. Dans cet esprit, la perception devrait permettre de distinguer deux
images, par exemple deux visages présentés simultanément, uniquement sur leurs
caractéristiques physiques et géométriques.
En revanche, la reconnaissance semble requérir d’autres informations que
celles fournies par la seule inspection des caractéristiques de l’image. La
reconnaissance implique que nous possédions déjà certaines informations sur le
monde qui nous entoure. Elle requiert donc une certaine forme de mémoire. Une des
formes les plus simples de reconnaissance est en fait appelée « mémoire
perceptive», impliquant simplement les capacités de maintien en mémoire des
informations perceptuelles précoces de l’image auxquelles une autre image stockée
peut être comparée.
Alors que la forme la plus simple de mémoire visuelle fait appel en principe
aux seules informations perceptuelles (c’est à dire celles correspondant aux
caractéristiques de l’image et leur configuration), la pleine reconnaissance d’une
54
émotion sur un visage fait appel à des notions sémantiques complexes concernant
les expressions faciales ainsi que d’autres stimuli associés plus ou moins
directement. Par exemple, cette reconnaissance peut faire appel au lieu où l’on a
déjà rencontré la personne, à ce qui a été dit de la personne en face de soi, à notre
premier sentiment en face de cette personne et d’autres évènements contingents.
Aucune de ces informations ne peut être issue de données purement perceptuelles
concernant le visage mais elles proviennent de la conjonction d’informations
provenant du visage per se et d’autres stimuli.
La perception d’une expression faciale (comme elle apparaît) peut ainsi être
distinguée du concept de cette même expression (ce que l’on en connaît). Les
multiples aspects sémantiques caractérisant une catégorie représentent la
connaissance requise pour la reconnaissance d’un de ses individus. Par exemple, la
construction du concept de peur fait appel à tous les aspects pouvant évoquer un
sentiment de peur. Ces aspects peuvent varier d’un individu à l’autre et d’une
situation à l’autre. Ainsi cette connaissance conceptuelle ne doit pas être
représentée par un stock immuable engrangé en mémoire donc forcément erroné,
mais par un ensemble de stratégies dépendant de facteurs multiples.
Etude pour l’adoration des offices
Léonard de Vinci
Ce dessin ne représente pas seulement un visage fermé et peu avenant, mais peutêtre l’œuvre de Léonard de Vinci admirée au Clos Lucé à Amboise par un bel aprèsmidi ensoleillé…
55
Il est probable que différents individus ou un individu dans différentes circonstances
vont construire un concept selon différentes stratégies, impliquant ainsi différents
réseaux neuronaux. Ainsi, la reconnaissance de la peur à partir d’une expression
faciale peut faire appel aux interactions entre les propriétés perceptuelles du stimulus
et la connaissance du concept de peur, le label lexical « peur », la perception de la
réponse émotionnelle générée chez le sujet ou la connaissance des représentations
motrices nécessaires à la production de cette même expression.
Ce qui vient d’être décrit correspond à un état particulier d’un certain type de
stimulus. Cependant, ce stimulus, en l’occurrence le visage humain, doit être
également reconnu comme appartenant à une certaine catégorie de stimuli revêtant
certains invariants. La connaissance de ce type de catégorie doit être différenciée de
celle de ses particularités. Une architecture économique permet de relier un large
panel de stimuli à une catégorie regroupant les stimuli impliquant les mêmes
réponses comportementales. La catégorisation est très importante pour combiner les
exigences de la complexité extrême des stimuli et les réponses comportementales
rapides. On peut citer comme exemple de catégorisation de stimuli auditifs sociaux,
les chants d’oiseaux, les coassements de grenouilles, les voix humaines ou les
visages humains (Macrae and Bodenhausen, 2000).
On peut catégoriser les stimuli selon leur apparence ou selon ce que l’on
connaît d’eux. La modélisation informatique a montré que l’on pouvait catégoriser les
expressions faciales uniquement d’après leurs propriétés géométriques, alors que les
études interculturelles chez les humains ont montré que la catégorie de l’expression
se trouve dans le regard et la culture de l’observateur. Ni la position réductionniste de
l’informatique ni la relativité interculturelle ne répondent complètement à la question :
les catégories peuvent être élaborées à partir des informations perceptuelles et des
connaissances stockées, selon les circonstances.
56
2) Mécanismes de la reconnaissance des émotions à
travers les visages
Plusieurs mécanismes peuvent être utilisés pour reconnaître les expressions
faciales. Ces mécanismes vont parfois impliquer des réseaux neuronaux différents.
Certaines structures cérébrales peuvent participer à différents circuits neuronaux mis
en jeu par de multiples stratégies utilisées pour la reconnaissance des expressions
faciales.
a) La reconnaissance comme partie de la perception
Nous sommes capables de discriminer, catégoriser, et d'identifier les émotions
simplement à partir des propriétés géométriques du stimulus visuel. Cette étape
perceptuelle peut être en lien direct avec les aires cérébrales impliquées dans le
langage, permettant ainsi la dénomination, sans induire d'autre mécanisme de
traitement
de
l'information
émotionnelle.
Cette
conception
serait
la
plus
"économique" pour le cerveau pour assurer la reconnaissance des expressions
faciales. Ce mécanisme pourrait être suffisant pour répondre à des questions simples
de catégorisation en attribuant un prototype d'image à une catégorie, et accéder
finalement à la dénomination. Cependant, cette approche ne permet pas de retrouver
l'ensemble du champ sémantique de chaque émotion.
Il semble que les propriétés géométriques simples soient suffisantes pour
catégoriser les principales expressions faciales, sans association sémantique (Calder
et al., 2000a). La catégorisation des émotions requiert essentiellement l’analyse des
propriétés physiques des stimuli. Les labels lexicaux viennent également renforcer
l’analyse perceptuelle. Ainsi, certains patients aphasiques avec une connaissance
sémantique supposée intacte, font de surprenantes erreurs lors d'épreuves de
catégorisation (Davidoff, 2001).
57
Figure métaphysique (Muse inquiétante)
Giorgio de Chirico (1918)
Les muses de Giorgio de Chirico sont-elles celles de l’épilepsie ?
(Blanke et Landis, 2003)
b) Reconnaissance partie de la connaissance sémantique
La reconnaissance doit impliquer d'autres processus que la simple perception.
Lorsque l'on observe une personne au visage exprimant la peur, il est possible de
catégoriser son expression faciale, mais aussi de pressentir qu'il va crier, s'enfuir ou
qu'il fait face à quelque chose d'effrayant. Aucun de ces renseignements n'est
présent dans la structure géométrique du visage. Cela provient de l’expérience de
chacun, de ce qu’a pu livrer le monde. Le champ sémantique relatif à chaque
émotion ne semble pas stocké comme une entité. Il est attribué à un stimulus selon
des recettes apprises lors des premières stimulations, par réactivation de
représentations construites au moment de l'acquisition du concept (Damasio, 1994).
58
Le niveau de complexité des associations sémantiques est très variable. On peut
associer une expression de peur à un cri ou à la fuite de New York ce fameux 11
septembre 2001. Ainsi, la reconnaissance d'un stimulus émotionnel, outre des
mécanismes purement perceptifs, implique d'autres processus complexes activant
d'autres aspects de la connaissance de l'objet. Les réseaux neuronaux impliqués
dans ces deux types de reconnaissance peuvent échanger des influences bottom-up
et top-down (Ullman, 1995). L'ensemble de ces échanges, intervenant de façon
contemporaine, permettrait de construire la représentation adaptée à chaque
stimulus.
c) Reconnaissance par la simulation
Des deux mécanismes précédents découle un ensemble d’informations
suffisant pour pouvoir reconnaître l’émotion et transférer, si nécessaire, les données
aux régions impliquées dans le langage verbal. Mais cette connaissance explicite est
peut-être insuffisante à la reconnaissance globale, totale de l’émotion exprimée par
tel ou tel visage, soit parce que les détails fournis par l’image sont insuffisants, soit
parce que cette expression n’est pas connue. Un chemin indirect dans la voie de la
reconnaissance de l’expression pourrait emprunter les réseaux neuronaux
nécessaires à l’exécution de cette même expression par l’observateur. Cette
préparation de la simulation fournissant à l’observateur une représentation de luimême permettrait ainsi de compléter la connaissance de cette émotion. Le fait
d’imiter une expression faciale lorsqu’on la perçoit est appelé rétroaction faciale
(Tourangeau and Ellsworth, 1979).
Rizzolatti et collaborateurs ont montré que les neurones déchargeant lorsque
le singe prépare une action, peuvent également décharger lorsque cette action est
détectée chez autrui (Gallese et al., 1996; Rizzolatti et al., 1996). Ils sont
communément appelés « neurones miroirs ». Chez l’Homme, l’observation d’actions
chez autrui désynchronise le signal provenant du cortex moteur en MEG, diminue le
seuil moteur de cette région en stimulation magnétique transcrânienne (Strafella and
Paus, 2000) et active le cortex prémoteur en IRMf (Iacoboni et al., 1999). Cette
propriété respecte la somatotopie (Buccino et al., 2001). Ces résultats pourraient
59
illustrer une organisation économique impliquant les mêmes circuits dans
l’élaboration des percepts et la reconnaissance d’une part, et des kinèmes d’autre
part. Cela n’implique pas qu’il soit nécessaire de construire les représentations
motrices des expressions faciales pour pouvoir les reconnaître.
Ce phénomène semble également concerner les expressions faciales. Le
ressenti de l’émotion et son expression semblent intimement liés (Rosenberg et al.,
1998). En effet, la production d’expressions faciales peut modifier l’état émotionnel
(Levenson et al., 1990; Ekman, 1993).
N’est-il pas monstrueux que ce comédien, dans une pure fiction, dans une
douleur rêvée, ait pu si bien soumettre son âme à sa pensée que tout son visage en
pâlissait d’émoi, des larmes dans les yeux, l’air égaré, la voix qui se brise, tout son
maintien, ses gestes, conformes à sa pensée ? Et tout cela pour rien…
Hamlet, Acte II, scène II. William Shakespeare, traduction de Pierre Messiaen
L’observation d’expressions peut induire des mouvements faciaux du même type
chez l’observateur. Ces mouvements indétectables macroscopiquement sont
enregistrés par l’EMG (Dimberg, 1982; Hess and Blairy, 2001) Jaencke, 1994. La
perception consciente des expressions n’est pas requise pour observer ce
phénomène (Dimberg et al., 2000). Ceci peut résulter de la représentation mentale
des modifications somatiques générant le sentiment (Damasio, 1994; Damasio,
2003). Cette voie ne pourrait être qu’un complément dans la connaissance de
l’expression, dans la mesure où les patients présentant une paralysie faciale
congénitale n’ont pas de déficit dans la reconnaissance des expressions faciales
(Calder et al., 2000c).
3) Le développement de la reconnaissance des
expressions
La capacité à lire les émotions sur les visages de nos congénères semble se
développer tôt dans l’enfance (Nelson, 1987). Dès la naissance, les nouveaux nés
orientent leur regard vers les stimuli à forme de visage (Valenza et al., 1996). Les
60
principales expressions faciales semblent être discriminées dès l’âge de neuf mois
(Nelson, 1987). La simulation semble opérer tôt dans la vie, puisque les nouveaux
nés ont tendance à mimer les mouvements faciaux (Meltzoff and Moore, 1983), ce
qui peut être précurseur d’une capacité à mimer de véritables expressions.
De plus, il semble que les expressions faciales des enfants atteints de cécité
congénitale ne soient pas normales (Cole et al., 1989; Galati et al., 1997), alors que
le développement socio-émotionnel de ces enfants semble altéré (Troster and
Brambring, 1992). Enfin, la capacité à reconnaître les expressions à 5 ans pourrait
conditionner l’insertion sociale ultérieure (Izard et al., 2001). Ces données confirment
l’importance de l’exposition aux stimuli émotionnels pour un développement sociocomportemental normal, conditionné par un traitement perceptif élaboré des stimuli
émotionnels dès la petite enfance. Là encore, perception et action vont de paire.
4) Structures impliquées dans la reconnaissance des
expressions faciales
Il semble exister 4 moyens d’altérer la reconnaissance ou la dénomination des
expressions faciales : 1- par un déficit perceptif (par lésion de l’aire striée par
exemple) 2- par déconnexion entre les étapes perceptives et les structures
permettant la reconnaissance 3- par lésions de structures associant elles-mêmes les
représentations perceptuelles et les concepts émotionnels, nécessitant peut-être une
activation secondaire des structures impliquées dans le sentiment d’une émotion
(cartes) 4- lésions de ces dernières structures impliquant une altération de la
connaissance de soi, des autres et du monde. Les possibilités 1- et 4- ne sont pas
spécifiques. La grande partie des données disponibles dans la littérature concerne la
partie 3-.
a) L’amygdale
Si l’amygdale semble impliquée dans le traitement rapide, grossier et
perceptuel des expressions faciales via des voies sous-corticales, elle reçoit
également des informations complexes provenant des voies corticales concernant
61
les visages et participe à la reconnaissance (Adolphs, 2002). C’est un bon exemple
de structure unique participant à différentes étapes du traitement d’un stimulus,
sûrement à des moments différents. Son rôle dans le traitement des émotions est
complexe et ubiquitaire. Les études chez l’animal ont montré qu’elle pouvait moduler
une grande variété de réponses cognitives en fonction de la signification
émotionnelle du stimulus (Aggleton, 1993). Le rôle principal de cette structure est
représenté
par
l’association
des
représentations
perceptuelles
des
stimuli
émotionnels construites par le cortex visuel et une expérience émotionnelle en partie
élaborée par le tronc cérébral et les noyaux hypothalamiques.
La complexité fonctionnelle de l’amygdale est liée à sa structure comprenant
plusieurs groupes de noyaux et à la complexité de leurs connexions. La
représentation perceptive des stimuli provenant du cortex visuel semble pénétrer par
les noyaux latéraux, alors que l’amygdale renvoie un signal en retour vers le cortex et
le tronc cérébral, l’hippocampe et les noyaux gris centraux pour moduler la cognition
et la réponse émotionnelle.
Ainsi, les neurones amygdaliens répondent différemment aux visages chez
l’Homme (Fried et al., 1997) et le primate (Nakamura et al., 1992), de même qu’aux
stimuli à haute valeur motivationnelle (Nishijo et al., 1988) et aux stimuli à valeur
sociale complexe (Brothers et al., 1990).
Détail de tapisserie inspirée de l’oeuvre d’André Vésale
Sarah Perret (2000)
62
1)
Les
lésions
Etudes de lésions chez l’Homme
amygdaliennes
bilatérales
induisent
un
déficit
dans
la
reconnaissance des expressions faciales impliquant une forte réaction d’éveil en
particulier la peur (Jacobson, 1986; Adolphs et al., 1994), alors que la discrimination
des visages semble respectée. Certains auteurs défendent une notion de spécificité
amygdalienne pour la peur (Adolphs et al., 1995; Broks et al., 1998; Anderson and
Phelps, 2000a), alors que d’autres rapportent une altération de la reconnaissance
des principales émotions négatives comme la colère, le dégoût et la tristesse
(Adolphs, 1999, (Schmolck and Squire, 2001). Lorsque la lésion est unilatérale, il
semble que le déficit soit moins important (Anderson et al., 2000a; Adolphs et al.,
2001b).
La capacité à reconnaître les expressions chez ces patients fut analysée par
différents moyens, comme les tâches d’évaluation de l’intensité émotionnelle
(Adolphs et al., 1994) ou de catégorisation (Young et al., 1995), souvent avec les
visages d’Ekman et Friesen (1976). Dans la tâche d’évaluation de l’intensité
émotionnelle, les sujets doivent évaluer l’intensité de
chacune des 6 émotions,
chaque visage pouvant exprimer un profil de plusieurs émotions. La tâche de
catégorisation implique un classement unique pour chaque visage. Furent aussi
utilisées des tâches d’appariement, de jugement de similarité (Adolphs et Tranel,
2000).
La discrimination de l’identité par les visages paraît respectée chez ces
patients (Adolphs et al., 1994), qui réalisent par exemple correctement l’épreuve de
Benton (Benton face matching task) (Benton et al., 1983). Ils sont aussi capables de
discriminer de subtils changements dans l’expression même si celle-ci n’est pas
reconnue, ce qui indique que l’étape perceptive est bien accomplie (Adolphs et al.,
1998a) 2000). Ces patients réalisent même des tâches extrêmement difficiles de
discrimination visuo-spatiale (Starck and Squire, 2000). Le genre et l’âge des visages
sont également bien perçus (Anderson and Phelps, 2000a).
63
Le rôle de l’amygdale dans le traitement des expressions faciales fut étayé par
trois cas princeps de patients avec lésions amygdaliennes. Dans chacun de ces cas,
la reconnaissance de la peur était compromise.
La patiente SM est intéressante du fait de la spécificité de la lésion et du déficit
(Tranel and Hyman, 1990; Adolphs et al., 1994). Chez cette patiente, la maladie
d’Urbach-Wiethe, une maladie congénitale très rare, induit des calcifications
amygdaliennes et entorhinales bilatérales. Dans des tâches d’évaluation de
l’intensité émotionnelle, cette patiente sous-évalue systématiquement la peur
exprimée par un visage, à un degré moindre la surprise et la colère. Elle est
incapable de catégoriser les expressions si elle doit retrouver elle-même la catégorie,
alors que le choix forcé est respecté. Elle a du mal à évaluer le degré d’éveil induit
par toutes les expressions négatives (Adolphs et al., 1999), et à évaluer le niveau de
confiance que doit inspirer un visage et le caractère plus ou moins avenant de celuici (Adolphs et al., 1998a). Elle a du mal à dessiner un visage effrayé, déclarant
qu’elle ne sait pas à quoi ressemble une telle expression. Cependant, elle saisit très
bien le concept verbal de peur et la prosodie (Adolphs and Tranel, 1999). Elle
identifie normalement les individus par leur visage (Humphreys et al., 1993). Ses
déficits peuvent refléter une altération dans l’évaluation d’un danger potentiel
véhiculé par un visage (Adolphs and Tranel, 2003).
La deuxième patiente, DR, quinquagénaire épileptique depuis l’âge de 28 ans, fut
d’abord étudiée par Young et collaborateurs (Young et al., 1995). L’imagerie
cérébrale montrait des remaniements post-opératoires importants de l’amygdale
gauche et à moindre degré de l’amygdale droite. DR reconnaît bien l’identité de
« morphings » construits à partir de personnages célèbres. Alors qu’elle réussit
parfaitement le test de Benton, elle est gênée pour associer ou reconnaître les
expressions faciales. Comme SM, elle peut décrire et définir les principales
émotions. Calder et collaborateurs l’ont étudiée avec des « morphings » obtenus à
partir des visages d’Ekman et Friesen exprimant les émotions de base (Calder et al.,
1997). Ces images créent ainsi un continuum hexagonal entre la joie, la surprise, la
peur, la tristesse, le dégoût, la colère pour revenir à la joie. Les sujets contrôles
classent ces visages dans la catégorie la plus proche, alors que DR échoue, surtout
pour ceux exprimant la peur, à moindre degré le dégoût et la colère.
64
Le troisième cas, SP, fut rapporté par Anderson et Phelps (Anderson and Phelps,
2000a). L’amygdale droite de SP, une femme de 54 ans au moment des tests, avait
été réséquée lors d’une lobectomie temporale, alors qu’elle présentait également une
lésion de l’amygdale gauche. SP reconnaît parfaitement l’identité, le sexe et l’âge
des individus par leur visage. En revanche, elle présente des performances
diminuées dans la reconnaissance des expressions de peur, de dégoût, de tristesse,
et à un degré moindre de joie. La reconnaissance de la surprise et de la colère
semble respectée. Elle réalise sur commande toutes les expressions faciales sans
difficulté, en particulier la peur.
Ces trois cas illustrent les dissociations entre la reconnaissance de l’identité des
individus et celle des expressions sur les visages. Tout n’est pas aussi simple,
puisque Hamann et Adolphs ont rapporté les observations de deux patients avec
lésions amygdaliennes bilatérales à la suite d’une encéphalite herpétique, réalisant
parfaitement bien les tests de reconnaissance d’expressions faciales utilisés pour la
patiente SM (Hamann and Adolphs, 1999). Ainsi, le déficit de reconnaissance des
émotions pourrait dépendre de la survenue précoce dans la vie des lésions
amygdaliennes, ce qui souligne le rôle de l’amygdale dans le développement et
l’apprentissage de la reconnaissance des expressions faciales.
Les performances de ces sujets sont généralement altérées dans les tâches
d’évaluation de l’intensité et de certaines catégorisations, même si des dissociations
sont observées. Ces dissociations suggèrent que l’amygdale n’est pas complètement
indispensable à tous les aspects de la reconnaissance des émotions. Elle doit
s’intégrer à un réseau de structures dont le poids dans le traitement des émotions
varie en fonction des stratégies adoptées, de la tâche, du sujet et du moment. Ces
nombreux paramètres doivent inciter les chercheurs à utiliser des tâches qui
restreignent le nombre de stratégies possibles, par exemple en introduisant des
contraintes temporelles sévères.
La variabilité des émotions mal reconnues par les patients présentant des
lésions amygdaliennes vient compromettre toute tentative d’élaboration d’une
conclusion simple. Alors que la reconnaissance de la peur est le plus souvent
défectueuse, certaines études mettent l’accent sur un déficit concernant la tristesse
65
ou d’autres sur les émotions négatives en général (Adolphs et al., 1999; Schmolck
and Squire, 2001). Cette variabilité ne peut être expliquée par celle des stratégies
utilisées. Plutôt qu’un rôle dans l’évaluation du danger ou de la confiance qu’inspire
un visage (Adolphs et al., 1999), certains ont proposé une implication de l’amygdale
dans le déclenchement des ressources cognitives pour résoudre une ambiguïté
survenue dans l’environnement. Ainsi, la peur et la colère signalent un danger mais
diffèrent par la source du danger, extérieure au sujet observé dans le premier cas et
inversement (Whalen et al., 2001). Ceci est en accord avec un rôle potentiel de
l’amygdale dans la modulation attentionnelle, y compris l’attention spatiale
(Vuilleumier et al., 2001). Son rôle prépondérant dans le traitement des émotions
négatives à grand pouvoir éveillant, lui conférerait une fonction dans la détection du
danger et de la menace (Adolphs et al., 1999), et par conséquent dans les conduites
d’évitement (Anderson and Phelps, 2000b). La littérature ne permet toujours pas de
trancher entre ces différentes hypothèses.
Si la lésion concerne exclusivement l’amygdale, la capacité à décrire des
scènes évoquant un sentiment de peur semble respectée (Adolphs et al., 1995), à la
différence des cas où la lésion déborde sur le cortex temporal (Adolphs et al., 2003).
La patiente SM fut extensivement testée : elle ne semble présenter qu’un déficit dans
la reconnaissance de la peur sur les visages, indépendamment de la nécessité d’un
traitement verbal (Adolphs et al., 2000b). L’amygdale ne doit pas être considérée
comme le temple de la connaissance des émotions mais comme un médiateur entre
la perception des expressions faciales et la construction de la connaissance du
message émotionnel. Une lésion amygdalienne bilatérale semble altérer la
modulation attentionnelle des stimuli présentés rapidement selon leur contenu
émotionnel. En effet, les mots émotionnellement marqués modifient le « clignement »
attentionnel chez les sujets normaux, et pas chez ces patients cérébrolésés
(Anderson and Phelps, 2001).
Des études de groupe ont montré un défaut d’apprentissage de nouvelles
expressions faciales chez des patients présentant une lésion amygdalienne
unilatérale (Boucsein et al., 2001) ou après lobectomie temporale droite (Anderson et
al., 2000a; Adolphs et al., 2001c), malgré une perception visuelle simple respectée
(Mendola et al., 1999). Cette altération concernait essentiellement la peur (Adolphs
66
et al., 2001c). Outre l’amygdale, les lésions intégraient le cortex temporo-polaire et
rhinal, structures interconnectées avec l’amygdale et modulant les comportements
émotionnels chez l’animal. Le déficit présenté par ces patients épileptiques
dépendait de l’âge de survenue de l’épilepsie (Anderson et al., 2000a; Adolphs et al.,
2001c), ce qui renvoie à la question de l’influence de l’âge de survenue des lésions
amygdaliennes dans la genèse du déficit. SM présentait une lésion précoce des
amygdales ce qui peut suggérer un rôle du développement (Hamann et al., 1996;
Schmolck and Squire, 2001). Les lésions précoces chez le singe induisent des
troubles du développement social, mais le rôle précis de l’amygdale dans
l’acquisition de la connaissance des émotions faciales reste indéterminé. Les
patients développant une lésion à l’âge adulte ne présentent pas de déficit dans
l’évaluation de l’effet éveillant des expressions négatives, à la différences des
patients aux lésions développées tôt dans la vie (Adolphs et al., 1997; Adolphs,
1999). Cela suggère fortement un rôle de l’amygdale dans l’acquisition de la
connaissance globale des émotions faciales, peut-être lié à la mise en relation,
l’association fonctionnelle entre les stimuli émotionnels externes et les réseaux
neuronaux générant les aspects somatiques – viscéraux par exemple – des
émotions, le monde des passions internes. Enfin, ces patients aux lésions
amygdaliennes bilatérales jugent des visages inspirant habituellement peu confiance
tout à fait avenants (Adolphs et al., 1998a), ce qui fut également observé chez des
patients autistes (Adolphs et al., 2001a).
History of the main complaint
William Kentridge (1996)
67
2)
Imagerie fonctionnelle
Les hypothèses formulées à partir des études de lésions amygdaliennes
bilatérales chez l’Homme furent rapidement corroborées par les résultats des études
en imagerie fonctionnelle chez l’Homme. Ces études ont par exemple montré que
l’amygdale réagissait automatiquement à la vision de visages émotionnels exprimant
la peur, parfois exagérément dans certaines pathologies psychiatriques.
Les deux études princeps utilisant la TEP (Morris et al., 1996) et l’IRMf (Breiter
et al., 1996) ont montré une activation de l’amygdale (et du cortex péri-amygdalien)
par la vision de visages exprimant la peur, sans qu’aucune attention spécifique ne
soit portée sur l’expression. L’étude de Morris (Morris et al., 1996) utilisait des
morphings entre visages exprimant la peur et la joie, montrant une corrélation linéaire
entre l’intensité de l’expression de peur et l’activation amygdalienne. Une analyse de
régression a montré dans cette étude que l’activation de l’amygdale (gauche)
modulait l’activité du cortex visuel occipito-temporal extra-strié en réponse aux
expressions faciales. Par la suite, des études en magnétoencéphalographie
(Ioannides et al., 2000a) et IRMf (Morris et al., 1998) ont montré une corrélation entre
l’activité amygdalienne et celle du cortex visuel occipito-temporal en réponse aux
expressions faciales, ce qui est compatible avec une neuromodulation rétrograde de
l’amygdale sur le cortex visuel.
D’autres études ont montré une implication de l’amygdale dans le traitement
d’autres expressions comme la joie induisant une activation (Breiter et al., 1996) ou
une désactivation amygdalienne (Morris et al., 1996), la tristesse induisant une
augmentation de l’activité amygdalienne (Phillips et al., 1998a; Blair et al., 1999;
Kesler-West et al., 2001). Ces différences peuvent être rapportées aux stratégies
individuelles requises par chaque expérimentation et chaque sujet. En général, il n’y
avait pas de tâche explicite d’analyse des expressions, les sujets étant engagés
dans une autre tâche ou simplement la vision passive. Des études plus précises ont
montré que l’amygdale s’habitue vite aux expressions faciales (Breiter et al., 1996),
surtout l’amygdale droite (Wright et al., 2001). Un réseau distribué dans l’hémisphère
droit comprenant les régions préfrontales, l’insula, le gyrus post-central et le lobule
pariétal inférieur participe à l’analyse des expressions faciales et semble également
68
s’habituer rapidement (Feinstein et al., 2002). L’amygdale peut réagir après
présentation très brève d’une expression de peur, masquée secondairement, à la
différence de visages masqués exprimant la joie (Whalen et al., 1998). Cela renforce
l’idée que l’amygdale est impliquée automatiquement et rapidement dans le
traitement de certaines expressions faciales.
Alors que seules les lésions bilatérales sont responsables d’un déficit dans la
reconnaissance des expressions faciales, l’imagerie fonctionnelle objective le plus
souvent une activation unilatérale de l’amygdale. Certaines études se sont
particulièrement intéressées à la question de la latéralisation. Morris et collaborateurs
(Morris et al., 1998) suggèrent que l’amygdale droite est plus impliquée dans le
traitement des messages subliminaux, et la gauche dans les messages présentés de
façon supraliminaire. L’effet d’habituation serait plus importante à droite (Wright et
al., 2001), ce qui suggère une évaluation plus dynamique de la part de l’amygdale
droite et plus soutenue par la gauche. Iidaka et collaborateurs suggèrent un rôle
différent des amygdales gauche et droite à travers une étude utilisant une IRM 3T
(Iidaka et al., 2001). Ils montrent que l’amygdale gauche serait impliquée dans le
traitement des émotions négatives, alors que l’amygdale droite ne réagit pas
différemment en fonction de l’expression. Il existe d’ailleurs dans cette étude une
coactivation de l’amygdale gauche et du cortex préfrontal ventrolatéral gauche et
dorsolatéral droit, suggérant l’intervention d’une boucle fonctionnelle amygdalopréfrontale dans le traitement des expressions faciales. Hariri et collaborateurs ont
comparé l’activation amygdalienne lors d’une tâche d’association d’images et de
catégorisation verbale (Hariri et al., 2000). Les deux amygdales pourraient participer
à la reconnaissance des expressions lors de la tâche d’association. On ne peut
conclure qu’une seule amygdale suffit à la reconnaissance des expressions faciales.
D’une part, les stratégies réelles utilisées par les sujets ne peuvent être intimement
contrôlées. D’autre part, l’analyse statistique paraît déterminante pour interpréter ces
études : le fait que la variation d'activité d’une amygdale, plutôt que celle des deux,
atteigne la significativité, ne veut pas dire qu’une amygdale soit plus activée que
l’autre (Davidson and Irwin, 1999). Or la comparaison directe des deux amygdales
n’est pas réalisée dans ce type d’étude. Il semble que dans la majorité des études,
les deux amygdales soient activées, mais que l’activité d’une seule soit suffisante
pour atteindre la significativité.
69
Le cri
Edvard Munch (1893)
70
3)
Aspects temporels du traitement amygdalien
Alors que les études de lésions et l’imagerie fonctionnelle abordent
exclusivement la question de la localisation spatiale du traitement des émotions, il est
important également de préciser à quel(s) moment(s) l’amygdale peut être impliquée
dans cette analyse. Il paraît illusoire de pouvoir déterminer les étapes correspondant
strictement à la perception et la reconnaissance. Même les structures visuelles
impliquées
très
précocement
peuvent
participer
à
de
hauts
niveaux
de
reconnaissance via les connexions feedback provenant du cortex temporal antérieur,
de l’amygdale et du cortex frontal. Cette hypothèse est confortée par des études
comportementale et neurophysiologiques. Par exemple, la perception d’images
dégradées ou ambiguës est influencée par la reconnaissance préalable de ces
mêmes images (Dolan et al., 1997).
Les neurones amygdaliens répondent aux stimuli visuels à des latences très
variables courant de 60 à près de 900 ms (Nakamura et al., 1992). Différents sousnoyaux semblent répondre aux visages, les uns situés dans les régions latérales
comme les noyaux bao-latéral et latéral (Nakamura et al., 1992), d’autres dans les
régions médiales comme le noyau basal accessoire (Leonard et al., 1985). Il ne
semble pas y avoir de grande différence dans les latences des réponses, puisque
ces différents groupes commencent à répondre aux visages 100 ms après le début
du stimulus, et ceci de façon soutenue dans le temps, jusqu’à plus de 500 ms
(Nakamura et al., 1992). Les neurones visuels non spécifiques des visages
pourraient répondre plus rapidement (Nakamura et al., 1992). Ces neurones
amygdaliens, en particulier ceux appartenant au noyau basal accesoire, répondent
aux visages après les neurones visuels du STS spécifiques des visages (Leonard et
al., 1985). Ces neurones ayant été enregistrés lors d’une tâche focalisant l’attention
sur les visages dans cette dernière étude (Leonard et al., 1985), leur activité pourrait
ainsi refléter un traitement du message social véhiculé par les visages, une fois le
traitement plus perceptif réalisé dans le STS. Ainsi, les latences des réponses
neuronales amygdaliennes enregistrées ici ne sont pas en faveur d’un traitement
sous-cortical prédominant pour les messages véhiculés par les visages.
71
Des enregistrements unitaires réalisés dans l’amygdale humaine montrent une
proportion plus importante de neurones répondant aux stimuli désagréables qu’aux
stimuli agréables (Fried et al., 1997). Les neurones amygdaliens répondent aux
stimuli visuels à des latences très variables courant de 60 à près de 900 ms
(Nakamura et al., 1992).
L’amygdale semble répondre aux visages expressifs dès 120 ms (Halgren et
al., 1994), de façon différentielle selon l’émotion après 150 ms (Liu et al., 1999), ce
qui peut correspondre à un traitement relativement automatique et implicite (Critchley
et al., 2000). Une partie de ce traitement précoce peut être attribuée aux connexions
sous-cortico-amygdaliennes, contribution mise en lumière par les stimuli masqués
n’induisant pas de perception consciente et impliquant pourtant une réaction
amygdalienne (Morris et al., 1999; Morris et al., 2001). Cependant, les techniques
jusqu’à présent employées (EEG, MEG) n’ont pas une résolution spatiale suffisante
pour affirmer la localisation amygdalienne de cette activité précoce plutôt que celle
des régions adjacentes.
Après acquisition de l’information bottom-up, l’amygdale pourrait participer de
trois manières différentes à la reconnaissance des expressions faciales : a) elle peut
moduler les représentations perceptuelles via une information feedback. En effet, les
potentiels de champs locaux sont modulés dans le cortex temporal chez l’Homme en
fonction du contenu émotionnel (Puce et al., 1999), alors que les neurones du cortex
temporal du singe codent l’information émotionnelle d’un visage après l’encodage
des catégories super-ordonnées (visage versus non visage) (Sugase et al., 1999). b)
l’amygdale peut aussi participer à l’activation des connaissances associées à
l’émotion via ses connexions avec d’autres régions du néocortex et l’hippocampe. c)
elle peut enfin déclencher les processus à l’origine d’une réaction émotionnelle
permettant de finaliser la connaissance conceptuelle de chaque émotion via la
simulation du processus émotionnel.
72
b) Le cortex orbito-frontal
Ce qui est arrivé à Phineas Gage, contremaître de Nouvelle Angleterre,
inaugure
l’histoire
des
publications
de
troubles
psycho-comportementaux
secondaires à des lésions cérébrales. En effet, ce jeune homme de 25 ans fut
victime le 13 septembre 1848 d’un accident de chantier, responsable d’une
projection de barre à mine ayant transpercé sa mâchoire pour ressortir par la partie
antérieure de la boite crânienne. A la surprise générale, Phineas fut légèrement
abasourdi et récupéra un niveau de conscience normal en quelques heures. Il ne
présentait aucun déficit neurologique focalisé, son « intelligence » paraissait même
normale. Cependant, « Phineas n’était plus Phineas ». Alors qu’il était réputé
travailleur, extrêmement compétent, amical et agréable en société, son caractère
avait complètement changé. Il ne respectait plus les conventions sociales, pouvait
être grossier, ne pouvait se fixer à une tâche. Il n’avait plus aucun sens des
responsabilités et prenait des décisions contraires à ses intérêts. Il a alors débuté
une vie d’errance avant de mourir en 1861. John Martyn Harlow, son médecin, l’a
longuement étudié et a pu décrire les troubles comportementaux qu’il rapportait à sa
lésion frontale. Malheureusement, Harlow n’apprit son décès que longtemps après,
et l’autopsie n’a pas été réalisée. Seul le crâne a pu être récupéré.
Figure 11 : Portrait de J.M. Harlow et reconstruction 3D du trajet intracrânien de la
barre de mine réalisée par Hanna Damasio et collaborateurs (Damasio et al., 1994)
73
D’après Damasio, c’est son incapacité à ressentir certaines émotions et à
partager celles d’autrui qui a privé Phineas Gage de la faculté de prendre des
décisions adaptées et bénéfiques. Il ne pouvait plus avoir de rétrocontrôle positif ou
négatif de sa propre expérience pour en tenir compte normalement (Damasio, 1994).
Damasio, Bechara et Tranel ont montré que les lésions du cortex préfrontal
ventro-médian altéraient l’aptitude à ressentir une émotion lorsque le « Stimulus
Emotionnellement Compétent » est de nature sociale et lorsque l’émotion attendue
est une émotion sociale comme l’embarras, la culpabilité ou le désespoir (Anderson
et al., 1999). Des handicaps de ce type compromettent le comportement social
normal (Bechara et al., 1994; Bechara et al., 1996; Bechara et al., 1997). Le cortex
orbito-frontal, fortement interconnecté avec l’amygdale (Stefanacci and Amaral,
2002), joue un rôle important dans le traitement des expressions faciales. Les études
chez l’animal - surtout les études de lésions impliquant une disconnexion - ont
montré que le cortex orbito-frontal et l’amygdale étaient impliqués dans le traitement
des aspects de récompense ou de punition, et qu’ils interagissaient étroitement
(Gaffan et al., 1993). Les connexions étroites entre le cortex préfrontal et le cortex
temporal sont nécessaires pour un traitement approfondi des stimuli visuels, en
particulier pour ce qui concerne les connaissances préalablement acquises (Fuster et
al., 1985; Tomita et al., 1999). Dans la première étude en TEP de Morris et
collaborateurs, le cortex orbito-frontal droit était activé par le contraste expressions
faciales (peur et joie) versus visages neutres, alors que les visages devaient être
classés selon le genre (Morris et al., 1996).
Le cortex orbito-frontal est impliqué dans le self-control, l’auto-inhibition et le
choix de stratégie au cours du développement (Case, 1992). En effet, le
développement de cette région corticale subit une poussée évolutive précoce autour
de 3 ans (Thompson et al., 2000), suivie d’une maturation étonnamment tardive au
cours de l’adolescence (Sowell et al., 1999). Les conséquences des lésions
développementales dans cette région sont majeures (Eslinger et al., 1992; Anderson
et al., 1999). Il semble qu’il existe une redistribution fonctionnelle des aires
préfrontales et de l’amygdale au cours du développement. En effet, Killgore et
collaborateurs (Killgore et al., 2001) ont démontré que chez les femmes, l’activation
74
du cortex préfrontal en relation avec l'expression faciale de peur augmentait plus
avec l’âge que celle de l’amygdale. Ces auteurs proposent un déplacement, au cours
de la maturation, de l’activité des structures sous-corticales vers les aires corticales
préfrontales, en parallèle d’un meilleur contrôle de soi et des comportements
émotionnels.
Le cortex préfrontal, et en particulier le cortex orbito-frontal, joue un rôle social
majeur, en particulier par la relation interpersonnelle, les coopérations sociales, le
comportement moral et les réactions aux agressions sociales (Damasio, 1994;
Anderson et al., 2000b). Les psychoses développementales ont été associées à des
anomalies structurales des régions préfrontales (Raine et al., 2000). Les structures
orbito-frontales pourraient jouer un rôle dans l’inhibition des réactions aux stimuli
émotionnels dans un contexte social donné (Blair, 1995). Un déficit dans la
reconnaissance des expressions faciales fut également mis en évidence dans des
groupes de patients schizophrènes (Mandal et al., 1998). Les comportements
agressifs anormaux des psychotiques
pourraient
être
liés
aux
anomalies
morphologiques observées dans ces régions, et à un défaut d’inhibition de structures
sous-corticales comme l’amygdale.
Bien que certains aient impliqué de larges régions du cortex frontal dans la
reconnaissance des expressions faciales, la majorité souligne le rôle des régions
orbito-frontales particulièrement connectées avec l’amygdale et les autres structures
intervenant dans la régulation du processus émotionnel et du système autonome
(Ongur and Price, 2000). L’étude de Hornak et collaborateurs (Hornak et al., 1996) a
montré une altération de la reconnaissance des émotions à travers les expressions
faciales et la voix après lésion orbito-frontale. Hornak et collaborateurs ont aussi
montré que ces patients présentaient une altération du ressentiment émotionnel, en
particulier de peur, et qu’ainsi, le cortex orbito-frontal participait à la fois à
l’expérience émotionnelle et à la reconnaissance des émotions (Hornak et al., 1996).
Les patients avec une lésion orbito-frontale droite pourraient présenter un déficit plus
systématique et important que les patients à lésion exclusivement gauche. D’autres
n’ont pas confirmé ces données (Adolphs et al., 1994; Adolphs et al., 2000b).
Cependant ces dernières études n’exploraient pas exclusivement les patients avec
lésion orbito-frontale, si bien que leur nombre était limité. De plus, alors que Hornak
75
et collaborateurs utilisaient une tâche de catégorisation, les autres études
impliquaient une évaluation de l’intensité de l’émotion. Des études en imagerie
fonctionnelle ont montré une activation orbito-frontale gauche lors d’une tâche de
maintien mental d’une expression de joie (Dolan et al., 1996), et droite après
comparaison de présentation d’expression de peur et d’expression neutre
(Vuilleumier et al., 2001). Dans l’étude de Gorno-Tempini et collaborateurs, le cortex
orbito-frontal (BA11 et 47) était activé de façon bilatérale par les visages exprimant la
joie (contraste joie/dégoût) lors des tâches de traitement émotionnel implicite et
explicite (Gorno-Tempini et al., 2001).
Des études utilisant la stimulation magnétique transcrânienne (Harmer et al.,
2001) ou la TEP (Blair et al., 1999) ont montré que le cortex préfrontal, en particulier
orbito-frontal médian et le gyrus cingulaire antérieur, est particulièrement impliqué
dans le traitement de la colère. La colère et la peur induisent de plus importantes
réactions végétatives qui pourraient être en partie en partie déclenchées par ces
aires préfrontales.
Figure 12 : Régions du cortex orbito-frontal droit et du gyrus cingulaire antérieur droit
dont l’activité en IRMf est corrélée à l’augmentation de l’intensité de la colère
exprimée par un visage (Blair et al., 1999).
Outre un rôle dans l’encodage et la reconnaissance des visages, il est clair
que le cortex préfrontal participe à la reconnaissance des expressions faciales, mais
les aires impliquées et leurs rôles respectifs doivent être précisés. Les données
récentes soulignent le rôle des structures ventro-médianes surtout droites dans le
traitement des expressions très éveillantes telles la peur et la colère. Les visages
76
attirants induisent une activation du cortex orbito-frontal médian (O'Doherty et al.,
2003). Il semble que ces structures participent également à la genèse d’émotions et
à la reconnaissance de ces mêmes émotions, comme si cette reconnaissance ne
pouvait être pleinement assurée que par le déclenchement a minima de cette
émotion chez l’observateur lui-même, comme cela a été proposé pour l’amygdale. Le
cortex orbito-frontal est aussi activé lors de nombreuses activités cognitives, incluant
la prise de décision, la sélection de réponse et la récompense, le contrôle de soi, de
même que l’olfaction (Rolls et al., 1994a; Blair and Cipolotti, 2000; Rolls, 2000).
Ces différents arguments ont permis à Antonio Damasio d’avancer l’idée que
« les émotions sont fondatrices de la raison », et que le cortex orbito-frontal peut
jouer un rôle déterminant dans l’établissement de ce lien fondateur.
c) Le cortex somato-sensoriel
Le cortex somato-sensoriel pourrait participer à l’étape de la "construction de
la connaissance" par la genèse de la simulation. Les patients présentant une lésion
des aires SI, SII et de l’insula à droite présentent une altération significative de leur
capacité d’empathie pour des personnages exprimant différentes émotions dans
différentes situations (Adolphs et al., 2000b). Ces aires possèdent de grandes
capacités d’intégration des cartes corporelles somatotopiques. Les muscles faciaux
d’individus normaux regardant des visages exprimant différentes émotions sont
« contractés » de façon infraclinique, cette activité étant détectée par enregistrement
électromyographique (Dimberg et al., 2000). L’écoute de différentes prosodies
émotionnelles induit une activité fronto-operculaire bilatérale (Kotz et al., 2003) ainsi
que des gyri temporaux supérieurs et moyens (Mitchell et al., 2003).
Il semble donc que pour reconnaître les émotions chez autrui, il soit
nécessaire d’initier une simulation probablement inconsciente. La reconnaissance
des expressions faciales peut être considérée comme la perception d’une action
chez autrui. Faut-il impliquer le cortex somato-sensoriel en rapport avec l’expression
seulement, ou l’ensemble de l’état émotionnel du corps détecté par l’expression
faciale ? Tout pourrait dépendre de la tâche et du niveau de reconnaissance
77
conceptuelle requis. Le cortex moteur nécessaire à l’imitation des expressions
pourrait être essentiel dans l’implication secondaire du cortex somato-sensoriel. Mais
ce rôle pourrait être en partie assumé par les noyaux gris centraux et les noyaux
moteurs du tronc cérébral. L’implication de structures reliant les voies motrices et le
cortex somato-sensoriel impliqué dans la perception des changements corporels liés
à l’émotion, soit directement, soit en engendrant ces mêmes modifications
corporelles, paraît nécessaire. Ces structures pourraient être l’amygdale et le cortex
orbito-frontal.
L’hémisphère droit présentant un avantage potentiel pour la reconnaissance
des émotions et des expressions faciales, il est important de vérifier si certaines
régions sont plus particulièrement impliquées dans cette analyse. Certaines études
de lésions et d’imagerie fonctionnelle ont montré une relation fonctionnelle entre les
aires pariétales ventrales et occipitales ventrales internes droites intervenant dans la
reconnaissance des expressions faciales négatives, en particulier la peur (Gur et al.,
1994; Adolphs et al., 1996). Les gyri supramarginal postérieur et temporal supérieur
sont également impliqués (Adolphs et al., 1996). Une étude de lésions avec un plus
large échantillon a même montré un implication de SI et SII (Adolphs et al., 2000b).
Ainsi la somesthésie et la reconnaissance des émotions semblent liées. Chez les
patients lésés à droite, il existe une corrélation entre l’intensité du déficit sensitif et
celle du défaut de reconnaissance des expressions faciales (Adolphs et al., 2000b).
Dans cette étude, la tâche était d’évaluer l’intensité des expressions. Cette
expérience impliquait une capacité de dénomination et une connaissance
conceptuelle de l’émotion pour évaluer son intensité. Il semble en fait que le cortex
pariétal droit soit impliqué dans les 3 aspects de la reconnaissance des expressions,
c'est à dire, la capacité d’associer ces expressions, de les dénommer (Young, 1995)
et d’évaluer leur intensité. Ces études de lésions suggèrent que l’opercule frontal
gauche et le cortex temporal droit semblent plus spécifiquement impliqués dans
l’accès lexical aux émotions, alors que le cortex pariétal droit et l’insula seraient plus
impliqués dans une étape de simulation.
78
d) Le cortex insulaire
Les premiers indices de l’existence d’un système fonctionnel dévolu au
traitement du dégoût proviennent d’étude chez le singe. Yaxley et collaborateurs ont
identifié le cortex gustatif du primate dans le cortex insulaire antérieur, car des
neurones de cette région répondent différemment aux goûts agréables et
désagréables (Yaxley et al., 1988).
Le cortex insulaire est un cortex somato-
sensoriel viscéral, participant aux modulations du système nerveux autonome et
ayant des connexions étroites avec l’amygdale (Amaral et al., 2003a). Chez
l’Homme, on a pu mettre en évidence un défaut de reconnaissance de l’expression
de dégoût sur le visage d’autrui chez des patients présentant une lésion focale ou
une maladie impliquant un plus large réseau neuronal. L’étude de lésion la plus
sélective est celle de Calder et collaborateurs qui ont objectivé un tel déficit chez un
patient (NK) présentant une lésion focale de l’insula et du putamen gauches (Calder
et al., 2000b). Ce patient présentait des difficultés pour reconnaître l’expression
faciale de dégoût, mais également à ressentir le dégoût lui-même.
La première étude d’imagerie fonctionnelle ayant permis d’étayer le rôle de
l’insula dans le traitement du dégoût fut conduite par Phillips et son équipe, en
utilisant des visages exprimant la peur et le dégoût à degrés variables lors d’une
tâche focalisant l’attention sur le genre (Phillips et al., 1997; Phillips et al., 1998b).
L’amygdale et l’insula gauches furent activées par la peur, alors que l’insula droite
réagit au dégoût, de même que le cortex frontal médian, le putamen droit et le
thalamus droit a minima.
Figure 13 : Activation en IRMf de l’insula antérieure
gauche (en rouge) par la présentation de visages exprimant
le dégoût (vue en coupes axiale et coronale) (Phillips et al.,
1997)
79
Ces
résultats
furent
partiellement
confirmés
par
Sprengelmeyer
et
collaborateurs qui montrèrent une activation de l’insula gauche et du putamen droit
par les visages exprimant le dégoût (Sprengelmeyer et al., 1998). Dans cette étude,
le cortex frontal inférieur fut également activé par les visages exprimant la colère, la
peur, le dégoût, versus les visages neutres. L’étude plus récente de Gorno-Tempini
et collaborateurs a montré une activation de l’insula gauche, du thalamus droit,
putamen et noyau caudé droits en réponse au dégoût (Gorno-Tempini et al., 2001).
e) Les noyaux gris centraux
Les lésions des noyaux gris centraux, surtout à droite, semblent impliquer un
déficit dans la reconnaissance des émotions (Cancelliere and Kertesz, 1990).
L’imagerie fonctionnelle a montré une activation à droite en comparant des
expressions faciales de joie et de peur (Morris et al., 1996), de tristesse et de visages
neutres (Phillips et al., 1998a). Mais la résolution spatiale de ces deux approches
n’est pas suffisante pour explorer en détails ces complexes nucléaires infiltrés de
substance blanche.
Trois maladies impliquant les noyaux gris centraux furent explorées : les
troubles obsessionnels compulsifs, la maladie de Parkinson et la maladie de
Huntington. Les patients atteints de troubles obsessionnels compulsifs ressentant un
sentiment de dégoût exacerbé ont des difficultés à reconnaître l’expression de
dégoût (Sprengelmeyer et al., 1997). Certains ont objectivé un déficit dans la
reconnaissance des expressions faciales dans la maladie de Parkinson (Blonder et
al., 1989; Jacobs et al., 1995b), alors que d’autres n’ont pas retrouvé ce déficit
(Adolphs et al., 1998b). Un défaut de reconnaissance du dégoût sur les visages a
également été mis en évidence chez des patients de maladie de Huntington
(Sprengelmeyer et al., 1996), patients souffrant d’une détérioration cognitive plus
globale incluant une altération de reconnaissance des visages (Jacobs et al., 1995a).
Dans cette maladie, les noyaux gris centraux, en particulier le noyau caudé,
semblent lésés précocement, mais une perte neuronale fut également objectivée
dans l’amygdale. Ce déficit de reconnaissance du dégoût, et a minima de la peur et
de la colère, fut également objectivé chez des patients pré-symptomatiques porteurs
du gène (Gray et al., 1997). Le matériel utilisé dans les expériences de
80
Sprengelmeyer et de Calder évaluant des patients aux lésions amygdaliennes
bilatérales est le même, si bien que ces groupes d’études peuvent être comparés. La
reconnaissance de la peur est altérée de part et d’autre, mais en proportions
beaucoup plus importantes dans le groupe de lésions amygdaliennes, alors que la
reconnaissance du dégoût est altérée chez les patients atteints de maladie de
Huntington et troubles obsessionnels compulsifs. Cette double dissociation confirme
un poids différent de l’amygdale et des noyaux gris centraux dans le traitement de la
peur et du dégoût. Il est probable que les noyaux gris centraux s’inscrivent dans un
réseau comprenant l’insula et le cortex orbito-frontal intervenant dans le traitement
du dégoût. Ces observations soulignent les rapports étroits entre l’expérience
émotionnelle, la production (motrice) d’expressions faciales et la reconnaissance de
ces mêmes expressions faciales. La stimulation électrique profonde dans cette
région, probablement dans la substance noire, a même induit une émotion intense
(tristesse) et son corrélat expressif facial, les capacités de reconnaissance n’ayant
pas été testées alors (Bejjani et al., 1999).
Les régions ventrales (Everitt et al., 1999) et dorsales (Han et al., 1997) des
noyaux gris centraux sont intimement connectées avec l’amygdale. Les connections
avec le cortex préfrontal, en particulier le cortex orbito-frontal, sont également
importantes (Berendse et al., 1992; Eblen and Graybiel, 1995). Les régions ventrales
semblent impliquées dans les aspects motivationnels liés au caractère attractif des
visages (Aharon et al., 2001; Kampe et al., 2001). Les relations entre cortex orbitofrontal, striatum ventral et amygdale sont mises en exergue dans la prise de décision,
la récompense et les phénomènes d’addiction aux drogues (Everitt et al., 1999;
Schultz et al., 2000). Ce réseau semble donc être fortement impliqué dans la relation
sociale (Brothers et al., 1990). Il semble que non, que son implication soit plus
fondamentalement reliée à la récompense et à la punition, valable aussi dans le
contexte des expressions faciales. Ce réseau striatum – amygdale pourrait
également
introduire les notions primaires de récompense - punition dans des
structures qui nuanceraient secondairement ces notions en fonction du contexte
social, principalement le cortex orbito-frontal. Cet arrangement hiérarchique serait en
accord avec ce que l’on sait de l’évolution et du développement du traitement des
expressions faciales.
81
Certains comportements sont liés à la présence de neuromédiateurs
spécifiques comme la dopamine et la sérotonine. Ainsi, les comportements vécus
comme des récompenses et comme agréables dépendent de la libération de
dopamine dans l’aire ventro-tegmentale du tronc cérébral et de sa présence dans le
noyau accumbens à la base du précortex. La base du précortex, les noyaux
hypothalamiques, certains noyaux du tegmentum du tronc cérébral et les noyaux
commandant les muscles faciaux, de la langue, du pharynx et du larynx sont les
exécutants de nombreux comportements simples ou complexes définissant les
émotions, comme l’attirance sexuelle ou la fuite, le rire ou les pleurs (Panksepp,
2003)
82
Ainsi, le traitement des visages est assuré par de nombreuses structures
communes au traitement de tout stimulus visuel. a) des mécanismes sous-corticaux
court-circuitant les aires visuelles striées permettant un traitement grossier,
automatique, de stimuli visuels transitoires et certainement hautement saillant. b) un
traitement impliquant les cortex occipital et temporal, généralement recrutés lorsque
l’analyse est plus fine, plus complète permettant une reconstruction subtile de l’image
de l’objet. Cette organisation est connue pour le système auditif. En effet, chez le rat,
le traitement passant par le thalamus et l’amygdale semble suffisant pour traiter les
stimuli tonals conditionnant la peur, alors que les stimuli complexes conditionnant
également la peur doivent être traités en partie par le cortex auditif (LeDoux, 1996).
Il ressort de l’ensemble de ces études que les émotions négatives et positives
impliquent des réseaux neuronaux différents. Le traitement des expressions
négatives est assuré par des régions dont les lésions ont induits des déficits
spécifiques, comme le défaut de reconnaissance de la peur après lésion
amygdalienne, du dégoût après lésion des noyaux gris centraux et de l’insula. Pour
les visages exprimant la joie, il n’y a pas de pattern d’activation bien identifié en
imagerie fonctionnelle, ni même de lésions capable d’induire un déficit spécifique de
reconnaissance.
83
5) La perception des émotions est-elle latéralisée ?
Il ressort de la littérature une tendance à la supériorité de l’hémisphère droit
dans le traitement des émotions, que ce soit au niveau perceptif ou de la
reconnaissance. Il existe des différences hémisphériques dans le traitement des
visages : nous reconnaissons notre propre visage plus rapidement avec l’hémisphère
droit qu’avec l’hémisphère gauche (Keenan et al., 2001), alors que la prosopagnosie
survient beaucoup plus souvent après une lésion unilatérale droite qu’après une
lésion gauche (Sergent and Signoret, 1992; De Renzi et al., 1994), bien qu’une
lésion bilatérale soit généralement nécessaire (Damasio et al., 1990). L’hémisphère
droit contient des systèmes indispensables pour la communication sociale,
complémentaires du langage traité dans l’hémisphère gauche (Bowers, 1993). Des
lésions de l’hémisphère droit peuvent induire un déficit dans la discrimination, la
reconnaissance et la dénomination d’expressions faciales émotionnelles et de
scènes émotionnelles (DeKosky et al., 1980), alors que la stimulation électrique du
cortex temporal droit visuel altère la perception, la reconnaissance et la mémoire des
visages (Fried et al., 1982). Les émotions semblent être traitées préférentiellement
par l’hémisphère droit dès l’âge de 5 ans, certains ayant enregistré des potentiels
évoqués différents selon les expressions faciales en regard de l’hémisphère droit (de
Haan, 1998).
Mais il ne semble pas que les choses soient aussi simples. Différentes
théories sont débattues : avantage de l’hémisphère droit pour toutes les émotions hypothèse HD - (Burt and Perrett, 1997; Borod et al., 1998), ou spécialisation de
l’hémisphère droit pour les émotions négatives, les émotions positives étant
préférentiellement traitées à gauche, - hypothèse valence - (Reuter-Lorenz and
Davidson, 1981; Canli et al., 1998). Une interaction avec le traitement du genre
pourrait venir compliquer les données (Van Strien and Van Beek, 2000). D’autres
suggèrent que l’hypothèse valence prévaudrait pour l’expérience émotionnelle et son
expression, alors que l’hypothèse HD fonctionnerait pour la perception des émotions
(Borod et al., 1998; Canli et al., 1998).
84
Les mesures physiques des paramètres expressifs sur les visages d’Hommes
et de singes renforcent la théorie de la valence, au moins pour la partie inférieure du
visage (Hauser, 1993; Richardson et al., 2000). Pour ce qui concerne la perception et
la reconnaissance des expressions faciales, les études de lésions sont partagées,
certaines en faveur de la théorie de la valence (Borod et al., 1986; Schmitt et al.,
1997; Mandal et al., 1999), d’autres en faveur de la théorie HD (Borod et al., 1998;
Adolphs et al., 2000a). Les études d’imagerie fonctionnelle sont également
partagées (cf infra).
Les études utilisant les visages chimères, exprimant une expression d’un côté,
une autre ou l’absence d’expression de l’autre, sont intéressantes. Les travaux de
Levy et son équipe sont en faveur de la théorie de la valence (Levy et al., 1983;
Hoptman and Levy, 1988; Luh et al., 1991). D’autres renforcent l’hypothèse HD
(Christman and Hackworth, 1993; Morris and Hopkins, 1993). Les études utilisant la
tachitoscopie vont généralement dans le sens de la théorie de la valence,
l’hémichamp visuel gauche percevant préférentiellement les émotions négatives et
vice versa (Reuter-Lorenz and Davidson, 1981; Davidson et al., 1987).
La complexité des rôles respectifs des deux hémisphères dans le traitement
des expressions faciales reflète certainement les multiples stratégies dépendantes
de chaque sujet et de chaque tâche. Une étude d’un patient « split-brain » a montré
que les deux hémisphères étaient équivalents dans la reconnaissance des
expressions faciales lors de tâches standards, un avantage de l’hémisphère droit lors
de tâches d’associations non verbales, disparaissant lors de tâches de catégorisation
verbales (Stone et al., 1996).
L’ensemble de ces études réalisées chez le sujet normal et les cérébrolésés
indique que les rôles des deux hémisphères sont différents dans le traitement des
expressions faciales, sans soutenir obligatoirement la thèse de l’HD ou de la valence
émotionnelle. Un avantage de l’hémisphère droit pour les émotions négatives semble
se dégager, ou du moins pour les expressions induisant la plus forte réaction d’éveil,
dont la plupart sont négatives (Peper and Irle, 1997). Ainsi, les plus importantes
réactions végétatives sont enregistrées après stimulations par des visages négatifs
très éveillants présentés à l’hémisphère droit (Johnsen, 1993; Johnsen and Hugdahl,
85
1993), alors que ces réponses diminuent drastiquement après lésion de l’hémisphère
droit, moins après lésions de l’hémisphère gauche (Tranel and Damasio, 1994).
Ainsi, l’avantage de l’hémisphère droit ne pourrait survenir que dans certaines
conditions, lorsque le stimulus émotionnel induit une réaction d’alerte rapide.
Les lésions du néocortex à droite peuvent induire une anomie pour les
émotions (Bowers and Heilman, 1984; Rapcsak et al., 1993). Ces patients peuvent
reconnaître un visage, son identité, peuvent associer les expressions, tout en
présentant des difficultés dans la dénomination des émotions. Deux patients de
Rapcsak et collaborateurs avec une lésion du gyrus temporal moyen droit (Rapcsak
et al., 1993) présentaient un déficit isolé de la dénomination des expressions
faciales. La reconnaissance des émotions et les associations visuo-sémantiques
paraissaient respectées. Les auteurs émettaient l’hypothèse d’une déconnexion
entre le système de reconnaissance des expressions faciales et les aires du langage
traitant du lexique des émotions, ces deux systèmes étant connectés par une voie
directe. Le patient de Bowers et Heilman présentait une lésion pariéto-temporale
droite intéressant la substance blanche (Bowers and Heilman, 1984). Il existait
probablement un déficit dans la reconnaissance des parties du corps à la suite de la
lésion pariétale droite.
Nous venons de voir que les régions occipitales et temporales, en particulier à
droite, construisent des représentations détaillées des visages permettant d’encoder
l’information perceptuelle de l’expression faciale. Comment ces représentations
perceptuelles sont-elles mises en relation avec la connaissance conceptuelle de
chaque
émotion ?
De
nombreuses
structures
semblent
participer
à
la
reconnaissance de l’émotion à partir d’un visage : le cortex occipito-temporal, pariétal
droit, orbito-frontal bilatéral, l’opercule frontal gauche, les deux amygdales, le cortex
insulaire, les noyaux gris centraux entre autres (Brothers et al., 1990). La situation
est encore compliquée par le fait que la majorité des études implique d’autres tâches
que la reconnaissance des expressions, telles la mémoire épisodique ou l’attention.
86
6) L’influence de la tâche
Certains prétendent que la peur est une expression plus difficile à reconnaître
que les autres, et qu’en fait, sa reconnaissance n'est pas disproportionnellement
altérée par rapport à celle des autres expressions après lésion de l’amygdale ou du
cortex pariétal droit (Rapcsak et al., 2000). Le fait que la peur soit plus difficile à
reconnaître est bien discuté, la majorité des auteurs citant la tristesse et le dégoût
comme expressions les plus difficiles à différencier d’une expression neutre, en
opposition à la surprise, la joie et la peur (Adolphs, 2002). Cependant, en choix forcé
entre les six émotions principales, la peur paraît effectivement difficile à différencier
de la surprise. La joie paraît plus facile à distinguer, mais son classement peut être
superordonné (content - mécontent) à la différence des expressions négatives qui
impliquent un classement subordonné. La peur et la surprise « positive » pourraient
représenter des catégories subordonnées appartenant à une grande catégorie
« surprise ». Rapcsak et collaborateurs (Rapcsak et al., 2000) soulignent le fait que
les six expressions principales ne sont certainement pas discriminées avec une
chance équivalente, du fait de leur classification subordonnée ou non.
Deux études récentes ont montré des profils d’activations différents en
fonction des types de traitements implicite ou explicite des expressions faciales.
Dans l’étude Critchley et collaborateurs, le traitement des expressions activait les gyri
fusiforme et temporal moyen, l’hippocampe, la jonction amygdalo-hippocampique et
le pulvinar (Critchley et al., 2000). Le traitement explicite impliquait plus le cortex
temporal alors que le traitement implicite impliquait surtout l’amygdale. Cela est en
désaccord avec une activation de l’amygdale gauche et du striatum droit lors du
traitement explicite dans une autre étude récente (Gorno-Tempini et al., 2001).
87
Nous constatons ainsi qu’une mosaïque de structures cérébrales participe à la
perception et à la reconnaissance des expressions faciales voire des émotions. Les
fonctions des principaux intervenants commencent à se dessiner. La grande majorité
des informations dont nous disposons est issue des études de lésions et de
l’imagerie fonctionnelle, qui fournissent des cartes illustrant les structures impliquées,
à un moment ou à un autre, dans une fonction déterminée du cerveau. Cependant,
les interactions entre les différents éléments d’un ou plusieurs réseaux neuronaux
largement distribués et certainement variables selon la tâche et le contexte, sont très
mal connues. La précision des aspects temporels du traitement cérébral des
expressions faciales apparaît indispensable à une meilleure compréhension des
éventuelles séquences d’activation des différentes structures impliquées dans la
reconnaissance
des
expressions
faciales,
leurs
possibles
coopérations
et
interactions. Or, dans une étude récente et non moins célèbre, Logothetis et
collaborateurs ont montré que l’effet BOLD obtenu en IRMf devait être rapproché de
l’activité électrique de type Local Field Potential ou même des activités oscillatoires
soutenues, et non d’activités neuronales unitaires ou multi-unitaires (Logothetis et al.,
2001). La communauté scientifique est donc avide de confrontations de ces cartes
fonctionnelles issues de l’imagerie et de donnée temporelles précises que peut
apporter l’électrophysiologie chez l’Homme. Nous proposons à travers une série
d’études électrophysiologiques conduites chez l’Homme, de tenter de préciser la
dynamique spatio-temporelle de la reconnaissance cérébrale des expressions
faciales.
88
Chapitre 4 : Travaux expérimentaux
Un sourire de diva
Naturel ?
89
Dans la série de travaux comportant des enregistrements de scalp et des
enregistrements intra-crâniens, un protocole de stimulation commun fut utilisé. Il était
important de pouvoir comparer les réponses électrophysiologiques obtenues sur le
scalp et dans les différentes structures intra-cérébrales.
A. Protocole de stimulation
1) Stimuli
Huit visages différents (4 hommes et 4 femmes) issus de la banque de
visages d’Ekman et Friesen furent utilisés (Ekman and Friesen, 1975). Ces visages
en noir et blanc sont contrôlés et standardisés pour ce qui concerne la luminance
moyenne (29,9 cd.m-2) et le contraste. Cinq expressions faciales par visage furent
utilisées, à savoir l’expression neutre, la joie, la peur, le dégoût et la surprise..
Neutre
Joie
Peur
Dégoût
Surprise
Figure 14 : Exemples de deux visages (une femme et un homme) exprimant les 5
émotions utilisées dans notre étude (Ekman and Friesen, 1975).
90
Le temps d’exposition était de 400 ms, alors que l’intervalle de temps entre les
stimulations (SOA : Stimulus Onset Asynchrony) était de 2000 ms. Une croix blanche
(22mm) permettait la fixation centrale du regard.
Chaque série de stimuli comportait les 8 visages exprimant chacun les 5 expressions
citées précédemment, pour un total de 40 stimuli par série. L’ordre d’apparition des
stimuli fût randomisé pour chaque série.
2) Conditions
Le sujet était assis dans une semi-obscurité à 110 cm de l’écran ; la taille angulaire
des stimuli était d’environ 5°. Un apprentissage sur quelques stimuli permettait
d’entraîner le sujet à la fixation de la croix en limitant les saccades et les
clignements. Un temps de repos était ménagé après 3 séries consécutives et après
chaque tâche.
3) Tâches
Deux tâches furent proposées aux sujets. Six séries de stimuli furent présentées
pour chaque tâche, soit un total de 240 stimuli par tâche et 48 stimulations pour
chaque expression.
Tâche n°1 « Attention au genre » : Le sujet prêtait attention explicitement au genre
du visage présenté en comptant de façon alternée entre les séries les visages de
femmes et les visages d’hommes.
Tâche n°2 « Attention à l’expression » : Le sujet prêtait une attention explicite à
l’expression du visage, puisqu’il devait détecter et compter les visages exprimant la
surprise.
Aucune réponse orale ou motrice n’était demandée au sujet pendant la série de
stimulations, mais le résultat devait être donné après chaque série. Une série
d’entraînement à la reconnaissance de la surprise fût présentée entre les tâches n°1
91
et n°2. Après la séance d’enregistrement, chaque sujet a dû visionner à nouveau les
visages en nommant les expressions détectées.
B. Enregistrements de scalp : Etude n°1
1) Matériels et méthodes
Dans cette étude, les potentiels évoqués aux visages (Ekman and Friesen,
1975) furent recueillis sur le scalp de 10 sujets sains. Les sujets étaient
successivement engagés dans deux tâches, la première impliquant une attention sur
le genre, la deuxième sur l’émotion. Les réponses évoquées furent moyennées selon
l’expression faciale, la peur, la joie, le dégoût, la surprise ou l’expression neutre. Les
cibles (hommes ou femmes dans la première tâche, les visages exprimant la surprise
dans la deuxième) n’étaient pas prises en compte dans les analyses statistiques.
Le système d’acquisition (Neuroscan®) permettait un enregistrement de scalp
sur 31 voies en montage référentiel et une voie réservée à l’électro-oculogramme
(EOG) en montage bipolaire. Dix-huit électrodes de scalp étaient réparties selon les
critères du système international 10-20 de Jasper (Jasper, 1958). Treize électrodes
furent ajoutées à ce système : 3 électrodes préfrontales (FP1, FP2, FPZ), 5
électrodes fronto-centrales (FC3, FC4, FC7, FC8, FCZ), 3 électrodes centropariétales (CP3, CP4, CPZ), et 2 électrodes temporo-pariétales (TP7, TP8).
Figure 15 : Schéma de la disposition sur
le scalp des électrodes selon le système
10-20 (Jasper, 1958) figurées par les
potentiels
évoquées
par
les
visages
neutres obtenus à partir des moyennes
des 10 témoins. Les électrodes occipitales
et temporales (entourées) ont enregistré
les réponses aux visages.
92
La référence était placée au niveau de l’aile droite du nez et la terre dans la
région médio-frontale. Les impédances devaient être inférieures à 5 kΩ, la vitesse
d’échantillonnage était de 500 Hz, la bande passante de 0,1 à 70 Hz. L’EOG fût
recueilli grâce à une électrode placée au-dessus de l’arcade sourcilière droite et une
autre en dehors du canthus externe de l’œil droit.
Un enregistrement continu de l’électro-encéphalogramme fût recueilli dans un
premier temps, puis un traitement différé des données fût réalisé secondairement.
L’électro-encéphalogramme fut d’abord découpé en époques de 1500 ms. Une
élimination systématique des époques comportant des artéfacts oculaires de type
clignement ou saccades et des artéfacts d’origine musculaire fût réalisée si
l’amplitude dépassait 30 µvolts. Le moyennage fût réalisé après correction de la ligne
de base par soustraction de l’amplitude moyenne obtenue entre –100 ms et 0 ms. Le
temps d’analyse était de –100 ms à 1500 ms.
2) Principaux résultats
Dans les deux tâches, les réponses positives occipitales de type P1 furent
enregistrées autour de 100 ms après le début du stimulus, les réponses négatives
plus spécifiques des visages (N1) à 160 ms dans les deux régions occipitotemporales, puis d’autres réponses positives P2 et P3 survenant respectivement
dans les régions occipitale et pariétales.
93
Figure 16 : Réponses obtenues à partir des moyennes des 10 témoins, évoquées
par les visages neutres, enregistrées par les électrodes
T5 et T6 du système
international « 10-20 », pendant la tâche « Attention au genre » Représentations
cartographiques des réponses évoquées marquées par le curseur.
P1, N1 et P2 : réponses évoquées décrites dans le texte, µV : microvolts; ms :
millisecondes
Lorsque l’attention était focalisée sur le genre, aucune différence ne fut
observée entre les réponses évoquées sur le scalp par les différentes expressions
faciales.
Figure 17 : Réponses obtenues à partir des moyennes des 10 témoins, évoquées
par les visages aux différentes expressions, enregistrées par les électrodes Cz, T5 et
T6 du système international « 10-20 », pendant la tâche « Attention au genre »
P1, N1 et P2 : réponses évoquées décrites dans le texte, µV : microvolts; ms :
millisecondes
94
Lorsque l’attention était portée sur l’expression, des différences d’amplitudes
furent observées sur les réponses tardives, entre 250 et 750 ms après le début du
stimulus. Dans un premier temps, entre 250 et 550 ms, ces différences étaient
observées dans les régions occipitales, puis, dans un deuxième temps, entre 550 et
750 ms, dans la région occipito-temporale droite.
Figure 18 : Réponses obtenues à partir des moyennes des 10 témoins, évoquées
par les visages aux différentes expressions, enregistrées par les électrodes Cz, T5 et
T6 du système international « 10-20 », pendant la tâche « Attention aux
expressions »
P1, N1 et P2 : réponses évoquées décrites dans le texte, P3 : potentiel lié à la cible
(surprise), les lettres X/Y représentent les comparaisons significatives en analyses
post-hoc pour chaque période de latence entre barres pointillée, N pour neutre, D
pour dégoût, F pour peur, H pour joie et S pour surprise, µV : microvolts; ms :
millisecondes
95
96
3) Article n°1
Portrait de Giovanni Papini
Carlo Carrà (1913)
97
98
99
100
101
102
103
104
105
106
4) Discussion complémentaire
Au moment de la publication de cet article, les données temporelles
concernant le traitement cérébral des expressions faciales et des émotions chez
l’Homme étaient rares. Quelques études électrophysiologiques de scalp avaient
montré de façon indirecte que la reconnaissance des expressions faciales implique
un traitement cérébral dispersé dans le temps (Carretie and Iglesias, 1995; Munte et
al., 1998; Pizzagalli et al., 1998). En effet, les modulations des réponses
électrophysiologiques de scalp en fonction du message émotionnel furent
principalement observées après 300 ms et souvent jusqu’à près de 1000 ms poststimulus, ce qui fut interprété comme une modulation dépendant de l’attention
focalisée par le message émotionnel (Cuthbert et al., 2000).
Notre étude a montré que l’on pouvait mettre en évidence sur le scalp des
différences dans les réponses aux messages véhiculant différentes émotions. Cette
activité différentielle fut détectée sur une longue période courant de 250 ms à 750 ms
après le début du stimulus, dans la région occipitale et la jonction occipito-temporale
droite. Ces réponses postérieures tardives sont bien compatibles avec les activités
liées aux catégorisations d’objets visuels, en particulier des visages et de leurs
différents attributs, observées tardivement dans ces régions chez le singe (Hasselmo
et al., 1989) et chez l’Homme par potentiels évoqués et magnétoencéphalographie
(Batty and Taylor, 2003; Streit et al., 2003).
Des différences sont d’abord apparues entre les réponses aux visages
neutres et celles aux visages exprimant une émotion, entre 250 et 550 ms, dans les
régions occipitales. D’autres furent secondairement observées entre 550 et 750 ms
au niveau de la jonction occipito-temporale droite entres les réponses à chaque type
d’émotion (neutre, joie, peur et dégoût). Ces résultats suggèrent une première
organisation temporelle hiérarchisée du traitement des stimuli émotionnels au niveau
des aires visuelles. Une détection du caractère émotionnel des stimuli pourrait
précéder une analyse plus fine discriminant les expressions entre elles. Cette
possible hiérarchie temporelle survient assez tardivement et de façon soutenue au
niveau d’aires visuelles intervenant par ailleurs précocement dans l’analyse de la
107
scène visuelle. Une telle activité différentielle persistant jusqu’à 750 ms dans ces
régions renforce l’hypothèse d’une neuromodulation rétrograde intervenant sur le
cortex visuel extra-strié et peut-être le cortex strié. Les aires limbiques sont fortement
pressenties pour participer à une telle modulation (Morris et al., 1998). La hiérarchie
temporelle observée tardivement au niveau du scalp pourrait témoigner d’un autre
niveau hiérarchique au sein d’aires visuelles et multimodales, comme les aires
limbiques et paralimbiques, se situant plus en aval dans le traitement des stimuli
visuels émotionnels. La détection du caractère émotionnel des stimuli pourrait
intervenir plus rapidement au niveau des aires limbiques et paralimbiques, ce qui,
grâce à une activité modulatrice rétrograde, permettrait aux aires visuelles extrastriées d’optimiser l’extraction de l’information visuelle concernant les traits faciaux.
Cette première distinction préparerait à un traitement plus fin permettant la
différentiation des expressions faciales entre elles. Une deuxième étape,
probablement intriquée dans le temps et dans l’espace avec la première,
nécessiterait également l’interaction des aires visuelles corticales et des structures
d’aval.
Cette hypothèse d’une modulation rétrograde fut renforcée chez l’Homme par
certaines études en imagerie fonctionnelle montrant par exemple une corrélation
entre l’activité amygdalienne et celle du gyrus fusiforme en réaction à l’expression de
peur (Morris et al., 1998). Mais cette approche ne permet pas d’appréhender les
aspects temporels de cette coopération entre différentes structures cérébrales. Notre
étude montre que les aires visuelles postérieures participent au traitement des stimuli
émotionnels après quelques centaines de millisecondes, alors que les structures
limbiques ont déjà réagi à ce type de stimulation visuelle (Halgren et al., 1994; Fried
et al., 1997; Ioannides et al., 2000b). Si une telle coopération existe, elle peut donc
intervenir tardivement et de façon soutenue.
On peut s’étonner du caractère relativement tardif de ces activités
différentielles illustrant le traitement des expressions faciales. En effet, les premières
réponses visuelles enregistrées dans le cortex temporal du singe surviennent dès
quelques dizaines de millisecondes après le début de la présentation du stimulus
(Tovee et al., 1993). Cependant, les réponses spécifiques permettant de différencier
un visage d’un autre objet visuel ne semblent survenir qu’après 100 ms (Perrett et
108
al., 1982; Hasselmo et al., 1989; Rolls et al., 1994b; Sugase et al., 1999)(à vérifier).
Les réponses neuronales aux expressions faciales surviennent généralement après
celles qui reflètent le traitement de l’identité. Elles sont enregistrées chez le singe
aux alentours de 170 ms dans la région du STS (Sugase et al., 1999). Les réponses
étant généralement enregistrées chez l’Homme plus tardivement que chez le singe
(Nowak et al., 1995), et la technique des potentiels évoqués de scalp étant
vraisemblablement moins sensible que les enregistrements unitaires, les latences
des activités enregistrées dans notre étude sont compatibles avec les données de la
littérature. Les réponses spécifiques survenant dans la région temporale droite
pourraient correspondre à un traitement effectué dans la région temporale supéroexterne, en particulier celle du STS et du cortex adjacent.
L’existence d’un traitement plus rapide, automatique, des expressions faciales
n’est pas démontrée par notre étude de scalp. Cependant, certaines études utilisant
les potentiels évoqués de scalp (Eimer and Holmes, 2002; Batty and Taylor, 2003)
rapportent des réponses différentes selon les expressions faciales à des latences
plus précoces. Certains suggèrent qu’une différentiation grossière des stimuli visuels
pourrait être détectée dès 50 ms (Seeck et al., 1997b; VanRullen and Thorpe, 2001),
ce qui serait compatible avec un traitement du genre (Mouchetant-Rostaing et al.,
2000). Cependant, le corrélat électrophysiologique de l’encodage structural des
visages, la négativité N170 bitemporale, ne survient qu’aux environs de 170 ms
(Bentin et al., 1996), alors que les enregistrements intra-crâniens chez l’Homme n’ont
pas pu enregistrer d’activités en réponses aux visages à la surface du cortex inférotemporal avant 200 ms (Allison et al., 1999; McCarthy et al., 1999; Puce et al., 1999).
En MEG, alors que le corrélat de l’encodage structural des visages semble être
représentée par la M170 bitemporale, une onde moins ample survient en réponse
aux visages autour de 100 ms (M100) (Liu et al., 2002). Il pourrait s’agir de la
première réponse spécifique des visages dans le cortex occipito-temporal, reflétant
un encodage du visage en tant que visage avec encodage focal des parties du
visage, alors que la réponse survenant autour de 170 ms reflèterait l’encodage
structural global du visage (Liu et al., 2002). Seule la deuxième réponse pourrait être
corrélée à la reconnaissance de l’identité. Ainsi, le traitement neuronal permettant de
catégoriser un visage en tant que tel pourrait débuter dès 100 ms.
109
Eimer et Holmes affirment avoir mis en évidence une différence entre les
réponses aux visages neutres et effrayés au niveau d’un pic positif fronto-central
survenant à 120 ms (la tâche focalisant une attention non spécifique sur les visages)
(Eimer and Holmes, 2002). Or cette réponse était plus ample pour les visages
neutres, ce qui est difficilement interprétable en termes neurophysiologiques. De
plus, comme nous pouvons le constater sur la figure ci-dessous, cette différence
semble s’amorcer avant le début du stimulus, alors que la ligne de base n’est pas
stable. Aucune différence pic à pic entre cette réponse positive et les réponses qui
suivent n’est observée entre les visages neutres et effrayés.
Figure 19 : Potentiels évoqués moyens obtenus en réponse aux visages neutres
(courbes pointillées) ou exprimant la peur (courbes pleines) sur les électrodes FC5 et
FC6 du système 10-20 (Eimer and Holmes, 2002).
Une étude récente a montré une influence des expressions faciales sur les
réponses précoces P1 et N170 dans les régions postérieures (Batty et coll, 2003). La
tâche requise impliquait une reconnaissance implicite des émotions. Cette étude est
intéressante car 26 sujets y ont participé, alors que 210 photographies furent
utilisées et répétées une seules fois, ce qui réduit un éventuel effet d’habituation ou
de répétition. Cependant, il n’est pas sûr que les paramètres de bas niveau aient été
contrôlés dans cette étude, à la différence des visages de la banque maintenant
110
classique d’Ekman et Friesen (Ekman and Friesen, 1975). Ces résultats impliquent
des commentaires. L’effet de l’émotion sur le P1 (p=0.03) ne concerne pas les
émotions deux à deux, alors que les réponses aux visages neutres et surpris étaient
moins amples que les autres. Le fait que les réponses aux visages surpris – stimuli
induisant une réaction d’éveil importante - soient moins amples que les autres, est
difficile à interpréter. D’autre part, le N170 en réponses à des visages exprimant des
émotions négatives survenait plus tardivement, ce qui est également surprenant.
Figure 20 : Grandes moyennes des potentiels évoqués recueillis chez 26 sujets par
une électrode occipitale (O1) et une électrode temporale postérieure (P7) montrant la
moindre amplitude des potentiels aux expressions neutre et surprise, et
l’augmentation de latence du N170 pour les visages exprimant la peur, le dégoût et
la tristesse. L’amplitude maximum du N170 était observée pour la peur (Batty and
Taylor, 2003).
111
Ces effets précoces sont intéressants, car ils peuvent illustrer le traitement implicite
automatique rapide traqué par de nombreux chercheurs, mais il faut ici redouter une
influence de type bas niveau, ne reflétant pas directement les processus de
perception et de reconnaissance des expressions faciales.
Les activités différentielles ne furent enregistrées dans notre étude que
lorsque l’attention était portée sur l’émotion. Il est possible que la technique des
potentiels évoqués de scalp, réalisée chez dix sujets, ne soit pas assez sensible pour
objectiver les traitements précoces et automatiques des stimuli émotionnels. Cela
expliquerait le fait que ces activités ne soient enregistrées que lorsque l’attention est
focalisée sur les expressions. Cela corrobore d’autres résultats de modulations
tardives reflétant une influence de type top-down, obtenues sur la N400 avec des
visages familiers (Eimer, 2000). D’autres ont également montré l’existence d’activités
cérébrales très prolongées induites par des stimuli émotionnels et dépendantes de
l’attention (Cuthbert et al., 2000). Cette influence de l’attention renforce l’hypothèse
que ces activités corticales postérieures reflètent une influence de type top-down.
La technique des potentiels évoqués de scalp permet donc de démontrer que
les aires visuelles postérieures sont impliquées tardivement dans le traitement des
expressions faciales lorsque l’attention est portée sur l’émotion. Ce traitement
spécifique pourrait obéir à une hiérarchie temporelle relative. Nous avons encore
besoin d’études complémentaires à la recherche d’un corrélat électrophysiologique
sur le scalp d’un traitement automatique précoce des expressions faciales.
112
C. Enregistrements intra-crâniens
L’étude des réponses électrophysiologiques intracérébrales recueillies par
électrodes profondes implantées chez des patients épileptiques pharmaco-résistants
lors d’explorations préchirurgicales, revêt des intérêts majeurs :
-
Moins sensible aux clignements et mouvements oculaires, à la contraction des
muscles péricrâniens, elle permet d’augmenter considérablement le rapport signal
sur bruit, dès lors que les structures étudiées se situent en dehors des foyers
épileptogènes.
-
la précision de l’implantation selon la méthode de Talairach et les nouvelles
techniques de recalage permettent d’obtenir une résolution spatiale importante,
l’échantillonnage spatial dépendant du nombre d’électrodes implantées.
-
elle conserve enfin la résolution temporelle inégalée des potentiels évoqués.
1) Matériels et méthodes
a)
Les patients
Ces enregistrements furent réalisés chez des patients épileptiques pharmacorésistants hospitalisés dans le Service de Neurologie Fonctionnelle et d’Epileptologie
du Pr. François Mauguière à l’Hôpital Neurologique de Lyon. Ces patients sont
habituellement hospitalisés pendant 2 à 3 semaines dans le cadre d’explorations
préchirurgicales nécessitant l’enregistrement de crises épileptiques par des
électrodes profondes implantées dans le cerveau. Les sites d’implantation sont
choisis en fonction de l’histoire et des signes cliniques, des enregistrements de
vidéo-EEG, des résultats de l’IRM, du SPECT – Single Photon Emission
Computerized Tomography - critique et inter-critique et parfois de la Tomographie
par Emission de Positons.
113
Figure 21 : IRM sagittale pondérée en séquence T1 mise à l’échelle 1
Afin d’éviter les structures vasculaires, une artériographie encéphalique est
préalablement réalisée. La superposition à l’IRM permet de définir les structures à
explorer tout en évitant les vaisseaux.
Figure 22 : Vue sagittale de l’artériographie encéphalique mise à l’échelle 1
114
b)
Les électrodes
Chaque électrode est composée de contacts en acier inoxydable isolés les
uns des autres. Ils mesurent 2 mm de long et sont disposés tous les 1,5 mm. Chaque
électrode possède 5, 10, 15 ou 3 groupes de 5 contacts.
c)
Implantation des électrodes
L’implantation des électrodes est un geste chirurgical réalisé au bloc
opératoire sous anesthésie générale. Ce geste ne peut être réalisé qu’après
superposition de l’angiographie et de l’IRM encéphaliques toutes deux mises à
l’échelle 1. Le risque de dommage des vaisseaux est ainsi limité. Les électrodes sont
implantées perpendiculairement au plan sagittal, grâce à une grille stéréotaxique
adaptée à l’atlas de Talairach et Tournoux (Talairach and Tournoux, 1988). La
position de chaque cible est définie sur l’IRM encéphalique à l’échelle 1 avant
l’implantation.
Figure 23 : Radiographie du crâne de profil avec le cadre de Talairach permettant
d’implanter les électrodes dont les sites ont été définis par l’IRM et l’artériographie
Les radiographies du crâne, de face et de profil, réalisées après l’implantation,
permettent de reporter les contacts sur un papier calque, ainsi que la ligne AC-PC et
le plan VCA passant par la commissure antérieure, repérés sur l’IRM à l’échelle 1.
115
Chaque contact est ensuite reporté sur l’IRM 3D du patient grâce aux coordonnées
définies dans les trois plans.
Figure 24 : Radiographie de face réalisée après l’implantation permettant de
visualiser les contacts des électrodes
Figure 25 : Radiographie de profil réalisée après l’implantation permettant de
visualiser les électrodes
116
Electrode
Localisation
J
A
Pôle temporal
Amygdale
Gyrus temporal moyen
Hippocampe antérieur
Gyrus temporal moyen
Gyrus temporal supérieur
Insula
Gyrus temporal supérieur
Insula
Gyrus para-hippocampique
Gyrus fusiforme
Gyrus temporal inférieur
Cortex orbito-frontal
Opercule précentral
Insula
Opercule post-central, Insula
Gyrus cingulaire antérieur
Gyrus frontal inférieur
Région infracalcarine
Gyrus occipital moyen
Hippocampe antérieur
Gyrus temporal moyen
B
T
H
L
O
P
N
K
V
B'
Distance à la ligne Nombre
médiane (mm)
de plots
2
5
3
15
5
15
7
10
10
10
4
10
6
12
10
10
13
11
10
15
9
15
5
15
Exemple de résumé d’implantation pour un patient
Lors de ce séjour, de nombreux examens sont réalisés afin de définir une
cartographie fonctionnelle pour chaque patient :
-
des enregistrements de potentiels évoqués somesthésiques, nociceptifs,
auditifs et visuels
-
des stimulations électriques délivrées au niveau des contacts d’électrodes
choisis parmi les plus pertinents pour la reproduction des premiers
symptômes annonçant la crise d’épilepsie
Vingt-cinq patients d’âge moyen de 31 ans participèrent aux études présentées cidessous.
117
2) Etude n°2 : « About serendipity »
a.
Résumé
Cette étude ne portant pas directement sur l’analyse de la
reconnaissance des émotions par le cerveau humain fut conduite dans la première
partie de la préparation de la thèse. Elle fut incitée par un évènement imprévu,
l’implantation du corps genouillé par une électrode profonde. Cela nous donnait
l’occasion unique de vérifier et d’explorer les résolutions spatiales et temporelles de
cette technique d’exploration électrophysiologique, directement au cœur des voies
visuelles sous-corticales. Chez la patiente n°1 de cette étude, l’électrode ciblant la
queue d’un hippocampe gauche atrophié atteignit en fait le corps genouillé, son plot
le plus interne touchant le corps genouillé médian, le contact adjacent le corps
genouillé latéral (CGL). Ainsi, les potentiels évoqués auditifs recueillis dans le corps
genouillé médian par Blaise Yvert et collaborateurs (Yvert et al., 2002) ont pu être
comparés aux réponses visuelles enregistrées au niveau du plot adjacent. Une
double dissociation de ces réponses auditives et visuelles a permis de confirmer la
localisation du plot interne au sein des voies auditives et celle du plot adjacent sur la
voie visuelle, confortant ainsi la forte résolution spatiale de la technique.
Ainsi, les premières réponses évoquées visuelles furent enregistrées dès 40
ms après le début de la stimulation dans le CGL, alors qu’elles survenaient plus tard
autour de 70 ms dans le cortex visuel primaire chez un autre patient. En observant
ces réponses évoquées, nous fûmes intrigués par un signal oscillatoire dont la
fréquence était celle du rafraîchissement de l’écran. Après de multiples étapes ayant
permis d’éliminer un artéfact électromagnétique, nous pouvions démontrer que ce
signal reflétait la réaction neuronale au sein du CGL et du cortex visuel primaire à
une composante de l’image non perçue consciemment, le rafraîchissement de
l’écran. Ces réponses oscillatoires adoptant la fréquence de rafraîchissement de
l'écran (60 ou 70 Hz suivant les conditions) confirmaient l’excellente résolution
temporelle de cette technique. Ces oscillations évoquées par le caractère sinusoïdal
de la stimulation (le rafraîchissement de l’écran) ne furent pas enregistrées au-delà
de du complexe V1/V2 occipital.
118
b.
Article n°2
Tout ce qui existe est le fruit du hasard et de la nécessité.
Jean Monod
Pape II
Francis Bacon (1951)
119
120
121
122
123
124
125
126
127
128
129
130
3) Etude n°3 : Le dégoût et l’insula
Une des grandes avancées de l’épileptologie de ces dernières années est
représentée par l’exploration du rôle de l’insula dans certaines épilepsies. Les
travaux de François Mauguière, Jean Isnard et collaborateurs ont permis d’incriminer
cette structure dans certaines épilepsies pharmaco-résistantes, et d’en tirer les
conséquences thérapeutiques (Isnard et al., 2000). Ces progrès furent réalisés grâce
à l’avènement de la technique d’implantation de ce lobe enfoui au fond de la vallée
sylvienne, difficile d’accès car située en arrière d’une toile vasculaire bien
menaçante. Grâce à Marc Guénot et Marc Sindou, cette structure est maintenant
accessible à l’implantation d’électrodes profondes et au recueil direct du signal
électroencéphalographique (Guenot et al., 2004).
La voie est donc tracée pour l’étude des réponses électrophysiologiques aux
expressions faciales dans cette structure jusqu’alors inaccessible, avec une attention
particulières portée sur le dégoût (Phillips et al., 1997).
a)
Résumé de l’étude
Les potentiels évoqués par les visages aux différentes expressions furent
recueillis dans l’insula de 13 patients épileptiques pharmaco-résistants lors de la
période d’explorations préchirurgicales. Des réponses spécifiques au dégoût furent
recueillies dans la partie ventrale antérieure de l’insula de 4 patients, alors que les
enregistrements effectués dans les régions dorsales de l’insula n’ont pas montré de
réponses spécifiques. Ces réponses survenaient généralement après 300 ms
lorsque l’attention était focalisée sur l’émotion, pour durer approximativement 200
ms. Elles étaient influencées par la tâche car elles survenaient 100 ms plus tard
lorsque l’attention était focalisée sur le genre, lorsque le traitement du message
émotionnel devait être plus implicite.
Ces résultats démontrent qu’une région très focale de l’insula est impliquée
dans la reconnaissance des expressions faciales chez l’Homme, une région
particulièrement interconnectée avec les circuits neuronaux gustatifs, olfactifs et
131
viscéromoteurs. Ces différents réseaux traitent certains aspects du concept
émotionnel du dégoût. L’insula ventrale antérieure pourrait représenter un carrefour
déterminant dans la mise en relation de ces différents aspects perceptifs, moteurs et
peut-être cognitifs, et la construction de la connaissance conceptuelle de cette
émotion.
b)
Article N°3
Cet article est précédé d’un éditorial d’Andrew Calder paru dans le même
journal. Il insiste ici sur les rapports étroits entre la perception du dégoût chez autrui
et le phénomène émotionnel ressenti par soi-même à l’occasion d’une observation
de lésion de l’insula gauche antérieure. Cette lésion induisait effectivement un déficit
dans la reconnaissance du dégoût chez autrui et l’expérience même du dégoût
(Calder et al., 2000b).
132
133
134
135
136
137
138
139
140
141
142
143
144
c)
Discussion complémentaire
Ainsi, l’insula ventrale antérieure, en particulier le gyrus long antérieur,
participe au traitement du dégoût exprimé par un visage. Cette activité survient entre
300 et 500 ms après le début du stimulus lorsque l’attention est portée sur les
expressions, un peu plus tard lorsque le traitement est plus implicite.
Plusieurs arguments plaident en faveur d’une intervention tardive de l’insula
dans le réseau impliqué dans la reconnaissance de l’expression faciale de dégoût, à
une étape d’intégration du concept général de cette émotion. En effet, ce traitement
intervient essentiellement dans une région multimodale de l’insula, le secteur ventral
antérieur, agranulaire et dysgranulaire, puissamment connecté avec les réseaux
gustatifs, olfactifs et viscéromoteurs. Il ne s’agit pas d’une région visuelle exclusive,
même si elle semble plus sensible aux stimuli visuels qu’aux stimuli vocaux
exprimant le dégoût (Phillips et al., 1998b).
Figure 26 : Séquence d’IRM pondérée en T1 montrant un infarctus insulaire gauche
(flèche) impliquant également la capsule interne, le putamen (P), le pallidum (GP) et
la tête du noyau caudé (CN) – a : coupe axiale – b : coupe coronale. Cette lésion a
induit chez ce patient une altération de la reconnaissance du dégoût dans différentes
modalités : reconnaissance d’expressions faciales, d’onomatopées exprimant
différentes émotions, de différentes prosodies (Calder et al., 2000b).
145
L’étude récente de Wicker et collaborateurs a confirmé grâce à l’IRM
fonctionnelle l’implication de la région antérieure de l’insula dans l’intégration de
plusieurs aspects de cette émotion, que ce soit la reconnaissance d’expression
faciale ou l’émotion propre de dégoût générée par des odeurs (Wicker et al., 2003).
Figure 27 : Illustration des activités liées à l’observation du dégoût sur le visage
d’autrui (en bleu) et à l’émotion de dégoût générée par des odeurs (en rouge), dans
une région plus dorsale de l’insula antérieure (Wicker et al., 2003).
Avant
Figure 28 : Contacts (pleins) ayant enregistré l’effet du dégoût, situés dans l’insula
ventrale antérieure dans notre étude.
146
L’hypothèse d’une intégration multimodale du dégoût dans cette région de
l’insula est corroborée par le fait que ce sont les stimulations électriques effectuées
au niveau des contacts insulaires ayant enregistré les réponses spécifiques au
dégoût, qui ont induit une sensation désagréable dans la gorge, remontant dans la
bouche et le nez. Cette intégration multimodale pourrait aider à la construction de la
connaissance conceptuelle du dégoût.
Ainsi, la partie ventrale antérieure de l’insula serait en mesure d’intégrer de
multiples aspects du dégoût, depuis l’évaluation directe des goûts et des odeurs
jusqu’aux
conséquences
viscéromotrices
permettant
de
ressentir
l’émotion
proprement dite, en passant par la reconnaissance de l’émotion chez autrui
transmise par différents canaux sensoriels. Elle pourrait également participer à la
construction du sentiment de dégoût, peut-être de honte - un certain dégoût de soi nécessitant
probablement
l’activation
des
réseaux
neuronaux
participant
habituellement à la perception de l’émotion proprement dite (Damasio, 2001a).
147
148
4) Etude N°4 : Un réseau distribué dans le temps et dans
l’espace
a)
Résumé
Dans cette étude, les réponses évoquées par les différentes expressions
faciales furent initialement étudiées dans l’amygdale de quatre patients, chez
lesquels cette structure ne semblait pas participer au réseau épileptogène. Leur
signal EEG était normal, ce qui est extrêmement rare dans l’épilepsie de lobe
temporal explorée par électrodes profondes. Ces réponses furent également
analysées chez certains de ces patients au niveau du cortex occipito-temporal,
temporal externe et orbito-frontal. Enfin, les potentiels amygdaliens aux expressions
faciales furent moyennés dans un groupe de 10 patients (dont les quatre patients
cités précédemment) dont le signal EEG était le moins perturbé par les éléments
paroxystiques épileptiques. Les mêmes stimuli et les mêmes tâches que ceux
présentés plus haut étaient proposés aux patients.
Dans les amygdales considérées comme saines, des réponses plus amples
pour la peur furent recueillies dès 200 ms après le début du stimulus lorsque
l’attention était focalisée sur l’émotion. Cette première réponse durant environ 100
ms était suivie d’une deuxième réponse beaucoup plus soutenue dans le temps,
enregistrée jusqu’à des latences approchant la seconde. Ce deuxième type de
réponse était concomitant de réponses spécifiques à la peur également enregistrées
dans le cortex occipito-temporal, temporal externe et orbito-frontal. Les moyennes
des potentiels enregistrés dans les amygdales des dix patients ont confirmé
l’existence de réponses à la peur dès 200 ms lorsque l’attention était portée sur
l’émotion, et de réponses plus tardives à la peur et au dégoût lorsque l’attention était
portée sur le genre. Dans cette dernière condition, le traitement de l’émotion était
plus implicite.
Ainsi, les réponses à la peur surviennent dans l’amygdale 100 ms avant les
réponses au dégoût dans l’insula. Cela reflète un degré de hiérarchie temporelle en
faveur du traitement des stimuli les plus aversifs. Ce délai est très important pour des
stimuli très proches, des visages dont les paramètres physiques sont contrôlés, ne
différant que par leur message émotionnel. Les latences de réaction amygdalienne
149
sont ici compatibles avec une voie corticale (occipito-temporale) de transmission du
message visuel. Ces résultats n’étayent pas l’hypothèse de l’implication d’une voie
de transmission sous-corticale (thalamo-amygdalienne) des messages émotionnels
aversifs. Une influence top-down dépendant du message émotionnel pourrait
modifier la rapidité du traitement perceptif au niveau cortical. Cette influence est
soulignée par le rôle de la tâche qui influence les réponses amygdaliennes et
corticales aux visages exprimant la peur.
Il semble que les deux structures - l’amygdale et l’insula - se situant à un
carrefour entre le traitement perceptif des stimuli émotionnels, les conséquences
neuroendocrines illustrant le percept émotionnel proprement dit et le sentiment plus
abstrait de l’émotion, soient impliquées à des moments différents de cette hiérarchie
temporelle, ce qui oeuvre en faveur de la survie de l’espèce. Les stimuli les plus
aversifs – ici un visage effrayé – induisent une réaction amygdalienne précoce et
soutenue, survenant en même temps que l’implication d’un vaste réseau occipitotemporo-frontal connu pour participer à la reconnaissance des expressions faciales.
Ces activités soutenues pourraient illustrer le maintien d’une activité au sein des
structures participant à la reconnaissance et au ressentiment d’une émotion,
nécessaire pour évoquer le sentiment même - plus abstrait - de cette émotion
(Damasio, 2001a). Bien entendu, cette chronologie d’activation des structures
corticales et sous-corticales ne prouve pas directement leur coopération directe.
L'étude des synchronies oscillatoires entre ces structures pourrait permettre de
décrire ces coopérations ainsi que leur chronologie.
150
b) Article n°4
Dessin de la période de la bataille d’Anghiari
Léonard de Vinci
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
La Joconde ne semble pas dévoiler le même sourire si l’on filtre ses fréquences spatiales
(M. Livingstone, Science 2000)
166
5) Etude n° 5 : Le sourire en miroir
« L’esprit humain ne perçoit de corps extérieurs comme existant en acte que par les
idées des affections de son propre corps »
Ethique, Spinoza
a) Résumé de l’étude
Cette étude porte sur un cas, celui de VV, jeune patiente de 19 ans
épileptique pharmaco-résistante explorée par électrodes profondes en vue d’un
éventuel traitement chirurgical. Jean Isnard, responsable de cette exploration
préchirurgicale, nous a alertés lorsqu’il a observé à plusieurs reprises l’induction d’un
sourire et d’un rire lorsque l’électrode située dans la région de la pré-AMS (Aire
Motrice Supplémentaire) gauche était stimulée électriquement. En effet, VV
rapportait systématiquement lors des séances de stimulation de cette région, une
sensation d’élévation forcée des commissures labiales, une envie de sourire puis de
rire, alors que l’épisode se terminait par une réelle sensation de gaieté et
d’amusement, malgré le caractère habituellement désagréable des séances de
stimulation. Ce phénomène n’était observé que lors de la stimulation des contacts
situés dans la pré-AMS, alors que les stimulations réalisées aux alentours
provoquaient un arrêt du langage ou des phénomènes moteurs plus élémentaires.
Les potentiels évoqués par les visages d’Ekman et Friesen furent recueillis
dans cette région comme dans d’autres régions frontales et temporales gauches.
Seul le contact situé dans la pré-AMS permit d’enregistrer des réponses spécifiques
à l’expression de joie, ceci lors des deux tâches (Attention au genre et Attention à
l’expression). Ces réponses spécifiques survenaient dès 150 ms après le début du
stimulus lorsque le traitement était plus implicite (Attention au genre), plus
tardivement lorsque l’attention était portée sur l’émotion.
Ces résultats démontrent que la pré-AMS, connue pour son implication dans
l’élaboration de séquences de mouvements dépendant du contexte en particulier
visuel, est précocement impliquée dans la détection de l’expression faciale de joie, et
ceci de façon automatique. Les réponses précoces survenant dans un contexte de
167
traitement implicite des émotions pourraient étayer l’hypothèse d’une transmission en
partie sous-corticale d’une information visuelle grossière aux régions préfrontales et
pré-motrices. Le fait que le même contact d’électrode enregistre les réponses à la
joie et induise par stimulation électrique un rire et une sensation de joie, suggère un
rôle important de cette région dans l’intégration d’aspects perceptifs et moteurs de
cette émotion. La pré-AMS pourrait ainsi être impliquée dans la construction du
concept de la joie.
168
b) Article n° 5
The Same Motor Area detects and elicits laughter
Pierre Krolak-Salmon, Marie-Anne hénaff, Alain Vighetto, Françoise Bauchet,
Olivier Bertrand, François Mauguière and Jean Isnard
In this drug refractory epileptic patient explored with depth electrodes
during a presurgical evaluation, the electrical stimulation of one contact lying
in the left pre-Supplementary Motor Area (pre-SMA) systematically elicited
laughter and merriment experience. The same electrode contact lying in the
pre-SMA recorded specific evoked responses to happy faces as soon as 150
ms post stimulus onset. The same neuronal population in left pre-SMA is thus
involved in different aspects of happiness processing, detecting rapidly this
facial expression in others and eliciting smile and laughter when stimulated.
Like monkey mirror neurons described in premotor cortex (Rizzolatti et al.,
1996), pre-SMA creates an internal representation of particular actions, i.e.
smile and laughter.
Laughter is an integral component of humanity. Since animal studies are very
rare (Jürgens et al., 1986), the neural networks underlying happiness and its
associated motor behaviour marked by smiling and laughter are not well known in
human. Clues for individual neural networks involved in processing multiple aspects
of positive emotions are provided by reports of pathological variants of laughter and
most recently, neuroimaging studies. Focal lesions have been associated to
emotional facial palsy and pathological laughter, but none with a deficit in happiness
recognition in others. However, the recognition of emotionally salient messages such
as facial emotional expressions is determinant for a social adapted behavior. Frontal
focal lesions, particularly on the left side, sometimes induce depression symptoms.
Impaired metabolism has been observed in depressed patient left frontal cortex,
which Transcranial Magnetic Stimulation (TMS) can improve anxiety and depressive
symptoms (Pacual leone et al.,George et al.). Particular attention is then paid to the
abilities of the left frontal cortex in processing different aspects of positive emotions.
169
Depth electrode electrophysiological recordings combining very high spatial and
temporal resolution offer a rare opportunity to directly record the neural correlates of
emotional behaviour. We addressed this question in a drug refractory epileptical
patient implanted with a depth electrode in the left prefrontal cortex, which electrical
stimulation systematically led to laughter and merriment. By recording intracranial
Event Related Potential (ERPs) to facial emotional expressions, we have
demonstrated that this area can process different aspects of happiness.
The epilepsy of patient VV, a right-handed girl with normal psychological and
physical development, began when she was 8 year-old. During the two first years of
her disease, seizures were marked by a sudden laughter of natural appearance. The
first generalized tonico-clonic seizures occurred at the age of 10. Now, VV is 19 yearold, the seizures are stereotyped. She awakes, remains perplex for few seconds,
rubs her right cheek with her right hand, develops anarthria, and then a dystonia of
her right arm. Sometimes, a right hemifacial myoclonus is observed, head version on
the right, a right hemibody myoclonus and finally a generalized tonico-clonic seizure.
The following examinations were normal in VV: clinical and neuropsychological
examination, interictal scalp EEG, brain MRI, Fluorodesoxy-glucose and GabaBenzodiazepine PET. Wada test showed a left hemisphere language location and
preserved memory on both sides. Ictal SPECT demonstrated an increased blood flow
in the left operculo-insular area. At this stage, the diagnosis of cryptogenic left frontal
epilepsy was made, with a probable early implication of the left operculo-insular area.
To delineate the epileptogenic area, VV was stereotactically implanted with
depth electrodes in several sites including the left operculo-insular area and the left
pre-SMA (figure 1). The structures to be explored were selected on the basis of ictal
manifestations, EEG and neuro-imaging studies. Early left operculo-insular epileptic
discharges were associated with initial right hemifacial myoclonus. Sometimes, the
discharges progressed to the left SMA and the whole left frontal cortex and finally
generalized.
Brain electrical stimulation is part of the functional mapping of relevant
structures
performed
before
epilepsy
surgery.
The
pre-SMA
stimulation
systematically provoked a smile and a laugher, with intensity proportional to that of
170
the stimulation. The minimum intensity required to observe this phenomenon was 0.6
mA delivered at a 50 Hz frequency during 1 second. In this condition, VV first
reported a discomfort in the right cheek, and then she smiled, and lastly openly
laughed. She reported afterwards that she felt her lip corners elevating in a forced
smile, followed by a real feeling of happiness. “At the beginning, I did not feel like
smiling or laughing. A moment later, I really felt like laughing, I had a sensation of
merriment, like seeing a Laurel and Hardy film.” She reported later that she could not
keep from laughing despite the discomfort of the stimulation. In contrast, at 0.8 mA
intensity stimulation, a smile was observed, then laughter, a moaning, and a dystonia
with myoclonus of the right arm, without the genuine feeling of happiness. Two
minutes after the stimulation, she burst into tears, and kept a very affected voice
during 15 minutes. “It is not normal, it is not my fault, I can not refrain from smiling
and crying. It is not because of the session, I am forced to smile.” The stimulation of
neighboring sites in this patient provoked speech arrests, abnormal face and limb
movements, but neither smile nor laughter. This behavioral phenomenon appeared
thus to be very restricted to the electrical stimulation of the left pre-SMA.
Visual evoked potential recordings were also part of the functional mapping
performed before epilepsy surgery. Visual stimuli were 40 static gray-scale images of
emotionally expressive faces (4 women and 4 men depicting 5 different emotional
expressions, i.e. fear, happiness, disgust, surprise and no emotion) taken from the
standard set of pictures of Ekman and Friesen (Ekman and Friesen, 1975). VV
participated in two different target detection tasks. During the first task called
“Attention to Gender” (AG), the patient made a gender classification by counting
either men or women. During the second task called “Attention to Emotion” (AE), she
was instructed to silently count faces expressing surprise. VV's performance was
100% in the AG task and 96% in the AE task. Statistical analysis (ANOVA) was
performed on single trial potential mean amplitudes on successive contiguous 50 ms
time windows from 0 ms to 1000 ms at pre-SMA contacts. In the AG task, an effect of
the factor “emotion” was observed on each contiguous time window from 150 to 450
ms, and on the whole time period 150 - 450 ms (p = 0.005 ; F = 3.8). Post hoc paired
Fisher tests between emotions showed that responses to happiness significantly
differed from all other emotions (figure 2). No difference was observed among the
amplitudes of the responses related to all other facial expressions. This specific
171
response to happiness was selectively recorded by the pre-SMA contact. In the AE
task, an effect of the factor “emotion” was observed later, between 500 and 600 ms
of latency (p = 0.01; F = 3.5). Post hoc analyses showed that responses to happiness
and disgust significantly differed from those to fear and neutral faces.
A depth electrode that showed a characteristic response as early as 150 ms
when the patient viewed happy faces also elicited laughter and merriment when
electrically stimulated (Fried et al., 1998). It has been established that some motor
structures participate both to movement generation and recognition (Rizzolatti and
Luppino, 2001). Mirror neurons lying in the premotor cortex, particularly F5 in
monkey, discharge when an individual makes an action, and when the same action is
observed in others (Rizzolatti et al., 1996). The pre-SMA corresponding to the rostral
part of the traditionally defined SMA is now differentiated on the basis of anatomical
connectivity (Luppino et al., 1993), physiological properties (Matsuzaka et al., 1992)
and neuro-imaging studies (Sakai et al., 1999). The anatomical frontier between SMA
proper and pre-SMA would be the VAC (Vertical Anterior Commissure) line, based on
the stereotaxic coordinate system of Talairach and Tournoux (Talairach and
Tournoux, 1988; Baleydier et al., 1997). The pre-SMA, corresponding to F6 in
monkey lies just anteriorly to the somatotopic representation of the face in F5.
Indeed, the anterior SMA activity is related to vocalization and has been shown to
increase in people who stutter (Fox et al., 1996). Like F5, pre-SMA is sensitive to
visual information, participating in its short term maintenance. This last property
represents one of the main differences between pre-SMA and SMA (Rizzolatti et al.,
1990; Matsuzaka et al., 1992). According to Rizzolatti, pre-SMA links movement
onset to the external contingencies and motivations(Rizzolatti and Luppino, 2001).
Thus, this area can elicit a particular face movement, smile and laughter, and detect
this movement in others. It may play a crucial role in generation of the internal
representation of happiness facial expression.
Some studies indicate that pre-SMA may process multiple aspects of
pleasantness. In a recent fMRI study, Osaka et al. showed that the visualization of
onomatopoeia, an emotion-based facial expression word, suggestive of laughter,
activated the premotor/SMA and the visual extrastriate cortex bilaterally, when
contrasted with non-onomatopoeic words (Osaka et al., 2003). Moreover,
172
conditioning TMS over pre-motor cortex enhances facial movements triggered by
visual emotional stimuli (Oliveri et al., 2003). The pre-SMA reaction to visual pleasant
stimuli in our study is very rapid. The latency of the specific ERP to happy faces
recorded in pre-SMA is at the level of the potential N170 associated to the structural
encoding of faces in fusiform gyrus. It is probable that the early activity related to face
in pre-SMA does not directly depend on visual ventral cortical processing. Multiple
pathways can be good candidates to drive the indispensable visual information to
pre-SMA. First, the dorsal cortical visual system providing visual spatial and
movement information may provide information concerning facial feature organization
suggesting happiness. Second, the SMA connection with orbito-frontal cortex which
reacts early to emotional stimuli may be activated in this context (Kawasaki et al.,
2001). Third, thalamocortical projections to the pre-SMA are strong in the non human
primate (Inase, 1996). A subcortical route involving the thalamus and the amygdala,
directly to the pre-SMA or via the prefrontal cortex, may automatically process
pleasant stimuli (Inase et al., 1996; LeDoux, 1996). Finally, visual information can be
driven rapidly from visual extrastriate areas to medial and lateral anterior temporal
regions and so to prefrontal cortex through long distances pathways like the inferior
longitudinal fasciculus. Neural networks that have originally been developed in
mammals to rapidly detect highly salient stimuli may be used in human to detect a
socially important event, such as laughter rarely observed in other mammals.
Reduced attention to the emotional content of the stimulus enhanced the responses
to happiness, as it has been described earlier in amygdala for aversive stimuli
(Critchley et al., 2000; Hariri et al., 2000; Anderson et al., 2003). Thus, the early preSMA activity recorded in this study may be mainly related to an implicit processing of
happiness detected in others.
Fried and coll. have reported that left pre-SMA electrical stimulation can trigger
laughter. Some authors suggest that this structure is specifically involved in motor
aspects of laughing and smiling (Iwase et al., 2002). As the SMA proper is important
in elaboration of motor behaviour, the pre-SMA may code motor actions in the
context of temporal structuring of multiple events (Tanji, 1996) or more generally
visuomotor association learning (Sakai et al., 1999). It is also involved in temporal
discrimination (Pastor et al., 2004). Laughter is indeed a temporally precise motor
sequence. Emotional facial paresis has been described in lesions of the SMA, as well
173
as lesions of anterolateral thalamus, brainstem tegmentum and lateral medulla
(Cerrato et al., 2003). In VV, the stimulation firstly induced a motor phenomenon
forcing her to smile, and then real laughter and finally a sensation of merriment. VV
reported that the first motor experience was felt as artificial, but the last emotional
feeling was connected, to her mind, to the context. The sequential induction of smile,
laughter, merriment feeling and its integration in the environment suggest the
existence of a large network linking the motor, affective and cognitive components of
happiness. The entire network may have been activated as a whole by the
stimulation of one of its constituent units. The activity of this network can be triggered
via a high-level motor programming area, the pre-SMA. Pathologic laughter has been
observed in gelastic seizures related to hypothalamus, temporal lobe lesions and
pseudobulbar palsy. Very few have reported laughter evoked by electrical stimulation
of anterior cingulate and prefrontal cortex (Sem-Jacobsen, 1968)(Fish, 1993),
amygdala (Fish, 1993) and of the basal temporal lobe (Arroyo et al., 1993), as well as
the subthalamic nucleus in patients with Parkinson’s disease (Beijjani 1999, Krack,
2001, Kumar, 1999). All these structures may participate to the knowledge of laughter
and happiness, pre-SMA playing a crucial in detection and eliciting laughter. Since
pre-SMA is situated at the crossroads between external information and motor
aspects of laughter, it may play a crucial role in initial motor programmation of
laughter, when this motor behaviour is induced by external contingencies. That may
explain the very natural appearance of the elicited laughter and its links to the
environnement to the mind of patient VV when this area was electrically stimulated,
compared to structures lying in the hypothalamus or brainstem.
In conclusion, multiple aspects of happiness and laughter are processed by
human left pre-SMA. Our results provide a rare opportunity to directly demonstrate
that the same neuronal population in pre-SMA reacts very early to happiness and
stimulates the appropriate motor behaviour. That suggests that pre-SMA participates
in the construction of the conceptual representation of happiness and pleasantness.
174
Methods
Stereotactic implantation and contact site location
A cerebral angiography was first performed in stereotactic conditions. In order to
reach the clinically relevant target, the stereotactic co-ordinates of each electrode
were calculated preoperatively on the individual cerebral MRI previously enlarged at
the angiography scale.
Cortical stimulation protocol
Stimulation of cortical areas was applied using Stereotactic-EEG (SEEG) recording
electrodes. Square pulses of constant polarity were applied between the side
contacts. The patient was fully informed of the cortical stimulation procedures and
gave her consent. During the stimulation, the patient was alternatively asked to count
with forward elevated arms or to read.
ERP acquisition
At the time of ERPs recordings, the patient was under anti-epileptic monotherapy.
ERPs recordings were performed at the end of the SEEG monitoring, once pertinent
seizures had been recorded. The stimuli were digitized, size-, brightness-, and
contrast-adjusted images presented on a computer screen 1,10 m from the subject,
subtending visual angles of 4°x 5°. They were exposed for 400 ms with an interval of
2000 ms between onsets of two successive images. Six blocks of 40 stimuli were
delivered for each task. The order of the stimuli within each block and the order of the
blocks were randomized for each subject and for each task. Continuous SEEG was
amplified and recorded with a 64-channel-EEG device (SynAmps, Neuro Scan
Labs®). See details in Krolak-Salmon et al. (Krolak-Salmon et al., 2004)
Data analysis
Mean ERPs to all face expressions were computed for both tasks and for each
recording site. The averaging was carried out on an analysis time of 1200 ms with a
sampling frequency of 1000 Hz. A 200 ms pre-stimulus baseline correction was
performed. Prior to statistical analysis, these single trial mean amplitudes were
screened for homogeneity of variance. Because the data met the assumptions
175
required for the analysis of variance, they were entered as dependant variable in an
analysis of variance, the emotions being the factor. Responses to targets were not
included in statistical analyses. To test the extending depth of the effect, ANOVAs
were performed on the contiguous contacts, until reaching the absence of
significance.
176
REFERENCES
Anderson AK, Christoff K, Panitz D, De Rosa E, Gabrieli JD (2003) Neural correlates of the
automatic processing of threat facial signals. J Neurosci 23:5627-5633.
Arroyo S, Lesser RP, Gordon B, Uematsu S, Hart J, Schwerdt P, Andreasson K, Fisher RS
(1993) Mirth, laughter and gelastic seizures. Brain 116 ( Pt 4):757-780.
Baleydier C, Achache P, Froment JC (1997) Neurofilament architecture of superior and
mesial premotor cortex in the human brain. Neuroreport 8:1691-1696.
Cerrato P, Imperiale D, Bergui M, Giraudo M, Baima C, Grasso M, Lentini A, Bergamasco B
(2003) Emotional facial paresis in a patient with a lateral medullary infarction.
Neurology 60:723-724.
Critchley H, Daly E, Phillips M, Brammer M, Bullmore E, Williams S, Van Amelsvoort T,
Robertson D, David A, Murphy D (2000) Explicit and implicit neural mechanisms for
processing of social information from facial expressions: a functional magnetic
resonance imaging study. Hum Brain Mapp 9:93-105.
Ekman P, Friesen W (1975) Pictures from facial affect. CA.
Fox PT, Ingham RJ, Ingham JC, Hirsch TB, Downs JH, Martin C, Jerabek P, Glass T,
Lancaster JL (1996) A PET study of the neural systems of stuttering. Nature 382:158161.
Fried I, Wilson CL, MacDonald KA, Behnke EJ (1998) Electric current stimulates laughter.
Nature 391:650.
Hariri AR, Bookheimer SY, Mazziotta JC (2000) Modulating emotional responses: effects of
a neocortical network on the limbic system. Neuroreport 11:43-48.
Inase M, Tokuno H, Nambu A, Akazawa T, Takada M (1996) Origin of thalamocortical
projections to the presupplementary motor area (pre-SMA) in the macaque monkey.
Neurosci Res 25:217-227.
Iwase M, Ouchi Y, Okada H, Yokoyama C, Nobezawa S, Yoshikawa E, Tsukada H, Takeda
M, Yamashita K, Yamaguti K, Kuratsune H, Shimizu A, Watanabe Y (2002) Neural
substrates of human facial expression of pleasant emotion induced by comic films: a
PET Study. Neuroimage 17:758-768.
Kawasaki H, Kaufman O, Damasio H, Damasio AR, Granner M, Bakken H, Hori T, Howard
MA, 3rd, Adolphs R (2001) Single-neuron responses to emotional visual stimuli
recorded in human ventral prefrontal cortex. Nat Neurosci 4:15-16.
Krolak-Salmon P, Henaff MA, Vighetto A, Bertrand O, Mauguiere F (2004) Early Amygdala
Reaction to Fear Spreading in Occipital, Temporal, and Frontal Cortex; A Depth
Electrode ERP Study in Human. Neuron 42:665-676.
LeDoux J (1996) Emotional networks and motor control: a fearful view. Prog Brain Res
107:437-446.
Luppino G, Matelli M, Camarda R, Rizzolatti G (1993) Corticocortical connections of area F3
(SMA-proper) and area F6 (pre-SMA) in the macaque monkey. J Comp Neurol
338:114-140.
Matsuzaka Y, Aizawa H, Tanji J (1992) A motor area rostral to the supplementary motor area
(presupplementary motor area) in the monkey: neuronal activity during a learned
motor task. J Neurophysiol 68:653-662.
Oliveri M, Babiloni C, Filippi MM, Caltagirone C, Babiloni F, Cicinelli P, Traversa R,
Palmieri MG, Rossini PM (2003) Influence of the supplementary motor area on
primary motor cortex excitability during movements triggered by neutral or
emotionally unpleasant visual cues. Exp Brain Res 149:214-221.
177
Osaka N, Osaka M, Kondo H, Morishita M, Fukuyama H, Shibasaki H (2003) An emotionbased facial expression word activates laughter module in the human brain: a
functional magnetic resonance imaging study. Neurosci Lett 340:127-130.
Pastor MA, Day BL, Macaluso E, Friston KJ, Frackowiak RS (2004) The functional
neuroanatomy of temporal discrimination. J Neurosci 24:2585-2591.
Rizzolatti G, Luppino G (2001) The cortical motor system. Neuron 31:889-901.
Rizzolatti G, Fadiga L, Gallese V, Fogassi L (1996) Premotor cortex and the recognition of
motor actions. Brain Res Cogn Brain Res 3:131-141.
Rizzolatti G, Gentilucci M, Camarda RM, Gallese V, Luppino G, Matelli M, Fogassi L (1990)
Neurons related to reaching-grasping arm movements in the rostral part of area 6 (area
6a beta). Exp Brain Res 82:337-350.
Sakai K, Hikosaka O, Miyauchi S, Sasaki Y, Fujimaki N, Putz B (1999) Presupplementary
motor area activation during sequence learning reflects visuo-motor association. J
Neurosci 19:RC1.
Sem-Jacobsen CW (1968) Vegetative changes in response to electrical brain stimulation.
Electroencephalogr Clin Neurophysiol 24:88.
Talairach C, Tournoux P (1988) Co-planar stereotaxic atlas of the human brain. New-York:
Thieme Medical.
Tanji J (1996) New concepts of the supplementary motor area. Curr Opin Neurobiol 6:782787.
178
Legends
Figure 1
a- Medial anterior view of VV left hemisphere as depicted by a tri-dimensional brain
MRI reconstruction. b- Detail of the left premotor area.
Rolando’s sulcus is underlined in blue. VCA line in yellow delineates the frontier
between the SMA proper and the pre-SMA. The pre-SMA was delineated in green
according to Baleydier et al.(Baleydier et al., 1997) Contacts of the electrode
reaching the pre-SMA are figured in red. The lighter contact closest to the interhemispheric fissure is the one that recorded ERPs to happiness facial expression
and that elicited laughter on stimulation (the recording contact is not so visible on the
figure maybe an arrow would be useful). The electrodes were implanted
perpendicularly to the midsagittal plane using Talairach's stereotactic grid (Talairach
and Tournoux, 1988). Depth probes were 0.8 mm in diameter, had 5, 10 or 15
recording electrode contacts. Contacts were 2.0 mm long, and successive contacts
were separated by 1.5 mm.
Figure 2
Averaged ERPs to emotional expressions recorded in the pre-SMA in the AG task in
VV. Vertical doted lines show the limits of the time window (150-450 ms) with
statistically different responses to happiness.
179
180
Figure 1
Front
181
182
Figure 2
183
184
c) Discussion complémentaire
Le même contact situé dans la pré-AMS gauche de cette patiente a permis
d’induire un rire et un sentiment de joie par stimulation électrique, et d’enregistrer des
réponses aux visages exprimant la joie après 150 ms. Cette méthode et ces résultats
représentent une opportunité unique de montrer que la même structure cérébrale est
impliquée dans les aspects moteurs d’une émotion et la détection de cette même
émotion sur le visage d’autrui.
L’imagerie fonctionnelle a montré que la pré-AMS peut-être impliquée dans le
traitement d’autres aspects du sentiment de joie. Ainsi, la vision d’onomatopées
évoquant le rire induit une augmentation de l’activité de cette aire (Osaka et al.,
2003). Les aspects moteurs du rire induisent également une hyperactivité de cette
région (Iwase et al., 2002). Il est remarquable de constater dans cette dernière étude
que la région impliquée correspond exactement à celle concernée dans notre étude.
Figure : Activation (bilatérale) de la pré-AMS par le rire volontaire sur une coupe
sagittale d’IRM (Iwase et al., 2002)
185
Figure : Représentation du contact (disque rouge) situé dans la pré-AMS gauche de
VV ayant recueilli les potentiels à la joie et dont la stimulation électrique a provoqué
le rire, sur une coupe sagittale d’IRM. Les disques verts représentent les autres
électrodes implantées dans la région. La ligne rouge représente la ligne AC-PC, la
ligne bleue représente VCA du système de coordonnées de l’atlas de Talairach.
Les réponses à la joie furent enregistrées dès 150 ms dans la pré-AMS
de la patiente VV. Si l’on considère la voie visuelle principale empruntant le lobe
occipital puis les régions temporales et pariétales, ce délai est court pour une
réponse visuelle obtenue dans le lobe frontal. Or nous savons que des réponses
neuronales aux expressions faciales émotionnelles peuvent être enregistrées dans le
cortex préfrontal ventro-médial de l’Homme dès 120 – 170 ms (Kawasaki et al.,
2001). Les réponses enregistrées dans cette dernière étude concernaient les stimuli
aversifs. Les réponses précoces à la joie enregistrées dans le lobe frontal pourraient
emprunter une voie différente comprenant la pré-AMS. La question de la
transmission rapide du message visuel, même sommaire, au lobe frontal reste
entière. L’ordre de grandeur des latences observées suggère fortement l’implication
d’une voie sous-corticale qui pourrait impliquer le thalamus, l’amygdale, alors que
des voies thalamo-pré-AMS, amygdalo-préfrontales et thalamo-amygdaliennes
existent chez le singe. Cette hypothèse est renforcée par le fait que les réponses à la
joie furent observées chez VV lors d’un traitement implicite du message émotionnel.
Une fois le message émotionnel détecté par les structures frontales, celle-ci
pourraient permettre une réaction motrice rapide, et exercer une influence de type
top-down sur les voie visuelles corticales permettant une analyse plus fine de
l’image.
186
Le déclenchement systématique d’un rire par la stimulation du cortex
préfrontal, dans une région très focale en avant de l’aire motrice supplémentaire, fut
observé par Fried et collaborateurs chez une patiente épileptique chez laquelle des
électrodes sous-durales avaient été mises en place dans le cadre d’un bilan
préchirurgical (Fried et al., 1998). Ces stimulations provoquaient en outre un
sentiment de joie et d’amusement très prononcé.
Figure : Vue antérieure des électrodes (en rouge) dont la stimulation a provoqué
systématiquement un rire et un sentiment d’amusement chez la patiente AK (Fried et
al., 1998)
Notre observation vient confirmer le fait que la stimulation de cette région peut
induire – systématiquement – un rire et un sentiment de joie que le patient intègre au
contexte. Nous ne disposons pas des coordonnées de Talairach de la région dont la
stimulation électrique provoquait le rire dans l’observation de Fried et collaborateurs,
mais les auteurs soutenaient l’idée que « cette région devait correspondre à la préAMS décrite récemment chez le le primate comme une une aire impliquée dans la
programmation motrice de haut niveau ».
Ainsi, la pré-AMS, impliquée dans le traitement de multiples aspects de la joie,
au moins perceptifs et moteurs, semble être déterminante pour la construction de ce
concept émotionnel.
187
188
Chapitre 5 : Discussion Générale
A. Quel(s) aspect(s) de la reconnaissance des expressions
faciales avons-nous exploré ?
1) Implication de la voie visuelle principale
Ces différents travaux ont permis de préciser la dynamique spatio-temporelle
du traitement cérébral des expressions faciales chez l’Homme. Une activité
spécifique de certaines expressions fut observée au niveau du scalp dans les
régions occipito-temporales, au niveau intracérébral, dans l’insula ventrale
antérieure, l’amygdale, le cortex occipito-temporal et le cortex orbito-frontal. Cette
activité sensible au type d’attention portée sur les visages subit une influence topdown. Ces réponses spécifiques furent toutes obtenues au sein du courant ventral
du traitement des stimuli visuels, depuis les aires visuelles occipitales jusqu’au cortex
orbito-frontal. L’étude des latences de ces réponses évoquées a montré qu’il existait
une hiérarchie temporelle dans le traitement de certaines expressions, et que les
aires corticales et limbiques participaient de façon soutenue et prolongée à la
reconnaissance du stimulus émotionnel.
Il est intéressant de confronter nos résultats à ceux d’une étude en imagerie
fonctionnelle dont le protocole est particulièrement comparable au notre. Anderson et
collaborateurs ont étudié le comportement des activités amygdaliennes et insulaires
liées à la détection de la peur et du dégoût sur les visages, lors de deux tâches
impliquant un traitement dit « explicite » (détection du genre) et « implicite »
(détection de bâtiments) des visages à travers des stimuli superposant bâtiments et
visages expressifs (Anderson et al., 2003).
189
Figure 29 : Stimuli utilisés par Anderson et collaborateurs (Anderson et al., 2003)
lors d’une première tâche impliquant les traitement explicite des visages, la deuxième
impliquant le traitement explicite des bâtiments.
Les réponses à la peur dans l’amygdale étaient comparables dans les deux
tâches. Lorsque l’attention était focalisée sur les visages, la réponse amygdalienne à
la peur était plus importante que la réponse au dégoût et aux visages neutres.
Lorsque le traitement des visages était plus implicite, les réponses au dégoût
augmentaient considérablement dans l’amygdale. Dans l’insula, les réponses au
dégoût étaient nettement augmentées par l’attention portée sur les visages, comme
celles du cortex visuel extra-strié pour les deux émotions.
Figure 30 : Activités amygdaliennes (a, b) et insulaires (c, d)liées aux différentes
expressions faciales lorsque le traitement des visages est plus explicite (rouge) ou
plus implicite (vert) (Anderson et al., 2003)
190
Ainsi, dans cette étude, les réponses amygdaliennes à la peur étaient peu
sensibles à la variation attentionnelle de type visage/non visage, mais les réponses
aux autres émotions (dégoût) augmentaient en traitement plus implicite. Ces stimuli
pourraient alors acquérir une valeur d’alerte plus importante en traitement implicite
qu’en traitement plus explicite. Dans notre étude, nous appelons traitement
« explicite » des expressions faciales, le traitement induit lors d’une tâche focalisant
l’attention sur le message émotionnel véhiculé par le visage, pas seulement une
attention plus globale sur le visage. La notion de traitement explicite ou implicite est
donc toute relative. Notre étude suggère que l’attention portée sur l’émotion
proprement dite induit une augmentation des réponses amygdaliennes à la peur, ou
du moins de certaines réponses amygdaliennes à la peur. Dans l’étude d’Anderson
comme dans la notre, les différences entre les réponses aux différents stimuli
émotionnels sont gommées lorsque le traitement est plus implicite. Les réponses que
nous avons enregistrées dans l’insula, le cortex visuel extra-strié et le cortex orbitofrontal bénéficient de la même influence de l’attention. Dans l’insula, comme dans le
cortex visuel extra-strié, plus l’attention est portée sur le visage et le message
émotionnel, plus les réponses aux expressions faciales sont importantes. Ainsi,
l’attention sélective renforcerait le poids de la voie corticale du traitement des stimuli
visuels émotionnels. Nous montrons en outre que les réponses amygdaliennes
enregistrées après 200 ms sont augmentées par l’attention sélective sur les
émotions. Ainsi, cette activité amygdalienne, subissant la même influence de
l’attention que l’activité corticale, pourrait être intimement liée à celle-ci. Elle pourrait
témoigner d’un engagement de l’amygdale dans le traitement fin des attributs faciaux
liés aux émotions, en particulier la peur. L’ordre de grandeur des latences
enregistrées est compatible avec une route corticale (non exclusive) gagnant
l’amygdale, qui pourrait, grâce à une modulation rétrograde, renforcer l’extraction des
caractères émotionnels du visage par le cortex extra-strié. L’étude réalisée par
Sugase et collaborateurs chez le singe confirme qu’au niveau cortical, les neurones
codent pour les informations fines concernant les visages (permettant par exemple
de traiter l’identité et l’expression) après les informations plus globales discriminant
visage et autre objet visuel (Sugase et al., 1999). Ainsi, au niveau cortical, le stimulus
émotionnel est traité après l’information visuelle plus globale concernant le visage.
Dans les enregistrements unitaires réalisés dans le cortex temporal externe du singe
et présentés ci-dessous, il est remarquable de constater à quel point les décharges
191
neuronales en réponses aux expressions aversives sont soutenues dans le temps,
après une première volée de potentiels d’action, plus intense et transitoire. La
ressemblance
entre
ces
enregistrements
unitaires
chez
le
singe
et
nos
enregistrements corticaux et amygdaliens chez l’Homme est saisissante.
Figure 31 : Réponses unitaires (spikes et densités de spikes) aux visages de singes
neutres (A), bouche arrondie (B), bouche grande ouverte (C) et bouche semiouverte (D), obtenues dans le cortex temporal externe de 4 macaques (1-4) (Sugase
et al., 1999)
192
Figure 32 : Sommes des réponses unitaires au traitement global des visages
permettant de catégoriser les visages de macaques, d’humain ou autres formes
(rouge), ou à un traitement plus fin portant sur l’identité ou l’expression du visage
(noir), de 32 neurones situés dans le cortex temporal du macaque. L’information
globale était traitée en moyenne 51 ms plus tôt que l’information concernant l’identité
ou l’expression (Sugase et al., 1999).
2) La voie sous-corticale thalamo-amygdalienne est-elle
impliquée ?
L’activité amygdalienne automatique, supposée rapide et indépendante de
l’attention, n’est pas mise en lumière dans nos études. En revanche, nous avons pu
mettre en évidence dans notre cinquième étude, dans la pré-AMS, une activité rapide
liée au traitement implicite de l’expressions fciale de joie. Depuis la découverte de la
vision aveugle ou blindsight (Weiskrantz, 1996) – vision résiduelle inconsciente dans
la partie aveugle du champ visuel après lésion du lobe occipital - nous savons que
l’analyse visuelle n’implique pas obligatoirement le cortex visuel strié. Cette analyse
visuelle sans cortex strié est pauvre, n’accède pas à la conscience, mais elle permet,
193
dans certaines conditions, de guider les réponses comportementales aux stimuli
visuels. Des réseaux sous-corticaux court-circuitant les aires visuelles striées doivent
ainsi permettre d’accéder à un traitement grossier, automatique, rapide de stimuli
visuels transitoires ou en mouvement, intéressant particulièrement la périphérie du
champ visuel. Un chemin semble partir de la rétine, gagner le pulvinar directement
ou via le colliculus supérieur, puis le cortex visuel extra-strié, où l’on peut enregistrer
des réponses neuronales aux stimuli visuels sans aucune afférence issue du cortex
strié (Rodman et al., 1989).
Les stimuli émotionnels aversifs (évoquant la peur ou la colère par exemple)
sont de bons candidats à un traitement rapide sous-cortical, n’accédant pas
forcément
à
la
conscience.
Souvent
en
mouvement,
ils
surviennent
préférentiellement dans la périphérie du champ visuel pour venir menacer
l’observateur. Une voie passant par le colliculus supérieur, le pulvinar pour aller vers
l’amygdale pourrait être particulièrement impliquée dans le traitement rapide, grossier
des stimuli visuels émotionnels nécessitant une réponse comportementale urgente.
Ce type d’organisation est connu pour le système auditif. En effet, chez le rat, la voie
thalamo-amygdalienne semble suffisante pour traiter les stimuli tonals conditionnant
la peur, alors que les stimuli complexes conditionnant également la peur doivent être
traités en partie par le cortex auditif (LeDoux, 1996). Pour les stimuli visuels, une voie
thalamo-amygdalienne a été décrite chez le singe. Elle emprunte le colliculus
supérieur qui projette via un faisceau ventral sur le pulvinar antérieur inféro-latéral
(Robinson and Petersen, 1992). Le pulvinar reçoit également des afférences directes
de la rétine (O'Brien et al., 2001). Il projette par voie monosynaptique sur l’amygdale,
également sur le cortex temporal, le cortex cingulaire postérieur et orbito-frontal
(Robinson and Petersen, 1992). Le colliculus supérieur et le pulvinar reçoivent
essentiellement des informations de type magnocellulaire (Lomber, 2002).
Qu’en est-il des stimuli agréables ou évoquant la joie ? N’est-il pas vrai que
lorsque vous croisez rapidement, en voiture par exemple, quelqu’un qui vous sourit,
vous avez tendance à lui renvoyer un sourire très spontané, avant de l’avoir vraiment
reconnu, d’avoir pu mettre un nom sur son visage ou de comprendre pourquoi il vous
souriait ? Nos résultats montrent que la pré-AMS, structure de plus en plus associée
au sentiment de joie dans la littérature, réagit très rapidement aux expressions
194
faciales de sourire, particulièrement lorsque le sujet n’est pas engagé dans une
tâche permettant de traiter explicitement le message émotionnel. Ce dernier est alors
dans les meilleures conditions pour être alerté par un message émotionnel fort,
contrastant avec le contexte. Des résultats surprenants d’études de potentiels
évoqués et d’enregistrements unitaires intra-cérébraux furent obtenus chez deux
patients épileptiques lors d’explorations préchirurgicales. Chez le premier patient,
des potentiels évoqués spécifiquement par les visages (versus objets) furent
enregistrés dans le sillon temporal inférieur droit autour de 120 ms, et dans le gyrus
frontal inférieur droit après 180 ms (Marinkovic et al., 2000). Il est difficile ici d’être
certain des sources de ces activités, qui sont observées sur de nombreux contacts
d’électrodes. Ce même patient ayant subi secondairement une résection du cortex
préfrontal droit présentait un déficit dans la reconnaissance de l’expression de peur
(Marinkovic et al., 2000). Chez un deuxième patient, des réponses unitaires aux
visages exprimant la peur (versus la joie) furent enregistrées dans le cortex préfrontal
ventro-medial droit après 120 - 170 ms (Kawasaki et al., 2001). Chez le singe, des
réponses aux visages ont été observées à différents endroits du cortex préfrontal
(Scalaidhe et al., 1999). Ainsi, le cortex préfrontal pourrait répondre, dans des
conditions très particulières, très rapidement aux visages et aux expressions faciales.
Les nombreuses connexions entre le cortex visuel temporal et le cortex préfrontal
(Seltzer and Pandya, 1989) fournissent l’entrée perceptive nécessaire au cortex
orbito-frontal pour la reconnaissance des expressions faciales, et corroborent
l’hypothèse d’un rétrocontrôle des structures préfrontales sur les aires visuelles
temporales impliquées dans la perception des expressions faciales. Les connexions
visuelles thalamo-pré-AMS existent chez le singe, leur implication dans le traitement
des stimuli émotionnels en particulier joyeux reste à démontrer (Inase et al., 1996).
Quel niveau de complexité peut analyser ce traitement visuel sous-cortical ? Il
est généralement considéré qu’un tel traitement ne peut encoder que des
caractéristiques grossières du stimulus comme sa localisation spatiale, la direction
de son mouvement et quelques informations spectrales (Stoerig and Cowey, 1989;
Cowey, 1996). Cependant, certaines études tendent à démontrer que ce traitement
peut être plus complexe. En effet, il semble que le phénomène de blindsight puisse
concerner les expressions faciales. Après lésion occipitale ou pariétale induisant un
scotome, la présentation d’un stimulus émotionnellement compétent dans la partie
195
aveugle ou négligée du champ visuel est détectée (de Gelder et al., 1999;
Vuilleumier et al., 2001; Vuilleumier and Schwartz, 2001a, b). Cela n’implique pas la
conscience, si bien que l’on ne parle pas ici de « reconnaissance ». La présentation
subliminale d’expressions faciales associées préalablement à un stimulus repoussant
induit une coactivation du colliculus supérieur, du pulvinar et de l’amygdale, chez des
sujets normaux (Morris et al., 1999) et lors de la présentation dans l’hémichamp
aveugle de patients cérébrolésés (Morris et al., 2001). Le traitement de la peur
présentée de façon subliminale implique particulièrement l’amygdale (Whalen et al.,
1998). Il a même été montré que les stimuli visuels émotionnels subliminaux
influencent l’humeur de l’observateur (Monahan et al., 2000). Ainsi, un traitement
suffisant pour discriminer les expressions faciales semble impliquer en grande partie
les structures visuelles sous-corticales.
Figure 33 : Lésion du patient GY atteint d’une lésion du cortex strié gauche,
responsable d’une hémianopsie latérale homonyme, chez lequel une phénomène de
vision aveugle est observé pour les expressions faciales (Morris et al., 2001).
196
a-
b-
cFigure 34 : a- Activation du colliculus par les visages exprimant la peur
préalablement associés à un bruit effrayant (« conditionnés ») versus des visages
exprimant la peur, mais « non conditionnés » ; activation bilatérale du pulvinar (b) et
de l’amygdale (c) par les visages exprimant la peur (versus la joie) présentés dans
l’hémichamp aveugle chez GY. (Morris et al., 2001).
Le Doux suggère que le système de reconnaissance des messages aversifs
comprend des réseaux parallèles conduisant à l’amygdale provenant d’une part du
thalamus, d’autre part du cortex sensoriel (LeDoux, 2000), ce qu’il appelle
respectivement la route d’en bas et la route d’en haut. La route d’en bas construirait
une représentation grossière du stimulus aversif, permettant une réaction rapide
d’évitement, alors que la route d’en haut permettrait de préciser les caractéristiques
physiques et la nature du stimulus avant d’atteindre l’amygdale.
L’ensemble de ces données va dans le sens d’un traitement relativement
automatique des expressions faciales par l’amygdale, modulé par les structures
préfrontales en fonction du contexte (Amaral et al., 2003b). Ce schéma est renforcé
par des études de lésions chez l’animal et des études d’imagerie fonctionnelle
récentes chez l’Homme. Les modifications électrophysiologiques conditionnées dans
l’amygdale peuvent être inhibées par la stimulation électrique du cortex préfrontal
197
médian (Zbrozyna and Westwood, 1991), un effet possiblement véhiculé par
l’influence
modulatrice
amygdaliens
contrôlant
des
projections
les
messages
préfrontales
sensoriels
sur
arrivant
les
interneurones
dans
la
région
amygdalienne basolatérale (Rosenkranz and Grace, 2001; Rosenkranz et al., 2003).
L’imagerie fonctionnelle a montré que l’activité amygdalienne en réaction aux
expressions faciales était moindre lorsque le sujet était engagé dans une activité
cognitive intense, la déactivation amygdalienne alors observée étant corrélée à une
activation préfrontale droite (Hariri et al., 2000). L’activité amygdalienne est plus
importante lorsque la tâche n’implique pas directement les expressions faciales, mais
un autre caractère facial comme le genre (Critchley et al., 2000). En revanche, le
traitement explicite des émotions active plus les structures préfrontale ventromédianes que le traitement implicite (Nakamura et al., 1999; Narumoto et al., 2000).
3) Deux voies visuelles, deux amies, deux rivales !
Du fait de la faible résolution temporelle de l’imagerie fonctionnelle, les deux
types d’activités décrites ci-dessus en relation avec la détection et la reconnaissance
des expressions faciales pourraient être confondues dans ce type d’étude. Ainsi, le
poids de chaque voie 1- sous-corticale 2- corticale – pourrait varier selon la tâche,
les stratégies utilisées par le sujet, le type de stimulus et la présence d’éventuelles
lésions. L’influence du type d’attention dépendrait alors de l’ensemble de ces
conditions. Dans notre étude, le type de stimulus (visages statiques présentés de
façon supraliminaire) et l’attention systématiquement portée sur les visages, ont pu
augmenter le poids fonctionnel de la voie corticale impliquée dans le traitement fin
des visages et des émotions. Or certaines connexions cortico-amygdaliennes comme
celles issues du cortex préfrontal semblent avoir un rôle inhibiteur (Stefanacci and
Amaral, 2000), et dans certaines circonstances sociales,
l’activité amygdalienne
serait modulée par des activités corticales (Phelps et al., 2001; Ochsner et al., 2002).
Emery et Amaral (Emery et al., 2001) ont souligné les liens anatomiques et
fonctionnels étroits entre le cortex orbito-frontal et l’amygdale, et ils proposent un rôle
du cortex orbito-frontal dans la modulation contextuelle de l’activité amygdalienne
lors du traitement des signaux à caractère social (Quirk et al., 2000; Jackson and
Moghaddam, 2001; Kalin et al., 2001). Il est possible que l’activité corticale
198
prédominante lorsque le traitement des stimuli émotionnels est supposé plus explicite
et l’expertise plus importante inhibe les activités amygdaliennes en relation avec le
réseau sous-cortical impliqué dans l’alerte. Ces dernières seraient libérées dans des
circonstances particulières comme les lésions corticales (Morris et al., 2001),
l’utilisation de stimuli subliminaux (Whalen et al., 1998) et l’inattention (Vuilleumier et
al., 2002), volontiers associés à une réaction amygdalienne.
Ainsi, l’amygdale peut être engagée à deux niveaux et donc à deux moments
différents du traitement des expressions faciales voire de stimuli visuels émotionnels
en général :
1-
précocement et directement par une voie automatique thalamoamygdalienne, particulièrement engagée dans certaines conditions bien
spécifiques. Sa fonction principale serait ici l’alerte et le déclenchement
d’une cascade de modifications corporelles neuro-hormonales et
cognitives permettant l’éviction rapide du danger.
2-
plus tardivement (après les premières réponses corticales aux visages)
par une voie corticale permettant l’analyse experte du message
émotionnel. Elle opérerait ici grâce à une neuromodulation rétrograde
permettant d’extraire les paramètres nécessaires à l’interprétation du
message émotionnel véhiculé par le visage. Dans notre série d’études,
nous avons certainement exploré la dynamique spatiotemporelle de cet
aspect du traitement des émotions.
Bien entendu, il est probable, mais cela doit être démontré, que l’activité
amygdalienne de type 1- dépendante du réseau sous-cortical, influence et augmente
les performances de son activité de type 2- intégrée au traitement cortical.
Les premiers indices concernant le rôle de la pré-AMS dans la détection et
peut-être la reconnaissance des stimuli joyeux soulignent une fonction automatique,
rapide, dont le substrat anatomique précis reste à découvrir.
199
B. Vers un modèle de la reconnaissance des expressions
faciales
1) Le modèle de Ralph Adolphs (Adolphs, 2002)
Le modèle fonctionnel de Bruce et Young (Bruce and Young, 1986) et le
modèle neuroanatomique de Haxby et collaborateurs (Haxby et al., 2000) émettent
l’hypothèse de l’existence de différents réseaux neuronaux impliqués dans la
reconnaissance de l’identité et l’expression d’un visage. Ces deux modèles débutent
par les étapes perceptives, pour arriver progressivement vers la connaissance
conceptuelle des principaux attributs faciaux.
Plusieurs
structures
visuelles
sous-corticales
et
corticales
occipitales
réagissent à la perception d’un visage. Les structures sous-corticales incluant le
colliculus supérieur et le pulvinar pourraient être spécialisées dans le traitement très
rapide, sommaire et automatique des stimuli visuels, en particulier de leurs attributs
transitoires ou dynamiques, comme les mouvements faciaux. Le message serait
transmis grâce à une voie visuelle thalamo-amygdalienne. Les structures corticales
impliquées précocement dans le traitement des stimuli émotionnels incluraient bien
sûr V1, V2 et autres structures voisines comme V3 et V4, dont les voies afférentes
principales seraient issues du corps genouillé latéral. Ce traitement précoce serait
spécialisé dans l’analyse des stimuli les plus saillants, comme les expressions
faciales aversives telles la peur et la colère. Ce premier traitement serait automatique
et obligatoire.
Une fois l’analyse sommaire des caractéristiques des visages assurée par
structures visuelles de bas niveau, des régions plus antérieures incluant le cortex
visuel associatif, construiraient une représentation perceptive plus détaillée
dépendant d’avantage des caractéristiques configurationnelles du visage. Une
information plus explicite concernant les expressions pourrait se construire,
engageant vraisemblablement les deux courants visuels corticaux, ventral et dorsal.
Ce type de stimulus contenant, lorsqu’il est écologique, des informations
dynamiques, les aires temporales moyennes et supérieures ainsi que le cortex
pariétal postérieur permettraient d’encoder les informations liées aux mouvements
200
intrinsèques du visage. Le gyrus temporal supérieur pourrait ainsi élaborer des
représentations concernant les mouvements des lèvres, la direction du regard et les
expressions faciales. Le cortex temporal postérieur et fusiforme, après les premières
analyses réalisées au sein de V1-V2 et V3, aurait construit une représentation
structurale détaillée du visage aux environs de 170 ms après le début du stimulus.
Les informations concernant le mouvement pourraient être associées, dans le lobe
temporal, aux renseignements issus des analyses statiques conduites au sein du
courant ventral occipito-temporal.
Des influences de type top-down pourraient intervenir à différents niveaux du
traitement visuel, c'est-à-dire sur différentes structures et à différents moments.
L’activité liée au traitement rapide des cellules M pourrait secondairement moduler
l’activité liée aux cellules P. Un telle neuromodulation rétrograde pourrait être en
partie assurée par l’amygdale. Les mêmes structures pourraient participer à la fois à
des analyses perceptives précoces et aux étapes plus tardives de reconnaissance,
ceci de façon concomitante. Dans une scène naturelle, le contexte pourrait moduler à
chaque instant l’analyse des stimuli visuels.
Les structures précitées rempliraient différentes fonctions. L’amygdale et le
cortex orbito-frontal pourraient faire le lien entre les représentations perceptives des
expressions faciales et la connaissance conceptuelle de l’émotion grâce à trois
grandes stratégies : a) par une influence top-down sur le cortex visuel temporal et
occipital modulant l’évolution de la construction de la représentation perceptive du
visage. Ce mécanisme constituerait l’essentiel de ce qui conduit à amplifier l’attention
sélective sur certains des paramètres faciaux, augmenter les performances de
l’extraction de ces paramètres et préciser l’expression émotionnelle b) via des
connexions vers diverses régions corticales et l’hippocampe permettant de comparer
l’information perceptive à la connaissance des stimuli émotionnels préalablement
acquise. Ce mécanisme permettrait essentiellement de retrouver la connaissance
conceptuelle de chaque émotion c) par des connexions avec les structures motrices,
l’hypothalamus, les noyaux du tronc cérébral, qui peuvent déclencher les
conséquences corporelles illustrant une réaction émotionnelle propre. Ce mécanisme
pourrait contribuer à la reconnaissance de l’état émotionnel d’autrui par la simulation.
201
Les structures motrices, en particulier les noyaux gris centraux et l’opercule
frontal gauche, pourraient renforcer ce processus par différents moyens : d’abord, la
simulation qui génère des programmes moteurs en réaction à la détection
d’expressions faciales, ensuite, par le langage avec une implication particulière de
l’opercule frontal gauche.
Le cortex somato-sensoriel de l’hémisphère droit pourrait participer à la
représentation des états du corps définissant un état émotionnel. Il serait utile à la
construction
de
la
reconnaissance
de
l’émotion
via
la
simulation,
ceci
indépendamment du fait qu’il existe une réaction émotionnelle propre au stimulus.
La reconnaissance d’une émotion chez autrui n’est pas un phénomène
monolithique. Cette analyse est constituée de multiples éléments dépendants de
stratégies individuelles, de la tâche expérimentale et du contexte.
202
Figure 35 : Illustration du modèle proposé par Ralph Adolphs. Dans la colonne (a)
sont illustrées les différentes étapes de la reconnaissances des expressions faciales
dont la chronologie est annoncée dans la colonne (b).
SCx : Striate cortex, T : Thalamus, A : Amygdale, O : Orbito-frontal, STG : Superior
Temporal Gyrus, FFA: Fusiform Face Area, INS: Insula, SS: Somato-Sensitive cortex
(Adolphs, 2002)
203
2) Commentaires
Ce modèle remarquable souligne la complexité des mécanismes de
reconnaissances des stimuli émotionnels, en particulier des expressions faciales. Il
insiste sur l’implication d’une voie corticale alimentée par les connexions thalamostriées, et d’une voie sous-corticale plus rapide empruntant les connexions thalamoamygdaliennes. Il insiste également sur l’engagement des principales structures à
différents moments du processus de reconnaissance, et souligne les influences
bottom-up et top-down multiples.
Nos résultats sont compatibles avec ce modèle. Les enregistrements de scalp
et intra-cérébraux ont montré que les structures visuelles occipito-temporales,
temporales antérieures et orbito-frontales étaient impliquées da façon extrêmement
prolongée dans le reconnaissance des expressions faciales. A défaut de pouvoir
affirmer des coopérations multiples aussi soutenues, nous montrons que ces aires
corticales traitent ce type d’information de façon tardive, alors que l’activité
amygdalienne et orbito-frontale dépendant de l’attention sélective est encore
présente, et que les premières informations perceptives ont été traitées. Nos travaux
permettent d’apporter quelques précisions. Ils démontrent que les activités
amygdaliennes liées à la reconnaissance des émotions et survenant après 200 ms
sont extrêmement sensibles à la tâche. Il serait intéressant de faire figurer dans ce
modèle la réaction précoce de la pré-AMS aux stimuli joyeux et les implications
tardives (après 300 ms) entre le cortex orbito-frontal, l’amygdale et les aires visuelles
corticales, pour illustrer l’influence de la tâche et du contexte sur l’activité de ces
différentes structures, et ainsi sur les différentes étapes de la reconnaissance des
expressions.
Le deuxième élément apporté par nos résultats réside dans l’hypothèse d’une
certaine hiérarchie temporelle influençant le traitement cérébral de certains stimuli
émotionnels. Il ne semble pas que le dégoût soit traité à la même vitesse que
d’autres stimuli plus saillants tels la peur et même la joie. En effet, l’amygdale et
l’AMS réagissent à la peur et à la joie bien avant, respectivement 100 ms et 150 ms,
avant l’insula qui réagit préférentiellement au dégoût après 300 ms. Ce délai est très
important car il intervient dans le traitement neuronal de stimuli représentés par les
204
mêmes visages, dans les mêmes conditions expérimentales, ne différent que par leur
contenu émotionnel. Les conclusions en terme d’évolution et de bénéfice pour la
survie de l’espèce paraissent évidentes pour ce qui concerne les stimuli aversifs et
saillants comme la peur. La détection d’une émotion positive, liée à la notion de
plaisir, également indispensable à l’équilibre et la survie des espèces, pourrait même
être rapide. Bien entendu, l’existence de cette hiérarchie temporelle devrait être
recherchée plus systématiquement avec d’autres types de stimuli émotionnels avant
d’être affirmée.
Un telle hiérarchie temporelle pourrait être sous-tendue par un premier train
d’information, rapide, plutôt de type magnocellulaire, qui pourrait, après avoir alerté
et déclenché différents mécanismes attentionnels sélectifs, permettre d’extraire plus
rapidement et plus efficacement les paramètres structuraux précisant la nature du
stimulus émotionnel. Cette toute première information est-elle transmise par une voie
sous-corticale rapide, ou empreinte-t-elle la voie visuelle corticale principale ? Le
modèle d’Adolphs est en faveur de la première hypothèse. Nos enregistrements
intracrâniens n’ont pas mis en évidence d’activité amygdalienne ultra précoce (avant
100 ms), peut-être en partie parce que cette structure est particulièrement sensible à
l’épilepsie. Les réponses à l’expression de peur survenaient après 200 ms, ce qui est
compatible avec une transmission corticale du message visuel vers l’amygdale. La
sensibilité au type d’attention nous oriente encore vers l’implication de cette voie
cortico-amygdalienne, pour ce qui concerne l’activité enregistrée dans notre étude.
Cette activité pourrait être rapprochée de l’analyse structurale fine présentée par
Adolphs, permettant d’extraire au mieux les paramètres visuels confirmant le type
d’émotion exprimée par le visage. Nos résultats indiquent que, dans ce type d’activité
dépendant du cortex occipito-temporal, l’amygdale et le cortex orbito-frontal sont
impliqués, durant des périodes en partie communes avec les structures visuelles
extra-striées.
Notre protocole n’a pas été particulièrement construit pour mettre en évidence
les activités sous-corticales, automatiques, supposées rapides, liées à la détection
des messages émotionnels. Nous avons en effet utilisé des images statiques, à
hautes fréquences spatiales, présentées dans le champ visuel central. Ces stimuli ne
sont pas adaptés à la voie magnocellulaire majoritaire au niveau du thalamus. Des
205
visages en mouvement exprimant des émotions de façon dynamique et présentés en
périphérie seraient plus adaptés aux propriétés de cette voie sous-corticale.
L’absence d’activités sous-corticales rapides dans nos enregistrements ne constitue
pas une preuve de leur inexistence. Néanmoins, ce type d’activité n’a pas été
démontré directement chez l’Homme. Seuls des arguments indirects sont disponibles
dans la littérature, utilisant des stimuli subliminaux ou des patients avec lésions de la
voie visuelle corticale. Il n’est pas démontré que cette voie thalamo-amygdalienne
soit active en situation écologique de détection d’un message émotionnel visuel
(supraliminaire) chez un sujet normal, sans lésion corticale. Vuilleumier et
collaborateurs ont élégamment montré que cette voie était préférentiellement
impliquée dans le traitement des stimuli à basse fréquence spatiale, mais là encore,
les stimuli utilisés étaient peu écologiques (Vuilleumier et al., 2003).
C. Perspectives
Ces résultats électrophysiologiques nous ont renseignés en partie sur la
chronologie
d’activation
des
principales
structures
impliquées
dans
la
reconnaissance des expressions faciales. Cependant, de nombreuses questions
demeurent.
Peut-on préciser les moments d’interaction et de coopération des différents
éléments composant le vaste réseau traitant ce type de stimulus ? Nous savons
maintenant que ce traitement neuronal est extrêmement dispersé dans le temps et
dans l’espace. Comment déterminer les couplages fonctionnels indispensables à la
construction perceptive et la reconnaissance ? L’étude des synchronies en analyses
temps-fréquence pourrait être un outil majeur dans cette quête. Ce type d’approche a
montré que l’on pouvait ainsi objectiver les coopérations fonctionnelles entre
plusieurs groupes neuronaux pour l’instant au sein d’une région relativement focale
comme la région visuelle occipitale (Tallon-Baudry and Bertrand, 1999). Il sera à
l’avenir intéressant de rechercher ce type d’interaction fonctionnelle entre les aires
visuelles extra-striées d’une part, et les structures limbiques et paralimbiques d’autre
part, aux étapes précoces et tardives du traitement.
Il apparaît également important de préciser le poids de la voie thalamoamygdalienne dans l’analyse des stimuli émotionnels visuels en situation plus
206
écologique que ce qui a été exploré pour l’instant. Cela implique l’utilisation de stimuli
émotionnels plus adaptés au système magnocellulaire, tout en restant le plus
écologique possible. Le rôle de cette voie serait alors étudié dans une population
saine, en dehors de toute lésion corticale visuelle, pouvant induire une réorganisation
fonctionnelle compensatrice. Il serait alors déterminant d’analyser les signaux issus
de cette activité par différentes méthodes associant hautes résolutions spatiales et
temporelles. Les mêmes protocoles (ou des protocoles voisins) pourraient être
utilisés en IRMf, SEEG et MEG.
Enfin, il est crucial d’explorer cette fonction, la reconnaissance des émotions
chez les autres, en particulier celle des expressions faciales, chez les patients
présentant une altération potentielle de ce vaste réseau. Une évaluation plus précise
des mécanismes en cause dans les troubles du comportement, de communication et
des rapports sociaux, observés chez certains patients atteints de lésions temporales,
surtout droites, est une étape importante. Les conséquences, jugées hâtivement
subtiles parfois, de tels troubles sur la vie quotidienne de ces patients sont
certainement méconnues et sous-évaluées. De sérieux indices orientent également
vers une altération des processus de reconnaissance des messages sociaux dont les
émotions dans certaines pathologies psychiatriques, comme les psychoses de
l’enfant et de l’adulte, la dépression. Une meilleure compréhension des mécanismes
intimes de ce type d’altération pourrait être importante dans l’accompagnement et les
traitements de ce type de pathologie.
207
Conclusion
La reconnaissance des expressions faciales implique de vases réseaux
neuronaux différents selon le message émotionnel. Le traitement perceptif
principalement effectué par les aires visuelles extra-striées, en particulier le cortex
temporal externe (complexe STS-MTG), est étroitement intriqué avec les systèmes
de reconnaissance des concepts émotionnels, dépendant du contexte social ou du
cadre expérimental. L’amygdale, l’insula et le cortex orbito-frontal pourraient
permettre d’établir un lien puissant entre les systèmes perceptifs et les réseaux à
l’origine des corrélats neuroendocrines permettant d’illustrer et d’interpréter nos
propres émotions.
Nos résultats montrent que ces traitements sont également distribués dans le
temps. Les premiers corrélats électrophysiologiques du traitement des expressions
faciales différant selon le message émotionnel apparaissent dès 150 à 200 ms dans
l’AMS et l’amygdale, et après 300 ms dans l’insula ventrale antérieure. Cela suggère
une hiérarchie temporelle dans le traitement des stimuli à caractère émotionnel,
hiérarchie intégrée à l’évolution et certainement bénéfique pour la survie de l’espèce.
Ces activités spécifiques sont ensuite enregistrées pendant plusieurs centaines de
millisecondes dans le réseau cortical occipito-temporo-frontal appartenant au
système ventral de reconnaissance visuelle.
Ainsi, les structures sous-corticales et corticales impliquées dans la perception
et la reconnaissance des expressions faciales opèrent de concert après 300 ms, les
réponses enregistrées dépendant fortement de l’attention. Il est probable que ces
activités distribuées dans le temps et l’espace soient le reflet d’une coopération entre
les structures limbiques/paralimbiques et les aires corticales postérieures visant à
optimiser l’extraction des informations visuelles permettant de reconnaître la nature
précise du message émotionnel.
208
Références
209
Adolphs R (1999) Social cognition and the human brain. Trends Cogn Sci 3:469-479.
Adolphs R (2002) Neural systems for recognizing emotion. Curr Opin Neurobiol 12:169-177.
Adolphs R, Tranel D (1999) Intact recognition of emotional prosody following amygdala
damage. Neuropsychologia 37:1285-1292.
Adolphs R, Tranel D (2003) Amygdala damage impairs emotion recognition from scenes only
when they contain facial expressions. Neuropsychologia 41:1281-1289.
Adolphs R, Tranel D, Damasio AR (1998a) The human amygdala in social judgment. Nature
393:470-474.
Adolphs R, Schul R, Tranel D (1998b) Intact recognition of facial emotion in Parkinson's
disease. Neuropsychology 12:253-258.
Adolphs R, Tranel D, Denburg N (2000a) Impaired emotional declarative memory following
unilateral amygdala damage. Learn Mem 7:180-186.
Adolphs R, Sears L, Piven J (2001a) Abnormal processing of social information from faces in
autism. J Cogn Neurosci 13:232-240.
Adolphs R, Jansari A, Tranel D (2001b) Hemispheric perception of emotional valence from
facial expressions. Neuropsychology 15:516-524.
Adolphs R, Tranel D, Damasio H (2001c) Emotion recognition from faces and prosody
following temporal lobectomy. Neuropsychology 15:396-404.
Adolphs R, Tranel D, Damasio AR (2003) Dissociable neural systems for recognizing
emotions. Brain Cogn 52:61-69.
Adolphs R, Tranel D, Damasio H, Damasio A (1994) Impaired recognition of emotion in
facial expressions following bilateral damage to the human amygdala. Nature
372:669-672.
Adolphs R, Tranel D, Damasio H, Damasio AR (1995) Fear and the human amygdala. J
Neurosci 15:5879-5891.
Adolphs R, Damasio H, Tranel D, Damasio AR (1996) Cortical systems for the recognition of
emotion in facial expressions. J Neurosci 16:7678-7687.
Adolphs R, Cahill L, Schul R, Babinsky R (1997) Impaired declarative memory for emotional
material following bilateral amygdala damage in humans. Learn Mem 4:291-300.
Adolphs R, Damasio H, Tranel D, Cooper G, Damasio AR (2000b) A role for somatosensory
cortices in the visual recognition of emotion as revealed by three-dimensional lesion
mapping. J Neurosci 20:2683-2690.
Adolphs R, Tranel D, Hamann S, Young AW, Calder AJ, Phelps EA, Anderson A, Lee GP,
Damasio AR (1999) Recognition of facial emotion in nine individuals with bilateral
amygdala damage. Neuropsychologia 37:1111-1117.
Aggleton JP (1993) The contribution of the amygdala to normal and abnormal emotional
states. Trends Neurosci 16:328-333.
Aguirre GK, Zarahn E, D'Esposito M (1998) An area within human ventral cortex sensitive to
"building" stimuli: evidence and implications. Neuron 21:373-383.
Aharon I, Etcoff N, Ariely D, Chabris CF, O'Connor E, Breiter HC (2001) Beautiful faces
have variable reward value: fMRI and behavioral evidence. Neuron 32:537-551.
Allison T, Puce A, McCarthy G (2000) Social perception from visual cues: role of the STS
region. Trends Cogn Sci 4:267-278.
Allison T, Puce A, Spencer DD, McCarthy G (1999) Electrophysiological studies of human
face perception. I: Potentials generated in occipitotemporal cortex by face and nonface stimuli. Cereb Cortex 9:415-430.
Allison T, Ginter H, McCarthy G, Nobre AC, Puce A, Luby M, Spencer DD (1994) Face
recognition in human extrastriate cortex. J Neurophysiol 71:821-825.
210
Amaral DG, Behniea H, Kelly JL (2003a) Topographic organization of projections from the
amygdala to the visual cortex in the macaque monkey. Neuroscience 118:1099-1120.
Amaral DG, Bauman MD, Capitanio JP, Lavenex P, Mason WA, Mauldin-Jourdain ML,
Mendoza SP (2003b) The amygdala: is it an essential component of the neural
network for social cognition? Neuropsychologia 41:517-522.
Anderson AK, Phelps EA (2000a) Expression without recognition: contributions of the
human amygdala to emotional communication. Psychol Sci 11:106-111.
Anderson AK, Phelps EA (2000b) Perceiving emotion: There's more than meets the eye. Curr
Biol 10:R551-554.
Anderson AK, Phelps EA (2001) Lesions of the human amygdala impair enhanced perception
of emotionally salient events. Nature 411:305-309.
Anderson AK, Spencer DD, Fulbright RK, Phelps EA (2000a) Contribution of the
anteromedial temporal lobes to the evaluation of facial emotion. Neuropsychology
14:526-536.
Anderson AK, Christoff K, Panitz D, De Rosa E, Gabrieli JD (2003) Neural correlates of the
automatic processing of threat facial signals. J Neurosci 23:5627-5633.
Anderson SW, Damasio H, Tranel D, Damasio AR (2000b) Long-term sequelae of prefrontal
cortex damage acquired in early childhood. Dev Neuropsychol 18:281-296.
Anderson SW, Bechara A, Damasio H, Tranel D, Damasio AR (1999) Impairment of social
and moral behavior related to early damage in human prefrontal cortex. Nat Neurosci
2:1032-1037.
Arroyo S, Lesser RP, Gordon B, Uematsu S, Hart J, Schwerdt P, Andreasson K, Fisher RS
(1993) Mirth, laughter and gelastic seizures. Brain 116 ( Pt 4):757-780.
Ashford JW, Fuster JM (1985) Occipital and inferotemporal responses to visual signals in the
monkey. Exp Neurol 90:444-466.
Baizer JS, Ungerleider LG, Desimone R (1991) Organization of visual inputs to the inferior
temporal and posterior parietal cortex in macaques. J Neurosci 11:168-190.
Baleydier C, Achache P, Froment JC (1997) Neurofilament architecture of superior and
mesial premotor cortex in the human brain. Neuroreport 8:1691-1696.
Batty M, Taylor MJ (2003) Early processing of the six basic facial emotional expressions.
Brain Res Cogn Brain Res 17:613-620.
Baudouin JY, Gilibert D, Sansone S, Tiberghien G (2000) When the smile is a cue to
familiarity. Memory 8:285-292.
Bechara A, Damasio AR, Damasio H, Anderson SW (1994) Insensitivity to future
consequences following damage to human prefrontal cortex. Cognition 50:7-15.
Bechara A, Tranel D, Damasio H, Damasio AR (1996) Failure to respond autonomically to
anticipated future outcomes following damage to prefrontal cortex. Cereb Cortex
6:215-225.
Bechara A, Damasio H, Tranel D, Damasio AR (1997) Deciding advantageously before
knowing the advantageous strategy. Science 275:1293-1295.
Bejjani BP, Damier P, Arnulf I, Thivard L, Bonnet AM, Dormont D, Cornu P, Pidoux B,
Samson Y, Agid Y (1999) Transient acute depression induced by high-frequency
deep-brain stimulation. N Engl J Med 340:1476-1480.
Bentin S, Carmel D (2002) Accounts for the N170 face-effect: a reply to Rossion, Curran, &
Gauthier. Cognition 85:197-202.
Bentin S, Deouell LY, Soroker N (1999) Selective visual streaming in face recognition:
evidence from developmental prosopagnosia. Neuroreport 10:823-827.
Bentin S, Allison T, Puce A, Perez E, McCarthy G (1996) Electrophysiological studies of face
perception in humans. J Cogn Neurosci 8:551-565.
211
Benton AL, Hamsher K, Varney NR, Spreen O (1983) Contributions to neuropsychological
assessment. New-York: Oxford University Press.
Berendse HW, Galis-de Graaf Y, Groenewegen HJ (1992) Topographical organization and
relationship with ventral striatal compartments of prefrontal corticostriatal projections
in the rat. J Comp Neurol 316:314-347.
Bernstein LJ, Beig S, Siegenthaler AL, Grady CL (2002) The effect of encoding strategy on
the neural correlates of memory for faces. Neuropsychologia 40:86-98.
Blair RJ (1995) A cognitive developmental approach to mortality: investigating the
psychopath. Cognition 57:1-29.
Blair RJ, Cipolotti L (2000) Impaired social response reversal. A case of 'acquired
sociopathy'. Brain 123 ( Pt 6):1122-1141.
Blair RJ, Morris JS, Frith CD, Perrett DI, Dolan RJ (1999) Dissociable neural responses to
facial expressions of sadness and anger. Brain 122 ( Pt 5):883-893.
Blonder LX, Gur RE, Gur RC (1989) The effects of right and left hemiparkinsonism on
prosody. Brain Lang 36:193-207.
Bodamer J (1947) Die prop-agnosie. Archiv für Psychiatrie une Nervenkrankheiten 179:6-53.
Borod JC, Koff E, Perlman Lorch M, Nicholas M (1986) The expression and perception of
facial emotion in brain-damaged patients. Neuropsychologia 24:169-180.
Borod JC, Cicero BA, Obler LK, Welkowitz J, Erhan HM, Santschi C, Grunwald IS, Agosti
RM, Whalen JR (1998) Right hemisphere emotional perception: evidence across
multiple channels. Neuropsychology 12:446-458.
Botzel K, Grusser OJ (1989) Electric brain potentials evoked by pictures of faces and nonfaces: a search for "face-specific" EEG-potentials. Exp Brain Res 77:349-360.
Boucsein K, Weniger G, Mursch K, Steinhoff BJ, Irle E (2001) Amygdala lesion in temporal
lobe epilepsy subjects impairs associative learning of emotional facial expressions.
Neuropsychologia 39:231-236.
Bowers D, Heilman KM (1984) Dissociation between the processing of affective and
nonaffective faces: a case study. J Clin Neuropsychol 6:367-379.
Breiter HC, Etcoff NL, Whalen PJ, Kennedy WA, Rauch SL, Buckner RL, Strauss MM,
Hyman SE, Rosen BR (1996) Response and habituation of the human amygdala
during visual processing of facial expression. Neuron 17:875-887.
Broks P, Young AW, Maratos EJ, Coffey PJ, Calder AJ, Isaac CL, Mayes AR, Hodges JR,
Montaldi D, Cezayirli E, Roberts N, Hadley D (1998) Face processing impairments
after encephalitis: amygdala damage and recognition of fear. Neuropsychologia 36:5970.
Brothers L, Ring B, Kling A (1990) Response of neurons in the macaque amygdala to
complex social stimuli. Behav Brain Res 41:199-213.
Bruce V (1982) Changing faces: visual and non-visual coding processes in face recognition.
Br J Psychol 73:105-116.
Bruce V, Young A (1986) Understanding face recognition. Br J Psychol 77 ( Pt 3):305-327.
Buccino G, Binkofski F, Fink GR, Fadiga L, Fogassi L, Gallese V, Seitz RJ, Zilles K,
Rizzolatti G, Freund HJ (2001) Action observation activates premotor and parietal
areas in a somatotopic manner: an fMRI study. Eur J Neurosci 13:400-404.
Burt DM, Perrett DI (1997) Perceptual asymmetries in judgements of facial attractiveness,
age, gender, speech and expression. Neuropsychologia 35:685-693.
Calder AJ, Young AW, Rowland D, Perrett DI (1997) Computer-enhanced emotion in facial
expressions. Proc R Soc Lond B Biol Sci 264:919-925.
Calder AJ, Young AW, Keane J, Dean M (2000a) Configural information in facial expression
perception. J Exp Psychol Hum Percept Perform 26:527-551.
212
Calder AJ, Keane J, Manes F, Antoun N, Young AW (2000b) Impaired recognition and
experience of disgust following brain injury. Nat Neurosci 3:1077-1078.
Calder AJ, Keane J, Cole AJ, Campbell R, Young A (2000c) Facial expression recognition by
people with moebius syndrome. Cognitive neuropsychology 17:73-87.
Calder AJ, Burton AM, Miller P, Young AW, Akamatsu S (2001) A principal component
analysis of facial expressions. Vision Res 41:1179-1208.
Cancelliere AE, Kertesz A (1990) Lesion localization in acquired deficits of emotional
expression and comprehension. Brain Cogn 13:133-147.
Canli T, Desmond JE, Zhao Z, Glover G, Gabrieli JD (1998) Hemispheric asymmetry for
emotional stimuli detected with fMRI. Neuroreport 9:3233-3239.
Carretie L, Iglesias J (1995) An ERP study on the specificity of facial expression processing.
Int J Psychophysiol 19:183-192.
Case R (1992) The role of the frontal lobes in the regulation of cognitive development. Brain
Cogn 20:51-73.
Cerrato P, Imperiale D, Bergui M, Giraudo M, Baima C, Grasso M, Lentini A, Bergamasco B
(2003) Emotional facial paresis in a patient with a lateral medullary infarction.
Neurology 60:723-724.
Christman SD, Hackworth MD (1993) Equivalent perceptual asymmetries for free viewing of
positive and negative emotional expressions in chimeric faces. Neuropsychologia
31:621-624.
Clark VP, Keil K, Maisog JM, Courtney S, Ungerleider LG, Haxby JV (1996) Functional
magnetic resonance imaging of human visual cortex during face matching: a
comparison with positron emission tomography. Neuroimage 4:1-15.
Clarke S, Miklossy J (1990) Occipital cortex in man: organization of callosal connections,
related myelo- and cytoarchitecture, and putative boundaries of functional visual
areas. J Comp Neurol 298:188-214.
Cole PM, Jenkins PA, Shott CT (1989) Spontaneous expressive control in blind and sighted
children. Child Dev 60:683-688.
Cowey A (1996) Visual awareness: still at sea with seeing? Curr Biol 6:45-47.
Cowey A, Stoerig P (1991) The neurobiology of blindsight. Trends Neurosci 14:140-145.
Cowey A, Stoerig P, Bannister M (1994) Retinal ganglion cells labelled from the pulvinar
nucleus in macaque monkeys. Neuroscience 61:691-705.
Critchley H, Daly E, Phillips M, Brammer M, Bullmore E, Williams S, Van Amelsvoort T,
Robertson D, David A, Murphy D (2000) Explicit and implicit neural mechanisms for
processing of social information from facial expressions: a functional magnetic
resonance imaging study. Hum Brain Mapp 9:93-105.
Cuthbert BN, Schupp HT, Bradley MM, Birbaumer N, Lang PJ (2000) Brain potentials in
affective picture processing: covariation with autonomic arousal and affective report.
Biol Psychol 52:95-111.
Dailey MN, Cottrell GW, Padgett C, Adolphs R (2002) EMPATH: a neural network that
categorizes facial expressions. J Cogn Neurosci 14:1158-1173.
Damasio A (2001a) Fundamental feelings. Nature 413:781.
Damasio A (2003) Spinoza avait raison. Paris: Odile Jacob.
Damasio AR (1994) Descartes' error and the future of human life. Sci Am 271:144.
Damasio AR (2001b) Descartes' error revisited. J Hist Neurosci 10:192-194.
Damasio AR, Damasio H, Van Hoesen GW (1982) Prosopagnosia: anatomic basis and
behavioral mechanisms. Neurology 32:331-341.
Damasio AR, Tranel D, Damasio H (1990) Face agnosia and the neural substrates of memory.
Annu Rev Neurosci 13:89-109.
213
Damasio H, Grabowski T, Frank R, Galaburda AM, Damasio AR (1994) The return of
Phineas Gage: clues about the brain from the skull of a famous patient. Science
264:1102-1105.
Damasio H, Grabowski TJ, Tranel D, Hichwa RD, Damasio AR (1996) A neural basis for
lexical retrieval. Nature 380:499-505.
Darwin C (1872) The expression of emotions in man and animals. London: John Murray.
Davidoff J (2001) Language and perceptual categorisation. Trends Cogn Sci 5:382-387.
Davidson RJ, Irwin W (1999) The functional neuroanatomy of emotion and affective style.
Trends Cogn Sci 3:11-21.
Davidson RJ, Mednick D, Moss E, Saron C, Schaffer CE (1987) Ratings of emotion in faces
are influenced by the visual field to which stimuli are presented. Brain Cogn 6:403411.
de Gelder B, Vroomen J, Pourtois G, Weiskrantz L (1999) Non-conscious recognition of
affect in the absence of striate cortex. Neuroreport 10:3759-3763.
De Renzi E, Perani D, Carlesimo GA, Silveri MC, Fazio F (1994) Prosopagnosia can be
associated with damage confined to the right hemisphere--an MRI and PET study and
a review of the literature. Neuropsychologia 32:893-902.
DeKosky ST, Heilman KM, Bowers D, Valenstein E (1980) Recognition and discrimination
of emotional faces and pictures. Brain Lang 9:206-214.
Desimone R, Ungerleider LG (1986) Multiple visual areas in the caudal superior temporal
sulcus of the macaque. J Comp Neurol 248:164-189.
Desimone R, Albright TD, Gross CG, Bruce C (1984) Stimulus-selective properties of
inferior temporal neurons in the macaque. J Neurosci 4:2051-2062.
DeYoe EA, Carman GJ, Bandettini P, Glickman S, Wieser J, Cox R, Miller D, Neitz J (1996)
Mapping striate and extrastriate visual areas in human cerebral cortex. Proc Natl Acad
Sci U S A 93:2382-2386.
Dimberg U (1982) Facial reactions to facial expressions. Psychophysiology 19:643-647.
Dimberg U, Thunberg M, Elmehed K (2000) Unconscious facial reactions to emotional facial
expressions. Psychol Sci 11:86-89.
Dolan RJ, Fletcher P, Morris J, Kapur N, Deakin JF, Frith CD (1996) Neural activation during
covert processing of positive emotional facial expressions. Neuroimage 4:194-200.
Dolan RJ, Fink GR, Rolls E, Booth M, Holmes A, Frackowiak RS, Friston KJ (1997) How
the brain learns to see objects and faces in an impoverished context. Nature 389:596599.
Eblen F, Graybiel AM (1995) Highly restricted origin of prefrontal cortical inputs to
striosomes in the macaque monkey. J Neurosci 15:5999-6013.
Eimer M (2000) Event-related brain potentials distinguish processing stages involved in face
perception and recognition. Clin Neurophysiol 111:694-705.
Eimer M, Holmes A (2002) An ERP study on the time course of emotional face processing.
Neuroreport 13:427-431.
Ekman P (1992) Are there basic emotions? Psychol Rev 99:550-553.
Ekman P (1993) Facial expression and emotion. Am Psychol 48:384-392.
Ekman P (1994) Strong evidence for universals in facial expressions: a reply to Russell's
mistaken critique. Psychol Bull 115:268-287.
Ekman P, Friesen W (1975) Pictures from facial affect. CA.
Ellis HD, Shepherd JW, Davies GM (1979) Identification of familiar and unfamiliar faces
from internal and external features: some implications for theories of face recognition.
Perception 8:431-439.
214
Emery NJ, Capitanio JP, Mason WA, Machado CJ, Mendoza SP, Amaral DG (2001) The
effects of bilateral lesions of the amygdala on dyadic social interactions in rhesus
monkeys (Macaca mulatta). Behav Neurosci 115:515-544.
Epstein R, Kanwisher N (1998) A cortical representation of the local visual environment.
Nature 392:598-601.
Eslinger PJ, Grattan LM, Damasio H, Damasio AR (1992) Developmental consequences of
childhood frontal lobe damage. Arch Neurol 49:764-769.
Esteves F, Parra C, Dimberg U, Ohman A (1994) Nonconscious associative learning:
Pavlovian conditioning of skin conductance responses to masked fear-relevant facial
stimuli. Psychophysiology 31:375-385.
Everitt BJ, Parkinson JA, Olmstead MC, Arroyo M, Robledo P, Robbins TW (1999)
Associative processes in addiction and reward. The role of amygdala-ventral striatal
subsystems. Ann N Y Acad Sci 877:412-438.
Fabre-Thorpe M, Delorme A, Marlot C, Thorpe S (2001) A limit to the speed of processing in
ultra-rapid visual categorization of novel natural scenes. J Cogn Neurosci 13:171-180.
Feinstein JS, Goldin PR, Stein MB, Brown GG, Paulus MP (2002) Habituation of attentional
networks during emotion processing. Neuroreport 13:1255-1258.
Felleman DJ, Van Essen DC (1991) Distributed hierarchical processing in the primate
cerebral cortex. Cereb Cortex 1:1-47.
Fodor J (1985) Precis of the modularity of mind. Behav Brain Sci 8:1-5.
Fox PT, Ingham RJ, Ingham JC, Hirsch TB, Downs JH, Martin C, Jerabek P, Glass T,
Lancaster JL (1996) A PET study of the neural systems of stuttering. Nature 382:158161.
Fridlund AJ, Gilbert AN, Izard CE, Burdett AN (1985) Emotions and facial expression.
Science 230:607-608, 610, 687.
Fried I, MacDonald KA, Wilson CL (1997) Single neuron activity in human hippocampus and
amygdala during recognition of faces and objects. Neuron 18:753-765.
Fried I, Wilson CL, MacDonald KA, Behnke EJ (1998) Electric current stimulates laughter.
Nature 391:650.
Fried I, Mateer C, Ojemann G, Wohns R, Fedio P (1982) Organization of visuospatial
functions in human cortex. Evidence from electrical stimulation. Brain 105:349-371.
Fries W (1981) The projection from the lateral geniculate nucleus to the prestriate cortex of
the macaque monkey. Proc R Soc Lond B Biol Sci 213:73-86.
Fuster JM, Bauer RH, Jervey JP (1985) Functional interactions between inferotemporal and
prefrontal cortex in a cognitive task. Brain Res 330:299-307.
Gaffan D, Murray EA, Fabre-Thorpe M (1993) Interaction of the amygdala with the frontal
lobe in reward memory. Eur J Neurosci 5:968-975.
Galati D, Scherer KR, Ricci-Bitti PE (1997) Voluntary facial expression of emotion:
comparing congenitally blind with normally sighted encoders. J Pers Soc Psychol
73:1363-1379.
Gallese V, Fadiga L, Fogassi L, Rizzolatti G (1996) Action recognition in the premotor
cortex. Brain 119 ( Pt 2):593-609.
Gauthier I, Skudlarski P, Gore JC, Anderson AW (2000) Expertise for cars and birds recruits
brain areas involved in face recognition. Nat Neurosci 3:191-197.
Gauthier I, Tarr MJ, Anderson AW, Skudlarski P, Gore JC (1999) Activation of the middle
fusiform 'face area' increases with expertise in recognizing novel objects. Nat Neurosci
2:568-573.
Gorno-Tempini ML, Pradelli S, Serafini M, Pagnoni G, Baraldi P, Porro C, Nicoletti R,
Umita C, Nichelli P (2001) Explicit and incidental facial expression processing: an
fMRI study. Neuroimage 14:465-473.
215
Gray JM, Young AW, Barker WA, Curtis A, Gibson D (1997) Impaired recognition of
disgust in Huntington's disease gene carriers. Brain 120 ( Pt 11):2029-2038.
Gross CG, Rocha-Miranda CE, Bender DB (1972) Visual properties of neurons in
inferotemporal cortex of the Macaque. J Neurophysiol 35:96-111.
Guenot M, Isnard J, Sindou M (2004) Surgical anatomy of the insula. Adv Tech Stand
Neurosurg 29:265-288.
Gur RC, Skolnick BE, Gur RE (1994) Effects of emotional discrimination tasks on cerebral
blood flow: regional activation and its relation to performance. Brain Cogn 25:271286.
Halgren E, Raij T, Marinkovic K, Jousmaki V, Hari R (2000) Cognitive response profile of
the human fusiform face area as determined by MEG. Cereb Cortex 10:69-81.
Halgren E, Baudena P, Heit G, Clarke JM, Marinkovic K, Clarke M (1994) Spatio-temporal
stages in face and word processing. I. Depth-recorded potentials in the human
occipital, temporal and parietal lobes [corrected]. J Physiol Paris 88:1-50.
Hamann SB, Adolphs R (1999) Normal recognition of emotional similarity between facial
expressions following bilateral amygdala damage. Neuropsychologia 37:1135-1141.
Hamann SB, Stefanacci L, Squire LR, Adolphs R, Tranel D, Damasio H, Damasio A (1996)
Recognizing facial emotion. Nature 379:497.
Han JS, McMahan RW, Holland P, Gallagher M (1997) The role of an amygdalo-nigrostriatal
pathway in associative learning. J Neurosci 17:3913-3919.
Hariri AR, Bookheimer SY, Mazziotta JC (2000) Modulating emotional responses: effects of
a neocortical network on the limbic system. Neuroreport 11:43-48.
Harmer CJ, Thilo KV, Rothwell JC, Goodwin GM (2001) Transcranial magnetic stimulation
of medial-frontal cortex impairs the processing of angry facial expressions. Nat
Neurosci 4:17-18.
Hasselmo ME, Rolls ET, Baylis GC (1989) The role of expression and identity in the faceselective responses of neurons in the temporal visual cortex of the monkey. Behav
Brain Res 32:203-218.
Hauser MD (1993) Right hemisphere dominance for the production of facial expression in
monkeys. Science 261:475-477.
Haxby JV, Hoffman EA, Gobbini MI (2000) The distributed human neural system for face
perception. Trends Cogn Sci 4:223-233.
Haxby JV, Horwitz B, Ungerleider LG, Maisog JM, Pietrini P, Grady CL (1994) The
functional organization of human extrastriate cortex: a PET-rCBF study of selective
attention to faces and locations. J Neurosci 14:6336-6353.
Haxby JV, Ungerleider LG, Clark VP, Schouten JL, Hoffman EA, Martin A (1999) The effect
of face inversion on activity in human neural systems for face and object perception.
Neuron 22:189-199.
Haxby JV, Gobbini MI, Furey ML, Ishai A, Schouten JL, Pietrini P (2001) Distributed and
overlapping representations of faces and objects in ventral temporal cortex. Science
293:2425-2430.
Haxby JV, Grady CL, Horwitz B, Ungerleider LG, Mishkin M, Carson RE, Herscovitch P,
Schapiro MB, Rapoport SI (1991) Dissociation of object and spatial visual processing
pathways in human extrastriate cortex. Proc Natl Acad Sci U S A 88:1621-1625.
Hess U, Blairy S (2001) Facial mimicry and emotional contagion to dynamic emotional facial
expressions and their influence on decoding accuracy. Int J Psychophysiol 40:129141.
Heywood CA, Cowey A (1992) The role of the 'face-cell' area in the discrimination and
recognition of faces by monkeys. Philos Trans R Soc Lond B Biol Sci 335:31-37;
discussion 37-38.
216
Hinde RA (1989) Relations between levels of complexity in the behavioral sciences. J Nerv
Ment Dis 177:655-667.
Hopf HC, Muller-Forell W, Hopf NJ (1992) Localization of emotional and volitional facial
paresis. Neurology 42:1918-1923.
Hoptman MJ, Levy J (1988) Perceptual asymmetries in left- and right-handers for cartoon and
real faces. Brain Cogn 8:178-188.
Hornak J, Rolls ET, Wade D (1996) Face and voice expression identification in patients with
emotional and behavioural changes following ventral frontal lobe damage.
Neuropsychologia 34:247-261.
Hubel DH, Wiesel TN (1968) Receptive fields and functional architecture of monkey striate
cortex. J Physiol 195:215-243.
Humphreys GW, Donnelly N, Riddoch MJ (1993) Expression is computed separately from
facial identity, and it is computed separately for moving and static faces:
neuropsychological evidence. Neuropsychologia 31:173-181.
Iacoboni M, Woods RP, Brass M, Bekkering H, Mazziotta JC, Rizzolatti G (1999) Cortical
mechanisms of human imitation. Science 286:2526-2528.
Iidaka T, Omori M, Murata T, Kosaka H, Yonekura Y, Okada T, Sadato N (2001) Neural
interaction of the amygdala with the prefrontal and temporal cortices in the processing
of facial expressions as revealed by fMRI. J Cogn Neurosci 13:1035-1047.
Inase M, Tokuno H, Nambu A, Akazawa T, Takada M (1996) Origin of thalamocortical
projections to the presupplementary motor area (pre-SMA) in the macaque monkey.
Neurosci Res 25:217-227.
Ioannides AA, Liu LC, Kwapien J, Drozdz S, Streit M (2000a) Coupling of regional
activations in a human brain during an object and face affect recognition task. Hum
Brain Mapp 11:77-92.
Ioannides AA, Liu L, Theofilou D, Dammers J, Burne T, Ambler T, Rose S (2000b) Real
time processing of affective and cognitive stimuli in the human brain extracted from
MEG signals. Brain Topogr 13:11-19.
Ishai A, Ungerleider LG, Martin A, Schouten JL, Haxby JV (1999) Distributed representation
of objects in the human ventral visual pathway. Proc Natl Acad Sci U S A 96:93799384.
Isnard J, Guenot M, Ostrowsky K, Sindou M, Mauguiere F (2000) The role of the insular
cortex in temporal lobe epilepsy. Ann Neurol 48:614-623.
Iwase M, Ouchi Y, Okada H, Yokoyama C, Nobezawa S, Yoshikawa E, Tsukada H, Takeda
M, Yamashita K, Yamaguti K, Kuratsune H, Shimizu A, Watanabe Y (2002) Neural
substrates of human facial expression of pleasant emotion induced by comic films: a
PET Study. Neuroimage 17:758-768.
Izard C, Fine S, Schultz D, Mostow A, Ackerman B, Youngstrom E (2001) Emotion
knowledge as a predictor of social behavior and academic competence in children at
risk. Psychol Sci 12:18-23.
Jackson ME, Moghaddam B (2001) Amygdala regulation of nucleus accumbens dopamine
output is governed by the prefrontal cortex. J Neurosci 21:676-681.
Jacobs DH, Shuren J, Heilman KM (1995a) Impaired perception of facial identity and facial
affect in Huntington's disease. Neurology 45:1217-1218.
Jacobs DH, Shuren J, Bowers D, Heilman KM (1995b) Emotional facial imagery, perception,
and expression in Parkinson's disease. Neurology 45:1696-1702.
Jacobson R (1986) Disorders of facial recognition, social behaviour and affect after combined
bilateral amygdalotomy and subcaudate tractotomy--a clinical and experimental study.
Psychol Med 16:439-450.
217
Jasper H (1958) Report of the commitee on methods of clinical examination in
electroencephalography. Electroencephalogr Clin Neurophysiol 10:370-375.
Johnsen BH (1993) Cerebral asymmetry in autonomic conditioning to facial expressions: sex
differences. Scand J Psychol 34:363-370.
Johnsen BH, Hugdahl K (1993) Right hemisphere representation of autonomic conditioning
to facial emotional expressions. Psychophysiology 30:274-278.
Kalin NH, Shelton SE, Davidson RJ, Kelley AE (2001) The primate amygdala mediates acute
fear but not the behavioral and physiological components of anxious temperament. J
Neurosci 21:2067-2074.
Kampe KK, Frith CD, Dolan RJ, Frith U (2001) Reward value of attractiveness and gaze.
Nature 413:589.
Kanwisher N, McDermott J, Chun MM (1997) The fusiform face area: a module in human
extrastriate cortex specialized for face perception. J Neurosci 17:4302-4311.
Kawasaki H, Kaufman O, Damasio H, Damasio AR, Granner M, Bakken H, Hori T, Howard
MA, 3rd, Adolphs R (2001) Single-neuron responses to emotional visual stimuli
recorded in human ventral prefrontal cortex. Nat Neurosci 4:15-16.
Keenan JP, Nelson A, O'Connor M, Pascual-Leone A (2001) Self-recognition and the right
hemisphere. Nature 409:305.
Kesler-West ML, Andersen AH, Smith CD, Avison MJ, Davis CE, Kryscio RJ, Blonder LX
(2001) Neural substrates of facial emotion processing using fMRI. Brain Res Cogn
Brain Res 11:213-226.
Killgore WD, Oki M, Yurgelun-Todd DA (2001) Sex-specific developmental changes in
amygdala responses to affective faces. Neuroreport 12:427-433.
Kosslyn SM, Thompson WL, Alpert NM (1997) Neural systems shared by visual imagery and
visual perception: a positron emission tomography study. Neuroimage 6:320-334.
Kosslyn SM, Ganis G, Thompson WL (2001) Neural foundations of imagery. Nat Rev
Neurosci 2:635-642.
Kosslyn SM, Chabris CF, Marsolek CJ, Koenig O (1992) Categorical versus coordinate
spatial relations: computational analyses and computer simulations. J Exp Psychol
Hum Percept Perform 18:562-577.
Kosslyn SM, Pascual-Leone A, Felician O, Camposano S, Keenan JP, Thompson WL, Ganis
G, Sukel KE, Alpert NM (1999) The role of area 17 in visual imagery: convergent
evidence from PET and rTMS. Science 284:167-170.
Kotz SA, Meyer M, Alter K, Besson M, von Cramon DY, Friederici AD (2003) On the
lateralization of emotional prosody: an event-related functional MR investigation.
Brain Lang 86:366-376.
Krolak-Salmon P, Henaff MA, Vighetto A, Bertrand O, Mauguiere F (2004) Early Amygdala
Reaction to Fear Spreading in Occipital, Temporal, and Frontal Cortex; A Depth
Electrode ERP Study in Human. Neuron 42:665-676.
Lamme VA (1995) The neurophysiology of figure-ground segregation in primary visual
cortex. J Neurosci 15:1605-1615.
LeDoux J (1996) Emotional networks and motor control: a fearful view. Prog Brain Res
107:437-446.
LeDoux JE (2000) Emotion circuits in the brain. Annu Rev Neurosci 23:155-184.
Leonard CM, Rolls ET, Wilson FA, Baylis GC (1985) Neurons in the amygdala of the
monkey with responses selective for faces. Behav Brain Res 15:159-176.
Levenson RW, Ekman P, Friesen WV (1990) Voluntary facial action generates emotionspecific autonomic nervous system activity. Psychophysiology 27:363-384.
Levy J, Heller W, Banich MT, Burton LA (1983) Asymmetry of perception in free viewing of
chimeric faces. Brain Cogn 2:404-419.
218
Lissauer H (1890) Ein fall von seelenblindheit nebst einem beitrag zur theorie derselben. Arch
Psy Nervenkrankheit 21:222-270.
Liu J, Harris A, Kanwisher N (2002) Stages of processing in face perception: an MEG study.
Nat Neurosci 5:910-916.
Liu L, Ioannides AA, Streit M (1999) Single trial analysis of neurophysiological correlates of
the recognition of complex objects and facial expressions of emotion. Brain Topogr
11:291-303.
Livingstone M, Hubel D (1988a) Segregation of form, color, movement, and depth: anatomy,
physiology, and perception. Science 240:740-749.
Livingstone MS, Hubel DH (1983) Specificity of cortico-cortical connections in monkey
visual system. Nature 304:531-534.
Livingstone MS, Hubel DH (1984) Specificity of intrinsic connections in primate primary
visual cortex. J Neurosci 4:2830-2835.
Livingstone MS, Hubel DH (1988b) Do the relative mapping densities of the magno- and
parvocellular systems vary with eccentricity? J Neurosci 8:4334-4339.
Logothetis NK, Pauls J, Augath M, Trinath T, Oeltermann A (2001) Neurophysiological
investigation of the basis of the fMRI signal. Nature 412:150-157.
Lomber SG (2002) Learning to see the trees before the forest: reversible deactivation of the
superior colliculus during learning of local and global visual features. Proc Natl Acad
Sci U S A 99:4049-4054.
Luh KE, Rueckert LM, Levy J (1991) Perceptual asymmetries for free viewing of several
types of chimeric stimuli. Brain Cogn 16:83-103.
Luppino G, Matelli M, Camarda R, Rizzolatti G (1993) Corticocortical connections of area F3
(SMA-proper) and area F6 (pre-SMA) in the macaque monkey. J Comp Neurol
338:114-140.
Macrae CN, Bodenhausen GV (2000) Social cognition: thinking categorically about others.
Annu Rev Psychol 51:93-120.
Maguire EA, Frith CD, Cipolotti L (2001) Distinct neural systems for the encoding and
recognition of topography and faces. Neuroimage 13:743-750.
Mandal MK, Pandey R, Prasad AB (1998) Facial expressions of emotions and schizophrenia:
a review. Schizophr Bull 24:399-412.
Mandal MK, Borod JC, Asthana HS, Mohanty A, Mohanty S, Koff E (1999) Effects of lesion
variables and emotion type on the perception of facial emotion. J Nerv Ment Dis
187:603-609.
Marinkovic K, Trebon P, Chauvel P, Halgren E (2000) Localised face processing by the
human prefrontal cortex: face-selective intracerebral potentials and post-lesion
deficits. Cogn Neuropsychol 17:187-199.
Matsuzaka Y, Aizawa H, Tanji J (1992) A motor area rostral to the supplementary motor area
(presupplementary motor area) in the monkey: neuronal activity during a learned
motor task. J Neurophysiol 68:653-662.
McCarthy G (1997) Face-specific processing in the human fusiform gyrus. J Cogn Neurosci
9:605-610.
McCarthy G, Puce A, Belger A, Allison T (1999) Electrophysiological studies of human face
perception. II: Response properties of face-specific potentials generated in
occipitotemporal cortex. Cereb Cortex 9:431-444.
Meltzoff AN, Moore MK (1983) Newborn infants imitate adult facial gestures. Child Dev
54:702-709.
Mendola JD, Rizzo JF, 3rd, Cosgrove GR, Cole AJ, Black P, Corkin S (1999) Visual
discrimination after anterior temporal lobectomy in humans. Neurology 52:1028-1037.
219
Merigan WH, Nealey TA, Maunsell JH (1993) Visual effects of lesions of cortical area V2 in
macaques. J Neurosci 13:3180-3191.
Mitchell RL, Elliott R, Barry M, Cruttenden A, Woodruff PW (2003) The neural response to
emotional prosody, as revealed by functional magnetic resonance imaging.
Neuropsychologia 41:1410-1421.
Monahan JL, Murphy ST, Zajonc RB (2000) Subliminal mere exposure: specific, general, and
diffuse effects. Psychol Sci 11:462-466.
Morecraft RJ, Louie JL, Herrick JL, Stilwell-Morecraft KS (2001) Cortical innervation of the
facial nucleus in the non-human primate: a new interpretation of the effects of stroke
and related subtotal brain trauma on the muscles of facial expression. Brain 124:176208.
Morris JS, Ohman A, Dolan RJ (1999) A subcortical pathway to the right amygdala mediating
"unseen" fear. Proc Natl Acad Sci U S A 96:1680-1685.
Morris JS, DeGelder B, Weiskrantz L, Dolan RJ (2001) Differential extrageniculostriate and
amygdala responses to presentation of emotional faces in a cortically blind field. Brain
124:1241-1252.
Morris JS, Frith CD, Perrett DI, Rowland D, Young AW, Calder AJ, Dolan RJ (1996) A
differential neural response in the human amygdala to fearful and happy facial
expressions. Nature 383:812-815.
Morris JS, Friston KJ, Buchel C, Frith CD, Young AW, Calder AJ, Dolan RJ (1998) A
neuromodulatory role for the human amygdala in processing emotional facial
expressions. Brain 121 ( Pt 1):47-57.
Morris RD, Hopkins WD (1993) Perception of human chimeric faces by chimpanzees:
evidence for a right hemisphere advantage. Brain Cogn 21:111-122.
Mouchetant-Rostaing Y, Giard MH, Bentin S, Aguera PE, Pernier J (2000)
Neurophysiological correlates of face gender processing in humans. Eur J Neurosci
12:303-310.
Munte TF, Brack M, Grootheer O, Wieringa BM, Matzke M, Johannes S (1998) Brain
potentials reveal the timing of face identity and expression judgments. Neurosci Res
30:25-34.
Nakamura K, Mikami A, Kubota K (1992) Activity of single neurons in the monkey
amygdala during performance of a visual discrimination task. J Neurophysiol 67:14471463.
Nakamura K, Kawashima R, Ito K, Sugiura M, Kato T, Nakamura A, Hatano K, Nagumo S,
Kubota K, Fukuda H, Kojima S (1999) Activation of the right inferior frontal cortex
during assessment of facial emotion. J Neurophysiol 82:1610-1614.
Narumoto J, Yamada H, Iidaka T, Sadato N, Fukui K, Itoh H, Yonekura Y (2000) Brain
regions involved in verbal or non-verbal aspects of facial emotion recognition.
Neuroreport 11:2571-2576.
Nelson CA (1987) The recognition of facial expressions in the first two years of life:
mechanisms of development. Child Dev 58:889-909.
Nishijo H, Ono T, Nishino H (1988) Single neuron responses in amygdala of alert monkey
during complex sensory stimulation with affective significance. J Neurosci 8:35703583.
Nowak LG, Munk MH, Girard P, Bullier J (1995) Visual latencies in areas V1 and V2 of the
macaque monkey. Vis Neurosci 12:371-384.
O'Brien BJ, Abel PL, Olavarria JF (2001) The retinal input to calbindin-D28k-defined
subdivisions in macaque inferior pulvinar. Neurosci Lett 312:145-148.
Ochsner KN, Bunge SA, Gross JJ, Gabrieli JD (2002) Rethinking feelings: an FMRI study of
the cognitive regulation of emotion. J Cogn Neurosci 14:1215-1229.
220
O'Connor DH, Fukui MM, Pinsk MA, Kastner S (2002) Attention modulates responses in the
human lateral geniculate nucleus. Nat Neurosci 5:1203-1209.
O'Doherty J, Winston J, Critchley H, Perrett D, Burt DM, Dolan RJ (2003) Beauty in a smile:
the role of medial orbitofrontal cortex in facial attractiveness. Neuropsychologia
41:147-155.
Ojemann JG, Ojemann GA, Lettich E (1992) Neuronal activity related to faces and matching
in human right nondominant temporal cortex. Brain 115 Pt 1:1-13.
Oliveri M, Babiloni C, Filippi MM, Caltagirone C, Babiloni F, Cicinelli P, Traversa R,
Palmieri MG, Rossini PM (2003) Influence of the supplementary motor area on
primary motor cortex excitability during movements triggered by neutral or
emotionally unpleasant visual cues. Exp Brain Res 149:214-221.
Ongur D, Price JL (2000) The organization of networks within the orbital and medial
prefrontal cortex of rats, monkeys and humans. Cereb Cortex 10:206-219.
Oram MW, Perrett DI (1992) Time course of neural responses discriminating different views
of the face and head. J Neurophysiol 68:70-84.
Osaka N, Osaka M, Kondo H, Morishita M, Fukuyama H, Shibasaki H (2003) An emotionbased facial expression word activates laughter module in the human brain: a
functional magnetic resonance imaging study. Neurosci Lett 340:127-130.
Panksepp J (2003) At the interface of the affective, behavioral, and cognitive neurosciences:
decoding the emotional feelings of the brain. Brain Cogn 52:4-14.
Pastor MA, Day BL, Macaluso E, Friston KJ, Frackowiak RS (2004) The functional
neuroanatomy of temporal discrimination. J Neurosci 24:2585-2591.
Patterson KE, Baddeley AD (1977) When face recognition fails. J Exp Psychol [Hum Learn]
3:406-417.
Penfield W, Perot P (1963) The Brain's Record of Auditory and Visual Experience. A Final
Summary and Discussion. Brain 86:595-696.
Peper M, Irle E (1997) The decoding of emotional concepts in patients with focal cerebral
lesions. Brain Cogn 34:360-387.
Perrett DI, Rolls ET, Caan W (1982) Visual neurones responsive to faces in the monkey
temporal cortex. Exp Brain Res 47:329-342.
Perrett DI, Hietanen JK, Oram MW, Benson PJ (1992) Organization and functions of cells
responsive to faces in the temporal cortex. Philos Trans R Soc Lond B Biol Sci
335:23-30.
Phelps EA, O'Connor KJ, Gatenby JC, Gore JC, Grillon C, Davis M (2001) Activation of the
left amygdala to a cognitive representation of fear. Nat Neurosci 4:437-441.
Phillips ML, Bullmore ET, Howard R, Woodruff PW, Wright IC, Williams SC, Simmons A,
Andrew C, Brammer M, David AS (1998a) Investigation of facial recognition memory
and happy and sad facial expression perception: an fMRI study. Psychiatry Res
83:127-138.
Phillips ML, Young AW, Scott SK, Calder AJ, Andrew C, Giampietro V, Williams SC,
Bullmore ET, Brammer M, Gray JA (1998b) Neural responses to facial and vocal
expressions of fear and disgust. Proc R Soc Lond B Biol Sci 265:1809-1817.
Phillips ML, Young AW, Senior C, Brammer M, Andrew C, Calder AJ, Bullmore ET, Perrett
DI, Rowland D, Williams SC, Gray JA, David AS (1997) A specific neural substrate
for perceiving facial expressions of disgust. Nature 389:495-498.
Pizzagalli D, Regard M, Lehmann D (1999) Rapid emotional face processing in the human
right and left brain hemispheres: an ERP study. Neuroreport 10:2691-2698.
Pizzagalli D, Koenig T, Regard M, Lehmann D (1998) Faces and emotions: brain electric
field sources during covert emotional processing. Neuropsychologia 36:323-332.
221
Puce A, Allison T, McCarthy G (1999) Electrophysiological studies of human face
perception. III: Effects of top-down processing on face-specific potentials. Cereb
Cortex 9:445-458.
Puce A, Allison T, Bentin S, Gore JC, McCarthy G (1998) Temporal cortex activation in
humans viewing eye and mouth movements. J Neurosci 18:2188-2199.
Quirk GJ, Russo GK, Barron JL, Lebron K (2000) The role of ventromedial prefrontal cortex
in the recovery of extinguished fear. J Neurosci 20:6225-6231.
Raiguel SE, Lagae L, Gulyas B, Orban GA (1989) Response latencies of visual cells in
macaque areas V1, V2 and V5. Brain Res 493:155-159.
Raine A, Lencz T, Bihrle S, LaCasse L, Colletti P (2000) Reduced prefrontal gray matter
volume and reduced autonomic activity in antisocial personality disorder. Arch Gen
Psychiatry 57:119-127; discussion 128-119.
Rapcsak SZ, Comer JF, Rubens AB (1993) Anomia for facial expressions:
neuropsychological mechanisms and anatomical correlates. Brain Lang 45:233-252.
Rapcsak SZ, Galper SR, Comer JF, Reminger SL, Nielsen L, Kaszniak AW, Verfaellie M,
Laguna JF, Labiner DM, Cohen RA (2000) Fear recognition deficits after focal brain
damage: a cautionary note. Neurology 54:575-581.
Reuter-Lorenz P, Davidson RJ (1981) Differential contributions of the two cerebral
hemispheres to the perception of happy and sad faces. Neuropsychologia 19:609-613.
Rhodes G (1993) Configural coding, expertise, and the right hemisphere advantage for face
recognition. Brain Cogn 22:19-41.
Richardson CK, Bowers D, Bauer RM, Heilman KM, Leonard CM (2000) Digitizing the
moving face during dynamic displays of emotion. Neuropsychologia 38:1028-1039.
Rizzolatti G, Luppino G (2001) The cortical motor system. Neuron 31:889-901.
Rizzolatti G, Fadiga L, Gallese V, Fogassi L (1996) Premotor cortex and the recognition of
motor actions. Brain Res Cogn Brain Res 3:131-141.
Rizzolatti G, Gentilucci M, Camarda RM, Gallese V, Luppino G, Matelli M, Fogassi L (1990)
Neurons related to reaching-grasping arm movements in the rostral part of area 6 (area
6a beta). Exp Brain Res 82:337-350.
Robinson DL, Petersen SE (1992) The pulvinar and visual salience. Trends Neurosci 15:127132.
Rodman HR, Gross CG, Albright TD (1989) Afferent basis of visual response properties in
area MT of the macaque. I. Effects of striate cortex removal. J Neurosci 9:2033-2050.
Rolls ET (2000) The orbitofrontal cortex and reward. Cereb Cortex 10:284-294.
Rolls ET, Tovee MJ (1994) Processing speed in the cerebral cortex and the neurophysiology
of visual masking. Proc R Soc Lond B Biol Sci 257:9-15.
Rolls ET, Hornak J, Wade D, McGrath J (1994a) Emotion-related learning in patients with
social and emotional changes associated with frontal lobe damage. J Neurol Neurosurg
Psychiatry 57:1518-1524.
Rolls ET, Tovee MJ, Purcell DG, Stewart AL, Azzopardi P (1994b) The responses of neurons
in the temporal cortex of primates, and face identification and detection. Exp Brain
Res 101:473-484.
Rosenberg EL, Ekman P, Blumenthal JA (1998) Facial expression and the affective
component of cynical hostility in male coronary heart disease patients. Health Psychol
17:376-380.
Rosenkranz JA, Grace AA (2001) Dopamine attenuates prefrontal cortical suppression of
sensory inputs to the basolateral amygdala of rats. J Neurosci 21:4090-4103.
Rosenkranz JA, Moore H, Grace AA (2003) The prefrontal cortex regulates lateral amygdala
neuronal plasticity and responses to previously conditioned stimuli. J Neurosci
23:11054-11064.
222
Rossion B, Curran T, Gauthier I (2002) A defense of the subordinate-level expertise account
for the N170 component. Cognition 85:189-196.
Russell JA (1994) Is there universal recognition of emotion from facial expression? A review
of the cross-cultural studies. Psychol Bull 115:102-141.
Russell JA, Bullock M (1986) Fuzzy concepts and the perception of emotion in facial
expressions. Social cognition 4:309-341.
Russell JA, Fehr B (1987) Relativity in the perception of emotion in facial expressions.
Journal of experimental psychology 116:223-237.
Russell JA, Lewicka M, Niit T (1989) A cross-cultural study of a circumplex model of affect.
Journal of personality and social psychology 57.
Sakai K, Hikosaka O, Miyauchi S, Sasaki Y, Fujimaki N, Putz B (1999) Presupplementary
motor area activation during sequence learning reflects visuo-motor association. J
Neurosci 19:RC1.
Scalaidhe SP, Wilson FA, Goldman-Rakic PS (1999) Face-selective neurons during passive
viewing and working memory performance of rhesus monkeys: evidence for intrinsic
specialization of neuronal coding. Cereb Cortex 9:459-475.
Schmitt JJ, Hartje W, Willmes K (1997) Hemispheric asymmetry in the recognition of
emotional attitude conveyed by facial expression, prosody and propositional speech.
Cortex 33:65-81.
Schmolck H, Squire LR (2001) Impaired perception of facial emotions following bilateral
damage to the anterior temporal lobe. Neuropsychology 15:30-38.
Schultz W, Tremblay L, Hollerman JR (2000) Reward processing in primate orbitofrontal
cortex and basal ganglia. Cereb Cortex 10:272-284.
Searcy JH, Bartlett JC (1996) Inversion and processing of component and spatial-relational
information in faces. J Exp Psychol Hum Percept Perform 22:904-915.
Seeck M, Mainwaring N, Cosgrove R, Blume H, Dubuisson D, Mesulam MM, Schomer DL
(1997a) Neurophysiologic correlates of implicit face memory in intracranial visual
evoked potentials. Neurology 49:1312-1316.
Seeck M, Mainwaring N, Ives J, Blume H, Dubuisson D, Cosgrove R, Mesulam MM,
Schomer DL (1993) Differential neural activity in the human temporal lobe evoked by
faces of family members and friends. Ann Neurol 34:369-372.
Seeck M, Michel CM, Mainwaring N, Cosgrove R, Blume H, Ives J, Landis T, Schomer DL
(1997b) Evidence for rapid face recognition from human scalp and intracranial
electrodes. Neuroreport 8:2749-2754.
Seltzer B, Pandya DN (1989) Frontal lobe connections of the superior temporal sulcus in the
rhesus monkey. J Comp Neurol 281:97-113.
Seltzer B, Pandya DN (1994) Parietal, temporal, and occipital projections to cortex of the
superior temporal sulcus in the rhesus monkey: a retrograde tracer study. J Comp
Neurol 343:445-463.
Sem-Jacobsen CW (1968) Vegetative changes in response to electrical brain stimulation.
Electroencephalogr Clin Neurophysiol 24:88.
Sergent J, Signoret JL (1992) Functional and anatomical decomposition of face processing:
evidence from prosopagnosia and PET study of normal subjects. Philos Trans R Soc
Lond B Biol Sci 335:55-61; discussion 61-52.
Sergent J, Ohta S, MacDonald B (1992) Functional neuroanatomy of face and object
processing. A positron emission tomography study. Brain 115 Pt 1:15-36.
Sowell ER, Thompson PM, Holmes CJ, Jernigan TL, Toga AW (1999) In vivo evidence for
post-adolescent brain maturation in frontal and striatal regions. Nat Neurosci 2:859861.
223
Sprengelmeyer R, Rausch M, Eysel UT, Przuntek H (1998) Neural structures associated with
recognition of facial expressions of basic emotions. Proc R Soc Lond B Biol Sci
265:1927-1931.
Sprengelmeyer R, Young AW, Calder AJ, Karnat A, Lange H, Homberg V, Perrett DI,
Rowland D (1996) Loss of disgust. Perception of faces and emotions in Huntington's
disease. Brain 119 ( Pt 5):1647-1665.
Sprengelmeyer R, Young AW, Pundt I, Sprengelmeyer A, Calder AJ, Berrios G, Winkel R,
Vollmoeller W, Kuhn W, Sartory G, Przuntek H (1997) Disgust implicated in
obsessive-compulsive disorder. Proc R Soc Lond B Biol Sci 264:1767-1773.
Standage GP, Benevento LA (1983) The organization of connections between the pulvinar
and visual area MT in the macaque monkey. Brain Res 262:288-294.
Starck CEL, Squire LR (2000) Intact visual perceptual discriminations in humans in the
absence of perirhinal cortex. Learing and memory 7:273-278.
Stefanacci L, Amaral DG (2000) Topographic organization of cortical inputs to the lateral
nucleus of the macaque monkey amygdala: a retrograde tracing study. J Comp Neurol
421:52-79.
Stefanacci L, Amaral DG (2002) Some observations on cortical inputs to the macaque
monkey amygdala: an anterograde tracing study. J Comp Neurol 451:301-323.
Stoerig P, Cowey A (1989) Wavelength sensitivity in blindsight. Nature 342:916-918.
Stone VE, Nisenson L, Eliassen JC, Gazzaniga MS (1996) Left hemisphere representations of
emotional facial expressions. Neuropsychologia 34:23-29.
Strafella AP, Paus T (2000) Modulation of cortical excitability during action observation: a
transcranial magnetic stimulation study. Neuroreport 11:2289-2292.
Streit M, Wolwer W, Brinkmeyer J, Ihl R, Gaebel W (2000) Electrophysiological correlates
of emotional and structural face processing in humans. Neurosci Lett 278:13-16.
Streit M, Dammers J, Simsek-Kraues S, Brinkmeyer J, Wolwer W, Ioannides A (2003) Time
course of regional brain activations during facial emotion recognition in humans.
Neurosci Lett 342:101-104.
Streit M, Ioannides AA, Liu L, Wolwer W, Dammers J, Gross J, Gaebel W, Muller-Gartner
HW (1999) Neurophysiological correlates of the recognition of facial expressions of
emotion as revealed by magnetoencephalography. Brain Res Cogn Brain Res 7:481491.
Sugase Y, Yamane S, Ueno S, Kawano K (1999) Global and fine information coded by single
neurons in the temporal visual cortex. Nature 400:869-873.
Talairach C, Tournoux P (1988) Co-planar stereotaxic atlas of the human brain. New-York:
Thieme Medical.
Tallon-Baudry C, Bertrand O (1999) Oscillatory gamma activity in humans and its role in
object representation. Trends Cogn Sci 3:151-162.
Tanaka JW, Farah MJ (1993) Parts and wholes in face recognition. Q J Exp Psychol A
46:225-245.
Tanji J (1996) New concepts of the supplementary motor area. Curr Opin Neurobiol 6:782787.
Thompson PM, Giedd JN, Woods RP, MacDonald D, Evans AC, Toga AW (2000) Growth
patterns in the developing brain detected by using continuum mechanical tensor maps.
Nature 404:190-193.
Thorpe S, Fize D, Marlot C (1996) Speed of processing in the human visual system. Nature
381:520-522.
Tomita H, Ohbayashi M, Nakahara K, Hasegawa I, Miyashita Y (1999) Top-down signal
from prefrontal cortex in executive control of memory retrieval. Nature 401:699-703.
224
Tootell RB, Dale AM, Sereno MI, Malach R (1996) New images from human visual cortex.
Trends Neurosci 19:481-489.
Tourangeau R, Ellsworth PC (1979) The role of facial response in the experience of emotion.
J Pers Soc Psychol 37:1519-1531.
Tovee MJ, Rolls ET, Treves A, Bellis RP (1993) Information encoding and the responses of
single neurons in the primate temporal visual cortex. J Neurophysiol 70:640-654.
Tranel D, Hyman BT (1990) Neuropsychological correlates of bilateral amygdala damage.
Arch Neurol 47:349-355.
Tranel D, Damasio H (1994) Neuroanatomical correlates of electrodermal skin conductance
responses. Psychophysiology 31:427-438.
Tranel D, Damasio AR, Damasio H (1988) Intact recognition of facial expression, gender, and
age in patients with impaired recognition of face identity. Neurology 38:690-696.
Tranel D, Damasio H, Damasio AR (1997) A neural basis for the retrieval of conceptual
knowledge. Neuropsychologia 35:1319-1327.
Troster H, Brambring M (1992) Early social-emotional development in blind infants. Child
Care Health Dev 18:207-227.
Ullman S (1995) Sequence seeking and counter streams: a computational model for
bidirectional information flow in the visual cortex. Cereb Cortex 5:1-11.
Ungerleider LG, Galkin TW, Mishkin M (1983) Visuotopic organization of projections from
striate cortex to inferior and lateral pulvinar in rhesus monkey. J Comp Neurol
217:137-157.
Valenza E, Simion F, Cassia VM, Umilta C (1996) Face preference at birth. J Exp Psychol
Hum Percept Perform 22:892-903.
Van Strien JW, Van Beek S (2000) Ratings of emotion in laterally presented faces: sex and
handedness effects. Brain Cogn 44:645-652.
VanRullen R, Thorpe SJ (2001) The time course of visual processing: from early perception
to decision-making. J Cogn Neurosci 13:454-461.
Vuilleumier P, Schwartz S (2001a) Emotional facial expressions capture attention. Neurology
56:153-158.
Vuilleumier P, Schwartz S (2001b) Beware and be aware: capture of spatial attention by fearrelated stimuli in neglect. Neuroreport 12:1119-1122.
Vuilleumier P, Armony JL, Driver J, Dolan RJ (2001) Effects of attention and emotion on
face processing in the human brain: an event-related fMRI study. Neuron 30:829-841.
Vuilleumier P, Armony JL, Driver J, Dolan RJ (2003) Distinct spatial frequency sensitivities
for processing faces and emotional expressions. Nat Neurosci 6:624-631.
Vuilleumier P, Armony JL, Clarke K, Husain M, Driver J, Dolan RJ (2002) Neural response
to emotional faces with and without awareness: event-related fMRI in a parietal
patient with visual extinction and spatial neglect. Neuropsychologia 40:2156-2166.
Warrington EK (1982) Neuropsychological studies of object recognition. Philos Trans R Soc
Lond B Biol Sci 298:15-33.
Webster MJ, Bachevalier J, Ungerleider LG (1993) Subcortical connections of inferior
temporal areas TE and TEO in macaque monkeys. J Comp Neurol 335:73-91.
Weiskrantz L (1996) Blindsight revisited. Curr Opin Neurobiol 6:215-220.
Whalen PJ, Rauch SL, Etcoff NL, McInerney SC, Lee MB, Jenike MA (1998) Masked
presentations of emotional facial expressions modulate amygdala activity without
explicit knowledge. J Neurosci 18:411-418.
Whalen PJ, Shin LM, McInerney SC, Fischer H, Wright CI, Rauch SL (2001) A functional
MRI study of human amygdala responses to facial expressions of fear versus anger.
Emotion 1:70-83.
225
Wicker B, Keysers C, Plailly J, Royet JP, Gallese V, Rizzolatti G (2003) Both of us disgusted
in My insula: the common neural basis of seeing and feeling disgust. Neuron 40:655664.
Wilson FA, Scalaidhe SP, Goldman-Rakic PS (1993) Dissociation of object and spatial
processing domains in primate prefrontal cortex. Science 260:1955-1958.
Wiser AK, Andreasen N, O'Leary DS, Crespo-Facorro B, Boles-Ponto LL, Watkins GL,
Hichwa RD (2000) Novel vs. well-learned memory for faces: a positron emission
tomography study. J Cogn Neurosci 12:255-266.
Wright CI, Fischer H, Whalen PJ, McInerney SC, Shin LM, Rauch SL (2001) Differential
prefrontal cortex and amygdala habituation to repeatedly presented emotional stimuli.
Neuroreport 12:379-383.
Yaxley S, Rolls ET, Sienkiewicz ZJ (1988) The responsiveness of neurons in the insular
gustatory cortex of the macaque monkey is independent of hunger. Physiol Behav
42:223-229.
Young AW, Aggleton JP, Hellawell DJ, Johnson M, Broks P, Hanley JR (1995) Face
processing impairments after amygdalotomy. Brain 118 ( Pt 1):15-24.
Yukie M, Iwai E (1981) Direct projection from the dorsal lateral geniculate nucleus to the
prestriate cortex in macaque monkeys. J Comp Neurol 201:81-97.
Yvert B, Fischer C, Guenot M, Krolak-Salmon P, Isnard J, Pernier J (2002) Simultaneous
intracerebral EEG recordings of early auditory thalamic and cortical activity in human.
Eur J Neurosci 16:1146-1150.
Zbrozyna AW, Westwood DM (1991) Stimulation in prefrontal cortex inhibits conditioned
increase in blood pressure and avoidance bar pressing in rats. Physiol Behav 49:705708.
Zeki S (1980) The representation of colours in the cerebral cortex. Nature 284:412-418.
Zeki S (1990a) A century of cerebral achromatopsia. Brain 113 ( Pt 6):1721-1777.
Zeki S (1990b) Parallelism and functional specialization in human visual cortex. Cold Spring
Harb Symp Quant Biol 55:651-661.
Zeki S (1991) Cerebral akinetopsia (visual motion blindness). A review. Brain 114 ( Pt
2):811-824.
226
Abréviations
AMS : Aire Motrice Supplémentaire
GTS : Gyrus Temporal Supérieur
GTM : Gyrus Temporal Moyen
IRMf : Imagerie par Résonance Magnétique nucléaire fonctionnelle
MEG : Magnétoencéphalographie
SEEG : Stéréo-électroencéphalographie
STS : Sillon Temporal Supérieur
TEP : Tomographie par Emission de Positon
227
228

Documents pareils