n° d`ordre - Centre de Recherche en Neurosciences de Lyon
Transcription
n° d`ordre - Centre de Recherche en Neurosciences de Lyon
N° d’ordre ANNEE 2004 THESE présentée devant L’Université Claude Bernard Lyon I pour l’obtention du DIPLOME DE DOCTORAT (arrêté du 25 avril 2002) Mention : NEUROSCIENCES Dynamique cérébrale de la reconnaissance des expressions faciales Présentée et soutenue publiquement le 26 octobre 2004 par Pierre Krolak-Salmon Le Jury : O. Bertrand L. Cohen T. Landis (Rapporteur) B. Laurent (Rapporteur) F. Mauguière A. Vighetto 2 N° d’ordre ANNEE 2004 THESE présentée devant L’Université Claude Bernard Lyon I pour l’obtention du DIPLOME DE DOCTORAT (arrêté du 25 avril 2002) Mention : NEUROSCIENCES Dynamique cérébrale de la reconnaissance des expressions faciales Présentée et soutenue publiquement le 26 octobre 2004 par Pierre Krolak-Salmon Le Jury : O. Bertrand L. Cohen T. Landis (Rapporteur) B. Laurent (Rapporteur) F. Mauguière A. Vighetto 3 4 L’émotion est un mouvement de l’âme. Paul Claudel Couverture : Le fou de peur ou Le désespéré (détail) Gustave Courbet (1843) 5 6 A Marie-Anne 7 8 Remerciements Mes remerciements vont tout d’abord à Marie-Anne Hénaff dont l’intelligence, la curiosité, l’énergie, la grande disponibilité et le sourire ont tant apporté à ces travaux. Compter sur une complicité de tous les instants était si précieux. Une rencontre déterminante pour moi, et mieux que tout, une amitié. Je remercie chaleureusement Olivier Bertrand et François Mauguière qui ont dirigé cette thèse. La sagacité et les connaissances scientifiques d’Olivier Bertrand n’ont eu d’égal que son enthousiasme et son sourire. François Mauguière continue à veiller avec toute sa perspicacité sur nos travaux. Ses conseils scientifiques et humains sont uniques. Alain Vighetto est l’un des instigateurs de cette recherche. Son regard aiguisé et ses connaissances ont su guider les grandes orientations de cette thèse. Je le remercie pour sa confiance et son soutien de chaque jour lors de ces années de collaboration. C’est un plaisir immense sans cesse renouvelé. Malgré leurs charges et responsabilités de premier ordre, Bernard Laurent et Théodore Landis ont gentiment accepté d’être rapporteurs de cette thèse. Je les en remercie vivement. Leurs travaux scientifiques font référence, ils ont grandement enrichi la compréhension de la neuropsychologie moderne. Les travaux de Laurent Cohen forcent l’admiration, je suis honoré qu’il participe au jury de cette thèse. Merci aux membres de l’unité 280. Leur accueil, leur bonne humeur, leurs conseils éclairés et leur aide si précieuse ont coloré ces quatre années et apporté un chaleureux réconfort. Un espoir, continuer. Je tiens à exprimer toute ma reconnaissance à Jacqueline, Christine, Hélène et tous ceux du Service d’Explorations Fonctionnelles de l’Hôpital Neurologique. Une force tranquille qui a toujours su rassurer et apaiser les patients et à laquelle aucune impédance récalcitrante n’a finalement pu résister. Je tiens enfin à rendre hommage aux patients qui ont accepté de participer à ces études et qui se sont souvent intéressés à leurs fondements, ainsi qu’aux médecins et chirurgiens qui veillent sur eux. 9 10 TABLE DES MATIERES Résumé .................................................................................................................................... 13 Avant-propos .......................................................................................................................... 15 Chapitre 1 : Organisation anatomo-fonctionnelle du système visuel ................................ 17 A. Organisation générale...................................................................................................... 20 B. Anatomie du système visuel ............................................................................................ 21 C. Les voies de traitement dorsale et ventrale...................................................................... 25 Chapitre 2 : La reconnaissance des visages ......................................................................... 29 A. Les études psychologiques : vers une dissociation entre la reconnaissance de l’identité et de l’expression...................................................................................................................... 30 B. Les études neurophysiologiques...................................................................................... 34 C. L’imagerie fonctionnelle ................................................................................................. 38 D. « Un système neuronal distribué pour la perception des visages » ................................. 42 Chapitre 3 : Introduction à la reconnaissance des expressions faciales............................ 45 A. Qu’est-ce qu’une émotion ? ............................................................................................ 49 B. Qu’est-ce qu’une expression faciale ? ............................................................................. 52 C. Perception et reconnaissance ........................................................................................... 54 1) Comment reconnaissons-nous une émotion à partir d’une expression faciale ?.......... 54 2) Mécanismes de la reconnaissance des émotions à travers les visages......................... 57 3) Le développement de la reconnaissance des expressions ............................................ 60 4) Structures impliquées dans la reconnaissance des expressions faciales ...................... 61 5) La perception des émotions est-elle latéralisée ? ......................................................... 84 6) L’influence de la tâche................................................................................................. 87 Chapitre 4 : Travaux expérimentaux ................................................................................... 89 A. Protocole de stimulation.................................................................................................. 90 1) Stimuli.......................................................................................................................... 90 2) Conditions .................................................................................................................... 91 3) Tâches .......................................................................................................................... 91 B. Enregistrements de scalp : Etude n°1 .............................................................................. 92 1) Matériels et méthodes .................................................................................................. 92 2) Principaux résultats...................................................................................................... 93 3) Article n°1.................................................................................................................... 97 4) Discussion complémentaire ....................................................................................... 107 11 C. Enregistrements intra-crâniens ...................................................................................... 113 1) Matériels et méthodes ................................................................................................ 113 2) Etude n°2 : « About serendipity ».............................................................................. 118 3) Etude n°3 : Le dégoût et l’insula................................................................................ 131 4) Etude N°4 : Un réseau distribué dans le temps et dans l’espace ............................... 149 5) Etude n° 5 : Le sourire en miroir ............................................................................... 167 Chapitre 5 : Discussion Générale....................................................................................... 189 A. Quel(s) aspect(s) de la reconnaissance des expressions faciales avons-nous exploré ? ……………………………………………………………………………………….189 1) Implication de la voie visuelle principale .................................................................. 189 2) La voie sous-corticale thalamo-amygdalienne est-elle impliquée ? .......................... 193 3) Deux voies visuelles, deux amies, deux rivales !...................................................... 198 B. Vers un modèle de la reconnaissance des expressions faciales ................................. 200 1) Le modèle de Ralph Adolphs (Adolphs, 2002) ......................................................... 200 2) Commentaires ............................................................................................................ 204 C. Perspectives................................................................................................................ 206 Conclusion............................................................................................................................. 208 Références ............................................................................................................................. 209 Abréviations.......................................................................................................................... 227 12 Résumé La neuropsychologie et l’imagerie fonctionnelle ont montré que la reconnaissance des expressions faciales, message émotionnel à grande valeur sociale, implique de vastes réseaux neuronaux dans le cerveau humain. Les structures corticales et sous-corticales impliquées diffèrent selon la nature de l’émotion véhiculée par le visage. Ainsi, l’amygdale participe au traitement des émotions aversives comme la peur et la colère alors que l’insula est particulièrement impliquée dans la reconnaissance du dégoût. Le cortex orbito-frontal, participant également à la reconnaissance des expressions faciales, serait déterminant dans l’interprétation des stimuli émotionnels dans un contexte social déterminé. Or les moments d’implication de ces différentes structures, les éventuelles séquences d’activation voire l’identification de périodes d’interaction potentielles entre les éléments de ces vastes réseaux neuronaux sont très mal connus. L’électrophysiologie dont la résolution temporelle reste inégalée et dont la résolution spatiale progresse représente un outil indispensable pour étudier ces questions. Nous avons ainsi recueilli, grâce à des enregistrements de scalp dans une population de sujets sains et grâce à des enregistrements intracérébraux chez 25 patients épileptiques pharmaco-résistants, des potentiels évoqués par des visages exprimant différentes émotions. Les enregistrements de scalp ont mis en évidence une activité spécifique des expressions émotionnelles dans la région occipitotemporale droite débutant 250 ms après le début du stimulus. Ces activités se poursuivaient tardivement dans les régions occipitales et temporales droites. Les enregistrements intra-cérébraux ont permis d’objectiver des réponses spécifiques au dégoût dans l’insula ventrale antérieure après 300 ms et des réponses spécifiques à la peur dans l’amygdale après 200 ms, soit 100 ms plus tôt que les réponses au dégoût dans l’insula. Des réponses spécifiques à différentes expressions faciales étaient ensuite enregistrées de façon prolongée dans les aires visuelles extra-striées, le cortex temporal externe (complexe STS/GTM), et le cortex orbito-frontal. Chez une patiente implantée dans l’aire motrice supplémentaire, des réponses à la joie étaient évoquées dès 150 ms. Les stimulations électriques des contacts ayant recueilli ces 13 réponses provoquaient systématiquement sourire puis une sensation de gaieté chez cette patiente. L’ensemble de ces résultats confirme l’implication de réseaux spécifiques dans la reconnaissance des expressions faciales, suggère une hiérarchie temporelle dans le traitement de ces stimuli émotionnels, et montre une implication extrêmement soutenue dans le temps des principales structures déterminantes pour cette fonction. Cette chronologie d’activation est compatible avec l’existence de vastes périodes d’interactions entre les aires corticales postérieures impliquées dans la perception et les régions limbiques et paralimbiques permettant la reconnaissance des expressions faciales et l’adaptation au contexte social. 14 Avant-propos Le visage humain représente un puissant vecteur de communication. Les messages riches, subtils et rapides qu’il véhicule, peuvent venir compléter le langage verbal. Outre l’identité, le sexe et l’origine ethnique de la personne, l’expression faciale combinée à la direction du regard viennent préciser les intentions et l’état émotionnel de notre interlocuteur. La lecture labiale peut également aider à la compréhension du langage parlé. Les réseaux neuronaux impliqués dans la reconnaissance des différents caractères faciaux semblent multiples et les populations neuronales les constituant sont largement distribuées. Les études neuropsychologiques et d’imagerie fonctionnelle réalisées chez l’homme ces dernières années ont montré que la reconnaissance des émotions, en particulier des expressions faciales, mettait en jeu des réseaux neuronaux dépendants du message émotionnel. Il paraît maintenant établi que certaines structures corticales et sous-corticales comme l’amygdale, l’insula ou le cortex orbitofrontal, réagissent plus particulièrement à certains messages émotionnels. Cependant, les renseignements temporels concernant ces implications multiples et complexes sont rares chez l’Homme. Certaines études électrophysiologiques de scalp et de rares travaux utilisant la magnétoencéphalographie ont permis de dévoiler quelques aspects temporels originaux du traitement des émotions. Les caractéristiques de l’activation de ces différentes structures restent cependant inconnues, de même que d’éventuelles périodes d’interaction et de coopération permettant de reconnaître pleinement l’émotion traduite sur le visage. Enfin, ces propriétés temporelles dépendent-elles de la nature émotionnelle du message reçu ? Nous proposons dans cette thèse de tenter de préciser le décours temporel du traitement neuronal des expressions faciales chez l’Homme, grâce à des études électrophysiologiques de scalp et intracérébrales, alliant la résolution temporelle inégalée de la technique des potentiels évoqués et une résolution spatiale particulièrement intéressante. 15 16 Chapitre 1 : Organisation anatomo-fonctionnelle du système visuel 17 "On peut s'imaginer que le réalisme consiste à copier un verre tel qu'il est sur la table. En fait on ne copie jamais la vision qu'il en reste à chaque instant, l'image qui devient consciente. Vous ne copiez jamais le verre sur la table, vous copiez le résidu d'un verre […] Lorsque je regarde le verre, de sa couleur, de sa forme, de sa lumière, il ne me parvient à chaque regard qu'une toute petite chose très difficile à déterminer, qui peut se traduire par un tout petit trait, une petite tâche, à chaque fois que je regarde le verre, il a l'air de se refaire, c'est à dire que sa réalité devient douteuse, parce que sa projection dans mon cerveau est douteuse ou partielle. On le voit comme s'il disparaissait…ressurgissait…disparaissait…ressurgissait… C'est à dire qu'il se trouve toujours bel et bien entre l'être et le non-être. Et c'est cela qu'on peut copier." "L'Art ce n'est qu'un moyen de vie" Alberto Giacometti 18 Le système visuel est certainement le système perceptif le plus complexe et le plus étudié. Sa tâche herculéenne est de dégager d’un bruit de fond extrêmement riche les informations pertinentes nécessaires à la construction d’une image en trois dimensions. Nous verrons comment cette image est « construite » par le cerveau qui doit combiner les informations purement perceptives et ce qu’il sait ou ce qu’il attend de l’objet visuel pour une perception optimale. La recherche actuelle porte autant sur l’étude des substrats neuronaux des étapes perceptives pures permettant de construire une image que ceux sous-tendant la véritable la reconnaissance visuelle jusqu’à l’accès au lexique correspondant. Ainsi, nous présenterons l’architecture fonctionnelle du système visuel chez l’Homme et le primate, en insistant sur les différentes voies de traitement visuel intervenant en proportions différentes en fonction des attributs de l’objet et du contexte. Dans un deuxième temps, nous présenterons les différentes théories concernant les phénomènes perceptifs et de reconnaissance visuelle mettant en jeu une organisation hiérarchique du système visuel. La compréhension du système visuel a bénéficié ces dernières années des travaux anatomiques et électrophysiologiques réalisés chez l’animal et de l’avènement de l’imagerie fonctionnelle chez l’Homme. Dans un esprit didactique, il convient d’intégrer le traitement de l’information visuelle dans un schéma par définition trop simple, mais permettant de manier les concepts et d’avancer progressivement dans la réflexion. Les mécanismes mis en jeu dans le traitement de l’information visuelle ont une organisation hiérarchique intégrant les informations de façon séquentielle et parallèle, avec une dynamique à la fois ascendante ou « bottom-up » et descendante ou « top-down ». Pour comprendre ces mécanismes, il nous faudra préciser les éléments neuronaux et anatomiques mis en jeu et leur organisation en réseaux sous-corticaux et corticaux. 19 A. Organisation générale Le système visuel doit construire, à partir d’indices élémentaires fournis par la rétine, une représentation stable de l’objet visuel dans le monde environnant. Cependant, un objet visuel peut être perçu selon différents points de vue, dans divers contextes et doit générer dans le cerveau un percept tridimensionnel stable et unique afin de permettre l’identification et la reconnaissance dans toutes les circonstances. Une pleine reconnaissance n’est possible que si cette représentation tridimensionnelle unique est comparée à des représentations prototypiques stockées en mémoire. On peut déjà différencier les deux grandes étapes conduisant à la reconnaissance visuelle : l’ensemble des processus perceptifs construisant un invariant tridimensionnel et l’identification par comparaison et accès au cortège d’informations sémantiques et lexicales concernant l’objet perçu. Nous verrons jusqu’à quel point le phénomène de reconnaissance est exigeant et requiert un investissement cognitif (jusqu’à la préparation motrice par exemple). Cette organisation discrète des phénomènes perceptifs et de la reconnaissance proprement dite, pour certains des traitements de bas niveau et des traitements de haut niveau, n’est qu’apparente, puisque les passerelles entre ces deux grands ensembles d’activités cognitives sont innombrables et à double sens. Les traitements dits « précoces » ou de "bas niveau" correspondent à l’encodage des caractéristiques élémentaires comme la fréquence spatiale, la disparité rétinienne, l’orientation des contours, les dimensions, la couleur et la direction du mouvement. Ces traitements de bas niveaux seraient plutôt associés à des processus de type ascendant ou bottom-up depuis les informations recueillies par la rétine jusqu’aux traitement corticaux plus intégrés. Les processus de structuration reliant les informations locales obtenues à l’étape ci-dessus interviendraient secondairement. Cependant, les traitements perceptifs de bas niveaux peuvent être influencés par des informations descendantes ou top-down, comme cela a été montré pour certaines illusions optiques. Ces différentes opérations ne peuvent s’effectuer sur un mode séquentiel exclusif, des traitements parallèles intervenant pour différentes opérations visuelles aux exigences temporelles importantes. En dépit d’une résolution temporelle faible des processus 20 rétiniens, cette organisation serait la clef de l’efficacité exemplaire du système visuel alliant rapidité et précision. Outre un système visuel hiérarchique, séquentiel et parallèle, l’hypothèse d’un système d’organisation modulaire est discutée (Fodor, 1985). A chaque module ou système réalisant sa propre analyse serait dévolu le traitement d’une caractéristique particulière. L’approche modulaire et hiérarchique présente l’avantage de faciliter la compréhension globale du système visuel, mais de nombreux faits expérimentaux remettent en question cette théorie. Ce système s’oppose aux traitements distribués de l’information. Une approche plus globale de la connectivité et des dynamiques d’implication des différentes aires visuelles paraît plus proche de la réalité. Un exemple typique de spécificité modulaire est représenté par le traitement des visages et le déficit associé, la prosopagnosie (Bodamer, 1947). Ce principe de modularité implique l’existence de neurones ou groupes de neurones spécialisés dans le traitement de telle ou telle caractéristique de l’information, impliquant un codage local. Outre la prosopagnosie, d’autres types d’agnosies visuelles spécifiques viennent soutenir cette hypothèse, comme les déficits dans la reconnaissance des objets inanimés (Warrington, 1982) par exemple. Mais les déficit spécifiques sont rarement isolés chez l’homme, prosopagnosie et achromatopsie, ou prospagnosie et agnosie d’objets par exemple étant souvent associées (Damasio et al., 1982; Zeki, 1990a). Les recouvrements importants des latences d’activations des aires visuelles remettent en cause la hiérarchie absolue dans l’analyse de l’image (Ashford and Fuster, 1985; Nowak et al., 1995).L’implication de V1 et V2 dans dans des processus de « haut niveau » doit également nuancer le système hiérarchique. En effet, les objets activeraient préférentiellement V1 que le fond (Lamme, 1995), alors que V2 pourrait déjà être impliquée dans la détection de textures (Merigan et al., 1993). L’étude des composantes oscillatoires dans la bande gamma a renforcé l’hypohèse d’une l’existence de mécanismes de liage perceptif par synchronisation d’une assemblée neuronale (Tallon-Baudry and Bertrand, 1999). B. Anatomie du système visuel Le nombre d’aires visuelles répertoriées dans le cerveau n’a cessé d’augmenter depuis les premiers travaux anatomiques et électrophysiologiques 21 (Hubel and Wiesel, 1968). Parmi la trentaine d’aires visuelles répertoriées chez le primate, les connexions feedforward, feedback et latérales permettent d’enrichir l’information visuelle intégrée différemment selon les aires (Felleman and Van Essen, 1991). L’imagerie fonctionnelle a permis d’établir une certaine homologie entre les aires visuelles du primate et de l’Homme. La rétine est composée de cellules réceptrices (cônes et bâtonnets), de cellules relais (cellules bipolaires), de cellules projetant à l’extérieur de la rétine (cellules ganglionnaires M, P et K) et d’interneurones (cellules amacrines et horizontales). Les axones des cellules ganglionnaires forment le nerf optique et se projettent dans le corps genouillé latéral (CGL) du thalamus. Il existe trois types de cellules ganglionnaires se projetant dans le corps genouillé latéral : les cellules magnocellulaires (M), parvocellulaires (P) et koniocellulaires (k). Figure 1 : Coupe schématique du corps genouillé latéral représentant les différentes couches cellulaires : parvocellulaires (P), magnocellulaires (M) et koniocellulaires (K). Les cellules de type P aux petits champs récepteurs situées principalement dans la région centrale du champ visuel sont spécialisées dans la vision des détails et des couleurs. Les cellules de type M aux grands champs récepteurs plus représentés en périphérie détectent facilement le mouvement. Les informations gagnent ensuite l’aire visuelle primaire (V1) via les radiations optiques en 60 à 80 ms post-stimulus (Thorpe et al., 1996). L’aire V1 dite striée du fait de la strie de Genari identifiable macroscopiquement, correspondant à l’aire 17 de Brodmann, est située à la face interne du lobe occipital sur les berges de la scissure calcarine. Elle est constituée de 22 6 couches cellulaires, alors que la couche 4 (couche granulaire externe) reçoit les projections du corps genouillé latéral. Les couches parvocellulaires du corps genouillé latéral projettent principalement sur la sous-couche 4Cβ, alors que les couches magnocellulaires se projettent surtout sur les sous-couches 4Cα et 4B. Les neurones de la couche 4C sont organisés en colonnes de dominance oculaire, d’orientation et de couleur. Ils se projettent sur les couches 2 et 3 présentant une alternance de cellules sensibles à l’orientation (interblobs) ou non (blobs), ce qui poursuit au sein de V1 la dichotomie fonctionnelle relative du système visuel initiée dans la rétine (Livingstone and Hubel, 1984). L’aire visuelle primaire analyse de façon parcellaire ou locale, selon une organisation rétinotopique, les lignes, angles, différences de luminance et d’orientation composant une image, alors que l’analyse globale est conduite dans d’autres visuelles corticales. Au-delà de V1, les cortex préstriés et extra-striés à la rétinotopie de moins en moins marquée assurent des traitements plus globaux et spécialisés. Figure 2 : Coactivation du LGN et du cortex visuel primaire par inversion de damier noir et blanc. En bleu, après stimulation de l’hémichamp gauche, en orange après stimulation de l’hémichamp droit (O'Connor et al., 2002) 23 Les neurones des couches 2 et 3 projettent sur le cortex pré-strié (aires V2 et V3 ou aires 18 et 19 selon la classification de Brodmann) entourant l’aire V1. Le même type de ségrégation fonctionnelle observée dans V1 opère dans V2 avec une organisation en bandes pâles ou marquées. Les bandes marquées recevant des projections des blobs sont sensibles à la couleur, alors que les bandes pâles connectées avec les interblobs sont sensibles à l’orientation (Livingstone and Hubel, 1983). L’aire V3 est une aire pivot projetant sur V4 et MT/V5 appartenant respectivement aux systèmes P et M. L’imagerie fonctionnelle, la TEP puis surtout l’IRMf, ont permis d’obtenir une vision plus ou moins précise du cortex extra-strié (DeYoe et al., 1996). L’aire V4 est située dans la région des gyri lingual et fusiforme chez l’Homme. Les neurones de l’aire V4 répondent fortement à la couleur (Zeki, 1980) et permettent d’accéder à une perception cohérente des formes. L’aire MT (médio-temporale) ou V5, située dans la partie postérieure du STS chez le singe et au niveau du carrefour occipito-temporopariétal chez l’Homme est spécialisée dans la perception et l’interprétation des mouvements des objets et des formes (Desimone and Ungerleider, 1986; Zeki, 1991). L’étude des connexions calleuses, de la cytoarchitectonie et du degré de myélinisation ont permis de préciser les positions relatives des aires V1, V2, V3, VP et MT, une rétinotopie étant retrouvée dans les aires V1, V2, V3, VP, V3A et V4v chez l’Homme (Clarke and Miklossy, 1990). 24 Figure 3 : Localisation des aires visuelles chez l’Homme (A, B et C) et le macaque (D), déterminées en IRM fonctionnelle (Tootell et al., 1996) C. Les voies de traitement dorsale et ventrale Les études anatomiques de connectivité, de lésions et électrophysiologiques (Ungerleider et al., 1983) ont démontré que les aires visuelles extrastriées étaient organisées en deux voies anatomiques et fonctionnelles. La voie ventrale occipitotemporale, incluant V4, renseigne préférentiellement sur la nature de l’objet visuel perçu, sa forme, sa couleur, permettant son identification. La voie dorsale occipitopariétale, incluant MT/V5, fournit les informations concernant l’espace, la localisation des objets et le mouvement par exemple. La dichotomie observée dès la rétine se poursuit donc. Ainsi, la voie ventrale serait préférentiellement nourrie par les 25 informations provenant des neurones parvocellulaires, alors que la voie dorsale serait alimentée par les neurones magnocellulaires (Livingstone and Hubel, 1988a; Livingstone and Hubel, 1988b). Les aires participant à ces deux voies de traitement fonctionnent partiellement sur un mode séquentiel et hiérarchique. Ainsi, l’analyse est plus complexe et plus spécialisée au fur et à mesure que l’on progresse le long de ces voies qui se séparent après V3 (Desimone and Ungerleider, 1986). Chez le singe, le cortex occipito-temporal est subdivisé en aires TEO (cortex inféro-temporal postérieur) et TE (cortex inféro-temporal antérieur) construisant une représentation cohérente des objets visuels. Certains neurones comme ceux situés au fond du sillon temporal supérieur peuvent ne répondre qu’à des stimuli visuels complexes (Perrett et al., 1982; Desimone et al., 1984). Chez l’Homme, l’imagerie fonctionnelle a permis de démontrer un rôle crucial dans la reconnaissance des objet visuels des régions occipito-temporales inférieures, en particulier le gyrus parahippocampique participant à la reconnaissance de scènes naturelles (Epstein and Kanwisher, 1998; Maguire et al., 2001), le gyrus lingual et le gyrus fusiforme médian pour la reconnaissance des immeubles et maisons (Aguirre et al., 1998; Haxby et al., 1999), et le gyrus fusiforme latéral ou Fusiform Face Area (FFA) pour la reconnaissance des visages (Haxby et al., 1994; Kanwisher et al., 1997; Ishai et al., 1999). Certaines tâches de catégorisation d’objets visuels peuvent impliquer un traitement différentiel rapide, essentiellement mis en évidence chez l’Homme par la technique des potentiels évoqués. Des réponses spécifiques à certaines catégories d’objets ont été enregistrées dès 150 ms après la présentation du stimulus (Botzel and Grusser, 1989; Allison et al., 1994; Thorpe et al., 1996; Fabre-Thorpe et al., 2001), parfois même avant 100 ms (Seeck et al., 1997b; Pizzagalli et al., 1999; Halgren et al., 2000). Chez le singe, des neurones temporaux répondent à des stimuli spécifiques dès 100 ms (Perrett et al., 1982; Desimone et al., 1984; Baizer et al., 1991; Rolls and Tovee, 1994; Rolls et al., 1994b). Une organisation strictement hiérarchique et séquentielle du traitement visuel ne pourrait rendre compte de telles contraintes temporelles, qui suggèrent un codage distribué fondé sur le niveau de 26 synchronisation des différentes aires visuelles. Un traitement de type parallèle est conforté par des études chez le singe montrant un recouvrement des latences des réponses dans les différentes aires visuelles corticales (Ashford and Fuster, 1985; Raiguel et al., 1989). La dichotomie observée entre le système ventral et le système dorsal pourrait se poursuivre au niveau du cortex préfrontal, les neurones de la voie ventrale projetant préférentiellement sur le cortex orbito-frontal et ceux de la voie dorsale sur le cortex frontal dorso-latéral (Wilson et al., 1993). Une intervention de la voie extra-géniculo-striée pourrait expliquer ces résultats. Des projections directes de structures sous-corticales telles que le corps genouillé latéral et le pulvinar sur les aires visuelles corticales extrastriées existeraient chez le singe (Fries, 1981; Standage and Benevento, 1983). Le pulvinar reçoit des projections directes des cellules ganglionnaires de la rétine (Cowey et al., 1994) et projette lui-même sur le cortex occipito-temporal (Zeki, 1990b). Certains neurones efférents du corps genouillé latéral court-circuitant V1 se projetteraient directement sur le cortex pré-strié et temporal inférieur (Fries, 1981; Yukie and Iwai, 1981). Les aires TE et TEO de la voie occipito-temporale recevraient des projections non réciproques de l’hypothalamus supra-chiasmatique, du colliculus supérieur, du noyau de Meynert, du raphé médian et dorsal, du locus cœlomes et de la formation réticulée (Webster et al., 1993). La découverte de la vision aveugle chez l’Homme corrobore ces études chez le singe (Cowey and Stoerig, 1991). L’approche dite « computationnelle » visant à identifier différents modules de traitement sous-jacents à la réalisation d’une fonction est un des héritages directs de la théorie des niveaux de traitement. Cette théorie adaptée dans le domaine de la perception et de l’imagerie visuelle en psychologie cognitive, ainsi qu’en intelligence artificielle fut développée par Kosslyn (Kosslyn et al., 1992; Kosslyn et al., 1997; Kosslyn et al., 1999; Kosslyn et al., 2001). Elle suppose l’existence de soussystèmes ou modules sous-tendant les différentes opérations cognitives impliquées dans le traitement de l’information visuelle. Cette approche aboutit à une cartographie fonctionnelle cognitive permettant d’éclairer la compréhension du poids et des interrelations entre les structures cérébrales impliquées dans toute tâche cognitive. Cependant, cette conception modulaire et hiérarchique n’intègre pas les composantes dynamiques du traitement de l’information. 27 La reconnaissance des visages, et plus particulièrement celle des expressions faciales, pourrait ainsi bénéficier des mécanismes du traitement visuel décrits cidessus, séquentiels et hiérarchisés, parallèles et distribués, et parfois computationnels. L’expression faciale représente l’un des attributs variants du visage, le reflet d’un état émotionnel ou témoin de son message social, un moyen de communiquer. Sa reconnaissance doit s’opérer au sein du système de reconnaissance des visages, tout en faisant appel au concept de l’émotion qu’elle traduit. Il est donc nécessaire de situer les expressions faciales, d’une part dans le groupe des attributs faciaux, d’autre part, au sein des multiples messages à caractère émotionnel que peut percevoir l’être humain. 28 Chapitre 2 : La reconnaissance des visages Autoportrait Léonard de Vinci 29 Les visages doivent être considérés différemment des autres types de stimuli visuels. En effet, nous avons besoin de distinguer des milliers de visages aux caractères très similaires, de traiter cette information très rapidement, d’établir les liens entre les représentations perceptuelles d’un visage et les connaissances sociales de la catégorie à laquelle il appartient. Ce type de stimulus requiert un niveau de connaissance individuel, ce qui est très rare pour les autres types de stimuli, à l’exception experts dans la reconnaissance des papillons, des timbres postes ou des voitures. La reconnaissance des visages englobe plusieurs composantes, en particulier la reconnaissance d’un visage en tant que tel parmi les autres objets visuels, la reconnaissance de l’identité d’un individu, son sexe, son origine ethnique, son âge, l’expression faciale traduisant son état émotionnel et la direction du regard pouvant fournir des indications sur les intentions de l’individu. Il semble que les réseaux neuronaux impliqués dans le traitement de ces différentes composantes soient, au moins en partie, dissociés. A. Les études psychologiques : vers une dissociation entre la reconnaissance de l’identité et de l’expression Les premiers indices proviennent des études comportementales mettant en évidence une double dissociation dans la reconnaissance de l'identité et de l'expression faciale. La prosopagnosie correspond à un défaut de reconnaissance de l’identité d’un individu par son visage. La littérature distingue prosopagnosie « aperceptive » et prosopagnosie « associative » (Damasio et al., 1990). Dans la prosopagnosie aperceptive, la reconnaissance des visages est rendue impossible du fait de troubles perceptifs visuels précoces, correspondant à des lésions occipitopariétales droites. Dans la prosopagnosie associative, l’étape perceptive semble globalement respectée, alors que la reconnaissance d’un individu n’est pas possible. Elle est due à des lésions bilatérales occipito-temporales inférieures (BA 18, 19) ou temporales postérieures (BA 37). D’autres régions corticales adjacentes remplissent le même type de rôle, liant les représentations perceptives aux connaissances concernant tel ou tel visage (A qui appartient ce visage ?). Les lésions de ces régions conduisent à l’incapacité de reconnaître l’identité des visages sans que la 30 discrimination perceptive soit altérée, ni la discrimination du genre, de l’expression faciale ou de l’âge (Tranel et al., 1988). La reconnaissance de l’identité du visage peut être altérée après lésion du cortex temporo-polaire droit (Tranel et al., 1997), sa dénomination après lésion du cortex temporo-polaire gauche (Damasio et al., 1996). Dans la prosopagnosie, la question de la spécificité du déficit dans la reconnaissance des visages est ouverte, certains avançant l’idée d’un déficit dans la reconnaissance d’objets visuels au sein d’une classe riche en représentants, pour laquelle nous développons une expertise. Des études classiques conduites par Patterson et Baddeley ont montré qu’un changement modéré de l’angle de vision et conjointement de l’expression d’un visage inconnu n’altérait pas les performances de reconnaissance, alors que la vision de profil altère significativement ces performances (Patterson and Baddeley, 1977). Cela montre qu’une vision unique d’un visage contient assez de paramètres invariants pour permettre la reconnaissance malgré des changements d’orientation ou d’expression. Ellis et collaborateurs ont suggéré secondairement qu’un contact répété avec un même visage permet d’établir une représentation structurale caractérisant ce visage (Ellis et al., 1979). Bruce a montré que les visages non familiers montrés de ¾ avec une expression différente par rapport au premier contact étaient tout de même reconnus moins précisément et moins rapidement, alors que pour les visages familiers, cette altération n’était retrouvée que pour la vitesse de réponse et non pas pour les performances (Bruce, 1982). Il en ressort que les performances de reconnaissance d’un visage dépendent de la quantité d’informations invariantes que l’on a pu déduire de l’observation. Ainsi, les visages connus ont déjà permis d’accumuler une masse d’informations invariantes permettant une reconnaissance plus solide et plus rapide. Bruce et Young ont présenté un modèle maintenant classique de reconnaissance des visages prenant en compte différents réseaux de traitements et différents modules (Bruce and Young, 1986). Selon Bruce et Young, les différentes informations apportées par les visages peuvent être traitées par des sous-systèmes déjà distincts au niveau de l’intégration perceptive, c’est à dire à l’étape de l’encodage structurel (Bruce and Young, 1986). Ces auteurs ont suggéré l’intervention de 7 types d’informations contenus dans les visages : les informations 31 picturales, structurales, l’expression faciale, les mouvements des lèvres, les informations sémantiques dérivées du traitement visuel (âge, sexe, ethnie), sémantiques liées à l’identité de la personne, dernière étape permettant d’accéder au registre des noms. Ces 7 étapes sont liées au « système cognitif » dont les composantes et fonctions sont mal définies et non validées expérimentalement. Le code pictural intègre les informations de luminance, de texture, de contraste conduisant à une image cohérente du visage en deux dimensions. L’encodage structural permettant d’extraire les invariants faciaux forme la configuration en trois dimensions du visage rendant possible la reconnaissance parmi d’autres visages. Cette étape indépendante de l’orientation du stimulus, permet d’éliminer les propriétés variables du code pictural et d’effectuer une « normalisation » de l’image. Il est alors possible de comparer cette configuration faciale unique à une représentation prototypique stockée en mémoire. Ces deux premières étapes correspondent au traitement perceptif initial des visages inconnus ou familiers. Les expressions faciales seraient analysées indépendamment par le système cognitif dévolu aux émotions. Les informations structurales seraient confiées de façon indépendante des expressions aux « Face Recognition Units », ce qui sous-tend l’indépendance entre le système de reconnaissance de l’identité d’une part et de l’expression d’autre part. Ainsi, dans les travaux de Bruce et Young, il n’y avait pas de différence dans les temps de réaction pour la reconnaissance des expressions entre les visages familiers et les visages non familiers (Bruce and Young, 1986). Calder et collaborateurs ont même montré que, sur des images digitales, les pixels caractérisant l’identité diffèrent de façon statistiquement significative de ceux définissant l’expression faciale, ce qui peut ainsi être supposé pour les composants principaux définissant ces attributs faciaux (Calder et al., 2001). Cette indépendance absolue fut contredite par la suite. Par exemple, les performances dans la catégorisation de visages familiers ou non familiers sont modifiées si le visage exprime une expression de joie, par rapport à un visage neutre (Baudouin et al., 2000). Cela montre l’importance de la quantité d’informations invariantes que l’on a pu acquérir pour assurer la reconnaissance la plus efficace d'un visage familier. 32 Figure 4 : Représentation du modèle fonctionnel de Bruce et Young (Bruce and Young, 1986) Ainsi, l’analyse des expressions faciales pourrait intervenir lors d’une étape consécutive à l’étape perceptive, à un niveau requérant déjà un degré de reconnaissance. Le modèle de Bruce et Young suggère une étape perceptive commune nécessaire à la reconnaissance de l’identité, du genre, des expressions faciales (Bruce and Young, 1986). Un des arguments forts est représenté par les dissociations observées après lésions neurologiques, survenant à une étape de reconnaissance et d’encodage structurel. Il s’agit principalement d’agnosies spécifiques de catégories et non d’incapacité d’encodage structural. Par exemple, des dissociations dans la reconnaissance des expressions et de l’identité furent rapportées après lésions cérébrales, alors que la capacité à distinguer deux visages 33 présentés simultanément était préservée (Tranel et al., 1988; Adolphs et al., 1994). Cependant, l’analyse des expressions faciales pourrait faire appel d’une part à des voies relativement spécifiques à l’étape perceptuelle précoce et d’autre part à une étape de différenciation conceptuelle de l’expression. La reconnaissance de l’identité faciale dépend essentiellement des informations configurationnelles et des rapports spatiaux entres les différentes parties d’un visage, bien mieux perçus si le visage est à l’endroit (Searcy and Bartlett, 1996). Il s’agit d’une propriété essentiellement « holistique » dans la mesure où elle ne peut être décomposée en une somme de traitements perceptifs distincts des différents caractères faciaux (Tanaka and Farah, 1993). De nombreuses études ont permis d’appréhender le traitement des différentes régions du visage et leurs aspects configurationnels dans la reconnaissance de l’identité. Alors que certains modèles prédisent que l’analyse des régions faciales est suffisante pour reconnaître les expressions (Dailey et al., 2002), d’autres suggèrent qu’un certain degré de reconstruction configurationnelle globale est nécessaire (Calder et al., 2000a). Ces deux approches peuvent jouer un rôle différent selon les expressions. Par exemple, la reconnaissance de la joie peut se baser sur la seule analyse de la bouche, c’est à dire du sourire, alors que les émotions négatives requièrent une analyse configurationnelle. B. Les études neurophysiologiques Les enregistrements unitaires chez le singe tendent à confirmer les dissociations dans la reconnaissance des différents attributs faciaux. De nombreux neurones situés dans le cortex inféro-temporal répondent de manière différente à la vision de visages (Perrett et al., 1982) ou autres objets visuels (Gross et al., 1972). Alors que la majorité de ces cellules répondent en mêmes proportions aux visages de différents individus de face et de profil, certaines sont sensibles à l'identité. Ces neurones du cortex inféro-temporal répondent de façon précoce et transitoire à la catégorisation grossière visage/non visage, et plus tardivement de façon prolongée pour déterminer les caractéristiques intrinsèques plus fines des visages comme l’identité et l’expression (Sugase et al., 1999). La réponse de certains neurones est 34 modulée en fonction des propriétés des visages, par exemple l’identité, le statut social, l’expression faciale. Il semble qu’il existe une ségrégation des neurones temporaux en fonction du type d’information qu’ils véhiculent : alors que les neurones du Sillon Temporal Supérieur (STS) peuvent coder pour l’expression du visage, les neurones inféro-temporaux codent pour l’identité (Hasselmo et al., 1989; Perrett et al., 1992). Les premières réponses neuronales dans le cortex temporal surviennent entre 20 ms et 50 ms (Tovee et al., 1993), mais le moment du traitement de l’information concernant les visages semble varier en fonction du contenu : le traitement permettant de catégoriser un visage en tant que tel s’opère à partir de 120 ms, alors que celui plus fin et détaillé permettant de reconnaître l’identité intervient à 170 ms (Sugase et al., 1999). Cependant, une réponse d’un neurone spécifique de l’identité peut débuter vers 100 ms (Oram and Perrett, 1992). Cela n’implique pas que ces régions soient nécessaires, puisque les lésions du STS chez le singe n’impliquent pas de déficit dans la reconnaissance des expressions faciales (Heywood and Cowey, 1992). Figure 4 : Localisation de neurones répondant sélectivement aux visages dans le cortex temporal du singe macaque à travers huit études unitaires : les neurones répondant électivement aux expressions (cercles) se situent préférentiellement au fond du STS contrairement à ceux répondant à l’identité ou aux deux caractères faciaux (respectivement triangles et disques pleins) (Perrett et al., 1992). Des études intracérébrales humaines ont pu être conduites chez des patients épileptiques pharmaco-résistants implantés par électrodes profondes dans le cadre d'explorations préchirurgicales. Les travaux de Penfield et Perot ont permis 35 entre autres d'explorer les aires visuelles occipitales (Penfield and Perot, 1963). La première étude d'enregistrements unitaires explorant les réponses aux visages chez l'Homme fut conduite par Ojemann et collaborateurs (Ojemann et al., 1992) chez 11 patients. Différentes populations de neurones situés dans le gyrus temporal supérieur droit et surtout le gyrus temporal moyen droit étaient sensibles à la présentation d’un visage. Seules les populations neuronales situées dans le GTM étaient sensibles à l’expression du visage. Ainsi, la spécificité relative enregistrée par d’autres chez le singe était mise en évidence chez l’Homme (Hasselmo et al., 1989). Les réponses neuronales aux visages étaient disséminées dans le cortex temporal externe et soutenues dans le temps, puisqu’elles étaient enregistrées pendant plusieurs secondes après la présentation du stimulus. Les auteurs avançaient un rôle de l’attention sélective portée sur le type de stimulus dans l’entretien de ces réponses dans le temps. Dans une étude ancienne utilisant la stimulation électrique intracérébrale chez des patients épileptiques, seule la stimulation du gyrus temporal moyen altérait la catégoristion des expressions faciales (Fried et al., 1982). Allison, McCarthy, Puce et collaborateurs ont décrit dans trois articles successifs les réponses visuelles enregistrées à la surface du cortex occipito-temporal inférieur grâce à des « grids » (filets d’électrodes posés sur le cortex) (Allison et al., 1999; McCarthy et al., 1999; Puce et al., 1999). Quatre-vingt dix-huit patients ont été inclus dans ces études. Dans le premier article, Allison et collaborateurs décrivent dans ces régions 4 types d’activités en réponses aux visages (N200, P290, P350, N700) (Allison et al., 1999). Ces réponses aux visages sont plus amples que celles liées aux réseaux sinusoïdaux, aux autres objets visuels et aux lettres. Elles ont été enregistrées dans les deux hémisphères, mais elles étaient plus amples à droite. Les réponses aux visages survenant vers 200 ms sur le gyrus fusiforme sont insensibles à la couleur, la taille, la fréquence spatiale, mais le N200 apparaît plus tardivement lorsque les visages sont inversés, est moins ample en réponse aux yeux, à la bouche, au nez, aux lèvres et aux contours faciaux présentés isolément (McCarthy et al., 1999). Le N200 ne semble pas subir d’influence top-down, puisqu’il n’est pas modifié par l’amorçage sémantique, n’est pas victime de l’habituation et n’est pas sensible à la familiarité (Puce et al., 1999). Ce potentiel N200 semble correspondre au N170 enregistré sur le scalp, et le groupe d’auteurs qui l’a décrit suggère qu’il reflète l’étape d’encodage structural des visages dans le modèle de Bruce et Young. 36 Au niveau du scalp, le corrélat électrophysiologique de l’encodage structural des visages semble être représenté par une négativité bitemporale (prédominant à droite) enregistrée autour de 170 ms (N170, M170 en MEG) (Bentin et al., 1996; Bentin and Carmel, 2002). La spécificité de cette onde est discutée dans les mêmes termes que l'activation de la Fusiform Face Area qui sera décrite plus tard (Rossion et al., 2002). La question d’une influence top-down sur cette réponse temporale fut étudiée en examinant les réponses à des visages familiers ou inconnus, alors que l’attention est portée sur des papillons (Bentin et al., 1999). Aucun effet de la familiarité ne fut observé sur le N170, correspondant essentiellement à un traitement de type bottom-up. Un tel effet fut observé plus tard autour de 350 ms, la négativité de type N400 étant plus ample pour les visages familiers (Bentin et al., 1996; Eimer, 2000; Bentin and Carmel, 2002). La question du traitement de l’identité et de l’expression faciales fut peu explorée par l’électrophysiologie de scalp. Münte et collaborateurs ont observé les premières réponses spécifiques de l’identité à partir de 200 ms et de l’expression après 450 ms (Munte et al., 1998). En MEG, Streit et collaborateurs ont mis en évidence une activité autour de 240 ms n’apparaissant que lors d’une tâche de discrimination d’expressions faciales (Streit et al., 2000). Les potentiels évoqués et la magnétoencéphalographie (MEG) ont montré qu’une catégorisation grossière des stimuli visuels peut survenir dès 50 ms à 90 ms dans la région occipito-temporale (Seeck et al., 1993; Seeck et al., 1997a; VanRullen and Thorpe, 2001), ce qui est compatible avec un traitement du genre du visage entre 45 ms et 85 ms (Mouchetant-Rostaing et al., 2000), sans qu’il n’y ait toutefois de corrélat comportemental (VanRullen and Thorpe, 2001). La première activité différant selon l’expression faciale fut enregistrée dans le cortex occipital médian entre 80 ms (Pizzagalli et al., 1999) et 100 ms (Halgren et al., 2000), puis au niveau du cortex temporal entre 140 et 170 ms (Streit et al., 1999). Il est possible que ces effets très précoces soient dus à des différences de traitement visuel de bas niveau ou à des effets de répétition. Le traitement post-perceptif des visages comme celui de l’identité survient secondairement (après 200 ms) au niveau temporal antérieur (Seeck et al., 1993; Tranel et al., 1997). 37 Ainsi, alors que la construction d’une représentation structurelle détaillée semble nécessiter 170 ms, il est possible que des informations grossières concernant le genre et les expressions faciales soient obtenues plus précocement, indiquant qu’un traitement grossier peut se faire en parallèle d’un traitement structurel plus complet. Il est possible que les expressions exprimant la colère ou un danger soient traitées plus rapidement que les autres. Ainsi, des visages exprimant la peur préalablement associés à des chocs électriques peuvent induire des réponses conditionnées lorsqu’ils sont présentés de façon subliminale (Esteves et al., 1994). C. L’imagerie fonctionnelle L’importance écologique de la reconnaissance des visages est telle que différents systèmes neuronaux experts participent à l’analyse des différents attributs des visages. Une grande attention est portée sur une région occipito-temporale ventrale, le gyrus fusiforme. Une des études les plus anciennes en imagerie fonctionnelle a utilisé la TEP pour objectiver les activités différentielles liées à la reconnaissance des visages et au traitement visuo-spatial (Haxby et al., 1991). Figure 5 : Activités différentielles observées en TEP lors d’une tâche d’association d’ « objets visuels » comprenant des visages et lors d’une tâche de discrimination visuo-spatiale (Haxby et al., 1991). 38 L’étude en TEP sur le traitement des visages conduite peu après par l’équipe de Sergent en 1992 fait maintenant référence (Sergent et al., 1992). Ces auteurs ont montré que le gyrus fusiforme, le gyrus para-hippocampique, le cortex temporal antérieur et les pôles temporaux étaient plus activés lors d’une tâche de discrimination de l’identité de l’individu à travers son visage, par rapport à une tâche de discrimination de genre. Figure 6 : Activation du gyrus fusiforme par les visages à travers 5 études (TEP ou IRMf), contrastes visages / images brouillées dans les études de Haxby et collaborateurs (Haxby et al., 1994) et Clark et collaborateurs (Clark et al., 1996), visages / autres objets visuels dans les études de Kanwisher et collaborateurs (Kanwisher et al., 1997) et McCarthy (McCarthy, 1997) et entre une tâche de discrimination d’identité et une tâche de discrimination de genre pour Sergent et collaborateurs (Sergent et al., 1992). 39 La reconnaissance des objets visuels implique un réseau neuronal occipitotemporal distribué. Le gyrus fusiforme latéral est plus activé par les visages que par les objets ou images brouillées, de façon bilatérale mais plus intensément à droite (Kanwisher et al., 1997). Cette activation modulée par l’attention (Haxby et al., 1994), serait relativement spécifique des visages, au moins à droite (McCarthy, 1997). Mais cette région cérébrale est également activée par d’autres objets visuels lorsque les sujets doivent les catégoriser ou des objets subordonnés au sein d’une classe d’objets pour lesquels l’observateur est expert (Gauthier et al., 1999; Gauthier et al., 2000). Ce réseau occipito-temporal participerait également à la reconnaissance d’autres objets visuels, en particulier le gyrus fusiforme médial pour la reconnaissance des maisons et immeubles, le gyrus temporal inférieur pour les chaises, le gyrus para-hippocampique pour les lieux (Ishai et al., 1999). Ces travaux plaident en faveur d’un traitement en partie modulaire, mais la reconnaissance de chacune de ces catégories implique également a minima des aires secondaires répondant préférentiellement à une autre catégorie d’objets. Ces aires secondaires sont plus ou moins activées selon le type d’attention, ce qui leur confère un rôle important dans la comparaison avec des objets visuellement proches de l’objet ciblé. Haxby et collaborateurs ont montré, qu’après soustraction des régions principales activées par chaque catégorie d’objets, le pattern d’activation des régions secondaires rendait compte à 94 % de la reconnaissance de chaque objet (Haxby et al., 2001). Cela démontre l’intervention de réseaux distribués en partie communs pour la reconnaissance des objets et des visages dans le cortex occipito-temporal. Cette région participe à la construction de la représentation structurale détaillée des visages, qui permettra secondairement d’accéder à la reconnaissance d’un visage particulier. Ainsi, la Fusiform Face Area ne traiterait pas à part entière la représentation structurale des visages, mais ferait partie d’un réseau distribué (Haxby et al., 2001). Dans cet esprit, le traitement holistique des visages serait plus assuré par l’hémisphère droit, alors que l’hémisphère gauche assurerait préférentiellement l’analyse des traits faciaux (Rhodes, 1993). Alors que la Fusiform Face Area participe au traitement des attributs structuraux statiques des visages préparant à la reconnaissance de l’identité des 40 visages, d’autres régions plus antérieures et dorsales dans le cortex temporal permettent de reconnaître les caractères variants du visage, comme la direction du regard, les mouvements des lèvres et l’expression (Haxby et al., 2000), sans exclure un traitement commun entre ces deux régions (Allison et al., 2000). L’imagerie fonctionnelle a montré l’implication du STS et des régions adjacentes dans le traitement de ces mouvements faciaux (Puce et al., 1998), reflétant peut-être la réception des informations structurales et variables des visages (Seltzer and Pandya, 1994). Ainsi, la FFA, le STS et d’autres régions adjacentes mal connues participent au réseau distribué construisant un percept des différents aspects du visage. L’encodage mnésique des visages (versus la perception) impliquerait le cortex préfrontal gauche, la région temporale interne droite, l’hippocampe, le cortex cingulaire antérieur et le gyrus temporal inférieur gauche, alors que la reconnaissance des visages activerait préférentiellement le cortex préfrontal droit, le cortex cingulaire antérieur, le cortex pariétal inférieur, occipital ventral bilatéral et le cervelet (Haxby, 1996). La prédominance du cortex préfrontal droit dans la reconnaissance a été également rapportée récemment par Bernstein et collaborateurs (Wiser et al., 2000; Bernstein et al., 2002). Wiser et collaborateurs ont comparé les structures impliquées dans la reconnaissance de visages découverts quelques minutes avant l’enregistrement (« visages nouveaux »), à celles activées lors de la reconnaissance de visages découverts et appris une semaine auparavant (« visages bien connus ») lors d’une étude en TEP (Wiser et al., 2000). Les deux tâches engageaient des réseaux très similaires, mais la reconnaissance des « visages nouveaux » impliquait plus le cortex préfrontal, alors que celle des « visages bien connus » activait préférentiellement les aires postérieures. 41 D. « Un système neuronal distribué pour la perception des visages » Ainsi, les caractéristiques configurationnelles invariantes et les changements dynamiques (Haxby et al., 2000) définissent deux aspects de l’information structurale du visage. D’une part, il semble nécessaire de construire une représentation invariante du visage pour permettre sa reconnaissance en toutes situations. Ainsi, le traitement cortical des visages débute au niveau occipital avec celui de la structure et de la configuration des traits, les distinguant du fond de l’image. L’extraction du fond et l’assemblage des caractères visuels permettent de construire une représentation du stimulus issue d’un traitement essentiellement de type bottom-up, c’est à dire dépendant uniquement des caractères de l’image. D’autre part, il s’agit d’interpréter les aspects changeants du visage comme l’expression, la direction du regard ou les mouvements des lèvres, particulièrement impliqués dans la communication et les rapports sociaux. Le modèle proposé par Haxby et collaborateurs est hiérarchisé et subdivisé en noyaux fonctionnels au sein d’un réseau distribué. Les trois régions déterminantes situées dans le cortex visuel extra-strié occipito-temporal sont le gyrus occipital inférieur, le gyrus fusiforme latéral et le STS. Le gyrus fusiforme analyse les aspects invariants du visage caractéristiques de l’identité, alors que le STS traite les aspects variants. Ce noyau fonctionnel est en relation avec de nombreuses autres structures intervenant dans les multiples aspects de la reconnaissance des visages. Le contenu émotionnel fait intervenir l’amygdale, l’insula et le système limbique. Le cortex auditif participe à la lecture labiale alors que le sillon pariétal traite particulièrement les aspects spatiaux des visages en particulier la direction du regard. L’identité, le nom et les informations biographiques impliquent la région temporale 42 antérieure. Figure 7 : Modèle anatomique de reconnaissance des visages proposé par Haxby et collaborateurs (Haxby et al., 2000). Ce modèle insiste sur la dichotomie entre le système de reconnaissance des caractères invariants des visages, et celui de la reconnaissance des paramètres variants permettant la communication entre individus. Ainsi, la reconnaissance des visages revêt de multiples aspects, dont l’importance relative dépend du contexte et du message principal que doit communiquer le visage. L’analyse des expressions faciales vise à en extraire le message émotionnel. La reconnaissance d’une expression faciale implique celle d’un des attributs variants du visage, mais aussi celle du concept émotionnel et du cortège de références sémantiques qui peut lui être attribué. 43 Le verre de vin Johannes Vermeer (1658) 44 Chapitre 3 : Introduction à la reconnaissance des expressions faciales L’usage de toutes les passions consiste en cela seul qu’elles disposent l’âme à vouloir les choses que la nature dicte de nous être utile. (…) Ce sont de nos passions et d’elles seules que dépend tout le bien et le mal de cette vie. L’âme peut avoir ses plaisirs à part, mais pour ceux qui lui sont communs avec le corps, ils dépendent entièrement des passions, en sorte que les hommes qu’elles peuvent le plus émouvoir sont capables de goûter le plus de douceur en cette vie. « Passions de l’âme» René Descartes, 1649 45 Darwin L’intérêt de Darwin pour les émotions remonte à 1839, année de naissance de son fils William, lorsqu’il a commencé à noter les étapes de son développement, en particulier celui de l'expression de ses émotions. « …c’est en vertu d’un sentiment inné qu’il comprit que les larmes de sa nourrice exprimaient le chagrin… ». Peu après, un autre événement stimulait l'intérêt de Darwin pour l'expression des émotions. En 1840, Charles Bell publiait un livre intitulé "The Anatomy and Philosophy of Expression". Darwin en fut très choqué. En effet, selon Bell, les muscles faciaux de l'être humain auraient été conçus pour exprimer certaines émotions qui lui sont propres. Ces propos venaient se télescoper avec la théorie de Darwin. Pour ce dernier, les expressions sont apparues au cours de l'évolution de l'espèce humaine, « …l’étude de la théorie de l’expression confirme, dans une certaine mesure, la conception qui fait dériver l’Homme de quelque animal inférieur… » Charles Darwin Concernant les émotions, Darwin a surtout basé ses recherches sur l'observation des expressions faciales. Outre son fils William, il a étudié d'autres enfants et adultes, puis les expressions faciales des animaux. Il a analysé des peintures et des photographies d'enfants et d'adultes exprimant différentes émotions, naturellement ou sur commande. Ses recherches l'amenèrent à s'intéresser aux différentes cultures et ethnies peuplant la planète. Il rédigea un questionnaire qu'il donna à des missionnaires qui pouvaient observer des expressions faciales dans 46 d'autres cultures. Son approche différait radicalement de celle de GuillaumeBenjamin Duchenne de Boulogne qui, dans les années 1860, cherchait à reproduire des expressions faciales en stimulant électriquement les muscles faciaux. Darwin emprunta d’ailleurs quelques photos de son livre "The Mechanism of Human Facial Expression" (1862) pour mettre en exergue les différences entres les expressions spontanées et les expressions provoquées volontairement, au caractère bien artificiel. L’absence de contraction de ce muscle démasque les faux amis, écrivait Duchenne de Boulogne à propos du muscle orbiculaire des paupières et du sourire. Pour Darwin, l'expression ne traduit pas nécessairement un état émotionnel, puisqu'elle peut être volontaire (et même créée de toutes pièces, comme dans l'expérience de Duchenne de Boulogne). L'inverse est également vrai : l'absence d'expression n’implique pas nécessairement l’absence d’émotion. Figure 8 : Photographies du fils de Charles Darwin (Darwin, 1872) 47 Selon Darwin, quelques expressions sont innées (la capacité de les reconnaître aussi), alors que certaines sont apprises. Toutes peuvent être exprimées de façon volontaire par l'être humain ou l'animal. Selon lui, les expressions faciales sont en majorité universelles, puisqu’elles apportent un bénéfice en terme d’évolution. Elles doivent être utiles, « …en elle-même l’expression ou le langage des émotions…a certainement son importance pour le bien de l’humanité. » Les pleurs, par exemple. "Pourquoi pleurons-nous ?" Le plissement des yeux de l’enfant qui pleure, combiné aux larmes, protégerait l’espèce. L'adulte qui pleure crie beaucoup moins, mais le réflexe de larmoiement persiste. « Nos premiers ancêtres ne durent froncer les sourcils et retirer les coins de leur bouche, quand ils étaient chagrins ou inquiets, que lorsqu’ils eurent pris l’habitude de chercher à retenir leurs cris. » Le fait d’écarter les paupières lorsque l’on est surpris aurait servi à l’origine à capter plus d'information. Au cours du développement, cette action est devenue automatique. Darwin admet qu'en général, l'expression sert à communiquer, mais l’observation d'une émotion n’est pas fiable pour apprécier l’émotion chez autrui. Elle pourrait maintenant être utile à l’adaptation sociale et à la survie dans les nouvelles sociétés. Darwin a publié, vers la fin de sa vie, sa dernière grand œuvre intitulée « The expression of the Emotions in Man and Animals » (Darwin, 1872). Les observations faites sur son fils William furent publiées dans le journal « Mind » en 1877. 48 A. Qu’est-ce qu’une émotion ? Les neurobiologistes et les psychologues définissent l’émotion comme un changement phasique, généralement concerté et adaptatif, survenant dans de multiples systèmes biologiques d’un même individu (incluant des composants somatiques et neuronaux) en réponse à un stimulus (Damasio, 1994). La réaction émotionnelle (réponse physiologique émotionnelle) doit être distinguée du sentiment émotionnel (dépendant des représentations mentales de cette réaction émotionnelle physiologique) (Damasio, 2003). Une réaction émotionnelle implique des modifications concertées de multiples systèmes physiologiques comme le système endocrinien, viscéral, végétatif et musculo-tendineux, y compris celui des muscles faciaux. Ces différents systèmes sont impliqués en proportions variables et à des moments différents. Les six émotions primitives selon Descartes (1631) Admiration Amour Haine Désir Joie Tristesse Les émotions se manifestent sur le théâtre du corps, les sentiments sur celui de l’esprit. Les émotions et les sentiments sont un des piliers de la régulation de la vie, les derniers à un niveau supérieur. On peut classer les émotions proprement dîtes en trois types : les émotions d’arrière-plan, les émotions primaires et les émotions sociales. L’idée des émotions d’arrière-plan est développée par Damasio. Ces états d’être ou humeurs, pouvant durer plusieurs heures, dépendent autant de facteurs métaboliques que de stimuli extérieurs (Damasio, 2001b). La liste la plus répandue d’émotions primaires (ou émotions de base) comprend la peur, le dégoût, la joie, la colère, la tristesse et la surprise. Elles représentent les émotions les plus 49 communes à travers les cultures du globe (Ekman, 1992). Les émotions dites sociales comprennent la sympathie, l’embarras, la honte, la culpabilité, l’orgueil, l’envie, la gratitude, l’admiration, l’indignation et le mépris. Certaines réactions émotionnelles pourraient être strictement innées, alors que d’autres nécessiteraient une exposition préalable à l’environnement. Robert Hinde a montré que les singes n’avaient peur des serpents que s’ils avaient été en contact au préalable et que la mère avait exprimé une réaction de peur à ce stimulus (Hinde, 1989). Les hypothèses sous forme de définition (Damasio, 2001a) 1. Une émotion comme la joie, la tristesse, l’embarras ou la sympathie, est une collection complète de réponses chimiques et neurales formant une entité distincte. 2. Les émotions sont produites par le cerveau normal lorsqu’il détecte un Stimulus Emotionnellement Compétent (SEC), objet ou évènement dont la présence, réelle ou sous forme de souvenir, est apte à déclencher l’émotion. Les réponses sont automatiques. 3. Le cerveau est préparé par l’évolution à répondre à certains SEC selon des répertoires d’action. Toutefois, la liste des SEC n’est pas limitée à ceux que prescrit l’évolution. Elle en inclut de nombreux autres appris avec l’expérience. 4. Le résultat immédiat de ces réponses est un changement temporaire dans l’état du corps et dans celui des structures formant les cartes du corps et sous-tendant la pensée. 5. Le résultat final de ces réponses place l’organisme, directement ou indirectement, dans des circonstances contribuant à sa survie et son bienêtre. 50 L’homogénéité des concepts émotionnels est débattue, de même que leur caractère individuel ou partie intégrante d’un continuum. Certains plaident en faveur de concepts émotionnels bien individualisés (ceux que l’on peut nommer ou exprimer avec un visage par exemple) (Ekman, 1992), d’autres en faveur d’un continuum dans un espace bidimensionnel - dont les axes seraient représentés par le niveau d’éveil et la valence émotionnelle (Russell, 1994) - ou en faveur d’assemblages dynamiques et transitoires dépendants du contexte. Bien que les expressions faciales puissent être réparties dans différentes catégories individualisées, elles pourraient appartenir à différentes catégories en même temps, catégories dont les limites peuvent parfois être floues (Russell and Bullock, 1986). La catégorisation d’une expression faciale peut dépendre du contexte et de la comparaison avec d’autres expressions (Russell and Fehr, 1987). Certains modèles mathématiques proposent que les expressions faciales adoptent les caractéristiques de concepts émotionnels individuels, modulés dans un espace continu (Calder et al., 2001). Les images numérisées de visages aux expressions intermédiaires entre deux états émotionnels (morphing) sont souvent utilisées pour la recherche. Figure 9 : « Morphings » réalisés par Calder et collaborateurs, faisant varier l’écartement des paupières et l’abaissement des joues (ligne du haut), et la position des coins des lèvres et l’écartement des paupières (ligne du bas) pour modifier l’expression faciale (Calder et al., 2001). Les images furent modifiées à partir des visages d’Ekman et Friesen (Ekman and Friesen, 1975). 51 Le premier procédé fait varier progressivement la luminance des pixels d’un niveau obtenu pour une expression vers le niveau atteint pour une autre expression. Le deuxième maintient le niveau de luminance des pixels, mais les fait glisser progressivement d’une position à une autre dans le visage qui exprime une nouvelle émotion. Ces « morphings » peuvent même être utilisés pour exprimer une expression exagérée, caricaturale. Ces manipulations conduisent à générer des expressions faciales qui ne sont jamais observées en réalité. Les capacités à catégoriser les expressions et à les hiérarchiser dans un espace à deux dimensions, joyeux ou mécontent par exemple, peuvent être dissociées. Ainsi, un patient avec des lésions bitemporales présentait une altération de la catégorisation des principales expressions faciales, mais une préservation de l’évaluation bidimensionnelle de la valence émotionnelle (Adolphs et al., 2003). Les émotions de base semblent être exprimées de façon similaire dans toutes les cultures (Ekman, 1994), même si ces cultures adoptent différents moyens pour lier les concepts aux noms, et si différentes ethnies expriment différemment les émotions dans des circonstances différentes (Fridlund et al., 1985). Bien que cette notion soit encore débattue, il paraît probable que les expressions faciales soient traitées de la même façon à l’étape perceptuelle, mais qu’elles fassent appel à différents paramètres sociaux dépendant du contexte culturel avant d’aboutir à une pleine reconnaissance. Les similarités dans la reconnaissance des expressions faciales peuvent ainsi prédominer pour les tâches de discrimination et de catégorisation perceptuelles , alors que les différences peuvent apparaître au niveau de la reconnaissance symbolique et la dénomination (Russell et al., 1989). B. Qu’est-ce qu’une expression faciale ? La nature des expressions faciales pouvant refléter, en proportions variables, l’état émotionnel d’un individu ou un aspect de communication sociale, est déterminante (Darwin, 1872; Fridlund et al., 1985). Ces deux composantes agissent de concert pour générer les expressions faciales, l’une ou l’autre pouvant prédominer selon les circonstances, les individus et les cultures. 52 Figure 10 : Visage d’écorché La musculature faciale, très développée chez les humains et les grands singes, est contrôlée par des réseaux neuronaux complexes activés selon des modes automatiques et volontaires. Ces deux modes peuvent être dissociés après lésion cérébrale : alors que les lésions de la voie pyramidale peuvent être responsables d’une incapacité à produire des expressions faciales sur un mode volontaire, les lésions insulaires, de l’aire motrice supplémentaire, des ganglions de la base et du tronc cérébral peuvent induire une altération de la production d’expressions émotionnellement guidées (Hopf et al., 1992). Les études anatomiques avec traceurs neuronaux chez le singe ont montré que l’innervation de la face inférieure (par le noyau facial) provient principalement du cortex moteur primaire controlatéral M1, M4, LPMCv et LPMCd, alors que celle de la face supérieure prend origine dans M2 et M3, bien qu’il existe un certain degré de superposition (Morecraft et al., 2001). Les projections de M3 et M4 et du cortex cingulaire moteur sur le noyau facial, contrôlées par certains sous-noyaux amygdaliens, régulent les expressions émotionnelles (Morecraft, 1998). La reconnaissance des expressions faciales a bénéficié depuis plusieurs décennies de nombreuses études comportementales, et plus récemment de multiples approches neurobiologiques comme l’étude de lésions, l’électrophysiologie 53 en particulier l’électro-encéphalographie (EEG) et l’étude de potentiels évoqués (PE), la magnétoencéphalographie (MEG), la tomographie par émission de positons (TEP) et l’IRM fonctionnelle (IRMf). La grande diversité des résultats interdit toute conclusion uniciste et ne permet pas de définir de façon exhaustive les structures cérébrales impliquées dans la reconnaissance des expressions faciales. Il semble que de multiples stratégies impliquant différemment de nombreux ensembles neuronaux interviennent dans cette activité mentale. C. Perception et reconnaissance 1) Comment reconnaissons-nous une émotion à partir d’une expression faciale ? Il est important d’analyser chaque élément de cette question. Il faut distinguer le terme « perception » du terme « reconnaissance » (Lissauer, 1890). La perception se réfère à l’ensemble des processus impliquant assez précocement et de façon prédominante les cortex sensoriels reconstituant les caractéristiques d’une image et leur configuration. Dans cet esprit, la perception devrait permettre de distinguer deux images, par exemple deux visages présentés simultanément, uniquement sur leurs caractéristiques physiques et géométriques. En revanche, la reconnaissance semble requérir d’autres informations que celles fournies par la seule inspection des caractéristiques de l’image. La reconnaissance implique que nous possédions déjà certaines informations sur le monde qui nous entoure. Elle requiert donc une certaine forme de mémoire. Une des formes les plus simples de reconnaissance est en fait appelée « mémoire perceptive», impliquant simplement les capacités de maintien en mémoire des informations perceptuelles précoces de l’image auxquelles une autre image stockée peut être comparée. Alors que la forme la plus simple de mémoire visuelle fait appel en principe aux seules informations perceptuelles (c’est à dire celles correspondant aux caractéristiques de l’image et leur configuration), la pleine reconnaissance d’une 54 émotion sur un visage fait appel à des notions sémantiques complexes concernant les expressions faciales ainsi que d’autres stimuli associés plus ou moins directement. Par exemple, cette reconnaissance peut faire appel au lieu où l’on a déjà rencontré la personne, à ce qui a été dit de la personne en face de soi, à notre premier sentiment en face de cette personne et d’autres évènements contingents. Aucune de ces informations ne peut être issue de données purement perceptuelles concernant le visage mais elles proviennent de la conjonction d’informations provenant du visage per se et d’autres stimuli. La perception d’une expression faciale (comme elle apparaît) peut ainsi être distinguée du concept de cette même expression (ce que l’on en connaît). Les multiples aspects sémantiques caractérisant une catégorie représentent la connaissance requise pour la reconnaissance d’un de ses individus. Par exemple, la construction du concept de peur fait appel à tous les aspects pouvant évoquer un sentiment de peur. Ces aspects peuvent varier d’un individu à l’autre et d’une situation à l’autre. Ainsi cette connaissance conceptuelle ne doit pas être représentée par un stock immuable engrangé en mémoire donc forcément erroné, mais par un ensemble de stratégies dépendant de facteurs multiples. Etude pour l’adoration des offices Léonard de Vinci Ce dessin ne représente pas seulement un visage fermé et peu avenant, mais peutêtre l’œuvre de Léonard de Vinci admirée au Clos Lucé à Amboise par un bel aprèsmidi ensoleillé… 55 Il est probable que différents individus ou un individu dans différentes circonstances vont construire un concept selon différentes stratégies, impliquant ainsi différents réseaux neuronaux. Ainsi, la reconnaissance de la peur à partir d’une expression faciale peut faire appel aux interactions entre les propriétés perceptuelles du stimulus et la connaissance du concept de peur, le label lexical « peur », la perception de la réponse émotionnelle générée chez le sujet ou la connaissance des représentations motrices nécessaires à la production de cette même expression. Ce qui vient d’être décrit correspond à un état particulier d’un certain type de stimulus. Cependant, ce stimulus, en l’occurrence le visage humain, doit être également reconnu comme appartenant à une certaine catégorie de stimuli revêtant certains invariants. La connaissance de ce type de catégorie doit être différenciée de celle de ses particularités. Une architecture économique permet de relier un large panel de stimuli à une catégorie regroupant les stimuli impliquant les mêmes réponses comportementales. La catégorisation est très importante pour combiner les exigences de la complexité extrême des stimuli et les réponses comportementales rapides. On peut citer comme exemple de catégorisation de stimuli auditifs sociaux, les chants d’oiseaux, les coassements de grenouilles, les voix humaines ou les visages humains (Macrae and Bodenhausen, 2000). On peut catégoriser les stimuli selon leur apparence ou selon ce que l’on connaît d’eux. La modélisation informatique a montré que l’on pouvait catégoriser les expressions faciales uniquement d’après leurs propriétés géométriques, alors que les études interculturelles chez les humains ont montré que la catégorie de l’expression se trouve dans le regard et la culture de l’observateur. Ni la position réductionniste de l’informatique ni la relativité interculturelle ne répondent complètement à la question : les catégories peuvent être élaborées à partir des informations perceptuelles et des connaissances stockées, selon les circonstances. 56 2) Mécanismes de la reconnaissance des émotions à travers les visages Plusieurs mécanismes peuvent être utilisés pour reconnaître les expressions faciales. Ces mécanismes vont parfois impliquer des réseaux neuronaux différents. Certaines structures cérébrales peuvent participer à différents circuits neuronaux mis en jeu par de multiples stratégies utilisées pour la reconnaissance des expressions faciales. a) La reconnaissance comme partie de la perception Nous sommes capables de discriminer, catégoriser, et d'identifier les émotions simplement à partir des propriétés géométriques du stimulus visuel. Cette étape perceptuelle peut être en lien direct avec les aires cérébrales impliquées dans le langage, permettant ainsi la dénomination, sans induire d'autre mécanisme de traitement de l'information émotionnelle. Cette conception serait la plus "économique" pour le cerveau pour assurer la reconnaissance des expressions faciales. Ce mécanisme pourrait être suffisant pour répondre à des questions simples de catégorisation en attribuant un prototype d'image à une catégorie, et accéder finalement à la dénomination. Cependant, cette approche ne permet pas de retrouver l'ensemble du champ sémantique de chaque émotion. Il semble que les propriétés géométriques simples soient suffisantes pour catégoriser les principales expressions faciales, sans association sémantique (Calder et al., 2000a). La catégorisation des émotions requiert essentiellement l’analyse des propriétés physiques des stimuli. Les labels lexicaux viennent également renforcer l’analyse perceptuelle. Ainsi, certains patients aphasiques avec une connaissance sémantique supposée intacte, font de surprenantes erreurs lors d'épreuves de catégorisation (Davidoff, 2001). 57 Figure métaphysique (Muse inquiétante) Giorgio de Chirico (1918) Les muses de Giorgio de Chirico sont-elles celles de l’épilepsie ? (Blanke et Landis, 2003) b) Reconnaissance partie de la connaissance sémantique La reconnaissance doit impliquer d'autres processus que la simple perception. Lorsque l'on observe une personne au visage exprimant la peur, il est possible de catégoriser son expression faciale, mais aussi de pressentir qu'il va crier, s'enfuir ou qu'il fait face à quelque chose d'effrayant. Aucun de ces renseignements n'est présent dans la structure géométrique du visage. Cela provient de l’expérience de chacun, de ce qu’a pu livrer le monde. Le champ sémantique relatif à chaque émotion ne semble pas stocké comme une entité. Il est attribué à un stimulus selon des recettes apprises lors des premières stimulations, par réactivation de représentations construites au moment de l'acquisition du concept (Damasio, 1994). 58 Le niveau de complexité des associations sémantiques est très variable. On peut associer une expression de peur à un cri ou à la fuite de New York ce fameux 11 septembre 2001. Ainsi, la reconnaissance d'un stimulus émotionnel, outre des mécanismes purement perceptifs, implique d'autres processus complexes activant d'autres aspects de la connaissance de l'objet. Les réseaux neuronaux impliqués dans ces deux types de reconnaissance peuvent échanger des influences bottom-up et top-down (Ullman, 1995). L'ensemble de ces échanges, intervenant de façon contemporaine, permettrait de construire la représentation adaptée à chaque stimulus. c) Reconnaissance par la simulation Des deux mécanismes précédents découle un ensemble d’informations suffisant pour pouvoir reconnaître l’émotion et transférer, si nécessaire, les données aux régions impliquées dans le langage verbal. Mais cette connaissance explicite est peut-être insuffisante à la reconnaissance globale, totale de l’émotion exprimée par tel ou tel visage, soit parce que les détails fournis par l’image sont insuffisants, soit parce que cette expression n’est pas connue. Un chemin indirect dans la voie de la reconnaissance de l’expression pourrait emprunter les réseaux neuronaux nécessaires à l’exécution de cette même expression par l’observateur. Cette préparation de la simulation fournissant à l’observateur une représentation de luimême permettrait ainsi de compléter la connaissance de cette émotion. Le fait d’imiter une expression faciale lorsqu’on la perçoit est appelé rétroaction faciale (Tourangeau and Ellsworth, 1979). Rizzolatti et collaborateurs ont montré que les neurones déchargeant lorsque le singe prépare une action, peuvent également décharger lorsque cette action est détectée chez autrui (Gallese et al., 1996; Rizzolatti et al., 1996). Ils sont communément appelés « neurones miroirs ». Chez l’Homme, l’observation d’actions chez autrui désynchronise le signal provenant du cortex moteur en MEG, diminue le seuil moteur de cette région en stimulation magnétique transcrânienne (Strafella and Paus, 2000) et active le cortex prémoteur en IRMf (Iacoboni et al., 1999). Cette propriété respecte la somatotopie (Buccino et al., 2001). Ces résultats pourraient 59 illustrer une organisation économique impliquant les mêmes circuits dans l’élaboration des percepts et la reconnaissance d’une part, et des kinèmes d’autre part. Cela n’implique pas qu’il soit nécessaire de construire les représentations motrices des expressions faciales pour pouvoir les reconnaître. Ce phénomène semble également concerner les expressions faciales. Le ressenti de l’émotion et son expression semblent intimement liés (Rosenberg et al., 1998). En effet, la production d’expressions faciales peut modifier l’état émotionnel (Levenson et al., 1990; Ekman, 1993). N’est-il pas monstrueux que ce comédien, dans une pure fiction, dans une douleur rêvée, ait pu si bien soumettre son âme à sa pensée que tout son visage en pâlissait d’émoi, des larmes dans les yeux, l’air égaré, la voix qui se brise, tout son maintien, ses gestes, conformes à sa pensée ? Et tout cela pour rien… Hamlet, Acte II, scène II. William Shakespeare, traduction de Pierre Messiaen L’observation d’expressions peut induire des mouvements faciaux du même type chez l’observateur. Ces mouvements indétectables macroscopiquement sont enregistrés par l’EMG (Dimberg, 1982; Hess and Blairy, 2001) Jaencke, 1994. La perception consciente des expressions n’est pas requise pour observer ce phénomène (Dimberg et al., 2000). Ceci peut résulter de la représentation mentale des modifications somatiques générant le sentiment (Damasio, 1994; Damasio, 2003). Cette voie ne pourrait être qu’un complément dans la connaissance de l’expression, dans la mesure où les patients présentant une paralysie faciale congénitale n’ont pas de déficit dans la reconnaissance des expressions faciales (Calder et al., 2000c). 3) Le développement de la reconnaissance des expressions La capacité à lire les émotions sur les visages de nos congénères semble se développer tôt dans l’enfance (Nelson, 1987). Dès la naissance, les nouveaux nés orientent leur regard vers les stimuli à forme de visage (Valenza et al., 1996). Les 60 principales expressions faciales semblent être discriminées dès l’âge de neuf mois (Nelson, 1987). La simulation semble opérer tôt dans la vie, puisque les nouveaux nés ont tendance à mimer les mouvements faciaux (Meltzoff and Moore, 1983), ce qui peut être précurseur d’une capacité à mimer de véritables expressions. De plus, il semble que les expressions faciales des enfants atteints de cécité congénitale ne soient pas normales (Cole et al., 1989; Galati et al., 1997), alors que le développement socio-émotionnel de ces enfants semble altéré (Troster and Brambring, 1992). Enfin, la capacité à reconnaître les expressions à 5 ans pourrait conditionner l’insertion sociale ultérieure (Izard et al., 2001). Ces données confirment l’importance de l’exposition aux stimuli émotionnels pour un développement sociocomportemental normal, conditionné par un traitement perceptif élaboré des stimuli émotionnels dès la petite enfance. Là encore, perception et action vont de paire. 4) Structures impliquées dans la reconnaissance des expressions faciales Il semble exister 4 moyens d’altérer la reconnaissance ou la dénomination des expressions faciales : 1- par un déficit perceptif (par lésion de l’aire striée par exemple) 2- par déconnexion entre les étapes perceptives et les structures permettant la reconnaissance 3- par lésions de structures associant elles-mêmes les représentations perceptuelles et les concepts émotionnels, nécessitant peut-être une activation secondaire des structures impliquées dans le sentiment d’une émotion (cartes) 4- lésions de ces dernières structures impliquant une altération de la connaissance de soi, des autres et du monde. Les possibilités 1- et 4- ne sont pas spécifiques. La grande partie des données disponibles dans la littérature concerne la partie 3-. a) L’amygdale Si l’amygdale semble impliquée dans le traitement rapide, grossier et perceptuel des expressions faciales via des voies sous-corticales, elle reçoit également des informations complexes provenant des voies corticales concernant 61 les visages et participe à la reconnaissance (Adolphs, 2002). C’est un bon exemple de structure unique participant à différentes étapes du traitement d’un stimulus, sûrement à des moments différents. Son rôle dans le traitement des émotions est complexe et ubiquitaire. Les études chez l’animal ont montré qu’elle pouvait moduler une grande variété de réponses cognitives en fonction de la signification émotionnelle du stimulus (Aggleton, 1993). Le rôle principal de cette structure est représenté par l’association des représentations perceptuelles des stimuli émotionnels construites par le cortex visuel et une expérience émotionnelle en partie élaborée par le tronc cérébral et les noyaux hypothalamiques. La complexité fonctionnelle de l’amygdale est liée à sa structure comprenant plusieurs groupes de noyaux et à la complexité de leurs connexions. La représentation perceptive des stimuli provenant du cortex visuel semble pénétrer par les noyaux latéraux, alors que l’amygdale renvoie un signal en retour vers le cortex et le tronc cérébral, l’hippocampe et les noyaux gris centraux pour moduler la cognition et la réponse émotionnelle. Ainsi, les neurones amygdaliens répondent différemment aux visages chez l’Homme (Fried et al., 1997) et le primate (Nakamura et al., 1992), de même qu’aux stimuli à haute valeur motivationnelle (Nishijo et al., 1988) et aux stimuli à valeur sociale complexe (Brothers et al., 1990). Détail de tapisserie inspirée de l’oeuvre d’André Vésale Sarah Perret (2000) 62 1) Les lésions Etudes de lésions chez l’Homme amygdaliennes bilatérales induisent un déficit dans la reconnaissance des expressions faciales impliquant une forte réaction d’éveil en particulier la peur (Jacobson, 1986; Adolphs et al., 1994), alors que la discrimination des visages semble respectée. Certains auteurs défendent une notion de spécificité amygdalienne pour la peur (Adolphs et al., 1995; Broks et al., 1998; Anderson and Phelps, 2000a), alors que d’autres rapportent une altération de la reconnaissance des principales émotions négatives comme la colère, le dégoût et la tristesse (Adolphs, 1999, (Schmolck and Squire, 2001). Lorsque la lésion est unilatérale, il semble que le déficit soit moins important (Anderson et al., 2000a; Adolphs et al., 2001b). La capacité à reconnaître les expressions chez ces patients fut analysée par différents moyens, comme les tâches d’évaluation de l’intensité émotionnelle (Adolphs et al., 1994) ou de catégorisation (Young et al., 1995), souvent avec les visages d’Ekman et Friesen (1976). Dans la tâche d’évaluation de l’intensité émotionnelle, les sujets doivent évaluer l’intensité de chacune des 6 émotions, chaque visage pouvant exprimer un profil de plusieurs émotions. La tâche de catégorisation implique un classement unique pour chaque visage. Furent aussi utilisées des tâches d’appariement, de jugement de similarité (Adolphs et Tranel, 2000). La discrimination de l’identité par les visages paraît respectée chez ces patients (Adolphs et al., 1994), qui réalisent par exemple correctement l’épreuve de Benton (Benton face matching task) (Benton et al., 1983). Ils sont aussi capables de discriminer de subtils changements dans l’expression même si celle-ci n’est pas reconnue, ce qui indique que l’étape perceptive est bien accomplie (Adolphs et al., 1998a) 2000). Ces patients réalisent même des tâches extrêmement difficiles de discrimination visuo-spatiale (Starck and Squire, 2000). Le genre et l’âge des visages sont également bien perçus (Anderson and Phelps, 2000a). 63 Le rôle de l’amygdale dans le traitement des expressions faciales fut étayé par trois cas princeps de patients avec lésions amygdaliennes. Dans chacun de ces cas, la reconnaissance de la peur était compromise. La patiente SM est intéressante du fait de la spécificité de la lésion et du déficit (Tranel and Hyman, 1990; Adolphs et al., 1994). Chez cette patiente, la maladie d’Urbach-Wiethe, une maladie congénitale très rare, induit des calcifications amygdaliennes et entorhinales bilatérales. Dans des tâches d’évaluation de l’intensité émotionnelle, cette patiente sous-évalue systématiquement la peur exprimée par un visage, à un degré moindre la surprise et la colère. Elle est incapable de catégoriser les expressions si elle doit retrouver elle-même la catégorie, alors que le choix forcé est respecté. Elle a du mal à évaluer le degré d’éveil induit par toutes les expressions négatives (Adolphs et al., 1999), et à évaluer le niveau de confiance que doit inspirer un visage et le caractère plus ou moins avenant de celuici (Adolphs et al., 1998a). Elle a du mal à dessiner un visage effrayé, déclarant qu’elle ne sait pas à quoi ressemble une telle expression. Cependant, elle saisit très bien le concept verbal de peur et la prosodie (Adolphs and Tranel, 1999). Elle identifie normalement les individus par leur visage (Humphreys et al., 1993). Ses déficits peuvent refléter une altération dans l’évaluation d’un danger potentiel véhiculé par un visage (Adolphs and Tranel, 2003). La deuxième patiente, DR, quinquagénaire épileptique depuis l’âge de 28 ans, fut d’abord étudiée par Young et collaborateurs (Young et al., 1995). L’imagerie cérébrale montrait des remaniements post-opératoires importants de l’amygdale gauche et à moindre degré de l’amygdale droite. DR reconnaît bien l’identité de « morphings » construits à partir de personnages célèbres. Alors qu’elle réussit parfaitement le test de Benton, elle est gênée pour associer ou reconnaître les expressions faciales. Comme SM, elle peut décrire et définir les principales émotions. Calder et collaborateurs l’ont étudiée avec des « morphings » obtenus à partir des visages d’Ekman et Friesen exprimant les émotions de base (Calder et al., 1997). Ces images créent ainsi un continuum hexagonal entre la joie, la surprise, la peur, la tristesse, le dégoût, la colère pour revenir à la joie. Les sujets contrôles classent ces visages dans la catégorie la plus proche, alors que DR échoue, surtout pour ceux exprimant la peur, à moindre degré le dégoût et la colère. 64 Le troisième cas, SP, fut rapporté par Anderson et Phelps (Anderson and Phelps, 2000a). L’amygdale droite de SP, une femme de 54 ans au moment des tests, avait été réséquée lors d’une lobectomie temporale, alors qu’elle présentait également une lésion de l’amygdale gauche. SP reconnaît parfaitement l’identité, le sexe et l’âge des individus par leur visage. En revanche, elle présente des performances diminuées dans la reconnaissance des expressions de peur, de dégoût, de tristesse, et à un degré moindre de joie. La reconnaissance de la surprise et de la colère semble respectée. Elle réalise sur commande toutes les expressions faciales sans difficulté, en particulier la peur. Ces trois cas illustrent les dissociations entre la reconnaissance de l’identité des individus et celle des expressions sur les visages. Tout n’est pas aussi simple, puisque Hamann et Adolphs ont rapporté les observations de deux patients avec lésions amygdaliennes bilatérales à la suite d’une encéphalite herpétique, réalisant parfaitement bien les tests de reconnaissance d’expressions faciales utilisés pour la patiente SM (Hamann and Adolphs, 1999). Ainsi, le déficit de reconnaissance des émotions pourrait dépendre de la survenue précoce dans la vie des lésions amygdaliennes, ce qui souligne le rôle de l’amygdale dans le développement et l’apprentissage de la reconnaissance des expressions faciales. Les performances de ces sujets sont généralement altérées dans les tâches d’évaluation de l’intensité et de certaines catégorisations, même si des dissociations sont observées. Ces dissociations suggèrent que l’amygdale n’est pas complètement indispensable à tous les aspects de la reconnaissance des émotions. Elle doit s’intégrer à un réseau de structures dont le poids dans le traitement des émotions varie en fonction des stratégies adoptées, de la tâche, du sujet et du moment. Ces nombreux paramètres doivent inciter les chercheurs à utiliser des tâches qui restreignent le nombre de stratégies possibles, par exemple en introduisant des contraintes temporelles sévères. La variabilité des émotions mal reconnues par les patients présentant des lésions amygdaliennes vient compromettre toute tentative d’élaboration d’une conclusion simple. Alors que la reconnaissance de la peur est le plus souvent défectueuse, certaines études mettent l’accent sur un déficit concernant la tristesse 65 ou d’autres sur les émotions négatives en général (Adolphs et al., 1999; Schmolck and Squire, 2001). Cette variabilité ne peut être expliquée par celle des stratégies utilisées. Plutôt qu’un rôle dans l’évaluation du danger ou de la confiance qu’inspire un visage (Adolphs et al., 1999), certains ont proposé une implication de l’amygdale dans le déclenchement des ressources cognitives pour résoudre une ambiguïté survenue dans l’environnement. Ainsi, la peur et la colère signalent un danger mais diffèrent par la source du danger, extérieure au sujet observé dans le premier cas et inversement (Whalen et al., 2001). Ceci est en accord avec un rôle potentiel de l’amygdale dans la modulation attentionnelle, y compris l’attention spatiale (Vuilleumier et al., 2001). Son rôle prépondérant dans le traitement des émotions négatives à grand pouvoir éveillant, lui conférerait une fonction dans la détection du danger et de la menace (Adolphs et al., 1999), et par conséquent dans les conduites d’évitement (Anderson and Phelps, 2000b). La littérature ne permet toujours pas de trancher entre ces différentes hypothèses. Si la lésion concerne exclusivement l’amygdale, la capacité à décrire des scènes évoquant un sentiment de peur semble respectée (Adolphs et al., 1995), à la différence des cas où la lésion déborde sur le cortex temporal (Adolphs et al., 2003). La patiente SM fut extensivement testée : elle ne semble présenter qu’un déficit dans la reconnaissance de la peur sur les visages, indépendamment de la nécessité d’un traitement verbal (Adolphs et al., 2000b). L’amygdale ne doit pas être considérée comme le temple de la connaissance des émotions mais comme un médiateur entre la perception des expressions faciales et la construction de la connaissance du message émotionnel. Une lésion amygdalienne bilatérale semble altérer la modulation attentionnelle des stimuli présentés rapidement selon leur contenu émotionnel. En effet, les mots émotionnellement marqués modifient le « clignement » attentionnel chez les sujets normaux, et pas chez ces patients cérébrolésés (Anderson and Phelps, 2001). Des études de groupe ont montré un défaut d’apprentissage de nouvelles expressions faciales chez des patients présentant une lésion amygdalienne unilatérale (Boucsein et al., 2001) ou après lobectomie temporale droite (Anderson et al., 2000a; Adolphs et al., 2001c), malgré une perception visuelle simple respectée (Mendola et al., 1999). Cette altération concernait essentiellement la peur (Adolphs 66 et al., 2001c). Outre l’amygdale, les lésions intégraient le cortex temporo-polaire et rhinal, structures interconnectées avec l’amygdale et modulant les comportements émotionnels chez l’animal. Le déficit présenté par ces patients épileptiques dépendait de l’âge de survenue de l’épilepsie (Anderson et al., 2000a; Adolphs et al., 2001c), ce qui renvoie à la question de l’influence de l’âge de survenue des lésions amygdaliennes dans la genèse du déficit. SM présentait une lésion précoce des amygdales ce qui peut suggérer un rôle du développement (Hamann et al., 1996; Schmolck and Squire, 2001). Les lésions précoces chez le singe induisent des troubles du développement social, mais le rôle précis de l’amygdale dans l’acquisition de la connaissance des émotions faciales reste indéterminé. Les patients développant une lésion à l’âge adulte ne présentent pas de déficit dans l’évaluation de l’effet éveillant des expressions négatives, à la différences des patients aux lésions développées tôt dans la vie (Adolphs et al., 1997; Adolphs, 1999). Cela suggère fortement un rôle de l’amygdale dans l’acquisition de la connaissance globale des émotions faciales, peut-être lié à la mise en relation, l’association fonctionnelle entre les stimuli émotionnels externes et les réseaux neuronaux générant les aspects somatiques – viscéraux par exemple – des émotions, le monde des passions internes. Enfin, ces patients aux lésions amygdaliennes bilatérales jugent des visages inspirant habituellement peu confiance tout à fait avenants (Adolphs et al., 1998a), ce qui fut également observé chez des patients autistes (Adolphs et al., 2001a). History of the main complaint William Kentridge (1996) 67 2) Imagerie fonctionnelle Les hypothèses formulées à partir des études de lésions amygdaliennes bilatérales chez l’Homme furent rapidement corroborées par les résultats des études en imagerie fonctionnelle chez l’Homme. Ces études ont par exemple montré que l’amygdale réagissait automatiquement à la vision de visages émotionnels exprimant la peur, parfois exagérément dans certaines pathologies psychiatriques. Les deux études princeps utilisant la TEP (Morris et al., 1996) et l’IRMf (Breiter et al., 1996) ont montré une activation de l’amygdale (et du cortex péri-amygdalien) par la vision de visages exprimant la peur, sans qu’aucune attention spécifique ne soit portée sur l’expression. L’étude de Morris (Morris et al., 1996) utilisait des morphings entre visages exprimant la peur et la joie, montrant une corrélation linéaire entre l’intensité de l’expression de peur et l’activation amygdalienne. Une analyse de régression a montré dans cette étude que l’activation de l’amygdale (gauche) modulait l’activité du cortex visuel occipito-temporal extra-strié en réponse aux expressions faciales. Par la suite, des études en magnétoencéphalographie (Ioannides et al., 2000a) et IRMf (Morris et al., 1998) ont montré une corrélation entre l’activité amygdalienne et celle du cortex visuel occipito-temporal en réponse aux expressions faciales, ce qui est compatible avec une neuromodulation rétrograde de l’amygdale sur le cortex visuel. D’autres études ont montré une implication de l’amygdale dans le traitement d’autres expressions comme la joie induisant une activation (Breiter et al., 1996) ou une désactivation amygdalienne (Morris et al., 1996), la tristesse induisant une augmentation de l’activité amygdalienne (Phillips et al., 1998a; Blair et al., 1999; Kesler-West et al., 2001). Ces différences peuvent être rapportées aux stratégies individuelles requises par chaque expérimentation et chaque sujet. En général, il n’y avait pas de tâche explicite d’analyse des expressions, les sujets étant engagés dans une autre tâche ou simplement la vision passive. Des études plus précises ont montré que l’amygdale s’habitue vite aux expressions faciales (Breiter et al., 1996), surtout l’amygdale droite (Wright et al., 2001). Un réseau distribué dans l’hémisphère droit comprenant les régions préfrontales, l’insula, le gyrus post-central et le lobule pariétal inférieur participe à l’analyse des expressions faciales et semble également 68 s’habituer rapidement (Feinstein et al., 2002). L’amygdale peut réagir après présentation très brève d’une expression de peur, masquée secondairement, à la différence de visages masqués exprimant la joie (Whalen et al., 1998). Cela renforce l’idée que l’amygdale est impliquée automatiquement et rapidement dans le traitement de certaines expressions faciales. Alors que seules les lésions bilatérales sont responsables d’un déficit dans la reconnaissance des expressions faciales, l’imagerie fonctionnelle objective le plus souvent une activation unilatérale de l’amygdale. Certaines études se sont particulièrement intéressées à la question de la latéralisation. Morris et collaborateurs (Morris et al., 1998) suggèrent que l’amygdale droite est plus impliquée dans le traitement des messages subliminaux, et la gauche dans les messages présentés de façon supraliminaire. L’effet d’habituation serait plus importante à droite (Wright et al., 2001), ce qui suggère une évaluation plus dynamique de la part de l’amygdale droite et plus soutenue par la gauche. Iidaka et collaborateurs suggèrent un rôle différent des amygdales gauche et droite à travers une étude utilisant une IRM 3T (Iidaka et al., 2001). Ils montrent que l’amygdale gauche serait impliquée dans le traitement des émotions négatives, alors que l’amygdale droite ne réagit pas différemment en fonction de l’expression. Il existe d’ailleurs dans cette étude une coactivation de l’amygdale gauche et du cortex préfrontal ventrolatéral gauche et dorsolatéral droit, suggérant l’intervention d’une boucle fonctionnelle amygdalopréfrontale dans le traitement des expressions faciales. Hariri et collaborateurs ont comparé l’activation amygdalienne lors d’une tâche d’association d’images et de catégorisation verbale (Hariri et al., 2000). Les deux amygdales pourraient participer à la reconnaissance des expressions lors de la tâche d’association. On ne peut conclure qu’une seule amygdale suffit à la reconnaissance des expressions faciales. D’une part, les stratégies réelles utilisées par les sujets ne peuvent être intimement contrôlées. D’autre part, l’analyse statistique paraît déterminante pour interpréter ces études : le fait que la variation d'activité d’une amygdale, plutôt que celle des deux, atteigne la significativité, ne veut pas dire qu’une amygdale soit plus activée que l’autre (Davidson and Irwin, 1999). Or la comparaison directe des deux amygdales n’est pas réalisée dans ce type d’étude. Il semble que dans la majorité des études, les deux amygdales soient activées, mais que l’activité d’une seule soit suffisante pour atteindre la significativité. 69 Le cri Edvard Munch (1893) 70 3) Aspects temporels du traitement amygdalien Alors que les études de lésions et l’imagerie fonctionnelle abordent exclusivement la question de la localisation spatiale du traitement des émotions, il est important également de préciser à quel(s) moment(s) l’amygdale peut être impliquée dans cette analyse. Il paraît illusoire de pouvoir déterminer les étapes correspondant strictement à la perception et la reconnaissance. Même les structures visuelles impliquées très précocement peuvent participer à de hauts niveaux de reconnaissance via les connexions feedback provenant du cortex temporal antérieur, de l’amygdale et du cortex frontal. Cette hypothèse est confortée par des études comportementale et neurophysiologiques. Par exemple, la perception d’images dégradées ou ambiguës est influencée par la reconnaissance préalable de ces mêmes images (Dolan et al., 1997). Les neurones amygdaliens répondent aux stimuli visuels à des latences très variables courant de 60 à près de 900 ms (Nakamura et al., 1992). Différents sousnoyaux semblent répondre aux visages, les uns situés dans les régions latérales comme les noyaux bao-latéral et latéral (Nakamura et al., 1992), d’autres dans les régions médiales comme le noyau basal accessoire (Leonard et al., 1985). Il ne semble pas y avoir de grande différence dans les latences des réponses, puisque ces différents groupes commencent à répondre aux visages 100 ms après le début du stimulus, et ceci de façon soutenue dans le temps, jusqu’à plus de 500 ms (Nakamura et al., 1992). Les neurones visuels non spécifiques des visages pourraient répondre plus rapidement (Nakamura et al., 1992). Ces neurones amygdaliens, en particulier ceux appartenant au noyau basal accesoire, répondent aux visages après les neurones visuels du STS spécifiques des visages (Leonard et al., 1985). Ces neurones ayant été enregistrés lors d’une tâche focalisant l’attention sur les visages dans cette dernière étude (Leonard et al., 1985), leur activité pourrait ainsi refléter un traitement du message social véhiculé par les visages, une fois le traitement plus perceptif réalisé dans le STS. Ainsi, les latences des réponses neuronales amygdaliennes enregistrées ici ne sont pas en faveur d’un traitement sous-cortical prédominant pour les messages véhiculés par les visages. 71 Des enregistrements unitaires réalisés dans l’amygdale humaine montrent une proportion plus importante de neurones répondant aux stimuli désagréables qu’aux stimuli agréables (Fried et al., 1997). Les neurones amygdaliens répondent aux stimuli visuels à des latences très variables courant de 60 à près de 900 ms (Nakamura et al., 1992). L’amygdale semble répondre aux visages expressifs dès 120 ms (Halgren et al., 1994), de façon différentielle selon l’émotion après 150 ms (Liu et al., 1999), ce qui peut correspondre à un traitement relativement automatique et implicite (Critchley et al., 2000). Une partie de ce traitement précoce peut être attribuée aux connexions sous-cortico-amygdaliennes, contribution mise en lumière par les stimuli masqués n’induisant pas de perception consciente et impliquant pourtant une réaction amygdalienne (Morris et al., 1999; Morris et al., 2001). Cependant, les techniques jusqu’à présent employées (EEG, MEG) n’ont pas une résolution spatiale suffisante pour affirmer la localisation amygdalienne de cette activité précoce plutôt que celle des régions adjacentes. Après acquisition de l’information bottom-up, l’amygdale pourrait participer de trois manières différentes à la reconnaissance des expressions faciales : a) elle peut moduler les représentations perceptuelles via une information feedback. En effet, les potentiels de champs locaux sont modulés dans le cortex temporal chez l’Homme en fonction du contenu émotionnel (Puce et al., 1999), alors que les neurones du cortex temporal du singe codent l’information émotionnelle d’un visage après l’encodage des catégories super-ordonnées (visage versus non visage) (Sugase et al., 1999). b) l’amygdale peut aussi participer à l’activation des connaissances associées à l’émotion via ses connexions avec d’autres régions du néocortex et l’hippocampe. c) elle peut enfin déclencher les processus à l’origine d’une réaction émotionnelle permettant de finaliser la connaissance conceptuelle de chaque émotion via la simulation du processus émotionnel. 72 b) Le cortex orbito-frontal Ce qui est arrivé à Phineas Gage, contremaître de Nouvelle Angleterre, inaugure l’histoire des publications de troubles psycho-comportementaux secondaires à des lésions cérébrales. En effet, ce jeune homme de 25 ans fut victime le 13 septembre 1848 d’un accident de chantier, responsable d’une projection de barre à mine ayant transpercé sa mâchoire pour ressortir par la partie antérieure de la boite crânienne. A la surprise générale, Phineas fut légèrement abasourdi et récupéra un niveau de conscience normal en quelques heures. Il ne présentait aucun déficit neurologique focalisé, son « intelligence » paraissait même normale. Cependant, « Phineas n’était plus Phineas ». Alors qu’il était réputé travailleur, extrêmement compétent, amical et agréable en société, son caractère avait complètement changé. Il ne respectait plus les conventions sociales, pouvait être grossier, ne pouvait se fixer à une tâche. Il n’avait plus aucun sens des responsabilités et prenait des décisions contraires à ses intérêts. Il a alors débuté une vie d’errance avant de mourir en 1861. John Martyn Harlow, son médecin, l’a longuement étudié et a pu décrire les troubles comportementaux qu’il rapportait à sa lésion frontale. Malheureusement, Harlow n’apprit son décès que longtemps après, et l’autopsie n’a pas été réalisée. Seul le crâne a pu être récupéré. Figure 11 : Portrait de J.M. Harlow et reconstruction 3D du trajet intracrânien de la barre de mine réalisée par Hanna Damasio et collaborateurs (Damasio et al., 1994) 73 D’après Damasio, c’est son incapacité à ressentir certaines émotions et à partager celles d’autrui qui a privé Phineas Gage de la faculté de prendre des décisions adaptées et bénéfiques. Il ne pouvait plus avoir de rétrocontrôle positif ou négatif de sa propre expérience pour en tenir compte normalement (Damasio, 1994). Damasio, Bechara et Tranel ont montré que les lésions du cortex préfrontal ventro-médian altéraient l’aptitude à ressentir une émotion lorsque le « Stimulus Emotionnellement Compétent » est de nature sociale et lorsque l’émotion attendue est une émotion sociale comme l’embarras, la culpabilité ou le désespoir (Anderson et al., 1999). Des handicaps de ce type compromettent le comportement social normal (Bechara et al., 1994; Bechara et al., 1996; Bechara et al., 1997). Le cortex orbito-frontal, fortement interconnecté avec l’amygdale (Stefanacci and Amaral, 2002), joue un rôle important dans le traitement des expressions faciales. Les études chez l’animal - surtout les études de lésions impliquant une disconnexion - ont montré que le cortex orbito-frontal et l’amygdale étaient impliqués dans le traitement des aspects de récompense ou de punition, et qu’ils interagissaient étroitement (Gaffan et al., 1993). Les connexions étroites entre le cortex préfrontal et le cortex temporal sont nécessaires pour un traitement approfondi des stimuli visuels, en particulier pour ce qui concerne les connaissances préalablement acquises (Fuster et al., 1985; Tomita et al., 1999). Dans la première étude en TEP de Morris et collaborateurs, le cortex orbito-frontal droit était activé par le contraste expressions faciales (peur et joie) versus visages neutres, alors que les visages devaient être classés selon le genre (Morris et al., 1996). Le cortex orbito-frontal est impliqué dans le self-control, l’auto-inhibition et le choix de stratégie au cours du développement (Case, 1992). En effet, le développement de cette région corticale subit une poussée évolutive précoce autour de 3 ans (Thompson et al., 2000), suivie d’une maturation étonnamment tardive au cours de l’adolescence (Sowell et al., 1999). Les conséquences des lésions développementales dans cette région sont majeures (Eslinger et al., 1992; Anderson et al., 1999). Il semble qu’il existe une redistribution fonctionnelle des aires préfrontales et de l’amygdale au cours du développement. En effet, Killgore et collaborateurs (Killgore et al., 2001) ont démontré que chez les femmes, l’activation 74 du cortex préfrontal en relation avec l'expression faciale de peur augmentait plus avec l’âge que celle de l’amygdale. Ces auteurs proposent un déplacement, au cours de la maturation, de l’activité des structures sous-corticales vers les aires corticales préfrontales, en parallèle d’un meilleur contrôle de soi et des comportements émotionnels. Le cortex préfrontal, et en particulier le cortex orbito-frontal, joue un rôle social majeur, en particulier par la relation interpersonnelle, les coopérations sociales, le comportement moral et les réactions aux agressions sociales (Damasio, 1994; Anderson et al., 2000b). Les psychoses développementales ont été associées à des anomalies structurales des régions préfrontales (Raine et al., 2000). Les structures orbito-frontales pourraient jouer un rôle dans l’inhibition des réactions aux stimuli émotionnels dans un contexte social donné (Blair, 1995). Un déficit dans la reconnaissance des expressions faciales fut également mis en évidence dans des groupes de patients schizophrènes (Mandal et al., 1998). Les comportements agressifs anormaux des psychotiques pourraient être liés aux anomalies morphologiques observées dans ces régions, et à un défaut d’inhibition de structures sous-corticales comme l’amygdale. Bien que certains aient impliqué de larges régions du cortex frontal dans la reconnaissance des expressions faciales, la majorité souligne le rôle des régions orbito-frontales particulièrement connectées avec l’amygdale et les autres structures intervenant dans la régulation du processus émotionnel et du système autonome (Ongur and Price, 2000). L’étude de Hornak et collaborateurs (Hornak et al., 1996) a montré une altération de la reconnaissance des émotions à travers les expressions faciales et la voix après lésion orbito-frontale. Hornak et collaborateurs ont aussi montré que ces patients présentaient une altération du ressentiment émotionnel, en particulier de peur, et qu’ainsi, le cortex orbito-frontal participait à la fois à l’expérience émotionnelle et à la reconnaissance des émotions (Hornak et al., 1996). Les patients avec une lésion orbito-frontale droite pourraient présenter un déficit plus systématique et important que les patients à lésion exclusivement gauche. D’autres n’ont pas confirmé ces données (Adolphs et al., 1994; Adolphs et al., 2000b). Cependant ces dernières études n’exploraient pas exclusivement les patients avec lésion orbito-frontale, si bien que leur nombre était limité. De plus, alors que Hornak 75 et collaborateurs utilisaient une tâche de catégorisation, les autres études impliquaient une évaluation de l’intensité de l’émotion. Des études en imagerie fonctionnelle ont montré une activation orbito-frontale gauche lors d’une tâche de maintien mental d’une expression de joie (Dolan et al., 1996), et droite après comparaison de présentation d’expression de peur et d’expression neutre (Vuilleumier et al., 2001). Dans l’étude de Gorno-Tempini et collaborateurs, le cortex orbito-frontal (BA11 et 47) était activé de façon bilatérale par les visages exprimant la joie (contraste joie/dégoût) lors des tâches de traitement émotionnel implicite et explicite (Gorno-Tempini et al., 2001). Des études utilisant la stimulation magnétique transcrânienne (Harmer et al., 2001) ou la TEP (Blair et al., 1999) ont montré que le cortex préfrontal, en particulier orbito-frontal médian et le gyrus cingulaire antérieur, est particulièrement impliqué dans le traitement de la colère. La colère et la peur induisent de plus importantes réactions végétatives qui pourraient être en partie en partie déclenchées par ces aires préfrontales. Figure 12 : Régions du cortex orbito-frontal droit et du gyrus cingulaire antérieur droit dont l’activité en IRMf est corrélée à l’augmentation de l’intensité de la colère exprimée par un visage (Blair et al., 1999). Outre un rôle dans l’encodage et la reconnaissance des visages, il est clair que le cortex préfrontal participe à la reconnaissance des expressions faciales, mais les aires impliquées et leurs rôles respectifs doivent être précisés. Les données récentes soulignent le rôle des structures ventro-médianes surtout droites dans le traitement des expressions très éveillantes telles la peur et la colère. Les visages 76 attirants induisent une activation du cortex orbito-frontal médian (O'Doherty et al., 2003). Il semble que ces structures participent également à la genèse d’émotions et à la reconnaissance de ces mêmes émotions, comme si cette reconnaissance ne pouvait être pleinement assurée que par le déclenchement a minima de cette émotion chez l’observateur lui-même, comme cela a été proposé pour l’amygdale. Le cortex orbito-frontal est aussi activé lors de nombreuses activités cognitives, incluant la prise de décision, la sélection de réponse et la récompense, le contrôle de soi, de même que l’olfaction (Rolls et al., 1994a; Blair and Cipolotti, 2000; Rolls, 2000). Ces différents arguments ont permis à Antonio Damasio d’avancer l’idée que « les émotions sont fondatrices de la raison », et que le cortex orbito-frontal peut jouer un rôle déterminant dans l’établissement de ce lien fondateur. c) Le cortex somato-sensoriel Le cortex somato-sensoriel pourrait participer à l’étape de la "construction de la connaissance" par la genèse de la simulation. Les patients présentant une lésion des aires SI, SII et de l’insula à droite présentent une altération significative de leur capacité d’empathie pour des personnages exprimant différentes émotions dans différentes situations (Adolphs et al., 2000b). Ces aires possèdent de grandes capacités d’intégration des cartes corporelles somatotopiques. Les muscles faciaux d’individus normaux regardant des visages exprimant différentes émotions sont « contractés » de façon infraclinique, cette activité étant détectée par enregistrement électromyographique (Dimberg et al., 2000). L’écoute de différentes prosodies émotionnelles induit une activité fronto-operculaire bilatérale (Kotz et al., 2003) ainsi que des gyri temporaux supérieurs et moyens (Mitchell et al., 2003). Il semble donc que pour reconnaître les émotions chez autrui, il soit nécessaire d’initier une simulation probablement inconsciente. La reconnaissance des expressions faciales peut être considérée comme la perception d’une action chez autrui. Faut-il impliquer le cortex somato-sensoriel en rapport avec l’expression seulement, ou l’ensemble de l’état émotionnel du corps détecté par l’expression faciale ? Tout pourrait dépendre de la tâche et du niveau de reconnaissance 77 conceptuelle requis. Le cortex moteur nécessaire à l’imitation des expressions pourrait être essentiel dans l’implication secondaire du cortex somato-sensoriel. Mais ce rôle pourrait être en partie assumé par les noyaux gris centraux et les noyaux moteurs du tronc cérébral. L’implication de structures reliant les voies motrices et le cortex somato-sensoriel impliqué dans la perception des changements corporels liés à l’émotion, soit directement, soit en engendrant ces mêmes modifications corporelles, paraît nécessaire. Ces structures pourraient être l’amygdale et le cortex orbito-frontal. L’hémisphère droit présentant un avantage potentiel pour la reconnaissance des émotions et des expressions faciales, il est important de vérifier si certaines régions sont plus particulièrement impliquées dans cette analyse. Certaines études de lésions et d’imagerie fonctionnelle ont montré une relation fonctionnelle entre les aires pariétales ventrales et occipitales ventrales internes droites intervenant dans la reconnaissance des expressions faciales négatives, en particulier la peur (Gur et al., 1994; Adolphs et al., 1996). Les gyri supramarginal postérieur et temporal supérieur sont également impliqués (Adolphs et al., 1996). Une étude de lésions avec un plus large échantillon a même montré un implication de SI et SII (Adolphs et al., 2000b). Ainsi la somesthésie et la reconnaissance des émotions semblent liées. Chez les patients lésés à droite, il existe une corrélation entre l’intensité du déficit sensitif et celle du défaut de reconnaissance des expressions faciales (Adolphs et al., 2000b). Dans cette étude, la tâche était d’évaluer l’intensité des expressions. Cette expérience impliquait une capacité de dénomination et une connaissance conceptuelle de l’émotion pour évaluer son intensité. Il semble en fait que le cortex pariétal droit soit impliqué dans les 3 aspects de la reconnaissance des expressions, c'est à dire, la capacité d’associer ces expressions, de les dénommer (Young, 1995) et d’évaluer leur intensité. Ces études de lésions suggèrent que l’opercule frontal gauche et le cortex temporal droit semblent plus spécifiquement impliqués dans l’accès lexical aux émotions, alors que le cortex pariétal droit et l’insula seraient plus impliqués dans une étape de simulation. 78 d) Le cortex insulaire Les premiers indices de l’existence d’un système fonctionnel dévolu au traitement du dégoût proviennent d’étude chez le singe. Yaxley et collaborateurs ont identifié le cortex gustatif du primate dans le cortex insulaire antérieur, car des neurones de cette région répondent différemment aux goûts agréables et désagréables (Yaxley et al., 1988). Le cortex insulaire est un cortex somato- sensoriel viscéral, participant aux modulations du système nerveux autonome et ayant des connexions étroites avec l’amygdale (Amaral et al., 2003a). Chez l’Homme, on a pu mettre en évidence un défaut de reconnaissance de l’expression de dégoût sur le visage d’autrui chez des patients présentant une lésion focale ou une maladie impliquant un plus large réseau neuronal. L’étude de lésion la plus sélective est celle de Calder et collaborateurs qui ont objectivé un tel déficit chez un patient (NK) présentant une lésion focale de l’insula et du putamen gauches (Calder et al., 2000b). Ce patient présentait des difficultés pour reconnaître l’expression faciale de dégoût, mais également à ressentir le dégoût lui-même. La première étude d’imagerie fonctionnelle ayant permis d’étayer le rôle de l’insula dans le traitement du dégoût fut conduite par Phillips et son équipe, en utilisant des visages exprimant la peur et le dégoût à degrés variables lors d’une tâche focalisant l’attention sur le genre (Phillips et al., 1997; Phillips et al., 1998b). L’amygdale et l’insula gauches furent activées par la peur, alors que l’insula droite réagit au dégoût, de même que le cortex frontal médian, le putamen droit et le thalamus droit a minima. Figure 13 : Activation en IRMf de l’insula antérieure gauche (en rouge) par la présentation de visages exprimant le dégoût (vue en coupes axiale et coronale) (Phillips et al., 1997) 79 Ces résultats furent partiellement confirmés par Sprengelmeyer et collaborateurs qui montrèrent une activation de l’insula gauche et du putamen droit par les visages exprimant le dégoût (Sprengelmeyer et al., 1998). Dans cette étude, le cortex frontal inférieur fut également activé par les visages exprimant la colère, la peur, le dégoût, versus les visages neutres. L’étude plus récente de Gorno-Tempini et collaborateurs a montré une activation de l’insula gauche, du thalamus droit, putamen et noyau caudé droits en réponse au dégoût (Gorno-Tempini et al., 2001). e) Les noyaux gris centraux Les lésions des noyaux gris centraux, surtout à droite, semblent impliquer un déficit dans la reconnaissance des émotions (Cancelliere and Kertesz, 1990). L’imagerie fonctionnelle a montré une activation à droite en comparant des expressions faciales de joie et de peur (Morris et al., 1996), de tristesse et de visages neutres (Phillips et al., 1998a). Mais la résolution spatiale de ces deux approches n’est pas suffisante pour explorer en détails ces complexes nucléaires infiltrés de substance blanche. Trois maladies impliquant les noyaux gris centraux furent explorées : les troubles obsessionnels compulsifs, la maladie de Parkinson et la maladie de Huntington. Les patients atteints de troubles obsessionnels compulsifs ressentant un sentiment de dégoût exacerbé ont des difficultés à reconnaître l’expression de dégoût (Sprengelmeyer et al., 1997). Certains ont objectivé un déficit dans la reconnaissance des expressions faciales dans la maladie de Parkinson (Blonder et al., 1989; Jacobs et al., 1995b), alors que d’autres n’ont pas retrouvé ce déficit (Adolphs et al., 1998b). Un défaut de reconnaissance du dégoût sur les visages a également été mis en évidence chez des patients de maladie de Huntington (Sprengelmeyer et al., 1996), patients souffrant d’une détérioration cognitive plus globale incluant une altération de reconnaissance des visages (Jacobs et al., 1995a). Dans cette maladie, les noyaux gris centraux, en particulier le noyau caudé, semblent lésés précocement, mais une perte neuronale fut également objectivée dans l’amygdale. Ce déficit de reconnaissance du dégoût, et a minima de la peur et de la colère, fut également objectivé chez des patients pré-symptomatiques porteurs du gène (Gray et al., 1997). Le matériel utilisé dans les expériences de 80 Sprengelmeyer et de Calder évaluant des patients aux lésions amygdaliennes bilatérales est le même, si bien que ces groupes d’études peuvent être comparés. La reconnaissance de la peur est altérée de part et d’autre, mais en proportions beaucoup plus importantes dans le groupe de lésions amygdaliennes, alors que la reconnaissance du dégoût est altérée chez les patients atteints de maladie de Huntington et troubles obsessionnels compulsifs. Cette double dissociation confirme un poids différent de l’amygdale et des noyaux gris centraux dans le traitement de la peur et du dégoût. Il est probable que les noyaux gris centraux s’inscrivent dans un réseau comprenant l’insula et le cortex orbito-frontal intervenant dans le traitement du dégoût. Ces observations soulignent les rapports étroits entre l’expérience émotionnelle, la production (motrice) d’expressions faciales et la reconnaissance de ces mêmes expressions faciales. La stimulation électrique profonde dans cette région, probablement dans la substance noire, a même induit une émotion intense (tristesse) et son corrélat expressif facial, les capacités de reconnaissance n’ayant pas été testées alors (Bejjani et al., 1999). Les régions ventrales (Everitt et al., 1999) et dorsales (Han et al., 1997) des noyaux gris centraux sont intimement connectées avec l’amygdale. Les connections avec le cortex préfrontal, en particulier le cortex orbito-frontal, sont également importantes (Berendse et al., 1992; Eblen and Graybiel, 1995). Les régions ventrales semblent impliquées dans les aspects motivationnels liés au caractère attractif des visages (Aharon et al., 2001; Kampe et al., 2001). Les relations entre cortex orbitofrontal, striatum ventral et amygdale sont mises en exergue dans la prise de décision, la récompense et les phénomènes d’addiction aux drogues (Everitt et al., 1999; Schultz et al., 2000). Ce réseau semble donc être fortement impliqué dans la relation sociale (Brothers et al., 1990). Il semble que non, que son implication soit plus fondamentalement reliée à la récompense et à la punition, valable aussi dans le contexte des expressions faciales. Ce réseau striatum – amygdale pourrait également introduire les notions primaires de récompense - punition dans des structures qui nuanceraient secondairement ces notions en fonction du contexte social, principalement le cortex orbito-frontal. Cet arrangement hiérarchique serait en accord avec ce que l’on sait de l’évolution et du développement du traitement des expressions faciales. 81 Certains comportements sont liés à la présence de neuromédiateurs spécifiques comme la dopamine et la sérotonine. Ainsi, les comportements vécus comme des récompenses et comme agréables dépendent de la libération de dopamine dans l’aire ventro-tegmentale du tronc cérébral et de sa présence dans le noyau accumbens à la base du précortex. La base du précortex, les noyaux hypothalamiques, certains noyaux du tegmentum du tronc cérébral et les noyaux commandant les muscles faciaux, de la langue, du pharynx et du larynx sont les exécutants de nombreux comportements simples ou complexes définissant les émotions, comme l’attirance sexuelle ou la fuite, le rire ou les pleurs (Panksepp, 2003) 82 Ainsi, le traitement des visages est assuré par de nombreuses structures communes au traitement de tout stimulus visuel. a) des mécanismes sous-corticaux court-circuitant les aires visuelles striées permettant un traitement grossier, automatique, de stimuli visuels transitoires et certainement hautement saillant. b) un traitement impliquant les cortex occipital et temporal, généralement recrutés lorsque l’analyse est plus fine, plus complète permettant une reconstruction subtile de l’image de l’objet. Cette organisation est connue pour le système auditif. En effet, chez le rat, le traitement passant par le thalamus et l’amygdale semble suffisant pour traiter les stimuli tonals conditionnant la peur, alors que les stimuli complexes conditionnant également la peur doivent être traités en partie par le cortex auditif (LeDoux, 1996). Il ressort de l’ensemble de ces études que les émotions négatives et positives impliquent des réseaux neuronaux différents. Le traitement des expressions négatives est assuré par des régions dont les lésions ont induits des déficits spécifiques, comme le défaut de reconnaissance de la peur après lésion amygdalienne, du dégoût après lésion des noyaux gris centraux et de l’insula. Pour les visages exprimant la joie, il n’y a pas de pattern d’activation bien identifié en imagerie fonctionnelle, ni même de lésions capable d’induire un déficit spécifique de reconnaissance. 83 5) La perception des émotions est-elle latéralisée ? Il ressort de la littérature une tendance à la supériorité de l’hémisphère droit dans le traitement des émotions, que ce soit au niveau perceptif ou de la reconnaissance. Il existe des différences hémisphériques dans le traitement des visages : nous reconnaissons notre propre visage plus rapidement avec l’hémisphère droit qu’avec l’hémisphère gauche (Keenan et al., 2001), alors que la prosopagnosie survient beaucoup plus souvent après une lésion unilatérale droite qu’après une lésion gauche (Sergent and Signoret, 1992; De Renzi et al., 1994), bien qu’une lésion bilatérale soit généralement nécessaire (Damasio et al., 1990). L’hémisphère droit contient des systèmes indispensables pour la communication sociale, complémentaires du langage traité dans l’hémisphère gauche (Bowers, 1993). Des lésions de l’hémisphère droit peuvent induire un déficit dans la discrimination, la reconnaissance et la dénomination d’expressions faciales émotionnelles et de scènes émotionnelles (DeKosky et al., 1980), alors que la stimulation électrique du cortex temporal droit visuel altère la perception, la reconnaissance et la mémoire des visages (Fried et al., 1982). Les émotions semblent être traitées préférentiellement par l’hémisphère droit dès l’âge de 5 ans, certains ayant enregistré des potentiels évoqués différents selon les expressions faciales en regard de l’hémisphère droit (de Haan, 1998). Mais il ne semble pas que les choses soient aussi simples. Différentes théories sont débattues : avantage de l’hémisphère droit pour toutes les émotions hypothèse HD - (Burt and Perrett, 1997; Borod et al., 1998), ou spécialisation de l’hémisphère droit pour les émotions négatives, les émotions positives étant préférentiellement traitées à gauche, - hypothèse valence - (Reuter-Lorenz and Davidson, 1981; Canli et al., 1998). Une interaction avec le traitement du genre pourrait venir compliquer les données (Van Strien and Van Beek, 2000). D’autres suggèrent que l’hypothèse valence prévaudrait pour l’expérience émotionnelle et son expression, alors que l’hypothèse HD fonctionnerait pour la perception des émotions (Borod et al., 1998; Canli et al., 1998). 84 Les mesures physiques des paramètres expressifs sur les visages d’Hommes et de singes renforcent la théorie de la valence, au moins pour la partie inférieure du visage (Hauser, 1993; Richardson et al., 2000). Pour ce qui concerne la perception et la reconnaissance des expressions faciales, les études de lésions sont partagées, certaines en faveur de la théorie de la valence (Borod et al., 1986; Schmitt et al., 1997; Mandal et al., 1999), d’autres en faveur de la théorie HD (Borod et al., 1998; Adolphs et al., 2000a). Les études d’imagerie fonctionnelle sont également partagées (cf infra). Les études utilisant les visages chimères, exprimant une expression d’un côté, une autre ou l’absence d’expression de l’autre, sont intéressantes. Les travaux de Levy et son équipe sont en faveur de la théorie de la valence (Levy et al., 1983; Hoptman and Levy, 1988; Luh et al., 1991). D’autres renforcent l’hypothèse HD (Christman and Hackworth, 1993; Morris and Hopkins, 1993). Les études utilisant la tachitoscopie vont généralement dans le sens de la théorie de la valence, l’hémichamp visuel gauche percevant préférentiellement les émotions négatives et vice versa (Reuter-Lorenz and Davidson, 1981; Davidson et al., 1987). La complexité des rôles respectifs des deux hémisphères dans le traitement des expressions faciales reflète certainement les multiples stratégies dépendantes de chaque sujet et de chaque tâche. Une étude d’un patient « split-brain » a montré que les deux hémisphères étaient équivalents dans la reconnaissance des expressions faciales lors de tâches standards, un avantage de l’hémisphère droit lors de tâches d’associations non verbales, disparaissant lors de tâches de catégorisation verbales (Stone et al., 1996). L’ensemble de ces études réalisées chez le sujet normal et les cérébrolésés indique que les rôles des deux hémisphères sont différents dans le traitement des expressions faciales, sans soutenir obligatoirement la thèse de l’HD ou de la valence émotionnelle. Un avantage de l’hémisphère droit pour les émotions négatives semble se dégager, ou du moins pour les expressions induisant la plus forte réaction d’éveil, dont la plupart sont négatives (Peper and Irle, 1997). Ainsi, les plus importantes réactions végétatives sont enregistrées après stimulations par des visages négatifs très éveillants présentés à l’hémisphère droit (Johnsen, 1993; Johnsen and Hugdahl, 85 1993), alors que ces réponses diminuent drastiquement après lésion de l’hémisphère droit, moins après lésions de l’hémisphère gauche (Tranel and Damasio, 1994). Ainsi, l’avantage de l’hémisphère droit ne pourrait survenir que dans certaines conditions, lorsque le stimulus émotionnel induit une réaction d’alerte rapide. Les lésions du néocortex à droite peuvent induire une anomie pour les émotions (Bowers and Heilman, 1984; Rapcsak et al., 1993). Ces patients peuvent reconnaître un visage, son identité, peuvent associer les expressions, tout en présentant des difficultés dans la dénomination des émotions. Deux patients de Rapcsak et collaborateurs avec une lésion du gyrus temporal moyen droit (Rapcsak et al., 1993) présentaient un déficit isolé de la dénomination des expressions faciales. La reconnaissance des émotions et les associations visuo-sémantiques paraissaient respectées. Les auteurs émettaient l’hypothèse d’une déconnexion entre le système de reconnaissance des expressions faciales et les aires du langage traitant du lexique des émotions, ces deux systèmes étant connectés par une voie directe. Le patient de Bowers et Heilman présentait une lésion pariéto-temporale droite intéressant la substance blanche (Bowers and Heilman, 1984). Il existait probablement un déficit dans la reconnaissance des parties du corps à la suite de la lésion pariétale droite. Nous venons de voir que les régions occipitales et temporales, en particulier à droite, construisent des représentations détaillées des visages permettant d’encoder l’information perceptuelle de l’expression faciale. Comment ces représentations perceptuelles sont-elles mises en relation avec la connaissance conceptuelle de chaque émotion ? De nombreuses structures semblent participer à la reconnaissance de l’émotion à partir d’un visage : le cortex occipito-temporal, pariétal droit, orbito-frontal bilatéral, l’opercule frontal gauche, les deux amygdales, le cortex insulaire, les noyaux gris centraux entre autres (Brothers et al., 1990). La situation est encore compliquée par le fait que la majorité des études implique d’autres tâches que la reconnaissance des expressions, telles la mémoire épisodique ou l’attention. 86 6) L’influence de la tâche Certains prétendent que la peur est une expression plus difficile à reconnaître que les autres, et qu’en fait, sa reconnaissance n'est pas disproportionnellement altérée par rapport à celle des autres expressions après lésion de l’amygdale ou du cortex pariétal droit (Rapcsak et al., 2000). Le fait que la peur soit plus difficile à reconnaître est bien discuté, la majorité des auteurs citant la tristesse et le dégoût comme expressions les plus difficiles à différencier d’une expression neutre, en opposition à la surprise, la joie et la peur (Adolphs, 2002). Cependant, en choix forcé entre les six émotions principales, la peur paraît effectivement difficile à différencier de la surprise. La joie paraît plus facile à distinguer, mais son classement peut être superordonné (content - mécontent) à la différence des expressions négatives qui impliquent un classement subordonné. La peur et la surprise « positive » pourraient représenter des catégories subordonnées appartenant à une grande catégorie « surprise ». Rapcsak et collaborateurs (Rapcsak et al., 2000) soulignent le fait que les six expressions principales ne sont certainement pas discriminées avec une chance équivalente, du fait de leur classification subordonnée ou non. Deux études récentes ont montré des profils d’activations différents en fonction des types de traitements implicite ou explicite des expressions faciales. Dans l’étude Critchley et collaborateurs, le traitement des expressions activait les gyri fusiforme et temporal moyen, l’hippocampe, la jonction amygdalo-hippocampique et le pulvinar (Critchley et al., 2000). Le traitement explicite impliquait plus le cortex temporal alors que le traitement implicite impliquait surtout l’amygdale. Cela est en désaccord avec une activation de l’amygdale gauche et du striatum droit lors du traitement explicite dans une autre étude récente (Gorno-Tempini et al., 2001). 87 Nous constatons ainsi qu’une mosaïque de structures cérébrales participe à la perception et à la reconnaissance des expressions faciales voire des émotions. Les fonctions des principaux intervenants commencent à se dessiner. La grande majorité des informations dont nous disposons est issue des études de lésions et de l’imagerie fonctionnelle, qui fournissent des cartes illustrant les structures impliquées, à un moment ou à un autre, dans une fonction déterminée du cerveau. Cependant, les interactions entre les différents éléments d’un ou plusieurs réseaux neuronaux largement distribués et certainement variables selon la tâche et le contexte, sont très mal connues. La précision des aspects temporels du traitement cérébral des expressions faciales apparaît indispensable à une meilleure compréhension des éventuelles séquences d’activation des différentes structures impliquées dans la reconnaissance des expressions faciales, leurs possibles coopérations et interactions. Or, dans une étude récente et non moins célèbre, Logothetis et collaborateurs ont montré que l’effet BOLD obtenu en IRMf devait être rapproché de l’activité électrique de type Local Field Potential ou même des activités oscillatoires soutenues, et non d’activités neuronales unitaires ou multi-unitaires (Logothetis et al., 2001). La communauté scientifique est donc avide de confrontations de ces cartes fonctionnelles issues de l’imagerie et de donnée temporelles précises que peut apporter l’électrophysiologie chez l’Homme. Nous proposons à travers une série d’études électrophysiologiques conduites chez l’Homme, de tenter de préciser la dynamique spatio-temporelle de la reconnaissance cérébrale des expressions faciales. 88 Chapitre 4 : Travaux expérimentaux Un sourire de diva Naturel ? 89 Dans la série de travaux comportant des enregistrements de scalp et des enregistrements intra-crâniens, un protocole de stimulation commun fut utilisé. Il était important de pouvoir comparer les réponses électrophysiologiques obtenues sur le scalp et dans les différentes structures intra-cérébrales. A. Protocole de stimulation 1) Stimuli Huit visages différents (4 hommes et 4 femmes) issus de la banque de visages d’Ekman et Friesen furent utilisés (Ekman and Friesen, 1975). Ces visages en noir et blanc sont contrôlés et standardisés pour ce qui concerne la luminance moyenne (29,9 cd.m-2) et le contraste. Cinq expressions faciales par visage furent utilisées, à savoir l’expression neutre, la joie, la peur, le dégoût et la surprise.. Neutre Joie Peur Dégoût Surprise Figure 14 : Exemples de deux visages (une femme et un homme) exprimant les 5 émotions utilisées dans notre étude (Ekman and Friesen, 1975). 90 Le temps d’exposition était de 400 ms, alors que l’intervalle de temps entre les stimulations (SOA : Stimulus Onset Asynchrony) était de 2000 ms. Une croix blanche (22mm) permettait la fixation centrale du regard. Chaque série de stimuli comportait les 8 visages exprimant chacun les 5 expressions citées précédemment, pour un total de 40 stimuli par série. L’ordre d’apparition des stimuli fût randomisé pour chaque série. 2) Conditions Le sujet était assis dans une semi-obscurité à 110 cm de l’écran ; la taille angulaire des stimuli était d’environ 5°. Un apprentissage sur quelques stimuli permettait d’entraîner le sujet à la fixation de la croix en limitant les saccades et les clignements. Un temps de repos était ménagé après 3 séries consécutives et après chaque tâche. 3) Tâches Deux tâches furent proposées aux sujets. Six séries de stimuli furent présentées pour chaque tâche, soit un total de 240 stimuli par tâche et 48 stimulations pour chaque expression. Tâche n°1 « Attention au genre » : Le sujet prêtait attention explicitement au genre du visage présenté en comptant de façon alternée entre les séries les visages de femmes et les visages d’hommes. Tâche n°2 « Attention à l’expression » : Le sujet prêtait une attention explicite à l’expression du visage, puisqu’il devait détecter et compter les visages exprimant la surprise. Aucune réponse orale ou motrice n’était demandée au sujet pendant la série de stimulations, mais le résultat devait être donné après chaque série. Une série d’entraînement à la reconnaissance de la surprise fût présentée entre les tâches n°1 91 et n°2. Après la séance d’enregistrement, chaque sujet a dû visionner à nouveau les visages en nommant les expressions détectées. B. Enregistrements de scalp : Etude n°1 1) Matériels et méthodes Dans cette étude, les potentiels évoqués aux visages (Ekman and Friesen, 1975) furent recueillis sur le scalp de 10 sujets sains. Les sujets étaient successivement engagés dans deux tâches, la première impliquant une attention sur le genre, la deuxième sur l’émotion. Les réponses évoquées furent moyennées selon l’expression faciale, la peur, la joie, le dégoût, la surprise ou l’expression neutre. Les cibles (hommes ou femmes dans la première tâche, les visages exprimant la surprise dans la deuxième) n’étaient pas prises en compte dans les analyses statistiques. Le système d’acquisition (Neuroscan®) permettait un enregistrement de scalp sur 31 voies en montage référentiel et une voie réservée à l’électro-oculogramme (EOG) en montage bipolaire. Dix-huit électrodes de scalp étaient réparties selon les critères du système international 10-20 de Jasper (Jasper, 1958). Treize électrodes furent ajoutées à ce système : 3 électrodes préfrontales (FP1, FP2, FPZ), 5 électrodes fronto-centrales (FC3, FC4, FC7, FC8, FCZ), 3 électrodes centropariétales (CP3, CP4, CPZ), et 2 électrodes temporo-pariétales (TP7, TP8). Figure 15 : Schéma de la disposition sur le scalp des électrodes selon le système 10-20 (Jasper, 1958) figurées par les potentiels évoquées par les visages neutres obtenus à partir des moyennes des 10 témoins. Les électrodes occipitales et temporales (entourées) ont enregistré les réponses aux visages. 92 La référence était placée au niveau de l’aile droite du nez et la terre dans la région médio-frontale. Les impédances devaient être inférieures à 5 kΩ, la vitesse d’échantillonnage était de 500 Hz, la bande passante de 0,1 à 70 Hz. L’EOG fût recueilli grâce à une électrode placée au-dessus de l’arcade sourcilière droite et une autre en dehors du canthus externe de l’œil droit. Un enregistrement continu de l’électro-encéphalogramme fût recueilli dans un premier temps, puis un traitement différé des données fût réalisé secondairement. L’électro-encéphalogramme fut d’abord découpé en époques de 1500 ms. Une élimination systématique des époques comportant des artéfacts oculaires de type clignement ou saccades et des artéfacts d’origine musculaire fût réalisée si l’amplitude dépassait 30 µvolts. Le moyennage fût réalisé après correction de la ligne de base par soustraction de l’amplitude moyenne obtenue entre –100 ms et 0 ms. Le temps d’analyse était de –100 ms à 1500 ms. 2) Principaux résultats Dans les deux tâches, les réponses positives occipitales de type P1 furent enregistrées autour de 100 ms après le début du stimulus, les réponses négatives plus spécifiques des visages (N1) à 160 ms dans les deux régions occipitotemporales, puis d’autres réponses positives P2 et P3 survenant respectivement dans les régions occipitale et pariétales. 93 Figure 16 : Réponses obtenues à partir des moyennes des 10 témoins, évoquées par les visages neutres, enregistrées par les électrodes T5 et T6 du système international « 10-20 », pendant la tâche « Attention au genre » Représentations cartographiques des réponses évoquées marquées par le curseur. P1, N1 et P2 : réponses évoquées décrites dans le texte, µV : microvolts; ms : millisecondes Lorsque l’attention était focalisée sur le genre, aucune différence ne fut observée entre les réponses évoquées sur le scalp par les différentes expressions faciales. Figure 17 : Réponses obtenues à partir des moyennes des 10 témoins, évoquées par les visages aux différentes expressions, enregistrées par les électrodes Cz, T5 et T6 du système international « 10-20 », pendant la tâche « Attention au genre » P1, N1 et P2 : réponses évoquées décrites dans le texte, µV : microvolts; ms : millisecondes 94 Lorsque l’attention était portée sur l’expression, des différences d’amplitudes furent observées sur les réponses tardives, entre 250 et 750 ms après le début du stimulus. Dans un premier temps, entre 250 et 550 ms, ces différences étaient observées dans les régions occipitales, puis, dans un deuxième temps, entre 550 et 750 ms, dans la région occipito-temporale droite. Figure 18 : Réponses obtenues à partir des moyennes des 10 témoins, évoquées par les visages aux différentes expressions, enregistrées par les électrodes Cz, T5 et T6 du système international « 10-20 », pendant la tâche « Attention aux expressions » P1, N1 et P2 : réponses évoquées décrites dans le texte, P3 : potentiel lié à la cible (surprise), les lettres X/Y représentent les comparaisons significatives en analyses post-hoc pour chaque période de latence entre barres pointillée, N pour neutre, D pour dégoût, F pour peur, H pour joie et S pour surprise, µV : microvolts; ms : millisecondes 95 96 3) Article n°1 Portrait de Giovanni Papini Carlo Carrà (1913) 97 98 99 100 101 102 103 104 105 106 4) Discussion complémentaire Au moment de la publication de cet article, les données temporelles concernant le traitement cérébral des expressions faciales et des émotions chez l’Homme étaient rares. Quelques études électrophysiologiques de scalp avaient montré de façon indirecte que la reconnaissance des expressions faciales implique un traitement cérébral dispersé dans le temps (Carretie and Iglesias, 1995; Munte et al., 1998; Pizzagalli et al., 1998). En effet, les modulations des réponses électrophysiologiques de scalp en fonction du message émotionnel furent principalement observées après 300 ms et souvent jusqu’à près de 1000 ms poststimulus, ce qui fut interprété comme une modulation dépendant de l’attention focalisée par le message émotionnel (Cuthbert et al., 2000). Notre étude a montré que l’on pouvait mettre en évidence sur le scalp des différences dans les réponses aux messages véhiculant différentes émotions. Cette activité différentielle fut détectée sur une longue période courant de 250 ms à 750 ms après le début du stimulus, dans la région occipitale et la jonction occipito-temporale droite. Ces réponses postérieures tardives sont bien compatibles avec les activités liées aux catégorisations d’objets visuels, en particulier des visages et de leurs différents attributs, observées tardivement dans ces régions chez le singe (Hasselmo et al., 1989) et chez l’Homme par potentiels évoqués et magnétoencéphalographie (Batty and Taylor, 2003; Streit et al., 2003). Des différences sont d’abord apparues entre les réponses aux visages neutres et celles aux visages exprimant une émotion, entre 250 et 550 ms, dans les régions occipitales. D’autres furent secondairement observées entre 550 et 750 ms au niveau de la jonction occipito-temporale droite entres les réponses à chaque type d’émotion (neutre, joie, peur et dégoût). Ces résultats suggèrent une première organisation temporelle hiérarchisée du traitement des stimuli émotionnels au niveau des aires visuelles. Une détection du caractère émotionnel des stimuli pourrait précéder une analyse plus fine discriminant les expressions entre elles. Cette possible hiérarchie temporelle survient assez tardivement et de façon soutenue au niveau d’aires visuelles intervenant par ailleurs précocement dans l’analyse de la 107 scène visuelle. Une telle activité différentielle persistant jusqu’à 750 ms dans ces régions renforce l’hypothèse d’une neuromodulation rétrograde intervenant sur le cortex visuel extra-strié et peut-être le cortex strié. Les aires limbiques sont fortement pressenties pour participer à une telle modulation (Morris et al., 1998). La hiérarchie temporelle observée tardivement au niveau du scalp pourrait témoigner d’un autre niveau hiérarchique au sein d’aires visuelles et multimodales, comme les aires limbiques et paralimbiques, se situant plus en aval dans le traitement des stimuli visuels émotionnels. La détection du caractère émotionnel des stimuli pourrait intervenir plus rapidement au niveau des aires limbiques et paralimbiques, ce qui, grâce à une activité modulatrice rétrograde, permettrait aux aires visuelles extrastriées d’optimiser l’extraction de l’information visuelle concernant les traits faciaux. Cette première distinction préparerait à un traitement plus fin permettant la différentiation des expressions faciales entre elles. Une deuxième étape, probablement intriquée dans le temps et dans l’espace avec la première, nécessiterait également l’interaction des aires visuelles corticales et des structures d’aval. Cette hypothèse d’une modulation rétrograde fut renforcée chez l’Homme par certaines études en imagerie fonctionnelle montrant par exemple une corrélation entre l’activité amygdalienne et celle du gyrus fusiforme en réaction à l’expression de peur (Morris et al., 1998). Mais cette approche ne permet pas d’appréhender les aspects temporels de cette coopération entre différentes structures cérébrales. Notre étude montre que les aires visuelles postérieures participent au traitement des stimuli émotionnels après quelques centaines de millisecondes, alors que les structures limbiques ont déjà réagi à ce type de stimulation visuelle (Halgren et al., 1994; Fried et al., 1997; Ioannides et al., 2000b). Si une telle coopération existe, elle peut donc intervenir tardivement et de façon soutenue. On peut s’étonner du caractère relativement tardif de ces activités différentielles illustrant le traitement des expressions faciales. En effet, les premières réponses visuelles enregistrées dans le cortex temporal du singe surviennent dès quelques dizaines de millisecondes après le début de la présentation du stimulus (Tovee et al., 1993). Cependant, les réponses spécifiques permettant de différencier un visage d’un autre objet visuel ne semblent survenir qu’après 100 ms (Perrett et 108 al., 1982; Hasselmo et al., 1989; Rolls et al., 1994b; Sugase et al., 1999)(à vérifier). Les réponses neuronales aux expressions faciales surviennent généralement après celles qui reflètent le traitement de l’identité. Elles sont enregistrées chez le singe aux alentours de 170 ms dans la région du STS (Sugase et al., 1999). Les réponses étant généralement enregistrées chez l’Homme plus tardivement que chez le singe (Nowak et al., 1995), et la technique des potentiels évoqués de scalp étant vraisemblablement moins sensible que les enregistrements unitaires, les latences des activités enregistrées dans notre étude sont compatibles avec les données de la littérature. Les réponses spécifiques survenant dans la région temporale droite pourraient correspondre à un traitement effectué dans la région temporale supéroexterne, en particulier celle du STS et du cortex adjacent. L’existence d’un traitement plus rapide, automatique, des expressions faciales n’est pas démontrée par notre étude de scalp. Cependant, certaines études utilisant les potentiels évoqués de scalp (Eimer and Holmes, 2002; Batty and Taylor, 2003) rapportent des réponses différentes selon les expressions faciales à des latences plus précoces. Certains suggèrent qu’une différentiation grossière des stimuli visuels pourrait être détectée dès 50 ms (Seeck et al., 1997b; VanRullen and Thorpe, 2001), ce qui serait compatible avec un traitement du genre (Mouchetant-Rostaing et al., 2000). Cependant, le corrélat électrophysiologique de l’encodage structural des visages, la négativité N170 bitemporale, ne survient qu’aux environs de 170 ms (Bentin et al., 1996), alors que les enregistrements intra-crâniens chez l’Homme n’ont pas pu enregistrer d’activités en réponses aux visages à la surface du cortex inférotemporal avant 200 ms (Allison et al., 1999; McCarthy et al., 1999; Puce et al., 1999). En MEG, alors que le corrélat de l’encodage structural des visages semble être représentée par la M170 bitemporale, une onde moins ample survient en réponse aux visages autour de 100 ms (M100) (Liu et al., 2002). Il pourrait s’agir de la première réponse spécifique des visages dans le cortex occipito-temporal, reflétant un encodage du visage en tant que visage avec encodage focal des parties du visage, alors que la réponse survenant autour de 170 ms reflèterait l’encodage structural global du visage (Liu et al., 2002). Seule la deuxième réponse pourrait être corrélée à la reconnaissance de l’identité. Ainsi, le traitement neuronal permettant de catégoriser un visage en tant que tel pourrait débuter dès 100 ms. 109 Eimer et Holmes affirment avoir mis en évidence une différence entre les réponses aux visages neutres et effrayés au niveau d’un pic positif fronto-central survenant à 120 ms (la tâche focalisant une attention non spécifique sur les visages) (Eimer and Holmes, 2002). Or cette réponse était plus ample pour les visages neutres, ce qui est difficilement interprétable en termes neurophysiologiques. De plus, comme nous pouvons le constater sur la figure ci-dessous, cette différence semble s’amorcer avant le début du stimulus, alors que la ligne de base n’est pas stable. Aucune différence pic à pic entre cette réponse positive et les réponses qui suivent n’est observée entre les visages neutres et effrayés. Figure 19 : Potentiels évoqués moyens obtenus en réponse aux visages neutres (courbes pointillées) ou exprimant la peur (courbes pleines) sur les électrodes FC5 et FC6 du système 10-20 (Eimer and Holmes, 2002). Une étude récente a montré une influence des expressions faciales sur les réponses précoces P1 et N170 dans les régions postérieures (Batty et coll, 2003). La tâche requise impliquait une reconnaissance implicite des émotions. Cette étude est intéressante car 26 sujets y ont participé, alors que 210 photographies furent utilisées et répétées une seules fois, ce qui réduit un éventuel effet d’habituation ou de répétition. Cependant, il n’est pas sûr que les paramètres de bas niveau aient été contrôlés dans cette étude, à la différence des visages de la banque maintenant 110 classique d’Ekman et Friesen (Ekman and Friesen, 1975). Ces résultats impliquent des commentaires. L’effet de l’émotion sur le P1 (p=0.03) ne concerne pas les émotions deux à deux, alors que les réponses aux visages neutres et surpris étaient moins amples que les autres. Le fait que les réponses aux visages surpris – stimuli induisant une réaction d’éveil importante - soient moins amples que les autres, est difficile à interpréter. D’autre part, le N170 en réponses à des visages exprimant des émotions négatives survenait plus tardivement, ce qui est également surprenant. Figure 20 : Grandes moyennes des potentiels évoqués recueillis chez 26 sujets par une électrode occipitale (O1) et une électrode temporale postérieure (P7) montrant la moindre amplitude des potentiels aux expressions neutre et surprise, et l’augmentation de latence du N170 pour les visages exprimant la peur, le dégoût et la tristesse. L’amplitude maximum du N170 était observée pour la peur (Batty and Taylor, 2003). 111 Ces effets précoces sont intéressants, car ils peuvent illustrer le traitement implicite automatique rapide traqué par de nombreux chercheurs, mais il faut ici redouter une influence de type bas niveau, ne reflétant pas directement les processus de perception et de reconnaissance des expressions faciales. Les activités différentielles ne furent enregistrées dans notre étude que lorsque l’attention était portée sur l’émotion. Il est possible que la technique des potentiels évoqués de scalp, réalisée chez dix sujets, ne soit pas assez sensible pour objectiver les traitements précoces et automatiques des stimuli émotionnels. Cela expliquerait le fait que ces activités ne soient enregistrées que lorsque l’attention est focalisée sur les expressions. Cela corrobore d’autres résultats de modulations tardives reflétant une influence de type top-down, obtenues sur la N400 avec des visages familiers (Eimer, 2000). D’autres ont également montré l’existence d’activités cérébrales très prolongées induites par des stimuli émotionnels et dépendantes de l’attention (Cuthbert et al., 2000). Cette influence de l’attention renforce l’hypothèse que ces activités corticales postérieures reflètent une influence de type top-down. La technique des potentiels évoqués de scalp permet donc de démontrer que les aires visuelles postérieures sont impliquées tardivement dans le traitement des expressions faciales lorsque l’attention est portée sur l’émotion. Ce traitement spécifique pourrait obéir à une hiérarchie temporelle relative. Nous avons encore besoin d’études complémentaires à la recherche d’un corrélat électrophysiologique sur le scalp d’un traitement automatique précoce des expressions faciales. 112 C. Enregistrements intra-crâniens L’étude des réponses électrophysiologiques intracérébrales recueillies par électrodes profondes implantées chez des patients épileptiques pharmaco-résistants lors d’explorations préchirurgicales, revêt des intérêts majeurs : - Moins sensible aux clignements et mouvements oculaires, à la contraction des muscles péricrâniens, elle permet d’augmenter considérablement le rapport signal sur bruit, dès lors que les structures étudiées se situent en dehors des foyers épileptogènes. - la précision de l’implantation selon la méthode de Talairach et les nouvelles techniques de recalage permettent d’obtenir une résolution spatiale importante, l’échantillonnage spatial dépendant du nombre d’électrodes implantées. - elle conserve enfin la résolution temporelle inégalée des potentiels évoqués. 1) Matériels et méthodes a) Les patients Ces enregistrements furent réalisés chez des patients épileptiques pharmacorésistants hospitalisés dans le Service de Neurologie Fonctionnelle et d’Epileptologie du Pr. François Mauguière à l’Hôpital Neurologique de Lyon. Ces patients sont habituellement hospitalisés pendant 2 à 3 semaines dans le cadre d’explorations préchirurgicales nécessitant l’enregistrement de crises épileptiques par des électrodes profondes implantées dans le cerveau. Les sites d’implantation sont choisis en fonction de l’histoire et des signes cliniques, des enregistrements de vidéo-EEG, des résultats de l’IRM, du SPECT – Single Photon Emission Computerized Tomography - critique et inter-critique et parfois de la Tomographie par Emission de Positons. 113 Figure 21 : IRM sagittale pondérée en séquence T1 mise à l’échelle 1 Afin d’éviter les structures vasculaires, une artériographie encéphalique est préalablement réalisée. La superposition à l’IRM permet de définir les structures à explorer tout en évitant les vaisseaux. Figure 22 : Vue sagittale de l’artériographie encéphalique mise à l’échelle 1 114 b) Les électrodes Chaque électrode est composée de contacts en acier inoxydable isolés les uns des autres. Ils mesurent 2 mm de long et sont disposés tous les 1,5 mm. Chaque électrode possède 5, 10, 15 ou 3 groupes de 5 contacts. c) Implantation des électrodes L’implantation des électrodes est un geste chirurgical réalisé au bloc opératoire sous anesthésie générale. Ce geste ne peut être réalisé qu’après superposition de l’angiographie et de l’IRM encéphaliques toutes deux mises à l’échelle 1. Le risque de dommage des vaisseaux est ainsi limité. Les électrodes sont implantées perpendiculairement au plan sagittal, grâce à une grille stéréotaxique adaptée à l’atlas de Talairach et Tournoux (Talairach and Tournoux, 1988). La position de chaque cible est définie sur l’IRM encéphalique à l’échelle 1 avant l’implantation. Figure 23 : Radiographie du crâne de profil avec le cadre de Talairach permettant d’implanter les électrodes dont les sites ont été définis par l’IRM et l’artériographie Les radiographies du crâne, de face et de profil, réalisées après l’implantation, permettent de reporter les contacts sur un papier calque, ainsi que la ligne AC-PC et le plan VCA passant par la commissure antérieure, repérés sur l’IRM à l’échelle 1. 115 Chaque contact est ensuite reporté sur l’IRM 3D du patient grâce aux coordonnées définies dans les trois plans. Figure 24 : Radiographie de face réalisée après l’implantation permettant de visualiser les contacts des électrodes Figure 25 : Radiographie de profil réalisée après l’implantation permettant de visualiser les électrodes 116 Electrode Localisation J A Pôle temporal Amygdale Gyrus temporal moyen Hippocampe antérieur Gyrus temporal moyen Gyrus temporal supérieur Insula Gyrus temporal supérieur Insula Gyrus para-hippocampique Gyrus fusiforme Gyrus temporal inférieur Cortex orbito-frontal Opercule précentral Insula Opercule post-central, Insula Gyrus cingulaire antérieur Gyrus frontal inférieur Région infracalcarine Gyrus occipital moyen Hippocampe antérieur Gyrus temporal moyen B T H L O P N K V B' Distance à la ligne Nombre médiane (mm) de plots 2 5 3 15 5 15 7 10 10 10 4 10 6 12 10 10 13 11 10 15 9 15 5 15 Exemple de résumé d’implantation pour un patient Lors de ce séjour, de nombreux examens sont réalisés afin de définir une cartographie fonctionnelle pour chaque patient : - des enregistrements de potentiels évoqués somesthésiques, nociceptifs, auditifs et visuels - des stimulations électriques délivrées au niveau des contacts d’électrodes choisis parmi les plus pertinents pour la reproduction des premiers symptômes annonçant la crise d’épilepsie Vingt-cinq patients d’âge moyen de 31 ans participèrent aux études présentées cidessous. 117 2) Etude n°2 : « About serendipity » a. Résumé Cette étude ne portant pas directement sur l’analyse de la reconnaissance des émotions par le cerveau humain fut conduite dans la première partie de la préparation de la thèse. Elle fut incitée par un évènement imprévu, l’implantation du corps genouillé par une électrode profonde. Cela nous donnait l’occasion unique de vérifier et d’explorer les résolutions spatiales et temporelles de cette technique d’exploration électrophysiologique, directement au cœur des voies visuelles sous-corticales. Chez la patiente n°1 de cette étude, l’électrode ciblant la queue d’un hippocampe gauche atrophié atteignit en fait le corps genouillé, son plot le plus interne touchant le corps genouillé médian, le contact adjacent le corps genouillé latéral (CGL). Ainsi, les potentiels évoqués auditifs recueillis dans le corps genouillé médian par Blaise Yvert et collaborateurs (Yvert et al., 2002) ont pu être comparés aux réponses visuelles enregistrées au niveau du plot adjacent. Une double dissociation de ces réponses auditives et visuelles a permis de confirmer la localisation du plot interne au sein des voies auditives et celle du plot adjacent sur la voie visuelle, confortant ainsi la forte résolution spatiale de la technique. Ainsi, les premières réponses évoquées visuelles furent enregistrées dès 40 ms après le début de la stimulation dans le CGL, alors qu’elles survenaient plus tard autour de 70 ms dans le cortex visuel primaire chez un autre patient. En observant ces réponses évoquées, nous fûmes intrigués par un signal oscillatoire dont la fréquence était celle du rafraîchissement de l’écran. Après de multiples étapes ayant permis d’éliminer un artéfact électromagnétique, nous pouvions démontrer que ce signal reflétait la réaction neuronale au sein du CGL et du cortex visuel primaire à une composante de l’image non perçue consciemment, le rafraîchissement de l’écran. Ces réponses oscillatoires adoptant la fréquence de rafraîchissement de l'écran (60 ou 70 Hz suivant les conditions) confirmaient l’excellente résolution temporelle de cette technique. Ces oscillations évoquées par le caractère sinusoïdal de la stimulation (le rafraîchissement de l’écran) ne furent pas enregistrées au-delà de du complexe V1/V2 occipital. 118 b. Article n°2 Tout ce qui existe est le fruit du hasard et de la nécessité. Jean Monod Pape II Francis Bacon (1951) 119 120 121 122 123 124 125 126 127 128 129 130 3) Etude n°3 : Le dégoût et l’insula Une des grandes avancées de l’épileptologie de ces dernières années est représentée par l’exploration du rôle de l’insula dans certaines épilepsies. Les travaux de François Mauguière, Jean Isnard et collaborateurs ont permis d’incriminer cette structure dans certaines épilepsies pharmaco-résistantes, et d’en tirer les conséquences thérapeutiques (Isnard et al., 2000). Ces progrès furent réalisés grâce à l’avènement de la technique d’implantation de ce lobe enfoui au fond de la vallée sylvienne, difficile d’accès car située en arrière d’une toile vasculaire bien menaçante. Grâce à Marc Guénot et Marc Sindou, cette structure est maintenant accessible à l’implantation d’électrodes profondes et au recueil direct du signal électroencéphalographique (Guenot et al., 2004). La voie est donc tracée pour l’étude des réponses électrophysiologiques aux expressions faciales dans cette structure jusqu’alors inaccessible, avec une attention particulières portée sur le dégoût (Phillips et al., 1997). a) Résumé de l’étude Les potentiels évoqués par les visages aux différentes expressions furent recueillis dans l’insula de 13 patients épileptiques pharmaco-résistants lors de la période d’explorations préchirurgicales. Des réponses spécifiques au dégoût furent recueillies dans la partie ventrale antérieure de l’insula de 4 patients, alors que les enregistrements effectués dans les régions dorsales de l’insula n’ont pas montré de réponses spécifiques. Ces réponses survenaient généralement après 300 ms lorsque l’attention était focalisée sur l’émotion, pour durer approximativement 200 ms. Elles étaient influencées par la tâche car elles survenaient 100 ms plus tard lorsque l’attention était focalisée sur le genre, lorsque le traitement du message émotionnel devait être plus implicite. Ces résultats démontrent qu’une région très focale de l’insula est impliquée dans la reconnaissance des expressions faciales chez l’Homme, une région particulièrement interconnectée avec les circuits neuronaux gustatifs, olfactifs et 131 viscéromoteurs. Ces différents réseaux traitent certains aspects du concept émotionnel du dégoût. L’insula ventrale antérieure pourrait représenter un carrefour déterminant dans la mise en relation de ces différents aspects perceptifs, moteurs et peut-être cognitifs, et la construction de la connaissance conceptuelle de cette émotion. b) Article N°3 Cet article est précédé d’un éditorial d’Andrew Calder paru dans le même journal. Il insiste ici sur les rapports étroits entre la perception du dégoût chez autrui et le phénomène émotionnel ressenti par soi-même à l’occasion d’une observation de lésion de l’insula gauche antérieure. Cette lésion induisait effectivement un déficit dans la reconnaissance du dégoût chez autrui et l’expérience même du dégoût (Calder et al., 2000b). 132 133 134 135 136 137 138 139 140 141 142 143 144 c) Discussion complémentaire Ainsi, l’insula ventrale antérieure, en particulier le gyrus long antérieur, participe au traitement du dégoût exprimé par un visage. Cette activité survient entre 300 et 500 ms après le début du stimulus lorsque l’attention est portée sur les expressions, un peu plus tard lorsque le traitement est plus implicite. Plusieurs arguments plaident en faveur d’une intervention tardive de l’insula dans le réseau impliqué dans la reconnaissance de l’expression faciale de dégoût, à une étape d’intégration du concept général de cette émotion. En effet, ce traitement intervient essentiellement dans une région multimodale de l’insula, le secteur ventral antérieur, agranulaire et dysgranulaire, puissamment connecté avec les réseaux gustatifs, olfactifs et viscéromoteurs. Il ne s’agit pas d’une région visuelle exclusive, même si elle semble plus sensible aux stimuli visuels qu’aux stimuli vocaux exprimant le dégoût (Phillips et al., 1998b). Figure 26 : Séquence d’IRM pondérée en T1 montrant un infarctus insulaire gauche (flèche) impliquant également la capsule interne, le putamen (P), le pallidum (GP) et la tête du noyau caudé (CN) – a : coupe axiale – b : coupe coronale. Cette lésion a induit chez ce patient une altération de la reconnaissance du dégoût dans différentes modalités : reconnaissance d’expressions faciales, d’onomatopées exprimant différentes émotions, de différentes prosodies (Calder et al., 2000b). 145 L’étude récente de Wicker et collaborateurs a confirmé grâce à l’IRM fonctionnelle l’implication de la région antérieure de l’insula dans l’intégration de plusieurs aspects de cette émotion, que ce soit la reconnaissance d’expression faciale ou l’émotion propre de dégoût générée par des odeurs (Wicker et al., 2003). Figure 27 : Illustration des activités liées à l’observation du dégoût sur le visage d’autrui (en bleu) et à l’émotion de dégoût générée par des odeurs (en rouge), dans une région plus dorsale de l’insula antérieure (Wicker et al., 2003). Avant Figure 28 : Contacts (pleins) ayant enregistré l’effet du dégoût, situés dans l’insula ventrale antérieure dans notre étude. 146 L’hypothèse d’une intégration multimodale du dégoût dans cette région de l’insula est corroborée par le fait que ce sont les stimulations électriques effectuées au niveau des contacts insulaires ayant enregistré les réponses spécifiques au dégoût, qui ont induit une sensation désagréable dans la gorge, remontant dans la bouche et le nez. Cette intégration multimodale pourrait aider à la construction de la connaissance conceptuelle du dégoût. Ainsi, la partie ventrale antérieure de l’insula serait en mesure d’intégrer de multiples aspects du dégoût, depuis l’évaluation directe des goûts et des odeurs jusqu’aux conséquences viscéromotrices permettant de ressentir l’émotion proprement dite, en passant par la reconnaissance de l’émotion chez autrui transmise par différents canaux sensoriels. Elle pourrait également participer à la construction du sentiment de dégoût, peut-être de honte - un certain dégoût de soi nécessitant probablement l’activation des réseaux neuronaux participant habituellement à la perception de l’émotion proprement dite (Damasio, 2001a). 147 148 4) Etude N°4 : Un réseau distribué dans le temps et dans l’espace a) Résumé Dans cette étude, les réponses évoquées par les différentes expressions faciales furent initialement étudiées dans l’amygdale de quatre patients, chez lesquels cette structure ne semblait pas participer au réseau épileptogène. Leur signal EEG était normal, ce qui est extrêmement rare dans l’épilepsie de lobe temporal explorée par électrodes profondes. Ces réponses furent également analysées chez certains de ces patients au niveau du cortex occipito-temporal, temporal externe et orbito-frontal. Enfin, les potentiels amygdaliens aux expressions faciales furent moyennés dans un groupe de 10 patients (dont les quatre patients cités précédemment) dont le signal EEG était le moins perturbé par les éléments paroxystiques épileptiques. Les mêmes stimuli et les mêmes tâches que ceux présentés plus haut étaient proposés aux patients. Dans les amygdales considérées comme saines, des réponses plus amples pour la peur furent recueillies dès 200 ms après le début du stimulus lorsque l’attention était focalisée sur l’émotion. Cette première réponse durant environ 100 ms était suivie d’une deuxième réponse beaucoup plus soutenue dans le temps, enregistrée jusqu’à des latences approchant la seconde. Ce deuxième type de réponse était concomitant de réponses spécifiques à la peur également enregistrées dans le cortex occipito-temporal, temporal externe et orbito-frontal. Les moyennes des potentiels enregistrés dans les amygdales des dix patients ont confirmé l’existence de réponses à la peur dès 200 ms lorsque l’attention était portée sur l’émotion, et de réponses plus tardives à la peur et au dégoût lorsque l’attention était portée sur le genre. Dans cette dernière condition, le traitement de l’émotion était plus implicite. Ainsi, les réponses à la peur surviennent dans l’amygdale 100 ms avant les réponses au dégoût dans l’insula. Cela reflète un degré de hiérarchie temporelle en faveur du traitement des stimuli les plus aversifs. Ce délai est très important pour des stimuli très proches, des visages dont les paramètres physiques sont contrôlés, ne différant que par leur message émotionnel. Les latences de réaction amygdalienne 149 sont ici compatibles avec une voie corticale (occipito-temporale) de transmission du message visuel. Ces résultats n’étayent pas l’hypothèse de l’implication d’une voie de transmission sous-corticale (thalamo-amygdalienne) des messages émotionnels aversifs. Une influence top-down dépendant du message émotionnel pourrait modifier la rapidité du traitement perceptif au niveau cortical. Cette influence est soulignée par le rôle de la tâche qui influence les réponses amygdaliennes et corticales aux visages exprimant la peur. Il semble que les deux structures - l’amygdale et l’insula - se situant à un carrefour entre le traitement perceptif des stimuli émotionnels, les conséquences neuroendocrines illustrant le percept émotionnel proprement dit et le sentiment plus abstrait de l’émotion, soient impliquées à des moments différents de cette hiérarchie temporelle, ce qui oeuvre en faveur de la survie de l’espèce. Les stimuli les plus aversifs – ici un visage effrayé – induisent une réaction amygdalienne précoce et soutenue, survenant en même temps que l’implication d’un vaste réseau occipitotemporo-frontal connu pour participer à la reconnaissance des expressions faciales. Ces activités soutenues pourraient illustrer le maintien d’une activité au sein des structures participant à la reconnaissance et au ressentiment d’une émotion, nécessaire pour évoquer le sentiment même - plus abstrait - de cette émotion (Damasio, 2001a). Bien entendu, cette chronologie d’activation des structures corticales et sous-corticales ne prouve pas directement leur coopération directe. L'étude des synchronies oscillatoires entre ces structures pourrait permettre de décrire ces coopérations ainsi que leur chronologie. 150 b) Article n°4 Dessin de la période de la bataille d’Anghiari Léonard de Vinci 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 La Joconde ne semble pas dévoiler le même sourire si l’on filtre ses fréquences spatiales (M. Livingstone, Science 2000) 166 5) Etude n° 5 : Le sourire en miroir « L’esprit humain ne perçoit de corps extérieurs comme existant en acte que par les idées des affections de son propre corps » Ethique, Spinoza a) Résumé de l’étude Cette étude porte sur un cas, celui de VV, jeune patiente de 19 ans épileptique pharmaco-résistante explorée par électrodes profondes en vue d’un éventuel traitement chirurgical. Jean Isnard, responsable de cette exploration préchirurgicale, nous a alertés lorsqu’il a observé à plusieurs reprises l’induction d’un sourire et d’un rire lorsque l’électrode située dans la région de la pré-AMS (Aire Motrice Supplémentaire) gauche était stimulée électriquement. En effet, VV rapportait systématiquement lors des séances de stimulation de cette région, une sensation d’élévation forcée des commissures labiales, une envie de sourire puis de rire, alors que l’épisode se terminait par une réelle sensation de gaieté et d’amusement, malgré le caractère habituellement désagréable des séances de stimulation. Ce phénomène n’était observé que lors de la stimulation des contacts situés dans la pré-AMS, alors que les stimulations réalisées aux alentours provoquaient un arrêt du langage ou des phénomènes moteurs plus élémentaires. Les potentiels évoqués par les visages d’Ekman et Friesen furent recueillis dans cette région comme dans d’autres régions frontales et temporales gauches. Seul le contact situé dans la pré-AMS permit d’enregistrer des réponses spécifiques à l’expression de joie, ceci lors des deux tâches (Attention au genre et Attention à l’expression). Ces réponses spécifiques survenaient dès 150 ms après le début du stimulus lorsque le traitement était plus implicite (Attention au genre), plus tardivement lorsque l’attention était portée sur l’émotion. Ces résultats démontrent que la pré-AMS, connue pour son implication dans l’élaboration de séquences de mouvements dépendant du contexte en particulier visuel, est précocement impliquée dans la détection de l’expression faciale de joie, et ceci de façon automatique. Les réponses précoces survenant dans un contexte de 167 traitement implicite des émotions pourraient étayer l’hypothèse d’une transmission en partie sous-corticale d’une information visuelle grossière aux régions préfrontales et pré-motrices. Le fait que le même contact d’électrode enregistre les réponses à la joie et induise par stimulation électrique un rire et une sensation de joie, suggère un rôle important de cette région dans l’intégration d’aspects perceptifs et moteurs de cette émotion. La pré-AMS pourrait ainsi être impliquée dans la construction du concept de la joie. 168 b) Article n° 5 The Same Motor Area detects and elicits laughter Pierre Krolak-Salmon, Marie-Anne hénaff, Alain Vighetto, Françoise Bauchet, Olivier Bertrand, François Mauguière and Jean Isnard In this drug refractory epileptic patient explored with depth electrodes during a presurgical evaluation, the electrical stimulation of one contact lying in the left pre-Supplementary Motor Area (pre-SMA) systematically elicited laughter and merriment experience. The same electrode contact lying in the pre-SMA recorded specific evoked responses to happy faces as soon as 150 ms post stimulus onset. The same neuronal population in left pre-SMA is thus involved in different aspects of happiness processing, detecting rapidly this facial expression in others and eliciting smile and laughter when stimulated. Like monkey mirror neurons described in premotor cortex (Rizzolatti et al., 1996), pre-SMA creates an internal representation of particular actions, i.e. smile and laughter. Laughter is an integral component of humanity. Since animal studies are very rare (Jürgens et al., 1986), the neural networks underlying happiness and its associated motor behaviour marked by smiling and laughter are not well known in human. Clues for individual neural networks involved in processing multiple aspects of positive emotions are provided by reports of pathological variants of laughter and most recently, neuroimaging studies. Focal lesions have been associated to emotional facial palsy and pathological laughter, but none with a deficit in happiness recognition in others. However, the recognition of emotionally salient messages such as facial emotional expressions is determinant for a social adapted behavior. Frontal focal lesions, particularly on the left side, sometimes induce depression symptoms. Impaired metabolism has been observed in depressed patient left frontal cortex, which Transcranial Magnetic Stimulation (TMS) can improve anxiety and depressive symptoms (Pacual leone et al.,George et al.). Particular attention is then paid to the abilities of the left frontal cortex in processing different aspects of positive emotions. 169 Depth electrode electrophysiological recordings combining very high spatial and temporal resolution offer a rare opportunity to directly record the neural correlates of emotional behaviour. We addressed this question in a drug refractory epileptical patient implanted with a depth electrode in the left prefrontal cortex, which electrical stimulation systematically led to laughter and merriment. By recording intracranial Event Related Potential (ERPs) to facial emotional expressions, we have demonstrated that this area can process different aspects of happiness. The epilepsy of patient VV, a right-handed girl with normal psychological and physical development, began when she was 8 year-old. During the two first years of her disease, seizures were marked by a sudden laughter of natural appearance. The first generalized tonico-clonic seizures occurred at the age of 10. Now, VV is 19 yearold, the seizures are stereotyped. She awakes, remains perplex for few seconds, rubs her right cheek with her right hand, develops anarthria, and then a dystonia of her right arm. Sometimes, a right hemifacial myoclonus is observed, head version on the right, a right hemibody myoclonus and finally a generalized tonico-clonic seizure. The following examinations were normal in VV: clinical and neuropsychological examination, interictal scalp EEG, brain MRI, Fluorodesoxy-glucose and GabaBenzodiazepine PET. Wada test showed a left hemisphere language location and preserved memory on both sides. Ictal SPECT demonstrated an increased blood flow in the left operculo-insular area. At this stage, the diagnosis of cryptogenic left frontal epilepsy was made, with a probable early implication of the left operculo-insular area. To delineate the epileptogenic area, VV was stereotactically implanted with depth electrodes in several sites including the left operculo-insular area and the left pre-SMA (figure 1). The structures to be explored were selected on the basis of ictal manifestations, EEG and neuro-imaging studies. Early left operculo-insular epileptic discharges were associated with initial right hemifacial myoclonus. Sometimes, the discharges progressed to the left SMA and the whole left frontal cortex and finally generalized. Brain electrical stimulation is part of the functional mapping of relevant structures performed before epilepsy surgery. The pre-SMA stimulation systematically provoked a smile and a laugher, with intensity proportional to that of 170 the stimulation. The minimum intensity required to observe this phenomenon was 0.6 mA delivered at a 50 Hz frequency during 1 second. In this condition, VV first reported a discomfort in the right cheek, and then she smiled, and lastly openly laughed. She reported afterwards that she felt her lip corners elevating in a forced smile, followed by a real feeling of happiness. “At the beginning, I did not feel like smiling or laughing. A moment later, I really felt like laughing, I had a sensation of merriment, like seeing a Laurel and Hardy film.” She reported later that she could not keep from laughing despite the discomfort of the stimulation. In contrast, at 0.8 mA intensity stimulation, a smile was observed, then laughter, a moaning, and a dystonia with myoclonus of the right arm, without the genuine feeling of happiness. Two minutes after the stimulation, she burst into tears, and kept a very affected voice during 15 minutes. “It is not normal, it is not my fault, I can not refrain from smiling and crying. It is not because of the session, I am forced to smile.” The stimulation of neighboring sites in this patient provoked speech arrests, abnormal face and limb movements, but neither smile nor laughter. This behavioral phenomenon appeared thus to be very restricted to the electrical stimulation of the left pre-SMA. Visual evoked potential recordings were also part of the functional mapping performed before epilepsy surgery. Visual stimuli were 40 static gray-scale images of emotionally expressive faces (4 women and 4 men depicting 5 different emotional expressions, i.e. fear, happiness, disgust, surprise and no emotion) taken from the standard set of pictures of Ekman and Friesen (Ekman and Friesen, 1975). VV participated in two different target detection tasks. During the first task called “Attention to Gender” (AG), the patient made a gender classification by counting either men or women. During the second task called “Attention to Emotion” (AE), she was instructed to silently count faces expressing surprise. VV's performance was 100% in the AG task and 96% in the AE task. Statistical analysis (ANOVA) was performed on single trial potential mean amplitudes on successive contiguous 50 ms time windows from 0 ms to 1000 ms at pre-SMA contacts. In the AG task, an effect of the factor “emotion” was observed on each contiguous time window from 150 to 450 ms, and on the whole time period 150 - 450 ms (p = 0.005 ; F = 3.8). Post hoc paired Fisher tests between emotions showed that responses to happiness significantly differed from all other emotions (figure 2). No difference was observed among the amplitudes of the responses related to all other facial expressions. This specific 171 response to happiness was selectively recorded by the pre-SMA contact. In the AE task, an effect of the factor “emotion” was observed later, between 500 and 600 ms of latency (p = 0.01; F = 3.5). Post hoc analyses showed that responses to happiness and disgust significantly differed from those to fear and neutral faces. A depth electrode that showed a characteristic response as early as 150 ms when the patient viewed happy faces also elicited laughter and merriment when electrically stimulated (Fried et al., 1998). It has been established that some motor structures participate both to movement generation and recognition (Rizzolatti and Luppino, 2001). Mirror neurons lying in the premotor cortex, particularly F5 in monkey, discharge when an individual makes an action, and when the same action is observed in others (Rizzolatti et al., 1996). The pre-SMA corresponding to the rostral part of the traditionally defined SMA is now differentiated on the basis of anatomical connectivity (Luppino et al., 1993), physiological properties (Matsuzaka et al., 1992) and neuro-imaging studies (Sakai et al., 1999). The anatomical frontier between SMA proper and pre-SMA would be the VAC (Vertical Anterior Commissure) line, based on the stereotaxic coordinate system of Talairach and Tournoux (Talairach and Tournoux, 1988; Baleydier et al., 1997). The pre-SMA, corresponding to F6 in monkey lies just anteriorly to the somatotopic representation of the face in F5. Indeed, the anterior SMA activity is related to vocalization and has been shown to increase in people who stutter (Fox et al., 1996). Like F5, pre-SMA is sensitive to visual information, participating in its short term maintenance. This last property represents one of the main differences between pre-SMA and SMA (Rizzolatti et al., 1990; Matsuzaka et al., 1992). According to Rizzolatti, pre-SMA links movement onset to the external contingencies and motivations(Rizzolatti and Luppino, 2001). Thus, this area can elicit a particular face movement, smile and laughter, and detect this movement in others. It may play a crucial role in generation of the internal representation of happiness facial expression. Some studies indicate that pre-SMA may process multiple aspects of pleasantness. In a recent fMRI study, Osaka et al. showed that the visualization of onomatopoeia, an emotion-based facial expression word, suggestive of laughter, activated the premotor/SMA and the visual extrastriate cortex bilaterally, when contrasted with non-onomatopoeic words (Osaka et al., 2003). Moreover, 172 conditioning TMS over pre-motor cortex enhances facial movements triggered by visual emotional stimuli (Oliveri et al., 2003). The pre-SMA reaction to visual pleasant stimuli in our study is very rapid. The latency of the specific ERP to happy faces recorded in pre-SMA is at the level of the potential N170 associated to the structural encoding of faces in fusiform gyrus. It is probable that the early activity related to face in pre-SMA does not directly depend on visual ventral cortical processing. Multiple pathways can be good candidates to drive the indispensable visual information to pre-SMA. First, the dorsal cortical visual system providing visual spatial and movement information may provide information concerning facial feature organization suggesting happiness. Second, the SMA connection with orbito-frontal cortex which reacts early to emotional stimuli may be activated in this context (Kawasaki et al., 2001). Third, thalamocortical projections to the pre-SMA are strong in the non human primate (Inase, 1996). A subcortical route involving the thalamus and the amygdala, directly to the pre-SMA or via the prefrontal cortex, may automatically process pleasant stimuli (Inase et al., 1996; LeDoux, 1996). Finally, visual information can be driven rapidly from visual extrastriate areas to medial and lateral anterior temporal regions and so to prefrontal cortex through long distances pathways like the inferior longitudinal fasciculus. Neural networks that have originally been developed in mammals to rapidly detect highly salient stimuli may be used in human to detect a socially important event, such as laughter rarely observed in other mammals. Reduced attention to the emotional content of the stimulus enhanced the responses to happiness, as it has been described earlier in amygdala for aversive stimuli (Critchley et al., 2000; Hariri et al., 2000; Anderson et al., 2003). Thus, the early preSMA activity recorded in this study may be mainly related to an implicit processing of happiness detected in others. Fried and coll. have reported that left pre-SMA electrical stimulation can trigger laughter. Some authors suggest that this structure is specifically involved in motor aspects of laughing and smiling (Iwase et al., 2002). As the SMA proper is important in elaboration of motor behaviour, the pre-SMA may code motor actions in the context of temporal structuring of multiple events (Tanji, 1996) or more generally visuomotor association learning (Sakai et al., 1999). It is also involved in temporal discrimination (Pastor et al., 2004). Laughter is indeed a temporally precise motor sequence. Emotional facial paresis has been described in lesions of the SMA, as well 173 as lesions of anterolateral thalamus, brainstem tegmentum and lateral medulla (Cerrato et al., 2003). In VV, the stimulation firstly induced a motor phenomenon forcing her to smile, and then real laughter and finally a sensation of merriment. VV reported that the first motor experience was felt as artificial, but the last emotional feeling was connected, to her mind, to the context. The sequential induction of smile, laughter, merriment feeling and its integration in the environment suggest the existence of a large network linking the motor, affective and cognitive components of happiness. The entire network may have been activated as a whole by the stimulation of one of its constituent units. The activity of this network can be triggered via a high-level motor programming area, the pre-SMA. Pathologic laughter has been observed in gelastic seizures related to hypothalamus, temporal lobe lesions and pseudobulbar palsy. Very few have reported laughter evoked by electrical stimulation of anterior cingulate and prefrontal cortex (Sem-Jacobsen, 1968)(Fish, 1993), amygdala (Fish, 1993) and of the basal temporal lobe (Arroyo et al., 1993), as well as the subthalamic nucleus in patients with Parkinson’s disease (Beijjani 1999, Krack, 2001, Kumar, 1999). All these structures may participate to the knowledge of laughter and happiness, pre-SMA playing a crucial in detection and eliciting laughter. Since pre-SMA is situated at the crossroads between external information and motor aspects of laughter, it may play a crucial role in initial motor programmation of laughter, when this motor behaviour is induced by external contingencies. That may explain the very natural appearance of the elicited laughter and its links to the environnement to the mind of patient VV when this area was electrically stimulated, compared to structures lying in the hypothalamus or brainstem. In conclusion, multiple aspects of happiness and laughter are processed by human left pre-SMA. Our results provide a rare opportunity to directly demonstrate that the same neuronal population in pre-SMA reacts very early to happiness and stimulates the appropriate motor behaviour. That suggests that pre-SMA participates in the construction of the conceptual representation of happiness and pleasantness. 174 Methods Stereotactic implantation and contact site location A cerebral angiography was first performed in stereotactic conditions. In order to reach the clinically relevant target, the stereotactic co-ordinates of each electrode were calculated preoperatively on the individual cerebral MRI previously enlarged at the angiography scale. Cortical stimulation protocol Stimulation of cortical areas was applied using Stereotactic-EEG (SEEG) recording electrodes. Square pulses of constant polarity were applied between the side contacts. The patient was fully informed of the cortical stimulation procedures and gave her consent. During the stimulation, the patient was alternatively asked to count with forward elevated arms or to read. ERP acquisition At the time of ERPs recordings, the patient was under anti-epileptic monotherapy. ERPs recordings were performed at the end of the SEEG monitoring, once pertinent seizures had been recorded. The stimuli were digitized, size-, brightness-, and contrast-adjusted images presented on a computer screen 1,10 m from the subject, subtending visual angles of 4°x 5°. They were exposed for 400 ms with an interval of 2000 ms between onsets of two successive images. Six blocks of 40 stimuli were delivered for each task. The order of the stimuli within each block and the order of the blocks were randomized for each subject and for each task. Continuous SEEG was amplified and recorded with a 64-channel-EEG device (SynAmps, Neuro Scan Labs®). See details in Krolak-Salmon et al. (Krolak-Salmon et al., 2004) Data analysis Mean ERPs to all face expressions were computed for both tasks and for each recording site. The averaging was carried out on an analysis time of 1200 ms with a sampling frequency of 1000 Hz. A 200 ms pre-stimulus baseline correction was performed. Prior to statistical analysis, these single trial mean amplitudes were screened for homogeneity of variance. Because the data met the assumptions 175 required for the analysis of variance, they were entered as dependant variable in an analysis of variance, the emotions being the factor. Responses to targets were not included in statistical analyses. To test the extending depth of the effect, ANOVAs were performed on the contiguous contacts, until reaching the absence of significance. 176 REFERENCES Anderson AK, Christoff K, Panitz D, De Rosa E, Gabrieli JD (2003) Neural correlates of the automatic processing of threat facial signals. J Neurosci 23:5627-5633. Arroyo S, Lesser RP, Gordon B, Uematsu S, Hart J, Schwerdt P, Andreasson K, Fisher RS (1993) Mirth, laughter and gelastic seizures. Brain 116 ( Pt 4):757-780. Baleydier C, Achache P, Froment JC (1997) Neurofilament architecture of superior and mesial premotor cortex in the human brain. Neuroreport 8:1691-1696. Cerrato P, Imperiale D, Bergui M, Giraudo M, Baima C, Grasso M, Lentini A, Bergamasco B (2003) Emotional facial paresis in a patient with a lateral medullary infarction. Neurology 60:723-724. Critchley H, Daly E, Phillips M, Brammer M, Bullmore E, Williams S, Van Amelsvoort T, Robertson D, David A, Murphy D (2000) Explicit and implicit neural mechanisms for processing of social information from facial expressions: a functional magnetic resonance imaging study. Hum Brain Mapp 9:93-105. Ekman P, Friesen W (1975) Pictures from facial affect. CA. Fox PT, Ingham RJ, Ingham JC, Hirsch TB, Downs JH, Martin C, Jerabek P, Glass T, Lancaster JL (1996) A PET study of the neural systems of stuttering. Nature 382:158161. Fried I, Wilson CL, MacDonald KA, Behnke EJ (1998) Electric current stimulates laughter. Nature 391:650. Hariri AR, Bookheimer SY, Mazziotta JC (2000) Modulating emotional responses: effects of a neocortical network on the limbic system. Neuroreport 11:43-48. Inase M, Tokuno H, Nambu A, Akazawa T, Takada M (1996) Origin of thalamocortical projections to the presupplementary motor area (pre-SMA) in the macaque monkey. Neurosci Res 25:217-227. Iwase M, Ouchi Y, Okada H, Yokoyama C, Nobezawa S, Yoshikawa E, Tsukada H, Takeda M, Yamashita K, Yamaguti K, Kuratsune H, Shimizu A, Watanabe Y (2002) Neural substrates of human facial expression of pleasant emotion induced by comic films: a PET Study. Neuroimage 17:758-768. Kawasaki H, Kaufman O, Damasio H, Damasio AR, Granner M, Bakken H, Hori T, Howard MA, 3rd, Adolphs R (2001) Single-neuron responses to emotional visual stimuli recorded in human ventral prefrontal cortex. Nat Neurosci 4:15-16. Krolak-Salmon P, Henaff MA, Vighetto A, Bertrand O, Mauguiere F (2004) Early Amygdala Reaction to Fear Spreading in Occipital, Temporal, and Frontal Cortex; A Depth Electrode ERP Study in Human. Neuron 42:665-676. LeDoux J (1996) Emotional networks and motor control: a fearful view. Prog Brain Res 107:437-446. Luppino G, Matelli M, Camarda R, Rizzolatti G (1993) Corticocortical connections of area F3 (SMA-proper) and area F6 (pre-SMA) in the macaque monkey. J Comp Neurol 338:114-140. Matsuzaka Y, Aizawa H, Tanji J (1992) A motor area rostral to the supplementary motor area (presupplementary motor area) in the monkey: neuronal activity during a learned motor task. J Neurophysiol 68:653-662. Oliveri M, Babiloni C, Filippi MM, Caltagirone C, Babiloni F, Cicinelli P, Traversa R, Palmieri MG, Rossini PM (2003) Influence of the supplementary motor area on primary motor cortex excitability during movements triggered by neutral or emotionally unpleasant visual cues. Exp Brain Res 149:214-221. 177 Osaka N, Osaka M, Kondo H, Morishita M, Fukuyama H, Shibasaki H (2003) An emotionbased facial expression word activates laughter module in the human brain: a functional magnetic resonance imaging study. Neurosci Lett 340:127-130. Pastor MA, Day BL, Macaluso E, Friston KJ, Frackowiak RS (2004) The functional neuroanatomy of temporal discrimination. J Neurosci 24:2585-2591. Rizzolatti G, Luppino G (2001) The cortical motor system. Neuron 31:889-901. Rizzolatti G, Fadiga L, Gallese V, Fogassi L (1996) Premotor cortex and the recognition of motor actions. Brain Res Cogn Brain Res 3:131-141. Rizzolatti G, Gentilucci M, Camarda RM, Gallese V, Luppino G, Matelli M, Fogassi L (1990) Neurons related to reaching-grasping arm movements in the rostral part of area 6 (area 6a beta). Exp Brain Res 82:337-350. Sakai K, Hikosaka O, Miyauchi S, Sasaki Y, Fujimaki N, Putz B (1999) Presupplementary motor area activation during sequence learning reflects visuo-motor association. J Neurosci 19:RC1. Sem-Jacobsen CW (1968) Vegetative changes in response to electrical brain stimulation. Electroencephalogr Clin Neurophysiol 24:88. Talairach C, Tournoux P (1988) Co-planar stereotaxic atlas of the human brain. New-York: Thieme Medical. Tanji J (1996) New concepts of the supplementary motor area. Curr Opin Neurobiol 6:782787. 178 Legends Figure 1 a- Medial anterior view of VV left hemisphere as depicted by a tri-dimensional brain MRI reconstruction. b- Detail of the left premotor area. Rolando’s sulcus is underlined in blue. VCA line in yellow delineates the frontier between the SMA proper and the pre-SMA. The pre-SMA was delineated in green according to Baleydier et al.(Baleydier et al., 1997) Contacts of the electrode reaching the pre-SMA are figured in red. The lighter contact closest to the interhemispheric fissure is the one that recorded ERPs to happiness facial expression and that elicited laughter on stimulation (the recording contact is not so visible on the figure maybe an arrow would be useful). The electrodes were implanted perpendicularly to the midsagittal plane using Talairach's stereotactic grid (Talairach and Tournoux, 1988). Depth probes were 0.8 mm in diameter, had 5, 10 or 15 recording electrode contacts. Contacts were 2.0 mm long, and successive contacts were separated by 1.5 mm. Figure 2 Averaged ERPs to emotional expressions recorded in the pre-SMA in the AG task in VV. Vertical doted lines show the limits of the time window (150-450 ms) with statistically different responses to happiness. 179 180 Figure 1 Front 181 182 Figure 2 183 184 c) Discussion complémentaire Le même contact situé dans la pré-AMS gauche de cette patiente a permis d’induire un rire et un sentiment de joie par stimulation électrique, et d’enregistrer des réponses aux visages exprimant la joie après 150 ms. Cette méthode et ces résultats représentent une opportunité unique de montrer que la même structure cérébrale est impliquée dans les aspects moteurs d’une émotion et la détection de cette même émotion sur le visage d’autrui. L’imagerie fonctionnelle a montré que la pré-AMS peut-être impliquée dans le traitement d’autres aspects du sentiment de joie. Ainsi, la vision d’onomatopées évoquant le rire induit une augmentation de l’activité de cette aire (Osaka et al., 2003). Les aspects moteurs du rire induisent également une hyperactivité de cette région (Iwase et al., 2002). Il est remarquable de constater dans cette dernière étude que la région impliquée correspond exactement à celle concernée dans notre étude. Figure : Activation (bilatérale) de la pré-AMS par le rire volontaire sur une coupe sagittale d’IRM (Iwase et al., 2002) 185 Figure : Représentation du contact (disque rouge) situé dans la pré-AMS gauche de VV ayant recueilli les potentiels à la joie et dont la stimulation électrique a provoqué le rire, sur une coupe sagittale d’IRM. Les disques verts représentent les autres électrodes implantées dans la région. La ligne rouge représente la ligne AC-PC, la ligne bleue représente VCA du système de coordonnées de l’atlas de Talairach. Les réponses à la joie furent enregistrées dès 150 ms dans la pré-AMS de la patiente VV. Si l’on considère la voie visuelle principale empruntant le lobe occipital puis les régions temporales et pariétales, ce délai est court pour une réponse visuelle obtenue dans le lobe frontal. Or nous savons que des réponses neuronales aux expressions faciales émotionnelles peuvent être enregistrées dans le cortex préfrontal ventro-médial de l’Homme dès 120 – 170 ms (Kawasaki et al., 2001). Les réponses enregistrées dans cette dernière étude concernaient les stimuli aversifs. Les réponses précoces à la joie enregistrées dans le lobe frontal pourraient emprunter une voie différente comprenant la pré-AMS. La question de la transmission rapide du message visuel, même sommaire, au lobe frontal reste entière. L’ordre de grandeur des latences observées suggère fortement l’implication d’une voie sous-corticale qui pourrait impliquer le thalamus, l’amygdale, alors que des voies thalamo-pré-AMS, amygdalo-préfrontales et thalamo-amygdaliennes existent chez le singe. Cette hypothèse est renforcée par le fait que les réponses à la joie furent observées chez VV lors d’un traitement implicite du message émotionnel. Une fois le message émotionnel détecté par les structures frontales, celle-ci pourraient permettre une réaction motrice rapide, et exercer une influence de type top-down sur les voie visuelles corticales permettant une analyse plus fine de l’image. 186 Le déclenchement systématique d’un rire par la stimulation du cortex préfrontal, dans une région très focale en avant de l’aire motrice supplémentaire, fut observé par Fried et collaborateurs chez une patiente épileptique chez laquelle des électrodes sous-durales avaient été mises en place dans le cadre d’un bilan préchirurgical (Fried et al., 1998). Ces stimulations provoquaient en outre un sentiment de joie et d’amusement très prononcé. Figure : Vue antérieure des électrodes (en rouge) dont la stimulation a provoqué systématiquement un rire et un sentiment d’amusement chez la patiente AK (Fried et al., 1998) Notre observation vient confirmer le fait que la stimulation de cette région peut induire – systématiquement – un rire et un sentiment de joie que le patient intègre au contexte. Nous ne disposons pas des coordonnées de Talairach de la région dont la stimulation électrique provoquait le rire dans l’observation de Fried et collaborateurs, mais les auteurs soutenaient l’idée que « cette région devait correspondre à la préAMS décrite récemment chez le le primate comme une une aire impliquée dans la programmation motrice de haut niveau ». Ainsi, la pré-AMS, impliquée dans le traitement de multiples aspects de la joie, au moins perceptifs et moteurs, semble être déterminante pour la construction de ce concept émotionnel. 187 188 Chapitre 5 : Discussion Générale A. Quel(s) aspect(s) de la reconnaissance des expressions faciales avons-nous exploré ? 1) Implication de la voie visuelle principale Ces différents travaux ont permis de préciser la dynamique spatio-temporelle du traitement cérébral des expressions faciales chez l’Homme. Une activité spécifique de certaines expressions fut observée au niveau du scalp dans les régions occipito-temporales, au niveau intracérébral, dans l’insula ventrale antérieure, l’amygdale, le cortex occipito-temporal et le cortex orbito-frontal. Cette activité sensible au type d’attention portée sur les visages subit une influence topdown. Ces réponses spécifiques furent toutes obtenues au sein du courant ventral du traitement des stimuli visuels, depuis les aires visuelles occipitales jusqu’au cortex orbito-frontal. L’étude des latences de ces réponses évoquées a montré qu’il existait une hiérarchie temporelle dans le traitement de certaines expressions, et que les aires corticales et limbiques participaient de façon soutenue et prolongée à la reconnaissance du stimulus émotionnel. Il est intéressant de confronter nos résultats à ceux d’une étude en imagerie fonctionnelle dont le protocole est particulièrement comparable au notre. Anderson et collaborateurs ont étudié le comportement des activités amygdaliennes et insulaires liées à la détection de la peur et du dégoût sur les visages, lors de deux tâches impliquant un traitement dit « explicite » (détection du genre) et « implicite » (détection de bâtiments) des visages à travers des stimuli superposant bâtiments et visages expressifs (Anderson et al., 2003). 189 Figure 29 : Stimuli utilisés par Anderson et collaborateurs (Anderson et al., 2003) lors d’une première tâche impliquant les traitement explicite des visages, la deuxième impliquant le traitement explicite des bâtiments. Les réponses à la peur dans l’amygdale étaient comparables dans les deux tâches. Lorsque l’attention était focalisée sur les visages, la réponse amygdalienne à la peur était plus importante que la réponse au dégoût et aux visages neutres. Lorsque le traitement des visages était plus implicite, les réponses au dégoût augmentaient considérablement dans l’amygdale. Dans l’insula, les réponses au dégoût étaient nettement augmentées par l’attention portée sur les visages, comme celles du cortex visuel extra-strié pour les deux émotions. Figure 30 : Activités amygdaliennes (a, b) et insulaires (c, d)liées aux différentes expressions faciales lorsque le traitement des visages est plus explicite (rouge) ou plus implicite (vert) (Anderson et al., 2003) 190 Ainsi, dans cette étude, les réponses amygdaliennes à la peur étaient peu sensibles à la variation attentionnelle de type visage/non visage, mais les réponses aux autres émotions (dégoût) augmentaient en traitement plus implicite. Ces stimuli pourraient alors acquérir une valeur d’alerte plus importante en traitement implicite qu’en traitement plus explicite. Dans notre étude, nous appelons traitement « explicite » des expressions faciales, le traitement induit lors d’une tâche focalisant l’attention sur le message émotionnel véhiculé par le visage, pas seulement une attention plus globale sur le visage. La notion de traitement explicite ou implicite est donc toute relative. Notre étude suggère que l’attention portée sur l’émotion proprement dite induit une augmentation des réponses amygdaliennes à la peur, ou du moins de certaines réponses amygdaliennes à la peur. Dans l’étude d’Anderson comme dans la notre, les différences entre les réponses aux différents stimuli émotionnels sont gommées lorsque le traitement est plus implicite. Les réponses que nous avons enregistrées dans l’insula, le cortex visuel extra-strié et le cortex orbitofrontal bénéficient de la même influence de l’attention. Dans l’insula, comme dans le cortex visuel extra-strié, plus l’attention est portée sur le visage et le message émotionnel, plus les réponses aux expressions faciales sont importantes. Ainsi, l’attention sélective renforcerait le poids de la voie corticale du traitement des stimuli visuels émotionnels. Nous montrons en outre que les réponses amygdaliennes enregistrées après 200 ms sont augmentées par l’attention sélective sur les émotions. Ainsi, cette activité amygdalienne, subissant la même influence de l’attention que l’activité corticale, pourrait être intimement liée à celle-ci. Elle pourrait témoigner d’un engagement de l’amygdale dans le traitement fin des attributs faciaux liés aux émotions, en particulier la peur. L’ordre de grandeur des latences enregistrées est compatible avec une route corticale (non exclusive) gagnant l’amygdale, qui pourrait, grâce à une modulation rétrograde, renforcer l’extraction des caractères émotionnels du visage par le cortex extra-strié. L’étude réalisée par Sugase et collaborateurs chez le singe confirme qu’au niveau cortical, les neurones codent pour les informations fines concernant les visages (permettant par exemple de traiter l’identité et l’expression) après les informations plus globales discriminant visage et autre objet visuel (Sugase et al., 1999). Ainsi, au niveau cortical, le stimulus émotionnel est traité après l’information visuelle plus globale concernant le visage. Dans les enregistrements unitaires réalisés dans le cortex temporal externe du singe et présentés ci-dessous, il est remarquable de constater à quel point les décharges 191 neuronales en réponses aux expressions aversives sont soutenues dans le temps, après une première volée de potentiels d’action, plus intense et transitoire. La ressemblance entre ces enregistrements unitaires chez le singe et nos enregistrements corticaux et amygdaliens chez l’Homme est saisissante. Figure 31 : Réponses unitaires (spikes et densités de spikes) aux visages de singes neutres (A), bouche arrondie (B), bouche grande ouverte (C) et bouche semiouverte (D), obtenues dans le cortex temporal externe de 4 macaques (1-4) (Sugase et al., 1999) 192 Figure 32 : Sommes des réponses unitaires au traitement global des visages permettant de catégoriser les visages de macaques, d’humain ou autres formes (rouge), ou à un traitement plus fin portant sur l’identité ou l’expression du visage (noir), de 32 neurones situés dans le cortex temporal du macaque. L’information globale était traitée en moyenne 51 ms plus tôt que l’information concernant l’identité ou l’expression (Sugase et al., 1999). 2) La voie sous-corticale thalamo-amygdalienne est-elle impliquée ? L’activité amygdalienne automatique, supposée rapide et indépendante de l’attention, n’est pas mise en lumière dans nos études. En revanche, nous avons pu mettre en évidence dans notre cinquième étude, dans la pré-AMS, une activité rapide liée au traitement implicite de l’expressions fciale de joie. Depuis la découverte de la vision aveugle ou blindsight (Weiskrantz, 1996) – vision résiduelle inconsciente dans la partie aveugle du champ visuel après lésion du lobe occipital - nous savons que l’analyse visuelle n’implique pas obligatoirement le cortex visuel strié. Cette analyse visuelle sans cortex strié est pauvre, n’accède pas à la conscience, mais elle permet, 193 dans certaines conditions, de guider les réponses comportementales aux stimuli visuels. Des réseaux sous-corticaux court-circuitant les aires visuelles striées doivent ainsi permettre d’accéder à un traitement grossier, automatique, rapide de stimuli visuels transitoires ou en mouvement, intéressant particulièrement la périphérie du champ visuel. Un chemin semble partir de la rétine, gagner le pulvinar directement ou via le colliculus supérieur, puis le cortex visuel extra-strié, où l’on peut enregistrer des réponses neuronales aux stimuli visuels sans aucune afférence issue du cortex strié (Rodman et al., 1989). Les stimuli émotionnels aversifs (évoquant la peur ou la colère par exemple) sont de bons candidats à un traitement rapide sous-cortical, n’accédant pas forcément à la conscience. Souvent en mouvement, ils surviennent préférentiellement dans la périphérie du champ visuel pour venir menacer l’observateur. Une voie passant par le colliculus supérieur, le pulvinar pour aller vers l’amygdale pourrait être particulièrement impliquée dans le traitement rapide, grossier des stimuli visuels émotionnels nécessitant une réponse comportementale urgente. Ce type d’organisation est connu pour le système auditif. En effet, chez le rat, la voie thalamo-amygdalienne semble suffisante pour traiter les stimuli tonals conditionnant la peur, alors que les stimuli complexes conditionnant également la peur doivent être traités en partie par le cortex auditif (LeDoux, 1996). Pour les stimuli visuels, une voie thalamo-amygdalienne a été décrite chez le singe. Elle emprunte le colliculus supérieur qui projette via un faisceau ventral sur le pulvinar antérieur inféro-latéral (Robinson and Petersen, 1992). Le pulvinar reçoit également des afférences directes de la rétine (O'Brien et al., 2001). Il projette par voie monosynaptique sur l’amygdale, également sur le cortex temporal, le cortex cingulaire postérieur et orbito-frontal (Robinson and Petersen, 1992). Le colliculus supérieur et le pulvinar reçoivent essentiellement des informations de type magnocellulaire (Lomber, 2002). Qu’en est-il des stimuli agréables ou évoquant la joie ? N’est-il pas vrai que lorsque vous croisez rapidement, en voiture par exemple, quelqu’un qui vous sourit, vous avez tendance à lui renvoyer un sourire très spontané, avant de l’avoir vraiment reconnu, d’avoir pu mettre un nom sur son visage ou de comprendre pourquoi il vous souriait ? Nos résultats montrent que la pré-AMS, structure de plus en plus associée au sentiment de joie dans la littérature, réagit très rapidement aux expressions 194 faciales de sourire, particulièrement lorsque le sujet n’est pas engagé dans une tâche permettant de traiter explicitement le message émotionnel. Ce dernier est alors dans les meilleures conditions pour être alerté par un message émotionnel fort, contrastant avec le contexte. Des résultats surprenants d’études de potentiels évoqués et d’enregistrements unitaires intra-cérébraux furent obtenus chez deux patients épileptiques lors d’explorations préchirurgicales. Chez le premier patient, des potentiels évoqués spécifiquement par les visages (versus objets) furent enregistrés dans le sillon temporal inférieur droit autour de 120 ms, et dans le gyrus frontal inférieur droit après 180 ms (Marinkovic et al., 2000). Il est difficile ici d’être certain des sources de ces activités, qui sont observées sur de nombreux contacts d’électrodes. Ce même patient ayant subi secondairement une résection du cortex préfrontal droit présentait un déficit dans la reconnaissance de l’expression de peur (Marinkovic et al., 2000). Chez un deuxième patient, des réponses unitaires aux visages exprimant la peur (versus la joie) furent enregistrées dans le cortex préfrontal ventro-medial droit après 120 - 170 ms (Kawasaki et al., 2001). Chez le singe, des réponses aux visages ont été observées à différents endroits du cortex préfrontal (Scalaidhe et al., 1999). Ainsi, le cortex préfrontal pourrait répondre, dans des conditions très particulières, très rapidement aux visages et aux expressions faciales. Les nombreuses connexions entre le cortex visuel temporal et le cortex préfrontal (Seltzer and Pandya, 1989) fournissent l’entrée perceptive nécessaire au cortex orbito-frontal pour la reconnaissance des expressions faciales, et corroborent l’hypothèse d’un rétrocontrôle des structures préfrontales sur les aires visuelles temporales impliquées dans la perception des expressions faciales. Les connexions visuelles thalamo-pré-AMS existent chez le singe, leur implication dans le traitement des stimuli émotionnels en particulier joyeux reste à démontrer (Inase et al., 1996). Quel niveau de complexité peut analyser ce traitement visuel sous-cortical ? Il est généralement considéré qu’un tel traitement ne peut encoder que des caractéristiques grossières du stimulus comme sa localisation spatiale, la direction de son mouvement et quelques informations spectrales (Stoerig and Cowey, 1989; Cowey, 1996). Cependant, certaines études tendent à démontrer que ce traitement peut être plus complexe. En effet, il semble que le phénomène de blindsight puisse concerner les expressions faciales. Après lésion occipitale ou pariétale induisant un scotome, la présentation d’un stimulus émotionnellement compétent dans la partie 195 aveugle ou négligée du champ visuel est détectée (de Gelder et al., 1999; Vuilleumier et al., 2001; Vuilleumier and Schwartz, 2001a, b). Cela n’implique pas la conscience, si bien que l’on ne parle pas ici de « reconnaissance ». La présentation subliminale d’expressions faciales associées préalablement à un stimulus repoussant induit une coactivation du colliculus supérieur, du pulvinar et de l’amygdale, chez des sujets normaux (Morris et al., 1999) et lors de la présentation dans l’hémichamp aveugle de patients cérébrolésés (Morris et al., 2001). Le traitement de la peur présentée de façon subliminale implique particulièrement l’amygdale (Whalen et al., 1998). Il a même été montré que les stimuli visuels émotionnels subliminaux influencent l’humeur de l’observateur (Monahan et al., 2000). Ainsi, un traitement suffisant pour discriminer les expressions faciales semble impliquer en grande partie les structures visuelles sous-corticales. Figure 33 : Lésion du patient GY atteint d’une lésion du cortex strié gauche, responsable d’une hémianopsie latérale homonyme, chez lequel une phénomène de vision aveugle est observé pour les expressions faciales (Morris et al., 2001). 196 a- b- cFigure 34 : a- Activation du colliculus par les visages exprimant la peur préalablement associés à un bruit effrayant (« conditionnés ») versus des visages exprimant la peur, mais « non conditionnés » ; activation bilatérale du pulvinar (b) et de l’amygdale (c) par les visages exprimant la peur (versus la joie) présentés dans l’hémichamp aveugle chez GY. (Morris et al., 2001). Le Doux suggère que le système de reconnaissance des messages aversifs comprend des réseaux parallèles conduisant à l’amygdale provenant d’une part du thalamus, d’autre part du cortex sensoriel (LeDoux, 2000), ce qu’il appelle respectivement la route d’en bas et la route d’en haut. La route d’en bas construirait une représentation grossière du stimulus aversif, permettant une réaction rapide d’évitement, alors que la route d’en haut permettrait de préciser les caractéristiques physiques et la nature du stimulus avant d’atteindre l’amygdale. L’ensemble de ces données va dans le sens d’un traitement relativement automatique des expressions faciales par l’amygdale, modulé par les structures préfrontales en fonction du contexte (Amaral et al., 2003b). Ce schéma est renforcé par des études de lésions chez l’animal et des études d’imagerie fonctionnelle récentes chez l’Homme. Les modifications électrophysiologiques conditionnées dans l’amygdale peuvent être inhibées par la stimulation électrique du cortex préfrontal 197 médian (Zbrozyna and Westwood, 1991), un effet possiblement véhiculé par l’influence modulatrice amygdaliens contrôlant des projections les messages préfrontales sensoriels sur arrivant les interneurones dans la région amygdalienne basolatérale (Rosenkranz and Grace, 2001; Rosenkranz et al., 2003). L’imagerie fonctionnelle a montré que l’activité amygdalienne en réaction aux expressions faciales était moindre lorsque le sujet était engagé dans une activité cognitive intense, la déactivation amygdalienne alors observée étant corrélée à une activation préfrontale droite (Hariri et al., 2000). L’activité amygdalienne est plus importante lorsque la tâche n’implique pas directement les expressions faciales, mais un autre caractère facial comme le genre (Critchley et al., 2000). En revanche, le traitement explicite des émotions active plus les structures préfrontale ventromédianes que le traitement implicite (Nakamura et al., 1999; Narumoto et al., 2000). 3) Deux voies visuelles, deux amies, deux rivales ! Du fait de la faible résolution temporelle de l’imagerie fonctionnelle, les deux types d’activités décrites ci-dessus en relation avec la détection et la reconnaissance des expressions faciales pourraient être confondues dans ce type d’étude. Ainsi, le poids de chaque voie 1- sous-corticale 2- corticale – pourrait varier selon la tâche, les stratégies utilisées par le sujet, le type de stimulus et la présence d’éventuelles lésions. L’influence du type d’attention dépendrait alors de l’ensemble de ces conditions. Dans notre étude, le type de stimulus (visages statiques présentés de façon supraliminaire) et l’attention systématiquement portée sur les visages, ont pu augmenter le poids fonctionnel de la voie corticale impliquée dans le traitement fin des visages et des émotions. Or certaines connexions cortico-amygdaliennes comme celles issues du cortex préfrontal semblent avoir un rôle inhibiteur (Stefanacci and Amaral, 2000), et dans certaines circonstances sociales, l’activité amygdalienne serait modulée par des activités corticales (Phelps et al., 2001; Ochsner et al., 2002). Emery et Amaral (Emery et al., 2001) ont souligné les liens anatomiques et fonctionnels étroits entre le cortex orbito-frontal et l’amygdale, et ils proposent un rôle du cortex orbito-frontal dans la modulation contextuelle de l’activité amygdalienne lors du traitement des signaux à caractère social (Quirk et al., 2000; Jackson and Moghaddam, 2001; Kalin et al., 2001). Il est possible que l’activité corticale 198 prédominante lorsque le traitement des stimuli émotionnels est supposé plus explicite et l’expertise plus importante inhibe les activités amygdaliennes en relation avec le réseau sous-cortical impliqué dans l’alerte. Ces dernières seraient libérées dans des circonstances particulières comme les lésions corticales (Morris et al., 2001), l’utilisation de stimuli subliminaux (Whalen et al., 1998) et l’inattention (Vuilleumier et al., 2002), volontiers associés à une réaction amygdalienne. Ainsi, l’amygdale peut être engagée à deux niveaux et donc à deux moments différents du traitement des expressions faciales voire de stimuli visuels émotionnels en général : 1- précocement et directement par une voie automatique thalamoamygdalienne, particulièrement engagée dans certaines conditions bien spécifiques. Sa fonction principale serait ici l’alerte et le déclenchement d’une cascade de modifications corporelles neuro-hormonales et cognitives permettant l’éviction rapide du danger. 2- plus tardivement (après les premières réponses corticales aux visages) par une voie corticale permettant l’analyse experte du message émotionnel. Elle opérerait ici grâce à une neuromodulation rétrograde permettant d’extraire les paramètres nécessaires à l’interprétation du message émotionnel véhiculé par le visage. Dans notre série d’études, nous avons certainement exploré la dynamique spatiotemporelle de cet aspect du traitement des émotions. Bien entendu, il est probable, mais cela doit être démontré, que l’activité amygdalienne de type 1- dépendante du réseau sous-cortical, influence et augmente les performances de son activité de type 2- intégrée au traitement cortical. Les premiers indices concernant le rôle de la pré-AMS dans la détection et peut-être la reconnaissance des stimuli joyeux soulignent une fonction automatique, rapide, dont le substrat anatomique précis reste à découvrir. 199 B. Vers un modèle de la reconnaissance des expressions faciales 1) Le modèle de Ralph Adolphs (Adolphs, 2002) Le modèle fonctionnel de Bruce et Young (Bruce and Young, 1986) et le modèle neuroanatomique de Haxby et collaborateurs (Haxby et al., 2000) émettent l’hypothèse de l’existence de différents réseaux neuronaux impliqués dans la reconnaissance de l’identité et l’expression d’un visage. Ces deux modèles débutent par les étapes perceptives, pour arriver progressivement vers la connaissance conceptuelle des principaux attributs faciaux. Plusieurs structures visuelles sous-corticales et corticales occipitales réagissent à la perception d’un visage. Les structures sous-corticales incluant le colliculus supérieur et le pulvinar pourraient être spécialisées dans le traitement très rapide, sommaire et automatique des stimuli visuels, en particulier de leurs attributs transitoires ou dynamiques, comme les mouvements faciaux. Le message serait transmis grâce à une voie visuelle thalamo-amygdalienne. Les structures corticales impliquées précocement dans le traitement des stimuli émotionnels incluraient bien sûr V1, V2 et autres structures voisines comme V3 et V4, dont les voies afférentes principales seraient issues du corps genouillé latéral. Ce traitement précoce serait spécialisé dans l’analyse des stimuli les plus saillants, comme les expressions faciales aversives telles la peur et la colère. Ce premier traitement serait automatique et obligatoire. Une fois l’analyse sommaire des caractéristiques des visages assurée par structures visuelles de bas niveau, des régions plus antérieures incluant le cortex visuel associatif, construiraient une représentation perceptive plus détaillée dépendant d’avantage des caractéristiques configurationnelles du visage. Une information plus explicite concernant les expressions pourrait se construire, engageant vraisemblablement les deux courants visuels corticaux, ventral et dorsal. Ce type de stimulus contenant, lorsqu’il est écologique, des informations dynamiques, les aires temporales moyennes et supérieures ainsi que le cortex pariétal postérieur permettraient d’encoder les informations liées aux mouvements 200 intrinsèques du visage. Le gyrus temporal supérieur pourrait ainsi élaborer des représentations concernant les mouvements des lèvres, la direction du regard et les expressions faciales. Le cortex temporal postérieur et fusiforme, après les premières analyses réalisées au sein de V1-V2 et V3, aurait construit une représentation structurale détaillée du visage aux environs de 170 ms après le début du stimulus. Les informations concernant le mouvement pourraient être associées, dans le lobe temporal, aux renseignements issus des analyses statiques conduites au sein du courant ventral occipito-temporal. Des influences de type top-down pourraient intervenir à différents niveaux du traitement visuel, c'est-à-dire sur différentes structures et à différents moments. L’activité liée au traitement rapide des cellules M pourrait secondairement moduler l’activité liée aux cellules P. Un telle neuromodulation rétrograde pourrait être en partie assurée par l’amygdale. Les mêmes structures pourraient participer à la fois à des analyses perceptives précoces et aux étapes plus tardives de reconnaissance, ceci de façon concomitante. Dans une scène naturelle, le contexte pourrait moduler à chaque instant l’analyse des stimuli visuels. Les structures précitées rempliraient différentes fonctions. L’amygdale et le cortex orbito-frontal pourraient faire le lien entre les représentations perceptives des expressions faciales et la connaissance conceptuelle de l’émotion grâce à trois grandes stratégies : a) par une influence top-down sur le cortex visuel temporal et occipital modulant l’évolution de la construction de la représentation perceptive du visage. Ce mécanisme constituerait l’essentiel de ce qui conduit à amplifier l’attention sélective sur certains des paramètres faciaux, augmenter les performances de l’extraction de ces paramètres et préciser l’expression émotionnelle b) via des connexions vers diverses régions corticales et l’hippocampe permettant de comparer l’information perceptive à la connaissance des stimuli émotionnels préalablement acquise. Ce mécanisme permettrait essentiellement de retrouver la connaissance conceptuelle de chaque émotion c) par des connexions avec les structures motrices, l’hypothalamus, les noyaux du tronc cérébral, qui peuvent déclencher les conséquences corporelles illustrant une réaction émotionnelle propre. Ce mécanisme pourrait contribuer à la reconnaissance de l’état émotionnel d’autrui par la simulation. 201 Les structures motrices, en particulier les noyaux gris centraux et l’opercule frontal gauche, pourraient renforcer ce processus par différents moyens : d’abord, la simulation qui génère des programmes moteurs en réaction à la détection d’expressions faciales, ensuite, par le langage avec une implication particulière de l’opercule frontal gauche. Le cortex somato-sensoriel de l’hémisphère droit pourrait participer à la représentation des états du corps définissant un état émotionnel. Il serait utile à la construction de la reconnaissance de l’émotion via la simulation, ceci indépendamment du fait qu’il existe une réaction émotionnelle propre au stimulus. La reconnaissance d’une émotion chez autrui n’est pas un phénomène monolithique. Cette analyse est constituée de multiples éléments dépendants de stratégies individuelles, de la tâche expérimentale et du contexte. 202 Figure 35 : Illustration du modèle proposé par Ralph Adolphs. Dans la colonne (a) sont illustrées les différentes étapes de la reconnaissances des expressions faciales dont la chronologie est annoncée dans la colonne (b). SCx : Striate cortex, T : Thalamus, A : Amygdale, O : Orbito-frontal, STG : Superior Temporal Gyrus, FFA: Fusiform Face Area, INS: Insula, SS: Somato-Sensitive cortex (Adolphs, 2002) 203 2) Commentaires Ce modèle remarquable souligne la complexité des mécanismes de reconnaissances des stimuli émotionnels, en particulier des expressions faciales. Il insiste sur l’implication d’une voie corticale alimentée par les connexions thalamostriées, et d’une voie sous-corticale plus rapide empruntant les connexions thalamoamygdaliennes. Il insiste également sur l’engagement des principales structures à différents moments du processus de reconnaissance, et souligne les influences bottom-up et top-down multiples. Nos résultats sont compatibles avec ce modèle. Les enregistrements de scalp et intra-cérébraux ont montré que les structures visuelles occipito-temporales, temporales antérieures et orbito-frontales étaient impliquées da façon extrêmement prolongée dans le reconnaissance des expressions faciales. A défaut de pouvoir affirmer des coopérations multiples aussi soutenues, nous montrons que ces aires corticales traitent ce type d’information de façon tardive, alors que l’activité amygdalienne et orbito-frontale dépendant de l’attention sélective est encore présente, et que les premières informations perceptives ont été traitées. Nos travaux permettent d’apporter quelques précisions. Ils démontrent que les activités amygdaliennes liées à la reconnaissance des émotions et survenant après 200 ms sont extrêmement sensibles à la tâche. Il serait intéressant de faire figurer dans ce modèle la réaction précoce de la pré-AMS aux stimuli joyeux et les implications tardives (après 300 ms) entre le cortex orbito-frontal, l’amygdale et les aires visuelles corticales, pour illustrer l’influence de la tâche et du contexte sur l’activité de ces différentes structures, et ainsi sur les différentes étapes de la reconnaissance des expressions. Le deuxième élément apporté par nos résultats réside dans l’hypothèse d’une certaine hiérarchie temporelle influençant le traitement cérébral de certains stimuli émotionnels. Il ne semble pas que le dégoût soit traité à la même vitesse que d’autres stimuli plus saillants tels la peur et même la joie. En effet, l’amygdale et l’AMS réagissent à la peur et à la joie bien avant, respectivement 100 ms et 150 ms, avant l’insula qui réagit préférentiellement au dégoût après 300 ms. Ce délai est très important car il intervient dans le traitement neuronal de stimuli représentés par les 204 mêmes visages, dans les mêmes conditions expérimentales, ne différent que par leur contenu émotionnel. Les conclusions en terme d’évolution et de bénéfice pour la survie de l’espèce paraissent évidentes pour ce qui concerne les stimuli aversifs et saillants comme la peur. La détection d’une émotion positive, liée à la notion de plaisir, également indispensable à l’équilibre et la survie des espèces, pourrait même être rapide. Bien entendu, l’existence de cette hiérarchie temporelle devrait être recherchée plus systématiquement avec d’autres types de stimuli émotionnels avant d’être affirmée. Un telle hiérarchie temporelle pourrait être sous-tendue par un premier train d’information, rapide, plutôt de type magnocellulaire, qui pourrait, après avoir alerté et déclenché différents mécanismes attentionnels sélectifs, permettre d’extraire plus rapidement et plus efficacement les paramètres structuraux précisant la nature du stimulus émotionnel. Cette toute première information est-elle transmise par une voie sous-corticale rapide, ou empreinte-t-elle la voie visuelle corticale principale ? Le modèle d’Adolphs est en faveur de la première hypothèse. Nos enregistrements intracrâniens n’ont pas mis en évidence d’activité amygdalienne ultra précoce (avant 100 ms), peut-être en partie parce que cette structure est particulièrement sensible à l’épilepsie. Les réponses à l’expression de peur survenaient après 200 ms, ce qui est compatible avec une transmission corticale du message visuel vers l’amygdale. La sensibilité au type d’attention nous oriente encore vers l’implication de cette voie cortico-amygdalienne, pour ce qui concerne l’activité enregistrée dans notre étude. Cette activité pourrait être rapprochée de l’analyse structurale fine présentée par Adolphs, permettant d’extraire au mieux les paramètres visuels confirmant le type d’émotion exprimée par le visage. Nos résultats indiquent que, dans ce type d’activité dépendant du cortex occipito-temporal, l’amygdale et le cortex orbito-frontal sont impliqués, durant des périodes en partie communes avec les structures visuelles extra-striées. Notre protocole n’a pas été particulièrement construit pour mettre en évidence les activités sous-corticales, automatiques, supposées rapides, liées à la détection des messages émotionnels. Nous avons en effet utilisé des images statiques, à hautes fréquences spatiales, présentées dans le champ visuel central. Ces stimuli ne sont pas adaptés à la voie magnocellulaire majoritaire au niveau du thalamus. Des 205 visages en mouvement exprimant des émotions de façon dynamique et présentés en périphérie seraient plus adaptés aux propriétés de cette voie sous-corticale. L’absence d’activités sous-corticales rapides dans nos enregistrements ne constitue pas une preuve de leur inexistence. Néanmoins, ce type d’activité n’a pas été démontré directement chez l’Homme. Seuls des arguments indirects sont disponibles dans la littérature, utilisant des stimuli subliminaux ou des patients avec lésions de la voie visuelle corticale. Il n’est pas démontré que cette voie thalamo-amygdalienne soit active en situation écologique de détection d’un message émotionnel visuel (supraliminaire) chez un sujet normal, sans lésion corticale. Vuilleumier et collaborateurs ont élégamment montré que cette voie était préférentiellement impliquée dans le traitement des stimuli à basse fréquence spatiale, mais là encore, les stimuli utilisés étaient peu écologiques (Vuilleumier et al., 2003). C. Perspectives Ces résultats électrophysiologiques nous ont renseignés en partie sur la chronologie d’activation des principales structures impliquées dans la reconnaissance des expressions faciales. Cependant, de nombreuses questions demeurent. Peut-on préciser les moments d’interaction et de coopération des différents éléments composant le vaste réseau traitant ce type de stimulus ? Nous savons maintenant que ce traitement neuronal est extrêmement dispersé dans le temps et dans l’espace. Comment déterminer les couplages fonctionnels indispensables à la construction perceptive et la reconnaissance ? L’étude des synchronies en analyses temps-fréquence pourrait être un outil majeur dans cette quête. Ce type d’approche a montré que l’on pouvait ainsi objectiver les coopérations fonctionnelles entre plusieurs groupes neuronaux pour l’instant au sein d’une région relativement focale comme la région visuelle occipitale (Tallon-Baudry and Bertrand, 1999). Il sera à l’avenir intéressant de rechercher ce type d’interaction fonctionnelle entre les aires visuelles extra-striées d’une part, et les structures limbiques et paralimbiques d’autre part, aux étapes précoces et tardives du traitement. Il apparaît également important de préciser le poids de la voie thalamoamygdalienne dans l’analyse des stimuli émotionnels visuels en situation plus 206 écologique que ce qui a été exploré pour l’instant. Cela implique l’utilisation de stimuli émotionnels plus adaptés au système magnocellulaire, tout en restant le plus écologique possible. Le rôle de cette voie serait alors étudié dans une population saine, en dehors de toute lésion corticale visuelle, pouvant induire une réorganisation fonctionnelle compensatrice. Il serait alors déterminant d’analyser les signaux issus de cette activité par différentes méthodes associant hautes résolutions spatiales et temporelles. Les mêmes protocoles (ou des protocoles voisins) pourraient être utilisés en IRMf, SEEG et MEG. Enfin, il est crucial d’explorer cette fonction, la reconnaissance des émotions chez les autres, en particulier celle des expressions faciales, chez les patients présentant une altération potentielle de ce vaste réseau. Une évaluation plus précise des mécanismes en cause dans les troubles du comportement, de communication et des rapports sociaux, observés chez certains patients atteints de lésions temporales, surtout droites, est une étape importante. Les conséquences, jugées hâtivement subtiles parfois, de tels troubles sur la vie quotidienne de ces patients sont certainement méconnues et sous-évaluées. De sérieux indices orientent également vers une altération des processus de reconnaissance des messages sociaux dont les émotions dans certaines pathologies psychiatriques, comme les psychoses de l’enfant et de l’adulte, la dépression. Une meilleure compréhension des mécanismes intimes de ce type d’altération pourrait être importante dans l’accompagnement et les traitements de ce type de pathologie. 207 Conclusion La reconnaissance des expressions faciales implique de vases réseaux neuronaux différents selon le message émotionnel. Le traitement perceptif principalement effectué par les aires visuelles extra-striées, en particulier le cortex temporal externe (complexe STS-MTG), est étroitement intriqué avec les systèmes de reconnaissance des concepts émotionnels, dépendant du contexte social ou du cadre expérimental. L’amygdale, l’insula et le cortex orbito-frontal pourraient permettre d’établir un lien puissant entre les systèmes perceptifs et les réseaux à l’origine des corrélats neuroendocrines permettant d’illustrer et d’interpréter nos propres émotions. Nos résultats montrent que ces traitements sont également distribués dans le temps. Les premiers corrélats électrophysiologiques du traitement des expressions faciales différant selon le message émotionnel apparaissent dès 150 à 200 ms dans l’AMS et l’amygdale, et après 300 ms dans l’insula ventrale antérieure. Cela suggère une hiérarchie temporelle dans le traitement des stimuli à caractère émotionnel, hiérarchie intégrée à l’évolution et certainement bénéfique pour la survie de l’espèce. Ces activités spécifiques sont ensuite enregistrées pendant plusieurs centaines de millisecondes dans le réseau cortical occipito-temporo-frontal appartenant au système ventral de reconnaissance visuelle. Ainsi, les structures sous-corticales et corticales impliquées dans la perception et la reconnaissance des expressions faciales opèrent de concert après 300 ms, les réponses enregistrées dépendant fortement de l’attention. Il est probable que ces activités distribuées dans le temps et l’espace soient le reflet d’une coopération entre les structures limbiques/paralimbiques et les aires corticales postérieures visant à optimiser l’extraction des informations visuelles permettant de reconnaître la nature précise du message émotionnel. 208 Références 209 Adolphs R (1999) Social cognition and the human brain. Trends Cogn Sci 3:469-479. Adolphs R (2002) Neural systems for recognizing emotion. Curr Opin Neurobiol 12:169-177. Adolphs R, Tranel D (1999) Intact recognition of emotional prosody following amygdala damage. Neuropsychologia 37:1285-1292. Adolphs R, Tranel D (2003) Amygdala damage impairs emotion recognition from scenes only when they contain facial expressions. Neuropsychologia 41:1281-1289. Adolphs R, Tranel D, Damasio AR (1998a) The human amygdala in social judgment. Nature 393:470-474. Adolphs R, Schul R, Tranel D (1998b) Intact recognition of facial emotion in Parkinson's disease. Neuropsychology 12:253-258. Adolphs R, Tranel D, Denburg N (2000a) Impaired emotional declarative memory following unilateral amygdala damage. Learn Mem 7:180-186. Adolphs R, Sears L, Piven J (2001a) Abnormal processing of social information from faces in autism. J Cogn Neurosci 13:232-240. Adolphs R, Jansari A, Tranel D (2001b) Hemispheric perception of emotional valence from facial expressions. Neuropsychology 15:516-524. Adolphs R, Tranel D, Damasio H (2001c) Emotion recognition from faces and prosody following temporal lobectomy. Neuropsychology 15:396-404. Adolphs R, Tranel D, Damasio AR (2003) Dissociable neural systems for recognizing emotions. Brain Cogn 52:61-69. Adolphs R, Tranel D, Damasio H, Damasio A (1994) Impaired recognition of emotion in facial expressions following bilateral damage to the human amygdala. Nature 372:669-672. Adolphs R, Tranel D, Damasio H, Damasio AR (1995) Fear and the human amygdala. J Neurosci 15:5879-5891. Adolphs R, Damasio H, Tranel D, Damasio AR (1996) Cortical systems for the recognition of emotion in facial expressions. J Neurosci 16:7678-7687. Adolphs R, Cahill L, Schul R, Babinsky R (1997) Impaired declarative memory for emotional material following bilateral amygdala damage in humans. Learn Mem 4:291-300. Adolphs R, Damasio H, Tranel D, Cooper G, Damasio AR (2000b) A role for somatosensory cortices in the visual recognition of emotion as revealed by three-dimensional lesion mapping. J Neurosci 20:2683-2690. Adolphs R, Tranel D, Hamann S, Young AW, Calder AJ, Phelps EA, Anderson A, Lee GP, Damasio AR (1999) Recognition of facial emotion in nine individuals with bilateral amygdala damage. Neuropsychologia 37:1111-1117. Aggleton JP (1993) The contribution of the amygdala to normal and abnormal emotional states. Trends Neurosci 16:328-333. Aguirre GK, Zarahn E, D'Esposito M (1998) An area within human ventral cortex sensitive to "building" stimuli: evidence and implications. Neuron 21:373-383. Aharon I, Etcoff N, Ariely D, Chabris CF, O'Connor E, Breiter HC (2001) Beautiful faces have variable reward value: fMRI and behavioral evidence. Neuron 32:537-551. Allison T, Puce A, McCarthy G (2000) Social perception from visual cues: role of the STS region. Trends Cogn Sci 4:267-278. Allison T, Puce A, Spencer DD, McCarthy G (1999) Electrophysiological studies of human face perception. I: Potentials generated in occipitotemporal cortex by face and nonface stimuli. Cereb Cortex 9:415-430. Allison T, Ginter H, McCarthy G, Nobre AC, Puce A, Luby M, Spencer DD (1994) Face recognition in human extrastriate cortex. J Neurophysiol 71:821-825. 210 Amaral DG, Behniea H, Kelly JL (2003a) Topographic organization of projections from the amygdala to the visual cortex in the macaque monkey. Neuroscience 118:1099-1120. Amaral DG, Bauman MD, Capitanio JP, Lavenex P, Mason WA, Mauldin-Jourdain ML, Mendoza SP (2003b) The amygdala: is it an essential component of the neural network for social cognition? Neuropsychologia 41:517-522. Anderson AK, Phelps EA (2000a) Expression without recognition: contributions of the human amygdala to emotional communication. Psychol Sci 11:106-111. Anderson AK, Phelps EA (2000b) Perceiving emotion: There's more than meets the eye. Curr Biol 10:R551-554. Anderson AK, Phelps EA (2001) Lesions of the human amygdala impair enhanced perception of emotionally salient events. Nature 411:305-309. Anderson AK, Spencer DD, Fulbright RK, Phelps EA (2000a) Contribution of the anteromedial temporal lobes to the evaluation of facial emotion. Neuropsychology 14:526-536. Anderson AK, Christoff K, Panitz D, De Rosa E, Gabrieli JD (2003) Neural correlates of the automatic processing of threat facial signals. J Neurosci 23:5627-5633. Anderson SW, Damasio H, Tranel D, Damasio AR (2000b) Long-term sequelae of prefrontal cortex damage acquired in early childhood. Dev Neuropsychol 18:281-296. Anderson SW, Bechara A, Damasio H, Tranel D, Damasio AR (1999) Impairment of social and moral behavior related to early damage in human prefrontal cortex. Nat Neurosci 2:1032-1037. Arroyo S, Lesser RP, Gordon B, Uematsu S, Hart J, Schwerdt P, Andreasson K, Fisher RS (1993) Mirth, laughter and gelastic seizures. Brain 116 ( Pt 4):757-780. Ashford JW, Fuster JM (1985) Occipital and inferotemporal responses to visual signals in the monkey. Exp Neurol 90:444-466. Baizer JS, Ungerleider LG, Desimone R (1991) Organization of visual inputs to the inferior temporal and posterior parietal cortex in macaques. J Neurosci 11:168-190. Baleydier C, Achache P, Froment JC (1997) Neurofilament architecture of superior and mesial premotor cortex in the human brain. Neuroreport 8:1691-1696. Batty M, Taylor MJ (2003) Early processing of the six basic facial emotional expressions. Brain Res Cogn Brain Res 17:613-620. Baudouin JY, Gilibert D, Sansone S, Tiberghien G (2000) When the smile is a cue to familiarity. Memory 8:285-292. Bechara A, Damasio AR, Damasio H, Anderson SW (1994) Insensitivity to future consequences following damage to human prefrontal cortex. Cognition 50:7-15. Bechara A, Tranel D, Damasio H, Damasio AR (1996) Failure to respond autonomically to anticipated future outcomes following damage to prefrontal cortex. Cereb Cortex 6:215-225. Bechara A, Damasio H, Tranel D, Damasio AR (1997) Deciding advantageously before knowing the advantageous strategy. Science 275:1293-1295. Bejjani BP, Damier P, Arnulf I, Thivard L, Bonnet AM, Dormont D, Cornu P, Pidoux B, Samson Y, Agid Y (1999) Transient acute depression induced by high-frequency deep-brain stimulation. N Engl J Med 340:1476-1480. Bentin S, Carmel D (2002) Accounts for the N170 face-effect: a reply to Rossion, Curran, & Gauthier. Cognition 85:197-202. Bentin S, Deouell LY, Soroker N (1999) Selective visual streaming in face recognition: evidence from developmental prosopagnosia. Neuroreport 10:823-827. Bentin S, Allison T, Puce A, Perez E, McCarthy G (1996) Electrophysiological studies of face perception in humans. J Cogn Neurosci 8:551-565. 211 Benton AL, Hamsher K, Varney NR, Spreen O (1983) Contributions to neuropsychological assessment. New-York: Oxford University Press. Berendse HW, Galis-de Graaf Y, Groenewegen HJ (1992) Topographical organization and relationship with ventral striatal compartments of prefrontal corticostriatal projections in the rat. J Comp Neurol 316:314-347. Bernstein LJ, Beig S, Siegenthaler AL, Grady CL (2002) The effect of encoding strategy on the neural correlates of memory for faces. Neuropsychologia 40:86-98. Blair RJ (1995) A cognitive developmental approach to mortality: investigating the psychopath. Cognition 57:1-29. Blair RJ, Cipolotti L (2000) Impaired social response reversal. A case of 'acquired sociopathy'. Brain 123 ( Pt 6):1122-1141. Blair RJ, Morris JS, Frith CD, Perrett DI, Dolan RJ (1999) Dissociable neural responses to facial expressions of sadness and anger. Brain 122 ( Pt 5):883-893. Blonder LX, Gur RE, Gur RC (1989) The effects of right and left hemiparkinsonism on prosody. Brain Lang 36:193-207. Bodamer J (1947) Die prop-agnosie. Archiv für Psychiatrie une Nervenkrankheiten 179:6-53. Borod JC, Koff E, Perlman Lorch M, Nicholas M (1986) The expression and perception of facial emotion in brain-damaged patients. Neuropsychologia 24:169-180. Borod JC, Cicero BA, Obler LK, Welkowitz J, Erhan HM, Santschi C, Grunwald IS, Agosti RM, Whalen JR (1998) Right hemisphere emotional perception: evidence across multiple channels. Neuropsychology 12:446-458. Botzel K, Grusser OJ (1989) Electric brain potentials evoked by pictures of faces and nonfaces: a search for "face-specific" EEG-potentials. Exp Brain Res 77:349-360. Boucsein K, Weniger G, Mursch K, Steinhoff BJ, Irle E (2001) Amygdala lesion in temporal lobe epilepsy subjects impairs associative learning of emotional facial expressions. Neuropsychologia 39:231-236. Bowers D, Heilman KM (1984) Dissociation between the processing of affective and nonaffective faces: a case study. J Clin Neuropsychol 6:367-379. Breiter HC, Etcoff NL, Whalen PJ, Kennedy WA, Rauch SL, Buckner RL, Strauss MM, Hyman SE, Rosen BR (1996) Response and habituation of the human amygdala during visual processing of facial expression. Neuron 17:875-887. Broks P, Young AW, Maratos EJ, Coffey PJ, Calder AJ, Isaac CL, Mayes AR, Hodges JR, Montaldi D, Cezayirli E, Roberts N, Hadley D (1998) Face processing impairments after encephalitis: amygdala damage and recognition of fear. Neuropsychologia 36:5970. Brothers L, Ring B, Kling A (1990) Response of neurons in the macaque amygdala to complex social stimuli. Behav Brain Res 41:199-213. Bruce V (1982) Changing faces: visual and non-visual coding processes in face recognition. Br J Psychol 73:105-116. Bruce V, Young A (1986) Understanding face recognition. Br J Psychol 77 ( Pt 3):305-327. Buccino G, Binkofski F, Fink GR, Fadiga L, Fogassi L, Gallese V, Seitz RJ, Zilles K, Rizzolatti G, Freund HJ (2001) Action observation activates premotor and parietal areas in a somatotopic manner: an fMRI study. Eur J Neurosci 13:400-404. Burt DM, Perrett DI (1997) Perceptual asymmetries in judgements of facial attractiveness, age, gender, speech and expression. Neuropsychologia 35:685-693. Calder AJ, Young AW, Rowland D, Perrett DI (1997) Computer-enhanced emotion in facial expressions. Proc R Soc Lond B Biol Sci 264:919-925. Calder AJ, Young AW, Keane J, Dean M (2000a) Configural information in facial expression perception. J Exp Psychol Hum Percept Perform 26:527-551. 212 Calder AJ, Keane J, Manes F, Antoun N, Young AW (2000b) Impaired recognition and experience of disgust following brain injury. Nat Neurosci 3:1077-1078. Calder AJ, Keane J, Cole AJ, Campbell R, Young A (2000c) Facial expression recognition by people with moebius syndrome. Cognitive neuropsychology 17:73-87. Calder AJ, Burton AM, Miller P, Young AW, Akamatsu S (2001) A principal component analysis of facial expressions. Vision Res 41:1179-1208. Cancelliere AE, Kertesz A (1990) Lesion localization in acquired deficits of emotional expression and comprehension. Brain Cogn 13:133-147. Canli T, Desmond JE, Zhao Z, Glover G, Gabrieli JD (1998) Hemispheric asymmetry for emotional stimuli detected with fMRI. Neuroreport 9:3233-3239. Carretie L, Iglesias J (1995) An ERP study on the specificity of facial expression processing. Int J Psychophysiol 19:183-192. Case R (1992) The role of the frontal lobes in the regulation of cognitive development. Brain Cogn 20:51-73. Cerrato P, Imperiale D, Bergui M, Giraudo M, Baima C, Grasso M, Lentini A, Bergamasco B (2003) Emotional facial paresis in a patient with a lateral medullary infarction. Neurology 60:723-724. Christman SD, Hackworth MD (1993) Equivalent perceptual asymmetries for free viewing of positive and negative emotional expressions in chimeric faces. Neuropsychologia 31:621-624. Clark VP, Keil K, Maisog JM, Courtney S, Ungerleider LG, Haxby JV (1996) Functional magnetic resonance imaging of human visual cortex during face matching: a comparison with positron emission tomography. Neuroimage 4:1-15. Clarke S, Miklossy J (1990) Occipital cortex in man: organization of callosal connections, related myelo- and cytoarchitecture, and putative boundaries of functional visual areas. J Comp Neurol 298:188-214. Cole PM, Jenkins PA, Shott CT (1989) Spontaneous expressive control in blind and sighted children. Child Dev 60:683-688. Cowey A (1996) Visual awareness: still at sea with seeing? Curr Biol 6:45-47. Cowey A, Stoerig P (1991) The neurobiology of blindsight. Trends Neurosci 14:140-145. Cowey A, Stoerig P, Bannister M (1994) Retinal ganglion cells labelled from the pulvinar nucleus in macaque monkeys. Neuroscience 61:691-705. Critchley H, Daly E, Phillips M, Brammer M, Bullmore E, Williams S, Van Amelsvoort T, Robertson D, David A, Murphy D (2000) Explicit and implicit neural mechanisms for processing of social information from facial expressions: a functional magnetic resonance imaging study. Hum Brain Mapp 9:93-105. Cuthbert BN, Schupp HT, Bradley MM, Birbaumer N, Lang PJ (2000) Brain potentials in affective picture processing: covariation with autonomic arousal and affective report. Biol Psychol 52:95-111. Dailey MN, Cottrell GW, Padgett C, Adolphs R (2002) EMPATH: a neural network that categorizes facial expressions. J Cogn Neurosci 14:1158-1173. Damasio A (2001a) Fundamental feelings. Nature 413:781. Damasio A (2003) Spinoza avait raison. Paris: Odile Jacob. Damasio AR (1994) Descartes' error and the future of human life. Sci Am 271:144. Damasio AR (2001b) Descartes' error revisited. J Hist Neurosci 10:192-194. Damasio AR, Damasio H, Van Hoesen GW (1982) Prosopagnosia: anatomic basis and behavioral mechanisms. Neurology 32:331-341. Damasio AR, Tranel D, Damasio H (1990) Face agnosia and the neural substrates of memory. Annu Rev Neurosci 13:89-109. 213 Damasio H, Grabowski T, Frank R, Galaburda AM, Damasio AR (1994) The return of Phineas Gage: clues about the brain from the skull of a famous patient. Science 264:1102-1105. Damasio H, Grabowski TJ, Tranel D, Hichwa RD, Damasio AR (1996) A neural basis for lexical retrieval. Nature 380:499-505. Darwin C (1872) The expression of emotions in man and animals. London: John Murray. Davidoff J (2001) Language and perceptual categorisation. Trends Cogn Sci 5:382-387. Davidson RJ, Irwin W (1999) The functional neuroanatomy of emotion and affective style. Trends Cogn Sci 3:11-21. Davidson RJ, Mednick D, Moss E, Saron C, Schaffer CE (1987) Ratings of emotion in faces are influenced by the visual field to which stimuli are presented. Brain Cogn 6:403411. de Gelder B, Vroomen J, Pourtois G, Weiskrantz L (1999) Non-conscious recognition of affect in the absence of striate cortex. Neuroreport 10:3759-3763. De Renzi E, Perani D, Carlesimo GA, Silveri MC, Fazio F (1994) Prosopagnosia can be associated with damage confined to the right hemisphere--an MRI and PET study and a review of the literature. Neuropsychologia 32:893-902. DeKosky ST, Heilman KM, Bowers D, Valenstein E (1980) Recognition and discrimination of emotional faces and pictures. Brain Lang 9:206-214. Desimone R, Ungerleider LG (1986) Multiple visual areas in the caudal superior temporal sulcus of the macaque. J Comp Neurol 248:164-189. Desimone R, Albright TD, Gross CG, Bruce C (1984) Stimulus-selective properties of inferior temporal neurons in the macaque. J Neurosci 4:2051-2062. DeYoe EA, Carman GJ, Bandettini P, Glickman S, Wieser J, Cox R, Miller D, Neitz J (1996) Mapping striate and extrastriate visual areas in human cerebral cortex. Proc Natl Acad Sci U S A 93:2382-2386. Dimberg U (1982) Facial reactions to facial expressions. Psychophysiology 19:643-647. Dimberg U, Thunberg M, Elmehed K (2000) Unconscious facial reactions to emotional facial expressions. Psychol Sci 11:86-89. Dolan RJ, Fletcher P, Morris J, Kapur N, Deakin JF, Frith CD (1996) Neural activation during covert processing of positive emotional facial expressions. Neuroimage 4:194-200. Dolan RJ, Fink GR, Rolls E, Booth M, Holmes A, Frackowiak RS, Friston KJ (1997) How the brain learns to see objects and faces in an impoverished context. Nature 389:596599. Eblen F, Graybiel AM (1995) Highly restricted origin of prefrontal cortical inputs to striosomes in the macaque monkey. J Neurosci 15:5999-6013. Eimer M (2000) Event-related brain potentials distinguish processing stages involved in face perception and recognition. Clin Neurophysiol 111:694-705. Eimer M, Holmes A (2002) An ERP study on the time course of emotional face processing. Neuroreport 13:427-431. Ekman P (1992) Are there basic emotions? Psychol Rev 99:550-553. Ekman P (1993) Facial expression and emotion. Am Psychol 48:384-392. Ekman P (1994) Strong evidence for universals in facial expressions: a reply to Russell's mistaken critique. Psychol Bull 115:268-287. Ekman P, Friesen W (1975) Pictures from facial affect. CA. Ellis HD, Shepherd JW, Davies GM (1979) Identification of familiar and unfamiliar faces from internal and external features: some implications for theories of face recognition. Perception 8:431-439. 214 Emery NJ, Capitanio JP, Mason WA, Machado CJ, Mendoza SP, Amaral DG (2001) The effects of bilateral lesions of the amygdala on dyadic social interactions in rhesus monkeys (Macaca mulatta). Behav Neurosci 115:515-544. Epstein R, Kanwisher N (1998) A cortical representation of the local visual environment. Nature 392:598-601. Eslinger PJ, Grattan LM, Damasio H, Damasio AR (1992) Developmental consequences of childhood frontal lobe damage. Arch Neurol 49:764-769. Esteves F, Parra C, Dimberg U, Ohman A (1994) Nonconscious associative learning: Pavlovian conditioning of skin conductance responses to masked fear-relevant facial stimuli. Psychophysiology 31:375-385. Everitt BJ, Parkinson JA, Olmstead MC, Arroyo M, Robledo P, Robbins TW (1999) Associative processes in addiction and reward. The role of amygdala-ventral striatal subsystems. Ann N Y Acad Sci 877:412-438. Fabre-Thorpe M, Delorme A, Marlot C, Thorpe S (2001) A limit to the speed of processing in ultra-rapid visual categorization of novel natural scenes. J Cogn Neurosci 13:171-180. Feinstein JS, Goldin PR, Stein MB, Brown GG, Paulus MP (2002) Habituation of attentional networks during emotion processing. Neuroreport 13:1255-1258. Felleman DJ, Van Essen DC (1991) Distributed hierarchical processing in the primate cerebral cortex. Cereb Cortex 1:1-47. Fodor J (1985) Precis of the modularity of mind. Behav Brain Sci 8:1-5. Fox PT, Ingham RJ, Ingham JC, Hirsch TB, Downs JH, Martin C, Jerabek P, Glass T, Lancaster JL (1996) A PET study of the neural systems of stuttering. Nature 382:158161. Fridlund AJ, Gilbert AN, Izard CE, Burdett AN (1985) Emotions and facial expression. Science 230:607-608, 610, 687. Fried I, MacDonald KA, Wilson CL (1997) Single neuron activity in human hippocampus and amygdala during recognition of faces and objects. Neuron 18:753-765. Fried I, Wilson CL, MacDonald KA, Behnke EJ (1998) Electric current stimulates laughter. Nature 391:650. Fried I, Mateer C, Ojemann G, Wohns R, Fedio P (1982) Organization of visuospatial functions in human cortex. Evidence from electrical stimulation. Brain 105:349-371. Fries W (1981) The projection from the lateral geniculate nucleus to the prestriate cortex of the macaque monkey. Proc R Soc Lond B Biol Sci 213:73-86. Fuster JM, Bauer RH, Jervey JP (1985) Functional interactions between inferotemporal and prefrontal cortex in a cognitive task. Brain Res 330:299-307. Gaffan D, Murray EA, Fabre-Thorpe M (1993) Interaction of the amygdala with the frontal lobe in reward memory. Eur J Neurosci 5:968-975. Galati D, Scherer KR, Ricci-Bitti PE (1997) Voluntary facial expression of emotion: comparing congenitally blind with normally sighted encoders. J Pers Soc Psychol 73:1363-1379. Gallese V, Fadiga L, Fogassi L, Rizzolatti G (1996) Action recognition in the premotor cortex. Brain 119 ( Pt 2):593-609. Gauthier I, Skudlarski P, Gore JC, Anderson AW (2000) Expertise for cars and birds recruits brain areas involved in face recognition. Nat Neurosci 3:191-197. Gauthier I, Tarr MJ, Anderson AW, Skudlarski P, Gore JC (1999) Activation of the middle fusiform 'face area' increases with expertise in recognizing novel objects. Nat Neurosci 2:568-573. Gorno-Tempini ML, Pradelli S, Serafini M, Pagnoni G, Baraldi P, Porro C, Nicoletti R, Umita C, Nichelli P (2001) Explicit and incidental facial expression processing: an fMRI study. Neuroimage 14:465-473. 215 Gray JM, Young AW, Barker WA, Curtis A, Gibson D (1997) Impaired recognition of disgust in Huntington's disease gene carriers. Brain 120 ( Pt 11):2029-2038. Gross CG, Rocha-Miranda CE, Bender DB (1972) Visual properties of neurons in inferotemporal cortex of the Macaque. J Neurophysiol 35:96-111. Guenot M, Isnard J, Sindou M (2004) Surgical anatomy of the insula. Adv Tech Stand Neurosurg 29:265-288. Gur RC, Skolnick BE, Gur RE (1994) Effects of emotional discrimination tasks on cerebral blood flow: regional activation and its relation to performance. Brain Cogn 25:271286. Halgren E, Raij T, Marinkovic K, Jousmaki V, Hari R (2000) Cognitive response profile of the human fusiform face area as determined by MEG. Cereb Cortex 10:69-81. Halgren E, Baudena P, Heit G, Clarke JM, Marinkovic K, Clarke M (1994) Spatio-temporal stages in face and word processing. I. Depth-recorded potentials in the human occipital, temporal and parietal lobes [corrected]. J Physiol Paris 88:1-50. Hamann SB, Adolphs R (1999) Normal recognition of emotional similarity between facial expressions following bilateral amygdala damage. Neuropsychologia 37:1135-1141. Hamann SB, Stefanacci L, Squire LR, Adolphs R, Tranel D, Damasio H, Damasio A (1996) Recognizing facial emotion. Nature 379:497. Han JS, McMahan RW, Holland P, Gallagher M (1997) The role of an amygdalo-nigrostriatal pathway in associative learning. J Neurosci 17:3913-3919. Hariri AR, Bookheimer SY, Mazziotta JC (2000) Modulating emotional responses: effects of a neocortical network on the limbic system. Neuroreport 11:43-48. Harmer CJ, Thilo KV, Rothwell JC, Goodwin GM (2001) Transcranial magnetic stimulation of medial-frontal cortex impairs the processing of angry facial expressions. Nat Neurosci 4:17-18. Hasselmo ME, Rolls ET, Baylis GC (1989) The role of expression and identity in the faceselective responses of neurons in the temporal visual cortex of the monkey. Behav Brain Res 32:203-218. Hauser MD (1993) Right hemisphere dominance for the production of facial expression in monkeys. Science 261:475-477. Haxby JV, Hoffman EA, Gobbini MI (2000) The distributed human neural system for face perception. Trends Cogn Sci 4:223-233. Haxby JV, Horwitz B, Ungerleider LG, Maisog JM, Pietrini P, Grady CL (1994) The functional organization of human extrastriate cortex: a PET-rCBF study of selective attention to faces and locations. J Neurosci 14:6336-6353. Haxby JV, Ungerleider LG, Clark VP, Schouten JL, Hoffman EA, Martin A (1999) The effect of face inversion on activity in human neural systems for face and object perception. Neuron 22:189-199. Haxby JV, Gobbini MI, Furey ML, Ishai A, Schouten JL, Pietrini P (2001) Distributed and overlapping representations of faces and objects in ventral temporal cortex. Science 293:2425-2430. Haxby JV, Grady CL, Horwitz B, Ungerleider LG, Mishkin M, Carson RE, Herscovitch P, Schapiro MB, Rapoport SI (1991) Dissociation of object and spatial visual processing pathways in human extrastriate cortex. Proc Natl Acad Sci U S A 88:1621-1625. Hess U, Blairy S (2001) Facial mimicry and emotional contagion to dynamic emotional facial expressions and their influence on decoding accuracy. Int J Psychophysiol 40:129141. Heywood CA, Cowey A (1992) The role of the 'face-cell' area in the discrimination and recognition of faces by monkeys. Philos Trans R Soc Lond B Biol Sci 335:31-37; discussion 37-38. 216 Hinde RA (1989) Relations between levels of complexity in the behavioral sciences. J Nerv Ment Dis 177:655-667. Hopf HC, Muller-Forell W, Hopf NJ (1992) Localization of emotional and volitional facial paresis. Neurology 42:1918-1923. Hoptman MJ, Levy J (1988) Perceptual asymmetries in left- and right-handers for cartoon and real faces. Brain Cogn 8:178-188. Hornak J, Rolls ET, Wade D (1996) Face and voice expression identification in patients with emotional and behavioural changes following ventral frontal lobe damage. Neuropsychologia 34:247-261. Hubel DH, Wiesel TN (1968) Receptive fields and functional architecture of monkey striate cortex. J Physiol 195:215-243. Humphreys GW, Donnelly N, Riddoch MJ (1993) Expression is computed separately from facial identity, and it is computed separately for moving and static faces: neuropsychological evidence. Neuropsychologia 31:173-181. Iacoboni M, Woods RP, Brass M, Bekkering H, Mazziotta JC, Rizzolatti G (1999) Cortical mechanisms of human imitation. Science 286:2526-2528. Iidaka T, Omori M, Murata T, Kosaka H, Yonekura Y, Okada T, Sadato N (2001) Neural interaction of the amygdala with the prefrontal and temporal cortices in the processing of facial expressions as revealed by fMRI. J Cogn Neurosci 13:1035-1047. Inase M, Tokuno H, Nambu A, Akazawa T, Takada M (1996) Origin of thalamocortical projections to the presupplementary motor area (pre-SMA) in the macaque monkey. Neurosci Res 25:217-227. Ioannides AA, Liu LC, Kwapien J, Drozdz S, Streit M (2000a) Coupling of regional activations in a human brain during an object and face affect recognition task. Hum Brain Mapp 11:77-92. Ioannides AA, Liu L, Theofilou D, Dammers J, Burne T, Ambler T, Rose S (2000b) Real time processing of affective and cognitive stimuli in the human brain extracted from MEG signals. Brain Topogr 13:11-19. Ishai A, Ungerleider LG, Martin A, Schouten JL, Haxby JV (1999) Distributed representation of objects in the human ventral visual pathway. Proc Natl Acad Sci U S A 96:93799384. Isnard J, Guenot M, Ostrowsky K, Sindou M, Mauguiere F (2000) The role of the insular cortex in temporal lobe epilepsy. Ann Neurol 48:614-623. Iwase M, Ouchi Y, Okada H, Yokoyama C, Nobezawa S, Yoshikawa E, Tsukada H, Takeda M, Yamashita K, Yamaguti K, Kuratsune H, Shimizu A, Watanabe Y (2002) Neural substrates of human facial expression of pleasant emotion induced by comic films: a PET Study. Neuroimage 17:758-768. Izard C, Fine S, Schultz D, Mostow A, Ackerman B, Youngstrom E (2001) Emotion knowledge as a predictor of social behavior and academic competence in children at risk. Psychol Sci 12:18-23. Jackson ME, Moghaddam B (2001) Amygdala regulation of nucleus accumbens dopamine output is governed by the prefrontal cortex. J Neurosci 21:676-681. Jacobs DH, Shuren J, Heilman KM (1995a) Impaired perception of facial identity and facial affect in Huntington's disease. Neurology 45:1217-1218. Jacobs DH, Shuren J, Bowers D, Heilman KM (1995b) Emotional facial imagery, perception, and expression in Parkinson's disease. Neurology 45:1696-1702. Jacobson R (1986) Disorders of facial recognition, social behaviour and affect after combined bilateral amygdalotomy and subcaudate tractotomy--a clinical and experimental study. Psychol Med 16:439-450. 217 Jasper H (1958) Report of the commitee on methods of clinical examination in electroencephalography. Electroencephalogr Clin Neurophysiol 10:370-375. Johnsen BH (1993) Cerebral asymmetry in autonomic conditioning to facial expressions: sex differences. Scand J Psychol 34:363-370. Johnsen BH, Hugdahl K (1993) Right hemisphere representation of autonomic conditioning to facial emotional expressions. Psychophysiology 30:274-278. Kalin NH, Shelton SE, Davidson RJ, Kelley AE (2001) The primate amygdala mediates acute fear but not the behavioral and physiological components of anxious temperament. J Neurosci 21:2067-2074. Kampe KK, Frith CD, Dolan RJ, Frith U (2001) Reward value of attractiveness and gaze. Nature 413:589. Kanwisher N, McDermott J, Chun MM (1997) The fusiform face area: a module in human extrastriate cortex specialized for face perception. J Neurosci 17:4302-4311. Kawasaki H, Kaufman O, Damasio H, Damasio AR, Granner M, Bakken H, Hori T, Howard MA, 3rd, Adolphs R (2001) Single-neuron responses to emotional visual stimuli recorded in human ventral prefrontal cortex. Nat Neurosci 4:15-16. Keenan JP, Nelson A, O'Connor M, Pascual-Leone A (2001) Self-recognition and the right hemisphere. Nature 409:305. Kesler-West ML, Andersen AH, Smith CD, Avison MJ, Davis CE, Kryscio RJ, Blonder LX (2001) Neural substrates of facial emotion processing using fMRI. Brain Res Cogn Brain Res 11:213-226. Killgore WD, Oki M, Yurgelun-Todd DA (2001) Sex-specific developmental changes in amygdala responses to affective faces. Neuroreport 12:427-433. Kosslyn SM, Thompson WL, Alpert NM (1997) Neural systems shared by visual imagery and visual perception: a positron emission tomography study. Neuroimage 6:320-334. Kosslyn SM, Ganis G, Thompson WL (2001) Neural foundations of imagery. Nat Rev Neurosci 2:635-642. Kosslyn SM, Chabris CF, Marsolek CJ, Koenig O (1992) Categorical versus coordinate spatial relations: computational analyses and computer simulations. J Exp Psychol Hum Percept Perform 18:562-577. Kosslyn SM, Pascual-Leone A, Felician O, Camposano S, Keenan JP, Thompson WL, Ganis G, Sukel KE, Alpert NM (1999) The role of area 17 in visual imagery: convergent evidence from PET and rTMS. Science 284:167-170. Kotz SA, Meyer M, Alter K, Besson M, von Cramon DY, Friederici AD (2003) On the lateralization of emotional prosody: an event-related functional MR investigation. Brain Lang 86:366-376. Krolak-Salmon P, Henaff MA, Vighetto A, Bertrand O, Mauguiere F (2004) Early Amygdala Reaction to Fear Spreading in Occipital, Temporal, and Frontal Cortex; A Depth Electrode ERP Study in Human. Neuron 42:665-676. Lamme VA (1995) The neurophysiology of figure-ground segregation in primary visual cortex. J Neurosci 15:1605-1615. LeDoux J (1996) Emotional networks and motor control: a fearful view. Prog Brain Res 107:437-446. LeDoux JE (2000) Emotion circuits in the brain. Annu Rev Neurosci 23:155-184. Leonard CM, Rolls ET, Wilson FA, Baylis GC (1985) Neurons in the amygdala of the monkey with responses selective for faces. Behav Brain Res 15:159-176. Levenson RW, Ekman P, Friesen WV (1990) Voluntary facial action generates emotionspecific autonomic nervous system activity. Psychophysiology 27:363-384. Levy J, Heller W, Banich MT, Burton LA (1983) Asymmetry of perception in free viewing of chimeric faces. Brain Cogn 2:404-419. 218 Lissauer H (1890) Ein fall von seelenblindheit nebst einem beitrag zur theorie derselben. Arch Psy Nervenkrankheit 21:222-270. Liu J, Harris A, Kanwisher N (2002) Stages of processing in face perception: an MEG study. Nat Neurosci 5:910-916. Liu L, Ioannides AA, Streit M (1999) Single trial analysis of neurophysiological correlates of the recognition of complex objects and facial expressions of emotion. Brain Topogr 11:291-303. Livingstone M, Hubel D (1988a) Segregation of form, color, movement, and depth: anatomy, physiology, and perception. Science 240:740-749. Livingstone MS, Hubel DH (1983) Specificity of cortico-cortical connections in monkey visual system. Nature 304:531-534. Livingstone MS, Hubel DH (1984) Specificity of intrinsic connections in primate primary visual cortex. J Neurosci 4:2830-2835. Livingstone MS, Hubel DH (1988b) Do the relative mapping densities of the magno- and parvocellular systems vary with eccentricity? J Neurosci 8:4334-4339. Logothetis NK, Pauls J, Augath M, Trinath T, Oeltermann A (2001) Neurophysiological investigation of the basis of the fMRI signal. Nature 412:150-157. Lomber SG (2002) Learning to see the trees before the forest: reversible deactivation of the superior colliculus during learning of local and global visual features. Proc Natl Acad Sci U S A 99:4049-4054. Luh KE, Rueckert LM, Levy J (1991) Perceptual asymmetries for free viewing of several types of chimeric stimuli. Brain Cogn 16:83-103. Luppino G, Matelli M, Camarda R, Rizzolatti G (1993) Corticocortical connections of area F3 (SMA-proper) and area F6 (pre-SMA) in the macaque monkey. J Comp Neurol 338:114-140. Macrae CN, Bodenhausen GV (2000) Social cognition: thinking categorically about others. Annu Rev Psychol 51:93-120. Maguire EA, Frith CD, Cipolotti L (2001) Distinct neural systems for the encoding and recognition of topography and faces. Neuroimage 13:743-750. Mandal MK, Pandey R, Prasad AB (1998) Facial expressions of emotions and schizophrenia: a review. Schizophr Bull 24:399-412. Mandal MK, Borod JC, Asthana HS, Mohanty A, Mohanty S, Koff E (1999) Effects of lesion variables and emotion type on the perception of facial emotion. J Nerv Ment Dis 187:603-609. Marinkovic K, Trebon P, Chauvel P, Halgren E (2000) Localised face processing by the human prefrontal cortex: face-selective intracerebral potentials and post-lesion deficits. Cogn Neuropsychol 17:187-199. Matsuzaka Y, Aizawa H, Tanji J (1992) A motor area rostral to the supplementary motor area (presupplementary motor area) in the monkey: neuronal activity during a learned motor task. J Neurophysiol 68:653-662. McCarthy G (1997) Face-specific processing in the human fusiform gyrus. J Cogn Neurosci 9:605-610. McCarthy G, Puce A, Belger A, Allison T (1999) Electrophysiological studies of human face perception. II: Response properties of face-specific potentials generated in occipitotemporal cortex. Cereb Cortex 9:431-444. Meltzoff AN, Moore MK (1983) Newborn infants imitate adult facial gestures. Child Dev 54:702-709. Mendola JD, Rizzo JF, 3rd, Cosgrove GR, Cole AJ, Black P, Corkin S (1999) Visual discrimination after anterior temporal lobectomy in humans. Neurology 52:1028-1037. 219 Merigan WH, Nealey TA, Maunsell JH (1993) Visual effects of lesions of cortical area V2 in macaques. J Neurosci 13:3180-3191. Mitchell RL, Elliott R, Barry M, Cruttenden A, Woodruff PW (2003) The neural response to emotional prosody, as revealed by functional magnetic resonance imaging. Neuropsychologia 41:1410-1421. Monahan JL, Murphy ST, Zajonc RB (2000) Subliminal mere exposure: specific, general, and diffuse effects. Psychol Sci 11:462-466. Morecraft RJ, Louie JL, Herrick JL, Stilwell-Morecraft KS (2001) Cortical innervation of the facial nucleus in the non-human primate: a new interpretation of the effects of stroke and related subtotal brain trauma on the muscles of facial expression. Brain 124:176208. Morris JS, Ohman A, Dolan RJ (1999) A subcortical pathway to the right amygdala mediating "unseen" fear. Proc Natl Acad Sci U S A 96:1680-1685. Morris JS, DeGelder B, Weiskrantz L, Dolan RJ (2001) Differential extrageniculostriate and amygdala responses to presentation of emotional faces in a cortically blind field. Brain 124:1241-1252. Morris JS, Frith CD, Perrett DI, Rowland D, Young AW, Calder AJ, Dolan RJ (1996) A differential neural response in the human amygdala to fearful and happy facial expressions. Nature 383:812-815. Morris JS, Friston KJ, Buchel C, Frith CD, Young AW, Calder AJ, Dolan RJ (1998) A neuromodulatory role for the human amygdala in processing emotional facial expressions. Brain 121 ( Pt 1):47-57. Morris RD, Hopkins WD (1993) Perception of human chimeric faces by chimpanzees: evidence for a right hemisphere advantage. Brain Cogn 21:111-122. Mouchetant-Rostaing Y, Giard MH, Bentin S, Aguera PE, Pernier J (2000) Neurophysiological correlates of face gender processing in humans. Eur J Neurosci 12:303-310. Munte TF, Brack M, Grootheer O, Wieringa BM, Matzke M, Johannes S (1998) Brain potentials reveal the timing of face identity and expression judgments. Neurosci Res 30:25-34. Nakamura K, Mikami A, Kubota K (1992) Activity of single neurons in the monkey amygdala during performance of a visual discrimination task. J Neurophysiol 67:14471463. Nakamura K, Kawashima R, Ito K, Sugiura M, Kato T, Nakamura A, Hatano K, Nagumo S, Kubota K, Fukuda H, Kojima S (1999) Activation of the right inferior frontal cortex during assessment of facial emotion. J Neurophysiol 82:1610-1614. Narumoto J, Yamada H, Iidaka T, Sadato N, Fukui K, Itoh H, Yonekura Y (2000) Brain regions involved in verbal or non-verbal aspects of facial emotion recognition. Neuroreport 11:2571-2576. Nelson CA (1987) The recognition of facial expressions in the first two years of life: mechanisms of development. Child Dev 58:889-909. Nishijo H, Ono T, Nishino H (1988) Single neuron responses in amygdala of alert monkey during complex sensory stimulation with affective significance. J Neurosci 8:35703583. Nowak LG, Munk MH, Girard P, Bullier J (1995) Visual latencies in areas V1 and V2 of the macaque monkey. Vis Neurosci 12:371-384. O'Brien BJ, Abel PL, Olavarria JF (2001) The retinal input to calbindin-D28k-defined subdivisions in macaque inferior pulvinar. Neurosci Lett 312:145-148. Ochsner KN, Bunge SA, Gross JJ, Gabrieli JD (2002) Rethinking feelings: an FMRI study of the cognitive regulation of emotion. J Cogn Neurosci 14:1215-1229. 220 O'Connor DH, Fukui MM, Pinsk MA, Kastner S (2002) Attention modulates responses in the human lateral geniculate nucleus. Nat Neurosci 5:1203-1209. O'Doherty J, Winston J, Critchley H, Perrett D, Burt DM, Dolan RJ (2003) Beauty in a smile: the role of medial orbitofrontal cortex in facial attractiveness. Neuropsychologia 41:147-155. Ojemann JG, Ojemann GA, Lettich E (1992) Neuronal activity related to faces and matching in human right nondominant temporal cortex. Brain 115 Pt 1:1-13. Oliveri M, Babiloni C, Filippi MM, Caltagirone C, Babiloni F, Cicinelli P, Traversa R, Palmieri MG, Rossini PM (2003) Influence of the supplementary motor area on primary motor cortex excitability during movements triggered by neutral or emotionally unpleasant visual cues. Exp Brain Res 149:214-221. Ongur D, Price JL (2000) The organization of networks within the orbital and medial prefrontal cortex of rats, monkeys and humans. Cereb Cortex 10:206-219. Oram MW, Perrett DI (1992) Time course of neural responses discriminating different views of the face and head. J Neurophysiol 68:70-84. Osaka N, Osaka M, Kondo H, Morishita M, Fukuyama H, Shibasaki H (2003) An emotionbased facial expression word activates laughter module in the human brain: a functional magnetic resonance imaging study. Neurosci Lett 340:127-130. Panksepp J (2003) At the interface of the affective, behavioral, and cognitive neurosciences: decoding the emotional feelings of the brain. Brain Cogn 52:4-14. Pastor MA, Day BL, Macaluso E, Friston KJ, Frackowiak RS (2004) The functional neuroanatomy of temporal discrimination. J Neurosci 24:2585-2591. Patterson KE, Baddeley AD (1977) When face recognition fails. J Exp Psychol [Hum Learn] 3:406-417. Penfield W, Perot P (1963) The Brain's Record of Auditory and Visual Experience. A Final Summary and Discussion. Brain 86:595-696. Peper M, Irle E (1997) The decoding of emotional concepts in patients with focal cerebral lesions. Brain Cogn 34:360-387. Perrett DI, Rolls ET, Caan W (1982) Visual neurones responsive to faces in the monkey temporal cortex. Exp Brain Res 47:329-342. Perrett DI, Hietanen JK, Oram MW, Benson PJ (1992) Organization and functions of cells responsive to faces in the temporal cortex. Philos Trans R Soc Lond B Biol Sci 335:23-30. Phelps EA, O'Connor KJ, Gatenby JC, Gore JC, Grillon C, Davis M (2001) Activation of the left amygdala to a cognitive representation of fear. Nat Neurosci 4:437-441. Phillips ML, Bullmore ET, Howard R, Woodruff PW, Wright IC, Williams SC, Simmons A, Andrew C, Brammer M, David AS (1998a) Investigation of facial recognition memory and happy and sad facial expression perception: an fMRI study. Psychiatry Res 83:127-138. Phillips ML, Young AW, Scott SK, Calder AJ, Andrew C, Giampietro V, Williams SC, Bullmore ET, Brammer M, Gray JA (1998b) Neural responses to facial and vocal expressions of fear and disgust. Proc R Soc Lond B Biol Sci 265:1809-1817. Phillips ML, Young AW, Senior C, Brammer M, Andrew C, Calder AJ, Bullmore ET, Perrett DI, Rowland D, Williams SC, Gray JA, David AS (1997) A specific neural substrate for perceiving facial expressions of disgust. Nature 389:495-498. Pizzagalli D, Regard M, Lehmann D (1999) Rapid emotional face processing in the human right and left brain hemispheres: an ERP study. Neuroreport 10:2691-2698. Pizzagalli D, Koenig T, Regard M, Lehmann D (1998) Faces and emotions: brain electric field sources during covert emotional processing. Neuropsychologia 36:323-332. 221 Puce A, Allison T, McCarthy G (1999) Electrophysiological studies of human face perception. III: Effects of top-down processing on face-specific potentials. Cereb Cortex 9:445-458. Puce A, Allison T, Bentin S, Gore JC, McCarthy G (1998) Temporal cortex activation in humans viewing eye and mouth movements. J Neurosci 18:2188-2199. Quirk GJ, Russo GK, Barron JL, Lebron K (2000) The role of ventromedial prefrontal cortex in the recovery of extinguished fear. J Neurosci 20:6225-6231. Raiguel SE, Lagae L, Gulyas B, Orban GA (1989) Response latencies of visual cells in macaque areas V1, V2 and V5. Brain Res 493:155-159. Raine A, Lencz T, Bihrle S, LaCasse L, Colletti P (2000) Reduced prefrontal gray matter volume and reduced autonomic activity in antisocial personality disorder. Arch Gen Psychiatry 57:119-127; discussion 128-119. Rapcsak SZ, Comer JF, Rubens AB (1993) Anomia for facial expressions: neuropsychological mechanisms and anatomical correlates. Brain Lang 45:233-252. Rapcsak SZ, Galper SR, Comer JF, Reminger SL, Nielsen L, Kaszniak AW, Verfaellie M, Laguna JF, Labiner DM, Cohen RA (2000) Fear recognition deficits after focal brain damage: a cautionary note. Neurology 54:575-581. Reuter-Lorenz P, Davidson RJ (1981) Differential contributions of the two cerebral hemispheres to the perception of happy and sad faces. Neuropsychologia 19:609-613. Rhodes G (1993) Configural coding, expertise, and the right hemisphere advantage for face recognition. Brain Cogn 22:19-41. Richardson CK, Bowers D, Bauer RM, Heilman KM, Leonard CM (2000) Digitizing the moving face during dynamic displays of emotion. Neuropsychologia 38:1028-1039. Rizzolatti G, Luppino G (2001) The cortical motor system. Neuron 31:889-901. Rizzolatti G, Fadiga L, Gallese V, Fogassi L (1996) Premotor cortex and the recognition of motor actions. Brain Res Cogn Brain Res 3:131-141. Rizzolatti G, Gentilucci M, Camarda RM, Gallese V, Luppino G, Matelli M, Fogassi L (1990) Neurons related to reaching-grasping arm movements in the rostral part of area 6 (area 6a beta). Exp Brain Res 82:337-350. Robinson DL, Petersen SE (1992) The pulvinar and visual salience. Trends Neurosci 15:127132. Rodman HR, Gross CG, Albright TD (1989) Afferent basis of visual response properties in area MT of the macaque. I. Effects of striate cortex removal. J Neurosci 9:2033-2050. Rolls ET (2000) The orbitofrontal cortex and reward. Cereb Cortex 10:284-294. Rolls ET, Tovee MJ (1994) Processing speed in the cerebral cortex and the neurophysiology of visual masking. Proc R Soc Lond B Biol Sci 257:9-15. Rolls ET, Hornak J, Wade D, McGrath J (1994a) Emotion-related learning in patients with social and emotional changes associated with frontal lobe damage. J Neurol Neurosurg Psychiatry 57:1518-1524. Rolls ET, Tovee MJ, Purcell DG, Stewart AL, Azzopardi P (1994b) The responses of neurons in the temporal cortex of primates, and face identification and detection. Exp Brain Res 101:473-484. Rosenberg EL, Ekman P, Blumenthal JA (1998) Facial expression and the affective component of cynical hostility in male coronary heart disease patients. Health Psychol 17:376-380. Rosenkranz JA, Grace AA (2001) Dopamine attenuates prefrontal cortical suppression of sensory inputs to the basolateral amygdala of rats. J Neurosci 21:4090-4103. Rosenkranz JA, Moore H, Grace AA (2003) The prefrontal cortex regulates lateral amygdala neuronal plasticity and responses to previously conditioned stimuli. J Neurosci 23:11054-11064. 222 Rossion B, Curran T, Gauthier I (2002) A defense of the subordinate-level expertise account for the N170 component. Cognition 85:189-196. Russell JA (1994) Is there universal recognition of emotion from facial expression? A review of the cross-cultural studies. Psychol Bull 115:102-141. Russell JA, Bullock M (1986) Fuzzy concepts and the perception of emotion in facial expressions. Social cognition 4:309-341. Russell JA, Fehr B (1987) Relativity in the perception of emotion in facial expressions. Journal of experimental psychology 116:223-237. Russell JA, Lewicka M, Niit T (1989) A cross-cultural study of a circumplex model of affect. Journal of personality and social psychology 57. Sakai K, Hikosaka O, Miyauchi S, Sasaki Y, Fujimaki N, Putz B (1999) Presupplementary motor area activation during sequence learning reflects visuo-motor association. J Neurosci 19:RC1. Scalaidhe SP, Wilson FA, Goldman-Rakic PS (1999) Face-selective neurons during passive viewing and working memory performance of rhesus monkeys: evidence for intrinsic specialization of neuronal coding. Cereb Cortex 9:459-475. Schmitt JJ, Hartje W, Willmes K (1997) Hemispheric asymmetry in the recognition of emotional attitude conveyed by facial expression, prosody and propositional speech. Cortex 33:65-81. Schmolck H, Squire LR (2001) Impaired perception of facial emotions following bilateral damage to the anterior temporal lobe. Neuropsychology 15:30-38. Schultz W, Tremblay L, Hollerman JR (2000) Reward processing in primate orbitofrontal cortex and basal ganglia. Cereb Cortex 10:272-284. Searcy JH, Bartlett JC (1996) Inversion and processing of component and spatial-relational information in faces. J Exp Psychol Hum Percept Perform 22:904-915. Seeck M, Mainwaring N, Cosgrove R, Blume H, Dubuisson D, Mesulam MM, Schomer DL (1997a) Neurophysiologic correlates of implicit face memory in intracranial visual evoked potentials. Neurology 49:1312-1316. Seeck M, Mainwaring N, Ives J, Blume H, Dubuisson D, Cosgrove R, Mesulam MM, Schomer DL (1993) Differential neural activity in the human temporal lobe evoked by faces of family members and friends. Ann Neurol 34:369-372. Seeck M, Michel CM, Mainwaring N, Cosgrove R, Blume H, Ives J, Landis T, Schomer DL (1997b) Evidence for rapid face recognition from human scalp and intracranial electrodes. Neuroreport 8:2749-2754. Seltzer B, Pandya DN (1989) Frontal lobe connections of the superior temporal sulcus in the rhesus monkey. J Comp Neurol 281:97-113. Seltzer B, Pandya DN (1994) Parietal, temporal, and occipital projections to cortex of the superior temporal sulcus in the rhesus monkey: a retrograde tracer study. J Comp Neurol 343:445-463. Sem-Jacobsen CW (1968) Vegetative changes in response to electrical brain stimulation. Electroencephalogr Clin Neurophysiol 24:88. Sergent J, Signoret JL (1992) Functional and anatomical decomposition of face processing: evidence from prosopagnosia and PET study of normal subjects. Philos Trans R Soc Lond B Biol Sci 335:55-61; discussion 61-52. Sergent J, Ohta S, MacDonald B (1992) Functional neuroanatomy of face and object processing. A positron emission tomography study. Brain 115 Pt 1:15-36. Sowell ER, Thompson PM, Holmes CJ, Jernigan TL, Toga AW (1999) In vivo evidence for post-adolescent brain maturation in frontal and striatal regions. Nat Neurosci 2:859861. 223 Sprengelmeyer R, Rausch M, Eysel UT, Przuntek H (1998) Neural structures associated with recognition of facial expressions of basic emotions. Proc R Soc Lond B Biol Sci 265:1927-1931. Sprengelmeyer R, Young AW, Calder AJ, Karnat A, Lange H, Homberg V, Perrett DI, Rowland D (1996) Loss of disgust. Perception of faces and emotions in Huntington's disease. Brain 119 ( Pt 5):1647-1665. Sprengelmeyer R, Young AW, Pundt I, Sprengelmeyer A, Calder AJ, Berrios G, Winkel R, Vollmoeller W, Kuhn W, Sartory G, Przuntek H (1997) Disgust implicated in obsessive-compulsive disorder. Proc R Soc Lond B Biol Sci 264:1767-1773. Standage GP, Benevento LA (1983) The organization of connections between the pulvinar and visual area MT in the macaque monkey. Brain Res 262:288-294. Starck CEL, Squire LR (2000) Intact visual perceptual discriminations in humans in the absence of perirhinal cortex. Learing and memory 7:273-278. Stefanacci L, Amaral DG (2000) Topographic organization of cortical inputs to the lateral nucleus of the macaque monkey amygdala: a retrograde tracing study. J Comp Neurol 421:52-79. Stefanacci L, Amaral DG (2002) Some observations on cortical inputs to the macaque monkey amygdala: an anterograde tracing study. J Comp Neurol 451:301-323. Stoerig P, Cowey A (1989) Wavelength sensitivity in blindsight. Nature 342:916-918. Stone VE, Nisenson L, Eliassen JC, Gazzaniga MS (1996) Left hemisphere representations of emotional facial expressions. Neuropsychologia 34:23-29. Strafella AP, Paus T (2000) Modulation of cortical excitability during action observation: a transcranial magnetic stimulation study. Neuroreport 11:2289-2292. Streit M, Wolwer W, Brinkmeyer J, Ihl R, Gaebel W (2000) Electrophysiological correlates of emotional and structural face processing in humans. Neurosci Lett 278:13-16. Streit M, Dammers J, Simsek-Kraues S, Brinkmeyer J, Wolwer W, Ioannides A (2003) Time course of regional brain activations during facial emotion recognition in humans. Neurosci Lett 342:101-104. Streit M, Ioannides AA, Liu L, Wolwer W, Dammers J, Gross J, Gaebel W, Muller-Gartner HW (1999) Neurophysiological correlates of the recognition of facial expressions of emotion as revealed by magnetoencephalography. Brain Res Cogn Brain Res 7:481491. Sugase Y, Yamane S, Ueno S, Kawano K (1999) Global and fine information coded by single neurons in the temporal visual cortex. Nature 400:869-873. Talairach C, Tournoux P (1988) Co-planar stereotaxic atlas of the human brain. New-York: Thieme Medical. Tallon-Baudry C, Bertrand O (1999) Oscillatory gamma activity in humans and its role in object representation. Trends Cogn Sci 3:151-162. Tanaka JW, Farah MJ (1993) Parts and wholes in face recognition. Q J Exp Psychol A 46:225-245. Tanji J (1996) New concepts of the supplementary motor area. Curr Opin Neurobiol 6:782787. Thompson PM, Giedd JN, Woods RP, MacDonald D, Evans AC, Toga AW (2000) Growth patterns in the developing brain detected by using continuum mechanical tensor maps. Nature 404:190-193. Thorpe S, Fize D, Marlot C (1996) Speed of processing in the human visual system. Nature 381:520-522. Tomita H, Ohbayashi M, Nakahara K, Hasegawa I, Miyashita Y (1999) Top-down signal from prefrontal cortex in executive control of memory retrieval. Nature 401:699-703. 224 Tootell RB, Dale AM, Sereno MI, Malach R (1996) New images from human visual cortex. Trends Neurosci 19:481-489. Tourangeau R, Ellsworth PC (1979) The role of facial response in the experience of emotion. J Pers Soc Psychol 37:1519-1531. Tovee MJ, Rolls ET, Treves A, Bellis RP (1993) Information encoding and the responses of single neurons in the primate temporal visual cortex. J Neurophysiol 70:640-654. Tranel D, Hyman BT (1990) Neuropsychological correlates of bilateral amygdala damage. Arch Neurol 47:349-355. Tranel D, Damasio H (1994) Neuroanatomical correlates of electrodermal skin conductance responses. Psychophysiology 31:427-438. Tranel D, Damasio AR, Damasio H (1988) Intact recognition of facial expression, gender, and age in patients with impaired recognition of face identity. Neurology 38:690-696. Tranel D, Damasio H, Damasio AR (1997) A neural basis for the retrieval of conceptual knowledge. Neuropsychologia 35:1319-1327. Troster H, Brambring M (1992) Early social-emotional development in blind infants. Child Care Health Dev 18:207-227. Ullman S (1995) Sequence seeking and counter streams: a computational model for bidirectional information flow in the visual cortex. Cereb Cortex 5:1-11. Ungerleider LG, Galkin TW, Mishkin M (1983) Visuotopic organization of projections from striate cortex to inferior and lateral pulvinar in rhesus monkey. J Comp Neurol 217:137-157. Valenza E, Simion F, Cassia VM, Umilta C (1996) Face preference at birth. J Exp Psychol Hum Percept Perform 22:892-903. Van Strien JW, Van Beek S (2000) Ratings of emotion in laterally presented faces: sex and handedness effects. Brain Cogn 44:645-652. VanRullen R, Thorpe SJ (2001) The time course of visual processing: from early perception to decision-making. J Cogn Neurosci 13:454-461. Vuilleumier P, Schwartz S (2001a) Emotional facial expressions capture attention. Neurology 56:153-158. Vuilleumier P, Schwartz S (2001b) Beware and be aware: capture of spatial attention by fearrelated stimuli in neglect. Neuroreport 12:1119-1122. Vuilleumier P, Armony JL, Driver J, Dolan RJ (2001) Effects of attention and emotion on face processing in the human brain: an event-related fMRI study. Neuron 30:829-841. Vuilleumier P, Armony JL, Driver J, Dolan RJ (2003) Distinct spatial frequency sensitivities for processing faces and emotional expressions. Nat Neurosci 6:624-631. Vuilleumier P, Armony JL, Clarke K, Husain M, Driver J, Dolan RJ (2002) Neural response to emotional faces with and without awareness: event-related fMRI in a parietal patient with visual extinction and spatial neglect. Neuropsychologia 40:2156-2166. Warrington EK (1982) Neuropsychological studies of object recognition. Philos Trans R Soc Lond B Biol Sci 298:15-33. Webster MJ, Bachevalier J, Ungerleider LG (1993) Subcortical connections of inferior temporal areas TE and TEO in macaque monkeys. J Comp Neurol 335:73-91. Weiskrantz L (1996) Blindsight revisited. Curr Opin Neurobiol 6:215-220. Whalen PJ, Rauch SL, Etcoff NL, McInerney SC, Lee MB, Jenike MA (1998) Masked presentations of emotional facial expressions modulate amygdala activity without explicit knowledge. J Neurosci 18:411-418. Whalen PJ, Shin LM, McInerney SC, Fischer H, Wright CI, Rauch SL (2001) A functional MRI study of human amygdala responses to facial expressions of fear versus anger. Emotion 1:70-83. 225 Wicker B, Keysers C, Plailly J, Royet JP, Gallese V, Rizzolatti G (2003) Both of us disgusted in My insula: the common neural basis of seeing and feeling disgust. Neuron 40:655664. Wilson FA, Scalaidhe SP, Goldman-Rakic PS (1993) Dissociation of object and spatial processing domains in primate prefrontal cortex. Science 260:1955-1958. Wiser AK, Andreasen N, O'Leary DS, Crespo-Facorro B, Boles-Ponto LL, Watkins GL, Hichwa RD (2000) Novel vs. well-learned memory for faces: a positron emission tomography study. J Cogn Neurosci 12:255-266. Wright CI, Fischer H, Whalen PJ, McInerney SC, Shin LM, Rauch SL (2001) Differential prefrontal cortex and amygdala habituation to repeatedly presented emotional stimuli. Neuroreport 12:379-383. Yaxley S, Rolls ET, Sienkiewicz ZJ (1988) The responsiveness of neurons in the insular gustatory cortex of the macaque monkey is independent of hunger. Physiol Behav 42:223-229. Young AW, Aggleton JP, Hellawell DJ, Johnson M, Broks P, Hanley JR (1995) Face processing impairments after amygdalotomy. Brain 118 ( Pt 1):15-24. Yukie M, Iwai E (1981) Direct projection from the dorsal lateral geniculate nucleus to the prestriate cortex in macaque monkeys. J Comp Neurol 201:81-97. Yvert B, Fischer C, Guenot M, Krolak-Salmon P, Isnard J, Pernier J (2002) Simultaneous intracerebral EEG recordings of early auditory thalamic and cortical activity in human. Eur J Neurosci 16:1146-1150. Zbrozyna AW, Westwood DM (1991) Stimulation in prefrontal cortex inhibits conditioned increase in blood pressure and avoidance bar pressing in rats. Physiol Behav 49:705708. Zeki S (1980) The representation of colours in the cerebral cortex. Nature 284:412-418. Zeki S (1990a) A century of cerebral achromatopsia. Brain 113 ( Pt 6):1721-1777. Zeki S (1990b) Parallelism and functional specialization in human visual cortex. Cold Spring Harb Symp Quant Biol 55:651-661. Zeki S (1991) Cerebral akinetopsia (visual motion blindness). A review. Brain 114 ( Pt 2):811-824. 226 Abréviations AMS : Aire Motrice Supplémentaire GTS : Gyrus Temporal Supérieur GTM : Gyrus Temporal Moyen IRMf : Imagerie par Résonance Magnétique nucléaire fonctionnelle MEG : Magnétoencéphalographie SEEG : Stéréo-électroencéphalographie STS : Sillon Temporal Supérieur TEP : Tomographie par Emission de Positon 227 228