L`unité de la conscience
Transcription
L`unité de la conscience
L’unité de la conscience Axel Cleeremans Séminaire de Recherche en Sciences Cognitives Université Libre de Bruxelles Cleeremans: Unité de la conscience 2 Vous regardez un film qui montre deux équipes de basket composées chacune de trois joueurs. Les joueurs de la première équipe sont habillés en noir!; ceux de la seconde, en blanc. L’expérimentateur vous indique que vous devez compter le nombre de fois que les joueurs habillés en blanc s’échangent un ballon —!tâche rendue fort difficile par le fait que les joueurs noirs s’échangent eux aussi un second ballon. De surcroît, l’action se déroule dans un espace de seulement quelques mètres carrés, et le rythme est rapide!: Les joueurs changent de place, sautent, se passent les ballons de diverses manières. Vous pistez donc intensément le ballon échangé par les joueurs habillés de blanc pendant un peu plus d’une minute. Le film s’arrête, et vous annoncez, sans aucune hésitation, «!14!». «!Bravo!», vous dit l’expérimentateur, il s’agit bien de la bonne réponse!; les joueurs habillés de blanc se sont bien échangé le ballon 14 fois. Il vous demande alors si vous avez remarqué quoi que ce soit d’inhabituel ou de bizarre dans le film. Vous réfléchissez quelques instants et répondez qu’en dehors du fait que vous avez trouvé la tâche ardue, non, vraiment, vous ne voyez pas. L’expérimentateur, un sourire en coin, vous propose ensuite de revoir le même film, cette fois sans la contrainte de devoir compter les passes de ballon. Et là, stupéfaction vers la 30ème seconde. Vous n’en croyez pas vos yeux, mais un homme déguisé en gorille entre dans le champ par la droite, se dirige nonchalamment vers le centre, où il s’arrête pendant quelques instants pour se battre la poitrine des deux poings avant de reprendre sa marche vers la gauche pour enfin sortir du champ!! Que s’est-il passé!? Comment est-il possible que vous n’ayez pas perçu un stimulus visuel aussi massif, durable, et incongru que ce gorille apparaissant pendant plusieurs secondes au centre de votre champ visuel!? La réponse est, naturellement, que votre attention était dirigée ailleurs!; plus spécifiquement, vers le ballon que vous deviez pister. Si l’explication est relativement simple, le phénomène en lui-même est véritablement frappant, essentiellement parce qu’il remet en cause l’idée que nous avons une conscience Cleeremans: Unité de la conscience 3 totale du monde qui nous entoure. Eh bien, non!! Cette expérience (Simons & Chabris., 1999!; voir aussi Simons & Levin, 1997) met en évidence un phénomène appelé justement «!cécité aux changements!» —!soit le fait que nous semblons souvent incapables de détecter des changements parfois massifs dans un stimulus présenté de manière supra-liminale. Les résultats de nombreuses autres démonstrations similaires — qui n’exigent pas toutes, contrairement à ce que l’on pourrait penser, une mobilisation de l’attention aussi massive que l’expérience du gorille — convergent vers une remise en cause radicale de la réalité de ce que l’on pourrait appeler «!l’unité de la conscience!», soit l’impression subjective que nous avons que notre conscience est unifiée. 1. L’illusion de l’unité Que veut-on dire exactement par «!unité de la conscience!»!? En première analyse, simplement le fait que notre conscience du monde présente, à chaque instant, un caractère intégré. Par exemple, alors que j’écris ces lignes, je suis conscient non seulement du contenu des pensées que j’exprime en formulant les phrases que j’écris, mais j’ai également et simultanément diverses autres expériences!: Une expérience visuelle des couleurs qui forment le fond de mon écran, une expérience auditive du cliquetis rythmé que produisent les touches de mon clavier alors que je les enfonce successivement, une deuxième expérience auditive du bruit que fait le système de conditionnement d’air dans mon bureau, l’expérience d’une vague douleur dans ma cheville droite, et ainsi de suite. Chacune de ces expériences est distincte, mais chacune est également profondément intégrée — unifiée — avec les autres. A chaque instant, l’expérience que j’ai du monde forme donc une unité. Toutes les expériences qui nous sommes données sont vécues comme appartenant à un seul et même sujet. En outre, toutes les expériences que nous avons vécues au fil de notre existence sont également reconnues comme étant nos expériences. Et pourtant, quand on a analyse la manière dont le cerveau traite l’information, en place d’unité on ne trouve qu’un vaste ensemblage de circuits neuraux qui convergent vers… rien du tout!! Il n’est donc point d’unité dans le cerveau, pas de lieu particulier où se Cleeremans: Unité de la conscience 4 réaliserait une ultime convergence!: La glande pinéale de Descartes, si elle existe bel et bien, ne remplit pas les fonctions d’intégration qu’il lui avait attribuées. De la même manière, aucune des zones de convergence existantes dans le cerveau (comme par exemple l’hippocampe, certaines parties du cortex pariétal et du cortex préfrontal) ne peut remplir seule la fonction d’intégrer l’ensemble des informations traitées. Et comment pourrait-il en être autrement!? Car si une telle zone de convergence ultime existait, qu’aurions nous appris, en réalité, sur les origines de l’unité de la conscience!? Quel homoncule percevrait les informations unifiées représentées dans ce lieu cérébral unique!? Comme en a discuté abondamment le philosophe américain Daniel Dennett dans son ouvrage «!Consciousness explained» (Dennett, 1991), le fait que nos expériences semblent prendre place sur une sorte «!d’écran de télévision!» ou de scène de théatre n’est qu’une illusion — une illusion que Dennett appelle l’illusion du «!théâtre cartésien!». S’il est bien clair aujourd’hui qu’un tel «!théâtre!» n’a pas de réalité neurologique, il n’en reste pas moins que nous nous devons d’expliquer pourquoi nos expériences nous sont données sous cette forme. Autrement dit!: Quels sont les fondements neuroscientifiques de la réalité subjective que constitue l’illusion du théâtre cartésien!? Le problème de l’unité de la conscience est donc le problème de l’unité de nos connaissances!: Comment faut-il réconcilier le caractère indiscutablement unifié de notre expérience subjective avec ce que nous apprend la neuroanatomie fonctionnelle du cerveau, à savoir que ce dernier semble être organisé de manière modulaire!? Quels sont les processus d’émergence et d’intégration qui permettent à notre cerveau de construire l’image illusoire d’une réalité unifiée!? Avant d’explorer plus avant les fondements de l’unité de la conscience ainsi que certaines des théories qui ont été proposées pour en rendre compte, il est important de s’attarder à la notion de conscience elle-même. C’est que l’étude de la conscience est longtemps restée en marge des approches scientifiques de la cognition et de l’esprit en général. Or on assiste aujourd’hui à un renouveau d’intérêt spectaculaire pour la question. Ce renouveau d’intérêt est indiscutablement suscité, au moins en partie, par la disponibilité Cleeremans: Unité de la conscience 5 de nouvelles techniques d’imagerie cérébrale qui nous permettent, pour la première fois, de percevoir et d’analyser divers aspects du fonctionnement du cerveau en action. 2. La question de la conscience L’expérience du gorille démontre fort bien comment une partie de notre réalité peut échapper entièrement à l’introspection et même à l’observation. Reste à savoir quel est le sort des corrélats neuraux des stimuli ignorés. Le gorille que nous ne percevons pas consciemment est-il néanmoins traité quelque part dans notre cerveau!? Ceci est la première question que soulève cette expérience et que je voudrais évoquer brièvement dans cet article: Quel est le rôle de la conscience dans la cognition? Toutes nos activités mentales sont-elles conscientes? Comment faut-il concevoir les rapports entre conscient et inconscient? Quelles méthodes peut-on utiliser pour décider si un comportement est conscient ou non? Ces questions, bien qu'elles n'aient jamais véritablement cessé d'intéresser les sciences cognitives, sont aujourd'hui au centre d’une vaste programme mumtidisciplinaire concernant la nature et les mécanismes de la conscience. Les sciences cognitives se trouvent en effet aujourd’hui à la croisée des chemins, essentiellement sous l’influence des neurosciences. On ne peut sous-estimer l'impact grandissant que les techniques d'imagerie cérébrale exercent sur la recherche en psychologie cognitive. Leur importance est rendue limpide par l'abondance sans précédent de résultats expérimentaux que nous a fourni la dernière décade de ce millénaire finissant. Chaque jour qui passe nous informe un peu plus sur les détails du fonctionnement de notre système visuel, sur la manière dont les synapses modifient leurs propriétés de transmission en fonction de l'expérience, sur la manière dont le cerveau se développe, sur les interactions entre différentes régions du cortex, ou encore sur les conséquences fonctionnelles de différentes lésions. C'est ainsi qu'on a pu montrer, par exemple, que l'hippocampe des chauffeurs de taxi londoniens est particulièrement élargi par contraste avec celui de sujets n'ayant pas dû mémoriser la géographie complexe de la ville (Maguire et al., 2000) . Ce résultat, ainsi que de nombreux autres, nous montre que l'apprentissage laisse des traces détectables dans le cerveau — une conclusion qui n'a rien Cleeremans: Unité de la conscience 6 de surprenant pour autant que l'on soit convaincu, comme tout matérialiste, que le traitement de l'information est entièrement enraciné dans l'activité du cerveau — mais qui modifie néanmoins radicalement la manière dont les psychologues doivent penser les rapports entre cerveau et esprit. En effet, exactement de la même manière que la méthode expérimentale a permis à la psychologie de dépasser les limites de l'introspection, les neurosciences promettent aujourd'hui à la psychologie la possibilité de dépasser les limites qu'imposent les méthodes comportementales, à savoir le fait que nos raisonnements concernant le fonctionnement de l'esprit sont nécessairement basés sur une inférence —!celle qui nous permet de relier l'observable au privé, le comportement à notre vie mentale. En suscitant l'espérance d'enraciner définitivement le mental dans le biologique, les neurosciences, avec l'arsenal technologique remarquable dont elles disposent, font donc rêver, tout en inquiétant les psychologues qui voient en elles une nouvelle menace pesant sur le devenir des sciences de l'esprit. C’est que les neurosciences offrent une perspective somme toute quelque peu désanchantée sur la cognition (voir Prigogine & Stengers, 1979), et sur la conscience en particulier. Loin d’être animés par nos désirs, nos ambitions, nos regrets, nous ne serions finalement que le produit de la biologie de notre cerveau— «!l’homme neuronal!» de Jean-Pierre Changeux (1983). Et pourtant... le philosophe américain David Chalmers, suivant en cela d'autres penseurs comme Thomas Nagel, a clairement mis en évidence quelles étaient les limites de cette nouvelle perspective. D'après Chalmers (1996), il faut diviser les problèmes qui intéressent les sciences cognitives en deux groupes. D'une part, il y a ce qu'il appelle les "problèmes faciles", qui concernent essentiellement toutes les questions dont se préoccupent tant la psychologie cognitive que l'intelligence artificielle ou les neurosciences: La manière dont le système visuel traite l'information, les processus qui nous permettent d'effectuer des mouvements ou de comprendre la parole, l'organisation de la mémoire, les processus qui nous permettent de reconnaître les visages, ceux qui nous permettent de raisonner, etc. Pour chacune de ces questions, nous sommes d'ores et déjà en mesure d'imaginer des solutions computationnelles et neurales. Tant les Cleeremans: Unité de la conscience 7 recherches en intelligence artificielle que les recherches en neurosciences nous démontrent que ce sont là des problèmes qui, sans être pour autant entièrement résolus (et parfois loin de là!), sont en tous cas explorables empiriquement, c.-à-d. via la méthode expérimentale. A ces problèmes Chalmers oppose ce qu'il appelle le "problème difficile", à savoir le problème de l'expérience phénoménale. Pourquoi le traitement de l'information nous fait-il quelque chose, demande Chalmers? Quelle est la différence entre un être humain nommant la couleur rouge quand on la lui montre, et une machine capable de produire la même réponse? A ces questions, personne ne peut apporter une réponse convaincante aujourd'hui. Pire encore, nous ne savons pas encore quelle forme prendra une éventuelle explication. L'existence même d'une explication est remise en cause par Thomas Nagel quand il nous demande, dans son article éponyme (Nagel, 1974), "Quel effet cela fait-il d'être une chauve-souris?" — question à laquelle il répond que nous ne le saurons jamais même dans l'éventualité ou nous aurions une compréhension parfaite du fonctionnement du système nerveux des chiroptères. Comme nous le verrons dans la suite, le problème soulevé par Chalmers est particulièrement épineux pour l'intelligence artificielle et pour la psychologie cognitive traditionnelle, dans la mesure ou les deux champs de recherche ont souvent eu tendance à développer des modèles du traitement de l'information qui s'inspirent exclusivement du traitement conscient que l'homme réalise. 3. La quête du Grââl, ou les corrélats neuraux de la conscience La conscience, et plus particulièrement la conscience phénoménale, est donc le problème central auquel s'attaquent aujourd'hui les neurosciences. Cet effort prend la forme d'un vaste programme de recherche consacré aux "corrélats neuraux de la conscience" (neural correlates of consciousness, ou NCC; voir Frith, Perry & Lumer, 1999), et qui à pour objet d'établir des rapports entre états du cerveau et états subjectifs. Partant du point de vue peu contestable que tout état mental trouve nécessairement son origine dans un état du cerveau, la recherche des corrélats neuraux de la conscience implique que l'on tente de contraster des états neuraux accompagnés d'une expérience phénoménale avec des états neuraux qui ne sont pas accompagnés d'une telle expérience. Frith et al. distinguent ainsi Cleeremans: Unité de la conscience 8 plusieurs possibilités empiriques, applicables à des paradigmes impliquant la perception, l'action, ou la mémoire. Une première possibilité consiste à explorer ce qui se passe quand l'expérience subjective change alors que la stimulation ou le comportement demeurent constants. Outre l'étude de patients présentant des hallucinations ou des confabulations, on peut, chez le sujet normal, explorer ce qui se passe dans les situations de rivalité binoculaire, dans lesquelles une image différente est présentée à chaque œil (voir par exemple Lumer et al., 1998). L'expérience des sujets placés dans une telle situation est celle d'une succession d'alternances entre la perception complète du stimulus présenté à l'œil gauche et la perception complète du stimulus présenté à l'œil droit. En demandant aux sujets d'indiquer lequel des deux stimuli ils perçoivent à un moment donné, alors que l'on enregistre simultanément l'activité de leur cerveau, on peut obtenir une image des régions cérébrales dont l'activité varie plus en fonction de l'expérience subjective des sujets qu'en fonction du stimulus (qui, en l'occurrence, demeure constant). A ce jour, les résultats obtenus grâce à cette situation de rivalité binoculaire demeurent controversés; certains auteurs affirmant avoir pu montrer que seules certaines régions du système visuel voient leur activation corréler avec l'expérience subjective des sujets alors que d'autres concluent au contraire que l'ensemble des régions concernées contribuent à la formation d'une expérience consciente. Une deuxième possibilité consiste à faire en sorte que l'expérience subjective des sujets demeure constante alors que la stimulation ou le comportement changent. L'étude des corrélats neuraux de stimuli présentés dans l'hémichamp aveugle de patients souffrant de lésions dans les régions primaires du cortex visuel constituent un exemple de ce type de situation. De manière surprenante, ces patients demeurent capables de décider si ou quel objet leur ont été présentés, alors même qu'ils déclarent ne rien percevoir dans la région de l'espace concernée. Ce phénomène de "vision aveugle" (ou "blindsight", voir par exemple, Weiskrantz, 1986) est un des plus étudiés dans le domaine. Cleeremans: Unité de la conscience 9 Finalement, une troisième possibilité d'étude des corrélats neuraux de la conscience nous est offerte par une ensemble de paradigmes dans lesquels le comportement change alors que l'expérience subjective demeure constante, comme c'est la cas dans diverses situations d'amorçage masqué, d'amnésie, d'agnosie visuelle, ou encore d'apprentissage implicite. Ce dernier phénomène (voir Cleeremans, Boyer & Destrebecqz, 1998, pour une revue de questions) constitue un bon exemple dans la mesure où les sujets manifestent le développement d'une sensibilité à certains aspects du matériel qu'on leur fait apprendre au travers de leur comportement (en réagissant plus rapidement qu'avant apprentissage à l'apparition d'un stimulus, par exemple), tout en demeurant incapables de spécifier ce qu'ils ont appris où même de se réaliser qu'ils ont appris quelque chose. L'intelligence artificielle et la modélisation ont joué un rôle central dans le domaine particulier de l'apprentissage implicite, en démontrant notamment comment on peut comprendre le comportement des sujets sur base de la mise en jeu de processus d'adaptation élémentaires plutôt que sur base d'un traitement cognitif complexe, mais inconscient. On peut dès lors espérer, comme Frith et al., que l'exploration systématique de ce genre de situations expérimentales permettra d'isoler ces fameux "corrélats neuraux de la conscience". De nombreux corrélats potentiels ont par ailleurs déjà été identifiés; citons par exemple la synchronie entre différents groupes de neurones autour d'une fréquence de 40 Hz, la connectivité réciproque entre thalamus et cortex, certains neurones dans le cortex temporal inférieur, etc. (voir Chalmers, 2000, pour une liste de corrélats potentiels tellement longue que Chalmers la décrit comme un «!zoo!»). Il serait illusoire, néanmoins, d'espérer identifier un seul système responsable de la conscience, ou un seul principe du traitement de l'information que l'on pourrait estimer comme central pour la formation de l'expérience subjective. C'est que, d'une part, la recherche des corrélats neuraux de la conscience n'est pas entièrement exempte de difficultés épistémologiques (voir Cleeremans & Haynes, 1999, pour une discussion), mais aussi, d'autre part, qu'elle ne dispense pas de la nécessité de penser la forme que pourraient prendre d'éventuelles explications causales des mécanismes de la conscience. Cleeremans: Unité de la conscience 10 4. Les corrélats computationnels de la conscience En effet, exactement de la même manière que l'on peut s'interroger sur les différences qui existent entre états neuraux accompagnés ou pas de conscience, on peut également se poser la question de savoir quelles pourraient être les différences entre états computationnels accompagnés ou pas de conscience. C'est ici que la recherche en intelligence artificielle vient utilement compléter les protocoles expérimentaux des chercheurs en neurosciences cognitives. Mes collaborateurs et moi-même avons récemment (Atkinson, Thomas & Cleeremans, 2000) proposé d'organiser différentes théories computationnelles de la conscience en fonction de deux dimensions. Une première dimension oppose des modèles qui supposent que la conscience dépend de propriétés des représentations impliquées dans le traitement de l'information à des modèles qui supposent que la conscience dépend de processus particuliers de traitement de l'information. La deuxième dimension oppose des modèles qui supposent que la conscience dépend de systèmes spécifiques dans le cerveau à des modèles qui supposent au contraire que la conscience est un phénomène émergent qui ne dépend pas de l'implication de modules spécialisés. En combinant ces deux dimensions on peut donc diviser l'espace conceptuel dans lequel s'incrivent les nombreuses théories contemporaines de la conscience en quatre quadrants. Par exemple, certaines théories partent de l'hypothèse que nous sommes conscients de toute représentation stable dans le cerveau (par exemple, O'Brien & Opie, 1999). De telles théories postulent donc que la conscience dépend de propriétés des représentations (ici, la stabilité) plutôt que de processus particuliers, et que l'émergence de telles représentations ne dépendent pas de l'implication de modules spécialisés pour la conscience. Par contraste, d'autres modèles attribuent un rôle central à l'existence de systèmes spécialisés, comme par exemple la mémoire à court terme, ou le "global workspace", sorte de théâtre intérieur, imaginé par Bernard Baars (1988). Certains autres modèles font jouer un rôle central à certains types de processus, mais sans pour autant localiser ceux-ci dans des régions particulières du cerveau. Tononi et Edelman (1998), par exemple, supposent que la conscience dépend Cleeremans: Unité de la conscience 11 des interactions entre différents groupes neuraux dont l'activité synchrone est intégrée de manière différenciée par rapport à l'activité d'autres groupes. Force est de constater néanmoins que quand il s'agit de la conscience phénoménale, l'intelligence artificielle demeure incapable d'offrir une réponse convaincante à la question de Chalmers. Quels sont les corrélats computationnels de la conscience? A partir de quel moment sera-t-on prêt à attribuer une forme de conscience à un artefact? Si à l'heure actuelle, aucun modèle ne peut espérer fournir une explication de pourquoi le traitement de l'information nous fait quelque chose, il semble néanmoins clair que la compréhension des aspects les plus subjectifs de notre expérience ne peut que bénéficier de la formalisation de nos théories. C'est ainsi que l'on peut par exemple explorer les conséquences fonctionnelles de l'hypothèse que les représentations conscientes sont des représentations stables dans un réseau de neurones, et examiner dans quelle mesure un tel réseau est capable de reproduire certains résultats expérimentaux dans le domaine de l'amorçage (voir par exemple Mathis & Mozer, 1996). 5. L’unité fragmentée Les différentes approches brièvement évoquées ci-dessus sont également pertinentes à propos du problème spécifique de l’unité de la conscience. Ce dernier se pose à plusieurs niveaux. A un premier niveau, le problème de l’unité de la conscience consiste simplement à savoir comment le cerveau réalise l’intégration entre les informations véhiculées par différentes modalités sensorielles, ou entre différents aspects d’un même stimulus. Par exemple, on sait que la couleur et la forme des objets que nous percevons sont traités par différentes régions de notre système visuel. Or quand nous percevons un objet, nous ne percevons pas sa couleur et sa forme comme des expériences distinctes. Les différentes propriétes de l’objet sont, au contraire, perçues comme unifiées, comme se rapportant précisement à un seul et même objet. De nombreuses théories ont été proposées pour comprendre ce que l’on pourrait appeler le problème de l’unité cognitive, comme par exemple l’idée que le mécanisme central qui permet à notre cerveau de réaliser cette unité cognitive est un processus de synchronie temporelle grâce auquel les Cleeremans: Unité de la conscience 12 assemblées neuronales qui correspondent aux propriétés d’un même objet, par exemple, sont actives simultanément, en rythme (voir par exemple Engel et Singer, 2001, pour une revue de questions). D’autres auteurs ont plutôt mis l’emphase sur le fait que pour que la synchronie soit efficace et puisse effectivement remplir sa fonction d’intégration, il faut également que les différentes dimensions soient unifiées d’une manière stable dans le temps, ce qui est rendu possible par l’existence de zones de convergence telle que l’hippocampe. Au delà de ce problème quasiment technique, en quelque sorte, de savoir comment se réalise la nécessaire intégration entre l’activité de différentes régions du cerveau, se pose également la question de savoir comment se réalise ce que l’on pourrait appeler l’unité phénoménale, à savoir le fait que nos expériences conscientes ont un caractère unifié. Existe-t-il des conditions dans lequel notre impression d’unité peut être détruite!? Est-il possible de se trouver simultanément dans des états d’expérience conscients, mais inconsistents entre eux!? Puis-je simultanément penser «!X!» et son contraire!? Certaines expériences apportent des réponses troublantes à ces questions. On se rapellera évidemment içi les observations bien connues de Sperry et Gazzaniga sur les «!patients au cerveau divisé!», qui démontrent en tous cas que chaque hémisphère cérébral peut traiter l’information de manière totalement indépendante de l’autre, et même souvent d’une manière conflictuelle. On peut également évoquer dans ce contexte des pathologies telle que certaines formes de schizophrénie dans lesquelles plusieurs personnalités semblent coexister au sein d’un même cerveau. De nombreuses expériences sur des sujets normaux, ainsi que certains états pathologiques viennent également renforcer l’idée selon laquelle une représentation donnée n’est pas nécessairement disponible de la même manière à différentes modalités d’action. Ces démonstrations remettent dès lors directement en cause l’idée selon laquelle la conscience est nécessairement unifiée, et suggèrent, par contraste, que notre expérience du monde peut être fragmentée de diverses manières. Cleeremans: Unité de la conscience 13 Par exemple, certains patients atteints d’agnosie visuelle sont capables d’exécuter correctement les mouvements nécessaires pour insérer une enveloppe dans une fente orientée arbitrairement tout en demeurant néanmoins incapables d’indiquer l’orientation de la fente en traçant une ligne orientée dans la même direction. (Milner et Goodale, 1998). Cette expérience suggère donc l’existence d’une dissociation entre deux réseaux de notre système visuel. Un premier réseau aurait pour fonction de rendre possible la perception des objets et en particulier leur identification («!vision for perception!»), alors que l’autre aurait pour fonction centrale de contrôler les actions que nous dirigeons vers ces objets («!vision for action!»). L’existence de pathologies dans lesquelles ces deux composantes de notre système visuel semblent fonctionner de manière dissociée suggère donc que différentes régions de notre cerveau n’ont pas nécessairement accès aux même informations, et que le traitement réalisé par chaque région peut s’exprimer de manière différente dans le comportement. De tels états de conscience partiellement unifiés peuvent également s’observer chez des sujets normaux. Par exemple, dans une série d’expériences récente, Munakata et Yerys (2001) ont exploré la capacité d’enfants de cinq ans d’effectuer une tâche de classification dans une situation impliquant un conflit entre plusieurs dimensions. Les sujets devaient classer des cartes sur lesquelles on avait dessiné des camions et des fleurs, qui peuvent être rouges ou bleus. Dans une première phase de l’expérience, on demande d’abord à l’enfant de trier les cartes selon la couleur. Il doit donc placer tous les items rouges à droite et tous les bleues à gauche, tâche qu’il réussit sans difficulté. Dans une deuxième phase de l’expérience, l’expérimentateur annonce que les règles ont changé!: Il s’agit maintenant de trier les cartes non plus en fonction de la couleur des stimuli, mais bien en fonction de leur forme!: Il faut donc placer les camions à gauche et les fleurs à droite, en ignorant la couleur – on ne joue plus le jeu de la couleur, mais bien le jeu de la forme. Cette fois, surprise!: Lorsqu’un camion bleu apparaît, l’enfant se trompe et le classe à droite, comme s’il continuait à trier en fonction de la couleur. Ces erreurs se répètent malgré le fait que l’expérimentateur re-explique la nouvelle règle à chaque essai. Néanmoins, et ceci est le point crucial, si on pose à l’enfant la question «!Où faut-il mettre les camions!?!», il répond correctement!et montre la gauche!! Dans cette situation, Cleeremans: Unité de la conscience 14 il apparaît donc que l’enfant est conscient de la règle verbalement tout en demeurant incapable de l’appliquer!! Il s’agit donc d’un exemple de conscience partielle ou fragmentée, en tous cas d’un point de vue cognitif, dans la mesure où un contenu particulier (la règle) semble n’être exprimable que via certaines modalités et pas d’autres. Marcel (1993) a exploré une situation similaire avec des sujets adultes à qui on demandait de détecter la présence ou l’absence d’un stimulus visuel de très faible luminance. Les sujets pouvaient répondre en clignant de la paupière, en enfonçant une touche, ou verbalement. Dans certaines conditions, les sujets devaient répondre d’une seule manière. Dans d’autres conditions, ils devaient répondre en produisant les trois réponses simultanément. En outre, on leur demandait soit de deviner, soit de répondre uniquement quand ils étaient certains d’avoir perçu un stimulus. Les résultats de cette expérience ont non seulement indiqué des différences dans la précision des trois modalités de réponses (les clignements palpébraux étant plus précis que les réponses digitales, elles-mêmes plus précises que les réponses verbales), mais également que des réponses différentes pouvaient être produites dans chacune des trois modalités de réponse quand les sujets devaient répondre dans les trois modalités simultanément. En d’autres mots, les sujets indiquaient la présence d’un stimulus par un clignement de paupière alors même qu’ils disaient ne rien percevoir via les réponses digitales et verbales!! Ces dissociations entre modalités de réponse étaient beaucoup plus fréquentes dans les conditions où les sujets devaient répondre uniquement quand ils étaient certains de leur expérience que dans les conditions de devinement. Une manière d’interpréter les résultats de ces expériences est de considérer que les représentations que nous avons du monde ont un caractère gradué plutôt que binaire. La conscience, dans cette perspective, serait elle aussi dès lors une dimension graduée. Par exemple, one peut comprendre les résultats de l’expérience de Munakata en supposant que les représentations que se font les enfants des stimuli sont encore fragiles, ou faibles. Ces représentations seraient de qualité suffisante pour répondre correctement aux questions concernant les consignes, mais elles ne serait pas suffisamment fortes pour leur permettre de répondre aux stimuli conflictuels que constituent les cartes qu’il s’agit de Cleeremans: Unité de la conscience 15 trier. Ces dernières présentent en effet toujours les deux dimensions —!forme et couleur!; alors que les questions que l’on pose aux sujets ne mettent qu’une seule dimension en jeu. Un raisonnement similiaire permet de comprendre les résultats des expériences de Marcel (1983) décrité ci-dessus. La question de savoir dans quelle mesure les sujets ont l’expérience subjective de se trouver dans un état de conscience seulement partiellement unifié est plus problématique et continue de susciter la polémique. D’une manière générale, les sujets ne semblent pas être conscients du fait qu’ils fournissent des réponses incohérentes. L’unité (la cohérence) semble donc être une propriété centrale des états conscients. 6. Data contre les Zombies La question de l’unité de la conscience soulève également la question des rapports entre cosncient et inconscient. Si toutes nos expériences apparaissent comme nécessairement unifiées, en va-t-il de même concernant la capacité de représentations données à influencer le comportement!? Autrement dit, l’unité phénoménale implique t-elle nécessairement l’unité cognitive!? Les psychologues, après avoir longtemps écarté purement et simplement la conscience du champ de l'explorable, se sont précisément concentrés sur la question des rapports entre conscient et inconscient, et sur les problèmes fort épineux que pose la mise en évidence de différences entre comportements accompagnés de conscience et comportements inconscients. En caricaturant, on peut distinguer deux positions théoriques extrêmes concernant la conscience en psychologie cognitive, que j'appelle respectivement les théories "Zombie" et les théories "Data" (sur base de l'androïde humaniforme que les amateurs de la série télévisée "Star Trek: The Next Generation" ne manqueront pas de reconnaître). D'une part, de nombreuses théories semblent partir du point de vue que le conscient et l'inconscient sont enracinés dans deux systèmes distincts, mais de complexité équivalente. L'inconscient, en quelque sorte, est structuré exactement comme le conscient, mais sans la conscience. On retrouve ici les traces d'une interprétation Cleeremans: Unité de la conscience 16 populaire de la perspective psychanalytique sur la vie mentale, laquelle semble parfois supposer que nous sommes tous dotés d'une sorte de zombie inconscient (typiquement néfaste ou en tous cas animé de nos désirs et angoisses les plus sombres) capable de gouverner notre comportement à notre insu. La difficulté principale d'une telle conception est précisément qu'elle présuppose que l'inconscient est structuré comme le conscient. En d'autres termes, les représentations mentales ne changent ni dans leur forme, ni dans leur capacité à influencer le comportement en fonction du fait qu'elles soient accessibles ou non à la conscience. Dans une telle perspective, la conscience en tant que telle n'a donc aucune fonction particulière. L'intelligence artificielle classique tombe exactement dans le même travers quand elle nous propose des modèles du traitement de l'information qui ne distinguent pas entre traitement conscient et inconscient. On suppose par exemple, dans certains modèles tels que SOAR (Newell, 1990), que le problème que doit résoudre mon cerveau quand il s'agit de déterminer comment déplacer mon bras pour atteindre une cible donnée dans l'espace est exactement de la même nature que le problème que mon cerveau doit résoudre quand il s'agit de déterminer quel est le meilleur mouvement à réaliser dans une partie d'échecs. Il en est peut être ainsi, mais une telle perspective ignore entièrement le fait que je suis conscient de la plupart des étapes du raisonnement que je tiens quand je joue aux échecs, alors que je serais bien à mal d'expliquer comment je parviens à exécuter avec précision un mouvement complexe sans aucun effort conscient, et sans raisonnement d'aucun type que ce soit. C'est précisément cet abus de "mentalisation", c'est-à-dire la tendance de décrire tout traitement cognitif comme faisant appel à des processus complexes de raisonnement et d'interprétation, que dénonce le philosophe américain John Searle dans son argument de la chambre chinoise et dans de nombreux autres écrits critiques (voir par exemple Searle, 1992). D'autres auteurs semblent avoir adopté une perspective inverse visant à éliminer d'emblée la question de la conscience et de ses rapports avec l'inconscient. Pour ceux-là, tout traitement de l'information est soit exclusivement neural (ou exclusivement biologique, c.-à.d. du même type que les processus impliqués dans la digestion, par exemple), soit conscient. L'inconscient en tant que lieu dans lequel prend place un traitement cognitif inaccessible à la conscience n'a donc pas de place dans un tel système: La cognition est Cleeremans: Unité de la conscience 17 au contraire fondamentalement transparente. C'est en ceci que de tels modèles ressemblent un peu au système cognitif de Data, le robot humaniforme que l'on peut découvrir dans la série télévisée "Star Trek: The Next Generation". En effet, Data semble tout savoir de son propre fonctionnement, sauf dans de rares circonstances, qui sont systématiquement décrites comme des dysfonctionnements. Ainsi, Data peut décrire avec précision combien de neurones artificiels sont actifs à un moment donné dans son cerveau positronique, vous indiquer exactement quelle est la pression qu'il doit exercer pour ouvrir une porte bloquée, ou encore vous réciter sans hésiter n'importe quel poème de Shakespeare. Outre cette vaste mémoire sémantique et procédurale, Data dispose également d'une mémoire épisodique parfaite, et donc d'un accès instantané et sans failles à l'ensemble des expériences qu'il a vécues. A l'exception centrale de la capacité d'éprouver des émotions, Data se comporte donc, et se considère lui-même comme un être humain — statut que ses protagonistes dans la série télévisée lui ont d'ailleurs reconnu lors d'un épisode fort intéressant dans lequel un jury, confronté à une sorte de test de Turing grandeur nature, devait décider si oui ou non Data était doté de libre arbitre. Data est donc conscient, et même plus, exclusivement conscient. Aucun contenu cognitif n'échappe à son introspection; l'inconscient, chez Data, n'existe pas. Il peut paraître surprenant de trouver les échos de cette fiction dans la littérature scientifique, mais c'est pourtant bien le cas pour de nombreux modèles, tant en intelligence artificielle qu'en psychologie. Les premiers peuvent en effet être compris autant comme des modèles de type "Zombie" que comme des modèles de type "Data", dans la mesure où la conscience n'y joue simplement aucun rôle. Un même modèle peut ainsi fort bien être décrit soit comme simulant les étapes conscientes d'un raisonnement, soit comme simulant les processus inconscients impliqués, par exemple, dans la planification d'un mouvement. En psychologie, bien qu'aucune théorie ne soit aussi caricaturale que les paragraphes précédents, on retrouve néanmoins un certain nombre d'idées selon lesquelles tout traitement cognitif s'accompagne nécessairement de conscience (par exemple, Perruchet, Vinter & Gallego, 1997, O'Brien et Opie, 1999, ou encore Shanks & StJohn, 1994). Ces modèles sont tous caractérisés par l'idée centrale que la notion de représentation inconsciente n'existe pas. Nonobstant les difficultés méthodologiques réelles que pose la question de savoir comment déterminer si une représentation est Cleeremans: Unité de la conscience 18 consciente ou pas, une telle position théorique semble difficilement défendable en principe. Comme c'est le cas pour les théories de type "Zombie", le problème conceptuel central auquel sont confrontées de tels modèles (outre leur caractère implausible à priori) est celui d'attribuer une fonction à la conscience. Si tout traitement cognitif s'accompagne de conscience, cette dernière n'a donc pas plus de fonction ici que dans les théories de type "Zombie". Cette question de la fonction de la conscience est une question à laquelle je ne répondrai pas dans cet chapitre, mais il semble clair que s'interroger sur le rôle de la conscience dans la cognition constitue probablement une des meilleures manières d'espérer pouvoir faire avancer les nombreux débats que sa nature suscite. 7. Conclusions Revenons-en, en guise de conclusion, à l’expérience de Simons et Chabris concernant la cécité au changement. L’expérience démontre que notre conscience du monde est incomplète. En ce sens, elle illustre bien la conclusion qu’il n'existe pas nécessairement de relation transparente entre expérience subjective, comportement, et état du monde. Le caractère unifié de notre expérience peut être mis à mal dans diverses pathologies ou dans les circonstances particulières d’une expérience en laboratoire. Nos actions peuvent être incohérentes avec nos intentions. Notre cerveau peut «!en savoir plus!» que nous-mêmes. On ne surprendra personne en disant que le système cognitif est extrêmement complexe et analysable à plusieurs niveaux de description. La conscience doit dès lors, tout autant que les processus cognitifs inconscients, être comprise comme un phénomène émergent qui engage simultanément plusieurs niveaux de description. La conscience impliquerait, dans cette perspective, un continuum doublé d'une dichotomie, de la même manière, en quelque sorte, que des changements graduels et continus de la température d'une masse d'eau s'accompagnent de changements d'état brutaux et dichotomiques en certains points (la transition entre états solides, liquides, et gazeux de l'eau). La non-linéarité est une caractéristique centrale de la conscience, mais cette propriété, qui existe à un certain Cleeremans: Unité de la conscience 19 niveau de description (par exemple, mon expérience subjective), n'est pas pour autant incompatible avec un continuum existant à un autre niveau de description (par exemple, le nombre de neurones actifs dans une certaine région de mon cerveau). C'est donc l'exploration des interactions entre ces différents niveaux de description qui apparaît comme la voie de recherche la plus prometteuse. Le renouveau d'intérêt suscité par la question de la conscience remet par ailleurs une fois de plus les choses à leur place, dans la mesure ou penser le phénomène de la conscience scientifiquement semble exiger que l'on réconcilie ce que l'on pourrait appeler les approches "à la troisième personne" avec les approches "à la première personne", ou, en d'autres termes, l'objectif et le subjectif. La question de l’unité de la conscience est au centre de cette problématique, car il s’agit précisement de comprendre de quelle manière et pourquoi nos expériences nous apparaissent subjectivement comme ayant un caractère unifié alors que d’un point de vue objectif il est clair que le cerveau traite l’information de manière modulaire. Les approches nouvelles brièvement évoquées dans cet article trouvent actuellement leur expression la plus convaincante sous la forme du programme de recherche consacré aux corrélats neuraux de la conscience évoqué plus haut, dans la mesure ou l'on cherche précisément à établir des rapports précis entre états subjectifs, états neuraux, et comportement observable, comme dans la situation de rivalité binoculaire. On peut espérer que l’exploration simultanée des principes, des corrélats comportementaux et des corrélats neuraux du traitement de l’information permettra d’aller au delà de ce que chaque approche considérée isolément serait capable de nous apporter. En ceci, la recherche dans le domaine de ce qu’il est maintenant convenu d’appeler les neurosciences cognitives computationnelles devrait bénéficier d’un mode de fonctionnement typique de son objet d’étude (le système cognitif), à savoir la satisfaction de contraintes multiples. Apprécier la question de l’unité de la conscience semble donc exiger que l’on tende également vers une unité dans nos démarches expérimentales et conceptuelles. En effet, Cleeremans: Unité de la conscience 20 c’est en étendant le champ de la psychologie aux neurosciences et aux sciences de l’artificiel — ou, mieux, en intégrant profondément les trois approches dans la perspective des sciences cognitives. — que l’on peut espérer commencer à attaquer la question de la conscience, que Dennett (1991) décrit correctement comme un mystère, soit un problème auquel on ne sait pas encore comment penser. Cleeremans: Unité de la conscience 21 Note Axel Cleeremans est chercheur qualifié auprès du Fonds National de la Recherche Scientifique (Belgique). Ce travail à bénéficié d’une bourse de l’Université!Libre de Bruxelles en support au programme PAI P4/19, ainsi que d’une bourse de la Commission Européenne (programme HPRN-CT-2000-00065). Cleeremans: Unité de la conscience 22 References Atkinson, A.P., Thomas, M.S.C., & Cleeremans, A. (2000). Consciousness: Mapping the theoretical landscape. Trends in Cognitive Sciences, 4, 372-382. Baars, B.J. (1988). A cognitive theory of consciousness. Cambridge: Cambridge University Press. Chalmers, D. J. (1996). The Conscious Mind. Oxford: Oxford University Press. Chalmers, D. (2000). What is a neural correlate of consciousness? In T. Metzinger (Ed.), Neural Correlates of Consciousness. Empirical and Conceptual Questions, 17-39. Cambridge, MA: MIT Press. Changeux, J.-P. (1983). L’homme Neuronal. Paris!: Fayard. Cleeremans, A., Boyer, M. & Destrebecqz, A. (1998). Implicit learning: News from the front. Trends in Cognitive Sciences, Cleeremans, A. & Haynes, J.-D. (1999). Correlating consciousness: A view from empirical science. Revue Internationale de Philosophie, 3, 387-420. Dennett, D. C. (1991). Conciousness Explained. Allen Lane: Penguin Press. Engel, A.K. & Singer, W. (2001). Temporal binding and the neural correlates of sensory awareness, Trends in Cognitive Sciences, 5, 16-25. Frith, C.D., Perry, R., & Lumer, E. (1999). The neural correlates of conscious experience: An experimental framework. Trends in Cognitive Sciences, 3, 105-114. Lumer, E.D., Friston, K.J. & Rees, G. (1998). Neural correlates of perceptual rivalry in the human brain. Science, 280, 1930-1934. Maguire, E.A., Gadian, D.G., Johnsrude, I.S., Good, C.D., Ashburner, J., Frackowiak, R.S. & Frith, C.D. (2000). Navigation-related structural change in the hippocampi of taxi drivers. Proceedings of the National Academy of Sciences of the U.S.A., 10.1073. Marcel, A.J. (1983). Slippage in the unity of consciousness. In Gregory R. Bock and Joan Marsh (Eds), Experimental and Theoretical Studies of Consciousness, 168-179. Chichester!: John Wiley & Sons. Cleeremans: Unité de la conscience 23 Mathis, W.D., & Mozer, M.C. (1996). Conscious and unconscious perception: A computational theory. In Proceedings of the 18th Annual Conference of the Cognitive Science Society, 324-328, Lawrence Erlbaum. Milner, A. D., & Goodale, M. A. (1998). The visual brain in action. Oxford, England: Oxford University Press. Munakata, Y., Yerys, B.E. (2001). All together now!: When dissociations between knowledge and action dissapear. Psychological Science, 12(4), 335-337. Nagel, T. (1974). What is like to be a bat? Philosophical Review, 83, 435-450. Newell, A. (1990). Unified Theories of Cognition. Cambridge: Harvard University Press. O'Brien, G., & Opie, J. (1999). A connectionist theory of phenomenal experience. Behavioral and Brain Sciences, 22, 127-196. Perruchet, P., Vinter, A., & Gallego, J. (1997). Implicit learning shapes new conscious percepts and representations. Psychonomic Bulletin & Review, 4, 43-48. Prigogine, I. & Stengers, I. (1979). La Nouvelle Alliance, Paris: Gallimard. Shanks, D.R., & St.John, M.F. (1994). Charasterics of dissociable learning systems. Behavioral and Brain Sciences, 17, 367-395. Searle, J. (1992). The rediscovery of the mind. Cambridge, MA: MIT Press. Simons, D. J., & Chabris, C. F. (1999). Gorillas in our midst: sustained inattentional blindness for dynamic events. Perception, 28, 1059-1094. Simons, D. J., & Levin, D. T. (1997). Change Blindness. Trends in Cognitive Sciences, 1, 261-267. Tononi, G., & Edelman, G.M. (1998). Consciousness and complexity. Science, 282, 1846-1851. Weiskrantz, L. (1986). Blindsight: A case study and implications. Oxford: Oxford University Press.