L`unité de la conscience

Transcription

L`unité de la conscience
L’unité de la conscience
Axel Cleeremans
Séminaire de Recherche en Sciences Cognitives
Université Libre de Bruxelles
Cleeremans: Unité de la conscience
2
Vous regardez un film qui montre deux équipes de basket composées chacune de trois
joueurs. Les joueurs de la première équipe sont habillés en noir!; ceux de la seconde, en
blanc. L’expérimentateur vous indique que vous devez compter le nombre de fois que les
joueurs habillés en blanc s’échangent un ballon —!tâche rendue fort difficile par le fait
que les joueurs noirs s’échangent eux aussi un second ballon. De surcroît, l’action se
déroule dans un espace de seulement quelques mètres carrés, et le rythme est rapide!: Les
joueurs changent de place, sautent, se passent les ballons de diverses manières.
Vous pistez donc intensément le ballon échangé par les joueurs habillés de blanc pendant
un peu plus d’une minute. Le film s’arrête, et vous annoncez, sans aucune hésitation,
«!14!». «!Bravo!», vous dit l’expérimentateur, il s’agit bien de la bonne réponse!; les
joueurs habillés de blanc se sont bien échangé le ballon 14 fois. Il vous demande alors si
vous avez remarqué quoi que ce soit d’inhabituel ou de bizarre dans le film. Vous
réfléchissez quelques instants et répondez qu’en dehors du fait que vous avez trouvé la
tâche ardue, non, vraiment, vous ne voyez pas. L’expérimentateur, un sourire en coin,
vous propose ensuite de revoir le même film, cette fois sans la contrainte de devoir
compter les passes de ballon. Et là, stupéfaction vers la 30ème seconde. Vous n’en croyez
pas vos yeux, mais un homme déguisé en gorille entre dans le champ par la droite, se
dirige nonchalamment vers le centre, où il s’arrête pendant quelques instants pour se
battre la poitrine des deux poings avant de reprendre sa marche vers la gauche pour enfin
sortir du champ!!
Que s’est-il passé!? Comment est-il possible que vous n’ayez pas perçu un stimulus
visuel aussi massif, durable, et incongru que ce gorille apparaissant pendant plusieurs
secondes au centre de votre champ visuel!? La réponse est, naturellement, que votre
attention était dirigée ailleurs!; plus spécifiquement, vers le ballon que vous deviez pister.
Si l’explication est relativement simple, le phénomène en lui-même est véritablement
frappant, essentiellement parce qu’il remet en cause l’idée que nous avons une conscience
Cleeremans: Unité de la conscience
3
totale du monde qui nous entoure. Eh bien, non!! Cette expérience (Simons & Chabris.,
1999!; voir aussi Simons & Levin, 1997) met en évidence un phénomène appelé
justement «!cécité aux changements!» —!soit le fait que nous semblons souvent
incapables de détecter des changements parfois massifs dans un stimulus présenté de
manière supra-liminale. Les résultats de nombreuses autres démonstrations similaires —
qui n’exigent pas toutes, contrairement à ce que l’on pourrait penser, une mobilisation de
l’attention aussi massive que l’expérience du gorille — convergent vers une remise en
cause radicale de la réalité de ce que l’on pourrait appeler «!l’unité de la conscience!»,
soit l’impression subjective que nous avons que notre conscience est unifiée.
1. L’illusion de l’unité
Que veut-on dire exactement par «!unité de la conscience!»!? En première analyse,
simplement le fait que notre conscience du monde présente, à chaque instant, un caractère
intégré. Par exemple, alors que j’écris ces lignes, je suis conscient non seulement du
contenu des pensées que j’exprime en formulant les phrases que j’écris, mais j’ai
également et simultanément diverses autres expériences!: Une expérience visuelle des
couleurs qui forment le fond de mon écran, une expérience auditive du cliquetis rythmé
que produisent les touches de mon clavier alors que je les enfonce successivement, une
deuxième expérience auditive du bruit que fait le système de conditionnement d’air dans
mon bureau, l’expérience d’une vague douleur dans ma cheville droite, et ainsi de suite.
Chacune de ces expériences est distincte, mais chacune est également profondément
intégrée — unifiée — avec les autres. A chaque instant, l’expérience que j’ai du monde
forme donc une unité. Toutes les expériences qui nous sommes données sont vécues
comme appartenant à un seul et même sujet. En outre, toutes les expériences que nous
avons vécues au fil de notre existence sont également reconnues comme étant nos
expériences.
Et pourtant, quand on a analyse la manière dont le cerveau traite l’information, en place
d’unité on ne trouve qu’un vaste ensemblage de circuits neuraux qui convergent vers…
rien du tout!! Il n’est donc point d’unité dans le cerveau, pas de lieu particulier où se
Cleeremans: Unité de la conscience
4
réaliserait une ultime convergence!: La glande pinéale de Descartes, si elle existe bel et
bien, ne remplit pas les fonctions d’intégration qu’il lui avait attribuées. De la même
manière, aucune des zones de convergence existantes dans le cerveau (comme par
exemple l’hippocampe, certaines parties du cortex pariétal et du cortex préfrontal) ne peut
remplir seule la fonction d’intégrer l’ensemble des informations traitées. Et comment
pourrait-il en être autrement!? Car si une telle zone de convergence ultime existait,
qu’aurions nous appris, en réalité, sur les origines de l’unité de la conscience!? Quel
homoncule percevrait les informations unifiées représentées dans ce lieu cérébral
unique!? Comme en a discuté abondamment le philosophe américain Daniel Dennett dans
son ouvrage «!Consciousness explained» (Dennett, 1991), le fait que nos expériences
semblent prendre place sur une sorte «!d’écran de télévision!» ou de scène de théatre n’est
qu’une illusion — une illusion que Dennett appelle l’illusion du «!théâtre cartésien!». S’il
est bien clair aujourd’hui qu’un tel «!théâtre!» n’a pas de réalité neurologique, il n’en
reste pas moins que nous nous devons d’expliquer pourquoi nos expériences nous sont
données sous cette forme. Autrement dit!: Quels sont les fondements neuroscientifiques
de la réalité subjective que constitue l’illusion du théâtre cartésien!?
Le problème de l’unité de la conscience est donc le problème de l’unité de nos
connaissances!: Comment faut-il réconcilier le caractère indiscutablement unifié de notre
expérience subjective avec ce que nous apprend la neuroanatomie fonctionnelle du
cerveau, à savoir que ce dernier semble être organisé de manière modulaire!? Quels sont
les processus d’émergence et d’intégration qui permettent à notre cerveau de construire
l’image illusoire d’une réalité unifiée!?
Avant d’explorer plus avant les fondements de l’unité de la conscience ainsi que certaines
des théories qui ont été proposées pour en rendre compte, il est important de s’attarder à
la notion de conscience elle-même. C’est que l’étude de la conscience est longtemps
restée en marge des approches scientifiques de la cognition et de l’esprit en général. Or
on assiste aujourd’hui à un renouveau d’intérêt spectaculaire pour la question. Ce
renouveau d’intérêt est indiscutablement suscité, au moins en partie, par la disponibilité
Cleeremans: Unité de la conscience
5
de nouvelles techniques d’imagerie cérébrale qui nous permettent, pour la première fois,
de percevoir et d’analyser divers aspects du fonctionnement du cerveau en action.
2. La question de la conscience
L’expérience du gorille démontre fort bien comment une partie de notre réalité peut
échapper entièrement à l’introspection et même à l’observation. Reste à savoir quel est le
sort des corrélats neuraux des stimuli ignorés. Le gorille que nous ne percevons pas
consciemment est-il néanmoins traité quelque part dans notre cerveau!? Ceci est la
première question que soulève cette expérience et que je voudrais évoquer brièvement
dans cet article: Quel est le rôle de la conscience dans la cognition? Toutes nos activités
mentales sont-elles conscientes? Comment faut-il concevoir les rapports entre conscient
et inconscient? Quelles méthodes peut-on utiliser pour décider si un comportement est
conscient ou non? Ces questions, bien qu'elles n'aient jamais véritablement cessé
d'intéresser les sciences cognitives, sont aujourd'hui au centre d’une vaste programme
mumtidisciplinaire concernant la nature et les mécanismes de la conscience.
Les sciences cognitives se trouvent en effet aujourd’hui à la croisée des chemins,
essentiellement sous l’influence des neurosciences. On ne peut sous-estimer l'impact
grandissant que les techniques d'imagerie cérébrale exercent sur la recherche en
psychologie cognitive. Leur importance est rendue limpide par l'abondance sans
précédent de résultats expérimentaux que nous a fourni la dernière décade de ce
millénaire finissant. Chaque jour qui passe nous informe un peu plus sur les détails du
fonctionnement de notre système visuel, sur la manière dont les synapses modifient leurs
propriétés de transmission en fonction de l'expérience, sur la manière dont le cerveau se
développe, sur les interactions entre différentes régions du cortex, ou encore sur les
conséquences fonctionnelles de différentes lésions. C'est ainsi qu'on a pu montrer, par
exemple, que l'hippocampe des chauffeurs de taxi londoniens est particulièrement élargi
par contraste avec celui de sujets n'ayant pas dû mémoriser la géographie complexe de la
ville (Maguire et al., 2000) . Ce résultat, ainsi que de nombreux autres, nous montre que
l'apprentissage laisse des traces détectables dans le cerveau — une conclusion qui n'a rien
Cleeremans: Unité de la conscience
6
de surprenant pour autant que l'on soit convaincu, comme tout matérialiste, que le
traitement de l'information est entièrement enraciné dans l'activité du cerveau — mais qui
modifie néanmoins radicalement la manière dont les psychologues doivent penser les
rapports entre cerveau et esprit. En effet, exactement de la même manière que la méthode
expérimentale a permis à la psychologie de dépasser les limites de l'introspection, les
neurosciences promettent aujourd'hui à la psychologie la possibilité de dépasser les
limites qu'imposent les méthodes comportementales, à savoir le fait que nos
raisonnements concernant le fonctionnement de l'esprit sont nécessairement basés sur une
inférence —!celle qui nous permet de relier l'observable au privé, le comportement à
notre vie mentale.
En suscitant l'espérance d'enraciner définitivement le mental dans le biologique, les
neurosciences, avec l'arsenal technologique remarquable dont elles disposent, font donc
rêver, tout en inquiétant les psychologues qui voient en elles une nouvelle menace pesant
sur le devenir des sciences de l'esprit. C’est que les neurosciences offrent une perspective
somme toute quelque peu désanchantée sur la cognition (voir Prigogine & Stengers,
1979), et sur la conscience en particulier. Loin d’être animés par nos désirs, nos
ambitions, nos regrets, nous ne serions finalement que le produit de la biologie de notre
cerveau— «!l’homme neuronal!» de Jean-Pierre Changeux (1983).
Et pourtant... le philosophe américain David Chalmers, suivant en cela d'autres penseurs
comme Thomas Nagel, a clairement mis en évidence quelles étaient les limites de cette
nouvelle perspective. D'après Chalmers (1996), il faut diviser les problèmes qui
intéressent les sciences cognitives en deux groupes. D'une part, il y a ce qu'il appelle les
"problèmes faciles", qui concernent essentiellement toutes les questions dont se
préoccupent tant la psychologie cognitive que l'intelligence artificielle ou les
neurosciences: La manière dont le système visuel traite l'information, les processus qui
nous permettent d'effectuer des mouvements ou de comprendre la parole, l'organisation
de la mémoire, les processus qui nous permettent de reconnaître les visages, ceux qui
nous permettent de raisonner, etc. Pour chacune de ces questions, nous sommes d'ores et
déjà en mesure d'imaginer des solutions computationnelles et neurales. Tant les
Cleeremans: Unité de la conscience
7
recherches en intelligence artificielle que les recherches en neurosciences nous
démontrent que ce sont là des problèmes qui, sans être pour autant entièrement résolus (et
parfois loin de là!), sont en tous cas explorables empiriquement, c.-à-d. via la méthode
expérimentale. A ces problèmes Chalmers oppose ce qu'il appelle le "problème difficile",
à savoir le problème de l'expérience phénoménale. Pourquoi le traitement de l'information
nous fait-il quelque chose, demande Chalmers? Quelle est la différence entre un être
humain nommant la couleur rouge quand on la lui montre, et une machine capable de
produire la même réponse? A ces questions, personne ne peut apporter une réponse
convaincante aujourd'hui. Pire encore, nous ne savons pas encore quelle forme prendra
une éventuelle explication. L'existence même d'une explication est remise en cause par
Thomas Nagel quand il nous demande, dans son article éponyme (Nagel, 1974), "Quel
effet cela fait-il d'être une chauve-souris?" — question à laquelle il répond que nous ne le
saurons jamais même dans l'éventualité ou nous aurions une compréhension parfaite du
fonctionnement du système nerveux des chiroptères. Comme nous le verrons dans la
suite, le problème soulevé par Chalmers est particulièrement épineux pour l'intelligence
artificielle et pour la psychologie cognitive traditionnelle, dans la mesure ou les deux
champs de recherche ont souvent eu tendance à développer des modèles du traitement de
l'information qui s'inspirent exclusivement du traitement conscient que l'homme réalise.
3. La quête du Grââl, ou les corrélats neuraux de la conscience
La conscience, et plus particulièrement la conscience phénoménale, est donc le problème
central auquel s'attaquent aujourd'hui les neurosciences. Cet effort prend la forme d'un
vaste programme de recherche consacré aux "corrélats neuraux de la conscience" (neural
correlates of consciousness, ou NCC; voir Frith, Perry & Lumer, 1999), et qui à pour
objet d'établir des rapports entre états du cerveau et états subjectifs. Partant du point de
vue peu contestable que tout état mental trouve nécessairement son origine dans un état
du cerveau, la recherche des corrélats neuraux de la conscience implique que l'on tente de
contraster des états neuraux accompagnés d'une expérience phénoménale avec des états
neuraux qui ne sont pas accompagnés d'une telle expérience. Frith et al. distinguent ainsi
Cleeremans: Unité de la conscience
8
plusieurs possibilités empiriques, applicables à des paradigmes impliquant la perception,
l'action, ou la mémoire.
Une première possibilité consiste à explorer ce qui se passe quand l'expérience subjective
change alors que la stimulation ou le comportement demeurent constants. Outre l'étude de
patients présentant des hallucinations ou des confabulations, on peut, chez le sujet
normal, explorer ce qui se passe dans les situations de rivalité binoculaire, dans lesquelles
une image différente est présentée à chaque œil (voir par exemple Lumer et al., 1998).
L'expérience des sujets placés dans une telle situation est celle d'une succession
d'alternances entre la perception complète du stimulus présenté à l'œil gauche et la
perception complète du stimulus présenté à l'œil droit. En demandant aux sujets
d'indiquer lequel des deux stimuli ils perçoivent à un moment donné, alors que l'on
enregistre simultanément l'activité de leur cerveau, on peut obtenir une image des régions
cérébrales dont l'activité varie plus en fonction de l'expérience subjective des sujets qu'en
fonction du stimulus (qui, en l'occurrence, demeure constant). A ce jour, les résultats
obtenus grâce à cette situation de rivalité binoculaire demeurent controversés; certains
auteurs affirmant avoir pu montrer que seules certaines régions du système visuel voient
leur activation corréler avec l'expérience subjective des sujets alors que d'autres concluent
au contraire que l'ensemble des régions concernées contribuent à la formation d'une
expérience consciente.
Une deuxième possibilité consiste à faire en sorte que l'expérience subjective des sujets
demeure constante alors que la stimulation ou le comportement changent. L'étude des
corrélats neuraux de stimuli présentés dans l'hémichamp aveugle de patients souffrant de
lésions dans les régions primaires du cortex visuel constituent un exemple de ce type de
situation. De manière surprenante, ces patients demeurent capables de décider si ou quel
objet leur ont été présentés, alors même qu'ils déclarent ne rien percevoir dans la région
de l'espace concernée. Ce phénomène de "vision aveugle" (ou "blindsight", voir par
exemple, Weiskrantz, 1986) est un des plus étudiés dans le domaine.
Cleeremans: Unité de la conscience
9
Finalement, une troisième possibilité d'étude des corrélats neuraux de la conscience nous
est offerte par une ensemble de paradigmes dans lesquels le comportement change alors
que l'expérience subjective demeure constante, comme c'est la cas dans diverses
situations d'amorçage masqué, d'amnésie, d'agnosie visuelle, ou encore d'apprentissage
implicite. Ce dernier phénomène (voir Cleeremans, Boyer & Destrebecqz, 1998, pour une
revue de questions) constitue un bon exemple dans la mesure où les sujets manifestent le
développement d'une sensibilité à certains aspects du matériel qu'on leur fait apprendre au
travers de leur comportement (en réagissant plus rapidement qu'avant apprentissage à
l'apparition d'un stimulus, par exemple), tout en demeurant incapables de spécifier ce
qu'ils ont appris où même de se réaliser qu'ils ont appris quelque chose. L'intelligence
artificielle et la modélisation ont joué un rôle central dans le domaine particulier de
l'apprentissage implicite, en démontrant notamment comment on peut comprendre le
comportement des sujets sur base de la mise en jeu de processus d'adaptation
élémentaires plutôt que sur base d'un traitement cognitif complexe, mais inconscient.
On peut dès lors espérer, comme Frith et al., que l'exploration systématique de ce genre
de situations expérimentales permettra d'isoler ces fameux "corrélats neuraux de la
conscience". De nombreux corrélats potentiels ont par ailleurs déjà été identifiés; citons
par exemple la synchronie entre différents groupes de neurones autour d'une fréquence de
40 Hz, la connectivité réciproque entre thalamus et cortex, certains neurones dans le
cortex temporal inférieur, etc. (voir Chalmers, 2000, pour une liste de corrélats potentiels
tellement longue que Chalmers la décrit comme un «!zoo!»). Il serait illusoire,
néanmoins, d'espérer identifier un seul système responsable de la conscience, ou un seul
principe du traitement de l'information que l'on pourrait estimer comme central pour la
formation de l'expérience subjective. C'est que, d'une part, la recherche des corrélats
neuraux de la conscience n'est pas entièrement exempte de difficultés épistémologiques
(voir Cleeremans & Haynes, 1999, pour une discussion), mais aussi, d'autre part, qu'elle
ne dispense pas de la nécessité de penser la forme que pourraient prendre d'éventuelles
explications causales des mécanismes de la conscience.
Cleeremans: Unité de la conscience
10
4. Les corrélats computationnels de la conscience
En effet, exactement de la même manière que l'on peut s'interroger sur les différences qui
existent entre états neuraux accompagnés ou pas de conscience, on peut également se
poser la question de savoir quelles pourraient être les différences entre états
computationnels accompagnés ou pas de conscience. C'est ici que la recherche en
intelligence artificielle vient utilement compléter les protocoles expérimentaux des
chercheurs en neurosciences cognitives.
Mes collaborateurs et moi-même avons récemment (Atkinson, Thomas & Cleeremans,
2000) proposé d'organiser différentes théories computationnelles de la conscience en
fonction de deux dimensions. Une première dimension oppose des modèles qui supposent
que la conscience dépend de propriétés des représentations impliquées dans le traitement
de l'information à des modèles qui supposent que la conscience dépend de processus
particuliers de traitement de l'information. La deuxième dimension oppose des modèles
qui supposent que la conscience dépend de systèmes spécifiques dans le cerveau à des
modèles qui supposent au contraire que la conscience est un phénomène émergent qui ne
dépend pas de l'implication de modules spécialisés. En combinant ces deux dimensions
on peut donc diviser l'espace conceptuel dans lequel s'incrivent les nombreuses théories
contemporaines de la conscience en quatre quadrants. Par exemple, certaines théories
partent de l'hypothèse que nous sommes conscients de toute représentation stable dans le
cerveau (par exemple, O'Brien & Opie, 1999). De telles théories postulent donc que la
conscience dépend de propriétés des représentations (ici, la stabilité) plutôt que de
processus particuliers, et que l'émergence de telles représentations ne dépendent pas de
l'implication de modules spécialisés pour la conscience. Par contraste, d'autres modèles
attribuent un rôle central à l'existence de systèmes spécialisés, comme par exemple la
mémoire à court terme, ou le "global workspace", sorte de théâtre intérieur, imaginé par
Bernard Baars (1988). Certains autres modèles font jouer un rôle central à certains types
de processus, mais sans pour autant localiser ceux-ci dans des régions particulières du
cerveau. Tononi et Edelman (1998), par exemple, supposent que la conscience dépend
Cleeremans: Unité de la conscience
11
des interactions entre différents groupes neuraux dont l'activité synchrone est intégrée de
manière différenciée par rapport à l'activité d'autres groupes.
Force est de constater néanmoins que quand il s'agit de la conscience phénoménale,
l'intelligence artificielle demeure incapable d'offrir une réponse convaincante à la
question de Chalmers. Quels sont les corrélats computationnels de la conscience? A partir
de quel moment sera-t-on prêt à attribuer une forme de conscience à un artefact? Si à
l'heure actuelle, aucun modèle ne peut espérer fournir une explication de pourquoi le
traitement de l'information nous fait quelque chose, il semble néanmoins clair que la
compréhension des aspects les plus subjectifs de notre expérience ne peut que bénéficier
de la formalisation de nos théories. C'est ainsi que l'on peut par exemple explorer les
conséquences fonctionnelles de l'hypothèse que les représentations conscientes sont des
représentations stables dans un réseau de neurones, et examiner dans quelle mesure un tel
réseau est capable de reproduire certains résultats expérimentaux dans le domaine de
l'amorçage (voir par exemple Mathis & Mozer, 1996).
5. L’unité fragmentée
Les différentes approches brièvement évoquées ci-dessus sont également pertinentes à
propos du problème spécifique de l’unité de la conscience. Ce dernier se pose à plusieurs
niveaux. A un premier niveau, le problème de l’unité de la conscience consiste
simplement à savoir comment le cerveau réalise l’intégration entre les informations
véhiculées par différentes modalités sensorielles, ou entre différents aspects d’un même
stimulus. Par exemple, on sait que la couleur et la forme des objets que nous percevons
sont traités par différentes régions de notre système visuel. Or quand nous percevons un
objet, nous ne percevons pas sa couleur et sa forme comme des expériences distinctes.
Les différentes propriétes de l’objet sont, au contraire, perçues comme unifiées, comme
se rapportant précisement à un seul et même objet. De nombreuses théories ont été
proposées pour comprendre ce que l’on pourrait appeler le problème de l’unité cognitive,
comme par exemple l’idée que le mécanisme central qui permet à notre cerveau de
réaliser cette unité cognitive est un processus de synchronie temporelle grâce auquel les
Cleeremans: Unité de la conscience
12
assemblées neuronales qui correspondent aux propriétés d’un même objet, par exemple,
sont actives simultanément, en rythme (voir par exemple Engel et Singer, 2001, pour une
revue de questions). D’autres auteurs ont plutôt mis l’emphase sur le fait que pour que la
synchronie soit efficace et puisse effectivement remplir sa fonction d’intégration, il faut
également que les différentes dimensions soient unifiées d’une manière stable dans le
temps, ce qui est rendu possible par l’existence de zones de convergence telle que
l’hippocampe.
Au delà de ce problème quasiment technique, en quelque sorte, de savoir comment se
réalise la nécessaire intégration entre l’activité de différentes régions du cerveau, se pose
également la question de savoir comment se réalise ce que l’on pourrait appeler l’unité
phénoménale, à savoir le fait que nos expériences conscientes ont un caractère unifié.
Existe-t-il des conditions dans lequel notre impression d’unité peut être détruite!? Est-il
possible de se trouver simultanément dans des états d’expérience conscients, mais
inconsistents entre eux!? Puis-je simultanément penser «!X!» et son contraire!? Certaines
expériences apportent des réponses troublantes à ces questions. On se rapellera
évidemment içi les observations bien connues de Sperry et Gazzaniga sur les «!patients
au cerveau divisé!», qui démontrent en tous cas que chaque hémisphère cérébral peut
traiter l’information de manière totalement indépendante de l’autre, et même souvent
d’une manière conflictuelle. On peut également évoquer dans ce contexte des pathologies
telle que certaines formes de schizophrénie dans lesquelles plusieurs personnalités
semblent coexister au sein d’un même cerveau.
De nombreuses expériences sur des sujets normaux, ainsi que certains états pathologiques
viennent également renforcer l’idée selon laquelle une représentation donnée n’est pas
nécessairement disponible de la même manière à différentes modalités d’action. Ces
démonstrations remettent dès lors directement en cause l’idée selon laquelle la conscience
est nécessairement unifiée, et suggèrent, par contraste, que notre expérience du monde
peut être fragmentée de diverses manières.
Cleeremans: Unité de la conscience
13
Par exemple, certains patients atteints d’agnosie visuelle sont capables d’exécuter
correctement les mouvements nécessaires pour insérer une enveloppe dans une fente
orientée arbitrairement tout en demeurant néanmoins incapables d’indiquer l’orientation
de la fente en traçant une ligne orientée dans la même direction. (Milner et Goodale,
1998). Cette expérience suggère donc l’existence d’une dissociation entre deux réseaux
de notre système visuel. Un premier réseau aurait pour fonction de rendre possible la
perception des objets et en particulier leur identification («!vision for perception!»), alors
que l’autre aurait pour fonction centrale de contrôler les actions que nous dirigeons vers
ces objets («!vision for action!»). L’existence de pathologies dans lesquelles ces deux
composantes de notre système visuel semblent fonctionner de manière dissociée suggère
donc que différentes régions de notre cerveau n’ont pas nécessairement accès aux même
informations, et que le traitement réalisé par chaque région peut s’exprimer de manière
différente dans le comportement.
De tels états de conscience partiellement unifiés peuvent également s’observer chez des
sujets normaux. Par exemple, dans une série d’expériences récente, Munakata et Yerys
(2001) ont exploré la capacité d’enfants de cinq ans d’effectuer une tâche de
classification dans une situation impliquant un conflit entre plusieurs dimensions. Les
sujets devaient classer des cartes sur lesquelles on avait dessiné des camions et des fleurs,
qui peuvent être rouges ou bleus. Dans une première phase de l’expérience, on demande
d’abord à l’enfant de trier les cartes selon la couleur. Il doit donc placer tous les items
rouges à droite et tous les bleues à gauche, tâche qu’il réussit sans difficulté. Dans une
deuxième phase de l’expérience, l’expérimentateur annonce que les règles ont changé!: Il
s’agit maintenant de trier les cartes non plus en fonction de la couleur des stimuli, mais
bien en fonction de leur forme!: Il faut donc placer les camions à gauche et les fleurs à
droite, en ignorant la couleur – on ne joue plus le jeu de la couleur, mais bien le jeu de la
forme. Cette fois, surprise!: Lorsqu’un camion bleu apparaît, l’enfant se trompe et le
classe à droite, comme s’il continuait à trier en fonction de la couleur. Ces erreurs se
répètent malgré le fait que l’expérimentateur re-explique la nouvelle règle à chaque essai.
Néanmoins, et ceci est le point crucial, si on pose à l’enfant la question «!Où faut-il
mettre les camions!?!», il répond correctement!et montre la gauche!! Dans cette situation,
Cleeremans: Unité de la conscience
14
il apparaît donc que l’enfant est conscient de la règle verbalement tout en demeurant
incapable de l’appliquer!! Il s’agit donc d’un exemple de conscience partielle ou
fragmentée, en tous cas d’un point de vue cognitif, dans la mesure où un contenu
particulier (la règle) semble n’être exprimable que via certaines modalités et pas d’autres.
Marcel (1993) a exploré une situation similaire avec des sujets adultes à qui on demandait
de détecter la présence ou l’absence d’un stimulus visuel de très faible luminance. Les
sujets pouvaient répondre en clignant de la paupière, en enfonçant une touche, ou
verbalement. Dans certaines conditions, les sujets devaient répondre d’une seule manière.
Dans d’autres conditions, ils devaient répondre en produisant les trois réponses
simultanément. En outre, on leur demandait soit de deviner, soit de répondre uniquement
quand ils étaient certains d’avoir perçu un stimulus. Les résultats de cette expérience ont
non seulement indiqué des différences dans la précision des trois modalités de réponses
(les clignements palpébraux étant plus précis que les réponses digitales, elles-mêmes plus
précises que les réponses verbales), mais également que des réponses différentes
pouvaient être produites dans chacune des trois modalités de réponse quand les sujets
devaient répondre dans les trois modalités simultanément. En d’autres mots, les sujets
indiquaient la présence d’un stimulus par un clignement de paupière alors même qu’ils
disaient ne rien percevoir via les réponses digitales et verbales!! Ces dissociations entre
modalités de réponse étaient beaucoup plus fréquentes dans les conditions où les sujets
devaient répondre uniquement quand ils étaient certains de leur expérience que dans les
conditions de devinement.
Une manière d’interpréter les résultats de ces expériences est de considérer que les
représentations que nous avons du monde ont un caractère gradué plutôt que binaire. La
conscience, dans cette perspective, serait elle aussi dès lors une dimension graduée. Par
exemple, one peut comprendre les résultats de l’expérience de Munakata en supposant
que les représentations que se font les enfants des stimuli sont encore fragiles, ou faibles.
Ces représentations seraient de qualité suffisante pour répondre correctement aux
questions concernant les consignes, mais elles ne serait pas suffisamment fortes pour leur
permettre de répondre aux stimuli conflictuels que constituent les cartes qu’il s’agit de
Cleeremans: Unité de la conscience
15
trier. Ces dernières présentent en effet toujours les deux dimensions —!forme et couleur!;
alors que les questions que l’on pose aux sujets ne mettent qu’une seule dimension en jeu.
Un raisonnement similiaire permet de comprendre les résultats des expériences de Marcel
(1983) décrité ci-dessus.
La question de savoir dans quelle mesure les sujets ont l’expérience subjective de se
trouver dans un état de conscience seulement partiellement unifié est plus problématique
et continue de susciter la polémique. D’une manière générale, les sujets ne semblent pas
être conscients du fait qu’ils fournissent des réponses incohérentes. L’unité (la cohérence)
semble donc être une propriété centrale des états conscients.
6. Data contre les Zombies
La question de l’unité de la conscience soulève également la question des rapports entre
cosncient et inconscient. Si toutes nos expériences apparaissent comme nécessairement
unifiées, en va-t-il de même concernant la capacité de représentations données à
influencer le comportement!? Autrement dit, l’unité phénoménale implique t-elle
nécessairement l’unité cognitive!? Les psychologues, après avoir longtemps écarté
purement et simplement la conscience du champ de l'explorable, se sont précisément
concentrés sur la question des rapports entre conscient et inconscient, et sur les problèmes
fort épineux que pose la mise en évidence de différences entre comportements
accompagnés de conscience et comportements inconscients. En caricaturant, on peut
distinguer deux positions théoriques extrêmes concernant la conscience en psychologie
cognitive, que j'appelle respectivement les théories "Zombie" et les théories "Data" (sur
base de l'androïde humaniforme que les amateurs de la série télévisée "Star Trek: The
Next Generation" ne manqueront pas de reconnaître).
D'une part, de nombreuses théories semblent partir du point de vue que le conscient et
l'inconscient sont enracinés dans deux systèmes distincts, mais de complexité
équivalente. L'inconscient, en quelque sorte, est structuré exactement comme le
conscient, mais sans la conscience. On retrouve ici les traces d'une interprétation
Cleeremans: Unité de la conscience
16
populaire de la perspective psychanalytique sur la vie mentale, laquelle semble parfois
supposer que nous sommes tous dotés d'une sorte de zombie inconscient (typiquement
néfaste ou en tous cas animé de nos désirs et angoisses les plus sombres) capable de
gouverner notre comportement à notre insu. La difficulté principale d'une telle conception
est précisément qu'elle présuppose que l'inconscient est structuré comme le conscient. En
d'autres termes, les représentations mentales ne changent ni dans leur forme, ni dans leur
capacité à influencer le comportement en fonction du fait qu'elles soient accessibles ou
non à la conscience. Dans une telle perspective, la conscience en tant que telle n'a donc
aucune fonction particulière. L'intelligence artificielle classique tombe exactement dans
le même travers quand elle nous propose des modèles du traitement de l'information qui
ne distinguent pas entre traitement conscient et inconscient. On suppose par exemple,
dans certains modèles tels que SOAR (Newell, 1990), que le problème que doit résoudre
mon cerveau quand il s'agit de déterminer comment déplacer mon bras pour atteindre une
cible donnée dans l'espace est exactement de la même nature que le problème que mon
cerveau doit résoudre quand il s'agit de déterminer quel est le meilleur mouvement à
réaliser dans une partie d'échecs. Il en est peut être ainsi, mais une telle perspective
ignore entièrement le fait que je suis conscient de la plupart des étapes du raisonnement
que je tiens quand je joue aux échecs, alors que je serais bien à mal d'expliquer comment
je parviens à exécuter avec précision un mouvement complexe sans aucun effort
conscient, et sans raisonnement d'aucun type que ce soit. C'est précisément cet abus de
"mentalisation", c'est-à-dire la tendance de décrire tout traitement cognitif comme faisant
appel à des processus complexes de raisonnement et d'interprétation, que dénonce le
philosophe américain John Searle dans son argument de la chambre chinoise et dans de
nombreux autres écrits critiques (voir par exemple Searle, 1992).
D'autres auteurs semblent avoir adopté une perspective inverse visant à éliminer d'emblée
la question de la conscience et de ses rapports avec l'inconscient. Pour ceux-là, tout
traitement de l'information est soit exclusivement neural (ou exclusivement biologique,
c.-à.d. du même type que les processus impliqués dans la digestion, par exemple), soit
conscient. L'inconscient en tant que lieu dans lequel prend place un traitement cognitif
inaccessible à la conscience n'a donc pas de place dans un tel système: La cognition est
Cleeremans: Unité de la conscience
17
au contraire fondamentalement transparente. C'est en ceci que de tels modèles
ressemblent un peu au système cognitif de Data, le robot humaniforme que l'on peut
découvrir dans la série télévisée "Star Trek: The Next Generation". En effet, Data semble
tout savoir de son propre fonctionnement, sauf dans de rares circonstances, qui sont
systématiquement décrites comme des dysfonctionnements. Ainsi, Data peut décrire avec
précision combien de neurones artificiels sont actifs à un moment donné dans son cerveau
positronique, vous indiquer exactement quelle est la pression qu'il doit exercer pour
ouvrir une porte bloquée, ou encore vous réciter sans hésiter n'importe quel poème de
Shakespeare. Outre cette vaste mémoire sémantique et procédurale, Data dispose
également d'une mémoire épisodique parfaite, et donc d'un accès instantané et sans failles
à l'ensemble des expériences qu'il a vécues. A l'exception centrale de la capacité
d'éprouver des émotions, Data se comporte donc, et se considère lui-même comme un
être humain — statut que ses protagonistes dans la série télévisée lui ont d'ailleurs
reconnu lors d'un épisode fort intéressant dans lequel un jury, confronté à une sorte de
test de Turing grandeur nature, devait décider si oui ou non Data était doté de libre
arbitre. Data est donc conscient, et même plus, exclusivement conscient. Aucun contenu
cognitif n'échappe à son introspection; l'inconscient, chez Data, n'existe pas. Il peut
paraître surprenant de trouver les échos de cette fiction dans la littérature scientifique,
mais c'est pourtant bien le cas pour de nombreux modèles, tant en intelligence artificielle
qu'en psychologie. Les premiers peuvent en effet être compris autant comme des modèles
de type "Zombie" que comme des modèles de type "Data", dans la mesure où la
conscience n'y joue simplement aucun rôle. Un même modèle peut ainsi fort bien être
décrit soit comme simulant les étapes conscientes d'un raisonnement, soit comme
simulant les processus inconscients impliqués, par exemple, dans la planification d'un
mouvement. En psychologie, bien qu'aucune théorie ne soit aussi caricaturale que les
paragraphes précédents, on retrouve néanmoins un certain nombre d'idées selon
lesquelles tout traitement cognitif s'accompagne nécessairement de conscience (par
exemple, Perruchet, Vinter & Gallego, 1997, O'Brien et Opie, 1999, ou encore Shanks &
StJohn, 1994). Ces modèles sont tous caractérisés par l'idée centrale que la notion de
représentation inconsciente n'existe pas. Nonobstant les difficultés méthodologiques
réelles que pose la question de savoir comment déterminer si une représentation est
Cleeremans: Unité de la conscience
18
consciente ou pas, une telle position théorique semble difficilement défendable en
principe.
Comme c'est le cas pour les théories de type "Zombie", le problème conceptuel central
auquel sont confrontées de tels modèles (outre leur caractère implausible à priori) est
celui d'attribuer une fonction à la conscience. Si tout traitement cognitif s'accompagne de
conscience, cette dernière n'a donc pas plus de fonction ici que dans les théories de type
"Zombie". Cette question de la fonction de la conscience est une question à laquelle je ne
répondrai pas dans cet chapitre, mais il semble clair que s'interroger sur le rôle de la
conscience dans la cognition constitue probablement une des meilleures manières
d'espérer pouvoir faire avancer les nombreux débats que sa nature suscite.
7. Conclusions
Revenons-en, en guise de conclusion, à l’expérience de Simons et Chabris concernant la
cécité au changement. L’expérience démontre que notre conscience du monde est
incomplète. En ce sens, elle illustre bien la conclusion qu’il n'existe pas nécessairement
de relation transparente entre expérience subjective, comportement, et état du monde. Le
caractère unifié de notre expérience peut être mis à mal dans diverses pathologies ou dans
les circonstances particulières d’une expérience en laboratoire. Nos actions peuvent être
incohérentes avec nos intentions. Notre cerveau peut «!en savoir plus!» que nous-mêmes.
On ne surprendra personne en disant que le système cognitif est extrêmement complexe
et analysable à plusieurs niveaux de description. La conscience doit dès lors, tout autant
que les processus cognitifs inconscients, être comprise comme un phénomène émergent
qui engage simultanément plusieurs niveaux de description. La conscience impliquerait,
dans cette perspective, un continuum doublé d'une dichotomie, de la même manière, en
quelque sorte, que des changements graduels et continus de la température d'une masse
d'eau s'accompagnent de changements d'état brutaux et dichotomiques en certains points
(la transition entre états solides, liquides, et gazeux de l'eau). La non-linéarité est une
caractéristique centrale de la conscience, mais cette propriété, qui existe à un certain
Cleeremans: Unité de la conscience
19
niveau de description (par exemple, mon expérience subjective), n'est pas pour autant
incompatible avec un continuum existant à un autre niveau de description (par exemple,
le nombre de neurones actifs dans une certaine région de mon cerveau). C'est donc
l'exploration des interactions entre ces différents niveaux de description qui apparaît
comme la voie de recherche la plus prometteuse.
Le renouveau d'intérêt suscité par la question de la conscience remet par ailleurs une fois
de plus les choses à leur place, dans la mesure ou penser le phénomène de la conscience
scientifiquement semble exiger que l'on réconcilie ce que l'on pourrait appeler les
approches "à la troisième personne" avec les approches "à la première personne", ou, en
d'autres termes, l'objectif et le subjectif. La question de l’unité de la conscience est au
centre de cette problématique, car il s’agit précisement de comprendre de quelle manière
et pourquoi nos expériences nous apparaissent subjectivement comme ayant un caractère
unifié alors que d’un point de vue objectif il est clair que le cerveau traite l’information
de manière modulaire.
Les approches nouvelles brièvement évoquées dans cet article trouvent actuellement leur
expression la plus convaincante sous la forme du programme de recherche consacré aux
corrélats neuraux de la conscience évoqué plus haut, dans la mesure ou l'on cherche
précisément à établir des rapports précis entre états subjectifs, états neuraux, et
comportement observable, comme dans la situation de rivalité binoculaire. On peut
espérer que l’exploration simultanée des principes, des corrélats comportementaux et des
corrélats neuraux du traitement de l’information permettra d’aller au delà de ce que
chaque approche considérée isolément serait capable de nous apporter. En ceci, la
recherche dans le domaine de ce qu’il est maintenant convenu d’appeler les
neurosciences cognitives computationnelles devrait bénéficier d’un mode de
fonctionnement typique de son objet d’étude (le système cognitif), à savoir la satisfaction
de contraintes multiples.
Apprécier la question de l’unité de la conscience semble donc exiger que l’on tende
également vers une unité dans nos démarches expérimentales et conceptuelles. En effet,
Cleeremans: Unité de la conscience
20
c’est en étendant le champ de la psychologie aux neurosciences et aux sciences de
l’artificiel — ou, mieux, en intégrant profondément les trois approches dans la
perspective des sciences cognitives. — que l’on peut espérer commencer à attaquer la
question de la conscience, que Dennett (1991) décrit correctement comme un mystère,
soit un problème auquel on ne sait pas encore comment penser.
Cleeremans: Unité de la conscience
21
Note
Axel Cleeremans est chercheur qualifié auprès du Fonds National de la Recherche
Scientifique (Belgique). Ce travail à bénéficié d’une bourse de l’Université!Libre de
Bruxelles en support au programme PAI P4/19, ainsi que d’une bourse de la Commission
Européenne (programme HPRN-CT-2000-00065).
Cleeremans: Unité de la conscience
22
References
Atkinson, A.P., Thomas, M.S.C., & Cleeremans, A. (2000). Consciousness: Mapping the
theoretical landscape. Trends in Cognitive Sciences, 4, 372-382.
Baars, B.J. (1988). A cognitive theory of consciousness. Cambridge: Cambridge
University Press.
Chalmers, D. J. (1996). The Conscious Mind. Oxford: Oxford University Press.
Chalmers, D. (2000). What is a neural correlate of consciousness? In T. Metzinger (Ed.),
Neural Correlates of Consciousness. Empirical and Conceptual Questions, 17-39.
Cambridge, MA: MIT Press.
Changeux, J.-P. (1983). L’homme Neuronal. Paris!: Fayard.
Cleeremans, A., Boyer, M. & Destrebecqz, A. (1998). Implicit learning: News from the
front. Trends in Cognitive Sciences,
Cleeremans, A. & Haynes, J.-D. (1999). Correlating consciousness: A view from
empirical science. Revue Internationale de Philosophie, 3, 387-420.
Dennett, D. C. (1991). Conciousness Explained. Allen Lane: Penguin Press.
Engel, A.K. & Singer, W. (2001). Temporal binding and the neural correlates of sensory
awareness, Trends in Cognitive Sciences, 5, 16-25.
Frith, C.D., Perry, R., & Lumer, E. (1999). The neural correlates of conscious experience:
An experimental framework. Trends in Cognitive Sciences, 3, 105-114.
Lumer, E.D., Friston, K.J. & Rees, G. (1998). Neural correlates of perceptual rivalry in
the human brain. Science, 280, 1930-1934.
Maguire, E.A., Gadian, D.G., Johnsrude, I.S., Good, C.D., Ashburner, J., Frackowiak,
R.S. & Frith, C.D. (2000). Navigation-related structural change in the hippocampi of
taxi drivers. Proceedings of the National Academy of Sciences of the U.S.A., 10.1073.
Marcel, A.J. (1983). Slippage in the unity of consciousness. In Gregory R. Bock and Joan
Marsh (Eds), Experimental and Theoretical Studies of Consciousness, 168-179.
Chichester!: John Wiley & Sons.
Cleeremans: Unité de la conscience
23
Mathis, W.D., & Mozer, M.C. (1996). Conscious and unconscious perception: A
computational theory. In Proceedings of the 18th Annual Conference of the Cognitive
Science Society, 324-328, Lawrence Erlbaum.
Milner, A. D., & Goodale, M. A. (1998). The visual brain in action. Oxford, England:
Oxford University Press.
Munakata, Y., Yerys, B.E. (2001). All together now!: When dissociations between
knowledge and action dissapear. Psychological Science, 12(4), 335-337.
Nagel, T. (1974). What is like to be a bat? Philosophical Review, 83, 435-450.
Newell, A. (1990). Unified Theories of Cognition. Cambridge: Harvard University Press.
O'Brien, G., & Opie, J. (1999). A connectionist theory of phenomenal experience.
Behavioral and Brain Sciences, 22, 127-196.
Perruchet, P., Vinter, A., & Gallego, J. (1997). Implicit learning shapes new conscious
percepts and representations. Psychonomic Bulletin & Review, 4, 43-48.
Prigogine, I. & Stengers, I. (1979). La Nouvelle Alliance, Paris: Gallimard.
Shanks, D.R., & St.John, M.F. (1994). Charasterics of dissociable learning systems.
Behavioral and Brain Sciences, 17, 367-395.
Searle, J. (1992). The rediscovery of the mind. Cambridge, MA: MIT Press.
Simons, D. J., & Chabris, C. F. (1999). Gorillas in our midst: sustained inattentional
blindness for dynamic events. Perception, 28, 1059-1094.
Simons, D. J., & Levin, D. T. (1997). Change Blindness. Trends in Cognitive Sciences, 1,
261-267.
Tononi, G., & Edelman, G.M. (1998). Consciousness and complexity. Science, 282,
1846-1851.
Weiskrantz, L. (1986). Blindsight: A case study and implications. Oxford: Oxford
University Press.