L`informatique vue par un philosophe

Transcription

L`informatique vue par un philosophe
L’intelligence artificielle vue
par un philosophe
Denis Vernant
Un rêve de philosophe
Très tôt, les philosophes ont rêvé d’une automatisation, d’une mécanisation de la pensée et du raisonnement. Ainsi au xiiie siècle, le
franciscain Raymond Lulle, ayant disposé ses principaux concepts
sur des roues crantées, prétendait, par leur mouvement, déployer
leur combinaison en une métaphysique complète. Cet Ars Magna se
voulait moyen automatique de conversion des incroyants. Et chacun
connaît la machine à calculer de Pascal. Le dualisme cartésien s’opposa à de telles entreprises en soutenant que les idées, la conscience,
le raisonnement, et partant, le langage en sa capacité dialogique,
propres du Cogito humain, ne sauraient relever de dispositifs mécaniques, de constructions machiniques. Récusant l’intuitionnisme
cartésien, Leibniz affirma la possibilité d’une « pensée aveugle » symboliquement représentable et rationnellement démontrable. Il forma
alors le projet d’un Calculus ratiocinator enté sur une Lingua characteristica universalis. À l’aube du xxe siècle, l’avènement de la logique
formelle et symbolique de Frege et Russell fournit enfin le moyen
théorique de réaliser le projet leibnizien. Par la suite, la Machine universelle de Turing décrivit les modalités abstraites et théoriques de la
calculabilité et ouvrit l’ère de l’ordinateur comme traitement mécanique non de chiffres, mais de symboles d’application universelle. Cette
invention technique engendra une science nouvelle, l’informatique
fondamentale, et fit naître un nouveau champ de recherches : l’intelli-
315
Informatique et sciences cognitives : influences ou confluence ?
gence artificielle. Le rêve se réalisa progressivement, fournissant au
philosophe matière à réflexion tant en ce qui concerne les méthodes,
les objets que les conséquences sociétales de l’usage de ces étranges
machines.
Les méthodes
Simuler/émuler
En 70 ans d’existence, l’informatique fondamentale s’est stabilisée et
est devenue une science mature pouvant faire l’objet d’une réflexion
épistémologique au même titre que les mathématiques théoriques.
Mais son propos n’est pas uniquement le traitement de l’information,
l’édification d’une hiérarchie de langages-machines et l’élaboration
de programmes, qu’ils soient procéduraux ou déclaratifs. Sa spécificité réside dans sa dimension phénoméno-technique par laquelle
langages et programmes sont portés et mis en œuvre par des machines. La calculabilité algorithmique se réalise dans des automatismes
machiniques, les procédures de preuve dans des programmes (cf. au
plan théorique la Thèse Church-Turing et la Correspondance CurryHoward). De même façon, il ne s’agit pas seulement de représenter
des connaissances et de raisonner sur elles, mais de modéliser des
comportements et de les « implémenter » en machine. Dès lors, se
pose la question épistémologiquement délicate de cette fameuse
« modélisation » informatique. Étourdis par les premiers succès en
I.A., certains en sont vite arrivés à se donner pour objectif une véritable simulation des phénomènes de cognition humaine. Il s’agissait
de reproduire artificiellement les processus mêmes par lesquels l’humain est censé produire des comportements supérieurs tels le raisonnement, le langage, la vision, la reconnaissance de visages, etc.
Tout bien considéré, on est encore loin d’avoir atteint cet objectif
ambitieux, et il convient sans doute de revenir au projet initial d’une
simple émulation des comportements visés. Dans son fameux (et trop
peu étudié précisément) Test d’intelligence, Turing donnait pour
316
Chapitre 12
objectif à sa machine d’avoir un comportement dialogique semblable
d’un point de vue comportemental à celui d’un humain et non point d’y
parvenir par des procédures semblables (ce qui était à l’époque
impensable). On a là un premier sujet méthodologique de
réflexion.
La valse des paradigmes
Nées de la logique, l’informatique théorique et l’intelligence artificielle
se sont développées dans ce qu’il est convenu d’appeler le « paradigme
cognitiviste » dont les présupposés théoriques remontent à Leibniz.
Penser, c’est manier des « caractères », des symboles, et raisonner, c’est
déduire logiquement. Cette approche assura sans aucun doute les
premiers succès de l’informatique naissante (à commencer par le
décryptage de la machine nazie Enigma). Les ambitions s’affirmant,
les outils s’affinant, se produisit un phénomène de complexification qui
conduisit à l’adoption d’un nouveau paradigme, dit connexionniste,
lequel permit un élargissement de l’analyse par la prise en compte de
processus subsymboliques donnant naissance à une conception plus
large de la pensée en termes de procédures actionnelles. Cette nouvelle étape, qui dans le champ de l’I.A. revenait à entériner le passage
du paradigme représentationnel à celui actionnel, eut aussi ses succès,
notamment en matière de perception, de mémorisation et d’apprentissage. Pour autant, il ne faudrait pas croire que tout est résolu. Le
cerveau (pour ne rien dire de l’« esprit ») n’est pas plus réductible à un
« réseau de neurones » qu’à un « central téléphonique » composé de
circuits électriques modélisables comme combinaisons de portes logiques, tel qu’on se le représentait au milieu du siècle précédent. Là
comme ailleurs, une connaissance de l’histoire de la discipline enseigne modestie et circonspection. Une mise en perspective s’avère toujours salutaire pour ne pas être victime de l’efflorescence des
métaphores, « modèles » et « paradigmes ».
317
Informatique et sciences cognitives : influences ou confluence ?
Les objets
À la complexification de modes d’approche répondit la complexité
des objets. Dès lors qu’on se donnait effectivement pour objet l’« intelligence » humaine, étaient en jeu les deux dimensions fondamentales
de cet être de logos : ses capacités rationnelle et discursive. Alors s’imposa comme une nécessité irrémissible un traitement pluridisciplinaire. De multiples, d’abord difficiles, puis féconds croisements
disciplinaires s’opérèrent donnant naissance au phénomène des dites
« sciences cognitives ».
Le philosophe qui fit l’effort de participer à cette entreprise collective en retira de riches enseignements en ce que ses hypothèses théoriques ne pouvaient être validées qu’à être formalisées, implémentées
et évaluées pratiquement. L’approche informatique prenait ainsi
valeur de test expérimental. L’analyse des notions traditionnelles de
la philosophie (raisonnement, conscience, intentionnalité, action,
perception, etc.) s’en trouvait renouvelée. Pour préciser quelque peu
l’apport de l’I.A. en la matière, revenons succinctement sur l’exemple
paradigmatique de la capacité dialogique de la machine, si chère à
Turing.
Dès les années 1970 se posa clairement la question technique de
l’interface homme-machine. Procédant initialement en Magicien d’Oz,
on recueillit des corpora de pseudo-dialogues de l’utilisateur avec la
machine. Il fallut alors les analyser. Il s’avéra rapidement qu’un traitement morphologique, syntaxique et sémantique était insuffisant et
qu’il fallait leur adjoindre une analyse pragmatique en termes d’actes
de discours. En recourant aux outils fournis par les philosophes du
langage ordinaire, on s’aperçut vite qu’ils étaient inopérants. Ceci
nous conduisit à les modifier et, par exemple, proposer une classification des actes de discours qui notamment faisait place aux métadiscursifs indispensables pour assurer la régulation de tout échange
langagier, si fruste soit-il.
Plus fondamentalement encore, fut mise en cause l’approche idéaliste adoptée par nombre de philosophes du dialogue et de la communication qui s’ingéniaient à assurer l’autonomie du dialogue idéal,
irénique, en séparant l’agir purement communicationnel de sa conta-
318
Chapitre 12
gion par de vils intérêts stratégiques. Or, en informatique, il ne s’agit
pas de disserter du sexe des anges, de l’art pour l’art, de discourir
entre êtres purement rationnels sur les valeurs morales, mais de réaliser une tâche qui initialement se présenta sous les formes les plus
prosaïques (consultation de bases de données, réservation sncf, etc.).
La prise en compte de ces « dialogues orientés par la tâche » produisit
une salutaire réorientation qui conduisit à découvrir le caractère foncièrement hétéronome du dialogue conçu comme interaction langagière dont la finalité et le sens résident dans les transactions
intersubjectives et intramondaines qu’il autorise.
Outre cette réorientation anti-idéaliste, s’imposa l’adjonction d’une
dimension proprement praxéologique de l’analyse pour précisément
rendre compte de l’efficacité du déroulement du dialogue sur la réalisation de la tâche assignée à la machine. Le traitement dialogique
conçu comme activité conjointe devait dès lors être couplé avec le
développement de la planification des actions pour réaliser la tâche
visée.
À la faveur de l’essor des télécommunications, on passa ensuite
progressivement de l’interface machinique au « dialogue personnesystème ». Via notamment Internet et les systèmes collaboratifs, l’utilisateur se trouvait pris dans un réseau complexe d’échanges. C’est
alors la dimension sociale, coopérative et distribuée, des actes communicationnels qui se trouva privilégiée.
De même, le développement de la robotique, l’apparition de véritables « créatures » informatiques, ne fit que renforcer la dimension
praxéologique des phénomènes étudiés, reposant sous un jour nouveau les antiques questions de l’intentionnalité, de la conscience et
de l’action sur le monde considéré. On était désormais loin de la
supposée « expérience de la chambre chinoise » de Searle qui prétendait qu’un ordinateur ne manipulait, de façon purement syntaxique,
que des symboles vides de sens. Si cela avait pu être le cas des ordinateurs de bureau, cela ne valait plus pour les systèmes robotiques
capables d’une intentionnalité sémantique leur permettant de s’orienter dans leur monde, comme d’ailleurs d’une intentionnalité pragmatique gouvernant leurs actions selon des fins et des buts
déterminés. Il ne s’agissait alors plus de partir d’une perspective
319
Informatique et sciences cognitives : influences ou confluence ?
représentationnelle et subjectiviste « à la Husserl », mais de repenser
les questions de sens et de finalité en termes actionnels d’emprise
effective du système sur son environnement. De plus, les récents
développements des avatars et autres agents communicants animés
(ACA) font surgir une gerbe nouvelle de questions relatives à l’incarnation de l’action et au rôle de l’affectivité.
On le voit, le processus de complexification des objets produit une
salutaire réorientation et un approfondissement du questionnement
philosophique.
Les conséquences sociétales
Enfin, considérant le devenir récent des recherches informatiques,
le philosophe ne peut pas ne pas s’interroger sur les conséquences
sociales, éthiques et politiques des artefacts et des pratiques que ces
derniers génèrent.
Au couplage des théories et des techniques que nous venons d’évoquer, il convient d’ajouter celui des pratiques. Les artefacts informatiques ont opéré une profonde transformation de nos comportements
et de nos activités (à commencer par la conduite de la guerre d’où
est né l’ordinateur Colossus de Turing). Les novations techniques que
sont l’usage de feu le Minitel, des micro-ordinateurs domestiques,
des DAB (Distributeurs automatiques de billets), du téléphone
mobile, d’Internet, des objets communicants, etc., ne sont pas sans
conséquences sociétales. Mais celles-ci sont encore relativement maîtrisables. En sera-t-il de même des technologies et des outils résultant
de la nouvelle Convergence nbic (Nano-bio-Info-Cognition) ?
L’ordinateur est né du couplage de la logique et de la physique, de
la mécanique et de l’électronique. Mais la convergence au niveau
nanométrique de l’informatique, de la physique quantique, de la biologie et des sciences de la cognition s’avère totalement inédite. Ainsi
n’y a-t-il pas de solution de continuité entre les ordinateurs individuels et les systèmes ubiquitaires de l’informatique quantique (dont
les premiers succès, une nouvelle fois, s’illustrent en cryptographie),
entre les puces des cartes de Moréno et les récentes nanopuces ? Ne
320
Chapitre 12
peut-on craindre que s’ouvre une nouvelle boîte de Pandore d’où
sortiront particules et objets nanométriques difficilement détectables ? Pour ne prendre que l’exemple des rfid (Radio Frequency
Identification Devices, nanopuces implantables dans des objets, animaux ou humains, qui, lisibles à distance, en assurent discrètement
la traçabilité), il semble qu’il y ait matière à s’interroger sur les modalités de leur utilisation sociale et de leur contrôle politique.
Références bibliographiques
Brooks R. 1991. « Intelligence without reason ». Artificial Intelligence:1-27.
Caelen J., Xuereb A. 2007. Interaction et pragmatique. Paris, Hermès Lavoisier.
Gardner M. 1958. Logic Machines and Diagrams. New-York.
Rossi P. 1993. Clavis universalis. Arts de la mémoire, logique combinatoire et langue
universelle de Lulle à Leibniz. traduction de P. Vighetti. Paris, PUF.
Turing A. 1950. « Computing machinery and intelligence ». Mind, LIX, 236,
in A. R. Anderson, 1964, Minds and Machine, Prentice-Hall, traduction
française de P. Blanchard, « Les ordinateurs et l’intelligence », Pensée et
Machine, Seyssel, Champ Vallon, Coll. Milieux, 1983 : 38-67.
Vernant D. 1997. « L’intelligence de la machine et sa capacité dialogique »,
chap. VII de Du Discours à l’action, Paris, PUF : 127-143.
Vernant D. 2003. « Communication interpersonnelle et communication
personnes/systèmes », chap. 3 de Communication entre personnes/systèmes
informationnels, B. Miège éd., Hermès : 73-102.
321
Informatique et sciences cognitives : influences ou confluence ?
322