La grande histoire de l`intelligence artificielle Par Luc

Transcription

La grande histoire de l`intelligence artificielle Par Luc
La grande histoire de l’intelligence artificielle
Par Luc de Brabandere
Voitures sans conducteur testées ici et là, logiciels capables de lire les planches
de radiographie avec des diagnostics désormais plus fiables qu’un médecin
humain, applications détectant par l’analyse des données personnelles les
individus en cours de radicalisation ou susceptibles de commettre des actes
terroristes : l’intelligence artificielle progresse sur tous les fronts, et pas une
semaine ne s’écoule sans qu’arrive une annonce surprenante. Ce mouvement s’est
accéléré depuis l'apparition, en 2005, du deep learning, une approche de la
programmation inspirée des neurosciences. Le principe du deep learning est de
laisser les ordinateurs apprendre par eux-mêmes. Il a fait l'actualité en mars 2016
lors de la victoire d'une machine contre le champion de monde du jeu de GO, car
le logiciel AlphaGo s'est amélioré en imaginant et en jouant des millions de parties
contre lui-même. Plus personne ne conteste aujourd'hui que la puissance
croissante des machines combinée avec l'immensité du Big Data permet de faire
des choses qui nous dépassent complètement. Non seulement nous ne pouvons
pas traiter autant d’informations que le font les machines, mais bien souvent nous
ne sommes même plus capables de comprendre comment elles font ce qu’elles
font !
Du coup, l’inquiétude est de mise : garderons-nous toujours la maîtrise de ce que
l'ordinateur décidera ? Certains ne cachent plus leurs craintes, et non des
moindres ! Le fondateur de Microsoft Bill Gates, l’entrepreneur de Tesla Elon
Musk ou encore le physicien Stephen Hawking l'ont dit publiquement lors de
débats sur les nouveaux types d'armement. Ils craignent les erreurs de drônes
« intelligents » programmés pour prendre eux-mêmes la décision de tirer, ils ont
peur de robots devenus autonomes capables de tuer n'importe quel être vivant…
Même Google, que l'on a connu moins frileux, travaille sur un bouton d'arrêt
d'urgence des intelligences artificielles, « au cas où » ! Ce serait l'équivalent
numérique du bouton rouge qui équipe les machines outils pour débrancher tout
d'un coup sec en cas de perte de contrôle.
Mais comment en est-on arrivé là ? Je propose de remonter loin dans le temps
pour trouver les racines de l’intelligence artificielle. Cet exposé s’appuie sur une
carte (voir page XX), qui nous guidera dans un voyage de l’Antiquité à nos jours.
Un rêve très ancien
En effet, l'histoire de l'intelligence artificielle n'a pas commencé il y a 80 ans avec
la construction du premier ordinateur. Pour programmer ou simuler la pensée, il
faut la comprendre, la démonter, la décomposer. Pour coder un processus de
raisonnement, il faut d'abord pouvoir le décoder, et cette volonté d'analyse existait
déjà dans l'Antiquité. Les principes, lois et concepts qui aujourd'hui sous-tendent
l'informatique trouvent leur origine à une époque où les mathématiques et la
logique se sont développées chacune de leur côté autour de leur penseur
emblématique, respectivement Platon et Aristote.
Comme le laisse entrevoir la carte, l'histoire de l'informatique peut être décrite
comme le rêve de réunir ces deux branches cousines, mathématiques et logique
donc. Ce rêve a été formulé pour la première fois au XIIIe siècle par un certain
Raymond Lulle, un théologien et missionnaire majorquain, mais il est surtout
devenu celui de Gottfried Wilhelm Leibniz. Le philosophe allemand se demande
pourquoi ces deux disciplines évoluent en parallèle depuis l'Antiquité, alors que
toutes deux ambitionnent apparemment la même chose. Tant les mathématiciens
que les logiciens cherchent comment établir des vérités incontestables, ils luttent
contre les erreurs de raisonnement et veulent établir les lois d'une pensée correcte.
Cette volonté de réunir deux idées existantes pour en former une troisième est un
mécanisme fréquent en créativité. Le journaliste et essayiste hongrois Arthur
Koestler appelle ce choc – car ça l'est toujours - une bissociation, c’est-à-dire une
convergence subite, une association inédite de deux choses qui étaient bien
connues jusque-là, mais séparées. On sait aujourd'hui que le rêve de Leibniz ne se
réalisera jamais, que le vrai et le démontrable resteront toujours deux choses
distinctes – on verra plus tard pourquoi. Mais trois autres bissociations, certes
moins ambitieuses, ont réussi, se sont avérées très fécondes et elles structurent
notre histoire de l’intelligence artificielle : René Descartes a réconcilié l'algèbre
et la géométrie, le logicien britannique George Boole a combiné l'algèbre et le
syllogisme, et l'ingénieur américain du MIT Claude Shannon - né il y a
exactement 100 ans – a associé le calcul binaire avec les relais électroniques.
Présentée comme cela, l'histoire de l'informatique semble être un remake pour le
moins inattendu de "trois mariages et un enterrement"... Regardons cela plus en
détail.
Première convergence : la géométrie analytique
Au Moyen Âge des mathématiciens arabes arrivent en Occident. L'événement est
important car avec Al Khwarizmi, dont le nom est à l'origine du mot algorithme,
ils proposent une toute nouvelle manière de faire des mathématiques. Alors que
depuis les Egyptiens et Platon la géométrie était le paradigme dominant, les
Arabes expliquent les principes et les avantages de l'algèbre. Dans leurs bagages
conceptuels, ces mathématiciens amènent également le chiffre zéro. C'est difficile
à imaginer, mais les Romains ne l'avaient pas intégré dans leurs chiffres !
Comment faisaient-ils donc pour additionner XXXV et de XV ? Comment leur
expliquait-on que le résultat était L ? Mais ne nous dispersons pas.
Descartes réconcilia la géométrie et l'algèbre grâce à ses axes x et y, abscisse et
ordonnée, et la construction du repère dénommé sans surprise cartésien. Sa
géométrie algébrique fut rebaptisée géométrie analytique et sert toujours d'outil à
quiconque veut modéliser une courbe. Un cercle peut dorénavant soit être dessiné
soit être représenté par l'équation x²+y²=r², et l'un enrichit l'autre.
Descartes et sa passion des mathématiques a dans la foulée motivé quelques
génies à explorer des terres inconnues.
Citons pour commencer Blaise Pascal. S’il a eu de nombreuses vies, il nous
intéresse ici comme inventeur du calcul des probabilités. Pascal conteste en effet
l'existence de la cause finale d'Aristote, et admet de facto celle du hasard. Qui plus
est, il se met à vouloir le calculer, ce hasard ! Etant donné une cause, quelle est la
probabilité de l'effet ? Un peu plus tard, Thomas Bayes, un pasteur anglais
particulièrement curieux, décide de poser la question dans l'autre sens. Etant
donné un effet, se demanda-t-il, quelle est la probabilité de la cause?
Et Leibniz bien sûr, celui dont le grand rêve est le sujet de cet article. Bissocier
mathématiques et logique ? Le philosophe allemand était convaincu que c'était
possible. Lorsqu'au cours d'une discussion, un désaccord surgissait avec un
interlocuteur, Leibniz avait paraît-il l'habitude de dire « Et bien, calculons ! » Mais
Leibniz est au cœur de notre histoire pour au moins deux autres raisons. En même
temps que Newton avec qui il n'échangeait pourtant pas, il établit les bases du
calcul différentiel, c'est à dire des équations de l'infiniment petit. Il put enfin
démontrer qu'Achille finira toujours pas rattraper la tortue, quelle que soit l'avance
qu'il lui offre. Après 2000 ans, Zénon a trouvé plus fort que lui ! Leibniz
développa aussi une machine à calculer sur un principe de moulinette actionnée
par le bras humain. Un système d'engrenage permettait d’y reporter les chiffres
d'une colonne à l'autre. Sa technique a été utilisée dans toutes les calculatrices
mécaniques jusqu'au milieu du XXe siècle.
Deuxième convergence : l'algèbre binaire
Le mathématicien Leonhard Euler habitait Königsberg (aujourd'hui Kaliningrad).
La ville est organisée autour de deux îles reliées entre elles par sept ponts. Le
mathématicien essaya différentes promenades qui lui permettraient de passer une
et une seule fois sur chacun d'entre eux, mais toutes ses tentatives échouèrent. De
sa frustration est née son intérêt pour la topologie, la science des réseaux.
Euler n'était pas que mathématicien, il s'intéressait aussi à la logique et cela justifie
d'autant plus sa place dans la carte. Il mit au point une méthode graphique pour
résoudre le syllogisme, au moyen de cercles qui se chevauchent. Cette approche
est connue aujourd'hui sous le nom de diagramme de Venn, illustrant un fois de
plus la savoureuse loi de Stigler selon laquelle aucune trouvaille ne porte le nom
de son inventeur !
Kant habitait aussi Königsberg et c'est pour cela qu'on le voit sur la carte. Ce n'est
pas pour sa contribution à la logique ou aux mathématiques, des disciplines qu'il
ne considérait pas vraiment comme des chantiers utiles pour lui. N'a-t-il pas écrit :
« La logique d'Aristote est une science achevée » ? Avec humilité certes, mais
aussi avec un manque très étonnant de perspicacité pour un tel génie !
Georges Boole est au centre de la fresque et ce n'est pas un hasard non plus, car il
est à la charnière entre deux mondes. Il poussa le rêve de Leibniz le plus loin
possible et développa la numérotation binaire pour bissocier le syllogisme
d'Aristote et l'algèbre, autrement dit pour trouver les équations du raisonnement,
ce qui permettrait de vérifier une argumentation comme on démontre un
théorème.
L'idée de Boole était au départ assez simple. En arithmétique on parle d'addition
et de multiplication, en logique on parle de fonction ou et de fonction et. Pourquoi
ne pas essayer de combiner les deux approches? Si on considère deux ensembles
qui se recoupent, certains élément appartiennent à un seul des deux – c'est le OU
logique -, d'autres appartiennent aux deux – c'est le ET logique -. Si l'on prend par
exemple l'ensemble des objets en bois et l'ensemble des instruments de musique,
un bâton appartient uniquement au premier, une trompette uniquement au second
et un violon aux deux à la fois. Le ou logique ressemble à une addition car on
prend en considération la somme des deux ensembles, pourquoi se demande alors
Boole, la partie commune aux deux ne serait pas un peu l'équivalent d'une
multiplication ? Ses recherches le conduisirent à l'équation x²=x qui n'est vérifiée
que pour deux valeurs de x, respectivement 0 et 1. Le calcul binaire est ainsi né
100 avant l'informatique !
Pour la petite histoire (de l'informatique), Boole détecta deux fautes dans la
logique d'Aristote, et paradoxalement renforça ainsi son statut de référence
absolue.
Troisième convergence : la théorie de l'information
En 1931, un fusible saute. Kurt Gödel publie son théorème de l'incomplétude dans
lequel il prouve que ce qui est vrai et ce qui est démontrable sont deux choses
distinctes. C’est ce théorème qui permet d’affirmer que le rêve de Leibniz ne se
réalisera jamais. Bertrand Russell va profiter de l'onde de choc pour remettre à
plat toute la logique, et traiter au passage un problème dérangeant depuis plus de
2000 ans, celui du crétois Epiménide qui affirmait " Tous les crétois sont des
menteurs ". Disait-il vrai ?
Bertrand Russell est une époque à lui tout seul. Quand il est né il n'y avait pas
d'électricité à Londres, quand il est mort Neil Amstrong avait marché sur la lune
! L'aristocrate anglais était intellectuellement ambitieux et n'avait pas froid aux
yeux. A propos d'Aristote, il écrit simplement « La logique du syllogisme est
fausse de A à Z , et le peu qui n'est pas faux ne sert à rien. » Ce en quoi… il avait
raison. Il embarque alors son professeur Norbert Whitehead dans une longue
entreprise qu'il baptisa Principia Mathematica. Adieu la logique des propositions,
bienvenue à la logique des relations. Mais l'aventure ne sera pas une réussite
complète car le langage est logiquement défectueux comme le montrera Ludwig
Wittgenstein, son disciple, collègue et contradicteur de Cambridge.
Paradoxalement c'est plutôt Boole qui sortira de la logique antique par la grande
porte grâce à Claude Shannon, et à la troisième grande bissociation féconde qui
structure notre récit. Claude Shannon n'est pas très connu. Même les
professionnels de l'informatique ignorent souvent la contribution déterminante
qu'il a apportée à leur discipline. L'ingénieur américain qui partageait sa vie entre
le MIT et les laboratoires Bell décide en effet de combiner le système binaire avec
les premiers relais électroniques (à l'époque c'étaient des lampes !) pour
matérialiser les fonctions logiques et créer les premiers circuits du même nom.
Shannon a voulu posé les fondations d'une théorie de l'information. De même que
Sadi Carnot a théorisé la machine à vapeur dans une science appelée
« thermodynamique », Shannon a cherché les lois et les principes qui gouvernent
l'information. Et il a trouvé de surprenantes analogies ! Il a en effet cherché à
optimiser les transmissions télégraphiques, à trouver les codages les plus
efficaces, avec des succès indéniables. Surtout, Shannon a baptisé le nombre
binaire bit, contraction de binary digit, et l'a redéfini d'une toute nouvelle manière.
Alors que pour Boole c'était soit 0, soit 1, Shannon présente le bit comme étant
la plus petite information possible. Le résultat d'une expérience peut en effet être
considéré comme une information dont la valeur sera d'autant plus grande que la
probabilité d'un résultat précis de cette expérience est petite. Le jet d'une pièce de
monnaie en l'air est une expérience où seules deux issues sont possibles. Le
résultat que je communique est une information qui lève de l'incertitude, mais elle
tient en un bit, c'est soit pile, soit face. Si je jette un dé en l'air, six possibilités se
présentent et l'information du résultat sera donc déjà plus grande, car l'incertitude
levée l'est aussi.
Boîte noire et cygne noir
De manière simplifiée, la psychologie anglo-américaine du XXe siècle a vu se
succéder deux courants, qui apparaissent sur la carte, à droite et à gauche du fleuve
principal.
A droite, figurent les behavioristes, des psychologues convaincus qu'on peut
comprendre l'essentiel de l'être humain en analysant ses réactions à des
stimulations précises. C’est une approche de type « boîte noire » : on ne sait pas
ce que vous avez dans la tête, mais on regarde comment vous réagissez. Cette
approche a inspiré fortement Norbert Wiener quand il commença à étudier les
mécanismes de régulation et de pilotage. Dans une nouvelle discipline qu'il
baptisa en 1948 cybernétique, Wiener étudia en profondeur les possibilités
d'automatisation et il est le précurseur incontestable de ceux qui aujourd'hui rêvent
de robotique et d'homme artificiel.
Pendant la deuxième guerre mondiale, le behaviorisme cède petit à petit la place
à une nouvelle approche de l'être humain. Sous l'influence de la métaphore
informatique, les cognitivistes (à gauche), croient que la pensée peut se modéliser
et le raisonnement se décomposer en une succession d'étapes. Alan Turing a
certainement été inspiré par cette vue des choses. Elle l'a sans doute motivé pour
concevoir une machine virtuelle à laquelle il a donné son nom, et il est le premier
à avoir imaginé la possibilité d'une intelligence artificielle. Ce n'est évidemment
pas un hasard si, sur la carte, les cognitivistes se trouvent du côté de Platon et les
behavioristes du côté d'Aristote…
Critique de la raison automatique
Ces vingt dernières années l'histoire de l'informatique est entrée en ébullition,
mais tous les nouveaux développements continuent à se faire sur les épaules des
géants, comme disait Newton et comme le rappelle la vue d'ensemble proposée
ici. Ce qui se passe aujourd'hui s'inscrit dans une continuité conceptuelle initiée
dans l'Antiquité.
Résumons-nous : Platon a rendu possible l'idée de modélisation et Aristote a voulu
formaliser le raisonnement humain. Les arabes ont apporté le zéro, la pièce qui
manquait pour pouvoir écrire des équations que Descartes à son tour a permis de
représenter graphiquement grâce à son système d'axes. Leibniz a poussé l'analyse
de la pensée jusqu'à l'infiniment petit, en rêvant des lois mathématiques d'un
raisonnement parfait. Le rêve s'est évanoui mais, belle consolation, l'invention de
l'électricité a tout à coup rendu possible le traitement en machine de la logique
binaire de Boole. Les pionniers de l'informatique ont tous mené une réflexion
philosophique. Wiener vouait une grande admiration à Leibniz, Turing fut
influencé par Russell et s'est lié d'amitié avec Wittgenstein.
De quoi sera fait le futur de l'informatique? En août 2008, le magazine
technophile Wired annonçait que le Big Data entraînera « La fin de la Théorie » !
Adieu les modèles de Platon, adieu les causes d'Aristote ?
J'ai appris à être prudent ! Dans les années 80, j'étais ingénieur en
télécommunications et j'avais lu quasi tous les livres de prospective sur le sujet.
J'ai écrit à ce moment mon premier livre Les Infoducs en essayant de penser à
toutes les options : la possibilité de réseaux diffusés ou interactifs, à petit ou à
grand débit, analogiques ou digitaux. J'avais essayé de penser à tout et… j'ai raté
l'essentiel, c’est-à-dire l'avènement de la téléphonie sans fil. C'est ce qu'on appelle
aujourd'hui un cygne noir, un événement très improbable à très gros impact.
Le rêve de Leibniz ne se réalisera jamais. Au lieu de ça, allons-nous vers un
cauchemar ? Il y a des raisons de s'inquiéter. Dans la Silicon Valley, beaucoup de
conversations tournent autour d'une cinquième bissociation – la dernière ? -, celle
qui fusionnerait l'homme et la machine. Mais les discussions se font entre
ingénieurs et entrepreneurs, on y entend très peu de réflexion sociétale ou
politique, et encore moins de considération éthique ! Tout va de plus en plus vite,
mais finalement Internet est-il notre outil, ou sommes-nous l'outil d'Internet ? Qui
programme qui ? Qui donc va nous écrire la Critique de la Raison Automatique ?