La grande histoire de l`intelligence artificielle Par Luc
Transcription
La grande histoire de l`intelligence artificielle Par Luc
La grande histoire de l’intelligence artificielle Par Luc de Brabandere Voitures sans conducteur testées ici et là, logiciels capables de lire les planches de radiographie avec des diagnostics désormais plus fiables qu’un médecin humain, applications détectant par l’analyse des données personnelles les individus en cours de radicalisation ou susceptibles de commettre des actes terroristes : l’intelligence artificielle progresse sur tous les fronts, et pas une semaine ne s’écoule sans qu’arrive une annonce surprenante. Ce mouvement s’est accéléré depuis l'apparition, en 2005, du deep learning, une approche de la programmation inspirée des neurosciences. Le principe du deep learning est de laisser les ordinateurs apprendre par eux-mêmes. Il a fait l'actualité en mars 2016 lors de la victoire d'une machine contre le champion de monde du jeu de GO, car le logiciel AlphaGo s'est amélioré en imaginant et en jouant des millions de parties contre lui-même. Plus personne ne conteste aujourd'hui que la puissance croissante des machines combinée avec l'immensité du Big Data permet de faire des choses qui nous dépassent complètement. Non seulement nous ne pouvons pas traiter autant d’informations que le font les machines, mais bien souvent nous ne sommes même plus capables de comprendre comment elles font ce qu’elles font ! Du coup, l’inquiétude est de mise : garderons-nous toujours la maîtrise de ce que l'ordinateur décidera ? Certains ne cachent plus leurs craintes, et non des moindres ! Le fondateur de Microsoft Bill Gates, l’entrepreneur de Tesla Elon Musk ou encore le physicien Stephen Hawking l'ont dit publiquement lors de débats sur les nouveaux types d'armement. Ils craignent les erreurs de drônes « intelligents » programmés pour prendre eux-mêmes la décision de tirer, ils ont peur de robots devenus autonomes capables de tuer n'importe quel être vivant… Même Google, que l'on a connu moins frileux, travaille sur un bouton d'arrêt d'urgence des intelligences artificielles, « au cas où » ! Ce serait l'équivalent numérique du bouton rouge qui équipe les machines outils pour débrancher tout d'un coup sec en cas de perte de contrôle. Mais comment en est-on arrivé là ? Je propose de remonter loin dans le temps pour trouver les racines de l’intelligence artificielle. Cet exposé s’appuie sur une carte (voir page XX), qui nous guidera dans un voyage de l’Antiquité à nos jours. Un rêve très ancien En effet, l'histoire de l'intelligence artificielle n'a pas commencé il y a 80 ans avec la construction du premier ordinateur. Pour programmer ou simuler la pensée, il faut la comprendre, la démonter, la décomposer. Pour coder un processus de raisonnement, il faut d'abord pouvoir le décoder, et cette volonté d'analyse existait déjà dans l'Antiquité. Les principes, lois et concepts qui aujourd'hui sous-tendent l'informatique trouvent leur origine à une époque où les mathématiques et la logique se sont développées chacune de leur côté autour de leur penseur emblématique, respectivement Platon et Aristote. Comme le laisse entrevoir la carte, l'histoire de l'informatique peut être décrite comme le rêve de réunir ces deux branches cousines, mathématiques et logique donc. Ce rêve a été formulé pour la première fois au XIIIe siècle par un certain Raymond Lulle, un théologien et missionnaire majorquain, mais il est surtout devenu celui de Gottfried Wilhelm Leibniz. Le philosophe allemand se demande pourquoi ces deux disciplines évoluent en parallèle depuis l'Antiquité, alors que toutes deux ambitionnent apparemment la même chose. Tant les mathématiciens que les logiciens cherchent comment établir des vérités incontestables, ils luttent contre les erreurs de raisonnement et veulent établir les lois d'une pensée correcte. Cette volonté de réunir deux idées existantes pour en former une troisième est un mécanisme fréquent en créativité. Le journaliste et essayiste hongrois Arthur Koestler appelle ce choc – car ça l'est toujours - une bissociation, c’est-à-dire une convergence subite, une association inédite de deux choses qui étaient bien connues jusque-là, mais séparées. On sait aujourd'hui que le rêve de Leibniz ne se réalisera jamais, que le vrai et le démontrable resteront toujours deux choses distinctes – on verra plus tard pourquoi. Mais trois autres bissociations, certes moins ambitieuses, ont réussi, se sont avérées très fécondes et elles structurent notre histoire de l’intelligence artificielle : René Descartes a réconcilié l'algèbre et la géométrie, le logicien britannique George Boole a combiné l'algèbre et le syllogisme, et l'ingénieur américain du MIT Claude Shannon - né il y a exactement 100 ans – a associé le calcul binaire avec les relais électroniques. Présentée comme cela, l'histoire de l'informatique semble être un remake pour le moins inattendu de "trois mariages et un enterrement"... Regardons cela plus en détail. Première convergence : la géométrie analytique Au Moyen Âge des mathématiciens arabes arrivent en Occident. L'événement est important car avec Al Khwarizmi, dont le nom est à l'origine du mot algorithme, ils proposent une toute nouvelle manière de faire des mathématiques. Alors que depuis les Egyptiens et Platon la géométrie était le paradigme dominant, les Arabes expliquent les principes et les avantages de l'algèbre. Dans leurs bagages conceptuels, ces mathématiciens amènent également le chiffre zéro. C'est difficile à imaginer, mais les Romains ne l'avaient pas intégré dans leurs chiffres ! Comment faisaient-ils donc pour additionner XXXV et de XV ? Comment leur expliquait-on que le résultat était L ? Mais ne nous dispersons pas. Descartes réconcilia la géométrie et l'algèbre grâce à ses axes x et y, abscisse et ordonnée, et la construction du repère dénommé sans surprise cartésien. Sa géométrie algébrique fut rebaptisée géométrie analytique et sert toujours d'outil à quiconque veut modéliser une courbe. Un cercle peut dorénavant soit être dessiné soit être représenté par l'équation x²+y²=r², et l'un enrichit l'autre. Descartes et sa passion des mathématiques a dans la foulée motivé quelques génies à explorer des terres inconnues. Citons pour commencer Blaise Pascal. S’il a eu de nombreuses vies, il nous intéresse ici comme inventeur du calcul des probabilités. Pascal conteste en effet l'existence de la cause finale d'Aristote, et admet de facto celle du hasard. Qui plus est, il se met à vouloir le calculer, ce hasard ! Etant donné une cause, quelle est la probabilité de l'effet ? Un peu plus tard, Thomas Bayes, un pasteur anglais particulièrement curieux, décide de poser la question dans l'autre sens. Etant donné un effet, se demanda-t-il, quelle est la probabilité de la cause? Et Leibniz bien sûr, celui dont le grand rêve est le sujet de cet article. Bissocier mathématiques et logique ? Le philosophe allemand était convaincu que c'était possible. Lorsqu'au cours d'une discussion, un désaccord surgissait avec un interlocuteur, Leibniz avait paraît-il l'habitude de dire « Et bien, calculons ! » Mais Leibniz est au cœur de notre histoire pour au moins deux autres raisons. En même temps que Newton avec qui il n'échangeait pourtant pas, il établit les bases du calcul différentiel, c'est à dire des équations de l'infiniment petit. Il put enfin démontrer qu'Achille finira toujours pas rattraper la tortue, quelle que soit l'avance qu'il lui offre. Après 2000 ans, Zénon a trouvé plus fort que lui ! Leibniz développa aussi une machine à calculer sur un principe de moulinette actionnée par le bras humain. Un système d'engrenage permettait d’y reporter les chiffres d'une colonne à l'autre. Sa technique a été utilisée dans toutes les calculatrices mécaniques jusqu'au milieu du XXe siècle. Deuxième convergence : l'algèbre binaire Le mathématicien Leonhard Euler habitait Königsberg (aujourd'hui Kaliningrad). La ville est organisée autour de deux îles reliées entre elles par sept ponts. Le mathématicien essaya différentes promenades qui lui permettraient de passer une et une seule fois sur chacun d'entre eux, mais toutes ses tentatives échouèrent. De sa frustration est née son intérêt pour la topologie, la science des réseaux. Euler n'était pas que mathématicien, il s'intéressait aussi à la logique et cela justifie d'autant plus sa place dans la carte. Il mit au point une méthode graphique pour résoudre le syllogisme, au moyen de cercles qui se chevauchent. Cette approche est connue aujourd'hui sous le nom de diagramme de Venn, illustrant un fois de plus la savoureuse loi de Stigler selon laquelle aucune trouvaille ne porte le nom de son inventeur ! Kant habitait aussi Königsberg et c'est pour cela qu'on le voit sur la carte. Ce n'est pas pour sa contribution à la logique ou aux mathématiques, des disciplines qu'il ne considérait pas vraiment comme des chantiers utiles pour lui. N'a-t-il pas écrit : « La logique d'Aristote est une science achevée » ? Avec humilité certes, mais aussi avec un manque très étonnant de perspicacité pour un tel génie ! Georges Boole est au centre de la fresque et ce n'est pas un hasard non plus, car il est à la charnière entre deux mondes. Il poussa le rêve de Leibniz le plus loin possible et développa la numérotation binaire pour bissocier le syllogisme d'Aristote et l'algèbre, autrement dit pour trouver les équations du raisonnement, ce qui permettrait de vérifier une argumentation comme on démontre un théorème. L'idée de Boole était au départ assez simple. En arithmétique on parle d'addition et de multiplication, en logique on parle de fonction ou et de fonction et. Pourquoi ne pas essayer de combiner les deux approches? Si on considère deux ensembles qui se recoupent, certains élément appartiennent à un seul des deux – c'est le OU logique -, d'autres appartiennent aux deux – c'est le ET logique -. Si l'on prend par exemple l'ensemble des objets en bois et l'ensemble des instruments de musique, un bâton appartient uniquement au premier, une trompette uniquement au second et un violon aux deux à la fois. Le ou logique ressemble à une addition car on prend en considération la somme des deux ensembles, pourquoi se demande alors Boole, la partie commune aux deux ne serait pas un peu l'équivalent d'une multiplication ? Ses recherches le conduisirent à l'équation x²=x qui n'est vérifiée que pour deux valeurs de x, respectivement 0 et 1. Le calcul binaire est ainsi né 100 avant l'informatique ! Pour la petite histoire (de l'informatique), Boole détecta deux fautes dans la logique d'Aristote, et paradoxalement renforça ainsi son statut de référence absolue. Troisième convergence : la théorie de l'information En 1931, un fusible saute. Kurt Gödel publie son théorème de l'incomplétude dans lequel il prouve que ce qui est vrai et ce qui est démontrable sont deux choses distinctes. C’est ce théorème qui permet d’affirmer que le rêve de Leibniz ne se réalisera jamais. Bertrand Russell va profiter de l'onde de choc pour remettre à plat toute la logique, et traiter au passage un problème dérangeant depuis plus de 2000 ans, celui du crétois Epiménide qui affirmait " Tous les crétois sont des menteurs ". Disait-il vrai ? Bertrand Russell est une époque à lui tout seul. Quand il est né il n'y avait pas d'électricité à Londres, quand il est mort Neil Amstrong avait marché sur la lune ! L'aristocrate anglais était intellectuellement ambitieux et n'avait pas froid aux yeux. A propos d'Aristote, il écrit simplement « La logique du syllogisme est fausse de A à Z , et le peu qui n'est pas faux ne sert à rien. » Ce en quoi… il avait raison. Il embarque alors son professeur Norbert Whitehead dans une longue entreprise qu'il baptisa Principia Mathematica. Adieu la logique des propositions, bienvenue à la logique des relations. Mais l'aventure ne sera pas une réussite complète car le langage est logiquement défectueux comme le montrera Ludwig Wittgenstein, son disciple, collègue et contradicteur de Cambridge. Paradoxalement c'est plutôt Boole qui sortira de la logique antique par la grande porte grâce à Claude Shannon, et à la troisième grande bissociation féconde qui structure notre récit. Claude Shannon n'est pas très connu. Même les professionnels de l'informatique ignorent souvent la contribution déterminante qu'il a apportée à leur discipline. L'ingénieur américain qui partageait sa vie entre le MIT et les laboratoires Bell décide en effet de combiner le système binaire avec les premiers relais électroniques (à l'époque c'étaient des lampes !) pour matérialiser les fonctions logiques et créer les premiers circuits du même nom. Shannon a voulu posé les fondations d'une théorie de l'information. De même que Sadi Carnot a théorisé la machine à vapeur dans une science appelée « thermodynamique », Shannon a cherché les lois et les principes qui gouvernent l'information. Et il a trouvé de surprenantes analogies ! Il a en effet cherché à optimiser les transmissions télégraphiques, à trouver les codages les plus efficaces, avec des succès indéniables. Surtout, Shannon a baptisé le nombre binaire bit, contraction de binary digit, et l'a redéfini d'une toute nouvelle manière. Alors que pour Boole c'était soit 0, soit 1, Shannon présente le bit comme étant la plus petite information possible. Le résultat d'une expérience peut en effet être considéré comme une information dont la valeur sera d'autant plus grande que la probabilité d'un résultat précis de cette expérience est petite. Le jet d'une pièce de monnaie en l'air est une expérience où seules deux issues sont possibles. Le résultat que je communique est une information qui lève de l'incertitude, mais elle tient en un bit, c'est soit pile, soit face. Si je jette un dé en l'air, six possibilités se présentent et l'information du résultat sera donc déjà plus grande, car l'incertitude levée l'est aussi. Boîte noire et cygne noir De manière simplifiée, la psychologie anglo-américaine du XXe siècle a vu se succéder deux courants, qui apparaissent sur la carte, à droite et à gauche du fleuve principal. A droite, figurent les behavioristes, des psychologues convaincus qu'on peut comprendre l'essentiel de l'être humain en analysant ses réactions à des stimulations précises. C’est une approche de type « boîte noire » : on ne sait pas ce que vous avez dans la tête, mais on regarde comment vous réagissez. Cette approche a inspiré fortement Norbert Wiener quand il commença à étudier les mécanismes de régulation et de pilotage. Dans une nouvelle discipline qu'il baptisa en 1948 cybernétique, Wiener étudia en profondeur les possibilités d'automatisation et il est le précurseur incontestable de ceux qui aujourd'hui rêvent de robotique et d'homme artificiel. Pendant la deuxième guerre mondiale, le behaviorisme cède petit à petit la place à une nouvelle approche de l'être humain. Sous l'influence de la métaphore informatique, les cognitivistes (à gauche), croient que la pensée peut se modéliser et le raisonnement se décomposer en une succession d'étapes. Alan Turing a certainement été inspiré par cette vue des choses. Elle l'a sans doute motivé pour concevoir une machine virtuelle à laquelle il a donné son nom, et il est le premier à avoir imaginé la possibilité d'une intelligence artificielle. Ce n'est évidemment pas un hasard si, sur la carte, les cognitivistes se trouvent du côté de Platon et les behavioristes du côté d'Aristote… Critique de la raison automatique Ces vingt dernières années l'histoire de l'informatique est entrée en ébullition, mais tous les nouveaux développements continuent à se faire sur les épaules des géants, comme disait Newton et comme le rappelle la vue d'ensemble proposée ici. Ce qui se passe aujourd'hui s'inscrit dans une continuité conceptuelle initiée dans l'Antiquité. Résumons-nous : Platon a rendu possible l'idée de modélisation et Aristote a voulu formaliser le raisonnement humain. Les arabes ont apporté le zéro, la pièce qui manquait pour pouvoir écrire des équations que Descartes à son tour a permis de représenter graphiquement grâce à son système d'axes. Leibniz a poussé l'analyse de la pensée jusqu'à l'infiniment petit, en rêvant des lois mathématiques d'un raisonnement parfait. Le rêve s'est évanoui mais, belle consolation, l'invention de l'électricité a tout à coup rendu possible le traitement en machine de la logique binaire de Boole. Les pionniers de l'informatique ont tous mené une réflexion philosophique. Wiener vouait une grande admiration à Leibniz, Turing fut influencé par Russell et s'est lié d'amitié avec Wittgenstein. De quoi sera fait le futur de l'informatique? En août 2008, le magazine technophile Wired annonçait que le Big Data entraînera « La fin de la Théorie » ! Adieu les modèles de Platon, adieu les causes d'Aristote ? J'ai appris à être prudent ! Dans les années 80, j'étais ingénieur en télécommunications et j'avais lu quasi tous les livres de prospective sur le sujet. J'ai écrit à ce moment mon premier livre Les Infoducs en essayant de penser à toutes les options : la possibilité de réseaux diffusés ou interactifs, à petit ou à grand débit, analogiques ou digitaux. J'avais essayé de penser à tout et… j'ai raté l'essentiel, c’est-à-dire l'avènement de la téléphonie sans fil. C'est ce qu'on appelle aujourd'hui un cygne noir, un événement très improbable à très gros impact. Le rêve de Leibniz ne se réalisera jamais. Au lieu de ça, allons-nous vers un cauchemar ? Il y a des raisons de s'inquiéter. Dans la Silicon Valley, beaucoup de conversations tournent autour d'une cinquième bissociation – la dernière ? -, celle qui fusionnerait l'homme et la machine. Mais les discussions se font entre ingénieurs et entrepreneurs, on y entend très peu de réflexion sociétale ou politique, et encore moins de considération éthique ! Tout va de plus en plus vite, mais finalement Internet est-il notre outil, ou sommes-nous l'outil d'Internet ? Qui programme qui ? Qui donc va nous écrire la Critique de la Raison Automatique ?