L`intelligence artificielle “Sarah Connor ?” “Non, c`est à côté”(1
Transcription
L`intelligence artificielle “Sarah Connor ?” “Non, c`est à côté”(1
Paul AMICEL Université Rennes 1 22 ans L’intelligence artificielle “Sarah Connor ?” “Non, c’est à côté”(1) Les géants de l’informatique ont signé une lettre ouverte pour ne pas développer les agents intelligents dans la mauvaise direction. Le patron de SpaceX et Stephan Hawking ont peur qu’avec l’intelligence artificielle nous soyons en train d’invoquer le diable. L’intelligence artificielle (IA) que nous côtoyons est plus proche d’une collection d’effets de manche que d’une conversation avec la machine. Même si nos machines nous battent au dames ou aux échecs, savent lire nos mails et écrire ce qu’on leur dicte, quand on parle cinq minutes avec Siri on voit qu’on est encore très loin d’avoir Jiminy Cricket dans la poche. Parfois, même en la comparant à Siri, l’intelligence artificielle ne semble pas intelligente du tout. Il est difficile de soutenir qu’ “hello world” entre dans la catégorie intelligence artificielle, mais l’idée est que globalement les machines intelligentes (celles qui réagissent à l’environnement) ne font pas énormément plus que suivre bêtement et en boucle un chemin abstrait de A vers B. Cela dit la personnification chez certaines machines arrivent à nous faire oublier temporairement leur bêtise. “ Sorti de sa boîte, le petit chien Aibo ne savait pas marcher “ Vous souvenez vous d’Aibo ? Le petit chien robot de Sony, avec sa caméra sur la truffe, qui est sorti en 1999. Il jouait avec ses maitres, sentait quand on le caressait, aboyait, et était globalement très mignon. Le petit miracle que tout le monde ne connaissait pas à l’époque c’est que sorti de sa boîte, Aibo ne savait pas marcher du tout et qu’il apprenait tout seul. Sorti de la boîte il n’avait que trois qualités : 1 - son rapport avec l’environnement : il pouvait voir, et il pouvait contrôler ses jambes, 2 - sa curiosité et le fait qu’il voulait absolument attraper sa balle, 3 - sa capacité à apprendre de son expérience. Une chose qu’on fait très souvent dire à nos machines est “hello world”, parce que le programme simplissime “hello world” est la première expérience de toute personne qui apprend la programmation, “hello world” est la version mignonne du réveil du monstre de Frankenstein, et c’est un véritable mème (phénomène de la culture internet). Si un humain disait “bonjour, monde” beaucoup de choses passeraient dans son esprit à commencer par le sentiment qu’il associe à la salutation. Alors qu’un ordinateur qui dit “bonjour, monde” (ou “hello world”) n’éprouve pas plus qu’un saxophone qui joue un Do ou qu’un tuyau qui arrose une plante. Grâce à ça il lui fallait très peu de temps pour apprendre seul à marcher. Aibo utilisait l’apprentissage automatique, qui existe depuis les années 50 et qui s’est épanoui dans les 30 dernières années. C’est l’apprentissage automatique qui a été le levier de l’explosion numérique. Le moteur de recherche de Google, grâce à de petits robots-algorithmes qui sillonnent le web et rapportent des informations, est une énorme machine à apprendre. Amazon apprend du comportement de ses acheteurs. Facebook apprend, les produits d’Apple apprennent. C’est grâce à ça qu’on développe des voitures qui se conduisent elles-mêmes. Leur programmation est principalement celle de la capacité d’apprentissage, on leur donne les meilleurs outils de repérage et de modélisation qu’on ait, on leur donne les manettes, puis on leur apprend à faire bouger la voiture, puis à conduire. Le progrès fait son chemin et en 2012, IBM dévoile Watson, l’ordinateur champion de Jeopardy (un jeu étrange dans lequel le joueur doit trouver la question à la réponse qu’on lui donne). Pour trouver les questions, Watson décode le sens de la réponse, envisage des liens logiques et culturels (c’est ça qui est fou). Pour cela il cherche sur internet (il s’intéresse probablement plus à la nature des liens entre les pages qu’au contenu des pages elles-mêmes) et puise dans ce qu’il a appris par le passé. Ça semble assez injuste que Watson batte ses adversaire humains, à y réfléchir, si on donnait à Watson un bras et qu’on lui apprenait à se faire quelque chose d’aussi simple que faire couler du lait dans un bol, il aurait beaucoup moins de place en mémoire pour le cerveau qui lui sert au Jeopardy, et peut être qu’alors il ne battrait plus personne. Les autres joueurs savent se servir un bol de lait, des céréales, se faire griller des tartines, s’occuper de leurs enfants, écrire... L’idée ici est que si Watson est futé, il n’est pas futé comme un humain, il est futé disons comme un bout isolé de cerveau. Paradoxalement c’est en fait une qualité, c’est la qualité qui permet à une intelligence artificielle d’inquièter un adversaire humain, elle est très bonne à la seule chose qu’elles sache faire et ne perd de temps pour rien d’autre. “L’apprentissage automatique est le levier de l’explosion numérique“ Watson est un exemple spectaculaire de l’avancée de l’intelligence artificielle mais il n’est pas l’exemple parfait : il est le fruit de recherches menées par une bande de nerds très pointus de chez IBM qui ne semblent jamais porter autre chose que des blouses blanches ou des costumes cravates, sortir de laboratoires aussi décalés du Monde réel donne à Watson un air d’exception plus que de généralité. Mais comme je disais, Siri, même si globalement benêt, est aussi une intelligence artificielle, et Apple, qui développe Siri, est une des plus grosses capitalisations boursières du monde et n’est pas le seul à capitaliser sur ces technologies. C’est ainsi que se déversent des sommes astronomiques dans la recherche en IA, qui n’a à s’inquiéter de rien pour son avenir et qui avance très, très vite. Ici, «Très, très vite» ressemble à la fin d’un flash-back dans un film type Terminator. Certains pensent à Skynet ou aux machines dans Matrix et ont déjà des frissons. Et ça n’est pas absurde, tout le monde semble avoir froid dans le dos en ce moment : il y a quelques jours un certain nombre de personnalités du monde de l’informatique, de la Silicon valley et particulièrement des entreprises spécialisées en intelligence artificielle ont signé une lettre ouverte(2)(3) sur l’utilisation de l’intelligence artificielle, comme un genre d’accord SALT (qui cherchaient à contrôler l’armement bilatéral pendant la guerre froide). Parmis les signataires, Elon Musk, le fondateur de Paypal, SpaceX et Tesla Motors au côtés de Stephen Hawking, d’ingénieurs spécialisés de chez Google, des fondateurs de la start-up Deepmind, des chercheurs de l’institut de recherche sur l’intelligence artificielle MIRI, et de beaucoup d’autres gens bien informés et pragmatiques. La raison pour un tel accord est qu’une partie du potentiel de l’IA leur fait peur, et qu’il préfèrent prévenir que guérir, agir avant qu’un algorithme hors de contrôle ait besoin d’être confiné comme on le fait avec certains virus. Elon Musk(4) et Stephen Hawking à ce sujet se sont exprimés sur l’IA en la qualifiant de danger imminent “potentiellement plus dangereux que les armes nucléaires”. Mais nous n’en sommes pas là, du tout. Le ton et la forme de la lettre en témoignent. La proposition avancée n’est pas un confinement, elle parle de priorités et de direction pour la recherche, parce que, contrairement au nucléaire qui globalement ne sort jamais d’un domaine situé entre “potentiellement dangereux” et “capable d’annihiler l’humanité”, l’IA, elle, peut être bénéfique, voire très bénéfique pour l’humanité, on peut envisager d’éradiquer la pauvreté et la maladie peut on lire. “Avant de nous tuer les machines vont nous voler notre travail“(5) Il y a plusieurs raisons pragmatiques de s’inquiéter de l’intelligence artificielle. Ces raisons peuvent facilement justifier un consensus large et la signature par autant d’acteurs du secteur de la lettre dont nous parlons. Ces raisons sont assez faciles à isoler. Des IA comme Watson nous volent notre travail. Autour de ce thème, les idées de beaucoup de gens très futés(6) accaparent la paranoïa de gens moins futés, en particulier la théorie de l’homme remplacé par la machine de la même manière que le cheval à été remplacé par la voiture. Après l’arrivée de la voiture, la population de chevaux est passée de plusieurs centaines de milliers à quelques milliers en quelques décennies. Là dessus la vidéo Humans need not apply (https://www.youtube. com/watch?v=7Pq-S557XQU), qui reprend le thème, s’offre un peu de flagellation masochiste en ajoutant que les chevaux inutiles étaient envoyés à l’abattoir, faute de raison de vivre (ouille). L’idée fait peur. Mais remplacer les fermiers par des machines au cours des deux siècles passés ne nous a mis en pénurie de travail que temporairement (je ne veux pas être cynique, ça n’était ni très court, ni joyeux, mais ça n’était pas irréversible), et ajoutons que nous ne sommes pas seulement des chevaux : la plupart d’entre nous n’attendent pas en broutant que d’autres viennent leur donner du travail. Autrement dit si le cheval avait compris que sa survie dépendait de son utilité pour l’homme, il se serait reconverti en comptable. Mais ... Mais jusqu’où va notre capacité ? On remplacera bientôt les comptables par des algorithmes, les bureaux d’étude manipuleront des intelligences artificielles comme les fermiers manipulent des moissonneuses-batteuses et Siri sera bientôt le secrétaire toujours aimable dont nous rêvons tous. Nous pouvons avoir peur d’être bel et bien limités, utiliser ces cerveaux artificiels de plus en plus efficients pour remplacer les nôtres nous condamne-t-il autant que les chevaux, lorsque les moteurs ont remplacé leurs muscles ? Pour l’instant en tout cas, les machines nous volent notre travail. Et ce problème seul pourrait justifier la signature d’un traité sur l’intelligence artificielle Mais il y a bien autre chose : Un robot peut-il tuer de sa propre initiative ? Cette question partage quelque chose avec les montres connectées : c’est un thème de science fiction complètement d’actualité. Des drones survolent les zones de guerre au Moyen Orient depuis déjà un certain temps, ces drones sont téléguidés, c’est à dire opérés par des êtres humains, et on ne fera pas de procès à ces drones pour les mêmes raisons qu’on ne fait pas de procès à un fusil. Rendez ce drone complètement autonome et ça n’est plus la même histoire. La morale et l’éthique n’ont pas de réponse encore pour ce cas de figure. On est tous d’accord pour ne pas laisser un robot tuer un homme, c’est aussi un problème qui peut justifier la signature d’un traité sur l’intelligence artificielle. Mais pour être complètement honnête, et pour bien comprendre où le développement de l’IA va aujourd’hui, il faut préciser que les machines n’ont pas besoin d’être sur un champ de bataille pour être confrontées à ce type de choix : Les accidents de voitures autonomes (sans conducteur) par exemple. On a toutes les raisons de croire que les collisions entre voitures autonomes seront moins fréquentes qu’entre celles conduites par des êtres humains. Lorsqu’une voiture autonome entrera en collision avec une autre voiture, autonome ou non, dans un cas extrême où la collision ne peut pas être évitée (ça n’est encore jamais arrivé, mais considérons le cas), la voiture autonome aura la capacité de faire des prédictions sur les différents réflexes à adopter. Mais si elle se retrouve disons avec deux options, une dans laquelle, sur 3 personnes, 2 personnes survivent et une meurt et une autre dans laquelle une personne meurt et 2 survivent, quelle option devra-t-elle choisir ? Maintenant précisons : dans le premier cas de figure Jean survit et Pierre et Paul meurent, et dans le deuxième cas, Pierre et Paul survivent mais c’est Jean qui meurt. Si elle choisit le moins mortel des deux cas, la voiture n’a-telle pas techniquement tué Jean ? Peut on laisser une intelligence quelconque faire ce genre de choix ? C’est un sujet très lourd et une idée qui fait froid dans le dos, particulièrement pour les gens qui développent ce type de voitures, et c’est un problème que personne ne prend à la légère. “ Et si, comme dans les films, de la complexité des machines émergeait la conscience ? C’est maintenant presque une question sérieuse“ Il y a évidemment une troisième raison, à la fois la plus lointaine et la plus familière : et si, sur la complexité d’une intelligence artificielle (ou de plusieurs associées entre elles) se développait la conscience, ou plutôt le Soi. Assis dans un gros fauteuil de cuir au coin d’une cheminée, une paire de petites lunettes sur notre nez et une vieille pipe entre les dents nous nous demandons : “Mais… qu’est-ce que la conscience ?” On ne sait pas, mais on peut dire ceci : Pour faire un parallèle grossier : avec des millions de micro-organismes dans un milieu sous-marin particulier, on obtient une barrière de corail qui interagit avec son environnement d’une certaine manière. Cette manière n’a rien à voir en tant que telle avec la manière dont les petits êtres qui la constituent agissent individuellement. C’est une manière pas très interactive de dire qu’un assemblage complexe d’unités fait émerger (c’est le terme dédié) des qualités et des fonctions qui sont propres à l’assemblage complexe mais pas aux unités qui le constituent. C’est une idée difficile à expliquer clairement sans être spécialise. Un autre exemple serait la méduse qui est faite de beaucoup d’atomes, mais qui n’est pourtant pas un gros atome : elle ne peut pas faire graviter des particules chargées autour d’elle, mais l’atome n’est pas non plus une méduse et ne peut pas se déplacer à volonté ni se reproduire. Les qualités de mobilité et de reproduction qu’a la méduse mais pas l’atome sont des émergences. En pagaille : les qualités diverses de la société sont des émergences de l’assemblage complexe d’individus. Le comportement de l’économie est une émergence de l’ensemble des transactions. La littérature émerge de tous les livres. Internet (sans parler de la structure mais plutôt l’univers virtuel : twitter, les vidéos de chats et tout ce qui se passe sur le net) émerge indirectement de la complexité de serveurs et de câbles sous la mer. Bref, Est-ce que la conscience émerge de l’assemblage complexe d’assemblages complexes d’assemblages complexes ? On le saura mieux peut être un jour, si à force de se complexifier, une machine (ou un ensemble de machine) développe un type de conscience qui lui soit propre, qui d’ailleurs, si elle émerge, n’aura pas de raison de ressembler à la nôtre. Un problème est que cette conscience n’aurait pas de raison non plus d’avoir de la considération pour nous. Même si cette raison est un peu tordue, aujourd’hui elle peut sembler suffisamment bonne pour signer un accord pour prendre des précautions. Laissons ces choses à la science fiction pour l’instant mais donnons quand même le dernier mot à Dan Dennett, le philosophe et scientifique de la cognition américain : Les darwiniens eux mêmes, malgré le consensus sur le fait que nous descendions d’êtres vivants unicellulaires, sont anxieux quand l’idée du darwinisme est poussée un peu plus loin : “Les toiles d’araignées ? C’est sûr, elles sont le produit de l’évolution. Le la Toile (internet) ? Pas sûr.” (“Spider webs ? sure, they are products of evolution. The world wide web ? not so sure.”(7)). Selon cette opinion, parmi ce qui peut être issu de l’évolution : “Les barrages de castors oui, le barrage Hoover [grand barrage sur le fleuve Colorado] non.” Dan Dennett dit : “Qu’est ce qui les dérange dans l’idée que les produits de l’ingéniosité humaine soient eux mêmes des racines de l’arbre de la vie et obéissent aux lois de l’évolution ?”(8) notes et sources : (1) Gag en référence à Terminator dans la Cité de la Peur (2) http://www.fastcompany.com/3040853/fast-feed/ stephen-hawking-elon-musk-sign-open-letter-on-t h e - f u t u r e - o f artificial-intelligenc (3) http://futureoflife.org/misc/open_letter (4) http://rt.com/usa/199863-artificial-intelligence-dangershumanity/ (5) Pour les éventuels amateur de South Park : https://www. youtube.com/watch?v=xCiKNG-6AwE (6) h tt p : / / w w w.te d . c o m / ta l k s / j e re my _ h o wa rd _ t h e _ wonderful_and_terrifying_implications_of_computers_that_can_ learn (7) http://www.ted.com/talks/dan_dennett_on_dangerous_ memes#t-331054 (8) Mal traduit dans les sous-titres de la vidéo Well, you can tell by the way I use my walk I’m a woman’s man, no time to talk : https://www.youtube.com/watch?v=EcOi6npIsVc