L`intelligence artificielle “Sarah Connor ?” “Non, c`est à côté”(1) “Le
Transcription
L`intelligence artificielle “Sarah Connor ?” “Non, c`est à côté”(1) “Le
Paul AMICEL Université Rennes 1 22 ans L’intelligence artificielle “Sarah Connor ?” “Non, c’est à côté”(1) Stephen Hawking et le patron de SpaceX ont peur qu’avec l’intelligence artificielle nous soyons en train d’invoquer le diable. On sait déjà faire faire des miracles à nos machines. Sans intelligence artificielle (IA), on sait faire marcher les robots à quatre pattes depuis très longtemps : le modèle est suffisamment facile à étudier et on peut fournir à la machine toute la procédure. Mais l’IA surpasse cette méthode avec une efficacité subjuguante : Vous souvenez-vous d’Aibo le petit chien robot Sony sorti en 99 ? Sorti de sa boîte il ne savait pas marcher puis il apprenait seul, poussé par sa curiosité, grâce à l’apprentissage automatique (AA) capitaliser sur ces technologies. À vrai dire l’AA et l’IA ont été les leviers de l’explosion numérique, ils sont omniprésents, la technologie les utilise abondamment. Le moteur de recherche de Google par exemple est une énorme machine à apprendre. C’est comme ça que des sommes astronomiques sont déversées en continu dans la recherche en IA qui avance très, très vite, de manière exponentielle. Certains s’iquiètent qu’elle puisse devenir hors de contrôle dans les prochaines décennies. *Dramatic Chipmunk*(3) Étrangement, ça n’est pas absurde. L’actualité en ce moment fait écho de l’immense paradoxe de l’IA. Bill Gates, Stephen Hawking et Elon Musk la qualifient de “Potentiellement plus dangereuse que les armes nucléaires”(4) mais, dans la fameuse récente lettre ouverte du Future of Life institute(5) pour la surveillance de l’IA, signée par Musk et Hawking(6), on peut lire que grâce à l’IA “on peut envisager d’éradiquer la pauvreté et la maladie“. Cette lettre est pourtant une mise en garde. “Avant de nous tuer les machines vont nous voler notre travail“ “Le levier de l’explosion numérique“ IBM a dévoilé un autre miracle en 2012 avec Watson, l’ordinateur champion de Jeopardy (jeu qui consiste à trouver la question à une réponse donnée). Watson décode le sens de la réponse et envisage des liens logiques, culturels, cherche sur internet et puise dans ce qu’il a appris par le passé et gagne contre des adversaires humains. Watson est spectaculaire mais a un air d’exception plus que de généralité, parce qu’il sort de laboratoires un peu décalés du monde réel. Mais d’autres IA, comme Siri(2), sont très populaires. Apple, qui a créé Siri, est richissime et n’est pas seule à Le potentiel bénéfique de l’IA accroît son influence et c’est peut être un immense danger. Des IA comme Watson nous volent notre travail. Des avis très valables(7) se sont fait entendre sur ce sujet angoissant. Un thème récurrent de ces théories fait le parallèle avec l’arrivée de la voiture qui a réduit au centième la population de chevaux entre la fin du 19ème et le début du 20ème siècle. La vidéo Humans need not apply(8) s’offre un peu d’autoflagellation en ajoutant que ces chevaux étaient souvent envoyés à l’abattoir (ouille). Si le cheval avait compris que sa survie dépendait de son utilité pour l’homme, il se serait reconverti en comptable. Remplacer les fermiers par des machines au 19ème n’a mis les hommes en pénurie de travail que temporairement mais... Remplacer nos cerveaux n’est pas comme remplacer nos muscles. Les bureaux d’étude, par exemple, auront bientôt des IA comme les fermiers ont des moissonneuses-batteuses, les comptables seront peut être un jour obsolètes... Qui trouvera du travail quand il y aura une IA plus qualifiée ? Un autre problème éthique, plus familier qu’on pourrait le croire, fait débat au sujet de l’IA : le cas des accidents de voitures autonomes (sans conducteur). Ils seront sans aucun doute moins fréquents et moins mortels qu’entre les voitures conduites par des êtres humains : la voiture autonome pourra prédire objectivement les différents réflexes à adopter. Mais il y a un problème : imaginons que la voiture se retrouve avec 2 options, impliquant 3 personnes : 1 - une seule meurt, 2 survivent, 2 - une seule survit. Quelle option devra-t-elle choisir ?... Précisons : 1 - Jean survit et Pierre et Paul meurent, 2 - Jean meurt mais Pierre et Paul survivent. Si elle choisit l’option la moins mortelle, la voiture n’at-elle pas techniquement tué Jean ? Peut on laisser une intelligence quelconque faire ce choix ? C’est une idée qui fait froid dans le dos. Autre part dans le monde, depuis quelques années, des drones, opérés par des êtres humains, survolent les zones de guerre. Si un de ces drones tue la mauvaise personne (si tant est qu’il existe quelque chose comme une bonne personne à tuer), le pilote est incriminé. Rendez ce drone “intelligent“ et ça n’est plus la même histoire. La morale et l’éthique n’ont pas encore de réponse pour ce cas de figure. Il est dur de dire si les hommes qui ont fait naître le programme sont plus responsables qu’un père lorsque son fils commet un crime, et avec la complexification de l’IA, savoir si la machine est, quelque part, capable d’avoir conscience de ce qu’elle fait deviendra de plus en plus ambivalent. Asseyons nous dans un gros fauteuil de cuir, une vieille pipe entre les dents : “Sait-on seulement ce qu’est la conscience ?” Pas vraiment... Mais elle pourrait apparaître dans la machine au nom de ce principe : d’un assemblage complexe d’éléments simples émerge des qualités que possède l’assemblage mais pas ses éléments. Autrement dit : les atomes n’ont jamais soif ni faim, nous sommes constitués de milliards d’atomes et pourtant il nous arrive d’avoir faim, soif(9)... Ça peut sembler idiot mais ça vaut le coup d’y réfléchir. Bref, Beaucoup de tout ça est encore de la science fiction, mais on peut comprendre que l’IA, qui évolue beaucoup plus vite que nos cerveaux, fasse peur à quelques spécialistes. Un dernier mot de Dan Dennett(10) : “Les darwiniens eux mêmes [...] sont anxieux quand l’idée du darwinisme est poussée un peu plus loin [...] Qu’est ce qui les dérange dans l’idée que les produits de l’ingéniosité humaine soient eux mêmes des racines de l’arbre de la vie et obéissent aux lois de l’évolution ?”(11) notes et sources : (1) Gag en référence à Terminator dans la Cité de la Peur (2) “assistant personnel intelligent“ d’Apple sur l’iPhone (3) Dramatic Chipmunk : https://www.youtube.com/watch?v=a1Y73sPHKxw (4) http://rt.com/usa/199863-artificial-intelligence-dangers-humanity/ (5) http://futureoflife.org/misc/open_letter (6) http://www.fastcompany.com/3040853/fast-feed/stephen-hawking-elon-musk-sign-open-letter-on-the-future-ofartificial-intelligenc (7) http://www.ted.com/talks/jeremy_howard_the_wonderful_and_terrifying_implications_of_computers_that_can_ learn (8) Humans Need Not Apply : https://www.youtube.com/watch?v=7Pq-S557XQU (9) Edgar Morin, qui n’a peut être pas d’avis sur l’intelligence artificielle, parle par contre merveilleusement bien de la complexité. (10) Philosophe et scientifique américain : http://www.ted.com/talks/dan_dennett_on_dangerous_memes#t-331054 (11) Mal traduit dans les sous-titres de la vidéo (janvier 2015) (bonus) Well, you can tell by the way I use my walk I’m a woman’s man, no time to talk : https://www.youtube.com/watch?v=EcOi6npIsVc