L`intelligence artificielle “Sarah Connor ?” “Non, c`est à côté”(1

Transcription

L`intelligence artificielle “Sarah Connor ?” “Non, c`est à côté”(1
Paul AMICEL
Université Rennes 1
22 ans
L’intelligence artificielle
“Sarah Connor ?”
“Non, c’est à côté”(1)
Les géants de l’informatique ont signé une lettre ouverte pour ne
pas développer les agents intelligents dans la mauvaise direction. Le
patron de SpaceX et Stephan Hawking ont peur qu’avec l’intelligence
artificielle nous soyons en train d’invoquer le diable.
L’intelligence artificielle (IA) que nous côtoyons est
plus proche d’une collection d’effets de manche que d’une
conversation avec la machine. Même si nos machines nous
battent au dames ou aux échecs, savent lire nos mails et
écrire ce qu’on leur dicte, quand on parle cinq minutes
avec Siri on voit qu’on est encore très loin d’avoir Jiminy
Cricket dans la poche. Parfois, même en la comparant à
Siri, l’intelligence artificielle ne semble pas intelligente du
tout.
Il est difficile de soutenir qu’ “hello world” entre
dans la catégorie intelligence artificielle, mais l’idée est
que globalement les machines intelligentes (celles qui
réagissent à l’environnement) ne font pas énormément
plus que suivre bêtement et en boucle un chemin abstrait
de A vers B.
Cela dit la personnification chez certaines machines
arrivent à nous faire oublier temporairement leur bêtise.
“ Sorti de sa boîte,
le petit chien Aibo
ne savait pas marcher “
Vous souvenez vous d’Aibo ? Le petit chien robot de
Sony, avec sa caméra sur la truffe, qui est sorti en 1999.
Il jouait avec ses maitres, sentait quand on le caressait,
aboyait, et était globalement très mignon. Le petit miracle
que tout le monde ne connaissait pas à l’époque c’est que
sorti de sa boîte, Aibo ne savait pas marcher du tout et
qu’il apprenait tout seul. Sorti de la boîte il n’avait que
trois qualités :
1 - son rapport avec l’environnement : il pouvait voir, et
il pouvait contrôler ses jambes,
2 - sa curiosité et le fait qu’il voulait absolument
attraper sa balle,
3 - sa capacité à apprendre de son expérience.
Une chose qu’on fait très souvent dire à nos machines est
“hello world”, parce que le programme simplissime “hello
world” est la première expérience de toute personne qui
apprend la programmation, “hello world” est la version
mignonne du réveil du monstre de Frankenstein, et c’est
un véritable mème (phénomène de la culture internet).
Si un humain disait “bonjour, monde” beaucoup de
choses passeraient dans son esprit à commencer par
le sentiment qu’il associe à la salutation. Alors qu’un
ordinateur qui dit “bonjour, monde” (ou “hello world”)
n’éprouve pas plus qu’un saxophone qui joue un Do ou
qu’un tuyau qui arrose une plante.
Grâce à ça il lui fallait très peu de temps pour apprendre
seul à marcher.
Aibo utilisait l’apprentissage automatique, qui existe
depuis les années 50 et qui s’est épanoui dans les 30
dernières années.
C’est l’apprentissage automatique qui a été le levier de
l’explosion numérique. Le moteur de recherche de Google,
grâce à de petits robots-algorithmes qui sillonnent le web
et rapportent des informations, est une énorme machine
à apprendre. Amazon apprend du comportement de
ses acheteurs. Facebook apprend, les produits d’Apple
apprennent.
C’est grâce à ça qu’on développe des voitures qui
se conduisent elles-mêmes. Leur programmation est
principalement celle de la capacité d’apprentissage,
on leur donne les meilleurs outils de repérage et de
modélisation qu’on ait, on leur donne les manettes, puis
on leur apprend à faire bouger la voiture, puis à conduire.
Le progrès fait son chemin et en 2012, IBM dévoile
Watson, l’ordinateur champion de Jeopardy (un jeu
étrange dans lequel le joueur doit trouver la question à
la réponse qu’on lui donne). Pour trouver les questions,
Watson décode le sens de la réponse, envisage des liens
logiques et culturels (c’est ça qui est fou). Pour cela il
cherche sur internet (il s’intéresse probablement plus à la
nature des liens entre les pages qu’au contenu des pages
elles-mêmes) et puise dans ce qu’il a appris par le passé.
Ça semble assez injuste que Watson batte ses
adversaire humains, à y réfléchir, si on donnait à Watson
un bras et qu’on lui apprenait à se faire quelque chose
d’aussi simple que faire couler du lait dans un bol, il aurait
beaucoup moins de place en mémoire pour le cerveau
qui lui sert au Jeopardy, et peut être qu’alors il ne battrait
plus personne. Les autres joueurs savent se servir un bol
de lait, des céréales, se faire griller des tartines, s’occuper
de leurs enfants, écrire... L’idée ici est que si Watson est
futé, il n’est pas futé comme un humain, il est futé disons
comme un bout isolé de cerveau.
Paradoxalement c’est en fait une qualité, c’est la
qualité qui permet à une intelligence artificielle d’inquièter
un adversaire humain, elle est très bonne à la seule chose
qu’elles sache faire et ne perd de temps pour rien d’autre.
“L’apprentissage automatique
est le levier de l’explosion numérique“
Watson est un exemple spectaculaire de l’avancée de
l’intelligence artificielle mais il n’est pas l’exemple parfait :
il est le fruit de recherches menées par une bande de
nerds très pointus de chez IBM qui ne semblent jamais
porter autre chose que des blouses blanches ou des
costumes cravates, sortir de laboratoires aussi décalés du
Monde réel donne à Watson un air d’exception plus que
de généralité.
Mais comme je disais, Siri, même si globalement
benêt, est aussi une intelligence artificielle, et Apple, qui
développe Siri, est une des plus grosses capitalisations
boursières du monde et n’est pas le seul à capitaliser
sur ces technologies. C’est ainsi que se déversent des
sommes astronomiques dans la recherche en IA, qui n’a
à s’inquiéter de rien pour son avenir et qui avance très,
très vite.
Ici, «Très, très vite» ressemble à la fin d’un flash-back
dans un film type Terminator. Certains pensent à Skynet
ou aux machines dans Matrix et ont déjà des frissons.
Et ça n’est pas absurde, tout le monde semble avoir
froid dans le dos en ce moment : il y a quelques jours
un certain nombre de personnalités du monde de
l’informatique, de la Silicon valley et particulièrement
des entreprises spécialisées en intelligence artificielle
ont signé une lettre ouverte(2)(3) sur l’utilisation de
l’intelligence artificielle, comme un genre d’accord SALT
(qui cherchaient à contrôler l’armement bilatéral pendant
la guerre froide).
Parmis les signataires, Elon Musk, le fondateur de
Paypal, SpaceX et Tesla Motors au côtés de Stephen
Hawking, d’ingénieurs spécialisés de chez Google, des
fondateurs de la start-up Deepmind, des chercheurs de
l’institut de recherche sur l’intelligence artificielle MIRI, et
de beaucoup d’autres gens bien informés et pragmatiques.
La raison pour un tel accord est qu’une partie du
potentiel de l’IA leur fait peur, et qu’il préfèrent prévenir
que guérir, agir avant qu’un algorithme hors de contrôle
ait besoin d’être confiné comme on le fait avec certains
virus. Elon Musk(4) et Stephen Hawking à ce sujet se sont
exprimés sur l’IA en la qualifiant de danger imminent
“potentiellement plus dangereux que les armes
nucléaires”.
Mais nous n’en sommes pas là, du tout. Le ton et la
forme de la lettre en témoignent. La proposition avancée
n’est pas un confinement, elle parle de priorités et de
direction pour la recherche, parce que, contrairement au
nucléaire qui globalement ne sort jamais d’un domaine
situé entre “potentiellement dangereux” et “capable
d’annihiler l’humanité”, l’IA, elle, peut être bénéfique,
voire très bénéfique pour l’humanité, on peut envisager
d’éradiquer la pauvreté et la maladie peut on lire.
“Avant de nous tuer les machines
vont nous voler notre travail“(5)
Il y a plusieurs raisons pragmatiques de s’inquiéter de
l’intelligence artificielle. Ces raisons peuvent facilement
justifier un consensus large et la signature par autant
d’acteurs du secteur de la lettre dont nous parlons. Ces
raisons sont assez faciles à isoler.
Des IA comme Watson nous volent notre travail.
Autour de ce thème, les idées de beaucoup de gens très
futés(6) accaparent la paranoïa de gens moins futés, en
particulier la théorie de l’homme remplacé par la machine
de la même manière que le cheval à été remplacé par la
voiture. Après l’arrivée de la voiture, la population de
chevaux est passée de plusieurs centaines de milliers à
quelques milliers en quelques décennies. Là dessus la
vidéo Humans need not apply (https://www.youtube.
com/watch?v=7Pq-S557XQU), qui reprend le thème,
s’offre un peu de flagellation masochiste en ajoutant que
les chevaux inutiles étaient envoyés à l’abattoir, faute de
raison de vivre (ouille).
L’idée fait peur. Mais remplacer les fermiers par des
machines au cours des deux siècles passés ne nous a mis
en pénurie de travail que temporairement (je ne veux pas
être cynique, ça n’était ni très court, ni joyeux, mais ça
n’était pas irréversible), et ajoutons que nous ne sommes
pas seulement des chevaux : la plupart d’entre nous
n’attendent pas en broutant que d’autres viennent leur
donner du travail. Autrement dit si le cheval avait compris
que sa survie dépendait de son utilité pour l’homme, il se
serait reconverti en comptable.
Mais ...
Mais jusqu’où va notre capacité ? On remplacera
bientôt les comptables par des algorithmes, les bureaux
d’étude manipuleront des intelligences artificielles comme
les fermiers manipulent des moissonneuses-batteuses et
Siri sera bientôt le secrétaire toujours aimable dont nous
rêvons tous. Nous pouvons avoir peur d’être bel et bien
limités, utiliser ces cerveaux artificiels de plus en plus
efficients pour remplacer les nôtres nous condamne-t-il
autant que les chevaux, lorsque les moteurs ont remplacé
leurs muscles ? Pour l’instant en tout cas, les machines
nous volent notre travail.
Et ce problème seul pourrait justifier la signature d’un
traité sur l’intelligence artificielle
Mais il y a bien autre chose : Un robot peut-il tuer de sa
propre initiative ? Cette question partage quelque chose
avec les montres connectées : c’est un thème de science
fiction complètement d’actualité. Des drones survolent les
zones de guerre au Moyen Orient depuis déjà un certain
temps, ces drones sont téléguidés, c’est à dire opérés
par des êtres humains, et on ne fera pas de procès à ces
drones pour les mêmes raisons qu’on ne fait pas de procès
à un fusil. Rendez ce drone complètement autonome et
ça n’est plus la même histoire. La morale et l’éthique n’ont
pas de réponse encore pour ce cas de figure.
On est tous d’accord pour ne pas laisser un robot tuer
un homme, c’est aussi un problème qui peut justifier la
signature d’un traité sur l’intelligence artificielle. Mais pour
être complètement honnête, et pour bien comprendre où
le développement de l’IA va aujourd’hui, il faut préciser
que les machines n’ont pas besoin d’être sur un champ de
bataille pour être confrontées à ce type de choix :
Les accidents de voitures autonomes (sans
conducteur) par exemple. On a toutes les raisons de
croire que les collisions entre voitures autonomes seront
moins fréquentes qu’entre celles conduites par des
êtres humains. Lorsqu’une voiture autonome entrera en
collision avec une autre voiture, autonome ou non, dans
un cas extrême où la collision ne peut pas être évitée (ça
n’est encore jamais arrivé, mais considérons le cas), la
voiture autonome aura la capacité de faire des prédictions
sur les différents réflexes à adopter. Mais si elle se
retrouve disons avec deux options, une dans laquelle, sur
3 personnes, 2 personnes survivent et une meurt et une
autre dans laquelle une personne meurt et 2 survivent,
quelle option devra-t-elle choisir ?
Maintenant précisons : dans le premier cas de figure
Jean survit et Pierre et Paul meurent, et dans le deuxième
cas, Pierre et Paul survivent mais c’est Jean qui meurt. Si
elle choisit le moins mortel des deux cas, la voiture n’a-telle pas techniquement tué Jean ?
Peut on laisser une intelligence quelconque faire ce
genre de choix ? C’est un sujet très lourd et une idée qui
fait froid dans le dos, particulièrement pour les gens qui
développent ce type de voitures, et c’est un problème que
personne ne prend à la légère.
“ Et si, comme dans les films,
de la complexité des machines
émergeait la conscience ?
C’est maintenant
presque une question sérieuse“
Il y a évidemment une troisième raison, à la fois la plus
lointaine et la plus familière : et si, sur la complexité d’une
intelligence artificielle (ou de plusieurs associées entre
elles) se développait la conscience, ou plutôt le Soi.
Assis dans un gros fauteuil de cuir au coin d’une
cheminée, une paire de petites lunettes sur notre nez et
une vieille pipe entre les dents nous nous demandons :
“Mais… qu’est-ce que la conscience ?”
On ne sait pas, mais on peut dire ceci :
Pour faire un parallèle grossier : avec des millions de
micro-organismes dans un milieu sous-marin particulier,
on obtient une barrière de corail qui interagit avec son
environnement d’une certaine manière. Cette manière
n’a rien à voir en tant que telle avec la manière dont les
petits êtres qui la constituent agissent individuellement.
C’est une manière pas très interactive de dire qu’un
assemblage complexe d’unités fait émerger (c’est le
terme dédié) des qualités et des fonctions qui sont
propres à l’assemblage complexe mais pas aux unités
qui le constituent. C’est une idée difficile à expliquer
clairement sans être spécialise. Un autre exemple serait
la méduse qui est faite de beaucoup d’atomes, mais qui
n’est pourtant pas un gros atome : elle ne peut pas faire
graviter des particules chargées autour d’elle, mais l’atome
n’est pas non plus une méduse et ne peut pas se déplacer
à volonté ni se reproduire. Les qualités de mobilité et de
reproduction qu’a la méduse mais pas l’atome sont des
émergences.
En pagaille : les qualités diverses de la société sont
des émergences de l’assemblage complexe d’individus.
Le comportement de l’économie est une émergence de
l’ensemble des transactions. La littérature émerge de tous
les livres. Internet (sans parler de la structure mais plutôt
l’univers virtuel : twitter, les vidéos de chats et tout ce qui
se passe sur le net) émerge indirectement de la complexité
de serveurs et de câbles sous la mer.
Bref,
Est-ce que la conscience émerge de l’assemblage
complexe d’assemblages complexes d’assemblages
complexes ? On le saura mieux peut être un jour, si à
force de se complexifier, une machine (ou un ensemble
de machine) développe un type de conscience qui lui soit
propre, qui d’ailleurs, si elle émerge, n’aura pas de raison
de ressembler à la nôtre.
Un problème est que cette conscience n’aurait pas de
raison non plus d’avoir de la considération pour nous.
Même si cette raison est un peu tordue, aujourd’hui elle
peut sembler suffisamment bonne pour signer un accord
pour prendre des précautions.
Laissons ces choses à la science fiction pour l’instant
mais donnons quand même le dernier mot à Dan Dennett,
le philosophe et scientifique de la cognition américain :
Les darwiniens eux mêmes, malgré le consensus sur le
fait que nous descendions d’êtres vivants unicellulaires,
sont anxieux quand l’idée du darwinisme est poussée un
peu plus loin : “Les toiles d’araignées ? C’est sûr, elles sont
le produit de l’évolution. Le la Toile (internet) ? Pas sûr.”
(“Spider webs ? sure, they are products of evolution. The
world wide web ? not so sure.”(7)). Selon cette opinion,
parmi ce qui peut être issu de l’évolution : “Les barrages
de castors oui, le barrage Hoover [grand barrage sur le
fleuve Colorado] non.” Dan Dennett dit : “Qu’est ce qui
les dérange dans l’idée que les produits de l’ingéniosité
humaine soient eux mêmes des racines de l’arbre de la vie
et obéissent aux lois de l’évolution ?”(8)
notes et sources :
(1)
Gag en référence à Terminator dans la Cité de la Peur
(2)
http://www.fastcompany.com/3040853/fast-feed/
stephen-hawking-elon-musk-sign-open-letter-on-t h e - f u t u r e - o f artificial-intelligenc
(3) http://futureoflife.org/misc/open_letter
(4)
http://rt.com/usa/199863-artificial-intelligence-dangershumanity/
(5) Pour les éventuels amateur de South Park : https://www.
youtube.com/watch?v=xCiKNG-6AwE
(6)
h tt p : / / w w w.te d . c o m / ta l k s / j e re my _ h o wa rd _ t h e _
wonderful_and_terrifying_implications_of_computers_that_can_
learn
(7)
http://www.ted.com/talks/dan_dennett_on_dangerous_
memes#t-331054
(8) Mal traduit dans les sous-titres de la vidéo
Well, you can tell by the way I use my walk
I’m a woman’s man, no time to talk :
https://www.youtube.com/watch?v=EcOi6npIsVc