L`intelligence artificielle “Sarah Connor ?” “Non, c`est à côté”(1) “Le

Transcription

L`intelligence artificielle “Sarah Connor ?” “Non, c`est à côté”(1) “Le
Paul AMICEL
Université Rennes 1
22 ans
L’intelligence artificielle
“Sarah Connor ?”
“Non, c’est à côté”(1)
Stephen Hawking et le patron de SpaceX ont peur qu’avec
l’intelligence artificielle nous soyons en train d’invoquer le diable.
On sait déjà faire faire des miracles à nos machines.
Sans intelligence artificielle (IA), on sait faire marcher
les robots à quatre pattes depuis très longtemps : le
modèle est suffisamment facile à étudier et on peut
fournir à la machine toute la procédure. Mais l’IA surpasse
cette méthode avec une efficacité subjuguante :
Vous souvenez-vous d’Aibo le petit chien robot Sony
sorti en 99 ? Sorti de sa boîte il ne savait pas marcher
puis il apprenait seul, poussé par sa curiosité, grâce à
l’apprentissage automatique (AA)
capitaliser sur ces technologies. À vrai dire l’AA et l’IA
ont été les leviers de l’explosion numérique, ils sont
omniprésents, la technologie les utilise abondamment.
Le moteur de recherche de Google par exemple est une
énorme machine à apprendre. C’est comme ça que des
sommes astronomiques sont déversées en continu dans
la recherche en IA qui avance très, très vite, de manière
exponentielle.
Certains s’iquiètent qu’elle puisse devenir hors de
contrôle dans les prochaines décennies.
*Dramatic Chipmunk*(3)
Étrangement, ça n’est pas absurde. L’actualité en
ce moment fait écho de l’immense paradoxe de l’IA.
Bill Gates, Stephen Hawking et Elon Musk la qualifient
de “Potentiellement plus dangereuse que les armes
nucléaires”(4) mais, dans la fameuse récente lettre ouverte
du Future of Life institute(5) pour la surveillance de l’IA,
signée par Musk et Hawking(6), on peut lire que grâce à l’IA
“on peut envisager d’éradiquer la pauvreté et la maladie“.
Cette lettre est pourtant une mise en garde.
“Avant de nous tuer les machines
vont nous voler notre travail“
“Le levier de l’explosion numérique“
IBM a dévoilé un autre miracle en 2012 avec Watson,
l’ordinateur champion de Jeopardy (jeu qui consiste
à trouver la question à une réponse donnée). Watson
décode le sens de la réponse et envisage des liens
logiques, culturels, cherche sur internet et puise dans ce
qu’il a appris par le passé et gagne contre des adversaires
humains.
Watson est spectaculaire mais a un air d’exception plus
que de généralité, parce qu’il sort de laboratoires un peu
décalés du monde réel.
Mais d’autres IA, comme Siri(2), sont très populaires.
Apple, qui a créé Siri, est richissime et n’est pas seule à
Le potentiel bénéfique de l’IA accroît son influence et
c’est peut être un immense danger.
Des IA comme Watson nous volent notre travail. Des
avis très valables(7) se sont fait entendre sur ce sujet
angoissant. Un thème récurrent de ces théories fait
le parallèle avec l’arrivée de la voiture qui a réduit au
centième la population de chevaux entre la fin du 19ème
et le début du 20ème siècle. La vidéo Humans need not
apply(8) s’offre un peu d’autoflagellation en ajoutant que
ces chevaux étaient souvent envoyés à l’abattoir (ouille).
Si le cheval avait compris que sa survie dépendait
de son utilité pour l’homme, il se serait reconverti en
comptable. Remplacer les fermiers par des machines
au 19ème n’a mis les hommes en pénurie de travail que
temporairement mais... Remplacer nos cerveaux n’est pas
comme remplacer nos muscles. Les bureaux d’étude, par
exemple, auront bientôt des IA comme les fermiers ont
des moissonneuses-batteuses, les comptables seront peut
être un jour obsolètes... Qui trouvera du travail quand il y
aura une IA plus qualifiée ?
Un autre problème éthique, plus familier qu’on pourrait
le croire, fait débat au sujet de l’IA : le cas des accidents
de voitures autonomes (sans conducteur). Ils seront sans
aucun doute moins fréquents et moins mortels qu’entre
les voitures conduites par des êtres humains : la voiture
autonome pourra prédire objectivement les différents
réflexes à adopter.
Mais il y a un problème : imaginons que la voiture se
retrouve avec 2 options, impliquant 3 personnes :
1 - une seule meurt, 2 survivent,
2 - une seule survit.
Quelle option devra-t-elle choisir ?...
Précisons :
1 - Jean survit et Pierre et Paul meurent,
2 - Jean meurt mais Pierre et Paul survivent.
Si elle choisit l’option la moins mortelle, la voiture n’at-elle pas techniquement tué Jean ?
Peut on laisser une intelligence quelconque faire ce
choix ? C’est une idée qui fait froid dans le dos.
Autre part dans le monde, depuis quelques années, des
drones, opérés par des êtres humains, survolent les zones
de guerre. Si un de ces drones tue la mauvaise personne
(si tant est qu’il existe quelque chose comme une bonne
personne à tuer), le pilote est incriminé. Rendez ce drone
“intelligent“ et ça n’est plus la même histoire. La morale
et l’éthique n’ont pas encore de réponse pour ce cas de
figure. Il est dur de dire si les hommes qui ont fait naître
le programme sont plus responsables qu’un père lorsque
son fils commet un crime, et avec la complexification de
l’IA, savoir si la machine est, quelque part, capable d’avoir
conscience de ce qu’elle fait deviendra de plus en plus
ambivalent.
Asseyons nous dans un gros fauteuil de cuir, une vieille
pipe entre les dents : “Sait-on seulement ce qu’est la
conscience ?”
Pas vraiment...
Mais elle pourrait apparaître dans la machine au nom
de ce principe : d’un assemblage complexe d’éléments
simples émerge des qualités que possède l’assemblage
mais pas ses éléments. Autrement dit : les atomes n’ont
jamais soif ni faim, nous sommes constitués de milliards
d’atomes et pourtant il nous arrive d’avoir faim, soif(9)... Ça
peut sembler idiot mais ça vaut le coup d’y réfléchir.
Bref,
Beaucoup de tout ça est encore de la science fiction,
mais on peut comprendre que l’IA, qui évolue beaucoup
plus vite que nos cerveaux, fasse peur à quelques
spécialistes.
Un dernier mot de Dan Dennett(10) :
“Les darwiniens eux mêmes [...] sont anxieux quand
l’idée du darwinisme est poussée un peu plus loin [...]
Qu’est ce qui les dérange dans l’idée que les produits de
l’ingéniosité humaine soient eux mêmes des racines de
l’arbre de la vie et obéissent aux lois de l’évolution ?”(11)
notes et sources :
(1)
Gag en référence à Terminator dans la Cité de la Peur
(2)
“assistant personnel intelligent“ d’Apple sur l’iPhone
(3)
Dramatic Chipmunk : https://www.youtube.com/watch?v=a1Y73sPHKxw
(4)
http://rt.com/usa/199863-artificial-intelligence-dangers-humanity/
(5)
http://futureoflife.org/misc/open_letter
(6)
http://www.fastcompany.com/3040853/fast-feed/stephen-hawking-elon-musk-sign-open-letter-on-the-future-ofartificial-intelligenc
(7)
http://www.ted.com/talks/jeremy_howard_the_wonderful_and_terrifying_implications_of_computers_that_can_
learn
(8)
Humans Need Not Apply : https://www.youtube.com/watch?v=7Pq-S557XQU
(9)
Edgar Morin, qui n’a peut être pas d’avis sur l’intelligence artificielle, parle par contre merveilleusement bien de la
complexité.
(10)
Philosophe et scientifique américain : http://www.ted.com/talks/dan_dennett_on_dangerous_memes#t-331054
(11) Mal traduit dans les sous-titres de la vidéo (janvier 2015)
(bonus)
Well, you can tell by the way I use my walk
I’m a woman’s man, no time to talk :
https://www.youtube.com/watch?v=EcOi6npIsVc