Session 1

Transcription

Session 1
Programme I.D.E.A.
CONCOURS D'ENTRÉE 2016 – Session 1
_____
DISSERTATION
_____
28 avril 2016
___________________________________________________________________
Sujet :
Les progrès de l’intelligence artificielle et des robots : menaces ou
opportunités ?
Recommandations :
Comme point de départ, vous disposez des textes ci-joints pour élaborer votre
dissertation.
Les différentes étapes sont demandées :
1. L’épreuve consiste à faire la synthèse des documents fournis.
2. Elle demande en outre une réelle confrontation entre les différentes opinions et
analyses proposées par les articles.
3. Elle demande l’expression indispensable de votre point de vue personnel.
4. Il est conseillé de soigner le plan et l’articulation des différentes parties afin de
mettre en évidence le cheminement de votre raisonnement.
N.B. :
- La dissertation devra être précise et concise. Elle ne devrait pas excéder 4 pages, les dépassements ne pouvant se justifier
que par une qualité exceptionnelle.
- La note tiendra compte de la présentation, du style, de la correction de la langue et de l'orthographe.
- Il n'est fait usage d'aucun document autre que ceux distribués ni de matériel électronique.
Jeu de go : l’intelligence artificielle de Google bat l’humain
Futura-Sciences - Marc Zaffagni, 28/01/2016
AplhaGo, programme d’intelligence artificielle développé par DeepMind, filiale de Google, a battu un
joueur professionnel au jeu de go. Une avancée majeure qui n'était pas attendue avant une dizaine
d’années. L'annonce vient d'en être faite, au moment d'une publication scientifique. De quoi décrypter
la réalisation et la méthode, avec réseaux neuronaux et apprentissage. Accrochez vos ceintures et
plongez avec nous dans les rouages d'AlphaGo qui défiera le champion du monde en mars prochain,
et qui aura aussi, sans doute, des déclinaisons au-delà du jeu …
Cette semaine peut être considérée comme historique pour l’intelligence artificielle. D’une part, elle a
perdu l’un de ses pères, Marvin Minsky et, d’autre part, elle a franchi une étape majeure dans son
perfectionnement. Google a en effet annoncé que sa filiale DeepMind avait développé une intelligence
artificielle qui a battu à plate couture un joueur professionnel. Nommé AlphaGo, le programme a
surclassé Fan Hui, triple champion européen en titre du jeu de go, en gagnant cinq victoires à zéro.
L’affrontement a eu lieu en octobre dernier, mais Google a souhaité attendre la parution de l’article
scientifique consacré à ce défi dans la revue Nature avant d'annoncer cet exploit.
Pourquoi cette victoire est-elle si importante ? Parce que, après le succès de l’ordinateur Deep Blue
face au champion du monde d’échecs Gary Kasparov en 1997, le go restait le seul jeu de réflexion à
résister aux machines. Il y a un peu plus d’un an, les experts ayant développé les programmes de jeu
de go les plus performants, à l’instar de Crazy Stone du Français Rémi Coulom, estimaient qu’il
faudrait encore une décennie, voire plus, avant qu’une machine ne puisse vaincre un humain.
Les règles du go sont simples : deux joueurs s’affrontent sur un plateau où ils placent des pierres
noires et blanches afin de délimiter des territoires et de capturer les pièces de l’adversaire. Le but
ultime est de contrôler plus de la moitié du plateau. Mais cette apparente simplicité cache une
profonde complexité car ce jeu repose avant tout sur l’intuition. « Le nombre de combinaisons
possibles est supérieur au nombre d’atomes que compte l’univers », résume Demis Hassabis, l’un des
fondateurs de la société britannique DeepMind que Google a acquise en 2014. Les techniques
d’intelligence artificielle basées sur la force brute, qui construisent un arbre binaire de recherche pour
tester toutes les possibilités de mouvements, n’avaient jusqu’ici aucune chance de succès avec le jeu
de go.
L’algorithme apprend en jouant contre lui-même
Pour réussir ce coup de maître, DeepMind a combiné les meilleures techniques d’intelligence
artificielle et la puissance de calcul mise à sa disposition par la plateforme de cloud computing de
Google. Au cœur du dispositif, deux réseaux neuronaux d’apprentissage profond ayant chacun une
tâche différente. Le premier appelé policy network (quelque chose comme « réseau politique » ou «
réseau de décision ») travaille à prédire le prochain coup tandis que le second, value network («
réseau de valeur »), estime l’issue favorable d’un mouvement à partir de la configuration du plateau
de jeu.
Les deux réseaux ont été associés à un arbre binaire de recherche qui utilise la méthode
algorithmique probabiliste dite de Monte-Carlo sur laquelle reposent les logiciels de jeu de go les plus
performants du moment (Crazy Stone et Zen). Elle consiste à jouer toutes les fins de parties possibles
à partir d’une position en comptabilisant les parties gagnantes et perdantes. Les réseaux neuronaux
sont là pour affiner la recherche, réduire sa complexité et sa profondeur, en adoptant une forme de
raisonnement plus proche de l’imagination humaine.
Chaque réseau est composé de douze couches contenant chacune des millions de connexions
neuronales. Les « réseaux politiques » ont été entraînés avec une base de données de 30 millions de
coups provenant de parties jouées par des experts jusqu’à ce qu’ils puissent prédire un mouvement
57 % du temps. Mais pour qu’AlphaGo puisse développer ses propres stratégies de jeu, DeepMind a
eu recours à un apprentissage renforcé en lui faisant jouer des milliers de parties contre lui-même.
Puis, les « réseaux politiques » ont été utilisés pour entraîner les « réseaux de valeur », toujours par
apprentissage renforcé. « Ces réseaux de valeur peuvent évaluer n’importe quelle position de go et
estimer l’éventuel gagnant », souligne Google.
Évidemment, cet ambitieux programme n’aurait pu aboutir sans la puissance de calcul et la capacité
de stockage que le géant nord-américain a fourni à travers son réseau de cloud computing. Par
ailleurs, l’équipe de DeepMind a utilisé la plateforme d’intelligence TensorFlow dont Google a
récemment libéré le code source. Ne restait plus ensuite qu’à envoyer AlphaGo défier un joueur
professionnel. Mais avant cela, en guise d’échauffement si l’on peut dire, il a été confronté aux
meilleurs logiciels de go du moment. Installé sur une seule machine, AlphaGo a remporté 499 des 500
parties disputées.
Fan Hui, champion d’Europe en titre, est le premier joueur professionnel de go à avoir perdu contre
AlphaGo. © DeepMind, YouTube
Comment sera utilisée cette intelligence artificielle ?
Face à Fan Hui, joueur français d’origine chinoise champion d’Europe en titre, le programme de
DeepMind n’a pas fait de détails, s’adjugeant cinq victoires contre zéro pour son opposant. « Avec
AlphaGo, on a joué durant cinq jours, avec deux parties par jour, une normale et une rapide. J’ai
perdu 5-0 les parties normales, 3-2 les parties rapides. Comme lui joue très vite, j’aurais dû perdre
plus dans les parties rapides, mais ce fut l’inverse, explique Fan Hui dans un entretien avec Le
Monde. Je n’ai pas du tout eu l’impression de jouer contre un ordinateur. Il joue comme un humain ».
Sans doute le meilleur compliment que pouvait recevoir AlphaGo…
Mais Google ne compte pas en rester là. Le prochain défi pour son intelligence artificielle sera de
tenter de battre le champion du monde de la discipline, Lee Sedol. La rencontre aura lieu en mars
prochain à Séoul et le match sera retransmis en direct via la chaîne YouTube DeepMind. « J’aurai le
privilège d’affronter pour la première fois un ordinateur. J’ai entendu dire qu’AlphaGo est
étonnamment fort et s’améliorera encore, mais je suis confiant que je pourrai gagner, au moins cette
fois-ci », a déclaré Lee Sedol.
Quelle que soit l’issue de cet affrontement ultime, AlphaGo a d’ores et déjà fait accomplir un pas de
géant à l’intelligence artificielle. Mais au-delà du jeu de go, la grande question est de savoir ce que
Google compte faire de ce formidable outil. « Même si les jeux sont la plateforme idéale pour
développer et tester rapidement des algorithmes d’intelligence artificielle, au bout du compte, nous
voulons appliquer ces techniques à d'importants problèmes du monde réel », commente l’entreprise
qui cite comme exemple la modélisation climatique et le diagnostic de maladies complexes. On peut
aussi penser que Google exploitera cette technologie pour perfectionner ses propres services,
notamment son moteur de recherche et son assistant vocal pour smartphones.
Au cours de la conférence de presse qui a suivi la présentation d’AlphaGo, Demis Hassabis a été
questionné sur les risques potentiels à long terme d’une intelligence artificielle aussi performante. Il a
répondu que son entreprise collaborait sur ce sujet avec des universitaires, organisait des
conférences et s’était dotée d’un comité d’éthique interne. « Par ailleurs, nous nous sommes mis
d’accord avec Google pour que ces technologies ne soient pas utilisées à des fins militaires », a-t-il
assuré.
_________________________________________________________________________________
Pourquoi Stephen Hawking et Bill Gates ont peur de l'intelligence
artificielle
France Culture, 08/07/2015
Annonces catastrophistes, films d’anticipation ou de science-fiction, ou plus simplement arrivée
imminente de technologies prêtes à bouleverser notre quotidien : les Intelligences Artificielles, ou IA,
sont partout.
A tel point que des scientifiques de renom, tel le célèbre physicien Stephen Hawking, voient en
l’avènement de ces technologies un danger pour la race humaine. Pourtant, à écouter les
spécialistes, la science est encore loin, voire très loin, de créer des machines plus intelligentes
que l’être humain. Alors qu’est-ce, finalement, qu’une intelligence artificielle ?
En un peu plus d’un demi-siècle d’existence, le champ de l’intelligence artificielle a considérablement
évolué. Le terme apparait dès 1956, lorsque le logicien John McCarthy et le mathématicien Marvin
Lee Minsky organisent une université d’été où ils présentent, pour la première fois, une nouvelle
discipline : l’intelligence artificielle. Ce nouveau champ d’étude “avait pour objet d’étudier l’intelligence
avec les moyens de l’artificiel, explique Jean-Gabriel Ganascia, chercheur au Laboratoire
d’informatique de Paris 6 (CNRS/UPMC), et ce avec les techniques nouvelles qu’étaient les
ordinateurs. Ça partait d’une conjecture selon laquelle tous les aspects de l’intelligence pouvaient être
décomposés de façon si élémentaire qu’on pouvait les reproduire sur une machine ”
Quand il s’agit de définir ce qu’est l’IA, la réponse est éminemment complexe, même pour les
spécialistes du sujet. « L’intelligence artificielle essaye de reproduire des fonctions qu’on attribue à
des entités intelligentes vivantes, précise Yann LeCun, responsable du centre FAIR, le Facebook
artificial intelligence research. Quelquefois ces machines dépassent en performance les humains,
comme aux échecs. Après, sont-elles plus intelligentes ? Non, elles sont juste très spécialisées. Il est
difficile de répondre à cette question parce qu’on considère l’intelligence comme une capacité non
seulement à résoudre un problème particulier, mais aussi à avoir une intelligence générale ».
"L'apprentissage automatique, essence de l'IA"
Contrairement aux idées reçues sur les IA, les chercheurs sont à des décennies de comprendre
comment construire une machine dotée de cette fameuse intelligence générale. “Non seulement on
en est très loin, mais on n’a absolument aucune idée de comment le faire”, assure Yann LeCun, joint
par téléphone lors d'un déplacement aux Etats-Unis. Une intelligence artificielle, en l’état actuel des
connaissances, est ainsi incapable d’apprendre par elle-même sans être supervisée.
La nouvelle vague d’intérêt autour de l’IA repose donc beaucoup sur l’apprentissage automatique.
“Par le passé, les chercheurs qui travaillaient sur l’IA se reposaient beaucoup moins sur cette
technique d’apprentissage, et essayaient de construire, un peu à la main, des systèmes capables de
raisonner, de manipuler des faits, de faire des déductions logiques, etc. En fait, il s’est avéré qu'il était
extrêmement difficile d’abord de représenter la connaissance sous forme biologique et par ailleurs
d’écrire des règles qui permettent de faire du raisonnement ”, retrace Yann LeCun. Ces techniques
fonctionnent en effet pour des objectifs très simples, mais ne marchent plus dès lors que les
chercheurs souhaitent construire une machine qui, par exemple, reconnaît les images ou encore la
parole. “D’une certaine manière, l’apprentissage automatique c’est l’essence de l’intelligence
artificielle. C’est ce qui explique l’engouement récent pour l’IA : les techniques d’apprentissage se sont
beaucoup améliorées ”.
Watson, l'IA d'IBM, a affronté des adversaires dans le jeu télévisé "Jeopardy"... et gagné. • Crédits :
IBM
"Cela fait très longtemps que l’on effectue de l’apprentissage machine, estime quant à lui Jean-Gabriel
Ganascia. Ce sont des machines qui sont capables de tirer des données de leurs expériences, c’està-dire analyser des informations passées.” Pour autant, ces machines restent des mécanismes
dénués de conscience propre, ou d’autonomie morale, au sens étymologique du terme, c’est-à-dire
“qui se donne sa propre loi”. “Le but de l’intelligence artificielle n’était pas de reproduire un cerveau,
poursuit Jean-Gabriel Ganascia, mais de reproduire les capacités cognitives humaines” .
Une question de bon sens
La première Loi de Moore a théorisé une évolution constante des capacités de calcul des ordinateurs.
Mais c’est la rapidité d’apprentissage des machines qui augmente consécutivement, et non pas la
capacité d’apprentissage.
De fait, malgré des capacités techniques toujours plus importantes, les chercheurs en IA peinent à
doter les machines de ce que l’on appelle le “sens commun”.
Ce qu’on ne sait pas faire, ce sont des machines qui ont le sens commun. Si vous fermez les yeux et
que je vous dis : “Paul se lève, prend la bouteille d’eau et sort de la pièce ”, il y a plein d'inférences
que vous pouvez faire, qui sont dues au sens commun. Savoir que vous êtes probablement en
intérieur dans une pièce, qu’il faut ouvrir une porte pour sortir, que la bouteille d’eau n’est plus dans la
pièce parce qu’un objet ne peut être qu’à un endroit à la fois, que vous n’êtes plus dans la pièce non
plus, que vous vous êtes probablement levé pour sortir de la pièce… Il y a énormément d’inférences
que l’on peut faire quand on s’imagine cette séquence d’actions, qui sont dues à notre connaissance
du monde. Les machines n’ont pas ce sens commun, le fait que la bouteille n’est plus dans la pièce,
c’est quelque chose que la machine aura à apprendre par expérience. (Yann LeCun)
Singulière singularité
A en croire les chercheurs, les effrayantes IA du cinéma vont donc rester encore longtemps
cantonnées à leur genre : la science-fiction. On est encore très loin du HAL 9000 de 2001, l’Odyssée
de l’espace, de la bienveillante entité Samantha de Her, ou encore d’Ava, la curieuse androïde du
plus récent Ex Machina.
Alors pourquoi des personnalités telles Bill Gates, Stephen Hawking ou encore Elon Musk
s’inquiètent-elles de la possible émergence d’une intelligence artificielle, susceptible de détruire
l’espèce humaine ?
Les formes primitives d'intelligence artificielle que nous avons déjà se sont montrées très utiles. Mais
je pense que le développement d'une intelligence artificielle complète pourrait mettre fin à la race
humaine. (Stephen Hawking)
Pour vérifier l’émergence d’une intelligence artificielle, il est communément admis que celle-ci devrait
être capable de passer le test de Turing, imaginé en 1950 par le fameux cryptologue Alan Turing.
Pour réussir cette expérience, une machine doit parvenir à échanger avec un être humain sans que ce
dernier ne réalise qu’il est en train de discuter avec un ordinateur et non avec un de ses pairs. De
l’avis même des chercheurs, ce test n’a pourtant pas grand intérêt : les chatbot, des systèmes de
conversation qui paraissent humains mais ne font que reproduire des petits segments de phrases
qu’ils ont repérés un peu partout et qu’ils régurgitent au bon moment, seront ainsi bientôt à même de
passer le test. “Ça semble intelligent, explique Yann LeCun, parce que ces phrases ont été écrites par
des humains à l’origine. Mais c’est une ruse. C’est pour ça qu’on pense que ça n’est pas un bon test.”
En réalité, si nombre de personnes croient en l’émergence plus ou moins immédiate d’une IA, ça n’est
pas tant grâce au test de Turing qu’en raison du concept de “singularité technologique”.
Ce point de singularité où l'évolution technologique serait telle que le progrès ne serait plus tant
l'œuvre des humains que celle des IA, reste donc fortement improbable. D’autant que, comme
l’affirme Yann LeCun, cette hypothèse omet des limites physiques qui vont contrecarrer cette
croissance technologique exponentielle.
On est encore très loin du fameux Skynet de Terminator ou des IA de Matrix, dont le but partagé est
d’oblitérer la race humaine. « Dans tous les romans de science-fiction, on voit les robots qui se
rebellent parce qu’ils veulent prendre le pouvoir ou deviennent meurtriers parce qu’on menace de les
déconnecter, poursuit Yann Lecun. Tout ça vient d’une espèce de projection des qualités et des
défauts humains dans les IA. Il leur est prêté un instinct de préservation, de la jalousie ou un désir de
puissance alors qu’il n’y aucune raison que ce soit présent dans les machines intelligentes. Ces
qualités et ces défauts sont présents chez les humains parce que l’évolution nous a construits de cette
manière afin que l’espèce survive. Mais nous n'avons aucune raison de construire ce genre de
comportements dans les machines ».
IA-éthique
“Ceci dit il y a relativement peu de doutes sur le fait que le progrès technologique va être accéléré par
l’avènement de l’intelligence artificielle. C’est déjà un peu le cas”, précise le chercheur du FAIR.
Cette irruption programmée de l’IA dans notre vie de tous les jours va, surtout, rapidement poser des
questions d’ordre éthique. François Charpillet, directeur de recherche à l’INRIA, juge nécessaire de
s’interroger sur l’impact de la robotique sur l’humanité. « ll faut savoir être pragmatique et en phase
avec la portée de la technologie telle qu’elle est aujourd’hui. La question que se posent les gens
c’est : « Est-ce que les robots vont nous prendre notre travail ? ». Je m’intéresse à la robotique
d’assistance à la personne en perte d’autonomie et cela pose en effet des questions d’éthique. Pas
celles de savoir si le robot doit obéir à l’humain, mais de savoir quel sera l’impact de l’introduction de
ces nouvelles technologies dans la vie de tous les jours. La question est de savoir si on peut
remplacer l’environnement humain par des machines, c'est beaucoup plus terre à terre que celle des
lois de la robotique d’Asimov ».
La Google Car, une voiture sans chauffeur. • Crédits : Google
Si par exemple une voiture sans chauffeur a un accident, qui en sera tenu responsable ? Dans le cas
où un accident est inévitable et va fatalement faire une victime, de quelle façon réagira l'intelligence
artificielle ? En fonction de quels critères "choisira"-t-elle la victime ? Ces questions ont été abordées à
maintes reprises dans la science-fiction (notamment par Isaac Asimov), et elles interrogent
nécessairement les spécialistes.
Cette question de l’éthique dans la recherche est devenue si récurrente que plusieurs centaines de
chercheurs, dont Yann LeCun, ont signé une lettre ouverte pour appeler à la mise en place de règles
censées orienter la recherche en IA pour “servir le bien-être de l’humanité ”. (Jean-Gabriel Ganascia)
Une IA complémentaire
A en croire les spécialistes de l’intelligence artificielle, la machine consciente et autonome tient plus du
fantasme, de la projection fantaisiste, que d’une imminente réalité. L’IA est à envisager comme une
assistance aux problèmes humains.
A l’heure actuelle, les technologies les plus représentatives de ce que sont les IA restent les systèmes
de reconnaissance d’images ou de compréhension du langage naturel. Mais dans un futur proche, à
une échelle de 10 à 15 ans, nous devrions voir apparaître, à en croire Yann LeCun, de nouvelles
machines “qui vont révolutionner la société ”.
Des voitures qui se conduisent seules, des assistants personnels artificiels, des traducteurs
automatiques en temps réel ? La science-fiction, parfois, ne semble pas si loin. C3PO n’a qu'à bien se
tenir.