Session 1
Transcription
Session 1
Programme I.D.E.A. CONCOURS D'ENTRÉE 2016 – Session 1 _____ DISSERTATION _____ 28 avril 2016 ___________________________________________________________________ Sujet : Les progrès de l’intelligence artificielle et des robots : menaces ou opportunités ? Recommandations : Comme point de départ, vous disposez des textes ci-joints pour élaborer votre dissertation. Les différentes étapes sont demandées : 1. L’épreuve consiste à faire la synthèse des documents fournis. 2. Elle demande en outre une réelle confrontation entre les différentes opinions et analyses proposées par les articles. 3. Elle demande l’expression indispensable de votre point de vue personnel. 4. Il est conseillé de soigner le plan et l’articulation des différentes parties afin de mettre en évidence le cheminement de votre raisonnement. N.B. : - La dissertation devra être précise et concise. Elle ne devrait pas excéder 4 pages, les dépassements ne pouvant se justifier que par une qualité exceptionnelle. - La note tiendra compte de la présentation, du style, de la correction de la langue et de l'orthographe. - Il n'est fait usage d'aucun document autre que ceux distribués ni de matériel électronique. Jeu de go : l’intelligence artificielle de Google bat l’humain Futura-Sciences - Marc Zaffagni, 28/01/2016 AplhaGo, programme d’intelligence artificielle développé par DeepMind, filiale de Google, a battu un joueur professionnel au jeu de go. Une avancée majeure qui n'était pas attendue avant une dizaine d’années. L'annonce vient d'en être faite, au moment d'une publication scientifique. De quoi décrypter la réalisation et la méthode, avec réseaux neuronaux et apprentissage. Accrochez vos ceintures et plongez avec nous dans les rouages d'AlphaGo qui défiera le champion du monde en mars prochain, et qui aura aussi, sans doute, des déclinaisons au-delà du jeu … Cette semaine peut être considérée comme historique pour l’intelligence artificielle. D’une part, elle a perdu l’un de ses pères, Marvin Minsky et, d’autre part, elle a franchi une étape majeure dans son perfectionnement. Google a en effet annoncé que sa filiale DeepMind avait développé une intelligence artificielle qui a battu à plate couture un joueur professionnel. Nommé AlphaGo, le programme a surclassé Fan Hui, triple champion européen en titre du jeu de go, en gagnant cinq victoires à zéro. L’affrontement a eu lieu en octobre dernier, mais Google a souhaité attendre la parution de l’article scientifique consacré à ce défi dans la revue Nature avant d'annoncer cet exploit. Pourquoi cette victoire est-elle si importante ? Parce que, après le succès de l’ordinateur Deep Blue face au champion du monde d’échecs Gary Kasparov en 1997, le go restait le seul jeu de réflexion à résister aux machines. Il y a un peu plus d’un an, les experts ayant développé les programmes de jeu de go les plus performants, à l’instar de Crazy Stone du Français Rémi Coulom, estimaient qu’il faudrait encore une décennie, voire plus, avant qu’une machine ne puisse vaincre un humain. Les règles du go sont simples : deux joueurs s’affrontent sur un plateau où ils placent des pierres noires et blanches afin de délimiter des territoires et de capturer les pièces de l’adversaire. Le but ultime est de contrôler plus de la moitié du plateau. Mais cette apparente simplicité cache une profonde complexité car ce jeu repose avant tout sur l’intuition. « Le nombre de combinaisons possibles est supérieur au nombre d’atomes que compte l’univers », résume Demis Hassabis, l’un des fondateurs de la société britannique DeepMind que Google a acquise en 2014. Les techniques d’intelligence artificielle basées sur la force brute, qui construisent un arbre binaire de recherche pour tester toutes les possibilités de mouvements, n’avaient jusqu’ici aucune chance de succès avec le jeu de go. L’algorithme apprend en jouant contre lui-même Pour réussir ce coup de maître, DeepMind a combiné les meilleures techniques d’intelligence artificielle et la puissance de calcul mise à sa disposition par la plateforme de cloud computing de Google. Au cœur du dispositif, deux réseaux neuronaux d’apprentissage profond ayant chacun une tâche différente. Le premier appelé policy network (quelque chose comme « réseau politique » ou « réseau de décision ») travaille à prédire le prochain coup tandis que le second, value network (« réseau de valeur »), estime l’issue favorable d’un mouvement à partir de la configuration du plateau de jeu. Les deux réseaux ont été associés à un arbre binaire de recherche qui utilise la méthode algorithmique probabiliste dite de Monte-Carlo sur laquelle reposent les logiciels de jeu de go les plus performants du moment (Crazy Stone et Zen). Elle consiste à jouer toutes les fins de parties possibles à partir d’une position en comptabilisant les parties gagnantes et perdantes. Les réseaux neuronaux sont là pour affiner la recherche, réduire sa complexité et sa profondeur, en adoptant une forme de raisonnement plus proche de l’imagination humaine. Chaque réseau est composé de douze couches contenant chacune des millions de connexions neuronales. Les « réseaux politiques » ont été entraînés avec une base de données de 30 millions de coups provenant de parties jouées par des experts jusqu’à ce qu’ils puissent prédire un mouvement 57 % du temps. Mais pour qu’AlphaGo puisse développer ses propres stratégies de jeu, DeepMind a eu recours à un apprentissage renforcé en lui faisant jouer des milliers de parties contre lui-même. Puis, les « réseaux politiques » ont été utilisés pour entraîner les « réseaux de valeur », toujours par apprentissage renforcé. « Ces réseaux de valeur peuvent évaluer n’importe quelle position de go et estimer l’éventuel gagnant », souligne Google. Évidemment, cet ambitieux programme n’aurait pu aboutir sans la puissance de calcul et la capacité de stockage que le géant nord-américain a fourni à travers son réseau de cloud computing. Par ailleurs, l’équipe de DeepMind a utilisé la plateforme d’intelligence TensorFlow dont Google a récemment libéré le code source. Ne restait plus ensuite qu’à envoyer AlphaGo défier un joueur professionnel. Mais avant cela, en guise d’échauffement si l’on peut dire, il a été confronté aux meilleurs logiciels de go du moment. Installé sur une seule machine, AlphaGo a remporté 499 des 500 parties disputées. Fan Hui, champion d’Europe en titre, est le premier joueur professionnel de go à avoir perdu contre AlphaGo. © DeepMind, YouTube Comment sera utilisée cette intelligence artificielle ? Face à Fan Hui, joueur français d’origine chinoise champion d’Europe en titre, le programme de DeepMind n’a pas fait de détails, s’adjugeant cinq victoires contre zéro pour son opposant. « Avec AlphaGo, on a joué durant cinq jours, avec deux parties par jour, une normale et une rapide. J’ai perdu 5-0 les parties normales, 3-2 les parties rapides. Comme lui joue très vite, j’aurais dû perdre plus dans les parties rapides, mais ce fut l’inverse, explique Fan Hui dans un entretien avec Le Monde. Je n’ai pas du tout eu l’impression de jouer contre un ordinateur. Il joue comme un humain ». Sans doute le meilleur compliment que pouvait recevoir AlphaGo… Mais Google ne compte pas en rester là. Le prochain défi pour son intelligence artificielle sera de tenter de battre le champion du monde de la discipline, Lee Sedol. La rencontre aura lieu en mars prochain à Séoul et le match sera retransmis en direct via la chaîne YouTube DeepMind. « J’aurai le privilège d’affronter pour la première fois un ordinateur. J’ai entendu dire qu’AlphaGo est étonnamment fort et s’améliorera encore, mais je suis confiant que je pourrai gagner, au moins cette fois-ci », a déclaré Lee Sedol. Quelle que soit l’issue de cet affrontement ultime, AlphaGo a d’ores et déjà fait accomplir un pas de géant à l’intelligence artificielle. Mais au-delà du jeu de go, la grande question est de savoir ce que Google compte faire de ce formidable outil. « Même si les jeux sont la plateforme idéale pour développer et tester rapidement des algorithmes d’intelligence artificielle, au bout du compte, nous voulons appliquer ces techniques à d'importants problèmes du monde réel », commente l’entreprise qui cite comme exemple la modélisation climatique et le diagnostic de maladies complexes. On peut aussi penser que Google exploitera cette technologie pour perfectionner ses propres services, notamment son moteur de recherche et son assistant vocal pour smartphones. Au cours de la conférence de presse qui a suivi la présentation d’AlphaGo, Demis Hassabis a été questionné sur les risques potentiels à long terme d’une intelligence artificielle aussi performante. Il a répondu que son entreprise collaborait sur ce sujet avec des universitaires, organisait des conférences et s’était dotée d’un comité d’éthique interne. « Par ailleurs, nous nous sommes mis d’accord avec Google pour que ces technologies ne soient pas utilisées à des fins militaires », a-t-il assuré. _________________________________________________________________________________ Pourquoi Stephen Hawking et Bill Gates ont peur de l'intelligence artificielle France Culture, 08/07/2015 Annonces catastrophistes, films d’anticipation ou de science-fiction, ou plus simplement arrivée imminente de technologies prêtes à bouleverser notre quotidien : les Intelligences Artificielles, ou IA, sont partout. A tel point que des scientifiques de renom, tel le célèbre physicien Stephen Hawking, voient en l’avènement de ces technologies un danger pour la race humaine. Pourtant, à écouter les spécialistes, la science est encore loin, voire très loin, de créer des machines plus intelligentes que l’être humain. Alors qu’est-ce, finalement, qu’une intelligence artificielle ? En un peu plus d’un demi-siècle d’existence, le champ de l’intelligence artificielle a considérablement évolué. Le terme apparait dès 1956, lorsque le logicien John McCarthy et le mathématicien Marvin Lee Minsky organisent une université d’été où ils présentent, pour la première fois, une nouvelle discipline : l’intelligence artificielle. Ce nouveau champ d’étude “avait pour objet d’étudier l’intelligence avec les moyens de l’artificiel, explique Jean-Gabriel Ganascia, chercheur au Laboratoire d’informatique de Paris 6 (CNRS/UPMC), et ce avec les techniques nouvelles qu’étaient les ordinateurs. Ça partait d’une conjecture selon laquelle tous les aspects de l’intelligence pouvaient être décomposés de façon si élémentaire qu’on pouvait les reproduire sur une machine ” Quand il s’agit de définir ce qu’est l’IA, la réponse est éminemment complexe, même pour les spécialistes du sujet. « L’intelligence artificielle essaye de reproduire des fonctions qu’on attribue à des entités intelligentes vivantes, précise Yann LeCun, responsable du centre FAIR, le Facebook artificial intelligence research. Quelquefois ces machines dépassent en performance les humains, comme aux échecs. Après, sont-elles plus intelligentes ? Non, elles sont juste très spécialisées. Il est difficile de répondre à cette question parce qu’on considère l’intelligence comme une capacité non seulement à résoudre un problème particulier, mais aussi à avoir une intelligence générale ». "L'apprentissage automatique, essence de l'IA" Contrairement aux idées reçues sur les IA, les chercheurs sont à des décennies de comprendre comment construire une machine dotée de cette fameuse intelligence générale. “Non seulement on en est très loin, mais on n’a absolument aucune idée de comment le faire”, assure Yann LeCun, joint par téléphone lors d'un déplacement aux Etats-Unis. Une intelligence artificielle, en l’état actuel des connaissances, est ainsi incapable d’apprendre par elle-même sans être supervisée. La nouvelle vague d’intérêt autour de l’IA repose donc beaucoup sur l’apprentissage automatique. “Par le passé, les chercheurs qui travaillaient sur l’IA se reposaient beaucoup moins sur cette technique d’apprentissage, et essayaient de construire, un peu à la main, des systèmes capables de raisonner, de manipuler des faits, de faire des déductions logiques, etc. En fait, il s’est avéré qu'il était extrêmement difficile d’abord de représenter la connaissance sous forme biologique et par ailleurs d’écrire des règles qui permettent de faire du raisonnement ”, retrace Yann LeCun. Ces techniques fonctionnent en effet pour des objectifs très simples, mais ne marchent plus dès lors que les chercheurs souhaitent construire une machine qui, par exemple, reconnaît les images ou encore la parole. “D’une certaine manière, l’apprentissage automatique c’est l’essence de l’intelligence artificielle. C’est ce qui explique l’engouement récent pour l’IA : les techniques d’apprentissage se sont beaucoup améliorées ”. Watson, l'IA d'IBM, a affronté des adversaires dans le jeu télévisé "Jeopardy"... et gagné. • Crédits : IBM "Cela fait très longtemps que l’on effectue de l’apprentissage machine, estime quant à lui Jean-Gabriel Ganascia. Ce sont des machines qui sont capables de tirer des données de leurs expériences, c’està-dire analyser des informations passées.” Pour autant, ces machines restent des mécanismes dénués de conscience propre, ou d’autonomie morale, au sens étymologique du terme, c’est-à-dire “qui se donne sa propre loi”. “Le but de l’intelligence artificielle n’était pas de reproduire un cerveau, poursuit Jean-Gabriel Ganascia, mais de reproduire les capacités cognitives humaines” . Une question de bon sens La première Loi de Moore a théorisé une évolution constante des capacités de calcul des ordinateurs. Mais c’est la rapidité d’apprentissage des machines qui augmente consécutivement, et non pas la capacité d’apprentissage. De fait, malgré des capacités techniques toujours plus importantes, les chercheurs en IA peinent à doter les machines de ce que l’on appelle le “sens commun”. Ce qu’on ne sait pas faire, ce sont des machines qui ont le sens commun. Si vous fermez les yeux et que je vous dis : “Paul se lève, prend la bouteille d’eau et sort de la pièce ”, il y a plein d'inférences que vous pouvez faire, qui sont dues au sens commun. Savoir que vous êtes probablement en intérieur dans une pièce, qu’il faut ouvrir une porte pour sortir, que la bouteille d’eau n’est plus dans la pièce parce qu’un objet ne peut être qu’à un endroit à la fois, que vous n’êtes plus dans la pièce non plus, que vous vous êtes probablement levé pour sortir de la pièce… Il y a énormément d’inférences que l’on peut faire quand on s’imagine cette séquence d’actions, qui sont dues à notre connaissance du monde. Les machines n’ont pas ce sens commun, le fait que la bouteille n’est plus dans la pièce, c’est quelque chose que la machine aura à apprendre par expérience. (Yann LeCun) Singulière singularité A en croire les chercheurs, les effrayantes IA du cinéma vont donc rester encore longtemps cantonnées à leur genre : la science-fiction. On est encore très loin du HAL 9000 de 2001, l’Odyssée de l’espace, de la bienveillante entité Samantha de Her, ou encore d’Ava, la curieuse androïde du plus récent Ex Machina. Alors pourquoi des personnalités telles Bill Gates, Stephen Hawking ou encore Elon Musk s’inquiètent-elles de la possible émergence d’une intelligence artificielle, susceptible de détruire l’espèce humaine ? Les formes primitives d'intelligence artificielle que nous avons déjà se sont montrées très utiles. Mais je pense que le développement d'une intelligence artificielle complète pourrait mettre fin à la race humaine. (Stephen Hawking) Pour vérifier l’émergence d’une intelligence artificielle, il est communément admis que celle-ci devrait être capable de passer le test de Turing, imaginé en 1950 par le fameux cryptologue Alan Turing. Pour réussir cette expérience, une machine doit parvenir à échanger avec un être humain sans que ce dernier ne réalise qu’il est en train de discuter avec un ordinateur et non avec un de ses pairs. De l’avis même des chercheurs, ce test n’a pourtant pas grand intérêt : les chatbot, des systèmes de conversation qui paraissent humains mais ne font que reproduire des petits segments de phrases qu’ils ont repérés un peu partout et qu’ils régurgitent au bon moment, seront ainsi bientôt à même de passer le test. “Ça semble intelligent, explique Yann LeCun, parce que ces phrases ont été écrites par des humains à l’origine. Mais c’est une ruse. C’est pour ça qu’on pense que ça n’est pas un bon test.” En réalité, si nombre de personnes croient en l’émergence plus ou moins immédiate d’une IA, ça n’est pas tant grâce au test de Turing qu’en raison du concept de “singularité technologique”. Ce point de singularité où l'évolution technologique serait telle que le progrès ne serait plus tant l'œuvre des humains que celle des IA, reste donc fortement improbable. D’autant que, comme l’affirme Yann LeCun, cette hypothèse omet des limites physiques qui vont contrecarrer cette croissance technologique exponentielle. On est encore très loin du fameux Skynet de Terminator ou des IA de Matrix, dont le but partagé est d’oblitérer la race humaine. « Dans tous les romans de science-fiction, on voit les robots qui se rebellent parce qu’ils veulent prendre le pouvoir ou deviennent meurtriers parce qu’on menace de les déconnecter, poursuit Yann Lecun. Tout ça vient d’une espèce de projection des qualités et des défauts humains dans les IA. Il leur est prêté un instinct de préservation, de la jalousie ou un désir de puissance alors qu’il n’y aucune raison que ce soit présent dans les machines intelligentes. Ces qualités et ces défauts sont présents chez les humains parce que l’évolution nous a construits de cette manière afin que l’espèce survive. Mais nous n'avons aucune raison de construire ce genre de comportements dans les machines ». IA-éthique “Ceci dit il y a relativement peu de doutes sur le fait que le progrès technologique va être accéléré par l’avènement de l’intelligence artificielle. C’est déjà un peu le cas”, précise le chercheur du FAIR. Cette irruption programmée de l’IA dans notre vie de tous les jours va, surtout, rapidement poser des questions d’ordre éthique. François Charpillet, directeur de recherche à l’INRIA, juge nécessaire de s’interroger sur l’impact de la robotique sur l’humanité. « ll faut savoir être pragmatique et en phase avec la portée de la technologie telle qu’elle est aujourd’hui. La question que se posent les gens c’est : « Est-ce que les robots vont nous prendre notre travail ? ». Je m’intéresse à la robotique d’assistance à la personne en perte d’autonomie et cela pose en effet des questions d’éthique. Pas celles de savoir si le robot doit obéir à l’humain, mais de savoir quel sera l’impact de l’introduction de ces nouvelles technologies dans la vie de tous les jours. La question est de savoir si on peut remplacer l’environnement humain par des machines, c'est beaucoup plus terre à terre que celle des lois de la robotique d’Asimov ». La Google Car, une voiture sans chauffeur. • Crédits : Google Si par exemple une voiture sans chauffeur a un accident, qui en sera tenu responsable ? Dans le cas où un accident est inévitable et va fatalement faire une victime, de quelle façon réagira l'intelligence artificielle ? En fonction de quels critères "choisira"-t-elle la victime ? Ces questions ont été abordées à maintes reprises dans la science-fiction (notamment par Isaac Asimov), et elles interrogent nécessairement les spécialistes. Cette question de l’éthique dans la recherche est devenue si récurrente que plusieurs centaines de chercheurs, dont Yann LeCun, ont signé une lettre ouverte pour appeler à la mise en place de règles censées orienter la recherche en IA pour “servir le bien-être de l’humanité ”. (Jean-Gabriel Ganascia) Une IA complémentaire A en croire les spécialistes de l’intelligence artificielle, la machine consciente et autonome tient plus du fantasme, de la projection fantaisiste, que d’une imminente réalité. L’IA est à envisager comme une assistance aux problèmes humains. A l’heure actuelle, les technologies les plus représentatives de ce que sont les IA restent les systèmes de reconnaissance d’images ou de compréhension du langage naturel. Mais dans un futur proche, à une échelle de 10 à 15 ans, nous devrions voir apparaître, à en croire Yann LeCun, de nouvelles machines “qui vont révolutionner la société ”. Des voitures qui se conduisent seules, des assistants personnels artificiels, des traducteurs automatiques en temps réel ? La science-fiction, parfois, ne semble pas si loin. C3PO n’a qu'à bien se tenir.