Nombre de document(s) : 10 Date de création
Transcription
Nombre de document(s) : 10 Date de création
Nombre de document(s) : 10 Date de création : 17 mars 2016 Créé par : Cégep-Granby-Haute-Yamaska Que serons-nous quand les robots feront tout le travail ? Le Devoir - 22 février 2016...................................................................................................................................2 Des obstacles se dressent devant les voitures sans chauffeur Le Devoir - 7 janvier 2016.................................................................................................................................... 5 Pourquoi avoir peur de la guerre des robots Le Devoir - 15 juillet 2015.................................................................................................................................... 7 | tribune | Il faut se préparer à accueillir les robots Le Monde - 16 mars 2016..................................................................................................................................... 9 L'accident d'une "Google car" ou le début d'une révolution de la route L'Obs (site web) - 4 mars 2016........................................................................................................................... 12 Robots tueurs, sans foi ni loi Le Monde - 26 septembre 2015...........................................................................................................................15 Faut-il reconnaître des droits aux robots? Le Temps - 20 février 2016................................................................................................................................. 19 Ferons-nous confiance aux robots qui nous entourent ? L'Usine Nouvelle.com - 19 octobre 2015............................................................................................................22 Portrait des enjeux juridiques Le Journal - Barreau du Québec - 1 décembre 2015........................................................................................... 26 Droit des robots (III): réalité ou science-fiction? Le Temps - 19 février 2016................................................................................................................................. 28 1 Nombre de document(s) : 10 Date de création : 17 mars 2016 Le Devoir Société, lundi 22 février 2016, p. A5 Que serons-nous quand les robots feront tout le travail ? Des scientifiques rappellent l'urgence de légiférer pour encadrer l'évolution rapide de l'intelligence artificielle Olivier Dessibourg D'ici 2020, les machines intelligentes autonomes, ou semi-autonomes, se seront entièrement fondues dans nos sociétés. Lesquelles ? Les voitures et camions autoguidés, les drones de surveillance, les systèmes industriels intelligents, les robots ménagers à vraiment tout faire. " Ces machines vont prendre les décisions à la place des humains. Nous vivrons en symbiose avec elles. Nous allons leur faire confiance ", a résumé Bart Selman, professeur d'informatique à l'Université américaine de Cornell, lors de la récente conférence annuelle de l'American Association for the Advancement of Science (AAAS). Bart Selman n'est pas seul à penser de la sorte. En 2015, il a lancé une lettre ouverte enjoignant aux humains de réfléchir à la possibilité qu'ils soient en train de mettre au point des agents dotés d'une intelligence artificielle (IA) telle qu'elle leur permette de dépasser leurs créateurs, voire de les asservir, après les avoir privés de leurs emplois. Cette pétition a été paraphée depuis par près de 10 000 signataires, dont certains célèbres comme l'astrophysicien Stephen Hawking ou l'entrepreneur Elon Musk. Ce dernier a d'ailleurs ensuite promis des soutiens financiers à diverses institutions, dont le Future of Life Institute à Cambridge (Massachusetts) pour s'assurer que " les systèmes d'IA demeurent bénéfiques aux humains ". Investissements faramineux " Jusqu'à 2011, ce domaine était purement universitaire, rappelle Bart Selman. Mais depuis, divers secteurs économiques s'en sont emparés. " Pour preuve les investissements faramineux consentis, surtout par les nouvelles sociétés du numérique (Google, Facebook, etc.) : " En 2015, davantage d'argent -plusieurs milliards -- a été alloué à la recherche en IA que durant les 50 années précédentes. " " Les milieux militaires ont proposé d'y ajouter 19 milliards de dollars ", a ajouté Wendell Wallach, éthicien à l'Université de Yale. Pour Bart Selman, l'on assiste à un changement de paradigme informatique : " Auparavant, on programmait des logiciels dans leurs moindres lignes de code. Aujourd'hui, les agents intelligents synthétisent des comportements sur la base de montagnes de données. Les objectifs qu'on leur attribue sont de plus haut niveau, et ils les remplissent avec des stratégies qui seront peut-être différentes de celles que l'on aurait prédites. Ces machines resteront-elles dès lors compréhensibles pour l'homme ? " Concurrencer l'intelligence humaine 2 L'informaticien voit plusieurs raisons à cet essor. La première est la capacité de ces agents artificiels à interagir avec l'homme au niveau des perceptions. Un changement " considérable " : " Dans les cinq dernières années, les ingénieurs les ont dotés de systèmes visuels et auditifs ; la première voiture autoguidée n'avait pas de caméra, mais c'est le cas maintenant. Cela change leur manière d'interagir avec notre monde. Par exemple, les systèmes de Facebook reconnaissant les visages d'individus mieux qui quiconque. J'ai longtemps pensé ce problème insoluble, mais il est désormais résolu à 90 %. " Surtout, " c'est la capacité de ces machines à combiner raisonnement et apprentissage qui fait une immense différence ", a dit l'expert, en rappelant la victoire récente d'un ordinateur de la société DeepMind, appartenant à Google, sur un Coréen au jeu de go, qu'on croyait être le dernier bastion de l'intelligence humaine. Avant d'admettre tout de même : " Inculquer à cette machine ce qu'on appelle le "bon sens" reste encore un défi. Mais dans 10 à 15 ans, cela sera résolu. " À Washington, les scientifiques ont discuté de la capacité de tous ces agents artificiels à remplacer l'homme dans moult secteurs économiques. Nombre de document(s) : 10 Date de création : 17 mars 2016 Selon une étude publiée en 2013 par deux chercheurs de l'Université d'Oxford, Carl Benedikt Frey et Michael Osborne, 47 % des professions du secteur des services pourront ainsi être exercées par des robots dans les vingt prochaines années. D'aucuns y voient néanmoins des aspects bénéfiques. L'emploi dans une autre dimension Concernant la circulation routière par exemple : grâce à un parc automobile fait uniquement d'engins automatisés, les accidents pourraient diminuer de 90 %, a admis Moshe Vardi, chercheur à l'Université américaine Rice, et l'un des grands spécialistes du domaine. Revers de la médaille : " Aux États-Unis, 10 % des emplois impliquent un véhicule. Ces postes vont disparaître. " Avec un parc automobile entièrement constitué d'engins automatisés, comme la GoogleCar, le nombre d'accidents pourrait diminuer de 90 %, selon Google. Comme lors de la révolution industrielle, ces pertes dans un secteur ne seront-elles pas remplacées par la création d'emplois dans d'autres domaines, est-il souvent rétorqué ? " En partie peut-être, répond Bart Selman. Mais si la révolution industrielle a déplacé les emplois des secteurs mécaniques ou manuels vers notamment le secteur administratif, là, on parle tout de même d'agents aptes à nous remplacer sur le plan intellectuel. C'est une autre dimension ! " Pour Moshe Vardi, même si le taux de chômage tend actuellement à stagner, cela ne signifie pas que le phénomène décrit plus haut n'a pas lieu, sournoisement : " On peut regarder les chiffres absolus du chômage, dit-il, mais on peut aussi en regarder d'autres. Par exemple le pourcentage de la population totale qui est active professionnellement. Après l'arrivée des femmes sur le marché du travail en 1980, il était à son sommet de 80 %. Depuis, ce taux ne cesse de baisser, se situant désormais à 60 %. Que feront les sociétés quand il sera à 25 % ? " " Les hommes auront plus de temps pour leurs loisirs, pour des activités culturelles. Ne serait-ce pas là un bien ? ", a demandé un journaliste. " Est-on vraiment sûr que les humains vont davantage s'adonner aux arts ? Et pas plutôt regarder encore davantage de reality shows à la télévision ", lui a rétorqué le scientifique. Avant de disserter sur le sens de l'existence : " Depuis 10 000 ans, l'homme doit travailler pour survivre. Bon ou pas, cet état de fait définissait la vie de la plupart des gens. La question plus philosophique est donc désormais celle d'une bonne vie sans travail... " Une " question politique " Pour l'éthicien Wendell Wallach, il est indubitable que les robots pourront remplacer les travailleurs dans des tâches ingrates et inhumaines : " Il y a 350 millions d'employés dans le monde qui, simplement, portent des caisses dans les usines. Les robots intelligents peuvent le faire à leur place. Mais cela impliquerait la perte de 350 millions de postes de travail. La question n'est donc pas de savoir à quel point l'automatisation des 3 systèmes de production va augmenter la productivité. Elle est plutôt d'ordre politique, et concerne la redistribution équitable des biens et des ressources qui doivent permettre à tous les humains de la planète, même sans travail, de faire vivre leur famille. " Et quid de l'avantage de suppléer les soldats par des robots sur le champ de bataille ? " L'autonomie [donnée aux robots soldats] menace le principe fondamental qu'il doit exister un agent, fût-il humain ou moral [tel un État ou une société], qui soit responsable de tout dommage généré par ces systèmes artificiels, avise Wendell Wallach. Veut-on vraiment aller sur cette voie de la dilution de la responsabilité ? " Et l'éthicien de faire trois propositions pour encadrer le domaine en plein essor de l'intelligence artificielle. Premièrement, imposer de réserver 10 % des recherches en IA vers l'étude et l'adaptation aux impacts sociétaux induits par l'arrivée des machines intelligentes. Deuxièmement, créer un organe de gouvernance pour proposer des principes émargeant des lois afin de trouver des solutions pour reconnaître les risques et les dangers dans ce domaine. Et enfin, demander au président américain de décréter que, selon les lois américaines, les robots armés autonomes violent les lois humanitaires internationales existantes. " Nous sommes en campagne présidentielle, et ce thème n'apparaît nulle part sur les radars ", a regretté Moshe Vardi. Nombre de document(s) : 10 Date de création : 17 mars 2016 © 2016 Le Devoir. Tous droits réservés. ; CEDROM-SNi inc. news·20160222·LE·2016-02-22_463603 - Date d'émission : 2016-03-16 Ce certificat est émis à Cégep-Granby-Haute-Yamaska à des fins de visualisation personnelle et temporaire. Retour à la table des matières 4 Nombre de document(s) : 10 Date de création : 17 mars 2016 Le Devoir Économie, jeudi 7 janvier 2016, p. B3 Des obstacles se dressent devant les voitures sans chauffeur Les grands de l'auto font un arrêt à Las Vegas avant de se rendre à Detroit Le Monde C'est le signe des temps qui changent. À moins d'une semaine du Salon automobile de Detroit, les grands noms du secteur se sont donné rendezvous... à Las Vegas. Sont notamment présents Mary Barra et Mark Fields, respectivement p.-d.g. de General Motors et de Ford. Ils sont venus assister au Consumer Electronic Show (CES), le grand salon consacré à l'électronique grand public, qui a ouvert officiellement ses portes mercredi. Car cette année, encore plus que lors des précédentes éditions, la vedette de cette grand-messe, c'est la voiture sans conducteur. En retrait médiatiquement face à Google ou à Tesla, les constructeurs veulent occuper le terrain. Si la bataille entre tous ces combattants se joue dès aujourd'hui, l'arrivée de tels véhicules sur nos routes n'est pas pour demain matin. Il faudra attendre au moins cinq ans avant qu'une voiture roule de manière autonome en ville (quand la vitesse de circulation est peu importante) ou sur les autoroutes (où la conduite est moins complexe), prédit Egil Juliussen, directeur de recherche au sein du cabinet IHS Automotive. "Mais pas avant 2025 pour un véhicule autonome pour tous les trajets et dans toutes les conditions météorologiques", poursuit-il. Du côté des matériels pourtant, "les capteurs sont déjà au point", assure Richard Wallace, du centre de recherche Center for Automotive Research. Caméras, radars et lidars (lasers) permettent de cartographier l'environnement à 360 degrés et de détecter voitures, cyclistes, piétons, feux rouges, lignes blanches... "Ce qui pose encore problème, c'est l'interprétation des images et des sons pour prendre les bonnes décisions de conduite", assure le spécialiste. La technologie des voitures sans conducteur repose sur le machine learning (ou apprentissage automatique), c'est-à-dire des algorithmes informatiques capables d'apprendre tout seuls. Cette forme d'intelligence artificielle est très en vogue dans la Silicon Valley -Google et Facebook y investissent notamment des ressources considérables. Elle permet par exemple d'identifier des objets et des animaux sur des photos ou d'améliorer les outils de traduction. Accumuler des kilomètres d'essai Pour les véhicules autonomes, le défi est cependant beaucoup plus complexe. Et la marge d'erreur infime. "Concevoir une machine capable d'avoir raison 99 % du temps est relativement facile, mais parvenir à un taux de 99,9999 % -- le niveau qu'il faut atteindre -- est beaucoup plus difficile. Faire des erreurs à 110 kilomètres/heure serait hautement 5 problématique", résume Tesla, le fabricant de voitures électriques, qui propose déjà une fonction limitée de pilotage semi-automatique. Les programmes informatiques ne savent apprendre que par l'exemple. Ils doivent donc être abreuvés de données. Dans le cas des voitures sans conducteur, cela signifie accumuler les kilomètres d'essai en conditions réelles. En juin 2015, Google revendiquait plus de 1,6 million de kilomètres parcourus en Californie et au Texas. Le groupe assure que ses différents prototypes n'ont jamais été impliqués dans un accident. "Mais elle n'indique pas combien de fois ses chauffeurs ont dû reprendre le contrôle", déplore John Simpson, de Consumer Watchdog, une organisation de défense des consommateurs. "Il faudra des centaines, voire des milliers de véhicules de test", estime M. Juliussen. L'algorithme doit en effet apprendre à réagir dans toutes les situations possibles: par beau temps ou sous la pluie, de jour ou de nuit, dans les embouteillages, devant une école, derrière un tracteur... En outre, ces essais devront être reproduits dans chaque pays pour tenir compte des différents codes de la route et des habitudes de conduite. "Le risque zéro n'existe pas, reconnaît M. Wallace. Il y aura toujours un cas Nombre de document(s) : 10 Date de création : 17 mars 2016 de figure particulier que le logiciel n'aura jamais rencontré." Au-delà de l'aspect technologique, un autre obstacle menace le développement des voitures sans conducteur: la réglementation. Pourtant en pointe sur le sujet, l'État de Californie a présenté à la midécembre 2015 un projet de loi visant à encadrer strictement la commercialisation de ces véhicules. Ce texte doit faire l'objet de deux débats publics, fin janvier puis début février. Mais en l'état, il "va empêcher cette technologie d'atteindre tout son potentiel", assure Chris Urmson, le directeur technique du projet Google Car. La mesure la plus controversée impose la présence d'un "opérateur" capable de reprendre immédiatement le contrôle en cas de défaillances technologiques ou d'autres urgences. "Compte tenu des risques associés au déploiement de cette nouvelle technologie, nous pensons que les constructeurs ont besoin d'acquérir davantage d'expérience, justifie l'administration californienne. Par ailleurs, un simple permis de conduire ne suffira pas pour utiliser une voiture autonome : un permis spécifique sera nécessaire. "Ces règles maintiennent le statu quo en excluant les personnes qui ont besoin de se déplacer mais qui ne peuvent pas conduire", regrette M. Urmson. Les services de transport urbain totalement autonomes pourraient ainsi être interdits en Californie. Or, selon l'agence Bloomberg, ces "taxis robots" font partie des plans de la société. Ils figurent aussi dans les projets d'Uber, la populaire application de voitures avec chauffeur qui travaille également sur les technologies autonomes. Les assureurs sont très attentifs En outre, le projet de réglementation prévoit que ces véhicules ne pourront pas être vendus à des entreprises ou à des particuliers. Ils pourront seulement être loués. L'administration veut que les constructeurs gardent le contrôle. Ils devront fournir des rapports mensuels sur l'utilisation et les performances de leurs voitures. Et © 2016 Le Devoir. Tous droits réservés. ; CEDROM-SNi inc. news·20160107·LE·2016-01-07_459475 - Date d'émission : 2016-03-16 Ce certificat est émis à Cégep-Granby-Haute-Yamaska à des fins de visualisation personnelle et temporaire. Retour à la table des matières 6 devront signaler les accidents. "Les données collectées permettront d'évaluer la sécurité et les performances en conditions réelles des véhicules autonomes", justifie le Department of Motor Vehicles (DMV) de Californie.Cet organisme public chargé, au niveau de l'État, de l'enregistrement des véhicules et des permis de conduire, précise que ces premières contraintes pourront être assouplies après quelques années. Une fois tous ces obstacles franchis, un dernier problème devra être résolu: celui de la responsabilité en cas d'accident ou d'infraction au code de la route. Pour l'État de Californie, elle est à la charge du conducteur. "Si ces voitures sont autorisées à rouler, il semble logique que la responsabilité incombe aux fabricants automobiles", rétorque M. Simpson. Un sentiment partagé par Google et par le constructeur suédois Volvo. Ce débat est en tout cas suivi de près par les assureurs. "Ils pourront avoir à changer de modèle économique", prédit le cabinet McKinsey. Nombre de document(s) : 10 Date de création : 17 mars 2016 Le Devoir Idées, mercredi 15 juillet 2015, p. A7 Opinion Pourquoi avoir peur de la guerre des robots La communauté internationale doit éviter le spectre de conflits dominés par des Frankenstein Charles Benjamin - Professeur de science politique au cégep Saint-Jean-sur-Richelieu Moins d'une décennie après avoir fait leur apparition sur les champs de bataille, les drones de combat ont aujourd'hui envahi les théâtres de guerre. Le président Obama a généralisé le recours aux assassinats ciblés et fait de ces appareils téléguidés son arme de prédilection dans la lutte contre le terrorisme. En 2013, l'armée américaine comptait près de 7500 drones dans son arsenal, ce qui représentait le tiers de sa flotte aérienne. Au terme de son premier mandat, Obama avait autorisé huit fois plus d'attaques de drones que son prédécesseur. Pourtant, si l'avènement des drones armés constitue une transformation militaire importante, la prolifération des armes sans pilote ne pourrait être que le début de la robotisation de la guerre. Des percées dans le domaine de l'intelligence artificielle permettent désormais d'envisager un avenir dans lequel des machines autonomes pourront repérer et éliminer des cibles ennemies sans intervention humaine. Le scénario imaginé par James Cameron dans son film Terminator pourrait bientôt devenir réalité. La robotique séduit déjà les armées des pays riches, qui sont progressivement entraînés dans une course à l'armement. Or le déploiement de robots prédateurs soulève des enjeux éthiques graves qui devraient interpeller les gouvernements et les citoyens. Est-il souhaitable que des robots perfectionnés se substituent aux soldats et aient un droit de vie ou de mort sur des humains ? Les robots tueurs pourront-ils se conformer au droit international humanitaire et obéir aux lois de la guerre ? Alors que les grandes puissances refusent de décréter un moratoire sur la robotisation militaire, la coalition Campain to Stop Killer Robots milite pour interdire le développement de ces engins de la mort. Christof Heyns, rapporteur spécial des Nations unies, a également exprimé des craintes dans son dernier rapport sur le sujet. L'automatisation des robots, dont les prototypes pourraient être opérationnels d'ici 20 ans, accomplit une révolution dans les affaires militaires comparable à celle provoquée par l'invention des armes à feu ou de la bombe atomique. Pour leurs partisans, les systèmes automatisés procurent des avantages considérables aux armées qui maîtrisent cette technologie. Les robots sont politiquement et économiquement rentables pour les décideurs qui les emploient dans les zones de conflit. Ils constituent une solution de rechange à l'envoi de troupes au sol et permettent de réaliser la promesse d'une guerre " zéro mort ", chère aux opinions 7 publiques occidentales depuis la fin de la guerre du Vietnam. Ils peuvent pénétrer plus profondément derrière les lignes ennemies sans être ravitaillés et peuvent rester déployés plus longtemps qu'un contingent de soldats. Ils peuvent être programmés pour laisser des traces électroniques de leurs interventions, rendant ainsi leur contrôle plus transparent. Ils sont également immunisés contre la peur, la fatigue et les autres facteurs de stress auxquels font face les combattants au front. Puisqu'ils ne craignent pas pour leur survie, les robots ne risquent pas d'utiliser la force par instinct de conservation ou par désir de vengeance. À moins d'être programmés à ces fins, ils n'infligent pas délibérément des violences à des populations civiles et ne pratiquent pas la torture. En revanche, l'introduction prochaine d'automates sur les champs de bataille soulève des inquiétudes grandissantes. Pour ses détracteurs, la robotisation de la guerre constitue une dérive technologique qui risque de compromettre la paix et la sécurité internationales. En sous-traitant des opérations militaires à des robots, les dirigeants politiques peuvent éprouver moins de répugnance à recourir à la guerre. C'est aussi l'un des paradoxes des drones de combat : parce qu'elle réduit le coût humain de la guerre, la Nombre de document(s) : 10 Date de création : 17 mars 2016 technologie militaire fait tomber un frein à la violence et contribue à banaliser les conflits armés. De plus, malgré les progrès de l'intelligence artificielle, l'utilisation de robots prédateurs risque d'être incompatible avec les principes élémentaires du droit humanitaire. Ces appareils ne sont pas équipés de capteurs capables de reconnaître un combattant ennemi et de le distinguer d'un civil innocent, surtout dans le contexte actuel des guérillas urbaines où les belligérants ne portent pas d'uniforme. Ils ne peuvent pas : déterminer si une personne est blessée et hors de combat, ou si un soldat ennemi souhaite se rendre ; ils ne sont pas programmés pour calculer la proportionnalité de leurs attaques ; ils sont incapables de juger si les pertes civiles anticipées lors d'une frappe sont excessives par rapport à la valeur de la cible militaire visée. Bien que sensibles à ces enjeux, les partisans de la révolution robotique croient néanmoins que les obstacles techniques peuvent être contournés. Pour assurer le repérage d'une cible militaire légitime, les robots peuvent être réglés pour ne riposter qu'en cas de légitime défense, lorsqu'ils sont victimes d'un tir ennemi. Leur usage peut également être limité aux terrains d'opérations inhabités (mer ou désert). Mais en définitive, les robots autonomes, en décidant eux-mêmes de © 2015 Le Devoir. Tous droits réservés. ; CEDROM-SNi inc. news·20150715·LE·2015-07-15_445062 - Date d'émission : 2016-03-16 Ce certificat est émis à Cégep-Granby-Haute-Yamaska à des fins de visualisation personnelle et temporaire. Retour à la table des matières 8 leur propre utilisation, échappent à toute forme d'autorité hiérarchique et de responsabilité juridique, ce qui est contraire aux Conventions de Genève. À qui devrait-on attribuer la faute pour un crime de guerre commis par un robot déréglé ou défectueux ? Pourrait-on tenir responsables les programmeurs, les fabricants, les officiers ou les politiques ayant autorisé son utilisation ? La robotique promet de changer le visage de la guerre et marque l'asservissement de l'humain à la machine. La communauté internationale doit éviter le spectre d'un monde dominé par des Frankenstein robotisés et légiférer pour interdire la production de ces engins. Nombre de document(s) : 10 Date de création : 17 mars 2016 Le Monde Science & techno, mercredi 16 mars 2016, p. SCH8 Le Monde Science et médecine Spécialiste des interactions homme-machine, Laurence Devillers rappelle que nos capacités d'empathie peuvent conduire à s'illusionner sur les capacités réelles des robots. Leur irruption dans nos vies nécessite une réflexion éthique | tribune | Il faut se préparer à accueillir les robots L a victoire d'AlphaGo (Google DeepMind) sur Lee Sedol, l'un des tout meilleurs joueurs de go, relance les questionnements sur les promesses et les risques de l'avènement de machines intelligentes. Pourtant, l'exploit d'AlphaGo, vingt ans après Deep Blue victorieux face à Garry Kasparov, ne doit pas fausser notre vision de ce dont seront capables les robots qui s'invitent de plus en plus dans notre vie quotidienne. Les robots et objets connectés vont intégrer nos foyers, tout comme les téléphones portables et les téléviseurs. Les premiers dans notre quotidien sont les aspirateurs capables de reconnaître des obstacles et se déplacer de façon autonome. Bientôt, nous pourrons parler à des robots assistants, comme on parle déjà à son téléphone. Au Laboratoire d'informatique pour la mécanique et les sciences de l'ingénieur (Limsi)CNRS, nos recherches portent sur les interactions homme-machine. Un robot est une machine artificiellement intelligente grâce à des modèles informatiques conçus par des humains : pour peu qu'on l'ait programmée pour détecter et reconnaître des indices émotionnels et conversationnels et pour s'adapter à l'humain, voire faire de l'humour, cette machine peut sembler chaleureuse. Nous utilisons également des algorithmes d'apprentissage et des réseaux de neurones. Il est cependant moins facile d'apprendre des concepts comme les émotions et les stratégies de dialogue à partir de grands corpus de données, car ces concepts ne sont pas si faciles à formaliser. Les enfants apprennent en expérimentant le monde. Pour un robot, la tâche est extrêmement difficile car il n'a ni instinct ni intentions pour prendre des décisions. La machine ne sait pas construire de façon autonome des représentations nouvelles devant une nouvelle tâche, en revanche elle peut imiter l'humain. Les robots ne ressentent rien, n'ont pas de conscience, même s'ils peuvent dire « je t'aime » ! Les machines seront de plus en plus autonomes grâce à des programmes d'intelligence artificielle sophistiqués, elles ne seront pas pour autant capables de sentiments, de créativité et d'imagination tel qu'on l'entend pour les humains. La machine ne peut pas se sentir « heureuse » car elle est dénuée de conscience phénoménale. Elle ne peut d'ailleurs pas « comprendre » le concept de bonheur. Lorsque AlphaGo bat le joueur de go, la machine ne comprend pas ce qu'elle fait. 9 Devant une question sans réponse, l'humain est incroyablement plus fort que la machine pour imaginer des solutions. Nous pouvons développer des machines plus intelligentes que nous pour des tâches spécifiques, ces machines pourront même accomplir des actions impossibles pour l'homme. La machine est plus forte que l'humain pour effectuer des calculs complexes, et ce de plus en plus rapidement! Elle est plus forte pour répondre à des questions encyclopédiques, pour reconnaître des personnes... car elle a une mémoire énorme! Il faut exploiter ces capacités, sans en avoir peur, pour notre bien-être dans la société. En 2060, 32 % de la population française aura plus de 60 ans, soit une hausse de 80 % sur une cinquantaine d'années, et la charge des maladies chroniques ira de pair avec le vieillissement de la population. Les robots, parfois humanoïdes afin d'évoluer dans notre habitat, pourront nous être très utiles pour rester à domicile. Ils auront des rôles différents dans notre quotidien : du surveillant à l'assistant ou au compagnon. La relation homme-robot sera souvent triangulaire, entre l'homme, le robot, et le personnel soignant ou la famille. De nombreuses applications pour la santé, la sécurité ou le divertissement sont envisagées. Nombre de document(s) : 10 Date de création : 17 mars 2016 Les premières études d'interaction entre un robot et des personnes âgées menées avec des ergothérapeutes de l'association Approche dans des maisons de retraite (projet PSPCRomeo, piloté par Aldebaran-Robotics avec les grands laboratoires français en robotique) ainsi qu'avec des gérontologues dans le living lab de l'hôpital Broca, à Paris, montrent un grand intérêt pour les robots et des réactions plutôt positives. D'ici cinq à dix ans, les seniors auront des connaissances en informatique et l'acceptation sera bien plus forte. De même, les personnels soignants auront compris que leur rôle sera d'autant plus valorisé grâce aux machines. Les médecins y voient déjà une avancée significative pour le suivi des patients. Créer une relation affective avec les robots n'est plus un sujet de sciencefiction. La ressemblance avec un être humain ou un animal, les mimiques faciales, le ton de voix, ou encore l'aspect enfantin ou peluche de certains d'entre eux contribuent à susciter l'émotion. Cependant, il est possible d'éprouver des émotions en face de n'importe quel objet. L'humain projette aussi des relations affectives avec des robots non humanoïdes, dépourvus de capacités affectives, comme des robots téléguidés démineurs qui sauvent des soldats, ou encore des robots aspirateurs. Certains leur donnent des noms, preuve que l'humain projette une identité sur le robot. L'attachement est un lien affectif qui résulte de l'histoire commune. La media equation de Reeves et Nass, en 1996, explique que nous appliquons les mêmes attentes sociales lorsque nous communiquons avec des entités artificielles. L'anthropomorphisme est l'attribution des caractéristiques comportementales de vie humaine à des objets. Ainsi, un objet qui semble ressentir de la douleur, comme le robot Atlas de Boston Dynamics, peut inspirer de l'empathie. Grâce à l'imagerie cérébrale, les chercheurs ont constaté que les humains en éprouvaient pour des robots maltraités, certes de moindre intensité qu'envers des humains maltraités, une empathie qui n'existe pas pour des objets inanimés. Mais la ressemblance avec l'humain ne pourrait aller que jusqu'à un certain point, si l'on en croit la théorie de la « vallée de l'étrange . Car si l'on va trop loin, le moindre défaut devient monstrueux et la machine est rejetée. L'interaction affective et sociale des humains avec des robots soulève plusieurs questions éthiques qui s'ajoutent aux questions générales de respect de la vie privée et de protection contre des actes malveillants. Les préconisations publiées par la Comission de réflexion sur l'éthique de la recherche en sciences et technologies du numérique (Cerna), de l'Alliance des sciences et technologie du numérique (Allistene) sur l'éthique du chercheur en robotique portent sur l'imitation du vivant et l'interaction affective et sociale avec les humains, l'autonomie et les capacités décisionnelles, et la réparation et l'augmentation de 10 l'homme par la machine. Peu d'expériences ont encore été menées sur l'étude des usages à long terme. Concevoir cet univers dans lequel les humains cohabiteront avec des entités complexes autonomes qui peuvent s'adapter va devenir une réalité. L'apparition des robots dans la société va de pair avec un grand nombre de défis légaux et sociétaux à résoudre, comme les problèmes de droit et responsabilités et le partage du travail sur lesquels il faut se pencher : comment éduquer pour pouvoir créer du travail autour de ces machines? quels nouveaux métiers? quelles règles? pour quelles tâches souhaitons-nous créer ces entités artificielles? comment peuvent-elles nous aider sans prendre le travail des hommes et pour le bien-être de tous? Note(s) : Laurence Devillers est professeure à Paris-Sorbonne-IV. Elle dirige une équipe de recherche au Laboratoire d'informatique pour la mécanique et les sciences de l'ingénieur (Limsi)-CNRS : « Dimensions affectives et sociales dans les interactions parlées . Le supplément « Science & médecine » publie chaque semaine une tribune libre ouverte au monde de la recherche. Si vous souhaitez soumettre un texte, prière de l'adresser à [email protected] Nombre de document(s) : 10 Date de création : 17 mars 2016 © 2016 SA Le Monde. Tous droits réservés. ; CEDROM-SNi inc. news·20160316·LM·2212334 - Date d'émission : 2016-03-16 Ce certificat est émis à Cégep-Granby-Haute-Yamaska à des fins de visualisation personnelle et temporaire. Retour à la table des matières 11 Nombre de document(s) : 10 Date de création : 17 mars 2016 L'Obs (site web) Economie, vendredi 4 mars 2016 L'accident d'une "Google car" ou le début d'une révolution de la route Hebert, Donald En percutant un bus en Californie, une voiture sans chauffeur de Google a illustré ce qui attend la route : la fin du permis de conduire, du bonus-malus, et de notre système de responsabilité. C'est arrivé sur une route à trois voies de la côte ouest des Etats-Unis, en Californie, près de San Francisco, plus exactement à Mountain view, non loin du siège de Google. Une voiture de marque Lexus qui roulait sur la file de droite s'est retrouvée face à des sacs de sable. Pour les éviter, elle a ralenti afin de déboîter à gauche. Puis, après avoir laissé passer plusieurs véhicules, elle s'est engagée très lentement sur la voie centrale. Elle pensait que l'autocar devant lequel elle voulait se faufiler allait lui laisser la priorité. Le chauffeur du bus a probablement estimé, à l'inverse, que le poids de son véhicule allait dissuader la Lexus de s'engager. Et boum ! Les deux véhicules se sont retrouvés au même endroit au même moment. Un cas d'école Il s'agit du récit d'un banal accident de la route. Mais il a fait le tour de la planète. Et pour cause : la Lexus n'avait pas de chauffeur. Elle était guidée par un logiciel conçu par Google. La personne située devant le volant, un pilote d'essai employé par le géant d'internet, avait pour consigne d'intervenir uniquement en cas de danger. Et pour la première fois, Google, qui teste ses prototypes en circulation et n'en est pas à son premier accident, s'est déclaré responsable. Il s'agit donc d'un cas d'école. "C'est un exemple classique d'arbitrage qui fait partie intégrante de la conduite : nous essayons tous d'anticiper les mouvements des uns et des autres", a expliqué Google. Mais ce qui relève de l'appréciation humaine est parfois dure à appréhender par le robot. L'entreprise a immédiatement annoncé une modification de son logiciel d'intelligence artificielle afin de mieux prendre en compte le poids des véhicules dans le respect des priorités. Mais pourra-t-elle anticiper toutes les situations ? Cet accident révèle les bouleversements qui vont accompagner la révolution de la voiture sans chauffeur. Fin du bonus-malus conducteurs pour les La voiture sans chauffeur signifie la fin d'un principe bien établi : la responsabilité du conducteur. Aujourd'hui, pour être sûr que les victimes d'accidents soient indemnisées, c'est la personne au volant qui se retrouve devant le tribunal. "90% des accidents ont pour origine une erreur de conduite, explique 12 François Nedey, directeur technique assurances et responsabilités chez Allianz France. Il est rarissime de constater qu'un défaut sur un véhicule en soit la cause." Depuis Mountain view, c'est différent. Si le centre de décision se déplace du cerveau du conducteur au disque dur de la voiture, il en va de même de la responsabilité devant la loi. "Il est difficile de reprocher au conducteur d'avoir choisi le mauvais véhicule ou le mauvais logiciel", note François Nedey. Dans ces conditions, le système actuel de bonus-malus, qui récompense les bons conducteurs - par une ristourne sur l'assurance - et pénalise les mauvais élèves, aura de moins en moins de pertinence. Un permis de conduire pour logiciel L'autre enseignement de Mountain view, c'est la question du logiciel. "Personne ne contrôle aujourd'hui que les algorithmes qui déterminent les réactions du véhicule correspondent à la loi, au code de la route, et à l'éthique de la conduite", explique François Nedey. Et force est de constater qu'il ne suffit pas de respecter le code de la route pour ne pas avoir d'accident. Il faut aussi un code de bonne conduite. A l'avenir, il est probable que les autorités mettent en place un système Nombre de document(s) : 10 Date de création : 17 mars 2016 d'homologation des logiciels. Un permis de conduire pour robots ! Les assureurs, s'ils doivent couvrir les constructeurs, l'exigeront. Mais il faudra résoudre un problème particulièrement complexe. Pour homologuer un véhicule, il faut le tester dans un maximum de situations. Mais pour une voiture autonome, le nombre de ces situations est presque infini. Impossible de tout anticiper ! L'autre solution consiste à valider le système d'intelligence artificiel luimême. Mais pour cela, il faudrait que les éditeurs des logiciels acceptent de livrer leurs précieux algorithmes à des tiers... Et que ceux-ci aient le niveau de connaissance pour les comprendre et les juger. Plus de permis pour les conducteurs ? L'autre question fondamentale posée par l'accident de Mountain view, c'est la place de l'humain dans la voiture autonome. Doit-il être en position d'intervenir à tout moment ? En Europe, la convention de Vienne impose aujourd'hui que le conducteur garde les deux mains sur le volant, au cas où. Elle va être modifiée pour laisser place à l'expérimentation de la voiture autonome. Mais avant la commercialisation de voitures autonomes, il faudra repenser l'ensemble des règles. D'ici là, Google montre pâte blanche, en assumant sa responsabilité. Car à quoi bon disposer d'une voiture autonome si on doit l'assister ? A quoi bon avoir une voiture sans chauffeur s'il est interdit de téléphoner, de lire ou de fumer... ? Faudrait-il savoir faire un créneau si toutes les voitures se garaient automatiquement ? A terme, le véhicule ralentira automatiquement en ville, mettra toujours son clignotant, et ne klaxonnera pas. Il ne servira probablement plus à rien d'apprendre le code de la route, ni de savoir conduire. Une cohabitation délicate La voiture sans chauffeur pour tous n'est pas pour tout de suite. "Le jour où un véhicule sera considéré comme vraiment autonome, estime François Nédey, il saura éviter un petit chantier place de l'Etoile à Paris." Certains évoquent 2050, d'autre 2100. Plus tôt, espère sûrement Google. D'ici là, voitures avec et sans chauffeurs vont devoir cohabiter. Et cette phase s'annonce délicate. Comme le montre le cas de Mountain view, il est difficile pour les robots d'anticiper les réactions des chauffeurs et inversement. Durant cette phase, la répartition de la responsabilité s'avèrera complexe. François Nedey imagine un régime de responsabilité sans faute, comme il en existe dans la construction, où de nombreux acteurs interviennent. Le conducteur sera responsable, mais il pourra se retourner vers le constructeur. Qui devra ensuite se retourner vers ses fournisseurs : les équipementiers, mais aussi les éditeurs de logiciels comme Google. Pour répartir les torts, il faudra implanter dans chaque véhicule une 13 boîte noire, comme dans les avions. Elles recueilleront les données faisant foi pour l'ensemble des industriels impliqués dans un accident. Cette phase a déjà presque commencé. "Certains constructeur nous demandent à être couverts pour leurs systèmes de sécurité actifs", explique l'expert. Depuis la généralisation des ABS, Airbags et régulateurs de vitesse, l'industrie a fait de gros progrès. Parking, respect des distances de sécurité, freinage et trajectoires d'urgence, maintien dans la même file sont maintenant automatisés sur de récents modèles hauts de gamme. Lorsque les voiture seront totalement autonomes sur une partie voire sur l'intégralité du réseau routier, les constructeurs devront être intégralement couverts. Avec la multiplication des voitures autonomes, une autre forme de cohabitation devra être organisée : celle entre différents logiciels, avec des algorithmes différents. En cas d'obstacle, si le véhicule A est programmé pour le contourner par la gauche, le véhicule B par la droite et qu'ils sont en sens inverses... ils se percuteront. Même si les robots conduisent plus prudemment que les humains, il faudra aussi leur faire respecter les règles. Elles sont parfois difficiles à déterminer. Il faudra choisir entre la vie d'un conducteur et celle d'une famille de piétons. Donald Hébert Nombre de document(s) : 10 Date de création : 17 mars 2016 © 2016 L'Obs (site web). Tous droits réservés. ; CEDROM-SNi inc. news·20160304·OA·20160304×2OBS5850 - Date d'émission : 2016-03-16 Ce certificat est émis à Cégep-Granby-Haute-Yamaska à des fins de visualisation personnelle et temporaire. Retour à la table des matières 14 Nombre de document(s) : 10 Date de création : 17 mars 2016 Le Monde Culture & idées, samedi 26 septembre 2015, p. ARH1 Culture et idées Interdire les machines tueuses, un combat perdu?L'avènement des « killer robots » ouvre des perspectives terrifiantes, soulignent les ONG et les milliers de chercheurs qui demandent leur interdiction. Mais, de l'arbalète aux bombardements aériens, les luttes éthiques visant à bannir des armes ont rarement abouti Robots tueurs, sans foi ni loi Des armes autonomes, capables de choisir leur cible, vont-elle remplacer les soldats sur les champs de bataille? Cette perspective inquiète, tant elle remet en cause le droit de la guerre Frédéric Joignot Frédéric Joignot On l'appelle SGR-A1. De jour comme de nuit, sur un rayon de 4 kilomètres, ce robot militaire décèle, grâce à son logiciel de « tracking », les mouvements d'un intrus. Mis en marche à distance, cet automate pour poste-frontière tire de lui-même, de façon indépendante, sur toute personne ou véhicule qui s'approche. Conçu par Samsung, il est équipé d'une mitrailleuse, d'un lancegrenades, de capteurs de chaleur, de caméras de détection infrarouge et d'une intelligence électronique. En septembre 2014, la Corée du Sud a installé plusieurs de ces engins le long de la zone démilitarisée qui la sépare de la Corée du Nord, afin d'éviter d'envoyer des soldats dans des endroits isolés. C'est peu dire qu'une telle arme, « intelligente » et autonome, inquiète. Depuis 2012, elle est régulièrement dénoncée par une coalition de 51 organisations non gouvernementales (ONG) coordonnée par Human Rights Watch, dans le cadre de la campagne internationale « Stop Killer Robots » (« Arrêtez les robots tueurs »). Le mouvement de protestation a été relancé à grand bruit, le 28 juillet, grâce à une lettre ouverte signée par près de 3 000 personnalités, dont des chercheurs en robotique, des scientifiques comme le physicien Stephen Hawking et des figures de l'industrie high-tech, comme Elon Musk, PDG de Tesla Motors, ou Steve Wozniak, cofondateur d'Apple. Pour eux, un tel robot militaire, et tous ceux qui risquent de suivre du fait des avancées rapides de l'intelligence artificielle, soulève de graves questions éthiques et juridiques qui remettent en cause le droit de la guerre. Le plus inédit est de donner à une machine autonome la possibilité de tuer. C'est un droit moral qui a toujours été réservé aux humains sur le champ de bataille. Comme le rappelle un responsable d'Human Rights Watch, « il faut un homme pour décider d'arrêter le tir et faire des prisonniers, pour reconnaître un soldat portant un drapeau blanc, pour évaluer si la riposte est équilibrée . Or, le robot sentinelle SGR-A1 est incapable de faire ces choix : il tire automatiquement sur tout ce qui bouge. Ce faisant, il risque à tout moment de violer deux principes du 15 droit international humanitaire (DIH) qui régit les conflits armés depuis les conventions de Genève de 1949 et leurs protocoles additionnels : d'une part, la règle cardinale de la « distinction » entre les civils et les militaires; ensuite, la nécessité d'éviter des violences « disproportionnées » par rapport aux menaces, et donc de procéder à une évaluation. L'autre problème soulevé par l'usage des robots tueurs est celui de la responsabilité pénale. Si l'un d'entre eux commettait un dommage collatéral ou abattait des civils, contre qui les victimes et leurs familles pourraient-elles se retourner? Human Rights Watch pointe le « vide juridique » qui entoure ces armes nouvelles. Rien n'est prévu dans le droit international humanitaire. Pour discuter des dangers de ces systèmes d'armes létaux autonomes (SALA, la traduction française de lethal autonomous weapons systems), une réunion multilatérale mobilisant des représentants de 87 pays, ainsi que des délégués de la coalition d'ONG Stop Killer Robots, s'est tenue en mai 2014 aux Nations unies, à Nombre de document(s) : 10 Date de création : 17 mars 2016 Genève, dans le cadre de la convention sur les armes classiques. Les ONG espèrent arriver à un accord pour l'interdiction de telles armes, comme cela fut le cas, en 2008, pour les armes à sous-munitions. Car, à écouter les spécialistes de la robotique qui les dénoncent, les SALA ont de quoi faire peur. Le 27 mai, dans la revue Nature, une tribune de l'Américain Stuart Russell, spécialiste de l'intelligence artificielle (IA), professeur d'informatique à l'université de Californie, prévenait que ces armes allaient être améliorées et développées « dans les années à venir » - c'est-à-dire très vite. Contacté par Le Monde, ce chercheur décrit l'extrême sophistication atteinte par « la combinaison des composants robotiques et de l'IA » . Equipé d'outils de navigation, de logiciels de « prise de décision tactique » et de « planification à long terme » , mais également doté d'un programme d'apprentissage, un véhicule inhabité trouve aujourd'hui seul son chemin dans un environnement difficile. Une fois militarisé, il pourra mener « des missions urbaines de recherche et d'élimination de cibles » . Stuart Russell assure qu'aux Etats-Unis, deux programmes de la Defense Advanced Research Projects Agency (Darpa), qui dépend du ministère de la défense, portent sur des hélicoptères miniatures capables de s'orienter seuls dans des immeubles où toute information est brouillée. Selon lui, l'armement de ces robots, qui pourraient diminuer jusqu'à n'être pas plus gros que des insectes - ce qui rappelle les agents arachnoïdes du film Minority Report (2002), de Steven Spielberg -, est déjà expérimenté en secret. Dans un rapport présenté à l'ONU en avril, M. Russell soutient qu'il faut s'attendre à voir apparaître d'ici vingt ans des essaims de giravions miniatures, équipés de cerveaux décisionnels et dotés de munitions capables de perforer les yeux ou de projeter des ondes hypersoniques mortelles. Ces armes pourraient posséder, dit-il, « une létalité comparable à celle des armes nucléaires » face à laquelle les humains « seront sans défense » . Dans leur lettre ouverte de juillet, les scientifiques avancent que le saut technologique, mais aussi éthique, franchi par l'usage présent et futur de SALA peut être comparé à l'invention de la « poudre à canon » et à celle des « armes nucléaires », et parlent d'une grave « perte d'humanité . Ils soulignent que de telles armes, « intelligentes » mais sans aucune disposition morale, « sont idéales pour des tâches telles qu'assassiner, déstabiliser les nations, soumettre les populations et tuer un groupe ethnique particulier . Ils redoutent que « des dictateurs » les utilisent comme forces de l'ordre, ou que des « seigneurs de guerre » s'en servent pour « perpétrer un nettoyage ethnique » . Ils expliquent enfin que ces robots ne sont pas coûteux à fabriquer, ne nécessitent aucune matière première rare, et qu'ils risquent d'apparaître rapidement « sur le marché noir . Passant « aux mains de terroristes » , ils deviendraient les « kalachnikovs de demain » . Autant de fortes raisons pour demander un moratoire international sur leur construction, en vue d'établir, comme le dit l'Américain Peter Asaro, philosophe s'intéressant à l'éthique des machines, « une norme interdisant toute 16 délégation de tuer à une machine » et conservant « le choix de cibler et de tirer sous contrôle humain » . La campagne « Stop Killer Robots » est très critiquée, tant aux Etats-Unis qu'en Europe, par de nombreux spécialistes militaires, des ingénieurs de l'armement et des théoriciens de l'éthique des armes. En février 2013, le juriste américain Michael Schmitt, professeur de droit international à l'US Naval War College, a tenu à répondre sur le fond à Human Rights Watch dans le National Security Journal, de la faculté de droit de Harvard. Il estime que les opposants aux SALA jouent sur les mots en s'en prenant à l' « autonomie » des machines, alors que de nombreuses armes opérationnelles utilisent déjà des technologies intelligentes : certains missiles sol-air, surnommés « Fire-and-Forget » (« tire et oublie »), vont chercher seuls un objectif désigné, conduits par des outils de détection. Le canon antimissilesantinavires Phalanx tire directement sur ses cibles grâce à un calculateur de position. Quant au système antiroquettes automatisé d'Israël, Iron Dome, utilisé en juillet 2014 durant l'opération Bordure protectrice, il est équipé d'un ordinateur de gestion de bataille. Si ces armes, explique Michael Schmitt, peuvent tirer de façon « automatique » sur une cible, elles n'en sont pas pour autant « autonomes » . L'homme « reste toujours dans la boucle de commandement », même s'il est très éloigné du terrain, et peut toujours décider d'arrêter à distance la mitrailleuse automatique, de reprogrammer le missile en vol ou le drone - autrement dit, il conserve l'acte moral de suspendre la décision de tuer. A ce jour, souligne Michael Nombre de document(s) : 10 Date de création : 17 mars 2016 Schmitt, il n'existe pas encore de robots totalement indépendants. Il préfère s'en tenir à la définition avancée par le Defense Science Board américain (une instance de conseil du ministère de la défense), qui considère « les armes autonomes comme faisant partie d'un système homme-machine . En France, la spécialiste de l'éthique des machines Catherine Tessier, maître de conférences à l'Office national d'études et de recherches aérospatiales, avance dans l'ouvrage collectif Drones et « killer robots . Faut-il les interdire? (Presses universitaires de Rennes, 268 pages, 18 euros) que les antiSALAconfondent les « automatismes embarqués », comme le pilotage et le guidage, avec l'autonomie. Pour elle, il ne faut pas oublier ce pour quoi a été « programmé » le robot, comment l'homme « partage les décisions » de la machine, interprète les évaluations de ses logiciels et peut l'arrêter. De son côté, la capitaine Océane Zubeldia, de l'Institut de recherche stratégique de l'Ecole militaire, rappelle que la robotisation, qui s'est accélérée avec l'essor extraordinaire des technologies de l'information et de la communication et des réseaux satellitaires, répond à une nécessité stratégique pour les armées. Depuis la première guerre du Golfe, en 1991, la guerre moderne est devenue, nous ditelle, une « guerre cybernétique », une « guerre de l'information » utilisant des « systèmes d'armes intégrés » et des « véhicules inhabités » comme les drones. A cet aspect stratégique s'ajoute un objectif humanitaire et éthique : il faut « diminuer les risques de perdre les équipages » et « les éloigner de la zone des conflits » . « Le prix de la vie humaine, souligne-t- elle, n'a cessé de prendre de l'importance, et si la prise de risques reste une valeur essentielle du militaire, le "gaspillage" des vies n'est plus toléré, ni par la société ni par les autorités. » soldat reste responsable de l'usage qu'il fait de son arme. Si un robot commet un dommage collatéral, le commandement devra en répondre : c'est sur lui que le droit international humanitaire continue de s'exercer. Une grande partie des arguments éthiques en faveur de la robotisation des armes découle de cet impératif humain : elle permet d'épargner les soldats - enfin, les soldats amis. Il est vrai qu'un robot ne peut être tué, blessé ou pris en otage. Il ne souffre pas des intempéries, ignore la fatigue et la peur, effectue sans état d'âme des missions-suicides. Il peut être envoyé dans des zones contaminées, minées, ou dans des sanctuaires ennemis et terroristes. Ce robot-soldat n'est pas affecté par la colère, la vengeance. Il ne viole pas, ne torture pas. Souvent, son tir est plus précis que celui d'un soldat. Océane Zubeldia pense qu'il peut jouer un rôle dissuasif, à la manière d'un golem contemporain. Voilà pourquoi, analyse Didier Danet, il vaudrait mieux que l'ONU n'interdise pas les armes létales autonomes. Cela risquerait de compliquer encore le droit de la guerre, mais aussi de paralyser la recherche en robotique permettant d'éloigner les soldats des zones de conflit. Sur la question de la responsabilité en cas de crime de guerre, Didier Danet, du Centre de recherche des écoles de Saint-Cyr Coëtquidan (ministère de la défense), observe qu'un robot ne saurait être considéré comme une « personne morale » au sens de l'article 1134 du code civil : un sujet doué de volonté, se donnant à lui-même ses propres objectifs, compatibles avec le respect des lois existantes. Selon lui, aucun robot militaire ne répond à ces critères - et aucun sans doute n'y répondra jamais. La machine, nous dit-il, se contente d'une « autonomie fonctionnelle » limitée : son activité, l' « autorisation » de son action dépendent des opérateurs humains. Elle reste un objet de droit, non un sujet. D'ailleurs, écrit-il dans l'introduction de Drones et « killer robots », en termes juridiques le 17 De toute façon, l'histoire des armements et de leurs usages montre que les luttes éthiques pour interdire des armes jugées irrecevables aboutissent rarement, mais aussi que le jugement porté sur elles évolue. Alain Crémieux, ancien ingénieur général de l'armement, auteur de L'Ethique des armes (Aegeus, 2006), rappelle qu'en 1139 déjà, lors du IIe concile de Latran, l'usage de l'arbalète avait été interdit entre chrétiens. Il paraissait « moralement inacceptable » que les « piétons » des armées, des gens du peuple, puissent abattre des chevaliers à distance. Pourtant, l'arbalète a été conservée. Elle a été remplacée, au début du XVIe siècle, par l'arquebuse, elle aussi rejetée par les moralistes pour sa létalité, puis par le mousquet, l'ancêtre du fusil à silex, lui-même adopté en France sous le règne de Louis XIV. Or, fait remarquer Crémieux, depuis, rares sont ceux qui remettent en cause les armes à feu légères : « Elles ont même été tellement identifiées à la guerre nationale et à la guerre populaire qu'il paraît inutile de chercher à les décrier. Le pouvoir et la liberté elle- Nombre de document(s) : 10 Date de création : 17 mars 2016 même ne peuvent-ils pas être "au bout du fusil"? » L'historien François Cochet, spécialiste de la mémoire des guerres, met en lumière la contradiction permanente entre le « sentiment d'horreur » que soulèvent certaines armes et le « cynisme » politique et militaire qui l'accompagne. Il donne un exemple fameux : en 1899, la conférence de la paix de La Haye, à laquelle participent 26 gouvernements, décide d'interdire « de lancer des projectiles et des explosifs du haut des ballons ou par d'autres modes analogues . Une mort venue d'en haut, hors de portée, parfois hors de vue, semblait alors insupportable. « Ces exigences, constate François Cochet, n'ont pas arrêté les bombardements aériens pour autant! Les Etats ont signé les protocoles, sans toujours les ratifier, en se préparant cyniquement à l'étape suivante, l'aviation militaire, que les Européens ont testée dans leurs colonies. » L'historien relève un autre exemple de cynisme : « Après 14-18, l'Allemagne a demandé l'interdiction des gaz asphyxiants, qu'elle avait beaucoup utilisés dans les tranchées, parce qu'elle savait que les autres pays en disposaient. » Alors, interdire une arme effroyable, un combat perdu d'avance? Les ONG et les scientifiques qui s'opposent aux robots tueurs refusent de céder au cynisme du laisser-faire. Ils rappellent que plusieurs batailles éthiques récentes ont mené à l'interdiction par l'ONU et par le droit international humanitaire des armes chimiques (1993), des armes à laser aveuglantes (1995) et des mines antipersonnel (1997). Bonnie Docherty, membre d'Human Rights Watch et enseignante à la Harvard Law School, a publié le 4 septembre un mémoire où elle répond aux arguments de ceux qui justifient les SALA en affirmant que les militaires resteront responsables - et devront rendre des comptes en cas de crime de guerre. Elle montre que, au contraire, ils pourront toujours se retrancher derrière une faute du robot, arguant que les communications avec lui ont été rompues, qu'il a agi trop vite, que les spécialistes étaient absents ou qu'un logiciel a dysfonctionné. Les victimes, elles, auront le plus grand mal à demander réparation, car la responsabilité personnelle, base du droit, se trouvera diluée dans des dispositifs techniques. Faudra-t-il alors, demande la juriste, se retourner contre les fabricants des armes? La Direction générale de l'armement? Ou contre les politiques qui ont validé l'usage des SALA? Pour Human Rights Watch, de telles démarches juridiques rencontreront des obstacles insurmontables : elles n'aboutiront pas. Cette impunité leur semble très grave. Elle rendra très difficile de « dissuader » les militaires et les forces de l'ordre d'utiliser des robots létaux. Nous entrerions alors dans une époque plus inhumaine. Note(s) : ¶à lire « Drones et "killer robots". Faut-il les interdire? » sous la direction de Ronan Doaré, Didier Danet et Gérard de Boisboissel (Presses universitaires de Rennes, 268 p., 18 euros). « L'éthique des armes » d'Alain Crémieux (Aegeus, 2006). Illustration(s) : Manifestation à Londres, en avril 2013, pour le lancement de la campagne « Stop Killer Robots . CARL COURT/AFP Démonstration de robots militaires, non armés, à l'école Saint-Cyr Coëtquidan (Morbihan), en 2012. Jean-Claude MOSCHETTI/REA © 2015 SA Le Monde. Tous droits réservés. ; CEDROM-SNi inc. news·20150926·LM·5182778 - Date d'émission : 2016-03-16 Ce certificat est émis à Cégep-Granby-Haute-Yamaska à des fins de visualisation personnelle et temporaire. Retour à la table des matières 18 Nombre de document(s) : 10 Date de création : 17 mars 2016 Le Temps Débats, samedi 20 février 2016, p. 5 Faut-il reconnaître des droits aux robots? FUTUR La question enflamme les spécialistes. L'avocat Alain Bensoussan soutient que l'intelligence artificielle doit faire l'objet d'une protection juridique analogue à celle de la personnalité humaine. Son confrère Nicolas Capt y voit au contraire un anthropomorphisme aussi vide de sens que pernicieux Un statut similaire aux humains Deux thèses juridiques s'affrontent sur la reconnaissance du droit des robots, elles reflètent chacune une conception différente du robot. Dotés d'intelligence artificielle, les robots s'installent peu à peu, à l'hôpital, dans les boutiques, s'emparent même de nos voitures et bientôt, les conduiront. Les cinq années à venir seront celles des humains avec les robots et les cinq suivantes, celles des robots avec les hommes. L'intelligence artificielle doublée de la technologie très performante des capteurs confère au robot une liberté décisionnelle et une intelligence égale, voire supérieure à l'homme. En effet, les robots autonomes peuvent se déplacer et possèdent la mesure de leur environnement mais ils voient mieux, entendent mieux, sentent mieux, calculent mieux. Les hommes vont devoir cohabiter avec les robots et apprendre à maîtriser cette supériorité. L'autonomie grandissante du robot grâce à l'intelligence artificielle conduit à s'interroger sur l'opportunité de conférer au robot un statut juridique spécifique. On ne peut pas aujourd'hui, assimiler à un grille-pain, un robot qui est capable d'autonomie en termes de mobilité, mais également sur le plan intellectuel par ses prises de décisions. Lorsque, dans un environnement ouvert, le robot prend des décisions que personne n'a programmées (à l'inverse d'un automate), on peut se poser la question d'une forme de pensée primitive, voire d'un début de conscience. Tout est question de définition. La personnalité juridique propre du robot se distingue du régime juridique lié aux animaux et aux biens et devrait être encadrée afin de prévoir la sécurité des utilisateurs, mais également la sécurité du robot luimême. Les robots auront bientôt un statut similaire aux humains avec un état civil et un numéro d'identification. Actuellement, chaque Français dispose d'un numéro de sécurité sociale créé dès la naissance: code « 1 » affecté aux hommes, « 2 » aux femmes. Les robots étant de plus en plus intelligents et autonomes, c'est-à-dire agissant en environnement ouvert, en contact avec le public, l'affectation d'un numéro d'identification, code « 3 », leur conférerait un état civil avec des droits et des devoirs. Les enjeux sont non seulement juridiques mais également éthiques. Les robots intelligents sont constitutifs d'un genre nouveau. Un droit des robots est donc appelé à régir leurs rapports avec l'homme et caractériser la reconnaissance d'une personne juridique particulière: la personnalité robot. Il s'agit d'une personnalité juridique singulière, à l'image de la personne morale pour les entreprises, qui permettra d'agir sur le plan de la traçabilité et de la dignité, mais également de la responsabilité avec une responsabilité en cascade. Il faudra se retourner contre le fournisseur de la plateforme d'intelligence artificielle avant le propriétaire et le fabricant. Doter les robots de dernière génération de la personnalité juridique, c'est reconnaître un élément de différenciation par rapport aux objets. A terme, la vocation des robots étant de fonctionner de manière autonome dans un environnement fermé ou ouvert, en coopération avec l'homme, l'importance de leurs actions et réactions va nécessiter une adaptation du droit à travers la reconnaissance de la « personnalité robot » . OUI ALAIN BENSOUSSAN Avocat au Barreau de Paris, président de l'Association du droit des robots (ADDR) PARCOURS 19 Nombre de document(s) : 10 Date de création : 17 mars 2016 Alain Bensoussan est à la tête d'un cabinet d'avocats qu'il a fondé en 1978 à Paris. Spécialisé dans le droit des nouvelles technologies, il a publié de nombreux ouvrages dans ce domaine. Dangereuse dérive de civilisation A l'heure où, dans une tentative de séduction commerciale, les robots empruntent de plus en plus l'apparence humaine dans un anthropomorphisme outrancier sinon inquiétant, la tentation est grande de leur offrir des droits. On voit ainsi poindre chez certains le souhait d'offrir aux robots - qui n'en demandaient certainement pas tant les bénéfices cumulés de l'éthique et du droit. Au-delà de l'effet d'annonce qui ravit immanquablement les foules ménagères en manque de sensations fortes, ravies et troublées de constater que leur bouquin de science-fiction de l'été avait tout de même quelque accroche dans le réel, c'est un désert argumentaire. Pour quelle raison offrirait-on aux robots, qui ne constituent somme toute que des machines élaborées, des droits que l'on a refusés aux locomotives et, dans une moindre mesure, longtemps disputés à nos frères animaux, qui ne demeurent au fond, et nonobstant les savants glissements lexicaux, qu'une catégorie d'objets mobiliers un peu à part? C'est à ce moment de la discussion que surgit généralement le mot magique, destiné à forcer toute résistance, à annihiler tout raisonnement contraire: l'intelligence artificielle, cette intelligence des machines qui devrait conduire à leur accorder des droits que les hommes ont mis des milliers d'années à conquérir et à faire respecter entre eux de façon satisfaisante. Si la responsabilité des robots est un sujet de la plus haute importante, négligé par le législateur, et qui ne manquera pas d'occuper des tribunaux désemparés dans les années à venir, il n'en va pas de même de la question des droits du robot, sorte de marotte pour technophiles en manque d'idéaux. Car, au fond, on peine à saisir ce qui devrait faire naître ces droits, en d'autres termes le fait générateur de cette protection: seraitce la capacité technique à agir de façon autonome ou bien plutôt la naissance d'une sensibilité, d'une possibilité de souffrance physique ou psychologique? Cette sensibilité du vivant que l'on nie même aux plantes devrait donc être reconnue chez le robot, qui ne tire sa substance que du métal, des câbles et de l'immatériel? C'est une dangereuse dérive de civilisation que de considérer que c'est l'intelligence - ou plutôt l'autonomie décisionnelle et opérationnelle - qui fait l'être sensible. La question est finalement philosophique: veut-on donner des droits à des objets que l'on crée de toutes pièces, dans une sorte de fantasmagorie nourrie aux doubles mamelles de Frankenstein et de Matrix? Veut-on la création de centres d'aide psychologique pour Google Cars maltraitées? Méfions-nous, car il est là question d'une véritable boîte de Pandore. Lorsque mon confrère Alain Bensoussan soutient, à l'appui de sa 20 Charte du droit des robots, que ces derniers ne sont pas des grille-pain, il commet un sophisme. S'il a raison en relevant que leur complexité n'est pas comparable, sa déduction est gravement erronée en ce que cette complexité ne doit pas amener à accorder des droits à l'un que l'on refuse à l'autre. Mais alors comment distinguer les sujets de droit de ceux qui ne sont que des accessoires des vivants: la ligne de démarcation est celle de la vie même, qui se définit, à en croire le Larousse, comme le caractère propre aux êtres possédant des structures complexes capables de résister aux diverses causes de changement, aptes à renouveler, par assimilation, leurs éléments constitutifs, à croître et à se reproduire. Il ne s'agit toutefois pas de nier l'évidence: les robots, demain, feront partie de notre environnement industriel, commercial et domestique et accompliront des tâches parfois essentielles. L'homme les côtoiera de plus en plus, parfois en oubliant les différences, lesquelles s'estomperont. Mais ne mettons pas la vie là où il n'y a que des machines, aussi perfectionnées soient-elles. NON NICOLAS CAPT Avocat, spécialisé en nouvelles technologies droit des PARCOURS Titulaire d'un DEA en droit, criminalité et sécurité des nouvelles technologies, Nicolas Capt est aussi associé fondateur d'Heptagone Digital Risk Management & Security Sàrl. Nombre de document(s) : 10 Date de création : 17 mars 2016 © 2016 Le Temps SA. Tous droits réservés. ; CEDROM-SNi inc. news·20160220·TE·TPS_20160220_0005-art_1 - Date d'émission : 2016-03-16 Ce certificat est émis à Cégep-Granby-Haute-Yamaska à des fins de visualisation personnelle et temporaire. Retour à la table des matières 21 Nombre de document(s) : 10 Date de création : 17 mars 2016 L'Usine Nouvelle.com lundi 19 octobre 2015 - 12:45 GMT+1 Ferons-nous confiance aux robots qui nous entourent ? Stéphane Schultz est fondateur de 15marches, une agence de conseil en stratégie et innovation qui accompagne à la fois jeunes pousses et grands groupes. Pour les inspirer, il analyse les secrets des nouveaux géants du numérique qui changent les usages, modèles économiques, stratégies... Cette semaine il se penche sur les changements en cours dans le secteur de l'automobile. Deuxième article sur les changements qui affectent le secteur de l'automobile à la lueur de la récente "affaire Volkswagen". En entrant plus profondément dans l'univers des technologies, la voiture rencontre des problèmes qui dépassent largement le cadre de la mobilité. Ils s'inscrivent dorénavant dans ceux du rapport de l'homme à la machine, soulevant des cas complexes de responsabilité, éthique et confiance dans les organisations qui les conçoivent. Dans le premier article "le logiciel dévore Volkswagen", nous insistions sur l'anachronisme de la tricherie du constructeur allemand à une époque où les consommateurs recherchent une mobilité plus propre, connectée et partagée. La deuxième partie se veut plus prospective : elle interroge notre relation actuelle et future avec les logiciels, algorithmes et interfaces qui s'insèrent dans nos vies. Accepterez-vous de lâcher le volant ? Google n'est plus seul : pas moins de 25 entreprises travaillent au développement de véhicules autonomes. Comme souvent en matière de nouvelles technologies, il n'en faut pas plus pour que les analystes rivalisent d'effets d'annonce sur l'adoption massive des selfdriving cars dans les prochaines années : Plus circonspects, les chercheurs de la très sérieuse Carnegie Mellon University ont testé dans quelles conditions les humains accepteraient de se laisser conduire par des robots. La conclusion est très instructive : les humains ne font pas autant confiance aux automates qu'ils se font confiance à eux-mêmes. "Un robot peut vous sauver la vie, si vous êtes assez intelligent pour le laisser le faire". Lorsque nous travaillons avec un robot, nous restons sur nos gardes : 81% des humains préfèrent "reprendre le manche", même si ils savent qu'ils feront plus d'erreurs que le robot. "En d'autres termes, même confrontés à la preuve de leur propre infériorité, les humains résistent à l'aide des robots. Lorsque les robots font des choses que nous ne comprenons pas, comme détecter des obstacles que nous ne voyons pas ou suivre des règles que nous ne connaissons pas, nous perdons confiance et 'reprenons le manche', même lorsque la machine a raison", pointent les universitaires. C'est pourquoi les chercheurs ont décidé d'introduire un peu d'humilité dans le système, en concevant des machines qui "reconnaissent leurs propres erreurs". Concrètement, peu avant de commettre une erreur 22 (programmée), le robot indiquait par un voyant de couleurs son "doute" sur sa propre performance, par exemple un problème de capteurs ou un choix impossible entre deux options. Le résultat : les participants bénéficiant de cette nouvelle fonctionnalité ont globalement plus souvent "lâché le manche" que les autres, et non le contraire. Ils ont globalement plus fait confiance à la machine que l'échantillon qui n'a pas bénéficié de cette fonctionnalité. "Nous avons besoin de machines qui reconnaissent leur propre vulnérabilité. Les robots doivent nous dire quand ils peuvent se tromper, mais aussi expliquer pourquoi : par exemple les conditions dans lesquelles leurs capteurs sont moins fiables ou les situations dans lesquelles leurs modèles de prises de décision sont pris à défaut". Découvrez le détail de l'expérience ici. Ce robot a été programmé pour vous tuer Vous entrez dans votre voiture. Clé de contact. Débrayage. Point mort. Contact. Première vitesse. Rétro, cligno. Un scooter passe. Vous sortez de votre place, redressez, puis passez la seconde. Premier carrefour. Une voiture arrive. Vous avez le temps de passer, le feu est vert au loin. Troisième vitesse. Votre esprit est déjà au boulot. Partir en retard n'est jamais une bonne manière de commencer la semaine. Vous arrivez à l'approche du carrefour, quand soudain une camionnette déboîte de sa Nombre de document(s) : 10 Date de création : 17 mars 2016 file de stationnement à quelques mètres devant vous. Un coup de volant et à peine le temps de voir le cycliste en sens inverse. Trop tard : il s'écrase sur votre pare-brise. Votre premier réflexe a été de braquer pour éviter le véhicule devant vous. Le cycliste en sens inverse n'a juste pas eu de chance de vous croiser à ce moment précis. Cet accident était difficilement évitable, comme beaucoup de ceux qui causent 1,2 million de morts chaque année dans le monde. Qu'aurait fait un véhicule autonome à votre place ? "Alors que les conducteurs humains ne peuvent que réagir instinctivement à un événement soudain, une voiture autonome est pilotée par un logiciel, qui scanne en permanence son environnement grâce à des capteurs capables de réaliser de multiples calculs avant même que l'on soit conscient du danger. Ils peuvent faire des choix en une fraction de seconde pour optimiser les accidents, c'est à dire, pour minimiser les dégâts. Mais les logiciels ont besoin d'être programmé et ce n'est pas une tâche facile dans certains cas." Cet article de Wired soulève une question qui va bien au-delà de l'informatique. Au nom de l'optimisation des accidents, un bon algorithme sera programmé pour heurter le véhicule qui a le plus de chance de survie, ou pour éviter celui qui a le moins de chance. Dans votre cas, il choisira sûrement de heurter la camionnette afin d'éviter le vélo. Dans un autre cas, il heurtera un cycliste casqué et épargnera un cycliste non casqué. Et le journaliste de poser cette question cruciale : qui devra prendre le leadership de ce type d'analyse - et les décisions de programmation qui en découleront : les constructeurs, leurs fournisseurs de logiciel, les législateurs, les philosophes ? On le voit, nous sommes bien loin de la bidouille de carburateurs comme dans l'affaire Volkswagen ! Les questions posées ici sont déjà une réalité par exemple pour les militaires. "Programmer une voiture pour heurter une personne plutôt qu'une autre ressemble horriblement aux targeting algorithms développés pour les armes militaires (lire ici). Et cela entraîne la voiture autonome sur de dangereux chemins légaux et moraux" conclut l'article. En dehors de la conduite, l'automobile est également sujette à des questions plus triviales. À mesure que nos informations, relations et décisions sont assistées par des logiciels se posent des questions de liberté et de transparence qui ne peuvent être laissés entre les seules mains de fabricants, aussi vertueux soient-ils. Ces logiciels qui nous gouvernent De Google Now à Yelp en passant par Siri, les logiciels prennent déjà beaucoup "d'initiatives" pour nous conseiller le meilleur moyen de nous déplacer, trouver un restaurant, rejoindre nos amis... Demain ces solutions seront intégrées nativement dans nos véhicules, nos maisons, nos environnements de travail... faisant de nos vies une continuité "sous contrôle". Dans Datanomics (FYP, 2015), Simon Chignard et Louis-David Benayer nous aident à comprendre ces enjeux : "Après l'ouverture et la transparence des données, c'est bien celles des algorithmes qui font aujourd'hui débat. [...] La société Airbnb a construit un système permettant aux 23 utilisateurs qui mettent leur appartement en location d'estimer le prix de la nuitée. Cet algorithme se nourrit des données de la plateforme : la nature du bien, le prix des autres biens dans le secteur, l'élasticité constatée entre la demande et les prix, la saisonnalité... Lors des premières expérimentations de cet algorithme prédictif, ceux qui l'utilisaient avaient trois fois plus de chance de louer leur bien que les autres. Or cet algorithme est d'abord conçu pour satisfaire les objectifs de la plate-forme et en premier lieu la maximisation des chances de location. La rémunération d'Airbnb est liée au volume de transaction et non directement à leur montant. Ces recommandations ne sont donc pas nécessairement optimales pour les loueurs. En fixant un prix supérieur, ils pourraient disposer d'un revenu comparable avec moins de nuitées". Tromper notre libre-arbitre ne suffit pas. Les logiciels veulent capter notre attention, la conserver et influencer nos comportements. Ils sont conçus pour nous rendre addict, et y arrivent plutôt bien. L'anthropologue Natasha Dow Schüll a mené en 2012 une passionnante recherche sur la manière dont les designers influencent les comportements des joueurs à Las Vegas, de la courbure des voies d'accès à celle de l'arête des tapis de sol, en passant par le fonctionnement des machines à sous et les règles des jeux qu'elles proposent. Pas besoin de truquer les machines à sous : chaque détail contribue à créer une expérience quasi-hypnotique dans laquelle le joueur n'a jamais l'impression de perdre. Il est encouragé en cela par des "boucles ludiques" qui empruntent autant au jeu vidéo qu'aux sites pornos pour la Nombre de document(s) : 10 Date de création : 17 mars 2016 "haute fréquence" à laquelle le joueur est incité à zapper jusqu'à perdre le sens de ce que fait sa propre main. Étonné(e) ? Regardez comment vous vous servez de votre smartphone. La professeure du MIT conclut son étude en prédisant que l'avenir réservera des surprises de taille : alors qu'aujourd'hui les campagnes publiques de prévention des addictions visent à culpabiliser la victime (pensez aux jeux en lignes), demain la responsabilité des designers de ces jeux sera peut-être mise en évidence, ouvrant la porte à des procès retentissants. Écoutez-la dans Place de la Toile. Encore une fois, je me répète, la tricherie de Volkswagen n'est qu'un amuse-bouche au regard de ce qui attend les constructeurs demain en matière de risque et de responsabilité autour du logiciel. Alors, que faire pour limiter ces risques et surtout, protéger le consommateur ? Mettez un Snowden dans votre moteur Qui seront les lanceurs d'alerte de l'ère numérique ? En 2013 le très sérieux blog Privatics de l'Inria (organisme public de recherche sur le numérique) fit une découverte inattendue en étudiant le code source de l'application RATP : l'application transmettait à une régie publicitaire des informations très détaillées sur le profil et les comportements de ses utilisateurs, à leur insu et au mépris de la politique de confidentialité affichée ! L'Inria avait détaillé dans deux articles les multiples manquements et émis des recommandations à destination des développeurs. Sans doute gênée, la RATP avait alors précisé suite à cette découverte qu'il s'agissait d'un module "à l'étude" chez la régie publicitaire, "implémenté à tort", et s'était engagée à mettre fin à ces pratiques. Même si Apple et Google ne sont pas réputés pour l'ouverture de leurs solutions (surtout le premier), il a quand même été possible à quelques ingénieurs motivés et compétents de révéler les manquements de la RATP. S'agissant de solutions plus élaborées, la difficulté est d'une autre taille. À titre d'exemple, une application sur iOS représente souvent moins de 50 000 lignes de code, là où une voiture moderne en nécessite 10 millions et une voiture autonome...100 millions ! Deux mille fois plus. Impossible par conséquent d'y trouver un "logiciel caché, même si on y avait accès (infographie à voir ici.) Mais que fait la police ? Et l'État dans tout ça ? Hubert Guillaud nous fournit quelques pistes dans un article d'Internetactu : "A mesure que nos vies s'informatisent, nous devenons toujours plus vulnérables à la fraude numérique. Pour Bart Selman, spécialiste de l'Intelligence artificielle à l'université de Cornell, d'autres domaines sont encore à risque, comme le monde médical, l'assurance ou la finance, où le secret et la confidentialité des contraintes rendent encore plus difficile la détection des actes répréhensibles. Pour lui, nous devons exiger de nouvelles règles pour contraindre les ingénieurs logiciels à être responsables de leurs actes, explique-t-il en invitant à introduire des procédures éthiques pour que les algorithmes rendent compte de leurs effets. 'A mesure que les objets du quotidien deviennent plus intelligents et plus connectés, nous allons avoir besoin de nous inquiéter de 24 manquements de plus en plus nuancés à la loi', rappelle encore Calo. [...] En attendant que le régulateur comprenne la nécessité de favoriser les contrôles, de renforcer les contre-pouvoirs, indépendance et rétroingénierie, sont les deux leviers qui demeurent à notre disposition." Dans Le Monde, le journaliste Martin Untersinger rappelait que "l'EPA (l'organisme gouvernemental à qui l'ONG a signalé la fraude) aurait pu déjouer seule la manoeuvre de Volkswagen. Mais pour cela, elle aurait dû s'intéresser non pas aux particules émises, mais à la manière dont le programme équipant les voitures pouvait les moduler. Ce n'est donc plus seulement d'experts chimistes dont l'administration a besoin, mais d'informaticiens." Encore faudrait-il être capable de lire 100 millions de ligne de code, et que ces lignes soient accessibles. Ouvrez la cage aux données Les promoteurs de l'open source et des "communs" ont évidemment tiré parti de ce scandale pour avancer les limites intrinsèques du logiciel propriétaire : "nous avons tous appris depuis le 20e siècle que les ascenseurs devaient être inspectables, et demandé aux constructeurs d'ascenseurs de les rendre facilement inspectables. Si Volkswagen avait su que chaque acheteur de ses modèles avait le droit de lire le code source de chaque logiciel la commandant, ils n'auraient jamais envisagé de tricher, se sachant sûrs d'être pris", écrit David Bollier dans son blog. Les tenants du logiciel propriétaire auront tôt fait de rétorquer qu'en matière de concurrence, révéler son code équivaut à révéler des secrets industriels. C'est pourtant bien plus Nombre de document(s) : 10 Date de création : 17 mars 2016 que cela qu'à fait le constructeur de voitures électriques Tesla. En juin 2014, Elon Musk rend les brevets de Tesla accessibles à tous. Pour lui : "si une entreprise dépend de ses brevets, c'est qu'elle n'innove pas ou alors qu'elle n'innove pas assez rapidement." Mais tout le monde n'a pas intérêt comme Tesla à diffuser sa technologie pour faciliter son adoption dans un secteur - le véhicule électrique - qui a d'abord besoin de standards pour se développer. Et si on donnait au consommateur les outils pour choisir ? Difficile à ce stade de savoir comment protéger le consommateur sans tuer la compétition et l'entreprise. Comme souvent, il semble que donner à chacun le droit de vérifier et comprendre ce qu'il consomme semble la première chose à mettre en oeuvre. En clair : donner aux citoyensconsommateurs les moyens de savoir ce qu'ils mangent, respirent et conduisent en toute indépendance. Passer du quantified self au quantified environment en analysant l'effet du second sur le premier. C'est le sens d'initiatives comme OpenFoodFacts, une base de données collaborative qui vous informe sur la composition de près de 40 000 produits alimentaires. Dans le domaine environnemental, la startup Plume Labs vous fournit heure par heure des informations sur la qualité de l'air issues de l'open data dans 150 villes, y ajoutant des conseils sur les comportements à risque (ex. : quand faire du sport ou promener son bébé) et des prévisions basées sur la modélisation de facteurs multiples. Plutôt que de jouer aux gendarmes et aux voleurs, donnonsnous les moyens de choisir en testant nous-même la pollution des véhicules que nous utilisons, la toxicité des produits que nous mangeons et la transparence des applis et autres offreurs de solution. Car si l'affaire Volkswagen souligne une faiblesse, voire une hypocrisie, c'est d'abord © 2015 L'Usine Nouvelle.com. Tous droits réservés. ; CEDROM-SNi inc. news·20151019·GUNB·357569 - Date d'émission : 2016-03-16 Ce certificat est émis à Cégep-Granby-Haute-Yamaska à des fins de visualisation personnelle et temporaire. Retour à la table des matières 25 celle des contrôles mis en place par les pouvoirs publics qui ne sont plus adaptés à l'ère numérique. Souhaitons que cette crise nous ouvre les yeux sur la nécessité de (re)prendre en main notre environnement, non pas en changeant de voiture, mais en utilisant à bon escient le pouvoir que nous donnent les technologies. Les avis d'experts et points de vue sont publiés sous la responsabilité de leurs auteurs et n'engagent en rien la rédaction. Cet article a été publié initialement sur le blog de 15marches Stéphane SCHULTZ est fondateur de 15marches, agence de conseil en stratégie et innovation. Suivez-le sur twitter @15marches McKinsey & Co Volvo Airbnb Nombre de document(s) : 10 Date de création : 17 mars 2016 Le Journal - Barreau du Québec, no. Vol. 47 No 10 mardi 1 décembre 2015, p. 28 Intelligence artificielle Portrait des enjeux juridiques Philippe Samson Bien que l'intelligence artificielle relève encore du domaine de la science-fiction, de récents développements technologiques militaires, par exemple, permettent maintenant d'avoir des tourelles d'artillerie capables de fonctionner par elles-mêmes. Devant cet exemple, faut-il craindre la technologie parce qu'elle peut à présent fabriquer des robots tueurs sans assistance humaine ou faut-il, au contraire, se réjouir des autres progrès éventuellement possibles issus du domaine de l'intelligence artificielle ? Faudrait-il alors inciter nos gouvernements à agir en balisant légalement les recherches en intelligence artificielle pour éviter les dérives ? Le droit en mode réactif Les exemples du passé sont parlants pour illustrer comment s'est appliqué le droit jusqu'à présent avec l'arrivée des nouvelles technologies en général. En observant ce qui s'est passé, par exemple, avec le développement des biotechnologies et l'arrivée des organismes génétiquement modifiés, on constate que la société a souvent été mise devant le fait accompli. N'ayant pu encadrer le développement ou la finalité de ces technologies, la société s'est retrouvée en mode réactif. Par conséquent, l'encadrement légal de ces technologies s'est fait sur le plan réglementaire avec notamment les aspects rattachés à la santé, à la sécurité et à l'environnement. puisque la puissance de calcul des ordinateurs actuels ne peut le permettre... encore. « Nous sommes dans une logique voulant que si le produit ou la nouvelle technologie ne constitue pas en tant que tel un risque pour la santé ou la sécurité de la population, le champ est libre pour poursuivre le développement ou commercialiser le produit. Si l'on suit cette tendance avec l'intelligence artificielle, nous risquons une fois de plus de ne pas avoir la possibilité de réfléchir aux répercussions qui pourraient survenir ainsi qu'aux multiples enjeux en cause sur le plan social, éthique et légal », prévient Me Charles-Étienne Daniel, doctorant en droit qui s'intéresse à la gouvernance du développement technologique. De ce fait, la possibilité de recourir au droit pour encadrer dans une logique préventive l'éventuelle création d'une intelligence artificielle complexe n'est pas de prime abord facile en raison du stade encore embryonnaire de cette science. « Les mécanismes actuels de gouvernance juridique s'inscrivent davantage dans une optique réactive plutôt que proactive dans l'encadrement du développement technologique. Souvent, la preuve d'un risque avéré, plutôt qu'hypothétique, est requise pour imposer certaines contraintes réglementaires. Comme l'intelligence artificielle en est à ses balbutiements, nous sommes devant une limite du droit », résume Me Daniel. Le droit dans la situation actuelle Qu'en est-il vraiment des capacités de nos machines ? Sommes-nous à la frontière des robots capables de surpasser l'intelligence humaine ? En fait, à l'heure actuelle, la science est bien loin de pouvoir créer des systèmes capables de réfléchir par eux-mêmes. Tout au plus peut-elle concevoir des programmes avec l'intelligence d'un petit animal apte à prendre des décisions selon des algorithmes programmés. Qui plus est, une intelligence plus avancée est hors de question pour l'instant 26 Entre temps, les codes de déontologie et autres outils d'autoréglementation pourraient représenter des solutions alternatives intéressantes à employer. Cependant, « dans la mesure où ils sont conçus puis appliqués à un degré qui est défini par le laboratoire ou les scientifiques directement impliqués, ils peuvent soulever des questions sur le plan de leur légitimité ou de leur effectivité », souligne Me Daniel. Malgré l'absence de lois spécifiques sur l'intelligence artificielle, il existe néanmoins d'autres mécanismes Nombre de document(s) : 10 Date de création : 17 mars 2016 légaux issus des autres domaines du droit qui pourraient éventuellement être utilisés pour répondre aux faits d'un robot doté d'un certain degré d'intelligence. D'abord, dans la situation hypothétique d'une intelligence artificielle capable de prendre des décisions, qui sait si finalement, elle parviendrait à obtenir une personnalité juridique distincte comme c'est le cas pour les compagnies, le tout afin de pouvoir qualifier ses actes juridiques ? Autrement, selon le droit civil, un robot doté d'une intelligence artificielle serait considéré comme un bien. Ce serait donc le gardien qui aurait à répondre d'un préjudice résultant du fait autonome d'un automate, à moins qu'il puisse démontrer n'avoir commis aucune faute, en ayant agi comme une personne raisonnable l'aurait fait dans les mêmes circonstances. Quant à la responsabilité extracontractuelle du fabricant, Me Daniel s'interroge sur « l'imprévisibilité des choix effectués par une intelligence artificielle, qui pourrait rendre plus difficile et complexe la démonstration d'une défectuosité du logiciel d'un robot autonome ». Selon lui, un devoir d'information subsiste, mais il serait possible pour les fabricants et les distributeurs de s'exonérer en démontrant l'impossibilité de prévoir qu'une faute puisse être commise ou qu'un préjudice puisse découler du bien compte tenu de l'état des connaissances disponibles. Le degré d'autonomie d'une machine et l'imprévisibilité qui en résulte représentent donc des éléments problématiques au regard de l'encadrement juridique de robots possédant une certaine liberté d'action. Me Daniel se questionne sur cet aspect dans le cas de l'intelligence artificielle. « Devrait-on limiter la responsabilité du fabricant sur cette base pour encourager le développement technologique, ou doit-on resserrer la vis et demander que la machine soit exempte de tout risque qui pourrait arriver ? » Ce dernier fait un parallèle avec une nouvelle qui a d'ailleurs récemment fait l'actualité sur le sujet. En août dernier, le fabricant de voitures Volvo a annoncé qu'il allait assumer toute responsabilité qui découlerait d'un accident relié aux voitures autonomes dans le but de faciliter leur développement. Enfin, la responsabilité des animaux présente une autre facette du droit de la responsabilité civile qui pourrait peut-être éventuellement être appliquée au cas d'un robot doté d'intelligence artificielle. Dans cette perspective, « un drone autonome, mais défectueux, par exemple, pourrait-il entraîner la responsabilité de son gardien à l'instar d'un animal © 2015 Le Journal - Barreau du Québec. Tous droits réservés. ; CEDROM-SNi inc. news·20151201·JOU·28_art_01 - Date d'émission : 2016-03-16 Ce certificat est émis à Cégep-Granby-Haute-Yamaska à des fins de visualisation personnelle et temporaire. Retour à la table des matières 27 qui blesse ou tue un être humain ? », compare Me Daniel. Les questions de demain Les scientifiques sont encore à des lieux de pouvoir envisager qu'un jour une intelligence artificielle complexe puisse être créée à l'image de l'idée populaire véhiculée dans la culture du cinéma. Néanmoins, il y a lieu de se questionner sur la façon dont la société la qualifiera alors qu'elle n'est pas encore totalement unie à l'idée que les animaux soient considérés comme des êtres dotés de sensibilité. Chose certaine, le droit n'est pas le seul outil que la société devra utiliser pour encadrer l'usage des nouvelles technologies et plus particulièrement l'intelligence artificielle. Une réflexion sociale, philosophique et démocratique plus globale devra aussi avoir lieu. « La question fondamentale que nous devons nous poser consiste à déterminer quelle est la finalité derrière l'intelligence artificielle afin de savoir si nous voulons en tant que société la développer. Pour répondre à cette question, je pense qu'il faut se donner les moyens de pouvoir être présents dès la phase de création d'une technologie sous la forme d'un accompagnement auprès des scientifiques pour réfléchir ensemble aux différents impacts qui y sont reliés et promouvoir ainsi un développement de façon responsable », termine Me Daniel. Nombre de document(s) : 10 Date de création : 17 mars 2016 Le Temps Débats, vendredi 19 février 2016, p. 9 Droit des robots (III): réalité ou science-fiction? ANALYSE Chercheuse au Massachusetts Institute of Technology (MIT) et spécialiste de l'impact sociétal des technologies robotiques, Kate Darling s'est intéressée de près à l'influence de l'anthropomorphisme sur les relations homme-robot, notamment après avoir observé que des soldats américains étaient prêts à risquer leur propre vie pour sauver celles de robots démineurs. C'est donc partant de ce risque imitatif, et non pour le prétendu bien des robots, qu'elle suggère d'interdire les mauvais traitements envers les machines, puisque ceux-ci pourraient ensuite être reproduits contre des humains. Gardons-nous ainsi d'exciter inutilement l'imaginaire de la population en tissant des fils invisibles et abusifs entre la fiction et le développement réel de la robotique: si les algorithmes d'apprentissage du programme d'IA Watson d'IBM ou des voitures autonomes appartiennent sans nul doute à une génération renouvelée de méthodes numériques, dont on ne saurait que saluer les prouesses, ils ne restent toutefois que l'expression de purs modèles statistiques dont l'objectif est l'optimisation d'une réponse (un geste, une parole, une activité) dans un contexte assez délimité. C'est probablement là ou péche le raisonnement de l'avocat Bensoussan: le fait que des algorithmes dépassent, dans leurs résultats, certaines capacités humaines, ne suffit indéniablement pas à conférer au robot le souffle de vie qui rendrait l'autonomie de celui-ci autrement plus compliquée à appréhender et qui nécessiterait de lui appliquer un régime analogue à celui des êtres humains. Comme le relève sur Internet un commentateur anonyme plutôt avisé, « on s'émeut rarement de la rapidité d'une calculatrice, de la capacité de nettoyage d'une machine à laver ou de la vitesse d'un vélo par rapport aux capacités respectives d'un humain », et « cela ne justifie pas qu'il faille établir un droit spécifique de la machine à calculer, de la machine à laver ou de la bicyclette » . Bien sûr, les images évoquées sont quelque peu simplificatrices, puisque ces objets ne possèdent pas l'autonomie comportementale que l'on prête à certains robots. Reste qu'un tel constat suffit à recadrer drastiquement le débat: la question n'est pas de savoir s'il convient de donner des droits aux robots ou d'interdire aux humains d'avoir des relations sexuelles avec eux (je ne vois pas trop, contrairement à Me Alain Bensoussan, ce qui permettrait à un fabricant d'interdire à un utilisateur hardi de copuler avec sa machine et quelle en serait la sanction éventuelle, hormis une possible exclusion de garantie), mais bien de mettre sur pied un système pragmatique de droit de la responsabilité pour les dommages 28 causés en tout ou en partie par les robots. Quand ma voiture, équipée d'un dispositif anti-collision intelligent, devra arbitrer entre une collision possiblement fatale pour le conducteur que je suis - avec un poids lourd et un évitement d'urgence ayant pour conséquence de faucher trois enfants, se poseront les vrais problèmes: qui, du fabricant de la voiture, du concepteur du logiciel ou du conducteur sera responsable et, cas échéant, dans quelles proportions? Quel fabricant de voiture osera, sur l'autel de la communication avec ses clients, privilégier les trois enfants et donc sacrifier son client de conducteur en cas de collision alternative inéluctable? Et qui achètera une voiture dont le système intelligent pourrait lui valoir, sans décision de sa part, une procédure pour homicide par négligence? Les vraies questions juridiques ne sont pas anecdotiques, tant s'en faut. S'il n'est pas inenvisageable de mettre en place, à terme, un régime juridique analogue à celui appliqué à la responsabilité du détenteur d'un animal et figurant à l'article 56 du Code civil suisse (cette possible solution est d'ailleurs évoquée dans le livre vert d'EuRobotics en 2012), voire un système ad hoc fondé sur les spécificités du robot s'agissant de la responsabilité pour des actes ou omissions commis au détriment de personnes humaines ou de biens Nombre de document(s) : 10 Date de création : 17 mars 2016 matériels, l'exemple précité montre que la partie n'est pas gagnée d'avance. Le passage de l'automate (le distributeur de bonbons de notre enfance) au robot réactif (l'aspirateur automatique) puis au robot cognitif nécessite en effet d'être pris en compte par le droit puisque cela a pour effet de complexifier drastiquement la chaîne de responsabilités, laquelle est désormais multiple puisqu'elle implique un très grand nombre d'intervenants: propriétaire, utilisateur, concepteur de l'objet, concepteur du logiciel d'intelligence artificielle, etc. Dans le cas des logiciels libres, la situation se complexifie encore, puisqu'il est alors véritablement question d'une création collective du logiciel. Rajoutez à cela la problématique aiguë des données personnelles - cas échéant sensibles collectées et traitées par le robot et dont il est entendu qu'elles seront stockées de façon décentralisée au moyen de l'informatique en nuage (cloud computing) et vous percevrez la complexité absolue du monde qui nous attend. Mais il faut raison garder: sans notion du bien et du mal ni réels sentiments ressentis, n'oublions pas que le robot ne sera jamais qu'une machine, aussi perfectionnée soit-elle. Ne lui prêtons pas un souffle de vie qu'elle ne possède pas: ce serait rendre un bien méchant service à la robotique que de lui offrir cet écrin obscurantiste, puisque l'établissement de son régime de responsabilité ne nécessite pas de nourrir un imaginaire qui doit rester cantonné à la science-fiction. Cette série se conclura dans nos éditions de samedi par un face-à-face entre l'auteur de ces lignes et l'avocat parisien Alain Bensoussan, partisan déclaré de l'octroi de droits aux robots (LT). Ne prêtons pas à la machine un souffle de vie qu'elle ne possède pas Illustration(s) : NICOLAS CAPT AVOCAT AUX BARREAUX DE GENÈVE ET PARIS, SPÉCIALISÉ EN DROIT DES MÉDIAS ET DES TECHNOLOGIES DE L'INFORMATION © 2016 Le Temps SA. Tous droits réservés. ; CEDROM-SNi inc. news·20160219·TE·TPS_20160219_0009-art_1 - Date d'émission : 2016-03-16 Ce certificat est émis à Cégep-Granby-Haute-Yamaska à des fins de visualisation personnelle et temporaire. Retour à la table des matières 29