Nombre de document(s) : 10 Date de création

Transcription

Nombre de document(s) : 10 Date de création
Nombre de document(s) : 10
Date de création : 17 mars 2016
Créé par : Cégep-Granby-Haute-Yamaska
Que serons-nous quand les robots feront tout le travail ?
Le Devoir - 22 février 2016...................................................................................................................................2
Des obstacles se dressent devant les voitures sans chauffeur
Le Devoir - 7 janvier 2016.................................................................................................................................... 5
Pourquoi avoir peur de la guerre des robots
Le Devoir - 15 juillet 2015.................................................................................................................................... 7
| tribune | Il faut se préparer à accueillir les robots
Le Monde - 16 mars 2016..................................................................................................................................... 9
L'accident d'une "Google car" ou le début d'une révolution de la route
L'Obs (site web) - 4 mars 2016........................................................................................................................... 12
Robots tueurs, sans foi ni loi
Le Monde - 26 septembre 2015...........................................................................................................................15
Faut-il reconnaître des droits aux robots?
Le Temps - 20 février 2016................................................................................................................................. 19
Ferons-nous confiance aux robots qui nous entourent ?
L'Usine Nouvelle.com - 19 octobre 2015............................................................................................................22
Portrait des enjeux juridiques
Le Journal - Barreau du Québec - 1 décembre 2015........................................................................................... 26
Droit des robots (III): réalité ou science-fiction?
Le Temps - 19 février 2016................................................................................................................................. 28
1
Nombre de document(s) : 10
Date de création : 17 mars 2016
Le Devoir
Société, lundi 22 février 2016, p. A5
Que serons-nous quand les robots feront tout le travail ?
Des scientifiques rappellent l'urgence de légiférer pour encadrer l'évolution rapide de l'intelligence
artificielle
Olivier Dessibourg
D'ici 2020, les machines intelligentes
autonomes, ou semi-autonomes, se
seront entièrement fondues dans nos
sociétés. Lesquelles ? Les voitures et
camions autoguidés, les drones de
surveillance, les systèmes industriels
intelligents, les robots ménagers à
vraiment tout faire. " Ces machines
vont prendre les décisions à la place
des humains. Nous vivrons en
symbiose avec elles. Nous allons leur
faire confiance ", a résumé Bart
Selman, professeur d'informatique à
l'Université américaine de Cornell,
lors de la récente conférence annuelle
de l'American Association for the
Advancement of Science (AAAS).
Bart Selman n'est pas seul à penser de
la sorte. En 2015, il a lancé une lettre
ouverte enjoignant aux humains de
réfléchir à la possibilité qu'ils soient
en train de mettre au point des agents
dotés d'une intelligence artificielle
(IA) telle qu'elle leur permette de
dépasser leurs créateurs, voire de les
asservir, après les avoir privés de
leurs emplois.
Cette pétition a été paraphée depuis
par près de 10 000 signataires, dont
certains
célèbres
comme
l'astrophysicien Stephen Hawking ou
l'entrepreneur Elon Musk. Ce dernier
a d'ailleurs ensuite promis des
soutiens
financiers
à
diverses
institutions, dont le Future of Life
Institute à Cambridge (Massachusetts)
pour s'assurer que " les systèmes d'IA
demeurent bénéfiques aux humains ".
Investissements faramineux
" Jusqu'à 2011, ce domaine était
purement universitaire, rappelle Bart
Selman. Mais depuis, divers secteurs
économiques s'en sont emparés. "
Pour preuve les investissements
faramineux consentis, surtout par les
nouvelles sociétés du numérique
(Google, Facebook, etc.) : " En 2015,
davantage
d'argent
-plusieurs
milliards -- a été alloué à la recherche
en IA que durant les 50 années
précédentes. " " Les milieux militaires
ont proposé d'y ajouter 19 milliards
de dollars ", a ajouté Wendell
Wallach, éthicien à l'Université de
Yale.
Pour Bart Selman, l'on assiste à un
changement
de
paradigme
informatique : " Auparavant, on
programmait des logiciels dans leurs
moindres lignes de code. Aujourd'hui,
les agents intelligents synthétisent des
comportements sur la base de
montagnes de données. Les objectifs
qu'on leur attribue sont de plus haut
niveau, et ils les remplissent avec des
stratégies
qui
seront
peut-être
différentes de celles que l'on aurait
prédites. Ces machines resteront-elles
dès
lors
compréhensibles
pour
l'homme ? "
Concurrencer l'intelligence humaine
2
L'informaticien voit plusieurs raisons
à cet essor. La première est la
capacité de ces agents artificiels à
interagir avec l'homme au niveau des
perceptions.
Un
changement
"
considérable " : " Dans les cinq
dernières années, les ingénieurs les
ont dotés de systèmes visuels et
auditifs ; la première voiture
autoguidée n'avait pas de caméra,
mais c'est le cas maintenant. Cela
change leur manière d'interagir avec
notre monde. Par exemple, les
systèmes de Facebook reconnaissant
les visages d'individus mieux qui
quiconque. J'ai longtemps pensé ce
problème insoluble, mais il est
désormais résolu à 90 %. "
Surtout, " c'est la capacité de ces
machines à combiner raisonnement et
apprentissage qui fait une immense
différence ", a dit l'expert, en
rappelant la victoire récente d'un
ordinateur de la société DeepMind,
appartenant à Google, sur un Coréen
au jeu de go, qu'on croyait être le
dernier bastion de l'intelligence
humaine. Avant d'admettre tout de
même : " Inculquer à cette machine ce
qu'on appelle le "bon sens" reste
encore un défi. Mais dans 10 à 15 ans,
cela sera résolu. "
À Washington, les scientifiques ont
discuté de la capacité de tous ces
agents artificiels à remplacer l'homme
dans moult secteurs économiques.
Nombre de document(s) : 10
Date de création : 17 mars 2016
Selon une étude publiée en 2013 par
deux chercheurs de l'Université
d'Oxford, Carl Benedikt Frey et
Michael
Osborne,
47
%
des
professions du secteur des services
pourront ainsi être exercées par des
robots dans les vingt prochaines
années. D'aucuns y voient néanmoins
des aspects bénéfiques.
L'emploi dans une autre dimension
Concernant la circulation routière par
exemple : grâce à un parc automobile
fait uniquement d'engins automatisés,
les accidents pourraient diminuer de
90 %, a admis Moshe Vardi,
chercheur à l'Université américaine
Rice, et l'un des grands spécialistes du
domaine. Revers de la médaille : "
Aux États-Unis, 10 % des emplois
impliquent un véhicule. Ces postes
vont disparaître. "
Avec un parc automobile entièrement
constitué
d'engins
automatisés,
comme la GoogleCar, le nombre
d'accidents pourrait diminuer de 90
%, selon Google.
Comme lors de la révolution
industrielle, ces pertes dans un
secteur ne seront-elles pas remplacées
par la création d'emplois dans d'autres
domaines, est-il souvent rétorqué ? "
En partie peut-être, répond Bart
Selman. Mais si la révolution
industrielle a déplacé les emplois des
secteurs mécaniques ou manuels vers
notamment le secteur administratif,
là, on parle tout de même d'agents
aptes à nous remplacer sur le plan
intellectuel.
C'est
une
autre
dimension ! "
Pour Moshe Vardi, même si le taux de
chômage tend actuellement à stagner,
cela ne signifie pas que le phénomène
décrit plus haut n'a pas lieu,
sournoisement : " On peut regarder les
chiffres absolus du chômage, dit-il,
mais on peut aussi en regarder
d'autres. Par exemple le pourcentage
de la population totale qui est active
professionnellement. Après l'arrivée
des femmes sur le marché du travail
en 1980, il était à son sommet de 80
%. Depuis, ce taux ne cesse de
baisser, se situant désormais à 60 %.
Que feront les sociétés quand il sera à
25 % ? " " Les hommes auront plus de
temps pour leurs loisirs, pour des
activités culturelles. Ne serait-ce pas
là un bien ? ", a demandé un
journaliste.
" Est-on vraiment sûr que les humains
vont davantage s'adonner aux arts ? Et
pas plutôt regarder encore davantage
de reality shows à la télévision ", lui a
rétorqué le scientifique. Avant de
disserter sur le sens de l'existence : "
Depuis 10 000 ans, l'homme doit
travailler pour survivre. Bon ou pas,
cet état de fait définissait la vie de la
plupart des gens. La question plus
philosophique est donc désormais
celle d'une bonne vie sans travail... "
Une " question politique "
Pour l'éthicien Wendell Wallach, il
est indubitable que les robots pourront
remplacer les travailleurs dans des
tâches ingrates et inhumaines : " Il y a
350 millions d'employés dans le
monde qui, simplement, portent des
caisses dans les usines. Les robots
intelligents peuvent le faire à leur
place. Mais cela impliquerait la perte
de 350 millions de postes de travail.
La question n'est donc pas de savoir à
quel
point
l'automatisation
des
3
systèmes de production va augmenter
la productivité. Elle est plutôt d'ordre
politique, et concerne la redistribution
équitable des biens et des ressources
qui doivent permettre à tous les
humains de la planète, même sans
travail, de faire vivre leur famille. "
Et quid de l'avantage de suppléer les
soldats par des robots sur le champ de
bataille ? " L'autonomie [donnée aux
robots soldats] menace le principe
fondamental qu'il doit exister un
agent, fût-il humain ou moral [tel un
État ou une société], qui soit
responsable de tout dommage généré
par ces systèmes artificiels, avise
Wendell Wallach. Veut-on vraiment
aller sur cette voie de la dilution de la
responsabilité ? "
Et l'éthicien de faire trois propositions
pour encadrer le domaine en plein
essor de l'intelligence artificielle.
Premièrement, imposer de réserver 10
% des recherches en IA vers l'étude et
l'adaptation aux impacts sociétaux
induits par l'arrivée des machines
intelligentes. Deuxièmement, créer un
organe de gouvernance pour proposer
des principes émargeant des lois afin
de trouver des solutions pour
reconnaître les risques et les dangers
dans ce domaine. Et enfin, demander
au président américain de décréter
que, selon les lois américaines, les
robots armés autonomes violent les
lois
humanitaires
internationales
existantes. " Nous sommes en
campagne présidentielle, et ce thème
n'apparaît nulle part sur les radars ", a
regretté Moshe Vardi.
Nombre de document(s) : 10
Date de création : 17 mars 2016
© 2016 Le Devoir. Tous droits réservés. ; CEDROM-SNi inc.
news·20160222·LE·2016-02-22_463603 - Date d'émission : 2016-03-16
Ce certificat est émis à Cégep-Granby-Haute-Yamaska à des fins de visualisation personnelle et temporaire.
Retour à la table des matières
4
Nombre de document(s) : 10
Date de création : 17 mars 2016
Le Devoir
Économie, jeudi 7 janvier 2016, p. B3
Des obstacles se dressent devant les voitures sans chauffeur
Les grands de l'auto font un arrêt à Las Vegas avant de se rendre à Detroit
Le Monde
C'est le signe des temps qui changent.
À moins d'une semaine du Salon
automobile de Detroit, les grands
noms du secteur se sont donné rendezvous... à Las Vegas. Sont notamment
présents Mary Barra et Mark Fields,
respectivement p.-d.g. de General
Motors et de Ford. Ils sont venus
assister au Consumer Electronic Show
(CES), le grand salon consacré à
l'électronique grand public, qui a
ouvert officiellement ses portes
mercredi. Car cette année, encore plus
que lors des précédentes éditions, la
vedette de cette grand-messe, c'est la
voiture sans conducteur. En retrait
médiatiquement face à Google ou à
Tesla, les constructeurs veulent
occuper le terrain.
Si la bataille entre tous ces
combattants se joue dès aujourd'hui,
l'arrivée de tels véhicules sur nos
routes n'est pas pour demain matin. Il
faudra attendre au moins cinq ans
avant qu'une voiture roule de manière
autonome en ville (quand la vitesse de
circulation est peu importante) ou sur
les autoroutes (où la conduite est
moins
complexe),
prédit
Egil
Juliussen, directeur de recherche au
sein du cabinet IHS Automotive.
"Mais pas avant 2025 pour un
véhicule autonome pour tous les
trajets et dans toutes les conditions
météorologiques", poursuit-il.
Du côté des matériels pourtant, "les
capteurs sont déjà au point", assure
Richard Wallace, du centre de
recherche Center for Automotive
Research. Caméras, radars et lidars
(lasers) permettent de cartographier
l'environnement à 360 degrés et de
détecter voitures, cyclistes, piétons,
feux rouges, lignes blanches... "Ce
qui pose encore problème, c'est
l'interprétation des images et des sons
pour prendre les bonnes décisions de
conduite", assure le spécialiste.
La technologie des voitures sans
conducteur repose sur le machine
learning
(ou
apprentissage
automatique),
c'est-à-dire
des
algorithmes informatiques capables
d'apprendre tout seuls. Cette forme
d'intelligence artificielle est très en
vogue dans la Silicon Valley -Google et Facebook y investissent
notamment
des
ressources
considérables.
Elle
permet
par
exemple d'identifier des objets et des
animaux sur des photos ou d'améliorer
les outils de traduction.
Accumuler des kilomètres d'essai
Pour les véhicules autonomes, le défi
est
cependant
beaucoup
plus
complexe. Et la marge d'erreur
infime. "Concevoir une machine
capable d'avoir raison 99 % du temps
est relativement facile, mais parvenir
à un taux de 99,9999 % -- le niveau
qu'il faut atteindre -- est beaucoup
plus difficile. Faire des erreurs à 110
kilomètres/heure serait hautement
5
problématique", résume Tesla, le
fabricant de voitures électriques, qui
propose déjà une fonction limitée de
pilotage semi-automatique.
Les programmes informatiques ne
savent apprendre que par l'exemple.
Ils doivent donc être abreuvés de
données. Dans le cas des voitures sans
conducteur, cela signifie accumuler
les kilomètres d'essai en conditions
réelles. En juin 2015, Google
revendiquait plus de 1,6 million de
kilomètres parcourus en Californie et
au Texas. Le groupe assure que ses
différents prototypes n'ont jamais été
impliqués dans un accident. "Mais
elle n'indique pas combien de fois ses
chauffeurs ont dû reprendre le
contrôle", déplore John Simpson, de
Consumer
Watchdog,
une
organisation
de
défense
des
consommateurs.
"Il faudra des centaines, voire des
milliers de véhicules de test", estime
M. Juliussen. L'algorithme doit en
effet apprendre à réagir dans toutes
les situations possibles: par beau
temps ou sous la pluie, de jour ou de
nuit, dans les embouteillages, devant
une école, derrière un tracteur... En
outre, ces essais devront être
reproduits dans chaque pays pour
tenir compte des différents codes de
la route et des habitudes de conduite.
"Le risque zéro n'existe pas, reconnaît
M. Wallace. Il y aura toujours un cas
Nombre de document(s) : 10
Date de création : 17 mars 2016
de figure particulier que le logiciel
n'aura jamais rencontré."
Au-delà de l'aspect technologique, un
autre
obstacle
menace
le
développement des voitures sans
conducteur:
la
réglementation.
Pourtant en pointe sur le sujet, l'État
de Californie a présenté à la midécembre 2015 un projet de loi visant
à
encadrer
strictement
la
commercialisation de ces véhicules.
Ce texte doit faire l'objet de deux
débats publics, fin janvier puis début
février. Mais en l'état, il "va empêcher
cette technologie d'atteindre tout son
potentiel", assure Chris Urmson, le
directeur technique du projet Google
Car.
La mesure la plus controversée
impose la présence d'un "opérateur"
capable de reprendre immédiatement
le contrôle en cas de défaillances
technologiques ou d'autres urgences.
"Compte tenu des risques associés au
déploiement
de
cette
nouvelle
technologie, nous pensons que les
constructeurs ont besoin d'acquérir
davantage
d'expérience,
justifie
l'administration californienne. Par
ailleurs, un simple permis de conduire
ne suffira pas pour utiliser une voiture
autonome : un permis spécifique sera
nécessaire.
"Ces règles maintiennent le statu quo
en excluant les personnes qui ont
besoin de se déplacer mais qui ne
peuvent pas conduire", regrette M.
Urmson. Les services de transport
urbain
totalement
autonomes
pourraient ainsi être interdits en
Californie.
Or,
selon
l'agence
Bloomberg, ces "taxis robots" font
partie des plans de la société. Ils
figurent aussi dans les projets d'Uber,
la populaire application de voitures
avec chauffeur qui travaille également
sur les technologies autonomes.
Les assureurs sont très attentifs
En outre, le projet de réglementation
prévoit que ces véhicules ne pourront
pas être vendus à des entreprises ou à
des
particuliers.
Ils
pourront
seulement être loués. L'administration
veut que les constructeurs gardent le
contrôle. Ils devront fournir des
rapports mensuels sur l'utilisation et
les performances de leurs voitures. Et
© 2016 Le Devoir. Tous droits réservés. ; CEDROM-SNi inc.
news·20160107·LE·2016-01-07_459475 - Date d'émission : 2016-03-16
Ce certificat est émis à Cégep-Granby-Haute-Yamaska à des fins de visualisation personnelle et temporaire.
Retour à la table des matières
6
devront signaler les accidents. "Les
données
collectées
permettront
d'évaluer
la
sécurité
et
les
performances en conditions réelles
des véhicules autonomes", justifie le
Department of Motor Vehicles (DMV)
de Californie.Cet organisme public
chargé, au niveau de l'État, de
l'enregistrement des véhicules et des
permis de conduire, précise que ces
premières contraintes pourront être
assouplies après quelques années.
Une fois tous ces obstacles franchis,
un dernier problème devra être résolu:
celui de la responsabilité en cas
d'accident ou d'infraction au code de
la route. Pour l'État de Californie, elle
est à la charge du conducteur. "Si ces
voitures sont autorisées à rouler, il
semble logique que la responsabilité
incombe aux fabricants automobiles",
rétorque M. Simpson. Un sentiment
partagé par Google et par le
constructeur suédois Volvo. Ce débat
est en tout cas suivi de près par les
assureurs. "Ils pourront avoir à
changer de modèle économique",
prédit le cabinet McKinsey.
Nombre de document(s) : 10
Date de création : 17 mars 2016
Le Devoir
Idées, mercredi 15 juillet 2015, p. A7
Opinion
Pourquoi avoir peur de la guerre des robots
La communauté internationale doit éviter le spectre de conflits dominés par des Frankenstein
Charles Benjamin - Professeur de science politique au cégep Saint-Jean-sur-Richelieu
Moins d'une décennie après avoir fait
leur apparition sur les champs de
bataille, les drones de combat ont
aujourd'hui envahi les théâtres de
guerre. Le président Obama a
généralisé le recours aux assassinats
ciblés et fait de ces appareils
téléguidés son arme de prédilection
dans la lutte contre le terrorisme. En
2013, l'armée américaine comptait
près de 7500 drones dans son arsenal,
ce qui représentait le tiers de sa flotte
aérienne. Au terme de son premier
mandat, Obama avait autorisé huit
fois plus d'attaques de drones que son
prédécesseur.
Pourtant, si l'avènement des drones
armés constitue une transformation
militaire importante, la prolifération
des armes sans pilote ne pourrait être
que le début de la robotisation de la
guerre. Des percées dans le domaine
de l'intelligence artificielle permettent
désormais d'envisager un avenir dans
lequel des machines autonomes
pourront repérer et éliminer des cibles
ennemies sans intervention humaine.
Le scénario imaginé par James
Cameron dans son film Terminator
pourrait bientôt devenir réalité. La
robotique séduit déjà les armées des
pays riches, qui sont progressivement
entraînés
dans
une
course
à
l'armement. Or le déploiement de
robots prédateurs soulève des enjeux
éthiques
graves
qui
devraient
interpeller les gouvernements et les
citoyens. Est-il souhaitable que des
robots perfectionnés se substituent
aux soldats et aient un droit de vie ou
de mort sur des humains ? Les robots
tueurs pourront-ils se conformer au
droit international humanitaire et
obéir aux lois de la guerre ? Alors que
les grandes puissances refusent de
décréter
un
moratoire
sur
la
robotisation militaire, la coalition
Campain to Stop Killer Robots milite
pour interdire le développement de
ces engins de la mort. Christof Heyns,
rapporteur spécial des Nations unies,
a également exprimé des craintes dans
son dernier rapport sur le sujet.
L'automatisation des robots, dont les
prototypes
pourraient
être
opérationnels d'ici 20 ans, accomplit
une révolution dans les affaires
militaires
comparable
à
celle
provoquée par l'invention des armes à
feu ou de la bombe atomique. Pour
leurs
partisans,
les
systèmes
automatisés procurent des avantages
considérables
aux
armées
qui
maîtrisent cette technologie. Les
robots
sont
politiquement
et
économiquement rentables pour les
décideurs qui les emploient dans les
zones de conflit. Ils constituent une
solution de rechange à l'envoi de
troupes au sol et permettent de
réaliser la promesse d'une guerre "
zéro mort ", chère aux opinions
7
publiques occidentales depuis la fin
de la guerre du Vietnam. Ils peuvent
pénétrer plus profondément derrière
les lignes ennemies sans être
ravitaillés et peuvent rester déployés
plus longtemps qu'un contingent de
soldats. Ils peuvent être programmés
pour laisser des traces électroniques
de leurs interventions, rendant ainsi
leur contrôle plus transparent. Ils sont
également immunisés contre la peur,
la fatigue et les autres facteurs de
stress
auxquels
font
face
les
combattants au front. Puisqu'ils ne
craignent pas pour leur survie, les
robots ne risquent pas d'utiliser la
force par instinct de conservation ou
par désir de vengeance. À moins
d'être programmés à ces fins, ils
n'infligent pas délibérément des
violences à des populations civiles et
ne pratiquent pas la torture.
En revanche, l'introduction prochaine
d'automates sur les champs de bataille
soulève des inquiétudes grandissantes.
Pour ses détracteurs, la robotisation
de la guerre constitue une dérive
technologique
qui
risque
de
compromettre la paix et la sécurité
internationales. En sous-traitant des
opérations militaires à des robots, les
dirigeants politiques peuvent éprouver
moins de répugnance à recourir à la
guerre. C'est aussi l'un des paradoxes
des drones de combat : parce qu'elle
réduit le coût humain de la guerre, la
Nombre de document(s) : 10
Date de création : 17 mars 2016
technologie militaire fait tomber un
frein à la violence et contribue à
banaliser les conflits armés. De plus,
malgré les progrès de l'intelligence
artificielle, l'utilisation de robots
prédateurs risque d'être incompatible
avec les principes élémentaires du
droit humanitaire. Ces appareils ne
sont pas équipés de capteurs capables
de reconnaître un combattant ennemi
et de le distinguer d'un civil innocent,
surtout dans le contexte actuel des
guérillas urbaines où les belligérants
ne portent pas d'uniforme. Ils ne
peuvent pas : déterminer si une
personne est blessée et hors de
combat, ou si un soldat ennemi
souhaite se rendre ; ils ne sont pas
programmés
pour
calculer
la
proportionnalité de leurs attaques ; ils
sont incapables de juger si les pertes
civiles anticipées lors d'une frappe
sont excessives par rapport à la valeur
de la cible militaire visée.
Bien que sensibles à ces enjeux, les
partisans de la révolution robotique
croient néanmoins que les obstacles
techniques peuvent être contournés.
Pour assurer le repérage d'une cible
militaire légitime, les robots peuvent
être réglés pour ne riposter qu'en cas
de légitime défense, lorsqu'ils sont
victimes d'un tir ennemi. Leur usage
peut également être limité aux terrains
d'opérations inhabités (mer ou désert).
Mais en définitive, les robots
autonomes, en décidant eux-mêmes de
© 2015 Le Devoir. Tous droits réservés. ; CEDROM-SNi inc.
news·20150715·LE·2015-07-15_445062 - Date d'émission : 2016-03-16
Ce certificat est émis à Cégep-Granby-Haute-Yamaska à des fins de visualisation personnelle et temporaire.
Retour à la table des matières
8
leur propre utilisation, échappent à
toute forme d'autorité hiérarchique et
de responsabilité juridique, ce qui est
contraire aux Conventions de Genève.
À qui devrait-on attribuer la faute
pour un crime de guerre commis par
un robot déréglé ou défectueux ?
Pourrait-on tenir responsables les
programmeurs, les fabricants, les
officiers ou les politiques ayant
autorisé son utilisation ? La robotique
promet de changer le visage de la
guerre et marque l'asservissement de
l'humain
à
la
machine.
La
communauté internationale doit éviter
le spectre d'un monde dominé par des
Frankenstein robotisés et légiférer
pour interdire la production de ces
engins.
Nombre de document(s) : 10
Date de création : 17 mars 2016
Le Monde
Science & techno, mercredi 16 mars 2016, p. SCH8
Le Monde Science et médecine
Spécialiste des interactions homme-machine, Laurence Devillers rappelle que nos capacités d'empathie peuvent
conduire à s'illusionner sur les capacités réelles des robots. Leur irruption dans nos vies nécessite une réflexion
éthique
| tribune | Il faut se préparer à accueillir les robots
L
a
victoire
d'AlphaGo
(Google
DeepMind) sur Lee Sedol, l'un des
tout meilleurs joueurs de go, relance
les questionnements sur les promesses
et les risques de l'avènement de
machines
intelligentes.
Pourtant,
l'exploit d'AlphaGo, vingt ans après
Deep Blue victorieux face à Garry
Kasparov, ne doit pas fausser notre
vision de ce dont seront capables les
robots qui s'invitent de plus en plus
dans notre vie quotidienne.
Les robots et objets connectés vont
intégrer nos foyers, tout comme les
téléphones portables et les téléviseurs.
Les premiers dans notre quotidien
sont les aspirateurs capables de
reconnaître des obstacles et se
déplacer de façon autonome. Bientôt,
nous pourrons parler à des robots
assistants, comme on parle déjà à son
téléphone.
Au
Laboratoire
d'informatique pour la mécanique et
les sciences de l'ingénieur (Limsi)CNRS, nos recherches portent sur les
interactions
homme-machine.
Un
robot est une machine artificiellement
intelligente grâce à des modèles
informatiques
conçus
par
des
humains : pour peu qu'on l'ait
programmée
pour
détecter
et
reconnaître des indices émotionnels et
conversationnels et pour s'adapter à
l'humain, voire faire de l'humour,
cette
machine
peut
sembler
chaleureuse. Nous utilisons également
des algorithmes d'apprentissage et des
réseaux de neurones. Il est cependant
moins facile d'apprendre des concepts
comme les émotions et les stratégies
de dialogue à partir de grands corpus
de données, car ces concepts ne sont
pas si faciles à formaliser.
Les
enfants
apprennent
en
expérimentant le monde. Pour un
robot, la tâche est extrêmement
difficile car il n'a ni instinct ni
intentions pour prendre des décisions.
La machine ne sait pas construire de
façon autonome des représentations
nouvelles devant une nouvelle tâche,
en revanche elle peut imiter l'humain.
Les robots ne ressentent rien, n'ont
pas de conscience, même s'ils peuvent
dire « je t'aime » ! Les machines
seront de plus en plus autonomes
grâce à des programmes d'intelligence
artificielle sophistiqués, elles ne
seront pas pour autant capables de
sentiments,
de
créativité
et
d'imagination tel qu'on l'entend pour
les humains. La machine ne peut pas
se sentir « heureuse » car elle est
dénuée de conscience phénoménale.
Elle ne peut d'ailleurs pas «
comprendre » le concept de bonheur.
Lorsque AlphaGo bat le joueur de go,
la machine ne comprend pas ce qu'elle
fait.
9
Devant une question sans réponse,
l'humain est incroyablement plus fort
que la machine pour imaginer des
solutions. Nous pouvons développer
des machines plus intelligentes que
nous pour des tâches spécifiques, ces
machines pourront même accomplir
des actions impossibles pour l'homme.
La machine est plus forte que
l'humain pour effectuer des calculs
complexes, et ce de plus en plus
rapidement! Elle est plus forte pour
répondre
à
des
questions
encyclopédiques, pour reconnaître des
personnes... car elle a une mémoire
énorme! Il faut exploiter ces
capacités, sans en avoir peur, pour
notre bien-être dans la société.
En 2060, 32 % de la population
française aura plus de 60 ans, soit une
hausse de 80 % sur une cinquantaine
d'années, et la charge des maladies
chroniques ira de pair avec le
vieillissement de la population. Les
robots, parfois humanoïdes afin
d'évoluer dans notre habitat, pourront
nous être très utiles pour rester à
domicile. Ils auront des rôles
différents dans notre quotidien : du
surveillant à l'assistant ou au
compagnon. La relation homme-robot
sera souvent triangulaire, entre
l'homme, le robot, et le personnel
soignant ou la famille. De nombreuses
applications pour la santé, la sécurité
ou le divertissement sont envisagées.
Nombre de document(s) : 10
Date de création : 17 mars 2016
Les premières études d'interaction
entre un robot et des personnes âgées
menées avec des ergothérapeutes de
l'association Approche dans des
maisons de retraite (projet PSPCRomeo, piloté par Aldebaran-Robotics
avec les grands laboratoires français
en robotique) ainsi qu'avec des
gérontologues dans le living lab de
l'hôpital Broca, à Paris, montrent un
grand intérêt pour les robots et des
réactions plutôt positives. D'ici cinq à
dix ans, les seniors auront des
connaissances en informatique et
l'acceptation sera bien plus forte. De
même, les personnels soignants auront
compris que leur rôle sera d'autant
plus valorisé grâce aux machines. Les
médecins y voient déjà une avancée
significative pour le suivi des
patients.
Créer une relation affective avec les
robots n'est plus un sujet de sciencefiction. La ressemblance avec un être
humain ou un animal, les mimiques faciales, le ton de voix, ou encore
l'aspect enfantin ou peluche de
certains d'entre eux contribuent à
susciter l'émotion. Cependant, il est
possible d'éprouver des émotions en
face de n'importe quel objet. L'humain
projette aussi des relations affectives
avec des robots non humanoïdes,
dépourvus de capacités affectives,
comme
des
robots
téléguidés
démineurs qui sauvent des soldats, ou
encore
des
robots
aspirateurs.
Certains leur donnent des noms,
preuve que l'humain projette une
identité sur le robot. L'attachement est
un lien affectif qui résulte de
l'histoire commune.
La media equation de Reeves et Nass,
en
1996,
explique
que
nous
appliquons
les
mêmes
attentes
sociales lorsque nous communiquons
avec
des
entités
artificielles.
L'anthropomorphisme est l'attribution
des caractéristiques comportementales
de vie humaine à des objets. Ainsi, un
objet qui semble ressentir de la
douleur, comme le robot Atlas de
Boston Dynamics, peut inspirer de
l'empathie.
Grâce
à
l'imagerie
cérébrale, les chercheurs ont constaté
que les humains en éprouvaient pour
des robots maltraités, certes de
moindre intensité qu'envers des
humains maltraités, une empathie qui
n'existe pas pour des objets inanimés.
Mais la ressemblance avec l'humain
ne pourrait aller que jusqu'à un
certain point, si l'on en croit la théorie
de la « vallée de l'étrange . Car si l'on
va trop loin, le moindre défaut devient
monstrueux et la machine est rejetée.
L'interaction affective et sociale des
humains avec des robots soulève
plusieurs questions éthiques qui
s'ajoutent aux questions générales de
respect de la vie privée et de
protection
contre
des
actes
malveillants.
Les
préconisations
publiées par la Comission de réflexion
sur l'éthique de la recherche en
sciences et technologies du numérique
(Cerna), de l'Alliance des sciences et
technologie du numérique (Allistene)
sur l'éthique du chercheur en robotique portent sur l'imitation du
vivant et l'interaction affective et
sociale avec les humains, l'autonomie
et les capacités décisionnelles, et la
réparation et l'augmentation de
10
l'homme par la machine. Peu
d'expériences ont encore été menées
sur l'étude des usages à long terme.
Concevoir cet univers dans lequel les
humains cohabiteront avec des entités
complexes autonomes qui peuvent
s'adapter va devenir une réalité.
L'apparition des robots dans la société
va de pair avec un grand nombre de
défis légaux et sociétaux à résoudre,
comme les problèmes de droit et
responsabilités et le partage du travail
sur lesquels il faut se pencher :
comment éduquer pour pouvoir créer
du travail autour de ces machines?
quels nouveaux métiers? quelles
règles?
pour
quelles
tâches
souhaitons-nous créer ces entités
artificielles? comment peuvent-elles
nous aider sans prendre le travail des
hommes et pour le bien-être de tous?
Note(s) :
Laurence Devillers est professeure à
Paris-Sorbonne-IV.
Elle dirige une équipe de recherche au
Laboratoire d'informatique pour la
mécanique et les sciences de l'ingénieur
(Limsi)-CNRS
:
«
Dimensions affectives et sociales dans
les interactions parlées .
Le
supplément
«
Science
&
médecine » publie chaque semaine
une tribune libre ouverte au monde de
la recherche. Si vous souhaitez
soumettre un texte, prière de
l'adresser à [email protected]
Nombre de document(s) : 10
Date de création : 17 mars 2016
© 2016 SA Le Monde. Tous droits réservés. ; CEDROM-SNi inc.
news·20160316·LM·2212334 - Date d'émission : 2016-03-16
Ce certificat est émis à Cégep-Granby-Haute-Yamaska à des fins de visualisation personnelle et temporaire.
Retour à la table des matières
11
Nombre de document(s) : 10
Date de création : 17 mars 2016
L'Obs (site web)
Economie, vendredi 4 mars 2016
L'accident d'une "Google car" ou le début d'une révolution de la route
Hebert, Donald
En percutant un bus en Californie,
une voiture sans chauffeur de
Google a illustré ce qui attend la
route : la fin du permis de conduire,
du bonus-malus, et de notre système
de responsabilité.
C'est arrivé sur une route à trois voies
de la côte ouest des Etats-Unis, en
Californie, près de San Francisco,
plus exactement à Mountain view, non
loin du siège de Google.
Une voiture de marque Lexus qui
roulait sur la file de droite s'est
retrouvée face à des sacs de sable.
Pour les éviter, elle a ralenti afin de
déboîter à gauche. Puis, après avoir
laissé passer plusieurs véhicules, elle
s'est engagée très lentement sur la
voie centrale.
Elle pensait que l'autocar devant
lequel elle voulait se faufiler allait lui
laisser la priorité. Le chauffeur du bus
a probablement estimé, à l'inverse,
que le poids de son véhicule allait
dissuader la Lexus de s'engager. Et
boum ! Les deux véhicules se sont
retrouvés au même endroit au même
moment.
Un cas d'école
Il s'agit du récit d'un banal accident
de la route. Mais il a fait le tour de la
planète. Et pour cause : la Lexus
n'avait pas de chauffeur. Elle était
guidée par un logiciel conçu par
Google. La personne située devant le
volant, un pilote d'essai employé par
le géant d'internet, avait pour
consigne d'intervenir uniquement en
cas de danger. Et pour la première
fois, Google, qui teste ses prototypes
en circulation et n'en est pas à son
premier
accident,
s'est
déclaré
responsable. Il s'agit donc d'un cas
d'école.
"C'est
un
exemple
classique
d'arbitrage qui fait partie intégrante
de la conduite : nous essayons tous
d'anticiper les mouvements des uns et
des autres", a expliqué Google.
Mais ce qui relève de l'appréciation
humaine
est
parfois
dure
à
appréhender par le robot. L'entreprise
a
immédiatement
annoncé
une
modification
de
son
logiciel
d'intelligence artificielle afin de
mieux prendre en compte le poids des
véhicules dans le respect des
priorités. Mais pourra-t-elle anticiper
toutes les situations ? Cet accident
révèle les bouleversements qui vont
accompagner la révolution de la
voiture sans chauffeur.
Fin du bonus-malus
conducteurs
pour
les
La voiture sans chauffeur signifie la
fin d'un principe bien établi : la
responsabilité
du
conducteur.
Aujourd'hui, pour être sûr que les
victimes
d'accidents
soient
indemnisées, c'est la personne au
volant qui se retrouve devant le
tribunal.
"90% des accidents ont pour origine
une erreur de conduite, explique
12
François Nedey, directeur technique
assurances et responsabilités chez
Allianz France. Il est rarissime de
constater qu'un défaut sur un véhicule
en soit la cause."
Depuis Mountain view, c'est différent.
Si le centre de décision se déplace du
cerveau du conducteur au disque dur
de la voiture, il en va de même de la
responsabilité devant la loi.
"Il est difficile de reprocher au
conducteur d'avoir choisi le mauvais
véhicule ou le mauvais logiciel", note
François Nedey.
Dans ces conditions, le système actuel
de bonus-malus, qui récompense les
bons conducteurs - par une ristourne
sur l'assurance - et pénalise les
mauvais élèves, aura de moins en
moins de pertinence.
Un permis de conduire pour logiciel
L'autre enseignement de Mountain
view, c'est la question du logiciel.
"Personne ne contrôle aujourd'hui que
les algorithmes qui déterminent les
réactions du véhicule correspondent à
la loi, au code de la route, et à
l'éthique de la conduite", explique
François Nedey.
Et force est de constater qu'il ne suffit
pas de respecter le code de la route
pour ne pas avoir d'accident. Il faut
aussi un code de bonne conduite.
A l'avenir, il est probable que les
autorités mettent en place un système
Nombre de document(s) : 10
Date de création : 17 mars 2016
d'homologation des logiciels. Un
permis de conduire pour robots ! Les
assureurs, s'ils doivent couvrir les
constructeurs, l'exigeront. Mais il
faudra
résoudre
un
problème
particulièrement complexe.
Pour homologuer un véhicule, il faut
le tester dans un maximum de
situations. Mais pour une voiture
autonome, le nombre de ces situations
est presque infini. Impossible de tout
anticiper !
L'autre solution consiste à valider le
système d'intelligence artificiel luimême. Mais pour cela, il faudrait que
les éditeurs des logiciels acceptent de
livrer leurs précieux algorithmes à des
tiers... Et que ceux-ci aient le niveau
de connaissance pour les comprendre
et les juger.
Plus de permis pour les conducteurs ?
L'autre question fondamentale posée
par l'accident de Mountain view, c'est
la place de l'humain dans la voiture
autonome. Doit-il être en position
d'intervenir à tout moment ? En
Europe, la convention de Vienne
impose aujourd'hui que le conducteur
garde les deux mains sur le volant, au
cas où. Elle va être modifiée pour
laisser place à l'expérimentation de la
voiture autonome. Mais avant la
commercialisation
de
voitures
autonomes,
il
faudra
repenser
l'ensemble des règles.
D'ici là, Google montre pâte blanche,
en assumant sa responsabilité. Car à
quoi bon disposer d'une voiture
autonome si on doit l'assister ? A quoi
bon avoir une voiture sans chauffeur
s'il est interdit de téléphoner, de lire
ou de fumer... ? Faudrait-il savoir
faire un créneau si toutes les voitures
se garaient automatiquement ? A
terme,
le
véhicule
ralentira
automatiquement en ville, mettra
toujours son clignotant, et ne
klaxonnera pas. Il ne servira
probablement plus à rien d'apprendre
le code de la route, ni de savoir
conduire.
Une cohabitation délicate
La voiture sans chauffeur pour tous
n'est pas pour tout de suite.
"Le jour où un véhicule sera considéré
comme vraiment autonome, estime
François Nédey, il saura éviter un
petit chantier place de l'Etoile à
Paris."
Certains évoquent 2050, d'autre 2100.
Plus tôt, espère sûrement Google.
D'ici là, voitures avec et sans
chauffeurs vont devoir cohabiter. Et
cette
phase
s'annonce
délicate.
Comme le montre le cas de Mountain
view, il est difficile pour les robots
d'anticiper
les
réactions
des
chauffeurs et inversement.
Durant cette phase, la répartition de la
responsabilité s'avèrera complexe.
François Nedey imagine un régime de
responsabilité sans faute, comme il en
existe dans la construction, où de
nombreux acteurs interviennent. Le
conducteur sera responsable, mais il
pourra
se
retourner
vers
le
constructeur. Qui devra ensuite se
retourner vers ses fournisseurs : les
équipementiers,
mais
aussi
les
éditeurs de logiciels comme Google.
Pour répartir les torts, il faudra
implanter dans chaque véhicule une
13
boîte noire, comme dans les avions.
Elles recueilleront les données faisant
foi pour l'ensemble des industriels
impliqués dans un accident. Cette
phase a déjà presque commencé.
"Certains
constructeur
nous
demandent à être couverts pour leurs
systèmes de sécurité actifs", explique
l'expert.
Depuis la généralisation des ABS,
Airbags et régulateurs de vitesse,
l'industrie a fait de gros progrès.
Parking, respect des distances de
sécurité, freinage et trajectoires
d'urgence, maintien dans la même file
sont maintenant automatisés sur de
récents modèles hauts de gamme.
Lorsque les voiture seront totalement
autonomes sur une partie voire sur
l'intégralité du réseau routier, les
constructeurs
devront
être
intégralement couverts.
Avec la multiplication des voitures
autonomes, une autre forme de
cohabitation devra être organisée :
celle entre différents logiciels, avec
des algorithmes différents. En cas
d'obstacle, si le véhicule A est
programmé pour le contourner par la
gauche, le véhicule B par la droite et
qu'ils sont en sens inverses... ils se
percuteront.
Même si les robots conduisent plus
prudemment que les humains, il
faudra aussi leur faire respecter les
règles. Elles sont parfois difficiles à
déterminer. Il faudra choisir entre la
vie d'un conducteur et celle d'une
famille de piétons.
Donald Hébert
Nombre de document(s) : 10
Date de création : 17 mars 2016
© 2016 L'Obs (site web). Tous droits réservés. ; CEDROM-SNi inc.
news·20160304·OA·20160304×2OBS5850 - Date d'émission : 2016-03-16
Ce certificat est émis à Cégep-Granby-Haute-Yamaska à des fins de visualisation personnelle et temporaire.
Retour à la table des matières
14
Nombre de document(s) : 10
Date de création : 17 mars 2016
Le Monde
Culture & idées, samedi 26 septembre 2015, p. ARH1
Culture et idées
Interdire les machines tueuses, un combat perdu?L'avènement des « killer robots » ouvre des perspectives
terrifiantes, soulignent les ONG et les milliers de chercheurs qui demandent leur interdiction. Mais, de l'arbalète
aux bombardements aériens, les luttes éthiques visant à bannir des armes ont rarement abouti
Robots tueurs, sans foi ni loi
Des armes autonomes, capables de choisir leur cible, vont-elle remplacer les soldats sur les champs de
bataille? Cette perspective inquiète, tant elle remet en cause le droit de la guerre
Frédéric Joignot Frédéric Joignot
On l'appelle SGR-A1. De jour comme
de nuit, sur un rayon de 4 kilomètres,
ce robot militaire décèle, grâce à son
logiciel de « tracking », les
mouvements d'un intrus. Mis en
marche à distance, cet automate pour
poste-frontière tire de lui-même, de
façon
indépendante,
sur
toute
personne ou véhicule qui s'approche.
Conçu par Samsung, il est équipé
d'une
mitrailleuse,
d'un
lancegrenades, de capteurs de chaleur, de
caméras de détection infrarouge et
d'une intelligence électronique. En
septembre 2014, la Corée du Sud a
installé plusieurs de ces engins le
long de la zone démilitarisée qui la
sépare de la Corée du Nord, afin
d'éviter d'envoyer des soldats dans
des endroits isolés.
C'est peu dire qu'une telle arme, «
intelligente » et autonome, inquiète.
Depuis 2012, elle est régulièrement
dénoncée par une coalition de 51
organisations non gouvernementales
(ONG) coordonnée par Human Rights
Watch, dans le cadre de la campagne
internationale « Stop Killer Robots »
(« Arrêtez les robots tueurs »). Le
mouvement de protestation a été
relancé à grand bruit, le 28 juillet,
grâce à une lettre ouverte signée par
près de 3 000 personnalités, dont des
chercheurs
en
robotique,
des
scientifiques comme le physicien
Stephen Hawking et des figures de
l'industrie high-tech, comme Elon
Musk, PDG de Tesla Motors, ou Steve
Wozniak, cofondateur d'Apple. Pour
eux, un tel robot militaire, et tous
ceux qui risquent de suivre du fait des
avancées rapides de l'intelligence
artificielle,
soulève
de
graves
questions éthiques et juridiques qui
remettent en cause le droit de la
guerre.
Le plus inédit est de donner à une
machine autonome la possibilité de
tuer. C'est un droit moral qui a
toujours été réservé aux humains sur
le champ de bataille. Comme le
rappelle un responsable d'Human
Rights Watch, « il faut un homme
pour décider d'arrêter le tir et faire
des prisonniers, pour reconnaître un
soldat portant un drapeau blanc, pour
évaluer si la riposte est équilibrée .
Or, le robot sentinelle SGR-A1 est
incapable de faire ces choix : il tire
automatiquement sur tout ce qui
bouge. Ce faisant, il risque à tout moment de violer deux principes du
15
droit international humanitaire (DIH)
qui régit les conflits armés depuis les
conventions de Genève de 1949 et
leurs protocoles additionnels : d'une
part, la règle cardinale de la «
distinction » entre les civils et les
militaires; ensuite, la nécessité
d'éviter
des
violences
«
disproportionnées » par rapport aux
menaces, et donc de procéder à une
évaluation.
L'autre problème soulevé par l'usage
des robots tueurs est celui de la
responsabilité pénale. Si l'un d'entre
eux
commettait
un
dommage
collatéral ou abattait des civils, contre
qui les victimes et leurs familles
pourraient-elles se retourner? Human
Rights Watch pointe le « vide
juridique » qui entoure ces armes
nouvelles. Rien n'est prévu dans le
droit international humanitaire.
Pour discuter des dangers de ces
systèmes d'armes létaux autonomes
(SALA, la traduction française de
lethal autonomous weapons systems),
une réunion multilatérale mobilisant
des représentants de 87 pays, ainsi
que des délégués de la coalition
d'ONG Stop Killer Robots, s'est tenue
en mai 2014 aux Nations unies, à
Nombre de document(s) : 10
Date de création : 17 mars 2016
Genève, dans le cadre de la
convention sur les armes classiques.
Les ONG espèrent arriver à un accord
pour l'interdiction de telles armes,
comme cela fut le cas, en 2008, pour
les armes à sous-munitions. Car, à
écouter les spécialistes de la
robotique qui les dénoncent, les
SALA ont de quoi faire peur.
Le 27 mai, dans la revue Nature, une
tribune de l'Américain Stuart Russell,
spécialiste de l'intelligence artificielle
(IA), professeur d'informatique à
l'université de Californie, prévenait
que ces armes allaient être améliorées
et développées « dans les années à
venir » - c'est-à-dire très vite.
Contacté par Le Monde, ce chercheur
décrit l'extrême sophistication atteinte
par « la combinaison des composants
robotiques et de l'IA » . Equipé
d'outils de navigation, de logiciels de
« prise de décision tactique » et de «
planification à long terme » , mais
également doté d'un programme
d'apprentissage, un véhicule inhabité
trouve aujourd'hui seul son chemin
dans un environnement difficile. Une
fois militarisé, il pourra mener « des
missions urbaines de recherche et
d'élimination de cibles » . Stuart
Russell assure qu'aux Etats-Unis,
deux programmes de la Defense
Advanced Research Projects Agency
(Darpa), qui dépend du ministère de la
défense, portent sur des hélicoptères
miniatures capables de s'orienter seuls
dans des immeubles où toute
information est brouillée. Selon lui,
l'armement de ces robots, qui
pourraient diminuer jusqu'à n'être pas
plus gros que des insectes - ce qui
rappelle les agents arachnoïdes du
film Minority Report (2002), de
Steven
Spielberg
-,
est
déjà
expérimenté en secret.
Dans un rapport présenté à l'ONU en
avril, M. Russell soutient qu'il faut
s'attendre à voir apparaître d'ici vingt
ans des essaims de giravions
miniatures, équipés de cerveaux
décisionnels et dotés de munitions
capables de perforer les yeux ou de
projeter des ondes hypersoniques
mortelles. Ces armes pourraient
posséder, dit-il, « une létalité
comparable à celle des armes
nucléaires » face à laquelle les
humains « seront sans défense » .
Dans leur lettre ouverte de juillet, les
scientifiques avancent que le saut
technologique, mais aussi éthique,
franchi par l'usage présent et futur de
SALA peut être comparé à l'invention
de la « poudre à canon » et à celle des
« armes nucléaires », et parlent d'une
grave « perte d'humanité . Ils
soulignent que de telles armes, «
intelligentes » mais sans aucune
disposition morale, « sont idéales
pour des tâches telles qu'assassiner,
déstabiliser les nations, soumettre les
populations et tuer un groupe
ethnique particulier . Ils redoutent
que « des dictateurs » les utilisent
comme forces de l'ordre, ou que des «
seigneurs de guerre » s'en servent
pour « perpétrer un nettoyage
ethnique » .
Ils expliquent enfin que ces robots ne
sont pas coûteux à fabriquer, ne
nécessitent aucune matière première
rare, et qu'ils risquent d'apparaître
rapidement « sur le marché noir .
Passant « aux mains de terroristes » ,
ils deviendraient les « kalachnikovs
de demain » . Autant de fortes raisons
pour
demander
un
moratoire
international sur leur construction, en
vue
d'établir,
comme
le
dit
l'Américain Peter Asaro, philosophe
s'intéressant à l'éthique des machines,
« une norme interdisant toute
16
délégation de tuer à une machine » et
conservant « le choix de cibler et de
tirer sous contrôle humain » .
La campagne « Stop Killer Robots »
est très critiquée, tant aux Etats-Unis
qu'en Europe, par de nombreux
spécialistes militaires, des ingénieurs
de l'armement et des théoriciens de
l'éthique des armes. En février 2013,
le juriste américain Michael Schmitt,
professeur de droit international à
l'US Naval War College, a tenu à
répondre sur le fond à Human Rights
Watch dans le National Security
Journal, de la faculté de droit de
Harvard. Il estime que les opposants
aux SALA jouent sur les mots en s'en
prenant à l' « autonomie » des
machines, alors que de nombreuses
armes opérationnelles utilisent déjà
des technologies intelligentes :
certains missiles sol-air, surnommés «
Fire-and-Forget » (« tire et oublie »),
vont chercher seuls un objectif
désigné, conduits par des outils de
détection. Le canon antimissilesantinavires Phalanx tire directement
sur ses cibles grâce à un calculateur
de position. Quant au système
antiroquettes automatisé d'Israël, Iron
Dome, utilisé en juillet 2014 durant
l'opération Bordure protectrice, il est
équipé d'un ordinateur de gestion de
bataille.
Si ces armes, explique Michael
Schmitt, peuvent tirer de façon «
automatique » sur une cible, elles n'en
sont pas pour autant « autonomes » .
L'homme « reste toujours dans la
boucle de commandement », même s'il
est très éloigné du terrain, et peut
toujours décider d'arrêter à distance la
mitrailleuse
automatique,
de
reprogrammer le missile en vol ou le
drone - autrement dit, il conserve
l'acte moral de suspendre la décision
de tuer. A ce jour, souligne Michael
Nombre de document(s) : 10
Date de création : 17 mars 2016
Schmitt, il n'existe pas encore de
robots totalement indépendants. Il
préfère s'en tenir à la définition
avancée par le Defense Science Board
américain (une instance de conseil du
ministère de la défense), qui
considère « les armes autonomes
comme faisant partie d'un système
homme-machine .
En France, la spécialiste de l'éthique
des machines Catherine Tessier,
maître de conférences à l'Office
national d'études et de recherches
aérospatiales, avance dans l'ouvrage
collectif Drones et « killer robots .
Faut-il
les
interdire?
(Presses
universitaires de Rennes, 268 pages,
18
euros)
que
les
antiSALAconfondent les « automatismes
embarqués », comme le pilotage et le
guidage, avec l'autonomie. Pour elle,
il ne faut pas oublier ce pour quoi a
été « programmé » le robot, comment
l'homme « partage les décisions » de
la machine, interprète les évaluations
de ses logiciels et peut l'arrêter. De
son côté, la capitaine Océane
Zubeldia, de l'Institut de recherche
stratégique de l'Ecole militaire,
rappelle que la robotisation, qui s'est accélérée avec l'essor extraordinaire
des technologies de l'information et
de la communication et des réseaux
satellitaires, répond à une nécessité
stratégique pour les armées. Depuis la
première guerre du Golfe, en 1991, la
guerre moderne est devenue, nous ditelle, une « guerre cybernétique », une
« guerre de l'information » utilisant
des « systèmes d'armes intégrés » et
des « véhicules inhabités » comme les
drones. A cet aspect stratégique
s'ajoute un objectif humanitaire et
éthique : il faut « diminuer les risques
de perdre les équipages » et « les
éloigner de la zone des conflits » . «
Le prix de la vie humaine, souligne-t-
elle, n'a cessé de prendre de
l'importance, et si la prise de risques
reste une valeur essentielle du
militaire, le "gaspillage" des vies
n'est plus toléré, ni par la société ni
par les autorités. »
soldat reste responsable de l'usage
qu'il fait de son arme. Si un robot
commet un dommage collatéral, le
commandement devra en répondre :
c'est sur lui que le droit international
humanitaire continue de s'exercer.
Une grande partie des arguments
éthiques en faveur de la robotisation
des armes découle de cet impératif
humain : elle permet d'épargner les
soldats - enfin, les soldats amis. Il est
vrai qu'un robot ne peut être tué,
blessé ou pris en otage. Il ne souffre
pas des intempéries, ignore la fatigue
et la peur, effectue sans état d'âme des
missions-suicides. Il peut être envoyé
dans des zones contaminées, minées,
ou dans des sanctuaires ennemis et
terroristes. Ce robot-soldat n'est pas
affecté par la colère, la vengeance. Il
ne viole pas, ne torture pas. Souvent,
son tir est plus précis que celui d'un
soldat. Océane Zubeldia pense qu'il
peut jouer un rôle dissuasif, à la
manière d'un golem contemporain.
Voilà pourquoi, analyse Didier Danet,
il vaudrait mieux que l'ONU
n'interdise pas les armes létales
autonomes.
Cela
risquerait
de
compliquer encore le droit de la
guerre, mais aussi de paralyser la
recherche en robotique permettant
d'éloigner les soldats des zones de
conflit.
Sur la question de la responsabilité en
cas de crime de guerre, Didier Danet,
du Centre de recherche des écoles de
Saint-Cyr Coëtquidan (ministère de la
défense), observe qu'un robot ne
saurait être considéré comme une «
personne morale » au sens de l'article
1134 du code civil : un sujet doué de
volonté, se donnant à lui-même ses
propres objectifs, compatibles avec le
respect des lois existantes. Selon lui,
aucun robot militaire ne répond à ces
critères - et aucun sans doute n'y
répondra jamais. La machine, nous
dit-il, se contente d'une « autonomie
fonctionnelle » limitée : son activité,
l' « autorisation » de son action
dépendent des opérateurs humains.
Elle reste un objet de droit, non un
sujet.
D'ailleurs,
écrit-il
dans
l'introduction de Drones et « killer
robots », en termes juridiques le
17
De toute façon, l'histoire des
armements et de leurs usages montre
que les luttes éthiques pour interdire
des
armes
jugées
irrecevables
aboutissent rarement, mais aussi que
le jugement porté sur elles évolue.
Alain Crémieux, ancien ingénieur
général de l'armement, auteur de
L'Ethique des armes (Aegeus, 2006),
rappelle qu'en 1139 déjà, lors du IIe
concile de Latran, l'usage de l'arbalète
avait été interdit entre chrétiens. Il
paraissait
«
moralement
inacceptable » que les « piétons » des
armées, des gens du peuple, puissent
abattre des chevaliers à distance.
Pourtant, l'arbalète a été conservée.
Elle a été remplacée, au début du
XVIe siècle, par l'arquebuse, elle
aussi rejetée par les moralistes pour
sa létalité, puis par le mousquet,
l'ancêtre du fusil à silex, lui-même
adopté en France sous le règne de
Louis XIV. Or, fait remarquer
Crémieux, depuis, rares sont ceux qui
remettent en cause les armes à feu
légères : « Elles ont même été
tellement identifiées à la guerre
nationale et à la guerre populaire
qu'il paraît inutile de chercher à les
décrier. Le pouvoir et la liberté elle-
Nombre de document(s) : 10
Date de création : 17 mars 2016
même ne peuvent-ils pas être "au bout
du fusil"? »
L'historien
François
Cochet,
spécialiste de la mémoire des guerres,
met en lumière la contradiction
permanente entre le « sentiment
d'horreur » que soulèvent certaines
armes et le « cynisme » politique et
militaire qui l'accompagne. Il donne
un exemple fameux : en 1899, la
conférence de la paix de La Haye, à
laquelle
participent
26
gouvernements, décide d'interdire «
de lancer des projectiles et des
explosifs du haut des ballons ou par
d'autres modes analogues . Une mort
venue d'en haut, hors de portée,
parfois hors de vue, semblait alors
insupportable. « Ces exigences,
constate François Cochet, n'ont pas
arrêté les bombardements aériens
pour autant! Les Etats ont signé les
protocoles, sans toujours les ratifier,
en se préparant cyniquement à l'étape
suivante, l'aviation militaire, que les
Européens ont testée dans leurs
colonies. » L'historien relève un autre
exemple de cynisme : « Après 14-18,
l'Allemagne a demandé l'interdiction
des gaz asphyxiants, qu'elle avait
beaucoup utilisés dans les tranchées,
parce qu'elle savait que les autres
pays en disposaient. »
Alors, interdire une arme effroyable,
un combat perdu d'avance? Les ONG
et les scientifiques qui s'opposent aux
robots tueurs refusent de céder au
cynisme du laisser-faire. Ils rappellent
que plusieurs batailles éthiques
récentes ont mené à l'interdiction par
l'ONU et par le droit international
humanitaire des armes chimiques
(1993), des armes à laser aveuglantes
(1995) et des mines antipersonnel
(1997). Bonnie Docherty, membre
d'Human Rights Watch et enseignante
à la Harvard Law School, a publié le 4
septembre un mémoire où elle répond
aux arguments de ceux qui justifient
les SALA en affirmant que les
militaires resteront responsables - et
devront rendre des comptes en cas de
crime de guerre. Elle montre que, au
contraire, ils pourront toujours se
retrancher derrière une faute du robot,
arguant que les communications avec
lui ont été rompues, qu'il a agi trop
vite, que les spécialistes étaient
absents
ou
qu'un
logiciel
a
dysfonctionné. Les victimes, elles,
auront le plus grand mal à demander
réparation, car la responsabilité
personnelle, base du droit, se trouvera
diluée dans des dispositifs techniques.
Faudra-t-il alors, demande la juriste,
se retourner contre les fabricants des
armes? La Direction générale de
l'armement? Ou contre les politiques
qui ont validé l'usage des SALA?
Pour Human Rights Watch, de telles
démarches juridiques rencontreront
des obstacles insurmontables : elles
n'aboutiront pas. Cette impunité leur
semble très grave. Elle rendra très
difficile de « dissuader » les
militaires et les forces de l'ordre
d'utiliser des robots létaux. Nous
entrerions alors dans une époque plus
inhumaine.
Note(s) :
¶à lire « Drones et "killer robots".
Faut-il les interdire? » sous la
direction de Ronan Doaré, Didier
Danet et Gérard de Boisboissel
(Presses universitaires de Rennes, 268
p., 18 euros). « L'éthique des armes »
d'Alain Crémieux (Aegeus, 2006).
Illustration(s) :
Manifestation à Londres, en avril 2013, pour le lancement de la campagne « Stop Killer Robots . CARL COURT/AFP
Démonstration de robots militaires, non armés, à l'école Saint-Cyr Coëtquidan (Morbihan), en 2012. Jean-Claude
MOSCHETTI/REA
© 2015 SA Le Monde. Tous droits réservés. ; CEDROM-SNi inc.
news·20150926·LM·5182778 - Date d'émission : 2016-03-16
Ce certificat est émis à Cégep-Granby-Haute-Yamaska à des fins de visualisation personnelle et temporaire.
Retour à la table des matières
18
Nombre de document(s) : 10
Date de création : 17 mars 2016
Le Temps
Débats, samedi 20 février 2016, p. 5
Faut-il reconnaître des droits aux robots?
FUTUR
La
question
enflamme
les
spécialistes.
L'avocat
Alain
Bensoussan
soutient
que
l'intelligence artificielle doit faire
l'objet d'une protection juridique
analogue à celle de la personnalité
humaine. Son confrère Nicolas Capt
y
voit
au
contraire
un
anthropomorphisme aussi vide de
sens que pernicieux
Un statut similaire aux humains
Deux thèses juridiques s'affrontent sur
la reconnaissance du droit des robots,
elles reflètent chacune une conception
différente
du
robot.
Dotés
d'intelligence artificielle, les robots
s'installent peu à peu, à l'hôpital, dans
les boutiques, s'emparent même de
nos voitures et bientôt, les conduiront.
Les cinq années à venir seront celles
des humains avec les robots et les
cinq suivantes, celles des robots avec
les hommes. L'intelligence artificielle
doublée de la technologie très
performante des capteurs confère au
robot une liberté décisionnelle et une
intelligence égale, voire supérieure à
l'homme.
En effet, les robots autonomes
peuvent se déplacer et possèdent la
mesure de leur environnement mais
ils voient mieux, entendent mieux,
sentent mieux, calculent mieux. Les
hommes vont devoir cohabiter avec
les robots et apprendre à maîtriser
cette supériorité.
L'autonomie grandissante du robot
grâce à l'intelligence artificielle
conduit à s'interroger sur l'opportunité
de conférer au robot un statut
juridique spécifique. On ne peut pas
aujourd'hui, assimiler à un grille-pain,
un robot qui est capable d'autonomie
en termes de mobilité, mais également
sur le plan intellectuel par ses prises
de décisions.
Lorsque, dans un environnement
ouvert, le robot prend des décisions
que personne n'a programmées (à
l'inverse d'un automate), on peut se
poser la question d'une forme de
pensée primitive, voire d'un début de
conscience. Tout est question de
définition.
La personnalité juridique propre du
robot se distingue du régime juridique
lié aux animaux et aux biens et
devrait être encadrée afin de prévoir
la sécurité des utilisateurs, mais
également la sécurité du robot luimême.
Les robots auront bientôt un statut
similaire aux humains avec un état
civil et un numéro d'identification.
Actuellement,
chaque
Français
dispose d'un numéro de sécurité
sociale créé dès la naissance: code «
1 » affecté aux hommes, « 2 » aux
femmes.
Les robots étant de plus en plus
intelligents et autonomes, c'est-à-dire
agissant en environnement ouvert, en
contact avec le public, l'affectation
d'un numéro d'identification, code «
3 », leur conférerait un état civil avec
des droits et des devoirs.
Les enjeux sont non seulement
juridiques mais également éthiques.
Les
robots
intelligents
sont
constitutifs d'un genre nouveau. Un
droit des robots est donc appelé à
régir leurs rapports avec l'homme et
caractériser la reconnaissance d'une
personne juridique particulière: la
personnalité robot.
Il s'agit d'une personnalité juridique
singulière, à l'image de la personne
morale pour les entreprises, qui
permettra d'agir sur le plan de la
traçabilité et de la dignité, mais
également de la responsabilité avec
une responsabilité en cascade. Il
faudra se retourner contre le
fournisseur
de
la
plateforme
d'intelligence artificielle avant le
propriétaire et le fabricant.
Doter
les
robots
de
dernière
génération
de
la
personnalité
juridique, c'est reconnaître un élément
de différenciation par rapport aux
objets.
A terme, la vocation des robots étant
de fonctionner de manière autonome
dans un environnement fermé ou
ouvert, en coopération avec l'homme,
l'importance de leurs actions et
réactions va nécessiter une adaptation
du droit à travers la reconnaissance de
la « personnalité robot » .
OUI ALAIN BENSOUSSAN
Avocat au Barreau de Paris, président
de l'Association du droit des robots
(ADDR)
PARCOURS
19
Nombre de document(s) : 10
Date de création : 17 mars 2016
Alain Bensoussan est à la tête d'un
cabinet d'avocats qu'il a fondé en
1978 à Paris. Spécialisé dans le droit
des nouvelles technologies, il a publié
de nombreux ouvrages dans ce
domaine.
Dangereuse dérive de civilisation
A l'heure où, dans une tentative de
séduction commerciale, les robots
empruntent
de
plus
en
plus
l'apparence
humaine
dans
un
anthropomorphisme outrancier sinon
inquiétant, la tentation est grande de
leur offrir des droits. On voit ainsi
poindre chez certains le souhait
d'offrir aux robots - qui n'en
demandaient certainement pas tant les bénéfices cumulés de l'éthique et
du droit.
Au-delà de l'effet d'annonce qui ravit
immanquablement
les
foules
ménagères en manque de sensations
fortes, ravies et troublées de constater
que leur bouquin de science-fiction de
l'été avait tout de même quelque
accroche dans le réel, c'est un désert
argumentaire.
Pour quelle raison offrirait-on aux
robots, qui ne constituent somme
toute que des machines élaborées, des
droits que l'on a refusés aux
locomotives et, dans une moindre
mesure, longtemps disputés à nos
frères animaux, qui ne demeurent au
fond, et nonobstant les savants
glissements lexicaux, qu'une catégorie
d'objets mobiliers un peu à part?
C'est à ce moment de la discussion
que surgit généralement le mot
magique, destiné à forcer toute
résistance,
à
annihiler
tout
raisonnement contraire: l'intelligence
artificielle, cette intelligence des
machines qui devrait conduire à leur
accorder des droits que les hommes
ont mis des milliers d'années à
conquérir et à faire respecter entre
eux de façon satisfaisante.
Si la responsabilité des robots est un
sujet de la plus haute importante,
négligé par le législateur, et qui ne
manquera pas d'occuper des tribunaux
désemparés dans les années à venir, il
n'en va pas de même de la question
des droits du robot, sorte de marotte
pour
technophiles
en
manque
d'idéaux. Car, au fond, on peine à
saisir ce qui devrait faire naître ces
droits, en d'autres termes le fait
générateur de cette protection: seraitce la capacité technique à agir de
façon autonome ou bien plutôt la
naissance d'une sensibilité, d'une
possibilité de souffrance physique ou
psychologique?
Cette sensibilité du vivant que l'on nie
même aux plantes devrait donc être
reconnue chez le robot, qui ne tire sa
substance que du métal, des câbles et
de l'immatériel? C'est une dangereuse
dérive de civilisation que de
considérer que c'est l'intelligence - ou
plutôt l'autonomie décisionnelle et
opérationnelle - qui fait l'être
sensible.
La
question
est
finalement
philosophique: veut-on donner des
droits à des objets que l'on crée de
toutes pièces, dans une sorte de
fantasmagorie nourrie aux doubles
mamelles de Frankenstein et de
Matrix? Veut-on la création de centres
d'aide psychologique pour Google
Cars maltraitées? Méfions-nous, car il
est là question d'une véritable boîte de
Pandore. Lorsque mon confrère Alain
Bensoussan soutient, à l'appui de sa
20
Charte du droit des robots, que ces
derniers ne sont pas des grille-pain, il
commet un sophisme. S'il a raison en
relevant que leur complexité n'est pas
comparable,
sa
déduction
est
gravement erronée en ce que cette
complexité ne doit pas amener à
accorder des droits à l'un que l'on
refuse à l'autre.
Mais alors comment distinguer les
sujets de droit de ceux qui ne sont que
des accessoires des vivants: la ligne
de démarcation est celle de la vie
même, qui se définit, à en croire le
Larousse, comme le caractère propre
aux êtres possédant des structures
complexes capables de résister aux
diverses causes de changement, aptes
à renouveler, par assimilation, leurs
éléments constitutifs, à croître et à se
reproduire.
Il ne s'agit toutefois pas de nier
l'évidence: les robots, demain, feront
partie
de
notre
environnement
industriel, commercial et domestique
et accompliront des tâches parfois
essentielles. L'homme les côtoiera de
plus en plus, parfois en oubliant les
différences, lesquelles s'estomperont.
Mais ne mettons pas la vie là où il n'y
a
que
des
machines,
aussi
perfectionnées soient-elles.
NON NICOLAS CAPT
Avocat, spécialisé en
nouvelles technologies
droit
des
PARCOURS
Titulaire
d'un
DEA
en
droit,
criminalité et sécurité des nouvelles
technologies, Nicolas Capt est aussi
associé fondateur d'Heptagone Digital
Risk Management & Security Sàrl.
Nombre de document(s) : 10
Date de création : 17 mars 2016
© 2016 Le Temps SA. Tous droits réservés. ; CEDROM-SNi inc.
news·20160220·TE·TPS_20160220_0005-art_1 - Date d'émission : 2016-03-16
Ce certificat est émis à Cégep-Granby-Haute-Yamaska à des fins de visualisation personnelle et temporaire.
Retour à la table des matières
21
Nombre de document(s) : 10
Date de création : 17 mars 2016
L'Usine Nouvelle.com
lundi 19 octobre 2015 - 12:45 GMT+1
Ferons-nous confiance aux robots qui nous entourent ?
Stéphane Schultz est fondateur de
15marches, une agence de conseil en
stratégie
et
innovation
qui
accompagne à la fois jeunes pousses
et grands groupes. Pour les inspirer, il
analyse les secrets des nouveaux
géants du numérique qui changent les
usages,
modèles
économiques,
stratégies... Cette semaine il se
penche sur les changements en cours
dans le secteur de l'automobile.
Deuxième article sur les changements
qui
affectent
le
secteur
de
l'automobile à la lueur de la récente
"affaire Volkswagen". En entrant plus
profondément dans l'univers des
technologies, la voiture rencontre des
problèmes qui dépassent largement le
cadre de la mobilité. Ils s'inscrivent
dorénavant dans ceux du rapport de
l'homme à la machine, soulevant des
cas complexes de responsabilité,
éthique et confiance dans les
organisations qui les conçoivent.
Dans le premier article "le logiciel
dévore Volkswagen", nous insistions
sur l'anachronisme de la tricherie du
constructeur allemand à une époque
où les consommateurs recherchent une
mobilité plus propre, connectée et
partagée. La deuxième partie se veut
plus prospective : elle interroge notre
relation actuelle et future avec les
logiciels, algorithmes et interfaces qui
s'insèrent dans nos vies.
Accepterez-vous de lâcher le volant ?
Google n'est plus seul : pas moins de
25
entreprises
travaillent
au
développement
de
véhicules
autonomes. Comme souvent en
matière de nouvelles technologies, il
n'en faut pas plus pour que les
analystes rivalisent d'effets d'annonce
sur l'adoption massive des selfdriving cars dans les prochaines
années :
Plus circonspects, les chercheurs de la
très
sérieuse
Carnegie
Mellon
University ont testé dans quelles
conditions les humains accepteraient
de se laisser conduire par des robots.
La conclusion est très instructive : les
humains ne font pas autant confiance
aux automates qu'ils se font confiance
à eux-mêmes. "Un robot peut vous
sauver la vie, si vous êtes assez
intelligent pour le laisser le faire".
Lorsque nous travaillons avec un
robot, nous restons sur nos gardes :
81% des humains préfèrent "reprendre
le manche", même si ils savent qu'ils
feront plus d'erreurs que le robot. "En
d'autres termes, même confrontés à la
preuve de leur propre infériorité, les
humains résistent à l'aide des robots.
Lorsque les robots font des choses
que nous ne comprenons pas, comme
détecter des obstacles que nous ne
voyons pas ou suivre des règles que
nous ne connaissons pas, nous
perdons confiance et 'reprenons le
manche', même lorsque la machine a
raison", pointent les universitaires.
C'est pourquoi les chercheurs ont
décidé d'introduire un peu d'humilité
dans le système, en concevant des
machines qui "reconnaissent leurs
propres erreurs". Concrètement, peu
avant de commettre une erreur
22
(programmée), le robot indiquait par
un voyant de couleurs son "doute" sur
sa propre performance, par exemple
un problème de capteurs ou un choix
impossible entre deux options. Le
résultat : les participants bénéficiant
de cette nouvelle fonctionnalité ont
globalement plus souvent "lâché le
manche" que les autres, et non le
contraire. Ils ont globalement plus fait
confiance
à
la
machine
que
l'échantillon qui n'a pas bénéficié de
cette fonctionnalité. "Nous avons
besoin de machines qui reconnaissent
leur propre vulnérabilité. Les robots
doivent nous dire quand ils peuvent se
tromper,
mais
aussi
expliquer
pourquoi : par exemple les conditions
dans lesquelles leurs capteurs sont
moins fiables ou les situations dans
lesquelles leurs modèles de prises de
décision
sont
pris
à
défaut".
Découvrez le détail de l'expérience
ici.
Ce robot a été programmé pour vous
tuer
Vous entrez dans votre voiture. Clé de
contact. Débrayage. Point mort.
Contact. Première vitesse. Rétro,
cligno. Un scooter passe. Vous sortez
de votre place, redressez, puis passez
la seconde. Premier carrefour. Une
voiture arrive. Vous avez le temps de
passer, le feu est vert au loin.
Troisième vitesse. Votre esprit est
déjà au boulot. Partir en retard n'est
jamais une bonne manière de
commencer la semaine. Vous arrivez à
l'approche
du
carrefour,
quand
soudain une camionnette déboîte de sa
Nombre de document(s) : 10
Date de création : 17 mars 2016
file de stationnement à quelques
mètres devant vous. Un coup de
volant et à peine le temps de voir le
cycliste en sens inverse. Trop tard : il
s'écrase sur votre pare-brise. Votre
premier réflexe a été de braquer pour
éviter le véhicule devant vous. Le
cycliste en sens inverse n'a juste pas
eu de chance de vous croiser à ce
moment précis. Cet accident était
difficilement
évitable,
comme
beaucoup de ceux qui causent 1,2
million de morts chaque année dans le
monde. Qu'aurait fait un véhicule
autonome à votre place ?
"Alors que les conducteurs humains
ne peuvent que réagir instinctivement
à un événement soudain, une voiture
autonome est pilotée par un logiciel,
qui scanne en permanence son
environnement grâce à des capteurs
capables de réaliser de multiples
calculs avant même que l'on soit
conscient du danger. Ils peuvent faire
des choix en une fraction de seconde
pour optimiser les accidents, c'est à
dire, pour minimiser les dégâts. Mais
les logiciels ont besoin d'être
programmé et ce n'est pas une tâche
facile dans certains cas."
Cet article de Wired soulève une
question qui va bien au-delà de
l'informatique.
Au
nom
de
l'optimisation des accidents, un bon
algorithme sera programmé pour
heurter le véhicule qui a le plus de
chance de survie, ou pour éviter celui
qui a le moins de chance. Dans votre
cas, il choisira sûrement de heurter la
camionnette afin d'éviter le vélo.
Dans un autre cas, il heurtera un
cycliste casqué et épargnera un
cycliste non casqué. Et le journaliste
de poser cette question cruciale : qui
devra prendre le leadership de ce type
d'analyse - et les décisions de
programmation qui en découleront :
les constructeurs, leurs fournisseurs
de logiciel, les législateurs, les
philosophes ?
On le voit, nous sommes bien loin de
la bidouille de carburateurs comme
dans l'affaire Volkswagen ! Les
questions posées ici sont déjà une
réalité
par
exemple
pour
les
militaires. "Programmer une voiture
pour heurter une personne plutôt
qu'une autre ressemble horriblement
aux targeting algorithms développés
pour les armes militaires (lire ici). Et
cela entraîne la voiture autonome sur
de dangereux chemins légaux et
moraux" conclut l'article.
En dehors de la conduite, l'automobile
est également sujette à des questions
plus triviales. À mesure que nos
informations, relations et décisions
sont assistées par des logiciels se
posent des questions de liberté et de
transparence qui ne peuvent être
laissés entre les seules mains de
fabricants, aussi vertueux soient-ils.
Ces logiciels qui nous gouvernent
De Google Now à Yelp en passant par
Siri, les logiciels prennent déjà
beaucoup "d'initiatives" pour nous
conseiller le meilleur moyen de nous
déplacer, trouver un restaurant,
rejoindre nos amis... Demain ces
solutions seront intégrées nativement
dans nos véhicules, nos maisons, nos
environnements de travail... faisant de
nos vies une continuité "sous
contrôle".
Dans Datanomics (FYP, 2015), Simon
Chignard et Louis-David Benayer
nous aident à comprendre ces enjeux :
"Après l'ouverture et la transparence
des données, c'est bien celles des
algorithmes qui font aujourd'hui
débat. [...] La société Airbnb a
construit un système permettant aux
23
utilisateurs
qui
mettent
leur
appartement en location d'estimer le
prix de la nuitée. Cet algorithme se
nourrit des données de la plateforme : la nature du bien, le prix des
autres
biens
dans
le
secteur,
l'élasticité constatée entre la demande
et les prix, la saisonnalité...
Lors des premières expérimentations
de cet algorithme prédictif, ceux qui
l'utilisaient avaient trois fois plus de
chance de louer leur bien que les
autres. Or cet algorithme est d'abord
conçu pour satisfaire les objectifs de
la plate-forme et en premier lieu la
maximisation des chances de location.
La rémunération d'Airbnb est liée au
volume de transaction et non
directement à leur montant. Ces
recommandations ne sont donc pas
nécessairement optimales pour les
loueurs. En fixant un prix supérieur,
ils pourraient disposer d'un revenu
comparable avec moins de nuitées".
Tromper notre libre-arbitre ne suffit
pas. Les logiciels veulent capter notre
attention, la conserver et influencer
nos comportements. Ils sont conçus
pour nous rendre addict, et y arrivent
plutôt bien. L'anthropologue Natasha
Dow Schüll a mené en 2012 une
passionnante recherche sur la manière
dont les designers influencent les
comportements des joueurs à Las
Vegas, de la courbure des voies
d'accès à celle de l'arête des tapis de
sol, en passant par le fonctionnement
des machines à sous et les règles des
jeux qu'elles proposent. Pas besoin de
truquer les machines à sous : chaque
détail
contribue
à
créer
une
expérience quasi-hypnotique dans
laquelle
le
joueur
n'a
jamais
l'impression de perdre. Il est
encouragé en cela par des "boucles
ludiques" qui empruntent autant au
jeu vidéo qu'aux sites pornos pour la
Nombre de document(s) : 10
Date de création : 17 mars 2016
"haute fréquence" à laquelle le joueur
est incité à zapper jusqu'à perdre le
sens de ce que fait sa propre main.
Étonné(e) ? Regardez comment vous
vous servez de votre smartphone.
La professeure du MIT conclut son
étude en prédisant que l'avenir
réservera des surprises de taille : alors
qu'aujourd'hui
les
campagnes
publiques
de
prévention
des
addictions visent à culpabiliser la
victime (pensez aux jeux en lignes),
demain la responsabilité des designers
de ces jeux sera peut-être mise en
évidence, ouvrant la porte à des
procès retentissants. Écoutez-la dans
Place de la Toile.
Encore une fois, je me répète, la
tricherie de Volkswagen n'est qu'un
amuse-bouche au regard de ce qui
attend les constructeurs demain en
matière de risque et de responsabilité
autour du logiciel. Alors, que faire
pour limiter ces risques et surtout,
protéger le consommateur ?
Mettez un Snowden dans votre moteur
Qui seront les lanceurs d'alerte de
l'ère numérique ? En 2013 le très
sérieux blog Privatics de l'Inria
(organisme public de recherche sur le
numérique)
fit
une
découverte
inattendue en étudiant le code source
de l'application RATP : l'application
transmettait à une régie publicitaire
des informations très détaillées sur le
profil et les comportements de ses
utilisateurs, à leur insu et au mépris
de la politique de confidentialité
affichée ! L'Inria avait détaillé dans
deux
articles
les
multiples
manquements
et
émis
des
recommandations à destination des
développeurs.
Sans doute gênée, la RATP avait alors
précisé suite à cette découverte qu'il
s'agissait d'un module "à l'étude" chez
la régie publicitaire, "implémenté à
tort", et s'était engagée à mettre fin à
ces pratiques. Même si Apple et
Google ne sont pas réputés pour
l'ouverture de leurs solutions (surtout
le premier), il a quand même été
possible
à
quelques
ingénieurs
motivés et compétents de révéler les
manquements de la RATP. S'agissant
de solutions plus élaborées, la
difficulté est d'une autre taille. À titre
d'exemple, une application sur iOS
représente souvent moins de 50 000
lignes de code, là où une voiture
moderne en nécessite 10 millions et
une voiture autonome...100 millions !
Deux mille fois plus. Impossible par
conséquent d'y trouver un "logiciel
caché, même si on y avait accès
(infographie à voir ici.)
Mais que fait la police ?
Et l'État dans tout ça ? Hubert
Guillaud nous fournit quelques pistes
dans un article d'Internetactu : "A
mesure que nos vies s'informatisent,
nous
devenons
toujours
plus
vulnérables à la fraude numérique.
Pour Bart Selman, spécialiste de
l'Intelligence artificielle à l'université
de Cornell, d'autres domaines sont
encore à risque, comme le monde
médical, l'assurance ou la finance, où
le secret et la confidentialité des
contraintes rendent encore plus
difficile la détection des actes
répréhensibles. Pour lui, nous devons
exiger de nouvelles règles pour
contraindre les ingénieurs logiciels à
être responsables de leurs actes,
explique-t-il en invitant à introduire
des procédures éthiques pour que les
algorithmes rendent compte de leurs
effets. 'A mesure que les objets du
quotidien deviennent plus intelligents
et plus connectés, nous allons avoir
besoin
de
nous
inquiéter
de
24
manquements de plus en plus nuancés
à la loi', rappelle encore Calo. [...] En
attendant que le régulateur comprenne
la nécessité de favoriser les contrôles,
de renforcer les contre-pouvoirs,
indépendance et rétroingénierie, sont
les deux leviers qui demeurent à notre
disposition."
Dans Le Monde, le journaliste Martin
Untersinger rappelait que "l'EPA
(l'organisme gouvernemental à qui
l'ONG a signalé la fraude) aurait pu
déjouer seule la manoeuvre de
Volkswagen. Mais pour cela, elle
aurait dû s'intéresser non pas aux
particules émises, mais à la manière
dont le programme équipant les
voitures pouvait les moduler. Ce n'est
donc
plus
seulement
d'experts
chimistes dont l'administration a
besoin,
mais
d'informaticiens."
Encore faudrait-il être capable de lire
100 millions de ligne de code, et que
ces lignes soient accessibles.
Ouvrez la cage aux données
Les promoteurs de l'open source et
des "communs" ont évidemment tiré
parti de ce scandale pour avancer les
limites intrinsèques du logiciel
propriétaire : "nous avons tous appris
depuis le 20e siècle que les
ascenseurs devaient être inspectables,
et
demandé
aux
constructeurs
d'ascenseurs de les rendre facilement
inspectables. Si Volkswagen avait su
que chaque acheteur de ses modèles
avait le droit de lire le code source de
chaque logiciel la commandant, ils
n'auraient jamais envisagé de tricher,
se sachant sûrs d'être pris", écrit
David Bollier dans son blog.
Les tenants du logiciel propriétaire
auront tôt fait de rétorquer qu'en
matière de concurrence, révéler son
code équivaut à révéler des secrets
industriels. C'est pourtant bien plus
Nombre de document(s) : 10
Date de création : 17 mars 2016
que cela qu'à fait le constructeur de
voitures électriques Tesla. En juin
2014, Elon Musk rend les brevets de
Tesla accessibles à tous. Pour lui : "si
une entreprise dépend de ses brevets,
c'est qu'elle n'innove pas ou alors
qu'elle
n'innove
pas
assez
rapidement." Mais tout le monde n'a
pas intérêt comme Tesla à diffuser sa
technologie
pour
faciliter
son
adoption dans un secteur - le véhicule
électrique - qui a d'abord besoin de
standards pour se développer.
Et si on donnait au consommateur les
outils pour choisir ?
Difficile à ce stade de savoir comment
protéger le consommateur sans tuer la
compétition et l'entreprise. Comme
souvent, il semble que donner à
chacun le droit de vérifier et
comprendre ce qu'il consomme semble
la première chose à mettre en oeuvre.
En clair : donner aux citoyensconsommateurs les moyens de savoir
ce qu'ils mangent, respirent et
conduisent en toute indépendance.
Passer du quantified self au quantified
environment en analysant l'effet du
second sur le premier. C'est le sens
d'initiatives comme OpenFoodFacts,
une base de données collaborative qui
vous informe sur la composition de
près de 40 000 produits alimentaires.
Dans le domaine environnemental, la
startup Plume Labs vous fournit heure
par heure des informations sur la
qualité de l'air issues de l'open data
dans 150 villes, y ajoutant des
conseils sur les comportements à
risque (ex. : quand faire du sport ou
promener son bébé) et des prévisions
basées sur la modélisation de facteurs
multiples. Plutôt que de jouer aux
gendarmes et aux voleurs, donnonsnous les moyens de choisir en testant
nous-même la pollution des véhicules
que nous utilisons, la toxicité des
produits que nous mangeons et la
transparence des applis et autres
offreurs de solution. Car si l'affaire
Volkswagen souligne une faiblesse,
voire une hypocrisie, c'est d'abord
© 2015 L'Usine Nouvelle.com. Tous droits réservés. ; CEDROM-SNi inc.
news·20151019·GUNB·357569 - Date d'émission : 2016-03-16
Ce certificat est émis à Cégep-Granby-Haute-Yamaska à des fins de visualisation personnelle et temporaire.
Retour à la table des matières
25
celle des contrôles mis en place par
les pouvoirs publics qui ne sont plus
adaptés à l'ère numérique.
Souhaitons que cette crise nous ouvre
les yeux sur la nécessité de
(re)prendre
en
main
notre
environnement, non pas en changeant
de voiture, mais en utilisant à bon
escient le pouvoir que nous donnent
les technologies.
Les avis d'experts et points de vue
sont publiés sous la responsabilité de
leurs auteurs et n'engagent en rien la
rédaction.
Cet article a été publié initialement
sur le blog de 15marches
Stéphane SCHULTZ est fondateur de
15marches, agence de conseil en
stratégie et innovation. Suivez-le sur
twitter @15marches
McKinsey & Co
Volvo
Airbnb
Nombre de document(s) : 10
Date de création : 17 mars 2016
Le Journal - Barreau du Québec, no. Vol. 47 No 10
mardi 1 décembre 2015, p. 28
Intelligence artificielle
Portrait des enjeux juridiques
Philippe Samson
Bien que l'intelligence artificielle
relève encore du domaine de la
science-fiction,
de
récents
développements
technologiques
militaires, par exemple, permettent
maintenant d'avoir des tourelles
d'artillerie capables de fonctionner
par elles-mêmes.
Devant cet exemple, faut-il craindre
la technologie parce qu'elle peut à
présent fabriquer des robots tueurs
sans assistance humaine ou faut-il, au
contraire, se réjouir des autres progrès
éventuellement possibles issus du
domaine de l'intelligence artificielle ?
Faudrait-il
alors
inciter
nos
gouvernements à agir en balisant
légalement
les
recherches
en
intelligence artificielle pour éviter les
dérives ?
Le droit en mode réactif
Les exemples du passé sont parlants
pour illustrer comment s'est appliqué
le droit jusqu'à présent avec l'arrivée
des nouvelles technologies en général.
En observant ce qui s'est passé, par
exemple, avec le développement des
biotechnologies et l'arrivée des
organismes génétiquement modifiés,
on constate que la société a souvent
été mise devant le fait accompli.
N'ayant pu encadrer le développement
ou la finalité de ces technologies, la
société s'est retrouvée en mode
réactif. Par conséquent, l'encadrement
légal de ces technologies s'est fait sur
le plan réglementaire avec notamment
les aspects rattachés à la santé, à la
sécurité et à l'environnement.
puisque la puissance de calcul des
ordinateurs actuels ne peut le
permettre... encore.
« Nous sommes dans une logique
voulant que si le produit ou la
nouvelle technologie ne constitue pas
en tant que tel un risque pour la santé
ou la sécurité de la population, le
champ est libre pour poursuivre le
développement ou commercialiser le
produit. Si l'on suit cette tendance
avec l'intelligence artificielle, nous
risquons une fois de plus de ne pas
avoir la possibilité de réfléchir aux
répercussions qui pourraient survenir
ainsi qu'aux multiples enjeux en cause
sur le plan social, éthique et légal »,
prévient Me Charles-Étienne Daniel,
doctorant en droit qui s'intéresse à la
gouvernance
du
développement
technologique.
De ce fait, la possibilité de recourir
au droit pour encadrer dans une
logique
préventive
l'éventuelle
création d'une intelligence artificielle
complexe n'est pas de prime abord
facile en raison du stade encore
embryonnaire de cette science. « Les
mécanismes actuels de gouvernance
juridique s'inscrivent davantage dans
une optique réactive plutôt que
proactive dans l'encadrement du
développement
technologique.
Souvent, la preuve d'un risque avéré,
plutôt qu'hypothétique, est requise
pour imposer certaines contraintes
réglementaires. Comme l'intelligence
artificielle en est à ses balbutiements,
nous sommes devant une limite du
droit », résume Me Daniel.
Le droit dans la situation actuelle
Qu'en est-il vraiment des capacités de
nos machines ? Sommes-nous à la
frontière des robots capables de
surpasser l'intelligence humaine ? En
fait, à l'heure actuelle, la science est
bien loin de pouvoir créer des
systèmes capables de réfléchir par
eux-mêmes. Tout au plus peut-elle
concevoir des programmes avec
l'intelligence d'un petit animal apte à
prendre des décisions selon des
algorithmes programmés. Qui plus
est, une intelligence plus avancée est
hors de question pour l'instant
26
Entre temps, les codes de déontologie
et autres outils d'autoréglementation
pourraient représenter des solutions
alternatives intéressantes à employer.
Cependant, « dans la mesure où ils
sont conçus puis appliqués à un degré
qui est défini par le laboratoire ou les
scientifiques directement impliqués,
ils peuvent soulever des questions sur
le plan de leur légitimité ou de leur
effectivité », souligne Me Daniel.
Malgré l'absence de lois spécifiques
sur l'intelligence artificielle, il existe
néanmoins
d'autres
mécanismes
Nombre de document(s) : 10
Date de création : 17 mars 2016
légaux issus des autres domaines du
droit qui pourraient éventuellement
être utilisés pour répondre aux faits
d'un robot doté d'un certain degré
d'intelligence.
D'abord,
dans
la
situation
hypothétique
d'une
intelligence
artificielle capable de prendre des
décisions, qui sait si finalement, elle
parviendrait
à
obtenir
une
personnalité
juridique
distincte
comme c'est le cas pour les
compagnies, le tout afin de pouvoir
qualifier ses actes juridiques ?
Autrement, selon le droit civil, un
robot
doté
d'une
intelligence
artificielle serait considéré comme un
bien. Ce serait donc le gardien qui
aurait à répondre d'un préjudice
résultant du fait autonome d'un
automate, à moins qu'il puisse
démontrer n'avoir commis aucune
faute, en ayant agi comme une
personne raisonnable l'aurait fait dans
les mêmes circonstances.
Quant
à
la
responsabilité
extracontractuelle du fabricant, Me
Daniel
s'interroge
sur
«
l'imprévisibilité des choix effectués
par une intelligence artificielle, qui
pourrait rendre plus difficile et
complexe la démonstration d'une
défectuosité du logiciel d'un robot
autonome ». Selon lui, un devoir
d'information subsiste, mais il serait
possible pour les fabricants et les
distributeurs
de
s'exonérer
en
démontrant l'impossibilité de prévoir
qu'une faute puisse être commise ou
qu'un préjudice puisse découler du
bien compte tenu de l'état des
connaissances disponibles. Le degré
d'autonomie
d'une
machine
et
l'imprévisibilité
qui
en
résulte
représentent donc des éléments
problématiques
au
regard
de
l'encadrement juridique de robots
possédant
une
certaine
liberté
d'action. Me Daniel se questionne sur
cet aspect dans le cas de l'intelligence
artificielle. « Devrait-on limiter la
responsabilité du fabricant sur cette
base
pour
encourager
le
développement technologique, ou
doit-on resserrer la vis et demander
que la machine soit exempte de tout
risque qui pourrait arriver ? » Ce
dernier fait un parallèle avec une
nouvelle qui a d'ailleurs récemment
fait l'actualité sur le sujet. En août
dernier, le fabricant de voitures Volvo
a annoncé qu'il allait assumer toute
responsabilité qui découlerait d'un
accident relié aux voitures autonomes
dans le but de faciliter leur
développement.
Enfin, la responsabilité des animaux
présente une autre facette du droit de
la responsabilité civile qui pourrait
peut-être
éventuellement
être
appliquée au cas d'un robot doté
d'intelligence artificielle. Dans cette
perspective, « un drone autonome,
mais
défectueux,
par
exemple,
pourrait-il entraîner la responsabilité
de son gardien à l'instar d'un animal
© 2015 Le Journal - Barreau du Québec. Tous droits réservés. ; CEDROM-SNi inc.
news·20151201·JOU·28_art_01 - Date d'émission : 2016-03-16
Ce certificat est émis à Cégep-Granby-Haute-Yamaska à des fins de visualisation personnelle et temporaire.
Retour à la table des matières
27
qui blesse ou tue un être humain ? »,
compare Me Daniel.
Les questions de demain
Les scientifiques sont encore à des
lieux de pouvoir envisager qu'un jour
une intelligence artificielle complexe
puisse être créée à l'image de l'idée
populaire véhiculée dans la culture du
cinéma. Néanmoins, il y a lieu de se
questionner sur la façon dont la
société la qualifiera alors qu'elle n'est
pas encore totalement unie à l'idée
que les animaux soient considérés
comme des êtres dotés de sensibilité.
Chose certaine, le droit n'est pas le
seul outil que la société devra utiliser
pour encadrer l'usage des nouvelles
technologies et plus particulièrement
l'intelligence
artificielle.
Une
réflexion sociale, philosophique et
démocratique plus globale devra aussi
avoir
lieu.
«
La
question
fondamentale que nous devons nous
poser consiste à déterminer quelle est
la finalité derrière l'intelligence
artificielle afin de savoir si nous
voulons en tant que société la
développer. Pour répondre à cette
question, je pense qu'il faut se donner
les moyens de pouvoir être présents
dès la phase de création d'une
technologie sous la forme d'un
accompagnement
auprès
des
scientifiques pour réfléchir ensemble
aux différents impacts qui y sont
reliés et promouvoir ainsi un
développement
de
façon
responsable », termine Me Daniel.
Nombre de document(s) : 10
Date de création : 17 mars 2016
Le Temps
Débats, vendredi 19 février 2016, p. 9
Droit des robots (III): réalité ou science-fiction?
ANALYSE
Chercheuse au Massachusetts Institute
of Technology (MIT) et spécialiste de
l'impact sociétal des technologies
robotiques,
Kate
Darling
s'est
intéressée de près à l'influence de
l'anthropomorphisme sur les relations
homme-robot, notamment après avoir
observé que des soldats américains
étaient prêts à risquer leur propre vie
pour
sauver
celles
de
robots
démineurs. C'est donc partant de ce
risque imitatif, et non pour le
prétendu bien des robots, qu'elle
suggère d'interdire les mauvais
traitements envers les machines,
puisque ceux-ci pourraient ensuite
être reproduits contre des humains.
Gardons-nous
ainsi
d'exciter
inutilement
l'imaginaire
de
la
population en tissant des fils
invisibles et abusifs entre la fiction et
le développement réel de la robotique:
si les algorithmes d'apprentissage du
programme d'IA Watson d'IBM ou des
voitures autonomes appartiennent
sans nul doute à une génération
renouvelée de méthodes numériques,
dont on ne saurait que saluer les
prouesses, ils ne restent toutefois que
l'expression
de
purs
modèles
statistiques
dont
l'objectif
est
l'optimisation d'une réponse (un geste,
une parole, une activité) dans un
contexte assez délimité.
C'est probablement là ou péche le
raisonnement de l'avocat Bensoussan:
le fait que des algorithmes dépassent,
dans
leurs
résultats,
certaines
capacités
humaines,
ne
suffit
indéniablement pas à conférer au
robot le souffle de vie qui rendrait
l'autonomie de celui-ci autrement plus
compliquée à appréhender et qui
nécessiterait de lui appliquer un
régime analogue à celui des êtres
humains.
Comme le relève sur Internet un
commentateur anonyme plutôt avisé,
« on s'émeut rarement de la rapidité
d'une calculatrice, de la capacité de
nettoyage d'une machine à laver ou de
la vitesse d'un vélo par rapport aux
capacités respectives d'un humain »,
et « cela ne justifie pas qu'il faille
établir un droit spécifique de la
machine à calculer, de la machine à
laver ou de la bicyclette » .
Bien sûr, les images évoquées sont
quelque peu simplificatrices, puisque
ces
objets
ne
possèdent
pas
l'autonomie comportementale que l'on
prête à certains robots. Reste qu'un tel
constat suffit à recadrer drastiquement
le débat: la question n'est pas de
savoir s'il convient de donner des
droits aux robots ou d'interdire aux
humains
d'avoir
des
relations
sexuelles avec eux (je ne vois pas
trop, contrairement à Me Alain
Bensoussan, ce qui permettrait à un
fabricant d'interdire à un utilisateur
hardi de copuler avec sa machine et
quelle en serait la sanction éventuelle,
hormis une possible exclusion de
garantie), mais bien de mettre sur pied
un système pragmatique de droit de la
responsabilité pour les dommages
28
causés en tout ou en partie par les
robots.
Quand ma voiture, équipée d'un
dispositif anti-collision intelligent,
devra arbitrer entre une collision possiblement
fatale
pour
le
conducteur que je suis - avec un poids
lourd et un évitement d'urgence ayant
pour conséquence de faucher trois
enfants, se poseront les vrais
problèmes: qui, du fabricant de la
voiture, du concepteur du logiciel ou
du conducteur sera responsable et, cas
échéant, dans quelles proportions?
Quel fabricant de voiture osera, sur
l'autel de la communication avec ses
clients, privilégier les trois enfants et
donc
sacrifier
son
client
de
conducteur en cas de collision
alternative
inéluctable?
Et
qui
achètera une voiture dont le système
intelligent pourrait lui valoir, sans
décision de sa part, une procédure
pour homicide par négligence? Les
vraies questions juridiques ne sont pas
anecdotiques, tant s'en faut.
S'il n'est pas inenvisageable de mettre
en place, à terme, un régime juridique
analogue à celui appliqué à la
responsabilité du détenteur d'un
animal et figurant à l'article 56 du
Code civil suisse (cette possible
solution est d'ailleurs évoquée dans le
livre vert d'EuRobotics en 2012),
voire un système ad hoc fondé sur les
spécificités du robot s'agissant de la
responsabilité pour des actes ou
omissions commis au détriment de
personnes humaines ou de biens
Nombre de document(s) : 10
Date de création : 17 mars 2016
matériels, l'exemple précité montre
que la partie n'est pas gagnée
d'avance.
Le
passage
de
l'automate
(le
distributeur de bonbons de notre
enfance) au robot réactif (l'aspirateur
automatique) puis au robot cognitif
nécessite en effet d'être pris en
compte par le droit puisque cela a
pour
effet
de
complexifier
drastiquement
la
chaîne
de
responsabilités, laquelle est désormais
multiple puisqu'elle implique un très
grand
nombre
d'intervenants:
propriétaire, utilisateur, concepteur de
l'objet,
concepteur
du
logiciel
d'intelligence artificielle, etc.
Dans le cas des logiciels libres, la
situation se complexifie encore,
puisqu'il est alors véritablement
question d'une création collective du
logiciel.
Rajoutez
à
cela
la
problématique aiguë des données
personnelles - cas échéant sensibles collectées et traitées par le robot et
dont il est entendu qu'elles seront
stockées de façon décentralisée au
moyen de l'informatique en nuage
(cloud computing) et vous percevrez
la complexité absolue du monde qui
nous attend.
Mais il faut raison garder: sans notion
du bien et du mal ni réels sentiments
ressentis, n'oublions pas que le robot
ne sera jamais qu'une machine, aussi
perfectionnée soit-elle. Ne lui prêtons
pas un souffle de vie qu'elle ne
possède pas: ce serait rendre un bien
méchant service à la robotique que de
lui offrir cet écrin obscurantiste,
puisque l'établissement de son régime
de responsabilité ne nécessite pas de
nourrir un imaginaire qui doit rester
cantonné à la science-fiction.
Cette série se conclura dans nos
éditions de samedi par un face-à-face
entre l'auteur de ces lignes et l'avocat
parisien Alain Bensoussan, partisan
déclaré de l'octroi de droits aux robots
(LT).
Ne prêtons pas à la machine un
souffle de vie qu'elle ne possède pas
Illustration(s) :
NICOLAS CAPT AVOCAT AUX BARREAUX DE GENÈVE ET PARIS, SPÉCIALISÉ EN DROIT DES MÉDIAS ET
DES TECHNOLOGIES DE L'INFORMATION
© 2016 Le Temps SA. Tous droits réservés. ; CEDROM-SNi inc.
news·20160219·TE·TPS_20160219_0009-art_1 - Date d'émission : 2016-03-16
Ce certificat est émis à Cégep-Granby-Haute-Yamaska à des fins de visualisation personnelle et temporaire.
Retour à la table des matières
29

Documents pareils