« Éthiques en action » Collection dirigée par Céline Kermisch

Transcription

« Éthiques en action » Collection dirigée par Céline Kermisch
Seediscussions,stats,andauthorprofilesforthispublicationat:
http://www.researchgate.net/publication/255696876
«Éthiquesenaction»Collection
dirigéeparCélineKermisch
PosthumanismeMylenebotbol
baum
DATASET·JANUARY2010
DOWNLOADS
VIEWS
624
44
1AUTHOR:
Mylenebotbolbaum
CatholicUniversityofLouvain
12PUBLICATIONS5CITATIONS
SEEPROFILE
Availablefrom:Mylenebotbolbaum
Retrievedon:24June2015
« Éthiques en action »
Collection dirigée par Céline Kermisch
Adresser les commandes à votre libraire ou directement à :
Pour la Belgique :
E.M.E. & InterCommunications s.p.r.l.
40, rue de Hanret
BE - 5380 Fernelmont
Tél. : 00[32]81.83 42 63 et 00[32]473.93 46 57
Fax : 00[32]81.83 52 63
Courriel : [email protected]
Site : www.intercommunications.be
Pour la France et la Suisse :
C.E.I. Collectif des Éditeurs Indépendants
37 rue de Moscou
F - 75008 Paris
Tél : 01 45 41 14 38
Fax : 01 45 41 16 74
[email protected]
Dans la même collection :
Le commerce équitable
Entre expansion économique et valeurs éthiques
Laetitia Poppe
E1045853
14,00 €
© E.M.E. & InterCommunications, sprl, 2012, (B) - 1040 - Bruxelles - 5380 - Fernelmont.
Céline Kermisch
et Marie-Geneviève Pinsart (éds.)
Les nanotechnologies :
vers un changement d’échelle éthique ?
Nanotechnologies :
towards a shi in the scale of ethics ?
E.M.E.
Remerciements
Cet ouvrage rassemble les textes des conférences prononcées lors
du colloque « Les nanotechnologies : vers un changement d’échelle
éthique ? », organisé les 4 et 5 avril 2011 à l’Université Libre de
Bruxelles (Belgique).
Nous tenons à remercier Madame Isabelle Stengers et Monsieur
Pierre Daled pour leur précieuse contribution lors de ce colloque. Que
soient également remerciés Madame Delphine Defosse pour son aide
dans l’organisation et la promotion du colloque et Monsieur Michaël
Manalis, pour son e cace collaboration en matière de graphisme.
Notre gratitude va aussi à la Faculté de Philosophie et Le res
de l’Université Libre de Bruxelles, au Groupe de contact FNRS
« Philosophie et bioéthique », et au Fonds de la Recherche Scientifique
pour leur soutien financier et logistique, ainsi qu’aux éditions EME.
5
6
Avant-propos
L’objet de cet ouvrage est de partager les réflexions qui ont été
menées sur les relations entre l’éthique et les nanotechnologies lors
d’un colloque tenu les 4 et 5 avril 2011, à l’Université Libre de Bruxelles
(Belgique), intitulé « Les nanotechnologies : vers un changement
d’échelle éthique ? » Quinze spécialistes d’horizons disciplinaires et
professionnels di érents ont apporté des éléments de réponse à ce e
question.
Il nous est apparu important de jeter un pont entre les recherches
exposées dans les li ératures francophone et anglophone en privilégiant
une édition bilingue, dans la mesure où les nanotechnologies sont
de nature internationale dans leurs projets, leurs conceptions, leurs
réalisations, leurs applications, et leurs conséquences sur chacun
d’entre nous comme sur toute forme de vie, présente ou à venir.
Foreword
The objective of this book is to share the reflections on the
relationships between ethics and nanotechnology proceeding from
the conference “Nanotechnologies: towards a shi in the scale of
ethics?” held at the Université Libre de Bruxelles (Belgium) on the 4th
and the 5th of April 2011. Fi een experts from various disciplines
have contributed to answer this question.
In order to bridge the gap between the reflections led in the French
and in the Anglo-Saxon literatures, we decided to favour a bilingual
edition, insofar as nanotechnologies are international in their projects,
in their conceptions, in their realisations, in their applications, and in
their impacts on everyone of us and on every current or future life
form.
7
Introduction
Une spécificité de la réflexion éthique liée aux nanotechnologies
est qu’elle repose à la fois sur quelque chose qui existe, qui est déjà
commercialisé (dans les cosmétiques, par exemple) ou secrètement
mis en œuvre (dans les recherches militaires), et sur quelque chose de
spéculatif, relevant du futur, et qui est hypothétique, voire fantaisiste.
Ce e indétermination des nanotechnologies s’accompagne d’une
di culté à les définir, ce qui ne va pas sans poser de problèmes.
De manière générale, on peut d’abord se demander si l’élaboration
d’une définition pour les nanotechnologies constitue nécessairement
un préalable à toute réflexion éthique (voir Pinsart). Sur le plan
particulier de la nanomédecine (voir Baum), on peut aussi s’interroger
sur les implications de ce e absence de définition consensuelle sur
la validité du consentement d’un patient : peut-on consentir à
quelque chose que l’on conçoit mal ? La di culté à s’entendre sur une
définition des nanotechnologies et donc sur l’ampleur et le type de
risques qui leur sont associés ne permet pas de délimiter facilement
le domaine d’application d’une norme juridique et provoque une
inflation de règlements et de textes, notamment sur le plan européen
(voir Gallus).
La question de la définition invite dès lors à s’a acher aux objets
nanotechnologiques, à interroger les intentions qui président à
leurs conceptions et à évaluer à partir de leur réalité la persistance
d’anciennes ruptures épistémologiques et ontologiques comme celle
distinguant l’objet naturel de l’artefact technique (voir Kroes). La
disparition de l’opposition entre matière vivante et matière inerte dont
témoignent certains objets nanotechnologiques les rend hétérogènes,
ce qui n’est pas sans e ets sur la construction interdisciplinaire des
savoirs et sur la place réservée à l’éthique (voir Pinsart). Par ailleurs,
c’est le statut même du vivant qui est a ecté par la convergence
NBIC (nanotechnologie, biotechnologique, informatique, sciences
cognitives), laquelle réduit l’être vivant à un composé de molécules
nanométriques, faisant ainsi fi des enseignements de la biologie et de
la toxicologie actuelles sur l’individuation du vivant, c’est-à-dire sur
la capacité de chaque système vivant à devenir une unité autonome et
9
ouverte aux modifications (voir Mwape). La nanotoxicité illustre aussi
la di culté de cerner le risque qu’encourt un être vivant qui évolue et
interagit constamment avec son milieu (voir Mwape).
C’est d’ailleurs en matière de risques que les nanotechnologies
posent de nombreux problèmes majeurs. Ainsi, l’indétermination liée
aux nanotechnologies va de pair avec la di culté de gérer leurs risques
ou, plus exactement, leurs incertitudes. Les risques, leurs descriptions,
et leurs évaluations sont traditionnellement au centre d’une approche
procédurale fondée sur le rapport entre les risques et les bénéfices
qui ne permet pas de prendre en compte les incertitudes de manière
adéquate (voir Kermisch). Notons aussi que la place privilégiée
accordée à la notion de risque dans les discours éthiques peut
occulter d’autres dimensions de la réflexion sur les nanotechnologies
(voir Hermerén), notamment celle de leur gouvernance (voir von
Schomberg), et relève à certains égards d’une stratégie de contrôle
bénéficiant à certains acteurs.
L’indétermination du contenu sémantique du terme
« nanotechnologie », des savoirs, des pratiques et des e ets qui lui
sont associés agit comme le plateau d’une balance en quête d’équilibre
à travers des déterminations diversement voulues et caractérisées. Une
de ces déterminations est de nature idéologique et est portée par le
mouvement transhumaniste majoritairement anglo-saxon (voir Baum,
Bourg). L’évaluation a priori du bien – la bonne vie, les bonnes capacités
physiques, psychologiques, comportementales, émotionnelles, les
bonnes relations sociales, etc. – constitue un postulat destiné à justifier
le développement des nanotechnologies en vue d’une maîtrise de la
matière et de l’être humain, certes au nom de la liberté, mais peut-être
aussi au prix de celle-ci. Dans ce e perspective, les nanotechnologies
relèvent des anthropotechniques, ces techniques qui visent à modifier
la condition humaine par une intervention sur le substrat biologique
humain. Le nombre d’êtres humains qui seraient a ectés par ce e
modification – ou, pris sous un autre angle, qui en bénéficieraient
– soulève la question de l’accentuation des inégalités ou même de
l’apparition de nouvelles formes d’inégalité non seulement entre les
êtres humains, mais aussi entre ceux-ci et d’autres êtres existants ou
possibles (voir Bourg).
Par ailleurs, l’usage du terme « nanoéthique » pour qualifier des
réseaux d’échanges, des programmes de recherches, une revue, une
10
li érature, etc. témoigne bien de l’existence d’une préoccupation
éthique. Mais si la nécessité de mener une réflexion éthique sur la
manière dont un savoir est construit et conçu, surtout s’il est lié à
une intervention sur le vivant, est désormais un truisme, il reste en
revanche à s’interroger sur la nécessité d’une autre manière de réfléchir
et d’agir éthiquement en matière de nanotechnologies (voir Peterson
et de Vries). En outre, la dissolution de l’éthique dans une pluralité
de considérations n’entraîne pas nécessairement une modification
substantielle, sur le plan éthique, du fonctionnement des sciences
et des techniques, et de leur rapport à la société. La convergence
des technologies NBIC peut cependant apparaître comme le signe
d’un changement de paradigme épistémologique et éthique (voir
Busquin).
Les pistes éthiques tracées par les auteurs sont nombreuses
et, bien qu’elles relèvent de géographies conceptuelles di érentes,
elles peuvent former des intersections intéressantes : l’évaluation
normative continue, l’évaluation au cas par cas, l’évaluation des
risques, l’application du principe de précaution, la démocratisation
du savoir… Chacune de ces pistes met en scène une fonction possible
de l’éthique par rapport aux nanotechnologies. Le plus souvent, la
li érature évoque les fonctions d’accompagnement ou de ra rapage
de la dynamique de la recherche et du développement inscrite dans
une vision progressiste des sciences et des techniques. Mais il faut
tenir compte aussi des fonctions de l’éthique liées à son intervention
en amont : communiquer avec le public, favoriser sa participation –
sans toutefois le préparer à ce que d’aucuns voudraient lui imposer
(voir Bensaude-Vincent) – et susciter un dialogue généralisé plutôt
que généralisant ; développer une stratégie d’évaluation des
conséquences des processus et des produits nanotechnologiques qui
rende la recherche et l’innovation responsables (voir von Schomberg) ;
déterminer la spécificité de l’objet nanotechnologique pour en vérifier
la brevetabilité (voir Kroes) ; redéfinir et approfondir les principes
éthiques traditionnels pour leur conférer une fécondité analytique à
l’égard des situations nouvelles créées par les nanotechnologies (voir
Peterson et de Vries) ; élaborer des régulations éthiques plus ou moins
contraignantes sur le plan national ou international, à l’instar des
initiatives prises par l’UNESCO et l’Union européenne (voir Busquin,
Gallus) que certains pourraient cependant accuser d’anesthésier la
volonté d’agir à l’égard des nanotechnologies.
11
Les nanotechnologies sont aussi associées à des discours qui
véhiculent une rhétorique plurielle à l’image de la diversité des
intentions qui les animent. Ces discours font feu d’une rhétorique
nourrie d’oxymores comme celui d’« innovation responsable » (voir
Thoreau) et minutieusement mise en place par les acteurs mêmes du
développement des nanotechnologies (voir Dratwa). On y découvre
aussi une autre rhétorique, celle de groupes d’activistes hissant
le pavillon néo-luddite du rejet de la modernité technologique et
cherchant avant tout à déstabiliser et à éveiller le soupçon (voir
Go ).
Il ne faut pas oublier non plus que la relation de l’éthique aux
nanotechnologies s’inscrit dans un contexte marqué par des expériences
antérieures, notamment celles des biotechnologies et des organismes
génétiquement modifiés (voir Hermerén, Kermisch). Il n’est donc
pas étonnant que les promoteurs des nanotechnologies aient voulu
anticiper les conséquences de leurs applications et de leur di usion
en termes de conflits de valeurs, par la mise en œuvre d’une réflexion
pluridisciplinaire sur leurs impacts éthiques, légaux et sociétaux –
ELSI – (voir Bensaude-Vincent) ou sur leurs aspects éthiques, légaux
et sociétaux – ELSA.
Dans le débat sur les relations entre éthique et nanotechnologies,
l’Union européenne, à travers ses instances de réflexion et de
décision, occupe une position distincte de celle des États-Unis. Née de
l’engagement libre d’un certain nombre d’États, l’Union européenne
o re l’opportunité de penser l’éthique à partir d’une de ses dimensions
fondatrices, l’engagement (voir Dratwa). Quels sont les di érents
engagements – éthiques, sociaux, citoyens – possibles pour le futur ? A
quel niveau (international, national,…) et selon quelle répartition des
tâches les engagements doivent-ils être tenus ? Les nanotechnologies
interpellent directement les stratégies développées aussi bien par les
politiques publiques de l’Union européenne que par celles des EtatsUnis d’ailleurs (voir Thoreau). Se pose la question entre autres de
savoir comment se décline la responsabilité associée à la promotion
d’une recherche et d’applications innovantes dans les projets et les
déclarations de politique publique.
Les contributions de cet ouvrage soulignent qu’une réflexion
élaborée à partir de clivages se fige souvent en clichés (voir Go ) et que
les nanotechnologies o rent l’opportunité de penser autrement nos
12
priorités et nos limites. Ainsi, plutôt que d’opposer transhumanisme
et humanisme, n’est-il pas plus fécond et utile de s’interroger sur les
rapports que nos représentations du bien ou du meilleur entretiennent
avec le réel, réel que nous façonnons et qualifions de « bon » ou de
« meilleur » ? Plutôt que d’opposer diverses expressions de la liberté
(expressions humaniste, transhumaniste, scientifique, citoyenne, etc.)
que cristallisent les nanotechnologies, n’est-il pas plus juste de réfléchir
aux manières de garantir l’existence de ces diverses expressions de la
liberté – aussi bien sur le plan individuel que collectif, humain que non
humain –, de sorte qu’elle demeure toujours possible dans le futur ?
L’éthique éveillée par les nanotechnologies est-elle encore et toujours
une a aire d’échelle, de succession d’échelons distinguant des espaces
d’acceptation et de rejet ? La nanoéthique n’est-elle pas aussi – et ce
de manière non exclusive –, une invitation à imaginer de nouvelles
modalités de mise en commun de réflexions et d’actions ?
Céline Kermisch et Marie-Geneviève Pinsart
13
Introduction
One specificity of the ethical reflection associated with
nanotechnology is that it is both about something that currently
exists, something that is already commercialized (in cosmetics for
example) or secretly implemented (in military research), and about
something speculative, future-oriented, hypothetic, or even fanciful.
This indetermination of nanotechnologies goes with the di culty to
elaborate a commonly accepted definition of these, which raises many
issues.
We may first wonder if the elaboration of a definition for
nanotechnology constitutes necessarily a prerequisite to any ethical
reflection about it (see Pinsart). In the particular case of nanomedicine
(see Baum), we may also question the impacts of this lack of consensual
definition on the validity of a patient’s consent: is it possible to consent
to something that we cannot easily conceive? The di culty to agree
on a definition, and hence on the magnitude and on the type of risks
associated with these, does not allow an easy delimitation of the
scope of a legal standard. This causes, in turn, an increase of texts and
regulations, for example at the European level (see Gallus).
The problem of nanotechnology definition leads thus to study
nanotechnological objects, to question the intentions at the origin of
their design, and to assess the relevance and the persistence of previous
epistemological and ontological distinctions such as the distinction
between natural objects and technical artefacts (see Kroes). The
blurring of the opposition between the living and the lifeless, as is the
case for some nanotechnological objects, makes them heterogeneous,
which impacts the interdisciplinary construction of knowledge and
the space of ethics (see Pinsart). Furthermore, the status of the living
is a ected by the NBIC convergence (nanotechnology, biotechnology,
information technology and cognitive science), which reduces the
living being to an aggregate of nanometrical molecules, thereby
neglecting the lessons of current biology and toxicology on the
individuation of the living, i. e. on the capacity of each living system
to become an autonomous unity, which is open to modifications (see
Mwape). Nanotoxicity also illustrates the di culty to define the risk
15
to which a living being – constantly evolving and interacting with its
environment – is exposed (see Mwape).
Nanotechnologies are associated with many risk issues as well.
The indetermination of nanotechnologies goes with the di culty
to manage their risks or, more exactly, their uncertainties. The
risks, their descriptions and their assessments are at the core of a
traditional procedural approach based on the ratio between risks
and benefits, which is unable to take uncertainties into account
properly (see Kermisch). Furthermore, the focus on the notion of risk
in ethical discourses can possibly hide other aspects of reflection on
nanotechnologies (see Hermerén), notably the ones associated with
their governance (see von Schomberg) and this focus may correspond
to some extent to a control strategy, which benefits some agents.
The indetermination of the semantical content of the term
“nanotechnology”, of the knowledge, of the practices and of the impacts
associated with it, are scales seeking for balance through diversely
featured determinations. One of these determinations is ideological
in its nature and is coming from the transhumanist movement,
which is mainly Anglo-Saxon (see Baum, Bourg). The a priori
evaluation of the good – the good life, the good physical, psychological,
behavioural and emotional capacities, the good social relationships,
etc. – is an assumption, which intends to justify the development
of nanotechnologies in order to control ma er and human beings,
possibly in the name of freedom but also maybe at the price of it. In
this perspective, nanotechnologies are part of the anthropotechnics,
which intends to modify the human condition by intervening on the
human biological substratum. The number of human beings who
would be a ected by these modifications – or, from another point of
view, who would benefit from it – leads to the question of the increase
of inequalities or even to the rise of new types of inequalities not only
between human beings, but also between them and other existing or
possible beings (see Bourg).
Besides, the use of the term “nanoethics” in order to qualify
networks, research programs, a journal, literature, etc. proves the
existence of an ethical concern. Of course, the necessity to conduct an
ethical reflection on the manner in which knowledge is conceived and
constructed is trivial – especially if it is associated with an intervention
on the living. However, when it comes to nanotechnologies, we still
16
have to question the necessity to seek for another way of thinking and
acting ethically (see Peterson and de Vries). Moreover, the dissolution
of ethics into a plurality of considerations does not necessarily lead
to a substantial modification, at the ethical level, of the functioning
of science and technology, and their connection to society. The NBIC
convergence can nevertheless be thought as the expression of a change
of epistemological and ethical paradigm (see Busquin).
The ethical leads highlighted by the authors are numerous. Even
though they are proceeding from various conceptual frameworks, their
intersections are promising: continuous normative evaluation, case-bycase evaluation, risk assessment, the application of the precautionary
principle, the democratisation of knowledge… Each of these leads
proposes a possible role for ethics in the case of nanotechnology. Most
o en, literature addresses the role of accompaniment or taking up of
the R&D dynamics, along with a progressive conception of science
and technology. But we also have to take into account the roles of
ethics associated with its upstream intervention: communicating with
the public, encouraging its participation – without preparing it to
accept what some may be willing to impose (see Bensaude-Vincent)
– and creating a generalized dialogue rather than a generalizing
dialogue; developing a strategy of evaluation of the consequences
of the nanotechnological processes and products contributing
to a responsible research and innovation (see von Schomberg);
determining the specificity of nanotechnological objects in order
to verify their patentability (see Kroes); redefining and refining the
traditional ethical principles and concepts in order to adapt these
to new situations created by nanotechnologies (see Peterson and de
Vries); elaborating ethical regulations at the national or international
levels such as the initiatives of the UNESCO and the European Union
(see Busquin, Gallus) that some may accuse to anaesthetise the will to
act towards nanotechnologies.
Nanotechnologies are also associated with discourses based on
a plural rhetoric, reflecting the diversity of their authors’ intentions.
These discourses are based on a rhetoric enriched with oxymora such
as “responsible innovation” (see Thoreau) and they are meticulously
implemented by the actors of the development of nanotechnology
themselves (see Dratwa). But another rhetoric can also be found, the
one advocated by neo-luddite activist groups, rejecting technological
modernity and searching mainly destabilization and suspicion (see
17
Go ).
We should not forget that the relationship between ethics and
nanotechnology is occurring in a context influenced by previous
experiences, in particular, biotechnology and GMOs (see Hermerén,
Kermisch). It is thus not surprising that nanotechnology promoters
have been willing to anticipate the consequences of their applications
and their di usion in terms of conflicts of values, by implementing a
multidisciplinary reflection on the ethical, legal and societal impacts
– ELSI (see Bensaude-Vincent) – or on the ethical, legal and societal
aspects – ELSA.
In the debate on the relationship between ethics and
nanotechnology, the European Union is adopting a di erent position
than the one advocated by the United States. Proceeding from the free
commitment of a certain number of states, the European Union gives
the opportunity to think ethics from one of its founding dimensions,
the commitment (see Dratwa). What are the possible commitments –
ethical, societal, or at the citizen level – for the future? At what level
(national, international,…) and according to which a ribution of tasks
should these commitments be held? Furthermore, nanotechnology
questions directly strategies developed by the public policies of the
European Union, as well as the ones of the United States (see Thoreau).
Hence the question is, amongst others, how to define responsibility
associated with the promotion of innovative research in projects and
in public policies.
The contributions of this book put the emphasis on the fact that a
reflection proceeding from oppositions is o en fixed into stereotypes
(see Go ) and that nanotechnologies give the opportunity to think
our priorities and our limits di erently. Hence, rather than opposing
transhumanism and humanism, wouldn’t it be more fruitful to
question the relationships that our representations of the good or of
the best have with the real, real that we are constructing and that we
are qualifying as “good” and “best”? Rather than opposing di erent
expressions of freedom (humanist expression, transhumanist,
scientific, at the citizen level, etc.) crystallized by nanotechnologies,
wouldn’t it be more just to think of ways to secure the existence of
these di erent expressions of freedom – at the individual, collective,
18
human and non-human levels – in order for it to be possible in the
future? Is ethics in the light of nanotechnology still a ma er of scale,
of sequence of steps, delimiting acceptance or rejection spaces? Or is
it also – and not exclusively – an invitation to imagine new modalities
of pooling reflections and actions?
Céline Kermisch et Marie-Geneviève Pinsart
19
Résumés
Quelle éthique pour les nanotechnologies ?
Bilan des programmes en cours et perspectives
Bernade e Bensaude-Vincent
Dans un grand nombre de pays, les programmes de recherche en
nanotechnologies comportent un volet « Ethical, Legal and Societal
Issues » (ELSI). L’intégration de la réflexion sur les aspects éthiques
et sociaux des innovations en amont constitue indéniablement un
progrès par rapport aux démarchages aveugles d’antan (justifiées
par l’adage « on n’arrête pas le progrès ! »). Toutefois elle demeure
insu sante pour plusieurs raisons que l’on tentera d’exposer.
Nanoéthique et posthumanisme
Mylène Botbol-Baum
Si le devenir technoscientifique suppose l’indétermination, les
nanomedecines semblent bien se développer sans possible préalable
ce qui s’oppose à la notion de consentement. Elles sont néanmoins
présentes en clinique alors que la majorité des patients sont
incapables de définir le terme. La nanomédecine ranime donc le débat
épistémologique qui divise sur la pertinence des technosciences à
nous libérer ou à nous aliéner, et en tout cas à perturber les rythmes
biologiques du vivant dans un but mélioriste et/ou thérapeutique.
Ce débat nous amène à repenser les représentations mécanistes
classiques des craintes que suscitent l’altération des « lois de la nature »
comme si celle-ci n’était pas suje e à une constante ré-organisation ou
auto-organisation d’où émergent de nouveaux possibles biopolitiques
ou thanathopolitiques, sans possible préexistant qui articule risque et
liberté.
Le concept d’auto-organisation est trop associé souvent à une
forme de liberté irresponsable ou d’orgueil mélioriste de contrôle de
la matière. Nous confronterons l’épistémologie mécaniste classique
à celle de l’auto-organisation pour dessiner, non une éthique posthumaniste justifiant la nanomédecine mais un discours qui répondrait
21
à l’interpellation que les nanotechnologies opèrent sur la dichotomie
entre le vivant et la matière organique non-vivante, à l’échelle nano. En
termes d’oscillations perturbées des rythmes du vivant d’où peuvent
émerger des représentations post-humanistes qui ne seraient pas
opposées aux valeurs humanistes, mais interrogeraient leurs limites,
voire leurs échecs à articuler le réel à ses représentations.
Cela nous perme ra de questionner l’inférence selon laquelle le
terme de technoscience et l’idée de perte d’altérité sont inéluctablement
liés, afin de suggérer qu’elle puisse aussi être l’outil d’élaboration d’un
sens à-venir, fondé sur un arpentage moins dualiste entre vivant et
non vivant, réel ou connaissance du réel et surtout sur son impact sur
nos capacités d’évaluation éthique du méliorisme.
Nanotechnologies, convergence NBIC et inégalités
Dominique Bourg
Je n’aborderai pas les nanotechnologies en général, mais sous
l’angle de leur apport aux anthropotechniques. J’entends par
anthropotechniques l’ensemble des techniques ayant pour dessein
la transformation durable du fonctionnement propre au corps
humain. Le projet le plus ambitieux prêté à ces techniques est une
modification du substrat biologique de la condition humaine,
en vue de métamorphoser ladite condition. Je chercherai à
montrer les di cultés que ne manquerait pas de rencontrer un tel
projet, et tout particulièrement en termes d’universalité. Je ne sais
jusqu’où on peut parvenir à bousculer la condition humaine, mais
je crains qu’il ne puisse résulter d’un tel dessein autre chose qu’un
accroissement des inégalités au sein du genre humain.
Les nanotechnologies et l’éthique. Politiques et stratégies
Philippe Busquin
La commission mondiale d’éthique des connaissances scientifiques
et des technologies de l’UNESCO a publié en 2008 un premier rapport
sur « Éthique et Politique des Nanotechnologies » dont j’ai explicité les
objectifs. Cet organisme indépendant constitué de membres décideurs
ou scientifiques de tous les continents va réactualiser ce document
car les nanotechnologies se développent rapidement, partout dans le
monde (plus de 1.000 produits déjà commercialisés).
22
Ce changement de paradigme interpelle par ses potentialités mais
aussi ses inconnues.
Des débats sont nécessaires, l’Union Européenne est à l’initiative
de nombreux colloques mais aussi à la recherche de codes de
conduite si possible mondialement acceptables. Les enjeux éthiques
sont fondamentaux : transparence et responsabilité face au public,
évaluation des risques, coopération internationale,…
De plus les technologies convergentes (nano, biologie,
informatique, sciences cognitives) induisent une autre dimension : le
risque de « transhumanisme » et interpellent sur le sens des valeurs
de l’humanité. En outre, je me permets d’évoquer « le trou noir »
que représentent les recherches militaires et de sécurité dans ces
domaines.
Europe’s collective experiment with nanotechnologies as a
construction of possible futures : political and ethical stakes
Jim Dratwa
Imaginez le monde dans quelques décennies. Comment aimeriezvous qu’il soit ? Cet article interroge les façons dont les futurs sont
conçus – et dont ils sont amenés à se réaliser. Il sonde le rôle de
l’engagement – l’engagement de l’éthique et des sciences sociales ainsi
que du public – dans le façonnage du futur avec les nanosciences et
nanotechnologies. Premièrement, il délinée les relations de l’Union
européenne avec les futurs – avec l’entreprise même de construction
des futurs. Deuxièmement, il examine la place des sciences et
technologies dans ce e entreprise. Troisièmement, sur le terrain des
institutions européennes, il analyse les narrations contrastées portant
(sur) les nanosciences et nanotechnologies. Dans une dernière partie, il
apporte une appréciation critique – ainsi qu’une vigueur renouvelée –
quant à l’engagement dans les expérimentations collectives (qui
sont autant d’expérimentations du collectif) avec les nanosciences et
nanotechnologies.
23
La réglementation européenne des nanotechnologies :
l’éthique entre la recherche et le développement industriel
Nicole Gallus
Le droit européen des nanotechnologies confronte le juriste à
une inflation de textes, ce e sur-réglementation étant le reflet des
di cultés générées par les incertitudes entourant la connaissance
des spécificités des nanomatériaux et de leurs risques, ainsi que par
les contraintes d’application du principe de précaution face à ces
incertitudes et aux motivations di érentes des parties concernées :
scientifiques, industriels, consommateurs, régulateurs.
La contribution consacrée à la réglementation européenne vue
sous l’angle de l’éthique tend à dépasser ce e complexité normative en
axant l’analyse du droit sur trois questions qui paraissent constituer la
base de réflexion nécessaire.
La première s’a ache à la recherche d’une définition des
nanomatériaux et nanotechnologies, susceptible de préciser le champ
d’application de la norme.
La deuxième vise à préciser l’objectif de la norme en termes de
recherche, développement industriel, protection des personnes et de
l’environnement et éthique.
La troisième enfin porte sur le contenu de la norme avec,
plus particulièrement, une interrogation sur l’opportunité d’une
réglementation spécifique ou d’une simple adaptation de la
réglementation générale existante.
Nanotechnologies, nano-luddisme, néo-luddisme.
Jean-Yves Go
Certains estiment que l’opposition entre technophobes et
technophiles est dépassée. Cela n’empêche pas que les débats ou les
a rontements qui se développent à propos des nanotechnologies
me ent en scène des partisans ou des opposants que l’on a du mal
à considérer autrement que comme des amis ou des ennemis de la
technologie - même s’ils se (dis) qualifient mutuellement de néoluddites ou de futuristes.
24
On s’a achera à examiner quelques écrits émanant d’activistes
grenoblois proches du groupe radical PMO (pièces et main d’œuvre)
afin de comprendre ce que sont, en action, leurs « arguments ».
On s’abstiendra d’évaluer la validité de ces « arguments », au sens
propre du terme ; il semble, en e et, que leurs auteurs ne se préoccupent
pas réellement d’établir de façon concluante que, des prémisses étant
posées, une conclusion s’ensuit nécessairement. Bien plutôt, il s’agit
de produire un e et de trouble auprès du lecteur ; ce e dimension
rhétorique du propos explique que l’on parle d’« arguments » et non
d’arguments. Cela n’empêche pas que de tels écrits soient e caces,
à leur façon : ils suscitent suspicion et interrogations, ce qui est
probablement le but recherché.
On suggérera que ces « arguments » sont, en fait, plus dirigés
contre la modernité techno-libérale que contre les nanotechnologies
comme telles. On insistera sur le fait que ce e contestation radicale ne
se fait ni au nom du passé, ni au nom du présent, ni au nom du futur :
elle ne promet rien et s’installe dans une posture de négation pure. En
ce sens, elle débouche sur une guérilla infinie, qui pourra me re en
évidence le caractère honteux des pratiques de leurs adversaires, sans
les empêcher d’a eindre leurs objectifs.
Petites particules, grandes questions. Nanotechnologies et éthique.
Göran Hermerén
Il existe de nombreuses nanotechnologies et de multiples
applications de ces technologies ; et elles soulèvent, en partie,
des problèmes di érents. Des publications récentes témoignent
des progrès spectaculaires réalisés dans de nombreux domaines.
Ces technologies sont utilisées dans l’industrie automobile, dans
l’industrie aéronautique, dans l’industrie chimique, dans l’industrie
pharmaceutique, en médecine et en biotechnologie, dans les
technologies de l’information et de la communication, ainsi que dans
les industries alimentaire et cosmétique.
Toutefois, ces progrès spectaculaires ne signifient pas que tous
les problèmes éthiques soient résolus. Les questions de sécurité sont
évidemment importantes. Il semble que certains types de nanotubes
de carbone engendrent des e ets pathogènes similaires à ceux de
l’amiante, en relation avec leur structure et leur longueur. Des études
25
menées sur les rats ont montré que les nanoparticules peuvent être
absorbées par inhalation et transportées dans le cerveau où elles
s’accumulent. Mais jusqu’à quel point cela provoque des risques
pour la santé est une question qui doit encore être étudiée de façon
plus détaillée. On n’en sait pas beaucoup plus au sujet des e ets des
cosmétiques contenant des nanoparticules sur la santé.
Néanmoins, ne s’intéresser qu’aux seules normes de sûreté
constitue un autre danger. Une analyse éthique de chaque technologie
émergente doit aller au-delà de l’évaluation des risques. En fait, a acher
une a ention excessive à l’évaluation des risques peut constituer
une manière de d’éviter d’accorder à d’autres questions éthiques
l’a ention qu’elles méritent. Ces questions peuvent aller de problèmes
anthropologiques à ceux relatifs à la liberté du consommateur, à
l’a ribution de brevets, à l’accessibilité et à la justice globale.
Plusieurs points de départ éthiques peuvent constituer une base
de discussion à ce sujet. Il s’agit des éthiques utilitaristes, ainsi que
celles fondées sur les droits de l’homme et sur la dignité humaine.
Heureusement, nous ne devons pas inventer la roue. En ce qui concerne
les débats sur les politiques à adopter vis-à-vis des problèmes soulevés
par les technologies émergentes, telles que la biologie synthétique,
les nanotechnologies, ou les technologies de l’information et de la
communication, les valeurs véhiculées par un grand nombre de
documents internationaux des Nations Unies, de l’Union européenne
et du Conseil de l’Europe peuvent servir de base de discussion.
Ces documents présentent l’avantage d’avoir fait l’objet d’un
débat public et sont parvenus à obtenir un soutien politique. Leur
inconvénient est qu’ils sont relativement vagues et restent ouverts à
des interprétations multiples. Toutefois, l’aspect positif de ce manque
de précision est qu’il facilite le débat sur le sens et les implications des
articles de ce type de document. Nous avons besoin de communication,
et pas seulement d’information.
Perception, epistemics, and ethics: a triple
on the specificity of nanotechnologies and their risks
perspective
Céline Kermisch
Cet article propose une analyse de la spécificité des
nanotechnologies et des risques qui leur sont associés, en privilégiant
26
plus particulièrement la première génération de nanotechnologies.
Il montre qu’elle se manifeste selon trois niveaux : la perception,
l’épistémologie et l’éthique.
L’étude des a itudes vis-à-vis des nanotechnologies et l’analyse
de la perception de leurs risques perme ent de dégager deux
caractéristiques essentielles : le manque d’opinion au sujet des
nanotechnologies et de leurs risques, et le fait que, au contraire des
autres technologies, les experts leur associent des risques plus élevés
en matière de santé et d’environnement que le grand public. Du point
de vue épistémique, la di culté de définir les nanotechnologies en tant
que substances distinctes de leur équivalent non-nanotechnologique
est mise en évidence. En outre, l’accent est mis sur les incertitudes
considérables qui entourent les nanotechnologies et sur les limites
de notre compréhension des processus susceptibles de causer des
dommages. En matière d’éthique, nous relevons un certain nombre
de particularités, parmi lesquelles la spécificité du débat public aussi
bien que les di cultés d’assurer un accompagnement symbolique des
nanotechnologies, du recours à la labellisation, de l’application du
principe de précaution ou encore de la réalisation d’analyses risques/
coûts/bénéfices.
Les nano-artefacts et la distinction entre le naturel et l’artificiel
Peter Kroes
L’objectif principal de cet article est de vérifier si la distinction entre
objets naturels et artefacts techniques peut être transposée du niveau
macro au niveau nano. Premièrement, je me propose de fournir une
analyse des artefacts techniques de dimension macro, compris comme
des objets fabriqués par l’homme et dotés d’une fonction technique.
Ensuite, je caractériserai la création ou la fabrication d’un artefact
technique au niveau macro comme l’exécution, réussie dans une large
mesure, d’un design de cet artefact technique. Une conséquence de
ce e conception des artefacts techniques et de leur fabrication est que
les artefacts techniques sont des objets tributaires de l’intention. Que
l’objet créé par l’homme soit un artefact technique ou non dépend
de son histoire intentionnelle. Une analyse de di érentes sortes
de nano-objets fabriqués par l’homme (atomes, molécules et autres
nano-constructions) montre qu’une telle caractérisation des artefacts
techniques et de leur fabrication peut être étendue au domaine nano.
27
Dès lors, il n’est pas nécessaire de revoir la distinction entre naturel
et technique quand on passe des objets à ‘échelle macro aux objets à
l’échelle nano. Je soutiens également qu’il peut être plus di cile, au
niveau nano qu’au niveau macro, de s’assurer qu’un objet fabriqué
par l’homme possède l’histoire intentionnelle requise afin de le
qualifier en tant qu’objet technique. Ceci constitue toutefois une
di érence épistémologique et non ontologique, ce qui peut susciter
des problèmes spécifiques, notamment en ce qui concerne l’a ribution
de brevets relatifs aux nano-objets.
Que sait-on des e ets des nanotechnologies sur l’individuation du
vivant ?
Yannick Mwape
À l’aube du 21ème siècle, les nanotechnologies constituent un pôle de
développement majeur dans la recherche scientifique. Leur expansion
croise de plus en plus l’approfondissement des connaissances toujours
plus précises des mécanismes moléculaires à la base de l’organisation
du vivant ainsi que les voies de régulations neuronales des activités
cérébrales. C’est pourquoi on parle d’une convergence Nano-BioInfo-Cogno (NBIC) dans laquelle les nanotechnologies deviendraient
l’interface de la biologie moléculaire, de l’informatique, des sciences
cognitives et des neurosciences. Cela n’est pas sans poser quelques
questions à propos de la façon dont les nanotechnologies nous
convient à considérer les êtres vivants…
Peut-on, en e et, se satisfaire, comme le suggère l’imaginaire
accompagnant le discours de promotion des nanotechnologies, d’une
vision du vivant comme une collection d’objets réductibles en leurs
composants moléculaires (d’ordre nanométrique) ? Aujourd’hui,
pourtant, la biologie nous dévoile une tout autre image. La biologie
moléculaire, la biologie du développement, l’écologie ou la cytologie
parlent de systèmes, fruit de processus complexes d’organisation
qui tendent à faire émerger des unités autonomes jamais totalement
achevées.
Dans notre article, nous proposons de voir de quelle façon la
toxicologie est sans doute l’une des disciplines où ce changement de
paradigme ne peut pas être négligé. Elle nous interpelle d’autant plus
qu’elle nous rend directement compte de la réalité des interactions
entre l’organisme et ces nouveaux objets nanométriques dont on
28
a end tant de retombées. Et nous verrons de quelle façon ce e prise
en considération de la question de la toxicité nous éloigne de tout
présupposé simplificateur qui ferait l’économie de la dimension
complexe des êtres vivants.
Les nouvelles technologies soulèvent-elles de nouvelles questions
éthiques ? Quelques réflexions sur les nanotechnologies.
Martin Peterson et Marc de Vries
Ce texte poursuit deux objectifs. Le premier est d’apporter
une réponse à la question contenue dans le titre : « y a-t-il quelque
chose de spécifique ou de nouveau dans le domaine de l’éthique des
nanotechnologies ? » Nous montrons que la réponse est positive, mais
que ce point de vue n’est pas si banal que l’on pourrait le croire.
Le simple fait qu’une nouvelle technologie entraîne d’énormes
conséquences sur la société, ou qu’elle provoque des e ets inédits
n’implique pas que les aspects éthiques de la technologie en
question soient réellement nouveaux. Dans bien des cas, on peut
avoir recours aux principes et aux concepts éthiques traditionnels
pour analyser les nouvelles technologies. Le second objectif de cet
article est plus spécifique : l’analyse des risques liés à certains types
de nanotechnologies permet de clarifier les aspects éthiques de ces
nouvelles technologies et par là d’illustrer l’idée que, dans certains
cas, les nouvelles technologies soulèvent e ectivement de nouveaux
problèmes éthiques. Nous défendons l’idée que certaines situations
nouvelles en matière de choix moral engendrées par les nouvelles
technologies ne peuvent pas – au sens fort – être analysées correctement
en se référant à des principes et des concepts moraux traditionnels. Il
ne faut pas chercher l’explication dans le fait qu’une analyse correcte
de ces nouvelles situations de choix exigerait des principes ou des
concepts fondamentalement di érents. La raison en est plutôt que
certaines nouvelles technologies rendent impossible, au sens propre
du terme, l’application de concepts et de principes traditionnels. Il
faut (donc ?) redéfinir et approfondir nos principes et nos concepts
déjà en vigueur. Nous utilisons l’expression « limites éthiques floues »
en référence aux cas où l’introduction d’une nouvelle technologie rend
inapplicables certains principes ou concepts éthiques traditionnels.
Dans de telles situations, il n’y a pas de réponse déterminée à la
question de savoir comment un principe ou concept éthique devrait
29
être appliqué, pas même pour un agent qui aurait accès à tous les faits
empiriques pertinents.
L’hétérogénéité des objets nanos : deux nouvelles méthodes pour
activer une éthique générique
Marie-Geneviève Pinsart
Cet article réfléchit sur un type particulier d’objets nanos, ceux
formés par un mixte de machine et d’organisme vivant. Il met en
question les conceptions épistémologiques et éthiques qui envisagent
l’existence des objets nanos et des valeurs/principes éthiques comme
des données fournies par des domaines particuliers (celui des
sciences et celui de l’éthique), comme des données ontologiquement
et épistémologiquement séparées, et comme des données préalables à
la tenue d’un débat collectif sur les nanos et leurs enjeux éthiques.
Nous avançons deux hypothèses : la première soutient que le
savoir des objets nanos (machine-organisme vivant nano) est un savoir
générique portant sur des objets hétérogènes ; la seconde qu’un savoir
générique exige une éthique générique. Un objet hétérogène ne permet
plus une synthèse intuitive car il est indéterminé et se construit selon
les intentions des disciplines et des acteurs qui le me ent en œuvre.
L’éthique doit alors être conçue comme une dimension non définie
a priori et dépendant elle aussi de la rencontre des intentions et des
acteurs construisant l’objet nano. Nous proposons deux méthodes de
mise en œuvre de l’éthique générique adaptée à l’hétérogénéité des
objets nanos : 1. une méthode dite du « sans » qui procède en me ant
entre parenthèses un élément de la réflexion pour évaluer son impact
sur les autres aspects problématiques ou pour le reconstituer à partir
de matériaux nouveaux ; 2. une méthode fondée sur une adaptation de
la matrice éthique de Ben Mepham dans laquelle les valeurs éthiques
ne sont pas déterminées à l’avance.
Ce e réflexion prolonge dans le domaine des nanotechnologies
les résultats d’un travail collectif mené au cours d’un projet de
recherche financé par l’ANR de 2007 à 2010 et portant sur les OGMs
aquatiques.
30
Nanotechnologies et « innovation responsable » :
sur la gouvernementalité d’un concept
François Thoreau
Les nanotechnologies sont l’occasion du déploiement d’un
discours de politique publique autour de l’idée d’une « innovation
responsable ». Ce développement a été constaté à de nombreuses
reprises et il est aujourd’hui acquis qu’il est incontournable, pour qui
s’intéresse aux enjeux politiques des nanotechnologies. Toutefois, peu
d’études systématiques ont pris la peine de décortiquer ce concept, ses
significations conflictuelles et, finalement, l’ordre du politique qu’il
produit. Notre contribution identifie une tension fondatrice sousjacente à ce concept « d’innovation responsable », qu’elle approfondit
dans le but de mieux cerner sa gouvernementalité, c’est-à-dire le
mode d’exercice du pouvoir qui s’incarne dans des instruments de
politique publique. Pour ce faire, ce chapitre se penche tout d’abord
sur l’incidence du choix du terme de « responsable » sur un plan
théorique, tel que ce dernier a profondément été reconfiguré par les
sciences sociales. Après avoir émis une série d’hypothèses à ce sujet, il
entreprend de confronter « l’innovation responsable » à la pratique des
instruments de politique publique, de manière à mieux comprendre
quel ordre du politique ce concept est en train de stabiliser. Ainsi
sont notamment examinés les grands plans stratégiques adoptés
respectivement aux États-Unis et dans l’Union européenne, et
certaines de leurs déclinaisons opérationnelles. En fin de compte,
quelle réponse « l’innovation responsable » apporte-t-elle à la tension
fondatrice qui l’anime ?
À la recherche des « justes » impacts de la science et des technologies.
Vers un cadre pour la recherche et l’innovation responsables.
René von Schomberg
Nous proposons une stratégie pour une recherche et une innovation
responsables, qui soit plus particulièrement d’application dans le
domaine des nanosciences et des nanotechnologies. Nous discuterons
des caractéristiques d’une telle stratégie, qui concerne aussi bien la
dimension « produit » que la dimension « processus » de la recherche
et de l’innovation. En ce qui concerne la dimension « produit », une
stratégie de recherche et d’innovation responsables exige de prendre
en compte un certain nombre d‘évaluations (prévoyance, technology
31
assessment, etc.) et d’appliquer le principe de précaution. En matière
de processus, ce type de stratégie s’appuie sur des éléments essentiels,
à savoir inclure les acteurs sociaux dans le processus d’innovation,
déployer des mécanismes de so law, conférer aux principes éthiques
un rôle moteur dans l’innovation, et promouvoir le débat public.
Une telle stratégie suppose de me re davantage l’accent sur la
gouvernance de l’« innovation » des technologies émergentes que sur
la gouvernance de leurs risques.
32
Abstracts
Which ethics for nanotechnology?
Assessment of the current programs and perspectives
Bernade e Bensaude-Vincent
In a large number of countries, the research programs in
nanotechnology include a section “Ethical, legal and societal issues”
(ELSI). The integration of an upstream reflection on ethical and societal
aspects of innovations undeniably constitutes a progress comparing
to the blind approaches of the past (justified by the saying “You can’t
stop progress!”). However, it remains insu cient for several reasons
that we will try to put forward.
Nanoethics and posthumanism
Mylène Botbol-Baum
If the technoscientific advancements suppose indetermination,
nanomedicine seems to develop without preliminary debate, which
goes against the notion of consent. However, nanomedicine is used in
hospitals, even though the majority of the patients are unable to define
it. Nanomedicine revives thus the dividing epistemological debate on
the ability of technoscience to free ourselves or to alienate ourselves
and to – at least – disturb the biological rhythms of the living with an
enhancement and/or therapeutic purpose.
This debate leads us to rethink the classical mechanistic
representations of the fears coming from the alteration of the “laws
of nature”, as if these were not subject to a permanent re-organisation
or self-organisation, from which new biopolicies possibilities or
thanatopolicies are emerging – without preliminary articulation of
risk and freedom.
The concept of self-organisation is too o en associated with some
kind of irresponsible freedom or pride of the control of ma er. We will
confront the classical mechanistic epistemology and the epistemology
of self-organisation in order to sketch – rather than a posthumanist
33
ethics justifying nanomedicine – a discourse, which would respond
to the questioning that nanotechnology operates on the dichotomy
between the living and the lifeless at the nanoscale in terms of disturbed
oscillations of the rhythms of the living, from which posthumanist
representations can emerge, which would not be opposed to humanist
values, but which would question their limits, or even their failures to
articulate the real to its representations.
This will allow us to question the inference whereby the notion of
technoscience and the idea of otherness loss are ineluctably associated,
in order to suggest that it could also contribute to elaborate a
forthcoming meaning, based on a less dualistic surveying between the
living and the lifeless, between the real and the knowledge of the real,
but also based on the impact on our capacity to assess enhancement
ethically.
Inequalities and anthropotechnics
Dominique Bourg
I will not address the issue of nanotechnology in general, but
rather in their contribution to anthropotechnics. I understand
anthropotechnics as the set of techniques aiming at the permanent
alteration of the functioning of the human body. The most ambitious
project a ributed to these techniques is an alteration of the biological
substratum of the human condition, in order to transform this
condition. I intend to show the di culties of such a project, and more
specifically in terms of universality. I do not know to what extent it is
possible to alter the human condition, but I fear that such a purpose
will only result in increasing inequalities within mankind.
Nanotechnology and ethics. Policies and strategies
Philippe Busquin
The UNESCO World Commission on the Ethics of Scientific
Knowledge and Technology has published a first report,
Nanotechnologies and ethics: policies and actions in 2008. This
independent organism constituted by decision-makers and scientists
from every continent is going to update this document, because
nanotechnologies are being developed rapidly, everywhere in the
world (more than 1000 products already commercialized). This shi of
34
paradigm questions by its potentialities, but also by its uncertainties.
Debates are necessary. The European Union is at the origin of numerous
conferences, and also researching codes of conduct – if possible
acceptable at a global level. The ethical stakes are fundamental:
transparency and responsibility in front of the public, risk assessment,
international cooperation, … Moreover, converging technologies lead
to another dimension, which is the risk of “transhumanism”; and they
question the meaning of human values. Finally, I have to mention the
“black hole” constituted by military research and the security issues
in these domains.
Europe’s collective experiment with nanotechnologies as a
construction of possible futures : political and ethical stakes
Jim Dratwa
Imagine the world a few decades from now. How would you like
it to be? This paper scrutinizes the ways in which futures are made
– and made to come to pass. It probes the role of ethics and social
sciences engagement as well as public engagement in shaping the
future with nanosciences and nanotechnologies. Firstly, it explores the
relations of the European Union (EU) with the future – with the very
endeavour of constructing futures. Secondly it examines the import
of sciences and technologies in this endeavour. Thirdly it analyses,
on the terrain of the EU institutions, contrasting narratives of – and
calls for – nanosciences and nanotechnologies. Finally, it provides a
critical appraisal of – and renewed vigour to – the engagement in the
collective experiment with nanosciences and nanotechnologies.
The European regulatory framework of nanotechnologies: ethics
between research and industrial development
Nicole Gallus
The jurist has to face an ever-increasing number of texts when it
comes to European law about nanotechnologies. This over-regulation
reflects the di culties generated by the uncertainties surrounding
nanomaterials and their risks, as well as by the application constraints
of the precautionary principle in front of these uncertainties and of
the motivations of the di erent stakeholders: scientists, industrialists,
consumers, regulators.
35
This contribution dedicated to European law viewed from an
ethical perspective goes beyond this normative complexity, focusing
the analysis of the law on three questions, which seem to constitute
the base for a necessary reflection.
The first tries to find a definition of nanomaterials and
nanotechnologies, susceptible to specify the scope of application of
the standard.
The second question intends to specify the aim of the standard in
terms of research, industrial development, protection of individuals
and the environment, an in terms of ethics.
Finally, the third question is about the content of the standard with,
more specifically, the questioning of the opportunity for a specific new
regulation or of a simple adaptation of the existing regulation.
Nanotechnology, nano-luddism, neo-luddism
Jean-Yves Go
Some think that the opposition between technophiles and
technophobes is obsolete. Nevertheless, in the debates and
confrontations about nanotechnologies, it is di cult not to consider
the pros and the cons as friends and enemies of technology – even
though they (dis)qualify each other as futurists or as neo-luddites.
We will examine several wri en documents from activists from
Grenoble, who are close to the radical group PMO (pièces et main
d’oeuvre) in order to understand their “arguments” as they are put
into action.
We will abstain from assessing the validity of these “arguments” in
the literal sense. Indeed, it seems that their authors do not really care
about establishing, in a conclusive way, that when the premises are
laid out, a conclusion necessarily follows. Rather, it is about troubling
the reader; this rhetoric dimension explains why we are speaking of
“arguments” instead of arguments without quotation marks. This
does not prevent these wri en documents from being e cient in their
own way: they create suspicion and interrogation, which is probably
their purpose.
36
We will suggest that these “arguments” are in fact more directed
against the techno-liberal modernity than against nanotechnology as
such. We will insist on the fact that this radical opposition is not led in
the name of the past, nor in the name of the present, nor in the name
of the future: it does not promise anything, it is a posture of pure
negation. In that sense, it leads to an infinite guerrilla warfare, which
will emphasize the shameful practices of their opponents, without
preventing them from reaching their aims.
Small particles, big issues. Nanotechnologies and ethics
Göran Hermerén
There are several nanotechnologies and many applications of these
technologies; and they raise partly di erent problems. According to
recent publications spectacular progress is made in many areas. These
technologies are used in the car industry, in aerospace industry, in the
chemical industry, in the pharmaceutical industry, in medicine and
biotechnology, in information and communication technologies, as
well as in the cosmetics and food industries.
But the spectacular progress does not mean that all ethical issues
are solved. Safety issues are obviously important. There are indications
that certain types of carbon nanotubes give rise to asbestos-like
pathogenic e ects related to their structure and length. Studies on
rats have shown that nanoparticles can be absorbed by inhalation and
then transported to the brain where they accumulate. But the extent
to which this gives rise to health hazards remains to be studied in
more detail. Li le is also known about the health impact of cosmetics
containing nanoparticles.
However, there is also a danger in focussing only on standards
of safety. An ethical analysis of any emerging technology needs to go
beyond risk assessment. In fact, excessive focus on risk assessment can
be a way of preventing other ethical issues from ge ing the a ention
they deserve. These issues range from anthropological issues to
consumer freedom, patenting, access and global justice.
There are several well-established ethical points of departure
for the discussion of such issues, including utilitarian ones, as well
as those based on human rights and human dignity. Fortunately, we
do not have to invent the wheel. For the policy debates on problems
37
raised by new and emerging technologies, like synthetic biology,
nanotechnologies, information and communication technologies,
a starting point can be found in the values enshrined in a number
of international documents from the UN, the EU and the Council of
Europe.
These documents have the advantage that they have been
discussed publicly and have managed to get political support. The
disadvantage is that they are somewhat vague, and are open to
several interpretations. But the positive side of this vagueness is that
it facilitates a living debate on the meaning and implications of the
articles in these documents. Communication, not just information,
is needed.
Perception, epistemics, and ethics : a triple perspective on the
specificity of nanotechnologies and their risks
Céline Kermisch
This paper analyses the specificities of nanotechnologies and their
risks, focusing mainly on the first generation of nanotechnologies. It
shows that specificities can be found at three levels: at the perception
level, at the epistemic and at the ethical levels.
When analysing the a itudes towards nanotechnologies and the
perception of their risks, two specificities stand out: the absence of
opinion about nanotechnologies and their risks and the fact that, to
the contrary of other technologies, scientists perceive higher risks
than the general public in the field of health and environment. At
the epistemic level, the di culties to define nanotechnologies as
substances, which are di erent from their non-nano-equivalent, are
shown. Moreover, the considerable uncertainties, associated with
the fact that the understanding of the processes potentially leading
to damage is very limited, are highlighted. At the ethical level, we
stress several particularities, among which the specificities of the
public debate as well as the di culties to frame nanotechnologies
symbolically, to require labelling and the application of the
precautionary principle, or to perform risk/cost/benefit analysis.
38
Nano-artefacts and the distinction between the natural
and the artificial
Peter Kroes
The main aim of this paper is to enquire whether the distinction
between natural objects and technical artefacts may be extended from
the macro-level to the nano-level. I start with an analysis of macrosized technical artefacts as human-made objects with a technical
function. Furthermore I will characterize the creation or making of a
technical artefact at the macro-level as the largely successful execution
of a design of that technical artefact. A consequence of this conception
of technical artefacts and their making is that technical artefacts are
mind-dependent objects. Whether or not a human-made object is a
technical artefact or not depends on its intentional history. An analysis
of various kinds of human-made nano-objects (atoms, molecules and
other nano-constructions) shows that this characterization of technical
artefacts and their making may be extended to the nano-domain. So,
there is no need to revise the distinction between the natural and the
technical when going from macro-objects to nano-objects. I also argue
that it may be more di cult to ascertain whether a human-made object
has the requisite intentional history to qualify as a technical artefact at
the nano-level than at the macro-level. But this is an epistemological
di erence, not an ontological one, that may create specific problems
with regard to, for instance, the patenting of nano-objects.
Questioning toxicity of nanotechnology. “What do we know about
the impacts of nanotechnology on the individuation of the living?”
Yannick Mwape
In the early 21st century, nanotechnology constitutes a major
development pole in scientific research. Its expansion comes
increasingly across the deepening of ever more precise knowledge of
the molecular mechanisms at the base of the organisation of the living
as well as the neuronal regulation ways of cerebral activity. Therefore,
we speak about a NBIC convergence, in which nanotechnology
would become the interface between molecular biology, information
technology, cognitive science and neuroscience. This leads to several
questions about the way nanotechnology invites us to consider living
beings…
39
Indeed, can we be satisfied with a conception of the living as
a collection of objects, which can be reduced to their molecular
components (at the nanometer scale), as suggested by the imaginary
world which goes with the discourse of nanotechnology promoters?
Today, however, biology reveals a whole other image. Molecular
biology, development biology, ecology or cytology are about systems
resulting from complex organisational processes, which lead to the
emergence of autonomous units never totally completed.
In this paper, we propose to examine how toxicology is probably
one of the disciplines where this shi of paradigm cannot be neglected.
It is all the more questioning that toxicology reflects directly the
reality of interactions between an organism and these new nanoobjects from which we expect so many a ermaths. We will see how
taking the question of toxicity into consideration keeps us away from
all the simplifying presuppositions, which would neglect the complex
dimension of living beings.
Do new technologies give rise to new ethical issues?
Some reflections on nanotechnology
Martin Peterson and Marc J. de Vries
This paper has two aims. The first is to answer the question stated
in the title: Is there anything special or novel about the ethics of
nanotechnology? We argue that the answer is yes, but claim that this
thesis is not as trivial as one may think. The mere fact that a novel
technology has a huge impact on society, or has e ects that were
previously unheard of, does not entail that the ethical aspects of the
technology in question are novel. In many cases, old ethical principles
and concepts can be used for analysing novel technologies. The second
aim of the paper is more specific: By analysing the risks of certain
types of nanotechnology, we bring more clarity to the ethical aspects of
these novel technologies and thereby exemplify our claim that in some
cases novel technologies do actually give rise to novel ethical issues.
Our point is that some novel moral choice situations brought about
by novel technologies cannot, in a strong sense, be properly analysed
by applying old moral principles and old moral concepts. This is
not because a proper analysis of these novel choice situations would
require some fundamentally di erent principles or concepts. The
reason is that some novel technologies make it impossible, in a strong
40
sense, to apply the old moral principles and concepts we are familiar
with. Our existing principles and concepts need to be refined and
developed further. We use the expression “blurred ethical boundary”
for referring to cases in which the introduction of a novel technology
makes some traditional ethical principle or concept inapplicable. In
such situations, there is no determinate answer available, not even
for an agent who has access to all relevant empirical facts, to how an
ethical principle or concept should be applied.
The heterogeneity of nano-objects : two new methods for a generic
ethics
Marie-Geneviève Pinsart
This paper focuses on a particular type of nano-objects, the ones
composed of artificial device and living organism. It challenges the
epistemological and ethical conceptions, which considers the nanoobject and the ethical principles/values as pre-existing facts discovered
or constructed by specific disciplines (sciences or ethics), as separate
ontological and epistemological facts, and as facts needed for a public
debate on the ethical aspects of nano-objects.
We are making two hypotheses: first that the knowledge about
nano-objects (mixing artificial device and living organism) is a generic
knowledge about heterogeneous objects, and second that a generic
knowledge requires a generic ethics. It is impossible to make an
intuitive synthesis of a heterogeneous object because it is unspecified
and its construction depends on intentions and on people involved.
This has important consequences for ethics, as it becomes a generic
ethics that has an unspecified dimension and that depends also on
intentions and on people involved.
We suggest two methods for implementing this kind of ethics
adapted to heterogeneous nano-objects: 1. a method pu ing in
brackets one element of the reflection in order to evaluate its impact
on the other aspects of the problem or to try to find its specificity in a
new manner; 2. a method adapting the ethical matrix of Ben Mepham
where ethical values are not determined in advance.
This paper intends to extend in the nano area the results of a
research conducted in 2007-2010 by the ANR (France) on the aquatic’s
GMOs.
41
Nanotechnologies and “responsible innovation” :
on the governmentality of a concept
François Thoreau
Nanotechnologies set the stage for the rise of an important
discourse in public policies around the idea of a “responsible
innovation”. This development has already been documented in
numerous ways and it is today recognized that this idea do ma er to
whom has an interest in the politics of nanotechnologies. However,
few extensive studies so far are a empting to come to grasp with this
concept, its contested meanings and, eventually, which political order
it suggests. Our contribution identifies a deep tension that underpins
the concept of “responsible innovation”, which it undertakes in order
to be er understand its governementality, i.e. the way it intends to
exert power relations through public policy instrumentation. For this
purpose, this chapter deals first with the implications of the choice
to use the term “responsibility”, on a theoretical level, as this term
significantly evolved through social sciences. From these, it o ers a set
of hypothesis, which it then confronts to the practices of “responsible
innovation” in public policies instrumentation, in order to be er
understand which political order this concept is currently stabilizing.
In particular, broad strategic plans are addressed, both from US and
EU and more specifically some of their practical implementations. By
the end, our chapter a empts to unfold the answers through which
“responsible innovation” deals with its own fundamental tension.
The quest for the “right” impacts of science and technology.
An outlook towards a framework for responsible research and
innovation
René von Schomberg
A strategy towards responsible research and innovation is
proposed, which is in particular applicable to the area of Nanosciences
and Nanotechnologies research and innovation. The features of
such a strategy, which addresses both the «product» and «process»
side of research and innovation will be discussed. At the product
side, a responsible research and innovation strategy needs to take
into account various assessments (foresight, technology assessment,
etc.) and applying the precautionary principle. At the process side,
42
including societal actors into the innovation process, deploying so
law mechanisms such as codes of conducts, making ethical principles
a driving force for innovation and promoting public debate are
essential elements for such a strategy. This strategy implies a shi
of emphasis from «risk» governance to «innovation» governance of
emerging technologies.
43
Première partie
Enjeux philosophiques et éthiques
Nano-artefacts and the distinction
between the natural and the artificial
Peter Kroes1
Introduction : the natural versus the artificial
When we are dealing with macro-objects the distinction between
the domain of natural and the domain of artificial things and processes
plays an important role in human thinking and doing. For instance, in
most countries patents may be obtained for a specific kind of artificial
things, namely inventions, if these inventions satisfy certain criteria but
patent laws forbid patents on natural things2. Roughly, the distinction
between the two domains is still drawn in an Aristotelian way as the
distinction between on the one hand objects and phenomena that have
come about without human intervention, that is, have come about by
their own nature or principle of motion/evolution, and on the other
hand objects and phenomena created intentionally by human beings.
For various reasons the distinction may be and has been put into
question. First of all, the distinction raises fundamental issues about
the place of human beings in relation to nature: Are human beings
an integral part of nature and, if so, does that not imply that what
humans make, even if they do so intentionally, is also an integral part
of nature? Furthermore, it turns out to be di cult to draw a clear
boundary line between the two domains. Is, e.g., a cultivated flower
an artefact or a natural thing? I will not enter into a discussion of these
issues. In my opinion they do not undermine the claim that, leaving
issues about borderline cases aside, the distinction between the natural
and the artificial may be made in a coherent way and that it plays a
fruitful conceptual role in various contexts at the macro-level.
The main problem to be addressed in this paper is whether the
distinction between the natural and the artificial, more in particular
1
Del University of Technology
For a discussion of the notion of invention from a legal point of view, see
(Vaver 2003).
2
47
between the natural and the technical, can be extended from the macrodomain to the domain of nano-objects and nano-processes. Is it possible
to distinguish between technical artefacts and natural things at the
nano-level in the same way as at the macro-level? In order to explore
this, I start with a characterization of the distinction between technical
artefacts and natural things at the macroscopic level and with a brief
discussion of what it means to make or create a technical artefact at
the macro-level (section 2). Against this background I discuss whether
various kinds of nano-objects produced by human beings, including
atoms, molecules and other nano-constructions, may be characterized
as technical artefacts (section 3). My overall conclusion (section 4) will
be that the distinction between natural objects and technical artefacts
makes sense at the nano-level but that issues about whether a humanmade object is a technical artefact or not may come up much more
prominently at that level than at the macro-level. One of the reasons
for this is that at the nano-level it is more di cult to ascertain whether
a human-made object has the requisite intentional history.
The natural and the artificial at the macro-level
The world in which we life is to a large extent a world created by
humans and therefore largely an artificial world. Here we will confine
our a ention to a particular sub-domain of this artificial world, namely
the technical world. The technical world is made up of technical artefacts
such as screwdrivers, knifes, telephones, cars, staplers, computers,
bricks, roads, et cetera (and technical processes). We live our life with
and through them. In contrast to natural things, such as rocks or birds,
these technical artefacts are objects with a function or a “for-ness”:
they are means for doing things, that is, they are means to be used
for realizing certain ends. So, technical artefacts may be characterized
as human-made physical constructions that fulfil practical functions.
Alternatively, they may be characterized as useful physical objects that
are based on or embody intelligent human designs. On both, more
or less equivalent, characterizations technical artefacts are the result
of human mental and physical work. This conception of technical
artefacts leaves lots of room for borderline cases, for one may rightly
ask just how much human mental and physical work is necessary to
turn, e.g., a piece of flint stone into an instance of the technical kind
48
knife. In my opinion we do not pass a “natural” neatly defined point
beyond which objects become natural if we trace back the lineage of
modern knifes to their flint stone predecessors. However, the fact that
there is a continuous spectrum running from natural flint stones (that
may be used as knifes) to modern day knifes does not invalidate the
claim that the la er are paradigmatic examples of technical artefacts
and the former of natural things3.
At the macroscopic level paradigmatic examples of technical
artefacts are therefore distinct from natural objects because (1) they
are human-made and (2) have functional features. Both aspects are
of crucial importance. Biological organs have functional features but
are not human-made and thus not technical artefacts. Moreover, the
functional features of biological organs (biological functions) are not
related to human use in contrast to the functional features of technical
artefacts; humans do not “use” their heart to pump blood.4 Likewise,
a piece of flint stone used for practical purposes is not a technical
artefact if it has not been cra ed by humans for that purpose (if it is to
be considered something technical at all, it may be considered to be a
technical object). Functional features also play a crucial role in being a
technical artefact. A human-made physical object without functional
features is not a technical artefact. Take an object like a screwdriver.
The physical object corresponding to the screwdriver is human-made,
but it is not a technical artefact. The reason is that that physical object
lacks functional features. What makes the human-made physical
object into a technical artefact are its functional features (the form of
the tip of the screwdriver has a particular function, as has the handle
and the sha et cetera). These functional features tie technical artefacts
inherently to practices of human action.
In order to further clarify this di erence between natural objects
and technical artefacts is helpful to have a closer look at what it means
to make or create a technical artefact at the macro-level. Unfortunately
there is no standard “philosophy of creating or making” that may
3
Similar arguments can be made with regard to the smooth transitions
between biological technical artefacts and natural organisms and between
technical artefacts and social artefacts; see (Kroes forthcoming).
4
Human-made biological organs (for instance, grown from stem cells), if
made for practical purposes (to replace malfunctioning human organs) are to
be considered technical artefacts; they are used and thus related to practices
of human action.
49
be of help in dealing with this problem. I will approach it from an
ontological perspective. Creating a technical artefact then amounts to
adding a new (kind of) object to the ontology of the world. Under
what conditions does human mental and physical activity result in an
object that enriches an ontology? The answer to this question depends
heavily on assumptions about what kind of objects may be part of the
ontological structure of the world. Suppose that the basic ontology of
the world is taken to consist of elementary physical particles and that
all other things are considered to be ontologically reducible to these
particles. From such a physicalist position the creation of technical
artefacts has no ontological significance. The creation of a (technical)
artefact amounts to nothing more than rearranging some of the basic
ontological constituents of the world, that is, rearranging elementary
physical particles. From this perspective Michelangelo only rearranged
elementary physical particles when he created the statue David. This
statue itself is not part of the ontology of the world; it is nothing else
then a bunch of particles arranged “David-wise” and so Michelangelo
did not add anything to the ontology of the world. Similar arguments
apply to the creation of technical artefacts. By inventing and making
his gramophone Edison did not add anything to the ontology of the
world, since a gramophone is nothing else than elementary particles
arranged gramophone-wise.
In the following I will assume that technical artefacts may be
ontologically significant (real) in the sense that a world with technical
artefacts such as cars, computers and cell-phones is ontologically
di erent from a world without those artefacts. So, human creations
such as technical artefacts and (physical) works of art may be genuine
parts of the ontology of the world. But of course not any human
creation that is claimed to be a technical artefact is ipso facto part of
the ontology of the world. For instance, somebody may claim to have
invented and made a new kind of cell phone but if it turns out that it
does not work at all, then (s)he has not enriched the ontology of the
world with a new kind of technical artefact. At most (s)he has added
a piece of junk to the ontology of the world. So, what conditions have
to be fulfilled in order for the outcome of human mental and physical
work to be a genuine technical artefact and as such is an element of the
ontology of the world?
For an interesting way of dealing with this question I turn to the
work of Amie Thomasson (Thomasson 2003, 2007). She has worked
50
out a theory about when an object is an instance of an artefact kind.
According to this theory, and object x is an instance of an artefact
kind K if and only if x is the result of a largely successful execution
of a largely correct substantive idea of a K-er. So, the ontologically
significant creation of an artefact involves mental and physical work :
the mental work of forming a largely correct substantive idea of what
kind of artefact is being created and the physical work of executing
that idea, that is, of materially realizing that idea. Thomasson’s theory
is a theory about artefact kinds in general. When applied to technical
artefact kinds, the largely correct substantive idea amounts to a largely
correct design and the largely correct execution to making a physical
construction that satisfies the list of specifications which is part of the
correct design. Thus, an object x is an instance of a technical artefact
kind K if and only if x is the result of a largely successful realization of
a largely correct design of a K-er (for more details, see (Kroes 2010)).
A consequence of the above conception of technical artefacts is
that they are mind-dependent entities. The intentions (mental states)
of the maker are of critical importance for something to be a technical
artefact. Somebody who makes a physically exact copy of an existing
technical artefact, but who does not know what (s)he is making, is not
making a technical artefact, but instead makes a human-made physical
construction that lacks any functional features. Earlier I characterized
technical artefacts as physical constructions with functional features.
In contrast to the physical features of technical artefacts these
functional features are, however, not intrinsic properties of technical
artefacts. They are relational properties, since they are related to
human intentions (human ends); it is only in relation to human
intentions (ends) that technical artefacts have functional features.
These functional features are also related to the physical properties
of technical artefacts, since the physical construction has to realize the
function. This means that technical artefacts have a dual nature; they
are human-made objects with physical features and with functional
(intentions-related) features. Both kinds of features are constitutive
for being a technical artefact5.
5
For more information about the dual nature view of technical artefacts, see
(Kroes 2006)
51
The natural and the artificial at the nano-level
With this view on technical artefacts and on how they are made
at the macro-level in mind, I will now turn to the nano-level. Can this
view be extended to that level? In order to explore this, I will consider
the making of various kinds of objects at the nano-level and discuss
whether the human-made objects involved are to be considered
artificial or natural objects and, if artificial, whether we are dealing
with technical artefacts.
The first human-made nano-objects that I will consider are atoms
of the element Americium. It is one of the transuranic elements with
atom number 95. This element has a very short lifetime in comparison
to the age of the Earth and as a result atoms of Americium do not occur
naturally in our environment. They have to be made “synthetically”
or “artificially” in the laboratory6, usually with the help of particle
accelerators or nuclear reactors. The first human-made specimen of the
element Americium was produced by Seaborg in 1946. He applied for
a patent on the element and some of its isotopes; it was granted in 1964
(United States Patent O ce, no. 3,156,523). This is rather surprising,
for as I will argue Americium atoms, in spite of the fact that they are
human-made, are not human inventions; they are natural objects and
not artificial ones, and natural objects, not being human inventions,
are not eligible for patents.
In order to make clear why it is a natural thing it is instructive to
compare an Americium atom with a macroscopic technical artefact,
for instance a stapler (see Table 1). Both objects involve human-made
physical constructions that do not occur naturally (by themselves or
“from their own nature”) on Earth. However, whereas the Americium
atom as such has no technical function, the stapler has. Without its
functional features the physical object referred to as “stapler” is not a
stapler, but just a human-made physical construction; as I noted before,
functional features are constitutive for being a technical artefact. This
di erence in functional features is related to the fact that the stapler is
a physical object that is based on a human, intelligent design, whereas
this is not true for the Americium atom.
6
See h p://www.scienceclarified.com/El-Ex/Element-Chemical.html
52
Americium Atom
Stapler
Human-made physical object
Human-made physical object
Not occurring naturally on Earth
Not occurring naturally on Earth
No technical function by itself
Technical function by itself
Not based on intelligent design
Based on intelligent design
Natural object
Technical artefact
Table 1 Comparison of Americium atom with a technical artefact
The main reason why in my opinion the Americium atom, in
spite of the fact that it is a human-made thing, is a natural object and
not an artificial one is that none of its properties has been designed
into it. None of the physical properties of an Americium atom is the
outcome of a to some extent free human decision to make it that way,
with that property and not otherwise; all physical properties it has, it
has by itself or from its own nature. There are so to speak no degrees
of freedom to shape an Americium atom7. Therefore, an Americium
atom is not a human invention. In this respect there is no di erence
between an Americium atom as a human-made object and any other
naturally occurring atom, such as an Oxygen atom. I see no reason to
classify one as an artefact and the other as a natural object. This is in
line with Thomasson’s conception of what makes an object an artefact.
A human-made Americium atom is not the outcome of a largely
successful execution of a largely correct substantive idea of being an
Americium atom, if it is assumed that that substantive idea involves
properties determined by human decisions8.
7
This is also true if we take the isotopes of Americium into account. We are
of course free to create Americium atoms with mass number 241 and 242 (in a
similar vein as we are free to create Americium atoms in a certain exited state).
However, the physical property of Americium atoms that it has these isotopes
(or exited states) is not a humanly created property. It has these properties
by “its own nature” and these properties are part of what it means to be an
Americium atom. In other words, we are free to create Americium atoms in
various forms, but all these forms are natural forms and not artificial ones,
since we are not free to shape these forms themselves.
8
The assumption that the substantive idea of an object must involve properties
based on human decisions is necessary because otherwise Thomasson’s
conception of an artefact runs into di culties. Suppose that a physicist has
a correct substantive idea of what a natural Americium atom is and correctly
builds one (correct execution) from elementary particles. Is the resulting
53
Note that I am not claiming that specimens of Americium (objects
made of Americium) are natural things. Specimens may be made with
certain intended properties in mind (for instance, weight or form)
and according to the above line of reasoning that would make them
artefacts; they have “human-made” properties. Moreover, if these
properties are related to technical functions then the specimens are
technical artefacts, just as a specimen of iron shaped in a specific
functional way is a technical artefact. So if Seaborg would have been
granted a patent on a specific kind of useful specimen of Americium,
this might not have been so problematic. However, he was granted a
patent on the element itself. My claim is that (an atom of) the element
Americium is a natural thing, not a human invention, and that
therefore it should not be eligible for a patent.
So, both the Americium atom and the stapler are human-made
objects, nut nevertheless the former is a natural object and the
la er a technical artefact. The reason for this di erence is related
to an ambiguity in the notion of making or creating something. In
order to unearth this ambiguity I briefly turn to Ian Hacking’s claim
that physical phenomena are created (Hacking 1983)9. In his book
Representing and Intervening he claims that in experiments phenomena
are created by the scientist. He rejects the idea that experimental
scientists discover phenomena in the world. “To experiment” in his
own words (Hacking 1983, p. 230 and 222) “is to create, produce, refine
and stabilize phenomena”, a phenomenon being “something public,
regular, possibly law-like, but perhaps exceptional”. Discussing the
example of the Hall e ect, he states that this e ect was not found by
Hall simply because it did not exist before Hall succeeded in producing
this e ect in the laboratory. It was literally created by him, because
this e ect does not exist without the appropriate experimental setup.
If science would have taken another historical path, the Hall e ect
might never have been created.
The most striking feature of Hacking’s view is that it suggests a
Americium atom a natural object or an artefact? The object made is intended
to be a copy of a natural object but satisfies Thomasson’s definition for being an
artefact. So, is it a natural object or an artefact? From a physical point of view, there is
no di erence between the natural and the human-made Americium atom and therefore
from that point of view they may both be considered natural atoms.
9
For an extensive discussion and criticism of Hacking’s view of creating
phenomena see (Kroes 2003).
54
rather strong parallel between experimental science and technology.
The classic distinction between the two is related to the idea that
the engineer creates (invents) whereas the scientist discovers. But
according to Hacking not only the engineer creates things (technical
artefacts), also the experimental scientists creates things (phenomena).
But does this parallel imply that experimental phenomena are created
in just the same sense as technical artefacts are? Are experimental
phenomena therefore also artificial phenomena and may they be said
to be human inventions?
The answers to these questions depend on the interpretation of
the claim that phenomena are created. This claim may be interpreted
in a weak and strong sense. In the weak sense, creating phenomena
means creating the occurrence of phenomena, i.e., creating the proper
initial and boundary conditions for a phenomenon to take place. In
the case of Americium atoms, creating an Americium atom means
creating the conditions for an Americium atom to appear, not creating
or shaping the properties of an Americium atom itself. If we interpret
Hacking’s claim in this weak sense we end up with a position that is
very close to the traditional one according to which experimentalist
study natural phenomena. In the strong sense, creating phenomena
means not only that the occurrence of a phenomenon is triggered by
creating the appropriate conditions, but also that all or some of the
properties of the phenomenon itself are created by the experimentalist.
Although Hacking stresses that in his opinion phenomena are literally
created, it is quite obvious that this expression should be taken in the
weak sense. Otherwise, as Hacking remarks, we would be driven into
“some sort of ultimate idealism in which we make the phenomena”,
i.e., in which we invent the phenomena (Hacking 1983, p. 220).
In my opinion, the creation of physical phenomena is not to
be confused with the creation of technical artefacts. Much more is
involved in creating a technical artefact than realising a specific set of
boundary conditions that triggers the occurrence of certain physical
phenomena. What happens when technical artefacts are created is
that objects are made with physical and functional properties that are
the result of human (design) decisions. So, the creation of a technical
artefact is the creation of an object in the strong sense. Whereas the
creation of an Americium atom is a weak form of creation, the creation
of a stapler involves creation in the strong sense. This di erence is the
reason why an Americium atom, in spite of the fact that it is human55
made, is nevertheless a natural object and that a stapler is a (technical)
artefact.
Let us move on to other kinds of nano-objects. Nothing much
changes when instead of the making of Americium atoms that do not
occur naturally on Earth we consider the making of atoms that do, for
instance, Oxygen atoms. Also these can be made artificially, but still
we are dealing with natural and not artificial objects. Now, what about
the making of molecules, such as an acetylsalicylic acid molecule
(ASA-molecule), which is the active component of an Aspirin pill? An
Aspirin pill, as a macro-specimen of acetylsalicylic acid, is a humanmade object and has a practical/technical (medical) function and so is
a technical artefact. But here we are interested in technical artefacts at
the nano-level. What is an individual, human-made ASA-molecule:
Is that a natural or an artificial object, and if the la er, is it a technical
object? On the one hand, the same applies to an ASA-molecule as
to an Americium atom. ASA-molecules do not occur naturally on
Earth; they are human-made. However, none of the physico-chemical
properties of an ASA-molecule is based on a human design decision.
All its properties are determined by the atoms of which the molecule
is composed, its structure and the laws of nature. There are no design
parameters that have to be fixed in order to shape all the physicochemical properties of an ASA-molecule. According to this line of
reasoning, an ASA-molecule is a natural object.
On the other hand, from a brief look at the history of Aspirin
a di erent picture emerges. The medical e ects of Aspirin are due
to salicylic acid, a chemical compound that occurs naturally, in for
instance, willows. The use of medicines made from willow bark
extract dates back to Antiquity. From the beginning of the Nineteenth
Century chemist have tried to artificially make the active component
in this extract. In the course of time various chemical substances
related to salicylic acid have been tried as a medicine but these had
negative side e ects10. Finally, the artificially produced substance
acetylsalicylic acid turned out to be the most e ective one and was
produced and marketed as Aspirin. From this perspective it seems that
ASA-molecules, as a medicine against fever, pain and inflammation,
were more or less intentionally designed. The salicylic acid group is
included because of its positive medicinal functions and the acetylgroup was deliberately added to the active component because it
10
56
See h p://en.wikipedia.org/wiki/History_of_aspirin.
did not have the negative side e ects that other groups had. So, the
structure of ASA-molecules appears to be the result of particular
design decisions. From this perspective it seems that an ASA-molecule
is a technical artefact at the nano-level.
ASA-molecule
Aspirin molecule
t
Human-made physical objec
Human-made physical object
Not occurring naturally on Earth
Not occurring naturally on Earth
No technical function by itself
Technical function by itself
Not based on intelligent design
Based on intelligent design
Natural object
Technical artefact
Table 2 Comparison of ASA-molecule with an Aspirin molecule
Although it may sound paradoxical, both conclusions are right:
an ASA-molecule as a chemical compound is a natural object and
an ASA-molecule as a medicine against fever et cetera is a technical
artefact. These claims do not contradict each other because they are
claims about two di erent kinds of objects. In order to make this clear
let me introduce the notion of an “Aspirin molecule”. An Aspirin
molecule is defined as a human-made molecule for curing fever, pain
and inflammation and of which the active component is salicylic acid.
So, an Aspirin molecule has a certain function. This function may be
realized by designing and making Aspirin molecules in di erent ways.
Di erent chemical groups may be added to the active component
resulting in Aspirin molecules with di erent chemical constitution
and di erent medical e cacy. Aspirin molecules satisfy the criteria for
being technical artefacts (see Table 2) : they are human-made objects
that have a function and they are based on an intelligent design. If
we abstract from this medical function, then what is le is simply an
ASA-molecule, a physical (chemical) object. All of this is in line with
my characterization of technical artefacts at the macro-level in section
2: if we abstract from the functional features of a technical artefact,
then what is le is simply a (human-made) physical object.
So, the intentional history ma ers when we are dealing with the
question whether an ASA-molecule is a natural object or a technical
artefact (an Aspirin molecule). In this respect there is no di erence
between the macro- and the nano-level. However, there appears
to be a significant di erence between both levels when it comes to
recognizing whether a human-made object has the appropriate
57
intentional history for being a technical artefact. At the macro-level
this is o en not problematic. More than two centuries ago, Paley
remarked that when we examine a watch, what we see are (Paley 2006
[1802], p. 14): “contrivance, design; an end, a purpose; means for the
end, adaptation to the purpose. And the question, which irresistibly
presses upon our thoughts, is, whence this contrivance and design.
The thing required is the intending mind, the adapting hand, the
intelligence by which that hand was directed.” Indeed, for many
macro-objects we do not need to know their actual history to ascertain
that they have a certain purposefulness and that this purposefulness
is directly related to and derived from their design which is linked to
the intentionality of a human designer and therefore to ascertain that
they have a relevant intentional history for being technical artefacts.
At the nano-level this may be much more problematic. Without
knowledge of the history of an ASA-molecule it may di cult if not
impossible to tell whether that molecule has the relevant intentional
history for being an Aspirin molecule. Assuming that these molecules
do not occur in nature, all that may be concluded that it is an artefact
(an artificial or synthesized molecule), but that does not mean it is
a technical artefact. With regard to a synthesized molecule that also
has a natural counterpart it is even impossible to tell whether we are
dealing with a natural or an artificial molecule if we do not know its
history. The same situation may occur with regard to macro-objects
(e.g., with regard to natural and synthetic diamonds). These issues,
however, are primarily of an epistemic nature and do not undermine
our ontological view on the di erence between natural objects and
technical artefacts at the nano-level.
When we move on from Americium atoms and ASA-molecules
to nano-constructions such as Carbon nanotubes the situation again
changes. As far as their physical properties are concerned, Carbon
nanotubes have, in contrast to Americium atoms and ASA-molecules,
various degrees of freedom (for instance, the length or the diameter
of the tubes)11. This opens up the opportunity to intentionally make
Carbon nanotubes of a particular form for technical reasons, that
is, to design and make Carbon nanotubes with functional features.
Because of this, it may be easier to ascertain whether a particular
Carbon nanotube is a technical artefact or not than in the case of an
ASA-molecule, especially in cases where Carbon nanotubes are used
11
See h p://en.wikipedia.org/wiki/Carbon_nanotube.
58
in combination with other nano-objects, for instance, in the case of a
single carbon nanotube GHz transistor12. With regard to such humanmade nano-objects there appears to be no di erence in comparison to
human-made macro-objects when it comes to ascertaining whether or
not we are dealing with technical artefacts or not.
Summary and discussion
I have characterised macro-sized technical artefacts as humanmade objects with a technical function. Moreover, inspired by
Thomasson’s work on artefact kinds, I have analysed the creation
or making of technical artefacts at the macro-level as the largely
successful execution of a largely successful design of that technical
artefact kind. A consequence of this conception of technical artefacts
and their making is that technical artefacts are mind-dependent
objects. Whether or not a human-made object is a technical artefact
or not depends on its intentional history. An analysis of various
kinds of human-made nano-objects shows that this characterization
of technical artefacts and their making may be extended from the
macro-domain to the nano-domain. So, there is no need to revise the
distinction between the natural and the technical when going from
macro-objects to nano-objects. I have also argued that it may be more
di cult to ascertain whether a human-made object has the requisite
intentional history to qualify as a technical artefact at the nano-level
than at the macro-level. But this is an epistemological di erence, not
an ontological one.
Just as there is no sharp boundary line between natural and
technical objects at the macro-level, there is no sharp boundary
between the two domains at the nano-level. Controversies about how
much physical and mental human work minimally has to be involved
in making a technical artefact will remain. At the nano-level such
controversies may be compounded with epistemological issues about
ascertaining whether an object has the appropriate intentional history
for being a technical artefact. Especially with regard to patens on nanoobjects this mind-dependency may lead to problems, since as Koepsell
remarks: “According to the current legal ontology of patent, an object
that is morphologically identical to another may yet be considered to
12
See h p://www.lpa.ens.fr/spip/spip.php?article296&lang=en.
59
be di erent in a legally significant way allowing the patent on one
but not the other. All objects thus must have a structural quality, and
a genetic quality, and if both are the result of some human intention,
and meet the other criteria of patent (new, useful, and non-obvious),
then they may be patentable” (Koepsell 2011, p. 54). According to
Koepsell this situation will result “in an impossibly complex nanotech
future in which each new nanotech component could become
patented, and tracking the ownership rights of any useful nanotechbased artefact would become a pragmatic impossibility” (Koepsell 2011,
p. 54). A discussion of whether this will be indeed the case and of
what the implications are or ought to be for patent law falls outside
the scope of this article. Su ce it here to remark that such a discussion
may also involve moral issues about what kind of nano-objects are
to be considered to belong to the “commons” of humankind and for
what kinds of nano-objects private property rights may be granted
by patent law. In closing, let me just point to a kind of Litmus test
that may be of help in deciding whether a human-made nano-object
is a technical artefact or not. Whenever it makes sense of a humanmade nano-object to claim that it malfunctions, then that is a sure sign
that the object is a technical artefact. With regard to a human-made
Americium atom or an ASA-molecule it simply does not make sense
to say that it malfunctions. That is not true for an Aspirin molecule: an
Aspirin molecule in which the salicylic acid group is combined with
a another group that seriously diminishes the positive curative e ect
of the salicylic group and/or has serious side-e ects malfunctions.
Technical artefacts, whether at the macro- or the nano-level, are open
to normative judgements in contrast to natural objects. For a discussion
of how this normativity of technical artefacts is to be interpreted, I will
have to refer to the relevant literature13.
Références
Franssen M., “The normativity of artefacts”, Studies in History and
Philosophy of Science 37(1), 2006, pp. 42-57.
Franssen M., “Artefacts and normativity”, in Me ers A. (ed.), Handbook
of the philosophy of technology and the engineering sciences, Elsevier
Science, 2009.
13
See (Franssen 2006, Franssen 2009).
60
Hacking I., Representing and intervening; introductory topics in the
philosophy of natural science, Cambridge, Cambridge University
Press, 1983.
Koepsell D., Innovation and nanotechnology; converging technologies and
the end of intellecutal property, London, Bloomsbury Academic,
2011.
Kroes P., “Physics, experiments and the concept of nature”, in Radder
H. (ed.), The philosophy of scientific experimentation, Pi sburgh,
University of Pi sburgh Press, 2003, pp. 68-86.
Kroes P., “Engineering and the dual nature of technical artefacts”,
Cambridge journal of economics 34, 2010, pp. 51-62.
Kroes P., Technical artefacts: creations of mind and ma er, Dordrecht,
Springer (forthcoming).
Kroes P. and Me ers A., “Special Issue on the Dual Nature of Technical
Artefacts”, Studies in History and Philosophy of Science 37(1), 2006.
Paley W., Natural theology: or, evidence of the existence and a ributes of the
deity, collected from the appearances of nature. Oxford, Eddy M. and
Knight D.M. (eds.), Oxford University Press, 2006 [1802].
Thomasson A. L., “Realism and human kinds”, Philosophy and
Phenomenological Research 67(3), 2003, pp. 580-609.
Thomasson A. L., “Artifacts and human concepts”, in Laurence S. and
Margolis E. (eds.), Creations of the mind: essays on artifacts and their
representations, Oxford, Oxford University Press, 2007, pp. 52-73.
Vaver D., “Invention in patent law : a review and a modest proposal”,
International journal of law and information technology 11(3), 2003,
pp. 286-307.
61
L’hétérogénéité des objets nanos :
deux nouvelles méthodes pour activer une
éthique générique
Marie-Geneviève Pinsart14
La réflexion que je voudrais partager avec vous s’est formée suite
à ma participation à un projet de recherche nommé non sans humour
DOGMATIS, c’est-à-dire « Défi des OGMs Aquatiques, Impacts et
Stratégies »15. Ce projet financé par l’Agence Nationale de la Recherche
dans le cadre du programme ANR-OGM a associé, de 2007 à 2010,
des biologistes, philosophes, sociologues, économistes et juristes pour
aborder les di érentes face es des poissons génétiquement modifiés,
un sujet de réflexion encore peu évoqué. Depuis 20 ans, les techniques
de transgénèse sont utilisées chez les poissons. Actuellement, des
poissons d’aquarium modifiés pour devenir fluorescents sont
commercialisés en dehors de l’Europe. Depuis quelques années, la
firme Aquabounty tente d’obtenir aux USA une demande de mise sur
le marché de lignées de saumon à croissance rapide.
Les réflexions que je vais développer prolongent dans le domaine
des nanotechnologies les résultats d’un travail collectif au sein du
groupe des philosophes de Dogmatis, celui que j’ai mené avec AnneFrançoise Schmid (INSA, à Lyon) - à qui elles doivent beaucoup-, Lyne
Létourneau (Université de Laval, à Québec) et Léo Coutellec (INSA,
à Lyon)16. Je vais cibler mon intervention sur ce qui me semble être
dans le projet Dogmatis le plus fécond pour penser la spécificité des
14
Université Libre de Bruxelles
Actes du colloque Dogmatis, Paris, 22-23 novembre 2010 : projet ANR-OGM
2007-2010 organisé par l’ANR et sous la coordination de Muriel Mambrini-Doudet :
h ps://colloque4.inra.fr/dogmatis/Les-actes-du-colloque
16
Léo Coutellec a soutenu une dissertation doctorale sur les Conditions et
portées d’une intégrité épistémique et éthique des sciences. Eclairages à partir de la
question des poissons génétiquement modifiés, le 8 décembre 2011, à l’INSA de Lyon.
De plus amples informations sur les recherches et les publications de Léo Coutellec
sont disponibles sur son blog : h p://leocoutellec.wordpress.com/
15
63
objets nanotechnologies et leurs dimensions éthiques. Une précision
de vocabulaire s’impose pour lever tout malentendu : lorsque je parle
« d’objet nano », je restreins ce e appellation à un mixte de machine
et de vie comme ce que fait, par exemple, l’ingénierie tissulaire qui
crée des objets hybrides alliant des matériaux nanostructurés et des
cellules vivantes pour remplacer des tissus défaillants. Je livre ici un
premier exercice de pensée que je compte poursuivre en interrogeant
d’autres types d’objets nanotechnologiques.
Il serait intéressant, mais je ne m’y a arderai pas, d’analyser la
manière dont la nébuleuse nano se positionne face à la nébuleuse
OGM. Presque tous les discours sur les nanos me ent en garde contre
le danger de répéter avec les nanos les erreurs commises avec les
OGM17. Les erreurs en question portent presque exclusivement sur
la communication au public des recherches et des applications des
OGM. L’objectif de ce rappel dans les discours des scientifiques et des
instances internationales est de faire accepter les nanos par le public.
Notons au passage que dans l’étude Dogmatis, il est apparu clairement
que les fameuses leçons à tirer des OGM végétaux ne l’avaient pas
été pour les poissons génétiquement modifiés. Il semble que ce soit
également et encore majoritairement le cas aujourd’hui avec les nanos.
Nous n’allons pas creuser ce rapport entre OGM et nano. Notre objectif
ici est d’aller au-delà des mises en garde et d’éme re des hypothèses
de travail pour penser autrement et collectivement les objets nanos
(tels que définis précédemment) et leurs dimensions éthiques.
17
« Toutes ces questions relèvent de la gouvernance d’une société et ne sont pas
sans rappeler la saga des OGM : placée devant un fait accompli, la population
a boyco é les produits génétiquement modifiés. Des leçons importantes ont
été tirées de ce e expérience di cile. S’agissant des nanotechnologies, les
promoteurs veulent à tout prix éviter qu’une situation semblable se produise
et misent sur l’information de la population et sur l’instauration d’un dialogue
qui perme ra d’assurer l’acceptabilité sociale de ces nouvelles technologies.
Il importe cependant d’ajouter un élément souvent oublié au moment de
comparer avec les OGM : il reste encore beaucoup de recherches à faire
dans le domaine des nanotechnologies avant que la diversité d’applications
nanotechnologiques que le secteur laisse entrevoir envahisse le marché. C’est
d’ailleurs pourquoi les acteurs concernés s’entendent pour dire qu’il faut saisir
ce e occasion pour déba re collectivement des choix sociaux qui doivent être
faits au regard des nanotechnologies » (CEST 2006, p. 61).
64
Les nanos : une spécificité qui ne va pas de soi
La question qui a initialement animé ce e réflexion portait sur la
spécificité des nanotechnologies. Elle s’est imposée suite à la lecture de
documents d’origine et de statuts divers qui présentaient des assertions
parfois contradictoires quant à la spécificité des nanotechnologies et à
leurs di érences à l’égard d’autres technologies et savoirs. Je prendrai
deux exemples de ces documents aux intentions et aux contenus très
di érents : l’avis « Éthique et nanotechnologies : se donner les moyens
d’agir » publié en 2006 par la Commission de l’éthique de la science
et de la technologie, de Québec, et le Rapport Converging technologies
for improving human performance. Technology, biotechnology, information
technology and cognitive science publié en 2003 sous la direction par
Mihail C. Roco et William Sims Bainbridge (Dordrecht, Kluwer
Academic Publishers).
Selon les objectifs poursuivis par les di érents auteurs, tantôt la
nouveauté radicale des nanos est accentuée, tantôt c’est leur insertion
naturelle dans la réalité et dans les pratiques qui est mise à l’honneur ;
ici on parle de nanotechnologies, de savoirs et de techniques perme ant
une manipulation volontaire, maîtrisée et inédite des atomes et des
molécules, là les nanos sont identifiées à un nanomonde naturellement
existant, etc.
La « révolution » est un des thèmes récurrents de la li érature
nano. La Commission de l’éthique de la science et de la technique
de Québec parle « d’une véritable révolution technologique » (CEST
2006, p. 5), accentuant, dans sa description, la capacité de création
et de transformation des nanos. Roco et Bainbridge ne craignent
pas d’en appeler à une nouvelle Renaissance comparable à celle
des 15ème et 16ème siècles : « The new renaissance must be based on a
holistic view of science and technology that envisions new technical
possibilities and focuses on people » (Roco 2003, p. 2). L’estampille
de la nouveauté marque le monde nano, les fondements de la réalité,
la manière de construire le savoir à travers la convergence NBIC, la
maîtrise du réel, etc. Comme le suggère le mot « renaissance », les
nanos sont aussi une reprise sur un autre ton d’une mélodie bien
connue. La nouveauté est relative et se naturalise en quelque sorte
en s’inscrivant dans l’histoire des sciences comprise comme une
succession de crises révolutionnaires. Certains auteurs reprennent
65
ce e intention rassurante que véhicule l’oxymoron de la « nouveauté
familière » en allant jusqu’à ôter toute virulence à la nouveauté des
nanos. Celles-ci sont alors des amplifications de problèmes déjà
présents dans d’autres technologies émergentes ou des améliorations
de technologies existantes. Les nanos sont qualifiées de technologies
habilitantes ou facilitantes – enabling technology – c’est-à-dire « de
nouveaux procédés et de nouvelles techniques qui perme ent à des
technologies déjà existantes de s’améliorer » (CEST 2006, p. 82).
Entrer dans la li érature nano, c’est ouvrir la porte d’une auberge
espagnole dans laquelle chacun apporte ce qu’il considère être la
spécificité des nanos : la possibilité de perfectionner l’être humain,
une menace inédite et de très grande ampleur sur la santé humaine
et l’environnement, une mainmise sur les droits fondamentaux des
individus, etc. Chacune de ces particularités, prise séparément, n’est
pas nouvelle. Cela ne signifie cependant pas que les nanos soient
dépourvues de spécificité. Mais quelle est-elle ? Qu’est-ce que les
nanos ? Et est-ce que ce e question même a un sens ?
La question de la spécificité et donc de l’identité des nanos est
majoritairement traitée en quelques lignes dans la li érature sur les
nanos. Le plus souvent, la réflexion éthique part de quelque chose
qu’elle considère comme étant donné (ou qu’elle espère être donné
prochainement) grâce, par exemple, à un accord sur des critères de
mesure des objets et dispositifs nanos.
Selon l’avis québécois « Éthique et nanotechnologies » qui nous
sert d’exemple, la question de l’identité du domaine nano et de ses
objets devrait être réglée par un accord sur les normes et les procédures
nanométriques. « La mise en commun de savoirs provenant de
disciplines di érentes et l’arrivée de nouvelles connaissances soulèvent
la question de l’harmonisation de la terminologie scientifique
(c’est-à-dire : s’entendre sur la définition des termes utilisés) et de
la nomenclature scientifique (c’est-à-dire : s’entendre sur les règles
d’a ribution d’un nom à un ensemble d’objets jugés semblables) qui
sont consacrées au monde des nanotechnologies » (CEST 2006, p. 41).
La nécessité de prendre une décision quant à la mesure nanométrique
choisie pour définir l’objet nano est justifiée pour diverses raisons : la
reproduction des résultats scientifiques, le transfert des connaissances,
la communication, la mise au point et la mise sur le marché de nouveaux
produits de consommation, le développement d’une réglementation
66
en matière de santé et de sécurité, l’établissement d’un répertoire des
articles publiés, etc.
L’identité des nanos serait donc exclusivement l’a aire des sciences,
notamment de la nanométrologie. L’avis québécois préserve la décision
de l’identité des nanos de tout questionnement éthique pour n’agiter
celui-ci qu’au sujet des produits du savoir et de la technologie nanos.
L’établissement d’un vocabulaire commun est censé circonscrire de
manière claire et durable l’identité de l’objet et du dispositif nanos.
La prise de décision quant à la dimension et à la caractérisation
de la matière à l’échelle nanométrique est une décision portant sur
l’identification d’un domaine et de ses objets qui a des implications sur
le surgissement de la question éthique et sur la nouveauté ou non de
son objet. Le tracé de la frontière du domaine nano a une incidence sur
l’approche éthique des nanos et en est même un ingrédient. Or, ce e
question de l’identification de l’objet nano à travers des propriétés et
des caractéristiques (taille, toxicité potentielle, mobilité, propriété de
surface, etc.) est réduite dans l’avis québécois cité à une préoccupation
uniquement scientifique.
Comme nous le verrons, ce e réduction opérée a priori et confiée
uniquement aux domaines scientifiques dresse un obstacle à la
réflexion tant éthique qu’épistémologique. Demandons-nous s’il faut
que l’objet nano soit défini précisément, voire de façon exhaustive,
pour qu’on puisse tenir un discours éthique à son sujet, et ce que
signifie ce e volonté de définition de l’objet nano préalable à toute
réflexion commune sur ses dimensions éthiques.
La question de la spécificité se pose dans les mêmes termes dans
la li érature nano en ce qui concerne l’éthique. Sans l’ombre d’une
hésitation, une très large part de ce e li érature fait l’impasse sur
la définition de l’éthique et de ses objets, et les utilise comme des
données allant de soi. Ainsi, dans l’avis québécois, des valeurs et des
principes éthiques sont immédiatement énoncés comme formant une
grille adéquate d’évaluation des nanos : « Outre la protection de la
santé et de l’environnement, et l’importance du développement de
l’économie dans les sociétés contemporaines, le respect de nombreuses
valeurs qui doivent constituer les fondements d’un comportement
responsable au regard des nanotechnologies a guidé la Commission
dans son évaluation éthique des nanotechnologies ; ce sont, en autres,
67
la dignité, la liberté, l’intégrité et le respect de la personne, la qualité
de vie, le respect de la vie privée, la justice et l’équité, la transparence,
de même que la démocratie. » (CEST 2006, p. 2).
Je voudrais dans la suite de ce e réflexion interroger les conceptions
épistémologiques et éthiques qui envisagent l’existence des objets
nanos et des valeurs/principes éthiques comme des données fournies
par des domaines particuliers (celui des sciences et celui de l’éthique),
comme des données ontologiquement et épistémologiquement
séparées, et comme des données préalables à la tenue d’un débat
collectif sur les nanos et leurs enjeux éthiques.
Nous pensons que la spécificité des nanos nous invite à penser dans
un même élan l’épistémologie et l’éthique. Ce lien n’est pas nouveau
dans l’histoire de la philosophie et de l’éthique mais je voudrais le
soume re à nouveau à la réflexion à partir de deux hypothèses :
- la première soutient que le savoir des objets nanos (machineorganisme vivant nano dans notre propos) est un savoir générique
portant sur des objets hétérogènes ;
- la seconde hypothèse avance qu’un savoir générique exige une
éthique générique.
Le savoir des objets nanos (machine-organisme
nano) est un savoir générique portant sur des objets
hétérogènes
Un savoir générique porte sur un objet hétérogène, un objet dont
l’hétérogénéité « ne permet plus une synthèse intuitive » (Schmid
2010) et qui s’inscrit à la suite des types d’objets proposés aujourd’hui
par le développement des sciences et des techniques :
« On passe de l’objet donné (nébuleuse), à l’objet construit (galaxie),
à l’objet complexe (qui suppose la combinaison de diverses disciplines),
à l’objet conceptif (on part d’un concept impossible souhaitable pour
le me re en rapport avec des séries de connaissances inhabituelles
concernant ce type d’objet). Les objets contemporains, OGM, biologie
synthétique, nanosciences, objets vivants construits, etc., ne sont pas
des objets connus auxquels on ajouterait une nouvelle propriété. Enfin,
68
on passe à l’« objet intégratif », qui suppose l’intention du chercheur
(individuel/collectif) projetée dans l’objet » (Schmid 2010).
Les nanos présentent des traits d’hétérogénéité en ce qu’ils
consistent en théories, en pratiques scientifiques et en discours divers
(scientifiques et technologiques) ; politiques de la recherche scientifique
(Commissions nationales et internationales) ; philosophiques et
éthiques (le Rapport de Rocco et Bainbridge) ; des avis de comités
d’éthique ; des écrits de science-fiction (Michael Crichton (La proie),
Eric K. Drexler (Engins de création. L’avènement des nanotechnologies),
etc.
Le caractère hétérogène qui ne permet plus une synthèse intuitive
apparaît clairement dans l’approche de construction « bo om-up » (de
bas en haut) où l’on parle de « briques » élémentaires assemblées en une
construction devant posséder des propriétés déterminées. L’objectif
de la recherche n’est pas de trouver ou de créer un objet mais plutôt
de rendre e ectives et disponibles des propriétés particulières comme
la résistance, la légèreté, la malléabilité, l’ininflammabilité, la
conductivité, etc.
Un objet hétérogène est aussi un objet dont tous les aspects
ou certains d’entre eux n’appartiennent pas exclusivement à une
discipline. Prenons, par exemple, l’échelle du nanomètre : ce e
échelle est tout autant celle de la biotechnologie qui travaille avec les
molécules d’ADN et les virus. Comme nous le verrons, le rapport de
l’objet hétérogène aux disciplines est conçu en des termes di érents
de ceux de la convergence, de la juxtaposition (multidisciplinaire),
de la combinaison (interdisciplinaire), de l’intégration (modèle
disciplinaire), de la succession (hiérarchie disciplinaire), etc. Ce rapport
de l’objet nano aux disciplines est un espace d’« indisciplinarité »
qui est un lieu de dépôt des non-savoirs disciplinaires, un lieu
d’émancipation disciplinaire et un lieu d’émergence de l’objet dans
toutes ses dimensions, y compris celle éthique.
Ayant ces quelques éléments à l’esprit concernant l’hétérogénéité
de l’objet nano, il faut à présent se pencher sur ce qu’est un savoir
générique d’un objet hétérogène.
Un savoir générique est un savoir constitutif de son objet, un
savoir qui décrit son objet dans le mouvement même où il le constitue
dans un espace indisciplinaire. Avant de préciser davantage comment
69
s’élabore ce savoir et ce qu’il produit, je voudrais indiquer tout ce qu’il
n’est pas ou tout ce à quoi il ne se réduit pas.
Un savoir générique n’est pas issu de la convergence des
technologies.
Une belle illustration de ce e conception de la convergence
des technologies est donnée par le Rapport Converging technologies
for improving humain performance de Rocco et Bainbridge. Ce
Rapport développe autour de la convergence une idéologie de type
transhumaniste dont nous allons analyser un exemple à partir du
schéma ci-dessous fourni par les auteurs.
Il s’agit d’une sorte d’arbre du savoir cartésien revisité où les
racines métaphysiques sont occupées par les quatre domaines des
NBIC présentés comme étant exhaustifs et convergents.
« If the Cognitive scientists can think it
the Nano people can build it
the Bio people can implement it, and
the IT people can monitor and control it » (Roco 2003, p.11).
La métaphore végétale de l’arbre cartésien a disparu, remplacée
par celle du cerveau.
70
« It is hard to find the right metaphor to see a century into the
future, but it may be that humanity would become like a single
distributed and interconnected « brain » based in new core pathways
of society » (Roco 2003, p. 6).
Ce cerveau est associé dans le Rapport à l’intelligence humaine
et à l’informatique, ce qui en fait un mixte de vie et de machine. Les
quatre domaines NBIC se logent dans ses sillons et ses circonvolutions.
Le tronc de l’arbre cartésien est absent car la surface du cerveau est
occupée par des êtres humains. Ceux-ci sont représentés de manière
générique, sans individualisation parce que la finalité du « cerveau »
n’est pas l’être humain en tant que tel mais ses performances. La
représentation de l’être humain est donc la représentation d’un moyen
destiné à a eindre l’objectif des performances. Le cerveau est devenu
une nouvelle terre, un nouveau monde à la surface duquel vivent des
êtres humains. Les branches de l’arbre du savoir cartésien indiquant
le déploiement des diverses disciplines à partir du tronc constitué
par la physique ont elles aussi disparu ou plutôt les branches ont été
absorbées par les racines et transformées en sillons et circonvolutions.
Les êtres humains semblent nourris par les chemins des NBIC comme
un fœtus l’est par les substances maternelles véhiculées dans le cordon
ombilical. Ce « cerveau » est donc une mère nourricière qui reprend
l’image de la terre-mère dans la tradition de Gaïa. Nature et culture
convergent elles aussi. C’est la raison pour laquelle le Rapport envisage
un nouveau modèle éducatif fondé sur l’acquisition d’un curriculum
unifié reposant sur un paradigme intellectuel vaste, hiérarchique
et destiné à faire comprendre l’architecture du monde physique de
l’échelle nano jusqu’à l’échelle cosmique.
La convergence est, pour les auteurs du Rapport, une première
étape vers une unification plus large. Pour eux, l’unification de
la science est fondée sur l’unité présente dans la nature et sur une
recherche à visée holistique qui tend à la convergence technologique
et à une structure sociale plus unitaire et e cace dans l’a einte des
buts humains. La science est inscrite dans un processus d’unification
tandis que les technologies convergent. Roco et Bainbridge prévoient
que toutes deux formeront une unité fondée sur : l’unité matérielle à
l’échelle nano et la technologie d’intégration à partir de ce e échelle ;
les outils de transformation NBIC, la compréhension de la nature et
de la connaissance en termes de systèmes hiérarchiques complexes ;
l’amélioration de la performance humaine. De ce e transformation
71
du savoir découle la nécessité d’élaborer di éremment le travail des
scientifiques, de développer un nouveau langage scientifique pour
communiquer aisément, de donner à la culture une forme holiste,
etc.
L’éthique est elle aussi profondément transformée par l’application
de nouveaux principes adaptés à l’état du savoir et des pratiques issus
de la convergence : l’acceptation d’implants dans le cerveau, le rôle des
robots dans la société humaine, etc. Les auteurs signalent qu’il restera
toutefois des traces des vieilles habitudes et de la vieille éthique dans
certains domaines de la vie humaine mais qu’il est di cile de prédire
lesquels.
Je n’entre pas davantage dans le détail de ce Rapport défendant
la convergence comme paradigme du futur de l’humanité. Le savoir
générique des objets hétérogènes qui nous occupe est aux antipodes
de ce e spéculation.
L’imposition d’une manière de penser disciplinaire, que l’on parle
d’une seule discipline ou de plusieurs comme les NBIC, est étrangère
au savoir générique qui occupe un « lieu sans injonction »18, sans
injonction même disciplinaire.
Le savoir générique n’est pas produit par le recouvrement
des perspectives disciplinaires
Ce e possibilité supposerait que l’objet nano possède un nombre
déterminé de face es disciplinaires et qu’il apparaîtrait dans sa
réalité, c’est-à-dire dans son épaisseur et dans sa substance, grâce
au recouvrement des disciplines. L’interdisciplinarité fonctionnerait
alors comme un processus phénoménologique d’apparition de l’objet
et non comme un processus d’élaboration d’un objet absent en tant
que tel, c’est-à-dire nécessairement absent en tant qu’objet hétérogène.
Il est bien évident qu’un objet nano existe pour le scientifique, qu’un
autre objet nano existe pour le décideur politique, etc. mais l’objet
nano dans son hétérogénéité ne peut être circonscrit par aucune
discipline particulière : il a besoin d’autre chose que du recouvrement
disciplinaire pour émerger dans sa spécificité.
18
Ce e expression est celle utilisée par Muriel Mambrini, directrice de l’INRA
de Jouy-en Josas, lors des discussions dans le cadre du projet Dogmatis.
72
Le savoir générique des objets hétérogènes ne supprime pas
les disciplines.
Il part des disciplines et y revient mais sous un mode di érent que
celui du savoir positif disciplinaire.
« (…) ce qui change radicalement, c’est qu’on ne combine plus au
premier temps les connaissances de chacune des disciplines, mais on
commence par rassembler ce qu’on ne sait pas, the state of the nonart, en quoi la discipline ne saurait donner de réponse aux problèmes
que pose l’objet que l’on cherche à connaître et à construire. Chaque
discipline cherche en quoi l’objet ne peut être traité par ses concepts
et sa logique. Cela interroge au plus profond la pratique scientifique,
parce que ces non-savoirs obligent à voir l’interdisciplinarité
autrement que comme une procédure de somme. Elle obéit à une
logique de soustraction (sans manque) qui conduit chaque discipline
à être réinterprétée par les autres. La maîtrise n’est plus au centre.
Le non-savoir n’est plus à la marge, mais au centre du processus »
(Schmid 2010).
L’incertitude marque une zone d’hétérogénéité. Et ceci nous invite
à envisager à nouveaux frais les démarches qui tendent à réduire voire
à supprimer l’incertitude19.
Le savoir générique est un savoir qui prend au sérieux l’incertitude
et l’inconnu comme étant des paramètres constitutifs de l’objet nano :
l’objet nano est une inconnue, un « X « constitué par des hypothèses
portées par chaque discipline et par des faisceaux disciplinaires. Ces
hypothèses sont formulées pour comprendre en quoi l’objet nano
échappe à la prise en charge des théories traditionnelles, en quoi il peut
constituer une di culté ou une exception aux règles généralement
admises au sein des disciplines concernées. L’objet nano se constitue
19
Il serait utile de réévaluer l’usage du principe de précaution et l’usage de
« l’approche » de précaution à l’égard des objets nanos. Selon l’avis « Ethique
et nanotechnologies : se donner les moyens d’agir » (CEST 2006), l’approche
de précaution est utilisée pour éviter la confusion autour du sens exact du
principe de précaution et donc de son utilisation. L’approche de précaution
o re plus de souplesse que le recours à un principe formel. Selon la COMEST
(Commission mondiale d’éthique des connaissances scientifiques et des
technologies, le principe de précaution se réfère à la base philosophique de
la précaution tandis que l’approche vise son application pratique (COMEST
2005).
73
dans et grâce à un espace de projection de propriétés et d’intentions.
Cet espace est une unité mobile, un tenir-ensemble dépendant
des projections disciplinaires, des intentions des chercheurs, des
orientations des institutions et des politiques, etc.
Le savoir générique de l’objet nano rompt avec l’opposition du
sujet et de l’objet : l’objet de connaissance n’est pas posé face à un
sujet connaissant, l’objet n’est pas la concrétisation d’une subjectivité,
mais le résultat non stabilisé d’intentions collectives et le révélateur
d’intentions parfois inconscientes et a priori incapables de s’autosaisir complètement. L’objet hétérogène mêle des fragments de savoir
et d’intention, il identifie la science et la subjectivité.
L’espace « X « qui manifeste l’hétérogénéité propre à l’objet nano
est donc au centre épistémologique, les disciplines étant à la périphérie
en tant que dimensions des objets nano20.
Comment déterminer si une dimension ou une propriété de l’objet
nano peut être généralisée ?
Le critère d’une généralisation à partir de l’espace « X » constitutif
de l’objet serait que celle-ci soit à la fois compatible avec le savoir
fondamental exprimé à travers chaque projection disciplinaire
dessinant cet espace et qu’elle soit présente en continu dans cet espace.
C’est donc un critère qui n’est pas « scientifique », c’est-à-dire relevant
uniquement de disciplines qualifiées de « scientifiques » mais un critère
générique, à la fois extérieur et lié aux disciplines. L’espace « X » est
ainsi un lieu de réduction possible mais d’une manière très di érente
de celle produite par des décisions qui gomment l’hétérogénéité en
fixant a priori et de manière stable une nomenclature et des propriétés
nanos.
Un savoir générique exige une éthique générique
Comme pour le point précédent concernant le savoir générique des
objets hétérogènes, nous allons tout d’abord procéder négativement
en indiquant tout ce que l’éthique générique n’est pas ou n’est pas
seulement (car ces éléments peuvent participer, le cas échéant, à la mise
en œuvre de l’éthique générique). L’objectif est ici d’a irer l’a ention
20
Remarque de Anne-Françoise Schmid lors du Colloque Dogmatis.
74
sur le fait que les manières suivantes de concevoir et d’utiliser l’éthique
se révèlent insu santes pour penser éthiquement l’objet hétérogène
nano lorsqu’elles sont prises séparément et exclusivement.
L’éthique générique n’adopte pas une approche plongeante
(top-down).
L’application à l’objet nano de théories ou de notions éthiques
préalablement élaborées est souvent inféconde parce qu’elle se révèle
incapable de prendre en considération l’hétérogénéité caractéristique
de l’objet nano. En e et, l’application immédiate à l’objet nano de
notions telles que celles de « risque » ou « d’impact environnemental »
repose sur le présupposé que cet objet nano existe comme une entité
déterminée et universellement reconnue en ce e spécificité. Or, comme
nous l’avons montré précédemment, ce n’est pas le cas : l’objet nano
du sociologue n’est pas celui du philosophe ni celui de l’ingénieur, par
exemple.
La démarche de l’éthique générique n’est pas celle d’une
purification. Il ne s’agit pas de s’emparer des cristallisations
problématiques propres aux disciplines et aux intentions pour les
laver de leur gangue d’origine de sorte que le résultat ne oyé puisse
être reconnu comme relevant de l’éthique. Ce domaine que l’on
circonscrit traditionnellement avec le mot « éthique » et qui peut, par
exemple, constituer une branche de la réflexion philosophique, n’est
pas un étalon de comparaison, ni une source d’authentification, mais
un matériau qui sera diversement sollicité lors de l’élaboration de la
réflexion éthique collective.
L’éthique générique n’est pas une éthique de type
conséquentialiste.
L’éthique générique ne traque pas les impacts et les e ets de l’objet
nano en termes de coût/bénéfice ou d’impact de risque.
75
L’éthique générique n’est pas une démarche de
circonscription de domaines soulevant des problèmes
d’ordre éthique.
C’est façon de procéder est celle de la Commission de l’éthique
de la science et de la technologie de Québec qui liste les questions
éthiques en quatre domaines : nanomatériaux, nanométrologie,
nanoélectronique, nanobiotechnologie. Ordonner et clarifier les
champs hérissés d’obstacles éthiques est un moment utile dans la
réflexion. Mais transformer ce moment de bilan en un arrière-fond
désormais nécessaire à toute réflexion éthique sur les nanos revient
à enfermer la réflexion dans ce qui peut facilement devenir une geôle
intellectuelle.
L’éthique générique n’est pas une approche
d’accompagnement éthique du développement des nanos.
Car le travail du chercheur se réduit alors à essayer d’arrimer
l’éthique à quelque chose d’étranger et qui se développe selon ses lois
propres. La réflexion éthique est de ce fait réduite à être une réflexion
sur les moyens à me re en œuvre pour « ra raper », comme on dit, le
développement des nanos.
L’éthique générique n’est pas une mise en amont de la
discipline éthique.
Elle n’est en tout cas pas une mise en amont dans le sens
fréquemment repris dans la li érature au sujet des nanos, comme
dans l’avis québecois : « C’est aussi un domaine en émergence, et
donc qui o re la possibilité de travailler en amont des problèmes que
pourrait éventuellement poser l’innovation technologique, de façon à
contrer ou à réduire au minimum certains e ets indésirables. (…) il
serait cependant souhaitable que ses travaux puissent se poursuivre
pour en accompagner l’évolution » (CEST 2006, p. 1). L’éthique
générique ne se réduit pas à un déplacement chronologique de la
discipline éthique dans le processus d’évaluation de l’objet nano en
le faisant glisser de l’aval vers l’amont, opérant sur le plan temporel
76
une « déchronologisation » analogue à la délocalisation sur le plan
spatial. L’éthique générique est indisciplinaire, elle ne laisse pas
intactes les disciplines et rend l’éthique opératoire à tous les moments
de l’appréhension de la spécificité de l’objet nano.
L’éthique générique n’est pas une éthique de terrain qui
puiserait uniquement le terreau de sa réflexion dans la
pratique « scientifique ».
La spécificité de l’objet nano n’appartient à aucune discipline
particulière, elle ne relève d’aucun territoire, elle n’est redevable
d’aucune géographie disciplinaire. L’expérience du groupe de recherche
Dogmatis a mis en évidence la nécessité de ne privilégier aucun terrain
conceptuel et pratique. L’espace de l’éthique générique ne prend pas
racine dans une pratique disciplinaire mais invite les protagonistes –
le généticien, le juriste, le philosophe, le sociologue, etc. – à se rendre à
tour de rôle dans le lieu de travail de chacun. Une des caractéristiques
de la démarche de Dogmatis a été le déplacement dans divers lieux
de travail pour comprendre dans quel creuset (disciplinaire, social,
géographique, administratif, etc.) chaque acteur était amené à avancer
telle intention à l’égard de l’objet nano ou à me re en avant telle zone
d’incertitude constitutive de l’hétérogénéité de cet objet. Il s’agissait
de comprendre mais aussi de rapporter à soi, à sa discipline, à son lieu
de pensée, ce que le collègue « hôte » construisait en objet nano.
Deux méthodes pour activer l’éthique générique
Positivement, l’éthique générique est une éthique expérimentale
en ce qu’elle se déploie à partir d’objets hétérogènes (non donnés
comme nous l’avons vu) et selon une approche fictionnelle prenant au
sérieux l’incertitude et me ant en action une diversité de méthodes21
dont celles que je vais maintenant exposer.
21
Dans le groupe des philosophes du projet Dogmatis, l’éthique générique a été
mise en œuvre de diverses façons : par la rédaction de courts textes de fiction
s’appuyant sur la méthode du « sans », par le recours à la matrice éthique
(travail de Léo Coutellec dans sa dissertation doctorale, op. cit.), etc. Une des
richesses de l’éthique générique est de solliciter la réflexion et l’imagination
dans l’élaboration de nouvelles approches de l’hétérogénéité de l’objet nano.
77
Une méthode qui « désactive » les notions : une réflexion à
partir du « sans ».
La première méthode que j’évoquerai, consiste à réfléchir à l’objet
nano en me ant entre parenthèses ou en grisé - pour filer une métaphore
informatique -, un des aspects relevés par une discipline ou mis en
avant par une intention. Il s’agit de me re cet aspect momentanément
en retrait dans la réflexion. Ce e mise entre parenthèses momentanée
permet de chercher de façon nouvelle dans son propre domaine ou
dans un autre domaine que le sien, ce qui va perme re de construire
avec d’autres matériaux l’élément mis entre parenthèses. Ce e mise
en grisé d’un aspect permet aussi d’évaluer de manière di érente le
contenu et l’importance des autres aspects soulevant des di cultés
épistémologiques et éthiques. Et ce ne sont là que quelques aperçus
des usages possibles de ce e méthode. Prenons un exemple. Me ons
entre parenthèses l’aspect du « profit économique » et demandonsnous comment cet aspect peut être reconstruit à partir d’éléments
conceptuels et pratiques issus d’autres disciplines que la nôtre
ou demandons-nous ce que la désactivation de cet aspect change
dans la manière dont les di cultés épistémologiques et éthiques se
manifestent concernant un objet nano hétérogène précis, etc.
Le choix et le nombre des mises en grisé sont dictés par les
hypothèses d’appréhension de l’objet nano. Ce e démarche suppose
une dynamique d’aller-retour entre l’espace indisciplinaire et la
discipline. La mise en grisé d’un aspect permet de déstabiliser
l’identité des autres aspects de l’objet nano et les liens qui les unissent.
Ce e expérience de pensée est de l’ordre de la fiction en ce qu’elle
permet aux concepts de s’écouler hors de la structure conceptuelle
d’une discipline et d’être immergés dans un milieu di érent de celui
d’origine ou de celui habituellement utilisé.
Une méthode adaptant la matrice éthique
La matrice éthique22 a été conçue par le professeur Ben Mepham23,
22
Un exemple d’application de la matrice éthique à la prise de décision dans
le domaine de l’animal farming est disponible à l’adresse www.no ingham.
ac.uk/bioethics
23
Quelques publications de Ben Mepham concernant la matrice éthique et la
78
directeur du Centre for Applied Bioethics à l’University of No ingham
et membre du Food Ethics Council. Son objectif est d’aider à la prise de
décision éthique dans les domaines de l’alimentation et de l’élevage. La
matrice de Mepham se caractérise par le choix d’un certain nombre de
principes éthiques (le bien-être, l’autonomie, la justice) et par le choix
d’un nombre à déterminer de groupes d’intérêt (les consommateurs,
les producteurs d’aliments particuliers, l’environnement, les animaux
de la ferme, etc.).
Dans la version de la matrice que nous proposons dans le cadre
de l’éthique générique portant sur les objets hétérogènes nanos, nous
gardons le choix ouvert des acteurs (incluant des êtres humains mais
aussi des êtres vivants non humains, des disciplines, des groupes de
pression, des institutions…) mais nous remplaçons les trois principes
éthiques choisis a priori par des intentions à identifier à chaque
utilisation de la matrice.
Ce e version adaptée de la matrice comporte donc deux entrées :
une entrée « intention » (par exemple, décrire, prévoir, mesurer, me re
en place des procédures d’action, conceptualiser, décider de critères,
commercialiser, étendre les applications, etc.) ; une entrée « acteurs »
(un individu, une discipline, une instance, etc.). Contrairement à la
matrice de Mepham, les enjeux éthiques (qui peuvent s’exprimer
sous forme de valeurs, de normes, de principes, etc.) ne sont pas
prédéterminés mais vont se manifester à l’intersection des deux
entrées, acteur et intention.
bioéthique : (Mepham 1996, 2000, 2005).
79
Intention
A : assurer
la traçabilité
d’un objet
nano « Z »
Intention
B : étendre
l’application
d’un
dispositif
nano au
diagnostic du
diabète
Etc.
80
Acteur n°1,
exemple d’un
individu : le
patient
Acteur n°2,
exemple
d’une
discipline : la
médecine
Acteur n°3,
exemple
d’une
institution :
l’armée
Etc.
Enjeux
éthiques :
OUI - NON
Enjeux
éthiques :
OUI - NON
Enjeux
éthiques :
OUI - NON
Etc.
Si oui :
Si oui :
Si oui :
- quels sont
les aspects
éthiques qui
semblent être
mis à mal ?
- quels sont
les aspects
éthiques qui
semblent être
mis à mal ?
- quels sont
les aspects
éthiques qui
semblent être
mis à mal ?
- quels sont
les aspects
éthiques
auxquels il
faut prêter
a ention ?
- quels sont
les aspects
éthiques
auxquels il
faut prêter
a ention ?
- quels sont
les aspects
éthiques
auxquels il
faut prêter
a ention ?
etc.
etc.
etc.
Enjeux
éthiques :
OUI - NON
Enjeux
éthiques :
OUI - NON
Enjeux
éthiques :
OUI - NON
Si oui :
Si oui :
Si oui :
- quels sont
les aspects
éthiques qui
semblent être
mis à mal ?
- quels sont
les aspects
éthiques qui
semblent être
mis à mal ?
- quels sont
les aspects
éthiques qui
semblent être
mis à mal ?
- quels sont
les aspects
éthiques
auxquels il
faut prêter
a ention ?
- quels sont
les aspects
éthiques
auxquels il
faut prêter
a ention ?
- quels sont
les aspects
éthiques
auxquels il
faut prêter
a ention ?
etc.
etc.
etc.
Etc.
L’ensemble du tableau constitue la dimension éthique de l’objet
nano considéré, compte tenu des intentions et des acteurs mis en
relation.
Une première caractéristique de ce tableau est de séparer une
intention d’un acteur particulier et d’éviter ainsi une mainmise
disciplinaire ou institutionnelle sur une intention. Le tableau permet de
prendre conscience des dimensions éthiques communes au-delà de la
spécificité des intérêts disciplinaires, collectifs ou particuliers. Cela ne
signifie pas que le consensus ou le juste milieu soient l’objectif majeur
de ce e matrice éthique. Ils peuvent survenir bien entendu lorsque le
contenu de la cellule « éthique » du tableau est identique pour tous les
acteurs à l’égard d’une intention. Mais la fécondité principale de ce e
méthode est de maintenir possible l’inclusion d’intentions et d’acteurs
divers dans le processus de réflexion et de ne pas prédéterminer les
expressions éthiques de l’objet hétérogène nano.
Une deuxième caractéristique est de ne pas préjuger de ce qui
constitue un enjeu éthique et de la manière dont cet enjeu s’exprime
(en termes de valeurs, de concepts, de règles, etc.).
L’objet étudié n’a pas en lui-même des caractéristiques éthiques et
il ne fait pas nécessairement surgir par lui-même un problème éthique
universel, c’est-à-dire présent chez chaque acteur à l’égard d’une
intention. Prenons l’exemple de la traçabilité qui peut activer une
interrogation sur la protection de la vie privée. Dans la cristallisation
des problèmes considérés comme éthiques par chaque acteur et
selon une intention, la protection de la vie privée va se manifester
en une gradation allant de l’absence pure et simple à la présence
dominante, voire exclusive. Dans le cadre d’un traitement médical
ou d’une intervention chirurgicale, la possibilité de suivre dans le
corps du patient un dispositif nano peut ne soulever aucune question
éthique quant à la protection de la vie privée. Il n’en va pas de même
d’un dispositif nano qui perme rait de suivre le déplacement d’une
personne placée sous surveillance avec l’accord de celle-ci (le cas
d’une personne condamnée par la justice mais qui pourrait vivre chez
elle), et il n’en irait certainement pas de même si une personne était
surveillée à son insu grâce à ce dispositif nano.
Le tableau est ouvert et non ordonné a priori, cela signifie qu’il
comporte un nombre non limité d’intentions, d’acteurs et d’aspects
81
éthiques, et que la succession des intentions ou celle des acteurs
n’est régie par aucune préséance ou hiérarchie. Par contre, la mise
en un certain ordre de ce tableau – la mise en ordre des acteurs et/
ou des intentions et/ou des dimensions éthiques - sera le résultat
d’une décision commune prise à la suite de l’analyse du tableau,
de son contenu éthique rapporté à ses coordonnées d’intentions et
d’acteurs. Ce e indétermination a priori de la dimension éthique
évite de scléroser la réflexion par l’application systématique d’une
grille précise et stable de notions éthiques. Le tableau permet non
seulement aux valeurs éthiques couramment associées aux nanos
de conserver une place dans la réflexion mais il o re l’opportunité à
d’autres dimensions éthiques de se manifester, dimensions occultées
jusqu’alors pour diverses raisons ou dimensions nouvelles dans un
sens radical ou parce qu’elles n’ont jamais encore été associées aux
nanos.
Une troisième caractéristique du tableau est qu’il rappelle
que l’éthique est en premier lieu une mise en question – une
problématisation - et non une réponse. Une intention et/ou un acteur
associé à un objet hétérogène nano provoque une question qui ne peut
être prise en charge de manière satisfaisante sur le plan collectif par
une seule discipline ou une seule perspective d’analyse parce qu’elle
résonne di éremment dans chacune de celles-ci. Le tableau permet
d’identifier les dissonances et les consonances, les alliances et les
continuités tout autant que les ruptures et les partages.
Une quatrième caractéristique, enfin, est que l’indétermination
de la cellule « éthique » à l’intersection des intentions et des acteurs
renvoie à celle de l’objet nano. Comme nous l’avons vu, l’hétérogénéité
de l’objet nano en fait un objet inconnu a priori et constamment travaillé
par l’incertitude véhiculée par les diverses tentatives d’encerclement
épistémique. La spécificité de l’objet hétérogène est respectée par la
manière dont le tableau l’a ecte d’une dimension éthique. L’inconnue
« X » de la cellule éthique du tableau au début du processus réflexif
répond à celle de l’objet hétérogène : l’indétermination a priori de
l’objet a ecte l’éthique comme elle a ecte les autres dimensions de
l’objet hétérogène que vont progressivement et de manière ouverte à la
révision me re en jeu chacune des intentions et chacun des acteurs.
82
En conclusion
Pour reprendre les termes de Marcel Jollivet, à partir du moment
où les questions et les objets « ne sont pas ceux qui ont été mis en
forme par les paradigmes disciplinaires habituels, ils sont étranges ; et
si on accepte de les prendre dans leur étrangeté, il faut bien les aborder
par tous les côtés ; souvent on préfère les réduire, on les ramène au
problème précédent »24.
« Les aborder par tous les côtés », c’est l’objectif poursuivi par les
deux méthodes que nous avons proposées. Elles invitent à qui er
la sécurité (relative) des noms propres institués par une discipline
pour parler d’un objet, pour accorder une force nouvelle de cohésion
et de connaissance à la floraison de sens qui peut habiter les mots,
floraison jugée jusqu’alors inappropriée à une forme rigoureuse de
connaissance. Comme le suggère Donna Haraway, il s’agit d’adopter
une hétéroglossie25. Ainsi, la matrice éthique va exposer la teneur
éthique d’une intention, par exemple, celle visant l’amélioration, pour
le patient et peut-être montrer que ce e teneur a un sens di érent pour
la médecine. Elle peut encore montrer qu’à partir du choix d’un même
terme éthique (par exemple celui de « responsabilité »), le patient
pourrait désigner le fait que le médecin lui implantant un dispositif
nano réponde des e ets négatifs éventuels de cet acte, tandis que
la médecine pourrait associer la responsabilité au fait même d’avoir
accordé une place importante à la toxicité dans les recherches ayant
abouti à la conception de ce même dispositif nano.
Les théories et les pratiques qui se qualifient d’éthique ont souvent
la prétention de dire ce qu’il en est de l’éthique et dans quelles
conditions un rapport particulier au réel sera éthique.
L’hypothèse que nous soutenons est que l’éthique est une dimension
de la connaissance et de la pratique qui apparaît en fonction de l’objet
de réflexion et selon les intentions (faisceaux disciplinaires, positions
institutionnelles ou associatives, avis personnel…) des acteurs de ce e
réflexion.
Ainsi comprise, l’éthique n’est pas la recherche d’une normativité
éthique du réel ou dans le réel ni une application d’un discours au réel,
24
25
Intervention de Marcel Jollivet dans (Legay 2004, p. 67).
Voir à ce sujet (Haraway 2007, p. 29-105).
83
mais elle est une hypothèse qui va élaborer de manière collective et
ouverte (sans a priori et sans clôture définitive) une représentation de
valeurs, de normes, de principes, de procédures, de comportements,
d’articulations théoriques ou pratiques, etc. reconnues comme éthiques
et constituant une dimension particulière de la réalité fictionnelle d’un
objet26. Cela ne signifie pas que l’objet ne soit pas une réalité, il en est
une, mais sa dimension éthique ne se donne qu’indirectement, elle
est le résultat sous forme de représentation (de fiction) d’une mise en
relation de « patrons » disciplinaires et intentionnels. Le « patron »
dont nous parlons n’est pas un saint protecteur ou une personne qui
commande et occupe une position hiérarchique supérieure, il est tout
le contraire de ces définitions qui retrouvent la prééminence d’une
discipline ou d’une position dominante et protectrice de la « vérité
éthique » qu’elle déterminerait. Le « patron » que nous évoquons
est, par exemple, le modèle que les couturières me ent aux mesures
d’une personne et qui va leur perme re de réaliser un vêtement. Ce
déplacement ironique des sens et des rapports entre le « patron » et
les femmes couturières permet de se représenter d’autres rapports que
ceux établis par une hiérarchie entre disciplines « fortes, dominantes,
rigoureuses, etc. » et disciplines « floues, secondaires, peu influentes,
etc. », notre « patron » ne faisant plus la di érence entre les « petites
mains » et les autres ; ce déplacement ironique nous permet aussi de
concevoir un « patron » qui s’adapte à la particularité d’un objet, qui
doive chaque fois prendre les mesures de cet objet et qui ne puisse
partir de la supposition d’une connaissance a priori de celui-ci. Les
surfaces manifestées par les lignes en pointillé du « patron » sont les
valeurs caractéristiques de la dimension éthique de l’objet. Valeurs
dont la présence et le poids respectifs ne peuvent être appréciés qu’en
fonction des particularités de l’objet et des intentions portées sur lui
par les di érents acteurs.
L’éthique ainsi comprise n’est plus une prétention à dire ce qu’il
en est des valeurs éthiques d’un objet à partir d’un promontoire
épistémologique ou idéologique prédéfini, mais elle est un matériau
qui intervient dans l’élaboration des « patrons » dessinés par diverses
mains actives et intentionnelles.
26
Voir à ce sujet l’article très éclairant de Anne-Françoise Schmid, L’hypothèse
d’une non-épistémologie, disponible à l’adresse h p://www.onphi.net/texte-lhypothese-d-une-non-epistemologie-51.html
84
Références
Actes du colloque Dogmatis, Paris, 22-23 novembre 2010 : projet ANROGM 2007-2010 organisé par l’ANR et sous la coordination
de Muriel Mambrini-Doudet, disponible à l’adresse : h ps://
colloque4.inra.fr/dogmatis/Les-actes-du-colloque
Cest (Commission de l’éthique de la science et de la technologie)
Éthique et nanotechnologies : se donner les moyens d’agir, Québec,
2006.
Comest (Commission mondiale d’éthique des connaissances
scientifiques et des technologies), Le principe de précaution, Paris,
UNESCO, 2005, disponible à l’adresse : h p://unesdoc.unesco.
org/images/0013/001395/139578f.pdf.
Crichton M., Prey, New York, Harper Collins, 2002, trad. fr. La proie,
Paris, Edition Robert La ont, 2003.
Drexler E. K., Engines of creation, New York, Anchor Books, 1986,
trad. fr. Les engins créateurs. L’avènement des nanotechnologies, Paris,
Vuibert, 2005.
Haraway D., Manifeste cyborg et autres essais : Sciences – Fictions –
Féminismes, anthologie établie par Allard L., Gardey D. et Magnan
N., Éditions Exils, 2007, p. 29-105.
Legay J.-M., « L’interdisciplinarité vue et pratiquée par les chercheurs
en Sciences de la vie, Dossier Interdisciplinarité. La table ronde
des Journées NSS 2002 », Natures Sciences Sociétés, 2004, 12.
Mepham B., “Ethical analysis of food biotechnologies: an evaluative
framework”, dans Mepham B. (éd) Food ethics, London, Routledge,
1996, p. 101-119.
Mepham B., “A framework for the ethical analysis of novel foods: the
ethical matrix”, Journal of Agricultural and Environmental Ethics,
2000, 12, p. 165-176.
Mepham B., Bioethics for the biosciences: an introduction, Oxford, Oxford
University Press, 2005.
Roco M. C., Bainbridge W. S., Converging technologies for improving
human performance. Technology, biotechnology, information technology
and cognitive science, Dordrecht, Kluwer Academic Publishers ,
2003.
Schmid A.-F., Épistémologie et éthique technologique, Centre d’études
85
franco-russe à Moscou, 20 octobre 2010, disponible à l’adresse :
h t t p : / / w w w. o n p h i . n e t / t e x t e - e p i s t e m o l o g i e - e t - e t h i q u e technologique-55.html
Schmid A.-F., L’hypothèse d’une non-épistémologie, disponible à
l’adresse
h p://www.onphi.net/texte-l-hypothese-d-une-nonepistemologie-51.html
86
Do new technologies give rise
to new ethical issues?
Some reflections on nanotechnology
Martin Peterson and Marc J. de Vries27
Introduction
Nanotechnology is an umbrella term for a wide range of
technologies that make deliberate use of specific properties of
individual atoms or molecules. By manipulating individual atoms or
molecules, structures with very specific properties can be built. Some
products are already on the market, most of which use very thin layers
of atoms. Examples range from novel kinds of sun-tan and toothpaste
to new coatings for cloths, cars and windows.
Several authors have discussed whether nanotechnologies pose
any genuinely new ethical issues; see e.g. Preston, Sheinin, Sproat and
Swarup (2010), Ferrari (2010), and McGinn (2010). In this paper we seek
to contribute to this debate. We argue that some nanotechnologies do
indeed bring about new ethical issues. These are of at least two types:
(1) sometimes the consequences of nanotechnological applications are
radically di erent from what we have experienced before, meaning
that we are not able to determine whether the consequences in question
are good or bad, and (2) sometimes nanotechnologies make it di cult
to apply traditional moral distinctions, such as that between natural
objects and artefacts. An example of (1) could be nanotechnological
tissue-engineering, which could according to some experts extend the
life-expectancy of human beings to hundreds of years. As we can only
imagine life-spans of up to about one hundred years, we are currently not
able to imagine what it is like to live for hundreds of years and whether
or not that is something we should welcome. An example of (2) could be
a cyborg combination of human and machine that may prevent us from
drawing a distinction between a human life and a mere artefact.
27
Eindhoven University of Technology
87
The structure of this paper is as follows. In Section 2 we discuss
what it means to claim that something gives rise to a new ethical issue.
What does the word “new” mean in this context? In Section 3 we argue
that it is reasonable to think that technologies can sometimes give rise
to new ethical issues in a quite fundamental way: in order to make a
moral appraisal of the technology we have to develop or refine our
ethical principles and concepts. This happens in particular, we argue,
when new technologies blur well-established moral boundaries, such
as the boundary between “good” and “bad”, “safe” and “risky”,
or “morally right” and “morally wrong”. Finally, in Section 4, we
apply our conceptual framework idea to nanotechnology. We also
discuss more in detail how we are to understand the claim that new
technologies, such as certain nanotechnologies, blur traditional ethical
boundaries.
So new technologies ever give rise to new ethical
issues?
We concede that there is a trivial sense in which new technologies
give rise to new ethical issues. Consider, for instance, the development
of the atomic bomb during World War II. Prior to the launch of the
bomb, it was simply impossible to kill a quarter of a million people in
a single a ack28. Therefore, the ethical questions faced by politicians
and other decision makers in the post WW II period became di erent
a er the introduction of this new technology. Some actions that were
previously impossible to perform – such as starting a nuclear war
that could put the lives of hundreds of millions of civilians at risk
– suddenly became available29. In that sense, nuclear technology is
one of several technologies that have given rise to novel moral choice
problems. When a new technology is introduced, the available options
faced by the decision maker sometimes change30.
Another example of how a novel technology may give rise to new
28
It is estimated that between 150.000 to 260.000 people died within four
months of the two a acks in Japan in 1945. See h p://www.rerf.or.jp/general/
qa_e/qa1.html. (Retrieved March 31, 2011).
29
For an excellent discussion of the new choice situations prompted by novel
technologies, see (Illies 2009).
30
Cf. (Illies 2009).
88
moral choice problems is the Internet. The Internet has enabled us to
communicate with many more people than what was feasible in the
past. As a consequence of this, Internet users are now facing a number
of moral choice problems that did not exist before. Here are a few
examples: Is it acceptable to forward messages received from others?
Is it morally permissible to play violent online games? Is it always
wrong to trace the identity of people wishing to remain anonymous?
We take it that almost no one would deny that novel technologies
sometimes, in the sense outlined above, give rise to novel moral choice
problems. Whenever the available options and their consequences
are di erent from what we are used to, we should of course think
through the situation carefully before we decide what to do. However,
just because a novel technology enables us to do something that was
previously impossible, it does not follow that we need to rethink
our ethical principles or concepts. Suppose, for instance, that you are a
consequentialist. By definition, you believe that an action is right just
in case its consequences are optimal31. Now, all you have to do in order
to decide how to behave when faced with some novel technology is to
figure out what the consequences of using the technology would be.
This may not be an easy task, but your ethical principle will remain
exactly the same as before. The new technology has not given rise to
any new ethical issue, at least not if we define ethical issues as ones that
have to do with what ethical principles or concepts are to be applied
to a moral choice problem. The same holds true, mutatis mutandis, for
Kantian duty ethicists and virtually all other major ethical theories. For
the Kantian duty ethicist the crucial question is whether the principle
governing the use of a new technology could be universalised or not.
Given that the Kantian is able to answer this question correctly, the
conclusion will again be that the new technology has not given rise to
any new ethical issue.
The key question we are trying to answer here is: when is it
reasonable to claim that a moral issue is “new”? So far, we have briefly
considered the suggestion that an ethical issue is new if the technology
triggering it gives rise to a new moral choice problem, which appears
to be the standard view in applied ethics. In addition to the objections
raised above, it is worth pointing out that hardly anyone would
31
We are aware that this definition is a bit oversimplified in case we also take
multi-dimensional versions of consequentialism into account: see (Peterson
2012).
89
deny that di erent (although new) technologies sometimes give
rise to the same ethical issues. In computer ethics, for instance, few
people would claim that computer systems running on Windows and
Mac OS are certain to trigger di erent ethical issues, although the
technologies are certainly di erent. There is no one-to-one (or one-tomany) relationship between technologies and ethical issues. Another
problem with the standard view that every piece of novel technology
triggers one or several new ethical issues is that it can also be di cult
to explain when a technology can be reasonably said to be new. Was the
atomic bomb really new? Yes, in the sense that it enabled killing many
people in a single a ack. No, in the sense that other bombs already
existed, although they had more limited capabilities. Nanotechnology
is another example of a domain in which the distinction between new
and old technologies can be strongly debated. Some people think
that nanotechnology is just more of the same, as we have always
manipulated molecules. Others feel that the level of sophistication to
which nanotechnology could take the manipulation of molecules is so
much higher than before that one can speak of a qualitative jump. But
the extensive a ention that is given already now to nanotechnology
indicates that many ethicists feel that there is something about
nanotechnology that makes it raise a whole range of moral issues that
require special reflection32.
There are also other problems with the standard view that a
technology is new if the moral choice problem the technology gives
rise to is new. If we accept this approach, it immediately follows that
the “newness” we are talking about would by no means be unique
for the engineering sciences. As explained above, novel technologies
sometimes put us in moral choice problems that we have never
experienced before, but the same is true of many natural events, such
as winter storms, natural disasters, and many other non-technological
events. No one thinks that winter storms or earthquakes raise any
new ethical issues. Although new technologies give rise to new moral
choice problems, they do not give rise to any new ethical issues in the
sense that they do not make it necessary to revise our ethical principles
or concepts. No ma er how drastic the e ects of a new technology
will be, it seems that we can always make a moral appraisal of it by
applying the same old moral principles that have been discussed in
32
See (De Vries 2008) for a systematic survey of moral issues raised by
nanotechnology.
90
the ethics literature for hundreds of years. That is, old principles and
old concepts su ce for resolving new moral choice problems. This
indicates that this option for “newness” is not very interesting from
an ethical perspective.
The inapplicability of old principles and concepts
Let us try to summarise the observations in the foregoing section
in two general but tentative structural hypotheses. The first hypothesis
is that new technologies sometimes give rise to new moral choice
problems. This is arguably somewhat trivial, and by no means unique
for novel technologies. Although novel technologies sometimes put
us in choice situations we have never experienced before, the same is
true of many natural events, such as winter storms, natural disasters,
and many other non-technological events. Although these issues may
be very serious, it might very well be the case that we can in principle
always analyse them by using old ethical principles and concepts.
The second tentative hypothesis is that although new technologies
give rise to new moral choice problems, they do not give rise to any
new ethical issues – at least not if we take new ethical issues to be ones
that make it necessary to revise our ethical principles or concepts. No
ma er how drastic the e ects of a new technology will be, it seems that
we can always make a moral appraisal of it by applying the same old
moral principles that have been discussed in the ethics literature for
hundreds of years. According to advocates of the second hypothesis,
old principles and old concepts su ce for resolving new moral choice
problems.
We take it that the two tentative hypotheses are fairly widely
accepted by contemporary ethicists. Exactly how widely accepted
they are depends on how we interpret the various claims people have
made in the literature, but this is not the right occasion for dwelling on
this exegetical issue. We simply assume that the two hypotheses are
su ciently widely accepted for being worthy of a detailed analysis.
We also note that whether the two hypotheses hold true also has
implications for how we are to think about the ethics of technology
from a more general perspective: is this a subfield of applied ethics
that deserves special a ention because it raises new ethical issues, or
91
can everything that is worth saying about the ethics of technology be
derived from old moral principles and concepts originally developed
in other ethical discourses?
Our position is that although the first hypothesis is indeed true,
the second is false. Some novel moral choice situations brought about
by new technologies cannot, in a strong sense, be properly analysed
by applying old moral principles and old moral concepts. This is not
because a proper analysis of these novel choice situations would require
some fundamentally di erent principles or concepts. The reason is
that some novel technologies make it impossible, in a strong sense, to
apply the old moral principles and concepts we are familiar with. Our
existing principles and concepts need to be refined and developed
further. We shall use the expression “blurred ethical boundary” for
referring to cases in which the introduction of a novel technology
makes some traditional ethical principle or concept inapplicable. In
such situations, there is no determinate answer available, not even
for an agent who has access to all relevant empirical facts, to how an
ethical principle or concept should be applied.
In order to illustrate our claim, it is helpful to consider a simple
example. Suppose that the development and use of a novel technology,
let us call it T, brings about some consequence C, and also suppose
that you accept some moral principle that assigns at least some moral
weight to consequences (which, of course, does not entail that you
are a consequentialist). Now, in order to make a moral appraisal of T
you have to be able to determine whether C is a positive or negative
consequence (or, strictly speaking, is be er or worse than the relevant
alternative consequences). Given this, the claim that T blurs an ethical
boundary means we cannot determine whether C is a positive or
negative consequence of T. Why not? Well, because C is so di erent
from everything else we have experienced and therefore do not fit
with our present conceptual apparatus.
Generally speaking, when we determine whether something is
good or bad we typically do this by comparing with something we are
familiar with and which we know that our traditional principles and
concepts can analyse properly. The first time you taste a new wine, for
instance, you will most certainly compare it with other wines you are
already familiar with. This is why it takes time to learn to taste and
correctly evaluate the quality of a wine. The first time in your life you
92
taste wine you will most certainly not be able to assess it correctly. This
is not because there is no true answer to the question – the quality of
the wine is what it is – but because you are not in a position to evaluate
its quality. Among other things, you need to acquire a conceptual
apparatus that enables you to formulate conscious thoughts about the
taste of the wine.
Let us take this analogy to its extreme. Imagine that the sommelier
in your favourite restaurant o ers you some very odd type of wine,
such as wine made from lingon berries (a type of berries found in the
north of Sweden). Given that you have never tasted this type of wine
before, it will be di cult for you to decide what to think about it. The
traditional concepts and principles we have for evaluating wine do not
apply to wine made from lingon berries. Although you are perfectly
able to describe all the chemical facts of the wine, you are unable to
tell whether it is a good or bad wine. This holds true even if you are
a very experienced wine taster. In this type of case, the principles and
concepts used for the evaluation need to be further developed. It is
not su cient to just gather more empirical facts about the chemical
composition of the lingon berry wine.
The analogy with novel types of wines serves to illustrate in what
sense novel technologies can blur traditional ethical boundaries and
why such technologies can make it necessary to rethink traditional
moral principles and concepts. The principles and concepts we are
familiar with, and which we know how to apply in a wide range
of contexts, do not su ce for determining whether, for instance,
some novel type of consequence is good or bad. In that sense, novel
technologies can give rise to a novel ethical problems and questions.
We do not wish to claim that we know for sure that there is no
correct answer to how a moral principle or concept should be applied
in the cases we are concerned with. For all we know, such objectively
correct answers may very well exist, at least in some cases. In those
cases, our claim is just that some novel technologies make it impossible
to apply certain moral principles and concepts until we have figured
out how the relevant principles and concepts should be applied. The
principles and concepts need to be further refined and developed
by the people using them, not replaced with some entirely new set
of principles and concepts. However, as we will explain in the next
section, there might also be cases in which the blurring of boundaries
93
is not only due to various forms of epistemic uncertainty; it is surely
conceivable that sometimes there is no determinate answer to what is
good or bad, or to what ought to be done or ought not to be done.
Nanotechnology, moral uncertainty, and degrees of
rightness
In this section we illustrate the argument developed in the
preceding section by applying it to nanotechnology. We also provide
a more detailed analysis of what it means to say that nanotechnology
(or some other technology for that ma er) blurs an ethical boundary.
We acknowledge that the term “nanotechnology” is problematic
because of the many di erent technologies for which it is used. Nanotoothpaste is, for instance, very di erent from a technological point
of view from molecular nanotechnology with its world-changing
promises. To many nanoscientists, the whole idea of molecular
nanotechnology is science fiction. They therefore doubt if it is at
all worthwhile to have any serious debate on the possible e ects of
something as speculative as this. Despite this, we nevertheless believe
that some recent debates over the ethics of certain nanotechnologies are
well suited to illustrate our claim about blurred ethical boundaries.
Let us consider an example. One of the possible future applications
of nanotechnology is the manipulation of atoms to repair damaged
human tissue. Tissue engineering is not an entirely novel technology,
but it is still dependent on natural growth of tissue on sca olds. In
the future, nanotechnological tissue engineering might eventually
enable us to repair human tissue, in particular brain tissue, at such
a pace that death could be postponed. Although this is one of the
far reaching claims made by only a small number of scientists, this
is nevertheless an example that can be used in an ethical debate of
the sort of consequences nanotechnology might eventually have. That
said, the moral qualities of the possible e ects of this technology are
still extremely di cult to assess: should an extended life span always
be welcomed? The average transhumanist would presumably answer
“yes” without any reservation. But for others the situation is less clearcut. As we have no other experiences than lifetimes of up to about 90
years, we can hardly make any sensible estimate of what it will be like to
94
extend life to hundreds of years. Is this something we should welcome
or fear? Will we find ways of spending this potentially endless time to
our satisfaction? Will we still find it meaningful to study, read books,
and meet new people, if we believe that we still have hundreds of years
le to live? Such confusion about the meaning of basic issues in our
existence makes it extremely di cult to develop a view about how to
appreciate the consequence of this potential development as positive
or negative. Arguably, many people feel that their own existence is
closely related to the idea that life ends, and that the human life span
is such that we cannot wait too long with realising certain “long term”
goals in order to make sure we get there in time. Therefore, it is simply
unclear whether the possibility of exterminating all serious diseases by
repairing tissues is something we should welcome or not, and it seems
that no existing moral principles or concepts su ce for se ling this
issue. It is, therefore, not unreasonable to claim that tissue engineering
blurs the ethical boundary between morally desirable and undesirable
interventions.
Unsurprisingly, the blurring of an ethical boundary makes it
di cult to make a moral appraisal of acts involving this type of tissue
engineering, and it is not just the boundary between “good” and
“bad” that is blurred. Traditionally we would judge “healthy” as a
good a ribute and “diseased” as a bad one, but what can we do if
the distinction between “healthy” and “diseased” is no longer clear
and a new state of “potentially diseased” has emerged? It is predicted
that the “lab-on-chip” technology will make it feasible to have regular
medical examinations that yield complete DNA maps and changes for
developing a variety of diseases (Abgrall 2007). Consequently, even if
one is healthy right now, one has to live with knowledge that there is
a realistic chance of developing certain diseases. Of course, techniques
to establish potential diseases already exist, but this is very limited
compared to what the “lab-on-chip” technology will o er. We will
have knowledge at such a detailed level that this will no doubt have an
impact on our perception of “health” and “disease”. Smits has argued
that that society handles this problem of blurring category boundaries
by redefining categories (“taming the monster”, as she calls it), but
even the appreciation for the redefined categories (which is “good”
and which is “bad”) are by no means obvious. This has implications
for the way we perceive a possible event as a risk or not.
A second example is the blurring of boundaries between humans
95
and machines (brought forward by Swierstra 2009a and 2009b). Nanotechnology may enable us in the future to make very direct connections between human brain cells and wires in devices. This will mean
a blurring of the boundary between human and device. Many science
fiction movies have already played with this idea of a cyborg. Is it a
human being or a machine? Is it natural or unnatural for a person to
have extreme forces or computing capabilities as a cyborg may have?
We take the example outlined above to show that it is reasonable
to claim that at least some technologies, and possibly some applications of nanotechnology, blurs ethical boundaries between “good”
and “bad”, or “natural” and “unnatural”, or “safe” and “risky”. Moreover, given that we take considerations such as these to determine
the deontic status of our actions, it seems that the boundary between
“morally right” and “morally wrong” may also be blurred (given that
one rejects ethical principles that turn non-sharp moral properties into
sharp deontic verdicts)33.
As we noted towards the end of Section 3, there are at least two
ways in which one can understand the claim that a technology blurs
an ethical boundary. First, one could claim that this is an example of
moral uncertainty : although we do not know whether the long-term
e ects of tissue engineering are good or bad, there is a determinate
binary answer to the question. Compare, for instance, with the number
of helium atoms in universe; it seems clear that there is a determinate
binary answer to the question whether the number of helium atoms
in universe is odd or even, although no one knows the answer. From a
metaphysical point of view, moral uncertainty is nothing odd. We, as
epistemic agents, do simply not know whether the long-term e ects
of tissue engineering are good or bad, but given that we have access to
all relevant information it would be easy to determine the answer. The
philosophical problems surrounding moral uncertainty have been
extensively discussed by Lockhart (2000).
Although the debate over moral uncertainty is interesting,
we believe that there is more to the blurring of ethical boundaries
than mere epistemic uncertainty. To put the intuition in a very
straightforward way, it seems that theorists who agree with us that
(some) nanotechnologies blur ethical boundaries would be inclined to
think that sometimes there is no correct answer to whether the long
33
See Peterson (2012) for a discussion of this point.
96
term e ects of tissue engineering are good or bad. According to this
second proposal, to claim that a technology blurs an ethical boundary
is to make a metaphysical claim: there simply is no sharp distinction
between good and bad, natural and unnatural, risky and safe, or
morally right and morally wrong.
In his previous writings, one of the authors has discussed two of
the above-mentioned dichotomies, viz. the idea that there is no sharp
line to draw between good and bad, as well as the idea that there is
no sharp boundary to be drawn between morally right and morally
wrong (Peterson 2010, Espinoza 2011).
First consider the boundary between good and bad. In recent
years, there has been an extensive debate among moral philosophers
over non-traditional value relations such as “parity” and “rough
equality”34. These concepts seek to capture the intuition that the
distinction between what is good and bad is not always sharp. Imagine,
for instance, that you wish to find out who was the be er philosopher,
Jean-Paul Sartre or George Edward Moore? It seems clear that Moore
did not write as elegantly as Sartre, but his philosophical originality
was certainly greater. In the terminology introduced by Chang (2002),
we may say that Sartre and Moore were “on a par” with respect to
their philosophical skills. By definition, two objects are on a par if and
only if (i) they are comparable, and (ii) it is false that one is be er than
the other, and (iii) it is false that they are equally good. This means
that parity is a novel fourth positive value relation, which di ers
fundamentally from the three traditional value relations “be er than”,
“worse than” and “equally as good as”. Parfit’s and Gri n’s concept
of “rough equality” is designed to capture essentially the same
intuition about evaluative comparisons between very disparate items
(Parfit 1984, Gri n 1989). We take it that the intuition that some novel
technologies blur certain evaluative boundaries can be at least partly
understood as a claim about the existence of such a new non-standard
value relation that di ers fundamentally from the traditional value
relations “be er than”, “worse than” and “equally as good as”.
Let us now try to shed some light on the idea that a blurred moral
boundary could also be conceived of as a case in which there is no
sharp boundary to be found between “morally right” and “morally
wrong” actions. For an example of a case in which a certain form
34
Cf. (Parfit 1984) and (Chang 2002).
97
of nanotechnology seems to be morally right to some degree and
morally wrong to some (other) degree, consider the use of extremely
small nano-cameras. Nano-cameras can be hidden very e ectively,
and although they do not yet exist, there has been a lot of speculation
about their possible use. Perhaps nano-cameras are more right to
use than traditional surveillance cameras, since they increase overall
safety in society – but they may at the same time be more wrong, since
they give rise to various privacy issues.
Throughout the past centuries, moral philosophers and other
thinkers have proposed a wide range of principles for distinguishing
morally right actions from morally wrong ones. Utilitarians, Kantians,
contractualists, and rights-theorists disagree about what makes right
acts right, but they all agree that there is a sharp distinction to be drawn
between right and wrong actions. However, on the view proposed
here, some actions, such as the use of nano-cameras or certain forms
of tissue engineering, are neither entirely right nor entirely wrong.
Such actions have some moral status that falls between entirely right
and entirely wrong. Peterson (2010) and Espinoza and Peterson (2011)
argue that such actions are best thought of as not being entirely right
or wrong, but rather right or wrong to some degree. That an action is
right to a certain degree means that it is more right (or righter) than
an action that is right to a lower degree. It is worth pointing out that
this view could also be formulated in terms of actions that are neither
obligatory nor forbidden, or neither permissible nor forbidden, and
so on. The choice of primitive deontic categories is to some extent
irrelevant.
If accepted, the claim that moral rightness and wrongness vary
by degrees could make societal debates about nanotechnologies less
polarised. Instead of debating whether e.g. nanotechnological tissue
engineering is right or wrong, we could instead acknowledge that this
technology is right to some degree and wrong to some degree. In that
sense, using this technology blurs the boundary between what it is
morally right and morally wrong to do. This interpretation of the idea
that nanotechnologies blur the distinction between moral rightness and
wrongness can thus enable moral theorists to provide more nuanced
analyses of cases that have previously been treated in less precise ways.
Unfortunately, the two proposals sketched here for how to analyse
the idea that new technologies blur ethical boundaries come at a price.
98
The problem is that it may be questioned whether new technologies
really give rise to new ethical problems, since the notions of moral
uncertainty and degrees of moral rightness have to some extent already
been discussed in the literature. Therefore, it could be argued that a
blurred ethical boundary does not seem to require that we develop
any new ethical principle or concept – we just have to apply a set of
old, already existing concepts.
Our reply to this objection is that the two ways of understanding
the notion of a blurred ethical boundary sketched above are primarily
thought to be theoretical analyses of what it means to say that a
novel technology blurs an ethical boundary. That is, these theoretical
constructs do not give us all the moral information we need for actually
analysing the novel pieces of technology. There is thus an interesting
sense in which (nano)technology gives rise to new ethical issues:
sometimes a novel technology blurs a morally relevant boundary,
meaning that all the factual knowledge in combination with our
existing moral principles and concepts do not su ce for making a
moral assessment of the novel technology.
Références
Abgrall P. and Gué A.-M., “Lab-on-chip technologies : making a
microfluidic network and coupling it into a complete microsystem
– a review“, Journal of Micromechecanics and Microengineering 17,
2007, R15-R49.
Chang R., “The Possibility of Parity”, Ethics 112, 2002, pp. 659-688.
de Vries M., “A Multi-Disciplinary Approach to Technoethics”, in
Luppicini R. and Adell R. (eds.), Handbook of Research on Technoethics.
Hersey, NY : Information Science Reference (IGI Global), 2008,
pp. 20-31.
Espinoza N. and Peterson M., “Risk and Mid-Level Moral Principles”,
Bioethics, 2011, in press.
Ferrari A., “Developments in the Debate on Nanoethics: Traditional
Approaches and the Need for New Kinds of Analysis”, Nanoethics
4, 2010, pp. 27-52.
Gri n J., Well-Being: Its Meaning, Measurement, and Moral Importance,
Clarendon Press, 1986.
99
Illies C. and Me ers A., “Artefacts without agency”, The Monist 92,
2009, pp. 420-440.
Lockhart T., Moral Uncertainty and Its Consequences, Oxford University
Press, 2000.
McGinn R., “What’s Di erent, Ethically, About Nanotechnology?:
Foundational Questions and Answers”, Nanoethics 4, 2010, pp. 115128.
Parfit D., Reasons and persons, Oxford University Press, 1984.
Peterson M., “Parity, Clumpiness, and Rational Choice“, Utilitas 19,
2007, pp. 505-513.
Peterson M., “Some Versions of the Number Problem Have No
Solution” Ethical Theory and Moral Practice 13(4), 2010, pp. 439451.
Peterson M., “Multi-Dimensional Consequentialism”, Ratio 25(2), 2012
(forthcoming).
Preston C., Sheinin M., Sproat D., and Swarup V., “The Novelty of
Nano and the Regulatory Challenge of Newness”, Nanoethics 3,
2010, pp. 13-26.
Smits M., “Taming monsters: The cultural domestification of new
technology”, Technology and Society 28(4), 2006, pp. 489-504.
Swierstra T., Boenink M., Walhout B. and van Est R., “Converging
Technologies, Shi ing Boundaries”, Nanoethics 3, 2009a, pp. 213216.
Swierstra T., van Est, R. and Boenink M., “Taking Care of the Symbolic
Order: How Converging Technologies Challenge our Concepts”,
Nanoethics 3, 2009b, pp. 269-280.
100
Small particles, big issues
Nanotechnologies and ethics
Göran Hermerén35
Rapid development
Nanotechnologies are used in the car industry, in aerospace
industry, in the chemical industry, in the pharmaceutical industry,
in medicine and biotechnology, in information and communication
technologies, as well as in the cosmetics and food industries. There
are thus several nanotechnologies and many applications of these
technologies; and they raise partly di erent problems.
The Wilson Center in the US stresses the di culty of identifying
nano-based products because information to consumers is o en
incomplete. But the Wilson Center has identified 738 such products
in the area of health and fitness and more than 1300 such products
totally according to a recent update.
Nanotechnology is anticipated to be the globe’s next big economic
driver. This has encouraged major investments in research and
infrastructure. Five U.S. cities have emerged as the country’s top “Nano
Metro” locations — areas with the nation’s highest concentration
of nanotech companies, universities, research laboratories, and
organizations.
In this paper, I will focus on ethical issues raised by nanoparticles
of di erent kind. In passing, I would like to add that I have deliberately
chosen “big issues” in the title, not “big problems”. The expression
“big issues” covers many things: “big problems, di cult problems,
but also big promises”.
35
Lund University
101
Nano focus on health and environment
I will first consider applications of nanoscale research in the area
of medicine and health, then applications focusing on environment.
There is clearly also an interesting connection between the two areas
in that pollution of the environment is likely to have adverse impact
on public health.
Medical applications
Since several decades considerable progress has been made in
many medical areas of application, for instance imaging, biomaterials,
diagnostics, and drug delivery. Moreover, it has been shown that
nanowires can generate electricity, and that nanowires have the
potential to be used for deep brain stimulation, which can be used in
the ba le against Parkinson’s disease.
As is obvious from several surveys, products on nanotechnology
can be used for diagnostic and therapeutic purposes, including
improved imaging, lab-on-a-chip, production of new biomaterials,
improved drug delivery and so on. Therapeutic targets include
metastatic cancer, ocular repair, non-healing wounds in aging
population, infectious diseases, arthritis, tissue repair and orthopedic
surgery; I learnt about the la er from Andrew McCaskie.
Ruth Duncan wrote already in 2004: “Progress in the development
of nanosized hybrid therapeutics and nanosized drug delivery
systems over the last decade has been remarkable. A growing number
of products have already secured regulatory authority approval and,
in turn, are supported by a healthy clinical development pipeline”
(Duncan 2004).
A modest example may illustrate the potential. Nanoparticles of
cadmium selenide have been injected into mice. When exposed to
ultraviolet light, these nanoparticles will glow. They can seep into
cancerous tumours and help surgeons excise cells without disturbing
healthy ones – thus, without the negative side e ects of current
treatments like radiation and in particular chemotherapy.
102
These possibilities have a racted many small and medium-sized
companies to develop new products. For instance, according to Nano
Magazine, Israeli start-ups have developed nanotechnology water
purification membranes, agents for oral drug delivery, inkjet digital
printing systems, diagnostic tools, as well as holographic storage
systems.
Environment
When thousands of products containing nanoparticles are used
and thrown away, what happens to the waste? Is there any risk that
especially free nanoparticles will be spread in air, soil and water,
polluting the environment? Will nanoparticles accumulate and build
up new properties, which may be harmful to human beings? Currently,
we do not know.
Climate change is an important problem, high on the political
agenda today. The ability to keep CO2 out of the atmosphere to
help prevent climate change is a global issue. The challenge is to use
materials that can capture CO2 and then release it easily for permanent
storage. Researchers at the University of Calgary and University of
O awa have taken important steps in that direction. Their discovery,
published in Science, Oct 29, 2010, will allow scientists to design be er
materials to capture more CO2.
Fossil fuels will not last forever. As oil prices are going up, more
and more a ention is given to alternative energy sources. Probably
solar energy is most a ractive due to its nature. Producing arrays for
solar energy conversion or transistors may be four times faster thanks
to new nanometer-scale optoelectronic devices. At University of
California, San Diego, electrical engineers have created experimental
solar cells spiked with nanowires that could lead to highly e cient
thin-film solar cells of the future.
To sum up so far: nanotechnologies can provide new possibilities
to produce cheap and clean energy, to get clean water with the help
of nanofilters, to facilitate improved (lighter, stronger) materials for
cars and aeroplanes as well as hundreds of new products, including
sunscreens and sunglasses.
103
Clearly, there are many promising research avenues and areas.
But there are also problems.
Toxicity studies have shown that spherical carbon nanoparticles
can a ect metabolism, have e ects on kidneys resulting in decrease
in body weight and dwarfed vital organs. This type of particle can
also have adverse e ects on the respiratory system. But much remains
unknown in this area. For example, we do not know if nanotubes have
an e ect on the nervous system, nor if spherical carbon nanoparticles
are carcinogenic. We know that we do not know. But do we know
what conclusions to draw from this lack of knowledge?
A major study published recently in Nature Nanotechnology
suggests some forms of carbon nanotubes could be as harmful as
asbestos if inhaled in su cient quantities. The study used established
methods to see if specific types of nanotubes have the potential to
cause mesothelioma — a cancer of the lung lining that can take 30-40
years to appear following exposure.
Which are the ethical problems?
The previous section identifies several hazards. Are these problems
new? I am not convinced by that. But that does not mean the problems
are unimportant. The criteria of novelty are not entirely clear. Besides,
few problems are completely new and without any precedent.
Safety issues are raised by many new technologies. But it would be
absurd to conclude that the safety issues raised by various applications
of nanotechnologies, for instance, the use of quantum dots or carbon
nanotubes in nanomedicine, should not be discussed, because this is
not a “new” issue.
Safety issues are crucial. There are indications that certain types of
carbon nanotubes give rise to asbestos-like pathogenic e ects related
to the structure and length of the tubes. Studies on rats have shown
that nanoparticles can be absorbed via the nose and then transported
to the brain where they accumulate (Ostiguy 2008, Hermerén 2010).
But the extent to which this will give rise to health hazards remains to
be studied in more detail. Li le is also known about the health impact
of cosmetics containing nanoparticles.
104
The ethical issues raised by nanotechnology and nanoresearch
include but are not exhausted by consumer safety and assessment
of risks in relation to expected utility. Other issues, briefly identified
below, include informed consent in research and health care, integrity
and privacy, transparency, intellectual property rights, hype, justice
and fairness. Assessment and management of risks, especially when
there are considerable knowledge gaps, known unknowns as well as
possibly unknown unknowns, raise a number of di cult issues about
which there is an extensive international literature.
By the way, identified risks should not be regarded as obstacles for
technological development but as a strong reason to get more robust
and reliable knowledge as well as more adequate methods of risk
assessment. Di erent nanomaterials exemplify di erent risks, and
more research is needed about the e ects of these materials on health
and environment. More toxicological studies need to be carried out.
Research ethics and informed consent is another important ethics
area. It is di cult to inform research subjects and consumers in a
way that is not misleading about processes and products, when our
knowledge is fragmented and incomplete – and when the methods
used to identify risks and e ects have a number of documented
shortcomings.
Consent may not be too di cult to obtain. But when is it informed?
And when is it free? The analogy with a marriage may be illuminating.
When both parties say ”yes” there is clearly consent. But is the consent
informed? This is doubtful. The risks are largely unknown, and so is
the duration of the relationship.
For translational research, aiming to bridge the gap between bench
and bedside, clinical trials are crucial. Then there is a need to discuss
both informed consent and selection of patients – and how to deal
with desperate patients prepared to consent to anything. Long-term
negative e ects of implanting nanodevices into the human body are
by and large unknown.
Conditions for withdrawal of consent is another issue that is
relevant for both research and health care. It is also di cult. This is
especially the case when the consent cannot be revoked, for example,
because nanodevices have been implanted into, and integrated with,
the spinal cord or the brain.
105
Integrity and privacy are other pertinent concerns in this area.
Nanotechnology, especially if combined with bioinformatics and other
emerging technologies, will make it possible to collect and analyze
vast amounts of data about individuals. Which are the consequences
of this for the integrity and privacy of these individuals? For possible
uses by third parties such as employers, insurance companies and
relatives? How is a fair balance between interests of integrity and
other interests to be achieved?
Transparency and societal debate are other important aspects of
new and emerging technologies, related to the right of consumers to
know what they buy. What do consumers know about the ingredients
of products they buy? What do they want to know? Labelling is a
hot issue in this context. It raises practical problems. The health
e ects of certain nanoparticles may depend on the presence of other
particles. But from a political point of view there is pressure to provide
consumers with be er information about what they pay for.
In the Biotechnology directive, it is made clear that methods
and products based also on new, emerging technologies are to be
patentable provided that they meet the standard conditions of
patentability. Is this the case with nanodevices and methods based
on NS&NT (nanoscience and nanotechnology) research? Probably
we have to look at concrete examples and decide on a case-by-case
basis. Will some inventions based on nanoscale research violate the
“morality clause” of EPC (European Patent Convention) article 53 (a)
or be covered by the list of exceptions? Since patent law is an a empt
to strike a balance between di erent interests, ethical issues are likely
to emerge in the course of this discussion.
Of course, what can be achieved is not identical with what has
been achieved. Sometimes it is more tempting to talk about future
possibilities than about past achievements. There is a hype problem
in many new and emerging technologies, because funding of basic
research is limited. NS&NT research is no exception. To put it crudely,
scientists also have vested interests. Hardly surprising, they want
money for their research. So when some scientists are asked if they
can solve the energy problem, the answer is likely to be YES. Similarly,
when they are asked: Can you cure cancer, improve drugs and drug
delivery? Again many scientists are likely to say, like Obama: ”yes,
we can”.
106
The reason for yielding to such temptations is an underlying
problem in funding policy. To get funded many researchers are, or
believe they are, under pressure to promise that their research will
lead to practical applications in various fields. In EU and in many
member states, focus is on innovations that can be applied practically
to improve the health of citizens, make products more competitive on
the global market, fight unemployment, provide be er and safer food,
etc. If funding for basic research, for seeking new knowledge for the
sake of understanding processes and events, is reduced, scientists can
be tempted to promise something in order to get funded. But if they
promise too much too early, this may lead to frustration and backlash,
as was the case in gene therapy, for example.
Last but not least, a number of issues related to justice and fairness
are raised, especially if we are prepared to take a global view. Will NS
(nanoscience) and NTs (nanotechnologies) contribute to increase the
gap between developing and developed countries so that the result will
be a nano-divide in addition to the IT-divide that already exists? NT
has a potential to make cheap energy possible, to produce nanofilters
which can help to provide clean water, of immense importance for
public health in the developing countries. But will these possibilities
be explored? In which scale?
The answer to these questions will depend, among other things,
on research priorities – on how research of this kind is prioritized in
relation to the possibility to develop nanomaterials for use in products
which are in demand on markets where there is a lot of capital. Which
diseases, and whose diseases, will be prioritized? Who will benefit?
There is already an extensive discussion about the so-called 90/10
problem, that roughly 90 % of the research resources in the world are
used to study health problems which 10 % of the world population
su er from (Global Forum for Health Research). Will this become true
also of nanoresearch?
To sum up so far, there is a danger in focussing only on standards
of safety. An ethical analysis of any emerging technology needs to go
beyond risk assessment. In fact, excessive focus on safety and risk
assessment can be a way of preventing other ethical issues from ge ing
the a ention they deserve. These issues range from anthropological
issues to protection of integrity, privacy and consumer freedom, and
ethical issues raised by patenting, access and global justice.
107
How are the ethical issues to be handled?
I propose to discuss this question in three further steps. Having
identified at least some of the ethical issues in the previous section, I
will first go on to characterise ethical issues, and then describe some
di erent approaches to them. Finally I will comment on the relevance
of knowledge gaps and uncertainties for this ethical debate.
The nature of ethical problems
Ethical problems at least in this area presuppose conflicts of interest
in a wide, non-technical sense. This approach to ethics invites us to
think not only about which interests but also about whose interests are
at stake. The interests can then be further specified in terms of values,
rights, liberties,… The purpose of the ethical analysis is to identify the
stakeholders, choices, and values at stake, and to clarify the conflicts
of interests and values.
If the interests of all stakeholders could be satisfied at the same
time, there would be no conflicts. In other words, when this is not the
case and there are conflicts of interests, a choice has to be made, which
most likely will benefit some and not others. On what ground is that
choice to be made? This raises both factual and ethical issues. Who
benefits, who does not, who makes the decisions, who has information
and who can influence what is going on? How can this be justified?
There is here a connection between ethics and exercise of power. Some
stakeholders have power, others not. This fact should not be swept
under the carpet.
There are di erent approaches to ethics, as well as di erent
concepts of ethics. The distinction between descriptive, normative
ethics is a well-known one. It can be expressed simply as a distinction
between the two questions: (a) What is right and good, and (b)
what is considered to be right and good? The la er, of course, is a
factual question, which in principle can be answered by sociological
investigations, using surveys and similar methods. Thus, normative
ethics is concerned with rights, liberties, duties and their foundation
or basis. But descriptive ethics essentially describes and analyses
practices, values and norms, in di erent societies at di erent times.
108
The distinction between practical and theoretical ethics is less
discussed but quite relevant in this context. The distinction is not a
sharp one. The goal of practical ethics is mainly to reach a decision,
or provide reasons for a particular decision, on a hotly debated
normative issue. But theoretical ethics explores logical and semantic
relations, promoting understanding of the key concepts used and the
relations between arguments used for and against various contested
positions. Studies of the relations between di erent concepts and
principles of autonomy, or the relations between di erent versions of,
for instance, Kant’s various formulations of the categorical imperative
would exemplify theoretical ethics in this sense.
Goals and values hang together. Persons will try to achieve a certain
goal because in their view it will be valuable to achieve, or at least to
come closer to achieving, that goal. But ethical issues arise not only in
choices between di erent goals. This can be illustrated by a figure I
have used elsewhere to indicate several clusters of ethical issues raised
by new and emerging technologies like nanoscale research (Hermerén
2007). Thus there is more than one ethical issue which can be answered
by one grand ethical theory, such as utilitarianism or Kantian ethics.
109
Approaches to ethical problems
Let me now move on to describe a few di erent approaches to
ethical problems. Here I will only remind readers of some well-known
alternatives. There is a vast literature on each of them.
Human rights approaches. Human rights are universal, and they
have considerable political support. Access, social and global justice
are obviously relevant concerns here, related to human rights. Without
going into theoretical justification of this approach (elaborated
by philosophers like Alan Gewirth, John Rawls and others), this
approach is supported by, and has influenced, many international
declarations and guidelines, in particular the UN and Council of
Europe declarations on human rights,
Admi edly, the basis of human rights is philosophically
somewhat unclear and debatable. But human rights are politically and
pragmatically important. If policymakers want to achieve a change, it
increases the strength and persuasiveness of the proposed change, if it
can be demonstrated that the proposal is based on human rights.
Utilitarian alternatives. In classical utilitarianism, “happiness” is
the key concept. The idea is to choose the alternative that maximizes
happiness for as many as possible. In modern preference utilitarianism,
advocated by Peter Singer and others, “interest satisfaction” is the key
concept, and the agent should chose the alternative that satisfies as
many strong interests as possible.
Many utilitarians take a dim view of human rights, or try to
provide a philosophical underpinning for human rights in terms of
interests, like for instance Jeremy Bentham.
Kantian approaches. In addition to these two rival approaches,
there are di erent deontological points of departure, including some
based on Kantian ethics, where “human dignity” becomes a central –
and sometimes contested – concept.
What does “human dignity” mean more exactly? A basic idea in
Kantian ethics is that there are things you can put a price on, buy and
sell, like soap, bread and vegetables. But human life does not belong to
this category – it cannot be valued in money. The principle of human
dignity is incompatible with slavery, for instance. Humans should
110
always be treated as ends in themselves, not solely as means to ends.
Virtue ethics. Virtue ethics is currently fashionable and has a
long history in philosophy, going back to Aristotle. It raises di erent
questions than the other approaches, which are more directly designed
to deal with problems raised by choices of alternative actions (“What
should I do? Which action should I carry out?”). The basic question of
virtue ethics is rather, “What sort of person should I be?”
However, it is not altogether easy to apply this approach to the
sort of problems raised by new and emerging technologies. It would
presumably have to be by asking: What would a virtuous person do?
In this situation ? But is there a clear, non-ambiguous answer to this
question? And is there only one type of virtuous person?
Having said that, I will now state and apply what I would like to
call the canonical formulas of the key approaches above to the ethical
issues raised by nanoscale research:
(i) A particular alternative (course of action) is right (ethically
acceptable), if – or only if – or if and only if, it is compatible with
human rights
(ii) A particular alternative is wrong, if – or only if – or if and only
if, it violates human rights.
Similar formulas can easily be suggested for the other
approaches
This sounds simple and straightforward enough. But the challenge
is to show – or make plausible – that the conditions outlined in the “if”
or “only if” clauses are met. Why is this di cult? There are several
distinct reasons. There will be problems of definition that need to be
clarified, empirical aspects that need to be studied, uncertainties and
knowledge gaps which need to be identified, recognized and filled.
In other words, an integration between ethics and science is called for
at this point. Such an integration puts demands on both ethicists and
scientists.
Ethicists should immerse themselves in the challenges and choices
facing scientists in this area. Otherwise they are not likely to contribute
much. Ethics in this context is not something separate from these
111
choices and challenges. Similarly for scientists – they need to acquire
some familiarity with societal debates, ethical problems, traditions,
concerns and concepts, if they want to contribute to this integration.
The particular task of ethicists is to use their philosophical
training to reveal ambiguities, to make distinctions, to make
hidden assumptions explicit, to examine critically the relevance
of arguments, to avoid talking at cross purposes and to elucidate
the issues. In this work their familiarity with basic and important
distinctions will be helpful. They should also use their ability to
assess the relevance and tenability of the arguments proposed. In
particular underlying value assumptions need to be made explicit –
the values as well as ranking orders of values – in order to identify
which values are threatened or promoted by the various choices
open to the agents in the situations at hand.
Knowledge gaps and uncertainties
The highest wisdom according to many philosophers from
Socrates and Confucius is to know what one does not know. Thus
it is essential for scientists to help to identify uncertainties and
knowledge gaps, and to vary the scientific scenarios. Then it should
be possible to examine if and to what extent such variations will
change the preliminary conclusions.
Exploring the choices we are faced with, the alternatives and
their consequences are not the only important things to consider.
The probability or likelihood of the consequences and the value of
the outcomes are, of course, also crucial. Rational decision-making
presupposes we have correct beliefs about the probabilities of the
outcomes and that there is no uncertainty about values and the
ranking order of values. Our desires and preferences determine the
utilities of the possible outcomes.
Preferences and their logical properties, in particular
transitivity, play a central role in conceptions of rational choice. But
St. Augustine’s famous remark about “time” can be applied also to
“rationality”: ”if nobody will ask me what it is, I know; but if you
ask me, I do not”. Di erent ideas and conceptions of rationality
emerge in several disciplines, including economy, sociology and
112
philosophy, and also within di erent philosophical discourses,
ranging from decision theory, game theory, contractarianism, moral
particularism to analytic feminism.
It is o en suggested that it is rational to consider a proposition
to be true only to the extent justified on the evidence available. But
the problem is that in the moral field there will be disagreements
over the relevance of the evidence available; people with di erent
moral views will not always agree on what counts as evidence. The
debate on the ethical acceptability of research on human embryonic
stem cells illustrates this.
A more useful starting point is Weber’s conception of
“Zweckrationalität”, where di erent means to achieve a particular
end are compared. This is an approach I will use here. It seems
clearer what rationality is when we agree on the goals and values
than when we disagree about them. In what sense can there be
a rational debate and decision, when we disagree about the basic
values?
A possible approach may be to take the contractarian view
that rationality presupposes that we respect persons. This in turn
requires the moral principles and values chosen to be such that
they can be justified to each person, given the “veil of ignorance”
described by Rawls in his magnum opus A Theory of Justice. Thus
self-interest or group egoism will not work as points of departure.
Ideally, for a rational debate on how to maximise utility, we
would agree on both values and what we know concerning the
case at hand. The value uncertainty and the epistemic uncertainty
should be low or non-existent. But these conditions are rarely met in
discussions of, and decision-making concerning, new and emerging
technologies. They exemplify both epistemic risk (knowledge gaps
and uncertainties) and uncertainties about values. Then we can
distinguish between four types of cases :
113
In these four situations we need to take a Socratic approach to risk
analysis and risk management, identify factors producing epistemic
uncertainty as well as value uncertainty, and study in what ways they
influence our decision-making and risk-taking (Sahlin 2011).
To what extent is value uncertainty a problem in the present
context? There are di erent types of value uncertainty. To explore
them would be the subject of a separate paper. For the limited present
purposes it is enough to stress that here also empirical aspects are
relevant – and many studies indicate that values di er in di erent parts
of the world. For instance, values have been described and mapped
in the world values project, where Sweden and Zimbabwe are to be
found in opposite corners of the world map. This should perhaps not
be too surprising, even if values here are compared only in very few
dimensions. But there are great di erences also within Europe, for
example, concerning abortion, research on embryos, animal health
and welfare, the status and rights of women, the role of the family,
and the rights of the individual vs. the rights of the collective.
However, this is not necessarily a black and white picture in the
sense that either a certain value is ethically acceptable or not. Values
can be more or less important in di erent situations. The ranking
order of values needs to be examined much more than has been done
so far, as I have argued elsewhere (Hermerén 2008).
For this as well as for other reasons I am sceptical of what I would
call the engineering conception of ethics. According to this conception,
there is one basic concept, for example, human dignity, happiness,
utility or interest satisfaction; as well as one basic principle: for
example, respect human dignity or maximize happiness. Then the
114
idea is to feed in the facts, and press the send-bu on. Out comes the
correct answer. But our moral life is more complex than that.
For one thing, slight di erences in the situations compared can
have considerable consequences for the decision. What is required as
relevant facts is not always independent of the moral starting point.
Moreover, we are partly irrational and myopic; and there are tensions
between the values and the goals we want to achieve. Details in the
specific situation at hand can have great importance for the decision
to be taken.
Thus I am in general somewhat sceptical of one-principle
approaches to ethics. Key concepts in these principles tend to be
vague and ambiguous; and when they are replaced by more specific
concepts, the “one principle” approach quickly multiplies into several
ones. There are more values than one considered to be legitimate
within a culture, also more values than four. Moreover, the same value
can be endorsed in di erent ways by di erent principles. The same
principle, e.g. autonomy, can refer to di erent values, if ambiguous.
Thus we need to make these values explicit, and pay a ention to
their ranking order, which may be di erent from problem to problem,
from situation to situation. Small but important di erences relevant to
problems of decision-making may easily be concealed by one-principle
approaches to practical ethics, incidentally also by four-principle
approaches, like the one advocated by Beauchamp and Childress in
their well-known work Principles of Biomedical ethics.
The EU-debate
A useful starting point for debates on ethical problems raised by new
and emerging technologies, like synthetic biology, nanotechnologies,
information and communication technologies, is provided by the
earlier mentioned international documents on human rights from
the UN, EC (European Commission) and the Council of Europe. The
UN Millennium goals is another important document with political
backing.
115
The European Commission
The ethical aspects have had a conspicuous role in the work of
the European commission. The EGE (European Group on Ethics) was
in 2005 asked by president Barroso to prepare a report on the ethical
aspects of nanotechnology, especially on the medical applications.
The report we wrote used the ethical framework indicated above as a
point of departure. Round table conferences were arranged to which
interested stakeholders were invited. The EGE publications include
Proceedings of the Roundtable Debate organized on 21 March 2006,
and the report Ethical aspects of Nanomedicine, Opinion 21, published
Brussels, January 17, 2007.
Moreover, many research projects studying such aspects have
been supported in framework program (FP) 6 and 7 and thus been
financed by the EU. EuroNanoForum is a biannual event, supported
by the EU, and organised within the framework of the presidency
of the European Union. A empts to stimulate the debate have been
made in many countries, some supported nationally, others by the
EU. Examples supported by FP 7 include NanoSustain, the goal of
which is to examine and develop “new solutions for sustainable
design, use, re-use, recycling and final treatment and/or disposal of
specific nanomaterials”, according to the website of the project.
On the basis of the EGE opinion and other reports the commission
services worked out a Code of Conduct for Responsible Nanosciences
and Nanotechnologies Research (2008). The basic goals of the Code
of Conduct include ensuring that nanoscale research is undertaken
in a safe, ethical and e ective framework, supporting sustainable
economic, social and environmental development of NS&NT
research.
An important point stressed in 4.1.1 of the Code is the need to
maintain an open and pluralistic forum for discussion on NS&NT
research… Later in 4.1.8, it is stated that the “broad direction of
nanoscience and nanotechnology research should be decided in an
inclusive manner, allowing all stakeholders to enrich the preliminary
discussions on these directions”. Thus, this should not be le to the
NS&NT research community alone, as they have, or may be perceived
to have, vested interests in promoting their research agendas.
116
An interesting but controversial point – in view of research on
its way or already undertaken and of the products already available
on the market – is the recommendation 4.1.7 that as long as “risk
assessment studies on long-term safety are not available, research
involving deliberate intrusion of nanoobjects into the human body,
their inclusion in food products (…), feed, toys, cosmetics and other
products that may lead to exposure in humans and environment
should be avoided”.
In 4.3 of the Code of Conduct it is recommended that member states
should support the wide dissemination of this code of conduct, notably
through national and regional public research funding bodies… And
(in 4.3.2) it is recommended that NS&NT research funding bodies
should make sure that researchers in this area are aware of all relevant
legislation, as well as ethical and social frameworks.
What has been adopted and implemented of the Code in the
various member states? The answer is likely to vary from country to
country. What remains to be done? A brief list for my own country
would include the following headlines: the inclusive dialogue, not
limited only to the community of nanoscale researchers. Applications
and development of be er methods of risk assessment, taking into
account current uncertainties and knowledge gaps. Ethical aspects of
safety issues, since decisions on standards of safety are not ethically
neutral. Ethics of risk and precaution needs to be studied further. A
more inclusive dialogue on research priorities, as suggested in the
2008 code of conduct, should be promoted.
As many of you know, consultation has started to prepare an
updated version of this code of conduct – it was possible for individuals,
organizations and authorities/agencies to send in comments up to
January 3, 2010. A dynamic and rapid research development calls for
regular updates of ethical analyses and guidelines. New evidence and
new options may have emerged. This ULB conference is very timely,
also for this reason.
The European parliament
The European parliament has taken an interest in several of
the proposals in the earlier mentioned EGE report from 2007. A er
117
a debate in May 2010 the parliamentarians voted about new rules,
among others that food produced by nanotechnology must be risk
assessed before they are approved for marketing. The parliament
also wanted that food now on the approved list and which had
been produced with the help of nanotechnology should be removed
from the list till these products had been checked for their eventual
impact on consumer health. Finally the parliament voted that all food
products containing nanomaterials shall indicate this on their list of
ingredients.
Legitimacy is important as is trust and confidence. To achieve
this, it is not only necessary that the researchers and the oversight
structures are competent – they must also, as Machiavelli stresses in a
di erent context, be perceived to be competent. In addition, openness
is essential and ethical problems should not be not swept under the
carpet. The ethical problems need to be identified, clarified, examined
and arguments for and against di erent positions have to be presented
and discussed.
One-way communication or dialogue ?
What can we learn from the consumer resistance to GMOs?
Consumer resistance can, of course, be justified. But on what grounds ?
We want public participation, not just opinion polls to find out what
the a itudes of people are. Therefore, we need hearings, citizens’
conferences, distribution and critical examination of background
material.
Communication contra information
We need communication, not just one-way information. It is
necessary to have a constructive dialogue with other stakeholders and
concerned. The agenda should be decided together by the stakeholders
– and with respect for di erent perspectives.
We need to proceed step by step, identify scientific, regulatory
and ethical hurdles and discuss them openly before proceeding
to the next step in order to ensure trust. This dialogue could have
118
important educational value. The participants could learn things
about themselves, about others and about the consequences of their
prima facie preferences. What they learn in the course of this process
could make them change their minds.
The communication strategy outlined above could be questioned,
and therefore some of its underlying assumptions should be made
explicit and defended. For example, it could be argued or suggested
that this strategy is chosen as a means of manipulation. The alleged
reason is then that we want to have the technology accepted, since it
has a potential to be an important economic driver. If we get the public
onboard, this will facilitate acceptance.
It is possible that some of those who advocate this strategy have
this intention, and that they are right about the e ects. But both these
statements may also be false. In particular what is suggested about the
e ects may be wrong. Participation may reveal unexpected dangers of
toxicity which are such that it would be in the long range interest also
of the industry to try something else. And which is the alternative in a
society that claims to be open and democratic?
Lessons from the past
When it is said: we should learn from the GMO debate, what do
exactly should we learn, what do we take for granted? That the agenda
should be decided by the stakeholders together, and not set by the
industry? That there was no cause for concern? That it was a debacle
of the industry or a victory for the consumers? Or all of this?
Media play an important role for shaping public perception.
A well-known researcher in the nanomedicine field once said in a
discussion: “An accident would be a disaster”. And she asked: ”Do
we have the fora needed to bring di erent stakeholders (industry,
clinicians, basic scientists, regulators, patient organizations, media,
environmentalists,…) together for a constructive and open dialogue?
What can be done to improve existing fora?”
Dialogues on new and emerging technologies need to be ongoing.
The problems are not solved once and forever. NS&NT research is
developing rapidly, new applications continue to see the light of
119
day. Ongoing debates need to involve also others than the research
community on priorities, acceptable level of risk, etc. Military
applications and dual uses raise special problems that certainly
deserve more discussion.
Starting early is important… as is taking the concerns expressed
by di erent individuals and groups in society seriously. Models for
involving school children and young people exist… and have been tried
with success in several places. Should ethics come in only when scientific
and technical problems have been solved? That is clearly too late. Why ?
The a empt to solve such problems may raise ethical issues.
For example, during the a empts to solve the problems, research
subjects may have been exposed to too dangerous experiments.
Consequences ma er when possible and alternative uses or spending
of public resources are debated. But not only consequences ma er.
Restrictions are sometimes called for. We would not kill humans to
promote nanotechnology, even if this would benefit the industry, the
research community or even the majority of people in a society.
Conclusions and future challenges
The development of nanotechnological applications in, for instance,
nanomaterials or health care, go stepwise. At every step di erent ethical,
social and legal aspects are raised. These aspects are dealt with before
next step is taken.
Can we a ord to have high ethical standards in times of economic
crisis, growing unemployment and movement of industries to lowsalary countries in Europe when the market is global, and Europe needs
to succeed on a market where the competition is sti – or if we can a ord
NOT to have high standards? Future challenges will include creating
conditions for broad debates also on such issues. It is essential that
nanotechnology is discussed critically also by others than researchers and
industry – if the need to improve and strengthen trust is taken seriously.
How could such processes be initiated? My proposal would be to start
early and use many di erent strategies. Basic facts should be presented
already in school textbooks. Posters are cheap techniques to use. Films
could be shown, theatre plays could be set up, and the audience could
120
a erwards be invited to comment and discuss what they have seen and
heard. TV and social media could be used, prize contests for best paper
could be arranged in schools – for example, best paper summarizing and
commenting on a discussion in TV.
Ethics does not have to be an obstacle for research. If there are
knowledge gaps and uncertainties, more research is needed. Ethics can
also suggest other important tasks for research, which ought to be given
high priority in order to benefit developing countries, improve global
health, diminish or reduce the gaps between rich and poor countries.
In the final analysis, we need to consider and take seriously questions
like: ”What kind of world do we want to live in together? What kind
of world do we want for our children and grandchildren, and for their
children and grandchildren?” In focussing on such questions, we are
forced to see how things hang together – we can not deal with one or two
questions exclusively: unemployment, working conditions, food safety,
public health, social stability, housing and transportation… they all hang
together36.
Références
Duncan R., “Nanomedicines in Action”, The Pharmaceutical Journal 273,
2004, pp. 485-488.
Hermerén G., “Challenges in the evaluation of nanoscale research”,
Nanoethics 1(3), 2007, pp. 223-237.
Hermerén G., “European values – and others. Towards an ever-closer
Union?”, European Review 16(3), 2008, pp. 373-385.
Hermerén G., “Questions éthiques soulevées par les nanotechnologies”,
Annales des Mines, Réalités Industrielles, 2010, pp. 74-82.
Ostiguy C. et al., “Health e ect of nanoparticles”, Second edition, IRSST:
Chemical substances and biological agents, 2008.
Sahlin N.-E., “Unreliable probabilities, paradoxes, and epistemic risks”, in
S. Roeser et al. (eds.) Handbook of Risk Theory, Springer Verlag, 2011.
36
This presentation is related to, but not identical with, a lecture given by me
in Lisbon, November, 2010. The text of that talk is printed in the conference
proceedings: National Council of Ethics for the Life Sciences, Nanotechnologies
and G.M.O – Science, Ethics, Society. Proceedings of the CNECV XI National
Seminar, Lisbon 2011, pp. 35 - 51.
121
Nanotechnologies, nano-luddisme,
néo-luddisme.
Jean-Yves Go 37
Je partirai d’une distinction, pas entièrement étanche d’ailleurs,
entre éthique des nanotechnologies et débat public autour des
nanotechnologies. Les problèmes soulevés par l’éthique des
nanotechnologies ont été excellemment repérés par Bernade e
Bensaude-Vincent et Vanessa Nurock (Bensaude-Vincent 2010,
pp. 353-369) : si on laisse de côté les perspectives qui instrumentalisent
l’éthique pour en faire un ensemble de rece es visant l’acceptabilité
sociale, on peut faire de l’éthique des nanotechnologies une spécialité
parmi d’autres de l’éthique appliquée (c’est le point de vue des
spécialistes de l’éthique) ; mais on peut également faire de l’éthique
des nanotechnologies un ensemble de règles de bonne gouvernance
(c’est le point de vue des institutionnels). Toutefois ces approches
ne parviennent pas à dégager ce qui fait la spécificité des problèmes
éthiques soulevés par des techniques qui se caractérisent autant
par la convergences des savoirs et des pratiques qu’elles mobilisent
que par l’échelle à laquelle elles opèrent. En outre, l’éthique des
nanotechnologies, telle qu’elle se pratique, met l’accent sur les e ets
de celles-ci et reste peu a entive à la production des objets et des
dispositifs que ces technologies font venir à l’existence. Il faut donc
intégrer la question de l’éthique des nanotechnologies dans un cadre
plus général : analyser dans leur genèse des objets nanotechnologiques
précis et déterminés afin d’évaluer de façon réflexive les valeurs
mobilisées dans ce e genèse ; s’ensuivrait la formulation de jugements
éthiques explicites auxquels il serait possible de se référer pour
construire des normes38.
Ce projet n’est réalisable que sous certaines conditions. L’une
d’entre elles est « la mise en débat des choix technologiques » ce qui
appelle « la mise en place d’une véritable démocratie technique »
37
Université Pierre Mendès France-Grenoble 2
Si ce projet se réclame explicitement de Dewey, il est aussi tributaire d’une
conception simondienne de la technique.
38
123
(Bensaude-Vincent 2010, p. 368). Ce débat authentique se faisant
a endre, un autre s’est constitué. Il ne se déroule pas du tout selon
les règles d’une véritable démocratie technique et met en présence, en
réalité, des partisans et des adversaires des nanotechnologies.
On peut distinguer, dans les écrits et dans les propos des uns et
des autres, un niveau argumentatif et un niveau polémique. Certains
pensent qu’il existe un troisième niveau dans ce débat. Disons, à
titre de première approximation qu’il semble plus profond que les
précédents : ce qui se joue dans les procédures argumentatives et
polémiques engagées de part et d’autre semble, en e et, dépendre de
ce troisième niveau, mais non l’inverse.
Qu’en est-il du niveau argumentatif ? Les opposants aux
nanotechnologies soulignent les menaces dont leur mise en
œuvre serait porteuse : les nanotubes de carbone dispersés dans
l’environnement risqueraient d’être inhalés et de causer de très
sérieuses maladies pulmonaires ; le développement des lecteurs, des
étique es et des puces RFID constituerait une grave mise en cause des
libertés publiques ;
les applications militaires des micro et
nanotechnologies pourraient être dévastatrices : l’emploi de particules
capables de cibler des populations en fonction de leur génotype
rendrait possible une purification ethnique radicale. Ce sont là des
arguments que les partisans des nanotechnologies peuvent considérer
comme dignes d’examen. Il leur revient alors de produire des contrearguments dont on devine aisément la forme qu’ils prendront : les
risques envisagés sont de l’ordre du fantasme et n’existent pas en
réalité ; la probabilité de leur occurrence est insignifiante : au vu des
bénéfices escomptés, il vaut la peine de les prendre. Plus généralement,
il est souligné qu’il s’agit de risques techniques et que des solutions
techniques perme ent, en principe, d’y faire face : confinement des
opérateurs et protections étanches des objets contenant des nanotubes
de carbone ; mise en place de garde-fous institutionnels contre les
menaces contre les libertés ; signatures de traités et convention de
non-prolifération de l’armement micro et nano39.
Mais, souvent, le ton change : il devient alors évident que l’on n’a
plus a aire à des arguments que n’importe quel sujet raisonnable et
39
On voit donc que le terme « technique » doit être pris en un sens large :
la mise en place de garde-fous institutionnel ou de traités et de conventions
relève de la technique juridique.
124
de bonne volonté pourrait examiner en toute impartialité, au cours
d’un débat visant à articuler les principes d’une judicieuse évaluation
des risques et d‘une e cace prévention de ceux-ci.
Ainsi, sous la plume de leurs adversaires, les nanotechnologies en
général deviennent des nécrotechnologies ; les puces RFID deviennent
des instruments pour me re en place la traçabilité intégrale du cheptel
humain ; le fantassin du futur devient un super tueur nanoéquipé,
et ainsi de suite. Ce vocabulaire est celui de la polémique. Chez les
partisans des nanotechnologies, le ton est plus mesuré : en e et, il
s’agit souvent de scientifiques, d’élus, de politiques, d’industriels ou
de décideurs tenus, institutionnellement, à une certaine réserve. Mais
il n’est pas exceptionnel qu’ils soulignent l’obscurantisme de leurs
adversaires et a rment qu’ils s’opposent au progrès scientifique.
Sur ce terrain, on les sent toutefois quelque peu hésitants. Le temps
n’est plus où Cl. Bernard pouvait écrire héroïquement : « Après tout
cela, faudra-t-il se laisser émouvoir par les cris de sensibilité qu’ont
pu pousser les gens du monde ou par les objections qu’ont pu faire
les hommes étrangers aux idées scientifiques ? » (Bernard 1966
[1865]). La croyance inconditionnelle en la valeur émancipatrice de la
science fait figure de vieillerie ; elle est spontanément évaluée comme
l’indice d’un positivisme ou d’un scientisme plutôt désuets. Aussi, les
partisans des nanotechnologies sont plus à l’aise (et plus crédibles)
lorsqu’ils suggèrent que ceux qui s’y opposent jouent, de façon assez
démagogiques, sur les peurs ou sur les frustrations de la population.
Reste le niveau le plus profond. Jean-Pierre Dupuy, s’appropriant
une expression de K. Popper, a rme qu’il constitue, chez les
partisans des nanotechnologies convergentes un « programme
métaphysique de recherche », précédant toute investigation et toute
expérimentation scientifique. Selon lui, « le rêve à l’œuvre dans les
nanobiotechnologies ne se limite pas à l’homme – ou au surhomme –
bionique, il est plus radical encore. Il s’agit de devenir Dieu. De passer
du « bricolage » hasardeux des espèces dans l’évolution à celui du
« design » de la nature entière, avec l’homme dans le rôle du Créateur
d’objets vivants et, comme tels, incontrôlables » (Dupuy 2006). Face
à ce e évaluation de la situation, on s’étonne : J.-P. Dupuy, en réalité,
prête aux partisans des nanotechnologies un programme qui n’est
pas o ciellement le leur, celui des transhumanistes à la Max More
ou à la Simon Young. Il est vrai qu’il s’agit de révéler le sens du rêve à
l’œuvre dans les nanobiotechnologies et que l’interprétation des rêves,
125
depuis Artémidore d’Éphèse jusqu’à Sigmund Freud en passant par le
Prophète Daniel et par Macrobe, a toujours été un exercice di cile et
hasardeux. J.-P. Dupuy dramatise sans doute à l’excès : c’est une posture
rhétorique classique lorsqu’il est question d’évaluer des technologies
inédites ou supposées telles. Pour autant, on aurait tort de ne pas
prêter a ention, comme lui, au document qui a lancé en juin 2002 le
programme interdisciplinaire « Converging Technologies ». Les 3 et
4 Décembre 2001, la Fondation Nationale pour la Science (« National
Science Foundation » [NSF]) et le Département du Commerce
(« Department of Commerce » [DOC]), ont réuni, à Washington, DC,
un atelier baptisé « Converging Technologies for Improving Human
Performance ». La finalité de cet atelier, qui réunissait essentiellement
des scientifiques et des décideurs (du secteur public comme du secteur
privé), était d’explorer les convergences technologiques et scientifiques
à l’échelle nanométrique. Les communications présentées au cours de
cet atelier on été réunies dans un gros (482 pages, 5990 Ko) document.
La convergence en question, représentée par la flèche NBIC devenue
maintenant une icone familière, est celle de quatre domaines :
nanosciences et nanotechnologies ; biotechnologies et biomédecine
(génie génétique compris) ; techniques de l’information (informatique
avancée et technologies de la communication comprises) ; sciences
cognitives (neurosciences cognitives comprises).
Selon les auteurs du rapport, ce e convergence se fonde sur « l’unité
matérielle à l’échelle nanométrique et sur l’intégration technologique
à partir de ce e échelle » (Roco 2003, p. IX). L’idée est la suivante : si
les éléments sur lesquels opèrent les biotechnologies, les technologies
de l’information et les neurosciences sont matériellement unifiés à
l’échelle nanométrique, alors on peut les manipuler et les combiner au
moyen de technologies agissant à ce e échelle. Quelques observations
sont ici à propos. En premier lieu il s’agit là de la réalisation d’un vieux
rêve : celui de l’unité de la science. Il est classique (Ruyntix 1962) de
distinguer trois conceptions de l’unité de la science :
• la première, prenant acte de l’incapacité du savoir
scientifique à fournir une unité dernière, délègue à la
métaphysique le soin d’articuler celle-ci.
• la deuxième, postulant une technique d’explication
pertinente pour tous les types de phénomènes a rme l’unité
seulement méthodologique des sciences.
126
• la dernière, a rmant l’unité objective de la science, tient
qu’il existe des objets ou des propriétés auxquels peuvent se
réduire les objets ou propriétés accessibles à l’observation.
Ceux qui parlent de technologies convergentes adhèrent à une
conception du troisième type, si ce n’est qu’ils répugneraient sans doute
à employer des termes comme « objet » ou « propriété ». Nous sommes,
en e et, dans le domaine des technosciences où opère le postulat selon
lequel ce qui est vrai est convertible avec ce qui est fait : l’humanité
ne peut connaître, au sens plénier du terme, que ce qu’elle a fabriqué.
Dans une telle perspective, l’existence d’objets ou de propriétés stables
et accessibles à l’observation devient problématique. En ce sens, la
flèche NBIC dont il vient d’être fait état ne symbolise pas la situation
de façon tout à fait exacte. Elle donne à voir, en e et une sorte d’égalité
entre les technologies convergentes. Mais, en réalité, comme l’a bien
noté le Groupe d’Action ETC (« Action Group on Erosion, Technology
and Concentration »)40, plutôt que de faire converger des disciplines
égales en dignité, il s’agit d’a rmer la primauté de techniques opérant
à l’échelle nanométriques. Tout le monde connaît le mantra :
If the Cognitive Scientists can think it
the Nano people can build it
the Bio people can implement it, and
the IT people can monitor and control it
Le seul moment explicitement dévolu aux scientifiques est celui
des sciences cognitives. Ensuite, c’est du montage et du contrôle.
Mais ce contrôle comporte-t-il une dimension non-technique,
éthique, juridique ou sociale par exemple ; ou bien est-il purement
technique, destiné à prévenir les dysfonctionnements et à réparer les
pannes ? Si tel était le cas, cela donnerait plutôt raison à J.-P. Dupuy :
l’ambition nanobiotechnologique serait, en son essence, porteuse
de démesure et ses thuriféraires seraient, en e et, les complices de
ceux qui cherchent à usurper le rôle du Créateur. Toutefois, il existe
un précédent illustre qui incite à la prudence. En e et, on dit parfois
40
Il s’agit, on s’en doute, d’un groupe hostile aux technologies convergentes. Il
qualifie, de façon irrévérencieuse la révolution des micro et nanotechnologies
de « Li le BANG » : BANG est un acronyme pour « Bits »,
«
Atoms », « Neurones » et « Genes ». Son site : h p://www.etcgoup.org
127
que Descartes a conçu le projet de rendre les hommes maîtres et
possesseurs de la nature ; mais ce n’est pas exact. La sixième partie du
Discours de la Méthode est parfaitement explicite à ce propos. Descartes
écrit, à propos des notions générales touchant la physique qui sont les
fruits de sa méthode :
« Elles m’ont fait voir qu’il est possible de parvenir à des
connaissances qui soient fort utiles à la vie, et qu’au lieu de ce e
philosophie spéculative qu’on enseigne dans les écoles, on en
peut trouver une pratique, par laquelle connaissant la force et
les actions du feu, de l’eau, de l’air, des astres, des cieux et de
tous les autres corps qui nous environnent, aussi distinctement
que nous connaissons les divers métiers de nos artisans, nous
les pourrions employer en même façon à tous les usages
auxquels ils sont propres, et ainsi nous rendre comme maîtres
et possesseurs de la nature » (Descartes 1925 [1637], pp. 61-62).
Le point important est que Descartes ne présente pas comme une
finalité de la science le fait de se rendre maître et possesseur de la
nature, mais le fait de se rendre comme maître et possesseur de la
nature. L’adjonction de l’adverbe « comme » peut se comprendre de
deux façons (au moins) :
• Les hommes peuvent se rendre maîtres et possesseurs de
la nature, mais jusqu’à un certain point seulement, parce
qu’il y a en elle quelque chose (par exemple, une très grande
complexité) qui fait qu’elle ne peut pas être intégralement
possédée et maîtrisée.
• Les hommes ne peuvent pas se rendre authentiquement
maîtres et possesseurs de la nature parce que celle-ci a un
maître et un possesseur en titre, qui n’est autre que Dieu. Un
projet de maîtrise et de possessions intégrales serait donc,
ultimement, un projet d’usurpation.
Si l’on admet la seconde interprétation, on voit que Descartes
intègre un élément de limitation dans son « programme métaphysique
de recherche ». Il est vrai que cet élément est théologique et qu’on
n’en trouve pas l’équivalent dans le document NBIC. Peut-on dire
pour autant que s’y manifeste le projet de « devenir Dieu » ? Afin de
répondre à ce e question, je me demanderai : « quels sont les e ets
128
concrets du « programme métaphysique de recherche » exprimé dans
le document NBIC ? ». Ils sont extrêmement nombreux ; M.C. Roco
et W.S. Bainbridge, après avoir souligné que nous sommes au seuil
d’une nouvelle renaissance écrivent :
« Les profonds changements des deux prochaines décennies
seront peut-être minimes, comparés à la transformation
complète susceptible d’advenir ultérieurement au cours
du XXIe siècle. Un double processus de décentralisation et
d’intégration pourrait aller dans le sens d’une complexité
sociale toujours accrue : il en résulterait une architecture
sociale nouvelle, dynamique. Des configurations entièrement
inédites émergeraient dans l’industrie, l’économie, l’éducation
et les conflits militaires. Les gens pourraient
acquérir des
capacités entièrement nouvelles dans leurs relations mutuelles,
dans leurs relations avec les machines et dans leurs relations
avec les institutions de la civilisation » (Roco 2003, p. 1).
Mais ils prennent bien soin de préciser (Roco 2003, p. 1) :
« Dans certains secteurs de la vie des hommes, les anciennes
coutumes et l’ancienne éthique perdureront, mais il est di cile
de prévoir dans quel domaine de l’action et de
l’expérience
ce sera le cas. Peut-être des principes éthiques complètement
inédits régiront-ils les secteurs où se feront des avancées
technologiques radicales : acceptation d’implants cérébraux,
rôle des robots dans la société, ambiguïté de la mort dans
un contexte d’expérimentation accrue en matière de clonage.
L’identité et la dignité de l’homme devront être préservées. De
même qu’au cours de la révolution industrielle on a construit
les machines afin de surpasser les capacités physiques de l’être
humain, de la même façon les ordinateurs peuvent surpasser
la mémoire et la rapidité de calcul de l’homme en matière
d’action intentionnelle. Ultimement, le contrôle appartiendra
aux hommes et à leur société. Si l’on accorde une a ention
convenable aux garde-fous, aux questions éthiques et aux
besoins sociaux, la qualité de la vie est susceptible de s’améliorer
de façon significative ».
Au total donc, même si l’on peut estimer que ces garde-fous seront
insu sants ou simplement formels, les auteurs du document a rment
129
expressément la nécessité de préserver l’identité et la dignité de l’homme.
Leur propos intègre donc bel et bien des limites et, sauf à pratiquer
la stratégie du soupçon, on ne voit pas s’y révéler un programme
métaphysique de recherche inspiré par le projet de « devenir Dieu ».
On pourrait même adopter une perspective encore plus déflationniste
et relever que Descartes lui-même se proposait d’améliorer les hommes
en les « rendant communément... plus sages et plus habiles qu’ils n’ont
été jusques ici » (Descartes 1925 [1637], p. 62)41 et en cherchant dans
« la médecine », et non dans la sagesse comme connaissance des choses
divines et humaines, le moyen d’y parvenir. Dans ces conditions, M.C.
Roco et W.S. Bainbridge s’inscriraient sans reste dans le projet de la
modernité et leur prêter un projet de transgression et de démesure serait
prendre au premier degré un propos qui est de promotion, comme
l’était d’ailleurs déjà pour une large part le Discours de la Méthode42.
Il n’en reste pas moins qu’il s’agit, on l’aura compris, d’une forme
particulièrement grandiose d’utopisme technologique, comme on en
avait perdu l’habitude. Le lecteur sobre et manifestant un minimum
d’esprit critique a tout de même l’impression que, derrière l’habillage
habituel (grande a ention portée aux besoins sociaux, nécessaire
respect de la dignité humaine, etc.), il s’agit d’améliorer les performances
humaines afin de les aligner sur les avancées technologiques capables
de les améliorer. D’un certain point de vue, le caractère radical du projet
a un grand avantage : il déconsidère par avance toute argumentation
tendant à faire des technologies convergentes un ensemble de moyens
neutres, qu’il appartiendrait à des décideurs éclairés d’orienter dans un
sens positif. Bien plutôt, le document est formel, les gens sont sommés
d’inventer, au fur et à mesure, des principes éthiques complètement
inédits, les anciennes coutumes et l’ancienne éthique perdurant
seulement aux marges de la révolution des technologies convergentes
et, sans doute, de façon essentiellement précaire et révocable.
41
Le terme « médecine » ici, ne désigne pas seulement l’art médical, mais aussi
la connaissance des êtres vivants en général et spécialement la façon dont
l’esprit dépend du tempérament et de la disposition des organes du corps.
42
On a pu soutenir (Schuster, 1986) que la méthode cartésienne - comme
n’importe quelle autre méthode scientifique, du reste, est discursivement
structurée de telle sorte qu’elle (s’)égare quant à ses propres présupposés :
elle consiste, en e et, en un discours qui procède à une redescription des
pratiques e ectives de la recherche en des termes qui les rendront conformes
aux exigences normatives de la méthode elle-même. Je remercie Sophie Roux
de m’avoir signalé ce e étude.
130
Pour autant, il ne s’agit pas d’un « programme métaphysique
de recherche » particulièrement inouï. Ma question sera, dès lors,
la suivante : peut-on trouver, chez les adversaires des technologies
convergentes, une ambition aussi large que chez leurs partisans ?
J’ai bien conscience qu’il y a quelque chose d’indéterminé dans ce e
question : les adversaires des technologies convergentes ne forment
pas un groupe uniforme et indi érencié, chacun partageant avec tout
autre des opinions en tous points semblables. Cependant, on peut
trouver dans leurs écrits et dans leurs propos une certaine unité de ton :
les mêmes thèmes sont privilégiés, les mêmes auteurs sont convoqués,
les mêmes arguments sont présentés, la même rhétorique est mise en
œuvre. Ce e unité, pour ne pas dire ce e convergence, suggère qu’il
existe bel et bien un argumentaire anti-techniciste. Les arguments
proprement dits y sont le plus souvent investis d’une dimension
polémique ; je suggérerai aussi que si un « programme métaphysique
d’(anti) recherche » les inspire, il n’a rien de spécialement inédit :
c’est la bonne vieille critique de la société industrielle, pour l’essentiel
constituée depuis l’établissement de celle-ci.
Commençons par la dimension argumentative-polémique du
propos des adversaires des nanotechnologies. Mon corpus sera
constitué de plusieurs documents distribués pendant le Colloque
International : « Regards sur les technosciences » qui s’est tenu à
la MSH-Alpes de Grenoble les 27 et 28 octobre 2004 ; ce colloque a
eu lieu immédiatement avant la tenue à Grenoble des Assises de la
Recherche, mais indépendamment de celles-ci43. Ces documents sont
donc fortement contextualisés : ce sont des écrits de circonstance qui
ne visent pas les technologies convergentes comme telles. Cependant,
ils comportent un certain nombre d’a rmations qui constituent, en
fait, un argumentaire dirigé contre les technosciences. Ils ont été
distribués après le début de la première session – qui a donc été
interrompue par ce e distribution – par des individus se présentant
43
Ce Colloque avait été organisé à l’initiative de GIERE (Groupe
Interuniversitaire d’Ethique de la REcherche, Grenoble-Université) et de la
Société pour la Philosophie de la Technique. Il bénéficiait du soutien matériel
d’institutions grenobloises et Rhône-Alpines ; certains participants étaient
connus pour travailler dans le domaine des micro et nano technologies. Il avait
donc tout pour a irer l’a ention des adversaires des technologies convergentes.
Après avoir constaté qu’il ne s’agissait pas d’y assurer la communication des
chercheurs dans le domaine des technologies convergentes, ils se sont assez
rapidement retirés.
131
comme de simples citoyens44, mais qui ne se sont pas identifiés de
façon plus précise.
Ces documents sont très divers par leur style ; on y trouve ce
qu’on pourrait appeler du journalisme d’idées ; mais aussi, dans une
tradition bien française, des éléments qui les ra achent à la presse
de parodie et de dérision45 ; on y repère également un pamphlet
néo-marxiste. Du point de vue de la forme, tous sont signés et/ou
donnent une adresse postale et électronique ; certains comportent
un titre et des notes de bas de page, comme si on avait a aire à
un article académique46. Ils se distinguent très ne ement d’un
document mis à la disposition des participants avant le début de la
session, intitulé « Quelle politique scientifique pour entrer dans le
21e siècle ? », présenté par la Fondation Sciences Citoyennes ; il s’agit
d’un ensemble de propositions plutôt modérées, parrainées par
des célébrités « engagées » (par exemple Marie-Angèle Hermi e et
Jacques Testart). La Fondation Sciences Citoyennes est, par ailleurs,
une Association loi 1901. Ce document n’a donc pas, aussi bien en
ce qui concerne la forme qu’en ce qui concerne le fond, la dimension
de radicalité et l’apparence de dissidence qui caractérise les autres.
D’ailleurs, ce genre de posture est ne ement disqualifié dans les
documents ayant retenu mon intérêt. Dressons donc un inventaire
des arguments (au sens très large) qui s’y rencontrent, ainsi que des
sources mobilisées.
L’un d’entre eux mobilise un argument cumulatif : « Il y a des
discours, des écrits et des faits qui pris séparément paraissent
innocents mais réunis ne trompent pas » (Mora 2004). Le propre d’un
argument cumulatif est de produire des a rmations dont aucune, en
elle-même, ne prouve quoi que ce soit, mais dont l’accumulation est
censée rendre plausible une ou plusieurs thèses. Ce qui est cumulé
ici ce sont, d’une part, des faits : la mise au point et l’utilisation de la
première bombe atomique ; la création du CNRS et le développement
de Grenoble comme ville scientifique ; les Assises nationales des
États généraux de la recherche (Grenoble, 28 et 29 octobre 2004) ;
44
Bien entendu, le fait de se présenter comme de simples citoyens, est, d’une
certaine façon, déjà un argument : il s’agit d’a ester que l’on est porteur d’une
parole authentique, par opposition à la langue de bois impersonnelle des
experts.
45
Charlie-Hebdo, Le Canard enchaîné, Le Père Duchesne, L’assie e au Beurre.
46
Mais pas de pagination !
132
le recrutement, récent à l’époque, d’un maître de conférence sur un
poste d’histoire et de philosophies des sciences à l’université Joseph
Fourier de Grenoble et son rôle supposé dans la création du « Groupe
de réflexion interuniversitaire d’éthique appliquée à la recherche en
sciences et technologies »47. À ces faits, s’ajoutent des interprétations,
des anecdotes et des évaluations : elles tendent à me re en évidence
la corruption morale et l’irresponsabilité des scientifiques (Richard
Feynman, John von Neumann) en les opposant à la lucidité d’un simple
citoyen (George Orwell dont on connaît l’engagement au cours de la
Guerre Civile Espagnole) ; elles soulignent la mutation utilitariste de
la science contemporaine (qualifiée à plusieurs reprises de Big Science)
et la collusion entre la recherche et les régimes politiques les plus
discrédités (Vichy, en particulier). La conclusion rendue plausible
est la suivante : « Nous ne pouvons rien a endre d’un monde qui ne
peut satisfaire que l’économie triomphante, ses gestionnaires de l’Etat
et de l’industrie » (Mora 2004). Ce document qui ne comporte pas
d’iconographie développe une critique des Lumières qui s’inscrit dans
le droit fil des analyses de la première Ecole de Francfort (T. Adorno, M.
Horkeimer). Il a rme l’équivalence des di érents régimes politiques :
tous sont au service de la croissance incontrôlée de la Big Science. Il
souligne l’impuissance des formes institutionnalisées de contestation
ou de contrôle de la technoscience : « certaines associations citoyennes,
écologistes ou scientifiques » et « [les] universitaires éclairés sur le
souci éthique » sont particulièrement visés (Mora 2004).
Ce e dévalorisation de la critique institutionnelle de la
technoscience est encore plus explicite dans un document intitulé :
« Totem et Tabous ou qui veut sauver la recherche ? ». Ce document
est signé CNRS pour « Coordination Nationale de Répression du
Scientisme », ce qui est, bien entendu, ironique. Il s’agit de développer
la thèse selon laquelle : « Avec Sauvons la Recherche48 [il faut dire
47
C’est le nom que portait le GIERE, à l’époque du recrutement de ce maître
de conférences. Que nous soyons ici dans le cadre de la li érature paranoïaque
est a esté, outre la confusion entre l’échelle locale et globale de ce qui est
rapporté, par le fait que le recruté n’a en réalité aucune compétence particulière
en éthique des sciences et des techniques. Ses cours, peu fréquentés par les
étudiants scientifiques, portent essentiellement sur l’histoire des sciences.
D’un autre côté, on pourrait dire que son incompétence même en fait un
précieux faire valoir pour ceux qui sont à la recherche d’un alibi « éthique ».
48
« Sauvons la Recherche » est une Association destinée à faire connaître les
enjeux de la politique de recherche et à proposer des débats et des actions.
Elle est très critique à l’endroit de la politique de recherche française. Son site :
133
haut et fort que] l’opposition au néo-libéralisme a touché le fond »
(Coordination Nationale de Répression du Scientisme, 2004). En
e et, « toute l’audace du mouvement citoyen des chercheurs aura été
de demander que tout continue en pire » (Coordination Nationale de
Répression du Scientisme, 2004). Les arguments explicites à l’appui
de ce e thèse vont dans deux directions relativement précises : il
s’agit de montrer que la science et la recherche ont « partie liée avec le
développement capitaliste » (Coordination Nationale de Répression
du Scientisme, 2004). La science est donc un totem : possible allusion
aux analyses marxistes du fétichisme de la marchandise. Il s’agit aussi
de montrer que les revendications partielles (en faveur de plus de
moyens, d’une meilleure organisation des carrières, etc.) ne vont pas
à l’essentiel et laissent intacts les tabous, le principal étant la question
du travail.
En ce qui concerne le premier point, les auteurs du texte
présupposent que la science est telle qu’ils pensent qu’elle est et en
tirent diverses conséquences : perte de l’autonomie individuelle,
destruction des modes de vie tenus pour immuables et évidents ;
absurdité et éloignement de la vie concrète de la « vie quotidienne » ;
caractère « informulable » hors du contexte de la « technologie
industrielle » des résultats des « sciences dures ». Tout cela suggère
que la technoscience est une puissance abstraite, incompréhensible et
incontrôlable.
En ce qui concerne le second point, le texte souligne la corruption
et l’irresponsabilité morale des chercheurs en général ; l’indigence
des travaux actuels en sciences humaines ; le caractère délirant du
scientisme. Il s’agit de suggérer que personne n’est en état de s’opposer
e cacement aux e ets de la technoscience tant que la question de
l’organisation du travail dans les sociétés néolibérales n’aura pas été
posée dans toute son ampleur.
Ce texte, austère et qui ne comporte pas d’iconographie, est
extrêmement argumenté49. Il est intéressant par les sources mobilisées :
Hannah Arendt, une élève de Martin Heidegger, ne ement plus
présentable que son maître étant donné le passé nazi de celui-ci ; Lewis
Mumford, l’inventeur du concept de mégamachine50. Il n’est pas fait
h p://sauvonslarecherche.fr/.
49
Si du moins on accepte ses présupposés...
50
Pour une présentation élémentaire de ses analyses, voir (Go
134
1988, pp. 96-103).
allusion à Jacques Ellul, alors que ce dernier développe des thèses fort
proches de celles qui sont mobilisées – sa réputation de théologien
réformé a dû lui valoir ce e exclusion ; ni à Gilbert Ho ois, dont la
posture d’accompagnement des technosciences est probablement
estimée trop complaisante.
Un des documents distribués est réellement énigmatique : presque
tous les arguments identifiables qu’il comporte sont implicites et
présentés sous forme iconographique. Ce document est de vaste
dimensions51 ; il est intitulé « GNR NBC TIC. Grenoble, villelaboratoire » et signé « Les animaux des villes en colère »52. Il est
volontairement « illisible » : il s’agit de suggérer que l’on a a aire à
des institutions ou à des personnes étroitement imbriquées, mais qui
constituent un réseau à la fois e cace et opaque. On peut d’ailleurs
s’intéresser au statut même de l’objet que j’ai appelé, faute de terme plus
précis, « document ». Ce n’est pas une a che : il est imprimé des deux
côtés et donc, en principe, il n’est pas fait pour être collé sur un mur53.
Son régime de pliage le rend plutôt comparable à une carte routière.
L’image : « détruis les machines qui te détruisent » (représentant
des individus cagoulés détruisant un empilement d’ordinateurs) et
une image représentant des bovins armés respectivement d’un fusil
d’assaut M.16 et d’une carabine en font, peut-être, une sorte de vade
mecum et de guide du saboteur urbain. Il est di cile de déterminer si
l’intention sous-jacente est sérieuse ou ludique. En e et, une partie
de l’iconographie consiste en images détournées (mentionnons :
Nicolas Sarkozy, à l’époque Ministre des finances et une autre icône
publicitaire : Mr Clean ou Mr Net de la firme Procter & Gamble).
L’information qui y figure (adresses, noms propres, sources
de financement des programmes de recherche, etc.) est largement
exacte. La page intitulée « LABORATOIRES D’ETAT » veut montrer
l’interconnexion grenobloise entre Politique, Finance et Recherche.
L’argument implicite est qu’une telle interconnexion est condamnable.
La page intitulée « GRENOBLE VILLE MORTE » entend montrer que
l’urbanisme grenoblois instaure une ségrégation sociale calquée sur la
51
83 x 59 cm lorsqu’il est déplié ; 21x15 cm lorsqu’il est plié.
L’absence, sans doute volontaire, de ponctuation entretient une ambigüité
intéressante : sont-ce les animaux urbains en colère qui parlent ? Ou bien les
animaux des villes en colère qui s’expriment ?
53
Encore qu’il soit parfois destiné à cet usage : on le trouve à l’occasion scotché
sur les murs des bâtiments de la Faculté des Sciences Humaines et Sociales.
52
135
sociologie du monde de la recherche. L’argument implicite est qu’une
telle ségrégation est mauvaise. La page intitulée « ECONOMIE DE
LA DESTRUCTION » a rme que « le réductionnisme informationnel
[du vivant, J.-Y. Go ] revient à nier que les êtres vivants sont d’abord
des unités synthétiques indécomposables en segments codés » (Les
animaux des villes en colère, 2004). L’argument implicite est qu’un
tel réductionnisme est erroné et moralement pernicieux. À plusieurs
reprises, il est fait usage de l’expression « cheptel humain » ; cela
pourrait être une allusion à Sloterd k (2000). Cet auteur est, en e et,
devenu une figure populaire chez certains radicaux en ce qu’il incarne
une rupture avec l’esprit de conciliation des sociétés libérales54.
Un document, enfin, est signé « Pièces et main d’œuvre ».
Contrairement à d’autres, il n’est pas de circonstance puisqu’il est daté
du 27 septembre 2004, date de l’inauguration de MINATEC55. Intitulé
« Spécial « première pierre » de MINATOC »56, c’est un numéro spécial
de « Aujourd’hui le Nanomonde ».
Le seul argument explicite identifiable est le suivant : « ces
mouchards technologiques qui font de nous des « cyborgs » pistés,
tracés, fichés accoucheront peut-être d’un monde plus sûr (argument
majeur des défenseurs des puces sous-cutanées) mais aussi d’un
monde où le droit à la protection de la vie privée deviendra de plus
en plus incertain » (PMO, 27 septembre 2004). Il s’agit d’un argument
formulé en termes de violation des droits individuels, ce qui est plutôt
inhabituel dans la li érature radicale. Ce document qui ne comporte
pas d’iconographie n’est pas très bien structuré. Il fonctionne sans
doute selon le vieux principe : « rendre la honte encore plus honteuse
54
Une autre source possible serait le philosophe italien G. Agamben, connu
du public pour ses prises de position contre les dispositifs de contrôle
biométriques. Ces prises de position se fondent sur une critique de la
biopolitique dont l’objet est la vie nue, le simple fait de vivre, par opposition
à la vie qualifiée, terme qui désigne la forme de vie propre à un individu
ou à un groupe et qui les distingue de tout autre. La vie nue n’est jamais
mieux exposée que dans les camps (de sinistrés, de transit, de réfugiés, de
rétention, de concentration, d’extermination, etc.) où le biopouvoir se donne
alors pour tâche de l’administrer et de la gérer. Parmi les nombreuses sources
d’inspiration de G. Agamben, on trouve, évidemment, M. Foucault.
55
MINATEC est un complexe scientifique implanté à Grenoble et dont les
domaines de recherche sont les micro et nano-technologies.
56
L’acronyme « MINATOC » est un argument implicite : « ce qui vient de
MINATEC est toc ».
136
en la livrant à la publicité » car il se présente comme un montage
de textes recueillis sur di érents sites Internet, à quoi s’ajoute le
compte rendu (anonyme) d’une émission de télévision partiellement
identifiée ; il est donc possible de considérer que leur rapprochement
même constitue un argument cumulatif : des sources aussi di érentes
que celles qui sont mentionnées vont toutes dans le même sens :
« l’hostilité aux nanotechnologies devient la chose du monde la mieux
partagée » (PMO, 27 septembre 2004). Il est intéressant de noter dans
ce document la disqualification d’un certain nombre de critiques
possibles des nanotechnologies, avancées par « di érentes variétés de
gauchistes et d’associations « citoyennes » » (PMO, 27 septembre 2004) :
conséquences urbaines et sociales, nuisances environnementales qui
accompagneront le développement de MINATEC ; ces arguments ont,
selon les auteurs du document, déjà été avancés par eux-mêmes il y
plusieurs années. Il s’agit de montrer que ces critiques sont à côté de la
question ou bien constituent des récupérations politiques ou pseudocitoyennes de ce qui a déjà été dit. Ce sont des arguments maintenant
dépassés : le pire est encore à venir : « projet transhumaniste
d’« amélioration de l’espèce humaine » et contrôle social à l’œuvre
derrière ces technologies convergentes » (PMO, 27 septembre 2004).
Dans tous les documents que je viens de décrire, il s’agit d’instaurer
une posture de contestation radicale non seulement à l’endroit des
technologies convergentes, mais surtout à l’endroit de ce que l’on
pourrait appeler la modernité techno-libérale. Il est clair que nous
avons a aire ici à une li érature de combat où les arguments et la
polémique ne sont jamais dissociés, et où l’a aque personnelle n’est
jamais bien loin57. En revanche, on n’y trouve pas non plus, semble-til, l’équivalent d’un programme métaphysique inédit tel que celui que
J.-P. Dupuy prête si généreusement aux partisans des technologies
convergentes.
Ces arguments anti-technicistes sont manifestement soustendus par une « sensibilité » technophobique. Etymologiquement,
la « technophobie » c’est la crainte de (vant) la technique. Mais, en
un sens, il n’y a pas lieu de s’excuser d’avoir peur : Hans Jonas58 a
57
Il est vrai que la page d’accueil de PMO où son programme critique est
exposé avec toute la clarté nécessaire se donne comme consigne de « ne jamais
dénoncer les malfaisances sans dénoncer les malfaiteurs ».
58
H. Jonas est étonnamment peu cité par les adversaires des technologies
convergentes ; est-ce parce qu’il enracine ses arguments dans un certain
137
donné ses le res de noblesse à une certaine forme de technophobie.
Naguère, on considérait que quiconque manifestait des craintes ou
des réticences à l’endroit du progrès technique et scientifique était
forcément guidé par l’obscurantisme le plus crasse de telle sorte que
celles-ci étaient forcément irrationnelles. Mais H. Jonas a profondément
modifié la donne ; les technologies modernes sont devenues capables
de mobiliser une telle puissance, c’est-à-dire d’avoir de tels e ets
dans l’avenir, que l’humanité pourrait bien n’avoir plus les moyens
conceptuels de les penser, ni les moyens politiques de les contrôler.
A l’endroit des hautes technologies, nous sommes dans l’incertitude
relativement au bien qu’elles sont susceptibles d’apporter alors que
nous sommes certains qu’elles comportent un risque d’apporter
un mal absolu ; H. Jonas, qui n’hésite pas à utiliser un vocabulaire
religieux, décrit ce risque radical comme une altération irréversible de
l’image et de la ressemblance. Devant ce e situation d’incertitude, il
va a ribuer à la peur un statut positif, un statut heuristique. En e et,
il ne s’agit pas d’a ronter un futur dangereux : en ce cas, la peur serait
une lâcheté. Il s’agit d’évoquer la possibilité d’un futur en danger : ici,
la peur est un indice de lucidité. Lorsque donc nous avons a aire à des
nouvelles technologies, ils faut consulter nos craintes préalablement à
nos désirs pour savoir ce qui nous tient réellement à cœur, c’est-à-dire
ce qu’on met en danger. L’idée est que si on met en œuvre le récit de la
peur, si on consulte nos craintes plutôt que nos désirs, on en viendra
à ne pas me re en œuvre les techniques trop risquées. La peur a ainsi
conquis un statut positif.
Mais quelle peur, ou plutôt quelles peurs ? Un article de Louis
Laurent et de Jean-Claude Petit : « Nanosciences : nouvel âge d’or
ou apocalypse ? »59 dresse la carte de ces peurs. Il y a trois types de
« peurs sociétales » vis-à-vis des nanosciences60 : la peur de la perte de
contrôle, la peur du mauvais usage et la peur de la transgression.
La peur de la perte de contrôle : c’est celle de la technologie
devenue incontrôlable. Il est bien connu que la perte de contrôle
peut advenir selon des modalités di érentes : dans certains cas, une
nombre de considérations théologiques ?
59
Disponible à l’adresse suivante : www.cea.fr. L’article est en date du 19
juillet 2004.
60
Pensent-ils que les contestations des nouvelles technologies sont
essentiellement motivées par la peur ? Leurs adversaires, en tout cas, refusent
de poser le problème en ces termes.
138
technique potentiellement dangereuse mais dont la mise en œuvre
est étroitement surveillée, échappe, pour une raison quelconque
(ina ention, incompétence, vétusté du matériel ou au contraire
maladies de jeunesse, conditions climatiques défavorables, etc.) à ce e
surveillance – c’est l’incident, l’accident ou la catastrophe (industrielle,
nucléaire, chimique ; déraillement, naufrage, crash aérien, etc.).
D’autres cas sont plus insidieux : il s’agit de situations invisibles de
perte de contrôle. Ici, les technologies mises en œuvre sont, en ellesmêmes, raisonnablement bien contrôlées, mais elles produisent des
e ets irréversibles et qu’on ne sait plus maîtriser. Ce n’est plus le
phénomène brutal, massif contre lequel on ne sait pas réagir : c’est
l’apparition de phénomènes qui résultent de conduites en ellesmêmes innocentes lorsqu’elles sont envisagées à l’échelle individuelle
mais qui, du fait de leur agrégation, produisent à l’échelle collective,
voire à l’échelle universelle, des e ets dommageables et incontrôlables
(réchau ement climatique, perte de la diversité biologique, érosion
des terres cultivables).
Un deuxième type de peur sociétale est celui du mauvais usage
possible des technologies. C’est le thème de la technique détournée
ou confisquée. Pour parler par image, c’est le thème du savant fou :
dans ce cas, une technique est détournée de l’usage qui paraissait être
naturellement le sien et, en tout cas, de l’usage auquel ses concepteurs la
destinaient. C’est ce qui se passe, par exemple, lorsque des psychotropes
sont utilisés comme moyens de torture. Ceux qui éprouvent ce e peur
(ou soulèvent ce e interrogation) n’adme ent sans doute pas que
les techniques sont intrinsèquement orientées vers le bien ; mais ils
adme ent au moins que les techniques, neutres en principe quant aux
usages qui peuvent en être faits, peuvent être retournées contre des
intérêts ou des besoins légitimes et identifiables.
Un troisième type de peur est celui de la transgression : même si on
parvient à les maîtriser, même si elles ne sont pas détournées par une
main criminelle, les techniques vont trop loin. C’est un argument qui
a été très souvent utilisé dans le débat relatif au clonage thérapeutique
ou à l’amélioration génétique des êtres humains. Ce e idée présente
deux aspects. D’abord, il existe des limites, inscrites dans l’ordre
naturel des choses, et ces limites sont normatives : elles indiquent ce
qu’il faut faire et ce qu’il faut ne pas faire. Ensuite, lorsque ces limites
sont transgressées, la nature se venge d’une façon ou d’une autre.
139
Ces mises au point étant faites, la technophobie des adversaires
des technologies convergentes provient-elle de telles sources ? Ce
n’est pas du tout certain : ces mêmes adversaires proclament haut et
fort qu’ils n’ont pas peur, mais qu’ils sont en colère. Ce n’est donc
probablement pas dans ce e direction qu’il faudra chercher leur
« programme métaphysique ».
Je propose alors d’en déterminer l’inspiration à partir de la
question : « À partir de quel rapport au temps la contestation radicale
des technologies convergentes se fait-elle ? ». Ce e question pouvant
sembler quelque peu cryptique, des exemples seront bienvenus.
Naguère, il existait déjà une contestation radicale de la modernité
technolibérale61. Les auteurs de ce e contestation avaient très bien
compris que les objets techniques et leur environnement ont des
propriétés politiques, c’est-à-dire que, loin d’être des artefacts
transparents et dociles, ils incorporent et manifestent des relations de
pouvoir et d’autorité. Face à cet état de fait, ils a rmaient la positivité
du jouir sans entrave, ici et maintenant : ils légitimaient donc leur
contestation de la modernité technolibérale au nom du présent62.
Il devient alors plus facile de comprendre la suite. Beaucoup de
contestations de la modernité technolibérale opèrent en évoquant
l’ancien âge d’or de proximité avec la nature qui était censé prévaloir
avant l’invention des techniques et de la propriété privée ; elles
rappellent comment la science a pu être « une aventure individuelle
et patiente où l’on cherchait à observer, comprendre et savoir, sans
faire » (Mora 2004), l’idée sous-jacente étant, évidemment, qu’elle a
perdu son âme en devenant la Big Science que nous connaissons. Cela
revient à dire qu’elles contestent la modernité technolibérale au nom
du passé. Enfin, la contestation de la modernité technolibérale a pu se
faire au nom du futur : c’est principalement le cas chez les marxistes qui
considèrent que, lorsque l’asservissante subordination des individus
à la division du travail aura disparu, les techniques révèleront leur
potentiel de libération.
Mais chez les adversaires des technologies convergentes, on trouve
une contestation qui ne se fait ni au nom du présent, ni au nom du
futur, ni même, malgré les accents conservateurs qui se manifestent
parfois chez eux, au nom du passé. Ce e contestation est donc, d’un
61
Chez les situationnistes, par exemple.
Il s’agissait de faire table rase du passé, sans pour cela tracer les plans d’un
avenir radieux.
62
140
certain point de vue, faite au nom de rien : ce qui veut dire qu’elle se
fait sans programme « métaphysique » identifiable.
Au total, le discours des adversaires grenoblois des
nanotechnologies s’inscrit bien dans la tradition récente du néoluddisme : les technologies convergentes ne sont pas forcément
récusées en tant que telles, mais en tant qu’elles constituent la
fine pointe de la société industrielle, fondée sur la croissance. Au
demeurant, l’analogie avec le luddisme ne doit pas abuser : on n’a
pas a aire, en l’état actuel des choses, à des briseurs de machines.
Ce qui est saboté plutôt, ce sont les méthodes anti-démocratiques
de ceux qui veulent « dépolitiser les prises de décisions et
déposséder les sociétaires de la société de leur compétence
politique » afin de renforcer, même avec de bonnes intentions, la
« tyrannie technologique » (PMO 2011). Concrètement il s’agit de
relever les manœuvres, les mensonges, les petits arrangements,
l’indi érence aux sans voix et les connivences de ceux qui ne sont
guidés que par leur ambitions personnelles : c’est une occupation
à temps plein ! Mais s’y livrer ne nécessite pas l’adhésion à
un quelconque « programme métaphysique ». En ce sens, les
adversaires grenoblois des technologies convergentes sont assez
proches de Theodore Kaczynski, dit Unabomber – un authentique
briseur de machines pour le coup ! T. Kaczynski a été professeurassistant en mathématiques à l’Université de Californie (Berkeley)
en 1967, d’où il a démissionné en 1969. Á partir de 1971, il a vécu
en solitaire dans une cabane qu’il avait construite lui-même, dans
un coin reculé du Montana et c’est de là qu’il a commencé à se
livrer à une entreprise meurtrière qui a consisté à envoyer des colis
piégés à des Universités, des Sociétés de transport aérien et des
marchands de matériel informatique et électronique. Ces a entats
ont fait plusieurs victimes. En 1995, il a exigé qu’un manifeste de
232 paragraphes, Industrial Society and its Future, soit publié dans la
presse. Le texte a été e ectivement publié dans le Washington Post
et dans le New York Times. En réalité, le FBI souhaitait sa publication
afin que son auteur – ou ses auteurs – soi(en)t identifié(s) par son/
leur style (s). C’est exactement ce qui s’est passé.
Si on laisse de côté les circonstances romantiques de la
publication de ce manifeste, il s’agit d’une critique extrêmement
articulée et convaincante à plus d’un titre de la société industrielle
et de ses impasses. Pourtant, ce lecteur de J. Ellul devient d’une
141
insondable naïveté lorsqu’il s’agit de proposer une perspective
constructive. Il écrit, par exemple, ceci :
« Pour bénéficier d’un soutien enthousiaste, une idéologie doit
o rir un idéal positif et pas seulement négatif : en d’autres
termes, elle doit être POUR quelque chose et pas seulement
CONTRE quelque chose. L’idéal positif que nous proposons est
la nature, la nature VIERGE et
SAUVAGE, qu’il s’agisse
de la Terre ou des formes de vie qui s’y développent sans la
moindre intervention de l’homme. Par nature vierge et sauvage,
nous désignons également la nature humaine, c’est-à-dire le
comportement d’un individu qui n’est pas régulé par une société
organisée mais qui dépend seulement du libre choix personnel
du hasard ou de Dieu (selon vos croyances religieuses ou vos
opinions philosophiques) » (Kaczynski 2008, p.101).
T. Kaczynski se trouve alors pris dans un dilemme : ou bien le
concept vague de nature vierge et sauvage recevra un contenu
déterminé ; mais, ce concept étant au plus haut point culturel, ce
contenu sera culturellement et socialement chargé en valeur. Il ne
paraîtra pas alors a ractif à tout le monde : ceux qui appartiennent
à une autre culture ou à une autre société ne lui trouveront aucune
force motivante. Ou bien alors ceux qui l’utilisent préfèrent rester
dans l’indétermination : le concept sera peut-être capable, comme
le veut T. Kaczynski, de bénéficier d’un soutien enthousiaste. Mais à
la première di culté, ses ambigüités apparaîtront à la lumière et le
désaccord éclatera entre les enthousiastes d’hier.
Comme les contestataires grenoblois, T. Kaczynski est un activiste
– beaucoup plus violent cependant. Comme eux il a construit un
propos de contestation radicale de la société industrielle – beaucoup
plus systématique, cependant. Comme eux, il n’a bâti sa cause sur
rien. C’est ici sans doute que leur protestation rencontre ses limites.
Références
BENSAUDE-VINCENT B. et NUROCK V., « Éthique des
nanotechnologies » dans Hirsch (éd.), Traité de Bioéthique I.
Fondements, principes, repères, Toulouse, Éditions Erès (Espaces
éthiques), 2010, pp. 355-369.
142
BERNARD C., Introduction à l’étude de la médecine expérimentale, Paris,
Garnier-Flammarion, 1966 [1865].
COORDINATION NATIONALE DE RÉPRESSION DU SCIENTISME,
« Totem et tabous ou qui veut sauver la recherche ? », Paris, 2004.
DESCARTES R., Discours de la Méthode, texte et commentaire par E.
Gilson, Paris, Vrin, 1925 [1637].
DUPUY J.-P., « Nous entrons dans une phase d’incertitude radicale », Le
Monde, 29 avril 2006, p. 26.
GOFFI J.-Y., La Philosophie de la technique, Paris, PUF (Que sais-je ?),
1988.
KACZYNSKI T., « La Société industrielle et son avenir », L’E ondrement
du système technologique, traduction, introduction et préface de P.
Barriot, Vevey, Xenia, 2008.
MORA H., « Nous n’avons pas à nous sentir responsables du monde
dans lequel nous vivons », pamphlet distribué le 27 octobre 2004
(daté du 10 octobre 2004).
PMO, « Spécial « première pierre » de MINATOC », AUJOUR’D’HUI
LE NANOMONDE, #8, 27 septembre 2004.
PMO,
h p://www.piecesetmaindoeuvre.com/spip.php?page=plan,
2011
ROCO M.C. et BAINBRIDGE W. S., Converging Technologies for Improving
Human Performance,
h p://www.wtec.org/ConvergingTechnologies/
http://www.wtec.org/ConvergingTechnologies/Report/NBIC_
report.pdf, 2003.
RUYTINX J., Le Problème philosophique de l’unité de la science, Paris, Les
Belles Le res, 1962.
SCHUSTER J. A., « Cartesian Method as Mythic Speech: A Diachronic
and Structural Analysis », dans Schuster & Yeo (éds), The Politics
and Rhetoric of Scientific Method, Dordrecht, Reidel, 1986, pp. 33-95.
SLOTERD K P., Règles pour le parc humain, Paris, Mille et une nuits,
2000.
LES ANIMAUX DES VILLES EN COLÈRE, GNR NBC TIC. Grenoble,
ville-laboratoire, 2004.
143
Nanotechnologies, convergence NBIC et
inégalités
Dominique Bourg63
Nous considérerons ici les nanotechnologies en leur conférant une
acception large, et plus encore contextuelle, celle de la convergence
NBIC, à savoir celle des génies à l’échelle nanométrique, des
biotechnologies, de l’informatique et des sciences cognitives. Nous
ne cherchons pas ce faisant à embarquer des technologies étrangères
à l’échelle nanométrique, afin d’embrasser un maximum de matière,
mais en vue de mieux caractériser certains aspects de l’évolution
technologique en cours64. Ce n’est qu’après nous être acqui és de
ce e tâche que nous nous tournerons vers deux domaines particuliers
de déploiement des nanotechnologies et autres technologies de la
convergence : les anthropotechniques d’un côté, l’environnement et
les di cultés qui lui sont a érentes de l’autre. Nous chercherons à
montrer que l’essor des technologies de la convergence, qu’il s’applique
aux êtres humains ou à l’environnement, interférera puissamment
avec la valeur égalité. Il pourrait déboucher sur un accroissement
spectaculaire des inégalités.
L’exercice auquel nous allons nous livrer est pour le moins délicat
car il est très di cile, notamment de l’extérieur, de faire le départ
entre d’un côté des promesses liées à des trajectoires technologiques
bien réelles, voire de la propagande, et de l’autre des réalisations
parfois très modestes et surtout très disparates. Ce que nous allons
nous e orcer de me re en lumière ne concerne pas les nanosciences
et nanotechnologies en général, si tant est que ces expressions aient un
sens, mais un mixte entre des réalisations technologiques e ectives et
des possibilités de développement.
63
Université de Lausanne (Unil)/Ethos
Nombre des informations de ce texte s’appuient sur la série
d’auditions que j’ai pu conduire avec Floran Augagneur pour le compte
de Terra Nova, auditions qui donneront lieu à publication d’un rapport.
64
145
Le paradigme de la convergence : le cas de la biologie
synthétique
Les technologies de la convergence ont en partage de rendre
possible des opérations technologiques sur les constituants ultimes de
la vie et/ou de la matière, embrassant le traitement de l’information
et de la connaissance. La convergence n’a pas grand chose à voir avec
l’interdisciplinarité ou la transdisciplinarité d’antan. Il s’agit d’un
paradigme opératoire et non spéculatif : les disciplines impliquées
demeurent, mais se croisent de façon multiple, s’unissent et se
transcendent dans la puissance opératoire qu’elles autorisent. Sont
ainsi recherchés plusieurs objectifs.
Le premier est d’a eindre un seuil de puissance technologique
inégalé, seuil associé à l’idée de « singularité »65. Le transhumanisme
en tant qu’idéologie d’accompagnement de la convergence, est à cet
égard on ne peut plus explicite : la convergence devrait déboucher
selon ses prophètes sur rien moins que l’« immortalité »66 et la
résolution de toutes les di cultés écologiques, qu’elles relèvent de
questions de matériaux ou d’énergie aussi bien que des perturbations
a ectant les grands équilibres de la biosphère.
Le second objectif est d’étendre les opérations technologiques à
des domaines inédits, avec par exemple un programme de recherche
comme celui d’une conscience virtuelle, ou de faire exploser les
possibles dans des domaines existants, comme les anthropotechniques
ou la création de matériaux (nanotubes de carbone, fullerènes,
graphènes, etc.).
Le troisième objectif est de réaliser des opérations technologiques
qui ne se déploieraient plus parallèlement aux processus naturels,
mais les intégreraient. Alors que l’opération technique, traditionnelle
aussi bien que moderne, relevait de l’imposition d’une forme à
une matière préexistante – soit naturelle au sens de spontanée, par
exemple la matière bois à laquelle on impose la forme lit, soit ellemême produit d’une technique à l’instar de quelque aggloméré ou
65
Voir Venor Vinge, « What is The Singularity? », VISION-21 Symposium,
NASA Lewis Research Center and the Ohio Aerospace Institute, March 30-31,
1993 et (Kyrou 2009).
66
Moins imprudemment du di èrement indéfini de la mort.
146
matière de synthèse –, les technologies de la convergence entendent
procéder autrement. Désormais, il s’agira par exemple d’introduire au
sein d’une cellule une séquence d’ADN artificiellement produite et
combinée. Une telle opération vise à utiliser et à détourner à notre
profit telle ou telle faculté propre au vivant, en l’occurrence celle d’une
cellule de se reproduire. Il ne s’agit donc plus de s’opposer à l’autonomie
de la nature, à sa spontanéité – de faire que le lit ne redevienne pas
bois aurait dit Aristote –, mais d’intervenir su samment à l’amont
des processus naturels pour utiliser leur spontanéité même.
Ce e façon de jouer sur l’autonomie peut connaître d’autres
formes de déploiement, avec une part allouée à l’artifice plus
grande. Tel pourrait être le cas du programme de recherche tendant
à produire une conscience virtuelle. L’idée est de reproduire sur un
support informatique des fonctionnalités propres à la conscience. Plus
précisément, il s’agit de produire un système qui penserait par luimême, à partir d’un profil psychologique déterminé, doté de pulsions,
d’émotions, de corporéité, capable de jugements sur ce qu’il perçoit,
de communiquer avec d’autres systèmes, etc.67 Certes, toutes les
fonctionnalités de la conscience ne sont pas encore reproductibles. Si
des systèmes artificiels peuvent interpréter des données des sens, ils
ne peuvent par exemple se percevoir eux-mêmes. L’une des di cultés
les plus grandes semble bien à cet égard la di culté qu’il y aurait à
doter un tel système de mémoire. Comment en e et reproduire un
vécu qui n’aurait pas été vécu ? C’est un des domaines où la vitesse,
ce e constante des techniques, semble constituer une contradiction.
Ces di cultés pourront-elles être surmontées ? Peu importe ici. La
production de spontanéité, d’autonomie, dispose déjà d’une forme de
réalité. Le système financier international, par exemple, entièrement
informatisé, jouit d’ores et déjà d’une certaine autonomie. La
production de traders artificiels ou d’avions de chasse automatisés ne
paraît pas hors de portée.
Nous aimerions encore a irer l’a ention du lecteur sur un autre
aspect de ce nouveau paradigme techno-scientifique : le problème
n’est plus de dévoiler Isis, mais d’en produire des filles. Considérons
à cet égard le cas de la biologie synthétique. Sur un plan théorique, il
semble que l’idée d’un programme génétique, au sens informatique du
terme, soit plus que suje e à caution. Il n’existe pas en e et de relations
67
Voir J.-P. Dupuy et la volonté de créer des artefacts autonomes, qui échappent
à la maîtrise, à l’instar de la création divine, cf. notamment (Dupuy 2004).
147
spécifiques, étroites, entre gènes et caractères. Il y a évidemment des
corrélations entre les uns et les autres, mais elles ne relèvent pas à
proprement parler du déroulement d’un programme. Le même e et
phénotypique peut par exemple être produit par des mutations
a ectant plusieurs gènes. A l’inverse, la même mutation génétique
a ecte plusieurs caractères ; et certaines mutations ne se produisent
en outre que si des conditions particulières peuvent être satisfaites.
On ne saurait donc assimiler l’ADN à un code informatique68. Si
tel était d’ailleurs le cas, le séquençage du génome aurait réalisé les
promesses énoncées il y a une vingtaine d’années, lorsqu’il convenait
de justifier les programmes de recherche correspondants : guérir
toutes les maladies (sic)69 !
Quelle est la stratégie développée par la biologie de synthèse ?
Elle ne s’assigne nullement pour dessein de produire quelque percée
théorique perme ant par exemple d’élucider le rôle du hasard dans les
mécanismes propres au vivant, plus précisément quant à l’expression
des gènes. Non, son premier objectif est d’isoler le nombre de gènes
minimal nécessaire à l’essor de la vie, puis de s’assurer de ce que les
gènes retenus s’expriment, et ainsi de surdéterminer leur expression
de telle sorte que le hasard soit éliminé. Autrement dit, il ne s’agit pas
de comprendre la complexité propre au vivant, mais de contraindre la
vie à fonctionner à l’identique d’un programme.
Ce e stratégie ne s’éloigne en rien du modèle prométhéen des
relations à la nature, à savoir le modèle judiciaire qui consiste à faire
faire à la nature, en la torturant si besoin, ce qu’elle n’accomplirait
pas spontanément, modèle a esté dès la Grèce antique (Hadot
2004, pp. 107-109). Elle ne lui imprime pas moins une nouvelle
orientation : il ne s’agit plus de conduire la nature à répondre à nos
questions, mais à produire ce qu’elle ne produirait pas spontanément.
Telle est précisément la di érence entre la techno-science la plus
contemporaine et la science classique. Il ne s’agit plus de contraindre
68
Voir les travaux de Jean-Jacques Kupiec, notamment (Kupiec 2008, Kupiec
2000).
69
Voir par exemple : « Le Programme Génome Humain ne peut pas échouer.
Chaque étape que nous franchirons sur la route de nos objectifs ultimes
facilitera la tâche des scientifiques pour trouver les gènes [responsables des
maladies]. Comme le système des autoroutes qui dans notre pays relie les
di érents Etats, la carte du génome humain sera complétée, tronçon par
tronçon, à partir de maintenant », J. Watson et N. Zinder, (The New York Times,
1990). Voir plus généralement (Domurat Dreger 2000).
148
la nature à répondre à nos questions pour ensuite, fort de ses réponses,
produire des artefacts (cf. le modèle galiléen, théorie du mouvement,
puis amélioration des techniques horlogères), mais de la contraindre
à d’emblée produire, en un sens quasi industriel, ce qu’elle ne produit
pas spontanément70.
Toutefois, ainsi comprise, la convergence apparaît comme une
étape supplémentaire dans l’approfondissement de l’intention
opératoire propre à la science moderne. En un sens en e et, la science
moderne se présente dès les origines comme une « techno-science ».
Avec les modernes, le savoir est d’emblée compris comme un pouvoir.
Le texte à cet égard le plus clair est la préface à l’Instauratio magna de
Bacon : « La fin qui est proposée à notre science, écrivait-il, n’est plus la
découverte d’arguments, mais de techniques, non plus de concordance
avec les principes, mais des principes eux-mêmes, non d’arguments
probables, mais de dispositions et d’indications opératoires. C’est
pourquoi d’une intention di érente suivra un e et di érent. Vaincre
et contraindre là-bas, un adversaire par la discussion, ici la nature par
le travail »71. A cette intention opératoire est désormais associée une volonté
de puissance plus encore marquée qu’elle ne pouvait l’être à l’aube de la
science moderne.
Les anthropotechniques
L’essor des anthropotechniques72, comme plus généralement celui
des techno-sciences associées à la convergence NBIC, est inséparable d’un
imaginaire de la promesse. Là encore, il n’y a pas de solution de continuité
vis-à-vis des origines de la science moderne. La Nouvelle Atlantide de
Bacon constitue à cet égard la référence obligée, mais pas nécessairement
originelle. La Lettre sur les œuvres secrètes de Roger Bacon, au 13ème siècle,
a probablement inauguré ce genre littéraire. L’imaginaire contemporain
semble toutefois plus composite que ses célèbres devanciers. La promesse
70
Voir aussi (Bensaude-Vincent 2009).
Cf. Francis Bacon, Instauratio magna (The Great Instauration), traduction du
texte latin (The Works of Francis Bacon, éd. J. Spedding, republiée par Frommann,
Stu gart, vol. 1, 1963, p. 36, traduction du texte latin par Dominique Janicaud, La
Puissance du rationnel, Paris, Gallimard, 1985, p. 189. La traduction anglaise traduit
vincitur par command, voir op. cit. p. 21 (début du « plan de l’ouvrage »).
72
A savoir des techniques visant à transformer l’être humain, sans finalité
médicale, en intervenant sur le corps. Voir (Go e e 2008, p. 69).
71
149
est en l’occurrence tant celle d’un surcroît de richesses économiques, d’une
amélioration humaine (human enhancement), que celle plus flamboyante de
la cause transhumaniste.
Je prendrai ici mes distances avec deux composantes de l’expression
la plus radicale de cet imaginaire que quelques philosophes reprennent
cependant à leur compte. La première est l’idée d’une transformation
du genre humain en tant que tel, et non de quelques individus,
autrement dit le projet de pilotage de l’évolution même du genre
humain. La seconde composante que je récuse est la possibilité d’une
subversion de la condition humaine.
Je partirai d’un texte de Vanessa Nurock (Nurock 2008). L’auteur
cherche à montrer que les éthiques traditionnelles (déontologique,
conséquentialiste et éthique des vertus) ne procurent pas
d’argumentation convaincante pour évaluer les possibles ouverts
par les nanotechnologies. Elles apparaissent surtout impuissantes à
évaluer et à argumenter face au défi que les dites technologies posent
à l’éthique en tant que telle : à savoir la possibilité d’élargir, à la suite
de quelque manipulation neuronale, la gamme des éthiques possibles.
Vanessa Nurock souligne la di culté à argumenter éthiquement pour
autoriser ou non une telle manipulation. Ce faisant l’auteur s’appuie
sur une conception chomskyenne de notre équipement linguistique
naturel et suppose, par analogie, l’existence d’un dispositif cérébral
au fondement de nos éthiques. On peut douter et de la théorie
chomskyenne et plus encore de l’universalité neuronale des éthiques
occidentales. Mais peu importe ici.
L’hypothèse de Vanessa Nurock nous plonge dans une absolue
perplexité. En premier lieu, c’est plutôt la nécessité où nous sommes de
devoir, dans certaines circonstances, justifier nos actions, autrement dit
l’impossibilité où nous sommes de nous soustraire à la question de la
légitimité, qui paraît universelle, et non les réponses variées que nous
pouvons produire. En second lieu, l’idée même d’obligation morale
semble devoir participer d’une certaine transcendance : l’obligation est
par définition ce qui s’impose, ce avec quoi on ne saurait transiger.
Qu’adviendrait-il en e et si nous devenions capables de
programmer des éthiques inédites, de produire des obligations aussi
nouvelles qu’arbitraires ? Une telle possibilité ne viendrait-elle pas
ruiner l’idée même d’éthique et celle d’obligation morale ? Rendre
150
disponible ce qui jusqu’alors était indisponible revient à le détruire
en tant que tel.
Imaginons di érents scénarios relatifs à l’hypothèse de Vanessa
Nurock. Le premier consisterait à introduire dans le cerveau d’autrui
quelques puces ou autres nanomatériaux, ou de recourir à quelque
autre procédé d’ingénierie génétique (Nurock 2008, p. 124). Or, on
ne saurait envisager pire aliénation : ce qui fonderait globalement,
en matière d’orientation morale, la volonté d’autrui après opération
relèverait de la décision d’un autre. Nous serions très proches de la
définition aristotélicienne de l’esclave comme instrument de la volonté
d’autrui. Second scénario, l’opération se déroule avec le consentement
de son sujet. On ne sort pas pour autant de l’aliénation. La personne
nouvelle se retrouve déterminée à jamais par la décision de son moi
antérieur, disparu. Il y a là une forme d’auto-aliénation. Troisième
scénario, je m’impose à moi-même une opération après l’avoir imposée
à autrui ; ce qui ne ferait jamais qu’ajouter à l’aliénation première une
auto-aliénation.
Les expressions de « trans- » ou de « post-humanisme » sont tout
aussi trompeuses que le projet de pilotage de l’évolution. Nous ne
pourrons jamais, en e et, piloter volontairement l’évolution du genre
humain. Il faudrait à cet e et un accord international, sur plusieurs
décennies, imposant pour chaque nouveau-né, ou à titre prénatal, le
même type d’opération, et ce sans préjuger des coûts (Bourg 1996, pp.
265-290). Seuls paraissent plausibles des individus « transhumains »
qui, s’ils se reproduisaient exclusivement entre eux, moyennant
quelque opération sur les molécules de liaison spermatozoïdes –
ovule, pourraient finir par produire une nouvelle espèce au sein
du genre humain. Nous serions alors confrontés à un phénomène
de spéciation. On imagine aisément que les individus qui auraient
recours à ces technologies a érentes à la convergence ne chercheraient
pas tant à acquérir des modules éthiques inédits qu’à accroître leurs
performances dans un contexte de concurrence économique accrue.
Les anthropotechniques semblent ainsi devoir déboucher sur un
accroissement des inégalités, plutôt que sur une quelconque étape
nouvelle, plus favorable, de la condition humaine. Nous risquons fort
d’être confrontés à un phénomène analogue à celui rendu possible par
les technologies occidentales quant à la maîtrise de l’environnement.
Combinées à la maîtrise des énergies fossiles, elles ont débouché sur
151
une di érenciation importante en matière de création de richesses
sur Terre, en démultipliant la productivité de ceux des travailleurs
associés à des dispositifs techniques (voir plus bas).
En outre, nous serions alors en droit de nous interroger sur la
résistance de la fiction juridique, consubstantielle à nos sociétés,
de l’égalité de tous les individus face à la loi, s’il devenait possible
de produire à dessein une classe d’individus dotés d’aptitudes
intellectuelles et physiques réputées supérieures.
Considérons plus brièvement le fantasme transhumaniste, mais
déjà baconien, d’une subversion via les technologies de la condition
humaine. En quoi, par exemple, la convergence NBIC serait-elle en
mesure de surmonter l’un des traits les plus prégnants de la condition
humaine, à savoir la fréquente conversion du bien en mal ? Qu’il soit
impossible de connaître par avance les résultats d’une action sociale,
qu’il en résulte souvent des conséquences tout à fait étrangères à
ce qu’en espèrent ses propres auteurs, est une des constantes de
l’histoire, l’un de ses traits constitutifs. Il n’y a pas là un problème
susceptible de connaître une solution technique. Nos techniques
elles-mêmes, vis-à-vis du seul milieu naturel, produisent parfois des
résultats imprévisibles à moyen ou long terme. Des techniques plus
puissantes ne changeraient rien par ailleurs quant à la finitude de nos
choix. Nous ne saurions par définition tout choisir. Choisir revient
par nécessité à exclure, au moins pour un temps. La promesse de
surmonter la mortalité consubstantielle à notre humanité constitue
un abus de langage. On pourrait au mieux prome re de di érer
indéfiniment la mort d’un nombre limité d’hommes sur ce e Terre.
La condition de mortel est par essence a achée au fait d’être né, et de
l’être par définition de façon contingente. Quand bien même j’aurais
survécu trois cents ans, dix mille voire cent mille ans et plus, quand
saurai-je que je suis immortel73 ? Etc.
Nos technologies sont di cilement séparables de la recherche
de la puissance, laquelle ne se partage guère. Elles semblent
immanquablement devoir produire un surcroît d’inégalités.
73
Question empruntée à Etienne Klein.
152
Convergence et environnement naturel
Qu’il ne nous soit désormais plus possible de souscrire sans
réserves à une conception dualiste de l’homme versus la nature, ce
que l’anthropologue Philippe Descola désigne sous l’appellation de
naturalisme, ne doit pas nous conduire à croire que nous pourrions
nous a ranchir de toute forme de dualité. Descola lui-même s’a ache à
montrer l’impossibilité où nous sommes de dépasser le naturalisme.
Le mot « nature » évoque une idée, un agencement de concepts,
et non un concept apte à identifier et à regrouper des individus
désignables. L’idée de nature, à l’instar de n’importe quelle idée n’est
nullement universelle. Il n’en reste pas moins vrai que nous n’avons
aucun moyen de nous en dépêtrer. Plus particulièrement, nous ne
pouvons nous passer de l’opposition nature/artifice, même si nous
nous apparaissons désormais comme appartenant à la nature, laquelle
nature nous a précédés et nous survivra.
Il convient cependant de ne pas oublier la relativité de ce e
distinction, et ce dès ses origines aristotéliciennes. Relativement à la
présence de la cause finale dans la nature, qui renvoie quant à elle
à la cause formelle, Aristote n’hésitait pas à a rmer que « si une
maison était chose engendrée par la nature, elle serait produite de la
façon dont l’art en réalité la produit » ; il en irait de même en sens
inverse : « si les choses naturelles n’étaient pas produites par la nature
seulement, mais aussi par l’art, elles seraient produites par l’art de
la même manière qu’elles le sont par la nature »74. « Je ne reconnais
aucune di érence, écrira quant à lui Descartes, entre les machines que
font les artisans et les divers corps que la nature seule compose, sinon
que les e ets des machines ne dépendent que de l’agencement de
certains tuyaux, ou ressorts, ou autres instruments, qui, devant avoir
quelque proportion avec les mains de ceux qui les font, sont toujours
si grands que leurs figures et mouvements se peuvent voir, au lieu
que les tuyaux ou ressorts qui causent les e ets des corps naturels
sont ordinairement trop petits pour être aperçus de nos sens. Et il
est certain que toutes les règles des mécaniques appartiennent à la
physique, en sorte que toutes les choses qui sont artificielles, sont avec
cela naturelles »75. « Chaque corps organique d’un vivant, écrit enfin
74
75
Physique, II, 8.
Principes de la philosophie, (1644), A. T., t. IX.
153
Leibniz dans la Monadologie (§ 64), est une espèce de machine divine,
ou d’automate naturel, qui surpasse infiniment tous les automates
artificiels. Parce qu’une machine faite par l’art de l’homme, n’est pas
machine dans chacune de ses parties. Par exemple : la dent d’une roue
de laiton a des parties ou fragments qui ne nous sont plus quelque
chose d’artificiel et n’ont plus rien, qui marque de la machine par
rapport à l’usage, où la roue était destinée. Mais les machines de la
nature, c’est-à-dire les corps vivants sont encore machines dans leurs
moindres parties, jusqu’à l’infini. C’est ce qui fait la di érence entre
la Nature et l’Art, c’est-à-dire, entre l’art divin et le nôtre » (Leibniz
1975 [1714]). N’entrons pas ici dans la conception de l’artifice propre à
chacune de ces figures de la pensée, l’essentiel étant ici pour nous de
rappeler la relativité de l’opposition qui nous occupe.
Qu’en est-il aujourd’hui ? Ce sont précisément les frontières entre
nature et artifice et leur flou qui donnent lieu à des configurations
inédites. C’est par exemple le chercheur indien Pranav Mistry qui
transforme telle partie de son corps en artefact électronique76. Nous
avons alors à faire à une naturalisation de l’artifice. Considérons à
l’inverse les plantes génétiquement transformées. Il s’agit alors d’une
artificialisation ciblée de plantes naturelles. Quelle di érence avec
le même type de cultivar non génétiquement modifié ? En réalité
seul le temps saurait les di érencier. Il conditionne tout autant la
compatibilité écosystémique, la neutralité sanitaire que l’insertion
un tant soit peu durable au sein de pratiques sociales. C’est d’ailleurs
bien selon ce régime temporel que l’agriculture biologique a avalisé
en tant que « naturelle » certaines pratiques. Ce que refusent en e et
les fondateurs de l’agriculture biologique, ce sont tant la chimie de
synthèse, l’héritage de Liebig, que l’imposition au monde agricole
du modèle industriel (Besson 2011). Ils qualifieront en revanche de
« naturels » divers procédés « artificiels » tout simplement parce qu’ils
préexistaient à la rupture qu’ils instaurèrent. Tel est par exemple le cas
du recours au cuivre en tant que fongicide dans le cadre de ce qu’on
appelle la bouillie bordelaise. Autre exemple, l’usage de la roténone
était accepté alors qu’on vient de découvrir qu’elle pouvait provoquer
la maladie de Parkinson chez les rats. Toutes considérations qui ne
contredisent pas l’impact environnemental réduit de l’agriculture
biologique par rapport aux pratiques intensives.
76
Voir la conférence TED de Pranav Mistry : h p://www.ted.com/talks/lang/
eng/pranav_mistry_the_thrilling_potential_of_sixthsense_technology.html
154
Quelle que puisse en revanche être la proximité de certains
produits de l’action humaine aux êtres naturels, il n’en reste pas moins
une di érence fondamentale : seules les entités qui procèdent, à un
titre ou un autre, d’une action humaine, engagent une responsabilité
humaine. Ainsi que le remarquait Stuart Mill, la nature fait toutes
sortes de choses qui apparaîtraient horribles si elles découlaient
d’actions humaines77. Autrement dit, plus nous substituons à des
mécanismes naturels des interventions humaines, technologiquement
médiatisées, et plus nous étendons la sphère de nos responsabilités ;
plus, ce faisant, nous intensifions notre dépendance mutuelle.
Considérons pour finir trois domaines où des nanotechnologies
pourraient jouer un rôle important touchant directement
l’environnement. Le premier domaine concerné est celui des
biocarburants. Il devrait être possible, via la biologie synthétique, de
recombiner l’ADN de bactéries de telle sorte qu’elles transforment
le sucre en éthanol ou des levures en gasoil. De telles recherches
sont financées par des groupes pétroliers comme Exxon Mobile ou
BP. Il en résulterait au mieux quelques millions de barils par jour, ce
qui ne semble pas à la mesure du déficit en matière de pétrole qui
s’annonce. Rappelons que nous avons a eint le maximum de nos
capacités d’extraction mondiale de pétrole conventionnel en 2006, le
fameux pic pétrolier, et que nous sommes d’ores et déjà entrés dans
une sorte de plateau ondulé qui sera immanquablement suivi par une
descente aux enfers desdites capacités (Laherrère 2011). En matière de
pétrole conventionnel nous extrayons 64 millions de barils par jour
auxquels nous ajoutons d’ores et déjà 22 millions de barils par jour
d’autres pétroles liquides d’origines diverses, au coût d’extraction
77
« The word «nature» has two principal meanings: it either denotes the entire
system of things, with the aggregates of all their properties, or it denotes
things as they would be, apart from human intervention. In the first of these
senses, the doctrine that man ought to follow nature is unmeaning; since man
has no power to do anything else than follow nature; all his actions are done
through, and in obedience to, some one or many of nature’s physical or mental
laws. In the other sense of the term, the doctrine that man ought to follow
nature, or, in other words, ought to make the spontaneous course of things the
model of his voluntary actions, is equally irrational and immoral. Irrational,
because all human action whatever consists in altering, and all useful action
in improving, the spontaneous course of nature. Immoral, because the course
of natural phenomena being replete with everything which when commi ed
by human beings is most worthy of abhorrence, any one who endeavoured in
his actions to imitate the natural course of things would be universally seen
and acknowledged to be the wickedest of men » (Mill 1904 [1874], p. 32).
155
et de transformation notablement plus élevé que celui du pétrole
conventionnel. Or, ces bactéries recombinées travailleront sur une
matière première agricole qui exigera l’allocation de nouvelles surfaces.
Ce sont déjà 4 % des surfaces agricoles mondiales qui sont allouées aux
biocarburants et c’est une des raisons de la montée générale du coût
de l’alimentation. Nous retombons ici sur le problème des inégalités,
la production de carburants pour les plus riches obérant le coût de
l’alimentation des plus pauvres. Par ailleurs, si l’on se tourne vers
l’énergie solaire et l’apport en la matière des nanotechnologies, les
perspectives ne sont pas plus mirobolantes. La nanorestructuration
du silicium ouvre théoriquement un véritable saut technologique en
terme de rendement, avec un horizon à 70 %. Certes, mais les étapes
pour y parvenir sont nombreuses, et le rendement pour l’heure reste
largement inférieur à celui des meilleurs panneaux classiques. Si l’on
se tourne vers les matériaux, la valorisation de nos futurs stocks de
CO2 reste un objectif lointain, et cela ne changerait rien aux actuelles et
futures tensions sur les métaux rares et semi-précieux indispensables
aux technologies les plus sophistiquées. Qu’il s’agisse d’énergie ou de
disponibilité de certains métaux, les nanotechnologies ne semblent
pas en mesure, à un horizon moyen de visibilité, de faire autre chose
que desserrer légèrement l’étau des ressources.
Enfin, on ne peut écarter un risque nouveau, ouvert par la biologie
de synthèse, celui du biohacker ou du biogaragiste, recombinant en
catimini quelque séquence d’ADN afin de produire la chimère de ses
fantasmes. Il semble toutefois que ces derniers ne peuvent suivre ce
qu’on sait produire dans les laboratoires patentés de recherche qu’avec
un décalage de dix ans, et surtout que rien ne semble pouvoir égaler
la dangerosité bien naturelle, par exemple, du virus de la variole.
Mais un tel virus n’en reste pas moins, en principe, synthétiquement
reproductible.
Revenons pour conclure aux enjeux de l’égalité. Pour autant
que la convergence se déploie dans un contexte de compétitivité
individuelle et collective exacerbée, n’ayant d’autre orient que la
maximisation des gains à court terme, on ne voit guère ce qui pourrait
en découler, si ce n’est un surcroît d’inégalités. Les nanotechnologies
devraient perme re d’accéder à une marche supplémentaire dans
ce e ascension des inégalités que nous connaissons depuis qu’une
partie de l’humanité est parvenue à exploiter technologiquement
les énergies fossiles. Comparativement à une hache, par exemple,
156
une tronçonneuse augmente la productivité du travail d’un facteur
allant de 100 à 1000. Ce qui nous permet de comprendre qu’avant
les années 1820, les écarts de richesse matérielle entre les nations
n’aient probablement pas dépassé, ou alors de peu, un rapport de 1 à
2 (Bairoch 1997). Le PIB par habitant a eint au Qatar 85 600 $, 79600
au Luxembourg et 46 300 $ aux USA pour 200 $ au Zimbabwe et 400 $
au Liberia. Le Qatar est ainsi en moyenne 428 fois plus riche que le
Zimbabwe, alors qu’à la fin du 18ème siècle, avant l’envolée de la
révolution industrielle, il aurait été impossible de trouver une nation
deux fois plus riche qu’une autre. Le présent, et plus encore l’avenir
proche, semble aux antipodes de l’espérance des modernes, de Bacon
à Hegel aussi bien que Marx : la maîtrise technique de la nature leur
paraissait receler la promesse d’une reconnaissance universelle des
hommes dans leur égale dignité.
Références
Bairoch P., Victoires et déboires. Tome 2. Histoire économique et sociale du
monde du 16e siècle à nos jours, Paris, Gallimard, 1997.
Bensaude-Vincent B., Les vertiges de la technoscience. Façonner le monde
atome par atome, Paris, La Découverte, 2009.
Besson Y., Les Fondateurs de l’agriculture biologique, Sang de la Terre,
2011.
Bourg D., L’Homme artifice. Le sens de la technique, Paris, Gallimard,
1996.
Domurat Dreger A., « Metaphors of Morality in the Human Genome Project », dans Controlling Our Destinies, Sloan P. (éd.), Notre
Dame Press, 2000.
Dupuy J.-P., « Quand les technologies convergeront », Revue du MAUSS
23(1), 2004.
Goffette J., Naissance de l’anthropotechnie. De la médecine au modelage de
l’humain, Paris, Vrin, 2008.
Hadot P., Le Voile d’Isis, Paris, Gallimard, 2004.
Kupiec J.-J., Ni Dieu ni gène. Pour une autre théorie de l’hérédité, Paris,
Seuil – Points, 2000.
Kupiec J.-J., L’origine des individus, Paris, Fayard, 2008.
157
Kyrou A., « La mutation androïde de Google : radiographie d’un imaginaire en actes », Multitudes 36, 2009,
h p://multitudes.samizdat.net/La-mutation-androide-de-Google.
Laherrère J., « Les perspectives pétrolières et gazières », Futuribles 373, 2011, pp. 5 – 28.
Leibniz G.W., La Monadologie, Paris, Ed. Delagrave, 1975 [1714].
Mill J. S., On Nature, (édition de 1904) [1874].
Nurock V., « Avons-nous vraiment besoin de nano-éthique ? » dans B.
Bensaude-Vincent et al., Bionano-éthique - Perspectives critiques sur
les bionanotechnologies, Paris, Vuibert, 2008, pp.113-126.
158
Nanoéthique et posthumanisme
Mylène Botbol-Baum78
« Ce sera l’âge du « nano » : la technologie disparaîtra
complètement parce qu’elle existera dans nos corps et non plus
sur eux (…) en conséquence, au fur et à mesure que notre avenir
deviendra de plus en plus technologique, comprendre et contrôler
ce e technologie deviendra de plus en plus impossible. »
Bruce Benderson
Les nanotechnologies sont-elles en train de réaliser une révolution
silencieuse, à une échelle d’abord invisible, mais dont il faudrait alerter
les citoyens que nous sommes des conséquences éthiques qu’elles
soulèvent, ou penser une manière adéquate pour répondre à leurs
conséquences, bonnes ou mauvaises ?
A quelles conditions de partages de connaissances chacun peut-il
répondre adéquatement à ces questions afin de ne pas les réserver à
des « experts » ? S’agit-il véritablement d’une question d’échelle, ou
plutôt de la convergence de technologies et du vivant qui e ace les
frontières existantes de nos représentations ?
Si nous prenons au sérieux le scénario de Bruce Bendernson
(Bendernson 2010), le changement d’échelle devrait sérieusement
perturber notre mode d’évaluation éthique et notre capacité à être
autonomes vis-à-vis des nanotechnologies, car elles nous envahiraient
de l’intérieur et annuleraient notre capacité de nous séparer, de nous
altérer, tant elles se confondraient avec nos corps.
Ainsi, l’élaboration d’une nanoéthique n’aurait aucun sens car la
distance entre le faire techno-scientifique et sa réalité sociale serait
trop éloignée, et toute décision d’y me re des limites absurde ou
inopérante.
Nos modèles de décision sont fondés sur l’articulation de trois
moments : une intuition morale fondée partiellement sur nos croyances,
78
Université Catholique de Louvain
159
des normes biophysiques qui sont lues plus ou moins en accord avec
ce e croyance et une capacité réflexive pour éventuellement donner des
raisons à nos croyances ou les déconstruire. Face aux nanotechnologies,
nous avons certes besoin d’imagination prospective, mais surtout
d’une capacité à penser au-delà des régulations biologiques, dont le
rempart envers les risques s’avère de plus en plus fragile.
Nous savons également que la délibération sans information
experte ne fait qu’alimenter les ombres de la caverne. De plus, la
délibération n’est pas la décision et nous nous situerons donc ici dans
une réflexion sur l’association entre nanotechnologies, méliorisme et
posthumanisme afin de penser le temps de la compréhension tacite
qui devrait précéder le temps de la précaution. Nous tenterons de
dépasser les deux discours du « hype » et de l’heuristique de la peur,
en tentant de préciser la pertinence d’un discours éthique sur les
nanotechnologies, s’il n’est pas précédé d’une réflexion ontologique et
épistémologique plus globale sur ce que sont les nanosciences et leurs
applications technologiques.
Mais quelle spécificité des nanos dans le paysage des technosciences ?
Techno-sciences n’appartient pas véritablement au vocabulaire des
sciences, ni de l’épistémologie des savoirs scientifiques. On le trouve par
contre utilisé par les sociologues des sciences, tel Bruno Latour, ou par
certains philosophes, tels Lyotard ou Gilbert Ho ois. La notion de technoscience n’est donc pas directement scientifique ni même subordonnée
aux savoirs scientifiques. Elle s’inscrit dans une conception idéologique
et philosophique de la description du monde et de l’humain.
Une cohérence théorique des techno-sciences a pour but de faire voir
ce qui est en jeu dans la porosité des frontières entre le vivant et l’inerte.
Elle est une tentative d’élucider philosophiquement ce que l’on nomme
science, technique ou technologie. Techno-science est ainsi utilisé de
manière polémique par ceux qui dénoncent la violence faite aux sciences
et aux techniques, dans l’incapacité même à décrire la nouveauté des
phénomènes scientifiques et techniques. Le discours contre la technoscience est donc souvent perçu comme le symptôme de la peur des
laissés-pour-compte de l’avancée scientifique et technologique, rarement
comme celui d’un choix rationnel contre les perturbations d’un monde
commun et de sa culture.
160
Il y a donc implicitement un a priori technophobe visant à
dénoncer l’aliénation ou la réunification de la rationalité instrumentale.
L’intérêt des discours de Jean-Luc Nancy ou de Stiegler dépasse ce e
technophobie pour me re en lumière l’ambivalence du champ dont la
connotation n’est plus péjorative ou dénonciatrice. Ils s’a achent plus
à décrire le vécu humain des sciences et des techniques, mais aussi
l’interprétation de ce vécu. Les nanosciences elles-mêmes, en faisant
partie, désignent à la fois une description rigoureuse des phénomènes
scientifiques et techniques mais exigent un discernement, quant à leur
impact social et au respect du pluralisme des convictions lorsqu’une
innovation technique balaye la frontière fragile entre public et privé,
intérêt économique et choix de vie.
A ce stade, de nombreuses revues de bioéthique ou de philosophie
de la technique discutent l’éthique des nanotechnologies, comme si
les e ets des nanosciences étaient maîtrisables et leur adoption ne
nécessitait qu’une éthique de la discussion bien comprise.
Certains annoncent dès lors très sérieusement l’ère de la singularité’,
nommée ainsi en référence à la notion mathématique postulant
que l’accélération du progrès technologique provoquera bientôt la
transformation radicale de notre condition humaine (discours du
posthumanisme, voire du transhumanisme). Nous sommes dès lors
confrontés à une procéduralisation des nanotechnologies, n’ayant
rien de bien di érent de la régulation d’autres biotechnologies, dont
l’ignorance suscite des peurs qui, loin de nous avertir de dangers
objectivables, dénoncent la perte des repères existants.
Le champ descriptif de la toxicologie nano ne cesse de s’étendre
en santé publique, pour établir la notion de risque comme la limite à
notre imaginaire devant ce qui reste invisible à notre échelle, et ouvre
à la catégorie de risques potentiels et non mesurables, et donc à une
heuristique de la peur censée nous rendre responsables... Comment
pourtant répondre de ce que l’on ne comprend pas ?
Dans ce conflit d’intérêt entre industries et toxicologues, peu
s’aventurent à définir les nanotechnologies de manière à engager le
dialogue.
Les nanotechnologies ont été rendues possibles par les progrès
technologiques, notamment en biologie grâce à l’avènement de
techniques très sophistiquées en microscopie (confocale, à fluorescence,
161
à sonde locale, à e et tunnel) qui ont permis d’observer, puis de
manipuler, des objets à l’échelle moléculaire, voire atomique, et qui ne
peuvent que susciter l’admiration et la curiosité.
Plus que la taille, c’est l’ignorance actuelle des di érences entre
propriétés de la matière dans les mondes nano et macro (notre monde
représentable à l’échelle humaine) qui est en jeu dans l’évaluation de la
pertinence éthique ou non de développer des nanotechnologies, ainsi
que la capacité potentielle des nanostructures à s’auto-reproduire.
Comment évaluer une description d’une techno-science que la
plupart d’entre nous peinent à comprendre, tant elle est liée aux principes
contre-intuitifs de la mécanique quantique, alors que paradoxalement
ses e ets technologiques ont envahi notre quotidien ? Aurions-nous
perdu par là-même la capacité de maîtriser la nature, d’être les auteurs
de notre avenir ? Ou au contraire serions-nous enfin capables de devenir
les auteurs de notre avenir grâce aux outils technologiques combinés ?
Ce e indétermination du discours même montre en soi notre incapacité
à réguler ce qui semble dérégler nos représentations.
Ce e ignorance est-elle ce qui prévient de faire entrer, selon
l’expression de Bruno Latour, « les sciences en démocratie » ?
Les écrivains Irving John Good et Vernor Vinge, en 1965 déjà, ont
utilisé le terme de ‘singularité’ pour décrire le progrès de l’évolution
humaine (Vinge 1993), jusqu’au moment du futur où les avantages
technologiques seront si rapides que l’esprit humain ne pourra plus les
comprendre, étant limité par ses capacités corporelles spatio-temporelles,
alors que les machines fonctionnent dans le virtuel et donc dans la
multiplication des possibles. La question, face à ce e décorporation,
est de savoir si le corps est une chance ou une contingence à dépasser.
Descartes disait déjà : « Je ne suis pas cet assemblage de membres que l’on
appelle le corps humain » (Descartes 1951 [1637]).
Ce e sphère négative que l’idéalisme situe dans le corps, le temps, la
mort, l’ignorance, fut déjà le fruit d’une catastrophe métaphysique qui
fait que le « mal » est décrit dans une perspective dualiste et mécaniste,
biologique, alors que les nanotechnologies nous prome ent un monde
où le corps le serait si peu… et serait donc capable de traverser ces
clivages et requérir une visée ontologique et épistémologique neuve de
l’humain en devenir.
162
Il n’est dès lors pas anodin, selon moi, de considérer l’hypothèse
de la singularité comme symptôme de ce e mutation, qui semble
déplacer les frontières du réel d’une manière invasive, en ce que
la frontière entre l’intérieur et l’extérieur, notre chair et la chair du
monde, semble de plus en plus illusoire. La notion d’individu est
menacée en termes d’intégrité et par là-même l’idée d’humanité, liée
au concept d’individualité corporelle et juridique.
Pour Ray Kurzweil, ce moment provoquera l’avenir d’un monde
qui restera humain mais qui dépassera nos déterminismes biologiques
(Kurzweil 2005). De même pour Eric Drexler qui a popularisé l’idée
du transhumanisme à partir de ses livres sur les nanotechnologies
moléculaires (Drexler 2005).
L’idée qui traverse ce champ est que l’espèce humaine se trouve
dans un évolutionnisme mélioriste radical qui perturbe l’idée de nature
humaine et exige notre imagination éthique pour penser comment
l’échelle de ce e évolution exige ou non de penser le posthumanisme,
comme étape suivant le postmodernisme. J’argumenterais qu’il est de
notre responsabilité de nous poser la question en termes de thought
experiment, avant qu’elle ne devienne par notre passivité, un destin,
une naturalisation des nanosciences.
Notre perception de nous-mêmes résiste à l’évolution des
technostructures et aux émergences qui nous définissent de manière
de plus en plus prégnante. Si nous avons cru longtemps pouvoir en
accompagner la trajectoire de manière réflexive par des régulations
éthiques, une telle démarche semble de plus en plus fragile et vulnérable,
voire ridicule. Elle annule la volonté d’agir sur ce e naturalisation des
techniques, tant nos capacités à faire usage des techniques ont dépassé
nos capacités cognitives à en saisir la complexité.
Le développement des technologies est beaucoup plus rapide que
le rythme de changement des paradigmes de la culture fondés sur
nos représentations partagées. La notion d’intériorité de la conscience
serait mise ainsi au défi par une conscience externe qui e acera les
frontières entre le dedans et le dehors, entre le moi peau et la chair du
monde, et signerait une autre blessure narcissique de l’humanité.
Est-il possible, comme certains le suggèrent, de faire marche
arrière ? La transformation des choses par leur médium technologique
détermine d’une certaine façon la signification que nous donnons
163
aux événements. Le changement est que nous serons témoins plutôt
qu’acteurs d’un moment évolutionniste, dans le processus en rhizome
d’un système qui bifurque à l’infini, comme nous l’annonçait Deleuze.
Telle est la doctrine du transhumanisme, défini par Julian Huxley
en 1957 comme un phénomène par lequel « l’homme reste l’homme
mais se transcende par la réalisation de possibilités nouvelles de la
nature humaine » (Huxley 1957). Kurzweil, dans une lucidité précoce,
voit dans le transhumanisme l’épanouissement du posthumanisme,
de manière quasi-suicidaire, car en tentant de reconstituer le cerveau
dans sa totalité afin de pouvoir en livrer le modèle aux machines, nous
signons notre possible extinction.
Que devient la volonté humaine dans un tel scénario ?
Le futur serait-il simplement évolutionniste ? Vers quoi nous
mène ce e idéologie naïve du progrès ? Que faire de nos acquis sur
le relativisme culturel, qui nous rappelle que le progrès est arbitré
par la culture ? Que faire de tous ces peuples et individus qui ne
sont pas prêts pour la ‘singularité’, mais qui surtout n’en veulent
pas ?
Et si, précisément, la revalorisation de notre vulnérabilité
corporelle nous perme ait d’a rmer un projet libre contre ce
nouveau déterminisme technologique ? N’est-ce pas là le contrediscours des théories du ‘care’ ? Tout se passe comme si nous avions
le choix entre préserver nos déterminismes et notre intelligence
biologique ou la remplacer par une nouvelle intelligence, artificielle,
faite de neurones synthétiques dont le potentiel serait mille fois
supérieur aux performances de nos tissus biologiques.
Le dilemme : les humains devraient choisir leur vulnérabilité
biologique ou la dépasser par le rejet de leur chair et de leur
mortalité pour a eindre la longévité et l’intelligence. Est-il crédible
ou faisons-nous face à un remake de mythe grec ? Le rêve est en
e et toujours le même, découvrir le secret de la matière, fabriquer
des nanobots qui remplacent les globules rouges, en a endant de
ne plus avoir besoin d’organes du tout pour exister. Pourquoi ces
scénarios apparaissent pour la plupart d’entre nous comme des
cauchemars ? Quelle intuition de notre disparition suggèrent-ils ?
164
Quelles limites signalent-ils entre transformation et disparition de
l’universalité de l’humain telle que nous la connaissons, la désirons
ou la postulons ?
Mais cela ne fait-il pas de toutes nos expériences des expériences
surdéterminées ? La crainte n’est-elle pas liée à un vieux cauchemar,
de voir les machines que nous avons créées nous anéantir ? Sommesnous face à un excès d’imagination ou au contraire face à un manque
total d’imagination, tant ces scénarios sont récurrents ? La crainte
semble y être associée, moins à la perte de l’irréductible singularité
humaine face à la singularité mathématique, qu’à l’e acement des
visages, à la négation de la vulnérabilité comme condition paradoxale
de l’autonomie.
Humanisme anti-singulariste, ou l’a rmation de la
volonté du sujet
Dans les cas limites, la liberté humaine hésite entre le sublime et
la mélancolie. Le sublime est l’expérience du caractère indépassable
de la limite. La mélancolie est ce e volonté de franchir la limite et
l’impossibilité de le faire si ce n’est à travers les techno-sciences. La
pensée techno-scientifique donne-t-elle le courage de se démarquer de
ce sentiment d’échec qui fait subir l’obstacle comme une dépendance/
liberté qui était consubstantielle à l’expérience humaine et dont on a
fait sa dignité ? Tout agir créatif est dans la mélancolie. Ce e a itude
coïncide avec la philosophie jusqu’à Heidegger, et résiste au nihilisme
qui évoque l’artificialité d’un dépassement de la mélancolie. C’est ce
qu’Habermas exprime en opposant une rationalité de la communication
à une rationalité stratégique car, pour lui, la communauté de la
communication constitue le point de résistance face à l’invasion
progressive de la technique. Ce présupposé reste-t-il acceptable ? Ou
le nihilisme incontournable exige-t-il une nouvelle forme du commun
et, face à l’humain qui se voit exproprié de sa substance par les
artefacts, renouvelle la notion de sujet ? Si le sujet n’est plus le même,
il sera obligatoirement un autre, une chaîne d’altérations qui ne se fixe
jamais dans une identité, coexistence ou superposition de l’être et du
rien. C’est l’oubli du néant qui soumet la chose humaine à un point
de vue scientiste ou nihiliste. C’est le manque du manque qui nous
amène de l’humanisme au déracinement absolu, qui nous ouvre à
165
un sens encore impensé de l’humain que certains nomment le posthumain, qui est en manque de sens face à une démocratie qui se veut
de plus en plus immunitaire, selon l’expression de Roberto Esposito,
car elle a toujours autant horreur des masses (Esposito 2010).
La seule façon d’éviter les catastrophes ou l’immunisation est
une forme d’intériorisation progressive de l’extériorité du monde,
logique que Luhmann a poussée à ses ultimes conséquences en
adoptant le concept biologique d’autopoiesis, celle qui mène a une
autorégulation interne indépendante par rapport au milieu et à ses
contingences. Le système biologique se reproduit en reproduisant
lui-même ses composants dans un rythme biologique qui l’immunise
de la communication et de l’outil du langage qui exige l’ex-position
à l’autre. Mais l’homme n’est pas qu’un système biologique, ou pas
un système biologique comme les autres, par sa capacité réflexive
qui peut dépasser la contingence du biologique ou en défaire la
nécessité. En immunologie, le problème central n’est pas de distinguer
ses propres composants biologiques de composants artificiels mais
d’établir une autorégulation interne du système immunitaire. Le refus
de l’altération est-il inséparable du refus de l’altérité ?
Pourtant, repenser la communauté n’a jamais été aussi urgent
pour dépasser la contingence de l’altération biologique. La nécessité,
fatum tragique, serait devenue contingence, jeu, hasard. Tel est le
renversement dont nous devons penser les conséquences. Tout se
passe comme si l’enfermement dans les limites de la naissance et
de la mort n’était plus le cadre obligé du possible. L’absence de
limites créée par la singularité met alors en danger l’idée même
d’autonomie.
L’illusion pragmatiste du débat sur les nanos
Le débat sur la nanoéthique ressemblait jusqu’il y a peu à un
discours de science-fiction. Puis, pour des raisons que nous expliquons
dans ce texte, il est devenu plus utilitariste et s’est construit autour
des concepts de risques et de bénéfices afin d’évaluer les conflits
d’intérêts émergeant entre le public, les chercheurs et l’industrie.
Une approche métaphysique a émergé alors dans une Europe plus
traditionaliste et culturaliste que les États-Unis, autour de Jean-Pierre
Dupuy, soulevant des questions ontologiques concernant les techno166
sciences et les technologies convergentes, dont les nanosciences ne
seraient qu’un paradigme particulièrement prégnant.
« Avec la techno-science aujourd’hui nous savons beaucoup
moins ce que nous faisons. Nous avons donc retrouvé l’antique
avance de la technique sur le savoir » (Dupuy 2004, p.78).
Ce e phrase ancre notre réflexion d’aujourd’hui car e ectivement
la techné chez Platon est bien ce qui précède la science. Et pourquoi
ne pas donner un rôle constitutif aux instruments, depuis le télescope
de Galilée jusqu’au microscope à e et tunnel ? L’instrument ouvre au
passage du rapport au vivant comme matière organisée non vivante,
et toute l’ambiguïté se joue entre une représentation du corps vivant
et une pensée de la technique qui ne l’est pas, mais qui fabrique la vie
par mimétisme à travers la biologie synthétique.
Il n’y a rien de ce e crainte diabolisant la manipulation de la vie
dans la pensée américaine. La techno-science y dit plutôt quelque
chose sur la nature de l’activité scientifique qui étonne toujours et vise
à construire et non plus à représenter. Dans ce e optique, la frontière
s’e ace quant à savoir s’il s’agit de produire la connaissance du réel
ou le réel lui-même.
Bachelard montrait déjà dans « Le nouvel esprit scientifique »
(Bachelard 1968 [1934]) combien la physique quantique et les
phénomènes ne sont rien en dehors de leurs pures constructions
mathématiques. Ils ne sont que l’ombre d’un nombre. Cela ne veut
certes pas dire que les phénomènes ne seraient qu’une production de
l’esprit.
Pour Gilbert Ho ois, il est inexact de parler de résorption de la
science dans la technique ou l’inverse (Ho ois 2004). Elles sont bien
plutôt révélées l’une par l’autre en étant rapportées à leurs communes
racines enfin mises à jour : la technique n’est plus organisation des
moyens en vue d’une fin, artifice e cace, mais opération e ciente.
C’est à lui que l’on doit ce e thèse du rapport entre sciences et
techniques. Tout se passe comme si nous étions témoins d’une
bifurcation : le caractère opératoire et productif de la techno-science
permet deux interprétations opposées, celle du calcul et du mécanisme
qui mènera à dénoncer comme perte de sens, de celle du possible et/
167
ou de la contingence qui révèle une certaine idée de la liberté humaine
et suppose une certaine autonomie de la technique.
Le réel précède-t-il le possible ?
Maîtrise comme inscription de la spatialité et calcul en vue de
l’action e cace. L’invention technique est de l’ordre de la joie, en ce
qu’elle suppose un jaillissement de la créativité à partir d’un savoir
tacite. Simondon reprendra ce e idée bergsonienne d’une ontologie
du devenir inventif. S’y oppose la manière dont Jean-Pierre Dupuy
reprend ses descriptions bergsoniennes de la temporalité, où le réel
précède le possible. L’inouï de nouveauté, l’alliance entre informatique
et biologie apparaît comme l’espace même de l’invention du possible,
soit comme le lieu du tout manipulable.
Pour Bruno Latour comme pour Donna Haraway, il y a là un
geste qui tourne le dos à une épistémologie qui se limiterait à un
exercice de rationalité opposant le vrai du faux, une rationalité sans
compromission avec la contingence qui, s’éloignant du savoir tacite
qui inaugure la découverte scientifique, nous condamnerait aux faits.
De ce point de vue, le concept de techno-science devient positif en
opposant à l’e cience opératoire des artefacts techniques à la logothéorie d’une science pure et désintéressée, qui néanmoins était la
condition de l’unification du savoir.
Quelle frontière donc établir entre sciences et techniques ? Une
réponse est essentielle pour dépasser l’idée d’une nature objective
séparée de l’ordre de l’humain ou d’une technique naturalisée. Car si
l’homme n’est pas une machine, la machine s’humanise.
Donna Haraway insistait sur le fait qu’aujourd’hui les sciences ont pour
fonction d’hybrider et de rendre floue la notion même de corps humain
par une sortie du dualisme entre sciences et techniques. Non seulement
sciences et techniques fusionnent mais elle fournissent l’idéologie qui fait
accepter son entreprise de domination. Habermas prolonge ce e thèse
dans « la technique et la science comme idéologie » (Habermas 1973)
souscrivant à la thèse d’un homo faber converti en nouveau fabriquant.
Contrairement à Marcuse, la techno-science n’est pas le simple e et du
capitalisme, elle a une consistance propre, celle du visage de la science
qui inaugure Galilée, celle de la technicisation de la science.
168
Ainsi, en quoi les nanosciences, comme convergence des technosciences, exigeraient-elles une éthique particulière ? Peut-on dire
que les techniques oblitèrent nos sciences, n’étant qu’une puissance
d’e cience, réduisant la science à une force de production ? Tout se
passe comme si la technique et l’économie réduisaient la science à
l’ordre des savoir-faire e caces. Ce qui semble le plus inquiéter ces
auteurs est que cet envahissement innovant et mélioratif s’associe à
une indétermination, à un e acement des frontières épistémologiques,
qui altère la spécificité des innovations. Où commence et où finit la
techno-science ? Ce e extension du concept s’oppose à la tentative de
cerner la réalité de la techno-science afin d’en décrire la singularité, et
de séparer la confusion entre capitalisme et techno-science, ou ce que
Michel Henri et Lyotard nomment ‘techno-capitalisme’.
Si l’économique naît dans la vie, il tend à s’en séparer. Le capitalisme
étant le stade ultime de ce e séparation d’avec la vie comme abstraction,
elle signale le fait que la science devient pure e cience opératoire et
coupe donc radicalement le lien à la vie comme auto-a ection, pour
devenir une praxis immanente. C’est de la vie comme praxis néanmoins
que la technique tient son nom. L’enjeu consiste à ne pas limiter la
techno-science à une région du réel. Les phénomènes scientifiques
et techniques révèlent que le rationnel est d’abord puissance, et que
ce e puissance n’est pas en soi signifiante. Ce courant nous invite à
une réflexion sur la spécificité des technologies à l’échelle humaine.
La question majeure étant comment évaluer ces techno-sciences, dans
un état d’incertitude et d’indétermination quant à ce qu’elles nous
perme ront de réaliser. Il semblerait, en termes philosophiques et
éthiques du moins, que l’approche conséquentialiste soit totalement
inappropriée pour penser ce qui relève d’un discours sur un choix
biopolitique.
Si la raison est une idée supposée guider le comportement des
agents dans l’espace public, les conflits d’intérêts autour des mêmes
sciences et de leurs applications non régulées relèvent souvent de
l’irrationnel. Le concept même de nanotechnologies étant confus, il
semble donc important de clarifier son émergence du côté des discours,
mélioriste et posthumaniste. Il serait irresponsable néanmoins de ne
pas prendre au sérieux l’émergence de ces discours, qui accompagnent
les thérapies mélioratives innovantes et les promesses d’améliorer la
qualité de vie comme nouveau ‘religio’, sur lesquels les institutions
créent du monde commun.
169
Dans la li érature spécialisée, en est-il de même des sciences face
à toutes les technologies qui visent à dépasser les déterminismes
biologiques humains : l’intelligence dans l’informatique, la mortalité
par la biologie, etc. ? Le débat est trop souvent cantonné à l’évaluation
des vies à des risques d’un point de vue des conséquences, alors que
nous voudrions montrer que d’un point de vue épistémologique
et déontologique les perspectives sont bien plus larges. C’est un
schéma très commun dans le discours bioéthique, qui se limite
souvent à une vue atomiste de la société alors que, paradoxalement,
les nanotechnologies requièrent de repenser a minima la notion de
bien commun avant de procéder à des arrangements, régulations et
consensus en termes de décision.
Nous traitons donc ici intentionnellement de deux concepts flous,
les nanotechnologies et le posthumanisme, afin de penser l’intention
entre les incertitudes et l’évolutionnisme d’un posthumanisme qui
serait une réponse à l’idéal fixiste de ce que Fukuyama a appelé un
facteur de X de l’humain. Contre le rêve H+ de l’homme amélioré, le
discours posthumaniste, au contraire, est une idée relationnelle qui
inclut dans son processus de repenser de manière fluide la relation de
séparation conventionnelle entre humains, machines et animaux.
Ce e approche empirique prend pour mesure des atomes qui
nous constituent tous et qui met donc au défi l’anthropomorphisme
dualiste qui fonde la supériorité des humains sur la conscience et le
langage. Le posthumanisme s’inscrit épistémologiquement dans les
catégories descriptives utilisées par la biologie et la postgénomique,
qui visent à déconstruire les identités closes, perme ant d’autres
associations, et forment une inventivité transgressive de la grammaire
de l’humain.
L’on pourrait rétorquer que ce e mécanisation du biologique
pourrait être aussi une biologisation de la matière inerte, ce qui nous
mènerait à une vision plus écologique de la nature. L’association des
sciences constitue la possibilité d’émergence des nanotechnologies et
fonctionne alors comme un paradigme de quelque chose qui permet
le passage de l’idée à l’action dans un monde de plus en plus virtuel
mais économiquement très dynamique. L’idée de posthumain exprime
le désir paradoxal d’être délivré de l’humain, de ses contingences et
déterminations biologiques, avec pour horizon le désir de réaliser le
rêve immémorial d’immortalité. Il fonctionne précisément comme
170
l’e acement de la frontière entre matière et concepts, qui avait été
exprimé déjà dans les mythes platoniciens de la caverne. Néanmoins,
il faut ainsi insister sur la dimension contextuelle qui mène au succès
de ce e idée parmi des philosophes scientifiques sérieux. Elle semble
répondre aux besoins d’une utopie alternative après l’échec de
l’humanisme du XXe siècle. Le problème de ces vues futuristes est
qu’elle restent spéculatives et ne perme ent pas de se prononcer sur
un quelconque devoir-être.
Mais il nous faut séparer plusieurs niveaux d’utilisation de ces
termes, puisque notre but est de donner une dimension réflexive
aux conditions d’une évaluation normative en état d’incertitude
dans un cadre techno-scientifique. Il faut se rappeler toutefois que
l’intention éthique est de répondre au devoir-être, afin d’améliorer
ce qui est, nécessairement comme entreprise idéaliste. Ce e
approche anthropologique, malgré sa faiblesse opérationnelle, nous
permet de questionner le procès du réalisme étroit d’une éthique
conséquentialiste, qui polarise le jugement en faisant référence à
l’analyse et ses conséquences en termes de toxicité, sans explorer les
contextes culturels ou ses valeurs entrées en conflit. L’éthique, au-delà
de l’évaluation procédurale des risques/bénéfices, doit certes donner
sa place à la question du risque, mais peut-elle se limiter à celui-ci ?
Comme le suggère Jean-Pierre Dupuy, la question du risque focalise
le débat soulevé par les sciences mais le rend confus.
Nous ne devrions pas confondre en e et le débat ontologique
sur la prudence et les décisions procédurales relevant d’une éthique
conséquentialiste. Les risques ne sont qu’un type d’e et parmi d’autres.
Il y a certes des acteurs de ce e aventure que dérange tout discours
jurisprudentiel et qui le transforment en un discours utopiste sur la
fin de la rareté, de la vulnérabilité humaine, voire de l’éternité. Si cela
était vrai, le futur n’aurait pas besoin de nous ou, pire, nous devrions
fonctionner au service d’une élégie synthétique qui échapperait à nos
moyens mais aussi à nos désirs.
Ce n’est plus le discours de la science-fiction mais des technologies
convergentes, visant à améliorer les performances humaines, alors
que le discours européen a plutôt tendance à prome re la justice
institutionnelle et se fonder sur la loi naturelle et les lois positives pour
modifier le contrat social. La crainte demeure que les technologies
fonctionnent comme un système qui soit totalement autonome d’une
171
culture de la signification, comme si les techno-sciences avaient leur
propre autonomie, n’étaient que le miroir de l’auto-organisation de
la nature. Les techno-sciences semblent abolir la distinction entre
nature naturante et nature naturée, pour échapper au contrôle des
humains, comme dans certains films de science-fiction, et de manière
plus radicale dans le fait qu’il ne puisse y avoir d’extériorité ou de
réflexivité possible par rapport à ces techniques. Cela suppose la
vision pessimiste selon laquelle nous serions soumis au pouvoir des
technologies plutôt que la vision optimiste nous rendant capables de
multiplier les possibles. Pour Heisenberg, les techniques donnent le
moyen de se projeter dans la nature et d’annihiler la relation de la
nature à l’altérité, ce qui aurait d’énormes conséquences au niveau
politique et épistémologique (Heisenberg 1958).
Nous a rontons une asymétrie entre les représentations
ontologiques et épistémologies que l’éthique est supposée articuler
et traduire. Mais ces concepts ne peuvent adéquatement être décrits
par un rapport scientifique qui réglerait l’usage des nanosciences.
Les technophiles, tels Drexler, prome ent trop pour entrer dans le
cadre d’un discours objectif et rationnel. Les risques ne sont réels que
si l’on croit à ces promesses, et la dimension émotionnelle du désir
d’échapper à nos déterminismes biologiques ne devrait pas être sousestimée. Il semblerait dès lors que les techno-sciences n’assument pas
leurs responsabilités cognitives et sociales, et là le risque est réel, car
émerge des mêmes intérêts précisément un discours de la fin de la
maîtrise de la nature telle qu’on se la représente, et d’une capacité
d’inventer de nouveaux possibles pour améliorer la nature telle
qu’elle est donnée. D’un point de vue aristotélicien pourtant, c’est
l’impossible qui invente les nouveaux possibles.
L’évolution et l’auto-organisation requièrent une approche
empirique fondée sur les seules conséquences. Le but ultime semble
se limiter à rassurer le public sans pouvoir donner d’information
objective. Néanmoins, ce e approche est très e cace en termes de
développement économique, fondée sur l’a itude selon laquelle tout
problème rencontré peut être résolu. Puisque les conséquences sont
indéterminées, la seule chose dont nous puissions être certains est
qu’elles compteront à la fois des bénéfices et des risques. Il nous faut
dès lors distinguer, d’un point de vue pragmatique, les points de vue
éthiques internes à une pratique.
172
Dans un monde pluraliste qui a besoin de régulation internationale,
il n’est pas exclu que ces rêves humains de post-humain puissent être
perçus par d’aucuns comme des menaces, pour des raisons qui ne se
limitent pas à la simple ignorance, mais à la volonté de préserver un
monde commun. La liberté de la recherche implique des risques qui
ne peuvent être imposés, car le choix même du risque est un acte de
liberté. Le posthumanisme est donc une position philosophique qui
a sa propre cohérence et rationalité mais qui n’est qu’une position
philosophique parmi d’autres, et qui doit elle aussi donner des raisons.
Il est alors di cile d’élaborer une éthique de la discussion visant le
consensus entre des positions philosophiques aussi irréconciliables,
à moins d’opérer de manière pragmatique sur un mode procédural.
La question reste de savoir comment ce e approche procédurale,
basée essentiellement sur une évaluation risque-bénéfice est la plus
appropriée pour a ronter la dimension ontologique quand aucune
norme n’est partagée.
La finitude est précisément ce que les technologies convergentes
prétendent renverser. Cela dépasse les questions d’éthique
procédurale et induit donc nécessairement des questions ontologiques
et épistémologiques, auxquelles nous ne pouvons répondre
rationnellement en termes de posthumanisme. La question biopolitique essentielle devient : comment protéger le pluralisme et la
coexistence de modèles basés sur des événements chronologiques
et un modèle qui a tendance précisément à déchronologiser les
récits narratifs, et rendent nos principes éthiques totalement decontextualisés ?
L’idée est que nous sommes libres de choisir et que nous confondons
le choix libre et la destinée d’une prophétie auto-réalisatrice. Ainsi
ce qu’on nomme bio-politique s’établit dans une forme de raison
contre-factuelle. Lorsque nous tentons d’évaluer un événement futur
en termes de conséquences nous obéissons à des normes que nous
nous sommes données. Mais certains philosophes avancent que ce
qui devrait être mesuré sur les e ets de ces technologies ne peut être
qualifié de risque car ces mesures ne peuvent être qualifiées par aucun
des points mentionnés ci-dessus.
173
La question de la prévention et la temporalité de la
perception des risques
Comment peut-on évaluer en termes de risques le changement de
civilisation qui serait produit par la convergence de la biologie et des
technologies de l’information ? Ne s’agit-il pas là d’un pari de Pascal,
ce qui veut dire que c’est un risque ontologique libre de choisir l’un
ou l’autre scénario, et que cela devient une question bio-politique de
prendre ou de ne pas prendre ce risque de la liberté ?
Qui décide devient la question la plus importante afin de
pouvoir respecter l’autonomie des uns et de ceux qui assumeront les
conséquences de la décision. Pour véritablement parler d’évaluation
des risques nous devons avoir des éléments comparatifs dans une
échelle temporelle, mais nous n’avons pas de données du futur.
Nous devons alors être très a entifs à ne pas confondre incertitude et
indétermination, afin de pouvoir développer une bonne prévention
des risques, puisque la prévention requiert précisément d’agir afin
d’éviter des possibles non désirés. Ainsi, l’avenir des nanotechnologies
dépendra des réponses des citoyens aux anticipations de ce e vie
future améliorée qu’elles proposent, ce qui requiert une évaluation
normative continue de leur application. La prévention n’a pas
beaucoup de sens dans une temporalité projetée, car elle repose
essentiellement sur l’expérience passée et non pas sur une spéculation.
Ainsi il semblerait que nous faisons face à un paradoxe qui condamne
l’éthique à n’être qu’une promesse contre-factuelle, ou pire un
discours contradictoire car, si l’on arrive à éviter les e ets d’un futur
indésirable, le mythe de la neutralité de la science, tout autant que
l’idée d’une rationalité universelle, se désavoue là encore. En d’autres
termes, que peut la nanoéthique si ce n’est élaborer un processus de
délibération qui donne suite à une approche empirique ? Ce qui rend
le débat sur ces technologies si complexe est que le discours éthique
semble imposer une vue universaliste de nulle part tout en utilisant
les outils du pragmatisme. C’est trop souvent ce que fait le discours de
gouvernance biopolitique de ces technologies, en choisissant d’éclipser
le débat ontologique et en se concentrant pragmatiquement sur les
procédures qui ne requièrent que l’élaboration d’un consensus.
Ainsi, pour des raisons purement pragmatiques, le débat
ontologique se développerait sans la crainte d’un posthumanisme
174
totalement mis de côté. Et on oublie que personne ne peut maîtriser
toutes les questions scientifiques et les réalités multiples entourant le
débat sur les nanosciences. Comment dès lors élaborer un discours
cohérent et significatif ? Quelles sont les conditions d’une position
réflexive sur l’application de la technologie à notre vie quotidienne ?
Le terme lui-même de nanotechnologies est un concept étrange, un
construit social. Comment pouvons-nous développer une stratégie de
responsabilisation en situation d’incertitude ? Ce que la philosophie
délibérative et la démocratie ont à o rir en éthique n’est pas un
standard universel pouvant décrire le bien mais une simple procédure
rationnelle d’argumentation visant un consensus menant à une
décision.
Le danger épistémologique de séparer les sciences des technosciences nous force à repenser nos représentations de la nature,
de l’auto-organisation, du hasard et de la liberté, dans un monde
contrôlé néanmoins par des rythmes biologiques que nous pourrions
irrationnellement altérer en prétendant améliorer la nature. Pouvonsnous élaborer une éthique spécifique aux nanos sans risquer de
confondre toutes les applications des nanotechnologies ? Ce e question
dépasse très largement la question de savoir comment réguler l’usage
des techno-sciences.
Traduction entre technologies convergentes ?
Confrontons-nous de nouvelles questions que la philosophie
des technologies n’aurait pas soulevées ? Quand nous parlons de
technologies convergentes, la di culté est de trouver un traducteur
social entre ces disciplines, qui perme rait de partager une vue
semblable de la responsabilité scientifique, au-delà de la seule évaluation
des risques-bénéfices, qui est une perspective plus réductionniste et
normative. Certains posthumanistes, comme James Hugues, assurent
que dans les années à venir les thérapies mélioratives perme ront
un nouveau modèle de qualité de vie et sur un ton très optimiste
assurent que cela impliquera nécessairement des bénéfices sociaux
profonds qui perme ront de ralentir le vieillissement et d’améliorer
nos capacités cognitives. Mais la vraie question n’est-elle pas de savoir
qui veut tout cela ? Les citoyens pourraient-ils refuser un tel présent
si ce scénario ne rencontrait pas leur projet ? Est-ce que ces thérapies
175
et technologies mélioratives pourraient plutôt être évaluées en termes
de capacité à fonctionner librement ou à nous aliéner plus encore ?
Épistémologiquement, pourrions-nous dire tout simplement que tout
ce débat est encore englué dans une métaphysique dualiste, qui perd
précisément son sens dans le cadre des nanosciences, et qu’il est donc
plus trompeur qu’il ne nous éclaire en termes de décisions pratiques ?
Les nanosciences ne posent pas seulement des questions d’échelle et
de toxicité accrue due à ce e échelle, mais soulèvent bien une question
d’indétermination du jugement, qui met à mal nos modèles de décisions
bioéthiques fondés sur la neutralité des valeurs. En e et, comment les
nanoéthiques pourraient-elles prétendre à une stratégie de gestion de
l’incertitude en termes responsables, sans un discours sur la prévention
des risques ?
Nous ne sommes pas dans un discours rationnel synchronique mais
dans le cadre d’une rationalité instrumentalisée à des fins pratiques.
En termes d’éthique, la philosophie délibérative ne peut o rir dans
ce cadre un standard universel, mais bien une procédure rationnelle
simple et non axiologique d’évaluation des risques. Elle peut ainsi
prétendre arriver à une décision consensuelle sur des procédures, mais
certainement pas sur le bien fondé ni la légitimation de ces technologies,
car elle n’en maîtrise pas les conséquences et ne peut que proposer une
multiplicité de scénarios en essayant d’orienter la recherche vers les
scénarios les moins ‘risqués’, non seulement au niveau toxicologique
mais aussi en termes de représentation de nous-mêmes.
Il faut alors être capable de séparer l’impact futur de ces
technologies sur notre santé et sur nos représentations existentielles,
sans nécessairement placer la sécurité sanitaire comme finalité première,
afin d’utiliser les outils d’évaluation les plus appropriés à des désirs,
tant que ceux-ci peuvent demeurer pluriels, ce qui ne serait pas le cas
si un danger à court et ou à long terme était évident ou inéluctable. Il
faudrait pour cela pouvoir séparer des strates de vulnérabilités et de
capacités que dessinent ces techno-sciences.
Mais si nous considérons que la question éthique est di érente de
la question de la gouvernance, nous ne pouvons nous en satisfaire.
Sommes-nous capables de faire une telle évaluation à partir des outils
dont nous disposons ? Ou, plus précisément, ne ferions-nous pas face
à une évaluation mais à un choix existentiel qui n’aurait pas à donner
ses raisons ?
176
Le discours bioéthique est historiquement un discours utilitariste
qui a tendance à chercher un consensus menant à une décision, plutôt
qu’à s’a acher à di érencier les niveaux de discours pour les articuler
de manière cohérente à nos désirs. Ces évaluations sont liées au ‘risk
assessment’ et j’espère avoir montré que ce dernier était inapproprié
à l’évaluation des nanotechnologies, par leur complexité même qui
exige un modèle d’évaluation encore à inventer. Contrairement à ce
qu’avancent Beauchamp et Childress, la bienveillance nous impose
d’avancer dans les recherches cliniques afin de promouvoir le bien
sans véritables connaissances ni capacité de contextualisation de ces
techniques.
Les nanotechnologies sont à la fois une réalité et une construction
sociale, et le discours de surhumanité une contre-narration qui n’a pas
plus de validité en termes de vérité ou d’universalité mais exprime
la volonté dépassée d’être les acteurs de nos vies. Ainsi, une autre
rationalité instrumentale, basée sur nos capabilités, doit être définie
pour perme re à une multiplicité de scénarios du futur d’être explorés,
avant qu’un choix de gouvernance ne soit établi par des experts. La
rationalité instrumentale ne peut plus être décrite comme répondant
à une nécessaire vérité ou à un besoin universel de cohérence entre le
réel et la représentation que nous nous en faisons.
Ce stade de notre rapport à la nature comme irreprésentable requiert
une contextualisation de l’imagination morale, une valorisation du
care raisonnable. Il n’est pas inutile de rappeler dans ces débats que
la plupart des questions soulevées par les nanomédecines négligent
l’universalité du désir de savoir qui, depuis Aristote, rend possible
la continuité entre les genres de connaissances. Face aux technosciences, tout se passe comme si la connaissance produisait un jeu
de falsification continu et voilait le conflit des pulsions, des désirs
dont elle résulte, et fait de la connaissance un lieu fondamentalement
intéressé qui ne trouve plus sa fin en elle-même et n’est jamais que le
moyen de satisfaire les instincts des plus forts.
La connaissance n’est donc pas le produit de la paix rationnelle.
Pour Spinoza, c’est dans l’urgence éthique que nous nous engageons
dans la connaissance. La connaissance rationnelle donne une
satisfaction du troisième genre, qui ne peut être soumission volontaire
ou amour de ce qui nous asservit. Pour Spinoza, la connaissance serait
joie et entreprise de destruction des a ects nuisibles de tristesse qui
177
nous asservissent. La cinquième partie de l’éthique consiste en un
e ort patient de neutralisation des a ects passionnels. L’immanence
de la constitution du réel dans ses multiples modifications humaines
demeure la potentia, la puissance des individus, qui n’est pas la même
pour tous. L’individu est un relais de ce pouvoir.
L’éthique tente de jouer ce rôle artificiel de légitimation d’une
inférence entre ce qui est et ce qui devrait être, qui perd sa pertinence
lorsque l’inférence et la déduction semblent disparaître dans la
convergence.
Les enchaînements d’idées, même imaginatifs, des technophiles
sont des a rmations de la pensée humaine à échapper à ses
déterminismes. Le discours bioéthique a tendance à repérer la fable
de l’universalité de l’âme humaine pour désamorcer tout conflit
qui pourrait me re en cause l’alliance de la connaissance et des
puissances politiques et économiques. Les nanotechnologies forment
un enjeu politique et économique bien avant d’être un danger pour
l’humanisme. Si le posthumanisme peut être responsable, il n’est
qu’une évolution méliorative de l’humanisme, dont l’histoire ne
pourrait se plaindre, car nous sommes des êtres d’histoires autant
que des êtres de nature.
Construire une éthique fondée sur des faits objectivables
et démocratisables reste un défi. L’institutionnalisation des
nanoéthiques me semble, pour ce e raison, être un discours qui
précède les discours de perplexité et de consultation nécessaires au
débat démocratique. Elle joue, comme tout le discours bioéthique, un
rôle de jardin d’acclimatation et non de démocratisation des savoirs.
Elle ne peut produire que des luddites ou des techno-prophètes, alors
que nous avons besoin de scientifiques qui résistent à la confusion
entre sciences et techno-sciences, nous faisant découvrir que ce que
nous percevions comme notre vulnérabilité humaine était préférable
à un état mécanique de posthumain.
Il n’y a pas d’origine dans le jeu de lego des nanos, pas de
continuité, mais une superposition de lexiques disciplinaires qui
se contaminent ou se fécondent. Il ne reste que la nature humaine
réduite à sa dimension biologique et matérielle. Comme l’écrivait
déjà Levinas sur un ton critique :
178
« Le biologique, avec tout ce qu’il comporte de fatalité, devient
plus qu’un objet de la vie spirituelle, il en devient le cœur. Les
mystérieuses voix du sang, les appels de l’hérédité… toute
structure sociale qui annonce un a ranchissement à l’égard du
corps. » (Levinas 1997, p.17)
Dans ce texte datant de 1934, Levinas annonce que « enchaîné à
son corps, l’homme se voit refuser le pouvoir d’échapper à soi-même ».
Ce e impossibilité est au cœur des pensées totalitaires. On ne peut
plus prétendre aujourd’hui séparer ce qui relève du biologique et ce
qui relève du politique. La biopolitisation de l’individu, en quoi se
résume le posthumanisme, ne peut, adoptant les mêmes prémisses,
être plus rassurante que la biopolitisation de l’Etat, qui a détruit les
valeurs de l’humanisme. Elle semble re-naturaliser le fatalisme dont
la mécanique cartésienne nous avait a ranchi.
Les nanotechnologies, si elles soulèvent ce e question dans leur
impact social, ne nous donnent pas les moyens d’y répondre. La
réponse doit être d’ordre éthico-politique et non seulement scientifique.
Là encore, le temps de la réflexion doit se contenter d’accompagner de
manière critique leur implémentation. La recherche de légitimité des
technologies convergentes, leur messianisme puis l’introduction des
concepts de sustainability invitent à la prudence face au développement
des nanotechnologies et à leur contextualisation (voir notamment
Ferrari 2010).
Il est clair qu’afin de prévenir une naturalisation des techniques
qui modifie sans notre consentement le sens du projet humain,
qui est historique, il reste à transformer l’implémentation des
nanotechnologies, ou leur rejet, en un projet négocié sur des faits et
les désirs de ces faits, et non une autre fausse promesse qui nourrisse
notre impatience à nous arracher à la condition humaine. C’est en
médecine que la question sera la plus aiguë, car il faudra subtilement
distinguer entre innovation thérapeutique et expérimentation humaine
ou sociétale, tout en étant confrontés à nos limites épistémologiques et
à leurs e ets socio-éthiques.
179
Références
Bachelard G., Le nouvel esprit scientifique, Paris, Les Presses universitaires de France, 1968 [1934].
Bendernson B., Transhumain, Paris, Payot, 2010.
Descartes R., Discours de la méthode, Paris, Ed. 10/18, 1951 [1637].
Drexler E., Engins de création, Paris, Vuibert, 2005.
Dupuy J.-P., Pour un catastrophisme éclairé, quand l’impossible est certain,
Paris, Seuil, 2004.
Esposito R., Communauté, immunité, biopolitique : Repenser les termes de
la politique, traduction de Bernard Chamayou, Paris, Les Prairies
Ordinaires, 2010.
Ferrari A., « Developments in the debate of nanotethics : traditional
aproaches and the need of a new kind of analysis », Nanoethics 4,
2010, pp. 27-52.
Habermas J., La technique et la science comme idéologie, Paris, Gallimard,
1973 [1968].
Heisenberg W., « The Representation of Nature in Contemporary Physics »,
Daedalus 87(3), 1958.
Ho ois G., Philosophie des sciences, philosophie des techniques, Paris,
Odile Jacob, 2004.
Huxley J., « Transhumanism », in New Bo les for New Wine, London,
Cha o & Windus, 1957, pp. 13-17.
Kurzweil R., The Singularity Is Near: When Humans Transcend Biology,
NY, The Viking Press (Penguin), 2005.
Levinas E., Quelques réflexions sur la philosophie de l’hitlérisme, Paris, Ed.
Rivages poche, 1997.
Vinge V., « Technological Singularity », VISION-21 Symposium sponsored by NASA Lewis Research Center and the Ohio Aerospace
Institute, March 30-31, 1993 (h p://www-rohan.sdsu.edu/faculty/
vinge/misc/singularity.html).
180
Deuxième partie
Les risques associés aux nanotechnologies
Perception, epistemics, and ethics:
a triple perspective on the specificity of nanotechnologies and their risks
Céline Kermisch79
Introduction
If we take a look at the huge investments made for the development
of nanotechnologies, we can easily understand why so many people
argue that nanotechnologies are the technologies of the future. Indeed,
from the beginning of the National Nanotechnology Initiative, the
United States has invested $14 billion (NSTC 2010). These investments
are justified by the hope these technologies generate in various fields:
sustainable energy technologies, healthcare, treatment of used waters,
but also communication technologies, consumer products (textiles,
cosmetics, sports gear…), aerospace or military applications.
It is notable that only a small portion of those investments is
dedicated to environmental risks, health risks and safety issues –
approximately $117 million for the 2011 budget, compared with a total
of $1,8 billion (NSTC 2010, p. 10). In the same vein, the societal impacts
of nanotechnologies seem to be rather neglected. This is surprising
considering the fact that these technologies come along with new
societal concerns, new risks and new uncertainties, which are specific
to nanotechnologies. In this context, it seems thus crucial to analyse
and review these specificities. It is precisely the aim of this paper,
which will highlight these particularities from three perspectives:
from the perception standpoint, from an epistemic standpoint, and
from an ethical standpoint.
The paper is structured as follows. First I will briefly define
“nanotechnologies” and summarize a typology that will be referred
to (section 1). Then I will examine the characteristics of a itudes
towards nanotechnologies and the specificities of the perception of
79
Fonds de la Recherche Scientifique/Universté Libre de Bruxelles
183
their risks (section 2). In a third part, I will analyse the particularities
of nanotechnologies and their risks from an epistemic standpoint
(section 3) and in the fourth part, from an ethical standpoint (section
4). Finally, I will proceed to a brief conclusion.
What are we talking about when we talk about
“nanotechnologies”?
The Royal Society defines nanotechnologies as “the design,
characterisation, production and application of structures, devices
and systems by controlling shape and size at nanometre scale” (Royal
Society 2004, p. 5). This definition is relatively clear and explicit and is
one of the most cited. However, its breadth appears to be problematic.
Indeed, it includes an extremely wide range of potential applications
– food, chemicals, personal care products, medical devices, water
quality, and so on (IRGC 2007, p. 8). It encompasses relatively simple
nanomaterials such as stain-resistant co on fabrics or tennis balls, but
also very complex – and hypothetic – technologies that are supposed
to redefine the future of mankind, such as brain implants that would
enhance human capacities.
It appears thus irrelevant to consider “nanotechnologies” as a
single technology and to consider all the di erent types of applications
at once. In this perspective, let us introduce the classical typology
developed by Roco (Figure 1), which is based on the idea of “generation
of nanotechnologies” – which are progressively introduced over time
(Roco 2004).
184
Figure 1 : Generations of nanotechnologies – inspired from (Roco 2004)
This typology includes four overlapping generations (Roco 2004).
• First-generation nanotechnologies correspond to passive
nanostructures – passive because the behaviour of the material
is supposed to be steady over time. Most frequently, it consists in
adding a nanomaterial to another material in order to improve its
performances. It is the case of materials with specific properties
such as cosmetics or coatings – for example antibacterial
materials based on nanosilver. Most of the current applications
of nanotechnologies belong to this first generation.
• Second-generation nanotechnologies are active nanostructures,
which change their behaviour according to their environment.
These active structures are thus able to perform functions,
such as targeting drugs to specific parts of the body. Targeted
cancer therapies illustrate concretely this second generation of
nanotechnologies.
• Third-generation nanotechnologies correspond to integrated
185
nanosystems, “systems of nanosystems”, such as artificial
organs built from the nanoscale. According to Roco, these are
supposed to arise from now on.
Fourth-generation nanotechnologies are anticipated to be
heterogeneous molecular nanosystems, “where each molecule in
the nanosystem has a specific structure and plays a di erent role”
(Roco 2004). It will include macromolecules “by design”, nanoscale
machines and interfaces between humans and machines at the tissue
and nervous system levels (Davies 2009, p. 11). They are supposed to
emerge from 2015/2020.
It is worth noting that this typology considers at the same time
nanotechnologies that currently exist and others that are presently
pure fiction. Moreover, the distinction between the last three
generations is rather unclear. As Davies notes, “even knowledgeable
experts have expressed di culty distinguishing among Roco’s last
three generations” (Davies 2009, p. 11).
This paper will mainly focus on the generation that is already
widely developed, and only examine briefly the later generations.
Let us first address the question of the specificities of a itudes
towards nanotechnologies and of the perception of their risks.
A itudes towards nanotechnologies and the perception
of their risks
One striking specificity of the perception of risks associated with
nanotechnologies80 comes from the di erences among laypeople’s and
experts’ perception of risks. Indeed, unlike “classical” technologies
such as nuclear power, where scientists perceive lower risks than the
general public, in the case of nanotechnologies, this pa ern is reversed,
at least in the field of health and environment: scientists appear to be
more optimistic about the benefits of nanotechnologies, but also more
concerned about pollution and health problems (Scheufele 2007, p.
732-733). This might possibly be explained by the fact that, despite
The studies about a itudes towards nanotechnologies and about
the perception of their risks do not make a distinction between the
generations of nanotechnologies.
80
186
national & NGOs e orts, the general public is still rather uninformed
about nanotechnologies.
The absence of opinion about nanotechnologies and their risks
is indeed a second striking particularity. It is highlighted in the 2006
Eurobarometer dedicated to the perception of biotechnologies, which
includes a section about nanotechnologies.
This study compares the a itude of Europeans towards di erent
types of technologies. In this perspective, Table 1 shows the answers
to the question “will these technologies improve or deteriorate the
quality of life?” (EC 2006).
Table 1 (EC 2006, p. 10)
We can see that the proportion of individuals answering that
they don’t know if the impact of nanotechnologies will be positive
or not is significant. Indeed, 42% of individuals are incapable of
giving an opinion about it, whereas this percentage is much lower
for other technologies: the next highest level is 22% in the case of
biotechnologies. Moreover, we can also note that the a itude of
Europeans towards new technologies is optimistic in general, even
in the case of nanotechnologies (40% of positive a itudes against
5% of negative a itudes). Besides, Americans appear to be even
more optimistic than Europeans towards nanotechnologies, thereby
confirming their pro-technology bias (Gaskell 2005).
187
The same kind of pa ern can be observed in 2010, with 40% of
people without opinion (Table 2). However, we have to note that the
proportion of individuals considering that nanotechnologies will
deteriorate the quality of life has doubled compared with 2006 (10%
against 5%). This could possibly be explained by the greater media
coverage of nanotechnologies.
Table 2, (EC 2010, p. 10)
The lack of opinion constitutes thus the main specificity of the
a itude of Europeans towards nanotechnologies. This finding is
corroborated by other studies (Siegrist 2010, p. 838) and might be
explained either by a lack of knowledge about nanotechnologies,
or by the fact that people cannot formulate a judgement despite
their knowledge – this might be linked to the complexity and to the
uncertainties surrounding nanotechnologies today. Nevertheless, we
will favour the first option, considering the fact that the survey reveals
further that only 46% of Europeans have heard about nanotechnologies
(EC 2010, p. 38).
Let us now focus on questions more specifically revealing how
Europeans perceive nanotechnologies risks, and let us focus on their
reactions facing the distribution of risks and benefits, the risks for
future generations, as well as the sanitary and environmental risks
(Table 3).
188
Table 3, (EC 2010, p. 42)
Here again, the first particularity to notice is the large number
of individuals opting for the “don’t know” answer (between 33 and
44% according to the questions, whereas in the case of GMOs, only
16 to 24% of the individuals are opting for this answer). This table
shows also that an important proportion of Europeans consider that
the inequity of risk and benefit distribution is patent (50% against 17%
who think otherwise). On the contrary, when it comes to risks for future
generations, sanitary risks and environmental risks, we have to note
how small the gap is between the percentage of people who consider
these technologies as risky and those who consider these as safe: it is
respectively 2, 6 and 10% (against 37, 37 and 30% in the case of GMOs).
This observation means that the opinion of Europeans is extremely
divided when judging risks associated with nanotechnologies.
These surveys are giving general information about the way
European citizens perceive nanotechnologies. They do not take into
account the potential disparities among perceptions of di erent types
of applications, even though several studies have shown that food
and medical applications were the ones perceived as being the riskier
(Siegrist 2007, Pidgeon 2009). However, to our knowledge, none is based
on the perception of the di erent generations of nanotechnologies,
which would be an interesting lead of investigation.
189
Epistemic specificities
Let us now examine the epistemic specificities of nanotechnologies and
their risks and let us begin with the first generation of nanotechnologies.
We know that these materials are characterized by chemical,
physical, electromagnetic and biological properties that di er from
the bulk structure composed of the same chemical elements – and it is
precisely the uniqueness of these properties that makes nanotechnologies
so a ractive. Hence, we might suppose that their toxicity is also very
di erent from bulk particles. It is particularly the case when the toxicity
itself is the property that is useful, such as in the case of nanosilver, which
is bactericide. It is thus clear that we need to investigate the risks of these
materials further.
However, the crucial question of the definition of nanotechnologies
arises immediately. How can we define these as substances, which are
di erent from their non-nano-equivalent (Laurent 2010)? Intuitively,
the size comes to mind first when we have to distinguish nano from
non-nano. Usually, we speak of nanotechnologies when at least one
dimension of the product is smaller than 100nm. However, one first
problem comes up because it is not obvious that 100nm is the typical
size when the material’s properties start changing: for some properties,
there is a gradual transformation and for others, there are thresholds
below which the properties change suddenly (Bell 2007 p. 3). Hence it
is not sure that 100nm has a significant biological relevance (Shatkin
2008, p. 91). Besides, relying on this yardstick does not allow to take into
account neither particles with specific properties – di erent from the
bulk material – but with a size slightly above 100nm, nor aggregates of
nanoparticles, which would also exceed 100nm. Another problem comes
from the fact that relying solely on the particles size is insu cient: other
specific physical features – such as shape – also influence drastically their
properties. In the same vein, their environment and the fact that they may
be associated to other components play also an important role in defining
their characteristics. These are the reasons why it is so di cult to define
nanotechnologies. The next problem consists in trying to give an existence
at the statutory and at the legal levels to an object that cannot be properly
defined. In order to develop a regulation specific to nanotechnologies, we
would need to be able to define their identity (Laurent 2010).
190
At the risk level, with engineered passive nanoparticles, we are mainly
facing environmental, health and safety issues. The focus is on expected
physical damage. If these risks seem to be pre y close to classical chemical
risks in their nature – as these technologies are supposed to behave
steadily over time –, their understanding is currently very limited.
At the safety level, we know, for example, that the higher surface
reactivity and surface-area-to-volume ratio of nanoparticles increase the
risk of dust explosions and the ease of ignition (Roco 2008). However, the
processes involved are not well-known yet.
At the environmental level, there is also a great deal of uncertainty.
The impact of nanoparticles may be significant because of the potential
for (Roco 2008):
• bioaccumulation : due to their high mobility, nanoparticles can
easily move in the air, water and soil, contaminate the fauna and
flora and thus be transferred to the food chain;
• persistence : creating non-biodegradable pollutants, which will
be hard to detect, might lead to an important waste problem – even
though nanotechnologies are o en presented as being intrinsically
ecological. One way to address this problem is to adopt a life cycle
approach to risk analysis and not only focus on the product when
it is in use (Shatkin 2008, p. 93).
Concerning health risks, it seems, at first sight, that classical risk
assessment procedures can be conducted. It is the viewpoint of the
International Risk Governance Council, amongst others (IRGC 2007).
However, the situation is not so simple, as even the classical risk
assessment framework raises many epistemic issues. Let us examine
which are the main problems that arise.
One first practical problem comes from the fact that current
measurement techniques are not sensitive enough to measure the
concentration of nanoscale substances (Shatkin 2008, p. 40-41).
Measurements are thus not widely available and advancements in
nanometrology are clearly needed.
There is also a great deal of uncertainty about how nanomaterials
can penetrate the body (through inhalation, ingestion, contact) and about
their accumulation.
191
Another challenging problem specific to nanotechnologies comes
from the fact that it is not obvious how exposure relates to toxicity:
it is unclear how the chemical composition, the size, the shape, the
surface area, the surface chemistry, the crystal structure and many
other characteristics a ect the toxicity of nanomaterials (Oberdörser
2005; Shatkin 2008, p. 42). Whereas, traditionally, the chemical
composition is su cient to determine the toxicity of a substance, in
the case of nanotechnologies, the problem is much more complex
from an epistemic standpoint. In fact, there seems to be a shi of
paradigm in the field of toxicology as long as, with nanotechnologies,
it is impossible to determine once for all “the right criteria” to take
into account in order to assess nanotechnologies risks (Laurent 2010,
p. 79). This undermines a recommendation that is o en made, which
consists in requiring a standardized procedure. Here, it seems that a
case-by-case approach would be needed, but this would be practically
very di cult to conduct.
Let us now briefly consider active nanotechnologies, which change
their behaviour according to their environment. Basically, this second
generation of nanotechnologies raises the same epistemic di culties
as the ones that are highlighted for the first generation. However,
beyond these problems and uncertainties, the second generation also
raises a question of paramount importance, that is the control and the
reversibility of these technologies, which are supposed to be able to
evolve within their environment.
It is more di cult to expand on the third and the fourth
generations of nanotechnologies, as they are currently theoretical. All
the issues mentioned above might be relevant, but the issue of control
might probably be exacerbated. Without any doubt, the complexity of
these systems and the uncertainties surrounding them will increase
the number of issues. However, the aim of this paper is not to
speculate about these. We will rather focus now on the specificity of
nanotechnologies and their risks from an ethical perspective.
Ethical specificities
Let us first consider ethical issues associated with the first
generation of nanotechnologies.
192
One important problem arises from the fact that the rhythm of
introduction of new nanoproducts is so fast that it makes it impossible
for control organisations to conduct analysis on each of these. In
the same perspective, it is also di cult to frame those symbolically.
Moreover, this rhythm makes the case-by-case approach very di cult
to apply. This issue is not specific to nanotechnologies, but it is
exacerbated in this precise situation.
Moreover, several di culties are associated with the problem
of defining nanotechnologies that was previously mentioned. The
labelling issue is arising in a specific way in the case of nanotechnologies.
Indeed we may wonder how to label these, as we have seen that taking
into account only the chemical substance is insu cient: the size of
the particles plays also a role in defining toxic properties, as well as
other characteristics such as shape. Hence, we can easily understand
why it is di cult to require labelling in these circumstances (Laurent
2010, p. 102). In the same vein, we may wonder how to demand
the application of the precautionary principle, when we are unable
to define the products at stake. This is particularly embarrassing
considering the fact that the considerable uncertainties surrounding
nanotechnologies would precisely require the application of the
precautionary principle.
Another di culty arises at the risk evaluation stage. Indeed, when
it comes to the determination of the social acceptability of a risky
technology, a risk/cost/benefit analysis is o en conducted. However, in
the case of nanotechnologies, this classical utilitarian approach appears
to be very problematic insofar as the risks are largely unknown, but
the benefits are also di cult to assess.
It is also worth mentioning that, in the case of nanotechnologies,
the public debates are framed di erently compared with other
technologies.
Indeed, up to now, public debates have been conducted a er the
introduction of new technologies and they have been the result of
public demand. They have been framed in terms of risks and they
have thus been mainly focusing on the downstream consequences of
technological development. The underlying assumption is that public
concerns are focused on potential risks and consequences rather than
on human needs, aspirations and expectations (Mohr 2007). Of course,
193
risk analysis is an important aspect of the normative evaluation of a
technology, but it is clear that it is not su cient (Dupuy 2004).
In the case of nanotechnologies, there is, for the first time, a demand
coming from governmental agencies, which are anticipating the public
demand for debates. However, such e orts are o en made in order to
pre-empt oppositions such as in the case of nuclear power or GM foods
and to secure public support for these developments. The proposals of
Roco and Renn can be interpreted in such a way, when they say “if (…)
risk perception is not based on the best available knowledge, innovative
opportunities may be lost” (Roco 2008). Besides these governmental
e orts, several NGOs are also trying to involve the public in forums about
nanotechnologies but with a more critical approach, which is maybe also
less liberal and less devoted to economic growth at any price.
The second generation of nanotechnologies raises the same ethical
issues as the first generation. However, if we focus on advancements in
nanomedicine, several particular issues concerning fundamental values
are at stake. Indeed the problem of access to treatments will inevitably
lead to equity issues and also the notion of informed consent could be
called into question.
The third and the fourth generations of nanotechnologies are also
associated with specific issues. Indeed, the right to privacy and the
protection of personal data could be threatened with the emergence of
nanochips. The same problems as with other control technologies such
as RFIDs arise, but they are exacerbated in the case of nanotechnologies
insofar as the smallness of the chips could lead to watch individuals
without informing them about it.
Issues associated with human enhancement are also susceptible
to arise with the developments of the third and fourth generations.
Technologies that could be used to modify the physical, cognitive or
emotional capacities of human beings involve threats to fundamental
representations – symbolic risks (Bourg 2007) –, which are inherent to
ideologies such as transhumanism. Moreover, human enhancement will
lead to equity problems as well (see the paper of Dominique Bourg in
this volume).
Finally, metaphysical e ects are also susceptible to arise, as the
distinction between categories – such as nature and artefact or living and
non-living – could be blurred.
194
Conclusion
We have seen that specificities of nanotechnologies and their risks
can be found at the perception level, at the epistemic and at the ethical
levels.
Two specificities appear to be crucial. One first particularity
consists in the di culty to define nanotechnologies, which has
important consequences at the level of risk management, such as the
di culties to label nanotechnologies or to require the application of
the precautionary principle. A second striking issue comes from the
considerable uncertainties associated with nanotechnologies. This is
the case, of course, for the third and the fourth generations, which are
still rather fictional, but it is also already the case for the first and the
second generations, for which there is a very limited understanding of
the processes potentially leading to damage – the relationship between
exposure and toxicity for example. Together, these two issues imply
that the classical procedures of risk assessment and risk management
are not easily applicable.
In view of these problems, some have been promoting the safety
by design approach (Kelty 2009). This is certainly a valuable concept,
which merits further development and a ention. In the same vein,
we could struggle for an “ethical by design” approach, which would
embed ethical values from the conception of the product. However,
by themselves, these proposals will not be su cient, simply because
in our competitive world, promoters are cu ing corners to win the
innovation race. Therefore, it is more than ever urgent to gain a be er
understanding of nanotechnologies and their risks – and to constantly
call this knowledge into question –, so that we can construct procedures,
which will be able to deal adequately with these uncertainties, beyond
the economic competition.
Acknowledgements
The work presented in this paper has been supported by a
postdoctoral grant from the Fonds de la Recherche Scientifique
(FNRS).
195
Références
Bell T., Understanding risk assessment of nanotechnology, 2007, available
on h p://www.nano.gov/Understanding_Risk_Assessment.pdf.
Bourg D. and Kaufmann A. (eds.), Risques technologiques et débat démocratique, Paris, La documentation française, 2007.
Davies J., Oversight of next generation nanotechnology, 2009, available on
www.nanotechproject.org/process/assets/files/7316/pen-18.pdf.
Dupuy J. and Roure F., Les nanotechnologies : éthique et prospective industrielle, 2004, available on h p://www.ladocumentationfrancaise.
fr/rapports-publics/054000313/index.shtml.
European Commission, Europeans and Biotechnology in 2005 : Patterns and Trends, 2006, available on h p://ec.europa.eu/research/
press/2006/pdf/pr1906_eb_64_3_final_report-may2006_en.pdf.
European Commission, Biotechnologie, 2010, available on h p://
ec.europa.eu/public_opinion/archives/ebs/ebs_341_fr.pdf.
Gaskell G., “Imaging nanotechnology: cultural support for technological innovation in Europe and the United States”, Public understanding of science, 2005, pp. 81-90.
International Risk Governance Council, Nanotechnology risk governance,
2007, available on www.irgc.org/IMG/pdf/PB_nanoFINAL2_2_.
pdf.
Kelty C., “Beyond implications and applications: the story of ‘safety
by design’“, Nanoethics, 2009, pp. 79-96.
Laurent B., Les politiques des nanotechnologies, Paris, Editions Charles
Léopold Mayer, 2010.
Mohr A., “Against the stream: moving public engagement on nanotechnologies upstream”, in Flynn R. & Bellaby P. (eds.), Risk and
the public acceptance of new technologies, New York, Palgrave Macmillan, 2007, pp. 107-125.
National Science and Technology Council (NSTC), The national nanotechnology initiative. Supplement to the President’s FY 2011 budget,
2010, available on www.nano.gov/NNI_2011_budget_supplement.pdf.
Oberdörster G. et al., “Principles for characterizing the potential human health e ects from exposure to nanomaterials: elements of a
screening strategy”, Particle and Fibre Toxicology, 2005.
196
Pidgeon N., Harthorn B. and Bryant K., “Deliberating the risks of nanotechnologies for energy and health applications in the United
States and United Kingdom”, Nature nanotechnology, 2009, pp. 9598.
Roco M., “Nanoscale science and engineering: unifying and transforming tools”, American institute of chemical engineers journal 50(5),
2004.
Roco M. and Renn O., “Nanotechnology risk governance”, in Renn O.
& Walker K. (eds.), Global risk governance, Berlin, Springer, 2008,
pp. 301-325.
Royal Society, Nanoscience and nanotechnologies: opportunities and uncertainties, Cardi , Clyvedon Press, 2004.
Scheufele D. et al., “Scientists worry about some risks more than the
public”, Nature nanotechnology, 2007, pp. 732-734.
Shatkin J., Nanotechnology. Health and environmental risks, Boca Raton,
CRC Press, 2008.
Siegrist M., Cousin M. and Kastenholz H., “Public acceptance of nanotechnology foods and food packaging: the influence of a ect and
trust”, Appetite, 2007, pp. 459-466.
Siegrist M., “Predicting the future: review of public perception studies
of nanotechnology”, Human and ecological risk assessment, 2010,
pp. 837-846.
197
La toxicité des nanotechnologies en question.
« Que sait-on des e ets des nanotechnologies
sur l’individuation du vivant ? »
Yannick Mwape81
Le développement des nanotechnologies constitue l’un des pôles
de développement majeur de la recherche à l’heure actuelle. Les
promesses qu’elles suscitent stimulent les investissements. L’échelle
de manipulation inédite o re la possibilité de créer des objets aux
propriétés nouvelles capables de révolutionner de nombreux secteurs
des technologies.
La biologie est elle aussi concernée : les êtres vivants, leur structure
et leur organisation sont des sources inépuisables d’inspiration pour
les ingénieurs de l’infiniment petit. Les matériaux biologiques, kératine
des poils, structure des plumes, résistance des toiles d’araignées,
structure des élytres de coléoptères ou écailles de papillons sont autant
d’exemples d’architectures moléculaires dont les vertus peuvent
être imitées et exploitées par l’entremise de nano-objets. D’autres
techniques proposent d’intégrer les réseaux moléculaires des systèmes
vivants pour les modifier ou les exploiter à toutes sortes de fins grâce
à l’action de nano-machines. On parle de convergence Nano-Bio-InfoCogno (NBIC) pour le développement de nanotechnologies agissant
à l’interface de la biologie moléculaire, de l’informatique, des sciences
cognitives et des neurosciences (Roco 2007). La biologie synthétique
est en ce sens une tendance lourde d’une nouvelle ingénierie du
vivant.
Néanmoins, la convergence interdisciplinaire à l’œuvre sous
les auspices des nanosciences porte en elle des présupposés qui
réaniment un réductionnisme quelque peu simplificateur qui
consisterait à dire que la compréhension des vivants peut se ramener
à leur seule dimension moléculaire ou atomique. On est donc en
face d’un parti pris, coutumier des approches développées dans la
81
Université Libre de Bruxelles
199
perspective technocentrée, d’une vision qui privilégie le niveau des
constituants plutôt que celui des systèmes et de leurs interactions
avec l’environnement. Pourtant, si l’utilisation des nanotechnologies,
avec la généralisation de nano-machines et de nanomatériaux, doit
s’étendre, peut-elle se perme re l’économie de ne pas y penser ?
C’est là ce que nous proposons de faire dans ce e présentation,
et cela, en considérant la façon dont des objets de dimensions
nanométriques entrent dans les systèmes vivants. A ce sujet, il nous
faut tout d’abord préciser deux points dont la compréhension nous
aidera à avancer.
Ainsi, si le développement des nanotechnologies se constitue
sur des conceptions techniciennes qui sont loin de considérer toute
la complexité des phénomènes vivants, pouvons-nous accuser pour
autant leurs concepteurs dans la mesure où les conceptions en vigueur
en biologie ont longtemps laissé croire en la nature mécaniste et même
réductible du vivant ?
En ce sens, nous proposons d’appréhender les êtres vivants non
plus comme des objets définis avec des propriétés fixes et déterminées
sur lesquelles il serait possible d’agir où que l’on pourrait modifier
selon des critères préétablis. Il s’agit plutôt de les comprendre
selon leur être, selon leur dynamique propre. C’est-à-dire comme
des systèmes fruits de processus d’organisation qui tendent à les
faire émerger comme des unités autonomes et complexes jamais
totalement réalisées. Cela implique également que la vivant n’est pas
un système clos, il apparaît dans un environnement et établit avec lui
des relations qui transforment à la fois son organisation propre mais
aussi son milieu qui devient ainsi son monde propre. Nous parlons
alors de processus d’individuation en référence à la terminologie
de Simondon, pour désigner la phénoménologie de l’émergence du
vivant. Dans ce e perspective, non seulement le vivant n’est plus
réductible à ses seuls constituants mais ces constituants, notamment
les molécules qui le composent, ne se comprennent plus seulement
sur un mode réductionniste.
S’il est un domaine pour lequel la prise en compte de la complexité
du vivant s’avère une question de premier ordre, c’est bien la toxicologie
et cela avec d’autant plus d’acuité que ce e discipline se trouve
aujourd’hui en face de défis toujours plus conséquents. La toxicologie
200
avance encore aujourd’hui avec des présupposés classiques telle que
l’étude des substances toxiques prises isolément ou le principe de la
dose comme base de la toxicité, mais déjà l’approfondissement des
recherches interpellent. En e et, de nombreuses questions sont venues
enrichir les méthodes et la façon de concevoir le phénomène de toxicité.
Les études sur les nuisances de particules de l’ordre du nanomètre ne
datent pas du développement des nanotechnologies, mais elles ont
gardé leur pertinence dans la mesure où leur approche peut nous
aider à mieux saisir sur quelles bases considérer les relations entre les
systèmes vivants et les nanotechnologies. Elles nous perme ent aussi
de réfléchir aux risques que ces dernières peuvent faire peser sur la
santé publique.
Quel objet pour la nanotoxicologie ?
Les nanotechnologies suscitent de nombreuses interrogations non
seulement quant à leurs usages mais également quant à leurs e ets
supposés sur la santé. Ces questions se posent avec d’autant plus
d’insistance que la société a déjà connu de nombreux cas d’intoxication
de masse liées à l’usage intensif de nouveaux matériaux. Il nous
su t de considérer les cas de l’amiante, des particules fines issues
de la combustion des hydrocarbures ou encore, plus récemment, des
produits chimiques dans les articles de consommation courante.
Avant tout autre chose, il convient de situer avec précision ce
dont nous voulons parler. Le mot nanotoxicologie a été introduit dans
l’éditorial d’une revue scientifique (Donaldson 2004) où les auteurs
proposent la création d’une sous-discipline de la toxicologie qui
traiterait de la toxicité des nanoparticules. Et de fait, la toxicité liée aux
nanotechnologies porte très souvent dans les publications scientifiques
qui se multiplient à ce sujet, sur ce que l’on désigne par le terme
« nanoparticules ». Il ne s’agit pas de prendre en compte n’importe quel
objet dont la taille se situerait dans l’ordre de grandeur « nano », c’està-dire du milliardième de mètre. Les nanoparticules, telles que nous
les envisageons, concernent les produits issus de la nanotechnologie.
C’est-à-dire, l’ensemble des techniques qui perme ent de créer,
manipuler, visualiser et utiliser des objets de l’ordre du nanomètre.
Par conséquent, la nanotoxicité que nous souhaitons aborder concerne
l’étude de la toxicité des nanomatériaux et de façon générale des
201
objets manufacturés de ce e dimension. Cependant, toutes les études
montrent qu’au point de vue de la toxicité, les nanoparticules issues
des nanotechnologies peuvent avoir des e ets comparables à des
nanoparticules produites de façon involontaires comme les particules
fines et ultrafines issues de la combustion des hydrocarbures.
Historiquement, les recherches dans ce domaine ont commencé
par l’expansion de pathologies pulmonaires chez les ouvriers exposés à
des particules minérales qu’ils pouvaient rencontrer sur leurs lieux de
travail, essentiellement les mines. Il a ainsi fallu près de cent ans pour
qu’on reconnaisse en France les pneumoconioses comme maladies
professionnelles. Le développement considérable de l’utilisation de
l’amiante durant la Seconde Guerre mondiale et les années qui ont
suivi a vu l’émergence d’a ections qui n’ont suscité de recherches
médicales que beaucoup plus tard (Sayer 1939, Lynch 1935, Doll
1955). L’amiante a mis en lumière un nouveau mode d’intoxication
qui n’était plus liée, ce e fois-ci aux seules conditions de production
comme les mineurs en présence de particules solides. Les victimes
devenaient les utilisateurs des matériaux toxiques sur leur propre lieu
de travail. On parle à ce sujet de deuxième vague d’intoxication qui
lie la première vague de production à la seconde de consommation
sur un lieu professionnel, à son tour suivi d’une troisième vague qui
désigne les di érents modes d’exposition qui ont tous en commun de
créer des situations d’exposition aux agents toxiques dans des lieux
en quelques sortes non professionnels. C’est le cas des pollutions
liées à l’émission de particules fines (PF) ou ultra fines (PUF) que l’on
observe lors des pics de pollution urbaine. Ces particules fines sont
d’une grande diversité chimique. Il y a le noir de charbon, l’oxyde
de titane ou des hydrocarbures aromatiques polycycliques (HAP).
On les regroupe selon leur diamètre aérodynamique (d.a.e.) dont
les ordres de grandeur sont inférieurs à une dizaine de micromètres
(PM10), inférieurs à 2,5 micromètres (PM2,5) ou encore inférieurs à 1
micromètre (PM1). Les particules ultrafines (PUF), quant à elles, sont
d’une taille égale ou inférieure à 100 nanomètres.
Les études actuelles de nanotoxicologie s’intéressent de plus
en plus aux nouveaux matériaux issus plus directement des
nanotechnologies. Parmi celles-ci, on peut citer les nanotubes de
carbone existant sous la forme de nanotubes à simples feuillets ou de
nanotubes à multiples feuilles ; aux fullerènes, à des nanoparticules
à base de composés métalliques (cobalt, argent, cérium, titane, fer ou
202
zinc), les boîtes quantiques (quantum dots), ou encore les nanosphères
cationiques de polystyrène ou des nanoparticules à base de silice.
Quelles méthodes d’investigation pour la
nanotoxicologie ?
Les méthodes d’analyse ont considérablement évolué depuis leurs
débuts dans les années 1950. Elles se sont principalement a achées
à déterminer les e ets pathologiques des agents toxiques mais aussi
à comprendre leur mécanisme moléculaire et cellulaire. De façon
générale, en toxicologie expérimentale, qu’il s’agisse de nanoparticules
ou de tout autre produit, le principe repose sur l’observation d’e ets
obtenus par l’exposition d’individus, de tissus ou de cellules à des
substances dont on souhaite connaître la toxicité. Ces observations
sont comparées à des groupes témoins soumis aux mêmes conditions,
les substances testées en moins. On travaille également en testant les
substances dans deux situations distinctes : in vivo, c’est-à-dire en se
servant de modèles animaux en laboratoire et in vitro, en se servant de
cultures cellulaires principalement. Aujourd’hui, le développement
de modélisations informatiques pour simuler par exemple, la
distribution des agents toxiques dans l’organisme, permet de parler
d’une troisième situation d’étude dite in silico. Les extrapolations sur
l’être humain ne sont pas toujours aisées à faire, dans ce dernier cas,
des études cliniques sur des volontaires peuvent venir compléter les
analyses.
L’étude toxicologique in vivo utilise des animaux dont les
caractéristiques dépendent des objectifs de recherche. Ainsi,
les animaux peuvent-ils être sains ou présenter des pathologies
spontanées ou provoquées. Dans ce dernier cas, on peut avoir recours
à des souches génétiquement modifiées. Ces types de modèles ont
l’avantage de perme re l’évaluation de l’impact des nanoparticules
sur le développement de processus pathogéniques comme les
insu sances cardiaques, les cancers, les bronchites chroniques, les
emphysèmes ou les allergies. C’est ainsi que des souris transgéniques
déficientes en apolipoprotéine E sont utilisées pour l’étude du passage
de nanoparticules à travers les barrières hémato-encéphaliques ; ou
d’autres souches de souris déficientes en protéines p53, sensibles au
cancer, servent à tester la toxicité des nanotubes de carbone.
203
Les objectifs essentiels de l’analyse in vivo consistent à déterminer
comment les substances testées pénètrent dans l’organisme, puis
de quelle façon elles se répandent dans ses di érents organes
(la biodistribution). On a ainsi naturellement identifié plusieurs
voies d’entrée qui sont la voie orale, respiratoire et cutanée. Dans
le cas de certaines nanoparticules, à usage médical, il faudrait
rajouter la voie parentérale (injection). Ensuite, la localisation des
nanoparticules in vivo est une tâche di cile à me re en œuvre
étant donné leur taille et leur quantité relativement modestes. La
microscopie électronique n’est pas vraiment e cace. Il est possible
d’utiliser des traceurs ajoutés comme des résidus radioactifs ou
fluorescents dans la mesure où ils ne modifient pas les substances
étudiées. D’autres techniques basées sur les propriétés physiques ou
chimiques des nanoparticules sont utilisées, comme, par exemple le
magnétisme de nanoparticules contenant de la magnétite (Fe3O4)
détectable par résonance nucléaire (Al Faraj 2008). On mentionnera
aussi l’utilisation des capacités d’autofluorescence des nanotubes
de carbone, ou encore la spectrométrie d’Aman pour détecter ces
mêmes nanotubes de carbone.
Les études in vitro se sont considérablement développées
ces dernières années afin de trouver une alternative éthique
à l’expérimentation animale. Les modèles in vitro sont
particulièrement adaptés pour l’analyse des détails des mécanismes
d’action des toxiques sur leurs cibles cellulaires, en l’absence de
toute interférence avec d’autres tissus. L’un de leur avantage et
non des moindres, au point de vue pratique, est qu’ils perme ent
de gagner du temps et de réduire les coûts. C’est pourquoi ce e
technique est très largement utilisée. Mais l’une de leurs limites
réside dans le fait que les conditions restrictives des milieux de
culture cellulaire sont artificiellement éloignées des conditions
internes aux organismes. Une autre critique porte sur le fait que
ces études sont souvent très ponctuelles et analysent des cas de
toxicité aiguë sans qu’il n’existe, pour l’instant, de méthode validée
pour évaluer la toxicité à long terme. Ces di cultés n’ont pas pour
autant empêché l’obtention de résultats à des recherches associant
analyse in vitro et in vivo.
204
Quels résultats pour les études nanotoxicologiques ?
Les premières études toxicologiques sur l’exposition à des
particules dont la taille se rapproche de l’ordre nanométrique comme
le noir de charbon, les particules de silice ou l’amiante, ont montré que
ces dernières sont responsables d’e ets pathologiques avérés. Ainsi,
les particules de charbon sont à l’origine des maladies pulmonaires
comme la fibrose, les emphysèmes ou les bronchites chroniques. Les
poussières de silice issues de l’extraction du charbon, de l’exploitation
de carrière, du sablage sur chantier ou même du traitement des
jeans, causent également des dégâts similaires au niveau pulmonaire.
L’asbestose qui est une fibrose pulmonaire aboutissant à une
insu sance respiratoire est due quant à elle à une exposition aux fibres
d’amiante. Les études toxicologiques menées sur les nanoparticules
présentes dans la pollution atmosphérique ont également démontré
des résultats plus au moins analogues : des phénomènes de stress
oxydant ou d’inflammations chroniques au niveau pulmonaire, ainsi
que des e ets génotoxiques ou cancérigènes.
Concernant les analyses portant sur les nanoparticules issues
plus directement de nanotechnologies, les études in vivo ne sont
pas encore très nombreuses même si elles ne se cessent de croître.
Celles qui existent révèlent que l’introduction de nanoparticules dans
l’organisme est susceptible d’entraîner des réponses inflammatoires
aiguës, ou des fibroses et, dans certaines situations, toucher les
systèmes cardio-vasculaires ou le système nerveux central. Ces études
ont ainsi pu démontrer qu’il existe des possibilités de pénétration des
nanoparticules via les voies cutanées, vers le système nerveux central
par le nerf olfactif, à travers la barrière alvéolo-capillaire des poumons,
par la voie transplacentaire, à travers la muqueuse intestinale ou
encore à travers la barrière hémato-encéphalique.
Malgré le fait que les détails des mécanismes toxicogènes restent
encore mal compris, les analyses in vitro, quant à elles, tendent à
montrer que les e ets des nanoparticules sont comparables à ce qui a
été observé pour d’autres substances comme l’amiante ou les particules
ultrafines, avec leur manifestation typique de stress oxydants, de
réactions inflammatoires chroniques, de fibroses, de crises d’asthme,
de bronchopneumonies chroniques et d’une toxicité sur le génome
ou génotoxicité cancérigène. Cela est particulièrement vrai pour les
205
nanotubes de carbone dont la structure pourrait s’apparenter aux
fibres d’amiante, avec les mêmes conséquences. De façon générale, le
stress oxydant et les réponses inflammatoires semblent occuper une
place de première importance sans qu’il ne soit évident de dire lequel
du stress oxydant ou de la réponse inflammatoire déterminerait l’autre
sous l’e et d’agents toxiques.
Les résultats des études menées sur l’animal ne sont pas
directement transposables à l’homme. Si les essais sur l’être humain
sont rares, il existe néanmoins des investigations sur l’exposition aux
particules atmosphériques notamment dont les dimensions sont de
l’ordre nanométriques. Ces études donnent des arguments pour me re
en cause l’influence de particules utra-fines dans l’apparition d’e ets
respiratoires chroniques en milieu urbain ou professionnel (Maynard
2002, Pekkanen 2004). La li érature scientifique donne des résultats
d’essais cliniques entre l’exposition aux PUF et des e ets cardiovasculaires et thrombogènes (Gold 2000, de Hartog 2003, Pekkanen
2002, Timonen 2005, Janssen 2005, Chuang 2005, Brunekreef 2005,
Henneberger 2005, Delfino 2004) chez des sujets ayant une insu sance
coronarienne, le développement de crises d’asthmes (Pen inen 2001a,
Pen inen 2001b, von Klot 2002, Delfino 2005, Lwebuga-Mukasa 2005)
ou des conséquences néfastes sur l’épithélium bronchique (Timonen
2004).
Le tableau ci-dessous issu d’une compilation synthétique menée
par Alain Bo a et Laïla Benameur, illustre de façon non-exhaustive
quelques exemples de résultats d’enquêtes toxicologiques sur des
nanoparticules manufacturées (Bo a 2010).
206
Nanoparticules/nanomatériaux
Systèmes
étudiés
Nanotubes de carbone simples
feuillets
Kératinocytes épidermiques
Stress
oxydants
Cellules
embryonnaires humaines
de reins
Arrêt des
multiplications
cellulaires et
apoptose
Nanotubes de
carbone avec
résidus métalliques
Poumons
de souris
Inflammation, stress
oxydant, e et
mutagène sur
l’ADN.
Shvedova
& al. 2008
Nanotubes de
carbone multifeuillets
Cellules
souches embryonnaires
de souris
Apoptose
des cellules, arrêt de la multiplication cellulaire, lésion de
l’ADN et e et
mutagène sur
l’ADN
Zhu & al.
2007
Administration
intratrachéale
à des souris
Lésions de
l’ADN
Muller &
al., 2008
Cellules
humaines
(fibroblastes
dermiques,
astrocytes,
cellules cancéreuses)
Stress
oxydant
Sayes &
al., 2005
Fullerène et nanotube simple
feuillet en milieu aqueux
Lignée
de cellules
épithéliales de
poumons de
souris
Stress oxydant, lésions
oxydatives de
l’ADN
Nanoparticules à base
d’oxyde de
titane TiO2
Lignées
cellulaires
épithéliales
bronchiques
humaines
Lésions
oxydatives de
l’ADN, stress
oxydants
Fullerènes
E ets observés
Risques
correspondants
Génotoxicité dont les
mécanismes
exacts ne sont
pas démontrés.
Génotoxicité par une
augmentation
de mutations
génétiques.
Déstabilisation des
cellules humaines, situations
cancérigènes
Références
Shvedova
& al. 2003
Cui & al.
2005
Jacobsen
& al., 2008
E ets variables selon les
conditions
Gurr & al.,
2005
207
Les boîtes
quantiques
(quantum
dots)
Cellules
humaines du
cancer du sein
Réorganisation du
noyau, induction de l’apoptose.
E ets génotoxiques et
modifications
épigénétiques
Choi & al.,
2008.
Nanosphères cationiques de
polystyrène
Macrophages de
souris
Stress
oxydant, dans
certains cas
apoptose
Risque
encore non
démontré
Li & al.,
2008.
Nanoparticules à base
de silice
Cellules
pulmonaires
de rats pour
la silice cristalline avec
couverture
protéique
Inflammation, stress
oxydant,
lésions de
l’ADN
E ets génotoxiques mais
pas dans toutes
les situations.
Albrecht &
al., 2005.
Les quelques cas répertoriés dans ce tableau semblent donc
indiquer de réelles potentialités de toxicité des nanoparticules au
niveau du noyau des cellules exposées (génotoxicité). Ce phénomène
devrait se faire par la médiation du stress oxydant ainsi que par la
réaction inflammatoire.
Comment interpréter les relations toxicogènes ?
La question que nous pouvons dès lors nous poser est de
comprendre le sens de ces résultats. Qu’est-ce que cela peut nous
apprendre sur la complexité du phénomène ?
La situation paradigmatique de la réaction
inflammatoire
On considère généralement la réaction inflammatoire comme
un mécanisme de défense de l’organisme utilisé par les animaux
supérieurs (les vertébrés) contre des agressions physiques, chimiques
ou biologiques. Typiquement, les étapes de ce mécanisme sont
les suivantes : (1) reconnaissance de l’agression, (2) vasodilatation
des vaisseaux sanguins, (3) activation de cellules immunitaires
endothéliales et circulantes (polynucléaires, neutrophiles, mastocytes),
208
(4) libération de médiateurs destinés à éliminer l’agent pathogène, suivi
de sa phagocytose, (5) enfin la réparation des tissus lésés notamment
par la production de tissus conjonctifs.
Si le processus a l’air particulièrement bien réglé pour répondre
aux agressions externes, il semble pourtant qu’il ait un lien intime avec
la toxicité des nanoparticules. Comment le système dont la fonction
présumée semblait être de défendre l’organisme peut-il causer des
e ets pathogènes ? Nous sommes en face de la même interrogation
lorsqu’il s’agit de traiter de la formation des allergies ou des maladies
auto-immunes.
On s’aperçoit tout de suite que la réponse à ce e problématique
réside précisément dans un changement de perception épistémologique
profond. Ce n’est plus la fonction supposée du système qui est
l’explication pertinente si nous voulons comprendre ce processus. Il
nous faut nous placer à un tout autre point de vue. C’est en quelque
sorte la révolution qu’a connue l’immunologie lors de ces dernières
décennies qui nous apporte quelques éclaircissements.
Selon la conception classique qui est encore couramment
vulgarisée, le système immunitaire est considéré comme étant
capable de faire la di érence entre le soi et le non soi de l’organisme. Il
discrimine en quelque sorte ce qui lui appartient et ce qui en est exclu.
Néanmoins, l’idée selon la quelle le système immunitaire serait une
sorte de machine destinée à reconnaître des antigènes du non soi par
opposition au soi se heurta rapidement à ses propres limites et non des
moindres. Comment expliquer en e et le phénomène d’acceptation des
antigènes de l’embryon puis du fœtus durant la grossesse ? Comment
comprendre l’établissement des relations de symbioses existant entre
l’organisme et les nombreuses espèces bactériennes dont la masse
totale dans le corps humain dépasse celle des cellules issues du zygote
d’origine ? L’expansion de maladies auto-immunes ou d’allergies,
de façon générale, d’hypersensibilité du système immunitaire pose
également question.
Dans un tout autre domaine, la réflexion philosophique menée
par Maurice Merleau-Ponty à propos du fonctionnement du système
nerveux nous permet d’apporter une autre façon de voir. M. MerleauPonty, dans La structure du Comportement réalise une critique détaillée
de l’explication des systèmes réflexes telle qu’elle était défendue par
209
Pavlov (Merleau-Ponty 2009 [1942]). Selon lui, il n’est pas pertinent
de considérer l’existence d’un arc nerveux spécifique d’un réflexe en
particulier comme une unité de fonctionnement. Le système nerveux
n’est pas organisé comme la sommation d’unités fonctionnelles simples
et spécifiques qui s’additionneraient pour former des comportements
plus complexes.
« En résumé, la critique de la théorie du réflexe et l’analyse de
quelques exemples montrent que l’on devrait considérer le secteur
a érant du système nerveux comme un champ de forces qui
expriment concurremment l’état intraorganique et l’influence des
agents externes ; ces forces tendent à s’équilibrer selon certains modes
de distribution privilégiés et obtiennent des parties mobiles du corps
les mouvements propres à cet e et. Les mouvements, à mesure qu’ils
s’exécutent, provoquent des modifications dans l’état du système
a érant, qui, à leur tour, provoquent de nouveaux mouvements. Ce
processus dynamique et circulaire assurerait la régulation souple dont
on a besoin pour rendre compte du comportement e ectif » (MerleauPonty 2009, pp. 48-49).
M. Merleau-Ponty nous propose ainsi une vision avant l’heure
d’un système complexe et souple dont les processus d’autoorganisation sont la clé de compréhension. C’est du moins selon cet
angle de vue, que Francisco Varela proposa lui aussi d’interpréter les
systèmes nerveux et immunitaires (Varela 1989 [1980]). Aujourd’hui
les observations relatives à la plasticité phénotypique du cerveau et de
l’organisation réticulaire du système immunitaire viennent également
conforter ce changement de paradigme.
F. Varela réalisa la même critique que Merleau-Ponty mais à
l’égard de la conception classique du système immunitaire qui
décrit l’existence dans l’organisme de lignées spécifiques de cellules
immunitaires et d’anticorps correspondant à des antigènes extérieurs
précis. Ce e théorie aussi appelée théorie de la sélection clonale
élaborée par Burnet (1957) postula que les cellules capables de
fabriquer des anticorps existent préalablement à tout contact avec
l’antigène. Ce dernier se contente de sélectionner au sein de ces vastes
populations de cellules celles qui lui correspondent. L’antigène par
ce moyen de sélection détermine ainsi la multiplication d’une lignée
cellulaire produisant les « bons anticorps ». Ce e théorie présupposait
également que toute réaction immunitaire dirigée contre un antigène
210
de l’organisme est nécessairement délétère. Le problème consistait dès
lors à déterminer comment la production de clones cellulaires pouvait
éviter la formation d’anticorps capables de s’a aquer au soi. Burnet
suggéra que les clones autoréactifs étaient éliminés durant certaines
périodes critiques du développement, ce qui ne va pas sans poser
quelques di cultés.
En e et, F. Varela souligna plusieurs limites à ce e conception,
comme l’immunotolérance observé chez les organismes adultes (Katz
1974), la présence d’anticorps auto-antigénique qui montrent que
« l’horror autotoxicus » est dépassée. Non seulement l’autoréactivité
existe, mais plus encore, elle est utile, à la fois pour bâtir la capacité
du système immunitaire à reconnaître ses cibles antigéniques
(son répertoire), et à contrôler la réponse immunitaire elle-même
(Dubucquoi 2005). Varela, comme Merleau-Ponty à propos du système
nerveux, insista selon ces termes sur « cet oubli de l’approche holiste,
ce désir d’une causalité simple » qui empêche de voir « la nécessité
d’une harmonisation, dans tout l’organisme, de l’activité des clones ».
Figure 1. Illustration représentant l’ensemble des cellules immunitaires et
des protéines suspectées d’êtres impliquées dans l’inflammation pulmonaire.
(schéma adapté de : Spahn, J ; et al. J. Allergy Clin. Immunol. 2002 , 109 ,
S490-S502).
C’est pourquoi F. Varela, s’inspirant des travaux de Niels K.
Jernes, proposa une conception du système immunitaire comme un
211
réseau de cellules en interactions, « le système immunitaire doit être
conçu comme une unité autonome, c’est-à-dire comme un réseau
d’interactions cellulaires, qui, à chaque instant, détermine sa propre
identité » et où « les récepteurs sont tournés vers l’intérieur, et où
l’activité du système semble se replier et se refermer sur elle-même. »
Varela appela connectivité du système l’ensemble de ces interactions
qui donnent naissance au réseau immunitaire.
Dans ce e perspective, le caractère antigénique d’une molécule
quelle qu’elle soit n’est plus une propriété intrinsèque, mais dépend
du contexte relationnel dans lequel elle s’insère au sein de l’organisme
dans son entier. Leur caractère dépendra donc de la structure du
réseau immunitaire, ce que Varela identifie au « soi immunologique ».
De sorte que c’est dans le contexte de leurs interactions avec elle que
les molécules acquièrent leur valeur antigénique. Ainsi « Il n’est pas
facile de concevoir que l’organisme doive apprendre à distinguer
entre le « soi » et le « non soi » ; il est à la fois beaucoup plus simple
et beaucoup plus exact de supposer que l’organisation cohérente du
système immunitaire définit le « soi » immunologique et détermine
par le même processus l’éventail des stimuli qui sont pertinents pour
lui. C’est parce que le système immunitaire répond constamment à
des stimuli en provenance de lui-même qu’il peut reconnaître le soi
du non-soi. Car en dernière analyse, la seule chose que puisse faire
une molécule étrangère, en pénétrant à l’intérieur de l’organisme,
c’est transformer la façon dont réagissent entre elles les cellules de
l’organisme. Ce qui ne fait pas partie de l’ensemble des interactions entre
composants du système lymphoplasmocytaire n’appartient pas à son
domaine d’opérations, et est tout simplement privé de sens pour lui. La
distinction fondamentale qu’opère le système lymphoplasmocytaire
n’est pas entre le soi et le non soi ; elle se situe plutôt entre ce qui
peut et ce qui ne peut pas interagir avec la structure immunitaire :
c’est la distinction entre l’identité et le non-sens provenant du « bruit »
immunologique » (Varela 1989, pp. 121-122).
212
Figure 2. Deux représentations schématiques du système immunitaire
(a) rend compte des interactions locales de l’antigène et (b) représente son
intégration à l’ensemble du réseau élargi en un arbre complet, mais dont
l’aspect circulaire témoigne de ce que Varela appelait clôture opérationnelle.
C’est-à-dire, les limites globales du système. (Schéma adapté de F. Varela,
Autonomie et connaissance, p. 129)
Il apparaît donc que la reconnaissance d’un antigène ne se
fait pas selon un acte isolé par des lignées indépendantes de
cellules spécifiques, prédestinées en quelque sorte à ce e rencontre
fortuite. On a plutôt l’image de l’intégration de l’antigène dans une
dynamique globale, un réseau de reconnaissance réciproque par le
truchement des anticorps et qui ont pour e et d’influencer les états
des cellules immunitaires, soit en promouvant soit en inhibant leurs
activités comme leurs multiplications mitotiques ou leur production
d’anticorps. L’idée de réseau cellulaire implique également une
autre notion essentielle qui est sa plasticité. Tout comme c’est le cas
pour l’étude des réseaux de neurones, il y a une capacité du système
dynamique à répondre à une perturbation donnée par une réponse
dont la forme est une modification de l’ensemble des activités et des
interactions des composants du réseau et dont l’e et normal est de
conduire le système vers un nouvel état stable ou d’équilibre.
Merleau-Ponty faisait la même allusion lorsqu’il envisageait
une nouvelle perception des symptômes comportementaux non
selon la modalité d’une causalité linéaire qui en chercherait la cause
localisable quelque part dans le système nerveux ; mais plutôt en
considérant le symptôme comme la forme d’une réponse du système
pris dans sa globalité, selon l’équilibre dynamique de la distribution
de ses forces internes.
213
Le cas des perturbateurs endocriniens
Récemment, la découverte du potentiel toxique de certains dérivés
de plastiques a mis en relief la dimension complexe de la toxicologie
et de la manière dont l’organisme est trop simplement considéré
dans les études traditionnelles. C’est en 1989 qu’Ana Soto et Carlos
Sonnenschein découvrirent fortuitement que le monylphénol, alors
considéré comme un banal additif des plastiques, était responsable de
la prolifération de cellules du cancer du sein. En 1991, 21 scientifiques
rédigèrent la Déclaration de Wingspread qui montrait le lien entre
substances chimiques anthropogènes relâchées dans l’environnement
et des perturbations endocriniennes chez certaines espèces animales.
Il s’avéra par la suite que ces mêmes substances pouvaient avoir des
e ets non négligeables sur la santé humaine comme l’augmentation
de la prévalence pour le cancer du sein ou la diminution de la fertilité
masculine.
On peut définir un perturbateur endocrinien comme une
substance naturelle ou de synthèse qui, suite à une exposition dans
l’environnement ou durant le développement, perturbe le système
hormonal d’un individu. On classe typiquement dans ce e catégorie
l’exposition des hormones naturelles administrées artificiellement
(oestrogènes, testostérones, hormones de croissance, …), des hormones
naturelles végétales ou phytoestrogènes, des molécules de synthèses
à e et hormonal (les pilules contraceptives) et plus récemment une
liste importante de molécules de synthèses destinées à l’industrie, à
l’agriculture ou aux biens de consommation et pour lesquels l’e et
hormonal n’était pas intentionnel.
La particularité liée à la toxicité de ces substances réside dans
la manière dont elles s’intègrent dans la dynamique d’individuation
de l’organisme, c’est-à-dire dans les processus clés qui établissent
continuellement son homéostasie et son devenir à travers les
di érentes étapes du développement depuis l’embryogenèse jusqu’à
la sénescence. Le cas du distilbène (DES), première hormone de
synthèse prescrite aux jeunes femmes enceintes entre 1940 et 1980, est
l’exemple du perturbateur endocrinien le plus emblématique puisque
la toxicité embryonnaire ne s’est révélée que bien après la naissance
des enfants et notamment des filles qui ont déclaré des cancers du
vagin ou la stérilité.
214
Comme la théorie du système immunitaire développée par
Varela ou dans le cadre théorique développé par Merleau-Ponty, la
compréhension des e ets des perturbateurs endocriniens s’inscrit
éminemment selon ce e logique systémique. L’un des enjeux de la
recherche à ce sujet porte d’ailleurs sur la notion de dose minimale
que les perturbateurs endocriniens qui miment l’action des hormones
ne respectent pas, puisqu’en endocrinologie, la relation directement
proportionnelle ou linéaire de la dose à l’e et toxique n’existe pas.
L’action hormonale se fait ressentir à faible dose, alors que les doses
trop importantes ont des e ets inhibant. La toxicité de ces molécules
n’est plus fonction de propriétés intrinsèques mais de la manière et
du contexte systémique dans lequel celles-ci s’insèrent. Leurs e ets
dépendent largement de la façon dont réagi l’organisme, ou plutôt
les processus incessants qui participent à sa constitution comme
l’état des réseaux métaboliques. Ainsi, il apparaît que dans certaines
conditions, une exposition à l’âge adulte peut être compensée par
la régulation du système hormonal, ce qui n’est pas le cas lors de
l’ontogenèse, rendant l’embryon ou le fœtus plus vulnérable. De
façon générale, les altérations pathogènes apparaissent lorsque la
dynamique des systèmes ou la plasticité des processus d’individuation
de l’organisme ne parviennent pas à contrebalancer l’incidence des
perturbateurs. Elles s’accompagnent alors d’anomalies plus au moins
graves sur les fonctions reproductrices, le métabolisme (diabètes)
ou l’apparition de tumeurs et même des troubles du comportement
(hyperactivité).
Un autre point s’ajoutant à la complexité des phénomènes est
lié à la façon même dont le paradigme de la toxicité des substances
était considéré. L’organisme en relation avec son milieu n’est jamais
sensible à une substance isolée mais à un environnement complexe
d’innombrables molécules capables d’interagir entre elle. L’e et
de ces substances est à l’image des conditions complexes auxquels
les organismes sont aux prises, contrairement aux conditions très
restrictives des laboratoires. Ce n’est pas à une seule substance prise
isolément que les organismes ont à faire. Il y a une combinaison
de plusieurs molécules à faible dose, présentes dans toutes sortes
de produits de consommation courants ou disséminés dans
l’environnement, et non sur une courte durée mais sur de longues
périodes d’exposition répétées. On parle d’e et cocktail pour
désigner cet état de fait.
215
Nous ne sommes donc plus face à des situations de causalités
simples et linéaires où une cause détermine un e et clairement établi
et proportionnel (comme le suggère le principe de la dose critique).
Ainsi, la systémique des processus d’individuation des organismes fait
qu’une molécule peut induire une cascade de modifications des réseaux
dans lesquels elle est capable de s’insérer. Et dans ces conditions, des
faibles doses de polluants pourraient être plus nocives que des plus
grandes quantités qui entraînent des réponses adaptées des systèmes
hormonaux.
Les perturbateurs endocriniens, outre leur e et direct sur la santé,
montrent également comment la question de la toxicité se pose aussi au
point de vue de la façon dont le monde propre des organismes peut se
trouver modifié. Les hormones sont en e et des médiateurs chimiques qui
sont interprétés par les cellules et qui, selon le contexte, modifient leurs
états. Ces hormones sont présentes dans le milieu intérieur, le plasma
sanguin ou pour d’autres organismes dans leur environnement. Ces
polluants n’ont donc pas seulement des e ets directs dans le métabolisme
cellulaire, dans la mesure où ce n’est pas eux qui mécaniquement
causeront les dommages observés. C’est la manière dont ces molécules
interagissent avec les cellules et, par la suite, les modifications sur leurs
activités qui peuvent s’accompagner d’éventuelles altérations. L’e et ne
peut donc pas être directement visible, mais il ne sera sensible que sur le
long terme, même bien après le temps d’exposition. C’est précisément le
type de développement des maladies chroniques telles que le cancer.
Nous voyons donc que l’étude en pleine expansion de ces nouveaux
types de polluants nous interroge une fois de plus sur la manière dont
nous considérons l’organisme et sur la façon dont celui-ci est en relation
avec son environnement.
Que nous apprennent les études toxicologiques ?
Le paradigme systémique tel qu’il a été présenté plus haut o re un
cadre de compréhension des mécanismes de toxicité des nanoparticules.
Leur caractère toxique se comprend par leurs interactions avec les
systèmes vivants et la manière dont elles sont intégrées aux processus
à l’œuvre dans l’organisme. Ce sont ces modes d’interactions qui vont
conditionner leurs e ets.
216
Ainsi lorsque les nanoparticules entrent en contact avec les fluides
biologiques dans l’appareil respiratoire, digestif ou dans le sang, des
protéines seules ou associées à des lipides peuvent recouvrir leurs
surfaces formant ce que l’on appelle une corona (Cedervall 2007).
Celle-ci modifiera les capacités d’interaction des nanoparticules et
donc les réponses tissulaires et inflammatoires. On a ainsi observé que
l’albumine ou le fibrinogène avait une forte a nité. Les nanoparticules,
selon leurs voies d’entrée ou la manière dont elles interagissent avec
les protéines de la corona, sont reconnues comme des antigènes
par des molécules du système immunitaire comme les opsonines
(protéines de la phagocytose) ou des cytokines (signaux moléculaires
de l’inflammation). Ces interactions aboutissent généralement à des
réponses en cascades dont les e ets se répercutent dans tout le réseau
immunitaire et tissulaire concerné.
Les rôles et la nature de ces interactions sont encore mal connus. Des
études montrent l’extrême complexité des interactions dans lesquelles
les interférences des nanoparticules peuvent s’observer (Lynch 2008).
Elles sont d’autant plus di ciles à étudier qu’elles dépendent de
l’état global de l’organisme, de sa situation systémique, c’est-à-dire
de l’évolution de l’environnement protéique des milieux a eints. Des
protéines, très abondantes à certains moments de l’existence, peuvent
progressivement être remplacées par d’autres qui présenteront une
autre a nité avec les nanoparticules. Ces modifications liées à la
dynamique interne de l’organisation du vivant selon ses périodes de
développement (son individuation) influenceront non seulement les
processus d’inflammation mais aussi la distribution des nanoparticules
au point de vue de leur bioaccumulation ou de leur translocation dans
di érents tissus.
Lorsque les cellules épithéliales situées au niveau du système
respiratoire ou digestif (dans l’intestin) sont mises en présence
des particules exogènes qui ont tendance à s’accumuler dans leur
environnement, celles-ci peuvent les internaliser et éme re des
signaux dits pro-inflammatoires qui a irent des cellules immunitaires.
Les macrophages phagocytent massivement ces particules. Mais si les
nanoparticules s’accumulent, pour des raisons liées à leur capacité
d’interaction avec leur milieu ou entre elles, les phagocytoses trop
importantes finissent par abîmer les macrophages et léser les cellules
environnantes. Ce e situation au cours de laquelle les réponses
cellulaires s’avèrent ine caces déclenche une série de réactions
217
produisant des molécules dérivées de l’oxygène (ERO) très réactives.
C’est le stress oxydant. Ces molécules, libérées dans le cytoplasme et
dans le milieu extracellulaire, endommagent les cellules et les tissus,
ce qui a pour conséquence de libérer de nouvelles molécules qui
amplifient les processus inflammatoires sans qu’ils ne parviennent
à retrouver une situation d’équilibre. Ces situations, qui, d’une part,
déséquilibrent le système immunitaire et d’autre part perturbent le
métabolisme cellulaire, finissent par a eindre le noyau des cellules au
risque de provoquer des dégâts sur l’ADN et favoriser l’apparition de
cellules cancéreuses.
Des nanoparticules de silice, par exemple, s’insèrent également
dans ces réseaux d’interactions. La phagocytose de ces particules
par les macrophages entraîne une déstabilisation et la destruction
des cellules. Les protéines que ces dernières libèrent dans le milieu
extracellulaire sont suje es à d’autres phagocytoses qui amplifieront
les voies pro-inflammatoires. Les cellules ayant internalisé la silice, sans
être détruites, peuvent également activer des signaux inflammatoires
comme les cytokines, chemokines, les facteurs de croissance et
les résidus du stress oxydants qui recrutent des neutrophiles et
reconfigurent tout le réseau immunitaire pour aboutir aux processus
inflammatoires (Scheppers 1963, Hamilton 2008, Mossman 2006). En
outre, une fois de plus, des études ont montré que la dynamique de
réorganisation ne se limite pas au système immunitaire mais s’étend
à d’autres cellules du tissu conjonctif des poumons, les fibroblastes. Il
s’avère en e et que les macrophages produisent des facteurs stimulant
leur prolifération et la production de collagène (Adamson 1991, Benson
1986). Tous ces processus suite à l’intoxication aux particules de silices
peuvent se comprendre comme une dynamique globale au cours de
laquelle les systèmes vivants tendent à retrouver un état d’équilibre
sans pour autant y parvenir. Ce e incapacité expliquerait alors les
fibroses et l’augmentation des cas de maladies auto-immunes chez les
personnes exposées à la silice.
218
Figure 3. Mécanismes de toxicité de l’ozone et des particules atmosphériques
dans les voies aériennes. L’ozone et les particules atmosphériques sont intégrés
aux mêmes systèmes cellulaires au niveau de l’épithélium pulmonaire.
L’ozone réagit fortement avec les anti-oxydants présents en abondance dans
le liquide périciliaire, alors que le transport mucociliaire et la phagocytose
par les macrophages sont les principales voies d’élimination normale des
particules atmosphériques (PM). Cependant, leur accumulation dans les
tissus, la réactivité de surface et la présence de métaux de transition dans
leurs compositions peuvent être à l’origine de la production extracellulaire
d’espèces réactives à l’oxygène (ERO) qui à leur tour provoque un stress
oxydant comme l’ozone, en diminuant la protection des anti-oxydants. Au
contact des cellules épithéliales, ces particules peuvent être phagocytées et,
éventuellement, et arriver dans le tissu conjonctif et dans le plasma sanguin.
Dans la cellule, les voies de signalisation impliquées dans la réponse proinflammatoire sont les mêmes que pour l’ozone. (Schéma adapté de Armelle
Baeza, 2007).
Les systèmes se réorganisent suite à la perturbation induite par
l’agent toxique, mais la nature de la réorganisation peut être ou non
adaptée. Ainsi les fibroses résultent de la synthèse accrue de tissus
fibreux, de collagène et de protéines du tissu conjonctif telles que des
fibronectines ainsi que d’une multiplication plus importante de cellules
du tissu conjonctif, fibroblastes dans les parenchymes pulmonaires
(autour des bronches notamment), en réponse aux lésions tissulaires
219
et aux facteurs émis lors de l’inflammation par les macrophages et
les neutrophiles. Les particules perturbent donc l’ensemble du réseau
immunitaire et conjonctif. Des études montrent que ce processus
s’étend également aux pneumocytes de l’épithélium respiratoire.
L’aspect systémique des mécanismes toxicologiques a donc
pour corollaire important, dans la recherche, de définir les critères
d’interaction entre les nanoparticules et les systèmes vivants et,
en lien avec ceci, leurs conséquences sur les types de relations qui
en découlent. Ainsi la taille des particules est bien sûr le premier
critère puisque l’échelle nanométrique augmente considérablement
le rapport surface/volume et donc la surface relative d’interaction
des particules. L’augmentation de la surface réactive est un facteur
accroissant la toxicité intrinsèque des nanoparticules (Donaldson
2004). Des substances déjà testées mais à des dimensions supérieures
ont pu être considérées sans e et toxique alors que leurs équivalents
nanométriques sont toxiques aux mêmes doses (Oberdörster G et
al 2000).
La composition reste un critère d’interaction toxicogène important
(Donaldson 2004). Les e ets du noir de carbone sont plus sévères
que ceux du dioxyde de titane (Renwick 2004). Pour di érentes
nanoparticules à composition chimique variable (chlorure de
polyvinyle, TiO2, SiO2, Co, Ni), seul, le cobalt a induit des e ets proinflammatoires sur des cellules endothéliales (Peters 2004).
La forme est un autre paramètre d’importance même si son
évidence n’est pas encore totalement acquise, dans le cadre des
études toxicologiques. La structure fibreuse qui est celle de l’amiante
par exemple mais qui se trouve également être celle des nanotubes
de carbone fut de première importance pour déterminer leurs e ets
toxiques sur les tissus. Le diamètre ou la longueur est en lien étroit
avec leur pénétration dans les tissus respiratoires, dans leur potentiel
inflammatoire mais aussi avec leur élimination ou leur accumulation
(biopersistence tissulaire). Des publications récentes ont ainsi
démontré, à partir d’analyse in vivo, que des nanotubes de carbone
à simple paroi (single-wall carbon nanotubes, SWCNTs) pouvaient
induire la formation de granulomes dans la trachée (Lam 2004,
Warheit 2004).
220
Quelles conclusions tirer ?
Les nanotechnologies sont riches de potentialités et fortement
chargées d’enjeux divers tant économiques, que sociaux, scientifiques
ou philosophiques. L’impact sur la santé que nous avons tenté
d’aborder dans ce e présentation nous révèle déjà l’existence de
risques qui ne sont pas négligeables mais l’ampleur des recherches
reste importante et avec elle des questions qui ont une portée non
seulement dans le domaine restreint de la toxicologie mais aussi sur
la façon dont est conçu le vivant. Les investigations portant sur les
nanoparticules qui ne sont pas forcément liées aux nanotechnologies
ainsi que les avancées réalisées sur les perturbateurs endocriniens, au
cours ces dernières années, ont renouvelé le débat scientifique et nous
montrent à quel point une conception du vivant s’avère nécessaire.
À l’heure où certains développements des nanotechnologies
pourraient nous laisser croire en la pertinence d’un réductionnisme
qui détiendrait la clé des systèmes vivants par la maîtrise parfaite
des niveaux atomiques ou moléculaires en utilisant des machines
de cet ordre, la nanotoxicologie nous montre que le vivant dispose
de sa dynamique propre qui ne se résout pas dans la composition
pièce par pièce de ses molécules. Les problèmes toxicologiques nous
donnent une image tout autre qui, si elle se retrouve dans l’idée de
réseaux ou de système, montre que leur logique et leur complexité
ne repose plus sur les mêmes postulats. Les e ets liés à la toxicité ne
se comprennent plus seulement selon les propriétés des particules
ni selon des doses critiques. Ils deviennent des manifestations des
processus globaux et de la manière dont les systèmes vivants se
réorganisent pour répondre aux perturbations qu’ils occasionnent.
Nous avons utilisé le terme d’individuation non pas seulement
dans le sens d’une particularisation d’un individu par rapport à
un autre, ni uniquement pour désigner les processus d’ontogenèse
mais pour qualifier la dynamique globale qui comprend ces deux
aspects mais aussi l’ensemble du devenir des systèmes vivants qui
tendent à réaliser des unités autonomes. C’est dans ce e dynamique
où les molécules qualifiées de perturbateurs endocriniens où les
nanoparticules viennent s’insérer et acquérir un e et toxique, non par
elles-mêmes mais à travers justement l’inadéquation des réponses
des systèmes qu’elles a ectent. Ces inadéquations se manifestent par
l’ensemble des symptômes et des problèmes qui ont été identifiés :
221
stress oxydants, inflammation, cancérogenèse pour un bon nombre
de nanoparticules étudiées à ce jour.
Les perspectives de la recherche sont autant de portes ouvertes à
la réflexion philosophique qui nous o re également une occasion de
voir les sciences travailler autrement avec le vivant. Non plus, dans
ce cas-ci, dans une perspective technicienne qui trouve son compte
dans un réductionnisme simplificateur très utile au point de vue de
la mise au point de toutes sortes d’applications pratiques, mais dans
une approche qui se doit d’aborder la manière dont le vivant a à faire
avec son environnement et avec lui-même, car c’est bien de cela dont
il s’agit lorsque nous nous penchons sur la toxicité.
Références
Adamson I.Y.R., Letourneau H.L. et BOWDEN D.H.. “Comparaison
of alveolar and interstitial macrophages in fibroblast stimulation
a er silica and long or short asbestos”, Laboratory Investigation 64,
1991, p. 339-344.
ALBRECHT C. et al., “The crucial role of particle surface reactivity in
respirable quartz-induced reactive oxygene/nitrogen species formation and APE/Ref-1 induction in rat lung”, Respiratory Research
6, 2005.
Al Faraj A. et al., “Longitudinal 3He and proton imaging of magnetite
biodistribution in a rat model instilled nanoparticles”, Magnetic
Resonance in Medecine 59, 2008, p. 1298-1303.
BAEZA A. et MARANO F., “Pollution atmosphérique et maladie respiratoires : un rôle central dans le stress oxydant”, International
Journal of Medical Sciences 23, 2007, p. 497-501.
Benson S.C., Belton J.C. et Scheve L.G., “Regulation of lung fibroblast
proliferation and collagen synthesis by alveolar macrophages in
experimental silicosis. I. E ect of macrophage conditioned medium from silica instilled rats”, Journal of Environemental Pathology, Toxicology & Oncology 7, 1986, p. 87-97.
Bo a a. et Benameur L., “Mécanismes de Nanotoxicité des nanoparticules génotoxiques”, dans les Nanosciences 4. Nanotoxicologie et
nanoéthique, 2010, p. 165-170.
Brunekreef B. et al., “Personal, indoor, and outdoor exposures to
222
PM2.5 and its components for groups of cardiovascular patients
in Amsterdam and Helsinki”, Research Report Health E ects Institute 127, 2005, p. 1-70; discussion p. 71-9.
BURNET F.M., “A modification of jerne’s theory of antibody production using the concept of clonal selection”, Australian Journal
Sciences 20 (2), 1957, p. 67-69.
BURNET F.M., The Clonal Selection Theory of Acquired Immunity, Cambridge (Mass.), Cambridge University Press, 1959.
Cedervall T. et al., “Understanding the nanoparticles-protein corona
using methods to quantify exchange rates and a nities of proteins for nanoparticles”, Proceedings of the National Academy of
Sciences of USA 104, 2007, p. 2050-2055.
CHOI A.O. et al., “Quantum dot-induced epigenetic and genotoxic
changes in human breast cancer cells”, Journal of Molecular Medicine 86, 2008, p. 291-302.
Chuang K.J. et al., “Associations between submicrometer particles exposures and blood pressure and heart rate in patients with lung
function impairments”, Journal of Occupational and Environmental
Medicine 47(11), 2005, p. 1093-8.
CUI D. et al., “E ect of single wall carbon nanotubes on human
HEK293 cells”, Toxicology Le ers 155, 2003, p. 73-85.
Delfino R.J. et al., “Association of FEV1 in asthmatic children with personal and microenvironmental exposure to airborne particulate
ma er”, Environmental Health Perspectives 112(8), 2004, p. 932-41.
Delfino R.J., Sioutas C. et Malik S., “Potential role of ultrafine particles
in associations between airborne particle mass and cardiovascular
health”, Environmental Health Perspectives, 113 (8), 2005, p. 934-46.
Doll R., “Mortality from lung cancer in asbestos worker”, British Journal of Medicine 12, 1955, p. 81-86.
Donaldson K. et al., “Nanotoxicology”, Journal of Occupational and Environmental Medicine 61, 2004, p. 727-728.
Dubucquoi S., “Auto-immunité physiologique et pathologique dans
les maladies neurologiques”, Revue Neurologique 161(12), décembre 2005, p. 1163-1176
Gold D.R. et al., “Ambient pollution and heart rate variability”, Circulation 101(11), 2000, p. 1267-1273.
Gurr J.R. et al., “Ultrafine titanium dioxide particles in the absence of
223
photo-activation can induce oxidative damage to human bronchial epithelial cells”, Toxicology 213, 2005, p. 66-73.
Hamilton R.F., Thakur S.A. et Holian A., “Silica binding and toxicity in alveolar macrophages”, Free Radical Biology & Medicine 44,
2008, p. 1246-1258.
de Hartog J.J. et al., “E ects of fine and ultrafine particles on cardiorespiratory symptoms in elderly subjects with coronary heart disease: the ULTRA study”, American Journal of Epidemiology 157(7),
2003, p. 613-623.
Henneberger A. et al., “Repolarization changes induced by air pollution in ischemic heart disease patients”, Environmental Health
Perspectives 113(4), 2003, p. 440-446.
JACOBSEN N.R. et al., “Genotoxicity, cytotoxicity, and reactive oxygen species induced by single-walled carbon nanotubes and C(60)
fullerenes in the FE1-Mutatrade markMouse lung epitjelial cells”,
Environmental and Molecular Mutagenesis 49, 2008, p. 476-487.
Janssen N.A. et al., “Associations between ambient, personal, and indoor exposure to fine particulate ma er constituents in Dutch and
Finnish panels of cardiovascular patients”, Journal of Occupational
and Environmental Medicine 62(12), 2005, p. 868-877.
KATZ D.H. et BENACERRAF B., Immunogical Tolerance : Mechanisms
and Potential Clinical Applications, New York, Academic Press,
1974.
KATZ D.H. et BENACERRAF B., “The Function and Interrelationships
of T-Cell Receptors, ir-Genes and Other Histocompatibility Products, Transplantation Review 22, 1975.
LAM C.W., JAMES J.T., McCLUSKEY R. et HUNTER R.L., “Pulmonary toxicity of single-wall nanotubes in mice 7 and 90 days a er
intratracheal instillation”, Toxicological Sciences 26, 2003, p. 1-21.
LAM P.K., CHAN E.S., HO W.S. et LIEW C.T., “In vitro cytotoxicity
testing of a nanocrystalline silver dressing (Acticoat) on cultured
keratinocytes”, British Journal of Biomedical Sciences 61 (3), 2004, p.
125-7.
Lhami M., Marano F. et Houdy P. (éds.), Les nanosciences. Nanotoxicologie et nanoéthique, Paris, Belin, 2010.
Lwebuga-Mukasa J.S., Oyana T.J. et Johnson C., “Local ecological factors, ultrafine particulate concentrations, and asthma prevalence
rates in Bu alo, New York, neighborhoods”, Journal of Asthma
224
42(5), 2005, p. 337-348.
Lynch, I. et Dawson K.A., “Protein-Nanoparticle interactions”, Nano
Today 3, 2008, p. 40-47.
Lynch K.M. et Smith W.A., “Pulmonary asbestosis. III. Carcinoma of
lung in asbestos-silicosis”, American Journal of Cancer 24, 1935, p.
56-64.
Maynard A.D. et Maynard R.L., “A derived association between ambient aerosol surface area and excess mortality using historic time
series data”, Atmospheric Environment 36(36-37), 2002, p. 5561-7.
Maurice Merleau-Ponty, Structure du Comportement, 3ième édition
« Quadrige », 2009, Presses Universitaires de France, Paris (1942
pour la 1ère édition).
Mossman B.T., Lounsbury K. M. et Reddy S.P., “Oxidants and signaling by mitogen-activated protein kinases in lung epithelium”,
American Journal of Respiratory Cell and Molecular Biology 34, 2006,
p. 666-669.
MULLER J. et al., “Clastogenic and aneugenic e ects of multi-wall
carbon nanotubes in epithelial cells”, Carcinogenesis 29, 2008, p.
427-433.
OBERDÖRSTER G., FINKELSTEIN J.N. et al., “Acute Pulmonary Effects of Ultrafine Particles in Rats and Mice”, HEI Research report
96, August 2000, Health E ects Institute.
Pekkanen J. et Kulmala M., “Exposure assessment of ultrafine particles in epidemiolgoc time-series studies”, Scandinavian Journal of
Work, Environment & Health 30, Suppl 2, 2004, p. 9-18.
Pekkanen J. et al., “Particulate air pollution and risk of ST-segment
depression during repeated submaximal exercise tests among
subjects with coronary heart disease: the Exposure and Risk Assessment for Fine and Ultrafine Particles in Ambient Air (ULTRA)
study”, Circulation 106(8), 2002, p. 933-938.
Pen inen P. et al., “Number concentration and size of particles in urban air: e ects on spirometric lung function in adult asthmatic
subjects”, Environmental Health Perspectives 109(4), 2001a, p. 319323.
Pen inen P. et al., “Ultrafine particles in urban air and respiratory
health among adult asthmatics”, European Respiratory Journal
17(3), 2001b, p. 428-435.
225
Peters K. et al., “E ects of nano-scaled particles on endothélial cell
function in vitro: studies on viability, proliferation and inflammation”, Journal of Materials Science : Materials in Medicine 15 (4),
2004, p. 321-325.
Renwick L.C. et al., “Increased Inflammation and altered Macrophage
chemotactic Responses Caused by Tow Ultrafine Particle type”,
Occupational Environmental Medicine 61, 2004, p. 442-447.
Roco M.C., “National Nanotechnology Initiative : Past, Present, Future”, dans William A. et al. (éds.), Handbook on Nanoscience,
Engineering and Technology (2nd ed), CRC Press, 2007, p. 3.1-3.26.
SAYES C.M. et al., “Nano-C60 cytotoxicity is due to lipid peroxidation”, Biomaterials 26, 2005, p. 7587-7595.
Sayer R.R. et Dreessen W.C., “Asbestosis”, American Journal of Public
Health and the Nation’s Health 29, 1939, p. 205-214.
SchepperS G.W., “Lung disease caused by inorganic and organic
dust”, Journal of Diseases of the Chest 44, 1963, p. 133-140.
SHVEDOVA A.A. et al., “Exposure to carbon nanotube material: assessment of nanotube cytotoxicity using keratinocyte cells”, Journal of Toxicology Environment Health 66, 2003, p. 1909-1926.
SHVEDOVA A.A. et al., “Inhalation vs aspiration of single walled carbon nanotubes in C57BL/6 mice : inflammation, fibrosis, oxidative stress, and mutagenesis”, American Journal of Physiology Lung
Cell and Molecular Physiology 295, 2008, p. 552-565.
SPAHN J. et al., “Asthma: addressing consistency in results from basic
science, clinical trials, and observational experience”, Journal of
Allergy and Clinical Immunology, 109, 2002, S490-S502.
Timonen K.L. et al., “E ects of ultrafine and fine particulate and gaseous air pollution on cardiac autonomic control in subjects with
coronary artery disease: The ULTRA study”, Journal of Exposure
Analysis and Environmental Epidemioogly 16(4), 2006, p. 332-341.
Timonen K.L. et al., “Variation in fine and ultrafine particulate air
pollution and urinary concentrations of lung Clara cell protein
CC16”, Journal of Occupational and Environmental Medicine 61(11),
2004, p. 908-914.
Varela F., Autonomie et Connaissance, essai sur le vivant, éditions du Seuil,
Paris, 1989 (pour la 1ère édition : Principles of Biological Autonomy,
Elsevier, 1980.
226
von Klot S. et al., “Increased asthma medication use in association
with ambient fine and ultrafine particles”, European Respiratory
Journal 20(3), 2002, p. 691-702.
WARHEIT D.B.,“Nanoparticles: health impacts?”, Materials today 7(2),
2004, p. 32-35.
WARHEIT D.B. et al., “Comparative pulmonary toxicity assessment
of single-wall carbon nanotubes in rats”, Toxicological Sciences 77,
2004, p. 117-125.
ZHU L. et al., “DNA damage induced by multiwalled carbon nanotubes in mouse embryonic stem cells”, Nano Le ers (American Chemical Society Publications) 7, 2007, p. 3592-3597.
227
Troisième partie
La gouvernance des nanotechnologies sur le
plan international
230
Les nanotechnologies et l’éthique
Politiques et stratégies
Philippe Busquin82
Introduction
Les nanotechnologies sont actuellement l’une des disciplines
où les techniques se développent le plus rapidement, avec de
nombreuses applications prome euses dans des domaines aussi
variés que la médecine, l’énergie, l’industrie et la communication.
Comme toute technique nouvelle, elles posent des problèmes
éthiques ; leurs bienfaits et leurs inconvénients éventuels font l’objet
de plus en plus de débats, ainsi que leurs implications pour les
relations internationales en matière de politiques scientifiques et
technologiques. L’UNESCO peut prendre des initiatives pour dresser
un état planétaire des dimensions éthiques des nanotechnologies et
en étudier les implications pour les États membres en même temps
que les initiatives que pourraient prendre l’Organisation.
A cet e et, l’UNESCO a demandé dès 2003 au COMEST
(Commission mondiale d’éthique des connaissances scientifiques
et des technologies) composé de 18 membres venant de tous
les continents choisis pour leur expérience scientifique et leur
connaissance des liens entre la science et la société sur le plan de
l’éthique. Avec l’aide d’un groupe d’experts, un premier rapport83 a
été proposé en 2008 et est en voie de réactualisation vu la rapidité
des développements et l’extension de la réflexion aux technologies
convergentes : nano, biologie, informatique, sciences cognitives
(NBIC).
82
Commission mondiale d’éthique des connaissances scientifiques et des
technologies de l’UNESCO (COMEST)
83
COMEST, Nanotechnologies and ethics: policies and actions, 2008, available
on www.unesco.org.
231
D’un point de vue général, la réflexion éthique doit s’intéresser
aux bienfaits et inconvénients potentiels des nanotechnologies mais,
surtout, elle doit évaluer et discuter sur la scène publique les buts
auxquels ces technologies serviront, à l’heure où la science et la
technologie peuvent être mises à profit pour répondre aux besoins les
plus pressants de l’humanité.
Pour accroître la pertinence des initiatives prises, trois catégories
de parties prenantes ont été associées à l’étude des dimensions éthiques
et activités internationales : philosophe-éthiciens, scientifiques et
décideurs.
Caractéristiques des nanotechnologies
Une façon de caractériser les nanotechnologies c’est souligner
qu’elles ont une dimension interdisciplinaire. Il n’y a pas de
technologie particulière à qui reviendrait l’exclusivité d’être appelée
« nanotechnologie » puisque le mot désigne plusieurs technologies
et sciences. Du point de vue scientifique, les nanotechnologies
reme ent en cause les distinctions habituelles entre les disciplines
scientifiques. De surcroît, c’est un domaine où la distinction
entre science et technologie est très di cile à maintenir, puisque
scientifiques et ingénieurs sont amenés à travailler dans les mêmes
équipes. Enfin, les frontières mêmes entre sciences exactes et sciences
humaines s’estompent sitôt qu’on se place à l’échelle nanométrique.
Les interactions constructives entre sciences exactes et sciences
humaines doivent donc être renforcées si l’on veut éviter les fausses
représentations mutuelles et les quiproquos.
Du point de vue éthique, certaines singularités des nanotechnologies
ne laissent pas d’être particulièrement préoccupantes :
a) Invisibilité : du fait de l’invisibilité des applications des
nanotechnologies, il est di cile d’en maîtriser et d’en localiser les
e ets (elles sont sur ce point semblables au nucléaire).
b) Rapidité du développement : du fait du développement rapide
des nanotechnologies, il est di cile d’en repérer les impacts
éventuels et d’y réagir, en particulier sur le long terme.
232
c) Utilisations militaires et à des fins de sécurité : les nanotechnologies
étant susceptibles d’utilisations militaires ou à des fins de sécurité,
elles pourraient être incompatibles avec l’exercice des droits de
l’homme.
d) Impact mondial : impacts éventuels sur des pays et sociétés
même lorsqu’ils ne participent pas à la mise au point de
nanotechnologies.
e) Risque d’une « fracture nanotechnologique » : renforcement
éventuel des inégalités entre pays en développement et pays
développés.
D’autre part les nanotechnologies sont une chance à saisir dans
les nombreux domaines. Elles o rent d’immenses possibilités. Elles
exigent donc une approche holistique, qui suppose un dialogue
authentiquement interdisciplinaire. Cela vaut pour toutes les
initiatives proposées ici : débats, éducation, recherche et action
publique. Inversement, l’élaboration des nanotechnologies peut o rir
l’occasion de renforcer la coopération entre les disciplines scientifiques
ainsi que la coopération transnationale, contribuant ainsi à satisfaire
l’une des exigences les plus fondamentales de l’éthique des sciences
et technologies.
Mise en place du cadre éthique
Transparence et responsabilité face au public
Les principes de transparence et de responsabilité face au public
dans les décisions concernant les investissements et la recherchedéveloppement en matière de nanotechnologie doivent être bien
dégagés, en accordant une a ention particulière aux implications
et aux risques que représentent des intérêts militaires. Il convient
également de modéliser l’application de ces principes au sein de la
société. L’importance de concepts d’éthique organisationnelle telle
que la responsabilité sociale des entreprises doit être relevée. La prise
de décisions en matière de nanotechnologies doit également prendre
en compte le partage des bénéfices, l’accent étant mis sur la promotion
de la paix et le règlement des conflits.
233
Renforcement des capacités en matière éthique
L’UNESCO doit promouvoir le renforcement des capacités
pour que les États membres et le public en général soient à même
d’aborder les questions éthiques que posent les nanotechnologies,
et ce en me ant en place une première base de données sur les
politiques en vigueur, les codes de conduites et les directives
des organisations professionnelles, organes de prise de décisions
et instituts de recherche et en faisant de ce e base un centre de
prospective.
Participation du public
La participation du public à la formulation des politiques
en matière de nanotechnologies doit être renforcée, en faisant
davantage intervenir les associations de la société civile,
notamment celles qui s’intéressent à l’environnement, à la santé
ou à la sécurité publique, ainsi que les syndicats. Il faut insister
davantage sur la nécessité de stimuler encore l’élaboration de
modèles de débats publics portant sur les politiques en matière de
nanotechnologies. Dans les États membres, en particulier dans les
pays en développement, il faudrait aussi renforcer la capacité de
faire participer le public. L’UNESCO doit intervenir dans le débat
public sur la question des nanotechnologies pour s’assurer que le
dialogue est interdisciplinaire et équilibré et qu’il prend en compte
la diversité des opinions. Le dialogue sur les politiques en matière
de nanotechnologies doit également être encouragé au niveau
régional, compte tenu des di érents degrés de développement et
des préoccupations sociales de chaque région.
Campagnes médiatiques sur les questions éthiques
Les campagnes médiatiques sur les questions éthiques que
posent les nanotechnologies sont une chose nécessaire, et des
personnalités éminentes du monde des médias doivent être invitées
à informer le public sur ces questions.
234
Coopération internationale
L’UNESCO doit coopérer étroitement avec les autres organisations
internationales qui s’intéressent aux nanotechnologies, notamment
l’OCDE et l’ISO, pour élaborer un cadre éthique d’ensemble pour
les nanotechnologies.
Commission internationale des nanotechnologies et de
l’éthique
Compte tenu du fait que les nanotechnologies se développent
très rapidement, l’UNESCO devrait créer une commission
internationale des nanotechnologies et de l’éthique, qui serait
chargée de soume re à un examen suivi l’évolution des problèmes
éthiques et l’apparition de nouvelles problématiques dans ce
domaine ainsi que d’apporter des réponses en temps utile.
Nécessité de sensibiliser l’opinion et de promouvoir
le débat sur les nanotechnologies
Nécessité d’un débat public équilibré, interdisciplinaire
et reposant sur des informations appropriées
Pour que le débat public soit équilibré, interdisciplinaire
et repose sur des informations appropriées, il faut partir de la
constatation que les nanotechnologies suscitent de nombreuses
a entes et craintes de nature à peser sur l’évolution du dialogue
éthique dans un sens positif comme dans un sens négatif. Il convient
de promouvoir un débat réaliste qui s’appuie sur des informations
appropriées et sur un examen méthodique de toutes les données à
mesure que les nanotechnologies se développent ; on veillera à ce
que des conclusions positives ou négatives ne soient pas tirées en
l’absence d’éléments su samment probants. Il faut apporter des
informations très nuancées, objectives et précises pour guider le
public et les décideurs.
L’UNESCO devrait sensibiliser l’opinion publique aux risques
comme aux bienfaits des nanotechnologies (en particulier dans les
235
États membres qui n’ont guère de capacités dans ce domaine), à la
responsabilité des scientifiques et ingénieurs qui doivent veiller à un
développement maîtrisé des nanotechnologies, à la responsabilité
qui incombe au public de rechercher des informations exactes et de
participer à l’élaboration des politiques en matière de nanotechnologies,
ainsi qu’à la nécessité de remédier aux e ets potentiellement
déstabilisateurs des nanotechnologies sur les communautés en voie
de transformation sociale. Ce débat devra prendre en compte les
Objectifs du Millénaire pour le développement.
Impact environnemental et problèmes sanitaires
Dès le départ, il devra y avoir un débat public qui s’appuie sur
des informations exactes et qui soit de nature interdisciplinaire en ce
qui concerne l’impact environnemental et les problèmes sanitaires en
vue de tirer le maximum de profit des nanotechnologies. Il faudra
me re en balance les possibilités et les risques que présentent les
nanotechnologies dans les produits et applications qui supposent
un contact avec l’être humain ou qui sont de nature à a ecter
l’environnement.
La di culté, c’est que la toxicité éventuelle des nanomatériaux
est, scientifiquement, d’une incertitude très grande. En fait, c’est la
définition même de la toxicité de ces matériaux qui fait problème. En
outre, on ne voit pas bien comment ce e toxicité, à supposer qu’elle soit
définie, pourrait être mesurée de façon scientifiquement indiscutable.
Enfin, nombre de matériaux n’ont pas fait l’objet de tests scientifiques
systématiques de toxicité. L’un des thèmes abordés pourrait être le fait
que ce e toxicité peut prendre du temps à se manifester, comme ce fut
le cas avec l’amiante dans un autre contexte. Par conséquent, il faudra
étudier la question de l’applicabilité du principe de précaution, sans
que les incertitudes scientifiques amènent à éluder ou à repousser le
débat nécessaire.
Nécessité d’une évaluation des risques
Les questions d’analyses des risques et de normalisation doivent
donner lieu à une étude éthique approfondie, et pas seulement
236
à une étude scientifique. Il faut que l’UNESCO coopère avec
des organisations comme l’OCDE, qui est actuellement en train
d’élaborer des normes d’évaluation des risques. Il faut informer
les scientifiques et ingénieurs qui travaillent dans le domaine des
nanotechnologies de la nécessité de procéder à une évaluation
des risques et leur présenter le concept de probabilité en matière
d’évaluation des risques, et ce par des initiatives de sensibilisation et
d’éducation éthique. On pourrait également à ce e fin promouvoir
la prise en compte des impératifs de gestion et d’identification des
risques comme élément à examiner dans les procédures d’octroi de
bourses de recherche en nanotechnologies.
Nanomédecine
Appliquées à la médecine, les nanotechnologies posent
divers problèmes, qui doivent être examinés à l’avance à partir
d’informations appropriées et de façon interdisciplinaire et publique.
La facilité d’accès aux nouvelles méthodes de diagnostic est un
problème (par exemple la possibilité de mesurer la prédisposition
aux maladies) ; les perspectives d’amélioration du corps humain
posent d’autres questions (par exemple la question de savoir ce qui
fait véritablement partie du corps, ce qu’est une amélioration et
l’instance qui la définit). L’UNESCO peut promouvoir l’application
à la nanomédecine des principes de bioéthique inscrits dans la
Déclaration universelle sur la bioéthique et les droits de l’homme,
et examiner les données techniques nécessaires pour prendre en
compte les questions éthiques que les nanotechnologies posent dans
le domaine des soins de santé.
Confidentialité
Un débat public précoce, informé et interdisciplinaire pourrait
également être consacré aux concepts juridiques et éthiques
fondamentaux qui ont trait à la protection de la vie privée et de la
confidentialité En e et, les nanotechnologies perme ent des systèmes
de surveillance sans précédent (depuis les nanocaméras jusqu’aux
nanomarqueurs repérables par GPS), et il faut se demander si pareils
dispositifs sont acceptables, et à quelles conditions.
237
Propriété intellectuelle
Un débat public précoce, informé et interdisciplinaire pourrait
aussi être organisé sur les problèmes de propriété intellectuelle liés aux
nanotechnologies. L’une des raisons en est que les nanotechnologies
rejoignent la biotechnologie, et que la question de la brevetabilité des
organismes vivants et des gènes intéresse aussi les nanotechnologies.
Une autre raison est l’e acement des limites entre sciences et technologie
qu’entraînent les nanotechnologies : si le savoir scientifique est un bien
commun, les pratiques technologiques ne le sont en général pas. De
plus, la multiplication des brevets risquerait d’aggraver la « fracture
nanotechnologique ». Par conséquent, la brevetabilité des innovations
dans les domaines liés aux nanotechnologiques devrait être de plus
en plus contestable et ce e question devrait être abordée sous forme
d’une évaluation des risques et bénéfices.
Actions en cours
La prise de conscience est mondiale, la quatrième réunion
annuelle du projet « nano » initié par la direction générale santé
et consommateurs de l’U.E. tenue à Bruxelles : « Safety For Succes
Dialogue » (29-30 mars 2011) a permis de mesurer la mondialisation
de la réflexion, sa complexité, du besoin de coopération internationale
(définitions, approches, etc…. ), les aspects juridiques.
L’Union Européenne, aussi bien la Commission que le Parlement
tente de définir un code de conduite commun sur tous les aspects des
nanotechnologies, le domaine des cosmétiques étant déjà réglementé.
Il y a une certaine urgence à définir des codes de conduite (des
directives étant ine caces vu l’évolution rapide des connaissances
et la complexité des définitions adoptées) car se profile un débat
plus long et plus di cile encore sur ce que certains qualifient de
« transhumanisme » lié aux technologies convergentes (NBIC).
A cet égard les travaux du groupe d’éthique Européen
sous la présidence de Goran Hermerén s’interroge dans ses
recommandations :
238
Une approche fondée sur le principe de précaution constitue-t-elle une
solution ? Une telle approche doit être clarifiée, afin d’éviter des malentendus.
Le principe de précaution suppose l’existence d’un risque, l’éventualité
d’un préjudice et une incertitude scientifique sur la survenue e ective de
ce préjudice. Mais le principe de précaution ne signifie pas pour autant « ne
rien faire », car cela peut également comporter des risques. Il n’exige pas non
plus une situation à « risque zéro ». Aucun progrès ne serait possible, si ce e
exigence était prise au sérieux et appliquée strictement.
De la même manière, il importe de mesurer que :
Les défis à relever s’adressent tant à la communauté des chercheurs
qu’aux décideurs politiques et à l’opinion publique concernée. Une
approche intégrée, impliquant l’ensemble des acteurs, doit être
engagée le plus tôt possible. L’objectif est d’éviter les erreurs liées à de
mauvaises interprétations autant qu’à de faux espoirs.
La science-fiction est, en e et, susceptible d’exagérer la dimension
tant des espérances que des inquiétudes.
En conclusion
Bien que les nanotechnologies soient prome euses, les
conséquences éthiques et politiques liées à une telle recherche ne
sont pas radicalement di érentes de celles auxquelles nous avons
déjà été confrontés mais elles donnent l’occasion de les aborder en
connaissance de cause et avec plus de succès que par le passé.
Les règles qui en découlent peuvent être élaborées selon un
processus constructif perme ant de transformer ces défis en
opportunités pour l’ensemble des habitants de la planète.
Nos démocraties doivent se réapproprier ce type de débats
cruciaux dans leur choix de société
Lors du colloque, j’ai été aussi frappé par le fait qu’on évoque
peu la recherche militaire dans ce domaine stratégique. Aux EtatsUnis les budgets de recherche en nanotechnologies et technologies
convergentes (NBIC) sont a ectés principalement au département
de la Défense et dépassent largement les e orts de nombreux États
239
membres de l’Union Européenne. Il est vraisemblable que des budgets
importants frappés du sigle « Secret Défense » se développent aussi
dans d’autres puissances militaires.
Ces recherches et développements ne sont pas soumis aux mêmes
contraintes légitimes d’éthique et mériteraient une interpellation
politique ainsi qu’un débat de société comparable au thème de l’Espace
dans les années 80 (Reagan : guerre des étoiles).
240
Europe’s collective experiment with
nanotechnologies as a construction of possible
futures : political and ethical stakes
Jim Dratwa84
Introduction : what to look forward to?
At the end of this sentence, take a break, just close your eyes, and
imagine the world 50 years from now. How would you like it to be?
This paper is about the future, about alternative futures. More
specifically it is about the ways in which futures are made – and made
to come to pass. What world do we want to live in together? How to
construct that together? More specifically still, this paper is a reflexion
and a critical appraisal as to the role of “engagement” (that is, ethics
and social sciences engagement as well as public engagement) in
shaping the future with nanosciences and nanotechnologies.
Firstly, we explore the relations of the European Union (EU), of
the European project, with the future – with the very endeavour of
constructing futures. Then we examine the import of sciences and
technologies (S&T) in this endeavour.
In section 3 we go on the ground, on the terrain of the EU
headquarters, to see nanosciences and nanotechnologies in the flesh
not in the research lab but in the research policy lab, that of the
European institutions and more particularly the European Parliament
and the European Commission. There we also scrutinize contrasting
“nano narratives” – or “short stories” – projecting nanosciences and
nanotechnologies in the past and in the future.
Section 4 consists in a critical appraisal of ethics and social
sciences engagement as well as of public engagement in the collective
experiment with nanoparticles, nanomaterials, nanoproducts,
84
Facultés universitaires Saint Louis/European Commission
241
nanosciences, nanotechnologies (nanos)85, taking stock as to the
“engagement” strides in regard to the nanos strides.
The final section looks back and looks forward. It concludes on the
Gi and the Gegengi , on the growing danger and where grows what
saves, and thus opens ways forward for di erent engagements.
Future progressive
Futures (and Europe)
Imagined Communities
The European Union, the European project, was founded on the
smoking ashes of the Second World War. From a fraught past, it was to
build a be er future. From terrible divisions, it was to build togetherness,
to build a community.
It is a project of further integration and of further enlargement. Further
integration, with a common market, a common currency, common rules
and regulations, common policies in many areas. Further enlargement,
going from 6 member countries to 9, to 27 member countries and more.
The achievements have been remarkable. Both integration and
enlargement have been – and are again – faced with considerable
di culties, but it changes nothing to this. The European project is at
bo om a project, a projection in the future. And this comes to the fore
particularly prominently at certain junctures in the political cycles
(Dratwa 2009).
(Fore)seeing like a State
In March 2000 at the European Council in Lisbon, the Lisbon
Strategy was set out, aiming to make the EU – by 2010 – “the most
competitive and dynamic knowledge-based economy in the world
capable of sustainable economic growth with more and be er jobs
and greater social cohesion”.
85
Since I will have to use this shorthand for short, I want to insist again on the
importance of unpacking the shorthands and actors and hypostases, be they
“nano”, “Europe”, “the public”, or “the future”.
242
A decade on, a er the revised Lisbon Strategy had tossed aside
ma ers of environment or sustainability to make way for a focus
on growth and jobs, and a er the later highlights on climate change
(reports, films, Nobel prizes, a rising tide on the crest of striking
meteorological events) had paved the way for a green new deal en
route to a low-carbon economy, in March 2010, a new 10-year strategy
or vision was set out, EU 2020, highlighting “smart, sustainable, and
inclusive growth”.
In fact we are now in a moment of intense soul-searching for the
European Union. A search for driving force, grand project, rationale,
raison d’être. And in fact many visions, many futures, are emerging.
Strategies, action plans, roadmaps, with among others: the Roadmap
2050 to a low-carbon economy, the 2020 Energy Strategy, the Strategic
Nanotechnology Action Plan 2015, the Horizon 2020 framework for
research and innovation (which was very nearly named “Discover
2020” or “Imagine 2020”) and indeed the more forthrightly termed
EU 2020.
The European Project
In a way, Europe’s goal of rebuilding and reconciliation is already
achieved. It is accomplished and remains so “for richer or poorer, for
be er or worse, for as long as it may live”. In a way, just as much,
it is a project of ever further integration and enlargement that thus
cannot ever be more consummate than a “work in progress”, “under
construction”. In a way, a third way unremi ingly following the
second, it is an endeavour constantly under threat, under scrutiny,
under question: what are the natural borders of Europe, when is more
integration too much integration, what are the contours of Community
added value or the optima of subsidiarity (i.e. for each policy issue
what is the most appropriate level of intervention, supranational,
national or subnational, and what should be the division of labour
between the actors at those di erent levels) (Dratwa 2009).
From all three follow this fourth perspective: not only is the
European project by nature a “project”, a projection into the future, in
permanent expectation geared towards further horizons like a figure
from one of Zeno’s paradoxes, it is in fact an endeavour constantly
in search of its goals, of its very (i.e. of pu ing forward rather than
243
merely of achieving or reaching) “single market” or “fi h freedom”
or “man on the moon” – in search of what to search for. In search of
its project.
The EU, this strange construct, embodies perhaps more vividly
than any other the insights of John Dewey as to the necessarily
experimental process of formation of a State, “the experiment must
always be retried; the State must always be rediscovered” (Dewey
1927, p. 33).
Futures (and S&T)
The narrative of Progress upholds an intimate connection between
scientific and technological advances and human, social advances. Such
is the classic contract or oath of Science, holding together truth and
be erment. And Research, as the term implies, is turned towards the
future in that one does not know exactly what one will find – and what
“the future holds”. Hence this duet lying ahead: on the one hand the
catastrophe, on the other hand the promise. And with this promise can
come dynamics of hype and hubris and a premium on constant novelty.
S&T are at the heart of the democratic state. In e ect S&T are at the
heart of the notion of legitimacy as the relation between the public and
the state. This powerful finding – dating back to Max Weber and even
Aristotle – has been compellingly documented in the work of James C.
Sco as well as Yaron Ezrahi86.
In fact the grand mobilizing visions – the “Man on the Moon” and
the “Cure for Cancer” and their likes – involve both the State and S&T,
together and all along.
The European Union as a body of bodies, having to compound with
its member countries, has found a peculiar stance with regard to this
commixing of Science and the State (Dratwa 2006, Muldur 2007, Dratwa
2011a). It has been characterized on the international scene by a careful
blend of technological development incitement and environmental
concern and protective mindfulness.
86
(Sco 1998, Ezrahi 1990). His is a characterization of the democratic state
as ceaselessly seeking to legitimate itself through scientific and technological
performances (e.g. large scale projects, “modernisations”, institutionalisation
of scientific expert advice).
244
Such contrastive approaches – habitually devolved to di erent
ministries or political leanings – have been embraced together, and
together with a commitment to openness. Furthermore, the EU
scene has fervidly embraced singular phrases (variably oxymoronic)
encapsulating these diverse strands, such as “sustainable
development”, “precautionary principle”, “responsible innovation”.
Now, having conceived of Europe, we will meet it in the flesh, on
the ground, to trace nanos’ progress not in the research lab but in the
research policy lab, at the European Parliament.
Nano stories
No big deal
I stride through the palatial yet labyrinthine corridors of the
European Parliament. March 2008 and I am going to a special hearing
at the Parliament – “Nanotechnology: threat or opportunity?” – set up
by a grouping of research and industry organizations.
The background paper for the seminar dramatizes the ma er
at hand as follows: “Nanotechnology is growing worldwide. Huge
investments are made by the USA, Europe and Japan, and new players
like China and India are joining in. Like other new technologies,
nanotechnology is the subject of great hope and fear. Proponents
envision revolutionized healthcare, consumer goods and construction
industries. Opponents show nightmare scenarios of self-replicating
nano-scale robots and a new asbestos crisis”.
Yet the main initial presentation – by the director of the
Nanotechnology Industries Association – o ers a much more benign
and irenic perspective. A gecko and a bu erfly. Lush foliage, graceful
creatures, beautiful pictures. The gecko lizard can climb walls with
great ease. The blue bu erfly shimmers with coruscate colours.
Such is the familiar yet dazzling beauty of nature. Such is the power
of nanoparticles (on the lizard’s toes and on the bu erfly’s wings).
Nanos – nanoparticles, nanomaterials, nanoproducts, nanosciences,
nanotechnologies – are nothing out of the ordinary. They are natural.
They are no big deal. They are all around us.
245
Here let us pause and stand vigil in silent memory of the GMOs
(genetically modified organisms) narratives whereby “this is nothing
new”, “we have been practising it (i.e. hybridization) for generations”
(salted to taste with “but how could you possibly have a respectable
view on the ma er, you who do not understand, you who know not
even that tomatoes have genes!”). And above all, “it is natural”.
The above underscores a particular historical narrative about the
emergence of nanos: as ahistorical, as having “always already” been
around. The classical account of their history, starring Feynman and
Taniguchi and Eigler (and sometimes also Rocco and Bainbridge as well
as the NNI, the United States’ National Nanotechnology Initiative),
with the various junctures of the emergence and development of
nanosciences and nanotechnologies, are addressed in other chapters
of this volume. Europe has its founding myths, demos and weidentity (Dratwa 2011a) – and so do nanos. As we will see, in fact, the
latest strands of these evolving narratives can even at times be actively
intermeshed. To that e ect we will proceed further ahead in time to
delve further back in history.
A big deal a er all
We begun at the European Parliament with the fable of the gecko
and the bu erfly (whose moral could be that “it goes without saying”),
dated March 2008 yet of times immemorial. Three years later, in March
2011, the Parliament having addressed a succession of formal questions
(following on its Resolution of 24 April 2009 on regulatory aspects
of nanomaterials) to the European Commission, the Commission
– custodian of the Treaties and of the European general interest – is
presenting its argument at another hearing. It goes as follows87:
“The markets for nanotechnology enabled products are expected to
grow rapidly, and the projected annual growth rates (between 16 and
46 %) are significantly exceeding those of other enabling technologies,
such as biotechnology. The upper end of these predictions imply a
global nanotechnology market value of USD 2.5 trillion by 2015 with a
potential for creating hundreds of thousands of new jobs”.
87
The series of arguments in inverted commas presented in this section (3.2)
are those that were presented on that occasion.
246
The opening statement sets the scene: growth, markets, jobs –
prediction and potential. It also positions nanotechnology alongside
its ill-fated sidekick, prodigal son or lost sheep, kindred spirit or
haunting figure: biotechnology. It’s presence or absence (like that of
asbestos and of the mad-cow crises, Dratwa 2004) is a key feature of
EU discourse on nanos. This name shall not be invoked in vain.
“Europe entered the nanotechnology race early. The European
Commission’s ‘Nanosciences and nanotechnologies: An action plan
for Europe 2005-2009’ (COM(2005) 243) has played a catalytic role in
influencing advances in nanotechnologies in ‘an integrated, safe and
responsible’ approach”.
Here it is the trope of the race which is introduced, bringing with it
images of leader and laggard, with the need to catch up or to maintain
one’s lead, and the notion that one cannot stop albeit for a moment.
Time, and all the others, are playing against us. On that backdrop, the
notion of responsible innovation/deployment/development/advances/
approach is called forth in the same breath as EU action.
“The global nanotechnology landscape today is not the same as it was
five years ago when the Action Plan 2005-2009 was conceived. The
emphasis has shi ed from basic research towards innovation, new
product development and commercialisation”.
“On the innovation front, competition by other global players
such as the US, Japan, Taiwan, and increasingly by China, is intense.
Despite Europe’s excellence in nanoscience, we have started to fall
behind the competitors in commercializing nanotechnology”.
Close on the heels of the race, the theme of the gap – preferably
widening and to be closed – opens onto the slump, the decline or the
fall. It is another incitement for mobilization.
“Europe’s enterprises, consumers and the society at large will miss
out on the opportunities provided by nanotechnology unless the
innovation gap is closed rapidly. Europe can not a ord to be relegated
into a technology follower status yet in another enabling technology
field”.
”Yet in another enabling technology field” reminds us that it is not only
the disillusionment with bio in the second half of the 2001-2010 decade
247
that marks the European vision of nano – it is also the disillusionment
with info in the decade’s first half. Indeed, se ing the goal for the EU
to become the most competitive knowledge based economy in the world
by 2010, the heads of state and government gathered in Lisbon for the
European Council of March 2000 had then placed their collective faith
in the internet bubble – just before its burst.
“However, technology leadership is a necessary but not a su cient
condition for nano-technology innovation to take root in Europe.
R&D e orts must be supported by a favourable policy environment
– ‘a world class regulatory system’ – which ensures high levels of
consumer, worker and environmental protection and creates a stable
and predictable environment for enterprises to invest and innovate.
Achieving world leadership in regulatory and standardisation e orts
would also give an important competitive advantage to European
industries. This however requires a strategic framework within which
EU would assert its position and negotiate a favourable outcome”.
The argument closes with an interesting exploration of di erent
avenues as regards regulation and consumer protection. “World
leadership” in regulation is thus beneficial in terms of consumer
protection; of innovation-enabling environment; and even of
competitive advantage. But then regulatory and consumer concerns
suddenly loose their shine in the face of the ratcheting-down argument.
Only loss awaits those who do not abide by the law of sheer speed.
“Consumer trust in nanotechnology products is a further pre-requisite
for nanotechnology innovation in Europe. As the GMO debate in
Europe has shown – no trust, no market. In order to avoid repeating
the mistakes made in handling the GMO debate, Europe must adopt
an open a itude stressing the true advantages of nanotechnology but
underlying the need for regulation where appropriate”.
“Nevertheless, the safety, regulatory and consumer concerns which we
have in Europe do not necessarily have the same weight in all regions
of the world that are investing in nanotechnology development.
Globally, the development of nanotechnology will surely continue
even if Europe would decide to apply the brakes. This would result in
loss of future markets, jobs and ultimately knowhow”.
248
Who controls the past controls the future
As we see on the field from the references to “avoiding repeating
past mistakes” and “the safety, regulatory and consumer concerns”
underpinning the “no trust, no market” syllogism showcased by the
GMO debate/debacle, the narrative is resolutely one of learning from
the past.
Hence the future – here the way the nano issue is to be tackled – is
infused with the past – here in particular what “the GMO debate in
Europe has shown”.
The future is infused with the past firstly in the sense that lessons
are drawn from past experience to be er face future challenges.
But, as we see, it goes much further: the future is conceived as
past. The Weltanschauungen forged through previous experiences are
those with which the future is conceived.
Secondly, thus, the future is mirrored on the past. When it is faced
“in the light” of the past, that “light” does indeed have the form of
past experiences. And by that light I mean here what is to be thrown
into sharp relief and what is le in the shade, what is illuminated and
what is not shone upon, the chiaroscuro.
The circle is complete – the Ouroboros metonymically eats its
tail – in the case at hand as the past story is retold, reshaped, to fit
the newly emerging challenge (or to be more precise, to highlight
particular features of a thusly identified challenge and of a proposed
course of action). Thirdly, in other words, the past is hence retrofi ed
to meet the future.
This is where the “no trust, no market” dilemma fully come to bear.
The “mistakes made in handling the GMO debate” are not only about
maltreating the public at large and botching “the safety, regulatory
and consumer concerns”. They are also about having failed to secure
“an important competitive advantage for European industries”, this
nebulous nexus of market shares, progress, jobs and growth: “the
opportunities provided”. And in this narrative it is that failure that
cannot be a orded.
249
Storytelling till the end
Before tacking stock – in the next section – of the “engagement”
strides in regard to the nanos’ strides, we should briefly review the
above from the perspective of nanos’ ontology and prospects.
In the gecko and bu erfly fable, nanos are part of life, part of our
nature, nothing to worry about.
In the canonical story, they are an exciting and promising domain
of inquiry and innovation; a rising, enabling, rewarding new world.
In the “ethical, legal and social issues” (ELSI) or “ethical, legal and
social aspects” (ELSA, which I will use for short) narrative, they are
an emerging breed, rich with potential, carrying potential benefits as
well as risks; yet for all to go well they must be tamed and propitiated,
which takes deliberating, which in turn takes time and good will.
But wait a moment : they are already here! The latest estimates88
have identified over 1200 products containing nano-materials currently
on the market. From sunscreens to electronic devices, from paints and
coatings to food and beverages, in Europe too, they sit without any
fuss on the shelves.
While some were busy telling the story – and others busy listening –
nanoproducts have peacefully crept onto the market, on our skins, in
our mouths, all around us. Gecko and bu erfly.
Taking stock
On the one hand, a remarkable change must be acknowledged
and celebrated as regards the way emerging technologies are now
handled in many societies. No pasarán. The mobilisation against a
wave of GMOs due to “terminate” a host of other forms of life (be they
conceived as land use, biodiversity, individual plant or animal species,
rural livelihoods, independent cultivation practices or geopolitical
assemblages) has succeeded in averting a particular set of looming
futures.
88
See h p://www.nanoshop.com/ and h p://www.nanotechproject.org/
inventories/, last accessed 30 November 2010.
250
Another world was possible – and another world has come to
pass.
That is the story with GMOs and we now consider nanos: a
remarkable change must be acknowledged and celebrated as regards
the way nanosciences and nanotechnologies have been surrounded
–padded or indeed “aggrandized”– by a host of reflections and
deliberations, of precautions and double-checks (with considerable
mobilization of social sciences and participatory exercises), notably
under the head of “responsible development”.
One of the chiefest achievements has been the unscrewing of the
“scientific certainty” Leviathan. At the very least, to avoid acting on
a false sense of scientific certainty is undeniably a move away from
irresponsible practices in many instances.
On the other hand, however… Well on the other hand there is
a thin layer of sunscreen which I only now realize contains nanoparticles.
So first of all we should pay tribute to the thinking, the
sophistication, the learning (Stilgoe 2007), the lesson-drawing.
And then second of all, right now, we should pursue a more
interrogative reflection: on ethics and social sciences engagement
as well as on public engagement. Taking stock, what have been the
achievements of this engagement.
Lip service
While the cat is (blabbing) away…
As indicated above, e orts to involve stakeholders and citizens
at large have multiplied in a wide process of “democratizing S&T”
and “bringing S&T into democracy”, and the challenges of scientific
uncertainty for S&T policy (and for public policy more broadly)
are increasingly recognized. Indeed this evolution is particularly
remarkable with regard to nano-S&T.
Yet at the very same time that this “nice story” was unfolding,
products based on nano-S&T were entering the market! Dynamics of
251
innovation and commercialization were largely going on blissfully
una ected by – albeit not unaware of – this razzamatazz.
Nano could o er the actualization – in practice and on a grand
scale – of a “thing”, a ma er of concern, in the “thing”, the multifarious
set of hybrid forums a uned to hammering it out (Dratwa 2002). A
Parliament of Things (Latour 1991, Latour 1999a, Latour 1999b) or more
humbly a collective appraisal bringing together – rather than keeping
apart – risk assessment and technology assessment and foresight,
integrating appraisals of available knowledge (including knowledge
production, validation and policy use) and a diversity of deliberative
approaches extending beyond the “grand unifying schemes” of policy,
thus comprising a persistent (rather than caducous or spasmodic) and
evolving review of alternatives – that is, of alternative futures (Dratwa
2002). But as it happens, the collective experiment with nanos had
deficient rules of procedure (Latour 2004, Dratwa 2011b).
In e ect nanos have entered our world – indeed entered the
market – in absence of much debate about social desirability. This
must stand as the gravest criticism of the “engagement” (ethics
and social sciences engagement as well as public engagement). The
proverbial cat was there we were told, and yet while there has been
much blabbing away, the mice have gone on playing.
From always too early to never too late
Repeated critiques of the NNI in the 2001-2010 decade pertained
to its slow response to considering nanos’ environmental, health
and safety (EHS) risks. The NNI did not begin to fund EHS research
in a concerted way until 2005 and, another half-decade on, it now
presents its reaction to this initial failing as one of its great learning
achievements. ELSI research, however, was integrated into the funding
early on, building on practices from the Human Genome Project.
Echoing classic law-lag discussions with regard to emerging
technologies (though too rarely drawing upon the co-production line
of reasoning and of inquiry (Jasano 2001, Latour 1991, Dratwa 2002)),
many ethical analyses of nanos have addressed the misconception that
it is too early days, too upstream, “too soon to tell what the social and
ethical issues are” (Sandler 2009, p.6).
252
Yet the focus on refuting that notion leads to this: “Every emerging
technology o ers us a new opportunity to engage stakeholders in a
social and ethical debate. The nanotech revolution is still beginning
and we still have time for an open and public discussion of its
consequences…” (Rejeski 2009).
The overarching leitmotiv in that analysis, the prime target of
rebu al, is the notion that “it’s too early to discuss ethics”, too early to
engage, to deliberate. So much so that in fact – as showcased in the
quote above – the main message ends up being that “it’s never too
late”. But at some point it is. Nanos are here now.
Diverse rationales for engagement
It is useful to recognize that nanos policy in the EU contends with
a triple set of tenets, three drivers or desires: participation, precaution,
and penetration (i.e. penetration of new products, in new markets, if
not in our houses and bodies and cells; building on innovation with its
associated promises of market shares, growth and jobs, and new ways
to address societal challenges).
These divergences (trade-o s or irreconcilabilities), as highlighted
in the long excerpt above, help understand the positioning of EU action
with respect to nanos. In view of the initiatives launched to date (while
in the absence of new legislation on novel foods for instance), it can
broadly be captured by the “so law” catch-all. However, considering
the fact that choices are not e ected – and preferences or priorities
not assigned – between the di erent motives (such as the three values
distinguished above), it is more elucidating to talk of a regime of
action which appertains to the oxymoron or to the interstice.
On this backdrop, within the EU as well as beyond, there are
diverse rationales for (funding) public engagement and ELSA research.
From the seemingly simplest to the lo iest, they can be summarized
as follows: being able to claim that it was done (which, at its basest,
already constitutes a concession, a recognition that it ought to be done);
ge ing “buy-in”, i.e. acceptance, acquiescence, quiet acquiescence,
public understanding of science, trust; ge ing “buy-in” in terms of
market, in terms of users; and then the rate of rationales which can
be set under the head of “doing things right” (issues of taking into
253
account, of listening to the voices and making them heard, of layexpert divides, of democratizing S&T, of social and environmental
and epistemic justice).
The nanos experiment, it is important to note, was seen early
on as a fantastic experiment in co-production. For ELSI and STS
scholarship this seemed a golden opportunity to participate, not only
to gain “access to the field” and to come in early and upstream in the
process, but also to lend reflexivity to emerging forms of research and
governance (Macnaghten 2005, Kearnes 2006) and indeed to engage
in the co-production (Jasano 2001, Jasano 2011) of science and
social order. But they were to face far more zealous co-productionists
then themselves. In 2001 already, Mihail C. Roco and William Sims
Bainbridge envision – under the head of Strategies for Transformation –
an ambitious programme of nano (and social) engineering under
which social sciences are o ered an important role in preparing and
monitoring society in its necessary transformation (Roco 2001)89.
This diversity of rationales is a crucial consideration to bear in
mind when probing – and going for – such engagement (cf. also
Stirling 2008).
Lips at your service: di using and defusing
It is a crucial consideration notably in view of the fact that the
situation is direr than an “ine ectual engagement” would imply.
Indeed it now clearly appears (Kearnes 2009) that this engagement
(this mobilization of social sciences and professional ethics as well as
of public participation) has enabled technological development rather
than constraining it, facilitated technological development rather than
complicating it.
This brings us beyond the initial critique (what is the point of
all this mobilization, of all this engagement, if it makes no change,
if the nano-products come in regardless). This brings us beyond “no
change”: engagement has actually been a facilitator for unhampered
89
Also to note as part of this programmatic appeal: “We must find ways to
address ethical, legal, and moral concerns, throughout the process of research,
development, and deployment of convergent technologies. This will require
new mechanisms to ensure representation of the public interest in all major
NBIC projects (…)” (Roco 2001, p. 8).
254
technological development, a means to pursue and expand businessas-usual.
In other words engagement can be instrumentalized to foster the
di usion of nanos, laboriously making good on the inept promise
of the “di usionist model” of innovation (rebu ed in Latour 1987),
that of an unproblematic free-flowing roll-out of innovations through
society.
Finally thus, engagement can be instrumentalized in order to
defuse controversy (rather than enriching it) and dissensus (rather
than eliciting it).
Tightness of framing
Nanoscale or big picture
I have analysed elsewhere the setup of political and cosmopolitical
epistemologies (Dratwa 2007a, Dratwa 2008), showing in particular
how the risk frame proceeds in pruning dishevelled rhizomatous
issues to construe them – and “treat” them – as risks. There the coin
of the realm, the decision, is premised on the carving and divides, the
incisions.
The ontology of issues or controversies, tangled and rhizomatous,
does not fit neatly in such tight frames (thus requiring various
measures of cu ing, disinvolving, or obfuscating to be held in; and
conversely, allowing the inquiry to test and escape the frames). Yet if
they are too narrowly construed, issues themselves can also produce
e ects of cu ing, disinvolving, and obfuscating on the inquiry. And
ELSA scrutinies of nanos have too o en, adhering to that intrinsic
“nano-S&T” frame, failed to extend to questions about science policy
or the research agenda more broadly (about agenda-se ing and the
organization of diverse – or competing – priorities and of diverse
principles and values).
Nanoscale but great divides
Indeed the “engagement” (the mobilization of ethics and social
sciences as well as public engagement) has o en re-enacted the classic
255
modern division – and division of labour – between science and
society, nature and culture, facts and values. Simply put: scientists do
the science and the others do the talking around.
This is how the funding for ELSA was organized and justified. This
is the role in which the “engaged” were cast and which they accepted
and dutifully performed.
Great divides and the actors themselves
It is important to underscore that these great divides have not
been an extraneous world-view or a tenuous ether in which the
“engagement” was set – they have marked the division of labour
on the ground, in research teams and collaborative projects. Akin to
embedded journalists during the 2003 invasion of Iraq, ethicists and
social scientists were embedded in nano-S&T research teams. And on
the ground, whether spoken or not, the practical questions arise: are
you one of us? Are you with us or with them? And do you want to be
invited again? Take a moment and think of this situation.
In such a se ing, the embedded o en succumbed to the “lure
of the yes”. Between sense of belonging and sense of betrayal, the
ethicists’ ethics would lean towards the facilitator position discussed
above: tackling the hurdles on the way rather than eliciting “no’s” to
development.
This role-based predicament sheds a di erent light on calls for
“communication and deliberation between all actors” with respect
to responsibilities concerning nano-S&T. Indeed there may only be
a limited potential for negotiation of responsibilities because the
sectors, the disciplines, the roles themselves are made the platform for
the deliberation. In other words this is a framing where renegotiation
of one’s role; emancipation from one’s role; merely questioning one’s
role, one’s job description; and thinking as oneself, as an individual
are made impossible, or “frame-breaking”, or a betrayal.
256
Conclusion : alternatives to the inevitable
Despair
Let us go back to the future, the vision, the promise. In the nanos
collective experiment to date, ethics and social sciences have been
enrolled to patrol the rims of the promises, the “applicability of the
applications”. ELSA has flourished and nanoethics has developed as
a discipline through classic dynamics of professionalization (journals,
societies, funding, etc). All the while, ELSA research has focussed
on its invariable checklist (risk assessment, cost-benefit, safety and
security, privacy and individual freedom, human enhancement, social
justice) and the a endant illusion of tractability and all-embracingness.
ELSA has not questioned the credibility of the promises, let alone the
preferences and imaginaries fuelling their formulation. Ethics in this
situation has been reduced to a utilitarian cost-benefit calculation,
to a consequentialism lending credence to the promises it should
have questioned, even turning improbable futures into irrefutable
necessities, if not reduced to a “problem-solving” ethics tasked to
pave the way for technological roll-out and societal change.
The emergence of the notion of “responsible nanotechnology
development” parallels the troubled relation with the troubled past
discussed above with nano and bio at the European Parliament. As
formulated crisply on the other side of the Atlantic, the idea was to
“get it right, this time” (in terms of integrating societal studies and
dialogues) “from the very beginning” (Roco 2001). In his address on
“Responsible nanotechnology development” at a workshop organized
by SwissRe in 2004, this was the ethical creed professed by Philip
Bond, the US Under-Secretary of Commerce: “Given nanotechnology’s
extraordinary economic and societal potential, it would be unethical,
in my view, to a empt to halt scientific and technological progress
in nanotechnology” (Bond 2005). As regards the finesse of the G. W.
Bush administration in plying the precautionary principle (Dratwa
2007a), it should be noted that the above proposition consists in its
rudimentary reversal, or rather in a very rudimentary cost-benefit
analysis where one side of the ma er eclipses any others (in this
respect, see the discussion of EU and US “no regrets” policy and error
types in (Dratwa 2007a)). More balanced presentations cannot dispel
the notion’s unresolved ambivalences. Consider the appreciation in
257
the National Research Council’s 2006 review of the NNI: “Responsible
development of nanotechnology can be characterized as the balancing
of e orts to maximize the technology’s positive contributions and
minimize its negative consequences. (…) It implies a commitment to
develop and use technology to help meet the most pressing human
and societal needs, while making every reasonable e ort to anticipate
and mitigate adverse implications or unintended consequences”
(NRC 2006, p. 73). The characterizations of responsible development
consist in a juxtaposition of “the good” (or the benefits) and “the bad”
(or the costs or risks). As above, some have gone as far as presenting
these as trade-o s. The prioritizations between competing values,
however, were well avoided (and yet, in the quote above for instance,
they are clear: the “maximization” and the “commitment” come
first). It is also striking to see how these formulations corresponded
to restricted ethical approaches, premised on consequentialism and
utilitarianism.
This only added further strength to the running narrative positing
the inevitability of new technological developments.
Building on the leitmotivs of Progress and with the resources
examined above (race, gap, need, promise, if-not-us-then-themanyway, responsibility, learning, markets and jobs and addressing
societal challenges notably), new technological developments were
not only posited as inevitable but as inevitably good.
“Responsible development” itself looms as an irresistible inevitable
“strange a ractor”, a dark hole which no alternative thought or step
back can escape. Who is against it? Whereas social justice or the
precautionary principle can be termed “essentially contested concepts”
– in that they are concepts whose very essence is to be contested,
subject to dissensus and elicitation – responsible development can
rather be termed an “essentially uncontested concept”. It is posited
as an unproblematic desirable goal, self-evident and incontrovertible.
The oxymoron which once haunted sustainable development does
not come to bear here – the “engaged” are already on board. However
unwi ingly, they have walked right into the participation trap.
As to the “involved citizens”, the few that were enrolled found
themselves framed in various formats of participation, deliberation,
and aptly named “consensus conferences”. On this backdrop, lack of
258
“uninvited” (by the public – and private – authorities) or “unintended
participation” was also to be deplored (cf. Wynne 2007, Doubleday
2011).
This lack of uninvited public engagement parallels the domination
by organized exercises of the new demand for public inclusion
(exercises themselves organized and dominated by a handful of
specialized institutions such as Involve and Demos in the UK), while
“upstream engagement” was explicitly recommended (in RS/RAE
2004) in the context of responsible development to anticipate in the
present – indeed defuse – “possible futures controversies which can
be resolved through consensus building” (Doubleday 2007, p. 169).
These participation exercises were premised on consensus and
operating as manufactories of “reasonable” (i.e. favourably disposed)
citizens. Indeed Javier Lezaun and Linda Soneryd have shown how
the norm for those organized exercises consisted in searching not
for involved and interested citizens but for uninterested participants
(Lezaun 2006).
STS has also been enrolled in this embedding, with ELSA and
without. On other terrains, STS (science and technology studies – or
science, technology, society) scholarship has documented how scientific
controversies allow to re-open the black boxes of science made, as
well as how fruitful they can be for the advancement of scientific
knowledge. Likewise, these public or societal controversies can be
learning processes in at least two important respects. Firstly, they
lead to the production and confrontation of new knowledge (from
a variety of scientific disciplines as well as from “lay experts”), to
the investigation of known unknowns, the recognition of unknown
unknowns, or the taking up of unknown knowns (on this typology
of knowns and unknowns, see (Dratwa 2007a)). Secondly, they
allow learning as to setups of expertise and decision making by
opening the black boxes of decisions made, the black boxes of
known knowns and framings and implicit assumptions, thus
bringing these to the fore and requiring a work of explication, of
acknowledgement, of justification, and probably of reworking. In
contrast, in the case of nanos’ emergence, black boxes have taken
shape around S&T – and public policies – still very much in the
making, building on the regime of the promise (with the notable
aid of professional ethics reifying those envisioned futures so
259
as to find a grip for its consequentialist analyses). But STS must
now continue and resist with its own strengths, the attention to
the practices, to what takes place on the ground, to the actors
themselves – the dynamics at play in the policy lab as well as
the research lab – as well as to the “things”, the “pragmata”, to
the very processes and products which those actors imagine and
develop.
A political ethnography of silences, obfuscation, absences,
exclusions and preclusions as well as emergences. This is what STS
has always meant to me as I learnt the ropes, engaging in it and
reflecting upon it with Isabelle Stengers, Bruno Latour, Michel Callon,
Sheila Jasano , Andrew Barry, Arie Rip, Andy Sterling, Brian Wynne,
Pierre-Benoît Joly, Les Levidow, Silvio Funtowicz, Paras Caracostas,
Nicole Dewandre, Angela Liberatore, Shobita Parthasarathy, Jessie
Saul, Josh Greenberg, Javier Lezaun, Fabian Muniesa, Vincent
Lepinay, Dominique Linhardt, Albena Yaneva, Noortje Marres, Emilie
Gomart, Valérie November, Christelle Gramaglia, Olivier Thierry,
Martin Rémondet, Cédric Moreau, Ariane Debourdeau, Eleonore
Pauwels, Edwin Zaccaï, François Mélard, Kaushik Sunderrajan, Jay
Aronson, Rob Doubleday, David Winicko , Jeanny Reardon and so
many others. A sociology of divergences and emergences, a tracing
and a tracking, an inquiry into ma ers of fact and ma ers of concern,
a choreography and an ontology, a study of disentanglements and
articulations. A thing of a achments.
So the question has to be asked of the nano-endeavour in all its
diversity: what does it make possible? (What does it bring to light and
what does it shadow, which possibilities – which worlds – does it open
up and which does it foreclose? (Barry 2001, Stirling 2008, Dratwa
2008)). And the same question has to be asked of the “engagement”
as well90.
A salient issue in this regard is the question of commodification,
merchandization, privatization – the “selling out”. The “selling out”
90
Have we, have ethics and the social sciences, fallen prey to a diversion,
to a lure, to a wholly di erent form of participation trap ? Indeed besides the
participation trap associated to specific participatory exercises, we should
also point to a meta-participation-trap (and to the overarching “lure of the
yes”, i.e. the “yes” to collaboration itself) in terms of buying into – and thus
granting credibility and sustenance to – the “responsible and participative
governance of innovation” discourse (and setup).
260
of life, of the state, of one’s – or others’ – soul, of S&T, of Progress,
of values, of the past and the future, of knowledge, of the nanoscale.
At play here is the appropriation of our imaginaries, of our desires,
reduced to possessing, to amassing, to purchasing, to discarding, to
destroying, to “consuming”. Such is the ceaseless consumption and
termination of the new, of the future – even of the self. This constitutes
what I call the “scorched earth” polity (Dratwa 2011b) or cosmogram,
mobilizing every instrument and resource (from Freudian theory to
viral marketing) in the endeavour of reducing and commandeering
our desires, our imaginaries, our futures.
The other ma er in this regard, its correlate, is resistance. And
where would the resistance – the alternatives – come from?
Not only from STS and other social scientific and ethics research
as indicated above but also from the researchers themselves, from
citizens at large, from each and everyone of us – and ultimately from
the “things” themselves that have a nagging tendency to resist the tight
and smooth frames in which they are set. What had been hidden from
sight is becoming increasingly blatant and – as it should – unbearable.
That is the case for S&T innovation as well as for innovation in
financial products (in terms of commodification and securitization),
for engineering – genetic, nuclear, geo... and nano – as much as fiscal
engineering. Legerdemains of influence and control, interest captures,
political machines, organized irresponsibility or powerlessness, venue
shopping, ratcheting down (or sheer dismantling or detaining) of
regulation, and the capture of value(s). Earthily put: the fact that some
are to pay – and pay dearly – for the reckless follies of others.
The last 15 years, with the turn of the century from bio to nano91,
has been marked by a flurry of activity in science governance, and
more specifically by a strong and increasing take-up in EU institutions
of STS inputs and insights regarding the relationship between science,
society and policy. It is not clear exactly how much this had to do with
the narrative of GM debacle, needing to learn, and the advent of nano.
But it clearly had to do with key civil servants-cum-academics within
the European Commission (themselves trained in STS), who adverted
and roped in those thoughts and thinkers (cf. Caracostas 1997, EC
2001, Muldur 2007, Felt 2007).
91
Not allowing this stenography to undervalue the importance of technological
convergences – nor indeed the rise of (nano-)synbio.
261
Hope
We acknowledged and celebrated a remarkable change as regards
the way emerging technologies are now handled in many societies. No
pasarán. The mobilisation against a wave of GMOs due to “terminate”
a host of other forms of life has succeeded in averting a particular set
of looming futures.
Another world was possible – and another world has come to pass.
But the celebration, albeit in order, is far from untarnished.
Learning has taken place, in every quarter, and now new technologies
are knocking on the door (or indeed coating it already).
More care, more precaution, more deliberation, more service (lip
and otherwise) being paid. It seems that indeed juggernauts can no
longer roll out una ended. They come along with a whole throng of
flag-bearers, scouts, interpreters and palm leaf wavers. They come in
peace. The path they thread is rich with speed bumps and forks and
scenic points.
Juggernauts can no longer roll out una ended. Unless they are
very very small, that is.
The basest framing of the organized “engagement” is that it is
premised on consensus and on the decisionist model (Dratwa 2008).
We have seen how the leitmotiv of the participation trap weighs on
the “engagement”, as regards the public at large, ethics and the social
sciences, and individual researchers that are embedded and confined
to a given role. Here it is useful to conceive of responsibility as
recalcitrance, recalcitrance with regard to instructions or to an imposed
disciplinary, sectoral, institutional, profession- or role-dictated “logic
of appropriateness”92.
There is an increasing realization in professional ethics regarding
the limitations of ELSA. Rather than focussing on risks and costs and
benefits, ethics is to reflect on how these are and can be distributed.
More than that, rather than tackling hurdles standing in the way of
further technological development, what ethics and social sciences
are embarking upon is a far-reaching inquiry on what future we
92
For an exploration of the diverse meanings of responsibility in the EU
context and beyond, cf. (Dratwa 2008, Eberhard 2008).
262
want to live in together, how that vision can be constructed, and
how that future can be constructed. This endeavour is rooted in
the “things” themselves, the objects of nano-research with their ins
and outs rousing the practices and practicians to which the inquiry
pertains on the ground. This endeavour is also rooted in values (of
researchers, of agenda-se ers, of all of us together) in a triple sense:
that of a deliberation on “our common future”, on what do we value
(or care for) and how, on our values, explicit and implicit; that of
individual reflexivity, questioning, evaluation and valuation; and
that of the commixing of facts and values that is those very “things”
(what values do they embody and do they convey, what worlds do
they make possible and do they foreclose) (cf. also Dratwa 2007b)93.
L’imagination au pouvoir means above all that our imaginaries and
alternatives – our futures – cannot be entrusted to the few, whatever
their lab, whatever their intentions.
Human enhancement, military applications, grim wildcards
should all be embraced in the valuation, but not confiscate the
imaginaries and h ack the a ention away from what is actually going
on on the (research and research policy) lab floors.
Here again we must draw lessons from the big lure, from the metaparticipation-trap, and recall the curious disconnect between the plethora
of nano-enabled products on the market and the debates focussed on
objects that are not only far from reality but also conjured up by the few
rather than the many. This can thus be developed succinctly in a series of
three incitements or safeguards: hegemonic risk discourses cannot be let
to crowd out reflections about desirable goals; neither catastrophic threats
nor beguiling promises can be let to crowd out alternative imaginaries
(alternative science – and other – fictions); and the envisioning of the
future, especially when it tends to become absorbed in forecasting and
back-casting utopian/dystopian visions, cannot be let to crowd out the
here and now (just like a ention to future generations cannot be paid in
the ignorance of present generations, however absent).
93
It is in that perspective that innovation needs to bring “added value” and
that it ought rightly to be termed a “creation of value”. Be it under the head
of co-production or users’ involvement, S&T innovations can and should o er
those who are in contact with – or a ected by – them “handles” or means of
(re)appropriation. Such was the great failing in the GM case, epitomized by
the terminator figure, where value(s) were captured by the few. Indeed such is
the darker side of “collective experimentations”, with the imbalances between
the experimenters and the experimentees.
263
As regards “responsible development”, policy statements posit it
as the adopted approach or as an achievable good state to be a ained
through deliberation among all actors, public participation and social
sciences’ “engagement”. In either case, it is presented as desirable and
unproblematic. But in fact it should be questioned in every way. Firstly
as regards its achievability: it is be er to see it as a constant struggle
(if not puzzle), a constant call to reflection and a ention, a horizon.
Secondly and more fundamentally as to its substantive implications:
what is its actual meaning and what are the practices that it hosts
(and who, if anyone, does it hold to what account). Thirdly and most
radically as to the drivers and desires which underpin it: who wants
this and why? Is this what we want?
Responsible innovation, and in particular the responsible
development of nano, cannot be taken to imply a form of responsibility
extended to all (which is to say, to no one); it cannot be taken to convey
the advent of nano’s benefits without their risks and the equitable
distribution of those benefits throughout societies (“good nano for
all”94); it cannot be taken to resolve the twin predicament of Weber’s
ethics of responsibility (the intractability of consequences and the
disjunction between actual answerability and future answerability
(i.e. the intractability of those to answer to)). Quite the contrary, it is
precisely about recognizing the aporetic nature of these three claims,
about recognizing that these promises cannot be made good on.
And indeed it is one of the main achievements of the current
debates on emerging technologies – in STS, in ELSA, and in the science
policy community at large – to have led to the increasingly widespread
recognition of these limits. This represents a valuable step back from
the ultimate promise, a step back from the brink. And a move towards
precaution, towards the acute awareness of the doubting alongside
the acting.
94
To quote and pay tribute to the key concern highlighted on the front
page of Upstream Nano, the email list for public engagement research on
nanotechnology, h p://upstreamnano.wordpress.com/about/ last retrieved 30
November 2010.
264
Références
Barry A., Political Machines: Governing a Technological Society, London,
The Athlone Press, 2001.
Beck U., Gegengi e: die organisierte Unverantwortlichkeit, Frankfurt am
Main, Suhrkamp, 1988.
Beck U., Giddens A. and Lash S., Reflexive Modernization: Politics, Tradition and Aesthetics in the Modern Social Order, Cambridge, Polity
Press, 1994.
Bond P.J., “Responsible Nanotechnology Development”, in Swiss Re
(ed.), Nanotechnology: ’Small Size – Large Impacts ? ’, Zürich, Swiss
Reinsurance Company, 2005, pp. 7-8.
Caracostas P. and Muldur U., Society, The endless frontier, Luxemburg,
OPOCE, 1997.
Dewey J., The Public and its Problems, Athens, Ohio University Press,
1927.
Doubleday R., “The laboratory revisited: academic science and the
responsible governance of nanotechnology”, Nanoethics 1(2),
2007, pp. 167-176.
Doubleday R. and Wynne B., “Despotism and democracy in the UK:
experiments in reframing relations between the state, science and
citizens”, in Jasano S. (ed.), Reframing rights: constitutional implications of technological change, Cambridge, MIT Press, 2011.
Dratwa J., “Taking Risks with the Precautionary Principle: Food (and
the Environment) for Thought at the European Commission”,
Journal of Environmental Policy and Planning (Special Issue on Risk
and Governance) 4(3), 2002, pp. 197-213.
Dratwa J., “Social learning at the European Commission and the Codex Alimentarius”, in Reinalda B. and Verbeek B. (eds.), Decision
Making within International Organizations, London and New York,
Routledge, 2004.
Dratwa J., “Risque, Rixe, Rhizome : Guerre et Paix avec l’Analyse des
Risques et les Organisations Internationales”, in Kermisch C. and
Ho ois G. (eds.), Techniques et Philosophies des Risques, Paris, Vrin,
2007a.
Dratwa J., “Analysing public policies for research and innovation: adding value with Europe”, in Piech K. (ed.), Knowledge and innova265
tion processes in Central and East European economies, Warsaw, The
Knowledge & Innovation Institute, 2007b, pp. 63-82.
Dratwa J., “Public Action and Collective Experimentation: What Europe Through Proof?”, in Eberhard C. (ed.), Traduire nos responsabilités planétaires, recomposer nos paysages juridiques, Bruxelles,
Bruylant, 2008, p.377-405.
Dratwa J., “Analysing Community Policies”, in Muldur U. et al. (eds.),
European Science And Technology Policy, London, Edward Elgar,
2009, pp. 87-103.
Dratwa J., “Representing Europe with the Precautionary Principle”,
in Jasano S. (ed.), Reframing rights: constitutional implications of
technological change, Cambridge, MIT Press, 2011a.
Dratwa J., “Doublethink, the strength of ignorance, and controlling
the past: Alternative Collective Experiments and Cosmopolitical
Epistemologies”, in Eberhard C. (ed.), Le courage des alternatives :
perspectives juridiques et philosophiques - The courage of alternatives:
legal and philosophical perspectives, Bruxelles, Bruylant, 2011b.
Dratwa J. and Muldur U., “Impact Assessment: What For?” – “Analyse d’Impact : Pour quoi faire ?”, Cahier du GRASPE (Groupe de
Réflexion sur l’Avenir du Service Public Européen) 8, 2006.
European Commission (EC), White Paper on European governance,
COM(2001)428, 2001.
Ezrahi Y., The Descent of Icarus: Science and the Transformation of Contemporary Democracy, Cambridge, Massachuse s, Harvard University Press, 1990.
Felt U. et al., Taking European Knowledge Society Seriously, Report of
the Expert Group on Science and Governance to the Science, Economy and Society Directorate, Directorate-General for Research,
European Commission, EUR 22700, 2007.
Jasano S., “In a Constitutional Moment: Science and Social Order at
the Millenium”, in Joerges B. and Nowotny H. (eds.), Yearbook of
the Sociology of Sciences, Dordrecht, Kluwer, 2001.
Kearnes M., Grove-White R., Macnaghten P., Wilsdon J. and Wynne
B., “From Bio to Nano: Learning Lessons from the UK Agricultural Biotechnology Controversy”, Science as Culture 15(4), 2006,
pp. 291–307.
Kearnes M. and Rip A., “The Emerging Governance Landscape of Nanotechnology”, in Gammel S., Lösch A. and Nordmann A. (eds.)
266
Jenseits von Regulierung: Zum politischen Umgang mit der Nanotechnologie, Berlin, Akademische Verlagsgellscha , 2009.
Latour B., La science en action : Introduction à la sociologie des sciences, Gallimard, Paris, (1995) [1987 for the US edition], 1989.
Latour B., Nous n’avons jamais été modernes, la Découverte, Paris, 1997
[1991].
Latour B., “Esquisse d’un parlement des choses”, Ecologie politique 10,
1994.
Latour B., “Moderniser ou Ecologiser ? A la recherche de la ‘septième’
cité”, Ecologie politique 4(1), 1995.
Latour B., Politiques de la Nature, la Découverte, Paris, 1999a.
Latour B., Pandora’s Hope, Cambridge, Harvard University Press,
1999b.
Latour B., “From ‘ma ers of facts’ to ‘states of a airs’: Which protocol
for the new collective experiments?“, in Schmindgen H., Geimer
P. and Dierig S. (eds.), Kultur im Experiment – Experimental Cultures, Berlin, Kulturverlag Kadmos, 2004.
Lezaun J. and Soneryd L., “Government by Elicitation: Engaging Stakeholders or Listening to the Idiots?” Discussion Paper No. 34,
London, CARR, London School of Economics, 2006.
Lezaun J. and Soneryd L., “Consulting citizens: technologies of elicitation and the mobility of publics”, Public Understanding Science 16,
2007, pp. 279–297.
Macnaughten P., Kearnes M. and Wynne B., “Nanotechnology, governance and public deliberation: what role for the social sciences?”,
Science communication 27(2), 2005, pp. 268-291.
Muldur U. et al., A New Deal, The Hague and New York, Springer,
2007.
National Research Council, A Ma er of Size: Triennial Review of the National Nanotechnology Initiative, Washington, D.C., National Academies Press, 2006.
Rejeski D., “Preface”, in Sandler R., Nanotechnology: The Social and Ethical Issues, Washington DC, Woodrow Wilson International Center
for Scholars, 2009.
Roco M. and Bainbridge W.S. (eds.) Societal Implications of Nanoscience
and Nanotechnology, Boston, Kluwer, 2001.
267
Royal Society/Royal Academy of Engineering (RS/RAE), Nanoscience
and Nanotechnologies: Opportunities and Uncertainties, Report from
the Royal Society and the Royal Academy of Engineering, London, 2004.
Sco J., Seeing Like a State: How Certain Schemes to Improve the Human
Condition Have Failed, New Haven, 1998.
Stirling A., “’Opening up’ and ‘closing down’: Power, Participation,
and Pluralism in the Social Appraisal of Technology”, Science,
Technology & Human Values 33, 2008, pp. 262-294.
Stilgoe J., Nanodialogues — Experiments in public engagement with science, Demos, London, 2007.
Wynne B., “Public Participation in Science and Technology: Performing and Obscuring a Political-Conceptual Category Mistake”,
East Asian Science, Technology and Society 1(1), 2007, pp. 99–110.
268
The quest for the “right” impacts
of science and technology.
An outlook towards a framework for
responsible research and innovation
René von Schomberg95
Introduction
In this contribution I will proceed by placing Technology Assessment
within the context of a broader societal quest for the “right” impacts
of science and technology and the imperative of governmental bodies
to make “impact assessments” part and parcel of the planning and
justification of their major activities. I will do that from a European
perspective. The basis of a systematic use of various assessments and
foresight will pave the way for a framework for responsible research
and innovation on which I will make a proposal.
In the context of European policy making, Technology Assessments,
ideally, have to merge with other types of impact assessments, now
the success or failure of major public policies increasingly depend on
anticipated impacts of chosen scientific and technological options.
Practically, this merging is taken place, both driven by a «policy pull»
for impact assessments and by the practice of «assessors» itself. This
can be illustrated as follows:
1. The European Commission has to deliver general impact
assessments on all its major legislative proposals within the framework
for be er regulation since the year 2000. This includes also ex-ante
impact assessments for the Framework Programmes for Research.
These impact assessments include among other, social, environmental
and economic impacts. These circumstances also bring in focus the
interwoveness of Technology Assessment with broader impacts:
results of Technology Assessments can and should, namely, feed into
impacts assessments of prospective, planned research activities. There
95
European Commission
269
is in other words, a certain «policy pull» to merge and use impact
assessments of various nature.
2. In the tradition of Technology Assessment, there has been
a preoccupation with assessing the intended and non-intended
consequences of the introduction of new technologies. TA practitioners
had, in order to be able to deliver such assessments, increasingly to
interfere with or work together with academic work relating to other
assessment activities such as environmental and sustainability impact
assessments. Vice versa, those who were engaged with sustainability
assessments or even with public policy evaluation or broad impact
assessments of important legislative proposals cannot ignore the
role of science and technology and had to turn to the outcomes of
technology assessments. In other words, the practices of «assessors»
already show a certain interwovenness of the various assessments.
The «policy pull» dimension has, however, a reconfiguring
impact on the «type» of impacts we wish to assess. Whereas
technology assessments have traditionally addressed the “negative
consequences” in terms of risks and adverse e ects of technologies,
the focus of a ention within policy is predominantly to demonstrate
potentially positive impacts of future outcomes of public policy
including research policy. «Negative impacts» are dealt within the
context of broader cost-benefit analysis or within specialized fields of
policy, such as risk management and risk assessments. The quest for
positive or the «right» impacts is a much more overarching feature
of public policy. This brings us naturally to the question: what are
the «right» impacts and how can policy legitimately pursue this quest
for the «right» impacts? The subsequent question is then of course
how these impacts should be assessed on the basis of various impact
assessments including technology assessments. In the following, I
will answer these questions and how they can be tackled within a new
framework for responsible research and innovation.
Defining the “right” impacts of science and technology
policy
Some philosophers of technology have recently argued that science
should move beyond a contractual relationship with society and join
270
in the quest for the common good. In their view, the “good in science,
just as in medicine, is integral to and finds its proper place in that
overarching common good about which both scientists and citizens
deliberate” (Mitcham 2000). This view may sound a ractive, but it fails
to show how various communities with competing conceptions of the
“good life” within modern societies could arrive at a consensus and
how this could drive public (research) policy. Moreover, an Aristotelian
conception of the good life is di cult to marry with a modern rights
approach, whereby, for instance in the case of the European Union,
the European Charter of Fundamental Rights provides a legitimate
and actual basis for European Public Policy. Nonetheless, their point
of departure remains challenging: “We philosophers believe that
publicly funded scientists have a moral and political obligation to
consider the broader e ects of their research; to paraphrase Socrates,
unexamined research is not worth funding” (Frodeman 2007).
The US National Science Foundation makes assessment of
proposals in terms of «broader impacts» in the framework of
considering research proposals worth of funding. Under the
European Framework Programmes for Research, there is a long
tradition of awarding research grants, among others, on the basis
of anticipated impacts. Indeed, already at the stage of evaluation of
research proposals we are looking for particular impacts. Currently,
expected impacts of research topics which are subject of public calls
for proposals, are listed in the work programmes of 7th Framework
Programme. But what are legitimate normative assumptions to make
these expected impacts, the right impacts allowing us to steer public
research agenda’s?96 We can’t make an appeal to conceptions of the
good life, but we can make an appeal to the normative targets which
we can find in the Treaty on the European Union. These normative
targets have been democratically agreed upon and, in fact, provide
the legitimate basis for having a public framework programme for
research at the European Level. From the Treaty on the European
Union [in particular article 2] we can derive the following:
- “The Union shall (…) work for the sustainable development of
Europe based on balanced economic growth and price stability,
96
Duncan den Boer, Arie Rip and Sylvia Speller propose the use of a new
methodology, a so called fictive script, which could improve the formulation
of expected impacts of research agendas and research proposals. See (den
Boer 2009).
271
a highly competitive social market economy, aiming at full
employment and social progress, and a high level of protection
and improvement of the quality of the environment. It shall
promote scientific and technological advance.
- It shall combat social exclusion and discrimination, and shall
promote social justice and protection, equality between women
and men, solidarity between generations and protection of the
rights of the child.
- To promote (…) harmonious, balanced and sustainable
development of economic activities, a high level of employment
and of social protection, equality between men and women,
sustainable and non-inflationary growth, a high degree of
competitiveness and convergence of economic performance, a
high level of protection and improvement of the quality of the
environment, the raising of the standard of living and quality
of life, and economic and social cohesion and solidarity among
Member States”.
Rather than pre-empting views and conceptions of the “good
life”, the European Treaty on the European Union thus provides us
with normative anchor points. Those normative anchor points and
their mutual relationship provide thus a legitimate basis for defining
the type of impacts, or the “right” impacts of research and innovation
should pursue (see Figure 1 below). The subsequent question is
how the normative anchor points are reflected [or neglected] in the
development of technologies. A short historical perspective can shed
some light on this question.
The responsible development of technologies: A
historical perspective
The formation of public opinion on new technologies is not a
historically or geographically isolated process; rather, it is inevitably
linked to prior (national and international) debate on similar topics.
Ideally, such debates should enable a learning process – one that
allows for the fact that public opinion forms within particular cultures
and political systems. It is therefore not surprising that, in the case of
272
relatively new technologies, such as nanotechnologies, the nature of
public debate and its role in the policy making process is articulated
against a background of previous discussion of the introduction of
new technologies (such as biotechnology), or that specific national
experiences with those technologies become important. In particular,
the introduction of genetically modified organisms (GMOs) into the
environment is a frequent reference point within Europe (whereas
more frequently absent in such debates in the USA).
This historical development of policy frameworks can be followed
through the ways in which terms are used and defined: initially,
definitions are o en determined by the use of analogies which, in
the initial stages of the policy process, serve to “normalise” new
phenomena. In a number of countries, for instance, GMOs were
initially regulated through laws which deal with toxic substances.
Subsequently such analogies tend to lose their force as scientific
insights on the technology grows and distinct regulatory responses
can be made. GMOs, for example, eventually became internationally
defined as “potentially hazardous”, and, in the European Union, a
case-by-case approach was adopted under new forms of precautionary
regulation. This framework was developed over a period of decades,
and thereby took into account the ever-widening realm in which
GMOs could have e ects (developing from an exclusive focus on direct
e ects to eventually include indirect and long-term e ects). It is not,
however, solely the scientific validity of analogies which determines
definitions and policy: public interest also plays an important role.
Carbon dioxide, for instance, has changed from being viewed as a gas
essential to life on earth to being a “pollutant”. (The latest iteration
of this evolution came just prior to the Copenhagen summit on
climate change in December 2009, when the American Environmental
Protection Agency defined greenhouse gases as a “threat to public
health” – a definition which has important implications for future
policy measures.)
In the case of relatively new or emerging technologies, such as
nanotechnology policy, then, it seems likely that we are still in the
initial phases of development. There are not, so far, any internationally
agreed definitions relating to the technology (despite repeated
announcements of their imminence), and nanoparticles continue to
be defined as “chemical substances” under the European regulatory
framework REACH. (Analogies are also made with asbestos, as a way
273
to grasp hold of possible environmental and human health e ects,
but these are contested. There is no certainty that they will become
the definitive way to frame risk assessments.) To cite one topical
example, nanotechnology in food will not start its public and policy
life with a historically blank canvas but will be defined as a “novel
food” under a proposal for renewing the Novel Foods regulation.
(The Novel Foods regulation came into existence in the 1990’s with
foods containing or consisting of GMO’s in mind). Recent proposals
for renewing regulation on food additives (a er a first reading of the
European Commission’s proposal in the European Parliament in April
2009) have made this the first piece of regulation to include explicit
reference to nanotechnology.
Public debate that articulates particular interests and scientific
debate on the validity of analogical approaches to nanotechnologies
will inevitably continue to shape the ways in which nanotechnologies
are addressed in regulation and policy. But the governance of the
technology, as well as debate around it, has to be seen within its
historical context. How did stakeholders behave in previous cases, and
what can we learn from these cases with regard to new technologies
such as nanotechnologies? One answer to this question might point
to a learning process around the governance of new technologies,
and the development of a consensus that early involvement of both
stakeholders and the broader public is of the utmost importance.
The European Commission has responded to this with its adoption
of a European strategy and action plan on nanotechnologies, which
addresses topics from research needs to regulatory responses and
ethical issues to the need for international dialogue. This strategy above
all emphasizes the “safe, integrated and responsible” development of
nanosciences and nanotechnologies – something which the European
Research project DEEPEN has drawn upon in articulating how
“responsible development” might take its course within deliberative
fora97.
We can conclude that the “safe, integrated and responsible”
development gives us a new, overarching anchor point for making for
instance, nanotechnology policy. Obviously, this has to be built on the
basic anchor points in the treaty, concerning “a high level of protection
of the environment and human health”, applying precaution etc.
97
See the projects contribution in (von Schomberg 2010).
274
These normative anchor points, in their mutual interdependency,
should guide the impact assessments of technologies, and also the
notion of desirable expected impacts of research. This brings us to how
we can identify these “right” impacts of research and technologies. The
use of foresight and ability to identify plausible outcomes becomes
then indispensible.
Identifying Plausibility and use of Foresight
One can distinguish, within the thought tradition of Charles Sander
Peirce, the plausibility of knowledge claims from the predictability
of individual statements in the context of scientific discourse (von
Schomberg 1993). For instance, I have characterized epistemic
discussions in science as discussions triggered by controversies
arising from the acquisition of new scientific knowledge, whereby
scientific methods and the fundamental understanding of the nature
of the subject ma er o en become subject to dispute themselves. In
such cases, the authorities within scientific disciplines are mutually
challenged in terms of which discipline can claim to o er the best
solution to the problem in question. Recent examples of epistemic
discussions in science include the debates between molecular biologists
and ecologists on the risks of GMO’s, the debate on climate change as
either being induced by human interventions or as caused by natural
cycles, and the debate between K. Eric Drexler and Richard Smalley
on the plausibility of molecular nanotechnology and engineering.
Typically, epistemic discussions induce public debate long before
any scientific closure on the issue is to be expected and provides
a significant challenge for developing reasonable public policy.
Which group of scientists can we believe and should we endorse?
Plausible, epistemic approaches on the acquisition of knowledge in
science are associated with problem-definitions, which in turn frame
(although, o en, only implicitly) policy approaches. Unidentified and
unacknowledged epistemic debate can result in unbalanced public
policy: the until recently not uncommon «wait and see» character of
public policies of nation states on climate change or the concentration
on the promises and blessings of all kinds of new technologies provide
examples whereby public policy takes sides prematurely in a scientific
debate that is still unfolding.
275
It is therefore of utmost importance to be able to identify such
epistemic discourses and knowledge gaps within the various plausible
options on the table in order to be able to have a more robust outlook
on potential technological solutions — and in order to keep open the
possibility for alternative developments. Foresight projects can make
a contribution towards the possibility that alternative developments
might remain in sight for possible public policy responses and
towards enabling democratic choices at early stages of technological
development. The use of foresight projects can help us to overcome
the o en too narrowly conceived problem definition scientists
implicitly work with. Social scientists could do some heuristic work
by spelling out these problem definitions. For example, an imaginary
nanotechnology enabled product of a «disease detector» (a device
which would enable disease detections before symptoms emerge) is
probably based on a problem definition that it is a medical imperative
that any «disease» needs to be identified, irrespective of available
treatment and irrespective whether the individual in question would
define himself or herself as ill and possibly sidetracks preventive
approaches based adopting particulars lifestyles. Moreover, problem
definitions scientists implicitly work with o en correspond to a
centuries old, general standard list of fundamental human needs
(which represent overarching problem definitions) to which new
technologies will presumably provide answers in a given future:
food and energy supply, human health, security and since a half a
century also “the environment.” The case of recent technologies such
as nanotechnology is in no way di erent, especially if one considers
the public reasons for its funding. Because of its enabling and diverse
character, it would open a future with very e cient solar energy,
nanorobots cleaning our blood vessels, water sanitation solutions for
the «third world», etc.
The link between options, which may only look plausible at
a particular stage of development in science and technology, and
particular ways of social problem solving, is a perplexing one. For
instance, it seems obvious that our world food problem is principally
not a technological problem but a political-economic distribution
problem. Yet, the increase of land use for biofuels may well cause
a situation whereby a political-economic solution could become
increasingly less likely, if not impossible, before it ever arrived at a
(world) policy level in a historic time period in which this type of
276
solution still was an option. Pu ing our a ention — and with it our
hopes and/or fears — primarily on an accelerated form of innovation
by (nano) technological means is therefore irresponsible.
In order to help mitigate this, foresight projects could benefit from
a prior analysis of potential relationships between types of plausible
technological pathways and particular (social) problem-definitions,
rather than starting with “naïve product scenes,” which are, as Selin98
outlines them, “short vigne es that describe in technical detail,
much like technical sales literature, a nano-enabled product of the
future,” thereby methodologically ignoring the underlying problem
definitions. It is also important to make an analysis of the linkages
between technological pathways and social problem definitions and
how they may well get the support of particular stakeholders or give
a boost to particular ideologies within public policies. A process of
“negotiating plausibility” eventually means reaching consensus
on such problem definitions. Minimally, we could help to avoid
continually funding developments which are later shown to be
fictious; but more constructively, we could create deliberative forms
of decision making on the problem definitions themselves and place
them in a wider perspective.
Deliberative approaches to the policy making process
Public engagement projects such as the Nanofutures99 or the
Nanosec project100 adopt both a foresight and a deliberative approach,
which is to be welcomed. It is, however, important to note that the
reason for this approach is not limited to the normative rationale of
a more democratic and transparent decision making process. The
deliberative foresight approach can also improve the quality of the
98
Cynthia Selin, Negotiating Plausibility : Intervening in the Future of
Nanotechnology, Arizona State University, h p://www.cspo.org/projects/
plausibility/files/read_Selin-Negotiating-Plausibilty.pdf
99
h p://cns.asu.edu/program/r a3.htm
100
Nanotechnologies for tomorrow’s society (nanosoc): The nanosoc research
consortium seeks to understand and address these issues by calling for an
early and informed dialogue between nanotechnology researchers, social
scientists, technology assessment experts, industry representatives, policy
makers, non-governmental agencies, and interested citizens in Flanders,
Belgium. h p://www.nanosoc.be/ResearchDesign-en.asp
277
decision-making process and help to identify knowledge gaps for
which we would need to go back to science. A part of this potential
“quality” gain gets lost when we limit deliberation to stakeholder or
public deliberation, although these constitute necessary components.
An immediate normative deficiency of stakeholder deliberation is
that the involved actors do not necessarily include the interest of nonincluded actors. That said, foresight exercises need to be progressively
embedded in public policy in order to make a real qualitative step
forward.
We cannot rely on stakeholder and/or public deliberation as such,
since epistemic debate in science is immediately mirrored by stakeholder
and public dissent in society. Policy makers are equally challenged by
dissent in science as by dissent among stakeholders and the public. If
we deal unreflexively with public debate induced by epistemic debate,
an improper politicising e ect inevitably occurs and translates into an
irrational struggle concerning the “right” data and the “most trustful
and authoritative scientists” in the political arena. Interest groups can
pick and choose the experts which share their political objectives. A
functional deliberative approach, apart from public and stakeholder
deliberation, includes a deliberative extension of the science-policy
interface. Such an interface institutionalises particular deliberation
based on normative filters such as notions of proportionality and
precaution (or as we have in the EU, the requirement to implement
the precautionary principle in policy frameworks), various forms of
impact analysis, such as sustainability impacts, cost-benefit analysis,
environmental policy impact analysis etc., the application of particular
consensual norms or prioritisation of norms (for instance that health
and environment takes precedence over economic considerations)
and the application of normative standards for product acceptability.
These normative filters are in themselves results of public and policy
deliberation and enable consensual decision making at the public
policy level. Although democratic societies have these deliberative
filters in place, they need to be consciously applied and be subject of
public monitoring. Currently I see a procedural gap, especially, when
it comes to identification of knowledge gaps and the assessment of
the quality of the available knowledge. I have, therefore, argued for
a deliberative form of “knowledge assessment” at the science-policy
interface to allow for a qualified knowledge input (von Schomberg
2007).
278
Moreover, in the context of scientific uncertainty and production
of knowledge by a range of di erent actors, we need knowledge
assessment mechanisms which will assess the quality of available
knowledge for the policy process. We are currently forced to act upon
developments [in terms of public policy] while at the same time being
uncertain about the quality and comprehensiveness of the available
scientific knowledge and the status of public consensus. A deliberative
approach to the policy-making process would complement and
connect with deliberative mechanisms outside policy. The outcomes of
ongoing knowledge assessment101 should feed into other assessment
mechanisms and into deliberation on the acceptability of risk, the
choice of regulatory frameworks or the measures taken under those
frameworks (see Figure 2). Knowledge assessment following the result
of foresight exercises would then be important tools in se ing out
arguments for the necessity and nature of future legislative actions.
Figure 2 : A non-directional cycle of assessment mechanisms within the policy
making process fed by knowledge assessment processes.
At the same time, we have to ensure that science policies are
consistent with other public policies: The challenge is not only to focus
on the conditions for good and credible science but to make knowledge
production, dissemination and use a key factor for virtually all public
policy goals. Both impact assessments and assessments of expected
101
In accordance with the procedures developed in (von Schomberg 2007, von
Schomberg 2005).
279
impacts of research should reflect this. In the following section I will
describe the necessary elements for a framework for responsible
research and innovation which systematically takes up the quest for
«the right impacts».
Responsible Research and Innovation
I propose the following working definition for Responsible
Research and Innovation
Definition: Responsible Research and Innovation is a transparent,
interactive process by which societal actors and innovators become mutual
responsive to each other with a view on the (ethical) acceptability, sustainability
and societal desirability of the innovation process and its marketable products
(in order to allow a proper embedding of scientific and technological advances
in our society)
There is a significant time lag (this can be several decades) between the
occurrence of technical inventions (or planned promising research) and
the eventual marketing of products resulting from RTD and innovation
processes. The societal impacts of scientific and technological advances
are di cult to predict. Even major technological advances such as the
use of the internet and the partial failure of the introduction of GMOs
in Europe have not been anticipated by governing bodies. Early societal
intervention in the Research and Innovation process can help to avoid
that technologies fail to embed in society and/or help that their positive
and negative impacts are be er governed and exploited at a much
earlier stage. I see two interrelated dimensions: the product dimension,
capturing products in terms of overarching normative anchor points
and a process dimension reflecting a deliberative democracy. The
normative anchor points should be reflected in the product dimension:
- ethically acceptable: refers to a mandatory compliance with
the fundamental values of the EU charter on fundamental
rights [right for privacy etc] and the safety protection level
set by the EU. This may sound obvious, but the implementing
practice of ICT technologies have already demonstrated in
various cases the neglectance of the fundamental right for
privacy and data protection;
280
- sustainable: contributing to the EU’s objective of sustainable
development;
- socially desirable: «socially desirable» captures here the
relevant normative anchor points in the Treaty, among other,
quality of life, equality among men and women etc. It has to
be noted that a systematic inclusion of these anchor points
would go clearly beyond simple market profitability, although
the la er could work out as a precondition for the products’
viability in market competitive economies. However, it would
be consistent with the EU treaty to promote such product
development through financing RTD actions. In other words,
at this point Responsible Research and Innovation would
not need any additional policy guidelines, but simply would
require a consistent application of the EU’s fundamentals to the
research and innovation process reflected in the Treaty on the
European Union.
Product dimension
Products which are marketed throughout a transparent process
should thus be defined in terms of a high level of protection to the
environment and human health, sustainability (environmental and
economically) and societal desirability.
Deployment of Methods:
1. Use of Technology Assessment and Technology Foresight
in order to anticipate positive and negative impacts or, whenever
possible, define desirable impacts of research and innovation both in
terms of impact on consumers and communities. Se ing of Research
priorities with their anticipated impacts need to be subject to a societal
review. (This implies broadening the review of research proposals
beyond scientific excellence and includes societal impacts). Particular
Technology Assessment methods also help to identify societal
desirable products.
The advantage is that Technology Assessment and Technology
Foresight can reduce the human cost of trial and error and make
advantage of a societal learning process of stakeholders and technical
281
innovators. This will lead to products which are (more) societal
robust.
2. Application of Precautionary Principle
The precautionary principle is embedded in EU law and applies
especially within EU product authorization procedures (e.g. REACH,
GMO directives, etc). The precautionary principle works as an incentive
to make safe and sustainable products and allow governmental bodies
to intervene with Risk Management decisions (such as temporary
licensing, case for case decision making, etc.) whenever necessary in
order to avoid negative impacts.
As argued above, the responsible development of new technologies
must be viewed in its historical context. Some governance principles
have been inherited from previous cases: this is particularly notable
for the application of the precautionary principle to the field of
nanosciences and nanotechnologies. This principle is firmly embedded
in European policy, and is enshrined in the 1992 Maastricht Treaty
as one of the three principles upon which all environmental policy
is based. It has been progressively applied to other fields of policy,
including food safety, trade and research.
The principle runs through legislation that is applied to
nanotechnologies, for example in the “No data, no market” principle
of the REACH directive for chemical substances, or the pre-market
reviews required by the Novel Foods regulation as well as the directive
on the deliberate release of GMOs into the environment. More generally,
within the context of the general principles and requirements of the
European food law it is acknowledges that “scientific risk assessment
alone cannot provide the full basis for risk management decisions”102
– leaving open the possibility of risk management decision making
partly based on ethical principles or particular consumer interests.
102
Regulation (EC) no 178/2002 of the European Parliament and of the Council
of 28 January2002 laying down the general principles and requirements of
food law, establishing the European Food Safety Authority and laying down
procedures in ma ers of food safety states “(19)it is recognised that scientific
risk assessment alone cannot, in some cases, provide all the information on
which a risk management decision should be based, and that other factors
relevant to the ma er under consideration should legitimately be taken into
account including societal, economic, traditional, ethical and environmental
factors and the feasibility of controls”.
282
In the European Commission’s Recommendation on a Code
of Conduct for nanosciences and nanotechnologies research, the
principle appears in the call for risk assessment before any public
funding of research (a strategy currently applied in the 7th Framework
Programme for research). Rather than stifling research and innovation,
the precautionary principle acts within the Code of Conduct as a
focus for action, in that it calls for funding for the development of
risk methodologies, the execution of risk research, and the active
identification of knowledge gaps. Under the Framework Programme,
for example, an observatory has been funded to create a network for
the communication and monitoring of risk.
3. Use of demonstration projects: moving from risk to innovation
governance
These projects should bring together actors from industry, civil
society and research to jointly define an implementation plan for the
responsible development of a particular product to be developed
within a specific research/innovation field, such as information
and communication technology or nanotechnology. Responsible
innovation should be materialised in terms of the research and
innovation process as well as in terms of (product) outcomes. The
advantage is that actors can not exclusively focus on particular aspects
(for instance CSO addressing only the risk aspects) but have to take a
position on the innovation process as such. Thus allowing a process to
go beyond risk governance and move to innovation governance.
Process dimension
The challenge is to arrive at a more responsive, adaptive and
integrated management of the innovation process. A multidisciplinary
approach with the involvement of stakeholders and other interested
parties should lead to an inclusive innovation process whereby
technical innovators become responsive to societal needs and
societal actors become co-responsible for the innovation process by a
constructive input in terms of defining societal desirable products.
Deployment of Methods
1. Deployment of Codes of Conduct for Research and Innovation.
283
Codes of Conduct in contrast with regulatory interventions
allow a constructive steering of the innovation process. It enables the
establishment of a proactive scientific community which identifies and
reports to public authorities on risks and benefits in an early stage.
Codes of Conduct are particular useful when risks are uncertain and
when there is uncertain ground for legislative action.( Nanotechnology
for example) Codes of Conduct also help to identify knowledge gaps
and direct research funds towards societal objectives.
Policy development treads a fine line: governments should not
make the mistake of responding too early to a technology, and failing
to adequately address its nature, or of acting too late, and thereby
missing the opportunity to intervene. A good governance approach,
then, might be one which allows flexibility in responding to new
developments. A er a regulatory review in 2008, the European
Commission came to the conclusion that there is no immediate need
for new legislation on nanotechnology, and that adequate responses
can be developed – especially with regard to risk assessment – by
adapting existing legislation103.
While, in the absence of a clear consensus on definitions, the
preparation of new nano-specific measures will be di cult, and
although there continues to be significant scientific uncertainty on
the nature of the risks involved, good governance will have to go
beyond policy making focused on legislative action. The power of
governments is arguably limited by their dependence on the insights
and cooperation of societal actors when it comes to the governance
of new technologies: the development of a code of conduct, then, is
one of their few options for intervening in a timely and responsible
manner. The Commission states in the second implementation
report on the action plan for Nanotechnologies that “its e ective
implementation requires an e cient structure and coordination, and
regular consultation with the Member States and all stakeholders”104.
Similarly, legislators are dependent on scientists’ proactive involvement
103
However, the European Commission will give follow-up to the request of the
European Parliament to review all relevant legislation within a period of two
years, to ensure safety over the whole life cycle of nanomaterials in products.
104
Commission of the European Communities (2009) Communication from
the commission to the council, the European Parliament and the European
Economic and Social Commi ee. Nanosciences and Nanotechnologies: An
action plan for Europe 2005-2009. Second Implementation Report 2007-2009,
Brussels, 29.10.2009, COM (2009) 607 final (citation on page 10).
284
in communicating possible risks of nanomaterials, and must steer clear
of any legislative actions which might restrict scientific communication
and reporting on risk. The ideal is a situation in which all the actors
involved communicate and collaborate. The philosophy behind the
European Commission’s code of conduct, then, is precisely to support
and promote active and inclusive governance and communication. It
assigns responsibilities to actors beyond governments, and promotes
these actors’ active involvement against the backdrop of a set of basic
and widely shared principles of governance and ethics. Through
codes of conduct, governments can allocate tasks and roles to all actors
involved in technological development, thereby organising collective
responsibility for the field105. Similarly, Mantovani et al106 propose
a governance plan which both makes use of existing governance
structures and suggests new ones, as well as proposing how they
should relate to each other.
The European Commissions’ recommendation on a Code of
Conduct also views Member States of the European Union as
responsible actors, and invites them to use the Code as an instrument
to encourage dialogue amongst “policy makers, researchers,
industry, ethics commi ees, civil society organisations and society at
large”(recommendation number 8 to Member States, cited on page 6
of the Commission’s recommendation), as well as to share experiences
and to review the Code at the European level on a biannual basis. It
should be considered that such Codes of Conduct would in the future
extend its scope beyond research and also address the innovation
process107.
2. Ethics as a “Design” factor of Technology
Ethics should not be seen as being only a constraint of technological
advances. Incorporating ethical principles in the design process of
technology can lead to well accepted technological advances. For
instance, in Europe, the employment of Body Imaging Technology at
Airports has raised constitutional concerns in Germany, among others.
105
Commission of the European Communities (2008), Commission
Recommendation of 7 February 2008, on a code of conduct for responsible
nanosciences and nanotechnologies research, 7 february 2008
106
See their contribution in (von Schomberg 2010).
107
The European Project NANOCODE makes this point concerning
nanosciences and nanotechnologies, see: h p://www.nanocode.eu/
285
It has found to be doubtful whether the introduction is proportional
to the objectives being pursued. The introduction of a “smart meter”
at the homes of people in the Netherlands to allow for detection of
and optimalisation of energy use, was rejected on privacy grounds, as
it would allowed individuals to monitor whether people are actually
in their homes. These concerns could have been avoided if societal
actors would have been involved in the design of technology early
on. “Privacy by design” has become a good counter example in the
field of ICT by which technology is designed with a view on taking
privacy as a design principle of the technology itself, into account. Yet,
practicing it is still rare.
3. Deliberative mechanisms for allowing feedback
policymakers: devise models for responsible governance
with
Continuous feed back from information from Technology
Assessment, Technology Foresight and demonstration projects to
policy makers could allow for a productive innovation cycle.
In addition, as outlined above, “knowledge assessment”
procedures have to be developed in order to allow assessing the
quality of information within the policy process, especially in areas
in which scientific assessments contradict each other or in cases
of serious knowledge gaps. (The EC practices this partly with its
impact assessments for legislative actions). Knowledge assessment
would integrate the distinct cost-benefit analysis, environmental and
sustainability impact assessments). In short : models of responsible
governance have to be devised which allocates roles of responsibility
to all actors involved in the innovation process.
4. Public debate
Ongoing public debate and monitoring of public opinion is
needed for the legitimacy of research funding and particular scientific
and technological advance. Ongoing public platforms should replace
one-o public engagement activities with a particular technology and,
ideally, a link with the policy process should be established108.
108
This article was the basis of a key note speech at the first annual conference
organised by the Netherlands Organisation for Scientific Research on
Responsible Research and Innovation, in The Hague, 18-19 April 2011. Appears
also in M.Dusseldorp et al., „Te nikfolgen abs ätzen lehren. Bildungspotenziale
transdisziplinärer Methoden“. VS Verlag, 2011.
286
FEATURES OF RESPONSIBLE RESEARCH AND INNOVATION
Product dimension
Process dimension
Institutionalisation of Technology
Assessment and Foresight
Use of Code of Conducts
Application of the precautionary
principle; ongoing risk assessment;
ongoing monitoring
Ethics as a design principle for
technology
Use of demonstration projects: from
risk to innovation governance
Normative models for governance
Ongoing Public debate
Références
den Boer D., Rip A. and Speller S., “Scripting possible futures of nanotechnologies: A methodology that enhances reflexivity”, Technology in Society 31, 2009, pp. 295–304.
Frodeman R. and Holbrook J. B., “Science’s Social E ects”, Issues in
Science and Technology, Spring 2007.
Mitcham C. and Frodeman R., “Beyond the Social Contract Myth:
Science should move beyond a contractual relationship with society and join in the quest for the common good”, Issue in Science
and Technology Online, Summer 2000.
von Schomberg, R. (ed.), “Controversies and Political Decision Making”, Science, Politics and Morality: Scientific Uncertainty and Decision Making, Dordrecht, Kluwer Academic Publishers, 1993.
von Schomberg R., Guimaraes Pereira A. and Funtowicz S., Deliberating Foresight Knowledge for Policy and Foresight Knowledge Assessment, Working document of the European Commission Services,
2005.
von Schomberg R., From the ethics of technology towards and ethics of
knowledge policy, Working document of the Service of the European Commission, 2007 h p://ec.europa.eu/research/science-society/pdf/ethicso nowledgepolicy_en.pdf.
von Schomberg R. and Davies S. (eds.), Understanding public debate on
nanotechnologies. Options for Framing Public Policy, Luxembourg,
Publication o ce of the European Union, 2010.
287
Nanotechnologies et
« innovation responsable » :
sur la gouvernementalité d’un concept
François Thoreau109
Introduction
« Ce paradoxe-là n’est pas le moindre : une révolution des détails qui
exige de combiner l’innovation la plus échevelée avec les précautions
les plus a entives. »
B. Latour, « En a endant Gaïa », Libération, 29 juin 2011
Les nanotechnologies sont l’occasion d’un déplacement des
catégories de l’éthique dans le domaine des politiques publiques.
Et pour cause, leur développement procède au premier plan d’une
volonté politique (Bensaude-Vincent 2009a, pp. 605-606) ; à elle
seule, ce e nouvelle donne justifie une appréhension nouvelle des
enjeux sociétaux. L’investissement massif des pouvoirs publics est à
la hauteur du défi qu’ils entendent relever : s’assurer que l’irruption
progressive des nanotechnologies dans la société se fasse de manière
« responsable ». Lentement, mais sûrement, l’idée générale d’une
« innovation responsable » fait son chemin dans les politiques publiques,
en parallèle, et à l’occasion du développement des nanotechnologies
(von Schomberg, ce volume). Notre contribution repose donc
sur l’hypothèse fondamentale que l’innovation responsable est
consubstantielle au développement des nanotechnologies (Laurent
2010, p. 59 s.).
Ce e évolution est bien sûr située, c’est-à-dire qu’elle s’inscrit
dans un contexte particulier. Par exemple, il serait intéressant de
retracer la genèse de ce concept, et les canaux di us par lesquels il
tend à s’imposer à l’agenda politique. En particulier, son articulation
avec le « principe de précaution », développé dans le sillage des
biotechnologies, mériterait de plus amples considérations. Ce n’est
toutefois pas l’objet que s’assigne le présent chapitre ; sans perdre de
vue l’importance de ces questions, il propose d’aller à la rencontre de
109
Université de Liège
289
« l’innovation responsable », telle qu’elle se trouve actuellement dans
les programmes de politique publique relatifs aux nanotechnologies,
et d’en proposer une mise en perspective critique.
C’est que le discours politique revêt une importance fondamentale,
tout comme le choix des mots qui font rece e. Il est entendu que
la « parole » politique est fondatrice, au moins dans un régime
démocratique, où la confrontation des arguments est l’instrument
privilégié de l’action politique (Breton 2000). Le corollaire en est que la
nature et la forme de la parole politique en disent long sur l’état de la
démocratie. Comme le soutient P. Breton, « La démocratie s’identifie
(…) si fortement avec l’exercice de la parole que, lorsque celui-ci
recule ou est entravé, c’est la démocratie qui est menacée comme
système politique » (Breton 2000, p. 36). Les concepts politiques ne
sont pas neutres ; ils s’adressent à des publics qui fluctuent au cas par
cas, avec des objectifs à chaque fois di érents. Les dérives ne peuvent
être exclues a priori ; à tout moment, les « sorciers du verbe » sont
susceptibles de manipuler, tronquer ou escamoter la parole politique.
Ainsi, le philosophe B. Méheust nous apprend qu’il faut interroger
le statut d’une expression donnée. Que signifie l’association des
termes « innovation » et « responsable » ? Selon lui, l’une des formes
les plus actuelles du discours politique contemporain est celle de
l’oxymore, c’est-à-dire « de ces figures de la conciliation impossible »,
qui visent à absorber ou résoudre une tension qui travaille notre
société (Méheust 2009, p. 7). Selon lui, « le propre de l’oxymore est de
rapprocher, d’associer, d’hybrider et/ou de faire fusionner deux réalités
contradictoires » (Méheust 2009, p. 117), et de donner des exemples
tels que les expressions « développement durable » ou « moralisation
du capitalisme ». Peut-on qualifier « l’innovation responsable »
d’oxymore ? L’exercice peut être tenté, même s’il s’avère limité, en toute
hypothèse, dans la mesure où il nécessiterait des définitions stables à
la fois de « l’innovation » et de la « responsabilité ». En revanche, il
est possible d’y répondre dans le cas particulier des nanotechnologies
et de l’innovation responsable, où ces termes trouvent une définition
opérationnelle dans des instruments de politique publique.
Ce chapitre propose donc, d’abord, d’identifier une « tension
fondatrice » dans l’expression « innovation responsable », telle qu’elle
s’épanouit et se déploie dans le contexte des nanotechnologies. Après
avoir démontré l’importance politique de ce e question, il se propose
290
d’explorer ce e tension plus en avant. Pour ce faire, les dimensions
théoriques de la notion de responsabilité et de ce qu’elle charrie en
termes de politique seront examinées, en s’appuyant sur la li érature
scientifique et des outils de linguistique. Elle prendra ensuite un tour
plus pratique, en se penchant sur les instruments de politique publique
propres aux nanotechnologies, en tentant de départager comment
« l’innovation responsable » fonctionne dans le concret, dans le cas
des États-Unis et de l’Union européenne, et quelle conception de la
responsabilité elle stabilise.
Éléments pour une gouvernementalité du concept
d’« innovation responsable »
À la recherche d’un critère distinctif
L’« innovation responsable » est un concept développé de manière
concomitante au développement des nanotechnologies. C’est un
corollaire manifeste de l’investissement massif des pouvoirs publics
dans ces processus d’innovation. Dans ce e perspective, pourquoi
parler « d’innovation responsable », et non pas d’« innovation » ?
Autrement dit, quelle est la portée distinctive du concept ?
Les nanotechnologies, sur le plan de l’investissement des autorités
publiques, ne di èrent en rien d’autres développements technologiques,
planifiés, soutenus et financés par les pouvoirs publics. Ceux-ci, depuis
la seconde guerre mondiale, promeuvent activement les innovations
scientifiques et technologiques (Bensaude-Vincent 2009b, pp. 2628). Les nanotechnologies ont, pour leur part et dans la lignée de ces
programmes d’investissement publics, vocation à être développées
« dans l’intérêt national* » (pour reprendre la formule du fameux
rapport du Président Clinton et du Vice-Président et Sénateur Al Gore
(Clinton 1994)). Il su t pour s’en convaincre de jeter un coup d’œil aux
principaux documents stratégiques en matière de nanotechnologies,
par exemple la National Nanotechnology Initiative étatsunienne, dans ses
di érentes évolutions (NSTC 2000 ; 2004 ; 2007 ; 2011), ou encore le Plan
d’action européen (Commission européenne 2005).
Dès lors, comment distinguer un système d’innovation, qui serait
« responsable », de ces décennies de soutien actif à la recherche et au
291
développement ? Il faut tenter d’identifier la ligne de démarcation, à
supposer qu’elle existe, qui indique la rupture entre l’innovation, au
sens traditionnel, et « l’innovation responsable », telle qu’elle est en
voie de s’instituer dans les politiques publiques. On pourrait postuler
que l’innovation responsable entérine une mainmise des pouvoirs
publics sur la question de l’innovation, via le développement d’une Big
Science et de la recherche stratégique (Bensaude-Vincent 2009b, p. 31,
ss.). Ainsi, la science ne serait plus l’a aire des acteurs scientifiques et
industriels qu’à la marge ; si l’impulsion majoritaire vient dorénavant
des pouvoirs publics, alors ils se devraient d’adapter l’exercice de
l’innovation aux contraintes propres à l’exercice de la puissance
publique, en l’occurrence en faisant montre de « responsabilité ».
Ce e hypothèse n’est pas correcte ; outre qu’elle se méprend sur le
rôle crucial des acteurs extra-étatiques dans l’innovation en matière
de nanotechnologies (Vinck 2009), le discours sur l’innovation
responsable nous paraît émerger dans le sillage du « principe de
précaution » et de l’anticipation de conséquences induites, mais non
contrôlées, du développement technologique. Ainsi, « l’innovation »
elle-même ne change pas radicalement de nature suite à ce e
intervention des autorités publiques, qui ne se distingue dans le
cas des nanotechnologies que par son degré élevé110. Ce qui change,
c’est l’anticipation, par l’ensemble des acteurs concernés (politiques,
industriels, scientifiques, publics), d’inévitables conséquences qui ne
manqueront pas d’être générées par le processus d’innovation.
Ce qui paraît en revanche indéniable, c’est le caractère collectif du
processus d’innovation, dans le cas des nanotechnologies. Celles-ci
prennent racine au sein de di érentes disciplines scientifiques, avec un
objectif a ché de convergence transdisciplinaire (Bensaude-Vincent
2009b, 71-81). Par delà, les nanotechnologies rencontrent l’intérêt
du secteur industriel et bénéficient d’une importante implication
des acteurs publics, qu’il s’agisse de financer ces développements
ou de les réguler. Enfin, il faut également compter avec bon nombre
d’associations et d’organisations non-gouvernementales qui tentent, à
leur tour, d’influencer l’ensemble du processus (Vinck 2009, pp. 43-48).
Innombrables sont les exemples de projets de recherche très vastes,
dont les débouchés sont potentiellement très lourds d’impacts sur la
110
Ainsi, pour 2011, le budget fédéral provisionné en soutien aux
nanotechnologies s’élève à 1,85 milliards de $ (NSTC, 2010). D. Vinck souligne
qu’en Europe, 60 % du financement des nanotechnologies reste du fait des
acteurs publics, tous niveaux de pouvoir confondus (Vinck, 2009, p. 46).
292
société, et qui sont mis en œuvre par de très larges consortiums de
recherche, dont chacune des composantes se voit a ribuer une tâche
bien précise et délimitée.
La tension fondatrice de « l’innovation responsable »
À quoi tient donc l’ « innovation responsable » ? Notre contribution
propose donc d’éclaircir ce distinguo en partant de la notion de
« responsabilité ». En e et, l’hypothèse de travail de la présente
contribution est que l’adjonction de ce qualificatif – « responsable »
est, seule, vecteur de transformation des processus en cours en matière
de nanotechnologies. L’innovation, telle que les pouvoirs publics la
pratiquent dans l’après-guerre, demeurerait une notion constante, qui
serait amendée ou déviée de sa trajectoire, par la mise en œuvre d’une
« responsabilité ». Sur ce e prémisse, il devient intéressant de chercher
à comprendre en quoi pourrait bien consister ce e « responsabilité »
et, surtout, qui en sont les destinataires.
De toute évidence, l’idée d’une « responsabilité » implique une
forme de réponse (étymologiquement, le terme renvoie au fait de
se porter garant, donc de répondre de, de faire une réponse111). De
quoi s’agit-il de répondre ? Logiquement, ce e réponse s’adresse au
processus d’innovation lui-même, dans sa naturalité ; elle est destinée
aux objets technologiques et aux matériaux à résulter des processus
d’innovation, dans la plénitude de leurs conséquences potentiellement
dommageables ou questionnables pour la société. En d’autres termes,
quel(s) développement(s), en matière de nanotechnologies, pourraientils s’avérer néfaste(s) ou indésirable(s) ?
La question à poser est alors de savoir qui va répondre de ces
développements, c’est-à-dire selon quelles règles sera a ribuée
une forme de « responsabilité ». Le rôle précis de l’a ribution de
responsabilité, et les règles y relatives, correspond au « système de
ces faits qu’on appelle des sanctions » (Fauconnet 1928 [1920], p. 37).
Établir une responsabilité, c’est donc sanctionner un manquement.
Lorsque se développe une application particulière dans le domaine
des nanotechnologies, un régime de responsabilité particulier doit
111
Cf. « responsable », in O. Bloch & W. von Walburg, Dictionnaire étymologique
de la langue française, Paris, PUF /Quadrige, 2002 [1932] ; « respondeo », in F.
Ga ot, Dictionnaire Latin-Français, Paris, Hache e, 2001.
293
donc être établi ; en cas de survenance d’un dommage ou d’une
conséquence indésirable, il s’agit donc d’établir à qui en incombe la
faute.
En d’autres termes, qui est habilité à, ou sommé de, formuler ce e
réponse ? À un extrême, chaque acteur impliqué à un stade ou à un
autre dans l’irruption d’une innovation dans la société est tenu d’en
répondre, chacun selon sa partition – son rôle précis et le rapport
particulier qu’il entretient à cet objet. La réponse est alors formulée
par la somme des acteurs en présence. À l’autre extrême, l’innovation
est conçue comme un processus intrinsèquement collectif, qui répond
de manière une et indivisible aux conséquences de son propre
déroulement. La réalité, bien sûr, oscille nécessairement entre ces
deux extrêmes.
La gouvernementalité ou la stabilisation d’un ordre du
politique
Il va donc s’agir de placer le curseur soit du côté des individus,
comme y incite la notion même de « responsabilité », soit du côté des
processus systémiques pris pour tels. Ce faisant, c’est d’abord et avant
tout une question authentiquement politique que soulève l’innovation
responsable. En e et, le politique se définit originairement par sa
« structure bipolaire », comme l’appelle André Gorz112, à savoir :
« la médiation publique sans cesse recommencée entre les droits de
l’individu, fondés sur son autonomie, et l’intérêt de la société dans son
ensemble, qui à la fois fonde et conditionne ces droits » (Gorz 1992, pp.
47-48). La responsabilité n’est que l’envers du décor de ce e conception
du politique, qui se définit donc comme une tension primordiale entre
ces deux « pôles ». L’innovation responsable, telle qu’elle s’incarne et
s’institue au travers de politiques publiques précises, propose une
stabilisation particulière de l’ordre du politique. En ce sens, elle se
présente comme une réponse ou une solution particulière à une tension
fondatrice, qui est donc celle qui existe entre l’innovation, comme
processus collectif, et la responsabilité, plutôt « individualisante ».
Ce e évolution vers l’innovation responsable se produit dans le
cadre plus large d’une métamorphose des modes d’action publique,
112
Suivant en cela le philosophe marxiste américain Dick Howard.
294
que É. Hache considère, après Foucault, comme typique d’un ordre
néo-libéral. Ce mouvement se distingue, à la fois, par un retrait
apparent de l’État, et le déploiement d’un interventionnisme d’un
genre nouveau, « d’une vigilance, d’une activité, d’une intervention
permanente » des autorités publiques (Foucault 2004, p. 137, cité par
Hache 2007, p. 51). Ce processus a pour nom la « gouvernementalité ».
La gouvernementalité se pose ainsi comme un « mode spécifique de
l’exercice du pouvoir » (Lascoumes 2004, p. 2), par lequel se produit
une nouvelle manière de penser et d’agir l’action des pouvoirs publics.
Elle ne s’a ache donc pas à une théorie de l’État pré-déterminée, mais
est à rechercher dans les pratiques, dans le concret, dans ce qui fait
l’action étatique, autrement dit dans les instruments de politiques
publiques (Lascoumes 2007). Concrètement, les instruments auxquels
il est fait référence sont les plans stratégiques prédominants en matière
de nanotechnologies, aux USA et en Union européenne. On objectera à
bon droit que ces plans restent incantatoires, jusqu’à l’épreuve de leur
mise en œuvre. C’est la raison pour laquelle nous renforçons ce qui ne
serait qu’une simple analyse de discours politique, par des éléments
empiriques, puisés dans les dispositions budgétaires aux États-Unis,
et dans certains outils de « procéduralisation éthique » dans l’UE.
Retour sur la notion de « responsabilité »
D’une responsabilité clairement individuelle…
Avant d’entrer dans le cœur empirique de « l’innovation
responsable », il convient d’opérer un détour théorique par la notion
de « responsabilité » elle-même. À nouveau, l’enjeu n’est pas de retracer
la genèse du choix de ce terme ; toujours est-il que ce qualificatif de
« responsable » fait florès dans les politiques publiques en matière de
nanotechnologies. Dès lors, il faut avant toute chose procéder à un
examen critique des signifiants que ce terme revêt, au regard de la
question que nous posons : comment le concept de « responsabilité »
départage-il les figures de l’individu et du collectif ?
Historiquement, la responsabilité est un phénomène clairement
individuel. Il s’agit avant tout d’imputer les conséquences
(dommageables) d’un acte à son auteur, faisant de la responsabilité le
295
véritable pendant de la liberté dont dispose ce dernier113. C’est le schéma
tripartite classique sur lequel repose la figure de la responsabilité : une
faute et un dommage reliés par un lien de causalité. Dans nos sociétés
occidentales contemporaines, la conception juridique que nous en
avons est prédominante et irréductiblement a achée à la figure de
l’individu libre et rationnel, qu’il s’agisse de responsabilité civile ou
pénale (Fauconnet 1928 [1920]).
Depuis longtemps toutefois, il est admis que l’acception de ce
terme soit étendue à une forme de « responsabilité morale », entendue
comme « « une situation d’un agent conscient à l’égard des actes qu’il
a réellement voulus »114. En d’autres termes, il s’agit pour l’agent d’être
en mesure de prévoir les répercussions de ses actes (par une réflexion
antérieure sur leurs conséquences futures) et de les accepter115. On
constate donc que, sur le plan individuel, la responsabilité est possible
moyennant le respect d’une double condition : la liberté, c’est-à-dire
l’autonomie dans l’action, soit la possibilité de poser les actes sujets à
responsabilité, et la capacité de prévision.
… À une responsabilité collective ?
Il est entendu que le concept de responsabilité, pourtant, connaît de
constantes reconfigurations à l’aune des sciences sociales, à commencer
par les sciences statistiques (Genard 1999). Or, c’est précisément
dans les matières qui nous préoccupent ici que ce e notion subit les
transformations les plus importantes, avec la thèse influente d’un
nécessaire « Principe Responsabilité », formulée par Hans Jonas. Posée
comme une condition à la survie même de l’humanité, l’adoption d’un
tel principe se caractérise par un bouleversement fondamental des
catégories de l’éthique, qui reposaient jusque-là sur « l’immutabilité
essentielle de la nature en tant qu’ordre cosmique » (Jonas 1995
[1979], p. 25). En d’autres termes, le contexte de l’agir humain, donc
113
S. Mesure et P. Savidan, Le dictionnaire des sciences humaines, Paris,Quadrige
/ PUF, 2006, p. 1014.
114
A. Lalande, Vocabulaire technique et critique de la philosophie, Paris, Quadrige
/ PUF, 2010 [1926], pp. 926-928.
115
Étant entendu que « la mesure de la responsabilité est proportionnelle à la
mesure de la prévision, qui est toujours incomplète, car aux e ets directs et
immédiats de nos actes s’ajoutent des e ets indirects et lointains » (Lalande,
op. cit., p. 927).
296
de sa responsabilité – y compris morale – était défini étroitement,
s’inscrivant dans le temps court et une certaine proximité.
Rien de tout cela ne subsiste dans la démesure des capacités
couplées de la science et de l’économie, moteurs des processus
actuels d’innovation. Au temps court succèdent les impacts à long
terme, souvent irréversibles, d’un agir transformatif doté de moyens
inédits. Dans un tel contexte, l’objet de la responsabilité humaine est
à la hauteur des bouleversements en cours ; il consiste en « rien de
moins que la biosphère entière de la planète » (Jonas 1995 [1979],
p. 31), dont dépend in fine la survie de l’humanité. Jonas ne permet
pas le moindre doute à cet égard : l’imputabilité des conséquences,
c’est-à-dire l’a ribution de responsabilité, ne peut qu’échoir à une
forme de « l’agir collectif ». Autrement dit, l’ampleur des mutations
technologiques « déborde en permanence les conditions de chacun
des actes qui y contribuent » (Jonas 1995 [1979], pp. 31-33). Bien sûr,
l’acte individuel est à la base de tout agir et en forme la condition
indépassable, mais il n’est pas concevable d’y restreindre les formes
de la responsabilité – Jonas est limpide à ce sujet.
La figure de la responsabilité collective implique
l’incertitude radicale
Ce sont donc les caractéristiques de notre nouvelle puissance
de bouleversement, inscrite au cœur des logiques actuelles de
l’innovation, qui invitent à repenser la responsabilité sur un mode
collectif. La théorie de la « société du risque116 » (Beck 2001 [1986])
repose également sur ce constat d’un profond changement qualitatif
de la nature des risques technologiques, qui invite à repenser les
contours de la responsabilité (Giddens, 1999). Fruits de l’activité
humaine, ils se produisent à une échelle de grandeur inédite, sont
souvent irréversibles, ils transgressent les frontières ; en outre, si
leur survenance est certaine, parce que endogène aux processus
d’innovation technoscientifique117, leur nature et leur ampleur n’est
accessible que par un savoir prévisionnel (Jonas 1995 [1979], p. 33).
Un tel savoir est forcément instable, de sorte que c’est avant tout
116
Largement fondée, dans ses prémisses épistémiques, sur « l’heuristique de
la peur » de Jonas.
117
Au sens que B. Bensaude-Vincent donne à ce terme (Bensaude-Vincent
2009, pp. 52-54).
297
une profonde incertitude qui marque l’agir contemporain, les choix
politiques y a érents (Callon 2001) et, en conséquence, la question de
la responsabilité.
Or, les risques modernes participent de ce que Beck appelle un
système « d’irresponsabilité organisée ». Il entend par là souligner
l’impossibilité fondamentale d’imputer unilatéralement un dommage
spécifique à un acteur social en particulier. Par conséquent, toute forme
de responsabilité collective se doit d’adme re sa non-imputabilité directe
(Beck 2001 [1986], pp. 57-59). Or, l’irresponsabilité de chacun ne peut
trouver de résolution satisfaisante que dans la responsabilité de tous,
de la collectivité. C’est donc bien à la mise en œuvre d’un système
de responsabilité collective que nous invitent les développements
récents en sciences sociales autour des risques technologiques. Le
corollaire consiste à adme re les limites de notre savoir prévisionnel,
à reconnaître l’incertitude radicale qui fonde les développements
contemporains, en un mot, à faire preuve « d’humilité » (Jasano
2003).
Quelles sont donc les conséquences de ce qui précède pour
ce qui concerne l’acception classique de la responsabilité ? Ces
développements récents défient la notion traditionnelle de
« responsabilité individuelle » du fait de l’agent libre et pleinement
conscient des conséquences de ses actes. Ce dernier est, à la fois, partie
d’un système qui « déborde » son champ d’action et, simultanément,
sujet à ce e ignorance fondamentale qui est notre lot commun, quant
au devenir des évolutions actuelles de la science et de la technologie.
En d’autres termes, ce que ces théories ont contribué à clarifier, c’est
l’idée d’un certain détachement de l’action individuelle, à laquelle
n’est pas réductible une responsabilité d’une ampleur telle qu’elle ne
peut être imputable qu’à la collectivité.
Les nanotechnologies fourniraient-elles l’occasion de penser
à nouveaux frais la question de la responsabilité, au travers du
développement de « l’innovation responsable » ? On le sait, la notion
fait son chemin dans les politiques publiques, dans un étroit parallèle
avec les programmes de nanotechnologies (Laurent 2010, pp. 58-60).
Si l’élément générateur de la responsabilité est connu – l’innovation118
– et n’est pas disputé ici, ce qui l’est en revanche, c’est la question
118
C’est-à-dire, en l’espèce, les conséquences futures potentiellement
dommageables du développement volontariste des nanotechnologies.
298
de l’imputabilité. Pour y répondre, il convient dès à présent de se
pencher sur les principaux documents publics pertinents, pour tenter
de déceler les lignes de partage que ceux-ci tracent, sur la question de
la responsabilité.
Fortune d’un objectif de politique publique
Le « développement responsable » prôné par la NNI
Dans le domaine des nanotechnologies, le premier plan stratégique
de politique publique est adopté dans le cadre de la politique
scientifique des États-Unis, au tournant du siècle (NSTC, 2000). Fruits
d’un long processus de consultations, dont il ressort la convergence
d’un certain nombre de disciplines scientifiques à l’échelle du
nanomètre, la National Nanotechnology Initiative (NNI) entérine un
soutien de principe des autorités publiques à la R&D relative aux
nanotechnologies (Laurent 2010, pp. 21-24). Bien qu’opérant un
déplacement vers les intérêts industriels en présence119, ce document
séminal annonce déjà une a ention soutenue portée aux enjeux dits
« sociétaux ». Ainsi, comme le montre B. Laurent, « dès les premiers
appels à projets de la NNI, les chercheurs en sciences humaines sont
concernés : le programme fédéral américain a end des éthiciens, des
philosophes, des économistes qu’ils étudient les implications sociales
des nanotechnologies » (Laurent, 2010, p. 57).
Très rapidement, cependant, les déclinaisons opérationnelles
des politiques publiques dans le domaine des nanotechnologies
vont commencer à déployer une rhétorique autour du concept
de « développement responsable* »120. Ce dernier est introduit
par l’acte législatif fondateur instituant le programme national de
nanotechnologie outre-Atlantique, le « 21st Century Nanotechnology
Research & Development Act » (US Congress, 2003). Ce document
est intéressant de par son statut et la valeur juridique qu’il revêt. Il
119
Voir à ce sujet le témoignage de C. Joachim, directeur au CNRS et
pionnier du nanomonde (Joachim et Plévert, 2008). Il s’agit d’une tension
entre deux approches des nanotechnologies, la « miniaturisation » et la
« monumentalisation », laquelle a connu son apogée en 2003, date de sa
résolution, au moins provisoire (Rip 2009).
120
Sauf mention contraire, nous traduisons librement les extraits de documents
publiés en anglais, ce que nous marquons d’un astérisque en fin de citation.
299
confère à l’idée de « développement responsable » la portée d’un
objectif à a eindre. Cependant, plus précisément, l’Act aborde ce e
ambition de manière incidente, sous la forme d’un rapport triennal
commandité au National Research Council (NRC). Le législateur
étatsunien s’aventure à mentionner, à titre exemplatif, certains des
éléments dont se compose, selon lui, le « développement responsable ».
Ceux qu’ils citent reflètent les préoccupations du moment ; il est ainsi
fait mention de thématiques aussi variées que le human enhancement
(sous l’angle cognitif), le problème de l’auto-réplication, ou encore de
la dissémination dans l’environnement (US Congress, 2003, Section 5,
point c).
Trois ans plus tard, en 2004, le NRC est fidèle au rendez-vous
et présente son rapport triennal, qui porte donc, notamment, sur le
« développement responsable » (NRC, 2006, pp. 73-98). Pourtant, la
conception qu’en propose le NRC opère une singulière réduction
des éléments soulevés par le Congrès américain. Le rapport le
précise d’emblée, dès sa préface : il s’agira de se focaliser sur les
« préoccupations tangibles* », c’est-à-dire les enjeux de risques,
ceux qui sont mesurables en termes d’impact sur l’environnement,
la santé publique ou la sécurité. Ceux-ci, désignés par l’acronyme
« EHS » (environment, health and safety) présentent la caractéristique
d’être susceptibles de connaissance scientifique ; ils sont en principe
calculables et, à ce titre, prévisibles. Ce choix est alors justifié par la
complexité inhérente du sujet et le manque de données disponibles,
le NRC a rmant sa volonté de faire œuvre « utile »121 (NRC, 2006,
p. x). Toutefois, l’approche du « développement responsable » de
la nanotechnologie y est caractérisée, dans une démarche inédite,
comme consistant « à équilibrer les e orts en vue de maximiser les
apports positifs de la technologie, tout en minimisant ses conséquences
négatives* » (NRC 2006, p. 73)122. Garantir les bénéfices, amoindrir les
risques : tel est le crédo de la démarche d’« innovation responsable ».
121
Il est à noter qu’un chapitre entier est dévolu au débat brûlant de l’époque,
à savoir la possibilité théorique d’une auto-réplication de masse d’engins
moléculaires, qui est dans le rapport considérée essentiellement sous l’angle
de sa faisabilité technique (NRC 2006, pp. 99-109). On sent toutefois dans
l’approche générale du NRC une volonté de se départir de discussions par
trop spéculatives.
122
Ce faisant, le NRC dote la démarche de « développement responsable »
d’une économie générale, aussi large fût-elle ; jusqu’alors, le plan stratégique
de la NNI y voyait l’agrégat des démarches portant sur les risques et les enjeux
ELSA (NSTC 2004, pp. 10-13).
300
Depuis lors, c’est dans ce e acception générale que s’est épanoui
et répandu l’objectif politique d’un « développement responsable »
des nanotechnologies, aux Etats-Unis. Ainsi, les plans stratégiques
successifs adoptés dans le cadre de la NNI en ont fait un de leurs
quatre piliers fondateurs, qui s’a rme au fil des versions (NSTC, 2004 ;
2007 ; 2011a). La recherche sur les problèmes HES capte l’essentiel de
l’a ention, au détriment des problématiques dites « ELSA123 » (aspects
éthique, légal et social). Sur ces derniers enjeux, l’approche stratégique
soutenue fait d’ailleurs la part belle à la communication, destinée à
« éduquer le public », ou à tout le moins à promouvoir une démarche
de « dialogue » avec ce même public. L’approche préconise également
un accroissement des ressources éducationnelles (NSTC 2007, p. 20).
En 2011, ce mouvement s’accroît ; une partie signifiante des enjeux
« ELSA », préalablement appréhendée au titre du développement
responsable, se trouve « délocalisée », ra achée notamment à un
autre des grands objectifs stratégiques : le volet éducatif (NSTC 2011b,
point 3.2., p. 26).
Cela participe d’un mouvement stratégique plus général de
dissociation, d’un côté, des enjeux « EHS », autour desquels se recentre
et se recompose le développement responsable des nanotechnologies
et, de l’autre, des enjeux ELSA qui se voient distribués sur l’ensemble
des objectifs stratégiques du programme, chaque fois qu’il y a lieu.
On peut ainsi lire dans la dernière version du plan stratégique NNI,
où d’ailleurs le volet « sociétal » per se est réduit à la portion congrue,
que « les problèmes ELSI sont entrelacés avec tous les objectifs de la
NNI et se voient intégrés dans chacun des ‘besoins’ de recherche décrits
dans la stratégie EHS* » (NSTC 2011a, p. 32). Concrètement, plusieurs
agences, chacune pour le domaine dont relève sa compétence, me ent
en œuvre des instruments qui concourent au « développement
responsable ». Parmi elles, seule la National Science Foundation
(NSF), traditionnellement plus proche des milieux académiques,
propose une réflexion dans les termes « ELSI » (NSTC 2011b, pp. 3038). Toutes les autres focalisent sur les aspects toxicologiques et les
enjeux de type « EHS ». Lorsqu’ils sont abordés, les enjeux ELSI le
sont, soit par des démarches de « dialogue » avec les parties prenantes
ou « le public » (Barben, 2008), soit au travers de programmes éducatifs
123
La terminologie de la NNI utilise l’acronyme « ELSI », où il est question
des « impacts » éthiques, légaux et sociaux, lorsque l’approche européenne
préfère parler d’ « aspects ». Par souci de lisibilité, nous employons l’acception
européenne de l’acronyme.
301
(voir not. NSTC 2004, p. 13). Dans ce premier cas, ils concernent la
plupart du temps le citoyen-électeur, qui doit pouvoir exprimer ses
préférences individuelles, ou le consommateur, qui doit pouvoir
prendre des décisions « informées », en connaissance de cause, par
une information appropriée sur la composition et la traçabilité des
produits. Cela implique donc que les enjeux sociétaux puissent être
anticipés et produits avec su samment de clarté pour perme re un
choix clair et posé en connaissance de cause.
Ce e préoccupation se manifeste très clairement via l’allocation
de moyens budgétaires. Les budgets a érents au « développement
responsable » augmentent plus que proportionnellement, eu égard
aux investissements totaux consentis dans le cadre de la NNI. Ils
traduisent donc une a ention accrue des autorités publiques à ce sujet.
C’est surtout vrai des financements portant sur les enjeux « EHS »,
qui s’élèvent à 124 millions $ annuels sollicités pour l’exercice 2012
(à comparer avec les 35 millions $ qui y ont été dévolus en 2005)
(NSTC 2011, p. 33). Ils demeurent toutefois marginaux, lorsqu’ils sont
rapportés à la masse globale, d’un montant annuel avoisinant les 1,85
milliards $, dont ils représentent environ 6,3 %, pour 2011124 (NSTC
2010, p. 7). Les enjeux « ELSA », quant à eux, recueillent aux alentours
de 2,5 à 3 % des financements125.
Il ressort de ce qui précède une double conclusion. Tout d’abord,
l’approche américaine de la « responsabilité » repose essentiellement sur
la fiction d’un contrôle très abouti des impacts des nanotechnologies.
Que ceux-ci concernent la santé, la sécurité ou l’environnement, il est
possible de les circonscrire et d’en avoir une connaissance parfaite. Il est
donc fait référence ici à un état de nature stabilisé comme fondement
de l’éthique, à l’exact opposé de l’analyse formulée par Jonas126. Brice
Laurent, dans son ouvrage sur Les politiques des nanotechnologies,
qualifie ce e posture « d’éthique-vérité » (Laurent 2010, p. 144), et
124
Ce e augmentation plus que proportionnelle sur les enjeux « EHS »,
a connu un petit bond en avant en 2011, qui s’explique par l’implication
financière inédite de la Food and Drugs Administration et de la Consumer Product
Safety Commission (NSTC 2010, p. 7).
125
Les budgets ELSI portant aussi bien sur les e orts de recherche que
ceux d’éducation, dorénavant, il devient di cile de départager les budgets
spécifiques qui y sont exclusivement dédiés.
126
Pour qui ces fondements sont invalidés par la transformation de nos moyens
techniques, leur ordre de grandeur, leurs objets inédits et leurs conséquences
radicalement imprévisibles (voir not. Jonas 1995 [1979], p. 30).
302
dénonce les apories auxquelles elle conduit (Laurent 2010, pp. 122132). Il n’est donc pas question, ici, de prendre en considération
l’incertitude profonde qui marque ces développements, encore moins
à l’échelle où l’ont théorisée Jonas ou Beck – menaces globales, risques
sur la biosphère.
La seconde conclusion découle logiquement de la première ; dans
la plupart des cadrages institutionnels, c’est bel et bien à l’individu
qu’il incombe d’assumer la « responsabilité », c’est-à-dire de faire
la balance des risques et bénéfices, et des enjeux sociétaux – donc
de valeur ; le chercheur, le citoyen-électeur ou le consommateur.
De la sorte, puisque les faits générateurs de la responsabilité
sont susceptibles de connaissance, alors l’individu est tenu à sa
responsabilité morale, c’est-à-dire à une réflexion antérieure sur les
conséquences prévisibles de ses actes. C’est bien ce qu’indique le
mouvement de « décentralisation » des enjeux ELSA, qui tendent
à se retrouver à di érents moments au cours desquelles l’individu
(le praticien en devenir, le citoyen, le consommateur) peut en faire
l’apprentissage, et prendre des décisions en connaissance de cause.
On retrouve ici la conception classique de la responsabilité, qui
repose sur l’idée d’un homme libre et en mesure d’être conscient
de la pleine portée de ses actes.
L’action européenne : la mobilisation d’enjeux sociétaux à
destination de la recherche publique
Au niveau européen, une formule domine le débat sur les
nanotechnologies de la tête et des épaules ; il s’agit de promouvoir
une « stratégie de nanosciences & nanotechnologies sûre, intégrée
et responsable127 » (EC 2005). Ces trois caractéristiques sont
considérées comme le point d’ancrage par excellence de la politique
européenne en matière de nanotechnologies (von Schomberg, sous
presse, p. 5). Le vocabulaire employé frappe par son étroite proximité
avec les politiques publiques américaines. Pourtant, à l’examen,
de nombreux flo ements se font jour sur la manière d’utiliser les
concepts et, surtout, sur les significations qu’ils recouvrent. On le
constate à la di érence de tonalité entre l’intention d’une stratégie
127
Ce e caractérisation o cielle de l’approche européenne est entérinée
comme noyau de l’approche européenne, validé par les parties prenantes (EC
2007, p. 2).
303
en matière de nanotechnologies, exprimée en 2004, et ladite
stratégie, dans sa déclinaison opérationnelle, adoptée en 2005.
Ainsi, tout d’abord, la Commission européenne publie en 2004 une
communication intitulée « Vers une stratégie européenne en faveur
des nanotechnologies » (Commission européenne 2004). Ce premier
document met fortement l’accent sur les dimensions éthiques et leur
nécessaire intégration à un stade précoce (Commission européenne
2004, pp. 22-23). Phénomène étonnant : une substance particulière est
conférée à ces dimensions « éthiques ». Il est ainsi fait explicitement
référence à une série de textes fondateurs de droits, dont la Charte des
droits fondamentaux de l’Union européenne. Cinq valeurs absolues
forment la charpente de ce e éthique-là, à titre non-exclusif : « respect
de la dignité, autonomie de l’individu, justice et bienfaisance, liberté
de la recherche, et proportionnalité » (Commission européenne 2004,
point 3.5.1., § 2nd, p. 23). Ces principes ou, à tout le moins, « certains
principes éthiques doivent être observés et, le cas échéant, mis à œuvre
[sic] par voie réglementaire » (Commission européenne 2004, point
3.5.1., §1er). La section suivante propose trois manières de perme re
« au public » de « comprendre l’invisible » : information, communication
et dialogue. En partant du constat que les nanotechnologies sont très
mal connues dans l’opinion publique, ce e section propose une série
d’initiatives didactiques pour améliorer leur connaissance, suite à
quoi pourrait s’engager un authentique « dialogue », en ce sens que
les opinions publiques pourraient influencer les décisions de politique
scientifique. On comprend donc que ce document fondateur n’est
pas exempt de contradictions entre les principes forts auxquels il a
l’audace de se référer, et la relative timidité des moyens qu’il entend
me re en œuvre pour mobiliser ces principes et les traduire dans les
pratiques.
Cependant, ce e ambivalence est tranchée en supprimant toute
référence aux principes éthiques mentionnés ci-dessus dans les plans
opérationnels de la Commission, en particulier « Nanosciences et
nanotechnologies : Un plan d’action pour l’Europe 2005-2009 » (ciaprès « plan d’action N&N », Commission européenne, 2005). Ce
plan d’action, pour sa part, propose un alignement presque total sur
la conception américaine du « développement responsable » : on y
retrouve l’idée de s’assurer la réalisation des bénéfices potentiels, tout
en se prémunissant des risques éventuels, dont la survenance est de
toute façon perçue comme, à la fois, banale et inéluctable (puisque
304
consubstantiels à « n’importe quelle technologie ») (Commission
européenne, 2005, p. 8). Si la catégorie de l’éthique y est toujours
bien présente, elle se voit réduite aussi bien quant à ses destinataires
(la R&D financée par la Commission, à l’exclusion des investisseurs
industriels) que dans sa portée. En e et, les quelques exemples
concrets par rapport auxquels une démarche éthique est envisagée128
ne ressortissent pas au même registre que les principes généraux
précités.
Les deux catégories d’enjeux, EHS et ELSA, doivent répondre
au même impératif « d’intégration », c’est-à-dire de distribution
aux di érentes étapes des processus de R&D qui le justifieraient.
À ce titre, l’approche européenne s’apparente à bien des égards à
celle de la NNI. Ainsi, toutes les questions liées aux risques (sur la
santé, l’environnement, les consommateurs ou les travailleurs), pour
leur part, doivent « être intégrée[s] de manière responsable à tous
les stades du cycle de vie de la technologie, depuis sa conception,
en passant par la R&D, la fabrication, la distribution, l’utilisation et
jusqu’à l’élimination ou le recyclage » (Commission européenne 2005,
p. 11). Il en va de même des principes éthiques, qu’il s’agit d’« intégrer
à un stade précoce du processus de R&D une réflexion concernant les
incidences sur la société et encourager un dialogue avec les citoyens »
(Commission européenne 2005, p. 3). On retrouve le même souci d’une
distribution de ces enjeux, entre autres, au stade de la formation et de
l’enseignement des chercheurs.
Toutefois, la Commission propose, dans les domaines ELSA, des
outils originaux, d’initiative publique, qui doivent retenir toute notre
a ention. En réalité, la catégorisation de ce qui ressortit à « l’éthique,
du légal ou du social » s’adresse, au sein de l’Union européenne, aux
mécanismes institutionnels de recherche, de deux manières principales
– qui nous paraissent être des innovations institutionnelles, au moins
dans une certaine mesure.
La première consiste en un « ethical review » des propositions de
recherche émises par des consortiums européens qui sollicitent un
financement ressortissant du programme-cadre. Ce e évaluation
éthique, produite par un panel d’experts en éthique, vise à « estimer si
la proposition de projet a correctement identifié et abordé les problèmes
128
Nanomédecine ; vie privée et capteurs invisibles ; interventions nonthérapeutiques sur le corps humain.
305
éthiques en jeu* » (Commission européenne 2009, p. 65). Il s’agit donc
ici pour la Commission de se profiler, au travers de sa DG Recherche,
comme garante des intérêts éthiques, pour ce qui concerne les moyens
financiers alloués par elle. Elle délimite explicitement la fonction de
ce e évaluation éthique, qui se conçoit comme un accompagnement
informatif, à visée éducative. Sans discuter l’e cacité du mécanisme,
il présente ce e particularité de se placer en amont de la recherche
elle-même, et de proposer une vision davantage « collective » de la
responsabilité. En e et, le placement d’une intervention précoce et
systématique sur les « problèmes éthiques » revient à adme re le
caractère endémique des risques, c’est-à-dire à postuler que toute
recherche est potentiellement concernée par une problématisation
de ses dimensions éthiques.
Cependant, ce e approche très en amont n’est pas sans poser
une série de problèmes conceptuels et pratiques. Tout d’abord,
l’évaluation éthique consacre une certaine « division du travail » :
l’éthique aux éthiciens (les experts qui se prononcent sur le bienfondé éthique des projets), les nanotechnologies aux scientifiques. Il
s’agit ensuite d’une démarche purement ponctuelle, et qui intervient
à un stade très précoce, auquel il n’est pas toujours possible
d’identifier les débouchés très concrets du projet de recherche
financé. En outre, ce e évaluation n’est e ectivement conduite que
dans des cas flagrants et relativement limités, tels que les projets qui
touchent à la thérapie génique ou, plus généralement, à la génétique.
La plupart des scientifiques que nous rencontrons se contentent de
proclamer l’inapplicabilité des problèmes éthiques aux projets qu’ils
soume ent ; se pose donc la question de l’e ectivité du mécanisme,
s’agissant de stimuler une réflexion sur les enjeux ELSA. Sur ce
point, on constate donc qu’en dépit de la conception collective de
la responsabilité qui sous-tend l’outil, son utilisation repose in
fine, pour une très large part, sur une décision discrétionnaire des
scientifiques129. Enfin, ce mécanisme porte exclusivement sur la
recherche financée par la Commission européenne, ce qui limite le
champ d’application de ce e évaluation.
129
Pour être précis, ce ne sont pas les scientifiques qui établissent
limitativement les domaines dans lesquels des réserves de nature « éthique »
trouvent à s’appliquer. Toutefois, l’expérience leur apprend que très peu de
domaines d’activité scientifique, hors le domaine biomédical, conduisent à
une évaluation éthique plus poussée.
306
Le second mécanisme institutionnel retenu pour promouvoir
« l’innovation responsable », sous sa forme européenne, prend
la forme d’une recommandation de la Commission européenne
« concernant un code de bonne conduite pour une recherche
responsable en nanosciences et nanotechnologies » (ci-après le « code
de conduite N&N » (Commission européenne 2008). En tant que telle,
ce e recommandation s’adresse aux États membres, qui se voient
encouragés à prendre en considération (points 1 à 3) et à promouvoir
(point 4) l’adoption des « principes généraux et lignes directrices » que
contient ledit code. De par son statut, ce document ne dispose d’aucun
pouvoir légal et sa mise en œuvre repose donc sur une base purement
volontaire. Pour ce e raison, la Commission le considère avant tout
comme un « instrument de promotion du dialogue » (Commission
européenne 2008, p. 4). Dans son optique, « ce code peut a eindre des
objectifs de gouvernance là où une législation ne le pourrait pas ! * »
(von Schomberg 2009).
Quels objectifs généraux poursuit donc le code ? « Le code de
bonne conduite invite ‘toute les parties prenantes’ à agir de manière
responsable et à collaborer entre elles130 » (von Schomberg 2009, p. 6,
nous soulignons). Un appel si générique ne peut se concevoir qu’au
titre d’un objectif général, c’est-à-dire dépourvu a priori de toute
spécificité. À qui donc revient-il d’agir de « manière responsable » ?
Dans sa conception131, le code de conduite N&N entend s’adresser à
chacun des rouages du système de développement et de production
des nanotechnologies – les fameuses « parties prenantes » précitées
– et vise explicitement à « organiser la responsabilité collective* »,
soit la responsabilité telle qu’elle résulte d’un ensemble d’actions
coordonnées de la part desdites parties prenantes (von Schomberg
2010a). Si les conséquences en cascade de l’innovation technologique
sont le produit « d’une action collective ou des systèmes sociétaux
en place, à l’instar de notre économie de marché* », il importe alors
130
« Parties prenantes dans les N&N » [nanosciences et nanotechnologies]
sont définies au point 2, c : « les États membres, les employeurs, les bailleurs
de fonds en faveur de la recherche, les chercheurs et, plus généralement,
toutes les personnes et organisations de la société civile qui participent ou
s’intéressent à la recherche en N&N ».
131
Les lignes qui suivent reposent à la fois sur le « code de conduite »,
l’instrument o ciel dont s’est doté la Commission européenne, et sur les
travaux de son initiateur et promoteur auprès de la DG Recherche, René von
Schomberg.
307
d’organiser « une éthique de la co-responsabilité* » (von Schomberg
2010a, p. 61-62). Il devient par conséquent possible de demander aux
individus non pas de répondre, mais d’avoir du répondant132, c’està-dire une capacité à entamer un dialogue et, pour chacun, à élargir
les perspectives contenues par sa propre action. Voilà pour la vision
théorique.
Par quel dispositif le code entend-il parvenir à ses fins, à traduire
ce e intention de principe ? Le code est fondé sur sept principes
généraux, qu’il s’agit de garantir et de me re en œuvre, notamment
par le biais d’une série de « lignes directrices ». Toutefois, la
majorité des principes visent, de manière privilégiée, « les activités
de recherche », c’est-à-dire, in fine, le travail du scientifique financé
par la Commission (principes de « signification », de « durabilité »,
de « précaution » et « d’excellence »). Deux principes visent plus
particulièrement « la gouvernance des activités de recherche133 »
(principes « d’inclusion » et « d’innovation »). Enfin, un septième et
dernier principe doit retenir tout particulièrement notre a ention ; il
s’agit du principe de « responsabilité ». C’est ici, pensons-nous, qu’il
faut chercher le fin mot du régime d’imputabilité mis en œuvre par le
code de conduite N&N. Ce principe stipule que « Les chercheurs et les
organismes de recherche demeurent responsables des incidences sur
la société, l’environnement et la santé humaine que leurs recherches
en N&N peuvent entraîner pour les générations actuelles et futures »
(EC 2008, point 3.7., nous soulignons). La portée opérationnelle de
ce principe est bien entendu inexistante ; il n’est pas ici question de
me re en cause la responsabilité juridique des chercheurs devant le
système judiciaire.
Il n’en demeure pas moins vrai que ce code de bonne conduite
constitue un bon exemple de la vision hybride de la responsabilité qui
tend à faire son chemin dans les politiques publiques, dans le domaine
des nanotechnologies. D’un côté, il s’agit d’un code de bonne conduite,
qui concerne donc au premier chef des conduites individuelles. C’est
132
En anglais, la « co-responsabilité », sorte de responsabilité indirecte,
comprend, tout en le dépassant, le fait pour les individus d’être « personally
responsive » (von Schomberg 2010a, p. 62).
133
Qui doit être « guidée par les principes d’ouverture, de transparence et
de respect » (principe d’inclusion) ; la gouvernance, en outre, « encourage
au maximum la créativité, la flexibilité et l’aptitude à anticiper en faveur de
l’innovation et de la croissance » (principe d’innovation) (points 3.4. et 3.6. du code
de conduite N & N, nous soulignons).
308
donc le caractère individualisant de la notion de responsabilité qui
est ici à l’œuvre. D’un autre côté, cependant, ce e dernière ne porte
plus sur le champ relativement stabilisé des risques sur la santé et
de l’environnement, donc on postulerait qu’ils sont accessibles par
une démarche de connaissance scientifique, « d’éthique-vérité ». En
e et, dans le cas de ce code, la responsabilité doit s’entendre comme
une responsabilité morale, portant sur des principes généraux, qu’il
appartient à l’individu d’intérioriser et de traduire dans la pratique.
Si la référence à ces principes est à même de prendre en compte, ou de
me re en scène, l’incertitude radicale qui marque le développement
des nanotechnologies, en revanche il n’est pas certain qu’elle trouve à
s’articuler au niveau le plus propice. C’est là un mouvement classique
de « transfert de responsabilité », que Hache avait bien anticipé (Hache
2008, p. 51), qui se traduit non pas par une action directe des pouvoirs
publics, mais par une délégation de la responsabilité, à destination
d’individus rationnels et autonomes. L’enjeu est bien d’influencer le
comportement a endu de ces derniers, sans intervention directe des
autorités (Hache 2008, p. 53).
C’est exactement ce qui est à l’œuvre dans le cas des
nanotechnologies. Tout d’abord, une première phase qui consiste à
« rendre indésirable un certain type de comportement » (Hache 2008,
p. 53). Il s’agit de disqualifier une manière usuelle de faire science, qui
serait inscrite dans une vision linéaire du progrès technologique et
qui ne reme rait jamais en question ses propres impacts, sur la nature
ou la société ; une science, autrement dit, qui ne serait pas réflexive.
Par ces instruments dont le code de conduite nous semble l’exemple
le plus abouti, l’enjeu est ensuite de « rendre désirable un autre type
de comportement, un comportement dit ‘responsable’ précisément »
(Hache 2008, p. 51).
Conclusions
Dans ce chapitre, nous sommes partis du discours politique
de « l’innovation responsable », qui se distingue en dernier ressort
par la conception de la « responsabilité » qu’il met en œuvre. Par
l’association qu’il propose entre ces deux termes, « innovation » et
« responsable », ce discours est marqué par une profonde tension,
qui stabilise un ordre particulier du politique. À qui revient-il de
309
répondre du développement des nanotechnologies ? Ce e tension est
à chercher, sur un plan théorique, dans le choix et l’usage de la notion
de « responsabilité », que nous avons tenté d’éclaircir sommairement.
Nous avons ensuite proposé d’examiner la manière dont ce e notion
était mise en œuvre dans les programmes de politique publique les plus
déterminants, aux États-Unis et dans l’UE. Dans les deux cas, on constate
que la volonté a chée est de « responsabiliser » l’innovation par une
« responsabilisation », ou une « mise en responsabilité », des individus
impliqués à une étape ou à une autre du processus d’innovation.
On le comprend donc, un hiatus se produit entre, d’une part, la
conception autonome de l’individu rationnel, en pleine possession de
ses moyens quant aux décisions qu’il prend, à qui il incombe dorénavant
de faire preuve de responsabilité et, d’autre part, la nature de plus en
plus collective, collaborative, interdisciplinaire, morcelée, des processus
d’innovation. L’innovation est, de manière croissante, le fait d’une Big
Science, d’imposants réseaux de laboratoires et de centres de recherches,
qui se répartissent les tâches et ventilent donc, avec une extrême précision,
les rôles limités dévolus à chacun. Dans ces conditions, comment
postuler la possibilité pour l’individu d’agir de manière responsable ? Ce
n’est possible qu’au prix d’une fiction moraliste, qui vise à faire reposer
le poids des conséquences du développement des nanotechnologies
sur les individus qui y seront confrontés d’une manière ou d’une autre.
Ce hiatus, dans le cas des nanotechnologies auquel nous nous sommes
a achés, se traduit volontiers par un oxymore. Il s’agit, en l’espèce,
d’hybrider deux réalités contradictoires, pour faire émerger ce e entité
qui a pour nom « l’innovation responsable ». La tension fondatrice qui
sous-tend l’association de ces deux termes est loin d’être résolue dans les
instruments de politique publique qui les me ent en musique. Bien au
contraire, ceux-ci transfèrent à bon compte l’idée d’une responsabilité,
collective et lourde d’incertain, sur les épaules de ceux qui, bien que
situés en première ligne des processus d’innovation, sont débordés par
eux de tous côtés.
Références
Barben D., Fisher E., Selin C. et Guston D., « Anticipatory Governance
of Nanotechnology : Foresight, Engagement and Integration »,
Hacke E., Amsterdamska O., Lynch M. et Wajcman J. (éds.),
310
Handbook of Science and Technology Studies. Third Edition, Cambridge (MA), MIT Press, 2008, pp. 979-1000.
Beck U., La société du risque. Sur la voie d’une autre modernité, trad. L.
Bernardi, Paris, Flammarion, 2001.
Bensaude-Vincent B., « Nanotechnologies : une révolution annoncée »,
Études 411(12), 2009a, pp. 605-616.
Bensaude-Vincent B., Les vertiges de la technoscience. Façonner le monde
atome par atome, Paris, La Découverte, 2009b.
Breton P., La parole manipulée, Paris, La Découverte, 2000.
Callon M., Lascoumes P. et Barthe Y., Agir dans un monde incertain. Essai sur la démocratie technique, Paris, Seuil, 2001.
Clinton W. J. et Gore A., Science in the National Interest, O ce of Science
and Technology Policy, 1994.
Commission européenne, « Vers une stratégie européenne en faveur
des nanotechnologies », COM(2004) 338 final, 2004.
Commission européenne, « Nanosciences et nanotechnologies : Un
plan d’action pour l’Europe 2005-2009 », COM(2005) 243 final,
2005.
Commission européenne, Recommandation de la Commission concernant un code de bonne conduite pour une recherche responsable
en nanosciences et nanotechnologies », C(2008) 424 final, 2008.
Genard J.-L., La grammaire de la responsabilité, Paris, Cerf, 1999.
Giddens A., « Risk and Responsability », The Modern Law Review 62(1),
1999, pp. 1-10.
Gorz A., « L’écologie politique entre expertocratie et autolimitation »
(1992), dans Gorz A., Ecologica, Paris, Galilée, 2008.
Fauconnet P., La responsabilité. Étude de sociologie, Paris : Librairie Félix
Alcan, 1928 [1920].
Foucault M., Naissance de la biopolitique. Cours au Collège de France,
1978-1979, Paris, Gallimard/Seuil, 2004.
Hache E., « La responsabilité, une technique de gouvernementalité
néolibérale ? », Raisons politiques 4(28), 2007, pp. 49-65.
Jasano S., « Technologies of humility: Citizen participation in governing science », Minerva 41(3), 2003, pp. 223-244.
Joachim C., Plévert L., Nanosciences. La révolution invisible, Paris, Seuil,
311
2008.
Jonas H., Le principe responsabilité. Une éthique pour la civilisation technologique, trad. fr. J. Greisch, Paris, Flammarion, 1995 [1979].
Lascoumes P., « La gouvernementalité : de la critique de l’État aux
technologies de pouvoir », Le Portique 13-14 , 2004, pp. 169-190.
Lascoumes P. et Le Gales P., « Understanding Public Policy through its
Instruments – From the Nature of Instruments to the Sociology of
Public Policy Instrumentation », Governance: an International Journal of Policy, Administration and Institutions 20(1), 2007, pp. 1-21.
Laurent B., Les politiques des nanotechnologies. Pour un traitement démocratique d’une science émergente, Paris, Charles Leopold-Mayer,
2010.
Méheust B., La politique de l’oxymore, Paris, La Découverte, 2009.
National Research Council (NRC), A Ma er of Size: Triennial Review of
the National Nanotechnology Initiative, Washington D.C., The National Academies Press, 2006.
National Science and Technology Council (NSTC), National Nanotechnology Initiative. The Initiative and Its Implementation Plan, 2000.
National Science and Technology Council (NSTC), National Nanotechnology Initiative. Strategic Plan, 2004.
National Science and Technology Council (NSTC), National Nanotechnology Initiative. The Initiative and Its Implementation Plan, 2007.
National Science and Technology Council (NSTC), National Nanotechnology Initiative. The Initiative and Its Implementation Plan, 2011a.
National Science and Technology Council (NSTC), The National Nanotechnology Initiative. Research and Development Leading to a Revolution in Technology and Industry. Supplement to the President’s 2012
Budget, 2011b.
Rip A. et von Amerom M., « Emerging de facto Agendas Around Nanotechnology: Two Cases full of Contingencies, Lock-outs, and
Lock-ins », dans Kaiser M., Kurath M., Maasen S. et RehmannSu er C. (éds.), Governing Future Technologies. Nanotechnology and
the Rise of an Assessment Regime, Sociology of Science Yearbook,
vol. 27, Netherlands : Springer, 2009, pp. 131-156.
US Congress, 21st Century Nanotechnology Research and Development
Act, loi du 9 janvier 2003, doc. parl. S189.
312
Vinck D., Les nanotechnologies, Paris, Le Cavalier Bleu, Idées reçues,
2009.
von Schomberg R., « Organising Collective Responsibility: On Precaution, Codes of Conduct and Understanding Public Debate », dans
Fiedeler U., Coenen C., Davies S. R. et Ferrari A., Understanding
Nanotechnology. Philosophy, Policy and Publics, Heidelberg, IOS
Press, 2010a, pp. 61-70.
von Schomberg R., « Why a ‘Code of Conduct’ ? The CoC can achieve
Governance goals whereas legislation cannot ! », Keynote address,
S.NET annual meeting, Darmstadt, Septembre, 2010b.
von Schomberg R., « Prospects for Technology Assessment in a framework of responsible research and innovation », dans DUSSELDORP M. et BEECROFT R., Technikfolgen abschätzen lehren:
Bildungspotenziale transdisziplinärer Methoden, Wiesbaden, Vs Verlag, sous presse, 2011.
313
La réglementation européenne
des nanotechnologies :
l’éthique entre la recherche
et le développement industriel
Nicole GALLUS134
Introduction
Le juriste qui étudie le cadre normatif européen des nanotechnologies
est immédiatement confronté à un foisonnement de textes complexes
dans lequel coexistent des règlements contraignants et des résolutions
et codes de bonne conduite non contraignants, auxquels s’ajoutent par
ailleurs de très nombreux avis techniques, rapports d’experts, rapports
de comité d’éthique.
L’impression de « sur-réglementation » ou d’« inflation réglementaire »
(Herve-Fournereau 2008, p. 57) rend l’analyse juridique di cile, alors surtout
que seuls quelques textes sont élaborés en fonction des particularités des
nanotechnologies, les autres étant généraux, c’est-à-dire non spécifiques à la
matière, avec le danger d’une réglementation inadaptée aux nouveaux risques.
Pour tenter de clarifier l’analyse et de dégager des lignes directrices
dans l’élaboration d’un cadre normatif adapté, trois questions doivent
être posées :
- la première touche à la définition même des nanotechnologies
et nanomatériaux, définition essentielle puisqu’elle conditionne
le champ d’application de la réglementation
- la deuxième concerne l’objectif de la réglementation en termes
de recherche, de développement économique, de protection de
la santé, de sécurité, d’environnement mais également en termes
éthiques
134
Université Libre de Bruxelles
315
- la troisième question enfin porte sur le contenu de la
réglementation : les nanotechnologies entrent-elles dans le cadre
général de la réglementation existante en matière de recherche,
production, commercialisation des techniques et matériaux ou
supposent-elles une réglementation spécifique eu égard à leurs
particularités, qu’il s’agisse de particularités intrinsèques ou de
celles liées à leur risque potentiel, leur toxicité ?
La définition des nanomatériaux et des
nanotechnologies
En droit, ce e définition constitue la question première,
préalable à toute élaboration d’une réglementation
appropriée puisqu’elle conditionne la fixation du champ
d’application des normes.
Sur ce plan, force est de constater qu’un consensus fait défaut, les
définitions retenues manquant souvent de la rigueur nécessaire.
Ainsi et à titre exemplatif, l’Organisation de coopération et de
développement économiques135 définit les nanotechnologies comme
un ensemble de technologies perme ant de visualiser, manipuler,
étudier, exporter des structures et systèmes – matériau ou machine –,
de « très petite taille », sans autre précision.
Plus souvent, les nanomatériaux sont définis par référence à une
échelle allant de 1 à 100 nanomètres136.
Ainsi, le règlement relatif aux produits cosmétiques137 définit
les nanomatériaux comme étant « les matériaux non solubles ou
biopersistants, fabriqués intentionnellement et se caractérisant par une ou
plusieurs dimensions externes ou par une structure interne, sur une échelle
de 1 à 100 nm ».
La résolution législative du Parlement européen du 25 mars 2009 sur
135
h p://www.oecd.org/sti/nano
1 nm = 1 milliardième de mètre.
137
Règlement (CE) n° 1223/2009 du Parlement européen et du Conseil du 30
novembre 2009 relatif aux produits cosmétiques, art. 2, 1K ; voir infra.
136
316
la proposition de règlement concernant les nouveaux aliments138 contient
une définition plus complexe encore : le « nanomatériau fabriqué est tout
matériau produit intentionnellement qui présente une ou plusieurs dimensions
de l’ordre de 100 nm ou moins ou qui est composé de parties fonctionnelles
distinctes, soit internes, soit à la surface, dont beaucoup ont une ou plusieurs
dimensions de l’ordre de 100 nm ou moins, y compris des structures, des
agglomérats ou des agrégats qui peuvent avoir une taille de plus de 100 nm
mais qui conservent des propriétés typiques de la nanoéchelle ».
Face à ces imprécisions et au manque de consensus sur une question de
terminologie qui conditionne la définition même du cadre normatif, il faut
approuver le Parlement européen lorsqu’il invite la Commission à élaborer
une définition harmonieuse des nanomatériaux139.
En réponse à une question du Parlement européen, la Commission
a, le 14 décembre 2010, confirmé qu’elle travaille à l’élaboration d’une
définition du terme « nanomatériau » qui perme ra de clarifier l’étendue
des obligations juridiques et qui formera une base à partir de laquelle il sera
possible de s’assurer de la conformité à ces obligations140.
La Commission reconnaît également la nécessité d’adapter la
définition aux progrès scientifiques et à l’évolution internationale141.
Il faut souligner que l’harmonisation de la définition des
nanomatériaux est di cile pour plusieurs motifs.
La référence à une échelle de mesure de 1 à 100 nm paraît claire et
simple mais elle est certainement trop réductrice pour toucher tous les
nanomatériaux, substances, objets concernés.
L’application de l’échelle pose en e et la question de savoir s’il
138
COM (2007) 0872. Ce e résolution s’inscrit dans le cadre de la réforme du
Règlement (CE), n° 258/97 du 27 janvier 1997 relatif aux nouveaux aliments et
nouveaux ingrédients alimentaires ; voir infra.
139
Résolution du Parlement européen du 24 avril 2009 sur les aspects
réglementaires des nanomatériaux, 2008/2208 (INI).
140
Réponse donnée par Monsieur DALLI au nom de la Commission, 14
décembre 2010, E-7971/10EN.
141
Communication de la Commission au Parlement européen, au Conseil et
au Comité économique et social européen sur les aspects réglementaires des
nanomatériaux, COM (2008) 366 final – Sec (2008) 2036.
317
faut se référer à toutes les dimensions de l’objet ou à une au moins
de ces dimensions ou encore, se référer à la dimension d’un élément
faisant partie de l’objet.
Certains se demandent plus fondamentalement si le critère de
la dimension est réellement adéquat et s’il ne faudrait pas plutôt
se référer au concept de propriétés, c’est-à-dire de caractéristiques
propres afin de viser les particules à l’échelle nanométrique dont les
propriétés di èrent de celles des matériaux à l’échelle macroscopique
(Vinck 2009, p. 15 ; Ponce Del Castillo 2010 ; Verges 2010, p. 214).
2.3. Un autre obstacle à l’harmonisation des définitions tient
au fait que les nanotechnologies concernent de multiples secteurs
très di érents : cosmétologie, chimie, médicament, médecine142,
dispositifs médicaux, biens de consommation, aliments…
Pour répondre aux di cultés inhérentes à la diversité des
disciplines concernées, la Commission européenne a donné mandat
à un organisme européen de standardisation – CEN, Comité
Européen de Normalisation –, afin de définir des normes perme ant
une uniformisation.
Des groupes de travail143 sont mis en place au niveau européen
et international sur ces questions et ont notamment pour mission
d’élaborer une technologie agréée internationalement pour les
nanotechnologies144.
142
Médecine régénérative, diagnostic, imagerie, médicaments ciblés…
ISO (Organisation Internationale de Normalisation ; h p.//www.
standardsinfo.net/info/livelink/fetch/2000/148478/6301438/standards_
regulations.html), CEN (Comité Européen de Normalisation), OCDE
(Organisation de Coopération et de Développement Economique ; Preliminary
analyses of exposure mitigation in occupational se ings : manufactured
nanomaterials, Series on the safety of manufactured nanomaterials, Number
8, ENV/JM/MONO (2009) 6).
144
Uniformisation du vocabulaire utilisé, identification et nomenclature des
nanomatériaux. Ces organisations ont également pour mission d’élaborer
des protocoles pour les tests de toxicité des nanoparticules (établissement
du risque, méthode d’échantillonnage et de mesure) et des normes pour la
protection des travailleurs (Ponce Del Castillo 2010).
143
318
L’objectif de la réglementation
La deuxième question posée dans l’élaboration d’un
cadre normatif concerne l’objectif poursuivi tant au plan
de la recherche, du développement industriel et de la
compétitivité économique qu’au plan de l’éthique et des
enjeux sociétaux.
De façon très schématique, on peut rappeler que deux grands
courants de pensée se dégagent de l’analyse des nanotechnologies
(Vinck 2009, p. 30).
Le premier voit dans le développement des nanotechnologies une
source de progrès incrémental : les nanotechnologies ne serviront pas
à produire des objets nouveaux mais seulement des matériaux qui
entreront dans la composition de produits déjà existants qui acquerront
ainsi des propriétés ou fonctions di érentes, supplémentaires.
La seconde vision des nanotechnologies est celle d’une révolution
transhumaniste ou posthumaniste qui voit dans ces nanotechnologies
un moyen d’améliorer les performances de l’être humain par la
manipulation de la matière et du vivant avec, en particulier, un
développement de la médecine régénérative perme ant de neutraliser
les e ets du vieillissement et d’assurer à l’homme l’immortalité.
Dans ce e conception, l’homme n’est qu’une concrétion éphémère
et manipulable de gènes et de cellules, les sentiments, les pensées,
l’esprit, la conscience n’étant que le résultat d’une combinaison de
substances chimiques.
La convergence des nanotechnologies, des biotechnologies,
de l’informatique et des sciences cognitives doit perme re une
amélioration de l’humain, une abolition des frontières entre humain
et machine avec comme objectif final, l’accession à l’immortalité et la
puissance absolue145.
Ce e seconde vision « transhumaniste » est étrangère à la
145
« Si les cogniticiens peuvent le penser, les nanotechniciens peuvent le construire,
les biologistes peuvent le développer, les informaticiens peuvent le surveiller et le
contrôler. » (Go e e 2008)
319
conception européenne des nanotechnologies et contraire à la
Charte des droits fondamentaux de l’Union européenne146 qui
énonce notamment l’inviolabilité de la dignité humaine,
le droit au respect de la vie privée et familiale, le droit à la
protection des données à caractère personnel et le droit à
l’intégrité physique et mentale de la personne qui implique
notamment l’interdiction de faire du corps humain et de ses
parties une source de profit.
Si on considère les nanotechnologies comme constitutives
d’innovations susceptibles d’entraîner un progrès industriel et
économique ainsi que – dans le domaine particulier de la médecine
-, comme un moyen d’amélioration des possibilités diagnostiques,
curatives et préventives, il faut les situer dans la hiérarchie des valeurs
sociales et éthiques et rappeler la primauté de l’être humain dont
l’intérêt et le bien-être doivent prévaloir sur le seul intérêt de la société
ou de la science147.
Ce e soumission des technologies à la dignité de l’homme, à
ses droits et libertés fondamentales entraîne deux conséquences qui
doivent servir de guide dans l’élaboration d’un cadre normatif :
• la prévention des risques en matière de santé publique, sûreté,
sécurité et de protection environnementale qui implique un
développement et une incitation à la recherche en toxicologie
et en écotoxicologie ;
• l’information des consommateurs sur les produits contenant
des nanoparticules : étiquetage compréhensible et spécifique,
fiche de données pour chaque produit148.
146
Chartre des droits fondamentaux de l’Union européenne, 2000/C364/01,
JOCE, 18 décembre 2010 ; voir notamment les art. 1, 2, 3, 6, 7 et 8.
147
Voir notamment la Convention pour la protection des droits de l’homme
et la dignité de l’être humain à l’égard des applications de la biologie et de la
médecine : Convention sur les droits de l’homme et la biomédecine, Conseil
de l’Europe, 4 avril 1997, art. 1 ; Déclaration universelle sur la bioéthique et les
droits de l’homme, UNESCO, 19 octobre 2005, art. 3, 2.
148
Avis du GEE (Groupe Européen d’Ethique des sciences et des nouvelles
technologies) sur les aspects éthiques de la nanomédecine, communiqué
de presse du 24 janvier 2007, h p://ec.europa.eu/european_groups_ethics/
activities/docs/opinion_21_nano_en.pdf ; voir aussi les travaux sur les
nanotechnologies de l’Agence européenne des médicaments (EMEA
320
Le principe de précaution
La définition et la mise en œuvre de ce principe est complexe pour
di érents motifs149 :
• le risque ne se limite pas au danger intrinsèque du produit
envisagé mais implique une analyse par référence à l’utilisation
du produit et au milieu dans lequel ce e utilisation se
développe ;
• le risque ne peut se limiter à un objectif quantifiable à court
terme mais doit également envisager un objectif à plus long
terme. En matière de nanotechnologie, la di culté spécifique
tient au fait que les conséquences nuisibles pour la santé,
l’environnement, la protection du travail relèvent souvent plus
de l’incertitude que du risque au sens strict : les conséquences
de ce e incertitude sur les propriétés des matériaux tiennent
notamment à l’insu sance des méthodes d’évaluation adaptées
aux spécificités des nanomatériaux ;
• l’impact du principe de précaution sur la décision
d’entreprendre une activité dont les e ets nuisibles ne sont pas
totalement connus est di cile à mesurer.
Sachant que le risque zéro n’existe pas, il apparaît que si on
interprète le principe de précaution de façon restrictive en en faisant
un principe d’abstraction pure et simple en présence d’une probabilité
– même infime –, de risque, aucune décision n’est possible (Houdy
2010, p. 502 ; Bensaude-Vincent 2010, p. 355 ; Bensaude-Vincent 2009 ;
Dupuy 2007, p. 44 ; COMETS 2006).
Ce e complexité est connue et reconnue par les instances
européennes150 et fait l’objet de nombreuses analyses par les
Reflection pages on nanotechnology-based medicinal products for Human
use h p://www.emea.europa.en/pdfs/human/genetherapy/7976906en.pdf)
et de l’Agence européenne des produits chimiques ainsi que de l’Agence
européenne pour la sécurité et la santé au travail (OSHA).
149
Dans sa communication du 2 février 2000 (COM (2000) 1, p. 9 et 13), la
Commission européenne constate l’absence de définition fixe du principe et
renvoie aux instances juridictionnelles le soin d’en définir la portée.
150
La recherche en nanoscience et nanotechnologie fait partie des 6ème et
7ème programmes-cadres de la Commission de l’Union européenne en 2003-
321
comités d’experts et les Comités d’éthique – nationaux, européens,
internationaux –, chargés de rendre des avis ou de formuler des
propositions151.
Les mêmes préoccupations se retrouvent dans les débats organisés
au niveau national et européen et dans les rapports rendus publics qui
en ressortent152.
Les travaux menés sur l’application du principe de précaution
dans le cadre particulier des nanotechnologies me ent en évidence
la nécessité – précisément au regard des incertitudes –, d’intégrer le
débat sur les risques sanitaires et environnementaux dans une réflexion
éthique plus générale sur la vision de l’humain et de la société à long
terme.
3.4. Sur un plan strictement technique, la mise en œuvre
du principe de précaution devrait impliquer, selon les
recommandations de l’AFSSET :
• un examen – et donc un développement de la recherche –,
des nanomatériaux au cas par cas, produit par produit, usage
2006 et 2007-2013. Dans le cadre du programme 2007-2013, le programme
spécifique « coopération » comporte notamment un thème autonome sur les
nanosciences, nanotechnologies, matériaux et nouvelles technologies de
production. Décision 1982/2006/CE du Parlement européen et du Conseil du
18 décembre 2006 relative au 7ème programme-cadre de la Communauté
européenne pour des actions de recherche, de développement technologique
et de démonstration (2007-2013). Voir aussi les travaux de la DG «Santé et
consommateur » de la Commission européenne (élaboration d’un inventaire
des risques).
151
Voir notamment : avis n° 26 du Comité consultatif national d’éthique pour
les sciences de la vie et de la santé, 1er février 2007 ; rapport de l’OPECST (O ce
Parlementaire d’Evaluation des Choix Scientifiques et Technologiques) sur
« nanosciences et progrès médical », 6 mai 2004, Assemblée Nationale (France),
n° 1588 (12ème législature) et Sénat (France) n° 293 (session ordinaire 20032004) ; Recommandation de l’AFSSET (Agence Française de Sécurité Sanitaire
de l’Environnement et du Travail) sur l’évaluation des risques liés aux
nanomatériaux pour la population et dans l’environnement, 17 mars 2010,
www.afsset.fr
152
Cfr le réseau thématique des nanoforums lancé dès 2003 par la Commission
européenne (5ème programme-cadre) proposant un débat sur les aspects
éthiques, légaux et sociétaux ainsi que sur les bénéfices et les risques des
nanotechnologies, www.nanoforum.org
322
par usage car selon la formulation ou la matrice où il est
incorporé, chaque nanomatériau acquiert une réactivité et un
comportement di érents ;
• l’élaboration d’une méthode d’évaluation des risques adaptée
aux spécificités des nanomatériaux ;
• la prescription obligatoire de la traçabilité des nanomatériaux
et la mise en place d’un étiquetage pour les consommateurs ;
• la limitation des nanos aux usages essentiels, ce qui implique
d’interdire des usages qui sont de faible utilité au regard des
dangers potentiels ou lorsque des produits équivalents sans
nanoparticules existent153.
En prolongement de ces recommandations, l’AFSSET a lancé
en mars 2010, une action conjointe européenne sur trois ans pour la
caractérisation du potentiel génotoxique des nanomatériaux.
Le but de ce e action – appelée programme NANOGENOTOX –, est,
conformément au programme de santé publique européen, de fournir à
la Commission européenne une méthode alternative fiable de détection
du potentiel génotoxique154 de nanomatériaux susceptibles d’engendrer
un risque de cancer ou de toxicité pour la reproduction chez l’homme155.
Le programme est donc ciblé sur la mise en place de tests de
génotoxicité afin de répondre aux incertitudes existantes sur les risques
spécifiques des substances à l’échelle nanométrique, comparativement
153
Recommandation de l’AFSSET sur l’évaluation des risques liés aux
nanomatériaux pour la population et dans l’environnement, 17 mars 2010,
www.afsset.fr
154
Risque de toxicité pour l’utilisateur vu la pénétration dans le corps humain
et risque pour les travailleurs des firmes de fabrication des nanoparticules
(risque d’inhalation, absorption dermatologique… ).
155
L’étude porte sur 14 nanomatériaux classés en trois groupes sélectionnés
en fonction des critères suivants : usage possible dans di érents types de
produit (cosmétique, aliment, produit de consommation courante), voie
d’exposition potentielle (orale, cutanée, inhalée) et production en Europe.
Elle est coordonnée par l’AFSSET et comprend 13 Etats membres de l’Union
européenne ; son financement est assuré à 45% par la Commission européenne.
Les travaux s’inscrivent dans le cadre d’autres initiatives internationales et
notamment les travaux du Comité technique sur les nanotechnologies de
l’Organisation internationale de normalisation (ISO TC 229).
323
aux substances de même entité chimique d’échelle plus grande156.
3.5. Les incertitudes qui entourent les nanotechnologies
et les di cultés qui en résultent quant à l’application
normative du principe de précaution conduisent au constat
que si le débat sur les risques est indispensable, il convient
toutefois de l’intégrer dans une réflexion éthique plus
générale et plus fondamentale.
Ce e approche est nécessaire au regard des risques pour la
santé157, pour le respect de la vie privée158, de la dignité159 et de la nondiscrimination160.
Ce e réflexion éthique a sa place dans tous les domaines touchés
par les nanotechnologies et, notamment, dans le domaine de la
médecine.
L’administration à l’homme de nano-objets est certes soumise
à la contraignante réglementation de la mise sur le marché des
médicaments et des matériaux implantés, impliquant des essais
expérimentaux et cliniques approfondis161.
156
Selon un avis de janvier 2009 du Comité scientifique européen sur les
risques sanitaires émergents et nouveaux – SCENHIR, groupe d’experts de
la Commission européenne –, peu de données existent actuellement et les
résultats des études menées sont contradictoires.
157
Notamment par l’e et de nano-vecteurs pharmacologiques sur les
mécanismes physiologiques de l’organisme et notamment la rupture des
barrières biologiques, telle la barrière entre sang et cerveau. Le défaut
d’information du public se double ici d’une confusion entretenue entre
recherche finalisée et recherche fondamentale (avis n° 26 du CCNE du 1er
février 2007).
158
Absence de traçabilité des nanoparticules dans l’environnement et le corps
humain avec le risque d’a einte à la vie privée, notamment par l’utilisation
des nanoparticules pour exercer une surveillance et un contrôle à l’insu des
personnes concernées (avis n° 26 du CCNE du 1er février 2007).
159
Réduction de l’être humain à ses paramètres génétiques et biochimiques.
160
Notamment dans le domaine médical, le risque de discrimination entre
patients fortunés ou non quant à l’accès aux nanotechnologies. OPECST,
Rapport sur « nanosciences et progrès médical », 6 mai 2004, Assemblée Nationale
(France) n° 1588 (12ème législature) et Sénat (France) n° 293 (session ordinaire
2003-2004).
161
Voir notamment Règlement (CE) n° 726/2004 du Parlement européen et
du Conseil du 31 mars 2004 établissant des procédures communautaires
pour l’autorisation et la surveillance en ce qui concerne les médicaments à
324
Des risques encore mal identifiés pour l’homme ou l’environnement
restent cependant possibles162.
Par ailleurs, si les nanosciences et les nanotechnologies représentent
une avancée au regard des progrès thérapeutiques163, il reste qu’elles
peuvent conduire – si elles sont mal utilisées ou mal maîtrisées –, à
une transformation de la médecine qui ne servirait plus seulement à
« rétablir la santé », mais chercherait à créer des « surhommes », des « êtres
parfaits » grâce à l’acquisition de nouvelles qualités ou de nouvelles
capacités en relation avec l’implantation de nanodispositifs164.
Aussi, l’indispensable réflexion éthique doit-elle s’articuler autour
de quatre axes :
• la place de l’humain face à la recherche de productivité ;
• les discriminations nouvelles que créent les nanotechnologies
entre les États riches et les États pauvres qui n’ont pas accès aux
technologies ;
• le respect de la vie privée, de l’intégrité de la personne et du
usage humain et à usage vétérinaire et instituant une agence européenne
des médicaments ; Règlement (CE) n° 1394/2007 du Parlement européen et
du Conseil du 13 novembre 2007 concernant les médicaments de thérapie
innovante ; Règlement (CE) n° 141/2000 pour les médicaments orphelins ;
pour plus de détails, voir les références sur le site de l’Agence européenne
pour l’évaluation des médicaments (EMEA) : www.emea.europa.eu
162
Essentiellement au plan de la pénétration et de la circulation des
nanoparticules dans le corps humain et de leur imprévisibilité liée au fait
que la même substance peut avoir des propriétés di érentes selon l’échelle et
même selon le nanomatériau dans lequel elle est mise en oeuvre
163
Dans le domaine de l’imagerie, du diagnostic, de la personnalisation des
traitements adaptés aux particularités spécifiques du patient, dans le domaine
du transfert ciblé des médicaments, dans celui de l’amélioration de la tolérance
des matériaux de reconstruction prothétique implantés et dans le traitement
des handicaps, notamment par la mise au point d’interfaces prothétiques
homme-machine ; rapport « nanosciences et médecine » du groupe de travail
de l’Académie nationale de médecine (France), Bull. Acad. Nat. Méd., 2008,
Tome 192, juin-juillet, n° 6, p. 1253.
164
Le rapport de l’OPECST du 6 mai 2004 sur « nanosciences et progrès médical »
(Assemblée nationale, France, n° 1588, 12ème législature et Sénat (France), n°
293, session ordinaire 2003-2004) souligne que ce e dérive peut, sans aller
jusqu’à une prétention à l’immortalité, conduire au développement de microélectrodes, prothèses électroniques, implants en vue de la création d’une
mémoire illimitée, d’un dopage, d’une sensorialité supplémentaire.
325
principe de dignité qui impose de ne pas réduire la personne à
ses caractères corporels ou génétiques ;
• la frontière entre thérapeutique et transhumanisme en
nanomédecine, avec une interrogation éthique particulière sur
le sens de la mort face à des technologies pensées en termes de
tentation d’immortalité (Bensaude-Vincent 2010, p. 355 ; Ponce
Del Castillo 2010).
3.6. Ce e perception de l’encadrement des nanotechnologies
est celle des institutions européennes comme en témoigne
le « Code de bonne conduite pour une recherche responsable en
nanosciences et en nanotechnologies » adopté le 7 février 2008
par l’Union européenne165.
Ce texte constitue un instrument législatif d’autorégulation certes
utile pour la coopération entre États membres et pour l’établissement
de normes mais dont il faut souligner le caractère non contraignant
et le champ d’application limité à la recherche ; il faut également
regre er l’absence de toute référence à une institution de contrôle des
nanomatériaux, ce qui restreint la portée du document (Ponce Del
Castillo 2010)166.
Il s’inscrit dans le cadre de la création de l’espace européen
de la recherche répondant aux nécessités et aux a entes de la
communauté scientifique, des entreprises et des citoyens167 et fait suite
165
Recommandation de la Commission du 7 février 2008 concernant un
code de bonne conduite pour une recherche responsable en nanosciences
et en nanotechnologies, C. (2008), 424 final. Ce code a été élaboré après une
consultation de la communauté scientifique, des industries et de la société
civile organisée par la Commission européenne avec un double objectif :
d’une part, collecter des informations en vue d’une réglementation spécifique
di cile à élaborer vu le manque de connaissances quant à la fiabilité des
nanotechnologies et quant à leurs risques, et, d’autre part, vérifier si le
domaine des nanotechnologies est ou non déjà couvert par la législation
communautaire (COM (2007) 505 du 6 septembre 2007).
166
Voir également la Résolution relative aux nanotechnologies et nanosciences
adoptée le 28 mai 2009 par le Parlement belge (doc. parl., Chambre, session
2008-2009, 52-1811/006)
167
COM (2000) 6 du 18 janvier 2000 ; COM (2007) 161 du 4 avril 2007
326
à di érents travaux168 intégrant la problématique de la protection
de l’environnement, la santé humaine et la sécurité et celles de la
recherche et de la compétitivité.
Les objectifs poursuivis par le Code de bonne conduite sont de
perme re une coordination e cace entre les États membres sur base
de lignes directrices communes afin de garantir que la recherche
en nanosciences et nanotechnologies – recherches fondamentale et
appliquée –, dans l’Union européenne se fait dans un cadre sûr, e cace,
respectueux des principes éthiques et porteur d’un développement
économique social et environnemental durable.
Ces lignes directrices peuvent être très schématiquement
présentées sous la forme de sept principes généraux :
• la signification qui impose que la recherche en nanoscience
et nanotechnologie soit compréhensible pour le public,
respectueuse de ses droits fondamentaux et au service du bienêtre des personnes et de la société ;
• Pour assurer l’accessibilité de l’information, les États membres
coopèrent avec la Commission afin d’entretenir des forums de
discussion ;
• la durabilité qui suppose la contribution des recherches au
développement durable et qui implique donc l’absence de
toute nuisance pour les personnes, les animaux, les végétaux et
l’environnement ;
• le principe de précaution qui exige que les activités de
recherche soient menées en anticipant les incidences éventuelles
sur l’environnement, la santé, la sécurité et en prenant toute
précaution utile ;
• l’inclusion, soit la transparence des recherches, le respect
168
Communication de la Commission sur le recours au principe de précaution
(COM (2000) 1 du 2 février 2000) ; communication « vers une stratégie européenne
en faveur des nanotechnologies », (COM (2004) 338 du 12 mai 2004 ; voir également
l’avis n° 21 sur les questions éthiques en nanomédecine présenté le 17 janvier
2007 par le Groupe européen d’éthique des sciences et de nouvelles technologies
ainsi que les travaux du Comité scientifique des risques sanitaires émergeants
et nouveaux sur la pertinence des méthodes d’évaluation des risques potentiels
liés aux nanotechnologies (SCENHIR/002/05 du 10 mars 2006)
327
du droit à l’information et la participation de toutes les
parties prenantes au processus de décision169, en ce compris la
consultation des comités d’éthique compétents ;
• l’excellence, c’est-à-dire le respect des normes scientifiques qui
sont le fondement de l’intégrité de la recherche et des bonnes
pratiques de laboratoire170 ;
• l’innovation, soit l’encouragement aux activités créatrices en
nanoscience et nanotechnologie, anticipant l’innovation ;
• et enfin, la responsabilité des chercheurs et organisateurs de
recherche pour les incidences de la recherche sur la société,
l’environnement, la santé humaine. Plus spécifiquement, les
travaux visant à apporter un bénéficie non thérapeutique
aux êtres humains et ceux visant uniquement l’amélioration
frauduleuse des performances du corps humain sont interdits.
Ce code de bonne conduite est, nonobstant son caractère non
contraignant, intéressant en ce qu’il définit les objectifs de l’Union
européenne en veillant à y inclure l’éthique et le refus de toute
conception post-humaniste ou transhumaniste des nanotechnologies
jugée contraire à l’intégrité et à la dignité de la personne humaine.
Ce même souci éthique conduit à donner une place essentielle au
principe de précaution dont on sait combien il est di cile de préciser
le contenu et la portée ; la Commission veille toutefois à en définir
les applications essentielles afin que la primauté de l’homme sur la
recherche soit rappelée.
A ce titre, le principe de précaution contient les applications ci169
Dans le cadre de l’élaboration du plan d’action stratégique en matière
de nanotechnologie (SNAP) pour 2010-2015, la Commission européenne a
lancé en 2010 un processus de consultation publique dont les résultats sont
publiés depuis mars 2010. European Commission, Report on the European
Commission’s public on line consultation. Towards a strategic nanotechnology
action plan (SNAP) 2010-2015, Brussels, May 2010 – h p://ec.europa.eu/
research/consultations/snap/report_en.pdf. Une consultation publique
est également organisée par l’EFSA (Autorité Européenne de Sécurité des
Aliments) afin d’élaborer les lignes directrices pour l’évaluation des risques
associés aux applications impliquant l’utilisation de la nanoscience et de la
nanotechnologie dans le domaine de l’alimentation humaine et animale.
170
Directives 2004/9/CE et 2004/10/CE.
328
après décrites, lesquelles sont intéressantes pour tenter de cerner le
concept, même s’il faut rappeler qu’elles se limitent ici au seul domaine
de la recherche.
Aucune conséquence ne peut donc être déduite du texte quant à
l’application du principe de précaution en matière de production et de
commercialisation, domaines dans lesquels la question de l’abstention
d’agir dans l’a ente d’une évaluation précise des risques se pose avec
la même importance.
Sous ce e réserve, le principe de précaution implique que :
• vu le manque de connaissance concernant les retombées
potentielles des nano-objets sur l’environnement et la santé,
les États membres appliquent le principe de précaution pour
protéger chercheurs, professionnels, consommateurs, citoyens
et environnement171 ;
• une analyse des risques doit être présentée pour chaque
proposition de financement de travaux ;
• une partie su sante de la recherche en nanotechnologie est
consacrée à la compréhension des risques ;
• avant évaluation des risques à long terme, il y a lieu de s’abstenir
de mener les recherches impliquant l’intrusion volontaire
de nano-objets dans le corps humain ou leur incorporation
dans la nourriture, aliments pour animaux, jouets, produits
cosmétiques…
Tout récemment, une nouvelle application normative – et ce e fois
contraignante –, du principe de précaution est faite dans le Règlement
10/2011/UE de la Commission concernant les matériaux et objets
en matière plastique destinés à entrer en contact avec les denrées
alimentaires172.
Le considérant 23 souligne que « les nouvelles technologies produisent
des substances à une dimension particulaire présentant des propriétés
chimiques et physiques sensiblement di érentes de celles de particules plus
171
Prévention des pathologies établie conformément à la stratégie
communautaire 2007-2012 pour la santé et la sécurité au travail. COM (2007)
62 du 21 février 2007.
172
JOCE 15 janvier 2011 – règlement applicable au 1er mai 2011.
329
grandes, par exemple sous la forme de nanoparticules. Ces propriétés di érentes
peuvent engendrer des propriétés toxicologiques di érentes, de sorte que ces
substances doivent être évaluées au cas par cas par l’Autorité pour ce qui est
des risques, jusqu’à ce que l’on dispose de davantage d’informations au sujet de
ces nouvelles technologies. Dès lors, il convient de préciser que les autorisations
fondées sur l’évaluation des risques de la dimension particulaire classique d’une
substance n’englobent pas les nanoparticules artificielles »173.
3.7. L’information des consommateurs, des utilisateurs et des
travailleurs
Dans sa résolution du 24 avril 2009, le Parlement européen
souligne que « les connaissances sur les éventuels e ets sanitaires et
environnementaux potentiels sont très largement prises de vitesse
par les évolutions de marché compte tenu des développements
particulièrement rapides dans le domaine de nanomatériaux, et ce e
constatation soulève des question de fond sur la capacité du modèle
actuel de gouvernance à faire face en « temps réel » aux technologies
émergentes »174.
Les études de toxicité sont en e et confrontées à une double
di culté :
• d’une part, les nanomatériaux sont le plus souvent étudiés
lorsqu’ils sont déjà sur le marché, c’est-à-dire avec retard, sans
étude de risque préalable ;
• d’autre part, les instruments techniques – méthodologies
de métrologie, tests de toxicologie et d’écotoxicologie,
méthodes d’évaluation du risque, protocoles d’évaluation de
l’impact environnemental, méthodes d’évaluation des seuils
quantitatifs d’application des règlements… – , ne semblent pas
scientifiquement pertinents en ce qui concerne les nanoparticules
et nanomatériaux (Lacour 2009).
173
Ce e distinction entre substances nanoparticulaires et substances non
nanoparticulaires est précisée à l’article 9 du règlement qui indique que « les
substances se présentant sous une forme nanométrique ne peuvent être utilisées que
si elles sont expressément autorisées et mentionnées dans les spécifications figurant à
l’annexe 1 » du règlement.
174
Résolution du Parlement européen du 24 avril 2009 sur les aspects
réglementaires des nanomatériaux, 2008/2208 (INI).
330
Ce e situation est préoccupante au regard de la protection des
personnes – et de l’environnement –, et du droit à l’information.
Celui-ci n’est e et pleinement respecté qui si les conditions suivantes
perme ent un réel encadrement normatif (Verges 2010, p. 214) :
• obligation pour les producteurs, importateurs, distributeurs
de nanoparticules et nanomatériaux de déclarer les substances
produites, la réglementation devant définir le contenu de la
déclaration : composition, propriétés, précautions d’usage ou de
conservation, prescriptions particulières pour la mise en déchet
de la substance…
• sur base de ces déclarations, une nomenclature des
nanoparticules et nanomatériaux mis sur le marché – en ce
compris les produits complexes contenant les nanoparticules et
nanomatériaux –, est établie par les autorités publiques.
• Elle permet une information des consommateurs et utilisateurs
et une « stratégie de précaution » (Verges 2010, p. 214) par un contrôle
du marché en fonction de la connaissance des e ets dommageables
révélés par les tests toxicologiques ;
• la nomenclature permet également l’établissement de normes
contraignantes relatives à l’étiquetage et la traçabilité des produits,
autre aspect de l’information indispensable des consommateurs
et utilisateurs ;
• enfin, un régime de sanctions – sanction pénale, pécuniaire et
suspension de l’autorisation de mise sur le marché –, doit être
organisé.
Ces règles d’identification qui existent dans le domaine des produits
chimiques175 perme ent l’information, mais également la connaissance
distincte de chaque substance et donc l’adaptation du régime juridique
aux risques spécifiques identifiés (Verges 2010, p. 214).
Sur ce plan, force est de constater le caractère insu sant de
la réglementation européenne qui ne contient aucune obligation
175
Voir infra. Règlement du Parlement européen et du Conseil du 18 décembre
2006 concernant l’enregistrement, l’évaluation et l’autorisation des substances
chimiques ainsi que les restrictions applicables à ces substances. REACHRèglement (CE) 1907/2006.
331
générale d’étiquetage « nano » imposée aux producteurs, importateurs ou
distributeurs176.
Sous réserve des produits cosmétiques177 et peut-être bientôt des
produits alimentaires178, l’indication de la présence de nanoparticules
dans les produits n’est pas rendue obligatoire, ce qui signifie qu’on
assiste aujourd’hui à un développement des nanomatériaux sans
notification de leur présence ni a chage de leurs caractéristiques et
toxicité potentielle.
Il faut le regre er et souligner que sur ce plan, une réforme
s’impose.
Celle-ci ne sera cependant e cace que si l’obligation d’étiquetage
et d’information s’accompagne d’une amélioration des connaissances
sur les nano-éléments et leur toxicité ; à défaut, la mention « nano » sur
les produits ne présente pas toute son utilité pour les consommateurs.
On rappellera ici qu’en septembre 2010, dans le cadre de la présidence
belge de l’Union européenne, une conférence a été consacrée au développement
d’instruments de gestion et d’information concernant les nanomatériaux179.
Elle a été organisée dans une « perspective d’écologie sociale », soit
une écologie perme ant à la fois de protéger la santé et l’environnement, mais
également de garantir le développement d’une économie sûre et saine.
176
Un inventaire des produits contenant des nanomatériaux sur le marché
européen a été réalisé en novembre 2010 par le Bureau européen des unions de
consommateurs avec l’ANEC (Organisation européenne de consommateurs).
Toutefois, cet inventaire est fait au départ des sites internet des producteurs
et distributeurs et risque dont d’être incomplet si ces sites ne précisent pas le
contenu « nano » des produits.
177
Règlement (CE) n° 1223/2009 du Parlement européen et du Conseil du
30 novembre 2009 relatif aux produits cosmétiques qui impose, à dater
du 1er janvier 2013, l’étiquetage des produits cosmétiques contenant des
nanomatériaux.
178
Règlement (CE) n° 258/97 du Parlement européen et du Conseil du 27
janvier 1997 relatif aux nouveaux aliments et aux nouveaux ingrédients
alimentaires appelés « Novel Food » actuellement en révision. Le Parlement
européen veut rendre obligatoire la mention « nano » pour les aliments pour
lesquels les nanomatériaux ont deux implications majeures : les agents de
conservation et les additifs.
179
« Réguler les produits contenant des nanomatériaux : la traçabilité comme
condition d’acceptabilité », h p://www.eutrio.be/fr/print/11362
332
Dans ce contexte, le ministre belge de l’énergie, de l’environnement, du
développement durable et de la protection des consommateurs a rappelé qu’eu
égard aux incertitudes entourant les nanotechnologies, il était indispensable
que les consommateurs puissent être assurés que tout produit contenant
des nanomatériaux ou fabriqué grâce à des nanotechnologies, présent sur le
marché, ait été testé par un organisme indépendant et ne présente pas de
risque pour leur santé180.
Le contenu de la réglementation
4.1. La troisième question concerne le contenu même d’une
réglementation, interrogation qui peut conduire à trois axes
di érents de réflexion normative.
Le premier – très théorique au regard des réalités économiques –,
consisterait à rendre obligatoire un moratoire dans la commercialisation
et la distribution des nanomatériaux en raison de l’incertitude liée à
la connaissance insu sante des risques toxicologiques de la matière
manipulée à un niveau où les propriétés chimiques et physiques
di èrent de celles des matériaux à plus grande échelle.
Ce e di culté liée notamment à l’absence de méthodologie
de tests spécifiques est encore aggravée par le constat de l’extrême
diversité des domaines visés, chacun avec ses particularités :
électronique, informatique, médecine, cosmétologie, alimentation,
dispositifs médicaux, biens de consommation, pharmacie,
aéronautique, communication, chimie, industrie automobile,
exploration spatiale, climatologie, sécurité, énergie… sans oublier
qu’à côté des nanomatériaux fabriqués existent également des
nanomatériaux à l’état naturel dans les nuages, la cendre volcanique,
la fumée…
Dans chacun de ces domaines, les nanomatériaux sont
180
Ce e « perspective d’écologie sociale » s’inscrit dans le plan d’action européen
« Environnement et santé ». Elle se fonde sur diverses propositions visant à
rendre obligatoire l’information du consommateur, à garantir la traçabilité, à
identifier la piste réglementaire la plus appropriée, à me re en place – à titre
transitoire –, une stratégie au niveau national de chacun des Etats membres et
enfin, à réglementer les allégations présentes sur les produits contenant des
nanomatériaux.
333
di érents et leurs utilisations sont di érentes, ce qui entraîne une
imprévisibilité supplémentaire liée au fait qu’une même substance
peut avoir un « comportement » di érent selon les nanomatériaux mis en
œuvre, le milieu, les conditions d’utilisation.
Le constat de ces incertitudes et imprévisibilités pourrait fonder une
application stricte du principe de précaution eu égard aux risques potentiels
des nanotechnologies pour la santé, l’environnement, les travailleurs181.
L’instauration d’un moratoire général ne paraît cependant guère
réaliste dès lors qu’il faut tenir compte des contraintes du marché et
de la compétitivité, mais également du fait que les nanomatériaux
sont déjà présents sur le marché (Thie ry 2000, p. 184).
Les impératifs économiques conduisent au demeurant la
Commission européenne à rejeter l’idée d’un moratoire jugé
« dangereusement contre-productif », ce danger commercial et économique
paraissant l’emporter sur le danger lié à l’existence sur le marché de
nano-produits sans évaluation appropriée de leur impact sanitaire et
environnemental182.
Les deuxième et troisième axes de réflexion normative consistent à
plaider en faveur d’une réglementation des nanotechnologies, sachant
qu’une sous-question se pose alors immédiatement puisqu’il faut
déterminer si une législation nouvelle et spécifique est nécessaire183 ou
si, au contraire, une adaptation de la législation existante su t pour
anticiper les risques et les dommages.
Ce e sous-question est complexe puisqu’elle suppose qu’une
réponse puisse préalablement être apportée aux interrogations
développées ci-avant :
181
Voir le rapport sur les nanomatériaux et la santé présenté au Parlement
européen le 2 avril 2009 par NANOCAP, consortium d’universités, ONG
de défense de l’environnement et syndicats de pays européens collaborant
pour un approfondissement des connaissances des nanotechnologies et des
implications de leur développement rapide pour la société ; www.nanocap.
eu
182
COM (2004) 338, « Vers une stratégie européenne en faveur des
nanotechnologies ».
183
C’est-à-dire un cadre normatif spécifique aux nanomatériaux et
nanotechnologies, étant entendu qu’une réglementation spécifique doit tenir
compte des di érences entre les secteurs concernés.
334
• la définition des nanotechnologies et nanosciences ;
• la connaissance des risques non seulement intrinsèques,
mais également de ceux dépendant du milieu et des conditions
d’utilisation des nanomatériaux pour l’environnement, la santé,
les travailleurs ;
• les implications de la diversité des matériaux visés, mais
également des secteurs concernés ;
• la mise en balance des motivations di érentes des
parties concernées : scientifiques, toxicologues, industriels,
consommateurs, régulateurs (Vinck 2009, p. 15).
Les institutions européennes ont manifestement sur ce plan des
conceptions divergentes, la Commission européenne considérant que
la législation actuelle su t184, alors que le Parlement européen réclame
l’élaboration d’instruments spécifiques.
4.2. La position de la Commission européenne
Les premiers projets européens en matière de nanotechnologies
datent de 1998 – 5ème programme-cadre –, avec, notamment, la mise en
place de la plate-forme internet NANOFORUM destinée à la di usion
d’informations sur ces technologies nouvelles.
184
Les milieux industriels pensent également que les réglementations
européennes actuelles su sent, tout en étant conscients de la nécessité
d’une mise en œuvre sécurisée des technologies et produits chimiques.
L’industrie chimique a donc mis en œuvre des programmes d’information
sur la protection dans les grandes industries. CEFIC (Conseil Européen des
Fédérations de l’Industrie Chimique), The european chimical industry council
position, Nanomaterials and nanotechnologies, 2009, h p://www.nanocap.
eu/Flex/Site/Download.aspx?ID=3962 ; CEFIC, Responsiblecare, h p://www.
cefic-1RI.org/index.php?page=projects.
Au plan des implications juridiques de la nanomédecine, le GEE (Groupe
Européen d’Ethique des sciences et des nouvelles technologies) ne préconise
pas, pour le moment, de créer des structures réglementaires dédiées. Il
préconise que les modifications nécessaires soient faites dans le cadre des
structures existantes afin notamment de lever toute ambiguïté quant à la
réglementation applicable : communiqué de presse du 24 janvier 2007, avis
sur les aspects éthiques de la nanomédecine, www.ec.europa.eu/european_
group_ethics
335
Une priorité est donnée aux projets nanotechnologiques dans le
6ème programme-cadre de 2002-2006185 qui comprend notamment
le financement du site CORDIS consacré aux nanotechnologies,
aux nanosciences, aux nanomatériaux multifonctionnels fondés
sur la connaissance et aux nouveaux procédés et dispositifs de
production186.
En mai 2004187, la communication de la Commission européenne
« Vers une stratégie européenne en faveur des nanotechnologies » développe
le double objectif européen, soit renforcer la position de l’Union européenne
en recherche et développement dans le champ des nanotechnologies, tout en
abordant les inquiétudes suscitées en matière de protection de l’environnement,
santé publique et société.
En juin 2005188 , la Commission européenne adopte un plan
d’action sur les nanotechnologies et les nanosciences pour la période
2005-2009. Il prévoit l’évaluation des risques pour la santé humaine,
l’environnement, les consommateurs et les travailleurs à tous les
stades des cycles de vie de la technologie : conception, fabrication,
distribution, utilisation, recyclage.
La Commission annonce également qu’elle procèdera à un examen
réglementaire de la législation communautaire dans les secteurs
concernés189.
185
Le 6ème programme-cadre de la Commission européenne consacre un
budget global de 1,3 milliard d’euros pour le secteur des nanotechnologies,
ce qui représente certes une somme considérable mais qui reste trois fois
inférieure à l’e ort budgétaire des USA pour la même période. Le budget
alloué par l’Union européenne à la recherche sur les nanotechnologies est
passé à 3,5 milliards d’euros entre 2007 et 2013.
186
h p://cordis.europa.eu/fr/home.html ; CORDIS (Community Research
and Development Information Service) est un service d’information sur la
recherche et le développement de l’Union européenne. Ses principaux objectifs
sont de faciliter la participation aux activités de recherche communautaire,
d’améliorer l’exploitation des résultats de la recherche et de promouvoir le
partage du savoir-faire et l’adoption de nouvelles technologies, notamment
à travers la publication des résultats de la recherche financée par l’Union
européenne et menée au titre de programmes-cadres consécutifs.
187
COM (2004) 338 final.
188
Communication de la Commission « Nanosciences et nanotechnologies : un
plan d’action pour l’Europe 2005-2009 », COM (2005) 243 final.
189
Matériaux nanostructurés et matériaux nanométriques manufacturés à
l’exclusion des nanomatériaux et nanoparticules générés naturellement. Les
textes applicables sont notamment ceux régissant les substances chimiques, la
336
Le « défi réglementaire » posé est de faire bénéficier la société des
applications innovantes des nanotechnologies, tout en préservant un niveau
élevé de protection de la santé, la sécurité, l’environnement.
Le 7 février 2008, la Commission a adopté une recommandation sur un code
de conduite pour une recherche responsable en nanosciences et nanotechnologies.
Orienté autour de sept principes généraux recouvrant des questions telles que la
durabilité, la précaution, l’inclusion et la responsabilité, le code de conduite invite
les États membres à engager des actions concrètes, auxquelles prendront part
universités, instituts de recherche et entreprises, pour un développement et une
utilisation sûrs des nanotechnologies190.
Le 17 juin 2008, la Commission a adopté une communication sur
les aspects réglementaires liés aux nanomatériaux. Reposant sur un état
des lieux de la législation communautaire dans les secteurs concernés, le
texte de la Commission conclut que les risques potentiels aux niveaux de
la santé, de la sécurité et de l’environnement liés aux nanomatériaux sont
« en principe » couverts par la législation européenne en vigueur dans les domaines
des produits chimiques, de la santé et sécurité des travailleurs, des exigences de
sécurité des biens et de l’environnement. Cependant, l’exécutif européen estime
que la législation en vigueur pourrait devoir être modifiée en fonction des
connaissances scientifiques nouvelles sur l’évaluation des risques191.
Enfin, la communication de la Commission au Conseil, au Parlement
européen et au Comité économique et social européen du 29 octobre 2009
– « nanosciences et nanotechnologies : un plan d’action pour l’Europe 2005-2009
– second rapport de mise en œuvre 2007-2009 »192 -, confirme la stratégie de la
Commission : il s’agit tout à la fois et de façon simultanée, de renforcer la recherche
pour développer et commercialiser les produits de la nanotechnologie, d’obtenir
protection des travailleurs, les produits, la protection de l’environnement.
190
Recommandation de la Commission sur un code de conduite pour une
recherche responsable en nanosciences et en nanotechnologies, C (2008) 424
final ; voir supra.
191
Il en va notamment ainsi en ce qui concerne les seuils quantitatifs retenus
dans certaines législations pour définir la mise en application de la norme ;
voir notamment, infra, le règlement REACH.
Communication de la Commission sur les aspects réglementaires des
nanomatériaux, COM (2008) 366 final ; à ce e communication est joint un
document de travail des services de la Commission proposant un résumé de
la législation en ce qui concerne les aspects de nanomatériaux liés à la santé,
la sécurité et l’environnement et faisant état des recherches à e ectuer aux fins
de la réglementation et des mesures correspondantes (SEC (2008) 2036).
192
COM (2009) 607 final.
337
des informations pertinentes en matière d’analyse des risques, d’améliorer les
méthodes d’essai, de développer les bases de données et d’accélérer la mise au
point de normes en matière d’essai pour l’OCDE193.
La Commission confirme que les cadres réglementaires en
vigueur couvrent « en principe » les risques potentiels en matière de
santé, de sécurité et d’environnement liés aux nanomatériaux, mais
toujours sans exclure un changement réglementaire en fonction d’éléments
nouveaux.
En d’autres termes, la protection de la santé, de la sécurité et de
l’environnement doit être renforcée par une meilleure mise en œuvre de la
législation actuelle, même s’il n’est pas exclu d’examiner la nécessité de
modifier un règlement sur des aspects spécifiques194.
Enfin, si le cadre normatif est « en principe » su sant, on relève
toutefois que la Commission retient parmi les obstacles spécifiques à
surmonter, la nécessité de renforcer les connaissances dans des domaines
tels que la toxicité et l’écotoxicité notamment.
Sur ce plan, la Commission se dit « consciente » de la nécessité
de disposer d’un état des lieux plus fidèle et plus détaillé et compte
présenter des informations plus précises en 2011.
L’examen de la réglementation et de la révision nécessaire est
également annoncé pour 2011.
La lecture des textes émanant de la Commission peut laisser
perplexe.
On comprend certes l’importance des exigences de la compétitivité
européenne, mais il reste que le principe de précaution est mis à mal
dès lors que le conflit d’intérêt entre recherche et commercialisation se
193
Ces objectifs doivent être mis en parallèle avec le programme « coopération »
du 7ème programme-cadre 2007-2013 (décision 1982/2006/CE du Parlement
européen et du Conseil du 18 décembre 2006 relative au 7ème programmecadre de la Communauté européenne pour des actions de recherche, de
développement technologique et de démonstration (2007-2013). Dans la
« stratégie communautaire 2007-2012 pour la santé et la sécurité au travail »
de la Commission des Communautés européennes, la nanotechnologie
est abordée comme un des nouveaux risques pour lesquels la recherche
fondamentale et appliquée est essentielle (COM (2007) 62 final).
194
Notamment une réévaluation des contraintes en matière d’information des
consommateurs.
338
traduit par une normalisation de l’incertitude.
Ce e perplexité se trouve confortée à la lecture de la réponse
donnée au nom de la Commission à une question parlementaire, le 14
décembre 2010.
On y lit en e et que la Commission travaille sur deux plans
di érents qui sont envisagés de façon simultanée et non de façon
successive, alors cependant que le caractère successif des analyses
répondrait plus adéquatement au principe de précaution :
• d’une part, la Commission finance des recherches sur la
connaissance et l’évaluation des risques nanotechnologiques,
sollicite des avis de comités scientifiques indépendants,
prend part à des activités internationales sur l’étude des
risques et travaille à l’élaboration d’une définition du terme
« nanomatériaux » qui perme ra de clarifier l’étendue des
obligations juridiques ;
• d’autre part et dans le même temps, elle passe en revue
les législations existantes en ayant égard à la nécessité de
procéder à une approche « au cas par cas » en l’absence de
modèle général applicable au recensement des risques195.
4.3. La position du Parlement européen
La position du Parlement européen est marquée par une sensibilité
très ne e aux incertitudes entourant les nanotechnologies et par une
volonté de donner la primauté au principe de précaution sur toute
autre considération.
Ainsi, dans sa résolution du 24 avril 2009 sur les aspects
réglementaires des nanomatériaux196, le Parlement européen souligne
les avancées considérables de l’utilisation des nanomatériaux
et nanotechnologies pour les consommateurs, les patients,
l’environnement et la compétitivité de l’économie, tout en relevant
195
Pour une approche des projets de recherche, voir p:// p.cordis.europa.
eu/pub/nanotechnology/docs/compendium-nanosafety-cluster2010_en.pdf ;
pour les avis des comités scientifiques, voir h p://ec.europa.eu/health/archive/
ph_risk/commi ees/04_scenihr/docs/scenihr_o_023.pdf CSRSEN, 2009.
196
2008/2208 (INI).
339
immédiatement les points négatifs qui sont la contrepartie de ce
développement :
• manque d’information et de connaissance au niveau des
définitions ;
• manque d’information et de connaissance sur l’utilisation
réelle de nanomatériaux dans les produits de consommation ;
• manque d’information et de connaissance sur les risques
potentiels et la toxicité, que ce soit pour la santé, l’environnement
ou, plus particulièrement, la protection des travailleurs. Sur ce
point particulier, le Parlement européen rappelle que les comités
scientifiques et les agences de l’Union européenne dénoncent
l’absence de données et de méthodes d’évaluation197 ; il souligne
également l’insu sance du financement de la recherche dans le
7ème programme-cadre européen ;
• enfin, nécessité d’une discussion éthique préalable,
notamment pour répondre aux conséquences d’une possible
convergence des nanotechnologies, biotechnologies, biologies,
sciences cognitives et technologies de l’informatique.
Le Parlement européen en conclut qu’il est indispensable d’élaborer
un ensemble de normes di érenciées, c’est-à-dire adaptées aux
nombreux secteurs dans lesquels interviennent les nanotechnologies –
la variété de ces secteurs est telle qu’un cadre réglementaire européen
unique ne peut pas être mis en place –, et fondées sur les principes de
précaution, de responsabilité du producteur et du « pollueur-payeur ».
Aussi, le Parlement européen ne peut adhérer aux déclarations
de la Commission a rmant que la législation en vigueur couvre,
« dans son principe », les risques liés aux nanomatériaux, ni à l’idée
qu’il su rait d’améliorer l’application de la législation pour assurer
la protection de la santé, de la sécurité et de l’environnement et ce,
en raison de l’absence de données et de méthodes appropriées pour
connaître et traiter les risques spécifiques.
Le Parlement européen invite donc la Commission à réviser la
législation dans un délai de deux ans afin d’avoir des instruments
spécifiques – produits chimiques, denrées alimentaires, biocides,
197
Cfr les travaux du SCENIHR (voir supra).
340
additifs alimentaires, aliments pour animaux, qualité de l’air et
de l’eau, déchets, protection des travailleurs… –, et à élaborer une
définition harmonieuse des nanomatériaux.
La demande du Parlement européen porte tout spécialement – dans les
diverses réglementations –, sur l’exigence d’un enregistrement et d’une
notification de tous les nanomatériaux perme ant l’établissement d’un
inventaire, sur l’évaluation au plan de la sécurité chimique, sur l’information
des consommateurs – étiquetage « nano » –, et sur la mise au point urgente de
protocoles adéquats d’essais et de normes en matière de métrologie perme ant
d’évaluer l’exposition des travailleurs, des consommateurs et de l’environnement
aux nanomatériaux et les risques liés à ces derniers durant l’intégralité de leur
durée de vie198.
Un financement plus important de la recherche est également
demandé pour ce qui touche aux aspects liés à l’environnement, à la
santé et la sécurité des nanomatériaux et l’amélioration des méthodes
scientifiques d’évaluation de ceux-ci199.
Enfin, les aspects éthiques sont également abordés puisque le
Parlement européen « estime qu’il convient de définir, en temps utile et en
particulier pour la nanomédecine, des orientations éthiques exigeantes comme
le respect de la vie privée, le consentement libre et éclairé, les limites fixées aux
interventions non thérapeutiques sur le corps humain, tout en encourageant
ce domaine interdisciplinaire prome eur me ant en œuvre des technologies
d’avant-garde comme l’imagerie et le diagnostic précoce et le traitement
intelligent et e cace de nombreuses pathologies ; il demande au Groupe
européen d’éthique des sciences et des nouvelles technologies de présenter un
avis sur ce e question, en s’appuyant sur son avis n° 21 du 17 janvier 2007 sur
les aspects éthiques de la nanomédecine, et en s’inspirant des avis établis par
les organes européens nationaux compétents en matière d’éthique ainsi que des
travaux menés par des organisations internationales, telle l’UNESCO »200.
4.4. La réglementation actuelle
Le droit européen se caractérise par une inflation de textes
198
Résolution du Parlement européen du 24 avril 2009, 2008/2208 (INI),
considérants 11, 12, 13, 15, 17 et 19.
199
Considérant 20.
200
Considérant 25.
341
applicables au droit des risques sanitaires et environnementaux en
fonction du type de risque, des produits concernés, des personnes et
milieux exposés ou encore des causes des dommages.
Certains n’hésitent pas à parler d’une « sur-réglementation », d’une
« inflation » normative ou encore d’une architecture juridique faisant
figure de « labyrinthe antique » (Herve-Fournereau 2007 ; HerveFournereau 2008, p. 60).
Ces textes ne sont cependant pas spécifiques aux nanotechnologies
et apparaissent souvent incomplets et/ou inadaptés aux particularités
de celles-ci et aux risques qu’elles peuvent entraîner.
Plusieurs exemples peuvent illustrer ces di cultés dans le domaine des
produits chimiques, cosmétiques et alimentaires ; le domaine des médicaments
est, quant à lui, quelque peu di érent201.
4.4.1. Les médicaments
Le domaine de la médecine semble susciter des questions
di érentes eu égard aux particularités de l’utilisation qu’il fait des
nanotechnologies.
Les nanomédecines ne sont pas des médicaments mais des
techniques de diagnostic, d’administration nouvelle ou de vectorisation
des médicaments, d’encapsulation des molécules. Les nanomédecines
consistent donc en une association d’une nanotechnologie et d’une
substance médicament.
201
Ces domaines sont choisis à titre exemplatif, étant rappelé que les
nanotechnologies et nanomatériaux sont susceptibles de tomber sous le coup
d’autres règlements, sous réserve des di cultés déjà citées liées à l’absence
de définition des nanomatériaux et nanoparticules et à l’incidence des seuils
quantitatifs d’application des normes. On citera notamment les règlements
spécifiques aux déchets et substances radioactives, polluants organiques
persistants, qualité de l’air ambiant et air pur, politique communautaire de
l’eau, dispositifs médicaux, prévention et réduction intégrées de la pollution,
maîtrise des dangers liés aux accidents majeurs impliquant des substances
dangereuses (Directive SEVESO II), agents chimiques, protection de la santé
et la sécurité des travailleurs contre les risques liés à des agents chimiques
sur les lieux du travail, mise en œuvre de mesures visant à promouvoir
l’amélioration de la sécurité et de la santé des travailleurs… Ce e liste non
limitative établit bien le caractère inflationniste du cadre normatif.
342
Or les médicaments font l’objet d’une réglementation très détaillée et
les soucis toxicologiques en nanomédecine paraissent moins aigus que
dans d’autres secteurs eu égard aux analyses pré-cliniques et cliniques qui
précèdent l’autorisation de mise sur le marché202.
La procédure centralisée d’autorisation de mise sur le marché
– c’est-à-dire la procédure valable pour l’ensemble du territoire de
l’Union européenne –, est organisée par les règlements européens,
sous le contrôle de l’EMEA203 et du CSP204.
Lors de l’évaluation de la demande d’autorisation de mise sur le
marché, il est vérifié que les essais cliniques de médicament à usage
humain ont été réalisés conformément aux exigences éthiques de
la directive 2001/20/CE du Parlement européen et du Conseil du 4
avril 2001 concernant le rapprochement des dispositions législatives,
réglementaires et administratives des États membres relatives à
l’application des bonnes pratiques cliniques dans la conduite d’essais
cliniques de médicaments à usage humain.
L’EMEA rédige l’autorisation de mise sur le marché qui contient un
résumé des caractéristiques du produit et des obligations en matière
d’étiquetage et de notice205.
202
De nouveaux e ets secondaires liés à de nouvelles toxicités apparaissent
mais sont moins graves pour le patient que les toxicités évitées grâce aux
nanotechnologies.
203
Agence Européenne pour l’Evaluation des Médicaments. Règlement
(CEE) n° 2309/93 du Conseil du 22 juillet 1993 remplacé par le règlement (CE)
726/2004 du Parlement européen et du Conseil du 31 mars 2004 établissant des
procédures communautaires pour l’autorisation et la surveillance en ce qui
concerne les médicaments à usage humain et à usage vétérinaire et instituant
une agence européenne des médicaments.
204
Comité des Spécialités Pharmaceutiques.
205
Sur ces questions, voir règlement (CE) 1662/95 de la Commission du 7
juillet 1995 établissant certaines modalités de mise en œuvre des procédures
décisionnelles communautaires en matière d’autorisation de mise sur le marché
de médicaments à usage humain ou vétérinaire ; règlement (CE) n° 1394/2007
du Parlement européen et du Conseil du 13 novembre 2007 concernant les
médicaments de thérapie innovante ; règlement (CE) n° 141/2000 pour les
médicaments orphelins ; directive 2001/83/CE du 6 novembre 2001 instituant un
code communautaire relatif aux médicaments à usage humain. La procédure
centralisée est optionnelle pour les nouveaux médicaments (médicaments
contenant une nouvelle substance active et médicaments présentant une
innovation thérapeutique, scientifique ou technologique ou encore un intérêt
au niveau communautaire) et obligatoire pour les médicaments issus de la
343
4.4.2. Les produits chimiques
Le règlement REACH206 contient des dispositions d’ensemble
applicables à la fabrication, la mise sur le marché et l’utilisation de
substances chimiques telles quelles ou contenues dans des préparations
ou des articles.
Les dispositions s’appuient sur le principe de précaution
puisqu’elles énoncent l’obligation pour les fabricants et importateurs
de s’assurer qu’ils me ent sur le marché ou utilisent des substances
sans e et néfaste pour la santé ou l’environnement.
L’objectif est d’assurer la protection de la santé et de la sécurité, mais
également la compétitivité et la libre circulation des substances dans
le marché intérieur, sous le contrôle d’une institution communautaire,
étant l’Agence européenne pour les produits chimiques (ECHA)
(Thie ry 2000, p. 184).
Un autre objectif consiste en un renforcement de l’esprit
d’innovation de l’industrie chimique européenne207.
Fabricants et importateurs doivent soume re un dossier
d’enregistrement208 des substances chimiques contenant un rapport
sur la sécurité chimique et toxicologique.
Ce règlement ne vise pas expressément les nanomatériaux et ne
contient aucune disposition qui leur soient propres.
biotechnologie, les médicaments de thérapie innovante, les médicaments
orphelins, les médicaments contenant une substance active nouvelle et dont
l’indication thérapeutique est le traitement de l’immunodéficience, du cancer,
d’une maladie neuro-dégénérative, du diabète, des maladies auto-immunes
et d’autres dysfonctionnements immunitaires, ainsi que des maladies virales.
206
Registration, Evaluation, Autorisation of Chimicals, Règlement (CE)
n° 1907/2006 du Parlement européen et du Conseil du 18 décembre 2006 concernant
l’enregistrement, l’évaluation et l’autorisation des substances chimiques ainsi que les
restrictions applicables à ces substances.
207
Ils doivent également orienter la recherche vers la création de substances
nouvelles et non toxiques remplaçant les anciennes substances dont la toxicité
est avérée.
208
L’enregistrement se fait selon un agenda qui place au premier plan des
produits chimiques les plus dangereux et ceux utilisés dans les plus grands
volumes.
344
Tout au plus peut-on considérer implicitement que les
nanomatériaux et nanoparticules sont composés d’éléments chimiques
et donc couverts par le règlement.
Un document de travail interne de la Commission, sans valeur
juridique, confirme que les substances chimiques revêtant une
nanoforme relève du règlement REACH eu égard à la définition large
des concepts de « substance », « préparation » ou « article »209.
Il reste que les obstacles à l’application du règlement REACH
aux nanomatériaux sont nombreux et questionnent quant à la réelle
protection sanitaire et environnementale.
On relèvera notamment les interrogations suivantes :
le règlement fonctionne sur base d’un système d’enregistrement
des produits chimiques dans une base de données gérée
par l’Agence européenne pour les produits chimiques. Cet
enregistrement ne s’applique toutefois qu’aux produits fabriqués
ou importés dans des quantités supérieures à 1 tonne par an et
par fabricant ou importateur. Ce critère quantitatif est motivé
par la nécessité de préserver la praticabilité du système210.
209
Commission sta working on regulatory aspects of nanomaterials. h p://
ec.europa.eu/nanotechnology/index_en.htlm. La substance est tout élément
chimique et ses composés à l’état naturel ou obtenu par un processus de
fabrication. La préparation est un mélange ou une solution composée de
deux substances ou plus. Enfin, un article est tout objet auquel sont donnés,
au cours des processus de fabrication, une forme, une surface ou un dessin
particulier qui sont plus déterminants pour sa fonction que sa composition
chimique. Lors des discussions, le Parlement européen suggérait d’intégrer
des dispositions spécifiques aux nanoparticules dans le règlement REACH
en vue d’assurer une « évaluation adéquate de la sécurité de ces dernières comme
condition préalable à leur fabrication et à leur mise sur le marché. » (Recommandation
pour la deuxième lecture relative à la position commune du Conseil en vue de
l’adoption du règlement du Parlement européen (PE) et du Conseil concernant
l’enregistrement, l’évaluation et l’autorisation des substances chimiques, ainsi
que des restrictions applicables à des substances (REACH), rapporteur Guido
SACCONI, Amendement 24 (Considérant 104bis (nouveau)) A6.0352/2006 du
13 octobre 2006 ; (Herve-Fournereau 2008, p. 57).
210
COM (2003) 644 final – Proposition de règlement du PE et du Conseil
concernant l’enregistrement, l’évaluation et l’autorisation des substances
chimiques, ainsi que les restrictions applicables à ces substances (REACH),
instituant une agence européenne des produits chimiques et modifiant
la directive 1999/45/CE et le règlement (CE) (sur les polluants organiques
persistants) – Proposition de directive du PE et du Conseil concernant
345
Or, ce seuil quantitatif communautaire est rarement atteint pour les substances sous forme nanométrique211 et n’est
en outre pas déterminant au plan de l’analyse des risques. En
e et, il semble acquis que le critère de volume n’est pas le
seul en cause en matière de nanotechnologie mais doit être
complété par une analyse des propriétés physiques, chimiques et biologiques spécifiques – c’est-à-dire di érentes de
celles de mêmes éléments à l’échelle macroscopique. Le choix
du critère quantitatif a pour conséquence un risque de non
enregistrement de certains nanomatériaux et donc une non
application des exigences de sécurité (AFSSET 2006).
a) La demande d’enregistrement doit être accompagnée d’un
dossier contenant des informations sur la fabrication et l’utilisation des substances, les risques physico-chimiques, toxicologiques et écotoxicologiques, la sécurité chimique tout au
long de la chaîne de commercialisation, les dangers pour la
santé humaine et pour l’environnement.
Le contenu du dossier d’information varie selon un critère de
quantité fabriquée ou importée.
De plus, les méthodes d’essais et de tests toxicologiques ne sont
pas toujours adaptées aux nanomatériaux, les « réactions » d’une
nanoparticule étant di érentes de celle d’une substance à plus grande
échelle212.
l’enregistrement, l’évaluation et l’autorisation des produits chimiques, ainsi
que les restrictions applicables à ces substances ; (Herve-Fournereau 2008,
p. 60).
211
Sous réserve du droit de l’Agence européenne des produits chimiques
de demander des informations sur toute substance, indépendamment des
exigences minimales prévues dans le règlement REACH et sous réserve d’une
application possible – lorsque les critères auront été définis –, des dispositions
relatives aux substances prioritaires (article 44 : propriétés préoccupantes,
persistantes, bio-accumulables).
212
Voir les études du CASG, Competent Authorities Sub-group on
Nanomaterials, groupe d’experts des Etats membres de l’Union européenne
sur les nanomatériaux dans le cadre réglementaire du REACH.
Les insu sances du REACH au niveau des tests et de l’évaluation des risques
liés aux nanotechnologies sont détaillées dans le rapport « Submission of
wri en evidence to the study of novel materials » de la Commission royale sur
la pollution environnementale (RU) h p://www.rcep.org.uk/reports/27novel%20materials/documents/HSE.pdf
346
La question reste posée de savoir si les obligations de notification
et d’enregistrement s’appliquent à la nanoforme d’une substance
déjà enregistrée.
En d’autres termes, ce e nanoforme d’une substance existante
est-elle une substance nouvelle ou doit-elle être traitée comme
un produit chimique existant ?
La question se pose dans le cadre de l’application du règlement
REACH, mais également dans celui de l’application du
Règlement (CE) 1272/2008 du 16 décembre 2008 relatif à la
classification, l’étiquetage et l’emballage des substances et
mélanges213.
Les règles de classification et étiquetage des produits chimiques
s’appliquent par référence aux propriétés intrinsèques de toute
substance ou préparation dangereuse, ce qui semble impliquer
une classification liée à la spécificité des nanomatériaux.
La di culté tient à la circonstance qu’il n’y a pas de disposition
expresse imposant de façon explicite la mention de l’état
nanométrique de la substance concernée.
Selon la Commission (Thie ry 2000, p. 184), la nanoforme doit
donner lieu à des informations spécifiques, une évaluation
de sécurité, éventuellement une classification di érente ou
complémentaire, des mesures de gestion des risques propres.
Ce e a rmation correspond certes aux particularités de la
nanoforme – propriétés, caractéristiques, utilisation… –, par
rapport à la substance à échelle macroscopique.
Elle représente toutefois uniquement le point de vue de la
Commission et est dépourvue de caractère contraignant à
défaut de dispositions normatives sur ce e question.
Ce e dernière observation rejoint le constat plus général qui peut
être fait en matière de réglementation des substances chimiques.
Les législations existantes doivent être approuvées en termes de
213
Règlement applicable au 1er décembre 2010 pour les substances et au 1er juin
2015 pour les mélanges. La substance a la même définition que dans le règlement
REACH. Le mélange est une combinaison de deux ou plusieurs substances.
347
recensement, évaluation, prévention, réduction des risques, sécurité
sanitaire et environnementale, contrôle des technologies…
Il reste qu’elles sont adaptées aux substances chimiques « classiques »
mais ne sont pas nécessairement adaptées aux nanomatériaux, compte tenu
des incertitudes de terminologie – l’absence de définition harmonieuse des
nanomatériaux empêche une détermination précise du champ d’application
-, des incertitudes scientifiques quant aux risques et aux méthodologies de
recherche, prévention et contrôle des risques.
Ces incertitudes sont génératrices de préoccupations sérieuses pour
l’environnement, la sécurité et la santé des utilisateurs et consommateurs et
plus particulièrement, des travailleurs214.
4.4.3. Les cosmétiques
Les produits cosmétiques constituent un exemple intéressant d’une
réglementation prenant expressément en considération les spécificités
des nanotechnologies dans l’élaboration d’un cadre normatif adapté.
Le règlement existant215 a en e et dû être modifié eu égard aux
risques spécifiques de toxicité – utilisation de nanoparticules connues
pour leurs propriétés perme ant de traverser la peau et entrer dans le
corps –, et au manque préoccupant d’informations sur ces risques216.
Les nouvelles dispositions sont aujourd’hui contenues dans le
règlement (CE) n° 1223/2009 du Parlement européen et du Conseil du
30 novembre 2009 relatif aux produits cosmétiques.
S’il faut souligner l’importance de ce règlement comme
premier instrument légal contenant des dispositions spécifiques
aux nanomatériaux, il faut immédiatement relever que son champ
214
L’exposition aux nanomatériaux présente, selon des études récentes, des
risques pour la santé des travailleurs, risques liés à l’absorption transdermale
et respiratoire des nanoparticules. Il subsiste également de nombreuses
inconnues quant à l’incidence sur les risques des particularités spécifiques de
chaque nanoparticule ou des normes de concentration – en lieu et en temps –,
des nanoparticules dans la zone de respiration des travailleurs.
215
Directive 76/768 CEE du 27 juillet 1976.
216
Les informations sur la toxicité potentielle des nanomatériaux dans la
cosmétique étant tributaires des informations fournies par les fabricants ;
(Ponce Del Castillo 2010).
348
d’application se trouve limité par une définition assez restrictive du
terme « nanomatériau », même s’il est dès à présent précisé que la
Commission pourra redéfinir le concept en fonction de l’apparition de
nouvelles technologies217.
Quatre types de dispositions normatives doivent retenir l’a ention
dans l’analyse de l’objet de ce nouveau règlement qui est applicable au
1er décembre 2010 dans certaines de ces dispositions et au 1er janvier
2013 pour d’autres.
a) règles nouvelles sur la notification et l’étiquetage
Tous les produits cosmétiques contenant des nanomatériaux
doivent être notifiés à la Commission et tout ingrédient sous
forme nanométrique doit être clairement indiqué, avec une
référence expresse au terme « nano » dans l’étiquetage218.
b) application du principe de précaution
Une procédure d’évaluation de la sécurité doit être exécutée
pour tous les produits contenant des nanomatériaux et ce, avant
la commercialisation.
L’article 13 du Règlement précise qu’avant la mise sur le marché
du produit cosmétique, diverses informations sont transmises à
la Commission, notamment sur la présence de substances sous
forme de nanomatériaux.
c) restriction des nanomatériaux autorisés
Le règlement précise les substances pouvant ou non être
incorporées à un cosmétique. L’article 14 réglemente les
restrictions concernant certaines substances : colorant, agent
conservateur, filtre UV.
d) transparence
217
Art. 2, 1K. Il s’agit en e et du matériau non soluble ou bio-persistant
fabriqué intentionnellement et se caractérisant pour une ou plusieurs
dimensions externes ou par une structure interne, sur une échelle de 1 à 100
nm. ; la référence au seul critère de la dimension est trop réductrice et il aurait
fallu y ajouter le critère des propriétés de la particule à l’échelle nanométrique
di érente de celle des matériaux à l’échelle macroscopique. (Ponce Del Castillo
2010).
218
Art. 19.
349
L’industrie se voit contrainte de fournir des informations sur
l’utilisation des nanomatériaux dans les produits cosmétiques
afin de renforcer les contrôles du marché.
A dater de janvier 2013 et avant toute mise sur le marché, des
informations spécifiques sont notifiées à la Commission :
• identification des nanomatériaux
• signification des nanomatériaux
• estimation de la quantité destinée à être mise sur le marché
• profil toxicologique
• données relatives à la sécurité.
En cas de doute sur la sécurité du nanomatériau, la Commission
demande un avis au Comité scientifique européen pour la sécurité des
consommateurs (CSSC).
Enfin, au 11 janvier 2014 au plus tard, la Commission présente
au Parlement européen et au Conseil un catalogue de tous les
nanomatériaux utilisés dans les produits cosmétiques.
Les dispositions du règlement en matière de nanomatériaux sont
réexaminées régulièrement en tenant compte des progrès scientifiques
et, pour la première fois, le 11 juillet 2018 au plus tard.
4.4.4. Les produits alimentaires
Les nanotechnologies sont étudiées notamment pour tout ce qui touche
au développement des « emballages intelligents »219, des activateurs antimicrobiens220 ou de l’incorporation de nanocapsules dans les aliments
en vue de la di usion des nutriments.
Les incertitudes pour la sécurité alimentaire liées à l’absence de
cadre normatif sur l’utilisation des nanomatériaux dans les produits
alimentaires ou sur les contraintes en matière d’étiquetage des
219
Emballage informant le consommateur d’une contamination.
Capteurs décelant la dégradation, nanoparticule perme ant une meilleure
conservation des aliments… (Ponce Del Castillo 2010).
220
350
nanoparticules221 a conduit la Commission à solliciter un avis sur les
risques potentiels de l’EFSA, Autorité Européenne de Sécurité des
Aliments (EFSA 2008).
Celle-ci a conclu à la nécessité de procéder à des investigations
plus poussées sur les risques de toxicité des nanomatériaux dans le
domaine de l’alimentation humaine et animale.
La Commission a alors présenté une proposition de réforme du
règlement (CE) n ° 258/97 du 27 janvier 1997 relatif aux nouveaux
aliments et aux nouveaux ingrédients alimentaires222 afin de me re
en place une procédure centralisée d’évaluation de l’innocuité et de
l’agrément des produits avec le concours de l’EFSA qui réalisera les
évaluations et le Comité permanent de la chaîne alimentaire et de la
santé animale223.
Les débats sur ce e révision ont fait apparaître d’importantes
dissensions entre les autorités européennes.
Si un consensus existe entre Parlement, Commission et Conseil sur
la nécessité d’assouplir la procédure d’autorisation – simplification et
centralisation –, la délimitation du champ d’application du nouveau
règlement est en revanche suje e à débat.
221
Un cadre normatif limité aux matériaux en matière plastique destiné
à entrer en contact avec des denrées alimentaires est mis en place par le
Règlement (UE) 10/2011 de la Commission du 14 janvier 2011 qui établit des
exigences spécifiques applicables à la fabrication et à la commercialisation de
ces matériaux (voir supra).
222
C’est-à-dire les aliments dont la consommation humaine était restée
négligeable dans la Communauté avant le 15 mai 1997.
223
Le règlement Novel Food organise une procédure d’autorisation de
mise sur le marché avec évaluation de l’innocuité des nouveaux aliments et
ingrédients par les agences nationales compétentes et l’Autorité européenne
de sécurité des aliments. Une évaluation initiale a lieu au niveau national,
l’Autorité compétente transme ant l’évaluation à la Commission qui en
assure la di usion à tous les Etats membres. En cas d’objection, la Commission
sollicite l’avis de l’EFSA. En cas d’avis favorable, la Commission prend une
décision d’autorisation moyennant certaines conditions : cadre d’utilisation
du produit, dénomination, exigence d’étiquetage…
Une dérogation à ce e procédure complète existe pour les produits dont il
est démontré qu’ils sont l’équivalent (valeur nutritive, composition, usage,
métabolisme… ) d’un produit déjà présent sur le marché ; dans ce cas, une
simple notification à la Commission su t. Ce e procédure simplifiée ne peut
pas s’appliquer aux aliments issus de nouvelles technologies.
351
Ainsi, l’inclusion des nanomatériaux dans le champ d’application
du règlement ne fait pas l’unanimité224.
Pour la Commission, le Règlement doit être immédiatement applicable aux « nanomatériaux manufacturés » dont une définition est proposée,
tout en adme ant son adaptabilité future aux progrès scientifiques225.
La Commission accepte cependant le principe d’un étiquetage
obligatoire et systématique de toutes les denrées et ingrédients
alimentaires contenant des nanomatériaux.
En réponse à ce e proposition de la Commission, le Parlement
européen a pris, le 25 mars 2009, une résolution législative faisant une
application stricte du principe de précaution.
Il demande que les aliments produits avec des nanotechnologies
ne soient pas inscrits sur la liste communautaire aussi longtemps
qu’une évaluation des risques n’a pas démontré que l’utilisation de
chacun des aliments en question est sûre226.
Le Conseil et la Commission n’ont pas suivi le Parlement européen
dans ce e voie et ce dernier a, par une résolution législative du 7
juillet 2010227, réitéré son opposition en appelant à la mise en place
d’un moratoire spécifiant que les aliments produits au moyen de
nanotechnologies ne pourront être mis sur le marché avant l’adoption
de méthodes spécifiques d’évaluation des risques par les Autorités
européennes.
La position adoptée par le Parlement européen a conduit la
Commission européenne à demander à l’EFSA, en novembre 2009,
d’élaborer un projet de lignes directrices pour l’évaluation des risques
potentiels liés aux applications des nanosciences et nanotechnologies
224
Le second point de dissension concerne les denrées alimentaires provenant
d’aliments clonés et de leur descendance.
225
Ce e définition se fait par référence à la taille, mais également aux
propriétés di érentes de celle de la forme non nanotechnologique.
226
Le Parlement européen exige également un étiquetage spécial mentionnant
la présence de tout nanomatériau, avec la référence expresse « nano ».
227
Résolution relative à la position du Conseil en première lecture en vue de
l’adoption du Règlement du Parlement européen et du Conseil concernant les
nouveaux aliments.
352
aux denrées alimentaires et aliments pour animaux (y compris les
additifs, enzymes, arômes, matériaux en contact avec les aliments,
nouveaux aliments, pesticides).
La version préliminaire de ce document a été soumise à une
consultation publique228.
Rappelons ici que dans un précédent avis de février 2009, le
Comité scientifique de l’EFSA avait conclu qu’une approche au cas par
cas des risques serait nécessaire et que, dans la pratique, les données
actuellement limitées et l’absence de méthodologies expérimentales
validées pourraient rendre l’évaluation des risques de certains
nanoproduits très di cile et suje e à un degré élevé d’incertitude.
Les travaux de révision du Règlement Novel Food ont été
suspendus en novembre 2010 par la présidence belge du Conseil
de l’Union européenne, décision critiquée par les parlementaires
européens qui déplorent « un manque de courage sur une problématique
très importante pour les citoyens européens »229.
Les négociations de conciliation entre le Parlement et le Conseil concernant
l’actualisation du règlement sur les nouveaux aliments ont échoué lors de la
réunion du 17 mars 2011230.
Le même défaut d’accord a été constaté lors des pourparlers de
conciliation du 28 mars 2011.
Le règlement actuel sur les nouveaux aliments, adopté en 1997,
restera donc en vigueur231.
Au-delà des interrogations techniques sur le champ d’application
du règlement Novel Food et des conséquences économiques du
blocage de la révision du cadre normatif, le désaccord entre le
Parlement européen d’une part et la Commission et le Conseil d’autre
part, est exemplatif de la di culté – technique et éthique –, d’une mise
en œuvre du principe de précaution.
228
www.esfa.europa.eu
Déclaration de la députée italienne Gianni PITTELLA, h p://www.guengl.
eu/. La décision a été transférée en troisième lecture à la présidence hongroise
en place au 1er janvier 2011.
230
Communiqué de presse, www.europarl.europa.eu
231
h p://www.europarl.europa.eu/fr/pressroom/content/20110328IPR16525/
229
353
Chacun se revendique de ce principe mais en lui donnant une
interprétation très di érente.
Alors que le Parlement européen appelle à un moratoire sur les
aliments contenant des nanomatériaux jusqu’à ce que leur innocuité
pour la santé humaine ait été prouvée, le Conseil – au nom du même
principe – parle d’une évaluation systématique de la sécurité de ces
mêmes aliments et d’une autorisation au cas par cas.
Les considérations de compétitivité économique ne sont sans
doute pas étrangères à ce e divergence qui repose la question de
la définition des nanomatériaux, de leur inventaire et surtout, de
la fiabilité des méthodes d’évaluation au regard des spécificités de
l’échelle nanométrique.
Conclusion
On soulignera en termes de conclusion que l’encadrement normatif
des nanotechnologies se heurte à une di culté majeure.
Alors que le cadre normatif général est abondant, son application
spécifique aux nanotechnologies est di cile en raison des incertitudes
multiples qui entourent la définition des nanomatériaux et la
connaissance technique des risques qu’ils génèrent.
Ces incertitudes placent les régulateurs face à une situation
di cile de choix entre l’application pure et simple d’un moratoire,
l’élaboration d’une réglementation nouvelle et spécifique ou, plus
simplement, l’adaptation de la réglementation existante.
Le choix est complexe compte tenu des implications techniques,
scientifiques et économiques.
La complexité se renforce encore si on retient que le choix
a également une dimension éthique qui ne se limite pas à un
questionnement sur les implications sanitaires et environnementales
mais qui intègre une réflexion sur le projet sociétal et sur la place de
l’humain face aux enjeux économiques et technologiques.
354
Références
AFSSET, Les nanomatériaux : e ets sur la santé et l’environnement, juillet 2006,
h p://ec.europa.eu/environnement/chemicals/reach/pdf/nanomaterials.pdf
BENSAUDE-VINCENT B., Les vertiges de la technoscience. Façonner le
monde atome par atome, Paris, La Découverte, 2009.
BENSAUDE-VINCENT B. et NUROCK V., « Éthique des nanotechnologies », dans HIRSCH E. (éd.) Traité de bioéthique, T I, éd. Erès,
2010.
COMETS, Comité d’Ethique du CNRS, Avis sur les enjeux éthiques
des nanosciences et nanotechnologies, 12 octobre 2006.
DUPUY J.-P., « La nanoéthique existe-t-elle ? », Cahiers du Comité
consultatif national d’éthique 52, 2007.
EFSA, Dra opinion of the scientific commi ee on the potential risks arising
from nanosciences and nanotechnologies on food and feed safety, 14 octobre 2008, www.efsa.europa.eu
GOFFETTE J., Naissance de l’anthropotechnie. De la médecine au modelage
de l’humain, Paris, Vrin, 2008.
HERVE-FOURNEREAU N., Droit et risques environnementaux, Université virtuelle « Environnement et développement durable », Module Introductif Risques, 10 p., avril 2007. Plate-forme de formation de l’Ecole des Mines de Paris – h p://campus.ensmp.fr/
HERVE-FOURNEREAU N., « La sécurité sanitaire et écologique visà-vis des nanomatériaux », in Cahiers Droit, Sciences et technologies,
Dossier thématique Droit et Nanotechnologies, n° 1, Paris, éd.
CNRS, 2008.
HOUDY P., « Nanosciences : anticiper les risques », dans HIRSCH E.
(éd.) Traité de bioéthique, T I, éd. Erès, 2010.
LACOUR S., Gouverner l’incertitude ; les apports des sciences sociales à
la gouvernance des risques sanitaires et environnementaux, 6-7 juillet
2009, AFSSET, www.afsset.fr.
PONCE DEL CASTILLO A.M., « La réglementation européenne en
matière de technologies », Cahiers du CRISP 2065, 2010.
THIEFFRY P., « La prise en compte du risque des nanoparticules et nanomatériaux. Informations et réglementation en amont. Mise en
perspective juridique », dans LACOUR S. (éd.) La réglementation
des nanotechnologies. Clair-obscur normatif, Bruxelles, Larcier, 2000.
VERGES E., « Régime juridique d’identification et de suivi des nanoparticules », dans LACOUR S. (éd.) La réglementation des nanotechnologies. Clair-obscur normatif, Bruxelles, Larcier, 2000.
VINCK D., Les nanotechnologies, coll. Idées reçues, sciences et techniques, éd. Le cavalier bleu, 2009.
355
Quelle éthique pour les nanotechnologies ?
Bilan des programmes en cours et perspectives
Bernade e Bensaude-Vincent232
Les appels à l’éthique déjà manifestes en 1998 dans le débat sur
le clonage humain, puis en 2000 lors de la publication du Projet
génome humain, se sont étendus au cours des années 2000 aux
nanotechnologies. L’accompagnement éthique semble devenu une
marque distinctive des technosciences actuelles, un passage obligé.
Lorsque la National Nanotechnology Initiative démarre aux ÉtatsUnis, elle consacre 10 % de son budget aux études d’impacts éthiques,
juridiques et sociétaux. Avec le même souci de responsabilité, un
Center for Responsible Nanotechnology est créé à Palo Alto en 2002.
Au nom du progrès, on a imposé toutes sortes d’innovations
comme une nécessité à laquelle nulle société avancée ne pouvait se
soustraire au cours du XXe siècle. Ce e foi aveugle dans le progrès
technique, splendidement résumée dans le slogan de l’exposition
universelle de Chicago dans les années 1930 – science finds, industry
applies, man conforms –, a-t-elle cédé la place à une inquiétude éthique ?
Les acteurs et promoteurs des nanotechnologies en plusieurs
pays considèrent l’éthique comme une activité faisant partie des
programmes de recherche et développement, comme une dimension
qui doit être intégrée dès l’amont, expriment ouvertement leur volonté
d’« innovation responsable ». Mais que recouvre ce nouveau slogan ?
Un « besoin » d’éthique
Avec les nanotechnologies, l’éthique est présentée comme un besoin
impérieux issu d’un fossé existant entre les avancées techniques et les
sociétés. Ce postulat du fossé a servi une argumentation véhémente en
faveur d’une a itude pro-active en recherche éthique dans un article
fameux intitulé « Mind the gap » (Mnyusiwalla 2003). Les trois signataires,
232
Université Paris 1/Institut universitaire de France
357
Anisa Mnyusiwala, Abdallah Daar et Peter Singer soulignent qu’un
fossé considérable sépare les avancées scientifiques de l’éthique, qui
reste largement en retrait, et doit ra raper l’innovation. On trouve
la même injonction un an plus tard dans le rapport britannique
Nanoscience and nanotechnology : opportunities and uncertainties
de la Royal Society et de la Royal Academy of Engineering (Royal
Society et Royal Academy of Engineering 2004). Est clairement énoncé
le principe selon lequel l’avancée dans les nanotechnologies doit se
doubler d’une réflexion sur leurs conséquences et d’une implication
du public. Le rapport recommande en conséquence le lancement
d’une vaste campagne de Public engagement in science.
En France, au même moment, certains se montrent plus prudents.
Le rapport sur les nanotechnologies de l’Académie des sciences et
de l’Académie des technologies ne fait pas preuve d’une réelle prise
en compte des nouvelles questions éthiques, se contentant d’a rmer
que ces technologies comportent certes des risques, mais qu’ils sont
maîtrisés et sous contrôle (Académie des sciences et Académie des
technologies 2004). A l’inverse, Jean-Pierre Dupuy et Françoise Roure,
de l’Ecole des mines, réclament une réflexion sur les risques et plus
largement sur l’éthique liés aux nanotechnologies (Dupuy 2004a)233.
En 2006, l’Unesco publie également un rapport qui aborde ces divers
aspects, y compris les aspects géopolitiques (Unesco 2006).
Ces divers rapports expriment un « besoin » d’accompagnement
éthique qui semble étendre à l’innovation technologique en général
un mouvement qui est déjà bien implanté dans la recherche
biomédicale.
L’approche ELSI (ethical, legal, societal impacts)
Toutefois le tournant éthique prend ici une forme spécifique bien
di érente des comités d’éthique. Il ne s’agit pas de réunir di érents
acteurs qui prennent position en fonction de leurs convictions et
opinions. Il ne s’agit pas davantage d’appliquer au domaine des
nanotechnologies des théories éthiques déjà existantes comme
l’éthique des vertus, le conséquentialisme ou encore le principlisme.
Loin de promouvoir une nouvelle éthique appliquée - une nanoéthique
233
Voir aussi (Dupuy 2004b).
358
sur le modèle de la bioéthique – les recherches menées dans le cadre
des initiatives en nanotechnologies se traduisent par la mise en place
de programmes d’études d’impacts éthiques, juridiques et sociaux,
connus sous l’acronyme ELSI (pour ethical legal and societal impacts).
Ce type de programme mis en place pour la génomique, favorise
les exercices d’anticipation des conséquences de la di usion des
nouvelles technologies. Quelle utilisation serait faite des données
recueillies sur le génome humain ? Fallait-il poursuivre le projet
et séquencer les génomes de toutes les espèces ? Telles étaient les
questions qui se posaient en génomique. Pour les nanotechnologies,
il s’agit essentiellement d’anticiper d’éventuels conflits de valeurs
suscités par les applications des nanotechnologies dans des sociétés
où la vie privée, la liberté individuelle, la justice, la nature humaine
sont des valeurs sinon sacrées du moins très prisées.
Ces programmes de recherche ont favorisé l’émergence d’un champ
nouveau qui mobilise autant que des philosophes professionnels
de l’éthique, des sociologues, des juristes, des économistes qui sont
étroitement associés aux recherches proprement techniques.
Des motivations divergentes
L’enthousiasme pour les programmes ELSI procède d’un concours
de motivations pour le moins assez disparates.
Pour les promoteurs des nanotechnologies qui sont les
commanditaires de tels programmes, l’enjeu de telles recherches est
très clair : il faut éviter le fiasco qui s’est produit avec les OGM en
Europe, c’est-à-dire le rejet d’une innovation par les consommateurs
au moment de sa mise sur le marché. Cela nécessite d’anticiper
les conséquences de l’innovation pour aplanir les obstacles, et de
préparer la société à la recevoir. Mihaïl Roco, chef d’orchestre de la
Nanotechnology initiative américaine, ne s’en cache pas quand il
a rme que l’enjeu est de monitorer l’évolution sociale résultant de ces
technologies. “It is essential to prepare key organizations and societal
activities for the changes made possible by converging technologies.
Activities that accelerate convergence to improve human performance
must be enhanced, including focused research and development […]
to monitor the resultant societal evolution…” (Roco 2002). Pour les
promoteurs des nanotechnologies, il est indispensable d’accompagner
359
la conception et la fabrication de nouveaux artefacts d’une ingénierie
sociale consistant à préparer la société en amont, dès le stade de la
recherche, à accepter des innovations. On est toujours dans la démarche
« top-down » illustrée dans le slogan de l’exposition de Chicago des
innovations issues des milieux de la science et de l’ingénierie qui sont
imposées à la société considérée comme un simple récepteur passif
ou consommateur. Certes la recherche en nanotechnologie et plus
généralement dans les technologies convergentes s’autorise d’une
« demande sociale » et se donne des finalités économiques ou sociales
explicites. Ainsi le fameux programme NBIC – pour nanotechnologies,
biotechnologies, informatique et cognition – lancé par Roco deux ans
après la Nanoinitiative, s’intitulait « Converging Technologies for
improving Human Performances ». Mais il est clair que ce sont les
chercheurs et les politiques de la recherche qui décident de la demande
sociale sans consulter les citoyens.
Les philosophes et chercheurs en sciences sociales qui s’embarquent
dans l’aventure ont en général des motivations tout autres. Pour eux,
il ne saurait être question de renforcer l’acceptabilité sociale de ces
innovations. Les nanotechnologies leur apparaissent plutôt comme
un terrain à explorer, avec des financements juteux et des conditions
d’accès au terrain privilégiées. En e et les programmes ELSI o rent la
possibilité d’intervenir en amont, donnant ainsi la possibilité concrète
de co-construire les sciences et la société. Il existe certes un point
d’accord : sur la nécessité de prendre en compte la société dans la
définition des orientations de recherche, de « vectoriser » la recherche
vers un but assigné. Mais pour les chercheurs du courant Sciences
Techniques Société qui ont patiemment analysé la construction
sociale des sciences, il s’agit de passer à l’action et de co-construire
e ectivement. Tel est l’objectif a ché des sixième et septième PCRD
(programmes cadres de recherche et de développement) européens :
alors que la construction de l’Europe politique montrait ses limites, le
rapport européen répondant au programme américain NBIC tentait en
quelque sorte de construire l’Europe à travers des choix scientifiques
et technologiques. En critiquant les objectifs individualistes du
programme NBIC, le rapport proposait d’orienter la recherche vers
les valeurs européennes. « Les technologies convergentes sont des
technologies potentialisantes (enabling technologies) et des systèmes
de savoir qui se potentialisent mutuellement dans la poursuite d’un
but commun » (UE 2004, p. 14). Dans ce e optique, le but n’est plus
360
posé comme nécessaire et indiscutable, il doit être révisé dans un
processus perpétuel de renégociation qui mobilise divers acteurs ou
« parties prenantes ».
Ces di érences entre les promoteurs des nanotechnologies et les
chercheurs en sciences humaines et sociales montrent combien ce
champ d’innovation est conflictuel et sous tension, aux prises avec des
parties prenantes animées par des intérêts et des aspirations propres.
Cela demande un processus de négociation et l’intervention de
politiques pour élaborer des incitations et encourager une dynamique
permanente. Le Nano Code of Conduct, code de bonne conduite
publié par la Commission européenne en 2009, résulte ainsi de la
rencontre de parties prenantes : grandes entreprises, ONG, chercheurs
en nanotechnologies, environnementalistes, militants, assureurs... Ce
texte est appelé à être révisé tous les deux ans.
Une activité e ervescente et tous azimuts
La mise en œuvre des programmes ELSI a suscité une activité
e ervescente un peu partout en Europe comme aux États-Unis. La
nanoéthique est devenue une discipline à part entière, avec une
floraison de programmes et de réseaux : par exemple, Nano-BioSafe, et Nano2Life en Europe. Une revue spécialisée Nanoethics, a été
créée en 2007 et près de dix volumes collectifs internationaux ont été
publiés. Une société savante internationale a été créée en 2009, S-Net
(Society for Nanotechnology and Emerging Technologies) qui organise
un congrès annuel réunissant tous les chercheurs concernés par
l’interface nano et société. Un e ort considérable a été déployé pour
intégrer la recherche en sciences sociales dans les grands centres de
recherche en nanotechnologies : ainsi Robert Doubleday, sociologue,
a-t-il été embauché pour travailler in situ à Cambridge (UK) dans le
Nanotechnology Centre.
Dans ce processus, l’éthique proprement dite tend à se diluer dans
un ensemble hétéroclite de considérations qui ont pour point commun
de concerner les citoyens et la société dans son ensemble, sous divers
rapports.
D’une part, la question des risques liés aux nanoparticules
qui fait l’objet d’un programme distinct aux États-Unis (EHS pour
361
Environmental, Health, Safety) est aussi le plus souvent au cœur des
programmes ELSI. Les nanoparticules d’ores et déjà entrées dans le
circuit commercial (nano-argent, ou di-oxyde de titane nanostructuré)
semblent en e et en contradiction avec la politique de précaution voulue
par l’Europe, en particulier. C’est pourquoi en France, les agences
nationales dédiées aux risques technologiques ont été mobilisées.
Après le rapport de l’Afssa (Agence française de sécurité sanitaire des
aliments) qui sonnait déjà l’alerte en 2006, celui de l’Afsset (Agence
française de sécurité sanitaire de l’environnement et du travail) en
2010 fait preuve d’une vigilance extrême, appelant même à l’arrêt de
la mise sur le marché d’un grand nombre de nanoparticules.
Les impacts sociétaux constituent un deuxième thème de
recherche : les nanotechnologies rendent possible la production de
capteurs minuscules et peu coûteux qui pourront être implantés
n’importe où pour surveiller ou espionner les personnes à leur insu.
Ces nanodispositifs invisibles et invasifs peuvent présenter une
menace pour la vie privée, pour la liberté individuelle et même pour
la dignité humaine dans la mesure où le couplage capteur-actionneur
rendra possible la manipulation de la volonté et du comportement par
des implants.
La sécurité des individus comme des pays, figure en troisième
lieu parmi les thèmes relevant des recherches ELSI. Il s’agit d’évaluer
l’impact d’armes de combat autonomes téléguidées ou bien disséminées
sous forme de nanopoussières toxiques sur les politiques de dissuasion
autant que d’envisager quel équilibre géopolitique pourrait résulter
d’une économie fondée sur les nanotechnologies, notamment dans les
relations Nord-Sud. Les questions de justice distributive sont donc à
prendre en considération.
Enfin une grande partie des recherches porte sur les enjeux éthiques
de la nanomédecine avec les diagnostics sur puce, les biomarqueurs,
qui posent des problèmes de santé publique et d’équité devant la santé.
L’anticipation des questions posées par la possibilité d’augmenter
les performances humaines a concentré l’a ention des philosophes
car elle pose le problème de la nature humaine. C’est en e et le but
assigné au programme de convergence entre les nanotechnologies, les
technologies de l’information, les biotechnologies et les sciences de
la cognition (NBIC) lancé aux États-Unis en 2002 dans la foulée de
la NanoInitiative. Des humains dopés, augmentés, rajeunis et peut362
être même immortalisés… voilà qui défie toutes les limites actuelles et
interroge la notion même de « nature humaine ».
Illusion de contrôle, e ets pervers
Après dix ans de démarche ELSI en nanotechnologies, où en eston ? L’idée est acquise que l’innovation dans les nanotechnologies est
peut-être la solution à des questions sociales, mais qu’elle est aussi la
source de nouveaux problèmes. Les acteurs sont alertés sur les enjeux
de santé et de sécurité, ainsi que sur la nécessité de les gérer dès l’amont,
au stade de la recherche et développement. Les scientifiques comme
les politiques sont sensibilisés aux conséquences des découvertes en
nanotechnologies. Le bilan n’est donc pas négatif.
Néanmoins, on égrène à l’envi une liste de problèmes, semblable
à une checklist de tâches à faire. Mais qu’en est-il des mesures éthiques
et politiques à me re en œuvre pour a ronter les problèmes ? La
checklist ne donne qu’une illusion de maîtrise et de contrôle. Les
problèmes sont certes posés, mais rien n’a avancé quant aux solutions
qu’il convient de leur apporter. En ce qui concerne les études de
nanotoxicologie par exemple, on est encore très loin d’être en mesure
de définir des normes internationales et cependant les nanoparticules
envahissent déjà le marché. De même s’agissant des problèmes
sociaux liés aux libertés individuelles, la Cnil (Commission nationale
de l’informatique et des libertés) n’a pas les moyens de se saisir des
sujets ni de mener des études. Les alertes de l’Afssa et de l’Afsset n’ont
pas été suivies d’e et.
Mais, plus regre able encore, la checklist issue des programmes ELSI
traduit une a ention exclusive aux applications des nanotechnologies,
et une prédilection particulière pour des applications futuristes
comme la création de transhumains, ou d’une humanité augmentée…
Or ce faisant, les études ELSI confèrent un caractère presque réel et
363
inéluctable à des perspectives au demeurant spéculatives et assez
fantaisistes. Tel est l’e et pervers de la démarche ELSI : des promesses
de pure rhétorique faites par les lanceurs de nanotechnologies sont
perçues comme des réalités vers lesquelles doivent converger tous les
e orts de recherche des dix ans à venir. Elles font partie intégrante de
la feuille de route des nanotechnologies, abolissant toute possibilité
d’y déroger. Comme l’ont souligné les auteurs d’un article critique,
c’est le paradoxe du « si… alors » : la proposition introduite par « si »
devient inéluctable, tandis qu’on envisage ses conséquences possibles
(Nordmann 2007, Nordmann 2009).
De fait, les chercheurs engagés dans les nanotechnologies jugent
les programmes ELSI insatisfaisants. Ils ne se reconnaissent pas dans
ce e éthique entièrement spéculative qui ne correspond pas à la
nature des recherches qu’ils mènent au quotidien. Pour les éthiciens,
la démarche ELSI a le tort de réduire l’éthique au conséquentialisme.
Or l’éthique est aussi liée au respect de certaines valeurs : la vie, la
nature humaine, la nature, les vertus. De même, les citoyens ne se
satisfont pas de ce e approche dans laquelle ils sont consultés une fois
les décisions prises. Ils sont réduits au rôle de consommateur averti
ayant pour seule marge de manœuvre de demander l’étiquetage
des produits comportant des nanotechnologies. Jamais on ne leur
demande s’il convient ou non de développer ces innovations ni quel
sens elles doivent porter.
De l’éthique à la gouvernance
Expérimenter de nouvelles formes de participation du
public est un e et plus positif de la mobilisation suscitée par les
slogans d’innovation responsable. Un mot d’ordre prévaut dans
l’approche ELSI : l’engagement du public dans les réflexions sur
les nanotechnologies. Dès 2005, fut organisé au Royaume-Uni
un grand jury citoyen234. Ce e initiative conjointe de centres de
nanotechnologies, d’associations environnementales (Friends of the
earth, Greenpeace) et du quotidien The Guardian fut suivie d’un
workshop organisé par le groupe DEMOS sur le thème The technical
234
2005, UK Citizen Jury, Londres, 23 Mai 2005, initiative conjointe de
IRC Nanotechnology, University of Cambridge, University of Newcastle,
UK Greeenpeace, The Guardian h p://news.bbc.co.uk/2/hi/science/
nature/4567241.stm.
364
and social complexity of nanotechnologies demands a genuine
dialogue between scientists and the public… en avril 2006235. En 2006,
la Région Île-de-France a organisé une conférence citoyenne sur les
nanotechnologies236. De son côté l’association VivAgora a lancé en
2006 deux cycles de débats publics l’un à Paris, l’autre à Grenoble, où
des conflits opposent le centre de recherche Minatec à l’association
militante Pièces et main d’œuvre, PMO237. Toujours en France un
Nanoforum sur les nanoproduits et la gouvernance dans le champ des
nanotechnologies organisé par le CNAM (Professeur William Dab) le
Journal de l’Environnement et VivAgora, à la demande du Comité
interministériel sur les nanotechnologies, en lien avec la Direction
générale de la Santé, a réussi à faire dialoguer les acteurs concernés
au long de huit séances consacrées à divers thèmes : nanociments,
cosmétiques, alimentation, Minatec, nanomédecine, exposition des
travailleurs…
À ces initiatives modestes destinées à sensibiliser et faire dialoguer
divers acteurs, répond une grande initiative. En 2009, la Commission
nationale de débat public est saisie par un certain nombre de ministères
à la suite d’une requête formulée lors du Grenelle de l’Environnement,
pour organiser un grand débat national. Ce e mécanique ambitieuse
qui a mobilisé 3 millions d’euros prévoyait dix-sept rencontres en
diverses villes de France238.
Or ce fut de l’aveu de tous un fiasco. Seules quelques rencontres
ont pu se dérouler dans des conditions perme ant un dialogue entre
acteurs mais le débat aboutit à un a rontement entre technophiles et
technophobes, une parodie du débat public : chahut systématique,
repli des organisateurs sur la toile protectrice d’Internet, désintérêt des
populations… Toutefois cet échec ne signifie pas que le débat public
soit condamné. D’une part, ce débat a permis de constituer et de me re
en ligne une quarantaine de « cahiers d’acteurs » exprimant un grand
spectre de points de vue et de propositions sur les nanotechnologies.
235
Londres DEMOS workshop Governing at the nanoscale, April 6, h p://www.
demos.co.uk/events/nanoanddevelopmentworkshop.
236
Paris NANOMONDE : quels choix technologiques pour quelle société,
cycle de 6 débats de janvier à juin 2006 organisés par VivAgora.
237
Paris NANOMONDE : quels choix technologiques pour quelle société,
cycle de 6 débats de janvier à juin 2006 organisés. Grenoble NANOVIV :
nanobiotechnologies, pour quoi faire ? Comment ? Cycles de 6 débats de
septembre à décembre 2006.
238
h p://www.debatpublic-nano.org/debat/cndp.html
365
D’autre part, on peut tirer leçons de cet échec pour aller de l’avant :
partir des questions des citoyens plutôt que de celles des experts, ne
pas formater le débat en termes d’évaluation coûts et bénéfices.
Quelques directions pour l’avenir
L’approche ELSI a fait la preuve de son e cacité – en matière de
sensibilisation, d’implication – comme de ses limites. La démarche
d’anticipation, de prospective ou de prévention est plus managériale
que morale. Si elle se réduit à une analyse risques-bénéfices, elle n’est
qu’utilitariste et n’épuise pas le questionnement éthique. Elle doit
s’e orcer d’évaluer les projets d’innovation et d’énoncer des normes
en conséquence.
Dans la tradition kantienne, l’éthique répondait à la question
« que dois-je faire ? ». Elle s’adressait avant tout au sujet moral, et le
concernait en tant que personne libre.
Peut-être les nanotechnologies exigeraient-elles un décentrement
de l’éthique, une sorte de révolution copernicienne, déportant
l’a ention des sujets humains vers les objets du design et de
l’innovation : quelles valeurs véhiculent-ils (et non pas : à quels
besoins répondent-ils) ? Dans quel contexte ces objets opéreront-ils ?
Quel monde commun nous préparent-ils ? Dans un tel décentrement
les usagers ont un rôle à jouer : leurs a entes, leurs désirs et angoisses
participent de la construction de ce monde commun. C’est pourquoi
l’engagement du public et le respect des opinions sont si importants.
C’est d’autant plus utile que nombreux sont les collectifs qui gardent
la mémoire des expériences passées (OGM, amiante…), alors que
les lanceurs de programmes de nanotechnologies semblent parfois
amnésiques. En outre, les divers collectifs qui constituent ou véhiculent
l’opinion publique déploient des valeurs partagées, renseignent sur
les priorités, sur ce qui est acceptable ou ne l’est pas. Ils expriment des
rejets fondamentaux qui doivent être pris en compte même s’ils sont
a ectifs et émotionnels.
Plutôt que de spéculer sur des futurs potentiels ou de se contenter de
peser les avantages et inconvénients, portons enfin le questionnement
sur le présent, sur le sens des recherches actuellement menées en
laboratoire, des investissements consentis dans certains secteurs.
Une authentique évaluation morale requiert un travail d’explicitation
des valeurs tacites des di érents acteurs (chercheurs, investisseurs,
366
industriels, clients, usagers) et de confrontation de leurs visions
respectives de la vie, comme de la société. Ainsi les promoteurs de
prothèses nanos ou d’implants ont tendance à penser le vivant comme
une collection de machines moléculaires, alors que bien des citoyens
visent la dimension de la vie humaine en société (le « bios »). Il y a
souvent là un malentendu : parlant de la vie, les uns et les autres ne
désignent pas la même chose ce qui constitue un obstacle au moment
de définir des priorités, des hiérarchies de valeurs perme ant d’établir
des normes.
Dans le domaine politique enfin, on ne saurait que trop
recommander de me re au point des dispositifs d’engagement du
public qui respectent les traditions des usagers plutôt que d’appliquer
des formules existantes. Il faut expérimenter localement des processus
d’innovation partagée où les entreprises, pour lancer la recherche et
développement sur un produit, engagent les parties prenantes dès
l’amont.
Références
Académie des sciences et Académie des technologies, Nanosciences, nanotechnologies, Paris, Editions Tec&Doc, Rapport Science & Technologie N°18,
2004.
Dupuy J.-P. et Roure F., Nanotechnologies : éthique et prospective industrielle, 2004a,
h p://www.ladocumentationfrancaise.fr/rapports-publics/054000313/
index.shtml.
Dupuy J.-P, « Pour une évaluation normative du programme nanotechnologique », Annales des Mines, Réalités industrielles : les nanotechnologies, 2004b,
pp. 27-32.
Mnyusiwalla A., Daar A. et Singer P., « ‘Mind the gap’: science and ethics in
Nanotechnology », Nanotechnology 14, 2003.
Nordmann A., « If and then : a critique of speculative nanoethics”, Nanoethics
1, 2007, pp. 31–46.
Nordmann A. et Rip A., « Mind the Gap revisited », Nature Nanotechnology,
2009, pp. 273-274.
Royal Society et Royal Academy of Engineering, Nanoscience, Nanotechnology:
Opportunities and Uncertainties, 2004, h p://www.nanotec.org.uk/.
Roco M. et Bainbridge W. (éds.), Converging Technologies for Improving Human
Performance: Nanotechnology, Biotechnology, Information Technology, and Cognitive Science, NSF/DOC-sponsored report, Arlington, 2002. Executive
Summary, h p://www.wtec.org/ConvergingTechnologies/.
European Union, « Foresighting the New Technology Wave » (Rapporteur:
367
A. Nordmann), Converging Technologies - Shaping the Future of European
Societies. Bruxelles, 2004.
Unesco, Nanotechnology and Ethics, 2006, h p://portal.unesco.org/shs/fr/ev.ph.
368
Présentation des auteurs
Presentation of the authors
Bernade e Bensaude-Vincent
Bernade e Bensaude-Vincent est professeur de philosophie des
sciences et des techniques à l’Université Paris 1 Panthéon-Sorbonne.
Elle est l’auteur de plusieurs ouvrages et articles portant sur deux
thèmes : d’une part l’histoire et la philosophie de la chimie et des
nanotechnologies ; d’autre part, les relations entre sciences et public.
Elle a publié, entre autres, une Histoire de la chimie, en collaboration
avec Isabelle Stengers (La découverte, 1993) Eloge du mixte (Hache eLi ératures, 1998) ; Science et opinion (Seuil, 2003), Faut-il avoir
peur de la chimie ? (Seuil, 2005), Les Vertiges de la technoscience (La
découverte, 2009).
Mylène Botbol-Baum
Mylène Botbol-Baum est professeur de philosophie et de
bioéthique aux facultés de Médecine et des Sciences Philosophiques
de l’Université Catholique de Louvain. Elle enseigne également à
l’Unité d’éthique biomédicale de ce e même université. Ses thèmes
de recherches sont variés : début de vie et cellules souches, fin de
vie, soins palliatifs, euthanasie, santé & développement, recherche
sur le SIDA, genre et bioéthique, droit de la reproduction, éthique et
technologie, éthique de la recherche, méthodologie de la bioéthique.
Elle assume de nombreuses responsabilités dans des institutions
belges et internationales. Ainsi, elle est co-responsable du Groupe de
Recherche HELESI, IRSS, UCL, depuis avril 2009 ; vice-présidente du
groupe de contact FRS-FNRS « Philosophie et bioéthique » ; membre
du Comité consultatif de bioéthique de Belgique.
369
Parmi ses nombreuses publications en diverses langues,
relevons :
- Des embryons et des hommes, avec Henri Atlan, PUF, Paris,
2007.
- Bioéthique dans les pays du Sud. Récits de médecins africains,
L’Harma an, Paris, 2006.
- Poverty, equity and health research, E-discussion, HIF-net
e-conference, Internet, 2-31 August 2005.
- Médecine et transculturalité : éthique narrative et droits reproductifs
des femmes en Afrique francophone, Cahiers de la Chaire d’études
africaines, n°1, novembre 2004.
Dominique Bourg
Dominique Bourg est professeur à l’Université de Lausanne
(Institut des politiques territoriales et de l’environnement
humain/Faculté des géosciences et de l’environnement) depuis
le 1er septembre 2006. Il dirige avec Alain Papaux la collection
« Développement durable et innovation institutionnelle » aux PUF.
Il a vice-présidé la Commission Coppens chargée de préparer la
Charte de l’environnement désormais adossée à la Constitution
française et la commission 6 du Grenelle de l’environnement. Ses
domaines de recherches sont la philosophie de l’environnement et du
développement durable, le principe de précaution, le débat public et
la démocratie écologique.
Philippe Busquin
Philippe Busquin a reçu une formation scientifique (Licence en
sciences physiques, une candidature en philosophie et un post-graduat
en environnement). Il a débuté sa carrière professionnelle comme
assistant en physique (U.L.B), puis est devenu professeur à l’École
normale de Nivelles. Fin des années 70, il entame une carrière politique,
élu consécutivement député permanent à la Province du Hainaut,
député à la Chambre des Représentants (1978-1995) et sénateur (1995370
1999). Parallèlement, Philippe Busquin exerce une série de mandats
ministériels avec des portefeuilles aussi divers que l’Education (19801981), la Culture et la Santé (1980-1981), l’Intérieur (1981), le Budget et
de l’Energie (1982-1985), l’Economie (1988) et les A aires sociales (19881992). Il sera ensuite Président du PS de 1992 à 1999. De 1999 à 2004,
Philippe Busquin est Commissaire européen en charge la recherche
européenne. Il lance l’Espace européen de la recherche et s’investit
dans une série de domaines tels que la mobilité des chercheurs, les
questions éthiques en matière de recherche scientifique et nouvelles
technologies ; les initiatives conjointes publiques/privées ; etc. Il sera
ensuite député européen de 2004 à 2009. En tant que membre e ectif
de la Commission de l’industrie, de la recherche et de l’énergie,
membre suppléant de la Commission de l’environnement, de la santé
publique et de la sécurité alimentaire et président du STOA (Scientific
Technology Options Assessment), il continue à s’engager pour la
recherche scientifique garante d’un avenir performant et social de
l’Europe. En 2006, il est élu mayeur de la Commune de Sene e pour
la deuxième fois. Dans le domaine scientifique, Philippe Busquin est
Président de l’Institut de Géographie National (Belgique), Président
des Jeunesses Scientifiques de Belgique, Président de l’Institut de
Radioéléments à Fleurus et membre de Conseils d’Administration
ou Conseils Stratégiques d’universités telles que l’ULB, l’Universud
Paris, l’Université de Lyon et membre du Conseil d’Administration
des Instituts Solvay, du Conseil Scientifique de la Ville de Paris et
finalement membre de l’Académie Royale des Sciences, des Le res
et des Beaux-Arts de Belgique, « Classe Technologie et Société » et
de l’Académie des Technologies de France. Philippe Busquin est
Président de la Commission belge francophone et germanophone
pour l’UNESCO et membre de la COMEST, la Commission mondiale
d’éthique des connaissances scientifiques et des technologies de
l’UNESCO. Dans le domaine culturel, il est Président du Domaine du
Château de Sene e (Musée d’Orfèvrerie), de Charleroi Danses (Centre
Chorégraphique), et du Théâtre Jean Vilar.
Jim Dratwa
Jim Dratwa’s research and publications address issues of
transnational or multi-level expertise, legitimacy, and governance,
probing the interfaces of science and policy making – and in particular
371
the import of the precautionary principle in risk regulation and of
impact assessment in be er regulation.
He obtained his Ph.D. in philosophy of science at the Université
Libre de Bruxelles , and in socio-economics of innovation at the Ecole
des Mines de Paris , in 2003, having benefited from the support of the
Fulbright program, the Frank Boas Foundation, the Belgian American
Educational Foundation, and the Fonds National de la Recherche
Scientifique. For the last 10 years Jim Dratwa has combined research
and policy making activities. He has worked at CELINE-IRCEL (the
Interregional Cell for the Environment, the Belgian National Focal
Point of the European Environmental Agency), at the European
Commission (in the team coordinating environmental and consumer
policy), and in the Scientific and Technological Options Assessment
(STOA) unit of the European Parliament . He received the Fulbright
Scholar Award in 2001 and was pre- and post-doctoral Fellow at the
Kennedy School of Government, Harvard, at the Science, Technology,
and Public Policy program in the Belfer Center for Science and
International A airs and at the program on Science, Technology, and
Society, from 2001 to 2004. He has been a Visiting Professor at Tampere
University, Harvard University, and the Facultés universitaires SaintLouis, where he currently teaches. As of 2004, he is also a civil servant
with the European Commission at the department for research policy,
in the team working on Impact Analysis of Community Actions.
Nicole Gallus
Nicole Gallus est avocate et maître de conférence à la faculté
de droit de l’Université Libre de Bruxelles où elle enseigne le droit
familial et le droit de la bioéthique. Elle est membre e ectif du Comité
consultatif de bioéthique de Belgique.
Jean-Yves Go
Jean-Yves Go est actuellement Professeur émérite de l’Université
Pierre Mendès-France Grenoble 2, membre du Groupe de Recherches
Philosophie, Langages & Cognitions (EA 3699), membre du Comité
d’Éthique et de précaution de l’INRA (1998-2003), membre du CCPPRB
372
de Haute-Normandie (1995-2001), animateur du Groupe grenoblois
GIERE (Groupe Interuniversitaire d’Ethique de la Recherche, 20002009), président de la Société pour la Philosophie de la Technique
(2000-2005), membre du Comité scientifique du Cancéropôle Ile-deFrance (2008-), et membre du Comité scientifique de la collection
« Éthiques en action » (Editions E.M.E. Belgique).
Il travaille en éthique appliquée sur l’évaluation des techniques
biomédicales dans les sociétés de haute technologie et sur l’éthique
de l’environnement ; ce domaine de recherche englobe la question de
l’argumentation en éthique et de la structure des théories morales.
En histoire de la philosophie, il s’intéresse à la pensée politique de
la Renaissance italienne et à ses antécédents dans l’humanisme
florentin.
Ses projets pour 2010-2014 sont les suivants :
- Traduction et publication de textes de Coluccio Salutati (13311406) : De Nobilitate Legum et Medicinae, et De Tyranno et de
Leonardo Bruni (c1370-1444) : Laudatio Fiorentinae Urbis.
- Traduction du livre de H.T. Engelhardt, jr : The Foundations
of Bioethics.
- Recherche sur la technique et ses représentations : les
contestations contemporaines radicales de la technique ;
l’idéologie transhumaniste.
Göran Hermerén
Prof. Göran Hermerén is Senior Professor of medical ethics at the
faculty of medicine, Lund University, Sweden and has also been a
Professor of practical philosophy at this university and a Professor
of philosophy and theory of science at Umeå University, Sweden.
His current research interests and publications include priorities
and allocation of resources in health care, as well as ethical aspects
of genetic testing, care at the end of life, nanotechnologies, and stem
cell research. Prof. Hermerén is since 2002 President of the European
Group on Ethics in Science and New Technologies and the chair of the
advisory board of the German Reference Center for Ethics in the Life
373
Sciences in Bonn. He is a member of the Swedish National Council on
Medical Ethics since its start and has served on many governmental
and parliamentary commissions, as well as a referee for international
journals.
In addition, he has served as external examiner in bioethics
at University College, Dublin, as a co-ordinator of the EU-funded
research project «Euro-priorities» and is a partner in several ongoing EU-funded research projects focussing on stem cells (such as
EuroStemCell, ESTOOLS, NeuroStemCell).
Celine Kermisch
Celine Kermisch is a mechanical engineer and holds a PhD in
philosophy, both from the Université Libre de Bruxelles. She has
been a visiting scholar at the University of Cambridge (department of
history and philosophy of science) and she is currently a postdoctoral
researcher (FNRS, the Belgian fund for scientific research) at the
Université Libre de Bruxelles (Centre for Interdisciplinary Research
in Bioethics). Her research topics are risk and its perception, emerging
technologies and society, as well as engineering ethics.
She has co-edited a book, Techniques et philosophies des risques
(Paris, Vrin, 2007) and she is the author of Les paradigmes de la
perception des risques (Paris, Lavoisier, 2010) and Le concept de
risque. De l’épistémologie à l’éthique (Paris, Lavoisier, 2011). She has
published several papers, amongst other in Nanoethics, Science and
engineering ethics or Ethics, Policy and environment. She is also the
editor of the collection « ethics in action » (EME).
Peter Kroes
Peter Kroes studied technological physics at Eindhoven
University of Technology and did a doctorate on philosophical
problems concerning the notion of time in modern physical theories
at Radboud University N megen. He holds the chair in philosophy at
Del University of Technology where he lectures on the philosophy
of science and technology. His main fields of research are the nature of
374
technical artifacts and of socio-technical systems and the philosophy
of engineering design.
Recent publications :
- Functions in biological and artificial worlds; comparative
philosophical perspectives, (co-editor Ulrich Krohs), MIT Press,
2009.
- Philosophy of engineering design, part III (editor)of Handbook
of Philosophy of Technology and Engineering Sciences, ed.
Anthonie Me ers, Elsevier, 2009.
- Engineering and the dual nature of technical artefacts,
Cambridge Journal of Economics, 34, 51-62, 2010.
- Theories of technical functions: function ascriptions versus
function assignments, Part 1, Design Issues, Volume 26, Number
3, Summer 2010, pp. 62-69.
- Theories of technical functions: function ascriptions versus
function assignments, Part 2, Design Issues, Volume 26, Number
4, Autumn 2010, pp. 85-93.
Yannick Mwape
Mwape Yannick, né en 1979 à Bruxelles, est titulaire d’un Master
en biologie moléculaire à l’Université Libre de Bruxelles (promotion
de 2003) et d’un master en Bioéthique (DEA en 2007), actuellement
enseignant chargé de cours à la Haute Ecole Lucia Debrouckère
(section Gestion de l’Environnement Urbain) et professeur de Biologie
au Lycée Emile Max. Chercheur à l’ULB auprès du Centre de Recherche
Interdisciplinaire de Bioéthique, il réalise une thèse sur la question de
l’individuation biologique sous la direction de Mme Marie-Geneviève
Pinsart. Egalement membre de la cellule de didactique de la biologie
de l’Université Libre de Belgique, il participe à plusieurs missions en
Afrique centrale (Congo, Burundi) comme expert pédagogique auprès
de l’Organisation International des Migrations.
375
Martin Peterson
Martin Peterson is associate Professor. He Works at Eindhoven
University of Technology on ethical issues related to technology, risk,
and uncertainty. Before coming to the Netherlands, he worked for
three years at the University of Cambridge. He was a Research Fellow
in the Department of History and Philosophy of Science and Director
of Studies in Philosophy at St Edmund’s College. He has also worked
at two technical universities in Sweden: KTH and Lulea University of
Technology. He sometimes writes in Swedish newspapers on political
and ethical issues: Expressen, Dagens Nyheter, Svenska Dagbladet,
Sydsvenskan, Corren, and NSD.
He has published two books: An Introduction to Decision Theory,
which is a textbook published by Cambridge University Press and
a research monograph Non-Bayesian Decision Theory (published
by Springer in 2008), where he defends his favourite non-Bayesian
account of decision theory against its Bayesian rivals.
Marie-Geneviève Pinsart
M.-G. Pinsart est professeur de philosophie et de bioéthique
à l’Université Libre de Bruxelles. Elle assume des responsabilités
dans diverses instances nationales et internationales : Présidente du
Comité consultatif de bioéthique de Belgique, Présidente du groupe
de contact FRS-FNRS « Philosophie et bioéthique », membre du
comité d’éthique des hôpitaux Iris-sud à Bruxelles, membre e ectif
de la Commission fédérale pour la recherche médicale et scientifique
sur les embryons in vitro (SPF Santé publique, sécurité de la chaîne
alimentaire et environnement. Direction générale de l’organisation des
établissements de soins), etc. Elle est régulièrement appelée à travailler
en tant qu’expert en bioéthique pour la Commission européenne et
l’UNESCO.
Elle a notamment publié les ouvrages suivants :
- La bioéthique, Paris, Le Cavalier Bleu, collection « Idées reçues »,
2009, 127 pages
376
- Hans Jonas et la liberté. Dimensions théologiques, ontologiques,
éthiques et politiques, Paris, Vrin (coll. Pour demain), 2002.
- Narration et identité. De la philosophie à la bioéthique, M.-G.
Pinsart (éd.), Paris, Vrin, collection Pour demain, 2008.
- Genre et bioéthique, M.-G. Pinsart (éd.), Paris, Vrin, Annales de
l’Institut de Philosophie et de Sciences Morales (ULB), 2003.
- H.Jonas : Nature et responsabilité, G. Ho ois et M.-G. Pinsart
(coord. scient.), Paris, Vrin, 1993 (traduction italienne : Lecce,
Ed. Milella, 1996).
- L’euthanasie ou la mort assistée, M.-G. Pinsart et C. Susanne
(éds), Bruxelles, De Boeck Université, 1991.
François Thoreau
François Thoreau est aspirant du F.R.S.-FNRS à l’Université de
Liège, au sein du SPIRAL, Département de science politique, Faculté
de droit. Dans ce cadre, ses recherches doctorales portent sur les
enjeux socio-politiques des nanotechnologies et l’évolution du rôle
des chercheurs en sciences humaines et sociales, au travers du projet
STIR (Socio-Technical Integrated Research) financé par la National
Science Foundation.
François est titulaire d’un baccalauréat en droit et d’un master en
science politique, obtenu avec la plus grande distinction en septembre
2008. Il est le lauréat du prix d’excellence décerné par le Fonds David
Constant. Il a mené des recherches au Center for Nanotechnology in
Society de l’Arizona State University (de janvier à juin 2009) et est
fellow à la Maastricht University (PRIME network, European Society,
Science & Technology programme) (septembre 2009 à janvier 2010).
René von Schomberg
Dr. René von Schomberg is at the European Commission,
Directorate General for Research, Governance and Ethics unit.
His background is in agricultural science (Agricultural University
377
Wageningen), philosophy (Ph.D, J.W Goethe University, Frankfurt am
Main) and science and technology studies (Ph.D Twente University).
He has been teaching argumentation theory, ethics, philosophy, science
and technology studies at Dutch universities for about a decade prior
to joining the European Commission where he held various positions.
He has been an EU Fellow at George Mason University, School of
Public Policy, Arlington, USA during the 2007 Fall semester where
he taught on the social and ethical aspects of the EU’s science and
technology policies.
378
Sommaire
Remerciements ..............................................................................5
Avant-propos / foreword................................................................7
Introduction ...................................................................................9
Introduction ...................................................................................15
Résumés........................................................................................21
Abstracts .......................................................................................33
Première partie
Enjeux philosophiques et éthiques ...........................................45
Nano-artefacts and the distinction between the natural and
the artificial
Peter Kroes .................................................................................47
L’hétérogénéité des objets nanos :
deux nouvelles méthodes pour activer une éthique générique
Marie Geneviève Pinsart ...........................................................63
Do new technologies give rise to new ethical issues?
Some reflections on nanotechnology
Martin Peterson and Marc J. de Vries .......................................87
Small particles, big issues
Göran Hermerén ......................................................................101
Nanotechnologies, nano-luddisme, néo-luddisme.
Jean-Yves Go .........................................................................123
Nanotechnologies, convergence NBIC et inégalités
Dominique Bourg ....................................................................145
Nanoéthique et posthumanisme
Mylène Botbol-Baum ...............................................................159
379
Deuxième partie
Les risques associés aux nanotechnologies ............................181
Perception, epistemics, and ethics:a triple perspective on the
specificity of nanotechnologies and their risks
Céline Kermisch .......................................................................183
La toxicité des nanotechnologies en question
« Que sait-on des e ets des nanotechnologies sur
l’individuation du vivant ? »
Yannick Mwape .......................................................................199
Troisième partie
La gouvernance des nanotechnologies
sur le plan international ............................................................229
Les nanotechnologies et l’éthique
Philippe Busquin .....................................................................231
Europe’s collective experiment with nanotechnologies as a
construction of possible futures : political and ethical stakes
Jim Dratwa ..............................................................................241
The quest for the “right” impacts of science and technology.
René von Schomberg ................................................................269
Nanotechnologies et « innovation responsable » :sur la
gouvernementalité d’un concept
François Thoreau .....................................................................289
La réglementation européenne des
nanotechnologies :l’éthique entre la recherche et le
développement industriel
Nicole Gallus ...........................................................................315
Quelle éthique pour les nanotechnologies ? Bilan des
programmes en cours et perspectives
Bernade e Bensaude-Vincent ..................................................357
Présentation des auteurs / Presentation of the authors .......... 369
380

Documents pareils

CV - Iramis

CV - Iramis Session chair at conference “Freedom in biological research” (Annecy, February 2013) Séminaire « Philosophie et mathématiques » at the Ecole Normale Supérieure (Paris, January

Plus en détail