le risque technologique : affaires d`ingénieurs ou enjeux sociétaux?

Transcription

le risque technologique : affaires d`ingénieurs ou enjeux sociétaux?
LE RISQUE TECHNOLOGIQUE :
AFFAIRES D’INGÉNIEURS OU
ENJEUX SOCIÉTAUX?
Baaden Kalala MUNEKAY
Publié dans Aspects sociologiques, Vol. 1, no 2, septembre 1993, pp. 22-27.
Résumé
Lorsqu'on soulève la question de l'évaluation des risques technologiques et des
technologies elles-mêmes, tout de suite, une dispute savante met aux prises "experts"» scientifiques et ingénieurs, et les spécialistes des sciences sociales, De ce
combat le mieux codifié, ressort une question fondamentale : l'évaluation et la gestion des risques technologiques sont- elles l'apanage des "experts" ou une affaire
sociale, voire sociétale? L'auteur tente ici de répondre à cette brûlante question.
Abstract
When the issue of evaluating risks of technology and technologies themselves is
raised, a scholarly dispute arises amongst «experts», scientists, engineers, and social
sciences specialists, or even the other citizens. Is management of the risks of technology the prerogative of the «experts» or a social and societal concern? In the following article, the author seeks to answer this hotly debated issue.
L
a révolution industrielle nous
a inéluctablement et définitivement plongés dans un
monde de plus en plus technicisé où les
risques technologiques sont devenus un
des éléments constitutifs de notre condition sociale quotidienne. Aussi l'évaluaL’ÉVALUATION DES RISQUES TECHNOLOGIQUES EST-ELLE LE PRIVILÈGE
DES SEULS « EXPERTS » (SCIENTIFIQUE ET INGÉNIEURS) OU PLUTÔT
UNE PRÉOCCUPATION SOCIALE,
VOIRE SOCIÉTALE?
tion des risques d'une telle nature s'avère
une impérieuse nécessité si vraiment, on
veut s'assurer en amont une adéquate
gestion de ceux-ci, les réduire au maximum et éviter du même coup, certaines
conséquences lâcheuses de l'imprévisible.
Les sciences et les techniques
apportent ou tentent d'apporter des
moyens raisonnés dans le contrôle de ces
risques, mais l'angoisse de l'incontrôlable s'intensifie, s'accroît sans cesse. Plus
grave encore, lorsqu'on soulève la question de l'évaluation des risques technologique, et de la technologie elle-même,
1
tout de suite, s'engage une querelle savante et s'installe une tension sociale,
souvent irritante, parfois déchirante, entre les scientifiques, les ingénieurs se
croyant seuls « technologues », et les
spécialistes des sciences sociales, prétendant avoir eux aussi un mot à dire sur
le sujet. Ce combat savant le mieux codifié fait ressortir sur les plans social et
sociologique, une question fondamentale : l'évaluation des risques technologiques est-elle le privilège des seuls « experts » (scientifiques et ingénieurs) ou
plutôt une préoccupation sociale, voire
sociétale?
Telle est la question à laquelle,
nous tenterons, dans les pages qui suivent, d'apporter notre point de vue.
UN RISQUE TECHNONOLOGIQUE
(MAJEUR) : QU'EST-CE À DIRE?
H. DENIS, sociologue et professeure en génie industriel à L’École Polytechnique de Montréal, définit le risque
technologique (majeur) comme étant
« l'éventualité qu'une catastrophe causée
par l'homme, par son incapacité de la
prévoir et de la gérer, se produise ».1
Le premier terme de ce concept
triptyque : le « risque », suppose qu'on
n'en est pas encore au stade ultime, et
qu'on peut encore évaluer non seulement
les conséquences de l'événement, mais
aussi sa probabilité de se produire. Le
second terme « risque technologique »
réfère à la cause du problème, soit une
technologie utilisée, manipulée par des
êtres vivant en société. Il simplifie aussi
l'idée d'une défaillance qui, elle, renvoie
à l'erreur humaine. C'est ce deuxième
terme qui permet de distinguer le risque
technologique de la catastrophe naturelle. C'est d'ailleurs dans cette optique que
J.J. SALOMON propose la définition
suivante :
À la différence des catastrophes
naturelles qui sont le fait de la fatalité,
des risques technologiques majeurs sont
ceux qui sont dus au progrès de la technologie. Alors que les cataclysmes naturels sont dits naturels en ce que, quels
que soient les progrès de la science,
nous ne les maîtrisons pas, le cataclysme
technologique est le propre de l'homme,
de son inaptitude à maîtriser tous les
éléments des systèmes qu’il construit, de
sa hâte à appliquer à grande échelle des
solutions ou des produits qui ne sont pas
éprouvés, de sa défaillance, de son inconscience, de sa violence ou de sa déraison.2
Le troisième et dernier terme :
« majeur », signifie quant à lui, qu'on
attribue un poids, donc une signification
au risque : on le définit comme étant
grave et préoccupant pour les membres
d'une société ou d'un groupe social donné. Au fait, on établit ici un lien entre un
risque et des valeurs socio-culturelles
données dans le temps et l'espace, sachant qu'un risque acceptable pour les
uns, ne l'est nécessairement pas pour les
autres; que ce qui est nuisance pour les
uns peut être « externalité » pour les
autres.
Un risque technologique se définit donc non seulement par son aboutissement, la catastrophe qui peut être imprévisible, soudaine, plus ou moins gigantesque ou encore par sa vitesse de
propagation, mais aussi par l'incertitude
quant à l'action à entreprendre, et par la
complexité de cette action qui exige une
multitude d'intervenants. Pensons, par
exemple, aux effets cumulatifs des oxydes d'azote sur la couche d'ozone, aux
2
problèmes dus aux hydrocarbures fluorés, aux pluies acides ou encore au combustible nucléaire. De l'accident chimique de Seveso en Italie (1976) à la déflagration de Flexborough en Angleterre
(1974), de l’échouement de l'Amoco
dans l'Atlantique (1978), à l'accident
nucléaire de Three Mile Island aux
États-Unis (1979), à l'accident de Tchernobyl en URSS (1986), voilà quelquesuns des cas frappants d'accidents technologiques majeurs que nos sociétés ont
connus durant ces vingt-cinq dernières
années.
Si le risque technologique est
ainsi caractérisé par son ampleur, sa
complexité, sa densification, et donc par
sa réalité sociale globale en tant que
phénomène social, pourquoi son évaluation et sa gestion devraient-elles être
alors l'apanage des ingénieurs et scientifiques?
L'ANALYSE DU RISQUE TECHNOLOGIQUE
Lorsqu'on regarde l'abondante littérature sur les catastrophes technologiques que nos sociétés ont connues jusqu'à ce jour, on remarque facilement que
deux types d'approches fondées sur deux
conceptions du monde ont dominé et
dominent encore l'analyse et la gestion
des risques technologiques.
Des approches scientistes
Ce sont les plus anciennes approches, mais aussi les plus dominantes,
sinon les plus répandues, même actuellement. En tant qu'applications pratiques
de la pensée scientifique, ces approches
d'inspiration durkheimienne, se contentent d'analyser les risques sur la base du
modèle des sciences naturelles, les
considérant ainsi comme des événements
de la nature, menaçant l'homme de l'extérieur. De leur point de vue, l'accident
technologique est toujours analysé
comme matérialité objective et comptable autant dans ses conséquences que
dans son ampleur. Il est, le plus souvent,
le résultat d'un mauvais fonctionnement
d'un système technico-industriel donné
sans référence à l'homme. Parmi ces
approches, on peut citer une des plus
connues : « Event Tree » (méthode des
arbres) qui pose que l'accident n'est pas
dû à une cause isolée, mais se présente
comme l'aboutissement d'une série
d'événements successifs. C'est pourquoi,
le travail analytique doit
(...) consister à mettre à jour l'ensemble des séquences événementielles
afin d'explorer en aval ce qui peut s'ensuivre à chaque étape de telle sorte qu’il
soit possible d'identifier à temps des
séquences pouvant conduire à des accidents.3
Cependant, une analyse épistémologique de ces méthodes permet de
constater que leur vision n'est que le
résultat d'une culture des « certitudes
rapprochées » (rationalité objective) que
leurs tenants considèrent comme le moment éclairant de toute l'activité scientifique et de la raison humaine. Comme l'a
si bien souligné D. DUCLOS, il s'agit là
d'une conception cartésienne selon laquelle :
3
(...) le contenu et les structures
de la pensée humaine sont des réalités
matérielles définissant l'existence de
l'observateur en dehors des discussions
de ses choix subjectifs et moraux.4
À la réflexion, on constate que
c'est tout simplement une objectivation
du « sujet scientifique » qui prétend déCES MÉTHODES OCCULTENT
CEPENDANT LES VÉRITABLES
ENJEUX SOCIAUX : LES CONFLITS D’INTÉRÊTS ET CONTRADICTIONS QUI EXISTENT EN LATENCE AUTOUR
crire tout l'univers des choses, arguant
que celui-ci comprend à la fois des formes vivantes et sociales qui ne sont que
des prolongements du minéral, et auquel
croient et prétendent appartenir scientifiques et ingénieurs. C'est enfin la conception et rêve de tout scientifique et ingénieur, du moins la majorité, qui prétend
définir l'optimum, réduire l'aléatoire et
mesurer toute chose, et sous-entend que
le monde pourrait, l'humain inclus, s'inventorier et se construire comme un immense système fait de sous-systèmes
interactifs.
Bien qu'elles aient permis d'analyser le risque technologique comme une
« factualité » immédiate et quantifiable,
ces méthodes occultent cependant les
véritables enjeux sociaux; les conflits
d'intérêts et contradictions qui existent
en latence autour du risque et de la technologie elle-même, et qui éclatent lors
d'accidents.
La technologie est un véritable
« opérateur social » par lequel, on peut
soumettre et dominer autant la nature
que les autres humains; voilà pourquoi il
faut la penser, si nous voulons vraiment
assurer à nos sociétés une véritable démocratie?5, affirme P. ROQUEPLO.
Des approches subjectivistes
Elles sont venues tardivement, du
moins après les méthodes scientistes et
gravitent essentiellement autour de l'évaluation sociale des technologies (E.S.T)
qui fonde l'idée d'un
(...) procès, d'une action en justice visant à déterminer la nature des dégâts et le partage de responsabilité, lequel procès a la particularité d'être instruit avant même que les dégâts ne se
soient produits.6
Comme l'a noté J.J. SALOMON,
il s'agit là de « l'irruption de la société
tout entière dans un prétoire jusqu'alors
réservé aux seuls experts. » 7 Une telle
conception du monde et de l'analyse est
venue affirmée de façon décisive, qu'un
tel débat n'est pas l'affaire des seuls spécialistes, qu'il suppose l'intervention et la
participation de tous ceux qui sont appelés à affronter les conséquences des
changements technologiques.
Ainsi, l'utilisation de ces méthodes suppose que le risque est analysé
moins comme un événement de la nature
menaçant l'homme de l'extérieur que
comme
un
construit
sociopsychologique; voilà pourquoi, elles
intègrent dans leur traitement, des variables à la fois psychologiques, culturelles,
sociales, politiques, économiques et bien
d'autres. Leur objectivation consiste
donc à saisir le risque technologique non
pas seulement comme une matérialité
immédiate, mesurable et quantifiable,
mais aussi à comprendre ses relations
multiples avec d'autres objets, avec des
personnes qui manipulent les technolo4
gies et enfin avec des situations sociales
bien définies. C'est pourquoi, à la question de savoir à quelle condition un système socio-technique devient-il « cindynogène », c'est-à-dire producteur de dangers, elles répondent que cela dépend à
la fois des acteurs individuels, des réseaux auxquels appartiennent ces acteurs
et des intérêts conscients et inconscients
qui les meuvent et les ordonnent par rapport à l'action. Une telle conception des
choses est confirmée par D.DUCLOS
qui, à l'occasion d'une étude de la perception sociale des risques technologiques faite dans une industrie chimique
parisienne, est arrivé à l'observation suivante :
Le degré de vigilance face aux
dangers n’est pas une fonction de leur
réalité, ni de l'information dont on dispose sur eux. L'attitude face aux risques
apparaît comme socialement construite.
Les individus n’évaluent pas les conséquences de leurs actes selon le modèle
de la prévision probabiliste, ils ont plutôt recours aux « heuristiques » d'une
« rationalité limitée » de H. SIMON.8
C'est dans une telle optique que
semblent se situer et œuvrer les sciences
sociales. En effet, l'approche ergonomique du risque professionnel, par exemple, fait de l'être humain un facteur d'un
système d'actions coopératives finalisées
rationnellement. L'accident est, de son
point de vue, lié à la charge de travail
excessive en quantité et en intensité. 9
C'est pourquoi le thème du risque technique reste, pour cette école, basé sur la
pensée que le système sociotechnique
réfère implicitement à l'idée de couplage
entre tâche et opérateur, l'un abandonnant à l'autre ses défaillances pour devenir une sorte de compromis général.
L'approche psychosociologique du ris-
que, quant à elle, tente de comprendre
comment tout un système s'adapte aux
exigences collectives qui rationalisent le
rapport au risque et comment l'individu
en subit les conséquences. De son côté,
l'approche purement psychologique met
l'accent sur la différence entre logique
individuelle et la logique du contexte
social, tandis que l'approche sociologique prend en considération à la fois l'individu, le groupe et l'institution comme
sources et réceptacles équivalents des
productions collectives de références
symboliques qui ordonnent le sens de la
vie sociale pour tout un chacun.
En définitive, nous pouvons, dans
la foulée de D. DUCLOS, dire que les
approches scientistes du risque technologique sont « non implicatives » 10 dans
la mesure où elles n'exigent pas d'introduire dans leur analyse la « consistance
subjective » comme PROBLÈME, mais
aussi parce qu'elles ne rendent pas compte des contradictions et des ambivalences
du rapport social au risque. Par contre,
les approches subjectives sont « implicatives » parce que caractérisées par le
présupposé que les individus ne sont pas
des supports passifs de l'action sociale,
mais des acteurs d'une dialectique interactive où se constituent simultanément
le membre et sa communauté, le sujet et
son environnement, le cadre symbolique
et l'acteur symbolisant.11
Par conséquent, à la question de
savoir pourquoi il est difficile, malgré les
tentatives des meilleurs experts de l'évaluation du risque, de parvenir à une vision plus objective, plus globale et réelle
des dangers du progrès, D. DUCLOS
répond :
L'objectivité d’un pur risque ou
d'une pure sécurité n'existe simplement
5
pas! Plus on y regarde de près, plus
l'ambiguïté du rapport au risque, c'est-àdire le mélange des raisons techniques et
des inclinations morales conduisant à
savoir ici un danger et à rester insensibles à d'autres types de périls, apparaît
irréductible.12
En d'autres mots, une résonnance
subjective, morale et passionnelle accompagne toujours l'étude objective du
péril et la soutient autant qu'elle la déforme.
LE RISQUE TECHNOLOGIQUE :
UNE AFFAIRE SOCIALE
De l'analyse qui précède, force
est alors d'affirmer que le risque technologique est et devrait être une réalité
préoccupante pour tous les membres
d'une collectivité. C'est d'abord et avant
tout une affaire de l'État, dans la mesure
où il fait partie des questions de « police
intérieure », si on assimile la catastrophe
à un désordre public, mais aussi parce
qu'il est au cœur de déséquilibres potentiels dans la justice ou l'économie et qu'il
appelle, ce faisant, des arbitrages à
l'égard des ressources collectives. Il est
également une préoccupation pour les
scientifiques et ingénieurs, en tant qu'inventeurs des risques. En effet, ils sont
directement concernés au premier chef
par cet aspect des choses à toutes les
étapes du projet technico-industriel, depuis la conception et le fonctionnement
d'une installation jusqu'à sa mise hors
service, et son démantèlement. Ainsi, le
risque est pour eux, non pas seulement
une potentialité, mais aussi une réalité
immédiate qu'ils doivent affronter et
assumer dans leurs actions tant professionnelles que sociales quotidiennes.
Voilà pourquoi, ils doivent témoigner
des qualités allant au-delà de la compé-
tence technique, étant donné qu'ils doivent tenir compte dans leur œuvre, de
toutes les catégories de pouvoirs qui
interagissent avec leur projet.
FORCE EST ALORS D’AFFIRMER QUE
LE RISQUE TECHNOLOGIQUE EST ET
DEVRAIT ÊTRE UNE RÉALITÉ PRÉOCCUPANTE POUR TOUS LES MEMBRES
D’UNE COLLECTIVITÉ.
Enfin, le risque technologique est
et doit rester une préoccupation pour
tous les citoyens, et ce, au nom du logos
démocratique de nos sociétés contemporaines qui exigent : « responsabilisation
- participation - démystification. »13 Pareil logos veut simplement dire qu'il faut
changer, sinon éviter cette culture générale qui nous maintient encore dans une
espèce de volonté crispée de séparation
radicale entre les savoirs rationnels et la
morale et l’émotivité. En d'autres termes,
il nous faut résister à toute culture fondée sur le dualisme raison/morale, dans
lequel les partisans de la raison humaine
récusent avec acharnement la faillibilité
humaine, alors que ceux qui s'identifient
à la position inverse dénient aux scientifiques toute capacité de démarche de
raison et ne leur reconnaissent qu'un
comportement condamnable. C'est donc
ce dualisme technicité/humanité, fortement incrusté dans toutes nos catégories
de pensée et d'action, qui tend à aggraver
nos perceptions du risque technologique
plus qu'il ne le gère.
Nous, nous pensons que le traitement raisonnable des risques technologiques se trouve ailleurs, soit dans l'effort de dépassement de ce symbolisme
encore à l'œuvre dans nos sociétés modernes, et selon lequel la loi qui découle
de choix techniques serait indiscutable,
6
non négligeable parce qu'établie sur la
base d'une pure rationalité, d'une pure
objectivité. L'objectivité d'un pur risque,
ou d'une pure sécurité n'existe tout simplement pas! Le vrai traitement du risque
technologique consisterait à admettre
que ce n'est pas tant un PROBLÈME de
L’ÉVALUATION DES RISQUES
DOIT SE SITUER SUR LE POINT
DE COMPLÉMENTARITÉ DE LA
RATIONALITÉ OBJECTIVE ET DE
LA RATIONALITÉ SUBJECTIVE DU
SUJET SOCIAL.
maîtrise (absolue et statistique) par une
branche ou un groupe « d'experts » que
de négociations ouvertes permettant à
tous les partenaires sociaux et toutes les
mémoires de s'exprimer sur les options
technologiques. À cet égard, le sociologue S. WOOLGA, ayant analysé le rapport entre technologies et certaines valeurs culturelles de certaines sociétés, est
arrivé à la constatation suivante :
La technologie est une vraie mémoire de l'homme contre le cognitivisme,
parce qu’il s'y inscrit l'histoire des multiples rapports humains qui ont rendu
telle ou telle conception effective, et destiné les autres au musée des prototypes?14
Ainsi, on peut, sans ambages, dire que l'ingénieur n'offre pas seulement
un instrument, mais aussi un rapport
homme-machine, et du même coup, un
rapport des hommes entre eux. Social, il
l'est d'autant plus qu'il subit, comme tout
le monde, l'influence des forces sociopolitiques et économiques qui font pression
sur la science; mais aussi parce qu'il est
lui-même un stratège passionné d'actions
et traversé par toutes les questions et
inflexions historiques de la culture
contemporaine. Ajoutons ceci : l'acte
« ingénieurial » n'est autre chose qu'un
moment d'instrumentation d'une convention sociale, d'un procès social, d'une
mission donnée par la société et ses
membres à l'individu : ingénieur, afin de
répondre à leurs besoins. C'est pour cette
raison qu'il doit, à chaque instant, « se
rappeler que toute élaboration collective
de responsabilité se fait et doit de faire
par des actes et des échanges selon un
code d'honneur et la reconnaissance intersubjective. Il doit aussi être à même
de débattre de modes opératoires d'action avec des interlocuteurs variés sans
se retrancher dans une dangereuse paranoïa de compétence technique offensée.
Le risque technologique étant devenu une ombre projetée sur le présent et
le futur de notre société et de nos vies,
nous devrions penser la technologie de
façon globale. Deux préalables président
donc à son évaluation et à sa gestion.
Nous devrions, d'abord et avant tout,
reconnaître ce phénomène comme faisant partie de notre condition humaine.
Nous devrions, ensuite, créer les conditions générales capables de rendre
l'émergence d'une connaissance générale
accessible à tous et dans laquelle chaque
agent social (l'industriel, l'ingénieur, les
pouvoirs publics, le citoyen, etc.) doit
accepter de devenir une partie prenante
de l'effort de maîtrise des catastrophes
technologiques et des technologies ellesmêmes. Enfin, nous devrions prévoir et
prévenir ces risques technologiques grâce à un examen de l'opportunité des décisions technologiques, ce qui nécessite
entre toutes les catégories sociales de la
société, une franche consultation et une
honnête collaboration.
En définitive, disons que toute
évaluation du risque technologique, si
elle veut vraiment être adéquate, devrait
7
se faire sur le point d'insertion de deux
logiques : la techno-scientifique et la
technoculturelle. Autrement dit, l'évaluation des risques doit se situer sur le point
de complémentarité de la rationalité objective et de la rationalité subjective du
sujet social. Ainsi, comme l'a bien signalé D. DUCLOS, c'est en :
que nous courons beaucoup moins le
risque d'une confrontation globale entre
raison et folie, que si nous cherchons à
opposer gestionnaire du risque s'autorisant de l'infaillibilité scientifique, et public supposé émotif et incompétent.15
(...) reconnaissant l'inséparabilité
des éléments culturels et objectifs dans
le maniement des dangers et en négociant raisonnablement leur articulation
dans toutes les actions de production
Baaden Kalala MUNEKAY
Deuxième cycle,
Sicologie, Université Laval
1
DENIS, H., Technologie et Société : essai d'analyse systémique. Montréal. Ed. de l'École Polytechnique,
1987, p. 202.
2
SALOMON, J.J., préface dans La civilisation du risque. Catastrophe technologique et responsabilité, de
P. LAGADEC, Paris, Seuil, 1981, p. 12.
3
Recueil de textes du cours Sociologie de l'innovation technologique de Alf SCHWARZ, Laboratoire de
recherches, cahier 13-4, 1990, p. 12.
4
DUCLOS. D., La peur et le savoir. La société face à la science, la technique et leurs dangers, Paris, Éd.
La Découverte, p. 30.
5
ROQUEPLO, P., Penser la technique pour une démocratie concrète. Paris, Seuil, 1981, p. 26,
6
SALOMON, J.J., « Une évaluation de l'évolution sociale des technologies » dans Actes du Colloque : Les
pratiques de l'évaluation sociale des technologies. Conseil de la Science et de la Technologie, Québec, mai
1991, p. 20.
7
Op. cit. p. 19.
8
DUCLOS, D., « La construction sociale du risque : le cas des ouvriers de la chimie face aux dangers industriels » dans Revue française de la sociologie, XXVIII, 1987, p. 20.
9
DUCLOS, D., L'homme face au risque technique, éd. l'Harmattan. Paris V, 1991, p. 24.
10
Les adjectifs « implicative » et « non implicative » sont tirés du livre : L'homme face au risque technique
de D. DUCLOS, p. 182, et renvoient au fait qu'une méthode tient compte ou pas du sujet social dans son
analyse. C'est cet adjectif qui, selon l'auteur, différencie les méthodes subjectives des méthodes dites objectives ou scientistes.
11
DUCLOS, D„ « La construction sociale du risque : le cas des ouvriers de la chimie face aux dangers
industriels » dans Revue française de la sociologie, XXVIII, 1987, p. 30.
12
NELKIN, D., "The Political Impact of Technical Expertise", Social Studies 5, 1975, P. 255
13
Cité par D. DUCLOS (1991) dans L'homme face au risque technique, p. 199.
14
. Idem.
15
Recueil de textes du cours Sociologie de l'innovation technologique de Alf SCHWARZ, laboratoire de
recherches, cahier 13-4, 1990, p. 17.
8

Documents pareils