quelques pistes pour lutter contre la disqualification des experts

Transcription

quelques pistes pour lutter contre la disqualification des experts
http://www.asmp.fr -­‐ Académie des Sciences morales et politiques Les Entretiens de l’Académie des Sciences Morales et Politiques
La disqualification de l’expertise :
quelques pistes pour lutter contre la disqualification des experts
Gérald Bronner, professeur à l’Université de Strasbourg
Lundi 28 novembre 2011
1 http://www.asmp.fr -­‐ Académie des Sciences morales et politiques Quelques pistes pour lutter contre la disqualification des experts
J’ai pris très au sérieux l’exercice consistant à proposer des solutions au problème de la
disqualification des experts, en sachant à l’avance que je ne pourrai relever le défi de façon
tout à fait satisfaisante. Mais pour que cela ne soit pas trop insatisfaisant, j’ai choisi de traiter
ce sujet de la façon la plus pragmatique possible. Pour cette raison, je me suis mis en devoir
de le rabaisser un peu pour le mettre à la portée d’une réflexion pratique et de ne pas
m’encombrer des questions déontologiques qui seront pourtant impliquées par les
propositions que je vais faire.
On peut ramener cette question de la disqualification des experts à un problème de
concurrence sur le marché cognitif (c’est-à-dire cet espace fictif où se rencontrent des
hypothèses, des idées, des connaissances et des croyances les unes et les autres pouvant être
en concurrence) : pourquoi, sur certains sujets, les propositions des experts qu’on va supposer
plus solides, mieux argumentées objectivement vont-elles paraître moins convaincantes, donc
moins compétitives sur ce marché, que les propositions faites à l’opinion publique
généralement par les militants (que ce soit sur la question des OGM, de la dangerosité
supposée des antennes relais ou des lignes à très haute tension par exemple).
Cette question est préoccupante bien au-delà des difficultés que les experts peuvent rencontrer
dans les sociétés contemporaines pour convaincre, parce qu’elle met en examen l’espoir d’une
société de la connaissance fondée sur la supposition que sur un marché libéral des idées, la
pensée méthodique finira par s’imposer. Cet espoir est fondamental pour une société qui
produit de la connaissance, car à mesure de la production de cette connaissance, la part de ce
que chacun peut espérer maîtriser de cette compétence commune diminue. Pour le dire
autrement, plus l’on sait de choses, moins la part de ce que je sais est proportionnellement
importante. Cela signifie qu’une société fondée sur le progrès de la connaissance devient, un
peu paradoxalement, une société de la croyance par délégation. Ce qu’avait décrit Tocqueville
en son temps (1992, p.519) : « Il n'y a pas de si grand philosophe dans le monde qui ne croie
un million de choses sur la foi d'autrui, et ne suppose beaucoup plus de vérités qu'il n'en
établit. Ceci est non seulement nécessaire, mais désirable. »
Désirable, sans doute, seulement voilà, il existe des conditions sociales où le processus de
confiance est altéré. Nous y sommes. Et pour envisager des solutions à cette situation, il faut
2 http://www.asmp.fr -­‐ Académie des Sciences morales et politiques d’abord comprendre pourquoi des produits frelatés sur le marché cognitif peuvent paraître
plus convaincants que des propositions concurrentes mieux fondées, pourquoi le vrai, ou du
moins le probable, est-il parfois à ce point contre-intuitif et même, dans certains cas,
scandaleux ?
Pour introduire cette question, je ne connais pas de meilleure illustration que celle
offerte par le problème de Monty Hall. Il fut découvert presque par hasard, en 1991, à
l’occasion d’une polémique autour d’un jeu télévisé célèbre outre-atlantique Lets make a deal.
Des mathématiciens, des prix Nobel de Physique, des animateurs de télévision et, pour tout
dire, monsieur tout le monde, essayèrent de démêler les fils d’un problème en apparence très
simple. Le jeu, dans sa phase finale, consistait à proposer au candidat d’ouvrir une des trois
portes qui lui étaient présentées. Derrière l’une d’entre elles, il y avait une voiture, derrière les
deux autres, rien.
Après avoir choisi une des trois portes au hasard, il en restait donc deux que le
candidat n’avait pas choisies. Le présentateur de l’émission ouvrait alors une des deux portes
que le candidat n’avait pas choisies derrière laquelle il n’y avait rien, car il savait parfaitement
où se trouvait la voiture. Il ne restait donc plus que deux portes. Le dilemme auquel était
confronté le candidat était donc le suivant : Il avait choisi une porte et il en restait une autre.
Et l’animateur lui offrait de conserver ou de modifier son choix initial. La voiture était
nécessairement derrière une de ces deux portes restantes. Que devait-il faire ?
La polémique a commencé dans les pages d’un journal ayant pour titre Parade où une
certaine Marylin vos Savant était responsable de la rubrique du courrier des lecteurs. La
légende veut que cette dame ait eu le plus gros quotient intellectuel jamais mesuré (228)1. À
la question que lui posait un lecteur qui désirait savoir ce qu’elle ferait si elle était candidate
au jeu Let’s make a deal, elle répondit qu’elle changerait indubitablement de porte. Ce faisant,
elle affirmait avoir deux chances sur trois de gagner la voiture. Son point de vue déclencha la
stupeur outre-Atlantique. Les milliers de lettres de sceptiques, quelquefois scientifiques,
n’avaient pas de mots trop durs pour qualifier la stupidité de son raisonnement. Puisqu’il ne
reste que deux portes, affirmaient-ils, conserver ou modifier son choix initial n’a aucune
importance. Dans les deux cas, on avait 50 % de chances de gagner la voiture.
1
Je tire cette information de Pagès et Bouzitat (1999) à qui j’emprunte cet exemple.
3 http://www.asmp.fr -­‐ Académie des Sciences morales et politiques Ce problème fut soumis à deux prix Nobel de physique qui considérèrent, eux aussi,
qu’il y avait équiprobabilité entre les deux portes et ne voulurent pas croire que « changer »
était une tactique optimale. Ils avaient pourtant tort, c’est bien Marylin vos Savant qui avait
raison, et voici pourquoi.
Puisqu’il y a une chance sur trois (au début du jeu) de trouver la bonne porte, c’est
qu’il y a deux chances sur trois de se tromper. Une fois ceci admis, on est conduit à accepter
l’idée que cette probabilité reste la même s’il conserve son choix, quelle que soit
l’intervention de l’animateur (ouvrir une des portes non choisies). Il aura donc toujours raison
de changer de choix car ainsi, en ouvrant la porte restante, il a un peu plus de 66 % de chances
de gagner la voiture.
C’est une vérité scandaleuse. Elle nous indigne parce qu’elle est à ce point contreintuitive que la solution, même une fois dévoilée, nous semble douteuse. Sans en avoir l’air,
ce problème, parce qu’il suggère qu’il existe des dispositions dans notre esprit qui peuvent
nous conduire, dans certaines situations caractéristiques à des erreurs d’appréciation sévères,
nous offre une entrée efficace dans le problème de la disqualification des experts. En effet, si
l’on cartographie les situations où leur parole est considérée comme douteuse par l’opinion,
on s’aperçoit que certaines thématiques sont récurrentes et en particulier celles du risque, que
celui-ci relève de la santé publique ou de l’environnement. Pourquoi ? Parce que notre esprit
est très mal équipé pour penser rationnellement l’incertitude. Le fonctionnement normal du
cerveau socialisé le conduit à trouver plus attractifs certains produits frelatés plutôt que les
propositions de l’orthodoxie scientifique. Je ne veux donner ici que quelques exemples de ces
tentations mentales qui pèsent sur notre esprit dans ces situations, notamment lorsque le
risque est considéré comme faible, mais où les coûts sanitaires ou environnementaux
pourraient être importants. C’est typiquement le cas, par exemple, lorsqu’on soupçonne les
ondes basses fréquentes d’être dangereuses pour la santé, y compris au niveau que leur
assignent les normes européennes. Nul ne croit que ces ondes peuvent provoquer des
hécatombes, mais l’idée que s’en fait la logique ordinaire est qu’il existe un risque, faible,
mais réel, de développer des troubles graves à leur contact. Pour bien juger de ces situations,
il faudrait que les individus soient capables de se représenter les probabilités avec justesse, ce
qui n’est pas le cas, en particulier justement lorsque ces probabilités sont faibles. De
nombreux travaux ont été menés sur ce point, à commencer par ceux de Prestn et Baratta
(1948) ou Griffith (1949) selon lesquels les faibles probabilités sont généralement
surestimées. À l’appui de cette idée, Griffith a analysé les résultats de 1386 courses de
4 http://www.asmp.fr -­‐ Académie des Sciences morales et politiques chevaux. Dans l’ensemble, les paris reflétaient assez bien les probabilités de chances de
gagner des chevaux, sauf pour les toutes petites probabilités. Ces premiers résultats ont été
par la suite confirmés et affinés, notamment par Prelec (1998). Lorsque ces probabilités sont
de l’ordre de 1 sur 10000 et moins, elles sont en moyenne perçues comme 10 à 15 fois
supérieures par la logique ordinaire. Les individus sont donc portés à surévaluer les faibles
probabilités, et le sont d’autant plus qu’elles sont associées à un risque. En outre, de
nombreuses études expérimentales ont montré que le désir qu’un événement survienne ou
qu’il ne survienne pas était susceptible d’influencer à la hausse ou à la baisse l’évaluation
subjective des probabilités (Piatelli Palmarini et Raude 2006).
Face à une situation perçue comme dangereuse, il n’est pas rare que nous cherchions à
éradiquer le risque coûte que coûte, et le coût peut être parfois déraisonnable ou tout du moins
contraire aux normes du calcul de l’espérance mathématique. Piatelli Palmarini (1995, p.112)
a conduit une expérience dont les résultats sont particulièrement convaincants sur ce point.
Les sujets qui y participent sont invités à considérer les deux situations suivantes :
Situation 1 : vous avez été exposé à une maladie rare et fatale. La probabilité de chances que
vous ayez réellement contracté cette maladie est de 1 ‰. Quel prix seriez-vous disposé à
payer pour un vaccin qui ramène ce risque à 0 ‰ ?
Situation 2 : le problème est identique, à ceci près que la maladie a 4 ‰ de chances de vous
avoir contaminé et que le vaccin ne vous soigne pas, mais réduit ce risque à 3 ‰. Quel est le
montant maximal de la somme que vous seriez disposé à payer pour ce vaccin ?
Dans le premier cas (élimination du risque de un sur mille), la moyenne des offres est de
12177 Euros, dans le second cas (réduction du risque de 4 à 3 ‰), la moyenne des offres est
de 3805 Euros, soit trois fois moins... Comme on le voit, la somme que les individus seraient
prêts à investir pour obtenir ce vaccin est très différente selon la situation 1 ou 2 ; pourtant,
dans les deux cas, le vaccin réduit la probabilité de chances de contracter la maladie de 1 ‰
seulement. La stricte rationalité conduirait l’individu à payer le même prix (quel que soit le
prix) pour le vaccin 1 et pour le vaccin 2. Mais, contrairement au vaccin de la deuxième
situation, celui de la première offre aux individus la certitude qu’ils seront soignés. Parce
qu’ils sont portés à croire ce qu’ils craignent, les acteurs sociaux sont souvent disposés à
payer un prix déraisonnable pour éradiquer un risque très faible.
Ils sont d’autant plus enclins à le faire que l’esprit humain est conformé pour prendre en
compte les pertes réelles ou envisagées plutôt que les bénéfices. Ainsi ont-ils tendance à
prêter davantage attention à une perte qu’à un gain de valeur équivalente (Tversky et
5 http://www.asmp.fr -­‐ Académie des Sciences morales et politiques Kahneman, 1986). C’est pour cette raison, peut-on croire, que les mouvements de
revendication sociale sont plus importants lorsqu’il s’agit de lutter contre quelque chose – la
perte d’un avantage social par exemple – que lorsqu’il est question d’œuvrer pour un gain
éventuel. C’est sans doute aussi pour cette raison que les débats publics qui se cristallisent
autour des questions sanitaires et environnementales d’une innovation le font en mettant en
scène les risques que celle-ci est censée nous faire courir plutôt que les avantages que l’on sait
pouvoir en attendre. Les travaux de la psychologie cognitive ont même montré qu’une perte
de x euros ne pouvait être compensée psychiquement que par un gain d’au moins 2,5 x euros.
On pourrait encore mentionner la paralysie dans laquelle se retrouve l’esprit humain lorsqu’il
est confronté à des situations aux issues indéterminées. Ce point est mis en exergue par
certaines expérimentations des psychologues cognitifs, notamment celles conçues par Tversky
et Shafir (1992). Dans l’une d’entre elles, ils proposèrent à un groupe d’étudiants de réfléchir
à trois situations :
Situation 1: vous venez de gagner 150 euros à la roulette en pariant sur le noir, votre
capital s’élève à présent à 300 euros. Accepteriez-vous de parier de nouveau 150 euros sur le
rouge ou sur le noir ?
Situation 2 : vous venez de perdre, à la roulette, 150 euros en misant sur le noir.
Accepteriez-vous de parier de nouveau 150 euros sur le rouge ou le noir ?
La majorité des étudiants affirme que dans la situation 1, le gain obtenu
l’encouragerait à rejouer, et que, dans la situation 2, elle rejouerait pour tenter de
« se refaire ».
Il n’y a rien de très intéressant jusque-là. Les réponses données face à la troisième
situation sont beaucoup plus déconcertantes.
Dans la situation 3, on demande aux sujets d’admettre qu’après avoir misé, ils sortent
de la salle où sont les jeux de roulette, par exemple pour aller prendre l’air, et qu’ils ne
peuvent donc pas savoir tout de suite s’ils ont gagné ou perdu. On convient qu’ils emportent
300 euros s’ils ont gagné, et que dans le cas contraire, ils en laissent 150 au Casino. On leur
demande alors si – bien que ne sachant pas s’ils ont gagné ou perdu - ils seraient prêts à parier
de nouveau 150 euros. La stricte logique voudrait qu’ils répondent oui, car, précédemment,
qu’ils aient gagné (situation 1) ou perdu (situation 2), ils avaient majoritairement décidé de
rejouer. Or, la plupart d’entre eux décident, cette fois, d’appliquer le principe « Dans le doute,
abstiens-toi », et de ne pas rejouer !
6 http://www.asmp.fr -­‐ Académie des Sciences morales et politiques Tversky et Shafir en ont conclu que, face à un choix disjonctif incertain, les individus
s’abstiendront souvent de toute décision avant de savoir si c’est l’option, A ou B qui s’est
réalisée (l’une étant exclusive de l’autre pour un tel choix). Dans ces conditions, on comprend
mieux la passion pour les moratoires de toute sorte qui s’est répandue dans les populations,
dans la mesure où il est l’expression d’une suspension du jugement face aux deux termes de
l’alternative adopter ou ne pas adopter une innovation technologique.
Les militants donneurs d’alerte qui prétendent exhiber l’incertitude scientifique
comme un chiffon rouge devant le taureau précautionniste, n’ont aucun mal à l’emporter dans
des débats souvent publics, médiatisés ou non, face à des hommes des sciences qui ne
viennent armés que de leur seule compétence. Ils croient peut-être, que cela est suffisant, mais
ils ont tort car ils ont à remonter la pente de la logique ordinaire qui favorise une concurrence
déloyale entre les propositions des experts et celles des démagogues de l’incertitude.
Je propose donc, pour commencer à entrevoir des solutions à cette situation
incommode, de la concevoir comme un problème de marketing cognitif. C’est, qu’en effet,
ces illusions mentales peuvent disparaître selon qu’on fait varier leur mode d’exposition. Si
l’on analyse, quelques-uns des débats relatifs à des questions de risque2, on voit bien que les
experts se font conduire presque systématiquement dans des impasses argumentatives
desquelles ils ne peuvent se sortir. Ce marketing cognitif serait convoqué pour permettre de
donner à l’expression publique de la science une forme qui offrirait à la logique ordinaire de
reconnaître la qualité de son argumentation et donc de prendre de la distance avec les
tentations qu’exercent les raisonnements captieux. Les travaux sur cette question ne sont pas
légion, mais ce n’est pas non plus un programme vide que j’évoque ici. En effet, il existe des
données sur ce que l’on nomme le « debunking », c’est-à-dire les techniques visant à affaiblir
l’attraction de ces « illusions mentales ». Pour n’en prendre qu’un exemple, je mentionnerai le
problème spectaculaire proposé par Casscelles, Schoenberger et Grayboys (1978) qui
confrontèrent 60 étudiants et enseignants de l’école médicale de Harvard à un problème
redoutable dont voici l’énoncé :
Une maladie, qui touche une personne sur mille peut être détectée par un test. Celui-ci a un
taux d'erreurs positives de 5 % c’est-à-dire qu’il y a 5 % de faux positifs. Un individu est
soumis au test. Le résultat est positif. Quelle est la probabilité pour qu'il soit effectivement
atteint ?
2
Comme je l’ai fait dans Bronner (2010b)
7 http://www.asmp.fr -­‐ Académie des Sciences morales et politiques Les médecins, qui ne peuvent pas être soupçonnés de n'être absolument pas familiers avec ce
genre de problèmes, se trompent pourtant massivement sur cette question. En effet, une
majorité d'entre eux répondent : 95 % (la moyenne de toutes les réponses étant de 56 %). En
fait, seuls 18 % donnent la bonne réponse : 2 %.
En effet, « 5 % de faux positifs » signifie que sur 100 non-malades, il y a 5 % de personnes
positives au test. Le raisonnement est donc le suivant (Il y a 99 900 non-malades sur 100 000
et donc 4995 faux positifs. Tandis qu'il y a seulement 100 vrais malades).
100/(100 + 4995) = 100/5095 ~ 2.
Il se trouve qu’en modifiant la présentation du problème, mais avec les mêmes données, on
obtient un taux d’erreur bien moindre :
Parmi 1000 Américains, on en trouve en moyenne un qui est atteint de la maladie X. Pour
chaque millier d’Américains en bonne santé, on trouve 50 personnes, en moyenne, qui sont
positives au test. Imaginez que nous prenions 1000 Américains au hasard, combien, parmi
ceux qui ont été positifs au test ont-ils réellement contracté la maladie ?
Avec cette présentation du problème 76 % des sujets donnent la bonne réponse. D’autres
auteurs comme Gigerenzer3 ou Houdé4 ont montré qu’on pouvait obtenir un taux de
rétrojugement spectaculaire. J’ai moi-même travaillé sur cette possibilité concernant les
perceptions subjectives des probabilités composées5.
L’enjeu est donc de penser une ingénierie de la communication scientifique. Il s’agirait de
poursuivre, les travaux que nous avons engagés avec mon collègue Géhin sur les dérives du
principe de précaution (Bronner et Géhin, 2010) mais avec des fins pratiques cette fois. Faire,
par exemple, l’analyse systématique de la nature des débats publics entre experts et militants
pour évaluer lesquels d’entre ces arguments sont mémorisés, paraissent convaincants et sont
fidèlement restitués par les citoyens non engagés. En analysant les biais cognitifs qui les soustendent et en tenant compte d’un temps d’expression souvent limité (notamment dans les
médias de grande audience), il est possible d’augmenter le facteur d’impact sur le marché
cognitif des propositions de l’orthodoxie scientifique. Il faut bien se souvenir aussi qu’avoir
raison contre la majorité n’est pas toujours utile en démocratie, surtout quand, comme c’est le
3
Gigerenzer (1991) ; Gigerenzer et Hoffrage (1995) par exemple à propos des raisonnements non-bayésiens de
la logique ordinaire.
4
Houdé et Guichart (2001)
5
Bronner (2007).
8 http://www.asmp.fr -­‐ Académie des Sciences morales et politiques cas en ce moment, se diffuse une passion pour la démocratie participative. Ces « auditions
publiques », ces « consultations citoyennes » etc., posent un problème redoutable à toute
gestion rationnelle du risque. La démocratie locale n’a sans doute pas attendu le
précautionnisme pour trouver des soutiens ici ou là6, mais celui-ci la pousse à s’installer
d’urgence lorsque les angoisses collectives réclament d’être entendues. Réciproquement, et
comme l’ont remarqué plusieurs observateurs, cette forme de démocratie, à mesure qu’elle se
développe, offre comme une chambre d’écho à la disqualification des experts. À ce sujet,
Jean-François Beraud, Secrétaire général de la Commission nationale du débat public,
rappelle que des consultations publiques ont été organisées depuis la fin des années 90 dans
les zones où des lignes à très haute tension devaient être implantées (Raoul, 2009, pp.12-13).
Alors qu’à l’origine, les échanges touchaient à des questions d’ordre esthétique, ils ont
rapidement porté sur le fait que, contrairement aux dires des experts, il pouvait être dangereux
de vivre à proximité de ces installations.
Faut-il s’étonner de ce que ces dispositifs de consultation aboutissent si souvent à des
conclusions précautionnistes ? Il y a lieu de croire, au contraire, qu’ils ont toutes les chances
de rendre publiques des erreurs si bien partagées qu’elles passent pour du bon sens, alors
qu’elles manifestent notre incompétence ordinaire à bien juger du risque et des situations
d’incertitude. C’est donc parce que ces débats deviennent de plus en plus publics, que la
question d’une ingénierie de la communication scientifique est brûlante.
Pour continuer mon analyse, je dirais qu’il ne suffit pas qu’une proposition cognitive
soit correctement présentée pour qu’elle soit disponible de façon satisfaisante dans l’espace
public. L’exposition d’une idée sur le marché cognitif est, en effet, largement dépendante de
la motivation des offreurs7. Pour mettre ce fait en exergue, je me suis posé cette question bien
simple : « Qu’est-ce qu’un internaute, sans idée préconçue sur tel ou tel sujet, trouverait s’il se
servait du moteur de recherche Google pour se faire une opinion ? J’ai donc tenté de simuler
la façon dont un internaute moyen pouvait accéder à une certaine offre cognitive sur Internet
sur plusieurs sujets : l’astrologie, le Monstre du Loch Ness, les cercles de culture (crop
circles), aspartam cancérigène, psychokinèse, OGM, ondes… Ces propositions m’ont paru
intéressantes à tester dans la mesure où l’orthodoxie scientifique conteste la réalité des
croyances qu’elles inspirent. Elles offrent donc un poste d’observation intéressant pour
6
Cf. par exemple la belle anthologie publiée par Girard et Le Goff (2010).
Ce qui suit fait référence à un texte publié dans le n°0 du Bulletin de l’Académie des Sciences Morales et
Politiques (Bronner 2011).
7
9 http://www.asmp.fr -­‐ Académie des Sciences morales et politiques évaluer la visibilité de propositions douteuses8. Pour le dire encore autrement, ce qu’il s’agit
d’observer c’est la concurrence entre des types d’énoncés qui prétendent rendre compte des
mêmes phénomènes - les uns pouvant se réclamer du consensus de l’expertise scientifique, les
autres non – telle qu’elle peut être saisie par certaines des traces qu’elle laisse sur la toile.
Or, les résultats sont sans appel : dans tous les cas, une majorité très nette (près de 80% en
moyenne) de trente premiers sites (comme le montrent les enquêtes sur le comportement des
internautes, ceux-ci ne dépassent pas, dans l’immense majorité des cas les 30 premiers sites
dans leur recherche) sont des sites « croyants ». Comment expliquer cette situation ? Il se
trouve qu’Internet est un marché cognitif hypersensible à la structuration de l’offre et que
toute offre est dépendante de la motivation des offreurs. Il se trouve aussi que les croyants
sont généralement plus motivés que les non-croyants pour défendre leur point de vue et lui
consacrer du temps. La croyance est partie prenante de l’identité du croyant, il aura facilement
à cœur de chercher de nouvelles informations affermissant son assentiment. Le non-croyant
sera souvent dans une position d’indifférence, il refusera la croyance, mais sans avoir besoin
d’une autre justification que la fragilité de l’énoncé qu’il révoque. Pour illustrer ce point, je
voudrais évoquer en détail un débat télévisé qui eut lieu sur la cinquième chaîne française le
22 avril 1988. Cette chaîne de télévision avait pris l’habitude d’organiser de courts débats
polémiques à l’heure du déjeuner. Il n’était pas rare que ceux-ci opposent des scientifiques à
des tenants de ce qu’il est convenu d’appeler les pseudo-sciences (astrologie etc.) Or, en
relisant le contenu de ces débats9, on est frappé de ce que les scientifiques ne parviennent pas,
la plupart du temps, à convaincre réellement. Il demeure comme une impression favorable
aux pseudo-sciences qui est souvent traduite par des déclarations du type : « Je n’y crois pas
vraiment, mais il y a peut-être un peu de vrai dans tout ça » ; « Tout ne peut pas être
entièrement faux ». Ce jour-là, le débat opposait Yves Galifret, professeur de psychologie à
l’Université Paris VI, au « mage » Desuart (un voyant). Ce dernier défendait l’existence de la
précognition et invoqua pour convaincre son auditoire l’histoire du roman de Morgan
Robertson, publié en 1898, Futility qui met en scène « le plus grand paquebot jamais construit
par l’homme ». Voici ce que le mage Desuart déclara : « 1898. Un écrivain de science-fiction
américain, Morgan Robertson, écrit un roman dans lequel il parle d'un navire géant, qui est
lancé par une nuit d'avril, pour son voyage inaugural, il transporte 3000 passagers, il mesure
800 pieds de long, il jauge 70 000 tonneaux, et malheureusement il rencontre un iceberg, il
8
La question des rapports entre croyance et connaissance est complexe, j’ai proposé des éléments de
démarcation entre ces objets cognitifs qui ont des frontières poreuses dans Bronner (2003).
9
Ce que nous permet le livre de Cuniot (1989).
10 http://www.asmp.fr -­‐ Académie des Sciences morales et politiques coule, et comme il n'y a que 24 canots de sauvetage, il y a plus d'un millier de noyés. Le
roman existe : 1898 ! Vous voulez savoir comment s'appelle le navire, dans son roman ? Le
Titan. Or, en 1912, 14 ans après, le Titanic coule par une nuit d'avril en rencontrant un
iceberg, il filait 25 nœuds à l'heure, il mesurait 800 pieds de long, et jaugeaient 66 000
tonneaux et il y a eu 1000 morts parce qu'il n'y avait que 20 canots de sauvetage. ». Son
interlocuteur, Yves Galifret, est un peu embarrassé, il tente un : « D’abord il faudrait
scientifiquement vérifier vos informations… », puis il ajoute : « les coïncidences existent ».
C’est bien ce psychologue qui a raison, mais il n’est pas certain que ses arguments aient
convaincu le public. Le problème est qu’Yves Galifret ne s’est pas préparé à contrer un récit
qui est un classique de l’argumentation « parapsychologique » car la contre-argumentation est
possible, comme on va le voir, mais elle nécessite un investissement en termes de temps et
d’énergie mentale important, donc une motivation. Il faudrait d’abord avoir lu le roman de
Robertson, ce que le psychologue n’a pas fait (sans doute ne connaissait-il même pas ce texte)
le mage Desuart non plus d’ailleurs, sinon il ne déformerait pas la réalité du roman comme il
le fait. Par exemple, il présente la longueur du Titan et du Titanic comme égale, ce n’est pas
tout à fait le cas puisque, dans le roman, le paquebot mesure 214 mètres de longueur contre
269 mètres dans la réalité, une différence de 55 mètres qui constituent presque 30 % de la
taille du Titan. Cette différence pourrait paraître marginale, mais elle a son importance
compte tenu de la façon dont Robertson a écrit son livre, comme nous allons le voir. Sur le
tonnage, le mage Desuart se trompe aussi, mais dans des proportions moindres. Il reste le
nombre de morts et de canaux de sauvetage. Pour les premiers, le mage ne s’embarrasse pas
trop de précisions : « plus d’un milliers de morts » pour le Titan, précise-t-il et un millier pour
le Titanic, ce flou énonciatif laisse croire que les chiffres du roman de Robertson sont
prophétiques. En réalité, le roman dénombre 2987 morts quand les victimes ont été 1523 dans
la réalité, ce qui fait tout de même une différence de près de 100 %… Quant aux canaux de
sauvetage, il est vrai que dans les deux cas, ils étaient en nombre insuffisant.
Ces remarques préliminaires ne convaincront sans doute pas celui qui veut croire que le
roman de Robertson avait quelque chose de prophétique. Le croyant ne sera pas convaincu
par ces précisions parce qu’il demeurera pour lui une narration romanesque qui anticipe, dans
ses grandes lignes, et, avec une précision relative, dans ses détails, un drame qui surviendra
14 années plus tard. N’est-ce pas être de mauvaise foi que de nier cette réalité ?
Morgan Robertson avait une très bonne culture maritime, il fut garçon de cabine pendant une
dizaine d’années sur des cargos, fils de capitaine, c’est un écrivain spécialisé dans les
11 http://www.asmp.fr -­‐ Académie des Sciences morales et politiques aventures maritimes. Il n’est donc pas saugrenu d’imaginer qu’il se tenait au courant des
innovations des constructeurs de navires. La construction de bateau gigantesque était
justement à l’ordre du jour avant même que Robertson n’écrive son roman. Il est donc
improbable qu’il n’ait pas eu connaissance de la construction d’un des plus grands paquebots
du monde, Le Gigantic. C’est d’autant plus improbable que le 16 septembre 1892, soit six ans
avant la publication du roman prophétique, le New York Times mentionne l’événement : « La
compagnie White Star a mandaté le grand constructeur naval Harland and Wolf de Belfast
pour construire un transatlantique qui brisera tous les records de dimension et de vitesse. Le
navire a déjà été baptisé Gigantic : il fera 700 pieds de long, 65 pieds 7 pouces et demi de
large et possèdera une puissance de 45 000 CV. On prévoit qu'il atteindra une vitesse de
croisière de 22 nœuds et une vitesse de pointe de 27 nœuds. De plus, il possédera trois
hélices; deux seront disposées comme celles du Majestic et une troisième sera placée au
centre. Ce navire devrait être prêt le 1er mars 1894. »10
Tant pour la puissance du moteur, que pour le nombre d’hélices ou pour les dimensions de
son navire, le Titan de Robertson s’inspire sans doute du Gigantic qui espérait lui-même
dépasser le Majestic. Les caractéristiques du Titan, qui paraissent au profane
extraordinairement proches de celles du Titanic, sont, en fait, liées mécaniquement aux
dimensions du paquebot. Ainsi, le nombre de compartiments étanches ne peut varier à l’infini
et le nombre de canots de sauvetage étaient liés, à cette époque, au tonnage du bateau.
Comme ils n’étaient pas dépendants du nombre de passagers, ils étaient forcément en nombre
insuffisant, ce que Robertson savait parfaitement et ce qui a sans doute stimulé son
imagination d’écrivain. C’est justement après le drame du Titanic que les choses vont
changer. En d’autres termes, une fois que l’on a fixé le tonnage d’un bateau, un certain
nombres d’éléments (nombre de cabine étanche, vitesse, puissance du moteur, nombre de
canaux de sauvetage…) en découlent, dès lors, le prophétisme de Futility, devient beaucoup
moins intrigant. Robertson n’a fait que suivre la compétition entre les constructeurs de navires
et écrire un roman d’anticipation bien informé. De nombreux romans maritimes ont été écrits
à cette époque, que l’un d’entre eux ait rencontré la tragique réalité n’a rien de surprenant.
Rappellera-t-on que le naufrage du Titan et du Titanic survienne tous deux en avril ? Là
encore, si Robertson veut narrer l’histoire d’un paquebot défiant les forces de la nature et
réputé insubmersible, il lui faut trouver une cause de naufrage crédible. Compte tenu de la
taille de navire, l’iceberg est un candidat idéal. Il sait, en bon connaisseur des choses de la
10
Je tire cette citation Bélanger, M. (1999).
12 http://www.asmp.fr -­‐ Académie des Sciences morales et politiques mer, que ce danger est un des plus redoutables que doit affronter un bateau de grande
envergure. Il sait encore que ce danger n’est réel qu’au mois d’avril, lors de la fonte des
neige…
On ne peut en vouloir à notre collègue Galifret de ne s’être pas tenu prêt à répondre
convenablement à toutes les argumentations que peut opposer un croyant. Le problème est
que cet exemple a une portée très générale. Ce fait est d’ailleurs tangible sur les forums sur
Internet où parfois les croyants et le non-croyant s’opposent les uns aux autres. Parmi les 23
forums que j’ai étudiés, 211 points de vue sont exprimés, 83 défendent le point de vue de la
croyance, 45 la combattent et 83 sont neutres. Ce qui frappe à la lecture des forums c’est que
les sceptiques se contentent souvent d’écrire des messages ironiques, ils moquent la croyance
plutôt qu’ils n’argumentent contre, alors que les défenseurs de l’énoncé convoquent des
arguments certes inégaux (liens, vidéos, paragraphe copié / collé…), mais étayent leur point
de vue. Parmi les posts proposés par ceux qui veulent défendre la croyance, 36 % sont
soutenus par un document, un lien ou une argumentation développée, alors que ce n’est le cas
que dans 10 % des cas pour les posts de « non-croyants ». Les hommes de science en général
n’ont pas beaucoup d’intérêt, ni académiques, ni personnels, à consacrer du temps à cette
concurrence, je le comprends, mais la conséquence un peu paradoxale de cette situation, c’est
que les croyants, et à propos de toute sorte de sujets, ont réussi à instaurer un oligopole
cognitif sur Internet, mais aussi dans les médias officiels qui sont devenus ultra-sensibles
désormais aux sources d’informations hétérodoxes. On peut voir là une illustration du célèbre
paradoxe d’Olson (1978). De quoi s’agit-il ? Ce sont ces situations où des individus ont un
intérêt en commun, tout à gagner à agir collectivement, mais ne le font pas (c’est exactement
la situation de la diffusion de la connaissance orthodoxe sur certains supports, notamment
Internet). Pourquoi ? Parce que, explique Olson, beaucoup de ces individus comptent obtenir
les bénéfices d’une revendication collective, sans avoir à en payer les coûts d’investissement
(en terme de temps, d’énergie et même d’argent). C’est la stratégie du « laisser faire les
autres ». Chacun ayant intérêt à laisser faire les autres pour obtenir un rapport bénéfices /
coûts très avantageux, cela aboutit à ce que beaucoup s’abstiennent d’agir, beaucoup trop
pour espérer atteindre ce but collectivement désirable. Ces situations de paradoxe d’Olson
sont toujours favorables à des groupes, même lorsqu’ils sont très minoritaires, qui sont
motivés pour imposer leur point de vue. Et c’est ainsi que la connaissance orthodoxe se
retrouve paradoxalement mise en minorité sur bien des terrains. Je ne vois pas que le monde
scientifique se saisisse de ce problème et s’engage désormais pied à pied dans cette
concurrence. Je ne crois pas même que cela soit souhaitable pour l’intérêt général dans la
13 http://www.asmp.fr -­‐ Académie des Sciences morales et politiques mesure où ce temps serait nécessairement prix sur celui, précieux, de la production de
connaissance. Ce qu’il manque donc, et cela ouvre une piste pour trouver des solutions à cette
situation, c’est un réseau de relais de la connaissance orthodoxe. Ce réseau existe, mais il est
beaucoup trop faible, il l’est beaucoup plus en tout cas, que celui qui organisait jadis la
réticulation sur notre territoire des sociétés savantes. Le site de l’enseignement supérieur et de
la recherche dénombre 119 sociétés savantes aujourd’hui alors qu’il en existait plus de 1000
en 1900. Plus grave sans doute, à partir des années 2000, on observe un vieillissement des
membres des sociétés savantes et un désintérêt des catégories les plus jeunes pour leurs
activités. Ce n’est peut-être qu’une coïncidence, mais il se trouve que cette date correspond
aussi à la diffusion du réseau Internet. Cette hypothèse est difficile à tester, mais on a souvent
le sentiment que ce réseau a pris la main de la diffusion de l’information scientifique (ou
prétendue telle). Un des enjeux importants me paraît être de penser la façon dont on pourrait
réactiver ces relais et activer ou réactiver des réseaux de la science populaire. Il n’est pas
exclu que l’Institut de France puisse jouer un rôle premier dans ce redéploiement.
Une des solutions majeures du problème que nous rencontrons est avant tout microsocial,
c’est aussi dans l’interlocution avec des proches, des individus familiers, que le sentiment de
méfiance, peut reculer centimètre par centimètre. Plusieurs expériences ont montré que le fait
d’avoir un rapport affectif avec le diffuseur d’une information, d’un message ou d’une croyance, avait
tendance à la rendre plus crédible. Shérif et Hovland (1961) par exemple soulignent le fait que les
individus ont tendance à surévaluer les compétences d’individus qu’ils apprécient, voire qu’ils aiment,
alors qu’ils sous-estimeront celles d’individus qu’ils n’apprécient pas. C’est pourquoi il est si
important de donner, en quelque sorte, une incarnation presque familière lorsque c’est
possible au discours de la science.
Je ne peux conclure sans mentionner, même si ce ne peut être considéré que comme une
solution de long terme, les questions d’éducation. On pourrait s’étonner que l’augmentation
généralisée dans les sociétés occidentales du niveau d’étude, ne coïncide pas avec une
meilleure acceptation de la connaissance orthodoxe. Il a été montré maintes fois, en effet,
qu’une bonne formation intellectuelle n’immunise pas du tout contre l’adhésion à toutes
sortes de croyances. Les enquêtes menées par Boy et Michelat (1986) sur les croyances des
Français concernant les parasciences, par exemple ont montré que la croyance au paranormal
ou à l’astrologie touche, dans l’ordre croissant : le primaire, le primaire supérieur, le
secondaire et le supérieur non scientifique. Dans le même ordre d’idées, on pourrait
14 http://www.asmp.fr -­‐ Académie des Sciences morales et politiques mentionner que ceux qui adhèrent le plus facilement au mythe du monstre du loch Ness11 sont
des individus diplômés, de même pour les adeptes de l’homéopathie, comme le fait remarquer
Bouchayer (1986)… On pourrait multiplier les exemples, mais les études les plus frappantes
sont celles qui montrent que même les croyances extrêmes, en tout cas celles qui inspirent des
actes meurtriers, paraissent plus facilement endossées par des individus ayant un niveau de
diplôme supérieur à la moyenne12, il n’en va pas différemment de ceux qui adhèrent à des
mouvements sectaires13.
Qu’on ne déduise pas de ces propos l’idée que je juge inutiles les efforts d’éducation, mais
dans certains domaines, tout se passe comme si le développement de l’esprit critique, tant
prisé par les sciences de l’éducation, avait plutôt aboutit à une forme de nihilisme cognitif qui
vient irriguer le désaveu des experts et toute parole perçue comme officielle. Il serait tout à
fait excessif de tenir pour responsables ces théories de l’éducation de la situation dans laquelle
nous sommes, mais peut-être serait-il utile de reconsidérer une partie de l’enseignement des
sciences et certaines des propositions des sciences de l’éducation en général, en tenant compte
de ce que l’on commence à connaître assez bien : les situations, les structures de problèmes
particulières (comme celle impliquant le risque par exemple) où l’on sait que la logique
ordinaire s’égare. Il est donc urgent de redonner un sens, qui ne soit pas seulement une
posture, à l’esprit critique entendu plutôt que comme une suspicion à l’égard de tout discours
officiel, un effort fait pour penser sa propre pensée.
Gérald Bronner
11
12
13
Selon une étude menée par Grimshaw et Lester citée par J-B. Renard (2010).
Cf. Sageman (2004), Etienne (2005), Cherkaoui (2007), Krueger (2007) ou encore Ruby (2002).
Cf. Duval (2002) ou Stupple (1984).
15 http://www.asmp.fr -­‐ Académie des Sciences morales et politiques Bibliographie
Bélanger, M. (1999), Sceptique Ascendant Sceptique, Edition Stanké, Montréal, 1999.
Bouchayer F. (1986), « Les usagers des médecines alternatives : itinéraires thérapeutiques,
culturels, existentiels », Revue française des affaires sociales, numéro hors-série, avril,
pp. 105-115.
Boy D. et Michelat G. (1986), « Croyances aux parasciences : dimensions sociales et
culturelles », La Revue française de sociologie, XXVII.
Bronner, G. (2003), L’Empire des croyances, Paris, Puf.
Bronner, G. (2007), L’empire de l’erreur – Eléments de sociologie cognitive, Paris, Puf.
Bronner, G. et Géhin, E. (2010a), L’inquiétant principe de précaution, Paris, Puf.
Bronner, G. (2010b), « Ondes et croyances », La Revue des Deux Mondes, mars 2010, pp.5175.
Bronner, G. (2011), « La révolution de l’information et l’irrationalisme », Bulletin de
l’Académie des Sciences Morales et Politiques, janvier- juillet, pp.55-70.
Casscells, W., Schoenberger, A. et Grayboys, T. (1978), « Interpretation by physicians of
clinical laboratory results », New England Journal of Medecine, 299.
Cherkaoui M. (2007), Good intentions – Max Weber and the Paradox of Unintended
Consequences, Oxford, Bardwell Press.
Cuniot, A. (1989), Incroyable… mais faux !, Bordeaux, L’horizon chimérique.
Duval M. (2002), Un ethnologue au Mandarom, Paris, Puf.
Etienne B. (2005), Les combattants suicidaires, Paris, L’aube.
Gigerenzer, G. et Hoffrage, U. (1995), « How to improve bayesian reasonig without
instruction : Frequency Format », Psychological Review, 102, pp.684-704.
Gigerenzer, G. (1991), « How to Make Cognitive Illusions Disappear : Beyond Heuristics and
Biases » », European Review of Social Psychology, 2, pp.83-115.
16 http://www.asmp.fr -­‐ Académie des Sciences morales et politiques Girard, C. et Le Goff, A. (2010), La démocratie participative, Paris, Hermann.
Griffith, R.M. (1949), « Odds ajustement by american horse-race betters », American Journal
of Psychology, 1949, 62, pp.290-294.
Houdé, O. et Guichart, E. (2001), « Negative priming effect after inhibition of number/length
interference in a Piaget-like task », Developmental Science, vol. IV, n° 1.2
Krueger, A. (2007), What Makes a Terrorist: Economics and the Roots of Terrorism,
Princeton University Press.
Olson, M. (1978), La logique de l’action collective, Paris, Puf. Pagès, G. et Bouzitat C. (1999), En passant par hasard – Les probabilités de tous les jours,
Paris, Vuibert.
Piatelli Palmarini, M. (1995), La Réforme du jugement ou comment ne plus se tromper, Paris,
Odile Jacob.
Piatelli Palmarini, M. et Raude, J. (2006), Choix, décisions et préférences, Paris, Odile Jacob.
Prelec, D. (1998), « The probability weighting function », Econometrica, 47, pp.313-327.
Prestn, H.G. et Baratta, P. (1948), « An experimental study of the auction-value of an
uncertain outcome », American Journal of Psychology, 61, 183-193.
Raoul, D. (Ed.) (2009), Les lignes à très haute tension : quels impacts sur la santé et
l’environnement ?, Compte rendu de l’audition publique du 29 janvier 2009, Office
parlementaire d’évaluation des choix scientifiques et technologiques, Assemblée Nationale
n°1556, Sénat n°307.
Renard J-B. (2010), « Croyances fantastiques et rationalité », L’Année Sociologique, 60-1,
pp.115-135.
Ruby, C.L. (2002), « Are terrorists mentally deranged ? », Analysis of Social Issues and
Public Policy, 2, pp.15-26.
Shérif, M. et Hovland, C.I. (1961), Social judgment, Yales, New Haven, University Press.
Stupple, D. (1984), « Mahatmas and Space Brothers : The Ideologies of Alleged Contact With
Extraterrestrials », Journal of American Culture, n° 7, pp. 131-139.
Tocqueville Alexis de (1992), De la démocratie en Amérique t. II, Paris, Gallimard, 1992.
17 http://www.asmp.fr -­‐ Académie des Sciences morales et politiques Tversky, A. et Kahneman, D. (1986), « Framing of decisions and the psychology of choice »,
in (Elster Ed.) Rational choice, Oxford, Basil Blackwell.
Tversky, A. et Shafir, E. (1992), « The Disjunction Effect in Choice under Uncertainty »,
Psychological Science, 3 (5), pp.305-309.
18