quelques pistes pour lutter contre la disqualification des experts
Transcription
quelques pistes pour lutter contre la disqualification des experts
http://www.asmp.fr -‐ Académie des Sciences morales et politiques Les Entretiens de l’Académie des Sciences Morales et Politiques La disqualification de l’expertise : quelques pistes pour lutter contre la disqualification des experts Gérald Bronner, professeur à l’Université de Strasbourg Lundi 28 novembre 2011 1 http://www.asmp.fr -‐ Académie des Sciences morales et politiques Quelques pistes pour lutter contre la disqualification des experts J’ai pris très au sérieux l’exercice consistant à proposer des solutions au problème de la disqualification des experts, en sachant à l’avance que je ne pourrai relever le défi de façon tout à fait satisfaisante. Mais pour que cela ne soit pas trop insatisfaisant, j’ai choisi de traiter ce sujet de la façon la plus pragmatique possible. Pour cette raison, je me suis mis en devoir de le rabaisser un peu pour le mettre à la portée d’une réflexion pratique et de ne pas m’encombrer des questions déontologiques qui seront pourtant impliquées par les propositions que je vais faire. On peut ramener cette question de la disqualification des experts à un problème de concurrence sur le marché cognitif (c’est-à-dire cet espace fictif où se rencontrent des hypothèses, des idées, des connaissances et des croyances les unes et les autres pouvant être en concurrence) : pourquoi, sur certains sujets, les propositions des experts qu’on va supposer plus solides, mieux argumentées objectivement vont-elles paraître moins convaincantes, donc moins compétitives sur ce marché, que les propositions faites à l’opinion publique généralement par les militants (que ce soit sur la question des OGM, de la dangerosité supposée des antennes relais ou des lignes à très haute tension par exemple). Cette question est préoccupante bien au-delà des difficultés que les experts peuvent rencontrer dans les sociétés contemporaines pour convaincre, parce qu’elle met en examen l’espoir d’une société de la connaissance fondée sur la supposition que sur un marché libéral des idées, la pensée méthodique finira par s’imposer. Cet espoir est fondamental pour une société qui produit de la connaissance, car à mesure de la production de cette connaissance, la part de ce que chacun peut espérer maîtriser de cette compétence commune diminue. Pour le dire autrement, plus l’on sait de choses, moins la part de ce que je sais est proportionnellement importante. Cela signifie qu’une société fondée sur le progrès de la connaissance devient, un peu paradoxalement, une société de la croyance par délégation. Ce qu’avait décrit Tocqueville en son temps (1992, p.519) : « Il n'y a pas de si grand philosophe dans le monde qui ne croie un million de choses sur la foi d'autrui, et ne suppose beaucoup plus de vérités qu'il n'en établit. Ceci est non seulement nécessaire, mais désirable. » Désirable, sans doute, seulement voilà, il existe des conditions sociales où le processus de confiance est altéré. Nous y sommes. Et pour envisager des solutions à cette situation, il faut 2 http://www.asmp.fr -‐ Académie des Sciences morales et politiques d’abord comprendre pourquoi des produits frelatés sur le marché cognitif peuvent paraître plus convaincants que des propositions concurrentes mieux fondées, pourquoi le vrai, ou du moins le probable, est-il parfois à ce point contre-intuitif et même, dans certains cas, scandaleux ? Pour introduire cette question, je ne connais pas de meilleure illustration que celle offerte par le problème de Monty Hall. Il fut découvert presque par hasard, en 1991, à l’occasion d’une polémique autour d’un jeu télévisé célèbre outre-atlantique Lets make a deal. Des mathématiciens, des prix Nobel de Physique, des animateurs de télévision et, pour tout dire, monsieur tout le monde, essayèrent de démêler les fils d’un problème en apparence très simple. Le jeu, dans sa phase finale, consistait à proposer au candidat d’ouvrir une des trois portes qui lui étaient présentées. Derrière l’une d’entre elles, il y avait une voiture, derrière les deux autres, rien. Après avoir choisi une des trois portes au hasard, il en restait donc deux que le candidat n’avait pas choisies. Le présentateur de l’émission ouvrait alors une des deux portes que le candidat n’avait pas choisies derrière laquelle il n’y avait rien, car il savait parfaitement où se trouvait la voiture. Il ne restait donc plus que deux portes. Le dilemme auquel était confronté le candidat était donc le suivant : Il avait choisi une porte et il en restait une autre. Et l’animateur lui offrait de conserver ou de modifier son choix initial. La voiture était nécessairement derrière une de ces deux portes restantes. Que devait-il faire ? La polémique a commencé dans les pages d’un journal ayant pour titre Parade où une certaine Marylin vos Savant était responsable de la rubrique du courrier des lecteurs. La légende veut que cette dame ait eu le plus gros quotient intellectuel jamais mesuré (228)1. À la question que lui posait un lecteur qui désirait savoir ce qu’elle ferait si elle était candidate au jeu Let’s make a deal, elle répondit qu’elle changerait indubitablement de porte. Ce faisant, elle affirmait avoir deux chances sur trois de gagner la voiture. Son point de vue déclencha la stupeur outre-Atlantique. Les milliers de lettres de sceptiques, quelquefois scientifiques, n’avaient pas de mots trop durs pour qualifier la stupidité de son raisonnement. Puisqu’il ne reste que deux portes, affirmaient-ils, conserver ou modifier son choix initial n’a aucune importance. Dans les deux cas, on avait 50 % de chances de gagner la voiture. 1 Je tire cette information de Pagès et Bouzitat (1999) à qui j’emprunte cet exemple. 3 http://www.asmp.fr -‐ Académie des Sciences morales et politiques Ce problème fut soumis à deux prix Nobel de physique qui considérèrent, eux aussi, qu’il y avait équiprobabilité entre les deux portes et ne voulurent pas croire que « changer » était une tactique optimale. Ils avaient pourtant tort, c’est bien Marylin vos Savant qui avait raison, et voici pourquoi. Puisqu’il y a une chance sur trois (au début du jeu) de trouver la bonne porte, c’est qu’il y a deux chances sur trois de se tromper. Une fois ceci admis, on est conduit à accepter l’idée que cette probabilité reste la même s’il conserve son choix, quelle que soit l’intervention de l’animateur (ouvrir une des portes non choisies). Il aura donc toujours raison de changer de choix car ainsi, en ouvrant la porte restante, il a un peu plus de 66 % de chances de gagner la voiture. C’est une vérité scandaleuse. Elle nous indigne parce qu’elle est à ce point contreintuitive que la solution, même une fois dévoilée, nous semble douteuse. Sans en avoir l’air, ce problème, parce qu’il suggère qu’il existe des dispositions dans notre esprit qui peuvent nous conduire, dans certaines situations caractéristiques à des erreurs d’appréciation sévères, nous offre une entrée efficace dans le problème de la disqualification des experts. En effet, si l’on cartographie les situations où leur parole est considérée comme douteuse par l’opinion, on s’aperçoit que certaines thématiques sont récurrentes et en particulier celles du risque, que celui-ci relève de la santé publique ou de l’environnement. Pourquoi ? Parce que notre esprit est très mal équipé pour penser rationnellement l’incertitude. Le fonctionnement normal du cerveau socialisé le conduit à trouver plus attractifs certains produits frelatés plutôt que les propositions de l’orthodoxie scientifique. Je ne veux donner ici que quelques exemples de ces tentations mentales qui pèsent sur notre esprit dans ces situations, notamment lorsque le risque est considéré comme faible, mais où les coûts sanitaires ou environnementaux pourraient être importants. C’est typiquement le cas, par exemple, lorsqu’on soupçonne les ondes basses fréquentes d’être dangereuses pour la santé, y compris au niveau que leur assignent les normes européennes. Nul ne croit que ces ondes peuvent provoquer des hécatombes, mais l’idée que s’en fait la logique ordinaire est qu’il existe un risque, faible, mais réel, de développer des troubles graves à leur contact. Pour bien juger de ces situations, il faudrait que les individus soient capables de se représenter les probabilités avec justesse, ce qui n’est pas le cas, en particulier justement lorsque ces probabilités sont faibles. De nombreux travaux ont été menés sur ce point, à commencer par ceux de Prestn et Baratta (1948) ou Griffith (1949) selon lesquels les faibles probabilités sont généralement surestimées. À l’appui de cette idée, Griffith a analysé les résultats de 1386 courses de 4 http://www.asmp.fr -‐ Académie des Sciences morales et politiques chevaux. Dans l’ensemble, les paris reflétaient assez bien les probabilités de chances de gagner des chevaux, sauf pour les toutes petites probabilités. Ces premiers résultats ont été par la suite confirmés et affinés, notamment par Prelec (1998). Lorsque ces probabilités sont de l’ordre de 1 sur 10000 et moins, elles sont en moyenne perçues comme 10 à 15 fois supérieures par la logique ordinaire. Les individus sont donc portés à surévaluer les faibles probabilités, et le sont d’autant plus qu’elles sont associées à un risque. En outre, de nombreuses études expérimentales ont montré que le désir qu’un événement survienne ou qu’il ne survienne pas était susceptible d’influencer à la hausse ou à la baisse l’évaluation subjective des probabilités (Piatelli Palmarini et Raude 2006). Face à une situation perçue comme dangereuse, il n’est pas rare que nous cherchions à éradiquer le risque coûte que coûte, et le coût peut être parfois déraisonnable ou tout du moins contraire aux normes du calcul de l’espérance mathématique. Piatelli Palmarini (1995, p.112) a conduit une expérience dont les résultats sont particulièrement convaincants sur ce point. Les sujets qui y participent sont invités à considérer les deux situations suivantes : Situation 1 : vous avez été exposé à une maladie rare et fatale. La probabilité de chances que vous ayez réellement contracté cette maladie est de 1 ‰. Quel prix seriez-vous disposé à payer pour un vaccin qui ramène ce risque à 0 ‰ ? Situation 2 : le problème est identique, à ceci près que la maladie a 4 ‰ de chances de vous avoir contaminé et que le vaccin ne vous soigne pas, mais réduit ce risque à 3 ‰. Quel est le montant maximal de la somme que vous seriez disposé à payer pour ce vaccin ? Dans le premier cas (élimination du risque de un sur mille), la moyenne des offres est de 12177 Euros, dans le second cas (réduction du risque de 4 à 3 ‰), la moyenne des offres est de 3805 Euros, soit trois fois moins... Comme on le voit, la somme que les individus seraient prêts à investir pour obtenir ce vaccin est très différente selon la situation 1 ou 2 ; pourtant, dans les deux cas, le vaccin réduit la probabilité de chances de contracter la maladie de 1 ‰ seulement. La stricte rationalité conduirait l’individu à payer le même prix (quel que soit le prix) pour le vaccin 1 et pour le vaccin 2. Mais, contrairement au vaccin de la deuxième situation, celui de la première offre aux individus la certitude qu’ils seront soignés. Parce qu’ils sont portés à croire ce qu’ils craignent, les acteurs sociaux sont souvent disposés à payer un prix déraisonnable pour éradiquer un risque très faible. Ils sont d’autant plus enclins à le faire que l’esprit humain est conformé pour prendre en compte les pertes réelles ou envisagées plutôt que les bénéfices. Ainsi ont-ils tendance à prêter davantage attention à une perte qu’à un gain de valeur équivalente (Tversky et 5 http://www.asmp.fr -‐ Académie des Sciences morales et politiques Kahneman, 1986). C’est pour cette raison, peut-on croire, que les mouvements de revendication sociale sont plus importants lorsqu’il s’agit de lutter contre quelque chose – la perte d’un avantage social par exemple – que lorsqu’il est question d’œuvrer pour un gain éventuel. C’est sans doute aussi pour cette raison que les débats publics qui se cristallisent autour des questions sanitaires et environnementales d’une innovation le font en mettant en scène les risques que celle-ci est censée nous faire courir plutôt que les avantages que l’on sait pouvoir en attendre. Les travaux de la psychologie cognitive ont même montré qu’une perte de x euros ne pouvait être compensée psychiquement que par un gain d’au moins 2,5 x euros. On pourrait encore mentionner la paralysie dans laquelle se retrouve l’esprit humain lorsqu’il est confronté à des situations aux issues indéterminées. Ce point est mis en exergue par certaines expérimentations des psychologues cognitifs, notamment celles conçues par Tversky et Shafir (1992). Dans l’une d’entre elles, ils proposèrent à un groupe d’étudiants de réfléchir à trois situations : Situation 1: vous venez de gagner 150 euros à la roulette en pariant sur le noir, votre capital s’élève à présent à 300 euros. Accepteriez-vous de parier de nouveau 150 euros sur le rouge ou sur le noir ? Situation 2 : vous venez de perdre, à la roulette, 150 euros en misant sur le noir. Accepteriez-vous de parier de nouveau 150 euros sur le rouge ou le noir ? La majorité des étudiants affirme que dans la situation 1, le gain obtenu l’encouragerait à rejouer, et que, dans la situation 2, elle rejouerait pour tenter de « se refaire ». Il n’y a rien de très intéressant jusque-là. Les réponses données face à la troisième situation sont beaucoup plus déconcertantes. Dans la situation 3, on demande aux sujets d’admettre qu’après avoir misé, ils sortent de la salle où sont les jeux de roulette, par exemple pour aller prendre l’air, et qu’ils ne peuvent donc pas savoir tout de suite s’ils ont gagné ou perdu. On convient qu’ils emportent 300 euros s’ils ont gagné, et que dans le cas contraire, ils en laissent 150 au Casino. On leur demande alors si – bien que ne sachant pas s’ils ont gagné ou perdu - ils seraient prêts à parier de nouveau 150 euros. La stricte logique voudrait qu’ils répondent oui, car, précédemment, qu’ils aient gagné (situation 1) ou perdu (situation 2), ils avaient majoritairement décidé de rejouer. Or, la plupart d’entre eux décident, cette fois, d’appliquer le principe « Dans le doute, abstiens-toi », et de ne pas rejouer ! 6 http://www.asmp.fr -‐ Académie des Sciences morales et politiques Tversky et Shafir en ont conclu que, face à un choix disjonctif incertain, les individus s’abstiendront souvent de toute décision avant de savoir si c’est l’option, A ou B qui s’est réalisée (l’une étant exclusive de l’autre pour un tel choix). Dans ces conditions, on comprend mieux la passion pour les moratoires de toute sorte qui s’est répandue dans les populations, dans la mesure où il est l’expression d’une suspension du jugement face aux deux termes de l’alternative adopter ou ne pas adopter une innovation technologique. Les militants donneurs d’alerte qui prétendent exhiber l’incertitude scientifique comme un chiffon rouge devant le taureau précautionniste, n’ont aucun mal à l’emporter dans des débats souvent publics, médiatisés ou non, face à des hommes des sciences qui ne viennent armés que de leur seule compétence. Ils croient peut-être, que cela est suffisant, mais ils ont tort car ils ont à remonter la pente de la logique ordinaire qui favorise une concurrence déloyale entre les propositions des experts et celles des démagogues de l’incertitude. Je propose donc, pour commencer à entrevoir des solutions à cette situation incommode, de la concevoir comme un problème de marketing cognitif. C’est, qu’en effet, ces illusions mentales peuvent disparaître selon qu’on fait varier leur mode d’exposition. Si l’on analyse, quelques-uns des débats relatifs à des questions de risque2, on voit bien que les experts se font conduire presque systématiquement dans des impasses argumentatives desquelles ils ne peuvent se sortir. Ce marketing cognitif serait convoqué pour permettre de donner à l’expression publique de la science une forme qui offrirait à la logique ordinaire de reconnaître la qualité de son argumentation et donc de prendre de la distance avec les tentations qu’exercent les raisonnements captieux. Les travaux sur cette question ne sont pas légion, mais ce n’est pas non plus un programme vide que j’évoque ici. En effet, il existe des données sur ce que l’on nomme le « debunking », c’est-à-dire les techniques visant à affaiblir l’attraction de ces « illusions mentales ». Pour n’en prendre qu’un exemple, je mentionnerai le problème spectaculaire proposé par Casscelles, Schoenberger et Grayboys (1978) qui confrontèrent 60 étudiants et enseignants de l’école médicale de Harvard à un problème redoutable dont voici l’énoncé : Une maladie, qui touche une personne sur mille peut être détectée par un test. Celui-ci a un taux d'erreurs positives de 5 % c’est-à-dire qu’il y a 5 % de faux positifs. Un individu est soumis au test. Le résultat est positif. Quelle est la probabilité pour qu'il soit effectivement atteint ? 2 Comme je l’ai fait dans Bronner (2010b) 7 http://www.asmp.fr -‐ Académie des Sciences morales et politiques Les médecins, qui ne peuvent pas être soupçonnés de n'être absolument pas familiers avec ce genre de problèmes, se trompent pourtant massivement sur cette question. En effet, une majorité d'entre eux répondent : 95 % (la moyenne de toutes les réponses étant de 56 %). En fait, seuls 18 % donnent la bonne réponse : 2 %. En effet, « 5 % de faux positifs » signifie que sur 100 non-malades, il y a 5 % de personnes positives au test. Le raisonnement est donc le suivant (Il y a 99 900 non-malades sur 100 000 et donc 4995 faux positifs. Tandis qu'il y a seulement 100 vrais malades). 100/(100 + 4995) = 100/5095 ~ 2. Il se trouve qu’en modifiant la présentation du problème, mais avec les mêmes données, on obtient un taux d’erreur bien moindre : Parmi 1000 Américains, on en trouve en moyenne un qui est atteint de la maladie X. Pour chaque millier d’Américains en bonne santé, on trouve 50 personnes, en moyenne, qui sont positives au test. Imaginez que nous prenions 1000 Américains au hasard, combien, parmi ceux qui ont été positifs au test ont-ils réellement contracté la maladie ? Avec cette présentation du problème 76 % des sujets donnent la bonne réponse. D’autres auteurs comme Gigerenzer3 ou Houdé4 ont montré qu’on pouvait obtenir un taux de rétrojugement spectaculaire. J’ai moi-même travaillé sur cette possibilité concernant les perceptions subjectives des probabilités composées5. L’enjeu est donc de penser une ingénierie de la communication scientifique. Il s’agirait de poursuivre, les travaux que nous avons engagés avec mon collègue Géhin sur les dérives du principe de précaution (Bronner et Géhin, 2010) mais avec des fins pratiques cette fois. Faire, par exemple, l’analyse systématique de la nature des débats publics entre experts et militants pour évaluer lesquels d’entre ces arguments sont mémorisés, paraissent convaincants et sont fidèlement restitués par les citoyens non engagés. En analysant les biais cognitifs qui les soustendent et en tenant compte d’un temps d’expression souvent limité (notamment dans les médias de grande audience), il est possible d’augmenter le facteur d’impact sur le marché cognitif des propositions de l’orthodoxie scientifique. Il faut bien se souvenir aussi qu’avoir raison contre la majorité n’est pas toujours utile en démocratie, surtout quand, comme c’est le 3 Gigerenzer (1991) ; Gigerenzer et Hoffrage (1995) par exemple à propos des raisonnements non-bayésiens de la logique ordinaire. 4 Houdé et Guichart (2001) 5 Bronner (2007). 8 http://www.asmp.fr -‐ Académie des Sciences morales et politiques cas en ce moment, se diffuse une passion pour la démocratie participative. Ces « auditions publiques », ces « consultations citoyennes » etc., posent un problème redoutable à toute gestion rationnelle du risque. La démocratie locale n’a sans doute pas attendu le précautionnisme pour trouver des soutiens ici ou là6, mais celui-ci la pousse à s’installer d’urgence lorsque les angoisses collectives réclament d’être entendues. Réciproquement, et comme l’ont remarqué plusieurs observateurs, cette forme de démocratie, à mesure qu’elle se développe, offre comme une chambre d’écho à la disqualification des experts. À ce sujet, Jean-François Beraud, Secrétaire général de la Commission nationale du débat public, rappelle que des consultations publiques ont été organisées depuis la fin des années 90 dans les zones où des lignes à très haute tension devaient être implantées (Raoul, 2009, pp.12-13). Alors qu’à l’origine, les échanges touchaient à des questions d’ordre esthétique, ils ont rapidement porté sur le fait que, contrairement aux dires des experts, il pouvait être dangereux de vivre à proximité de ces installations. Faut-il s’étonner de ce que ces dispositifs de consultation aboutissent si souvent à des conclusions précautionnistes ? Il y a lieu de croire, au contraire, qu’ils ont toutes les chances de rendre publiques des erreurs si bien partagées qu’elles passent pour du bon sens, alors qu’elles manifestent notre incompétence ordinaire à bien juger du risque et des situations d’incertitude. C’est donc parce que ces débats deviennent de plus en plus publics, que la question d’une ingénierie de la communication scientifique est brûlante. Pour continuer mon analyse, je dirais qu’il ne suffit pas qu’une proposition cognitive soit correctement présentée pour qu’elle soit disponible de façon satisfaisante dans l’espace public. L’exposition d’une idée sur le marché cognitif est, en effet, largement dépendante de la motivation des offreurs7. Pour mettre ce fait en exergue, je me suis posé cette question bien simple : « Qu’est-ce qu’un internaute, sans idée préconçue sur tel ou tel sujet, trouverait s’il se servait du moteur de recherche Google pour se faire une opinion ? J’ai donc tenté de simuler la façon dont un internaute moyen pouvait accéder à une certaine offre cognitive sur Internet sur plusieurs sujets : l’astrologie, le Monstre du Loch Ness, les cercles de culture (crop circles), aspartam cancérigène, psychokinèse, OGM, ondes… Ces propositions m’ont paru intéressantes à tester dans la mesure où l’orthodoxie scientifique conteste la réalité des croyances qu’elles inspirent. Elles offrent donc un poste d’observation intéressant pour 6 Cf. par exemple la belle anthologie publiée par Girard et Le Goff (2010). Ce qui suit fait référence à un texte publié dans le n°0 du Bulletin de l’Académie des Sciences Morales et Politiques (Bronner 2011). 7 9 http://www.asmp.fr -‐ Académie des Sciences morales et politiques évaluer la visibilité de propositions douteuses8. Pour le dire encore autrement, ce qu’il s’agit d’observer c’est la concurrence entre des types d’énoncés qui prétendent rendre compte des mêmes phénomènes - les uns pouvant se réclamer du consensus de l’expertise scientifique, les autres non – telle qu’elle peut être saisie par certaines des traces qu’elle laisse sur la toile. Or, les résultats sont sans appel : dans tous les cas, une majorité très nette (près de 80% en moyenne) de trente premiers sites (comme le montrent les enquêtes sur le comportement des internautes, ceux-ci ne dépassent pas, dans l’immense majorité des cas les 30 premiers sites dans leur recherche) sont des sites « croyants ». Comment expliquer cette situation ? Il se trouve qu’Internet est un marché cognitif hypersensible à la structuration de l’offre et que toute offre est dépendante de la motivation des offreurs. Il se trouve aussi que les croyants sont généralement plus motivés que les non-croyants pour défendre leur point de vue et lui consacrer du temps. La croyance est partie prenante de l’identité du croyant, il aura facilement à cœur de chercher de nouvelles informations affermissant son assentiment. Le non-croyant sera souvent dans une position d’indifférence, il refusera la croyance, mais sans avoir besoin d’une autre justification que la fragilité de l’énoncé qu’il révoque. Pour illustrer ce point, je voudrais évoquer en détail un débat télévisé qui eut lieu sur la cinquième chaîne française le 22 avril 1988. Cette chaîne de télévision avait pris l’habitude d’organiser de courts débats polémiques à l’heure du déjeuner. Il n’était pas rare que ceux-ci opposent des scientifiques à des tenants de ce qu’il est convenu d’appeler les pseudo-sciences (astrologie etc.) Or, en relisant le contenu de ces débats9, on est frappé de ce que les scientifiques ne parviennent pas, la plupart du temps, à convaincre réellement. Il demeure comme une impression favorable aux pseudo-sciences qui est souvent traduite par des déclarations du type : « Je n’y crois pas vraiment, mais il y a peut-être un peu de vrai dans tout ça » ; « Tout ne peut pas être entièrement faux ». Ce jour-là, le débat opposait Yves Galifret, professeur de psychologie à l’Université Paris VI, au « mage » Desuart (un voyant). Ce dernier défendait l’existence de la précognition et invoqua pour convaincre son auditoire l’histoire du roman de Morgan Robertson, publié en 1898, Futility qui met en scène « le plus grand paquebot jamais construit par l’homme ». Voici ce que le mage Desuart déclara : « 1898. Un écrivain de science-fiction américain, Morgan Robertson, écrit un roman dans lequel il parle d'un navire géant, qui est lancé par une nuit d'avril, pour son voyage inaugural, il transporte 3000 passagers, il mesure 800 pieds de long, il jauge 70 000 tonneaux, et malheureusement il rencontre un iceberg, il 8 La question des rapports entre croyance et connaissance est complexe, j’ai proposé des éléments de démarcation entre ces objets cognitifs qui ont des frontières poreuses dans Bronner (2003). 9 Ce que nous permet le livre de Cuniot (1989). 10 http://www.asmp.fr -‐ Académie des Sciences morales et politiques coule, et comme il n'y a que 24 canots de sauvetage, il y a plus d'un millier de noyés. Le roman existe : 1898 ! Vous voulez savoir comment s'appelle le navire, dans son roman ? Le Titan. Or, en 1912, 14 ans après, le Titanic coule par une nuit d'avril en rencontrant un iceberg, il filait 25 nœuds à l'heure, il mesurait 800 pieds de long, et jaugeaient 66 000 tonneaux et il y a eu 1000 morts parce qu'il n'y avait que 20 canots de sauvetage. ». Son interlocuteur, Yves Galifret, est un peu embarrassé, il tente un : « D’abord il faudrait scientifiquement vérifier vos informations… », puis il ajoute : « les coïncidences existent ». C’est bien ce psychologue qui a raison, mais il n’est pas certain que ses arguments aient convaincu le public. Le problème est qu’Yves Galifret ne s’est pas préparé à contrer un récit qui est un classique de l’argumentation « parapsychologique » car la contre-argumentation est possible, comme on va le voir, mais elle nécessite un investissement en termes de temps et d’énergie mentale important, donc une motivation. Il faudrait d’abord avoir lu le roman de Robertson, ce que le psychologue n’a pas fait (sans doute ne connaissait-il même pas ce texte) le mage Desuart non plus d’ailleurs, sinon il ne déformerait pas la réalité du roman comme il le fait. Par exemple, il présente la longueur du Titan et du Titanic comme égale, ce n’est pas tout à fait le cas puisque, dans le roman, le paquebot mesure 214 mètres de longueur contre 269 mètres dans la réalité, une différence de 55 mètres qui constituent presque 30 % de la taille du Titan. Cette différence pourrait paraître marginale, mais elle a son importance compte tenu de la façon dont Robertson a écrit son livre, comme nous allons le voir. Sur le tonnage, le mage Desuart se trompe aussi, mais dans des proportions moindres. Il reste le nombre de morts et de canaux de sauvetage. Pour les premiers, le mage ne s’embarrasse pas trop de précisions : « plus d’un milliers de morts » pour le Titan, précise-t-il et un millier pour le Titanic, ce flou énonciatif laisse croire que les chiffres du roman de Robertson sont prophétiques. En réalité, le roman dénombre 2987 morts quand les victimes ont été 1523 dans la réalité, ce qui fait tout de même une différence de près de 100 %… Quant aux canaux de sauvetage, il est vrai que dans les deux cas, ils étaient en nombre insuffisant. Ces remarques préliminaires ne convaincront sans doute pas celui qui veut croire que le roman de Robertson avait quelque chose de prophétique. Le croyant ne sera pas convaincu par ces précisions parce qu’il demeurera pour lui une narration romanesque qui anticipe, dans ses grandes lignes, et, avec une précision relative, dans ses détails, un drame qui surviendra 14 années plus tard. N’est-ce pas être de mauvaise foi que de nier cette réalité ? Morgan Robertson avait une très bonne culture maritime, il fut garçon de cabine pendant une dizaine d’années sur des cargos, fils de capitaine, c’est un écrivain spécialisé dans les 11 http://www.asmp.fr -‐ Académie des Sciences morales et politiques aventures maritimes. Il n’est donc pas saugrenu d’imaginer qu’il se tenait au courant des innovations des constructeurs de navires. La construction de bateau gigantesque était justement à l’ordre du jour avant même que Robertson n’écrive son roman. Il est donc improbable qu’il n’ait pas eu connaissance de la construction d’un des plus grands paquebots du monde, Le Gigantic. C’est d’autant plus improbable que le 16 septembre 1892, soit six ans avant la publication du roman prophétique, le New York Times mentionne l’événement : « La compagnie White Star a mandaté le grand constructeur naval Harland and Wolf de Belfast pour construire un transatlantique qui brisera tous les records de dimension et de vitesse. Le navire a déjà été baptisé Gigantic : il fera 700 pieds de long, 65 pieds 7 pouces et demi de large et possèdera une puissance de 45 000 CV. On prévoit qu'il atteindra une vitesse de croisière de 22 nœuds et une vitesse de pointe de 27 nœuds. De plus, il possédera trois hélices; deux seront disposées comme celles du Majestic et une troisième sera placée au centre. Ce navire devrait être prêt le 1er mars 1894. »10 Tant pour la puissance du moteur, que pour le nombre d’hélices ou pour les dimensions de son navire, le Titan de Robertson s’inspire sans doute du Gigantic qui espérait lui-même dépasser le Majestic. Les caractéristiques du Titan, qui paraissent au profane extraordinairement proches de celles du Titanic, sont, en fait, liées mécaniquement aux dimensions du paquebot. Ainsi, le nombre de compartiments étanches ne peut varier à l’infini et le nombre de canots de sauvetage étaient liés, à cette époque, au tonnage du bateau. Comme ils n’étaient pas dépendants du nombre de passagers, ils étaient forcément en nombre insuffisant, ce que Robertson savait parfaitement et ce qui a sans doute stimulé son imagination d’écrivain. C’est justement après le drame du Titanic que les choses vont changer. En d’autres termes, une fois que l’on a fixé le tonnage d’un bateau, un certain nombres d’éléments (nombre de cabine étanche, vitesse, puissance du moteur, nombre de canaux de sauvetage…) en découlent, dès lors, le prophétisme de Futility, devient beaucoup moins intrigant. Robertson n’a fait que suivre la compétition entre les constructeurs de navires et écrire un roman d’anticipation bien informé. De nombreux romans maritimes ont été écrits à cette époque, que l’un d’entre eux ait rencontré la tragique réalité n’a rien de surprenant. Rappellera-t-on que le naufrage du Titan et du Titanic survienne tous deux en avril ? Là encore, si Robertson veut narrer l’histoire d’un paquebot défiant les forces de la nature et réputé insubmersible, il lui faut trouver une cause de naufrage crédible. Compte tenu de la taille de navire, l’iceberg est un candidat idéal. Il sait, en bon connaisseur des choses de la 10 Je tire cette citation Bélanger, M. (1999). 12 http://www.asmp.fr -‐ Académie des Sciences morales et politiques mer, que ce danger est un des plus redoutables que doit affronter un bateau de grande envergure. Il sait encore que ce danger n’est réel qu’au mois d’avril, lors de la fonte des neige… On ne peut en vouloir à notre collègue Galifret de ne s’être pas tenu prêt à répondre convenablement à toutes les argumentations que peut opposer un croyant. Le problème est que cet exemple a une portée très générale. Ce fait est d’ailleurs tangible sur les forums sur Internet où parfois les croyants et le non-croyant s’opposent les uns aux autres. Parmi les 23 forums que j’ai étudiés, 211 points de vue sont exprimés, 83 défendent le point de vue de la croyance, 45 la combattent et 83 sont neutres. Ce qui frappe à la lecture des forums c’est que les sceptiques se contentent souvent d’écrire des messages ironiques, ils moquent la croyance plutôt qu’ils n’argumentent contre, alors que les défenseurs de l’énoncé convoquent des arguments certes inégaux (liens, vidéos, paragraphe copié / collé…), mais étayent leur point de vue. Parmi les posts proposés par ceux qui veulent défendre la croyance, 36 % sont soutenus par un document, un lien ou une argumentation développée, alors que ce n’est le cas que dans 10 % des cas pour les posts de « non-croyants ». Les hommes de science en général n’ont pas beaucoup d’intérêt, ni académiques, ni personnels, à consacrer du temps à cette concurrence, je le comprends, mais la conséquence un peu paradoxale de cette situation, c’est que les croyants, et à propos de toute sorte de sujets, ont réussi à instaurer un oligopole cognitif sur Internet, mais aussi dans les médias officiels qui sont devenus ultra-sensibles désormais aux sources d’informations hétérodoxes. On peut voir là une illustration du célèbre paradoxe d’Olson (1978). De quoi s’agit-il ? Ce sont ces situations où des individus ont un intérêt en commun, tout à gagner à agir collectivement, mais ne le font pas (c’est exactement la situation de la diffusion de la connaissance orthodoxe sur certains supports, notamment Internet). Pourquoi ? Parce que, explique Olson, beaucoup de ces individus comptent obtenir les bénéfices d’une revendication collective, sans avoir à en payer les coûts d’investissement (en terme de temps, d’énergie et même d’argent). C’est la stratégie du « laisser faire les autres ». Chacun ayant intérêt à laisser faire les autres pour obtenir un rapport bénéfices / coûts très avantageux, cela aboutit à ce que beaucoup s’abstiennent d’agir, beaucoup trop pour espérer atteindre ce but collectivement désirable. Ces situations de paradoxe d’Olson sont toujours favorables à des groupes, même lorsqu’ils sont très minoritaires, qui sont motivés pour imposer leur point de vue. Et c’est ainsi que la connaissance orthodoxe se retrouve paradoxalement mise en minorité sur bien des terrains. Je ne vois pas que le monde scientifique se saisisse de ce problème et s’engage désormais pied à pied dans cette concurrence. Je ne crois pas même que cela soit souhaitable pour l’intérêt général dans la 13 http://www.asmp.fr -‐ Académie des Sciences morales et politiques mesure où ce temps serait nécessairement prix sur celui, précieux, de la production de connaissance. Ce qu’il manque donc, et cela ouvre une piste pour trouver des solutions à cette situation, c’est un réseau de relais de la connaissance orthodoxe. Ce réseau existe, mais il est beaucoup trop faible, il l’est beaucoup plus en tout cas, que celui qui organisait jadis la réticulation sur notre territoire des sociétés savantes. Le site de l’enseignement supérieur et de la recherche dénombre 119 sociétés savantes aujourd’hui alors qu’il en existait plus de 1000 en 1900. Plus grave sans doute, à partir des années 2000, on observe un vieillissement des membres des sociétés savantes et un désintérêt des catégories les plus jeunes pour leurs activités. Ce n’est peut-être qu’une coïncidence, mais il se trouve que cette date correspond aussi à la diffusion du réseau Internet. Cette hypothèse est difficile à tester, mais on a souvent le sentiment que ce réseau a pris la main de la diffusion de l’information scientifique (ou prétendue telle). Un des enjeux importants me paraît être de penser la façon dont on pourrait réactiver ces relais et activer ou réactiver des réseaux de la science populaire. Il n’est pas exclu que l’Institut de France puisse jouer un rôle premier dans ce redéploiement. Une des solutions majeures du problème que nous rencontrons est avant tout microsocial, c’est aussi dans l’interlocution avec des proches, des individus familiers, que le sentiment de méfiance, peut reculer centimètre par centimètre. Plusieurs expériences ont montré que le fait d’avoir un rapport affectif avec le diffuseur d’une information, d’un message ou d’une croyance, avait tendance à la rendre plus crédible. Shérif et Hovland (1961) par exemple soulignent le fait que les individus ont tendance à surévaluer les compétences d’individus qu’ils apprécient, voire qu’ils aiment, alors qu’ils sous-estimeront celles d’individus qu’ils n’apprécient pas. C’est pourquoi il est si important de donner, en quelque sorte, une incarnation presque familière lorsque c’est possible au discours de la science. Je ne peux conclure sans mentionner, même si ce ne peut être considéré que comme une solution de long terme, les questions d’éducation. On pourrait s’étonner que l’augmentation généralisée dans les sociétés occidentales du niveau d’étude, ne coïncide pas avec une meilleure acceptation de la connaissance orthodoxe. Il a été montré maintes fois, en effet, qu’une bonne formation intellectuelle n’immunise pas du tout contre l’adhésion à toutes sortes de croyances. Les enquêtes menées par Boy et Michelat (1986) sur les croyances des Français concernant les parasciences, par exemple ont montré que la croyance au paranormal ou à l’astrologie touche, dans l’ordre croissant : le primaire, le primaire supérieur, le secondaire et le supérieur non scientifique. Dans le même ordre d’idées, on pourrait 14 http://www.asmp.fr -‐ Académie des Sciences morales et politiques mentionner que ceux qui adhèrent le plus facilement au mythe du monstre du loch Ness11 sont des individus diplômés, de même pour les adeptes de l’homéopathie, comme le fait remarquer Bouchayer (1986)… On pourrait multiplier les exemples, mais les études les plus frappantes sont celles qui montrent que même les croyances extrêmes, en tout cas celles qui inspirent des actes meurtriers, paraissent plus facilement endossées par des individus ayant un niveau de diplôme supérieur à la moyenne12, il n’en va pas différemment de ceux qui adhèrent à des mouvements sectaires13. Qu’on ne déduise pas de ces propos l’idée que je juge inutiles les efforts d’éducation, mais dans certains domaines, tout se passe comme si le développement de l’esprit critique, tant prisé par les sciences de l’éducation, avait plutôt aboutit à une forme de nihilisme cognitif qui vient irriguer le désaveu des experts et toute parole perçue comme officielle. Il serait tout à fait excessif de tenir pour responsables ces théories de l’éducation de la situation dans laquelle nous sommes, mais peut-être serait-il utile de reconsidérer une partie de l’enseignement des sciences et certaines des propositions des sciences de l’éducation en général, en tenant compte de ce que l’on commence à connaître assez bien : les situations, les structures de problèmes particulières (comme celle impliquant le risque par exemple) où l’on sait que la logique ordinaire s’égare. Il est donc urgent de redonner un sens, qui ne soit pas seulement une posture, à l’esprit critique entendu plutôt que comme une suspicion à l’égard de tout discours officiel, un effort fait pour penser sa propre pensée. Gérald Bronner 11 12 13 Selon une étude menée par Grimshaw et Lester citée par J-B. Renard (2010). Cf. Sageman (2004), Etienne (2005), Cherkaoui (2007), Krueger (2007) ou encore Ruby (2002). Cf. Duval (2002) ou Stupple (1984). 15 http://www.asmp.fr -‐ Académie des Sciences morales et politiques Bibliographie Bélanger, M. (1999), Sceptique Ascendant Sceptique, Edition Stanké, Montréal, 1999. Bouchayer F. (1986), « Les usagers des médecines alternatives : itinéraires thérapeutiques, culturels, existentiels », Revue française des affaires sociales, numéro hors-série, avril, pp. 105-115. Boy D. et Michelat G. (1986), « Croyances aux parasciences : dimensions sociales et culturelles », La Revue française de sociologie, XXVII. Bronner, G. (2003), L’Empire des croyances, Paris, Puf. Bronner, G. (2007), L’empire de l’erreur – Eléments de sociologie cognitive, Paris, Puf. Bronner, G. et Géhin, E. (2010a), L’inquiétant principe de précaution, Paris, Puf. Bronner, G. (2010b), « Ondes et croyances », La Revue des Deux Mondes, mars 2010, pp.5175. Bronner, G. (2011), « La révolution de l’information et l’irrationalisme », Bulletin de l’Académie des Sciences Morales et Politiques, janvier- juillet, pp.55-70. Casscells, W., Schoenberger, A. et Grayboys, T. (1978), « Interpretation by physicians of clinical laboratory results », New England Journal of Medecine, 299. Cherkaoui M. (2007), Good intentions – Max Weber and the Paradox of Unintended Consequences, Oxford, Bardwell Press. Cuniot, A. (1989), Incroyable… mais faux !, Bordeaux, L’horizon chimérique. Duval M. (2002), Un ethnologue au Mandarom, Paris, Puf. Etienne B. (2005), Les combattants suicidaires, Paris, L’aube. Gigerenzer, G. et Hoffrage, U. (1995), « How to improve bayesian reasonig without instruction : Frequency Format », Psychological Review, 102, pp.684-704. Gigerenzer, G. (1991), « How to Make Cognitive Illusions Disappear : Beyond Heuristics and Biases » », European Review of Social Psychology, 2, pp.83-115. 16 http://www.asmp.fr -‐ Académie des Sciences morales et politiques Girard, C. et Le Goff, A. (2010), La démocratie participative, Paris, Hermann. Griffith, R.M. (1949), « Odds ajustement by american horse-race betters », American Journal of Psychology, 1949, 62, pp.290-294. Houdé, O. et Guichart, E. (2001), « Negative priming effect after inhibition of number/length interference in a Piaget-like task », Developmental Science, vol. IV, n° 1.2 Krueger, A. (2007), What Makes a Terrorist: Economics and the Roots of Terrorism, Princeton University Press. Olson, M. (1978), La logique de l’action collective, Paris, Puf. Pagès, G. et Bouzitat C. (1999), En passant par hasard – Les probabilités de tous les jours, Paris, Vuibert. Piatelli Palmarini, M. (1995), La Réforme du jugement ou comment ne plus se tromper, Paris, Odile Jacob. Piatelli Palmarini, M. et Raude, J. (2006), Choix, décisions et préférences, Paris, Odile Jacob. Prelec, D. (1998), « The probability weighting function », Econometrica, 47, pp.313-327. Prestn, H.G. et Baratta, P. (1948), « An experimental study of the auction-value of an uncertain outcome », American Journal of Psychology, 61, 183-193. Raoul, D. (Ed.) (2009), Les lignes à très haute tension : quels impacts sur la santé et l’environnement ?, Compte rendu de l’audition publique du 29 janvier 2009, Office parlementaire d’évaluation des choix scientifiques et technologiques, Assemblée Nationale n°1556, Sénat n°307. Renard J-B. (2010), « Croyances fantastiques et rationalité », L’Année Sociologique, 60-1, pp.115-135. Ruby, C.L. (2002), « Are terrorists mentally deranged ? », Analysis of Social Issues and Public Policy, 2, pp.15-26. Shérif, M. et Hovland, C.I. (1961), Social judgment, Yales, New Haven, University Press. Stupple, D. (1984), « Mahatmas and Space Brothers : The Ideologies of Alleged Contact With Extraterrestrials », Journal of American Culture, n° 7, pp. 131-139. Tocqueville Alexis de (1992), De la démocratie en Amérique t. II, Paris, Gallimard, 1992. 17 http://www.asmp.fr -‐ Académie des Sciences morales et politiques Tversky, A. et Kahneman, D. (1986), « Framing of decisions and the psychology of choice », in (Elster Ed.) Rational choice, Oxford, Basil Blackwell. Tversky, A. et Shafir, E. (1992), « The Disjunction Effect in Choice under Uncertainty », Psychological Science, 3 (5), pp.305-309. 18