Certitudes, Incertitudes et comment nous les traitons ? Article de
Transcription
Certitudes, Incertitudes et comment nous les traitons ? Article de
Certitudes, incertitudes et comment nous les traitons. Tous les jours nous prenons des décisions et nous nous évertuons à prévoir le résultat de certaines actions ou les conséquences de certaines situations. Dois-je acheter tel ou tel objet? Si je lui dis que je l’aime, quelle sera sa réponse? Est-ce qu’il va pleuvoir demain? Est-que je change ce pneu usé maintenant ou la semaine prochaine ? etc… Dans certains cas, lorsque l’environnement est stable, que la situation est simple et que nous l’avons déjà vécue un grand nombre de fois, notre prédiction aura de grandes chances d’être exacte; si je lâche un livre à 1,50 m du sol je peux prévoir qu’il va tomber et cela me semble le plus naturel du monde. Si je tourne le bouton du robinet, je peux prévoir que l’eau va sortir même si je sais qu’il y a également une petite chance que cela n’arrive pas, en cas de panne de réseau par exemple. Mais cela me coûte moins d’énergie d’éliminer cette hypothèse peu probable que de l’intégrer dans ma prévision (automatique) chaque fois que je tourne le robinet (à moins bien sur que je n’habite une région où les pannes sont fréquentes comme en Afrique sub-saharienne par exemple). Lorsque la situation devient plus complexe et incertaine, du fait de l’intervention d’un grand nombre de paramètres, nos prédictions deviennent de plus en plus improbables, ce qui résulte en un inconfort accru que nous voudrons éviter à plus ou moins long terme. Pour ce faire, notre cerveau va essayer de réduire le problème insoluble ou la situation déroutante à quelque chose de ‘connu’, d’explicable par une logique simple afin de nous ramener à une situation d’équilibre (homéostasie) qui coûte moins d’énergie. Cette opération, qui consiste à procurer une réponse simple à une question compliquée, s’appelle la substitution. Par exemple pour répondre à la question: ‘ quelle sera la cote de popularité du président dans 6 mois? (complexe) nous substituons la question: ‘ quelle est sa cote de popularité aujourd’hui?’ (simple). Outre la substitution, nos prédictions sont basées sur un grand nombre d’autres heuristiques c’est à dire de computations automatiques du cerveau qui sont pertinentes dans un grand nombre de cas mais peuvent nous induire dans des erreurs fatales si on leur fait une confiance aveugle dans certaines circonstances. Daniel Kahneman dans son livre Thinking Fast and Slow, détaille un certain nombre de ces heuristiques et montre que, même dans le monde sophistiqué de la finance, de la bourse et de la science, elles se cachent derrière les batteries de chiffres et les raisonnements sophistiqués. Pour expliquer comment fonctionnent ces heuristiques qui, soit dit en passant, ont été forgés au cours de l’évolution de l’espèce humaine par la sélection naturelle, Kahneman (dans son article pour la revue Science écrit conjointement avec Amos Tversky en 1974) donne l’exemple de l’estimation subjective des tailles et des distances. Un objet nous apparaîtra d’autant plus proche que ses contours sont nets. Dans la plupart des cas cette corrélation est valide parce qu’il est en effet plus difficile de voir les contours d’un objet éloigné que d’un objet proche. Mais cette heuristique amène la plupart des gens à sous estimer la distance d’un objet par temps particulièrement clair et surestimer la même distance par temps plus brumeux, comme le savent tous ceux qui contemplent régulièrement les falaises du sud de l’Angleterre depuis la côte française (elles semblent tellement plus proches par beau temps). Le fait de ‘compter’ sur la clarté des contours comme indicateur principal des distances amène à des erreurs d’appréciation plus ou moins grandes et au conséquences plus ou moins dramatiques. Estimer les côtes anglaises trop proches est en effet moins grave si je suis sur la plage que si j’essaie d’atteindre l’Angleterre à la nage. Pour illustrer la différence entre un jugement basé sur une heuristique et la logique mathématique, Kahneman propose une petite expérience que je ne peux m’empêcher de reproduire ici. N’essayez pas de résoudre le problème, répondez le plus rapidement possible à la question en faisant confiance à votre intuition. Une batte de base-ball et la balle coûtent 1dollar et 10 cents. La batte coûte un dollar de plus que la balle. Combien coûte la balle? Si vous êtes comme moi, et comme la plupart des gens normalement constitués, une réponse ‘immédiate, attirante et fausse’ est venue à votre esprit: 10 cents. Faites le calcul, si la balle coutait 10 cents, le cout total serait de 1dollar 20 cents (puisque la batte coute un dollar de plus que la balle) La bonne réponse est donc 5 cents. Rassurez-vous même ceux qui ont trouvé la bonne réponse ont commencé par devoir résister à la tentation de la réponse intuitive évidente. L’évolution nous a également doté de mécanismes qui nous rendent très sensibles aux pertes, loss aversion en anglais, ce qui signifie qu’une perte éventuelle pèsera plus qu’un gain potentiel comme l’illustre l’expérience suivante, un classique des économistes comportementaux. On propose à des personnes le choix entre 100% de chances de gagner 40€ et 50% de chances de gagner 100€. En toute logique il faudrait choisir la deuxième option qui comporte une espérance de gain plus élevée. En effet celle-ci est définie comme étant le produit de la valeur et de la probabilité. Dans le premier cas ce produit est 400 et dans le deuxième 500, pourtant la plupart des gens (moi y compris) optent pour la première solution car elle comporte une certitude de gain tandis que la deuxième comporte une possibilité de perte à laquelle nous sommes sensibles. Lors de notre évolution dans la savane au cours du pléocistène il valait mieux en effet développer une certaine aversion pour les pertes pour, par exemple, éviter de gaspiller de maigres ressources, ou être systématiquement perdant au cours d’échanges de biens et de services. Notons que même si nous connaissons la bonne solution, nous aurons tendance à revenir à celle que nous dicte notre intuition comme vous pourrez l’expérimenter en essayant de rapidement répondre une nouvelle fois aux questions ci-dessus. Pour nous, êtres humains, la vérité pure, la logique, est moins satisfaisante et partant moins importante qu’une certaine cohérence narrative que nous élaborons spontanément à partir des données de base d’une situation. Je suis dans la rue, j’entends un cri, je vois un homme courir; voilà des évènements a priori erratiques (situation instable/inconfortable) que mon cerveau va, en une fraction de seconde, transformer en scénario plausible (situation stable/confortable) à savoir: ‘La personne qui crie est la victime et celle qui court le voleur’. Vous l’aviez probablement fait avant de lire l’explication. Ce scénario plausible est basé sur les information disponibles et s’élabore en n’utilisant que ces éléments disponibles et en occultant toutes les autres possibilités. La relation de cause à effet que j’ai établie entre le cri et la course de la deuxième personne est donc la plus intéressante, non parce que cette hypothèse est réellement la plus probable mais parce que c’est celle qui peut rendre la situation cohérente, explicable et donc intégrable, le plus rapidement et à moindre frais. Mon cerveau recherche un état d’équilibre et utilise les chemins les plus courts pour y parvenir. Kahneman appelle ce phénomène what you see is all there is WYSIATI qui nous fait confondre l’information disponible avec la totalité de l’information et prendre nos décisions ou faire nos prédictions en conséquence. Lorsqu’il s’agit de problèmes simples, les erreurs marginales du système peuvent être ignorées sans risque mais ces mêmes types de biais cognitifs se retrouvent dans l’estimation de probabilités que nous faisons à propos de situations complexes à l’issue incertaine, telles que la victoire d’une élection présidentielle ou la valeur future d’une monnaie ou d’une entreprise. Dans ces cas (santé, politique, guerre), les conséquences d’une mauvaise appréciation seront nettement plus graves d’autant plus si la décision prise affecte un grand nombre de personnes. Ceci a favorisé l’émergence de l’espèce dite des « experts » c’est à dire d’individus ayant accumulé un grand savoir dans un domaine spécifique, savoir qui est sensé augmenter la validité de leurs prédictions. Or les cerveaux de ces experts on été façonnés de la même manière que les nôtres au cours de l’évolution et malgré leur savoir, ils peuvent être victimes des mêmes heuristiques. Kahneman montre que, même dans certains cas hautement sophistiqués, leur prédiction ne vaut pas mieux que le hasard pur! Invité à donner une conférence à un groupe de conseillers en investissement il reçut, en guise de matériel préparatoire un tableau reprenant anonymement les résultats de 27 conseillers pour les 8 dernières années. Le chiffre, c’est à dire la taille du gain atteint par un conseiller était lié à celle de son bonus de fin d’année. Kahneman voulait savoir s’il y avait des différences de talent parmi les conseillers et, à cette fin, il calcula le coefficient de corrélation entre les classements pour chaque paire d’années (½, ⅓, ¼ etc…). La moyenne des 28 corrélations était de 0.1 c’est à dire qu’aucune différence de talent intrinsèque ne pouvait expliquer la différence de résultat sur une période de 8 années. Les conseils (grassement rémunérés) donnés par ces experts ne valaient pas mieux qu’un jet de dés! Les experts peuvent être victime d’une ‘illusion de compétence’ qui leur fait croire que leur prédictions seront valides à tous les coups. La question, dit Kahneman, n’est pas de se demander si les experts sont compétents mais si le monde est prévisible. Manifestement il ne l’est pas et nous ne devrions donc pas nous fier à ce point aux prédictions diverses. Pour rappel, aucune des grandes crises économiques ou naturelles des XX° et XXI° siècles n’ont été prédites par les experts. (Citons au hasard, la crise de 1929, l’invasion de la Pologne par Hitler, la première crise pétrolière en 1971, les génocides Cambodgiens et Rwandais, l’attentat du WTC, Fukushima etc…) Nous devrions également être très prudents quant aux affirmations des assessments centers qui prétendent prédire les caractéristiques comportementales et les futures aptitudes de leadership des candidats en se basant sur un nombre très limité d’observations faites dans un contexte très particulier et ignorent totalement la grande masse d’informations dont ils ne disposent pas. Encore une occurrence de WYSIATI comme le montre l’exemple suivant. Lorsqu’il était dans l’armée Israélienne Kahneman et un collègue, fraichement diplômés en psychologie, reçurent comme mission d’évaluer les capacités de leadership de différents candidats. A cet effet, ils utilisèrent un exercice au cours duquel un groupe de 8 personnes devait franchir un mur à l’aide d’une perche qui ne pouvait toucher ni le mur ni le sol, faute de quoi ils devaient recommencer depuis le début. Les aptitudes des uns et des autres émergeaient, dans la plupart des cas, de manière claire et les ‘assesseurs’ n’avaient aucun mal à se mettre d’accord et à établir un score de leadership précis sensé prévoir la position future du candidat au sein de l’armée. La sureté du jugement était ici renforcée par l’unanimité du groupe d’observateurs et de l’évidence des faits (untel à pris l’initiative, untel s’est mis en colère, untel s’est soumis etc…) Le problème est que, lorsque quelques mois plus tard leurs résultats furent comparés à ce qui s’était avéré dans la réalité, leurs prédictions étaient à peine meilleures que s’ils avaient donné des points en se fiant totalement au hasard. Lorsqu’on sait que le futur d’une carrière est en jeu lors d’une session d’assessment, on est en droit de se montrer circonspect quant aux prédictions faites à partir de quelques exercices, hors contexte et au cours d’une seule journée. Dans d’autres cas c’est le trop d’information et la trop grande interaction humaine qui est source de confusion dans la prédiction. Parfois, plutôt que de s’en remettre à son expertise, son expérience ou à un long entretien empli de subjectivité, il vaut mieux utiliser un algorithme c’est à dire une suite d’opérations mathématiques qui vont calculer le degré de certitude du résultat. Ceci est évidemment éminemment choquant pour tous les experts qui voient leurs années d’investissement et d’accumulation de connaissances mises en compétition avec un froid calcul mais cela demeure vrai dans certains cas comme le démontrent les recherches notamment de Paul Meehl et Robyn Dawes. Un bébé qui ne respire pas bien au cours des premières minutes après la naissance court un grand risque de dommages irréversibles au cerveau et jusqu’en 1953 l’évaluation de la gravité de cet état était laissé au jugement du personnel médical ce qui engendrait un nombre d’erreurs et donc de décès non négligeable. C’est alors que Virginia Agpar détermina les 5 variables qui permettraient à coup sur un diagnostic efficace: la fréquence cardiaque, la respiration, le réflexe, la tonicité musculaire et la couleur. Chaque valeur pouvait être cotée de 0 à 2 ce qui permet de dire avec un grand degré de certitude qu’un bébé qui a un score total de 8 ou plus sera probablement rose, se tortillant, pleurant, grimaçant avec une rythme cardiaque de 100 ou plus, c’est à dire en bonne forme. Un bébé avec un score inférieur ou égal à 4 sera probablement bleuâtre, flasque, passif, avec une fréquence cardiaque basse. Ce test a largement contribué à réduire la mortalité infantile et est encore utilisé aujourd’hui dans toutes les salles d’obstétrique. Est-ce à dire qu’il ne faut plus écouter les experts? Certainement pas, mais il y a deux conditions nécessaires pour qu’une expertise puisse se développer: 1. L’environnement doit être suffisamment stable pour qu’on puisse faire des prédictions. l’atmosphère terrestre étant moins stable que le jeu d’échecs un expert en échecs est plus fiable dans son domaine qu’un expert en météorologie dans le sien. 2. Il faut à l’expert l’opportunité d’apprendre les régularités (invariants) de son domaine pendant un long laps de temps. Un pompier qui peut baser ses décisions sur une longue expérience du feu et de nombreux cas divers fera de meilleures prédictions en situation d’urgence qu’un novice, sa banque de données étant plus grande. On voit que dans le cas de la finance internationale par exemple, ces deux conditions, notamment à cause de l’évolution rapide des outils et de la vitesse des transactions, ne sont pas remplies ce qui rend la tâche des experts encore plus complexe et leur prédictions d’autant moins fiables. Un des exemples est le rachat de la banque ABN AMRO en 2007 par un consortium mené par la Royal Bank of Scotland et dont il est apparu (mais pas seulement à la lumière de la crise de 2008) qu’elle avait été menée en se basant sur le contenu de deux dépliants et un cd-rom (!) et avec l’unanimité du conseil d’administration comprenant 17 personnes à l’époque. Le rapport de la FSA ( Financial Services Authority) montre clairement que selon les dires de Johnny Cameron, directeur du département d’investissement de la RBS, la principale raison du rachat reposait sur un biais de généralisation. En effet, RBS avait racheté NatWest en 1999 et ce rachat était de nature hostile c’est à dire qu’il ne permettait pas une analyse préalable détaillée de la situation de la banque autre que via des renseignements indirects. Il se trouva que NatWest réserva d’excellentes surprises aux acheteurs et que comme l’on dit: ‘la mariée tint toutes ses promesses.’ Le rachat de ABN AMRO était hostile également et, selon Johnny Cameron, le conseil d’administration se dit tout simplement: ce qui a marché avec NatWest qui était une acquisition hostile, marchera ici également. Notons également que RBS était en compétition avec la Barclays pour ce rachat et qu’ils ont fait monter les prix jusqu’à ce que la Barclays, dégoutée, se retire. Devant la Commons Treasury Select Commitee le président de la RBS Sir Tom Mc Killop avoua: « le rachat de ABN AMRO était une grossière erreur… on a acheté au plus haut de la valeur et tout ce qu’on a payé était de trop. »(71 milliards de Livres Sterling payés avec la banque espagnole Santander et la hollandaise Fortis.) Il semblerait que la motivation d’affirmer son statut (en misant toujours plus haut) dans une compétition avec la Barclays, qui ressemble à s’y méprendre à celle de deux mâles dominants dans une tribu de chimpanzés, ait été plus forte qu’une analyse froide et rigoureuse qu’on serait en droit d’attendre de la part de l’une plus grandes banques de Grande Bretagne. On le voit, la plupart de nos choix sont établis en fonction de stratégies comportementales et de prédictions situationnelles qui étaient pertinentes pour nos ancêtres mais le sont souvent beaucoup moins dans notre monde technologique où le nombre de paramètres pouvant influencer un choix, une décision ou le résultat d’une situation ont augmenté de façon drastique. Notre expertise et nos nombreux outils peuvent créer une ‘illusion de contrôle’, un sentiment d’omniscience qui ne disparaît que lorsque le voile se déchire et que l’on se retrouve face aux conséquences que l’on avait négligé de prendre en compte. Si l’on veut faire usage optimal du libre arbitre dans ses décisions individuelles ou dans celles de son groupe social (entreprise, Ong, association) il est d’autant plus important de connaître ces biais en détail, d’apprendre à les débusquer et de les remplacer par une réflexion participative, forcément plus longue et complexe mais ô combien plus satisfaisante. Jonathan FOX