Certitudes, Incertitudes et comment nous les traitons ? Article de

Transcription

Certitudes, Incertitudes et comment nous les traitons ? Article de
Certitudes, incertitudes et comment nous les traitons.
Tous les jours nous prenons des décisions et nous nous évertuons à prévoir le
résultat de certaines actions ou les conséquences de certaines situations. Dois-je
acheter tel ou tel objet? Si je lui dis que je l’aime, quelle sera sa réponse? Est-ce
qu’il va pleuvoir demain? Est-que je change ce pneu usé maintenant ou la
semaine prochaine ? etc…
Dans certains cas, lorsque l’environnement est stable, que la situation est
simple et que nous l’avons déjà vécue un grand nombre de fois, notre prédiction
aura de grandes chances d’être exacte; si je lâche un livre à 1,50 m du sol je peux
prévoir qu’il va tomber et cela me semble le plus naturel du monde. Si je tourne
le bouton du robinet, je peux prévoir que l’eau va sortir même si je sais qu’il y a
également une petite chance que cela n’arrive pas, en cas de panne de réseau par
exemple. Mais cela me coûte moins d’énergie d’éliminer cette hypothèse peu
probable que de l’intégrer dans ma prévision (automatique) chaque fois que je
tourne le robinet (à moins bien sur que je n’habite une région où les pannes sont
fréquentes comme en Afrique sub-saharienne par exemple).
Lorsque la situation devient plus complexe et incertaine, du fait de
l’intervention d’un grand nombre de paramètres, nos prédictions deviennent de
plus en plus improbables, ce qui résulte en un inconfort accru que nous voudrons
éviter à plus ou moins long terme. Pour ce faire, notre cerveau va essayer de
réduire le problème insoluble ou la situation déroutante à quelque chose de
‘connu’, d’explicable par une logique simple afin de nous ramener à une situation
d’équilibre (homéostasie) qui coûte moins d’énergie. Cette opération, qui consiste
à procurer une réponse simple à une question compliquée, s’appelle la
substitution. Par exemple pour répondre à la question: ‘ quelle sera la cote de
popularité du président dans 6 mois? (complexe) nous substituons la question: ‘
quelle est sa cote de popularité aujourd’hui?’ (simple).
Outre la substitution, nos prédictions sont basées sur un grand nombre
d’autres heuristiques c’est à dire de computations automatiques du cerveau qui
sont pertinentes dans un grand nombre de cas mais peuvent nous induire dans
des erreurs fatales si on leur fait une confiance aveugle dans certaines
circonstances.
Daniel Kahneman dans son livre Thinking Fast and Slow, détaille un certain
nombre de ces heuristiques et montre que, même dans le monde sophistiqué de la
finance, de la bourse et de la science, elles se cachent derrière les batteries de
chiffres et les raisonnements sophistiqués.
Pour expliquer comment fonctionnent ces heuristiques qui, soit dit en
passant, ont été forgés au cours de l’évolution de l’espèce humaine par la
sélection naturelle, Kahneman (dans son article pour la revue Science écrit
conjointement avec Amos Tversky en 1974) donne l’exemple de l’estimation
subjective des tailles et des distances. Un objet nous apparaîtra d’autant plus
proche que ses contours sont nets. Dans la plupart des cas cette corrélation est
valide parce qu’il est en effet plus difficile de voir les contours d’un objet éloigné
que d’un objet proche. Mais cette heuristique amène la plupart des gens à sous
estimer la distance d’un objet par temps particulièrement clair et surestimer la
même distance par temps plus brumeux, comme le savent tous ceux qui
contemplent régulièrement les falaises du sud de l’Angleterre depuis la côte
française (elles semblent tellement plus proches par beau temps). Le fait de
‘compter’ sur la clarté des contours comme indicateur principal des distances
amène à des erreurs d’appréciation plus ou moins grandes et au conséquences
plus ou moins dramatiques. Estimer les côtes anglaises trop proches est en effet
moins grave si je suis sur la plage que si j’essaie d’atteindre l’Angleterre à la nage.
Pour illustrer la différence entre un jugement basé sur une heuristique et la
logique mathématique, Kahneman propose une petite expérience que je ne peux
m’empêcher de reproduire ici.
N’essayez pas de résoudre le problème, répondez le plus rapidement possible
à la question en faisant confiance à votre intuition.
Une batte de base-ball et la balle coûtent 1dollar et 10 cents.
La batte coûte un dollar de plus que la balle.
Combien coûte la balle?
Si vous êtes comme moi, et comme la plupart des gens normalement
constitués, une réponse ‘immédiate, attirante et fausse’ est venue à votre esprit:
10 cents. Faites le calcul, si la balle coutait 10 cents, le cout total serait de 1dollar
20 cents (puisque la batte coute un dollar de plus que la balle) La bonne réponse
est donc 5 cents. Rassurez-vous même ceux qui ont trouvé la bonne réponse ont
commencé par devoir résister à la tentation de la réponse intuitive évidente.
L’évolution nous a également doté de mécanismes qui nous rendent très
sensibles aux pertes, loss aversion en anglais, ce qui signifie qu’une perte
éventuelle pèsera plus qu’un gain potentiel comme l’illustre l’expérience suivante,
un classique des économistes comportementaux.
On propose à des personnes le choix entre 100% de chances de gagner 40€ et
50% de chances de gagner 100€. En toute logique il faudrait choisir la deuxième
option qui comporte une espérance de gain plus élevée. En effet celle-ci est
définie comme étant le produit de la valeur et de la probabilité. Dans le premier
cas ce produit est 400 et dans le deuxième 500, pourtant la plupart des gens (moi
y compris) optent pour la première solution car elle comporte une certitude de
gain tandis que la deuxième comporte une possibilité de perte à laquelle nous
sommes sensibles. Lors de notre évolution dans la savane au cours du pléocistène
il valait mieux en effet développer une certaine aversion pour les pertes pour, par
exemple, éviter de gaspiller de maigres ressources, ou être systématiquement
perdant au cours d’échanges de biens et de services.
Notons que même si nous connaissons la bonne solution, nous aurons
tendance à revenir à celle que nous dicte notre intuition comme vous pourrez
l’expérimenter en essayant de rapidement répondre une nouvelle fois aux
questions ci-dessus. Pour nous, êtres humains, la vérité pure, la logique, est
moins satisfaisante et partant moins importante qu’une certaine cohérence
narrative que nous élaborons spontanément à partir des données de base d’une
situation.
Je suis dans la rue, j’entends un cri, je vois un homme courir; voilà des
évènements a priori erratiques (situation instable/inconfortable) que mon
cerveau va, en une fraction de seconde, transformer en scénario plausible
(situation stable/confortable) à savoir: ‘La personne qui crie est la victime et celle
qui court le voleur’. Vous l’aviez probablement fait avant de lire l’explication. Ce
scénario plausible est basé sur les information disponibles et s’élabore en
n’utilisant que ces éléments disponibles et en occultant toutes les autres
possibilités. La relation de cause à effet que j’ai établie entre le cri et la course de
la deuxième personne est donc la plus intéressante, non parce que cette
hypothèse est réellement la plus probable mais parce que c’est celle qui peut
rendre la situation cohérente, explicable et donc intégrable, le plus rapidement et
à moindre frais. Mon cerveau recherche un état d’équilibre et utilise les chemins
les plus courts pour y parvenir. Kahneman appelle ce phénomène what you see is
all there is WYSIATI qui nous fait confondre l’information disponible avec la
totalité de l’information et prendre nos décisions ou faire nos prédictions en
conséquence.
Lorsqu’il s’agit de problèmes simples, les erreurs marginales du système
peuvent être ignorées sans risque mais ces mêmes types de biais cognitifs se
retrouvent dans l’estimation de probabilités que nous faisons à propos de
situations complexes à l’issue incertaine, telles que la victoire d’une élection
présidentielle ou la valeur future d’une monnaie ou d’une entreprise. Dans ces
cas (santé, politique, guerre), les conséquences d’une mauvaise appréciation
seront nettement plus graves d’autant plus si la décision prise affecte un grand
nombre de personnes. Ceci a favorisé l’émergence de l’espèce dite des « experts »
c’est à dire d’individus ayant accumulé un grand savoir dans un domaine
spécifique, savoir qui est sensé augmenter la validité de leurs prédictions. Or les
cerveaux de ces experts on été façonnés de la même manière que les nôtres au
cours de l’évolution et malgré leur savoir, ils peuvent être victimes des mêmes
heuristiques. Kahneman montre que, même dans certains cas hautement
sophistiqués, leur prédiction ne vaut pas mieux que le hasard pur!
Invité à donner une conférence à un groupe de conseillers en investissement il
reçut, en guise de matériel préparatoire un tableau reprenant anonymement les
résultats de 27 conseillers pour les 8 dernières années. Le chiffre, c’est à dire la
taille du gain atteint par un conseiller était lié à celle de son bonus de fin d’année.
Kahneman voulait savoir s’il y avait des différences de talent parmi les conseillers
et, à cette fin, il calcula le coefficient de corrélation entre les classements pour
chaque paire d’années (½, ⅓, ¼ etc…). La moyenne des 28 corrélations était de
0.1 c’est à dire qu’aucune différence de talent intrinsèque ne pouvait expliquer la
différence de résultat sur une période de 8 années. Les conseils (grassement
rémunérés) donnés par ces experts ne valaient pas mieux qu’un jet de dés! Les
experts peuvent être victime d’une ‘illusion de compétence’ qui leur fait croire
que leur prédictions seront valides à tous les coups. La question, dit Kahneman,
n’est pas de se demander si les experts sont compétents mais si le monde est
prévisible. Manifestement il ne l’est pas et nous ne devrions donc pas nous fier à
ce point aux prédictions diverses. Pour rappel, aucune des grandes crises
économiques ou naturelles des XX° et XXI° siècles n’ont été prédites par les
experts. (Citons au hasard, la crise de 1929, l’invasion de la Pologne par Hitler,
la première crise pétrolière en 1971, les génocides Cambodgiens et Rwandais,
l’attentat du WTC, Fukushima etc…)
Nous devrions également être très prudents quant aux affirmations des
assessments centers qui prétendent prédire les caractéristiques comportementales et
les futures aptitudes de leadership des candidats en se basant sur un nombre très
limité d’observations faites dans un contexte très particulier et ignorent
totalement la grande masse d’informations dont ils ne disposent pas. Encore une
occurrence de WYSIATI comme le montre l’exemple suivant.
Lorsqu’il était dans l’armée Israélienne Kahneman et un collègue, fraichement
diplômés en psychologie, reçurent comme mission d’évaluer les capacités de
leadership de différents candidats. A cet effet, ils utilisèrent un exercice au cours
duquel un groupe de 8 personnes devait franchir un mur à l’aide d’une perche
qui ne pouvait toucher ni le mur ni le sol, faute de quoi ils devaient recommencer
depuis le début. Les aptitudes des uns et des autres émergeaient, dans la plupart
des cas, de manière claire et les ‘assesseurs’ n’avaient aucun mal à se mettre
d’accord et à établir un score de leadership précis sensé prévoir la position future
du candidat au sein de l’armée. La sureté du jugement était ici renforcée par
l’unanimité du groupe d’observateurs et de l’évidence des faits (untel à pris
l’initiative, untel s’est mis en colère, untel s’est soumis etc…)
Le problème est que, lorsque quelques mois plus tard leurs résultats furent
comparés à ce qui s’était avéré dans la réalité, leurs prédictions étaient à peine
meilleures que s’ils avaient donné des points en se fiant totalement au hasard.
Lorsqu’on sait que le futur d’une carrière est en jeu lors d’une session
d’assessment, on est en droit de se montrer circonspect quant aux prédictions
faites à partir de quelques exercices, hors contexte et au cours d’une seule
journée.
Dans d’autres cas c’est le trop d’information et la trop grande interaction
humaine qui est source de confusion dans la prédiction. Parfois, plutôt que de
s’en remettre à son expertise, son expérience ou à un long entretien empli de
subjectivité, il vaut mieux utiliser un algorithme c’est à dire une suite
d’opérations mathématiques qui vont calculer le degré de certitude du résultat.
Ceci est évidemment éminemment choquant pour tous les experts qui voient
leurs années d’investissement et d’accumulation de connaissances mises en
compétition avec un froid calcul mais cela demeure vrai dans certains cas comme
le démontrent les recherches notamment de Paul Meehl et Robyn Dawes.
Un bébé qui ne respire pas bien au cours des premières minutes après la
naissance court un grand risque de dommages irréversibles au cerveau et
jusqu’en 1953 l’évaluation de la gravité de cet état était laissé au jugement du
personnel médical ce qui engendrait un nombre d’erreurs et donc de décès non
négligeable. C’est alors que Virginia Agpar détermina les 5 variables qui
permettraient à coup sur un diagnostic efficace: la fréquence cardiaque, la
respiration, le réflexe, la tonicité musculaire et la couleur. Chaque valeur pouvait
être cotée de 0 à 2 ce qui permet de dire avec un grand degré de certitude qu’un
bébé qui a un score total de 8 ou plus sera probablement rose, se tortillant,
pleurant, grimaçant avec une rythme cardiaque de 100 ou plus, c’est à dire en
bonne forme. Un bébé avec un score inférieur ou égal à 4 sera probablement
bleuâtre, flasque, passif, avec une fréquence cardiaque basse. Ce test a largement
contribué à réduire la mortalité infantile et est encore utilisé aujourd’hui dans
toutes les salles d’obstétrique.
Est-ce à dire qu’il ne faut plus écouter les experts? Certainement pas, mais il y
a deux conditions nécessaires pour qu’une expertise puisse se développer:
1. L’environnement doit être suffisamment stable pour qu’on puisse faire des
prédictions. l’atmosphère terrestre étant moins stable que le jeu d’échecs un
expert en échecs est plus fiable dans son domaine qu’un expert en météorologie
dans le sien.
2. Il faut à l’expert l’opportunité d’apprendre les régularités (invariants) de
son domaine pendant un long laps de temps. Un pompier qui peut baser ses
décisions sur une longue expérience du feu et de nombreux cas divers fera de
meilleures prédictions en situation d’urgence qu’un novice, sa banque de données
étant plus grande.
On voit que dans le cas de la finance internationale par exemple, ces deux
conditions, notamment à cause de l’évolution rapide des outils et de la vitesse des
transactions, ne sont pas remplies ce qui rend la tâche des experts encore plus
complexe et leur prédictions d’autant moins fiables.
Un des exemples est le rachat de la banque ABN AMRO en 2007 par un
consortium mené par la Royal Bank of Scotland et dont il est apparu (mais pas
seulement à la lumière de la crise de 2008) qu’elle avait été menée en se basant
sur le contenu de deux dépliants et un cd-rom (!) et avec l’unanimité du conseil
d’administration comprenant 17 personnes à l’époque. Le rapport de la FSA (
Financial Services Authority) montre clairement que selon les dires de Johnny
Cameron, directeur du département d’investissement de la RBS, la principale
raison du rachat reposait sur un biais de généralisation. En effet, RBS avait
racheté NatWest en 1999 et ce rachat était de nature hostile c’est à dire qu’il ne
permettait pas une analyse préalable détaillée de la situation de la banque autre
que via des renseignements indirects. Il se trouva que NatWest réserva
d’excellentes surprises aux acheteurs et que comme l’on dit: ‘la mariée tint toutes
ses promesses.’ Le rachat de ABN AMRO était hostile également et, selon
Johnny Cameron, le conseil d’administration se dit tout simplement: ce qui a
marché avec NatWest qui était une acquisition hostile, marchera ici également.
Notons également que RBS était en compétition avec la Barclays pour ce rachat
et qu’ils ont fait monter les prix jusqu’à ce que la Barclays, dégoutée, se retire.
Devant la Commons Treasury Select Commitee le président de la RBS Sir Tom
Mc Killop avoua: « le rachat de ABN AMRO était une grossière erreur… on a
acheté au plus haut de la valeur et tout ce qu’on a payé était de trop. »(71
milliards de Livres Sterling payés avec la banque espagnole Santander et la
hollandaise Fortis.)
Il semblerait que la motivation d’affirmer son statut (en misant toujours plus
haut) dans une compétition avec la Barclays, qui ressemble à s’y méprendre à
celle de deux mâles dominants dans une tribu de chimpanzés, ait été plus forte
qu’une analyse froide et rigoureuse qu’on serait en droit d’attendre de la part de
l’une plus grandes banques de Grande Bretagne.
On le voit, la plupart de nos choix sont établis en fonction de stratégies
comportementales et de prédictions situationnelles qui étaient pertinentes pour
nos ancêtres mais le sont souvent beaucoup moins dans notre monde
technologique où le nombre de paramètres pouvant influencer un choix, une
décision ou le résultat d’une situation ont augmenté de façon drastique. Notre
expertise et nos nombreux outils peuvent créer une ‘illusion de contrôle’, un
sentiment d’omniscience qui ne disparaît que lorsque le voile se déchire et que
l’on se retrouve face aux conséquences que l’on avait négligé de prendre en
compte.
Si l’on veut faire usage optimal du libre arbitre dans ses décisions
individuelles ou dans celles de son groupe social (entreprise, Ong, association) il
est d’autant plus important de connaître ces biais en détail, d’apprendre à les
débusquer et de les remplacer par une réflexion participative, forcément plus
longue et complexe mais ô combien plus satisfaisante.
Jonathan FOX