Introduction aux approches économiques de l`incertitude - Hal-SHS

Transcription

Introduction aux approches économiques de l`incertitude - Hal-SHS
Introduction aux approches économiques de l’incertitude
Minh Ha-Duong
To cite this version:
Minh Ha-Duong. Introduction aux approches économiques de l’incertitude. 2002. <halshs00008510>
HAL Id: halshs-00008510
https://halshs.archives-ouvertes.fr/halshs-00008510
Submitted on 31 Jan 2006
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destinée au dépôt et à la diffusion de documents
scientifiques de niveau recherche, publiés ou non,
émanant des établissements d’enseignement et de
recherche français ou étrangers, des laboratoires
publics ou privés.
Introduction aux approches économiques de la
gestion de l’incertitude∗
Minh Ha Duong†
26 septembre 2002
Résumé
Cette communication définit quelques mots au sens où les entendent les
économistes étudiant l’incertitude, les politiques climatiques et la modélisation
intégrée. La première partie expose deux exemples pédagogiques définissant
d’abord risque, incertitude, surprise, stratégie contingente. Pour l’incertitude qui n’est pas du risque, les probabilités subjectives et les critères
safety first avec la valeur exposée au risque, les possibilités à la ShackleZadeh, le modèle de Dempster-Shafer ainsi que les probabilités imprécises
dites aussi non-additives sont discutés. La seconde partie expose l’approche de l’incertitude dans les modèles : analyse de risque, sensitivité,
Monte-Carlo et scénarios, puis analyse des bornes et viabilité et enfin
l’optimisation dynamique stochastique.
English summary :
This paper introduces a few words used by economists studying uncertainty, climate policy and integrated assessment models. Section one uses two pedagogical
examples to define risk, uncertainty, surprise and contingent strategy. Regarding uncertainty that is not risk, subjective probabilities with safety-first criteria and value
at risk ; Shackle-Zadeh possibilities ; Dempster-Shafer evidence theory as well as imprecise probabilities are discussed. Section two exposes how uncertainty is treated in
integated assessment models applied to climate policy analysis. It deals first with risk
analysis, exposing sensitivity analysis, Monte Carlo methods and scenario building.
Then the principles of bounding analysis are developped with viability theory. Finaly,
the stochastic dynamic optimisation approach is illustrated.
Mots-clés : Risque, Incertitude, Utilité, Probabilités imprécises, Modèles
intégrés, Changement climatique.
JEL : B40, C63, D80, Q25
∗ Ce
texte est parti d’une conférence prononcée à l’école des Houches “Incertitude et
décision : le cas du changement climatique” en octobre 1999, organisée par Richard Topol
et Daniel Vidal-Madjar du CNRS.Qu’ils en soient ici remerciés, ainsi que mon directeur JeanCharles Hourcade, mon collègue et ami Nicolas Treich et deux rapporteurs anonymes.
† Chargé de Recherche au CIRED, CNRS. [email protected].
1
1
Introduction
Ce texte a pour but d’expliquer en quoi consistent les approches de la gestion de l’incertitude en économie. Il ne s’agit pas d’une synthèse disciplinaire,
voir Cohen and Tallon [2000] pour celà, mais au contraire d’une introduction
écrite dans une perspective interdisciplinaire, assaisonnée toutefois de quelques
pistes de recherche originales.
Etant entendu que la théorie de la décision dépasse largement le seul cadre
des sciences économiques, ce texte introduit les concepts les plus utilisés en
économie de l’environnement, en particulier par les modèles intégrés analysant
les politiques vis à vis du changement climatique. Le fil directeur est la maximisation de l’espérance de l’utilité.
La section suivante 2 expose intuitivement le vocabulaire et les concepts de
base : décision, ignorance, incertitude, risque. L’exemple classique utilisé est
celui du simple tirage dans une urne. En section 3, un autre exemple expose
la notion de décision séquentielle et de valeur d’option, et surtout le modèle de
l’espérance de l’utilité. Puis quelques approches théoriques générales de l’incertitude sont discutées en section 4 : probabilités subjectives, possibilités, DempsterShafer et probabilités imprécises.
La deuxième partie illustre la mise en pratique des méthodes de gestion de
l’incertitude dans des modèles appliqués, sur le thème des analyses intégrées des
politiques climatiques. La section 5 traite de l’analyse de risque et la viabilité,
et la section 6 illustre les modèles de décision séquentielle.
2
2.1
Concepts de base
Incertitude et décision
Pour commencer, il convient de distinguer l’incertitude de trois autres aspects de la décision en général. L’exemple du problème du changement climatique est illustratif à cet égard. C’est une situation multi-acteurs, les parties
prenantes aux négociations sont nombreuses puisqu’il s’agit tant des états que
des organisations non gouvernementales d’intérêt économique ou citoyennes.
C’est une situation de décision multi-critères, car on peut difficilement mesurer
sur une même échelle des effets comme l’augmentation possible de la mortalité et la migration des écosystèmes. Enfin, c’est aussi une situation de décision
inter-temporelle, et même intergénérationelle.
L’analyse qui suit ignorera volontairement les aspects multi-acteurs et multicritères, même si en pratique elles peuvent parfois être tout aussi importantes
que l’incertitude. L’exemple du droit au développement durable, qui signifie qu’il
est nécessaire de répondre aux besoins des générations présentes sans empêcher
les générations futures de répondre aux leurs, illustre ces interdépendances :
pour certains le développement durable se rapporte d’abord au risque environnemental et aux ressources naturelles à long terme ; pour d’autres c’est d’abord
un aspect des relations entre pays en développement et pays développés.
2
La limite la plus difficile à tracer est celle entre l’aspect non déterministe
et l’aspect inter-temporel. Quelques exemples peuvent montrer que les deux
aspects sont fondamentalement distincts. Le choix d’une route vers la Lune
est un problème déterministe pour lequel le temps joue un rôle important. A
l’opposé, la stratégie à adopter en salle de ventes aux enchères est un problème
non déterministe pour lequel on peut négliger la date à laquelle ont lieu les
évènements, seul leur ordre compte.
Pour l’étude des problèmes d’environnement, il s’avère nécessaire de conserver la liaison entre temps et incertitude. Par exemple, le principe de précaution
stipule que en cas de dommages potentiels graves ou irréversibles, il ne faut ne
pas attendre la certitude pour agir. Les sections qui suivent exposeront d’abord la
théorie de décision sous incertitude à choix unique, avant de revenir sur l’aspect
dynamique de la question.
2.2
Niveaux d’ignorance : risque, incertitude et surprise
Traditionnellement, la Statistique et les Probabilités formalisent les situations de risque. Dans une discipline comme la Physique, par exemple, différentes
interprétations des probabilités sont possibles :
Fréquentielles On peut disposer en principe de séries d’observations dont on
peut dériver des fréquences empiriques. L’interprétation des probabilités
dans ce contexte ne pose pas de problèmes.
Logiques Il est parfois fait appel à des modèles idéaux, comme le jeté de dé
parfait dont les six faces sont équiprobables par symétrie. Là encore, il n’y
a pas de difficultés conceptuelles majeures.
Chaos Le chaos permet aussi de justifier le recours aux modèles stochastiques
pour décrire des systèmes déterministes inobservés pendant un temps assez
long.
Le traitement de l’incertitude en économie repose sur des bases plus sophistiquées. Nous allons les aborder à travers l’exemple classique de l’urne contenant
90 billes colorées [Machina and Schmeidler, 1992]. Il s’agit d’un tirage unique, et
la question est bien entendu de deviner quelle sera la couleur de la bille tirée. On
peut par exemple imaginer un jeu gratuit dans lequel le parieur recevra 100F s’il
devine juste, 0F sinon. Ce jeu permet de distinguer trois niveaux d’ignorance :
Incomplétude Le paragraphe précédent ne donne pas la liste des tirages possibles. Ce cas illustre les situations dans lesquelles on ne connaı̂t pas limitativement les conséquences possibles. Des surprises sont possibles.
Incertitude Supposons maintenant connu le fait qu’exactement 30 des billes
sont rouges, les autres pouvant êtres noires ou blanches. Ce cas illustre les
situations dans lesquelles les conséquences possibles sont connues mais on
ne dispose pas de probabilités comme en physique.
Risque On ajoute l’information selon laquelle chacune des 60 billes non-rouges
a été tirée sans biaiser d’un sac bien mélangé contenant le même nombre
de billes noires et blanches. Dans ce cas, non seulement les différentes
3
conséquences possibles sont connues, mais en plus on dispose de probabilités bien fondées.
Au niveau d’ignorance le plus élevé des trois1 , les situations d’information
incomplète échappent pour la plupart au cadre utilisé en économie. Il existe
certes un corps important de techniques pour modéliser le raisonnement et les
choix qui se font sur la base de prémices limitées. Elles relèvent essentiellement
de la logique : “si A alors B”, et les recherches dans le domaine de la logique
formelle ou de la simulation qualitative proposent de nombreuses extensions
au calcul des propositions classique. Mais elles sont actuellement peu utilisées
en économie. Certains auteurs désignent également les situations d’information
incomplète par incertitude, mais nous suivrons la majorité en les gardant hors
du champ de cette étude.
Ce texte se concentre donc sur l’incertitude et le risque. Afin de mieux faire
comprendre la différence entre ces deux notions, un sondage à main levée parmi
l’audience de l’école des Houches “Incertitude et décision : le cas du changement
climatique” en octobre 1999 a été réalisé sur l’exemple de l’urne décrit plus haut.
Il est apparu que dans le cas d’incertitude, le public est davantage attiré par le
choix “Rouge” alors que dans le cas de risque, il est indifférent entre les trois
couleurs.
Contrairement à la position de Knight [1921, I.I.26], l’incertitude désignera
dans ce texte un niveau d’ignorance supérieur dans un sens inclusif : les situations de risque sont vues comme une classe particulière de situations d’incertitude. Une autre convention terminologique sera alors nécessaire pour désigner
l’incertitude qui n’est pas du risque, nous l’appelerons incertitude non-spécifique,
incertitude dure ou ambiguité, ce terme étant courant dans la littérature économique
sur le sujet.
Dans la réalité les situations d’incertitude sont peut-être plus courantes que
les situations de risque, mais dans l’analyse économique c’est l’inverse. Pour des
raisons historiques et techniques, certainement liées aux succès pratiques de la
théorie probabilités, le risque est la sous-classe de l’incertitude de loin la plus
étudiée à ce jour.
Il est donc essentiel d’exposer d’abord la modélisation des décisions rationelles dans les situations de risque. Pour cela, nous allons convoquer un personnage bien connu des leçons d’économie : le Marchand de Glaces.
3
3.1
Théories de la décision et rationalités
Rationalité et maximisation de l’espérance de gain
Le Marchand de Glaces souhaite retenir un emplacement pour vendre ses
Glaces à l’occasion d’un événement futur. Quatre emplacements a ∈ {α, β, γ, δ}
sont possibles a priori. Les ventes dépendront également de la météo s ∈ {C, F }.
Le profit prévisionnel Π(a, s) est représenté Table 1 en unités monétaires.
1 Smithson [1988] discute une taxonomie plus complète des situations d’ignorance, ne comprenant pas moins de dix-sept catégories.
4
s=C
s=F
Espérance
a=α
10
2
6
a=β
6
4
5
a=γ
11
0
5.5
a=δ
8
3
5.5
Tab. 1 – Profit du marchand de glace Π(a, s) en keuros.
Ce problème de décision stylisé permet d’abord d’introduire la question de la
rationalité. En économie, celle-ci n’est pas toujours vue comme une vertu normative : il n’existe pas une seule meilleure rationalité. Au contraire, l’hétérogénéité
des préférences et des goûts est un élément très important pour expliquer les
échanges entre individus. Il peut être fait appel à plusieurs définitions de la
rationalité, chacune pouvant servir à décrire les choix d’un agent économique
particulier.
On peut ainsi imaginer un marchand de glace de comportement optimiste,
qui ne regarde que la ligne favorable du tableau (la première) et choisit donc
a = γ. On peut l’imaginer au contraire pessimiste, il choisirait a = β pour
s’assurer un gain de 4 dans le pire des cas. Ces cas sont parfois appelés les règles
du maximax et du maximin. Elles sont applicables en situation de risque mais
aussi d’incertitude non probabilisée.
Supposons maintenant que le marchand dispose de probabilités bien fondées,
c’est à dire de statistiques météorologiques. A la date et au lieu de l’évènement,
le temps est chaud (s = C) une fois sur deux. Il est alors immédiat de calculer
que le meilleur profit espéré est 6 et l’emplacement associé a = α. La règle de
décision est la maximisation de l’espérance de gain. Son caractère intuitif en fait
une définition intéressante de la rationalité économique.
A cause du caractère inter-temporel de l’incertitude, il faut maintenant compliquer le modèle de décision. Supposons donc que le marchand puisse choisir son
emplacement au dernier moment, et que dans ce cas il accèdera à des prévisions
météo fiables, c’est à dire certaines. La meilleure stratégie à adopter serait alors
d’attendre le dernier moment pour choisir entre a = γ et a = β en fonction de
l’information.
Cela permet de faire apparaı̂tre la notion de stratégie contingente, au coeur
de la gestion dynamique du risque en économie. Le mot contingent est utilisé
pour souligner que les actions dépendront des état du monde futur. C’est le
sens de la remarque du Groupe Intergouvernemental pour l’étude du Climat
“Le problème n’est pas de définir aujourd’hui la meilleure politique pour les 100
ans à venir, mais de choisir une stratégie avisée et de l’adapter ultérieurement
à la lumière des progrès des connaissances”, [Bruce et al., 1996].
Avec la stratégie contingente optimale, le gain espéré du marchand est 7.5.
Cela représente une amélioration de 1.5 par rapport à son évaluation précédente.
On peut interpréter ce supplément de deux manières.
D’une part, il s’agit de la valeur de l’information météo pour le marchand.
5
C’est la somme strictement maximale qu’il est disposé à payer pour obtenir la
prévision. Ce concept de valeur espérée de l’information future est, d’un point
de vue économique, généralisable à de nombreuses situations. Il permet par
exemple de nommer les bénéfices sociaux de la recherche.
D’autre part, c’est la valeur de la flexibilité. En effet le supplément de 1.5 ne
se réalise que si l’option de choisir l’emplacement est maintenu ouverte jusqu’à
ce que l’information arrive. Dans un contexte où l’information est gratuite, le
marchand de glace est prêt à payer jusqu’à 1.5 pour se réserver la flexibilité de
choisir au dernier moment. La notion économique sous jacente est ici celle de
valeur d’option.
Dans un contexte d’information croissante, il apparait donc utile de préserver
la flexibilité des choix. Cet effet d’irréversibilité s’applique en particulier à la
protection des ressources naturelles irremplaçables, comme l’ont montré Henry
[1974] et Arrow and Fisher [1974].
3.2
Le modèle général : maximisation de l’espérance de
l’utilité
Revenons maintenant au problème de décision a-temporel. Ce qui précède
montre que plusieurs règles de décision rationelle dans l’incertitudes sont possibles : maximax, maximin, meilleure espérance de gain. Les économistes utilisent généralement un cadre unificateur de ces règles, la théorie de l’utilité.
Pour illustrer la différence importante entre gain monétaire et utilité, on
pourrait par exemple imaginer que le marchand a une dette de 4 à rembourser
impérativement à court terme, et que de surcroı̂t tous ses gains au delà de 5 seront imposés à un taux confiscatoire. Dans ce cas par exemple, on comprendrait
que l’utilité — au sens usuel de ce mot — des 4 premières unités de gain est
nettement supérieure à l’utilité d’un passage de 4 à 8. Cela pourrait le conduire
à un comportement pessimiste, a = β.
Pour styliser ce type de comportement, dans lequel le gain procure de moins
en moins d’utilité, les économistes sont conduits à utiliser des fonctions concaves
du gain Π, dans le cas des firmes, ou de la consommation dans le cas des individus. Dans ce cadre formel, des choix rationnels différents peuvent être expliqués
par des fonctions d’utilités différentes. Par exemple, on représente ainsi le fait
que certains investisseurs préfèrent un portefeuille boursier peu risqué, alors que
d’autres privilégient la perspective de performance.
On utilise souvent l’une des trois fonctions suivantes u(Π) = ln(Π), u(Π) =
Π, u(Π) = − Π1 . Les deux premières ont l’avantage d’être agréables à dériver.
La troisième se rapproche davantage des estimations économétriques basées sur
les comportements observés des agents. Réécrire la Table 1 avec cette fonction
pour calculer l’espérance de l’utilité à la place de l’espérance de gain (exercice)
montre dans ce cas que le choix optimal est a = β, comme dans une vision
pessimiste du futur. A l’inverse, avec une fonction comme u(Π) = Π2 qui surpondère les gains élevés (autre exercice, même si l’hypothèse est moins réaliste),
le choix optimal est a = γ comme dans une vision optimiste du monde.
6
Cet exemple montre qu’il est possible, dans le même cadre de la maximisation
de l’espérance de l’utilité, de retrouver les résultats des trois règles de décision
rationelle discutées précédement : maximax, maximin et espérance de gain. Tout
dépend de la fonction choisie, qui traduit les préférences du décideur.
On peut alors se poser la question de la généralité de cet exemple. Etant
donné un décideur, peut-on toujours représenter ses préférences dans ce cadre ?
La puissance de la théorie provient du fait que la réponse est affirmative, sous
réserve que ses préférences soient raisonnables.
Considérons par exemple une quatrième règle de décision rationelle, importante en finance : l’efficacité moyenne-variance. La règle dit qu’entre deux portefeuilles boursiers de même espérance de gain, celui qui a la plus faible variance
est préférée. Réciproquement, pour un même niveau de risque, le portefeuille le
plus rentable en espérance est préféré. Notons que cette règle ne définit pas un
optimum unique, mais une famille de portefeuilles efficaces. Dans cette famille,
les portefeuilles plus performants (grande espérance de gain) sont aussi plus
risqués (grande variance).
La famille des portefeuilles efficaces peut être obtenue en maximisant l’espérance
de l’utilité quand les fonctions utilisés sont quadratiques. Il est immédiat en effet
que leur espérance s’exprimme exactement l’aide des deux premiers moments :
le gain espéré et sa variance. Il existe d’autres justifications pour la règle d’efficacité moyenne-variance : on peut aussi considérer le développement limité d’une
utilité dérivable, pour de petits risques, ou alors le cas où la loi de probabilité
est normale.
En conclusion de cette introduction à la maximisation de l’utilité, il est
utile de prévenir une confusion possible dans l’emploi du mot utilité en ce qui
concerne les aspects inter-temporels :
Lorsqu’un agent économique vit 2 périodes, son critère de décision est souvent formalisé comme J(c1 , c2 ) = f (c1 ) + βf (c2 ), où ct représente sa consommation à la période t et où β , appelé facteur d’actualisation, peut représenter
une préférence pure pour le présent. La concavité de la fonction f représente
encore le fait que l’accroissement du gain monétaire procure de moins en moins
d’utilité. Pour cette raison, elle est parfois appelée utilité intertemporelle de la
consommation.
Cependant la fonction f représente des préférences par rapport à la répartition
de la consommation dans le temps, alors que la fonction u représente des
préférences vis à vis du risque. Pour marquer la différence, f est aussi appellée
la fonction de félicité intertemporelle lorsque le contexte l’exige. C’est le cas par
exemple lorsque c̃2 est aléatoire, et qu’on écrit J(c1 , c̃2 ) = f (c1 ) + βf (u(c̃2 )).
La maximisation de l’espérance de l’utilité apparaı̂t donc comme le cadre
standard satisfaisant pour modéliser les situations de risque. En ce qui concerne
l’incertitude en général, la situation est moins aboutie.
7
4
L’incertitude au delà du risque
Retournons à l’exemple classique de l’urne introduite en section 2.2, contenant 90 billes colorées dont 30 sont rouges, les autres pouvant être noires ou
blanches. La description est volontairement vague et non-spécifique concernant la distribution des billes noires et blanches. Ellsberg [1961] appelle ambiguité cette sorte d’incertitude, terme repris dans la littérature économique
subséquente.
Smithson [1988] a critiqué le choix du mot pour la raison suivante : usuellement, l’ambiguité désigne une situation lexicale dans laquelle le contexte ne
suffit pas à résoudre un problème de polysémie. Cette ambiguité pourrait être
levée en désignant par incertitude non-spécifique, ou encore incertitude au sens
de Knight [1921], la situation de probabilités vagues a priori décrite par Ellsberg.
On rencontre aussi le terme incertitude dure.
Pour modéliser ce genre de situation d’incertitude non-spécifique (d’ambiguité, si on préfère), il existe une variété d’approches. Cette section discute quatre d’entre elles, dont les relations sont représentées figure 1. Les probabilités subjectives consistent à ramener l’incertitude au risque. La théorie
des possibilités se pose comme une alternative aux probabilités, elle modèlise
l’imprécis ou le vague comme un aspect de l’incertitude totalement distinct du
risque. La théorie de Dempster-Shafer unifie les probabilités et les possibilités.
Il existe d’autres théories encore plus générales, désignées collectivement comme
les modèles de probabilités imprécises.
4.1
Probabilités subjectives
Une première approche consiste à ramener formellement l’incertitude au
risque en considérant les probabilités comme subjectives. Les trois interprétations
des probabilités décrites au début de ce texte : fréquentielle, logique, chaos
peuvent être qualifiées d’objectives au sens où elles dérivent des caractéristiques
intrinsèques du système étudié. Au contraire les probabilités subjectives sont,
comme la fonction d’utilité, un reflet des préférences personnelles du décideur.
On les désigne aussi par probabilités épistémiques.
Les probabilités subjectives sont utilisables pour définir des positions de
précaution vis à vis des catastrophes possibles. Même si on ne dispose pas de
statistiques sur des évènements par définition rarement observés, il est toujours
possible d’extrapoler une distribution de probabilités. Les critères dits safetyfirst formalisent la précaution par rapport aux évènements de faible probabilité
mais de grande conséquence.
Dans cette tradition, le risque est défini par deux paramètres, la probabilité d’occurence et l’ampleur de la perte. Le risque peut se contrôler selon
chacune de ces deux directions. La première direction consiste à minimiser la
probabilité d’une catastrophe inaceptable, c’est à dire supérieure à un seuil
donné. Réciproquement, on peut chercher à minimiser l’ampleur de la catastrophe définie comme étant le cas défavorable se produisant avec 5 pour-cent de
probabilité (5-percentile inférieur), par exemple. Il est aussi possible de contrôler
8
Imprecise probabilities theories
Walley (1991)
Evidence theory
Shafer(1975)
Probability theory
Savage (1954)
Possibility theory
Zadeh (1978)
Fig. 1 – Relation entre les modèles de l’incertitude. Les probabilités modélisent
le risque, le hasard. Les possibilités modélisent l’imprécis, le flou (Zadeh) ou
le degré de surprise potentiel (Shackle). La théorie de Dempster-Shafer (evidence theory) modélise la croyance et la plausibilité. Toutes ces modèles peuvent
être vus comme des cas particulier de probabilités imprécises, qui peuvent se
représenter par un ensemble convexe de distributions de probabilités.
9
le risque dans les deux directions à la fois : maximiser le gain sous contrainte
que la probabilité d’une catastrophe d’ampleur donnée ne dépasse pas un seuil
donné.
Ces critères sont utilisé dans la gestion du risque, en particulier dans les
institutions financières, à l’aide de la notion de valeur exposée au risque. La
valeur exposée au risque V se définit à une échéance (3 mois par exemple) et à
un niveau de risque donné (5% par exemple) comme suit : dans la distribution
de probabilité des revenus à trois mois, c’est le 5-percentile du côté des pertes.
La valeur au risque est une notion plus intuitive que la variance ou l’écart type :
il y a 5 pourcent de chances de perdre plus que V durant les trois prochains
mois.
Les probabilités subjectives sont très opérationnelles, puisque tout le formalisme de l’espérance de l’utilité développé précédement pour le risque reste
utilisable. De plus les solides fondations axiomatiques de Savage [1954], Machina
and Schmeidler [1992] montrent qu’elle permet de modéliser une large catégorie
de problèmes de décision sous incertitude. En conséquence, c’est une approche
très utilisée.
4.2
Possibilités
D’un autre côté, les probabilités subjectives ont toujours été critiquées comme
une approche réductionniste qui ramène l’incertitude au risque. Il n’est ni possible ni utile de rendre compte ici des controverses historiques qui ont traversé le
siècle dernier. Au delà des débats dogmatiques autour des fondements ou de la
loi de Bayes, c’est un point de vue éclectique qui semble se dégager aujourd’hui.
En effet, il n’est plus possible d’ignorer l’existence d’une catégorie d’incertitude
totalement distincte du risque : les choses floues, imprécises, vagues ou encore
mal définies.
Cette sorte d’incertitude est modélisée par la théorie des possibilités, introduite par Zadeh [1978] pour traiter l’incertitude attachée aux sens des mots
en langage naturel, comme “grand” ou “jeune”. Comme le montre de Cooman
[1995], la théorie des possibilités peut être développée parallèlement à la théorie
des probabilité. On retrouve notament les concepts d’intégrale floue, de variable
possibilistique, de distribution de possibilité.
Les axiomes de cette théorie en font une version moderne du calcul sur
les degrés de surprise introduit en économie par Shackle [1952]. Il s’agit d’une
théorie non-additive au sens où la possibilité d’un tirage ‘Blanc ou Noir’ se
calcule comme le maximum entre la possibilité d’un tirage ‘Blanc’ d’une part,
et la possibilité d’un tirage ‘Noir’ d’autre part. Le dual de la possibilité d’un
évènement, c’est à dire un moins la possibilité de son contraire, est désigné par
nécessité.
La portée du concept d’imprécision en économie ne saurait être sous-estimée.
Au niveau théorique, par exemple, l’utilité floue rend certainement mieux compte
de la nature d’un objectif comme le bonheur. Elle est présente dans les recherches
sur la décision multi-critère ou multi-acteurs. En ce qui concerne les modèles
intégrés en économie de l’environnement, Young [2001] a démontré son impor10
tance pratique. Enfin au niveau opérationnel, la théorie floue fait partie des
techniques utilisées par les systèmes d’aide à la décision en matière de gestion
des ressources naturelles.
Au niveau conceptuel des théories de l’incertitude, l’étape suivante consiste
à passer du point de vue éclectique au point de vue unificateur. Il existe une
variété d’approches qui généralisent à la fois les possibilités et les probabilités, et
permettent d’opérationaliser la différence entre le risque et l’incertitude. Examinons d’abord la plus simple d’entre elles, la théorie de Dempster-Shafer, avant
de considérer les modèles plus généraux de probabilités imprécises.
4.3
Dempster-Shafer
La petite expérience de l’urne d’Ellsberg décrite au début montre un jeu
dans lequel les agents préfèrent un risque (parier sur un tirage Rouge) plutôt
qu’une situation d’incertitude non-spécifique (parier sur un tirage Blanc). Cette
situation est appelée aversion à l’ambiguité en théorie microéconomique. Pour
analyser ce genre de comportement face à l’incertitude, il est plus pratique de se
placer hors du cadre des probabilités subjectives, et représenter explicitement
le caractère non-spécifique de l’information disponible.
La théorie de Dempster-Shafer est ainsi nommée d’après la règle introduite
par Dempster [1967] et appliqués à la révision des croyances par Shafer [1976].
Elle permet d’exposer simplement trois notions essentielles : la non-additivité,
la différence entre preuve pour et absence de preuve contre, et les croyances a
priori non-informatives.
Les croyances à propos d’un ensemble S comprenant n éléments (états du
monde possible) peuvent être définies a partir d’une distribution de probabilité m sur l’ensemble des parties de S. Pour tout sous ensemble A de S, le
poids de l’opinion selon laquelle l’état du P
monde réel est dans A, c’est à dire la
croyance en A, se calcule comme bel(A)= E⊆A m(E). Il ne suffit donc plus de
n probabilités, il faut 2n nombres pour représenter les croyances.
L’exemple de l’urne se formalise dans la théorie de Dempster-Shafer en posant que la croyance en {Rouge} est 30/90, la croyance en {Blanc, Noir} est
60/90, mais la croyance spécifique en {Blanc}, comme la croyance spécifique en
{Noir}, est égale à zéro. Il ne s’agit donc pas d’une distribution de probabilité
sur S={Blanc, Rouge, Noir}, puisque 60/90 ne fait pas 0+0. L’additivité des
probabilités est remplacée par la sous-additivité des croyances.
On définit la plausibilité d’un évènement A comme un moins
P la croyance
en son complémentaire, c’est à dire pl(A) = 1 - bel(S − A) = E∩A6=∅ m(E).
Cette distinction entre croyance pour A et absence de croyance contre A est cruciale dans toutes les théories de l’incertitude non-probabiliste. Pour prendre un
exemple juridique essentiel, l’absence d’alibi ne vaut pas preuve de culpabilité.
Le manque total d’information spécifique se traduit par la fonction de croyance
vide, qui donne le poids unitaire à S et zéro à tout sous-ensemble propre de S,
c’est à dire bel(S) = 1 et bel(E) = 0 pour tout E 6= S. Dans ces conditions, la
plausibilité de n’importe quel sous ensemble est un, mais sa croyance zéro. On
évite ainsi le choix arbitraire de probabilités a priori.
11
Par définition, quand m(A) 6= 0 on dit que A est un ensemble focal. Dans
le cas où les ensembles focaux sont tous des singletons, bel est une mesure de
probabilité. Dans le cas où la famille des ensembles focaux est emboitée, bel
est une mesure de possibilité. Comme la figure 1 l’illustre, l’approche constitue
une extension des probabilités et des possibilités. Dans le cas des croyances
probabilistes, et seulement dans ce cas, les deux fonctions pl et bel sont égales :
p(A) = 1 - p(S − A).
Nous avons présenté la théorie de Dempster-Shafer car c’est la plus simple
qui permet d’analyser les notions de non-additivité, distinction entre preuve
pour et absence de preuve contre, et information a priori vide. Ces idées se
retrouvent dans toute une série de théories de l’incertitude qui géneralisent les
probabilités.
4.4
Probabilités imprécises
Le terme de probabilités imprécises regroupe différentes théories formalisant
les situations d’incertitude, dans une optique unificatrice [Cozman, 1999]. Du
point de vue épistémologique, la relation entre les probabilités classsiques et
les probabilités imprécises est comparable avec la relation entre la mécanique
classique et la mécanique quantique. La théorie plus compliquée généralise la
théorie simple, mais celle ci-reste très largement dominante dans les applications
pratiques.
L’approche appelée quasi-bayésienne est sans doute la plus utilisée en économie
pour étudier l’ambiguité. Elle consiste à modéliser l’information des agents non
pas par une loi de probabilité unique, mais par une famille convexe D de lois
de probabilités. Cet ensemble qui représente les croyances est appellé l’ensemble
credal, du latin credo, ‘je crois’.
Une remarque importante est qu’il n’est pas nécessaire de probabiliser cette
famille. Il ne semble donc pas indispensable de pousser jusqu’aux probabilités
du second ordre, c’est à dire les probabilités de probabilités (et ainsi de suite)
dans toute leur généralité.
Revenons au marchand de glaces qui doit choisir un emplacement a parmi
quatre options { α, β, γ, δ } sans savoir si le temps futur sera chaud (s = C)
ou froid (s = F ) ; dont la matrice des gain est donnée table 1.
Supposons que le marchand dispose de l’information suivante : sur les 10
dernières années, il a fait 5 fois Chaud et 3 fois Froid. Il manque deux observations, les années où le marchand n’a pas participé à l’évènement. En termes de
probabilités imprécises, cette information se traduit en disant que la probabilité
de (s = C) est comprise dans l’intervalle [0.5, 0.7].
Dans la théorie de Dempster-Shafer, cela correspond à la fonction de croyance :
bel({C}) = 0.5, bel({F })=0.3, bel({C, F })=0.2. Même si la théorie de DempsterShafer ne fait pas l’hypothèse de l’existence d’une loi de probabilité inconnue,
toute fonction de croyance définit une famille convexe D de lois de probabilité
par :
p ∈ D ⇔ ∀ E, bel(E) ≤ p(E) ≤ pl(E)
12
C’est pourquoi les probabilités imprécises sont mathématiquement plus générales,
comme le montre la figure 1. On peut distinguer trois approches de la prise de
décision avec probabilités imprécises.
1/ Choisir un représentant parmi l’ensemble crédal D permet de se ramener à la maximisation de l’espérance de l’utilité avec des probabilités précises.
L’opération qui fait passer des croyances aux probabilités en prenant le milieu
de D au sens de Smets [1995, 2002] est appelée transformation pignistique, du
latin pignus, ‘le pari’. Dans l’exemple, on prend p(C) = 0.6, et le choix de
l’emplacement α maximise le profit espéré.
2/ L’approche non-additive [Cohen and Tallon, 2000, Starmer, 2000] fait
appel à une forme de précaution. Comme toutes les probabilités dans D ont
la même force, la décision se fonde sur le meilleur et/ou le pire des cas. Dans
l’exemple, pour p ∈ D ⇔ 0.5 ≤ p(C) ≤ 0.7 les bornes inférieures et supérieures
du profit espéré sont :
Espérance inférieure
Espérance supérieure
a=α
6.0
7.6
a=β
5.0
5.4
a=γ
5.5
7.7
a=δ
5.5
6.5
Sélectionner l’acte qui maximise l’espérance supérieure revient à adopter
un point de vue optimiste sur les probabilités. Les outils mathématiques utilisés dans le cas général sont l’intégrale de Choquet et la formule de l’utilité
dépendante du rang. La moyenne pondéré des espérances inférieure et supérieure
a aussi été proposée comme critére de décision rationnelle.
3/ L’approche non-additive peut être développée davantage en rejettant
l’axiome de la complètude des préférences. Comme exposé dans Walley [1998],
il est cohérent de préférer un choix à un autre si et seulement si l’espérance de
gain du premier est meilleure que celle du second quel que soit p dans l’ensemble
crédal. L’acte α est préféré à l’acte β si et seulement si l’espérance inférieure de
la différence de profit est positive :
α > β ⇔ inf Ep [Π(α, s) − Π(β, s)] > 0
p∈D
(1)
Cette relation est vérifiée dans l’exemple, ainsi que α > δ, γ > β, δ > β.
L’équation 1 définit un ordre partiel : aucune préférence n’est définie entre γ et
δ, ni entre α et γ. Comme les préférences sont incomplètes, il n’est pas possible
de déterminer un meilleur choix unique. On peut cependant dire que le choix α
est maximal au sens où aucune autre alternative ne lui est préférée. Le choix γ
est aussi maximal. Les choix rationnels selon cette approche sont définis comme
les choix maximaux, c’est à dire α ou gamma.
Parmi ces trois approches de la décision en incertitude : pignistique, nonlinéaire et préférences incomplètes, la seconde est la moins nouvelle en économie.
Comme l’ont écrit Henry and Henry [2002], ces approches sont remarquables car
elles s’appuient sur un principe de précaution.
Une seconde remarque peut être avancée en comparant dans la formule 1
le choix α incertain avec un choix hypothétique µ sans risque. Le pari α est
13
préféré à µ si et seulement si µ < inf p∈D Ep Π(α, s). L’espérance inférieure peut
ainsi être vue comme la disponibilité maximale à payer pour acheter le profit
incertain. Réciproquement, un gain certain ν est préféré à α si et seulement
si ν > maxp∈D Ep Π(α, s). L’espérance supérieure représente donc le consentement minimal à recevoir pour abandonner le profit incertain. Il n’y a pas la
place d’élaborer cette remarque sur la différence entre consentement à payer
et à recevoir qui renvoie cependant à un problème important d’économie de
l’environnement, voir Mansfield [1999].
Come Treich [2000], on peut trouver que la théorie de la décision dans l’incertitude est insatisfaisante et présente des limites opérationnelles. En effet avec
les préférences incomplètes, plus les probabilités sont imprécises moins on peut
discriminer entre les alternatives. Par exemple si l’intervalle est [0.3,0.7], alors
les quatre choix sont maximaux : on ne peux rien dire du tout.
On peut cependant considérer que cette limitation de la théorie est normale
et même souhaitable. Lorsque l’information est rare et que les probabilités sont
imprécises, plusieurs choix sont raisonnables.
Cette introduction à quelques théories de l’incertitude ne rend pas justice à
la profondeur du sujet. Pour rester simple, nous avons laissé de côté les notions
de conditionnement et d’indépendance ; les aspects multi-variables et les réseaux
bayésiens ; les cônes positifs de paris désirables, toute la correspondance avec
la logique et bien d’autres pans du problème. La deuxième partie de ce texte
montre comment ces notions sont utilisées en pratique. L’analyse discute le
problème du changement climatique, et de la modélisation intégrée.
5
La gestion de l’incertitude dans les modèles
intégrés
Comme on le sait, l’augmentation des émissions de gaz à effet de serre dans
l’atmosphère conduit à des perturbations potentiellement dangereuses du climat.
Parmi le grand nombre de modèles relatif au changement climatique, ce qui
suit s’intéresse à une classe particulière : les modèles intégrant la décision sous
incertitude. Le rôle central de la décision qui caractérise les modèles économiques
permet d’exclure les modèles de simulation purs.
C’est pourquoi nous mentionnerons seulement l’utilisation des théories modernes de l’incertitude, en particulier les possibilités et la théorie de DempsterSchafer, dans les modèles géographiques d’usage des sols, par exemple pour
la classification des pixels d’images satellite. Les modèles intégrés d’impact du
changement climatique peuvent aussi modéliser la décision sous incertitude au
niveau des agents microéconomiques localisés. Mais comme précisé en introduction, ce texte laisse volontairement de côté les aspects multi-acteurs et multicritères.
Nous avons vu précédement le principe de la maximisation de l’utilité. Pour
le cas du changement climatique, l’approche économique conduit à imaginer une
fonction de bien-être global J à maximiser. Un modèle intégré est une fonction
14
U (a, s) qui calcule le bien-être global J en fonction de deux arguments. Le premier argument est une variable représentant la politique climatique, l’acte a qu’il
s’agit de calculer. Le second argument est un jeu de paramètres s représentant
l’état du monde incertain. L’acte a peut représenter un simple niveau de consommation, mais aussi une trajectoire inter-temporelle dans un espace à plusieurs
biens. De plus, toutes les trajectoires ne sont pas possibles, il existe un jeu de
contraintes a ∈ A.
Pour fixer les idées, dans le modèle utilisé ci-après l’incertitude concerne
le plafond ultime acceptable pour la concentration de CO2 dans l’atmosphère.
La variable aléatoire s est le plafond exprimé en parties par million de volume, ppmv. Elle est équidistribuée entre 450 ppmv, 550 ppmv et 650 ppmv (la
concentration était autour de 275 ppmv avant l’ère industrielle). La variable de
contrôle a(t) représente la trajectoire de réduction des émissions mondiales de
dioxyde de carbone en fonction du temps. L’objectif U est une fonction quadratique décroissante de a, représentant le coût économique et social des politiques
de contrôle des émissions polluantes. Le modèle est présenté en détail dans HaDuong et al. [1997].
Gérer l’incertitude dans un modèle, c’est ne pas se restreindre à une seule
image du futur. Il existe plusieurs façons de rendre multivoque l’analyse. Ces
approches sont illustrées à l’aide de la Figure 2. Celle ci représente diverses
trajectoires d’émissions de CO2 pour le prochain siècle.
La trajectoire supérieure IS92a reference représente ce qui pourrait se
passer en l’absence de politique spécifique. La trajectoire Kyoto représente ce
qui pourrait se passer si les limitations quantitatives du Protocole de Kyoto
étaient respectées.
Les autres courbes représentent les résultat du modèle optimisant U sous
incertitude. Les courbes en tireté montrent deux trajectoires calculées dans une
approche a-temporelle du risque et de l’incertitude, discutée dans la suite de
cette section. La courbe U 550, qui bifurque en trois branches après 2020, illustre
une stratégie contingente : une seule des trois branches sera suivie, en fonction de
s. La courbe a été calculée en utilisant l’approche de programmation dynamique
stochastique discutée plus loin section 6.
5.1
L’analyse de risque classique
Les méthodes de base utilisées pour gérer l’incertitude sont l’analyse de
sensibilité, l’analyse de Monte-Carlo et l’analyse des scénarios.
L’analyse de sensibilité vise à tester la robustesse du modèle vis à vis du
calibrage, c’est à dire au choix de s. On parle d’incertitude paramétrique. Étant
donné une distribution de probabilité sur les paramètres s, on examine d’abord
comme cas central le problème certain dérivé. En première approximation, on
remplace donc les paramètres aléatoires par leur espérance :
X
J ∗ = max U (a,
ps s)
(2)
a∈A
s
15
GtC
12
IS92a reference
11.5
W550
11
10.5
10
U550
9.5
9
Kyoto
S550
8.5
years
2000
2005
2010
2015
2020
2025
Fig. 2 – Différentes trajectoires d’émissions de CO2 pour le prochain quart de
siècle. Source Ha-Duong [1998].
Ayant calculé l’acte optimal a∗ , on examine ses variations par rapport aux
changements dans les paramètres s. On étudie chaque paramètre sk l’un après
l’autre. Classiquement, il s’agit de recalculer les résultats du modèle en ayant
doublé ou divisé par deux la valeur de l’un des paramètres sk .
Par exemple, dans le modèle de politique climatique DICE de Nordhaus
[1994], les paramètres les plus importants se rapportent à 1/ la décélération de la
croissance de la population, 2/ la décélération de la croissance de la productivité,
3/ le taux de préférence sociale pure pour le présent, 4/ la vitesse de décroissance
de l’intensité en GES de la production, 5/ l’intercept de la fonction de dommage.
L’analyse de sensibilité permet de mettre en évidence quels sont les paramètres critiques du modèle. On est alors conduit à explorer les variations
jointes de ces paramètres. Pour cela, les méthodes de Monte Carlo permettent
de tester un grand nombre de paramétrages. Le modèle intégré d’optimisation
cherche la meilleure politique climatique en faisant comme si s était connu, ce
qui se note de la façon suivante :
Js∗ = max U (a, s)
a∈A
(3)
Il s’agit de tirer un grand échantillon de paramètres s, d’exécuter le modèle
pour chaque tirage, puis d’examiner la distribution empirique des résultats. La
méthode est intensive en calcul, mais moins que s’il fallait explorer exhaustivement les combinaisons possibles de tous les paramètres.
16
5.2
Les scénarios
La méthode des scénarios consiste à traiter symétriquement un petit nombre
de paramétrages. Cette méthode peut être mise en oeuvre comme la suite logique des deux précédentes. Dans cette procédure, l’analyse de sensibilité est
d’abord nécessaire de déterminer les paramètres critiques. Puis les méthodes
de Monte-Carlo permettent d’explorer tout l’espace des possibles. La sélection
d’un nombre réduit de scénarios contrastés et informatifs, peut alors s’opérer en
considérant les quantiles de la distribution des empirique des résultats.
Une autre approche est aussi répandue pour la construction des scénarios.
Il s’agit de partir d’un ensemble de visions du monde décrites littéralement,
et d’en déduire les paramétrisations. Cette méthode met l’accent sur le rôle
non-prédictif des modèles. Ils sont utilisés dans ce cadre comme instruments de
communication pour projeter des images plus parlantes du futur. En particulier,
cette dernière approche de la scénarisation n’exclut pas les aller-retours pour
redéfinir les paramètres en fonction des résultats.
Sur la Figure 2 par exemple, les scénarios W550 et S550 représentent deux
trajectoires alternatives compatibles avec la stabilisation de la concentration de
CO2 à 550 ppmv à long terme (les courbes pointillées se recoupent au delà de
2050). Le scénario associé à W550 est ‘suivre la trajectoire de référence pendant deux décennies’, alors que le scénario de W550 est ‘agir tôt en réduisant les
émissions’. Ces deux scénarios permettent de focaliser la discussion sur l’importance du court-terme dans l’évaluation des trajectoires de réduction.
Une piste de recherche intéressante consisterait à utiliser la théorie de DempsterShafer pour de quantifier l’analyse de scénarios, en explicitant la plausibilité et
l’informativité à partir de fonctions de croyance subjectives.
5.3
Viabilité : l’incertitude non-spécifique pure
Comme Morgan and Henrion [1990] le rappellent, les méthodes d’analyse
de risque sophistiquées exposées ci dessus doivent aussi êtres complétes par des
analyses simples. L’approche qui vise à déterminer les ordres de grandeurs en
se basant sur les lois de conservation, les équilibres, l’analyse dimensionnelle et
le bon sens permet souvent de borner le problème, d’où son nom de Bounding
Analysis.
La théorie de la viabilité revisite cette approche dans un cadre inter-temporelle.
L’approche en viabilité vise à caractériser l’ensemble {a ∈ A} de toutes les trajectoires satisfaisant un jeu de contraintes donné. La différence principale avec
l’analyse de sensibilité est que toutes les trajectoires possibles sont déterminées
par un seul calcul, et non par des variantes autour d’un scénario principal.
Le groupe de modélisation intégrée de Potsdam, le PIK, développe la “Tolerable Windows Approach” dans ce cadre. Le modèle ICLIPS (Integrated Assessment of Climate Protection Strategies, Toth et al. [1997]) calcule l’ensemble
des profils d’émission compatibles avec un jeu de contraintes écologiques et
socio-économiques. Le modèle climat-océan-atmosphère représente une dizaine
d’espèces et les impacts régionalisés.
17
GtC
12
10
8
6
4
2
2000
2020
2040
2060
2080
yr
2100
Fig. 3 – Un couloir de viabilité.
Dans le modèle utilisé ici pour illustrer le concept de couloir de viabilité,
les trajectoires d’émissions globales de CO2 sont définies par deux dates-clés t1
et t2 . Ces dates délimitent trois périodes. Pendant la première période, de t0 à
t1 , les émissions mondiales augmentent linéairement en suivant la tendance de
référence. La seconde période est caractérisée par une trajectoire parabolique
entre t1 et t2 , c’est un temps de transition2 . La troisième période, au delà de t2
présente une décroissance exponentielle des émissions au taux constant de 3%
par an.
Parmi cet ensemble de trajectoires, la Figure 3 illustre celles qui sont compatibles avec un plafond de concentration fixé à 500 ppmv. Ce plafond de
concentration constitue ici la contrainte de viabilité. La zone entre les enveloppes supérieure et inférieures de cette famille de courbes constitue le couloir
de viabilité. Par tout point du couloir il passe au moins une courbe viable, même
si par souci de clarté toutes ne sont pas représentées sur la figure.
Représenter toutes les trajectoires viables aurait obscurci la remarque fondamentales propre à cette technique : toute courbe arbitraire tracée à l’intérieur
du couloir n’est pas nécessairement viable. En particulier, la frontière supérieure
n’est pas une trajectoire viable. Plus le décrochage par rapport à la tendance
intervient tard, plus la période de transition doit être brève, et plus le passage
sur un mode de décroissance exponentielle doit intervenir tôt.
Une autre caractéristique de ce type d’approche est son caractère intensif
en calcul. Mathématiquement, la dynamique du système est représentée par
2 Les raccords en t et t sont tels que la trajectoire d’émissions en fonction du temps reste
1
2
continue et dérivable.
18
une inclusion différentielle. Comme l’expose Clarke [1989], il existe des liens
mathématiques directs avec la théorie de l’optimisation dynamique et de la
controlabilité. Par définition, toute trajectoire optimale sous contraintes est
viable par rapport à ces mêmes contraintes. Cependant, les approches numériques
de la viabilité utilisent des outils notablement différents des codes d’optimisation
courants.
Dans l’esprit de la viabilité, par exemple, l’équipe d’IMAGE au RIVM a
procédé à une analyse selon le concept de Safe Landing Corridor, décrite par Leemans and Kreilman [1999]. L’approche consista à : 1/ Tirer un large échantillon
de scénarios d’émission, calculer les impacts associés. 2/ Filtrer l’échantillon
précédent par des contraintes de faisabilité technico-économiques. 3/ Filtrer
à nouveau en fonction d’objectif d’environnement. Pour la dernière étape, les
chercheurs ont utilisé une maquette statistique de la relation impact-émissions
déterminée sur l’échantillon de départ, maquette qui tourne en quelques secondes
au lieu de plusieurs heures.
L’approche en viabilité se passe de la notion de probabilités. Il s’agit d’une
analyse de l’incertitude non spécifique pure, c’est à dire de l’ambiguité. Elle
prend en compte le caractère inter-temporel, mais pas l’arrivée d’information.
Mais comme expliqué précédement, en situation d’incertitude l’approche la
plus directe et répandue consiste à utiliser les probabilités subjectives. Dans ce
contexte, il est alors possible de sophistiquer l’analyse de risque, pour prendre
en compte le caractère inter-temporel de la décision. C’est l’objet de la section
suivante.
6
Optimisation dynamique stochastique
Cette dernière section met en oeuvre le concept de stratégie contingente
introduit précédement avec le Marchand de Glaces. En particulier, elle offre une
perspective plus détaillée sur les recherches évoquées récement par Treich [2000,
note 12].
Dans l’analyse de risque classique, le modèle décrit une situation dans laquelle on choisit d’abord un acte, le risque étant résolu ensuite. C’est la situation
du Marchand de Glaces au début de la section 3.1. Dans le cadre des modèles
du changement climatique, Manne and Richels [1992] qualifie de situation “Act
Then Learn” (ATL) ce type de raisonnement où la maximisation de l’utilité
espérée s’écrit :
X
∗
JAT
ps U (a, s)
(4)
L = max
a∈A
s∈S
Dans le modèle d’analyse du changement climatique utilisé ici, une telle formalisation induit un comportement pessimiste. En effet, la contrainte de plafonner à 450 ppmv dans le cas défavorable dicte le résultat, même si sa probabilité
subjective n’est qu’un tiers. Sur la figure 2, ce cas conduit donc à une trajectoire basse, proche des courbes Kyoto et U550. Ce résultat pourrait être considéré
19
comme un défaut méthodologique du fait que s représente une contrainte stricte
sur les concentrations de CO2 .
En effet, il ne s’agit pas de choisir aujourd’hui pour le siècle prochain en
considérant seulement le pire des cas. L’enjeu est d’adopter une stratégie de
précaution susceptible de s’adapter, car le problème du changement climatique
est intergénérationel. Prendre en compte le caractère séquentiel de la décision
nécessite donc bien d’utiliser la notion de stratégie contingente introduite section 3.1.
Supposons que l’état du monde s se révèle en 2020. La politique climatique
a = (a1 , as2 ) se décompose en deux programmes, l’avant et l’après 2020. La
première partie, a1 , représente la stratégie avant l’observation de l’état du monde
s. La seconde partie, as2 , représente les différentes actions adaptées en fonction de
la valeur de s observée. L’intuition essentielle de la programmation dynamique
est que la maximisation de l’espérance de l’utilité s’opère en deux étapes en
commençant par la fin :
En 2020, le programme de décision sera le choix de as2 qui maximise U (a1 , as2 , s),
étant entendu que dans cette expression s et a1 seront constants, puisque l’état
du monde sera observé et l’action en première période sera terminée. Posons
V (a1 , s) = maxas2 U (a1 , as2 , s).
En première P
période, le programe de décision est la maximisation de l’espérance
de l’utilité soit s∈S ps V (a1 , s). La maximisation est écrite en sachant que le
second choix sera optimal.
Le mode de résolution qui en suit est appelé “Learn Then Act” (LTA) pour
les modèles intégrés du changement climatique. Les deux étapes peuvent s’écrire
en une seul formule :
X
∗
JLT
ps max
U (a1 , as2 , s)
(5)
A = max
s
a1
a2
s∈S
sous la contrainte ∀s, (a1 , as2 ) ∈ A. Une stratégie contingente optimale de ce
type est illustrée figure 2 par les courbes U550. Dans cet exercice, nous avons
supposé que le choix d’un objectif de long terme (450, 550 ou 650 ppmv) était
pris en 2020 avec équiprobabilité.
Pour résoudre numériquement, il est utile de ramener le programme précédent
à un programe comportant un seul opérateur de maximisation. Supposons que
s puisse prendre N valeurs distinctes. En considérant les as2 comme N variables
indépendantes, on peut écrire :
X
∗
JLT
ps U (a1 , as2 , s)
(6)
A = max
s
a1 ,a2
s∈S
Une seconde astuce technique facilite l’implémentation de la formule (5)
dans les modèles. Sur la figure 2, il s’agit de considérer que la courbe U550
dans sa partie avant 2020 résulte en fait de la superposition des trois branches
confondues. En terme de programmation, on considère que l’ensemble des actions a = (a1 , as2 ) n’est autre que comme l’ensemble des actions a(s) = (as1 , as2 )
lorsque as1 est en fait indépendant de s.
20
Il est alors possible de ramener la formule (5) à la la résolution d’un programme décrit par la formule (4) dans lequel la dimension du problème a été
multiplié par N .
X
∗
JLT
ps U (a(s), s)
(7)
A = max
a(s)
s∈S
0
Sous la double contrainte ∀s, a(s) ∈ A et ∀ s, s0 ∈ S, as1 = as1 .
La ‘recette’ pour obtenir (7) à partir de (4), c’est à dire résoudre en stratégie
contingente un problème de décision exprimmé comme la maximisation de l’espérance
de l’utilité est donc : faire dépendre les actions de l’état du monde, et lier les actions avant l’arrivée de l’information. Dans des langages spécifiquement conçus
pour formuler des problèmes d’optimisation comme GAMS, la mise en oeuvre
est assez simple.
On peut alors accéder à la valeur espérée de l’information future EV F I ∗ , qui
∗
∗
se définit comme la différence entre JAT
L et JLT A . Dans le cas du changement
du climat, cette valeur correspond au bénéfice social attendu des recherches sur
la géophysique et sur les impacts permettant de définir un plafond acceptable.
L’importance de préserver la flexibilité des choix, avec la notion de valeur
d’option introduite section 3.1, peut ains être quantifiée. Un acte a1 sous-optimal
en première période dégrade la valeur de l’information future : si les émissions de
CO2 continuent à croı̂tre exponentiellement, une alerte à propos de bifurcations
climatiques autour de 450ppmv sera inutile.
7
Conclusion
Ce texte introduit l’approche économique de la gestion de l’incertitude.
La première section a d’abord présenté la différence entre les situations dites
d’incomplétude, d’incertitude et de risque. La différence entre l’incertitude et
le risque est illustrée par l’exemple d’une urne contenant des billes noires et
blanches dont on ne donne pas la proportion. Le risque est la partie de l’incertitude la plus étudiée dans la littérature.
La seconde section montre que divers critères de rationalité face au risque :
maximax, maximin et espérance de gain peuvent être unifiées dans le cadre de
la maximisation de l’utilité espérée. Un exemple (marchand de glace) introduit
les notions de décision séquentielle, de valeur d’option et de valeur espérée de
l’information. D’autres critéres de rationalité, l’efficacité moyenne-variance et le
safety first utilisant la notion de valeur au risque ont été présentés.
Concernant l’incertitude qui n’est pas du risque, le texte place sur la figure 1
les possibilités en alternative aux probabilités, avec les probabilités imprécises
comme synthèse unificatrice. Ces théories formalisent l’information non-spécifique,
sont non-additives, distinguent information pour et absence d’information contre,
et permettent de représenter l’information a priori vide. Nous montrons comment la précaution est au coeur de trois critères de décision dans l’incertitude : approche pignistique, approche non-linéaire, approche des préférences
incomplètes.
21
Divers modes de gestion de l’incertitude dans les modèles intégrés du changement climatique tels que l’analyse de sensibilité et l’analyse de Monte-Carlo
pour le risque ont été exposés. L’étude des scénarios et la viabilité sont utilisées pour l’incertitude qui n’est pas du risque. La viabilité étudie l’incertitude
non-spécifique pure.
La dernière section montre comment la programmation dynamique permet
de représenter la décision séquentielle et les stratégies contingentes. Comme l’a
montré Treich [2000], elle permet une approche du principe de précaution qui
ne se borne pas à l’application de la règle du maximin.
S’il ne fallait retenir qu’une seule application des notions exposées ci dessus,
ce serait que les décisions ne peuvent pas êtres prises en supposant que le pire
est toujours sûr.
Références
Keneth J. Arrow and Anthony C. Fisher. Environmental preservation, uncertainty, and irreversibity. Quarterly Journal of Economics, 88 :312–319, 1974.
James P. Bruce, Hoesung Lee, and Erik F. Haites, editors. Le Changement
Climatique. Dimensions économiques et sociales. Contribution du Groupe
de Travail III au Deuxième Rapport d’évaluation du du Groupe d’Experts
Intergouvernemental sur l’évolution du climat. Dossiers et débats pour le
développement durable (4D), 1996. ISBN 2-9511782-9-4 pour 4D, 2-92114656-8 pour Editions Multimondes. URL http://www.ipcc.ch.
Franck H. Clarke. Optimization and nonsmooth analysis. Université de
Montréal, Centre de Recherche Mathématiques (CRM), 1989. ISBN 2-92112001-1.
M. Cohen and J.M. Tallon. Decision dans le risque et l’incertitude :l’apport des
modeles non additifs. Revue d’Economie Politique, 110(5) :631–681, 2000.
Fabio Cozman. A brief introduction to the theory of sets of probability measures, 1999. URL http://www-2.cs.cmu.edu/~qbayes/Tutorial/
quasi-bayesian.html.
G. de Cooman. The formal analogy between possibility and probability theory.
In G. de Cooman, D. Ruan, and E. E. Kerre, editors, Foundations and Applications of Possibility Theory – Proceedings of FAPT ’95, pages 88–98. World
Scientific, Singapore, 1995.
A. P. Dempster. Upper and lower probabilities induced by a multivalued mapping. Annals of Mathematical Statistics, 38 :325–339, 1967.
D. Ellsberg. Risk, ambiguity and the savage axioms. Quarterly Journal of
Economics, 75 :643–669, 1961.
22
Minh Ha-Duong. Comment tenir compte de l’irréversibilité dans l’évaluation
intégrée du changement climatique ? Thèse de doctorat, École des hautes
Études en Sciences Sociales, Paris, April 1998.
URL http://www.
centre-cired.fr.
Minh Ha-Duong, Michael J. Grubb, and Jean-Charles Hourcade. Influence of
socioeconomic inertia and uncertainty on optimal CO2 -emission abatement.
Nature, 390 :270–274, 1997.
Claude Henry. Investment decisions under uncertainty : The “irreversibility
effect”. American Economic Review, 64(6) :1006–1012, 1974.
Claude Henry and Marc Henry. Formalization and applications of the precautionary principle. Cahier 2002-008, Laboratoire d’Econométrie de l’Ecole
Polytechnique, February 2002.
F. H. Knight. Risk, Uncertainty and Profit. Houghton Mifflin, Boston, 1921.
URL http://www.econlib.org/library/Knight/knRUP.html.
Rik Leemans and Eric Kreilman. The IMAGE-2 model : policy and scientific
analysis. Final report NRP no. 410 200 037 481508 011, RIVM, March 1999.
Mark J. Machina and David Schmeidler. A more robust definition of subjective
probability. Econometrica, 60(4) :745–780, July 1992.
Alan S. Manne and Richard Richels. Buying Greenhouse Insurance : The Economic Cost of CO2 Emissions Limits. MIT Press, 1992.
Carol Mansfield. Despairing over disparities : Explaining the difference between
willingness to pay and willingness to accept. Environmental and Resource
Economics, 13(2) :219–234, March 1999.
Granger Morgan and Max Henrion. Uncertainty – A guide to dealing with
uncertainty in quantitative risk and policy analysis. Cambridge University
Press, 1990. ISBN 0-521-42744-4.
William D. Nordhaus. Managing the Global Commons. MIT Press, 1994.
Leonard J. Savage. The Foundations of Statistics. Dover, second edition, 1954.
ISBN 0-486-62349-1.
G. L. S. Shackle. Expectation in economics. Cambridge University Press, 2
edition, 1952.
Glenn Shafer. A Mathematical Theory of Evidence. Princeton University Press,
Princeton (NJ), 1976. ISBN 069110042X (hardback).
Ph. Smets. The axiomatic justification of the Transferable Belief Model. Technical Report TR/IRIDIA/95-8, IRIDIA, Bruxelles, 1995.
23
Philippe Smets. Decision-making in a context where uncertainty is represented
by a belief function, 2002. URL http://iridia.ulb.ac.be/~smets.
Michael Smithson. Ignorance and Uncertainty - Emerging Paradigms. SpringerVerlag, 1988. ISBN 3-540-96945-4.
Chris Starmer. Developments in non-expected utility theory : The hunt for
a descriptive theory of choice under risk. Journal of Economic Litterature,
XXXVIII :332–382, June 2000.
Ferenc L. Toth, Thomas Bruckner, Hans-Martin Füssel, Marian Leimbach, and
Gerhard Petschel-Held. The tolerable window approach to integrated assessments. pages 403–430. National Institute for Environmental Studies, Tsukuba, Japan, 10-12 March 1997. CGER Report Nr. I029-97.
Nicolas Treich.
Décision séquentielle et principe de précaution.
Cahiers d’Économie et de Sociologie Rurale, 55-56 :6–24, 2000.
URL
http://www.inra.fr/Internet/Departements/ESR/publications/
cahiers/pdf/treich.pdf.
Peter Walley.
Coherent upper and lower previsions, 1998.
URL
http://ippserv.rug.ac.be/documentation/upper_lower_prev/upper_
lower_prev.html.
Richard A. Young. Uncertainty and the environment : implications for decision
making and environmental policy. New horizons in environmental economics.
Edward Elgar, 2001. ISBN 1 84064 626 8.
L. A. Zadeh. Fuzzy sets as a basis for a theory of possibility. Fuzzy Sets and
Systems, 1(1) :3–38, 1978. Reprinted in Fuzzy Sets and Systems 100 :9-34,
1999.
24