Introduction aux approches économiques de l`incertitude - Hal-SHS
Transcription
Introduction aux approches économiques de l`incertitude - Hal-SHS
Introduction aux approches économiques de l’incertitude Minh Ha-Duong To cite this version: Minh Ha-Duong. Introduction aux approches économiques de l’incertitude. 2002. <halshs00008510> HAL Id: halshs-00008510 https://halshs.archives-ouvertes.fr/halshs-00008510 Submitted on 31 Jan 2006 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés. Introduction aux approches économiques de la gestion de l’incertitude∗ Minh Ha Duong† 26 septembre 2002 Résumé Cette communication définit quelques mots au sens où les entendent les économistes étudiant l’incertitude, les politiques climatiques et la modélisation intégrée. La première partie expose deux exemples pédagogiques définissant d’abord risque, incertitude, surprise, stratégie contingente. Pour l’incertitude qui n’est pas du risque, les probabilités subjectives et les critères safety first avec la valeur exposée au risque, les possibilités à la ShackleZadeh, le modèle de Dempster-Shafer ainsi que les probabilités imprécises dites aussi non-additives sont discutés. La seconde partie expose l’approche de l’incertitude dans les modèles : analyse de risque, sensitivité, Monte-Carlo et scénarios, puis analyse des bornes et viabilité et enfin l’optimisation dynamique stochastique. English summary : This paper introduces a few words used by economists studying uncertainty, climate policy and integrated assessment models. Section one uses two pedagogical examples to define risk, uncertainty, surprise and contingent strategy. Regarding uncertainty that is not risk, subjective probabilities with safety-first criteria and value at risk ; Shackle-Zadeh possibilities ; Dempster-Shafer evidence theory as well as imprecise probabilities are discussed. Section two exposes how uncertainty is treated in integated assessment models applied to climate policy analysis. It deals first with risk analysis, exposing sensitivity analysis, Monte Carlo methods and scenario building. Then the principles of bounding analysis are developped with viability theory. Finaly, the stochastic dynamic optimisation approach is illustrated. Mots-clés : Risque, Incertitude, Utilité, Probabilités imprécises, Modèles intégrés, Changement climatique. JEL : B40, C63, D80, Q25 ∗ Ce texte est parti d’une conférence prononcée à l’école des Houches “Incertitude et décision : le cas du changement climatique” en octobre 1999, organisée par Richard Topol et Daniel Vidal-Madjar du CNRS.Qu’ils en soient ici remerciés, ainsi que mon directeur JeanCharles Hourcade, mon collègue et ami Nicolas Treich et deux rapporteurs anonymes. † Chargé de Recherche au CIRED, CNRS. [email protected]. 1 1 Introduction Ce texte a pour but d’expliquer en quoi consistent les approches de la gestion de l’incertitude en économie. Il ne s’agit pas d’une synthèse disciplinaire, voir Cohen and Tallon [2000] pour celà, mais au contraire d’une introduction écrite dans une perspective interdisciplinaire, assaisonnée toutefois de quelques pistes de recherche originales. Etant entendu que la théorie de la décision dépasse largement le seul cadre des sciences économiques, ce texte introduit les concepts les plus utilisés en économie de l’environnement, en particulier par les modèles intégrés analysant les politiques vis à vis du changement climatique. Le fil directeur est la maximisation de l’espérance de l’utilité. La section suivante 2 expose intuitivement le vocabulaire et les concepts de base : décision, ignorance, incertitude, risque. L’exemple classique utilisé est celui du simple tirage dans une urne. En section 3, un autre exemple expose la notion de décision séquentielle et de valeur d’option, et surtout le modèle de l’espérance de l’utilité. Puis quelques approches théoriques générales de l’incertitude sont discutées en section 4 : probabilités subjectives, possibilités, DempsterShafer et probabilités imprécises. La deuxième partie illustre la mise en pratique des méthodes de gestion de l’incertitude dans des modèles appliqués, sur le thème des analyses intégrées des politiques climatiques. La section 5 traite de l’analyse de risque et la viabilité, et la section 6 illustre les modèles de décision séquentielle. 2 2.1 Concepts de base Incertitude et décision Pour commencer, il convient de distinguer l’incertitude de trois autres aspects de la décision en général. L’exemple du problème du changement climatique est illustratif à cet égard. C’est une situation multi-acteurs, les parties prenantes aux négociations sont nombreuses puisqu’il s’agit tant des états que des organisations non gouvernementales d’intérêt économique ou citoyennes. C’est une situation de décision multi-critères, car on peut difficilement mesurer sur une même échelle des effets comme l’augmentation possible de la mortalité et la migration des écosystèmes. Enfin, c’est aussi une situation de décision inter-temporelle, et même intergénérationelle. L’analyse qui suit ignorera volontairement les aspects multi-acteurs et multicritères, même si en pratique elles peuvent parfois être tout aussi importantes que l’incertitude. L’exemple du droit au développement durable, qui signifie qu’il est nécessaire de répondre aux besoins des générations présentes sans empêcher les générations futures de répondre aux leurs, illustre ces interdépendances : pour certains le développement durable se rapporte d’abord au risque environnemental et aux ressources naturelles à long terme ; pour d’autres c’est d’abord un aspect des relations entre pays en développement et pays développés. 2 La limite la plus difficile à tracer est celle entre l’aspect non déterministe et l’aspect inter-temporel. Quelques exemples peuvent montrer que les deux aspects sont fondamentalement distincts. Le choix d’une route vers la Lune est un problème déterministe pour lequel le temps joue un rôle important. A l’opposé, la stratégie à adopter en salle de ventes aux enchères est un problème non déterministe pour lequel on peut négliger la date à laquelle ont lieu les évènements, seul leur ordre compte. Pour l’étude des problèmes d’environnement, il s’avère nécessaire de conserver la liaison entre temps et incertitude. Par exemple, le principe de précaution stipule que en cas de dommages potentiels graves ou irréversibles, il ne faut ne pas attendre la certitude pour agir. Les sections qui suivent exposeront d’abord la théorie de décision sous incertitude à choix unique, avant de revenir sur l’aspect dynamique de la question. 2.2 Niveaux d’ignorance : risque, incertitude et surprise Traditionnellement, la Statistique et les Probabilités formalisent les situations de risque. Dans une discipline comme la Physique, par exemple, différentes interprétations des probabilités sont possibles : Fréquentielles On peut disposer en principe de séries d’observations dont on peut dériver des fréquences empiriques. L’interprétation des probabilités dans ce contexte ne pose pas de problèmes. Logiques Il est parfois fait appel à des modèles idéaux, comme le jeté de dé parfait dont les six faces sont équiprobables par symétrie. Là encore, il n’y a pas de difficultés conceptuelles majeures. Chaos Le chaos permet aussi de justifier le recours aux modèles stochastiques pour décrire des systèmes déterministes inobservés pendant un temps assez long. Le traitement de l’incertitude en économie repose sur des bases plus sophistiquées. Nous allons les aborder à travers l’exemple classique de l’urne contenant 90 billes colorées [Machina and Schmeidler, 1992]. Il s’agit d’un tirage unique, et la question est bien entendu de deviner quelle sera la couleur de la bille tirée. On peut par exemple imaginer un jeu gratuit dans lequel le parieur recevra 100F s’il devine juste, 0F sinon. Ce jeu permet de distinguer trois niveaux d’ignorance : Incomplétude Le paragraphe précédent ne donne pas la liste des tirages possibles. Ce cas illustre les situations dans lesquelles on ne connaı̂t pas limitativement les conséquences possibles. Des surprises sont possibles. Incertitude Supposons maintenant connu le fait qu’exactement 30 des billes sont rouges, les autres pouvant êtres noires ou blanches. Ce cas illustre les situations dans lesquelles les conséquences possibles sont connues mais on ne dispose pas de probabilités comme en physique. Risque On ajoute l’information selon laquelle chacune des 60 billes non-rouges a été tirée sans biaiser d’un sac bien mélangé contenant le même nombre de billes noires et blanches. Dans ce cas, non seulement les différentes 3 conséquences possibles sont connues, mais en plus on dispose de probabilités bien fondées. Au niveau d’ignorance le plus élevé des trois1 , les situations d’information incomplète échappent pour la plupart au cadre utilisé en économie. Il existe certes un corps important de techniques pour modéliser le raisonnement et les choix qui se font sur la base de prémices limitées. Elles relèvent essentiellement de la logique : “si A alors B”, et les recherches dans le domaine de la logique formelle ou de la simulation qualitative proposent de nombreuses extensions au calcul des propositions classique. Mais elles sont actuellement peu utilisées en économie. Certains auteurs désignent également les situations d’information incomplète par incertitude, mais nous suivrons la majorité en les gardant hors du champ de cette étude. Ce texte se concentre donc sur l’incertitude et le risque. Afin de mieux faire comprendre la différence entre ces deux notions, un sondage à main levée parmi l’audience de l’école des Houches “Incertitude et décision : le cas du changement climatique” en octobre 1999 a été réalisé sur l’exemple de l’urne décrit plus haut. Il est apparu que dans le cas d’incertitude, le public est davantage attiré par le choix “Rouge” alors que dans le cas de risque, il est indifférent entre les trois couleurs. Contrairement à la position de Knight [1921, I.I.26], l’incertitude désignera dans ce texte un niveau d’ignorance supérieur dans un sens inclusif : les situations de risque sont vues comme une classe particulière de situations d’incertitude. Une autre convention terminologique sera alors nécessaire pour désigner l’incertitude qui n’est pas du risque, nous l’appelerons incertitude non-spécifique, incertitude dure ou ambiguité, ce terme étant courant dans la littérature économique sur le sujet. Dans la réalité les situations d’incertitude sont peut-être plus courantes que les situations de risque, mais dans l’analyse économique c’est l’inverse. Pour des raisons historiques et techniques, certainement liées aux succès pratiques de la théorie probabilités, le risque est la sous-classe de l’incertitude de loin la plus étudiée à ce jour. Il est donc essentiel d’exposer d’abord la modélisation des décisions rationelles dans les situations de risque. Pour cela, nous allons convoquer un personnage bien connu des leçons d’économie : le Marchand de Glaces. 3 3.1 Théories de la décision et rationalités Rationalité et maximisation de l’espérance de gain Le Marchand de Glaces souhaite retenir un emplacement pour vendre ses Glaces à l’occasion d’un événement futur. Quatre emplacements a ∈ {α, β, γ, δ} sont possibles a priori. Les ventes dépendront également de la météo s ∈ {C, F }. Le profit prévisionnel Π(a, s) est représenté Table 1 en unités monétaires. 1 Smithson [1988] discute une taxonomie plus complète des situations d’ignorance, ne comprenant pas moins de dix-sept catégories. 4 s=C s=F Espérance a=α 10 2 6 a=β 6 4 5 a=γ 11 0 5.5 a=δ 8 3 5.5 Tab. 1 – Profit du marchand de glace Π(a, s) en keuros. Ce problème de décision stylisé permet d’abord d’introduire la question de la rationalité. En économie, celle-ci n’est pas toujours vue comme une vertu normative : il n’existe pas une seule meilleure rationalité. Au contraire, l’hétérogénéité des préférences et des goûts est un élément très important pour expliquer les échanges entre individus. Il peut être fait appel à plusieurs définitions de la rationalité, chacune pouvant servir à décrire les choix d’un agent économique particulier. On peut ainsi imaginer un marchand de glace de comportement optimiste, qui ne regarde que la ligne favorable du tableau (la première) et choisit donc a = γ. On peut l’imaginer au contraire pessimiste, il choisirait a = β pour s’assurer un gain de 4 dans le pire des cas. Ces cas sont parfois appelés les règles du maximax et du maximin. Elles sont applicables en situation de risque mais aussi d’incertitude non probabilisée. Supposons maintenant que le marchand dispose de probabilités bien fondées, c’est à dire de statistiques météorologiques. A la date et au lieu de l’évènement, le temps est chaud (s = C) une fois sur deux. Il est alors immédiat de calculer que le meilleur profit espéré est 6 et l’emplacement associé a = α. La règle de décision est la maximisation de l’espérance de gain. Son caractère intuitif en fait une définition intéressante de la rationalité économique. A cause du caractère inter-temporel de l’incertitude, il faut maintenant compliquer le modèle de décision. Supposons donc que le marchand puisse choisir son emplacement au dernier moment, et que dans ce cas il accèdera à des prévisions météo fiables, c’est à dire certaines. La meilleure stratégie à adopter serait alors d’attendre le dernier moment pour choisir entre a = γ et a = β en fonction de l’information. Cela permet de faire apparaı̂tre la notion de stratégie contingente, au coeur de la gestion dynamique du risque en économie. Le mot contingent est utilisé pour souligner que les actions dépendront des état du monde futur. C’est le sens de la remarque du Groupe Intergouvernemental pour l’étude du Climat “Le problème n’est pas de définir aujourd’hui la meilleure politique pour les 100 ans à venir, mais de choisir une stratégie avisée et de l’adapter ultérieurement à la lumière des progrès des connaissances”, [Bruce et al., 1996]. Avec la stratégie contingente optimale, le gain espéré du marchand est 7.5. Cela représente une amélioration de 1.5 par rapport à son évaluation précédente. On peut interpréter ce supplément de deux manières. D’une part, il s’agit de la valeur de l’information météo pour le marchand. 5 C’est la somme strictement maximale qu’il est disposé à payer pour obtenir la prévision. Ce concept de valeur espérée de l’information future est, d’un point de vue économique, généralisable à de nombreuses situations. Il permet par exemple de nommer les bénéfices sociaux de la recherche. D’autre part, c’est la valeur de la flexibilité. En effet le supplément de 1.5 ne se réalise que si l’option de choisir l’emplacement est maintenu ouverte jusqu’à ce que l’information arrive. Dans un contexte où l’information est gratuite, le marchand de glace est prêt à payer jusqu’à 1.5 pour se réserver la flexibilité de choisir au dernier moment. La notion économique sous jacente est ici celle de valeur d’option. Dans un contexte d’information croissante, il apparait donc utile de préserver la flexibilité des choix. Cet effet d’irréversibilité s’applique en particulier à la protection des ressources naturelles irremplaçables, comme l’ont montré Henry [1974] et Arrow and Fisher [1974]. 3.2 Le modèle général : maximisation de l’espérance de l’utilité Revenons maintenant au problème de décision a-temporel. Ce qui précède montre que plusieurs règles de décision rationelle dans l’incertitudes sont possibles : maximax, maximin, meilleure espérance de gain. Les économistes utilisent généralement un cadre unificateur de ces règles, la théorie de l’utilité. Pour illustrer la différence importante entre gain monétaire et utilité, on pourrait par exemple imaginer que le marchand a une dette de 4 à rembourser impérativement à court terme, et que de surcroı̂t tous ses gains au delà de 5 seront imposés à un taux confiscatoire. Dans ce cas par exemple, on comprendrait que l’utilité — au sens usuel de ce mot — des 4 premières unités de gain est nettement supérieure à l’utilité d’un passage de 4 à 8. Cela pourrait le conduire à un comportement pessimiste, a = β. Pour styliser ce type de comportement, dans lequel le gain procure de moins en moins d’utilité, les économistes sont conduits à utiliser des fonctions concaves du gain Π, dans le cas des firmes, ou de la consommation dans le cas des individus. Dans ce cadre formel, des choix rationnels différents peuvent être expliqués par des fonctions d’utilités différentes. Par exemple, on représente ainsi le fait que certains investisseurs préfèrent un portefeuille boursier peu risqué, alors que d’autres privilégient la perspective de performance. On utilise souvent l’une des trois fonctions suivantes u(Π) = ln(Π), u(Π) = Π, u(Π) = − Π1 . Les deux premières ont l’avantage d’être agréables à dériver. La troisième se rapproche davantage des estimations économétriques basées sur les comportements observés des agents. Réécrire la Table 1 avec cette fonction pour calculer l’espérance de l’utilité à la place de l’espérance de gain (exercice) montre dans ce cas que le choix optimal est a = β, comme dans une vision pessimiste du futur. A l’inverse, avec une fonction comme u(Π) = Π2 qui surpondère les gains élevés (autre exercice, même si l’hypothèse est moins réaliste), le choix optimal est a = γ comme dans une vision optimiste du monde. 6 Cet exemple montre qu’il est possible, dans le même cadre de la maximisation de l’espérance de l’utilité, de retrouver les résultats des trois règles de décision rationelle discutées précédement : maximax, maximin et espérance de gain. Tout dépend de la fonction choisie, qui traduit les préférences du décideur. On peut alors se poser la question de la généralité de cet exemple. Etant donné un décideur, peut-on toujours représenter ses préférences dans ce cadre ? La puissance de la théorie provient du fait que la réponse est affirmative, sous réserve que ses préférences soient raisonnables. Considérons par exemple une quatrième règle de décision rationelle, importante en finance : l’efficacité moyenne-variance. La règle dit qu’entre deux portefeuilles boursiers de même espérance de gain, celui qui a la plus faible variance est préférée. Réciproquement, pour un même niveau de risque, le portefeuille le plus rentable en espérance est préféré. Notons que cette règle ne définit pas un optimum unique, mais une famille de portefeuilles efficaces. Dans cette famille, les portefeuilles plus performants (grande espérance de gain) sont aussi plus risqués (grande variance). La famille des portefeuilles efficaces peut être obtenue en maximisant l’espérance de l’utilité quand les fonctions utilisés sont quadratiques. Il est immédiat en effet que leur espérance s’exprimme exactement l’aide des deux premiers moments : le gain espéré et sa variance. Il existe d’autres justifications pour la règle d’efficacité moyenne-variance : on peut aussi considérer le développement limité d’une utilité dérivable, pour de petits risques, ou alors le cas où la loi de probabilité est normale. En conclusion de cette introduction à la maximisation de l’utilité, il est utile de prévenir une confusion possible dans l’emploi du mot utilité en ce qui concerne les aspects inter-temporels : Lorsqu’un agent économique vit 2 périodes, son critère de décision est souvent formalisé comme J(c1 , c2 ) = f (c1 ) + βf (c2 ), où ct représente sa consommation à la période t et où β , appelé facteur d’actualisation, peut représenter une préférence pure pour le présent. La concavité de la fonction f représente encore le fait que l’accroissement du gain monétaire procure de moins en moins d’utilité. Pour cette raison, elle est parfois appelée utilité intertemporelle de la consommation. Cependant la fonction f représente des préférences par rapport à la répartition de la consommation dans le temps, alors que la fonction u représente des préférences vis à vis du risque. Pour marquer la différence, f est aussi appellée la fonction de félicité intertemporelle lorsque le contexte l’exige. C’est le cas par exemple lorsque c̃2 est aléatoire, et qu’on écrit J(c1 , c̃2 ) = f (c1 ) + βf (u(c̃2 )). La maximisation de l’espérance de l’utilité apparaı̂t donc comme le cadre standard satisfaisant pour modéliser les situations de risque. En ce qui concerne l’incertitude en général, la situation est moins aboutie. 7 4 L’incertitude au delà du risque Retournons à l’exemple classique de l’urne introduite en section 2.2, contenant 90 billes colorées dont 30 sont rouges, les autres pouvant être noires ou blanches. La description est volontairement vague et non-spécifique concernant la distribution des billes noires et blanches. Ellsberg [1961] appelle ambiguité cette sorte d’incertitude, terme repris dans la littérature économique subséquente. Smithson [1988] a critiqué le choix du mot pour la raison suivante : usuellement, l’ambiguité désigne une situation lexicale dans laquelle le contexte ne suffit pas à résoudre un problème de polysémie. Cette ambiguité pourrait être levée en désignant par incertitude non-spécifique, ou encore incertitude au sens de Knight [1921], la situation de probabilités vagues a priori décrite par Ellsberg. On rencontre aussi le terme incertitude dure. Pour modéliser ce genre de situation d’incertitude non-spécifique (d’ambiguité, si on préfère), il existe une variété d’approches. Cette section discute quatre d’entre elles, dont les relations sont représentées figure 1. Les probabilités subjectives consistent à ramener l’incertitude au risque. La théorie des possibilités se pose comme une alternative aux probabilités, elle modèlise l’imprécis ou le vague comme un aspect de l’incertitude totalement distinct du risque. La théorie de Dempster-Shafer unifie les probabilités et les possibilités. Il existe d’autres théories encore plus générales, désignées collectivement comme les modèles de probabilités imprécises. 4.1 Probabilités subjectives Une première approche consiste à ramener formellement l’incertitude au risque en considérant les probabilités comme subjectives. Les trois interprétations des probabilités décrites au début de ce texte : fréquentielle, logique, chaos peuvent être qualifiées d’objectives au sens où elles dérivent des caractéristiques intrinsèques du système étudié. Au contraire les probabilités subjectives sont, comme la fonction d’utilité, un reflet des préférences personnelles du décideur. On les désigne aussi par probabilités épistémiques. Les probabilités subjectives sont utilisables pour définir des positions de précaution vis à vis des catastrophes possibles. Même si on ne dispose pas de statistiques sur des évènements par définition rarement observés, il est toujours possible d’extrapoler une distribution de probabilités. Les critères dits safetyfirst formalisent la précaution par rapport aux évènements de faible probabilité mais de grande conséquence. Dans cette tradition, le risque est défini par deux paramètres, la probabilité d’occurence et l’ampleur de la perte. Le risque peut se contrôler selon chacune de ces deux directions. La première direction consiste à minimiser la probabilité d’une catastrophe inaceptable, c’est à dire supérieure à un seuil donné. Réciproquement, on peut chercher à minimiser l’ampleur de la catastrophe définie comme étant le cas défavorable se produisant avec 5 pour-cent de probabilité (5-percentile inférieur), par exemple. Il est aussi possible de contrôler 8 Imprecise probabilities theories Walley (1991) Evidence theory Shafer(1975) Probability theory Savage (1954) Possibility theory Zadeh (1978) Fig. 1 – Relation entre les modèles de l’incertitude. Les probabilités modélisent le risque, le hasard. Les possibilités modélisent l’imprécis, le flou (Zadeh) ou le degré de surprise potentiel (Shackle). La théorie de Dempster-Shafer (evidence theory) modélise la croyance et la plausibilité. Toutes ces modèles peuvent être vus comme des cas particulier de probabilités imprécises, qui peuvent se représenter par un ensemble convexe de distributions de probabilités. 9 le risque dans les deux directions à la fois : maximiser le gain sous contrainte que la probabilité d’une catastrophe d’ampleur donnée ne dépasse pas un seuil donné. Ces critères sont utilisé dans la gestion du risque, en particulier dans les institutions financières, à l’aide de la notion de valeur exposée au risque. La valeur exposée au risque V se définit à une échéance (3 mois par exemple) et à un niveau de risque donné (5% par exemple) comme suit : dans la distribution de probabilité des revenus à trois mois, c’est le 5-percentile du côté des pertes. La valeur au risque est une notion plus intuitive que la variance ou l’écart type : il y a 5 pourcent de chances de perdre plus que V durant les trois prochains mois. Les probabilités subjectives sont très opérationnelles, puisque tout le formalisme de l’espérance de l’utilité développé précédement pour le risque reste utilisable. De plus les solides fondations axiomatiques de Savage [1954], Machina and Schmeidler [1992] montrent qu’elle permet de modéliser une large catégorie de problèmes de décision sous incertitude. En conséquence, c’est une approche très utilisée. 4.2 Possibilités D’un autre côté, les probabilités subjectives ont toujours été critiquées comme une approche réductionniste qui ramène l’incertitude au risque. Il n’est ni possible ni utile de rendre compte ici des controverses historiques qui ont traversé le siècle dernier. Au delà des débats dogmatiques autour des fondements ou de la loi de Bayes, c’est un point de vue éclectique qui semble se dégager aujourd’hui. En effet, il n’est plus possible d’ignorer l’existence d’une catégorie d’incertitude totalement distincte du risque : les choses floues, imprécises, vagues ou encore mal définies. Cette sorte d’incertitude est modélisée par la théorie des possibilités, introduite par Zadeh [1978] pour traiter l’incertitude attachée aux sens des mots en langage naturel, comme “grand” ou “jeune”. Comme le montre de Cooman [1995], la théorie des possibilités peut être développée parallèlement à la théorie des probabilité. On retrouve notament les concepts d’intégrale floue, de variable possibilistique, de distribution de possibilité. Les axiomes de cette théorie en font une version moderne du calcul sur les degrés de surprise introduit en économie par Shackle [1952]. Il s’agit d’une théorie non-additive au sens où la possibilité d’un tirage ‘Blanc ou Noir’ se calcule comme le maximum entre la possibilité d’un tirage ‘Blanc’ d’une part, et la possibilité d’un tirage ‘Noir’ d’autre part. Le dual de la possibilité d’un évènement, c’est à dire un moins la possibilité de son contraire, est désigné par nécessité. La portée du concept d’imprécision en économie ne saurait être sous-estimée. Au niveau théorique, par exemple, l’utilité floue rend certainement mieux compte de la nature d’un objectif comme le bonheur. Elle est présente dans les recherches sur la décision multi-critère ou multi-acteurs. En ce qui concerne les modèles intégrés en économie de l’environnement, Young [2001] a démontré son impor10 tance pratique. Enfin au niveau opérationnel, la théorie floue fait partie des techniques utilisées par les systèmes d’aide à la décision en matière de gestion des ressources naturelles. Au niveau conceptuel des théories de l’incertitude, l’étape suivante consiste à passer du point de vue éclectique au point de vue unificateur. Il existe une variété d’approches qui généralisent à la fois les possibilités et les probabilités, et permettent d’opérationaliser la différence entre le risque et l’incertitude. Examinons d’abord la plus simple d’entre elles, la théorie de Dempster-Shafer, avant de considérer les modèles plus généraux de probabilités imprécises. 4.3 Dempster-Shafer La petite expérience de l’urne d’Ellsberg décrite au début montre un jeu dans lequel les agents préfèrent un risque (parier sur un tirage Rouge) plutôt qu’une situation d’incertitude non-spécifique (parier sur un tirage Blanc). Cette situation est appelée aversion à l’ambiguité en théorie microéconomique. Pour analyser ce genre de comportement face à l’incertitude, il est plus pratique de se placer hors du cadre des probabilités subjectives, et représenter explicitement le caractère non-spécifique de l’information disponible. La théorie de Dempster-Shafer est ainsi nommée d’après la règle introduite par Dempster [1967] et appliqués à la révision des croyances par Shafer [1976]. Elle permet d’exposer simplement trois notions essentielles : la non-additivité, la différence entre preuve pour et absence de preuve contre, et les croyances a priori non-informatives. Les croyances à propos d’un ensemble S comprenant n éléments (états du monde possible) peuvent être définies a partir d’une distribution de probabilité m sur l’ensemble des parties de S. Pour tout sous ensemble A de S, le poids de l’opinion selon laquelle l’état du P monde réel est dans A, c’est à dire la croyance en A, se calcule comme bel(A)= E⊆A m(E). Il ne suffit donc plus de n probabilités, il faut 2n nombres pour représenter les croyances. L’exemple de l’urne se formalise dans la théorie de Dempster-Shafer en posant que la croyance en {Rouge} est 30/90, la croyance en {Blanc, Noir} est 60/90, mais la croyance spécifique en {Blanc}, comme la croyance spécifique en {Noir}, est égale à zéro. Il ne s’agit donc pas d’une distribution de probabilité sur S={Blanc, Rouge, Noir}, puisque 60/90 ne fait pas 0+0. L’additivité des probabilités est remplacée par la sous-additivité des croyances. On définit la plausibilité d’un évènement A comme un moins P la croyance en son complémentaire, c’est à dire pl(A) = 1 - bel(S − A) = E∩A6=∅ m(E). Cette distinction entre croyance pour A et absence de croyance contre A est cruciale dans toutes les théories de l’incertitude non-probabiliste. Pour prendre un exemple juridique essentiel, l’absence d’alibi ne vaut pas preuve de culpabilité. Le manque total d’information spécifique se traduit par la fonction de croyance vide, qui donne le poids unitaire à S et zéro à tout sous-ensemble propre de S, c’est à dire bel(S) = 1 et bel(E) = 0 pour tout E 6= S. Dans ces conditions, la plausibilité de n’importe quel sous ensemble est un, mais sa croyance zéro. On évite ainsi le choix arbitraire de probabilités a priori. 11 Par définition, quand m(A) 6= 0 on dit que A est un ensemble focal. Dans le cas où les ensembles focaux sont tous des singletons, bel est une mesure de probabilité. Dans le cas où la famille des ensembles focaux est emboitée, bel est une mesure de possibilité. Comme la figure 1 l’illustre, l’approche constitue une extension des probabilités et des possibilités. Dans le cas des croyances probabilistes, et seulement dans ce cas, les deux fonctions pl et bel sont égales : p(A) = 1 - p(S − A). Nous avons présenté la théorie de Dempster-Shafer car c’est la plus simple qui permet d’analyser les notions de non-additivité, distinction entre preuve pour et absence de preuve contre, et information a priori vide. Ces idées se retrouvent dans toute une série de théories de l’incertitude qui géneralisent les probabilités. 4.4 Probabilités imprécises Le terme de probabilités imprécises regroupe différentes théories formalisant les situations d’incertitude, dans une optique unificatrice [Cozman, 1999]. Du point de vue épistémologique, la relation entre les probabilités classsiques et les probabilités imprécises est comparable avec la relation entre la mécanique classique et la mécanique quantique. La théorie plus compliquée généralise la théorie simple, mais celle ci-reste très largement dominante dans les applications pratiques. L’approche appelée quasi-bayésienne est sans doute la plus utilisée en économie pour étudier l’ambiguité. Elle consiste à modéliser l’information des agents non pas par une loi de probabilité unique, mais par une famille convexe D de lois de probabilités. Cet ensemble qui représente les croyances est appellé l’ensemble credal, du latin credo, ‘je crois’. Une remarque importante est qu’il n’est pas nécessaire de probabiliser cette famille. Il ne semble donc pas indispensable de pousser jusqu’aux probabilités du second ordre, c’est à dire les probabilités de probabilités (et ainsi de suite) dans toute leur généralité. Revenons au marchand de glaces qui doit choisir un emplacement a parmi quatre options { α, β, γ, δ } sans savoir si le temps futur sera chaud (s = C) ou froid (s = F ) ; dont la matrice des gain est donnée table 1. Supposons que le marchand dispose de l’information suivante : sur les 10 dernières années, il a fait 5 fois Chaud et 3 fois Froid. Il manque deux observations, les années où le marchand n’a pas participé à l’évènement. En termes de probabilités imprécises, cette information se traduit en disant que la probabilité de (s = C) est comprise dans l’intervalle [0.5, 0.7]. Dans la théorie de Dempster-Shafer, cela correspond à la fonction de croyance : bel({C}) = 0.5, bel({F })=0.3, bel({C, F })=0.2. Même si la théorie de DempsterShafer ne fait pas l’hypothèse de l’existence d’une loi de probabilité inconnue, toute fonction de croyance définit une famille convexe D de lois de probabilité par : p ∈ D ⇔ ∀ E, bel(E) ≤ p(E) ≤ pl(E) 12 C’est pourquoi les probabilités imprécises sont mathématiquement plus générales, comme le montre la figure 1. On peut distinguer trois approches de la prise de décision avec probabilités imprécises. 1/ Choisir un représentant parmi l’ensemble crédal D permet de se ramener à la maximisation de l’espérance de l’utilité avec des probabilités précises. L’opération qui fait passer des croyances aux probabilités en prenant le milieu de D au sens de Smets [1995, 2002] est appelée transformation pignistique, du latin pignus, ‘le pari’. Dans l’exemple, on prend p(C) = 0.6, et le choix de l’emplacement α maximise le profit espéré. 2/ L’approche non-additive [Cohen and Tallon, 2000, Starmer, 2000] fait appel à une forme de précaution. Comme toutes les probabilités dans D ont la même force, la décision se fonde sur le meilleur et/ou le pire des cas. Dans l’exemple, pour p ∈ D ⇔ 0.5 ≤ p(C) ≤ 0.7 les bornes inférieures et supérieures du profit espéré sont : Espérance inférieure Espérance supérieure a=α 6.0 7.6 a=β 5.0 5.4 a=γ 5.5 7.7 a=δ 5.5 6.5 Sélectionner l’acte qui maximise l’espérance supérieure revient à adopter un point de vue optimiste sur les probabilités. Les outils mathématiques utilisés dans le cas général sont l’intégrale de Choquet et la formule de l’utilité dépendante du rang. La moyenne pondéré des espérances inférieure et supérieure a aussi été proposée comme critére de décision rationnelle. 3/ L’approche non-additive peut être développée davantage en rejettant l’axiome de la complètude des préférences. Comme exposé dans Walley [1998], il est cohérent de préférer un choix à un autre si et seulement si l’espérance de gain du premier est meilleure que celle du second quel que soit p dans l’ensemble crédal. L’acte α est préféré à l’acte β si et seulement si l’espérance inférieure de la différence de profit est positive : α > β ⇔ inf Ep [Π(α, s) − Π(β, s)] > 0 p∈D (1) Cette relation est vérifiée dans l’exemple, ainsi que α > δ, γ > β, δ > β. L’équation 1 définit un ordre partiel : aucune préférence n’est définie entre γ et δ, ni entre α et γ. Comme les préférences sont incomplètes, il n’est pas possible de déterminer un meilleur choix unique. On peut cependant dire que le choix α est maximal au sens où aucune autre alternative ne lui est préférée. Le choix γ est aussi maximal. Les choix rationnels selon cette approche sont définis comme les choix maximaux, c’est à dire α ou gamma. Parmi ces trois approches de la décision en incertitude : pignistique, nonlinéaire et préférences incomplètes, la seconde est la moins nouvelle en économie. Comme l’ont écrit Henry and Henry [2002], ces approches sont remarquables car elles s’appuient sur un principe de précaution. Une seconde remarque peut être avancée en comparant dans la formule 1 le choix α incertain avec un choix hypothétique µ sans risque. Le pari α est 13 préféré à µ si et seulement si µ < inf p∈D Ep Π(α, s). L’espérance inférieure peut ainsi être vue comme la disponibilité maximale à payer pour acheter le profit incertain. Réciproquement, un gain certain ν est préféré à α si et seulement si ν > maxp∈D Ep Π(α, s). L’espérance supérieure représente donc le consentement minimal à recevoir pour abandonner le profit incertain. Il n’y a pas la place d’élaborer cette remarque sur la différence entre consentement à payer et à recevoir qui renvoie cependant à un problème important d’économie de l’environnement, voir Mansfield [1999]. Come Treich [2000], on peut trouver que la théorie de la décision dans l’incertitude est insatisfaisante et présente des limites opérationnelles. En effet avec les préférences incomplètes, plus les probabilités sont imprécises moins on peut discriminer entre les alternatives. Par exemple si l’intervalle est [0.3,0.7], alors les quatre choix sont maximaux : on ne peux rien dire du tout. On peut cependant considérer que cette limitation de la théorie est normale et même souhaitable. Lorsque l’information est rare et que les probabilités sont imprécises, plusieurs choix sont raisonnables. Cette introduction à quelques théories de l’incertitude ne rend pas justice à la profondeur du sujet. Pour rester simple, nous avons laissé de côté les notions de conditionnement et d’indépendance ; les aspects multi-variables et les réseaux bayésiens ; les cônes positifs de paris désirables, toute la correspondance avec la logique et bien d’autres pans du problème. La deuxième partie de ce texte montre comment ces notions sont utilisées en pratique. L’analyse discute le problème du changement climatique, et de la modélisation intégrée. 5 La gestion de l’incertitude dans les modèles intégrés Comme on le sait, l’augmentation des émissions de gaz à effet de serre dans l’atmosphère conduit à des perturbations potentiellement dangereuses du climat. Parmi le grand nombre de modèles relatif au changement climatique, ce qui suit s’intéresse à une classe particulière : les modèles intégrant la décision sous incertitude. Le rôle central de la décision qui caractérise les modèles économiques permet d’exclure les modèles de simulation purs. C’est pourquoi nous mentionnerons seulement l’utilisation des théories modernes de l’incertitude, en particulier les possibilités et la théorie de DempsterSchafer, dans les modèles géographiques d’usage des sols, par exemple pour la classification des pixels d’images satellite. Les modèles intégrés d’impact du changement climatique peuvent aussi modéliser la décision sous incertitude au niveau des agents microéconomiques localisés. Mais comme précisé en introduction, ce texte laisse volontairement de côté les aspects multi-acteurs et multicritères. Nous avons vu précédement le principe de la maximisation de l’utilité. Pour le cas du changement climatique, l’approche économique conduit à imaginer une fonction de bien-être global J à maximiser. Un modèle intégré est une fonction 14 U (a, s) qui calcule le bien-être global J en fonction de deux arguments. Le premier argument est une variable représentant la politique climatique, l’acte a qu’il s’agit de calculer. Le second argument est un jeu de paramètres s représentant l’état du monde incertain. L’acte a peut représenter un simple niveau de consommation, mais aussi une trajectoire inter-temporelle dans un espace à plusieurs biens. De plus, toutes les trajectoires ne sont pas possibles, il existe un jeu de contraintes a ∈ A. Pour fixer les idées, dans le modèle utilisé ci-après l’incertitude concerne le plafond ultime acceptable pour la concentration de CO2 dans l’atmosphère. La variable aléatoire s est le plafond exprimé en parties par million de volume, ppmv. Elle est équidistribuée entre 450 ppmv, 550 ppmv et 650 ppmv (la concentration était autour de 275 ppmv avant l’ère industrielle). La variable de contrôle a(t) représente la trajectoire de réduction des émissions mondiales de dioxyde de carbone en fonction du temps. L’objectif U est une fonction quadratique décroissante de a, représentant le coût économique et social des politiques de contrôle des émissions polluantes. Le modèle est présenté en détail dans HaDuong et al. [1997]. Gérer l’incertitude dans un modèle, c’est ne pas se restreindre à une seule image du futur. Il existe plusieurs façons de rendre multivoque l’analyse. Ces approches sont illustrées à l’aide de la Figure 2. Celle ci représente diverses trajectoires d’émissions de CO2 pour le prochain siècle. La trajectoire supérieure IS92a reference représente ce qui pourrait se passer en l’absence de politique spécifique. La trajectoire Kyoto représente ce qui pourrait se passer si les limitations quantitatives du Protocole de Kyoto étaient respectées. Les autres courbes représentent les résultat du modèle optimisant U sous incertitude. Les courbes en tireté montrent deux trajectoires calculées dans une approche a-temporelle du risque et de l’incertitude, discutée dans la suite de cette section. La courbe U 550, qui bifurque en trois branches après 2020, illustre une stratégie contingente : une seule des trois branches sera suivie, en fonction de s. La courbe a été calculée en utilisant l’approche de programmation dynamique stochastique discutée plus loin section 6. 5.1 L’analyse de risque classique Les méthodes de base utilisées pour gérer l’incertitude sont l’analyse de sensibilité, l’analyse de Monte-Carlo et l’analyse des scénarios. L’analyse de sensibilité vise à tester la robustesse du modèle vis à vis du calibrage, c’est à dire au choix de s. On parle d’incertitude paramétrique. Étant donné une distribution de probabilité sur les paramètres s, on examine d’abord comme cas central le problème certain dérivé. En première approximation, on remplace donc les paramètres aléatoires par leur espérance : X J ∗ = max U (a, ps s) (2) a∈A s 15 GtC 12 IS92a reference 11.5 W550 11 10.5 10 U550 9.5 9 Kyoto S550 8.5 years 2000 2005 2010 2015 2020 2025 Fig. 2 – Différentes trajectoires d’émissions de CO2 pour le prochain quart de siècle. Source Ha-Duong [1998]. Ayant calculé l’acte optimal a∗ , on examine ses variations par rapport aux changements dans les paramètres s. On étudie chaque paramètre sk l’un après l’autre. Classiquement, il s’agit de recalculer les résultats du modèle en ayant doublé ou divisé par deux la valeur de l’un des paramètres sk . Par exemple, dans le modèle de politique climatique DICE de Nordhaus [1994], les paramètres les plus importants se rapportent à 1/ la décélération de la croissance de la population, 2/ la décélération de la croissance de la productivité, 3/ le taux de préférence sociale pure pour le présent, 4/ la vitesse de décroissance de l’intensité en GES de la production, 5/ l’intercept de la fonction de dommage. L’analyse de sensibilité permet de mettre en évidence quels sont les paramètres critiques du modèle. On est alors conduit à explorer les variations jointes de ces paramètres. Pour cela, les méthodes de Monte Carlo permettent de tester un grand nombre de paramétrages. Le modèle intégré d’optimisation cherche la meilleure politique climatique en faisant comme si s était connu, ce qui se note de la façon suivante : Js∗ = max U (a, s) a∈A (3) Il s’agit de tirer un grand échantillon de paramètres s, d’exécuter le modèle pour chaque tirage, puis d’examiner la distribution empirique des résultats. La méthode est intensive en calcul, mais moins que s’il fallait explorer exhaustivement les combinaisons possibles de tous les paramètres. 16 5.2 Les scénarios La méthode des scénarios consiste à traiter symétriquement un petit nombre de paramétrages. Cette méthode peut être mise en oeuvre comme la suite logique des deux précédentes. Dans cette procédure, l’analyse de sensibilité est d’abord nécessaire de déterminer les paramètres critiques. Puis les méthodes de Monte-Carlo permettent d’explorer tout l’espace des possibles. La sélection d’un nombre réduit de scénarios contrastés et informatifs, peut alors s’opérer en considérant les quantiles de la distribution des empirique des résultats. Une autre approche est aussi répandue pour la construction des scénarios. Il s’agit de partir d’un ensemble de visions du monde décrites littéralement, et d’en déduire les paramétrisations. Cette méthode met l’accent sur le rôle non-prédictif des modèles. Ils sont utilisés dans ce cadre comme instruments de communication pour projeter des images plus parlantes du futur. En particulier, cette dernière approche de la scénarisation n’exclut pas les aller-retours pour redéfinir les paramètres en fonction des résultats. Sur la Figure 2 par exemple, les scénarios W550 et S550 représentent deux trajectoires alternatives compatibles avec la stabilisation de la concentration de CO2 à 550 ppmv à long terme (les courbes pointillées se recoupent au delà de 2050). Le scénario associé à W550 est ‘suivre la trajectoire de référence pendant deux décennies’, alors que le scénario de W550 est ‘agir tôt en réduisant les émissions’. Ces deux scénarios permettent de focaliser la discussion sur l’importance du court-terme dans l’évaluation des trajectoires de réduction. Une piste de recherche intéressante consisterait à utiliser la théorie de DempsterShafer pour de quantifier l’analyse de scénarios, en explicitant la plausibilité et l’informativité à partir de fonctions de croyance subjectives. 5.3 Viabilité : l’incertitude non-spécifique pure Comme Morgan and Henrion [1990] le rappellent, les méthodes d’analyse de risque sophistiquées exposées ci dessus doivent aussi êtres complétes par des analyses simples. L’approche qui vise à déterminer les ordres de grandeurs en se basant sur les lois de conservation, les équilibres, l’analyse dimensionnelle et le bon sens permet souvent de borner le problème, d’où son nom de Bounding Analysis. La théorie de la viabilité revisite cette approche dans un cadre inter-temporelle. L’approche en viabilité vise à caractériser l’ensemble {a ∈ A} de toutes les trajectoires satisfaisant un jeu de contraintes donné. La différence principale avec l’analyse de sensibilité est que toutes les trajectoires possibles sont déterminées par un seul calcul, et non par des variantes autour d’un scénario principal. Le groupe de modélisation intégrée de Potsdam, le PIK, développe la “Tolerable Windows Approach” dans ce cadre. Le modèle ICLIPS (Integrated Assessment of Climate Protection Strategies, Toth et al. [1997]) calcule l’ensemble des profils d’émission compatibles avec un jeu de contraintes écologiques et socio-économiques. Le modèle climat-océan-atmosphère représente une dizaine d’espèces et les impacts régionalisés. 17 GtC 12 10 8 6 4 2 2000 2020 2040 2060 2080 yr 2100 Fig. 3 – Un couloir de viabilité. Dans le modèle utilisé ici pour illustrer le concept de couloir de viabilité, les trajectoires d’émissions globales de CO2 sont définies par deux dates-clés t1 et t2 . Ces dates délimitent trois périodes. Pendant la première période, de t0 à t1 , les émissions mondiales augmentent linéairement en suivant la tendance de référence. La seconde période est caractérisée par une trajectoire parabolique entre t1 et t2 , c’est un temps de transition2 . La troisième période, au delà de t2 présente une décroissance exponentielle des émissions au taux constant de 3% par an. Parmi cet ensemble de trajectoires, la Figure 3 illustre celles qui sont compatibles avec un plafond de concentration fixé à 500 ppmv. Ce plafond de concentration constitue ici la contrainte de viabilité. La zone entre les enveloppes supérieure et inférieures de cette famille de courbes constitue le couloir de viabilité. Par tout point du couloir il passe au moins une courbe viable, même si par souci de clarté toutes ne sont pas représentées sur la figure. Représenter toutes les trajectoires viables aurait obscurci la remarque fondamentales propre à cette technique : toute courbe arbitraire tracée à l’intérieur du couloir n’est pas nécessairement viable. En particulier, la frontière supérieure n’est pas une trajectoire viable. Plus le décrochage par rapport à la tendance intervient tard, plus la période de transition doit être brève, et plus le passage sur un mode de décroissance exponentielle doit intervenir tôt. Une autre caractéristique de ce type d’approche est son caractère intensif en calcul. Mathématiquement, la dynamique du système est représentée par 2 Les raccords en t et t sont tels que la trajectoire d’émissions en fonction du temps reste 1 2 continue et dérivable. 18 une inclusion différentielle. Comme l’expose Clarke [1989], il existe des liens mathématiques directs avec la théorie de l’optimisation dynamique et de la controlabilité. Par définition, toute trajectoire optimale sous contraintes est viable par rapport à ces mêmes contraintes. Cependant, les approches numériques de la viabilité utilisent des outils notablement différents des codes d’optimisation courants. Dans l’esprit de la viabilité, par exemple, l’équipe d’IMAGE au RIVM a procédé à une analyse selon le concept de Safe Landing Corridor, décrite par Leemans and Kreilman [1999]. L’approche consista à : 1/ Tirer un large échantillon de scénarios d’émission, calculer les impacts associés. 2/ Filtrer l’échantillon précédent par des contraintes de faisabilité technico-économiques. 3/ Filtrer à nouveau en fonction d’objectif d’environnement. Pour la dernière étape, les chercheurs ont utilisé une maquette statistique de la relation impact-émissions déterminée sur l’échantillon de départ, maquette qui tourne en quelques secondes au lieu de plusieurs heures. L’approche en viabilité se passe de la notion de probabilités. Il s’agit d’une analyse de l’incertitude non spécifique pure, c’est à dire de l’ambiguité. Elle prend en compte le caractère inter-temporel, mais pas l’arrivée d’information. Mais comme expliqué précédement, en situation d’incertitude l’approche la plus directe et répandue consiste à utiliser les probabilités subjectives. Dans ce contexte, il est alors possible de sophistiquer l’analyse de risque, pour prendre en compte le caractère inter-temporel de la décision. C’est l’objet de la section suivante. 6 Optimisation dynamique stochastique Cette dernière section met en oeuvre le concept de stratégie contingente introduit précédement avec le Marchand de Glaces. En particulier, elle offre une perspective plus détaillée sur les recherches évoquées récement par Treich [2000, note 12]. Dans l’analyse de risque classique, le modèle décrit une situation dans laquelle on choisit d’abord un acte, le risque étant résolu ensuite. C’est la situation du Marchand de Glaces au début de la section 3.1. Dans le cadre des modèles du changement climatique, Manne and Richels [1992] qualifie de situation “Act Then Learn” (ATL) ce type de raisonnement où la maximisation de l’utilité espérée s’écrit : X ∗ JAT ps U (a, s) (4) L = max a∈A s∈S Dans le modèle d’analyse du changement climatique utilisé ici, une telle formalisation induit un comportement pessimiste. En effet, la contrainte de plafonner à 450 ppmv dans le cas défavorable dicte le résultat, même si sa probabilité subjective n’est qu’un tiers. Sur la figure 2, ce cas conduit donc à une trajectoire basse, proche des courbes Kyoto et U550. Ce résultat pourrait être considéré 19 comme un défaut méthodologique du fait que s représente une contrainte stricte sur les concentrations de CO2 . En effet, il ne s’agit pas de choisir aujourd’hui pour le siècle prochain en considérant seulement le pire des cas. L’enjeu est d’adopter une stratégie de précaution susceptible de s’adapter, car le problème du changement climatique est intergénérationel. Prendre en compte le caractère séquentiel de la décision nécessite donc bien d’utiliser la notion de stratégie contingente introduite section 3.1. Supposons que l’état du monde s se révèle en 2020. La politique climatique a = (a1 , as2 ) se décompose en deux programmes, l’avant et l’après 2020. La première partie, a1 , représente la stratégie avant l’observation de l’état du monde s. La seconde partie, as2 , représente les différentes actions adaptées en fonction de la valeur de s observée. L’intuition essentielle de la programmation dynamique est que la maximisation de l’espérance de l’utilité s’opère en deux étapes en commençant par la fin : En 2020, le programme de décision sera le choix de as2 qui maximise U (a1 , as2 , s), étant entendu que dans cette expression s et a1 seront constants, puisque l’état du monde sera observé et l’action en première période sera terminée. Posons V (a1 , s) = maxas2 U (a1 , as2 , s). En première P période, le programe de décision est la maximisation de l’espérance de l’utilité soit s∈S ps V (a1 , s). La maximisation est écrite en sachant que le second choix sera optimal. Le mode de résolution qui en suit est appelé “Learn Then Act” (LTA) pour les modèles intégrés du changement climatique. Les deux étapes peuvent s’écrire en une seul formule : X ∗ JLT ps max U (a1 , as2 , s) (5) A = max s a1 a2 s∈S sous la contrainte ∀s, (a1 , as2 ) ∈ A. Une stratégie contingente optimale de ce type est illustrée figure 2 par les courbes U550. Dans cet exercice, nous avons supposé que le choix d’un objectif de long terme (450, 550 ou 650 ppmv) était pris en 2020 avec équiprobabilité. Pour résoudre numériquement, il est utile de ramener le programme précédent à un programe comportant un seul opérateur de maximisation. Supposons que s puisse prendre N valeurs distinctes. En considérant les as2 comme N variables indépendantes, on peut écrire : X ∗ JLT ps U (a1 , as2 , s) (6) A = max s a1 ,a2 s∈S Une seconde astuce technique facilite l’implémentation de la formule (5) dans les modèles. Sur la figure 2, il s’agit de considérer que la courbe U550 dans sa partie avant 2020 résulte en fait de la superposition des trois branches confondues. En terme de programmation, on considère que l’ensemble des actions a = (a1 , as2 ) n’est autre que comme l’ensemble des actions a(s) = (as1 , as2 ) lorsque as1 est en fait indépendant de s. 20 Il est alors possible de ramener la formule (5) à la la résolution d’un programme décrit par la formule (4) dans lequel la dimension du problème a été multiplié par N . X ∗ JLT ps U (a(s), s) (7) A = max a(s) s∈S 0 Sous la double contrainte ∀s, a(s) ∈ A et ∀ s, s0 ∈ S, as1 = as1 . La ‘recette’ pour obtenir (7) à partir de (4), c’est à dire résoudre en stratégie contingente un problème de décision exprimmé comme la maximisation de l’espérance de l’utilité est donc : faire dépendre les actions de l’état du monde, et lier les actions avant l’arrivée de l’information. Dans des langages spécifiquement conçus pour formuler des problèmes d’optimisation comme GAMS, la mise en oeuvre est assez simple. On peut alors accéder à la valeur espérée de l’information future EV F I ∗ , qui ∗ ∗ se définit comme la différence entre JAT L et JLT A . Dans le cas du changement du climat, cette valeur correspond au bénéfice social attendu des recherches sur la géophysique et sur les impacts permettant de définir un plafond acceptable. L’importance de préserver la flexibilité des choix, avec la notion de valeur d’option introduite section 3.1, peut ains être quantifiée. Un acte a1 sous-optimal en première période dégrade la valeur de l’information future : si les émissions de CO2 continuent à croı̂tre exponentiellement, une alerte à propos de bifurcations climatiques autour de 450ppmv sera inutile. 7 Conclusion Ce texte introduit l’approche économique de la gestion de l’incertitude. La première section a d’abord présenté la différence entre les situations dites d’incomplétude, d’incertitude et de risque. La différence entre l’incertitude et le risque est illustrée par l’exemple d’une urne contenant des billes noires et blanches dont on ne donne pas la proportion. Le risque est la partie de l’incertitude la plus étudiée dans la littérature. La seconde section montre que divers critères de rationalité face au risque : maximax, maximin et espérance de gain peuvent être unifiées dans le cadre de la maximisation de l’utilité espérée. Un exemple (marchand de glace) introduit les notions de décision séquentielle, de valeur d’option et de valeur espérée de l’information. D’autres critéres de rationalité, l’efficacité moyenne-variance et le safety first utilisant la notion de valeur au risque ont été présentés. Concernant l’incertitude qui n’est pas du risque, le texte place sur la figure 1 les possibilités en alternative aux probabilités, avec les probabilités imprécises comme synthèse unificatrice. Ces théories formalisent l’information non-spécifique, sont non-additives, distinguent information pour et absence d’information contre, et permettent de représenter l’information a priori vide. Nous montrons comment la précaution est au coeur de trois critères de décision dans l’incertitude : approche pignistique, approche non-linéaire, approche des préférences incomplètes. 21 Divers modes de gestion de l’incertitude dans les modèles intégrés du changement climatique tels que l’analyse de sensibilité et l’analyse de Monte-Carlo pour le risque ont été exposés. L’étude des scénarios et la viabilité sont utilisées pour l’incertitude qui n’est pas du risque. La viabilité étudie l’incertitude non-spécifique pure. La dernière section montre comment la programmation dynamique permet de représenter la décision séquentielle et les stratégies contingentes. Comme l’a montré Treich [2000], elle permet une approche du principe de précaution qui ne se borne pas à l’application de la règle du maximin. S’il ne fallait retenir qu’une seule application des notions exposées ci dessus, ce serait que les décisions ne peuvent pas êtres prises en supposant que le pire est toujours sûr. Références Keneth J. Arrow and Anthony C. Fisher. Environmental preservation, uncertainty, and irreversibity. Quarterly Journal of Economics, 88 :312–319, 1974. James P. Bruce, Hoesung Lee, and Erik F. Haites, editors. Le Changement Climatique. Dimensions économiques et sociales. Contribution du Groupe de Travail III au Deuxième Rapport d’évaluation du du Groupe d’Experts Intergouvernemental sur l’évolution du climat. Dossiers et débats pour le développement durable (4D), 1996. ISBN 2-9511782-9-4 pour 4D, 2-92114656-8 pour Editions Multimondes. URL http://www.ipcc.ch. Franck H. Clarke. Optimization and nonsmooth analysis. Université de Montréal, Centre de Recherche Mathématiques (CRM), 1989. ISBN 2-92112001-1. M. Cohen and J.M. Tallon. Decision dans le risque et l’incertitude :l’apport des modeles non additifs. Revue d’Economie Politique, 110(5) :631–681, 2000. Fabio Cozman. A brief introduction to the theory of sets of probability measures, 1999. URL http://www-2.cs.cmu.edu/~qbayes/Tutorial/ quasi-bayesian.html. G. de Cooman. The formal analogy between possibility and probability theory. In G. de Cooman, D. Ruan, and E. E. Kerre, editors, Foundations and Applications of Possibility Theory – Proceedings of FAPT ’95, pages 88–98. World Scientific, Singapore, 1995. A. P. Dempster. Upper and lower probabilities induced by a multivalued mapping. Annals of Mathematical Statistics, 38 :325–339, 1967. D. Ellsberg. Risk, ambiguity and the savage axioms. Quarterly Journal of Economics, 75 :643–669, 1961. 22 Minh Ha-Duong. Comment tenir compte de l’irréversibilité dans l’évaluation intégrée du changement climatique ? Thèse de doctorat, École des hautes Études en Sciences Sociales, Paris, April 1998. URL http://www. centre-cired.fr. Minh Ha-Duong, Michael J. Grubb, and Jean-Charles Hourcade. Influence of socioeconomic inertia and uncertainty on optimal CO2 -emission abatement. Nature, 390 :270–274, 1997. Claude Henry. Investment decisions under uncertainty : The “irreversibility effect”. American Economic Review, 64(6) :1006–1012, 1974. Claude Henry and Marc Henry. Formalization and applications of the precautionary principle. Cahier 2002-008, Laboratoire d’Econométrie de l’Ecole Polytechnique, February 2002. F. H. Knight. Risk, Uncertainty and Profit. Houghton Mifflin, Boston, 1921. URL http://www.econlib.org/library/Knight/knRUP.html. Rik Leemans and Eric Kreilman. The IMAGE-2 model : policy and scientific analysis. Final report NRP no. 410 200 037 481508 011, RIVM, March 1999. Mark J. Machina and David Schmeidler. A more robust definition of subjective probability. Econometrica, 60(4) :745–780, July 1992. Alan S. Manne and Richard Richels. Buying Greenhouse Insurance : The Economic Cost of CO2 Emissions Limits. MIT Press, 1992. Carol Mansfield. Despairing over disparities : Explaining the difference between willingness to pay and willingness to accept. Environmental and Resource Economics, 13(2) :219–234, March 1999. Granger Morgan and Max Henrion. Uncertainty – A guide to dealing with uncertainty in quantitative risk and policy analysis. Cambridge University Press, 1990. ISBN 0-521-42744-4. William D. Nordhaus. Managing the Global Commons. MIT Press, 1994. Leonard J. Savage. The Foundations of Statistics. Dover, second edition, 1954. ISBN 0-486-62349-1. G. L. S. Shackle. Expectation in economics. Cambridge University Press, 2 edition, 1952. Glenn Shafer. A Mathematical Theory of Evidence. Princeton University Press, Princeton (NJ), 1976. ISBN 069110042X (hardback). Ph. Smets. The axiomatic justification of the Transferable Belief Model. Technical Report TR/IRIDIA/95-8, IRIDIA, Bruxelles, 1995. 23 Philippe Smets. Decision-making in a context where uncertainty is represented by a belief function, 2002. URL http://iridia.ulb.ac.be/~smets. Michael Smithson. Ignorance and Uncertainty - Emerging Paradigms. SpringerVerlag, 1988. ISBN 3-540-96945-4. Chris Starmer. Developments in non-expected utility theory : The hunt for a descriptive theory of choice under risk. Journal of Economic Litterature, XXXVIII :332–382, June 2000. Ferenc L. Toth, Thomas Bruckner, Hans-Martin Füssel, Marian Leimbach, and Gerhard Petschel-Held. The tolerable window approach to integrated assessments. pages 403–430. National Institute for Environmental Studies, Tsukuba, Japan, 10-12 March 1997. CGER Report Nr. I029-97. Nicolas Treich. Décision séquentielle et principe de précaution. Cahiers d’Économie et de Sociologie Rurale, 55-56 :6–24, 2000. URL http://www.inra.fr/Internet/Departements/ESR/publications/ cahiers/pdf/treich.pdf. Peter Walley. Coherent upper and lower previsions, 1998. URL http://ippserv.rug.ac.be/documentation/upper_lower_prev/upper_ lower_prev.html. Richard A. Young. Uncertainty and the environment : implications for decision making and environmental policy. New horizons in environmental economics. Edward Elgar, 2001. ISBN 1 84064 626 8. L. A. Zadeh. Fuzzy sets as a basis for a theory of possibility. Fuzzy Sets and Systems, 1(1) :3–38, 1978. Reprinted in Fuzzy Sets and Systems 100 :9-34, 1999. 24