Les modèles dans les débats de politiques climatiques : entre le

Transcription

Les modèles dans les débats de politiques climatiques : entre le
1
Les modèles dans les débats de politiques climatiques :
entre le capitole et la roche tarpéienne ?
Jean-Charles Hourcade
CIRED
Novembre 2006
Dès que la question climat émergea sur l’agenda international en 1988, les modélisateurs
furent submergés de commandes pour répondre à deux questions : faut-il agir maintenant
attendre des preuves évidentes des risques encourus? Comment coordonner des politiques
touchant à l'ensemble des secteurs d'activité dans les 192 pays que compte la planète ?
L’économiste est mis ici au défi de l’ambition qu’il se donne soit, pour reprendre l’expression
de Alan Manne, to put some rationale into discussions, fournir un langage commun à des
parties prenantes séparées par des divergences d’intérêt et par des vues contrastées des enjeux.
Son utopie mobilisatrice est celle d’un dialogue serein entre partisans de l’action, convaincus
de la gravité des risques climatiques et de la possibilité de décarboniser nos économies à coûts
faibles et tenants de l’inaction optimistes sur l’ampleur des risques et pessimistes sur les coûts
d’une décarbonisation significative.
Quel bilan tirer un quart de siècle plus tard ? On partira ici de l’idée que, au-delà d’un flux de
‘chiffres’ fournis de façon continue, la contribution la plus cruciale de la modélisation s’est
faite au niveau de la problématisation même des enjeux. Le fait que le Protocole de Kyoto
soit un ‘unfinished business’ (retrait des USA, pas d’engagement quantifié des pays en
développement) est certes du à plusieurs facteurs dont des paramètres géopolitiques puissants.
Mais on ne peut faire comme si la structuration intellectuelle du processus n’était pour rien
dans ce semi échec alors même qu’un accord était loin d’être impossible entre ‘intérêts
économiques bien compris’ (Hourcade et Ghersi, 2002). Nous essayerons de montrer que
parmi les obstacles à un compromis, il y a les difficultés des modélisateurs à maîtriser les
visions du monde (donc les malentendus) qui se créent autour de leurs exercices et les
tensions entre les règles de la syntaxe des modèles (imposée par les mathématiques et par les
contraintes calculatoires), celles de leur sémantique (imposée par le corpus théorique sur
lequel ils s’adossent) et les glissements de sens provoqués par l’utilisation dans le langage
‘naturel’ des débats publics de notions sorties de leur contexte sémantique.
Nous le ferons par un itinéraire passant par trois lieux importants de controverses sur les
politiques climatiques. A chaque étape nous demanderons au lecteur un peu de patience et
nous l’arrêterons sur des ‘détails’ apparemment techniques. Dans ces détails se jouent en effet
les tensions entre les modèles comme langages de vérité sur le monde réel et les modèles
comme langage de négociation entre des acteurs.
Les modèles dont on parle ici sont des artefacts utiles pour ‘penser’ les enjeux des mondes
futurs. Mais on va se rendre compte comment ceux-ci sont interprétés en fonction de
croyances pré-établies (changeantes en fonction des périodes et des nécessités rhétoriques) et
comment, sans élucidation de ces interprétations, les risques sont grands que les exercices
2
modélisés ne participent à des jeux de masque qui amoindrissent leur capacité à révéler des
mécanismes méconnus et pourtant essentiels pour les débats publics.
I. EVALUATION
REFERENCE ?
DES POLITIQUES: ET SI ON REGARDAIT LE SCENARIO DE
Toute évaluation des politiques publiques repose sur un principe simple, projeter un
scénario de référence puis y injecter des mesures qui le déforment. Il est alors frappant de
constater que les discussions se polarisent sur ces mesures sans trop prêter attention au
scénario de référence, comme si celui-ci n’était qu’un simple détour du raisonnement. Or
comme, on va le voir, l’écriture de ce scénario prédétermine bien des conclusions.
Les enjeux d’un dialogue récurrent entre deux modeling tribes
Une part importante des scénarios énergie-croissance utilisés dans le dossier climat est
produite par des modèles dits bottom-up (BU). Riches en information technologique, ils
utilisent un langage proche de celui de l’ingénieur (expression en quantités physiques des
besoins de confort thermique, d’éclairage, de mobilité ou de force motrice) et leur composante
économique se réduit à la projection d’un scénario de croissance économique simple (le PIB,
sa répartition sectorielle et le revenu des ménages) et à la formulation d’hypothèses sur les
coûts des techniques et des énergies fossiles. Même si cela n’est pas systématique, ces
modèles conduisent assez aisément à des résultats plutôt optimistes. Les ingénieurs en effet
sont habiles à détecter des potentiels ‘à coûts négatifs’, en particulier matière d’efficacité des
équipements utilisateurs d’énergie ; ces potentiels sont dus à l’écart entre les techniques en
place et la meilleure technologie disponible. De même ils savent dessiner des systèmes futurs
de production d’énergie très peu émetteurs de carbone, chacun bien sûr en fonction d’une
expertise difficilement séparable de ses propres croyances ; tel fera un scénario ‘doux’
mobilisant les énergies nouvelles et renouvelables, tel autre mettra en scène la nouvelle corne
d’abondance que constituerait une ‘société de l’hydrogène’ adossée au nucléaire civil.
L’autre ‘tribu’ est celle des modèles ‘top-down’ qui privilégient l’étude des
interdépendances économiques entre groupes sociaux, secteurs et pays. Mobilisant la boîte à
outil de l’économiste, elle s’intéresse aux flux de valeur mais dessinent de façon beaucoup
plus fruste le contenu technique des scénarios. Sauf à représenter, on y reviendra, le doubledividende à attendre d’une articulation entre politiques climatiques et réformes fiscales, ces
modèles conduisent à des résultats généralement plus pessimistes. Ils mettent en scène en
effet des arguments solides qui tempèrent l’optimisme des approches d’ingénieur : impacts
(sur la distribution des revenus, l’emploi, la compétitivité, les choix de technique) de la
transformation des prix relatifs provoquée par les outils d’incitation (taxes, permis
négociables, normes) à mettre en place1, contraintes de financement venant du fait que les
technologies ‘sans carbone’ sont en général bien plus que les énergies fossiles, hausse de la
demande provoquée par les gains d’efficacité énergétique et baisse de la demande2.
1
Il n’est pas inutile de noter que l’argument vaut pour l’exploitation des potentiels à coûts négatifs : si les
meilleures techniques ne sont pas adoptées aujourd’hui, c’est bien qu’il y a quelque part une défaillance des
structures d’incitation.
2
Si, par des normes ou accords volontaires, on diffuse des moteurs consommant deux litres de carburants exfossiles aux cent km, cela fera baisser le coût de la mobilité automobile et rendra le transport routier de
marchandises plus compétitif par rapport au rail en l’absence d’une hausse des taxes sur les carburants.
3
L’enjeu du dialogue entre économistes et ingénieurs paraît donc évident : ce ne sont
pas des quantités de dollars ou d’euros qui émettent des gaz à effet de serre et il faut bien
représenter les systèmes techniques ; mais penser ces systèmes indépendamment de leur
contexte économique et social c’est construire des chimères. Or ce dialogue achoppe sur
quelques ‘détails’ techniques ; si on les regarde de près, on s’apercevra qu’ils sont en fait
révélateur de postures intellectuelles renvoyant à des enjeux plus fondamentaux que la simple
question du dialogue entre ingénieurs et économistes.
D’une astuce technique à une vision du fonctionnement du monde
Partons des modèles d’équilibre général calculables (MEGC) mobilisés par les
économistes pour pallier le caractère partiel des modèles bottom-up. Ces modèles
apparaissent dans un contexte précis à la fin des années quatre-vingt : repli des modèles
keynésiens critiqués pour leur manque de fondements microéconomiques, mise au point
d’algorithmes pour la résolution de modèles d’équilibre général de taille respectable tournant
sur des micro-ordinateurs. Bientôt, la diffusion de logiciels comme GAMS permettra, avec
une bonne formation mathématique et quelque ténacité, d’écrire rapidement des maquettes de
toute économie. Les MEGC vont bénéficier d’un important effet d’autorité et des modèles
empiriques assez riches pourront être adossées à la théorie de l’équilibre général alors que
celle-ci était surtout utilisée jusqu’ici dans des analyses en statique comparative sur la base de
maquettes très compactes de l’économie et ne pouvant fournir que des enseignements
qualitatifs sur la nature des mécanismes en jeu. Mais ce succès se fait au prix d’un tour de
force méthodologique dont on méconnaît généralement les implications.
Nous avons vu l’importance du traitement de la demande d’énergie ; c’est là que
certains voient une source de coûts négatifs, c’est aussi la variable clef qui contrebalance la
hausse du coût en capital des techniques économes en carbone et l’impact sur le pouvoir
d’achat des consommateurs d’une hausse des prix unitaires des énergies. Or, les MEGC vont
employer, pour l’analyse de la demande, une méthodologie qui va rendre difficile la
discussion des marges de manœuvre réelles à ce niveau.
La grande force des MEGC est de saisir les interdépendances et le concept d’équilibre
est ici central mais dans un sens très précis qui est en fait une contrainte de conservation des
flux de valeur. Agents et secteurs interagissent mais les flux qui les lient doivent être
équilibrés dans un sens strictement comptable : si un ménage ou un Etat est endetté, il y aura
simplement un signe moins sur le chiffre donnant son solde. Pour le dire crûment, l’équilibre
comptable peut renvoyer à des économies très déséquilibrées ; les premiers modèles
empiriques utilisant cette approche dans les années quatre-vingt traitaient d’ailleurs
d’économies sous-développées fort loin de l’équilibre optimal.
Un premier glissement sémantique autour de la notion d’équilibre vient de ce que, par
opposition aux modèles keynésiens, les MEGC vont chercher un fondement
microéconomique en représentant des acteurs économiques rationnels: observant les prix en
vigueur, les ménages composent leurs achats de façon à maximiser l’utilité qu’ils tirent d’un
revenu donné et les entreprises sélectionnent la technique qui minimise leur coût de
production. Qu’il me soit permis de demander ici au chercheur en sciences sociales sceptique
sur la notion de rationalité optimisatrice de ‘jouer le jeu’ et d’admettre qu’après tout la
formalisation dont nous parlons n’implique pas nécessairement une adhésion à
l’anthropologie de l’homo oeconomicus. On peut penser que l’évolution des techniques et des
préférences n’est pas réductible à des mécanismes économiques, et en même temps, qu’une
4
entreprise ne peut prendre durablement le risque d’une technique plus chère sans raisons
stratégiques; de même, la rationalité d’un consommateur est limitée par l’information dont il
dispose et le système symbolique qui formate ses goûts, mais il ne fera pas durablement
exprès d’acheter très cher un bien peu utile.
Ce qui nous intéresse ici est le nœud de malentendu autour du traitement de la
composante physique dans un tel dispositif. Concentrons nous, pour des raisons de simplicité
sur la fonction de production (le raisonnement vaut, mutatis mutandi, pour la demande des
ménages). L’information de base utilisée par un MEGC est un tableau de flux en valeur dont
on peut tirer une structure de coût (part de dépenses allouées au travail, aux équipements, à
l’énergie et aux autres consommations intermédiaires. L’économiste ne connaît pas la
fonction de production ‘physique’ au sens de l’ingénieur qui sous-tend ce tableau, fonction
d’ailleurs trop complexe pour être écrite en termes tractables. Mais l’économiste la révèle à un
niveau agrégé, depuis Berndt et Wood (1975) et Jorgenson (1981) grâce à une technique
précise qui est une reprise d’un ‘truc’ (wrinkle) employée par Solow (1956) pour écrire son
modèle de croissance devenu modèle canonique de la discipline.
Ce ‘truc’ repose sur l’hypothèse d’égalité du rapport des prix des facteurs et de leur
productivité marginale (par exemple les salaires avec la productivité du travail). On montre en
effet montrer 3 qu’autour d’un point d’équilibre optimal, on peut faire correspondre à une
fonction de production ‘physique’ une fonction coût (en valeur). Concrètement la première
fonction dit que pour produire 100 unités d’un produit donné il faudra 100000 heures de
travail, 300 tonnes d’énergie (en équivalent pétrole), 20 tonnes d’acier et 100 unités d’une
machine fictive (l’amortissement du parc); la deuxième dira que les salaires, le pétrole, l’acier
et les machines représentent 30%, 10%, 5% et 15% du coût de production. Dans les faits, les
structures de coût sont seules données par les statistiques; on peut donc calculer ses
coefficients puis révéler ceux de la fonction ‘réelle’ en connaissant les prix des facteurs. Il
suffit pour cela de choisir une forme fonctionnelle (Cobb-Douglas, CES) et de se munir d’un
compendium mathématique (Berck, P., Sydsaeter, K., 1992) donnant les formules nécessaires.
Reste bien sûr à s’interroger sur le domaine de validité de ce ‘truc’. Juste avant la
généralisation, avec un important effet d’autorité de ces fonctions de production dans les
modèles empiriques, Solow lui-même avertissait dès 1988 : ‘ce ‘truc’ (wrinkle) est acceptable
à un niveau agrégé seulement (pour des buts spécifiques), ce qui implique d’être prudent sur
l’interprétation des fonctions de production macroéconomiques comme renvoyant à un
contenu technique spécifique(Solow, 1988)4. En toute rigueur, les fonctions de production
ainsi révélées ne peuvent de toute façon être tenues pour des proxies acceptables du vrai
ensemble de techniques disponibles, qu’au strict voisinage d’un équilibre de base optimal.
Elles constituent donc une base fragile pour l’étude de politiques climatiques qui vont exiger
des écarts importants par rapport au scénario de base. Il est d’abord douteux que les élasticités
de substitution entre facteurs de production qui prévalent autour de cet équilibre restent
valident dès qu’on s’en éloigne significativement. En manipulant des fonctions à élasticité
constante sur un large spectre de prix relatifs on court même le risque de projeter
implicitement des systèmes technologiques chimériques qui simulent des substitutions là où
3
Pour les mathématiciens signalons qu’il s’agit du lemme dit de Shephard, soit une modalité d’application du
théorème de l’enveloppe.
4
Quatrorze années plus tard cet avertissement est confirmé par Frondel et al. (2002); après avoir analysée un
millier d’études économétriques, ils concluent « que les déductions faites à partir de ces travaux apparaissent
largement comme un artefact et non plus avoir à vec une inférence statistique sur les relations techniques »
5
des asymptotes technologiques sont atteintes, voire qui violent les lois de la thermodynamique
(Babiker et al., 2001)
Mais du point de vue des représentations du monde en jeu dans les joutes publiques, la
caractéristique majeure de ce truc apparemment anodin est de présupposer qu’à chaque point
du temps, les choix de technique sont optimaux pour un vecteur prix donné. Dans un tel
dispositif, calibré sur les dépenses d’énergie (donc l’énergie finale), toute possibilité de ‘coût
négatif’ disparaît; il ignore par construction les gains d’efficacité potentiels dans la conversion
énergie finale – service énergétique rendu. Nul n’est besoin d’insister ici sur l’importance
politique de cette ignorance. Certains économistes la justifient en considérant que, dans les
faits, les potentiels ‘à coûts négatifs’ sont marginaux car, si des technologies étaient
réellement supérieures, elles seraient automatiquement adoptées modulo l’inertie des
équipements existants. Les ingénieurs, par leur réductionnisme technique, ignorent
d’importants coûts cachés qui expliquent le comportement des consommateurs ; ce peut-être
des questions d’ergonomie et de difficultés de maintenance pour des techniques de production
ou des questions d’esthétique et de qualité de service pour les produits finaux. Le temps
passant, je crois disposer d’un échantillon suffisamment grand d’interventions de collègues
pour assurer que ‘l’épouse représentative’ d’un économiste américain ne supporte pas le type
d’éclairage que donnent les lampes à très basse consommation. Les économistes peuvent
certes reconnaître qu’il existe un résidu de ‘coûts négatifs’ du aux imperfections de marché
(problèmes d’information, de réseaux de distribution, de structures contractuelles inadaptées
comme les partages de responsabilité entre locataires et propriétaires) mais ils font alors valoir
que les corriger comporte des coûts de transaction économiques et politiques ce qui réduit
d’autant le potentiel réellement récupérable (Stavins et Jaffe 1994).
Or ce débat apparemment simple sur l’adoption des technologies n’est qu’un
symptôme d’un autre enjeu plus fondamental quoique moins directement tangible. Constater
avec Stiglitz (1998) les difficultés de faire passer des réformes ‘pareto-improving’ n’est pas la
même chose que représenter des économies toujours situées sur leur frontière de production
efficace réellement atteignable. Un deuxième glissement sémantique s’introduit alors : on
passe de l’équilibre comptable à l’équilibre de marché instantané puis à l’optimalité d’un
sentier de croissance équilibré.
Interrogeons nous en effet sur la vision du fonctionnement de l’économie où il est
légitime de penser, moyennant des écarts conjoncturels vite résorbés, que les facteurs de
production sont toujours rémunérés à leur productivité marginale. Tout observateur fera
observer la réalité des sous-emplois des facteurs (périodes de chômage structurel), la volatilité
de la valeur des capitaux, et la difficulté que représente, dans un contexte de grande
incertitude (sur les performances des techniques et sur les demandes finales), l’inertie des
systèmes technico-économiques. Or il existe une hypothèse ‘raisonnable’ et logique où tout
ceci tient ; c’est celle des anticipations parfaites où les acteurs sont assez doués pour anticiper,
apprendre en fonction des informations reçues et, progressivement, converger vers le sentier
de croissance optimal.
A nouveau, je préfère demander au chercheur en sciences sociales de ne pas
‘s’énerver’ trop vite. Tout économiste tant soit peu soucieux de prise sur le réel reconnaîtra
qu’il s’agit ici d’une hypothèse ‘héroïque’. Le débat de fonds est le suivant, résumé par cette
phrase bien connue (dans le milieu concerné) de A. Manne et Rutherford « si l’hypothèse
d’anticipation parfaite est peu plausible, l’hypothèse de comportements myope est pire
encore » En d’autres termes, si on ne peut supposer que les agents anticipent correctement à
6
chaque point du temps, il est encore plus faux de supposer qu’ils ne sont pas instruits par
l’expérience. De plus, si on veut représenter des scénarios avec erreur d’anticipation et
correction lente des croyance, on doit multiplier des hypothèses ‘ad hoc’ sur ces erreurs ; cela
débouche sur la genèse ad infinitum de scenarii multiples avec au total un ‘plat de spaghetti’
de courbes dont on ne sait que faire. En cas d’anticipation parfaite au moins, on dispose d’un
cadre analytique clair et univoque, d’un point de référence dont on connaît les propriétés et
qu’on peut comparer à l’état actuel des économies.
Ces arguments ne sont pas infondés même s’ils caricaturent un peu les approches sans
anticipation parfaite. L’écriture de scénarios contrastés permet en effet d’éviter le piège du
‘plat de spaghetti’ et on peut modéliser les structures d’anticipation à retenir non pas à partir
d’hypothèses ad hoc mais sur de comportements observables (par exemple les pratiques
d’investissement des secteurs). Les scénarios en anticipation parfaites sont sûrement utiles
d’un point de vue strictement analytique, mais le prix à payer est qu’ils ne peuvent représenter
que des scénarios ‘en âge d’or’ situés sur un sentier de croissance régulier. On s’interdit alors
de représenter ce qui est l’enjeu majeur du point de vue de la décision publique, à savoir celui
de la réaction à un choc exogène (prix du pétrole par exemple) ou à des politiques publiques
d’économies en déséquilibres ou en équilibre sub-optimal (chômage structurel par exemple).
Communiquer des résultats dans le débat public sans signaler cette limite c’est faire comme
si, vues sur le très long terme, les imperfections étaient de simples ‘bruits’ autour de
tendances régulières. C’est une vision possible de la croissance, mais une parmi d’autres. On
eut revenir ici à Solow, le ‘père’ des modèles de croissance : Les booms et récessions sont
aujourd’hui interprétés déviations optimales sur des sentiers optimaux en réponse à des
variations aléatoires de la productivité et du désir de temps libre. Je ne suis convaincu par
rien de tout ceci. Les marchés des biens et du travail ….. sont des pièces imparfaites de la
machinerie sociale avec ses spécificités institutionnelles. Ils ne ressemblent pas … à des
mécanismes sans friction de conversion des désirs de consommation et loisir des ménages en
production et emploi »
Or, représenter les trajectoires de croissance sous forme de trend régulier plus ou
moins pentu est loin d’être anodin pour l’évaluation des coûts des politiques climatiques et
pour la conduite du débat public.
Les conséquences d’un débat à demi entamé
Un point de pure nécessité logique est le plus souvent ignoré : si le scénario de
référence utilise de façon optimale les ressources, toute limite sur les émissions de carbone ne
peut que se traduire par une moindre croissance et une baisse du bien-être. C’est une. Ce n’est
qu’en partant de scénarii comportant des imperfections qu’il y a une place pour des politiques
win-win, sans regret, à coût négatif, peu importe ici le vocable.
Le problème est que, historiquement, les discussions se polarisèrent sur une seule
facette de cet enjeu, la question du choix des techniques ‘à coût négatifs. Cette polarisation fût
d’autant plus aisée qu’elle structurait une confrontation entre des tribus bien définies :
ingénieurs vs économistes, militants de l’efficacité énergétique vs tenants des réponses par
l’offre, partisans vs adversaires du nucléaire. Elle occulta d’autres potentiels majeurs de
stratégies ‘sans-regret’ : prévention des chocs pétroliers (et des coûts de militaires et non
militaires de la sécurité d’approvisionnement), prévention des risques de rupture de
financement des infrastructures dans les pays en développement, financement des systèmes
sociaux, chômage structurel autant de dossiers où existe des lieux de complémentarité souvent
7
indirects mais bien réels entre politiques climatiques et politiques économiques.
Cette occultation a été facilité par le fait qu’organiser une mobilisation politique et
intellectuelle autour de l’enveloppe macroéconomique des scénarios de référence ne va pas de
soi. Il y a d’abord le simple fait qu’une notion comme le double-dividende de réformes
fiscales renvoie à une réalité moins tangible que les performances des chaudières ou des
éoliennes. Mais, plus fondamentalement, joue l’effet d’hypnose qui résulte de la visualisation
de courbes croissant de façon monotone et aisément identifiables à ces scénarii sans crises.
Ces courbes sont communément adoptées pour des raisons de simplicité mais aussi de
political correctness. La croissance est une donnée ‘naturelle’ et on ne saurait admettre
aisément des scenarii de moindre croissance ou ne crise. Or, c’est en visualisant des scénarii
macro-économiques non optimaux, avec des hauts et des bas, des accidents et des ruptures de
trajectoire, qu’on songerait à chercher où sont les lieux de conciliation entre croissance et
environnement.
Le déficit d’analyse et de perception devient encore plus criant lorsqu’on parle des
pays en développement : comment en effet briser le nœud gordien environnement –
développement si on ne part pas de scénarii de base qui incorporent les caractéristiques de
base d’une situation de sous-développement: économie informelle, fortes imperfections des
marchés, instabilité des institutions ? A ne pas le faire on s’enferme dans une problématique
sans issue, celle du partage de l’effort. Même accompagnée de considérations généreuses sur
la fairness du burden sharing, elle est simplement inacceptable avec des pays qui ne peuvent
l’accepter vu les écarts de niveau de revenu par tête 5. Des argumentations ‘à la Lomborg’
pour qui, dans l’arbitrage climat-développement, il faut choisir le développement et la lutte
contre la pauvreté deviennent alors légitimes. Avec des scénarii de base, moins esthétiques,
moins politiquement corrects, on s’apercevrait que certes il y a des arbitrages à faire (si des
stratégies climatiques peuvent être ‘no-regret’ elles ne sauraient être ‘no pain’) mais que ce
n’est pas entre climat et développement.
A titre illustratif de cet effet d’hypnose vous trouverez ici deux graphiques qui
donnent d’un scénario de référence pour la Chine calculé pour la Banque Mondiale, à partir
d’un modèle avec déséquilibre et d’un scénario avec tensions énergétiques . Dans le premier,
le format de présentation est classique; on en tire l’idée rassurante que les tensions
énergétiques ne sont pas un problème majeur. Dans le graphique du bas on représente les
mêmes résultats en variations entre la courbe ‘sans heurt’ et la courbe ‘avec friction’. Ce qui
saute aux yeux alors est la soudaine perte de croissance dans un premier temps puis un choc
vers 2025, comme si la Chine avait alors une fragilité spécifique; c’est en fait celle du début
d’inversion de sa pyramide d’âge donc de sa capacité d’épargne. Immédiatement on se dit
alors qu’atténuer ces tensions par des politiques d’efficacité énergétique pourrait être un
double-dividende significatif des politique climatiques.
II. SELECTION DES OUTILS D’INCITATION ; DE LA DIFFICULTE DE DISSIPER DES
MIRAGES
On connaît le principe du protocole de Kyoto: les pays de l'annexe B (pays développés)
s'engagent sur des limites quantitatives de leurs émissions de gaz à effet de serre (GES) ; pour
5
Faire remarquer que le riche Chinois ou le riche Brésilien sans parler des couches aisées de population en
Arabie Saoudite ou dans les Emirats émet plus de gaz à effet de serre que l’Européen moyen est ici
diplomatiquement inefficace vis-à-vis d’un G77+Chine qui négocie pour l’instant ‘en bloc’.
8
les atteindre au moindre coût, ils peuvent importer des permis d’émission négociables (PEN)
d'autres pays de la même annexe B ou acquérir des crédits d’émission via des projets dans les
pays en développement dans le cadre du mécanisme de développement propre (MDP). Ce
principe résulte d’une histoire complexe, faite de compromis diplomatiques successifs plus
que de volonté expresse de tel ou tel acteur. Ce n’était en particulier pas, contrairement à la
légende, le premier choix des USA dont la délégation à la COP1 de Berlin avait pour mandat
de refuser des engagements quantitatifs (Hourcade, 2002). Les PEN ne sont en fait qu’un
moyen de parer les inconvénients de l’incertitude sur les coûts associés à tout engagement de
ce type.
Pour comprendre le rôle des modèles économiques dans ce débat il faut revenir au constat
qu'il n'y a que deux façons réalistes de coordonner des politiques climatiques à l'échelle
internationale, des taxes carbone (levées dans chaque pays et recyclées en interne) et des
engagements quantitatifs. Or, il en est une autre qui a de fervents partisans, celle
d’engagements sur des "politiques et mesures" (P&M). Le problème de cette approche, utile à
une échelle locale et sur des dossiers particuliers, est qu’elle ne peut fonctionner comme
système global: comment en effet harmoniser les normes de climatisation entre Reykjavik,
Sao Paulo et Boston, comparer les politiques de transport au Japon où trois-quarts de la
population est concentrée dans une énorme mégalopole et dans le Far West américain ? Le
risque est de ne s'accorder que sur des formules floues. Si on veut des critères plus tangibles,
il ne reste donc bien que deux options ; celles-ci ont en commun de faire émerger un prix du
carbone. Or, les modèles vont être ici pris entre deux postures, négation absolue de l’analyse
économique vs hypnose acritique, qui vont obérer gravement la réussite de la négociation.
Tout se joue sur la question du signal-prix. Rendre les choses plus chères n’est en effet pas
très populaire et il serait politiquement plus commode d’éviter l'alternative taxe versus "droit
à polluer". Dans un pamphlet contre ces derniers une députée de gauche, dont le nom importe
peu, écrivait à peu près : "et qu'on ne me parle pas des taxes, c'est un moyen de faire payer les
pauvres en permettant aux riches de polluer à leur aise" ; une position de droite dirait « pas de
contraintes sur les entreprises et pas de nouvel impôt qui alimenterait une bureaucratie peu
efficace C’est cette position de refus de faire payer qui explique la permanence de l’idée
d’une coordination par les P&M : normes techniques, labels, campagnes d'information qui
incitent à choisir des technologies peu émettrices de carbone, R&D. Or, en dehors de sa non
négociabilité, elle repose sur un vrai mirage économique, la gratuité.
Quand les modèles montrent combien la gratuité est vraiment très chère qu’on ne saurait
accepter
Convenons d’abord que, pour diviser par quatre les émissions de carbone, il faudra aller audelà des potentiels d'amélioration à très bas coût des appareils utilisateurs d'énergie et se doter
des techniques plus sophistiquées et plus chères au moins dans un premier temps (sinon le
problème serait spontanément résolu). Supposons qu'une norme impose une baisse de 20 %
des émissions unitaires moyennes pour produire un bien donné. En fait les entreprises ne sont
pas touchées de la même façon par cette contrainte : pour certaines une baisse de 5% des
émissions suffira, qu’elles obtiendront à coût nul en organisant simplement un peu mieux
l’entretien et le réglage de leurs appareils de production ; d’autres se situent à la moyenne et il
leur faudra augmenter leur coût unitaire de 100€ à 120€ par exemple ; d’autres enfin, parce
qu’ils ont un vieil équipement devront débourser 40€ par tonne. Si l’offre n’est pas
excédentaire, ces entreprises vont vendre leur produit à 140€ par tonne (ou si le marché est
élastique à 130€ en rognant sur leurs marges) et le résultat sera une rente nouvelle pour les
9
deux autres catégories d’entreprises. En d'autres termes la gratuité d'une norme n'est
qu'apparente: on croit imposer une contrainte aux industriels mais ceux-ci en transmettent le
coût aux consommateurs et empochent un profit additionnel. Le très libéral Stigler faisait
naguère remarquer que les industriels plaident pour les instruments de marché mais font tout
ce qu'ils peuvent pour les éviter : les normes constituent en effet pour les lobbies les plus
habiles des sources de rente. Les taxes (comme des permis d'émissions vendus aux enchères)
permettent de récupérer ces rentes et d'en faire bénéficier l'ensemble du corps social (baisse
d'autres prélèvements, soutien aux couches sociales les plus durement touchées par la hausse
des prix de l'énergie). On a donc d'un côté un effet redistributif négatif caché derrière
l'apparente gratuité et de l'autre une vérité des coûts impopulaire mais qui donne les moyens
de réduire ces mêmes effets négatifs.
L'insistance des économistes sur la nécessité de signaux prix se comprend encore mieux
quand on en vient au noyau dur de l'affaire, les transports. Supposons que, par des normes ou
des accords volontaires, on diffuse des moteurs consommant 2l/100km de carburants exfossiles; la conséquence immédiate sera de baisser le coût du kilomètre parcouru, donc
d'inciter encore plus à la mobilité automobile. De même, des moteurs de camions plus
efficaces accentueraient le recul du rail dans le transport des marchandises. Ces mécanismes
pervers ne peuvent être bloqués que par l’augmentation du prix des carburants.
Le fait de devoir recourir à des taxes carbone (ou à des permis vendus aux enchères) n’est
d’ailleurs pas une mauvaise nouvelle ; les modèles montrent que, si leur produit est
correctement recyclé elle sont (légèrement) favorables à la majorité des secteurs et à l’emploi
6
car elles permettent de baisser les prélèvements obligatoires retombant sur les coûts de
production (mécanisme de double-dividende). Mais les écotaxes, après un long soutien de
l'Union Européenne, vont être bloquées par une coalition hétéroclite où les réflexes antifiscaux et l’opposition des industriels se combinent à la méfiance d'une partie de la gauche
vis-à-vis d'un outil qui "fait payer les pauvres"; la mouvance écologiste s'avère, elle, prise en
squeeze entre un discours "pollueur payeur" et une volonté ne pas paraître "antipopulaire". On
a donc ici, pour le moins, un déficit de capacité de conviction de l’analyse économique.
De quelques bonnes raisons d’un déficit de conviction sur une thèse juste
Il est banal de constater l’existence de filtres idéologiques qui interdisent d’accepter les
informations qui déplaisent d’où qu’elles viennent. Mais, dans le cas présent, il serait par trop
commode de s’en tenir là sans se poser des questions sur la responsabilité propre des
modélisateurs. Il existe en effet des faiblesses techniques réelles dans les modèles existants et,
lorsque des plaidoyers pour les signaux-prix sont construits sans précaution et en forme
d’arguments d’autorité, le risque est de ne convaincre que ceux qui sont prêts à en accepter
d’entrée le contenu.
On revient ici, par un autre biais, aux querelles « bottom-up » vs top-down. Dans leur version
la plus pure en effet, les modèles top-down ne peuvent représenter aisément que des réactions
6
Ce n'est pas le cas pour les secteurs très énergivores (sidérurgie, ciment, non-ferreux, produits pétroliers) pour
lesquels la solution est a) d’admettre qu’une part seulement des permis est acquise aux enchères, l’autre étant
obtenue gratuitement b) de négocier des garanties auprès de l'OMC sur la possibilité de mesures protectionnistes
contre les pays appliqueraient à leur industrie des dispositifs plus laxistes que la règle commune (cf la position
de Stiglitz sur ce point).
10
aux prix ; on peut certes essayer d’y intégrer des informations « bottom-up » sur l’impact
d’une norme, mais cela se fait via des hypothèses exogènes sans qu’on ait en général assez
d’information sur les coûts réels de la norme. C’est pourquoi les modélisateurs top-down sont
assez réticents sur ce type de manipulation, certains d’entre eux d’ailleurs par conviction a
priori de la supériorité des signaux-prix sur les normes (en fait celle-ci dépend des domaines
concernés en termes d’efficacité incitative sur le changement technique). Nier cette faiblesse
de l’état de l’art renforce les postures de refus de signaux-prix tant il est aisé de donner des
exemples de l’intérêt des mesures ‘non-prix’ comme les normes (qualité, sécurité) ou les
politiques d'infrastructures. De plus, la quasi-totalité des modèles n’intègre que les prix du
carbone par rapport aux autres biens et ignorent les prix du foncier et de l'immobilier qui sont
si importants pour l’avenir des biocarburants (prix de la terre et compétition bioénergieproduction alimentaire) ou pour la dynamique des besoins de mobilité. Ces faiblesses
n’invalident ni les arguments qui font des prix du carbone un vecteur supérieur de
coordination internationale, ni le mécanisme du double-dividende ; mais, en présentant le
signal-prix comme l’alpha et l’oméga des politiques climatiques, alors qu’il n’en est qu’une
pré-condition, tout sera prêt pour un blocage rhétorique tant il est évident que c’est sur une
panoplie plus large de paramètres qu’il faut jouer ; prétendre infléchir les tendances dans les
transports via le seul prix du carbone sans toucher à l’immobilier et aux infrastructures relève
aussi du mirage puisqu’il faudrait atteindre des niveaux de taxe inacceptables politiquement
La structure de ce blocage rhétorique va se retrouver, mutatis mutandi dans l’affaire des
permis d’émission négociables. Ceux-ci, parce qu’ils introduisent une contrainte sur le
commerce extérieur (importation de permis) ont l'avantage, par rapport à des taxes, de pousser
les gouvernements à mettre en jeu l'ensemble des variables autres que le prix du carbone.
Mais ce système a fait l'objet de fortes résistances idéologiques et fut dénoncé comme
conduisant à la marchandisation de l'environnement et à la possibilité pour les ‘riches’
d’acheter des PEN aux ‘pauvres’ sans pour autant transformer leurs modes de consommation.
Les modélisateurs vont bien sûr être conviés dans cette querelle mais ils seront pris au piège
de la surinterprétation des résultats par des visions du monde antagonistes et ils participeront
souvent eux-mêmes à la mise en place du piège.
Coûts politiques d’effets d’hypnose persistants
L’archétype de ce piège est celui de la querelle de la ‘supplémentarité’. Pour s’assurer que les
PEN ne deviennent pas un instrument à disposition des USA pour éviter tout effort réel,
l’Europe demanda pendant trois ans, sous la pression principale de l’Allemagne, qu’il y ait un
plafond (concrete ceiling) sur les importations de PEN. Aux USA en revanche, il était
nécessaire de démontrer à des sénateurs réticents que le protocole de Kyoto ne conduirait pas
à la ruine du pays. Ainsi, Jae Edmonds, un des plus connus des modélisateurs américains,
convoqué dans une audition du Sénat fournit des simulations ou le prix du carbone était
autour de 20$/tc mais ceci en important 85% de la différence entre les objectifs et les
émissions du scénario de base. Pour ce faire il lui suffisait de faire tourner son modèle (SGM)
sur l’ensemble du monde, tiers-monde compris. Un tel chiffre utilisé pédagogiquement pour
montrer que Kyoto ne conduirait pas nécessairement les USA à un désastre économique,
donnait aux ‘anti-droits-à-polluer’ en Europe la preuve que les USA utiliserait les marchés de
permis comme un moyen de contourner les efforts à mener dans leurs propres frontières. En
fait, ces simulations supposaient que la totalité du potentiel d’abattement dans les pays en
développement pourra réellement être exploité. Or ce potentiel ne peut l’être que via des
projets de « développement propre » ce qui en restreint bien sûr l’ampleur (difficultés de
définition de projets clairement identifiables, coûts de transaction, difficultés de mesure de la
11
réalité des réductions). Un numéro spécial de Energy Journal de 1999 (auquel participa
J. Edmonds ; MacCraken, 1999) le chiffra à 15%. En introduisant de tels éléments de
réalisme, la querelle de la supplémentarité devient vite sans objet : les USA font la majeure
partie de leurs réductions ‘at home’, plus d’ailleurs que le Japon et l’Europe qui dans les
modèles, ont des courbes de coût d’abattement plus pentues que les USA et sont davantage
intéressés à importer. Mais cette querelle aura décalé de trois ans un accord possible, assez
pour qu’une nouvelle administration vienne se retirer du processus.
En fait, s’est créé un jeu de miroirs déformants où chacun des camps en présence interprète
les résultats en fonction de sa propre visée argumentative et de sa propre perception du
monde, puis une sorte d’effet d’hypnose autour des résultats des modèles, qui va toucher les
pro et anti marché. Quel est en effet le monde que décrit un modèle mondial ? C’est un monde
ou des grands pays ou grandes régions, face à une contrainte carbone, arbitrent entre la
satisfaire par une action domestique ou par importation de permis d’émettre. Implicitement,
ce sont des acteurs rationnels qui gèrent leurs économies de façon à compenser les effets
redistributifs inévitables d’une politique. Ainsi, la main-d’œuvre ‘libérée’ d’un secteur
intensif en énergie dans une région se déversera sans heurt dans de nouvelles activités ; de
même la différentiation des impacts d’un prix donné du carbone selon les niveaux de revenus
sera neutralisée par des politiques appropriées. Enfin, c’est un monde où les Etats ne
s’inquiètent absolument pas des conséquence géopolitiques de la structure de leurs échanges,
par exemple pour les USA, de devoir importer 10 à 15 G$ de PEN en majeure partie de la
Russie. Le monde décrit par un modèle mondial en équilibre général est donc une sorte de
‘table rase’ qui suppose que les hétérogénéités et aspérités du monde réel sont aisément
surmontées grâce à des gouvernements bénévolents et éclairés.
Une tel artefact, il faut y insister est fort utile pour le raisonnement dans la mesure où il
fournit un point de repère solide pour mettre en lumière des mécanismes importants qui
restent valides dans des économies plus réalistes. Il n’est d’ailleurs pas impossible, quand cela
est faisable techniquement, de réinjecter dans les mêmes modèles telle ou telle aspérité du
monde réel pour en examiner les conséquences. Nous l’avons vu pour les coûts de transaction
du MDP mais c’est aussi ce que fait Jae Edmonds lorsqu’il fût convié par une administration
Clinton accusée par Bush jr. de mener le pays à la ruine, à bien les coûts potentiels de Kyoto
pour l’économie américaine. Il écrit alors un scénario où, en raison d’un temps de retard dans
l’adoption des mesures appropriées et de non coordination avec la politique monétaire (taux
de change fixe) le coût de Kyoto pour les USA serait de 4% du PIB sur 15 ans au lieu de 1%
dans son scénario central.
En fait, l’essentiel des dérives vient du moment où l’artefact est pris pour la réalité. Certes,
chacun proteste de ne jamais tomber dans un tel piège, mais l’hypnose sur l’artefact
commence lorsque toutes les rhétoriques s’organisent autour de lui. Ainsi, lors de la querelle
de la supplémentarité, les anti-PEN rejettent l’idée d’un marché généralisé du carbone à
l’échelle mondiale l’absence de régulation publique pour pallier les dysfonctionnements du
système (pouvoirs de monopoles, utilisation stratégique des quotas, effets redistributifs). Mais
ce qu’ils rejettent ainsi, c’est le système de PEN tel que décrit par les modèles. Or Kyoto
n’instaure pas un marché généralisé du carbone. Il ne fait que permettre aux Etats d'alléger le
coût de leurs engagements; stricto sensu, les échanges se font entre Etats. Ainsi, un pays qui
maîtriserait son urbanisme, favoriserait les transports collectifs et les modes doux de
déplacement, relèverait la fiscalité des carburants au fur et à mesure des gains d'efficacité des
moteurs pourrait ne pas avoir de marché du carbone mais intervenir comme exportateur sur
les marchés internationaux et être ainsi récompensé de sa bonne conduite. Les tenants de
12
Kyoto, symétriquement, vont faire comme si l’horizon du système Kyoto était l’extension du
mécanisme des PEN à tous les secteurs, y compris les transports et à tous les pays en
développement. Ils vont défendre leurs positions sans ce rendre compte que cet horizon
différait notablement de la lettre et de l’esprit de Kyoto.
Un point important ici est la rapidité avec laquelle les positions rhétoriques se figent en
figures irréversibles. Ainsi, après que, de façon répétée, quinze ministres de l’environnement
eurent fait de la supplémentarité l’emblème de la position Européenne, il devenait quelque
peu déplacé d’expliquer qu’elle n’avait pas d’objet et desservait même la position
économique de l’Europe. Toute argumentation économique était aisément décrédibilisée au
nom même du simplisme des modèles.
Au-delà de l’épisode de Kyoto, un autre exemple d’effet d’hypnose est celui qui se crée quand
la discussion se polarise sur des projections de croissances ‘en âge d’or’. Outre le fait
d’interdire de représenter des stratégies sans-regret, ces projections ont une autre
conséquence, à savoir de conduire à des coûts systématiquement modérés des politiques
climatiques (sauf quelques modèles dont il est aisé de voir les biais) : Kyoto représenterait de
0,1 à 1% de pertes du PIB pour l’annexe B sur vingt ans si on recourt aux échanges de permis,
soit, dans le pire des cas une taux de croissance annuel diminué de 0,0049%. Ce résultat n’est
pas surprenant : dans l’économie flexible des modèles, où les agents prennent à temps les
bonnes décisions, le coût des politiques climatiques ne peut qu’être faibles vu le faible poids
de l’énergie dans la richesse totale.
Ce résultat arrange bien les administrations qui peuvent s’y caler pour soutenir la possibilité
de politiques climatiques ambitieuses sans pour autant adopter les arguments ‘bottom-up’ qui
pourraient paraître trop militants. Il n’est d’ailleurs pas faux de dire que la plupart des
ministères des finances ou de l’industrie légitiment leur réserve vis-à-vis de politiques
climatiques agressives en se référant aux modèles top-down alors que ceux de
l’environnement privilégient les modèles bottom-up. Une exception notable, est celle d’une
commande de l’EPA (USA), en 1991, à Dale Jorgenson, économiste de Harvard proche des
milieux républicains; à l’époque un agent de l’EPA, suffisamment compétent pour ne pas
céder à l’effet d’autorité d’un MEGC sous-tendu par une économétrie sophistiquée, avait
remarqué que, si D. Jorgenson ne pouvait produire de coûts négatifs (des études commandées
à des modèles bottom-up se chargeraient de les donner) il utilisait des fonctions de production
(dites translog) très flexibles qui avaient le bon goût de simuler des flexibilités technologiques
(donc des coûts bas) d’autant plus grandes que la taxe carbone était élevée.
Le problème est que, lorsqu’on veut convaincre les industriels du bien fondé des politiques,
ceux-ci ont de la peine à accepter des résultats fondés sur des modèles donnant une vision des
marchés qui ne correspond pas à leurs propres pratiques (rôle des surprises, de la volatilité des
prix, des inerties, des captures de rentes). En fait, en partant de modèles simulant des
économies plus réalistes (avec déséquilibre, imperfections de marché) on ferait certes
apparaître de plus grands risques de dérapage des coûts en cas de politiques mal ajustées mais
aussi des potentiels plus importants de stratégies sans-regret et de plus. Mais dans ce cas on
changerait les lignes d’une discussion aujourd’hui conduite a partir de ‘camps’ bien établis et
dont on a pris l’habitude.
3.
EVALUER
LES
CONTRADICTOIRES
DOMMAGES
:
DE
LA
GESTION
DE
CROYANCES
13
Un dernier exemple important de la mobilisation des modèles est le débat sur le tempo de
l’action à partir de 1995 ; l’enjeu était celui des cibles à retenir à Kyoto pour 2012. La
Convention Climat (1992) est un chef-d’œuvre de langage diplomatique puisqu’elle affiche
une volonté de stabiliser les concentrations de GES dans l’atmosphère à un niveau
garantissant l’absence d’interférence dangereuses avec le système climatique sans définir ce
niveau. Or, stabiliser à 750 ppm n’implique aucune contrainte notable sur les scénarios
d’émission tendanciels alors que 450 ppm exige des efforts sérieux.
Ce que révèle la négligence d’un raisonnement pourtant simple
Sans raison autre que la publication par le deuxième rapport du Giec d’un jeu de trajectoires
d’émissions compatible avec des niveaux de stabilisation compris entre 350 ppm et 750 ppm
(avec un scénario non plausible à 1000 ppm), l’attention se porta sur le chiffre médian de 550
ppm. Comme, d’après la moyenne des sorties de modèle, ce chiffre correspondait à une
hausse de température de 2°C par rapport à 1990, l’Union Européenne retint ensuite ce
chiffre comme le plafonds de hausse de température à ne pas dépasser. Il s’agissait d’un
jugement purement politique ; en l’absence d’information scientifique sur le coût des
dommages, 550ppm devenait l’indicateur d’un seuil de risques inacceptable.
Le débat fut conduit à partir de modèles dit ‘intégrés’ comportant un module de croissance
économique compact et des formes réduites de cycle du carbone et de la réponse climatique.
Wigley, Richels et Edmonds publièrent dans Nature (1996) un article très utile pour soutenir
les positions américaines. Ils montraient que, pour stabiliser à 550 ppm, nul n’était besoin sur
les vingt prochaines années de décrocher de façon significative des tendances en cours :
mieux valait attendre que les équipements existants soient obsolètes, les remplacer par des
technologies peu émettrices au fur et à mesure des baisses de coût permises par le progrès
technique et ne pas ralentir la croissance en investissant trop précocement en projets
d’abattement. Grubb et al. (1997) ont répondu à cet argument dans la même revue en faisant
remarquer que nous ne savons pas aujourd’hui la bonne cible à retenir, ceci pour deux
raisons : a) on ne sait si une augmentation moyenne de + 2°C ne provoquera pas d’importants
chocs locaux susceptibles de se propager sur toute l’économie b) 30% des simulations
existantes retiennent un coefficient de sensibilité climatique qui fait qu’il faut rester sous 450
ppm pour ne pas dépasser 2°C de réchauffement. Il suffit alors de prendre l’objectif de 550
ppm comme une moyenne entre 450 ppm et 650 ppm, puis de considérer que nous aurons à
choisir la trajectoire définitive dans 20 ans (quand nous en saurons plus) pour conclure qu’il
faut un décrochage immédiat significatif (autour de celui exigé par Kyoto) (cf Graphique n°1)
si on veut se garder la possibilité de bifurquer vers un objectif de 450 ppm.
La signification de l’exercice est la suivante : soit une population partagée par tiers entre des
optimistes qui pensent que les dommages climatiques ne seront pas un problème, des
raisonnables pour qui 550 ppm représente un bonne assurance et des craintifs qui veulent
rester au dessous de 450 ppm; supposons que cette population, plutôt que de se lancer dans
des batailles argumentatives qui ne peuvent surmonter les désaccords en temps et en heure,
décide de mandater un ‘planificateur bienveillant’ pour qu’il calcule la trajectoire qui
maximiserait le ‘bien-être’ collectif sur la base ‘un homme – une voix’. Cette trajectoire est
celle qui permet de ne pas avoir trop dépensé sur deux décennies s’il s’avère qu’en fait M
Lomborg, l’écologiste sceptique (2001) ou M. Allègre avaient raison et de ne pas se trouver
dans lock-in interdisant de pivoter, s’il le fallait, vers 450 ppm.
14
source: IPCC/WGIII/TS11p.67
Graphique n° 1
Graphique n° 2
15
Le paramètre central qui explique que l’argument de l’action retardée soit réfuté dans ce type
d’approche est le jeu entre l’inertie des systèmes technico-économiques et l’irréversibilité de
l’accumulation du GES ; si on ne procède à aucune inflexion des tendances sur vingt ans il
devient très coûteux d’accélérer la décarbonisation de l’économie pour respecter un plafonds
de 450 ppm parce que cela implique une accélération du renouvellement des infrastructures.
L’affaire est scientifiquement tranchée mais il est intéressant de noter que les critiques de
Kyoto évitent de mentionner la structure même du raisonnement. Cet oubli permet
d’accréditer l’idée que Kyoto ne sert à rien puisqu’il ne permet que de gagner 0.3° de
température sur un siècle alors qu’il n’est qu’un premier coup de frein ‘en attendant d’en
savoir plus’. Le raisonnement de Lomborg (2001) (repris par C. Allègre) suppose une
humanité se comportant comme un conducteur qui, ayant tapoté la pédale de frein dans la
perspective d’un freinage plus sérieux en cas de verglas dans un virage, s’arrêterait de donner
d’autres coups de frein pour contrôler la vitesse du véhicule au cas où il faudrait s’arrêter.
Les vrais enjeux de l’analyse coût-bénéfice
Les sceptiques sérieux peuvent ici rétorquer que la structure précédente de raisonnement
comporte le risque d’une dictature de la minorité. On aura compris que le coût de l’action
retardée vient de l’accélération des efforts pour rester dans un « budget carbone » donné. Or,
si 5% de la population votent pour un écologisme intégral prônant un objectif de 400 ppm,
alors ils pèseront d’un poids disproportionné dans le calcul du planificateur; celui-ci n’a beau
compter que pour 5% le fait de devoir bifurquer vers 400ppm, ces 5% vont dominer le calcul
car les coûts de l’action retardée pour respecter cette cible tendent vers l’infini.
La conclusion est donc qu’il faut rendre raison des plafonds retenus dans le calcul, et qu’on ne
peut le faire sans une analyse coût – bénéfice qui met en balance en termes monétaires les
coûts de l’action et les dommages évités. Il faut alors comparer des coûts qui se produisent à
des périodes de temps différentes, donc utiliser un taux d’actualisation et on butte
immédiatement sur le fait que, les coûts d’abattement et les dommages évités étant séparés par
plusieurs décennies, ces derniers comptent vite très peu dans le calcul. Dans une approche de
décision séquentielle similaire à celle expliquée plus haut (et où on introduit des possibilités
de dommages catastrophiques) il n’est pas économiquement rationnel de lancer dès
aujourd’hui des politiques significatives de décarbonisation (cf Graphique n° 1). Le Giec,
dans son résumé pour décideurs, met ce graphique en regard du premier pour bien marquer
qu’il y a un choix à faire sur la structure même de la décision.
Un tel résultat nourrit le procès récurrent contre deux pratiques des économistes, l’usage d’un
taux d’actualisation et l’agrégation monétaire des impacts. Pour la troisième et dernière fois,
je demanderai au lecteur de mettre ses doutes entre parenthèses. Je ne le fais pas par manie
d’économiste mais par prise en compte du monde ‘tel qu’il est’. Il est frappant que ce soit un
philosophe, Luc Ferry, qui fasse remarquer dans son attaque contre l’écologisme que « tout
franc dépensé au nom de l’environnement ne le sera pas ailleurs » (Ferry, 1992). C’est
Lomborg, un statisticien qui, pour démontrer qu’il vaut mieux investir sur le développement
que sur la prévention climatique, s’appuie sur le fait que l’efficacité marginale du capital
investi en Inde est 15% si on en croie les taux d’intérêts en vigueur.
A ne pas accepter de débattre sur ce terrain, ce qui est le réflexe courant, on se prive de faire
remarquer que, si l’efficacité marginale des investissements en Inde était vraiment de 15%
pendant 50 ans, elle permettrait un taux de croissance Indien si élevé (de 13 à 14% par an) et
16
que l’Indien moyen serait alors quatre fois plus riche que l’américain moyen de cette époque.
L’erreur vient ici de ce qu’on confond les taux d’intérêts de court terme (qui incorporent une
prime de risque) et le taux d’actualisation qui est dicté par le taux de croissance économique
de long terme. Si on retient un tel taux, et si, en toute rigueur, de l’incertitude sur la
croissance, alors les taux acceptables sont plutôt compris entre 2 et 3% à l’échelle mondiale.
Un argumentaire ‘à la Lomborg’ montre les dangers du maniement d’une vulgate économique
non encadrée par un modèle d’ensemble cohérent.
A fuir le débat, on se prive aussi de comprendre pourquoi avec des taux d’actualisation
faibles, même l’hypothèse de dommages très élevés sur le long terme ne conduit pas à des
actions significatives de précaution. A nouveau on retrouve ici l’importance d’un truc de
modélisation. Les courbes de dommages couramment utilisées sont des fonctions
« régulières » des concentrations (ou de la température) sous forme de paraboles ou
d’exponentielles calées sur des valeurs estimées autour de +2°C d’augmentation, valeur qui,
selon les auteurs, tourne autour de 1% à 3% du PIB sur le long terme. Dès lors, si on veut
représenter des dérives catastrophiques pour des hausses de températures plus élevées avec
des courbes à concavité constante et passant par un point donné pour deux degrés, il faut que
les dommages se déploient lentement pendant cinquante ans et n’explosent vraiment que vers
la fin du siècle. Le Graphique n°3 suffit à s’en convaincre. Si en revanche on admet, avec la
même hypothèse pour +2°C, que la courbe des dommages croit de façon moins régulière,
présente ici ou là des seuils et des non-linéarités, alors, même en actualisant, on peut montrer
la rationalité économique d’une action plus précoce surtout si on tient compte de l’incertitude
sur la variabilité climatique. L’histoire racontée ici (plus conforme à la succession des
évènements dits extrêmes ces dernières années) est celle de l’occurrence de petits chocs à
court terme et d’une accélération des dommages à partir de 2035-2040 ; vue l’inertie des
systèmes technico-économiques (50 ans pour un système électrique), alors, c’est bien dès
aujourd’hui qu’il convient d’agir.
Graphique 3
17
En fait, la joute toujours recommencée entre partisans et adversaires du taux d’actualisation
en ces affaires masque le vrai enjeu, celui des ‘croyances’ sur le rythme de déploiement des
dommages climatiques et des raisons pour lesquelles certains voient des dangers que d’autres
nient. C’est ici qu’il faut en venir au chiffrage monétaire lui-même et aux causes possibles de
non-linéarités dans les dommages. Les évaluations existantes sont très rares et pourront
paraître extraordinairement basses. Elles viennent de quelques auteurs : Nordhaus7,
Frankhauser, Mendelsohn et Tol. En dehors de leur caractère incomplet, elles s’expliquent
très bien, à nouveau, par la croyance dans les anticipations parfaites ; elles racontent en effet
un monde où, face aux transformations des climats, les hommes vont très vite apprendre à
s’adapter et prendre systématiquement les mesures qu’il faut en temps et en heure. On
comprend intuitivement pourquoi : si on suppose que nous savons dès aujourd’hui que le
climat de la Riviera va se déplacer vers celui de la Normandie d’ici la fin du siècle, alors, on
peut prévoir en conséquence la migration des infrastructures hôtelières et celle des
populations fuyant un climat devenu trop chaud et organiser les solidarités nécessaire. Sous
hypothèse d’anticipation parfaite et d’apprentissage rapide sur les évolutions du climat, même
une difficulté comme celle de durée de vie d’équipements (les centrales électriques) allant audelà de cinquante ans est vite résolue : si on connaît les marchés futurs, on peut planifier les
investissements lourds avec autant de facilité qu’un investissement récupérable en deux ans.
Le débat sur les dommages est certes une affaire d’investigation scientifique sur les impacts
du changement climatique : il faut en savoir plus sur le cycle de l’eau, les réponses des
écosystèmes, l’évolution des biotopes, l’adaptation des espèces ou la migration des bactéries
ou virus. Mais in fine la façon dont ces impacts vont se traduire en des montants de
dommages plus ou moins élevés va dépendre de la vision que l’on a du fonctionnement des
sociétés et de leurs capacités à anticiper et à d’adapter aux imprévus. Comme le montrent des
expériences aussi diverses que l’explosion de AZF à Toulouse, le tremblement de terre
d’Istanbul, les tornades répétées dues à El Nino en Amérique Latine, les contraintes ne sont
pas ici que financières ; elles viennent aussi du délai technique et organisationnel à
transformer un effort financier en travaux concrets (déficit de compétences, contraintes
logistiques, controverses sur les travaux à mener). Or, dans une économie avec déséquilibre
de telles contraintes se transforment en ‘amplificateurs de coûts’ qui portent les dommages à
des niveaux nettement supérieurs à ceux que l’on obtient avec des économies suivant des
sentiers de croissance stabilisés sur lesquels on revient aisément après tout écart.
On retrouve ici, par un autre biais, l’argument selon lequel il faudrait investir sur le
développement pour rendre les économies capables de se payer l’adaptation. Cet argument est
légitime à condition qu’on le tienne pour ce qu’il est, une croyance parmi d’autres, à savoir
que les investissements en développement seront toujours désormais bien placés et bien
conduits. En toute rigueur on devrait affecter un degré de probabilité à cette vision du monde
par rapport à une vision moins optimiste que j’incline à penser plus réaliste.
Sinon les arguments ne manquent pas pour montrer les risques de non linéarités dans les
dommages climatiques. Le premier ministre du Honduras déplora ainsi que le cyclone
Michèle en 2001 avait « ramené le développement économique du pays 20 ans en arrière
(IFRCRCS 2002). De même, l’exemple de la Nouvelle-Orléans, où le recul des travaux de
d’entretien et renforcement des digues n’est pas pour rien dans la catastrophe est très
révélateur de la façon dont une négation ex-ante d’un risque peut s’avérer un facteur
d’amplification du risque.
7
Pour cet auteur, il importe de retenir la phrase suivante à propos de ses propres travaux : citation en français
18
In fine donc, acceptation ou pas de l’analyse coût-bénéfice, la modélisation n’est qu’un détour
pour nous renvoyer aux vrais enjeux que sont notre rapport au risque et les croyances que
nous formons concernant la force des impacts et les capacités de réponse de nos sociétés.
Real GDP losses - China
1.0%
2010
2020
2030
2040
2050
% o f re a l G D P
0.0%
2000
-1.0%
-2.0%
-3.0%
-4.0%
Low Growth + energy frictions
High Growth + energy frictions
Conclusion
Le titre de cet article suggère que, convoqués pour éclairer les futurs, les modélisateurs se
retrouvent un peu comme les invités au Capitole, bien trop proches de la roche Tarpéienne qui
est ici celle du dédain de leurs travaux. Le risque est alors de se priver de ce que, malgré leurs
fragilités, les ‘expériences numériques’ qu’il mènent peuvent apporter : forcer chacun à rendre
compte, de ses conjectures, visions du monde et choix normatifs en des termes tels qu’on peut
en cerner la cohérence et les implications grâce à ce juge de paix qu’est un modèle numérique.
J’espère avoir convaincu le lecteur que beaucoup se joue sur des détails a priori sans intérêt. A
chacune des étapes du parcours suivi, j’ai essayé de montrer comment des astuces commodes
(interpolation entre 0°C et 2°C des courbes de dommages) ou des habitudes méthodologiques
(fonctions de production) peuvent s’avérer d’une importance inattendue. C’est parce que de
tels détails ne sont pas discutés qu’il est difficile de contrôler la surinterprétation des résultats
au prisme de visions du monde soit préexistantes soit provoquées par la présentation même
des travaux. Les modélisateurs portent ici une part de responsabilité lorsque, pour protéger
l’élément de vérité contenu dans leurs simulations, par peur de complexifier le message mais
aussi par enfermement sur leur propre langage, ils évitent d’ouvrir la boîte à outil et ne se
hâtent pas de signaler des glissements sémantiques effectués à partir de leurs travaux.
Mais on ne peut faire comme si les ‘utilisateurs’ eux-mêmes n’avaient pas leur part de
responsabilité : attraction d’une tangibilité parfois illusoire, manque d’éducation à
19
l’incertitude qui fait qu’on va chercher le « best guess », le « raisonnable », commodité que
représente la polarisation des débats autour de camps bien établis. Tout ceci empêche de faire
l’effort de percevoir la nature des enjeux réels derrière les querelles de modélisateurs.
Or ces querelles sont loin d’être purement technique ; que ce soit dans l’écriture des scénarios
de base et la recherche de stratégies ‘sans-regret’, dans la discussion des mécanismes de
marché ou dans celle du coût des dommages, on a vu, un peu comme un l’importance des
notions d’équilibre, d’optimum et d’anticipation parfaite. Se contenter de dénoncer
l’irréalisme de ces notions, c’est enfoncer porte ouverte (encore que des phénomènes
d’hypnose peuvent expliquer que beaucoup les tiennent pour vraies) et ne pas comprendre la
raison profonde de leur persistance, une sorte d’Hayekisme tacite. La vraie bataille de Hayek (
) est le constructivisme, la prétention de rationaliser le monde et de formater le futur ; il y voit
le début de la fin des libertés et fait du marché le seul contre-feu possible. On le faisait de son
temps ‘au nom des lendemains qui chantent’ et, implicitement beaucoup redoutent qu’on
puisse le faire au nom des grandes peurs en imposant un volontarisme technologique
quelconque, d’où d’ailleurs la réticence à expliciter les variables de développement (style de
consommation, technologies, formes urbaines) qui sous-tendent les projections de PIB et à
envisager des ‘futurs alternatifs’.
Certes, la nature des défis actuels empêche de croire que les marché produiront
nécessairement les bons signaux viendront en temps et heure, mais la structure de
raisonnement à la Hayek est suffisamment prégnante (et pose un problème suffisamment
sérieux) pour qu’on la discute en tant que telle et qu’on ne la laisse pas se lover, à l’insu de
tous, dans quelque équation plus ou moins sophistiquée.
Bibliographie
Babiker, M.H., J.M. Reilly, M. Mayer, R.S. Eckaus, I. Sue Wing and R.C. Hyman (2001),
The MIT Emissions Prediction and Policy Analysis (EPPA) Model : Emissions, Sensitivities
and Comparison of Results. Massachusetts Institute of Technology. Joint Program on the
Science and Policy of Global Change report n° 71
Berck, P., Sydsaeter, K., (1992), Economists” Mathematical Manual. Berlin, Springer-Verlag, 166 p.
Berndt, E.R., D.O. Wood (1975), “Technology, Prices and the Derived Demand for Energy”, Review
of Economics and Statistics, 57(3), pp. 259-268
Ferry, L., (1992). Le nouvel ordre écologique. Paris, Grasset, 275 p.
Fankhauser, S., (1995), Valuing Climate Change: the Economics of Greenhouse, Earthscan,
London (UK).
Frondel, M., C.M. Schmidt (2002), “The Capital-Energy Controversy : An Artifact of Cost Shares?”,
The Energy Journal, 23(3), pp. 53-79
Grubb M.J., Ha Duong M. Hourcade J.-C.,. (1997).- "Influence socioeconomic inertia and uncertainty
on optimal CO2-emission abatement", Nature, n°390, pp. 270-274
20
Harrison, G.W. and T. Rutherford, (1999). "Burden sharing, joint implementation and carbon
coalitions." International Agreements on Climate Change, C. Carraro (ed.), Kluwer Academic
Publishers, Dordrecht.
Hourcade J.-C., Ghersi F., (2002), "The Economics of a Lost Deal : Kyoto – The Hague, - Marrakesh",
The Energy Journal, vol. 23, n° 3, 26 p
Hourcade J.-C. (1998).- "Débat autour du principe de précaution", Natures, Sciences, Sociétés, vol. 6,
n°1, pp. 41-45.
Hourcade J.-C. (1998).- "Analyse économique, modélisation prospective et développement durable ou
comment faire remonter des informations du futur ?", Économies et sociétés, série F. 36, n°1, pp. 175192.
Hourcade J.-C.., 2002, - "Dans le labyrinthe de verre. La négociation sur l'effet de serre ", Critique
Internationale, Fondation Nationale des Sciences Politiques, n° avril 2002, pp. 143-159.
Jaffe A.B. et Stavins R. (1994), “The Energy-Efficiency Gap: What Does It Mean?”, Energy
Policy, 22, pp. 804-810
Jorgenson, D.W., and B.M. Fraumeni (1981), « Relative Prices and Technical Change » in
E.R. Berndt, B.C. Field (eds.) Modeling and Measuring Natural Resource Substitution, MIT
Press, Cambridge MA, United States
Lomborg, B. (2001), The Skeptical Environmentalist. Measuring the Real State of the World,
Cambridge University Press
MacCracken, C.N. Edmonds, J.A. Kim, S.H., (1999), “The Economics of the Kyoto
Protocol”, The Energy Journal, Special Issue, 20
Mendelsohn, R., Morrison, W., Schlesinger, M., and Andronova, N., 2000, Country-specific
market impacts of climate change, Climatic Change, 45, 553 569.
Mendelsohn, R. and Williams, L., 2004, Comparing Forecasts of the Global Impacts of
Climate Change, Mitigation and Adaptation Strategies for Global Change 9 (4), 315-333.
Nordhaus, W., and Boyer, R., 2000, Warming the world : economics models of climate
change, MIT Press, Cambridge (MA, USA).
Nordhaus, W., 2006, Geography and macroeconomics: New data and new findings,
Proceedings of the National Academy of Sciences, May 2006.
Solow, R.M., 1956, "A contribution to the theory of economic growth", Quarterly Journal of
Economics, 65, pp. 65-94
Solow, R.M., 1988, "Growth Theory and After” American Economic Review, 78(3), pp. 307317
Stavins, R., 1995: The Costs of Carbon Sequestration, A Revealed Preference Approach. J.F.
Kennedy School of Government, Harvard University and Resources for the Future, Harvard,
21
California
Stiglitz, J., 1998, "The private uses of public interests : incentives and institutions", Journal of
Economic Perspectives, vol. 12, n° 2, spring 1998, pp. 36-22
Tol, R.S.J., 2002a, New estimates of the damage costs of climate change, Part I : Benchmark
estimates, Environmental and Resource Economics, 21 (1), 47 73.
Tol, R.S.J., 2002b, New estimates of the damage costs of climate change, Part II : Dynamic
estimates, Environmental and Resource Economics, 21 (2), 135 160.
Wigley T. M. L, Richels R., Edmonds J. (1996), « Economic and Environmental Choices in
the Stabilisation of atmospheric CO2 concentration »,. Nature. Vol. 379, 18 janvier.

Documents pareils