Alain Leroux and Pierre Livet eds

Transcription

Alain Leroux and Pierre Livet eds
Published in : Alain Leroux and Pierre Livet eds : Leçons de philosophie économique
(tome III : Science économique et philosophie des sciences)
Economica, 2007 (pg 285-302)
LES FONCTIONS DES MODELES ECONOMIQUES
Bernard WALLISER
Professeur à l’ENPC
Directeur d’Etudes à l’EHESS
Introduction
Dès ses origines, la science économique a raisonné en termes de modèles et a fini par en faire
un mode de pensée quasi exclusif. Après une phase de pré-modélisation amorcée par Cournot
(1838-1880) et une phase de modélisation classique succédant à Walras (1880-1950), elle est
entrée dans une phase de modélisation systématique dans le sillage de la théorie des jeux
(1950-2005). Portée par le développement de l’informatique et l’accumulation des données,
cette dernière phase voit la coexistence tant de modèles macro-empiriques de prévision que de
modèles micro-économiques (sectoriels ou thématiques) plus théoriques et explicatifs.
Nombre d’articles de revue ont désormais pour objet exclusif de présenter un modèle en
l’agrémentant des justifications empiriques et opératoires appropriées.
Par modèle, il faut entendre un module cognitif autonome qui s’exprime sous la forme de
relations formelles entre diverses grandeurs. A partir d’un ensemble précis d’hypothèses, il
permet de dériver systématiquement des conséquences plus ou moins lointaines. Du point de
vue empirique, un modèle possède un statut épistémologique hybride, ni pure conséquence
d’une théorie, ni pur résumé des observations. Du point de vue opératoire, il possède un statut
praxéologique original puisqu’il associe en son sein des éléments respectivement descriptifs et
normatifs. Un modèle est également un objet conceptuel souple qui se prête facilement à un
processus d’évolution interne. Il s’avère enfin aisément transmissible et assimilable dans le
milieu académique voire en dehors de lui.
La présentation qui précède esquisse six fonctions remplies avec plus ou moins d’importance
par tout modèle. Les deux premières sont syntaxiques et portent sur le langage d’expression
du modèle, garant de ses possibilités d’interprétation et de simulation par le modélisateur. Les
deux suivantes sont sémantiques et décrivent ses rapports avec le monde réel, gouvernés par
des opérations conceptuelles d’idéalisation et de cumulativité. Les deux dernières sont
pragmatiques et concernent l’insertion sociale du modèle, soumis à des processus de
contextualisation et de diffusion du savoir. Pour chacune des fonctions, on présentera d’abord
le concept central qui la sous-tend, les apports et les limites afférentes de la modélisation et
les propriétés correspondantes attendues du modèle.
1
1. Fonction iconique
Un modèle est d’abord conçu comme un support de conceptualisation de phénomènes
économiques dans un langage rigoureux. Structurellement, le modèle est défini comme un
ensemble de relations analytiques (souvent probabilistes) entre des grandeurs (essentiellement
quantitatives). Cependant, ces grandeurs ne sont pas purement abstraites et renvoient à un
système concret, que ce système soit dûment actualisé ou résolument imaginaire. Tout modèle
admet ainsi une ‘interprétation’ en termes littéraires, qui fait correspondre d’abord aux
grandeurs, et par induction aux relations du modèle, des éléments et des propriétés d’un
système réel ou virtuel. Un modèle a donc l’avantage d’imposer une séparation nette entre sa
forme analytique et ses interprétations souvent multiples. Mais cette dissociation peut
conduire à une coupure assez radicale, donnant au modèle peu interprété un aspect
profondément ‘réducteur’.
Les concepts intégrés dans le modèle sont définis de façon plus précise et univoque que dans
le langage vernaculaire. D’une part, les concepts sont exprimés par des grandeurs dont
l’échelle de mesure (nominale, ordinale, cardinale) est précisément explicitée. Ainsi, l’utilité
d’une action est considérée, selon les cas, comme seulement ordinale (seul l’ordre entre deux
valeurs a un sens) ou essentiellement cardinale (la différence entre deux valeurs a aussi un
sens). D’autre part, si un concept a des connotations multiples, il est décomposé en plusieurs
grandeurs distinctes dont la signification devient ainsi plus univoque. Ainsi, le taux
d’actualisation d’un acteur peut être décomposé en deux éléments qui traduisent séparément
sa préférence pour le présent et son aversion face à l’incertitude.
Les relations entre concepts décrites par le modèle sont également spécifiées de façon moins
ambiguë que dans le langage ordinaire. D’une part, les relations entre les grandeurs sont
exprimées avec un maximum de rigueur et de précision. Ainsi, la fonction de production
d’une entreprise, liant les facteurs de production et les produits, peut adopter aussi bien une
forme ‘Cobb-Douglas’ qu’en ‘équerre’ (traduisant des facteurs de production substituables ou
complémentaires). D’autre part, si une relation est trop condensée, elle peut être décomposée
en plusieurs relations élémentaires, moyennant l’introduction de grandeurs auxiliaires. Ainsi,
la fonction de consommation d’un consommateur, reliant la quantité totale consommée aux
revenus passés, peut être décomposée en une fonction de comportement liant la
consommation au revenu futur anticipé et une fonction d’anticipation liant le revenu futur aux
revenus passés.
Enfin, contrairement au langage naturel, le langage formel permet d’exprimer les modèles à
différents ‘niveaux de spécification’ emboîtés. Un modèle est générique (s’il est seulement
soumis à des contraintes sur sa forme analytique), paramétrique (s’il revêt une forme
analytique précise incluant des paramètres libres) ou spécifique (si les paramètres sont euxmêmes numériques). Cette hiérarchisation est permise par la malléabilité de l’outil
mathématique, en l’occurrence les systèmes d’équations. Elle agit sur l’interprétation du
modèle, un modèle plus générique ayant aussi un champ d’application potentiel plus étendu.
Ainsi, la fonction de demande d’un bien d’un consommateur, liant la quantité demandée au
prix du bien, peut simplement être astreinte à des conditions générales (monotonie, concavité,
homogénéité), être linéaire avec un coefficient de proportionnalité indéfini ou encore adopter
un coefficient précis.
Cependant, les concepts introduits sont souvent exprimés sous une forme trop exigeante et
réductrice. D’une part, la structure formelle retenue pour les grandeurs est trop forte au regard
2
de son interprétation. Ainsi, l’utilité vNM du revenu d’un décideur est interprétée dans ses
dérivées successives de l’ordre 1 (croissance) ou 2 (aversion face au risque) jusqu’à l’ordre 5;
de même, le savoir d’un agent est d’emblée supposé additif et est censé s’empiler comme des
habits. D’autre part, la modélisation de nombreuses grandeurs économiques rencontre des
difficultés formelles. Il en est ainsi de l’apparition de technologies nouvelles ou de biens
nouveaux, sauf à supposer qu’ils sont potentiellement déjà là et ne font que s’actualiser; il en
est de même pour les temporalités emboîtées (court terme, moyen terme, long terme) qui sont
difficiles à appréhender seulement par des variables plus ou moins ‘lentes’ ou ‘rapides’.
De même, les relations entre les concepts sont l’objet d’interprétations forcées et incomplètes.
Parfois, des équations rigides conduisent à une interprétation ‘mécanique’ des phénomènes en
cause. Ainsi, une fonction de production se présente comme une loi d’airain qui néglige
l’aspect humain du ‘facteur travail’, tel qu’il se manifeste par exemple dans le phénomène
d’absentéisme. Par ailleurs, une équation peut donner lieu à diverses interprétations,
insuffisamment discriminées. Ainsi, la relation de Philips, liant prix et salaires, peut être lue
causalement dans un sens (l’augmentation des prix crée une pression sur les salaires) comme
dans l’autre (l’augmentation des salaires fait monter mécaniquement les prix) sans parler de
l’éventuelle influence de facteurs non causaux (rôle des anticipations).
Globalement, deux déviations polaires dans l’interprétation des modèles peuvent être
considérées. La ‘sous-interprétation’ consiste à aligner des équations en supposant qu’elles se
comprennent par elles-mêmes. Ainsi, les aléas (probabilistes) introduits dans la fonction de
comportement d’un acteur sont souvent peu commentés et peuvent refléter le libre arbitre de
l’acteur, la négligence de variables explicatives ‘cachées’ ou une spécification formelle
inadéquate de la relation. La ‘sur-interprétation’ consiste à doter les équations de
significations qui vont bien au-delà de ce que le modèle exprime formellement. Ainsi, le
‘mécanisme du réplicateur’ introduit en théorie des jeux évolutionnistes, est censé traduire par
une formule unique les mécanismes complexes de sélection naturelle (ou même
d’apprentissage ou d’imitation) des agents.
Dans sa fonction dénotative, la qualité attendue d’un modèle est son ‘expressivité’, à savoir la
faculté qu’il possède de faire coïncider au mieux son formalisme et son interprétation. De ce
point de vue, il est nécessaire de bien séparer les critiques relatives au modèle formel et à son
interprétation. En effet, un modèle formel est souvent critiqué, de façon trop aisée, à l’aide
d’un argument purement interprétatif. Si l’on veut rester conséquent, un formalisme ne peut
être critiqué qu’en proposant des formalismes alternatifs et une interprétation en s’appuyant
sur des interprétations concurrentes. Dans le même esprit, on peut se demander s’il n’existe
pas des formalismes mieux adaptés aux sciences sociales que le formalisme usuel des
systèmes d’équations, directement inspiré par la mécanique. Ainsi, les croyances et les
raisonnements des acteurs sont actuellement exprimées dans le cadre de la logique
épistémique, un formalisme assez proche (en syntaxe) du langage naturel tout en étant plus
rigoureux.
2.
Fonction démonstrative
Un modèle apparaît aussi comme un outil efficace d’explication et de simulation des
phénomènes économiques. Le modèle se présente d’abord sous la forme d’un ensemble
d’hypothèses qui résument les caractéristiques d’un système extérieur. Mais il permet surtout
de déduire systématiquement de ces hypothèses un ensemble de conséquences plus ou moins
3
surprenantes auxquelles le système se doit aussi de satisfaire. Tout modèle fonctionne ainsi
comme un moteur d’inférence qui permet la ‘simulation’ des effets de certains présupposés.
Le modèle est donc essentiellement l’expression d’une structure explicative qui rend compte
de certains phénomènes à partir de principes plus profonds. Mais il peut aussi tourner à vide et
inciter à un jeu formel entre hypothèses et conséquences relatives à un univers à jamais
virtuel.
Les hypothèses du modèle ont l’avantage d’être dûment explicitées, ce qui en permet une
manipulation aisée. D’une part, ces hypothèses sont exhaustivement énumérées, bien qu’au
terme d’une mise à jour parfois laborieuse. Ainsi, les modèles d’équilibre de marché ont
révélé l’existence d’une hypothèse implicite d’information parfaite, hypothèse ensuite
formellement explicitée. D’autre part, ces hypothèses sont construites pour être
indépendantes, ce qui permet de remplacer facilement une hypothèse par une autre, en
particulier dans les modèles directement énoncés sous forme de systèmes d’axiomes. Ainsi,
les modèles de négociation portant sur le partage d’une ressource entre divers acteurs reposent
sur des axiomes de rationalité collective qui ont été progressivement décantés et isolés.
Les conséquences des modèles sont rigoureusement déduites de ses hypothèses, soit par voie
analytique (démonstration mathématique), soit par simple simulation (calcul sur ordinateur).
D’une part, elles sont obtenues par une procédure mécanisée, capable de traiter des relations
nombreuses et complexes (rétroactions, non-linéarités). Ainsi, l’hypothèse d’anticipations
rationnelles, quel que soit son réalisme, a pu être analysée dans ses conséquences ultimes
souvent inattendues. D’autre part, les conséquences sont contrôlées, même si d’éventuelles
erreurs de démonstration peuvent être décelées par les utilisateurs futurs. Ainsi, le modèle de
localisation de Hotelling annonçait un résultat qui, sans être faux, était néanmoins fondé sur
une démonstration inexacte décelée bien des années plus tard.
Le processus de simulation permet d’effectuer des ‘analyses de sensibilité’ sur les hypothèses
du modèle pour en ‘baliser’ les conséquences et délimiter son champ d’application. Ces
analyses portent respectivement sur les conditions initiales et d’environnement, sur les
paramètres des relations et sur la forme structurelle des modèles. Elles sont de plus en plus
aisées à réaliser du fait du développement des outils informatiques, mais aussi des algorithmes
de résolution mathématique. Elles permettent de se familiariser avec les propriétés du modèle,
un bon modélisateur étant à même de prévoir ses effets pour toute variante nouvelle sans
même le faire tourner. Ainsi, le modèle du duopole conduit à une tarification des biens qui est
plus ou moins sensible aux modifications des coûts exogènes de production des entreprises,
de la pente de la fonction de demande des consommateurs ou de la forme même de cette
fonction de demande.
Cependant, les hypothèses des modèles s’avèrent souvent inutilement ou exagérément
abstraites. D’une part, le modèle fait intervenir des hypothèses dites ‘techniques’ facilitant la
déduction des conséquences, mais dont la signification reste très implicite. Ainsi, l’hypothèse
de ‘main tremblante’, qui introduit un aléa dans le passage d’une intention d’action à l’action
elle-même, permet certes d’atteindre tous les nœuds d’un arbre de jeu, mais admet une
justification en termes d’erreurs dans la mise en œuvre de l’action qui est peu acceptable.
D’autre part, le modèle introduit des hypothèses ‘substantielles’, qui ne sont pas suffisamment
discriminées en conditions nécessaires et/ou suffisantes. Ainsi, les modèles d’environnement
introduisent nombre d’hypothèses à la fois techniques et économiques, qui peuvent être
chacune remplacées par d’autres sans que l’on puisse discriminer entre leurs impacts
respectifs.
4
Les conséquences des modèles peuvent être gratuites et stériles, le modélisateur faisant
‘tourner’ les modèles comme on fait tourner les tables. D’une part, certaines conséquences ne
sont pas véritablement constructives au sens où elles ne découlent pas d’un processus concret
d’engendrement. Ainsi, sur le marché du travail, le modèle de ‘salaire efficient’ montre (par
résolution d’un point fixe) qu’un état d’équilibre existe, sans pour autant exhiber comment les
agents peuvent y parvenir par leurs propres forces. D’autre part, les conséquences sont
déduites par une procédure aveugle, si bien qu’elles sont reliées « en boîte noire » aux
hypothèses. Ainsi, sur le marché du travail, le modèle de tri des employés de Spence montre
l’existence d’équilibres multiples (séparateur, non séparateur) sans fournir de critères de choix
permettant de sélectionner tel ou tel d’entre eux.
Globalement, deux pathologies opposées peuvent affecter les modèles quant à leur
comportement en simulation. Un modèle est ‘sous-réactif’ si des variations appréciables des
hypothèses ont fort peu d’effets sur les conséquences étudiées. C’est ainsi que la fonction de
demande agrégée des consommateurs est très robuste par rapport au modèle de choix des
agents, puisqu’elle s’obtient même en abandonnant la rationalité optimisatrice des agents
(théorème de Debreu-Mantel-Sonnenschein). Un modèle est ‘sur-réactif’ si des variations
faibles des hypothèses provoquent des variations drastiques des conséquences. Ainsi, les
équilibres obtenus dans des jeux répétés se démultiplient de façon spectaculaire lorsque l’on
passe d’un horizon fini à un horizon infini (du fait de menaces devenant efficaces).
Du point de vue de sa fonction démonstrative, la qualité fondamentale d’un modèle est sa
‘robustesse’, à savoir la faculté qu’il possède de lier solidement hypothèses et conséquences.
L’idéal est de vérifier le postulat de ‘continuité des approximations’ (Simon), qui veut que des
variations faibles des hypothèses engendrent des variations faibles des conclusions. Pour ce
faire, la voie analytique est préférable, la simulation numérique n’intervenant qu’en cas
d’impossibilité. Néanmoins, la simulation numérique peut servir de guide pour une
démonstration ultérieure, en réalisant une sorte de ‘détour quantitatif du qualitatif’. Dans le
même esprit, la simulation permet de construire des ‘explications’ standard de certains
phénomènes courants. Ainsi, les ‘cycles économiques’ relèvent de quatre types contrastés
d’explications formelles : les ‘cycles exogènes’ naissent d’une influence extérieure elle-même
cyclique ou d’un aléa exogène, les ‘cycles endogènes’ naissent d’une non-linéarité du système
ou d’un retard temporel d’ordre 2 au moins.
3. Fonction empirique
Un modèle s’impose comme un cadre puissant de confrontation des idées théoriques aux
données empiriques. Un modèle n’est pas seulement un intermédiaire vague entre des théories
pures souvent rigides et des faits stylisés purement locaux. Il peut chercher une adéquation
empirique plus précise avec les données existantes (spontanées ou provoquées) concernant un
système concret. Tout modèle est néanmoins l’objet d’un processus d’‘idéalisation‘, qui le
conduit à n’approcher le système visé que sous certains aspects et dans certaines limites. Le
modélisateur peut établir des accroches locales entre la théorie et l’empirie en restant
conscient de la nature et de l’importance des éléments négligés. Mais il peut aussi perdre tout
contact avec la réalité en ne précisant pas les directions et les intensités des approximations
réalisées.
5
L’approche projective, qui consiste à valider un modèle préexistant en le confrontant aux
données, se révèle très efficace. D’une part, un modèle permet facilement de dégager des
conséquences testables, qui s’expriment sous forme d’une relation simple entre des grandeurs
toutes observables. Ainsi, le modèle d’optimisation du consommateur, qui suppose que celuici maximise une fonction d’utilité inobservable, peut être résolu en une fonction de
consommation, qui relie directement les biens demandés aux prix, au revenu et à des variables
contextuelles. D’autre part, des tests de validation de ces conséquences testables sur des
observations de terrain ou des données expérimentales sont disponibles. C’est ainsi qu’un
modèle du marché du poisson peut rendre compte de l’apparition de réseaux de fidélité entre
consommateurs et producteurs, réseaux qui peuvent être confrontées directement aux
observations.
L’approche inductive, qui consiste à dégager des observations des structures possibles d’un
modèle, s’avère aussi très puissante. D’une part, des outils statistiques permettent de dégager
de données brutes nombreuses et contrastées des régularités empiriques constituant des faits
stylisés (trends, cycles, corrélations). Ainsi, le modèle de Pareto de distribution des revenus
résume de façon fort commode un grand nombre de données quantitatives ou plus
qualitatives. D’autre part, diverses méthodes permettent de construire des modèles explicatifs
des faits stylisés en donnant des ordres de grandeur aux paramètres des relations. Ainsi, les
données relatives aux résultats, à la taille et la localisation des entreprises permettent, sinon de
construire un modèle de leur performance, du moins de définir l’importance des facteurs qui
en rendent compte.
Le processus d’idéalisation modifie précisément les différentes caractéristiques formelles d’un
modèle. Il conduit à simplifier les facteurs d’environnement (exogénéité des facteurs, stabilité
des facteurs), à modifier les paramètres (négligibilité de certaines influences) ou même les
structures analytiques (variables omises, formes simplifiées). Il est facilité par l’existence
éventuelle d’un modèle de référence plus complet par rapport auquel sont réalisées les
approximations. Il conduit à séparer le modèle proprement dit et les ‘considérations hors
modèles’ qui ont précisément pour but d’exprimer littérairement les caractéristiques négligées
voire de deviner leur impact. Ainsi, le modèle de localisation d’Hotelling suppose que la
vente de glaces sur une plage est isolable d’un marché plus large, que les consommateurs sont
distribués linéairement sur la plage, et que les vendeurs s’installent librement sur cette plage.
Cependant, l’approche projective reste le plus souvent peu conclusive dans des circonstances
concrètes. D’une part, dès lors que les conséquences testables des modèles sont aléatoires,
leurs critères de validation sont ‘conventionnels’, par exemple les ‘seuils statistiques
d’acceptation’ d’une relation. Ainsi, si la fonction d’investissement d’un producteur est
toujours être réfutée avec des seuils d’acceptation exigeants et suffisamment d’observations,
elle est toujours confirmée avec des seuils libéraux et peu d’observations. D’autre part, en
vertu du problème de Duhem-Quine, la réfutation d’une conséquence testable ne permet pas
de sélectionner la ou les hypothèses du modèle à remettre en cause. Ainsi, si un modèle du
marché du travail prévoit un salaire des employés qui est contraire aux observations, diverses
modifications des hypothèses du modèle permettent d’en rendre compte.
L’approche inductive, même fondée sur des données fiables, est souvent inopérante ou au
moins fortement contrainte. D’une part, les techniques inductives reposent sur un ensemble
d’hypothèses auxiliaires qui ne sont pas isolément testables (hypothèse d’exogénéité,
hypothèse de stationnarité). Ainsi, les lois d’évolution de l’activité d’une industrie ne sont
valables que si les processus sous-jacents obéissent à un ensemble de conditions
6
préalablement acceptées. D’autre part, l’induction statistique repose sur un modèle préalable,
aussi simple soit-il, qui n’est jamais remis en cause dans la procédure inductive. Ainsi, un
modèle de concurrence monopolistique suppose a priori que les firmes ne sont sensibles qu’à
certains facteurs prédéfinis (prix, parts de marché).
Globalement, deux risques opposés apparaissent dans le processus d’idéalisation d’un modèle.
La ‘sur-idéalisation’ conduit à simplifier le modèle au-delà de la simple caricature, au point
que ‘toute ressemblance avec la réalité est purement fortuite’. Ainsi, le ‘modèle du crime’ de
Becker, qui assimile le crime à un bien ordinaire induisant une offre et une demande, se
contente de dévoiler une dimension marginale du phénomène en négligeant toutes les études
qui insistent sur le poids du contexte social. La ‘sous-idéalisation’ est à l’œuvre quand le
modèle ne dégage pas les structures essentielles du système et continue de véhiculer nombre
de détails superflus. Ainsi, en économie géographique, un modèle de ville incorpore souvent
un nombre élevé de faits qui empêchent de discerner l’impact des phénomènes dominants
(externalités, rendements croissants).
Du point de vue de sa fonction empirique, la qualité essentielle d’un modèle est sa
‘vraisemblance’, à savoir la faculté à exprimer la structure ‘minimale’ d’un phénomène. On
peut remarquer que les écarts du modèle à la réalité s’avèrent plus nombreux et plus
importants dans les sciences sociales que dans les sciences de la nature. Dans ces dernières,
on peut souvent raisonner en termes d’un phénomène principal et de perturbations. Dans les
premières, tous les facteurs d’influence ont tendance à être du même ordre de grandeur. De
plus, les écarts du modèle à la réalité sont plus facilement comparables et même mesurables
dans les sciences de la nature que dans les sciences sociales. Ainsi, si les frottements
mécaniques obéissent à des lois approximativement connues, les coûts économiques de
prospection ou de transaction sont plus difficiles à évaluer.
4. Fonction heuristique
Un modèle s’affirme également comme un médium aisé tant de stabilisation que d’évolution
du savoir. Les modèles permettent déjà de figer le savoir présent de la discipline en modules
simples et autonomes qui s’articulent entre eux. Mais ils servent surtout de point d’appui pour
assurer le développement de la discipline, sous l’impulsion tant d’apports externes que de
restructurations internes. Favorisés par l’unité de leurs langages et de leurs principes, les
modèles constituent un instrument essentiel de l’’accumulation’ du savoir. Ainsi, les modèles
peuvent s’enrichir au cours du temps par des opérations de réécriture et de réinterprétation
successives. Cependant, les modèles peuvent aussi proliférer de façon anarchique et conduire
à une balkanisation du savoir.
Du point de vue synchronique, la modélisation facilite la comparaison des savoirs. Quant à
leur ontologie, les modèles sont fondés sur des principes communs, qui constituent un socle
unifié à partir duquel peuvent se déployer une constellation de variantes. Ainsi, dans la
plupart des modèles, le principe de rationalité reste mobilisé pour gouverner le comportement
individuel et une notion d’équilibre est conviée pour traduire les interactions collectives.
Quant à leur méthodologie, les modèles sont exprimés dans des formalismes semblables, qui
permettent de les regrouper en ‘treillis conceptuels’ (Stegmuller, Balzer). Ainsi, les modèles
d’échanges de biens manifestent des ressemblances et différences qui permettent de les
ordonner en réseaux de généricité décroissante et d’implication successive.
7
Du point de vue diachronique, la modélisation facilite la progression des savoirs. Quant à leur
ontologie, les modèles connaissent des phases successives où certains principes sont affaiblis
de façon coordonnée pour tous les modélisateurs. Ainsi, bien que leur pertinence ait été
reconnue plus tôt, le principe de rationalité limitée ou les principes d’apprentissage ont été
massivement introduits lorsqu’il a été considéré qu’ils devenaient véritablement féconds.
Quant à leur méthodologie, un modèle fondateur est suivi d’une séquence de modèles qui en
constituent des variantes ou des approfondissements, ces filières enchevêtrées formant des
‘arbres génétiques’. Ainsi, le modèle d’Akerlof, qui met en scène un acheteur et un vendeur
d’une voiture d’occasion, le second ayant une connaissance plus fine de la qualité de la
voiture que le premier, a ouvert la voie à toute une filière de modèles traitant de l’asymétrie
d’information entre agents.
L’évolution des modèles repose sur trois types d’opérations formelles, en général suivies de
réinterprétations sémantiques. Un modèle peut voir son domaine d’application étendu
(élargissement), adopter une forme analytique plus générale (affaiblissement) ou recevoir un
fondement à un niveau plus profond (enracinement). Dans le contexte de la découverte, de
telles opérations reposent sur l’imagination des modélisateurs et désignent de nouveaux
candidats à l’explication de certains phénomènes. Dans le contexte de la preuve, ces modèles
doivent à nouveau être empiriquement testés et opératoirement expérimentés. Ainsi, pour le
choix en incertitude, le modèle de maximisation de l’espérance d’utilité a été étendu des
humains aux pigeons, affaibli en modèle IURDP ou en modèle des prospects (KahnemanTversky) et enraciné en le faisant dériver d’un ensemble d’axiomes.
Cependant, du point de vue synchronique, la modélisation peut conduire à un émiettement du
savoir, tout nouvel article proposant un nouveau modèle. D’une part, les modèles sont
introduits individuellement sans chercher à les fonder sur des principes généraux déjà
éprouvés. Ainsi, les modèles d’endogénéisation des préférences d’origine sociologique, s’ils
traduisent bien un aspect du conditionnement social des acteurs, n’exhibent aucun processus
concret par lequel cette influence est susceptible de s’exercer. D’autre part, les modèles
perdent l’essentiel de leur force en adhérant à un ‘bon sens formalisé’, fondé sur un pseudoréalisme. Ainsi, divers modèles décrivent avec un luxe de détails les procédures de rencontre
et de négociation entre employeurs et employés sans jamais extraire les caractéristiques
générales susceptibles de rendre compte des effets collectifs engendrés par ces rencontres.
Du point de vue diachronique, la modélisation peut connaître des transferts analogiques
sauvages de modèles, censés être validés par leur discipline d’origine. D’une part, on observe
un ‘phagocytage’ de nombreux modèles des sciences dures qui ne viennent pas s’articuler
conceptuellement avec les modèles économiques déjà existants. Ainsi, issus de modèles de
diffusion des maladies, divers modèles de diffusion des connaissances négligent tout
bonnement l’aspect stratégique du savoir, pourtant fondamental en théorie des jeux. D’autre
part, on observe un ‘entrisme’ de modèles formels en provenance des sciences dures, qui
reposent sur des présupposés peu compatibles avec leur nouveau domaine d’application.
Ainsi, les modèles inspirés de la physique statistique, outre qu’ils nient la dimension
anticipative et intentionnelle des acteurs, vont jusqu’à supposer l’existence d’un hamiltonien
global dont dériverait le système.
Globalement, deux perversions peuvent ainsi affecter le développement des modèles. La ‘surcumulativité’ provient du constant développement des modèles selon une problématique
dominante, ce qui favorise la ‘pensée unique’. Ainsi, le modèle d’équilibre général continue à
être indéfiniment raffiné, malgré les rendements décroissants de la recherche qui se font jour.
8
En sens inverse, la ‘sous-cumulativité’ se traduit par un surgissement anarchique et incontrôlé
de modèles d’inspirations diverses, selon l’adage ‘que mille fleurs s’épanouissent’. Ainsi, les
modèles évolutionnistes se sont d’abord développés selon des modalités multiples, fondés sur
des principes de sélection biologique ou d’apprentissage individuel, incluant ou non des effets
de mimétisme, avant d’être dûment catégorisés.
Quant à sa fonction heuristique, la qualité principale d’un modèle est sa ‘fécondité’, à savoir
sa capacité à engendrer une descendance riche et diversifiée. Un nouvel axe de recherches
peut être enclenché par la prise de conscience d’un hiatus empirique, mais impose pour se
développer d’autres conditions. D’une part, de nouvelles hypothèses formelles doivent
pouvoir capter le phénomène qui est mis en relief. D’autre part, des résultats originaux
doivent être obtenus par rapport à ceux de modèles plus classiques. Ainsi, le ‘tournant
cognitif’ en économie ne s’est véritablement affirmé que lorsque les travaux de logique
épistémique ont permis de mieux formaliser les croyances des acteurs que sous forme
probabiliste et lorsque des résultats originaux en ont été dérivés en matière de valeur de
l’information ou de transmission d’information.
5. Fonction praxéologique
Un modèle est aussi un instrument puissant de prévision et de programmation au service de la
décision. Pour ce faire, il doit certes traduire de façon empiriquement satisfaisante la situation
sur laquelle on veut agir. Mais, il doit plus avant être associé à des ‘moyens d’action’ pour
modifier cette situation et des ‘principes normatifs’ pour juger de la situation. Tout modèle est
délibérément soumis à une ‘contextualisation’, qui conduit à l’adapter à certains
environnements et à certains problèmes. Le modélisateur peut en tirer un usage opératoire en
explorant de façon volontariste des situations connues, des situations non encore examinées,
voire des situations inatteignables. Mais il peut aussi lui faire jouer un rôle ‘magique’, ainsi
lorsqu’il sert d’alibi pour justifier certaines prévisions et prescriptions décidées par ailleurs.
Les prévisions permises par les modèles sont à la fois claires et ciblées. D’une part, un modèle
permet de balayer l’éventail des scénarios du futur possibles (scénario rose, gris ou noir),
voire de leur affecter des probabilités. Ainsi, la baisse de la durée du travail provoque, par
influence directe et par le biais des répercussions sur la productivité, des conséquences en
termes d’emplois, exprimées sous forme de ‘fourchettes’. D’autre part, plusieurs modèles de
prévision peuvent être mis en concurrence, avec là encore des résultats sensibles à leurs
spécifications particulières. Ainsi, des modèles de prévision du trafic permettent d’estimer le
trafic entre deux villes en s’appuyant sur des modèles simples de type ‘newtonien’ ou sur des
modèles plus sophistiqués explicitant le comportement rationnel des automobilistes.
Les prescriptions fournies par les modèles sont simples et applicables. D’une part, les
principes normatifs sont proposés et étudiés par la science économique elle-même et traduits
en critères d’évaluation opérationnels. Ainsi, les effets économiques de projets de transport
sont comparés selon le critère du surplus microéconomique, un critère qui traduit un principe
d’efficacité économique et, dans une moindre mesure, de justice sociale. D’autre part, les
modèles fournissent un langage unifié de débat entre les experts du domaine soumis à un
choix collectif. Ainsi, les discussions sur le choix de politiques d’emploi peuvent s’ordonner
autour d’un cadre macroéconomique communément accepté, et doivent porter autant que
possible sur les hypothèses plutôt que sur les conclusions.
9
Le processus de contextualisation vise à tirer les approximations d’un modèle (élargi) dans le
sens de l’usage que l’on veut en faire. Ces approximations portent respectivement sur les
moyens d’action (servant de grandeurs exogènes), sur la structure même du modèle et sur les
normes permettant de juger des effets obtenus. Un modèle ‘profactuel’ permet déjà d’explorer
des effets potentiels (réalisables dans un contexte nouveau) ou virtuels (réalisables dans un
contexte extrême, en s’affranchissant de certaines contraintes). Un modèle ‘contrefactuel’ va
plus loin et traite de la possibilité d’un phénomène plus que de sa réalité, en ce qu’il donne
une réponse théorique à une question théorique. Ainsi, le modèle d’équilibre walrasien
affirme qu’une coordination efficace des agents par les seuls prix est possible et non que les
marchés obéissent vraiment à ces conditions, bien que certains s’en rapprochent plus que
d’autres (le marché financier est plus concurrentiel que le marché des voitures, lui-même plus
concurrentiel que celui du travail).
En sens inverse, les prévisions élaborées par les modèles sont souvent incertaines et instables.
D’une part, aucune marge d’erreur n’est affichée par les prévisionnistes, alors que ces marges
sont souvent très fortes et sont susceptibles d’affecter leur crédibilité. Ainsi, même si les taux
de croissance macroéconomique futurs affichés sont toujours positifs, ils pourraient bien,
compte tenu des marges d’erreurs, s’avérer négatifs. D’autre part, il existe un ‘effet-Panurge’
qui s’exerce sur les prévisionnistes et qui conduit chacun d’entre eux, par prudence, à préférer
un consensus dans l’erreur au fait d’avoir raison (ou tort) tout seul. Ainsi, le prix du pétrole
est couramment anticipé par divers prévisionnistes selon un tir groupé dont le barycentre est
fort éloigné du prix réel.
Les prescriptions issues des modèles peuvent s’avérer superficielles et fragiles. D’une part, les
normes de jugement préconisées peuvent rester très floues dans leur expression théorique et
limiter leurs applications concrètes. Ainsi, le principe de précaution est loin d’avoir reçu de
définition opératoire précise, permettant de dire ce qu’il recommande dans telle ou telle
situation, ce qui explique son usage particulièrement laxiste. D’autre part, les normes de
jugement doivent être endossées et partagées par les décideurs pour assurer une efficacité des
prescriptions. Ainsi, les mesures en matière d’aménagement du territoire issues des modèles
sont souvent rejetées parce qu’elles ne sont pas fondées sur les véritables critères d’évaluation
(souvent implicites) du décideur, de nature plus politique et institutionnelle.
Globalement, la contextualisation des modèles donne naissance à deux déviations opposées.
La ‘sur-adaptation’ résulte de l’application aveugle d’un modèle général à un certain
problème, sans trop se soucier des caractéristiques spécifiques de la situation en cause. Ainsi,
le calcul économique traditionnel est appliqué par le FMI aux choix d’investissement dans les
pays en voie de développement en sous-estimant les profonds déséquilibres qui affectent les
économies de ces pays. La ‘sous-adaptation’ résulte de la réticence à appliquer un modèle à
un problème qui ressort pourtant de son champ d’application, du fait de préjugés quant à sa
valeur. Ainsi, un modèle microéconomique calculable permet de simuler une gamme de
politiques globales ou sectorielles, mais ne sont utilisés qu’avec parcimonie.
Dans sa fonction opératoire, la caractéristique essentielle d’un modèle est sa ‘pertinence’, à
savoir sa faculté à traiter avec profit le problème qu’il est censé éclairer. Là encore, les
finalités des modèles sont souvent plus claires dans les sciences de la nature que dans les
sciences sociales. Dans le premier cas, il existe un décideur unique qui s’appuie sur un modèle
assuré et poursuit un objectif univoque. Dans le second cas, un grand nombre de décideurs ont
à leur disposition des modèles multiples et poursuivent des objectifs variés et souvent
contradictoires. De plus, les rapports entre experts et décideurs sont plus distanciés et méfiants
10
dans les sciences sociales que dans les sciences de la nature. Ainsi, si les études de balistique
ont un impact direct sur les décisions des artilleurs, les études économiques ont un impact
plus indirect et partiel sur les décideurs, sauf en matière d’économie financière où les
recommandations sont rapidement traduites en choix.
6. Fonction rhétorique
Un modèle s’impose finalement comme un artefact autorisant une expression concise et une
transmission fiable du savoir. Certes, le modèle est un instrument pédagogique utile pour les
spécialistes d’une discipline comme pour les étudiants de cette discipline. Mais il constitue
aussi un instrument de vulgarisation efficace auprès des non spécialistes, qu’il s’agisse des
média ou des milieux socio-professionnels. Il est l’objet d’une ‘communication’ qui favorise
sa diffusion de supports en supports avec plus ou moins de perte en ligne. Ainsi, les modèles
ont un caractère didactique en mettant en scène de façon simple et imagée des mécanismes
économiques issus de la théorie. Néanmoins, ils peuvent fort bien se muer en instruments
d’autorité et de sélection au service de certains groupes de pression.
Un modèle facilite la diffusion du savoir au sein de la communauté des économistes en
employant un langage formel présumé neutre. D’une part, il se présente comme un objet de
référence entre les savants, la seule évocation de son patronyme suffisant à en exprimer
l’essentiel du contenu. Ainsi, lorsqu’un orateur parle du ‘modèle de négociation de
Rubinstein’, l’auditeur y associe immédiatement une représentation formelle particulièrement
concise de la négociation entre deux joueurs. D’autre part, il se présente comme un module du
savoir transmissible de façon pédagogiquement efficace auprès d’un étudiant ayant les bases
formelles nécessaires. Ainsi, le ‘modèle du cobweb’ (modèle de la toile d’araignée) décrit
sous une forme imagée le tâtonnement vers un équilibre sur le marché du porc.
Un modèle autorise une communication efficace en dehors du milieu des économistes en
s’appuyant sur un langage quasi universel. D’une part, il peut être approprié facilement par
d’autres sciences sociales, même moins formalisées. Ainsi, le modèle de l’oligopole entre
producteurs a été adopté par la sociologie pour traiter de la diffusion des idées entre leaders
d’opinion ou des rapports de pouvoir entre organisations. D’autre part, il est pris en compte
par les médias et le public sous une forme vulgarisée qui en conserve les messages essentiels.
Ainsi, le ‘multiplicateur keynésien’, qui montre qu’un investissement engendre une
production supplémentaire qui induit à son tour de nouveaux investissements par un effet de
rétroaction positive, est popularisé comme une justification des grands travaux.
Un modèle est communiqué d’un émetteur aux récepteurs en imprégnant leurs esprits à trois
niveaux. Il utilise des concepts qu’ils reprennent à leur compte, il suggère des relations qu’ils
intègrent comme des régularités, il décrit des mécanismes qu’ils assimilent comme des
images. D’une part, les agents adoptent un vocabulaire spécialisé, même si celui-ci y perd de
son aspect technique. D’autre part, les agents forment des ‘cartes mentales’, à savoir des
relations qualitatives dans un réseau de variables, même s’ils distordent aussi les schémas
théoriques. C’est ainsi qu’ont été adoptées les notions de coût marginal, de valeur ajoutée ou
de pouvoir d’achat et que se sont ancrés des schémas comme la ‘loi quantitative de la
monnaie’ (toute augmentation de la masse monétaire provoque une augmentation
proportionnelle des prix) ou le ‘principe pollueur-payeur’ (les pollueurs doivent indemniser
les pollués en fonction de leur niveau de pollution).
11
Cependant, les modèles participent d’une hiérarchisation sociale du savoir, les économistes
étant classés en fonction de leur capacité à modéliser. D’une part, les modèles induisent une
sélection des économistes, seuls les articles formalisés étant considérés comme éligibles au
statut de travail scientifique. Ainsi, si la plupart des prix Nobel sont bien des modélisateurs,
même ceux qui ne le sont pas sont considérés comme des ‘pré-modélisateurs’ qui ont préparé
le travail des autres. D’autre part, les modèles créent des barrières à l’entrée pour les
étudiants, en définissant des formes plus ou moins nobles du savoir. Ainsi, les modèles
formels sont amenés à jouer le même rôle que les gammes pour les apprentis-musiciens ou
que les figures imposées pour les apprentis-patineurs.
Les modèles poussent aussi à développer un discours abscons qui joue de la relation d’autorité
auprès des non-économistes. D’une part, les modèles économiques ont un rôle impérialiste
vis-à-vis des autres sciences sociales en ce qu’ils prétendent à une universalité soutenue par
leur formalisme. Ainsi, la notion de capital, simplement soutenue par une idée d’accumulation
et de déclassement d’équipements, a été adoptée par les sciences sociales sous la forme d’un
capital relationnel ou symbolique. D’autre part, les modèles ont un rôle ostentatoire auprès
des médias en ce qu’ils sont censés procéder à des raisonnements imparables. Ainsi, ‘la
supériorité du libéralisme est mathématiquement démontrée’ est le titre malheureux d’une
interview accordée à un journal par un prix Nobel (Debreu).
Là encore, quant à la communication du modèle, deux tendances opposées se font jour. La
‘sous-diffusion’ concerne des modèles qui sont relativement complexes et perdent ainsi
beaucoup de leur subtilité lors de leur diffusion. Ainsi, les conditions théoriques d’apparition
et de disparition des ‘bulles spéculatives’ sont plutôt sophistiquées, ce qui n’a pas empêché le
concept de devenir extrêmement populaire sous une forme très imagée. En sens inverse, la
‘sur-diffusion’ concerne des modèles qui n’ont pas forcément des bases théoriques très
solides, mais qui acquièrent néanmoins une grande notoriété du fait de leurs connotations.
Ainsi, le ‘développement durable’ est un concept qui est loin de faire l’objet d’une théorie
bien stabilisée, mais qui a néanmoins fait florès dans les média et auprès des politiques.
Dans sa fonction rhétorique, la principale qualité d’un modèle est sa ‘performativité’, à savoir
sa faculté à être accepté comme une connaissance valide par les agents concernés. Un
problème majeur naît du caractère éventuellement auto-réalisateur des modèles, un
phénomène caractéristique des sciences sociales. En théorie, si des acteurs ont une croyance
sur un certain phénomène et prennent en compte cette croyance dans leur comportement, ils
peuvent modifier ce phénomène dans le sens de leur croyance. En pratique, le phénomène est
assez rare car tous les acteurs doivent être coordonnés sur une seule et même croyance. De
plus, l’autoréalisation peut porter sur une anticipation d’une variable, mais aussi sur une
relation liant plusieurs variables. Ainsi, si les agents croient qu’il va y avoir une pénurie de
sucre, ils peuvent provoquer la pénurie de sucre par des achats massifs ; plus avant, si les
agents croient que le prix du sucre est corrélé avec les tâches solaires, ils peuvent provoquer
cette corrélation.
Conclusion
Les modèles sont des objets conceptuels originaux qui poursuivent le raisonnement par
d’autres moyens et manifestent leur supériorité sur deux plans. Ils ont un rôle d’ouverture en
permettant de simuler de nombreuses situations virtuelles difficilement accessibles autrement.
Ils ont un rôle de fermeture en montrant que toute situation ou évolution d’un système n’est
12
pas possible du fait de contraintes incontournables. Malgré leur importance présente, les
modèles n’ont pas encore reçu le soubassement méthodologique qu’ils méritent. Les
conceptions de l’épistémologie générale doivent être spécifiquement adaptées à la notion de
modèle, en particulier les notions d’interprétation et d’idéalisation. L’impact des conditions
économiques et sociologiques d’élaboration des modèles doit être précisément étudié, en
particulier les mécanismes de concurrence entre modèles.
Les modèles restent perçus comme des objets mal identifiés qui suscitent, particulièrement en
sciences sociales, des réactions passionnées de deux types. La fascination des modèles naît
des explorations brillantes et des résultats subtils qu’ils permettent d’obtenir à peu de frais. La
répulsion des modèles naît de la mathématisation forcée du social qu’ils imposent et de leur
tendance à donner corps à de pures fictions. Pour assurer une position plus tempérée, une
déontologie de la modélisation doit fixer des règles du jeu dans le maniement des modèles. Le
passage du modèle de son constructeur à son utilisateur doit s’accompagner d’un mode
d’emploi rigoureux, en particulier quant à son domaine de validité. La diffusion du modèle
auprès des étudiants et du public doit s’accompagner d’un guide de lecture précis, en
particulier quant à ses véritables significations et enjeux.
Bibliographie
Armatte, M.- Dahan Dalmenico, A. (2004) : Modèles et modélisations, 1950-2000 : Nouvelles
pratiques, nouveaux enjeux, Revue d’Histoire des Sciences, 57(2), 245-305.
Bouleau, N. (1999) : Philosophie des mathématiques et de la modélisation, L’Harmattan.
Grenier, J.Y.- Grignon, C., Menger, P.-M. ed. (2002) : Le modèle et le récit, Editions de la
Maison des Sciences de l’Homme.
Israël, G. (1996) : La mathématisation du réel : Essai sur la modélisation mathématique,
Seuil
Morgan, M. –Morrison, M. eds. (1999) : Models as mediators : Perspectives on natural and
social science, Cambridge University Press.
Nouvel, P. ed. (2002) : Enquête sur le concept de modèle, Presses Universitaires de France.
13