La programmation dynamique et la simulation

Transcription

La programmation dynamique et la simulation
La programmation dynamique et la
simulation stochastique des marchés
financiers : un avenir prometteur en
recherche
Hatem Ben Ameur
Professeur titulaire
Département de sciences de la décision
30 septembre 2016
Les cahiers des leçons inaugurales
Hatem Ben Ameur
Hatem Ben Ameur est titulaire d’une maîtrise de mathématique,
obtenue à la Faculté des sciences de Tunis, d’un diplôme de
statisticien économiste et d’administrateur de l’INSEE, obtenu à
l’ENSAE Paris, et d’un doctorat en administration, obtenu à
HEC Montréal. Il a obtenu deux bourses d’excellence du
Ministère de l’enseignement supérieur en Tunisie et un prix de
meilleure thèse à HEC Montréal. Il a commencé sa carrière
d’enseignant universitaire à l’ISG Tunis, au département des
méthodes quantitatives de gestion. Il est présentement professeur
titulaire au département des sciences de la décision à HEC
Montréal. Il a aussi enseigné aux départements de finance de
l’ESG à l’UQAM et « The Goodman School of Business » à
« Brock University ». Ses intérêts de recherche portent sur l’ingénierie financière.
Hatem publie ses recherches dans des journaux académiques de grande notoriété
avec un support régulier du CRSNG.
Promus titulaires, les professeurs de HEC Montréal sont invités à donner un discours inaugural,
appelé leçon inaugurale, à l’intention de la communauté universitaire. Dans le cadre de cette leçon,
les professeurs font part de leurs réflexions sur leur carrière et sur la pratique de la gestion.
COPYRIGHT, ©, septembre 2016, Hatem Ben Ameur
Programmation dynamique et simulation stochastique
des marchés financiers : un avenir prometteur
en recherche
Table des matières
Introduction......................................................................................... 5
I. Marchés non-arbitrés ................................................................... 9
II.
Programmation dynamique en ingénierie financière .......... 10
A.
Programmation dynamique et approximations locales .......... 10
B.
Malédiction de la dimension .................................................. 11
C. Casser la malédiction : programmation dynamique et
simulation Monte Carlo................................................................... 14
III. Perspectives de carrière .......................................................... 17
Conclusion ......................................................................................... 19
Bibliographie ..................................................................................... 20
Introduction
Ce cahier inaugural porte sur mon sujet préféré en recherche scientifique :
construire des modèles dynamiques d’évaluation d’actifs et puis les résoudre
numériquement. Mes chevaux de bataille sont la programmation dynamique et tout
le spectre de méthodes de calcul intégral, qui va du calcul explicite jusqu’à la
simulation Monte Carlo.
La formule de Feynman-Kac montre, depuis longtemps déjà, l’équivalence entre la
représentation intégrale versus différentielle d’une fonction valeur d’un actif dans
les modèles dynamiques continus. L’approche intégrale est cohérente avec
l’approche actuarielle d’évaluation et reste opérationnelle même dans les espaces
de dimension élevée. Est-ce le destin que ma formation mathématique prédoctorale ait été dominée par la théorie d’intégration? Quoi qu’il en soit, la formule
de Feynman-Kac fut ma porte d’entrée dans le monde de l’ingénierie financière.
L’ingénierie financière sous-tend la construction de modèles de marché, leur
résolution numérique et leur ajustement empirique. Elle est à la croisée des chemins
de 1- l’économie/finance, 2- des mathématiques pures/appliquées et de 3l’informatique.
On considère un modèle dynamique où un « petit » investisseur averse au risque
prend position sur un marché pur et parfait et transige sur plusieurs actifs
fondamentaux dans l’objectif de maximiser la valeur de sa position à l’horizon
d’investissement, en tenant compte de la dynamique aléatoire du marché. La
programmation dynamique résout ce modèle sous la condition que le processus
d’état des prix des actifs fondamentaux soit Markov. Ce dernier processus génère
le flux d’information sur la base duquel l’investisseur prend ses décisions. Il arrive
qu’on augmente/réduise le processus d’état selon le besoin en information, alors
que la propriété de Markov reste valide. On parle d’un processus de décision
optimal de Markov.
L’investisseur agit afin de maximise la valeur de sa position à l’horizon
d’investissement en étant pleinement 1- informé de la position du marché à date et
2- conscient de tous les scénarios futurs sur l’évolution du marché et de leurs
vraisemblances. À ce titre, cet investisseur est visionnaire et rationnel.
Mon exemple d’illustration concerne une position longue sur une option
américaine. Cette dernière procure à son détenteur un privilège lié à l’achat ou la
vente des actifs fondamentaux (sous-jacents). Par exemple, l’option d’achat
européenne procure à son détenteur le privilège d’acheter un panier d’actifs sousjacents à un prix et une maturité connus d’avance. Sa contrepartie américaine donne
au détenteur le privilège additionnel de l’exercice prématuré.
Plus généralement, si les flux futurs promis par un actif sont fonction des prix des
sous-jacents, on parle d’un produit dérivé. Les actifs fondamentaux eux-mêmes, les
5
options, les futures, les swaps, les obligations gouvernementales, les obligations
corporatives sont des exemples (Hull 2012). La famille de contrats dérivés, mon
champ d’investigation préféré, est extrêmement large. Par exemple, mes recherches
récentes portent sur l’évaluation d’actifs corporatifs intangibles, interprétés comme
des dérivés sur la valeur d’une firme. Les économies de taxe, les coûts de
réorganisation et les coûts de faillite sont des exemples (Ayadi, Ben-Ameur et
Fakhfakh 2016).
Dans ce contexte, on ne se préoccupe pas vraiment d’expliquer le mécanisme de
formation de prix des actifs fondamentaux, mais plutôt d’évaluer les actifs dérivés
en fonction des prix des sous-jacents. Par abus de langage, les termes « options »,
« actifs dérivés » ou simplement « actifs » sont utilisés dans ce qui suit d’une
manière interchangeable.
Sans perte de généralité, on considère un modèle de type inputs-output, où les
inputs aléatoires sont transformés en un output par une fonction de production plus
ou moins complexe. On s’intéresse alors à calculer des paramètres de performance
comme l’output moyen, sa dispersion, ses quantiles et/ou la probabilité d’un
événement particulier dans ce système. Dans tous les cas, ceci revient à calculer
une moyenne dans une population (une valeur espérée). La dimension apparente
d’un modèle inputs-output est le nombre de ses inputs.
Par exemple, le seul input aléatoire du modèle statique de Black et Scholes (1973)
est le prix du sous-jacent à la maturité de l’option, lequel est transformé par une
fonction linéaire par morceaux pour produire le flux futur promis par une option
européenne.
On peut classer les modèles dynamiques selon la nature du temps d’observation et
de l’espace état, ce qui donne les quatre familles suivantes :
Temps/Espace état
Continu
Discret
Continu
Diffusions
GARCH
Discret
Peu étudié
Arbres
Les processus stochastiques de Markov à temps/état continus sont appelés les
diffusions. Ils sont bien identifiés et définis comme les solutions d’équations
différentielles stochastiques; merci Feller. Ils se présentent sous forme d’intégrales
stochastiques qui généralisent les intégrales de Riemann. La famille des diffusions
est riche dans le sens où on peut toujours trouver une diffusion qui s’ajuste
globalement au comportement d’un actif fondamental. Par exemple, le prix moyen
d’une action va typiquement évoluer d’une manière monotone, alors qu’un taux de
change moyen va typiquement osciller autour d’une moyenne de long terme.
On peut classer les diffusions en deux groupes selon leur degré de « maniabilité ».
Je me concentre dans ce qui suit sur les diffusions pour lesquels on détient un
6
minimum d’information sur leurs distributions conditionnelles. Les autres ne sont
pas maniables, sauf par discrétisation de l’axe temporel et approximations
numériques spécifiques aux processus stochastiques. Les approximations d’Euler
et de Milstein sont des exemples. Ce dernier groupe de diffusions est de loin le plus
général, mais son usage ne pose pas vraiment de défi d’ordre méthodologique, du
moins en ingénierie financière. Il est moins apprécié par les réviseurs.
Les modèles de première génération sont bien acceptés dans la littérature, advenant
une cohérence minimale avec les observations de marché. Souvent, ce sont des
modèles à une variable d’état où le paramètre de performance est calculé sous forme
fermée. La littérature accueille très bien le calcul explicite pour plusieurs raisons :
a. le calcul est « exact » et instantané;
b. les analyses de sensibilité sont robustes;
c. l’implantation informatique est simple.
Sauf que les modèles de première génération n’arrivent pas à reproduire tous les
faits stylisés observés sur le marché. Par exemple, la diffusion lognormale dans
(Black et Scholes 1973) est incapable de reproduire les sauts d’une cote boursière
et encore moins ses asymétries de direction et/ou d’amplitude. Les chercheurs
partent alors à la construction d’une deuxième génération de modèles capable de
capturer les dits faits stylisés et ainsi de suite.
Dans ce contexte, Merton (1976) généralise Black et Scholes (1973) à des sauts
gaussiens symétriques, Kou (2002) propose des sauts asymétriques doublement
exponentiels, alors que Madan et Chang (1998) proposent de reproduire
artificiellement les sauts par changement de temps dans un modèle variancegamma. Les deux premiers dérivent des formules fermées/quasi-fermées pour les
options européennes, alors que le troisième utilise l’intégration numérique. BenAmeur, Chérif et Rémillard (2016a et 2016b) traitent leurs versions américaines
par programmation dynamique et éléments finis, après avoir dérivé et calculé
explicitement les transitions du processus d’état.
Les modèles récents, de dernière génération, sont plus réalistes, mais plus
complexes. Ils font appel à des méthodes de calcul de moins en moins efficaces.
L’efficacité des calculs, qui est un compromis entre la précision et le temps de
calcul, revêt d’une importance capitale en ingénierie financière. Il faut calculer vite
et bien, sinon le marché aura bougé entre temps, laissant l’analyste avec des
résultats obsolètes.
Je consacre ce cahier inaugural à la résolution de modèles dynamiques continus. La
Section 1 porte sur l’évaluation des actifs dans les marchés non-arbitrés. La Section
2 discute le couplage de la programmation dynamique avec un large spectre de
méthodes de calcul intégral, qui va du calcul explicite à la simulation Monte Carlo,
discute la « malédiction de la dimension » et revient sur les spécificités de la
simulation Monte Carlo. La notion d’efficcité des calculs est mise en perspective
7
avec la dimension du problème. La Section 3 discute mes perspectives de carrière
à HEC Montréal et la Section 4 conclut.
8
I. Marchés non-arbitrés
L’une des théories populaires d’évaluation d’actifs est celle de la prime de
risque. Elle préconise de calculer la valeur espérée des flux futurs promis par un
actif, lesquels flux sont actualisés à un taux qui reflète le niveau de risque de cet
actif. Le défi majeur de cette théorie est le calcul d’une prime de risque par actif,
en excès par rapport au taux sans risque.
La théorie d’évaluation dans les marchés non-arbitrés opère autrement :
a. On s’assure que le marché soit non-arbitré, ce qui revient à vérifier
l’existence d’une nouvelle probabilité dite neutre au risque, qui fait que
l’investisseur perçoive le marché comme s’il était sans risque. Pourtant, le
même investisseur percevait le marché comme risqué sous la probabilité
physique.
b. Plus besoin d’une prime de risque sous la nouvelle probabilité, on calcule
la valeur espérée des flux futurs promis par l’actif, actualisés au taux sans
risque.
Harrison et Kreps (1979) et Harrison et Pliska (1981) discutent le lien entre la
propriété d’absence d’arbitrage, l’existence d’une probabilité neutre au risque et
la propriété de martingale des prix des actifs fondamentaux, actualisés au taux sans
risque.
La théorie d’évaluation dans les marchés non-arbitrés est intuitive et générale, mais
présente un point faible. La probabilité neutre au risque n’est pas toujours unique,
sauf si le marché est complet et permet la réplication des options par des stratégies
autofinancées sur les sous-jacents. La multiplicité des probabilités neutres au risque
donne naissance à de multiples prix pour un seul actif, tous compatibles avec la
propriété d’absence d’arbitrage. Personnellement, ce résultat m’a gêné jusqu’au
jour où j’ai commencé mes travaux sur les diffusions avec sauts. La multiplicité des
prix pour un seul actif peut traduire un risque « incontrôlable ».
Danthine et Donaldson (2005) discutent les théories d’évaluation « actuarielles » et
montrent leur équivalence sous certaines conditions. En ingénierie financière,
l’évaluation des actifs dans les marchés non-arbitrés prend de l’ampleur. Elle est
aussi le point de départ à des travaux dans les marchés imparfaits avec des barrières
à l’entrée, des asymétries d’information, des limites sur les ventes à découvert, un
manque de liquidité, parmi d’autres frictions.
Avec une dynamique de marché de Markov et un théorème fondamental
d’évaluation des actifs dans les marchés non-arbitrés, la programmation dynamique
devient une méthodologie de choix pour résoudre les processus de décision
optimaux de Markov.
9
II. Programmation dynamique en ingénierie financière
A. Programmation dynamique et approximations locales
La programmation dynamique tire sa force de la possibilité de décomposer un
processus de décision optimal de Markov en étapes qu’on résout à rebours dans le
temps en partant de l’horizon d’investissement jusqu’à l’origine; merci à Bellman
et ses disciples (Bertsekas 2005 et 2012). Le choix de la maturité comme étape de
départ est motivé par le fait que la fonction valeur de l’actif à évaluer soit connue
explicitement en fonction des prix des actifs fondamentaux. Sinon, toute autre date,
où la fonction valeur est approximée/estimée avec suffisamment de précision,
convient.
Un programme dynamique se présente donc comme une boucle temporelle
(inversée) suivie d’une (multiple) boucle d’état au cœur desquelles on calcule la
valeur de l’actif à analyser. Puis, on sort de la (multiple) boucle d’état et on
extrapole la fonction valeur à partir des nœuds d’évaluation à l’espace état en entier.
On remonte alors le temps à rebours et on achève une autre étape, jusqu’à atteindre
l’origine. Cette interprétation d’un programme dynamique comme une succession
de boucles imbriquées suppose des dates de décision et des nœuds d’évaluation en
nombre fini, ce qui peut nécessiter une discrétisation de l’axe temps et/ou des axes
d’état, selon le cas.
Au cœur du programme, une option américaine, par exemple, sous-tend le calcul
de sa valeur d’exercice, sa valeur de détention et sa valeur globale et, au passage,
l’identification de la décision optimale du détenteur : arrêter et collecter le flux
monétaire promis ou détenir encore jusqu’à la prochaine date de décision. Alors
que la valeur d’exercice est transcrite au contrat, la valeur de détention pose un défi
majeur de calcul efficace. Elle se calcule comme une moyenne conditionnelle des
potentialités futures du contrat, actualisées au taux sans risque. Il s’agit d’une
intégrale de dimension élevée, incalculable sous forme fermée. Il faut donc coupler
le programme dynamique avec une méthode de calcul intégral (Judd 1998 et Gerald
et Wheatley 1999). Par ordre décroissant d’efficacité, on recense :
a.
b.
c.
d.
e.
f.
g.
le calcul explicite;
le calcul quasi-explicite;
l’intégration numérique;
la simulation quasi-Monte Carlo;
les approximations numériques locales;
les approximations numériques globales + leurs versions neuronales;
la simulation Monte Carlo.
On comprend alors le sens de mots clés en vogue comme « approximate-dynamic
programming » ou « neuro-dynamic programming ».
10
Pour résumer et conclure, on peut voir un programme dynamique comme une
boucle temporelle (inversée) suivie d’une (multiple) boucle d’état au cœur
desquelles on calcule des intégrales de la manière la plus efficace possible. À la
sorte des boucles d’état, une extrapolation de la fonction valeur est nécessaire. On
peut fixer une précision acceptable et minimiser le temps de calcul ou, mieux
encore, fixer un temps de calcul acceptable et maximiser la précision.
B. Malédiction de la dimension
Au fur et à mesure qu’on aborde des modèles de marché plus réalistes et donc plus
complexes, le compromis entre précision et temps de calcul est altéré. La recherche
d’un maximum d’efficacité au cœur d’un programme dynamique se fait à différents
niveaux d’une construction académique :
a. Le design du programme dynamique;
b. Le choix et l’usage des méthodes de calcul intégral;
c. L’implantation informatique.
Trois approches dominantes de résolution des modèles dynamiques (continus) se
livrent bataille sur le terrain de l’efficacité des calculs : 1- l’approche différentielle,
2- les arbres et 3- l’approche intégrale. La première repose sur les différences
finies, la seconde sur le calcul discret et la troisième sur la programmation
dynamique couplée aux méthodes de calcul intégral. Elles sont dites des approches
« backward » car elles opèrent toutes à rebours dans le temps.
La croyance que l’approche différentielle et les arbres sont plus efficaces que la
programmation dynamique vient de l’idée que le calcul d’une dérivée ou d’une
somme discrète (à deux/trois composantes) est plus rapide que le calcul d’une
somme continue (une intégrale). Cette croyance est fausse pour les raisons
suivantes :
a. L’approche différentielle et les arbres nécessitent une discrétisation de l’axe
temps et un passage limite, ce qui n’est pas toujours le cas pour l’approche
intégrale;
b. L’approche différentielle et les arbres sont sensibles aux changements
abrupts des fonctions valeur, ce qui n’est pas le cas pour l’approche
intégrale;
c. L’approche différentielle et les arbres cessent de fonctionner dans les
espaces de dimension élevée, ce qui n’est pas le cas pour l’approche
intégrale.
Pour résumer et conclure, l’efficacité relative des calculs entre les trois approches
se négocie au cas par cas si la dimension est faible/intermédiaire. Au mieux de mes
connaissances, la programmation dynamique, couplée à la simulation Monte Carlo,
est notre unique porte de sortie dans les espaces de dimension élevée.
11
Des combinaisons entre les trois approches sont possibles. Par exemple, si
l’approche différentielle s’avérait plus efficace pour évaluer un actif, on peut
l’utiliser quand la prise de décision est continue et basculer sur l’approche intégrale
quand la prise de décision est discrète. Une obligation rachetable dotée d’une
période de protection est un exemple. Cet actif donne à l’émetteur l’option de
racheter sa dette avant son échéance à un prix fixé d’avance. La période de
protection protège l’investisseur du rachat pendant les premières années de
l’obligation. Je cherche coauteur spécialiste des différences finies pour concrétiser
cette idée!
La bataille de l’efficacité relative se joue aussi au niveau d’une seule approche. Je
reporte une situation particulière en guise d’illustration. Duan et Simonato (2001)
ont proposé une méthode d’évaluation d’options américaines sous GARCH,
appelée « Markov Chain ». Une analyse approfondie a montré que cette méthode
n’est autre qu’un programme dynamique particulier couplé avec des
approximations constantes par morceaux dans un espace à deux dimensions
(apparentes). La réponse est venue via un programme dynamique couplé aux
interpolations bilinéaires par morceaux. Le gain d’efficacité était fulgurant. De
plus, par augmentation de l’espace état, le programme dynamique fut généralisé à
une large famille de processus GARCH. Le tout s’est soldé par une publication dans
la prestigieuse revue Management Science (Ben-Ameur, Breton et Martinez 2009).
Pour des problèmes à une dimension, possiblement à deux dimensions apparentes,
on est maintenant capable à HEC Montréal d’évaluer des options américaines par
programmation dynamique et éléments finis avec quatre chiffres de précision en
une fraction de seconde sur nos laptops habituels. Cette performance extrême a été
bien acceptée par la littérature et s’est traduite par de multiples publications dans
des journaux de grande notoriété.
Le bilan était tellement prometteur qu’on était tenté de généraliser la même
démarche pour des options à deux dimensions effectives (Ben-Abdellatif, BenAmeur et Rémillard 2016). Les premiers résultats étaient sans équivoque : les
calculs prennent plus de 24 heures pour atteindre un niveau de précision acceptable.
On était profondément hors-jeu!
Pourquoi est-on passé d’une seconde à 24 heures de calcul? Le couplage de la
programmation dynamique aux éléments finis nécessite le calcul de paramètres de
transition qu’on dérive et calcule sous forme fermée. La probabilité de transition
que le processus d’état parte d’une position donnée à une date d’évaluation et visite
un intervalle/rectangle donné à la prochaine date d’évaluation est un exemple.
Si chaque axe d’état est divisé en 1000 nœuds d’évaluation, on dénombre 10002,
soit un million de nombres en double précision à calculer et à stocker en mémoire
si le modèle est à une dimension. Par ailleurs, on dénombre (10002)2, soit mille
12
milliards de nombres en double précision à calculer si le modèle est à deux
dimensions. On voit vite la différence.
Plus encore, nos ordinateurs actuels sont capables de stocker quelques millions de
nombres en double précision, mais certainement pas des milliers de milliards. Il
faut donc recalculer les mêmes paramètres d’une étape à l’autre au cœur du
programme, ce qui pénalise d’avantage le programme dynamique. Le problème est
plus grave encore quand la dimension augmente. On comprend maintenant la raison
principale à l’explosion du temps de calcul. Les chercheurs opérationnels parlent
de « curse of dimensionality », qu’on traduit littéralement par « malédiction de la
dimension élevée ».
Notre nouvelle stratégie est comme suit :
a. On adopte un calcul parallèle des paramètres de transition, au lieu d’un
calcul séquentiel;
b. On implante des interpolations quadratiques par morceaux, au lieu des
interpolations bilinéaires par morceaux, déjà implantées.
Primo, le parallélisme de l’algorithme est possible dans ce contexte car on peut
calculer les paramètres de transition indépendamment les uns des autres. On peut
donc utiliser des centaines de cœurs (CPUs) différents d’un même serveur
informatique pour les calculer simultanément. Dépendamment des ressources
mises à notre disposition, le temps de calcul peut passer de 24 heures à quelques
secondes; merci Compute Canada et Calcul Québec. Pas pour autant qu’on puisse
parler de gain d’efficacité car la réduction du temps de calcul est accompagnée d’un
changement de machine. Cependant, on est des pionniers en ingénierie financière à
paralléliser des algorithmes. On travaille la main dans la main avec le compilateur
GCC, la librairie de mathématique appliquée GSL et la librairie de calcul parallèle
MPI, du domaine public. Le processus de publication nous dira à quel degré on est
perçu comme novateurs.
Secundo, comme la fonction valeur d’une large famille d’options se présente sous
la forme d’un bol convexe, on s’attend à ce que les interpolations quadratiques par
morceaux s’y ajustent beaucoup mieux que les interpolations bilinéaires par
morceaux et que le temps de calcul additionnel soit largement compensé par le gain
en précision inhérent à l’approximation quadratique. On s’attend à une amélioration
significative de l’efficacité.
Les approximations polynomiales de haut degré, dites spectrales, peuvent aider à
réduire le nombre de nœuds d’évaluation sur chaque axe d’état (Breton et de Frutos
2012), tout en gardant le même niveau de précision. Au-delà de ses défis
spécifiques, cette méthode peut engendrer des gains substantiels d’efficacité dans
les espaces de dimension intermédiaire.
13
Pour conclure, dans le contexte d’évaluation des actifs, l’approche différentielle,
les arbres et la programmation dynamique couplée aux approximations locales ne
sont plus opérationnels dans les espaces de dimension élevée. Autrement, dans les
espaces de dimension faible/intermédiaire, il y a des possibilités d’intégration entre
les trois approches, ce qui est bien perçu par la littérature.
C. Casser la malédiction :
simulation Monte Carlo
programmation
dynamique
et
La raison principale à la « malédiction de la dimension élevée » est qu’une
visite systématique de l’espace état devient très onéreuse quand la dimension
augmente. On est mieux de se laisser guider par le hasard. Oui, se faire guider par
un aveugle non-initié comporte des avantages indéniables : ses choix sont sans biais
et permettent des estimations convergentes. La simulation Monte Carlo, qui
propose d’estimer une moyenne dans la population par une moyenne dans un
échantillon aléatoire, assure une estimation convergente à la vitesse 1⁄2. En bref,
pour doubler la précision, il faut quadrupler la taille de l’échantillon (le nombre de
visites au hasard) (Glasserman 2004).
La vitesse de convergence de la simulation Monte Carlo est certes modeste, mais
elle est indépendante de la dimension de l’espace état. Du coup, elle permet de
casser partiellement la « malédiction de la dimension élevée » (Powell 2007).
Parce que la simulation Monte Carlo est une méthode « forward », elle a été
longtemps négligée pour analyser les options américaines dont l’évaluation
nécessite des approches « backward ». C’est là une erreur d’appréciation qui s’est
corrigée avec le temps car la simulation Monte Carlo, comme méthode d’estimation
de valeurs espérées, se combine naturellement avec la programmation dynamique
comme tout-autre méthode de calcul intégral.
Toutefois, son usage présente un défi majeur dans les modèles continus. Les
trajectoires simulées du processus d’état ne se rencontrent presque jamais dans le
futur, ce qui compromet l’estimation de valeurs moyennes au cœur d’un
programme dynamique. Plusieurs stratégies sont adoptées dans la littérature, parmi
lesquelles on reporte :
a. les estimations Monte Carlo de taille unitaire, corrigées par des
approximations globales (Longstaff et Schwartz 2001);
b. des estimations Monte Carlo de taille acceptable, obtenues par
regroupement de trajectoires (Tilley 1993);
c. des estimations Monte Carlo « forward » basées sur des stratégies
d’exercice sous-optimales (Ibànez et Zapatero 2004).
14
Il est vrai que l’estimateur Monte Carlo converge lentement vers sa cible, mais on
peut souvent accélérer sa vitesse par réduction de variance. On recense plusieurs
techniques de réduction de variance (Boyle, Broadie, and Glasserman 1997) dont :
a. L’induction de corrélation;
b. Le conditionnement;
c. L’échantillonnage par importance.
L’induction de corrélation tire profit de la corrélation possible entre estimateurs.
Dans un sur-modèle, on peut toujours trouver un sous-modèle où le paramètre de
performance à calculer est connu sous forme fermée. On peut alors centrer l’output
du sous-modèle et puis l’utiliser pour contrôler l’output dans le sur-modèle et, ainsi,
réduire sa variance. Le gain en précision est d’autant meilleur que la corrélation
entre les deux outputs est élevée dans les deux sens. Ben-Ameur, L'Écuyer et
Lemieux (2004) donnent la manière optimale de combiner toutes les techniques de
réduction de variance basées sur l’induction de corrélation dans la prestigieuse
revue Mathematics of Operations Research.
La loi des espérances itérées stipule qu’en calculant la moyenne d’une moyenne
conditionnelle d’un output, on retombe sur nos pas et on retrouve la moyenne
inconditionnelle du même output. Donc, un output et sa moyenne conditionnelle
sont deux estimateurs sans biais d’une même cible. On a une bonne vision de ce
résultat dans les espaces Euclidiens par double projection orthogonale d’un vecteur
sur un sous-espace vectoriel. Le théorème de Pythagore sur le triangle rectangle
illustre bien la réduction de variance.
L’application de ce résultat est immédiate : dès qu’on arrive à exprimer
explicitement une moyenne conditionnelle, on gagne. On obtient un estimateur
Monte Carlo conditionnel qui vise la même cible que l’estimateur Monte Carlo
brut, mais en plus précis. La réduction de variance est inversement reliée à la
quantité d’information révélée à l’investisseur via le conditionnement. Donc, le
plus tôt on conditionne et le plus on réduit la variance.
L’échantillonnage par importance oriente la visite aléatoire de l’espace état vers
les zones d’importance. Cette méthode peut s’avérer très utile quad la cible est la
probabilité d’un événement rare, qui est une moyenne d’un output particulier de
Bernoulli. Observer la valeur 0 sur presque tous les scénarios simulés est clairement
contreproductif. Les zones d’importance sont alors les régions peu vraisemblables,
où l’indicatrice produit 1.
Échantillonner par importance se fait par changement de mesure et ajustement de
l’output par un ratio de vraisemblance, ce qui revient à modifier le comportement
des inputs afin d’orienter l’output vers les zones importantes. Si le changement de
mesure est judicieux, on récupère une réduction de variance de l’output modifié,
sinon, la méthode peut produire une inflation de variance.
15
La littérature reporte une méthodologie de calcul intégral similaire à la simulation
Monte Carlo, dite simulation quasi-Monte Carlo. Elle recherche la faible
discrépance (la haute régularité) des échantillons plutôt que leur choix au hasard.
Dans ce contexte, la loi des grands nombres et le théorème de la limite centrale ne
fonctionnent plus. À la place, sous des conditions de régularité de la fonction à
intégrer, le théorème de Koksma-Hlawka justifie la convergence des
approximations quasi-Monte Carlo vers leurs cibles à la vitesse log(𝑑𝑑)𝑛𝑛 ⁄𝑛𝑛, où 𝑑𝑑
est la dimension du problème et 𝑛𝑛 la taille de l’échantillon. Le simulation quasiMonte Carlo est populaire en physique (Morokoff et Caflisch 1995), mais pas
encore en ingénierie financière.
La vitesse de convergence de l’approximation quasi-Monte Carlo comporte un
avantage et un inconvénient. Cette vitesse finit forcément par dépasser 1⁄2, mais
elle dépend de la dimension du problème. À voir de près, quasi-Monte Carlo bat
Monte Carlo dans les espaces de dimension intermédiaire. Si la dimension continue
d’augmenter, la simulation Monte Carlo prend le dessus.
La simulation Monte Carlo, la simulation quasi-Monte Carlo et les méthodes
d’intégration numérique (quadratures) sont comparables dans le sens où elles
différent seulement par la manière de choisir les nœuds d’évaluation d’une
intégrale. L’intuition dit de mettre plus de points là où le processus se trouve le plus
souvent et là où la fonction montre des changements abrupts. Seule la simulation
Monte Carlo respecte la première intuition, mais pas le deuxième. Il reste du travail
à faire.
Les méthodes de réduction de la dimension effective peuvent aider à résoudre les
modèles dynamiques de dimension élevée, jusqu’à une certaine limite (Jin et al.
2013). Si la dimension est de l’ordre de centaines de milliers, comme c’est le cas
d’un portefeuille de crédit par exemple, notre seule issue est de combiner la
programmation dynamique, la simulation Monte Carlo et les techniques de
réduction de variance.
16
III. Perspectives de carrière
J’affirme avec grande fierté mon appartenance à l’équipe « ingénierie
financière » de HEC Montréal. Je contribue actuellement par :
a. un cours de simulation Monte Carlo et ses applications en finance;
b. des directions/codirections de mémoires.
Je collabore actuellement en recherche avec Bruno Remillard (HEC Montréal,
sciences de décision) sur l’évaluation d’actifs, Julien Le-Maux (HEC Montréal,
comptabilité) sur la prévision de faillite corporative, Mohamed Ayadi (Brock
University, finance) sur la gestion de portefeuille et Abdelwahed Trabelsi (ISG
Tunis, MQG) sur les réseaux de neurones et leurs applications en finance. Le
croisement des connaissances est vraiment enrichissant. J’en profite pleinement.
De plus, j’ai déjà pris pied dans notre BAA à spécialisation intégrée EFM, conjoint
avec les départements d’économie et de finance. Je prépare un cours de
mathématiques appliquées sur les modèles dynamiques déterministes. C’est une
chance qu’on m’ait invité à démarrer ce cours.
Depuis plusieurs années déjà, je contribue à la maîtrise en intelligence d’affaires
par un cours régulier sur les analyses factorielles multiples et un autre intermittent
sur la programmation R et SAS. Je suis sensible au développement de cette maîtrise
dont les interactions avec l’ingénierie financière vont en croissant.
Pendant ma sabbatique, qui s’est terminée en juin 2016, j’ai investi une partie de
mon temps sur les modèles de prévision des ventes, planification des commandes
et gestion de stocks. Dans cette veine, j’ai produit un logiciel R pour Caterpillar
Tunisie dans le cadre d’une étude d’envergure qui a eu le plus grand succès. L’étude
a touché tant les machines à ventes régulières que les machines à rotation lente. Les
modèles de prévision des ventes de ces dernières sont spécifiques à cause de l’excès
de la valeur 0 dans les séries.
Si mes collègues Jean-François Cordeau et Yossiri Adulyasak, responsables des
programmes de maîtrise en logistique/gestion des opérations, sont intéressés par un
cours de modélisation sur la prévision des ventes, planification des commandes et
gestion des stocks, je serais ravi d’apporter ma modeste contribution.
Au-delà des cours, la démocratisation/vulgarisation de nos bases de données sous
licence à HEC Montréal constituent un projet pédagogique qui me tient à cœur. De
toute évidence, le sujet intéresse aussi mon collègue Bernard Bizimana, Directeur
de notre bibliothèque, avec qui j’ai eu un échange très positif sur le sujet. On
constate que nos bases de données, payées au prix fort, sont peu représentatives de
nos départements et peu utilisées par la communauté HEC Montréal. On concorde
à dire que la solution passe par un usage prononcé de nos bases de données dans
nos cours de premier cycle.
17
On est encore loin de cet objectif, mais il reste accessible à moyen terme si l’école
décidait d’en faire une priorité. Personnellement, je pense que l’usage systématique
des bases de données dans nos cours de premier cycle nous fera franchir une
nouvelle étape dans l’excellence.
18
Conclusion
Il est temps pour moi de réfléchir à renouveler mon CRSNG qui vient à maturité
en 2018. Le thème d’évaluation des actifs dérivés par programmation dynamique
est suffisamment général pour justifier de nouvelles demandes de subvention. Je
travaille actuellement sur la dette corporative et la structure de capital de la firme.
La classification des problèmes par dimension est d’actualité avec une emphase sur
les dimensions intermédiaires/élevées plus prononcée que les dimensions faibles.
Casser la « malédiction de la dimension » est un mot clé dans la littérature.
Coupler les constructions numériques d’évaluation des obligations risquées avec
les constructions empiriques de prévision de faillite corporative donne naissance à
des modèles dits hybrides. Il y a lieu de penser que l’information économique
rationnelle (non-observable) se combine bien à l’information comptable/financière
(observable) pour mieux prévoir la faillite corporative. Pour clore le tout, il importe
de mettre en évidence les gains pour l’industrie de la finance :
a. Mieux évaluer des actifs peu liquides, comme les obligations corporatives,
est utile pour les investisseurs;
b. Mieux prévoir le stress financier réduit les coûts économiques et sociaux de
la faillite.
Pour terminer et conclure, HEC Montréal offre un environnement favorable à la
recherche et l’enseignement. Pour preuve, on publie sur une base régulière avec nos
étudiants de maîtrise et de doctorat dans les meilleures revues au monde. Les
ressources mises à la disposition des chercheurs sont plus qu’importantes. Notre
centre de calcul, le LACED, et notre centre de recherche, le GERAD, sont des
atouts majeurs. De plus, le corps enseignant est entouré par un staff administratif
extrêmement compétent. Même nos bâtiments et nos classes me semblent
maintenant optimisés pour l’apprentissage, combien même j’étais réticent à leur
égard à mon arrivée.
Bref, il y a tout à HEC Montréal pour réaliser une brillante carrière.
19
Bibliographie
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]
[11]
[12]
[13]
[14]
[15]
[16]
Ayadi, M., Ben-Ameur, H., and Fakhfakh, T. (2016). A dynamic program
for valuing corporate securities. European Journal of Operational Research,
249:751-770.
Ben-Abdellatif, M., Ben-Ameur, H., and Rémillard, B. (2016), Dynamic
programming and parallel computing for valuing two-dimensional
American-style options. GERAD report, G-2016-48.
Ben-Ameur, H., Breton, M., and Martinez, J.-M. (2009). A dynamic
programming approach for pricing derivatives in the GARCH model.
Management Science, 55:252–266.
Ben-Ameur, H., Chérif, R., and Rémillard, B. (2016). American options
under variance-gamma processes. GERAD report no G-2016-74.
Ben-Ameur, H., Chérif, R., and Rémillard, B. (2016). American-style
options in jump-diffusion models: estimation and evaluation. Quantitative
Finance, 16:1313-1324.
Ben-Ameur, H., L'Écuyer, P., and Lemieux, C. (2004). Combination of
general antithetic transformations and control variables. Mathematics of
Operations Research, 29:946-960.
Bertsekas, D.P. (2005). Dynamic Programming and Optimal Control. Third
edition. Volume 1, Athena Scientific, Belmont, MA.
Bertsekas, D.P. (2012). Dynamic Programming and Optimal Control, Fourth
edition, Volume 2, Athena Scientific, Belmont, MA.
Black, F. and Scholes, M. (1973). The pricing of options and corporate
liabilities. Journal of Political Economy, 81:637-654.
Boyle, P.P., Broadie, M., and Glasserman, P. (1997). Monte Carlo methods
for security pricing. Journal of Economic Dynamics and Control, 21:12671321.
Breton, M. and de Frutos, J. (2012). Approximation of dynamic programs. In
Handbook of Computational Finance, edited by Duan, J.C., Härdle, W., and
Gentle, J.E., 633-649, Springer, Berlin.
Danthine, J.P. and Donaldson, J.B. (2005). Intermediate Financial Theory.
Academic Press, CA:
Duan, J.-C. and Simonato, J.-G. (2001). American option pricing under
GARCH by a Markov chain approximation. Journal of Economic Dynamics
and Control, 25:1689-1718.
Gerald, C.F. and Wheatley, P.O. (1999). Applied numerical analysis, Sixth
edition. Addison-Wesley, MA.
Glasserman, P. (2004). Monte Carlo methods in financial engineering.
Springer, Berlin.
Harrison, J.M. and Kreps, D.M. (1979). Martingales and arbitrage in
multiperiod securities markets. Journal of Economic Theory, 20:381-408.
20
[17]
[18]
[19]
[20]
[21]
[22]
[23]
[24]
[25]
[26]
[27]
[28]
Harrison, J.M. and Pliska, S.R. (1981). Martingales and stochastic integrals
in the theory of continuous trading. Stochastic Processes and their
Applications, 11:215-260.
Hull, J. (2012). Options, futures, and other derivative securities, Eighth
edition. Prentice-Hall, NJ.
Ibànez, A. and Zapatero, F. (2004), Monte Carlo valuation of American
options through computation of the optimal exercise frontier. Journal of
Financial and Quantitative Analysis, 39:253-275.
Jin, X., Li, X., Tan, H.H., and Wu, Z. (2013). A computationally efficient
state-space partitioning approach to pricing high-dimensional American
options via dimension reduction. European Journal of Operational
Research, 231:362-370.
Judd, K.L. (1998). Numerical methods in economics. MIT Press, MA.
Kou, S.G. (2002). A jump-difusion model for option pricing. Management
Science. 48:1086-1101.
Longstaff, F.A. and Schwartz, E.S. (2001). Valuing American options by
simulation: a simple least-squares approach. Review of Financial Studies,
14:113-147.
Madan, D.B., Carr, P.P., and Chang, E.C. (1998). The variance gamma
process and option pricing. European Finance Review. 2:79-105.
Merton, R.C. (1976). Option pricing when underlying stock returns are
discontinuous. Journal of Financial Economics. 3:125-144.
Morokoff, W.J. and Caflisch, R.E. (1995). Quasi-Monte Carlo integration,
Journal of Computational Physics. 122:218-230.
Powell, W.B. (2007). Approximate dynamic programming: solving the
curses of dimensionality. Wiley, NY.
Tilley, J.A. (1993). Valuing American options in a path simulation model.
Transactions of the Society of Actuaries, 45:83-104.
21