THEORIE DES VALEURS EXTREMES vs. METHODES

Commentaires

Transcription

THEORIE DES VALEURS EXTREMES vs. METHODES
THEORIE DES VALEURS EXTREMES
vs.
METHODES CLASSIQUES DE CALCUL DE LA VaR :
Application au Tunindex
Imen Mathlouthi
ECOFI, Institut des Hautes Etudes Commerciales, Carthage, 2016 Tunisie
Tel : (216 71) 774 720 ; Email : [email protected]
Amel Zenaidi*
ECOFI, Institut des Hautes Etudes Commerciales, Carthage, 2016 Tunisie
Tel : (216 71) 774 720 ; Email : [email protected]
RÉSUMÉ
Dans cet article, nous présentons la théorie des valeurs extrêmes pour estimer la Value-at-Risk
(VaR) d’une position. Les risques de marché se traduisent par un risque de faillite des institutions
financières lié à la disparition des fonds propres. Nous mesurons ce risque extrême directement à partir
des queues de distribution ; nous n’utilisons pas comme c’est le cas d’habitude en finance une mesure
du risque global. Nous appliquons la théorie des valeurs extrêmes permettant de prendre en compte
explicitement les évènements rares tels que les krachs boursiers, au calcul de la VaR de positions
courte et longue sur le marché boursier tunisien représenté par l’indice Tunindex. La comparaison de
la valeur de VaR calculée à partir de la théorie des valeurs extrêmes avec celles données par les
modèles classiques (Simulation Historique et Variance Covariance) montre que la première approche
donne une valeur de VaR plus précise pour les quantiles élevés.
Mots clés : Value-at-Risk, queue de distribution, théorie des valeurs extrêmes, modèles classiques.
Classification JEL : C51, G1
ABSTRACT
In this paper, we present the extreme value theory to estimate a position’s VaR. The market
risks expressed by the bankruptcy risk of financial institution related to the disappearance of equity.
We measure this extreme risk directly from tail distribution. We don’t use a global risk measure, as it
is the case in finance. We apply the extreme value theory taking into account explicitly the rare events
such as the stock market crashes, to compute the long and short VaR’s positions, in the Tunisian stock
market represented by Tunindex. The comparison of the VaR value calculated from the Extreme Value
Theory with those obtained by the classical models (Historical Simulation and Variance Covariance)
shows that the first approach gives more accurate VaR values at higher quantiles.
Keywords : Value-at-Risk, tail distribution, Extreme Value Theory, Classical models.
JEL codes: C51, G1
* : Auteur correspondant
1
Introduction
En ce début de millénaire, l'économie mondiale connaît plusieurs mutations et
changements. Fusions et regroupements au niveau des économies industrialisées et
libéralisation des économies émergentes sont actuellement en cours et ce, partout à travers le
monde. La Tunisie n’échappe pas à ce phénomène et a connu, depuis 1986, un programme
d'ajustement structurel visant la restructuration et la libéralisation totale de tous les secteurs
économiques du pays. La première phase de ce programme visait, entre autres, la
libéralisation des prix de l’investissement et du commerce extérieur, la mise en place d’un
marché des changes, l’allègement des procédures administratives et l’aménagement du régime
fiscal. En 1996, le gouvernement tunisien a amorcé la deuxième phase de ce programme qui
avait comme objectif essentiel la libéralisation du marché financier. Depuis 1999, la Tunisie
a entamé la phase finale de ce programme qui vise la libéralisation totale de l'économie, ce
qui permettra une libre circulation des biens et services, des personnes et des capitaux et qui
rendra possible l’implantation des banques étrangères en Tunisie. Il va sans dire qu’un tel
processus de libéralisation, dans le contexte d’une mondialisation intensifiée, risque de
bouleverser non seulement l’économie nationale en Tunisie, mais aussi l’économie mondiale
comme ce fut le cas pour d’autres pays émergents qui ont précédemment tenté l’expérience.
Ainsi, compte-tenu de l’évolution du marché tunisien et de ses caractéristiques, il est plus que
jamais dans l’intérêt des gestionnaires de portefeuilles et des investisseurs en général de
comprendre et de gérer convenablement les risques extrêmes. En effet, les turbulences des
marchés, les crises et les krachs exposent l’investisseur à de grands risques dont la
compréhension précise devient essentielle. C’est dans ce cadre, que la théorie des valeurs
extrêmes développée depuis 1928 par Fisher et Tippet a récemment trouvé sa place dans le
domaine de la finance afin d’étudier les fluctuations des cours extrêmes.
La théorie des valeurs extrêmes est appliquée ainsi dans la modélisation des
évènements extrêmes1 afin de mesurer le risque de marché2 par la VaR qui sera utilisée
ensuite dans la détermination du capital minimum de couverture. En effet, dans le cadre de la
réglementation prudentielle, le comité de Bâle, regroupant les autorités de contrôle bancaire
du G10, laisse la liberté aux institutions de choisir leur modèle de gestion interne, il serait
donc intéressant de voir comment modéliser et prévoir le risque par la meilleure méthode. La
1
Un mouvement extrême de prix d’un actif financier ou d’un indice de marché est défini comme la rentabilité la
plus basse (ou minimale) et la rentabilité la plus haute (ou maximale) observée sur une période donnée.
2
Risque de marché : variation de la valeur d’un portefeuille d’actifs due aux mouvements de marché (variation
de cours, taux d’intérêt, taux de change…).
2
gestion du risque est une gestion des évènements inattendus, des évènements rares. Or avec
l’utilisation de la distribution normale, ces évènements ont un caractère « prévisible » et rien
ne sert pour cela d’étudier leur fréquence (en effet la distribution normale est entièrement
caractérisée par ses deux premiers moments et la fréquence de ces évènements rares s’en
déduit). Ainsi la théorie des valeurs extrêmes qui consiste à analyser les occurrences
présentant des fréquences très faibles apparaît comme un outil particulièrement bien adapté
pour notre étude.
L’objectif de cet article est de comparer et évaluer la performance des résultats des
VaR calculées, sur le marché boursier tunisien représenté par l’indice Tunindex, selon les
deux approches : l’approche classique (méthode de simulation historique et méthode de
Variance Covariance) qui s’intéresse à toute la distribution et l’approche des valeurs extrêmes
qui s’intéresse en particulier aux queues de distribution. La question qui se pose alors est de
savoir si la théorie des valeurs extrêmes fournit une valeur VaR de l’indice Tunindex plus
précise que celles obtenues par les méthodes classiques de calcul de la VaR.
Cet article s’articule autour de 5 sections. La première section définit la VaR comme
étant un outil de mesure du risque. La deuxième section introduit les méthodes classiques de
calcul de la VaR à savoir la méthode de Simulation Historique (SH), la méthode de Variance
Covariance (VC) et la méthode de simulation de Monte Carlo. La troisième section présente,
d’une manière concise, la Théorie des Valeurs Extrêmes (TVE). La quatrième section décrit la
caractérisation des queues de distribution de l’indice Tunindex. La dernière section vérifie la
pertinence des différentes méthodes de calcul de la VaR et met en exergue les résultats de la
VaR obtenus par la théorie des valeurs extrêmes comparés à ceux des méthodes classiques.
3
1. La VaR outil de mesure du risque
Les efforts des institutions financières et non financières quant à la gestion de leurs
risques ont été redoublés suite au krach d’octobre 1987 à Wall Street3 et l’onde de choc qu’il a
crée et aux désastres financiers de la banque britannique Barings (1995) et du Comté
d’Orange aux Etats-Unis (1994). Depuis, de nouveaux modèles de gestion des risques
financiers ont vu le jour. Ces dernières années un concept s’est imposé. C’est celui de la
Value-at-Risk, une description concise du risque par un seul chiffre. En fait, c’est en 1993 que
le Groupe des Trente4 a recommandé l’usage de la VaR comme critère de mesure du risque de
marché5. D’ailleurs, fin 1994, la mise à disposition gratuite par la banque JP Morgan de sa
méthodologie et de ses données a impulsé le mouvement de développement fulgurant de la
VaR. En l’espace de quelques années, cette mesure est devenue un des modèles les plus
importants dans le domaine de la gestion du risque. Le comité de Bâle qui regroupe les
autorités de contrôle bancaire du G106 a contribué à accentuer l’intérêt pour cette méthode en
la citant nommément au cours de ses travaux exploratoires et réglementaires. De plus, il a
récemment imposé aux institutions financières l’utilisation de la VaR pour estimer le capital
minimal de couverture. Par conséquent, celles-ci ont fortement contribué au développement
international de la VaR comme outil de quantification et de reporting de risques.
Selon Jorion (1998), « la Value-at-Risk mesure la perte maximale attendue sur un
horizon donné, à un niveau de confiance donné ». La VaR d’un portefeuille d’actifs financiers
correspond au montant maximal des pertes dues aux mouvements de marché sur un horizon
de temps donné à un niveau de confiance donné si l’on exclut un ensemble d’évènements
défavorables ayant une faible probabilité de se produire.
Analytiquement, la VaR à horizon de temps h et au seuil de probabilité p est un
nombre VaR(h,p) tel que :
Proba (Lh ≤VaR(h,p)) = p
(1)
Lh: représente la perte (“Loss”); elle est une variable aléatoire positive ou négative.
3
Un évènement d’amplitude égale à 20 écarts-types de la distribution des rentabilités de l’indice Standard and
Poor’s 500.
4
Forum international composé de banquiers, d’autorités de contrôle et d’académiciens.
5
La popularité de la VaR est due, entre autres, à Dennis Weathersone, ancien président de JP Morgan, qui
s’informait chaque jour de l’exposition du risque total du marché à 16H15 exactement. Ainsi les gestionnaires
ont répondu à sa demande en lui offrant un rapport quotidien de la VaR.
6
Les pays du G10 sont : Allemagne, Belgique, Canada, Etats-Unis, France, Italie, Japon, Luxembourg, PaysBas, Royaume-Uni, Suède et Suisse.
4
L’horizon h associé à la VaR est de quelques jours : 1 jour pour RiskMetrics ou 10
jours ouvrés, selon le comité de Bâle. Le niveau de probabilité est typiquement de 95% ou
99%.
2. Méthodes classiques de calcul de la VaR
Les principales méthodes de l’approche classique de calcul de la VaR peuvent être
classées en trois catégories : la Simulation Historique, la méthode de Variance Covariance et
la méthode de Simulation de Monte Carlo.
La méthode de Simulation Historique, connue également sous le nom de méthode
historique, est sans doute la méthode la plus simple dans sa conception et sa mise en œuvre,
puisqu’elle ne fait aucune hypothèse sur la forme de la distribution des rentabilités. Il suffit en
fait de disposer des données historiques des gains et des pertes journalières du portefeuille
dont on souhaite calculer la VaR. A partir de ces données, il est possible de reconstituer la
distribution empirique des gains et des pertes journaliers et d’en déduire la VaR.
Ainsi, sur la base des données historiques, il s’agit de choisir une période
d’observation (ou fenêtre) qui peut varier de 6 mois à 4 ans. Les rendements du portefeuille
dans cette fenêtre sont rangés par ordre croissant. Il faut trouver enfin le rendement qui
correspond au quantile désiré.
Par exemple, pour une fenêtre de 500 observations, pour une position longue7 sur
l’indice et une probabilité de risque de 5%, le rang correspondant est égal au nombre
d’observations soit 500 multiplié par 5%, c'est-à-dire 25 (la VaR correspond au 25ème plus
petit rendement). Pour le même intervalle de confiance et pour une position courte sur
l’indice, le rang correspondant devient 475, soit 500 multiplié par 95%.
En d’autres termes, pour calculer la VaR, les rendements des titres de chaque jour
appartenant à la période retenue sont perçus comme un scénario possible pour les rendements
futurs, le portefeuille est évalué sous chacun de ces scénarii et les profits/pertes sont rangés
par ordre croissant. La distribution empirique qui en résulte est considérée comme la
distribution de probabilité des gains/pertes futurs. La VaR est alors définie comme un quantile
de la distribution empirique des profits/pertes futurs selon le niveau de confiance choisi α %.
Le principal avantage de cette méthode est qu’elle n’utilise pas d’hypothèse
distributionnelle sur la variable aléatoire rendement. Elle présente aussi d’autres avantages en
7
La position longue (courte) traduit la situation d’un détenteur acheteur (vendeur) de l’indice.
5
terme de simplicité et de flexibilité. Ce pendant, cette méthode est particulièrement affaiblie
par sa grande dépendance aux données qu’elle utilise.
La méthode de Variance Covariance a été développée par JP Morgan en 1994, avec
son système RiskMetrics. Elle est connue également sous le nom de méthode de corrélation.
Elle suppose que les rentabilités des facteurs de risque sont distribuées comme une loi
normale multivariée, que les corrélations entre ces facteurs sont stables au cours du temps et
que la sensibilité de la position aux facteurs est constante. La matrice de variance-covariance
ou de corrélation est estimée à partir d’observations passées d’après un modèle statistique
spécifié. L’hypothèse de normalité et de linéarité de la position en fonction des facteurs de
risque permet un calcul analytique de la VaR.
Concrètement pour une série de rendements Rt, t = 1, 2, …,n.
∧
∧
La VaR se calcule par : VaR(h , p ) = − µ t + σ t Z p
Avec
∧
µt
1 n
= ∑ Rt
n t =1
∧ 2
et σ t =
1 n
∑ (Rt − µ t )
n − 1 t =1
(2)
2
Zp8 désigne le quantile de la loi normale standard associé au niveau de probabilité p.
Malgré sa simplicité, cette méthode biaise l’estimation des quantiles élevés des
distributions à queue lourde d’où une sous-estimation du risque, car l’hypothèse de normalité
n’est pas empiriquement justifiée.
La méthode de simulation de Monte Carlo utilise un modèle économétrique pour
déterminer l’évolution des facteurs de risque au cours du temps, les paramètres de ce modèle
étant fixés par l’utilisateur ou estimés à partir des données passées. Alors que la méthode de
Simulation Historique repose sur le seul scénario basé sur le comportement passé des
marchés, la méthode de simulation de MC repose sur une multitude de scénarii aléatoires
définis à partir du modèle économétrique. La méthode de simulation de MC est flexible en
terme de modélisation et permet de traiter toutes les positions de marché une fois que le
comportement des prix des différents produits composant le portefeuille a été modélisé.
Cependant, elle est complexe et difficile à mettre en oeuvre, sans compter son coût élevé,
notamment en temps de calcul.
8
Par exemple, Z95% = 1,645 et Z99% = 2,326
6
3. Théorie des valeurs extrêmes
3.1 Cadre d’analyse
Nous supposons données n variables aléatoires X1,…,Xn indépendantes et
identiquement distribuées de fonction de répartition F définie par :
F(x) = Pr (X ≤ x)
(3)
Une manière simple d’étudier le « comportement » des évènements extrêmes est de
considérer la variable aléatoire :
Mn = max {X1, X2, …, Xn}
(4)
Mn représente la plus grande perte observée sur les n pertes observées X 1, X 2 ,..., X n .
Nous adopterons la convention que la perte est un nombre positif. Comme les variables
aléatoires sont indépendantes et identiquement distribuées, on obtient :
Pr {Mn≤ x} = Pr {X1 ≤ x, …, Xn ≤ x} = [F(x)]n
(5)
La difficulté provient du fait que l’on ne connaît pas en général la fonction de
répartition F. C’est la raison pour laquelle on s’intéresse au comportement asymptotique de la
variable aléatoire Mn. Ainsi en identifiant la famille de loi vers laquelle Mn va converger, on
pourra remplacer F par cette dernière pour des grandes valeurs de n. Pour caractériser cette loi
de distribution des extrêmes, nous allons recourir au Théorème de Fisher-Tippet.
3.2 Théorème limite de Fisher-Tippet
Avant d’énoncer le principal théorème de cette section, nous définissons des classes
d’équivalences sur l’ensemble des fonctions de répartition (sur les distributions des
probabilités).
Les distributions F et F* sont dites de même type si
∃a, b ∈ ℜ, ∀x ∈ ℜ,
F ∗ (ax + b ) = F (x)
(6)
Nous pouvons à présent énoncer le théorème de Fisher-Tippet qui permet de
caractériser la loi de distribution des extrêmes.
S’il existe des constantes an>0 et bn telles que
7
 M n − bn

≤ x  = G ( x)
lim Pr 
an
n→∞ 

(7)
avec G une fonction de distribution non dégénérée9, alors G appartient à l’un des trois
types suivants (I, II, ou III)
Type I: Gumbel
G ( x) = exp(−e − x )
∀x ∈ ℜ
Type II: Fréchet
G ( x) = 0
si x ≤ 0
G ( x) = exp(− x −α )
si x〉 0, α 〉 0
avec α, un paramètre de forme.
Type III : Weibull
G ( x) = exp(−(− x) −α )
G ( x) = 1
si x ≤ 0, α 〉 0
si x〉 0
La loi de Gumbel peut être considérée comme une loi de transition entre les lois de
Fréchet et de Weibull.
La majorité des lois de probabilité usuelles appartiennent à l’un des trois domaines
d’attraction (MDA)10 Gumbel, Fréchet ou Weibull. Par exemple, les distributions
exponentielle, Gamma et Log-normale appartiennent au MDA de Gumbel regroupant la
majorité des distributions à queue fine ; les distributions de Pareto, Log-Gamma, et Student
appartiennent au MDA de Fréchet regroupant la majorité des distributions à queue lourde et la
distribution uniforme appartient au MDA de Weibull regroupant la majorité des distributions
sans queue.
En fait, nous pouvons caractériser les trois types de distribution précédents par une
distribution unique
−1 

x−u  ξ 
 
G (x ) = exp− 1 + ξ (
) 
σ

 



(8)
9
C'est-à-dire qu’il n’existe aucune relation affine presque sûre entre les composantes du vecteur aléatoire.
Maximum Domain of Attraction
10
8
Cette fonction de distribution correspond à la loi de probabilité des valeurs extrêmes
généralisée, «Generalized Extreme Value distribution » (GEV). Nous avons alors les
correspondances suivantes :
Fréchet
ξ = α −1 〉 0
Weibull
ξ = −α −1 〈0
Gumbel
ξ →0
Nous remarquons que les paramètres µ et σ sont les limites de bn et an.
Le paramètre σ joue le rôle d’une variance, c’est pourquoi nous le considérons comme
un paramètre de dispersion. Le paramètre µ est un paramètre de localisation.
Le paramètre ξ est lié au caractère leptokurtique de la fonction de distribution F, c’est
pourquoi on lui donne généralement le nom d’indice de queue ou d’indice de valeur extrême.
Plus cet indice est élevé en valeur absolue, plus le poids des extrêmes dans la distribution
initiale est important. On parle alors de distribution à « queues épaisses ».
Mais notons toutefois qu’en pratique nous ne connaissons pas les paramètres µ, σ et
ξ ; il faut donc les estimer à partir des données et les remplacer par leurs estimations.
Il existe plusieurs méthodes pour estimer les paramètres de la distribution GEV. Par
exemple, nous pouvons citer les méthodes d’estimation de l’indice de queue, la méthode des
moments et la méthode du maximum de vraisemblance.
3.3 Méthode des excès et distribution de Pareto généralisée
Fondée sur la théorie des valeurs extrêmes, la méthode des excès également connue
sous le nom de Peaks Over Threshold (POT), permet la modélisation des queues de
distribution d’une série de données à partir de laquelle il devient possible d’estimer la
probabilité d’occurrence d’évènements rares au-delà des plus grandes valeurs observées.
La fonction de distribution des excès de perte (POT) par rapport à un seuil élevé µ est
définie par :
Fµ ( y ) = Pr{X − µ ≤ y / X 〉 µ }
(9)
pour 0 ≤ y ≤ x0 − µ , on a généralement x0 = +∞
La fonction de distribution des excès représente la probabilité qu’une certaine perte
dépasse le seuil µ d’au plus une quantité y, sachant qu’elle dépasse µ. Cette fonction s’écrit
sous la forme :
9
Fµ ( y ) =
Pr{X − µ ≤ y , X 〉 µ } F( y + µ ) − F(µ )
=
Pr ( X 〉 µ )
1 − F(µ )
(10)
Nous allons à présent énoncer le théorème de Pickands-Balkema- de Haan qui va être
le résultat théorique central de la théorie des valeurs extrêmes.
Le théorème énonce que si F appartient à l’un des trois domaines d’attraction de la loi
limite des extrêmes (Fréchet, Gumbel ou Weibull), alors il existe une fonction de répartition
des excès au-delà de µ, noté Fµ qui peut être approchée par une loi de Pareto généralisée
(GPD) telle que :
lim sup
µ → x0
Fµ ( y ) − G ξ , β (µ )( y )
=0
(11)
0≤ y ≤ x0 − µ
Cette considération théorique suggère que, lorsque nous avons des données issues
d’une distribution inconnue, il est possible d’approximer la distribution au-delà d’un certain
seuil (assez grand) par une distribution de Pareto généralisée.
Gξ,β est la fonction de répartition de la distribution de Pareto généralisée (GPD) de
paramètres ξ et β définie par :
−1
 ξ xξ
G ξ , β ( x ) = 1 − 1 +

β 

si ξ ≠ 0
− x
et G ξ , β ( x ) = 1 − exp

 β 
si ξ = 0
(12)
(13)
Avec β 〉 0 , x ≥ 0 pour ξ ≥ 0
et 0 ≤ x ≤ − β ξ pour ξ 〈 0 .
Le paramètre ξ est lié au caractère leptokurtique de la fonction de distribution et β est
un paramètre d’échelle.
La valeur prise par le paramètre ξ informe sur le poids des queues dans la distribution
parente. En d’autres termes, plus les indices de queue ξ sont élevés plus la distribution
considérée possède des queues épaisses. Un indice de queue supérieur à zéro signifie donc
que la probabilité d’occurrence de rentabilités extrêmes et notamment le risque de pertes
extrêmes (dans le cas de la queue gauche) est plus importante que ce que prévoit la loi
normale. Le risque d’un investissement c’est-à-dire des pertes extrêmes est donc d’autant plus
important que l’indice de queue correspondant à ses plus faibles rentabilités (queue gauche),
10
est élevé [(Longin (1996) ; Mc Neil (1997,1999)]. Ainsi le cas ξ >0 est le plus intéressant
dans les modèles de gestion de risque car la GPD est à queue épaisse.
Sur la base des résultats relatifs à l’estimation de la loi asymptotique des excès, il est
possible d’évaluer la perte maximale pour une probabilité donnée et sous des conditions de
marchés extrêmes. Un estimateur de la VaR avec N µ le nombre des excès au delà du seuil µ
est obtenu par :
∧ 
∧

(
VaRq = µ +
1 − q )
∧  N


ξ  µ

∧
β   n
−ξ


− 1



(14)
4. Caractérisation des queues de distribution de l’Indice Tunindex
4.1 Analyse descriptive des données
Notre étude portera sur les rentabilités logarithmiques quotidiennes de
l’indice
Tunindex de la bourse des valeurs mobilières de Tunis. L’indice Tunindex est une donnée
synthétique reflétant l’évolution globale du marché tunisien.
L’étude concerne la période de janvier 1998 (date de lancement de l’indice) à
décembre 2005, soit 1996 observations quotidiennes. Signalons qu’il s’agit aujourd’hui de la
plus longue série de rentabilités existante sur l’indice Tunindex.
Afin de calculer la VaR, nous avons considéré les deux positions longue et courte,
traduisant respectivement la situation d’un détenteur acheteur et vendeur de l’indice Tunindex
et les seuils de confiance de 95%, 97,5%, 99%, 99,5% et 99,9%.
L’analyse descriptive des rendements de l’indice Tunindex est illustrée par le
graphique 1 montrant l’évolution du logarithme des rendements.
FIG. 1– Histogramme des rendements de l’indice Tunindex
11
D’après la figure 1 représentant l’histogramme des rendements de l’indice Tunindex,
on remarque que le skewness (AS) est supérieur à zéro (0,3097), ce qui veut dire que la
densité de la distribution des rendements du portefeuille s’étale vers la droite. Ce constat est
affirmé par l’allure de l’histogramme. Ainsi, on peut affirmer que la distribution des
rendements de l’indice Tunindex fait l’objet d’une asymétrie positive.
De la même manière, on constate aussi que le kurtosis (KUR), qui est dans notre cas
égal à 35,758, est largement supérieur à 3. On est donc confronté au cas d’une distribution
nettement leptokurtique, c’est-à-dire qu’elle a des queues épaisses, en comparaison avec la
distribution normale.
D’après la table statistique de la loi Khi Deux χ 2 , la valeur critique au seuil de 5% est
égale à 5,9915. Dans notre cas, la statistique Jarque-Bera (JB)11 est égale à 89 277.72 ; elle est
donc fortement supérieure à 5,9915. La statistique JB donne à penser donc que la distribution
des rendements de l’indice Tunindex dévie fortement de la normale.
Les tests de stationnarité de Dickey Fuller et Dickey Fuller Augmenté ont montré que
les rendements de l’indice Tunindex sont intégrés d’ordre 0, ce qui veut dire que la série
d’indice boursière est stationnaire aux seuils de 10%, 5% et 1%.
4.2 La modélisation des queues de distribution de l’indice Tunindex par la méthode des
excès
Comme nous l’avons vu, pour calculer la VaR des valeurs extrêmes, deux
modélisations des extrêmes sont possibles :
•
Par les lois des valeurs extrêmes généralisées (Fréchet, Gumbel
et Weibull) dont on peut estimer les paramètres par maximum de
vraisemblance. Les hypothèses d’application de ces modèles ne sont pas
toujours vérifiées. En effet, la distribution des valeurs extrêmes généralisée
nécessite un échantillon de longueur importante pour obtenir de bonnes
estimations.
11
Le test de Jarque-Bera est basé sur la statistique suivante
JB =
:
a
T −K 2
1
2
2
 AS + (KUR − 3)  ≈ χ (2)
6 
4

12
•
Par la méthode des excès plus connue sous le nom de Peaks-
Over-Threshold (POT) et la loi de Pareto généralisée.
Dans ce travail, nous choisissons la méthode des excès qui aura l’avantage d’utiliser
plus de données, précisément celles qui dépassent un certain seuil µ suffisamment élevé.
Théoriquement, il est possible de choisir le seuil µ par optimisation du « trade-off »
entre biais et efficience. En effet, pour une valeur µ assez faible, les estimateurs seront biaisés
et pour une valeur µ assez élevée, le nombre d’observations extrêmes considérées dans l’étude
se réduit, par conséquent on sur-estime la variance. Il existe des techniques efficaces pour
évaluer le seuil µ : nous utilisons celles qui sont les plus utilisées à savoir : la représentation
Quantile-Quantile (Q-Q plot), l’estimateur de Hill et la fonction d’excès en moyenne.
4.2.1 Représentation Quantile-Quantile
Supposons que X 1, X 2 ,..., X n sont des observations indépendantes, de fonction de
répartition F (et F← son inverse généralisé) et introduisons la statistique d’ordre :
X1 ≥ X 2 ≥ ... ≥ X n .
Le graphique quantile-quantile est défini par :


←  n − k +1
  , k = 1,..., n 
 X k , F 
 n +1 


(15)
La pertinence du choix du seuil se vérifie visuellement en analysant la représentation
quantile-quantile. Le QQ-plot (ou Quantile to Quantile Plot) permet de tester la conformité
entre la distribution empirique d’une variable et une distribution théorique qui, dans notre cas
d’espèce, est la loi GPD. Ce graphique doit correspondre à une droite.
L’alignement des points du Q-Q plot laisse supposer que la loi GPD déterminée pour
un seuil de 0,9932 (0,8128), décrit relativement bien le comportement des excès situés dans la
queue droite (gauche) de la distribution de l’indice Tunindex.
FIG. 2–Q-Q Plot (queue droite)
FIG. 3–Q-Q Plot (queue gauche)
Graphiques réalisés sur Matlab version (6.5)
13
Il est à noter que la concavité des déviations par rapport à la ligne droite dans les deux
Q-Q plots précédents révèle une distribution à queue épaisse. En revanche, des déviations
convexes témoignent d’une distribution à queue fine. Ce résultat corrobore le fait que la
distribution des rendements est une distribution de Fréchet.
4.2.2 Estimateur de Hill
L’estimateur de Hill de l’indice de queue de la loi GPD a été étudié par Mason (1982),
Goldie et Smith (1987) et Rootzèn et al. (1992). La méthode consiste à ordonner les
observations par ordre décroissant X 1 ≥ X 2 ≥ ... ≥ X n , l’indice de queue étant donné par
l’équation ci-dessous avec Nµ, le nombre d’observations supérieures au seuil µ:
∧
ξ=
1 N µ  X i 
∑ ln
N µ i =1  X N µ +1 


(16)
Il s’agit de sélectionner graphiquement le nombre d’excès au-delà duquel la valeur de
l’indice de queue ξ devient stable. Selon Dress, de Haan et Resnick (1998), cette méthode
serait particulièrement bien adaptée aux distributions d’excès convergeant vers une GPD en
assurant un bon équilibre entre biais et variance. L’estimateur de Hill n’est valable que pour
les distributions de Fréchet.
Prenons l’exemple de la queue droite de l’indice Tunindex. Le graphique 4 présente le
résultat de l’estimation de l’indice de queue ξ calculé par la méthode de Hill en fonction du
nombre d’excès considéré. Le choix de 50 excès correspondant à un seuil de 0,9932 semble
pertinent, dans la mesure où l’indice de queue devient relativement stable au delà de ce point.
D’une manière analogue, pour la queue gauche, l’indice de queue devient relativement
stable pour un nombre d’excès égal à 50.
FIG. 4– Hill Plot (Queue droite)
FIG. 5– Hill Plot (Queue gauche)
Gr)
Graphiques réalisés sur Matlab version (6.5)
14
4.2.3 Fonction d’excès en moyenne
On appelle fonction d’excès en moyenne (mean excess function), la fonction e(µ )
définie par :
e(µ ) = E[ X − µ / x〉 µ
]
pour µ >0
(17)
L’estimateur empirique de la fonction d’excès en moyenne est défini comme étant le
rapport entre le nombre total des excès par rapport au seuil µ et le nombre total de points
dépassant le seuil µ. Il est donné par :
∑ n (X i − µ )
en (µ ) = i =1
∑ in=1 I {X i 〉 µ }
+
(18)
Ainsi, cette fonction est linéaire en µ. Il s’agit donc de repérer les valeurs de µ à partir
desquelles e(µ) est approximativement linéaire. Graphiquement, cela se traduit par un
changement de la pente de la courbe qui ensuite reste stable.
Nous observons, pour la queue droite (gauche), que le graphique devient presque
linéaire quand le seuil µ est égal à 0,9932 (0,8128).
FIG. 6– Fonction d’excès en moyenne
(Queue droite)
FIG. 7– Fonction d’excès en moyenne
(Queue gauche)
Graphiques réalisés sur Matlab version (6.5)
15
4.2.4 Estimation des paramètres de la GPD
Après avoir identifié un seuil pour chacune des queues (droite et gauche) et avoir
formé la série des excès correspondante, les deux paramètres ξ et β de la loi GPD peuvent être
déterminés. Nous choisissons ainsi la méthode la plus utilisée, celle basée sur le maximum de
vraisemblance12 pour les estimer.
TAB. 1 – Résultats de l’estimation par la méthode du maximum de vraisemblance des
paramètres (ξ, β) de la loi GPD
Nµ
U
Queue droite
∧
ξ
∧
β
50
0,9932
0,2164
0,4099
Queue gauche
Nµ
u
∧
ξ
∧
β
50
0,8128
0,1547
0,4453
Estimation réalisée sur Matlab Version (6.5).
∧
L’analyse de ces résultats révèle que pour l’indice Tunindex, le paramètre ξ de la
distribution GPD estimé est positif à la fois pour la queue droite et la queue gauche. Cela
vient corroborer les conclusions généralement obtenues dans les études sur les données
∧
financières à savoir des paramètres ξ supérieurs à zéro (Embrechts et al. [1997], Longin
[1999], Danielsson et al [1997], Gençay et Selçuk [2004], Emmanuelle Fromont [2005]).
Cette observation indique que les queues situées de part et d’autre de ces distributions
de rentabilité sont épaisses, c'est-à-dire que la probabilité d’occurrence de pertes et de gains
extrêmes est plus élevée que ce que prévoit la loi normale. Cette information signale à
l’investisseur que si la perspective d’une augmentation quotidienne importante de leur capital
investi est plus probable que ce que prévoit la loi normale, elle s’accompagne également d’un
risque de pertes extrêmes plus marqué.
12
La détermination des estimateurs de ξ et β s’obtient par l’optimisation de la fonction du logarithme de
vraisemblance :


1
n


ξ
− n log β −  + 1 ∑ log 1 + X i  si ξ ≠ 0
ξ
β


i =1 


L(ξ , β / X ) = 

− n log β − 1 n X

ξ
si
=
0
∑
i


β i =1


16
∧
En réalisant le rapport du paramètre estimé ξ de la queue gauche sur celui de la queue
droite, on observe une valeur égale à 0,7148 = 0,1547/0,2164 qui est inférieure à l’unité. Il
apparaît ainsi que l’indice Tunindex présente une queue droite plus épaisse que la queue
gauche. Par conséquent, la fréquence d’apparition de perte quotidienne substantielle reste
inférieure à celle de gain extrême.
5. Performance relative des modèles de VaR
Nous comparons les résultats de VaR obtenus par les deux approches : l’approche
traditionnelle qui s’intéresse à toute la distribution et l’approche des valeurs extrêmes qui
s’intéresse, en particulier, aux queues de distribution.
Les résultats trouvés sont reportés dans le tableau 2 pour les différentes méthodes.
TAB. 2– Comparaison des VaR calculées selon les 3 modèles
Seuil de confiance
95%
97,50%
99%
99,50%
99,90%
Seuil de confiance
95%
97,50%
99%
99,50%
99,90%
Position courte
VaR - SH
VaR - VC
0,007009959
0,008164174
0,009931882
0,009682206
0,014650480
0,011447247
0,017583461
0,012649115
0,023558920
0,015127233
Position longue
VaR - SH
VaR - VC
-0,006487648
-0,007683872
-0,008178081
-0,009201905
-0,010732293
-0,010966946
-0,013074714
-0,012168813
-0,018069867
-0,014646931
VaR – TVE
0,00730
0,00994
0,01409
0,01783
0,02901
VaR – TVE
-0,005209
-0,008136
-0,012521
-0,016277
-0,026710
En ce qui concerne le seuil à 95%, nous pouvons difficilement nous prononcer. En
effet, la VaR historique est, sur nos données, supérieure à la VaR TVE mais inférieure à la
VaR obtenue par la méthode de Variance-Covariance. Nous pouvons donc difficilement
donner la préférence à une de ces trois mesures : elles ont chacune leurs faiblesses.
A 97,5%, la VaR historique et la VaR TVE sont sensiblement les mêmes. Cependant,
nous pouvons dire que la mesure VaR TVE est plus pertinente, car elle fait intervenir un plus
grand nombre de points dans les calculs. En effet, la VaR historique ne tient compte que
d’une seule donnée, à savoir la plus grande perte, alors que la théorie des extrêmes prend en
17
compte toutes les valeurs supérieures au seuil µ. Nous pouvons donc conclure que la VaR
TVE est un indicateur plus robuste.
Pour les quantiles supérieurs à 99%, les résultats ont montré que les outils traditionnels
d’étude du risque construits sur le modèle gaussien sous estiment le risque de perte. En effet,
il apparaît, qu’à partir de 99%, les VaR calculées selon l’approche traditionnelle deviennent
inférieures aux VaR fondées sur les valeurs extrêmes. Nous observons aussi un accroissement
de l’écart entre les quantiles gaussiens et les quantiles des valeurs extrêmes.
Ainsi, si on se place dans une optique dynamique, c'est-à-dire si on prend en compte la
possibilité que la réglementation change et que le seuil dépasse les 99%, la VaR de la théorie
des valeurs extrêmes devient un outil incontournable. Cette hypothèse n’est pas à écarter. De
plus, en raison de leurs objectifs de rating, les banques ciblent sur des seuils supérieurs à 99%
dans leurs programmes d’allocation de fonds propres.
Ces résultats tendent à souligner la faiblesse de la VaR gaussienne pour des niveaux de
probabilité élevés lorsqu’elle est employée sur des distributions présentant des queues
épaisses, comme celle de l’indice Tunindex. Celle-ci minimise l’importance des évènements
inclus dans les queues de distribution et entraîne la sous estimation du risque réel dans des
conditions de marchés extrêmes.
Pour juger de la performance relative de chaque modèle, nous nous basons maintenant
sur le «Violation Ratio». Il est utile ainsi de rappeler qu’une violation survient si le rendement
réalisé est supérieur au rendement estimé. Le «Violation ratio» est défini comme étant le
rapport entre le nombre total de violations et le nombre total de VaR estimées. Ainsi, quand
nous estimons la VaR à un certain quantile q, nous nous attendons, si le modèle est correct, à
ce que le rendement réalisé soit supérieur à cette dernière dans (1-q) % des cas. En d’autres
termes, le «Violation Ratio» prévu à un certain quantile q% est égal à (1-q) %. Par exemple,
au seuil de 95%, le «Violation Ratio» prévu est égal à 5%. Ainsi, si le «Violation Ratio»
estimé est supérieur à celui théorique, le modèle de prévision sous estime le rendement d’où
le risque extrême et inversement.
En pratique, nous pouvons difficilement juger de la performance relative d’un modèle
par rapport à un autre. En effet, nous retenons le modèle dont le Violation Ratio se rapproche
le plus de celui théorique.
18
Ainsi, dans le cas d’une surestimation, s’il existe au seuil de 95%, par exemple, trois
modèles avec un «Violation Ratio» égal respectivement à 3%, 4% et 4,5%, nous choisissons
le dernier modèle.
Dans le cas d’une sous estimation, s’il existe au seuil de 95%, par exemple, trois
modèles avec un «Violation Ratio» égal respectivement à 5,5%, 6% et 7%, nous choisissons
le premier modèle.
Les deux tableaux ci-dessous mettent en évidence, dans notre cas d’espèce, le modèle
le plus performant pour chaque quantile q et ce, pour les deux positions longue et courte.
TAB. 3- Modèles avec la moindre sous/sur estimation du risque pour chaque
quantile q
Position courte
Position longue
Seuil 5%
500 jours
1000 jours
SH
5,411%
4,012%
VC
3,941%
3,009%
500 jours
1000 jours
SH
2,806%
2,006%
VC
2,672%
2,106%
500 jours
1000 jours
SH
0,935%
0,502%
VC
1,670%
1,003%
500 jours
1000 jours
SH
0,468%
0,300%
VC
1,202%
0,702%
500 jours
1000 jours
SH
0,200%
0,100%
VC
0,601%
0,301%
EVT
SH
4,676%
4,943%
4,012%
3,009%
Seuil 2,5%
EVT
SH
2,605%
2,204%
2,006%
1,204%
Seuil 1%
EVT
SH
0,868%
0,868%
0,502%
0,301%
Seuil 0,5%
EVT
SH
0,468%
0,468%
0,602%
20,000%
Seuil 0,1%
EVT
SH
0,134%
0,067%
0,100%
0,100%
VC
3,407%
2,207%
EVT
4,876%
3,109%
VC
1,937%
1,003%
EVT
2,338%
1,103%
VC
1,069%
0,301%
EVT
1,069%
0,301%
VC
0,735%
0,301%
EVT
0,468%
0,502%
VC
0,334%
0,100%
EVT
0,134%
0,100%
TAB. 4- Récapitulatif des modèles les plus performants
Sous estimation
Surestimation
5%
SH
TVE
2,50%
TVE
VC
Sous estimation
Surestimation
5%
SH
2,50%
TVE
Position courte
1%
VC
SH
Position longue
1%
TVE
SH
0,50%
TVE
TVE
0,10%
TVE
TVE
0,50%
TVE
TVE
0,10%
TVE
TVE
19
Ces deux derniers tableaux reportent des résultats pertinents, corroborant ceux trouvés
supra. Pour les quantiles inférieurs à 99%, nous pouvons difficilement donner la préférence à
l’un des trois modèles. En revanche, pour les quantiles supérieurs à 99% (99,5% et 99,9%), il
apparaît clairement que le modèle de la théorie des valeurs extrêmes est le plus performant.
Ainsi, nous concluons que la théorie des valeurs extrêmes est un outil indispensable pour
construire des indicateurs ou des mesures de risque qui viennent compléter la VaR. En effet,
les deux méthodes analytique et historique paraissent inadaptées pour calculer la VaR au-delà
du seuil de confiance de 99%.
Conclusion
En s’appuyant sur la théorie des valeurs extrêmes, notre étude a montré qu’à fréquence
journalière, l’indice Tunindex présente une distribution leptokurtique et asymétrique.
L’estimation de la loi GPD s’ajustant aux rentabilités extrêmes quotidiennes a permis de
mettre en évidence l’existence des queues épaisses de part et d’autre de cette distribution.
Mais, il apparaît que l’indice Tunindex présente une queue droite plus épaisse que la queue
gauche. Ainsi, la fréquence d’apparition de perte extrême reste inférieure à celle de gain
extrême.
Pour juger de la performance relative de chaque méthode, nous avons utilisé la
méthode de Violation Ratio. Les résultats ont révélé que pour les seuils de confiance
supérieurs à 99%, les méthodes classiques d’étude du risque sous estiment le risque de perte.
En effet, il apparaît qu’à partir de 99%, les VaR calculées selon la méthode de simulation
historique et la méthode de Variance Covariance deviennent inférieures aux VaR fondées sur
la théorie des valeurs extrêmes.
Nous concluons que la théorie des valeurs extrêmes apparaît indispensable pour
compléter la palette des outils traditionnels de mesure du risque s’intéressant aux conditions
de marché normales.
Si notre méthode se prête bien au cas simple d’une position linéaire, des progrès
restent à faire pour traiter des cas plus complexes. Deux directions de recherches futures
peuvent être envisagées : le cas d’une position non linéaire et le cas d’une position dont la
composition évolue au cours du temps. Le premier cas (la non-linéarité des positions) est de
toute importance puisque l’impact des chocs de marché peut être amplifié en présence
d’options. Le deuxième cas (l’évolution des actifs composant le portefeuille et plus
20
généralement l’agrégation des risques) nécessite une approche multivariée. L’extension de la
théorie des valeurs extrêmes au cas multivarié permet d’étudier la corrélation des marchés en
période de crise.
Bibliographie
Aglietta M. (2002), « Actualité et prévention du risque systémique », CEPII, FORUM et
CNRS-Université de Paris X-Nanterre.
Artzner P, Delbaen F, Eber J.M et Heath D. (1998), « Coherent measures of risk »,
Mathematical finance 9:203-228.
Beder T.S. (1995), « VaR : seductive but dangerous », Financial analysts Journal.
Bekiros S.D et Georgoutsos D.A. (2005), « Estimation of value at risk by extreme value and
conventional methods: a comparative evaluation of their predictive performance », Journal of
International Financial Markets, Institutions and Money.
Bezat A et Nikeghbali A. (2000), « La théorie des extrêmes et la gestion des risques de
marché », Groupe de Travail ENSAE.
Brooks C, Clare A.D, Dalle Molle J.W et Persand G. (2005), « A comparison of extreme
value theory approaches for determining value at risk », Journal of Empirical Finance 12,
339-352.
Butler C. (1999), « Mastering Value at Risk: a step by step guide to understanding and
applying VaR », Prentice Hall, Financial Times.
Costinot A, Riboulet G et Roncalli T. (2000), « Stress testing et théorie des valeurs extrêmes :
une vision quantifiée du risque extrême », Groupe de Recherche Opérationnelle, Crédit
Lyonnais.
Danielsson J et de Vries C.G. (1997), « Value at Risk and extreme returns », Paper n°273,
London School of Economics, Financial Markets Group.
Danielsson J et de Vries C.G. (2000), « Value at Risk and extreme returns », Annales
d’Economie et de Statistique n°60-2000.
Drees H, De Haan L et Resnick S. (1991), « How to make a hill plot ». Timbergen Institute,
Erasmus University, Rotterdam.
El Aroui M.A et Diebolt J. (1999), « Estimation of extreme quantiles: empirical tools for
methods assessment and comparison », International Journal of Reliability, Quality and Safety
Engineering, volume 7, N°1.
Embrechts P. (2000), « Extreme value theory: potentials and limitations as an integrated risk
management tool », Manuscript. Zurich, Switzerland: Department of Mathematics, ETH.
21
Fernandez V. (2003), « Extreme value theory and value-at-risk », Departement of industrial
engineering at the University of Chile (DII).
Filho C.M et Yao F. (2006), « Estimation of Value-at-Risk and Expected Shortfall based on
nonlinear models of return dynamics and extreme value theory», Studies in nonlinear
dynamics and econometrics, volume 10, Issue 2.
Fromont E. (2005), « Modélisation des rentabilités extrêmes des distributions de Hedge
Funds », CREM UMR CNRS 6211- Axe Macroéconomie et Finance.
Gavin J. (2000), « Extreme value theory – an empirical analysis of equity risk », UBS
Warburg, working paper.
Gençay R, Selçuk F et Ulugulyagci A. (2002), « EVIM: a software package for extreme value
analysis in MATLAB », Studies in Nonlinear Dynamics and Econometrics.
Gençay R et Selçuk F. (2004), « Extreme value theory and value at risk: relative performance
in emerging markets », International Journal of Forecasting, 287-303.
Gilli M et Kellezi E. (2005), « An application of extreme value theory for measuring financial
risk », Departement of econometrics, University of Geneva and FAME.
Gilli M et Kellezi E. (2003), « An application of extreme value theory for measuring risk »,
Departement of Econometrics, University of Geneva and FAME.
Glasserman P. (2005), « Measuring marginal risk contributions in credit portfolios », Center
for financial research, working paper n°2005-01.
Gordon J.A et Baptista A.M. (2003), « CVaR as a measure of risk: implications for portfolio
selection », University of Minnesota, University of Arizona, working paper.
Helaine P. (2005), « Gestion des risques financiers en entreprise, indicateurs de pilotage et
Value-at-Risk », CNAM DESS Finance d’entreprise- chaire de finance –Paris.
Hendricks D. (1996), « Evaluation of Value-at-Risk models using historical data », Economic
policy review.
Holton G.A. (2003), «Value at Risk: theory and practice », Academic Press.
Hongwei T et Wei Z. (2000), « A new method to compute Value at Risk: extreme value
theory », School of Management, Tianjin University, working paper.
Huisman R, Koedijk KG et Pownall R.A.J. (1999), « Asset allocation in a Value-at-Risk
framework », Financial Management.
Jondeau E et Rockinger M. (1999), « The tail behavior of stock returns: emerging versus
mature markets », notes d’études et de recherche, Banque de France.
Jorion P. (1998), « Value at Risk: the new benchmark for controlling derivatives risk »,
McGraw Hill, New York.
22
Jorion P. (2002), « Value at Risk », Second edition, McGraw Hill, New York.
Kyrtsou C et Terraza V. (2004), « VaR non linéaire chaotique : application à la série des
rentabilités de l’indice NIKKEI », AFFI International Conference.
Lardic S et Mignon V. (2002), « Econométrie des séries temporelles macroéconomiques et
financières », Economica.
LeBaron B et Samanta R. (2005), « Extreme value theory and fat tails in equity markets »,
International Business School, working paper.
Linsmeier T.J et Pearson N.D. (1996), « Risk measurement : an introduction to VaR »,
University of Illinois at Urbana-Champaign, working paper.
Longin F. (1995), « La théorie des valeurs extrêmes : présentation et premières applications
en finance », Journal de la Société de Statistique de Paris, tome 136, N°1.
Longin F. (1996), « The asymptotic distribution of extreme stock market returns », Journal of
Business, volume 69, N°3.
Longin F. (1998), « Value at Risk : une nouvelle approche fondée sur les valeurs extrêmes »,
Annales d’Economie et de Statistiques N°52.
Longin F. (1999), « Optimal margin level in futures markets: extreme price movements », The
Journal of Futures Markets, volume 19, N°2, 127-152.
Longin F. (2000), « From value at risk to stress testing: the extreme value approach », Journal
of Banking and Finance 24, 1097-1130.
Longin F. (2001), « Beyond the VaR », The Journal of Derivatives, volume 8, N°4.
Longin F. (2005), « The choice of the distribution of asset returns: How extreme value theory
can help? », Journal of Banking and Finance 29, 1017-1035.
Longin F et Solnik B. (1999), « Correlation structure of international equity markets during
extremely volatile periods », Journal of finance 56.
Longin F et Solnik B. (2001), « Extreme correlation of international equity markets », The
Journal of Finance, N°2.
Mc Neil A.J. (1998), « Calculating quantile risk measures for financial return series using
extreme value theory », Manuscript. Zurich, Switzerland: Department of Mathematics, ETH.
Mc Neil A.J. (1999), « Extreme value theory for risk managers », Internal modelling and
CAD II, Risk books. London, UK, 93-118.
Mc Neil A.J et Frey R. (2000), « Estimation of tail-related risk measures for heteroscedastic
financial time series: an extreme value approach », Journal of Empirical Finance 7, 271-300.
23
Mc Neil A.J et Saladin T. (1997), « The peaks over thresholds method for estimating high
quantiles of loss distributions », Manuscript. Zurich, Switzerland: Department of
Mathematics, ETH.
Meyfredi J.C. (2003), « Towards the integration of extreme values in obtaining the value at
risk », EDHEC Business School.
Neftci S.N. (2000), « Value at Risk calculations, extreme events and tail estimation », The
Journal of Derivatives.
Ossé A. (2002), « La value at risk », BCV, les cahiers de la finance.
Poncet P. (1998), « Value at Risk », Banque et Marché, Isssue 37.
Racicot F.E et Théoret R. (2001), « Introduction à l’utilisation des méthodes basées sur le
calcul numérique en finance quantitative : variations sur les aspects théoriques de la VaR avec
application Visual Basic du calcul de la VaR selon la méthode de Bootstrapping et selon
l’expansion de Cornish-Fisher », Centre de Recherche en Gestion, Document de Travail 192001.
Racicot F.E et Théoret R. (2001), « Modèles de la VaR, simulations en Visual Basic (Excel)
et autres mesures récentes du risque de marché », Working Paper n°022006.
Robert C. (2002), « Analyse des queues de distribution et des valeurs extrêmes en finance :
applications aux séries financières haute fréquence », Thèse, Université Paris 7, UFR
Mathématiques appliquées.
Rocard A et Blanc J.Y. (1998), « Comparaison des différentes méthodologies de calcul de la
Value-at-Risk », Lettre d’OTC conseil n°3.
Roncalli T. (2001), « La théorie des extrêmes et la gestion des risques de marché », Groupe de
Recherche Opérationnelle, Crédit Lyonnais.
Terraza V. (2001), « Modélisations de la Value at risk du CAC 40. Un essai d’amélioration de
l’approche Riskmetrics par la modélisation hétéroscédastique saisonnière », Cellule de
Recherche Economie Appliquée, Document de travail N° 04-6.
Tokpavi S. (2004), « La Value-at-Risk comme mesure du risque de marché : cas de la
catastrophe financière de Comté d’Orange », Université d’Orléans, document de travail.
de Vries A (2000), « The Value-at-Risk », Germany, Working paper.
Wang S. (2002), « A risk measure beyond coherence », Cancun, Mexico.
Yamai Y et Yoshiba T. (2005), « Value at Risk versus expected shortfall: a practical
perspective », Journal of Banking and Finance 29, 997-1015.
24