THEORIE DES VALEURS EXTREMES vs. METHODES
Transcription
THEORIE DES VALEURS EXTREMES vs. METHODES
THEORIE DES VALEURS EXTREMES vs. METHODES CLASSIQUES DE CALCUL DE LA VaR : Application au Tunindex Imen Mathlouthi ECOFI, Institut des Hautes Etudes Commerciales, Carthage, 2016 Tunisie Tel : (216 71) 774 720 ; Email : [email protected] Amel Zenaidi* ECOFI, Institut des Hautes Etudes Commerciales, Carthage, 2016 Tunisie Tel : (216 71) 774 720 ; Email : [email protected] RÉSUMÉ Dans cet article, nous présentons la théorie des valeurs extrêmes pour estimer la Value-at-Risk (VaR) d’une position. Les risques de marché se traduisent par un risque de faillite des institutions financières lié à la disparition des fonds propres. Nous mesurons ce risque extrême directement à partir des queues de distribution ; nous n’utilisons pas comme c’est le cas d’habitude en finance une mesure du risque global. Nous appliquons la théorie des valeurs extrêmes permettant de prendre en compte explicitement les évènements rares tels que les krachs boursiers, au calcul de la VaR de positions courte et longue sur le marché boursier tunisien représenté par l’indice Tunindex. La comparaison de la valeur de VaR calculée à partir de la théorie des valeurs extrêmes avec celles données par les modèles classiques (Simulation Historique et Variance Covariance) montre que la première approche donne une valeur de VaR plus précise pour les quantiles élevés. Mots clés : Value-at-Risk, queue de distribution, théorie des valeurs extrêmes, modèles classiques. Classification JEL : C51, G1 ABSTRACT In this paper, we present the extreme value theory to estimate a position’s VaR. The market risks expressed by the bankruptcy risk of financial institution related to the disappearance of equity. We measure this extreme risk directly from tail distribution. We don’t use a global risk measure, as it is the case in finance. We apply the extreme value theory taking into account explicitly the rare events such as the stock market crashes, to compute the long and short VaR’s positions, in the Tunisian stock market represented by Tunindex. The comparison of the VaR value calculated from the Extreme Value Theory with those obtained by the classical models (Historical Simulation and Variance Covariance) shows that the first approach gives more accurate VaR values at higher quantiles. Keywords : Value-at-Risk, tail distribution, Extreme Value Theory, Classical models. JEL codes: C51, G1 * : Auteur correspondant 1 Introduction En ce début de millénaire, l'économie mondiale connaît plusieurs mutations et changements. Fusions et regroupements au niveau des économies industrialisées et libéralisation des économies émergentes sont actuellement en cours et ce, partout à travers le monde. La Tunisie n’échappe pas à ce phénomène et a connu, depuis 1986, un programme d'ajustement structurel visant la restructuration et la libéralisation totale de tous les secteurs économiques du pays. La première phase de ce programme visait, entre autres, la libéralisation des prix de l’investissement et du commerce extérieur, la mise en place d’un marché des changes, l’allègement des procédures administratives et l’aménagement du régime fiscal. En 1996, le gouvernement tunisien a amorcé la deuxième phase de ce programme qui avait comme objectif essentiel la libéralisation du marché financier. Depuis 1999, la Tunisie a entamé la phase finale de ce programme qui vise la libéralisation totale de l'économie, ce qui permettra une libre circulation des biens et services, des personnes et des capitaux et qui rendra possible l’implantation des banques étrangères en Tunisie. Il va sans dire qu’un tel processus de libéralisation, dans le contexte d’une mondialisation intensifiée, risque de bouleverser non seulement l’économie nationale en Tunisie, mais aussi l’économie mondiale comme ce fut le cas pour d’autres pays émergents qui ont précédemment tenté l’expérience. Ainsi, compte-tenu de l’évolution du marché tunisien et de ses caractéristiques, il est plus que jamais dans l’intérêt des gestionnaires de portefeuilles et des investisseurs en général de comprendre et de gérer convenablement les risques extrêmes. En effet, les turbulences des marchés, les crises et les krachs exposent l’investisseur à de grands risques dont la compréhension précise devient essentielle. C’est dans ce cadre, que la théorie des valeurs extrêmes développée depuis 1928 par Fisher et Tippet a récemment trouvé sa place dans le domaine de la finance afin d’étudier les fluctuations des cours extrêmes. La théorie des valeurs extrêmes est appliquée ainsi dans la modélisation des évènements extrêmes1 afin de mesurer le risque de marché2 par la VaR qui sera utilisée ensuite dans la détermination du capital minimum de couverture. En effet, dans le cadre de la réglementation prudentielle, le comité de Bâle, regroupant les autorités de contrôle bancaire du G10, laisse la liberté aux institutions de choisir leur modèle de gestion interne, il serait donc intéressant de voir comment modéliser et prévoir le risque par la meilleure méthode. La 1 Un mouvement extrême de prix d’un actif financier ou d’un indice de marché est défini comme la rentabilité la plus basse (ou minimale) et la rentabilité la plus haute (ou maximale) observée sur une période donnée. 2 Risque de marché : variation de la valeur d’un portefeuille d’actifs due aux mouvements de marché (variation de cours, taux d’intérêt, taux de change…). 2 gestion du risque est une gestion des évènements inattendus, des évènements rares. Or avec l’utilisation de la distribution normale, ces évènements ont un caractère « prévisible » et rien ne sert pour cela d’étudier leur fréquence (en effet la distribution normale est entièrement caractérisée par ses deux premiers moments et la fréquence de ces évènements rares s’en déduit). Ainsi la théorie des valeurs extrêmes qui consiste à analyser les occurrences présentant des fréquences très faibles apparaît comme un outil particulièrement bien adapté pour notre étude. L’objectif de cet article est de comparer et évaluer la performance des résultats des VaR calculées, sur le marché boursier tunisien représenté par l’indice Tunindex, selon les deux approches : l’approche classique (méthode de simulation historique et méthode de Variance Covariance) qui s’intéresse à toute la distribution et l’approche des valeurs extrêmes qui s’intéresse en particulier aux queues de distribution. La question qui se pose alors est de savoir si la théorie des valeurs extrêmes fournit une valeur VaR de l’indice Tunindex plus précise que celles obtenues par les méthodes classiques de calcul de la VaR. Cet article s’articule autour de 5 sections. La première section définit la VaR comme étant un outil de mesure du risque. La deuxième section introduit les méthodes classiques de calcul de la VaR à savoir la méthode de Simulation Historique (SH), la méthode de Variance Covariance (VC) et la méthode de simulation de Monte Carlo. La troisième section présente, d’une manière concise, la Théorie des Valeurs Extrêmes (TVE). La quatrième section décrit la caractérisation des queues de distribution de l’indice Tunindex. La dernière section vérifie la pertinence des différentes méthodes de calcul de la VaR et met en exergue les résultats de la VaR obtenus par la théorie des valeurs extrêmes comparés à ceux des méthodes classiques. 3 1. La VaR outil de mesure du risque Les efforts des institutions financières et non financières quant à la gestion de leurs risques ont été redoublés suite au krach d’octobre 1987 à Wall Street3 et l’onde de choc qu’il a crée et aux désastres financiers de la banque britannique Barings (1995) et du Comté d’Orange aux Etats-Unis (1994). Depuis, de nouveaux modèles de gestion des risques financiers ont vu le jour. Ces dernières années un concept s’est imposé. C’est celui de la Value-at-Risk, une description concise du risque par un seul chiffre. En fait, c’est en 1993 que le Groupe des Trente4 a recommandé l’usage de la VaR comme critère de mesure du risque de marché5. D’ailleurs, fin 1994, la mise à disposition gratuite par la banque JP Morgan de sa méthodologie et de ses données a impulsé le mouvement de développement fulgurant de la VaR. En l’espace de quelques années, cette mesure est devenue un des modèles les plus importants dans le domaine de la gestion du risque. Le comité de Bâle qui regroupe les autorités de contrôle bancaire du G106 a contribué à accentuer l’intérêt pour cette méthode en la citant nommément au cours de ses travaux exploratoires et réglementaires. De plus, il a récemment imposé aux institutions financières l’utilisation de la VaR pour estimer le capital minimal de couverture. Par conséquent, celles-ci ont fortement contribué au développement international de la VaR comme outil de quantification et de reporting de risques. Selon Jorion (1998), « la Value-at-Risk mesure la perte maximale attendue sur un horizon donné, à un niveau de confiance donné ». La VaR d’un portefeuille d’actifs financiers correspond au montant maximal des pertes dues aux mouvements de marché sur un horizon de temps donné à un niveau de confiance donné si l’on exclut un ensemble d’évènements défavorables ayant une faible probabilité de se produire. Analytiquement, la VaR à horizon de temps h et au seuil de probabilité p est un nombre VaR(h,p) tel que : Proba (Lh ≤VaR(h,p)) = p (1) Lh: représente la perte (“Loss”); elle est une variable aléatoire positive ou négative. 3 Un évènement d’amplitude égale à 20 écarts-types de la distribution des rentabilités de l’indice Standard and Poor’s 500. 4 Forum international composé de banquiers, d’autorités de contrôle et d’académiciens. 5 La popularité de la VaR est due, entre autres, à Dennis Weathersone, ancien président de JP Morgan, qui s’informait chaque jour de l’exposition du risque total du marché à 16H15 exactement. Ainsi les gestionnaires ont répondu à sa demande en lui offrant un rapport quotidien de la VaR. 6 Les pays du G10 sont : Allemagne, Belgique, Canada, Etats-Unis, France, Italie, Japon, Luxembourg, PaysBas, Royaume-Uni, Suède et Suisse. 4 L’horizon h associé à la VaR est de quelques jours : 1 jour pour RiskMetrics ou 10 jours ouvrés, selon le comité de Bâle. Le niveau de probabilité est typiquement de 95% ou 99%. 2. Méthodes classiques de calcul de la VaR Les principales méthodes de l’approche classique de calcul de la VaR peuvent être classées en trois catégories : la Simulation Historique, la méthode de Variance Covariance et la méthode de Simulation de Monte Carlo. La méthode de Simulation Historique, connue également sous le nom de méthode historique, est sans doute la méthode la plus simple dans sa conception et sa mise en œuvre, puisqu’elle ne fait aucune hypothèse sur la forme de la distribution des rentabilités. Il suffit en fait de disposer des données historiques des gains et des pertes journalières du portefeuille dont on souhaite calculer la VaR. A partir de ces données, il est possible de reconstituer la distribution empirique des gains et des pertes journaliers et d’en déduire la VaR. Ainsi, sur la base des données historiques, il s’agit de choisir une période d’observation (ou fenêtre) qui peut varier de 6 mois à 4 ans. Les rendements du portefeuille dans cette fenêtre sont rangés par ordre croissant. Il faut trouver enfin le rendement qui correspond au quantile désiré. Par exemple, pour une fenêtre de 500 observations, pour une position longue7 sur l’indice et une probabilité de risque de 5%, le rang correspondant est égal au nombre d’observations soit 500 multiplié par 5%, c'est-à-dire 25 (la VaR correspond au 25ème plus petit rendement). Pour le même intervalle de confiance et pour une position courte sur l’indice, le rang correspondant devient 475, soit 500 multiplié par 95%. En d’autres termes, pour calculer la VaR, les rendements des titres de chaque jour appartenant à la période retenue sont perçus comme un scénario possible pour les rendements futurs, le portefeuille est évalué sous chacun de ces scénarii et les profits/pertes sont rangés par ordre croissant. La distribution empirique qui en résulte est considérée comme la distribution de probabilité des gains/pertes futurs. La VaR est alors définie comme un quantile de la distribution empirique des profits/pertes futurs selon le niveau de confiance choisi α %. Le principal avantage de cette méthode est qu’elle n’utilise pas d’hypothèse distributionnelle sur la variable aléatoire rendement. Elle présente aussi d’autres avantages en 7 La position longue (courte) traduit la situation d’un détenteur acheteur (vendeur) de l’indice. 5 terme de simplicité et de flexibilité. Ce pendant, cette méthode est particulièrement affaiblie par sa grande dépendance aux données qu’elle utilise. La méthode de Variance Covariance a été développée par JP Morgan en 1994, avec son système RiskMetrics. Elle est connue également sous le nom de méthode de corrélation. Elle suppose que les rentabilités des facteurs de risque sont distribuées comme une loi normale multivariée, que les corrélations entre ces facteurs sont stables au cours du temps et que la sensibilité de la position aux facteurs est constante. La matrice de variance-covariance ou de corrélation est estimée à partir d’observations passées d’après un modèle statistique spécifié. L’hypothèse de normalité et de linéarité de la position en fonction des facteurs de risque permet un calcul analytique de la VaR. Concrètement pour une série de rendements Rt, t = 1, 2, …,n. ∧ ∧ La VaR se calcule par : VaR(h , p ) = − µ t + σ t Z p Avec ∧ µt 1 n = ∑ Rt n t =1 ∧ 2 et σ t = 1 n ∑ (Rt − µ t ) n − 1 t =1 (2) 2 Zp8 désigne le quantile de la loi normale standard associé au niveau de probabilité p. Malgré sa simplicité, cette méthode biaise l’estimation des quantiles élevés des distributions à queue lourde d’où une sous-estimation du risque, car l’hypothèse de normalité n’est pas empiriquement justifiée. La méthode de simulation de Monte Carlo utilise un modèle économétrique pour déterminer l’évolution des facteurs de risque au cours du temps, les paramètres de ce modèle étant fixés par l’utilisateur ou estimés à partir des données passées. Alors que la méthode de Simulation Historique repose sur le seul scénario basé sur le comportement passé des marchés, la méthode de simulation de MC repose sur une multitude de scénarii aléatoires définis à partir du modèle économétrique. La méthode de simulation de MC est flexible en terme de modélisation et permet de traiter toutes les positions de marché une fois que le comportement des prix des différents produits composant le portefeuille a été modélisé. Cependant, elle est complexe et difficile à mettre en oeuvre, sans compter son coût élevé, notamment en temps de calcul. 8 Par exemple, Z95% = 1,645 et Z99% = 2,326 6 3. Théorie des valeurs extrêmes 3.1 Cadre d’analyse Nous supposons données n variables aléatoires X1,…,Xn indépendantes et identiquement distribuées de fonction de répartition F définie par : F(x) = Pr (X ≤ x) (3) Une manière simple d’étudier le « comportement » des évènements extrêmes est de considérer la variable aléatoire : Mn = max {X1, X2, …, Xn} (4) Mn représente la plus grande perte observée sur les n pertes observées X 1, X 2 ,..., X n . Nous adopterons la convention que la perte est un nombre positif. Comme les variables aléatoires sont indépendantes et identiquement distribuées, on obtient : Pr {Mn≤ x} = Pr {X1 ≤ x, …, Xn ≤ x} = [F(x)]n (5) La difficulté provient du fait que l’on ne connaît pas en général la fonction de répartition F. C’est la raison pour laquelle on s’intéresse au comportement asymptotique de la variable aléatoire Mn. Ainsi en identifiant la famille de loi vers laquelle Mn va converger, on pourra remplacer F par cette dernière pour des grandes valeurs de n. Pour caractériser cette loi de distribution des extrêmes, nous allons recourir au Théorème de Fisher-Tippet. 3.2 Théorème limite de Fisher-Tippet Avant d’énoncer le principal théorème de cette section, nous définissons des classes d’équivalences sur l’ensemble des fonctions de répartition (sur les distributions des probabilités). Les distributions F et F* sont dites de même type si ∃a, b ∈ ℜ, ∀x ∈ ℜ, F ∗ (ax + b ) = F (x) (6) Nous pouvons à présent énoncer le théorème de Fisher-Tippet qui permet de caractériser la loi de distribution des extrêmes. S’il existe des constantes an>0 et bn telles que 7 M n − bn ≤ x = G ( x) lim Pr an n→∞ (7) avec G une fonction de distribution non dégénérée9, alors G appartient à l’un des trois types suivants (I, II, ou III) Type I: Gumbel G ( x) = exp(−e − x ) ∀x ∈ ℜ Type II: Fréchet G ( x) = 0 si x ≤ 0 G ( x) = exp(− x −α ) si x〉 0, α 〉 0 avec α, un paramètre de forme. Type III : Weibull G ( x) = exp(−(− x) −α ) G ( x) = 1 si x ≤ 0, α 〉 0 si x〉 0 La loi de Gumbel peut être considérée comme une loi de transition entre les lois de Fréchet et de Weibull. La majorité des lois de probabilité usuelles appartiennent à l’un des trois domaines d’attraction (MDA)10 Gumbel, Fréchet ou Weibull. Par exemple, les distributions exponentielle, Gamma et Log-normale appartiennent au MDA de Gumbel regroupant la majorité des distributions à queue fine ; les distributions de Pareto, Log-Gamma, et Student appartiennent au MDA de Fréchet regroupant la majorité des distributions à queue lourde et la distribution uniforme appartient au MDA de Weibull regroupant la majorité des distributions sans queue. En fait, nous pouvons caractériser les trois types de distribution précédents par une distribution unique −1 x−u ξ G (x ) = exp− 1 + ξ ( ) σ (8) 9 C'est-à-dire qu’il n’existe aucune relation affine presque sûre entre les composantes du vecteur aléatoire. Maximum Domain of Attraction 10 8 Cette fonction de distribution correspond à la loi de probabilité des valeurs extrêmes généralisée, «Generalized Extreme Value distribution » (GEV). Nous avons alors les correspondances suivantes : Fréchet ξ = α −1 〉 0 Weibull ξ = −α −1 〈0 Gumbel ξ →0 Nous remarquons que les paramètres µ et σ sont les limites de bn et an. Le paramètre σ joue le rôle d’une variance, c’est pourquoi nous le considérons comme un paramètre de dispersion. Le paramètre µ est un paramètre de localisation. Le paramètre ξ est lié au caractère leptokurtique de la fonction de distribution F, c’est pourquoi on lui donne généralement le nom d’indice de queue ou d’indice de valeur extrême. Plus cet indice est élevé en valeur absolue, plus le poids des extrêmes dans la distribution initiale est important. On parle alors de distribution à « queues épaisses ». Mais notons toutefois qu’en pratique nous ne connaissons pas les paramètres µ, σ et ξ ; il faut donc les estimer à partir des données et les remplacer par leurs estimations. Il existe plusieurs méthodes pour estimer les paramètres de la distribution GEV. Par exemple, nous pouvons citer les méthodes d’estimation de l’indice de queue, la méthode des moments et la méthode du maximum de vraisemblance. 3.3 Méthode des excès et distribution de Pareto généralisée Fondée sur la théorie des valeurs extrêmes, la méthode des excès également connue sous le nom de Peaks Over Threshold (POT), permet la modélisation des queues de distribution d’une série de données à partir de laquelle il devient possible d’estimer la probabilité d’occurrence d’évènements rares au-delà des plus grandes valeurs observées. La fonction de distribution des excès de perte (POT) par rapport à un seuil élevé µ est définie par : Fµ ( y ) = Pr{X − µ ≤ y / X 〉 µ } (9) pour 0 ≤ y ≤ x0 − µ , on a généralement x0 = +∞ La fonction de distribution des excès représente la probabilité qu’une certaine perte dépasse le seuil µ d’au plus une quantité y, sachant qu’elle dépasse µ. Cette fonction s’écrit sous la forme : 9 Fµ ( y ) = Pr{X − µ ≤ y , X 〉 µ } F( y + µ ) − F(µ ) = Pr ( X 〉 µ ) 1 − F(µ ) (10) Nous allons à présent énoncer le théorème de Pickands-Balkema- de Haan qui va être le résultat théorique central de la théorie des valeurs extrêmes. Le théorème énonce que si F appartient à l’un des trois domaines d’attraction de la loi limite des extrêmes (Fréchet, Gumbel ou Weibull), alors il existe une fonction de répartition des excès au-delà de µ, noté Fµ qui peut être approchée par une loi de Pareto généralisée (GPD) telle que : lim sup µ → x0 Fµ ( y ) − G ξ , β (µ )( y ) =0 (11) 0≤ y ≤ x0 − µ Cette considération théorique suggère que, lorsque nous avons des données issues d’une distribution inconnue, il est possible d’approximer la distribution au-delà d’un certain seuil (assez grand) par une distribution de Pareto généralisée. Gξ,β est la fonction de répartition de la distribution de Pareto généralisée (GPD) de paramètres ξ et β définie par : −1 ξ xξ G ξ , β ( x ) = 1 − 1 + β si ξ ≠ 0 − x et G ξ , β ( x ) = 1 − exp β si ξ = 0 (12) (13) Avec β 〉 0 , x ≥ 0 pour ξ ≥ 0 et 0 ≤ x ≤ − β ξ pour ξ 〈 0 . Le paramètre ξ est lié au caractère leptokurtique de la fonction de distribution et β est un paramètre d’échelle. La valeur prise par le paramètre ξ informe sur le poids des queues dans la distribution parente. En d’autres termes, plus les indices de queue ξ sont élevés plus la distribution considérée possède des queues épaisses. Un indice de queue supérieur à zéro signifie donc que la probabilité d’occurrence de rentabilités extrêmes et notamment le risque de pertes extrêmes (dans le cas de la queue gauche) est plus importante que ce que prévoit la loi normale. Le risque d’un investissement c’est-à-dire des pertes extrêmes est donc d’autant plus important que l’indice de queue correspondant à ses plus faibles rentabilités (queue gauche), 10 est élevé [(Longin (1996) ; Mc Neil (1997,1999)]. Ainsi le cas ξ >0 est le plus intéressant dans les modèles de gestion de risque car la GPD est à queue épaisse. Sur la base des résultats relatifs à l’estimation de la loi asymptotique des excès, il est possible d’évaluer la perte maximale pour une probabilité donnée et sous des conditions de marchés extrêmes. Un estimateur de la VaR avec N µ le nombre des excès au delà du seuil µ est obtenu par : ∧ ∧ ( VaRq = µ + 1 − q ) ∧ N ξ µ ∧ β n −ξ − 1 (14) 4. Caractérisation des queues de distribution de l’Indice Tunindex 4.1 Analyse descriptive des données Notre étude portera sur les rentabilités logarithmiques quotidiennes de l’indice Tunindex de la bourse des valeurs mobilières de Tunis. L’indice Tunindex est une donnée synthétique reflétant l’évolution globale du marché tunisien. L’étude concerne la période de janvier 1998 (date de lancement de l’indice) à décembre 2005, soit 1996 observations quotidiennes. Signalons qu’il s’agit aujourd’hui de la plus longue série de rentabilités existante sur l’indice Tunindex. Afin de calculer la VaR, nous avons considéré les deux positions longue et courte, traduisant respectivement la situation d’un détenteur acheteur et vendeur de l’indice Tunindex et les seuils de confiance de 95%, 97,5%, 99%, 99,5% et 99,9%. L’analyse descriptive des rendements de l’indice Tunindex est illustrée par le graphique 1 montrant l’évolution du logarithme des rendements. FIG. 1– Histogramme des rendements de l’indice Tunindex 11 D’après la figure 1 représentant l’histogramme des rendements de l’indice Tunindex, on remarque que le skewness (AS) est supérieur à zéro (0,3097), ce qui veut dire que la densité de la distribution des rendements du portefeuille s’étale vers la droite. Ce constat est affirmé par l’allure de l’histogramme. Ainsi, on peut affirmer que la distribution des rendements de l’indice Tunindex fait l’objet d’une asymétrie positive. De la même manière, on constate aussi que le kurtosis (KUR), qui est dans notre cas égal à 35,758, est largement supérieur à 3. On est donc confronté au cas d’une distribution nettement leptokurtique, c’est-à-dire qu’elle a des queues épaisses, en comparaison avec la distribution normale. D’après la table statistique de la loi Khi Deux χ 2 , la valeur critique au seuil de 5% est égale à 5,9915. Dans notre cas, la statistique Jarque-Bera (JB)11 est égale à 89 277.72 ; elle est donc fortement supérieure à 5,9915. La statistique JB donne à penser donc que la distribution des rendements de l’indice Tunindex dévie fortement de la normale. Les tests de stationnarité de Dickey Fuller et Dickey Fuller Augmenté ont montré que les rendements de l’indice Tunindex sont intégrés d’ordre 0, ce qui veut dire que la série d’indice boursière est stationnaire aux seuils de 10%, 5% et 1%. 4.2 La modélisation des queues de distribution de l’indice Tunindex par la méthode des excès Comme nous l’avons vu, pour calculer la VaR des valeurs extrêmes, deux modélisations des extrêmes sont possibles : • Par les lois des valeurs extrêmes généralisées (Fréchet, Gumbel et Weibull) dont on peut estimer les paramètres par maximum de vraisemblance. Les hypothèses d’application de ces modèles ne sont pas toujours vérifiées. En effet, la distribution des valeurs extrêmes généralisée nécessite un échantillon de longueur importante pour obtenir de bonnes estimations. 11 Le test de Jarque-Bera est basé sur la statistique suivante JB = : a T −K 2 1 2 2 AS + (KUR − 3) ≈ χ (2) 6 4 12 • Par la méthode des excès plus connue sous le nom de Peaks- Over-Threshold (POT) et la loi de Pareto généralisée. Dans ce travail, nous choisissons la méthode des excès qui aura l’avantage d’utiliser plus de données, précisément celles qui dépassent un certain seuil µ suffisamment élevé. Théoriquement, il est possible de choisir le seuil µ par optimisation du « trade-off » entre biais et efficience. En effet, pour une valeur µ assez faible, les estimateurs seront biaisés et pour une valeur µ assez élevée, le nombre d’observations extrêmes considérées dans l’étude se réduit, par conséquent on sur-estime la variance. Il existe des techniques efficaces pour évaluer le seuil µ : nous utilisons celles qui sont les plus utilisées à savoir : la représentation Quantile-Quantile (Q-Q plot), l’estimateur de Hill et la fonction d’excès en moyenne. 4.2.1 Représentation Quantile-Quantile Supposons que X 1, X 2 ,..., X n sont des observations indépendantes, de fonction de répartition F (et F← son inverse généralisé) et introduisons la statistique d’ordre : X1 ≥ X 2 ≥ ... ≥ X n . Le graphique quantile-quantile est défini par : ← n − k +1 , k = 1,..., n X k , F n +1 (15) La pertinence du choix du seuil se vérifie visuellement en analysant la représentation quantile-quantile. Le QQ-plot (ou Quantile to Quantile Plot) permet de tester la conformité entre la distribution empirique d’une variable et une distribution théorique qui, dans notre cas d’espèce, est la loi GPD. Ce graphique doit correspondre à une droite. L’alignement des points du Q-Q plot laisse supposer que la loi GPD déterminée pour un seuil de 0,9932 (0,8128), décrit relativement bien le comportement des excès situés dans la queue droite (gauche) de la distribution de l’indice Tunindex. FIG. 2–Q-Q Plot (queue droite) FIG. 3–Q-Q Plot (queue gauche) Graphiques réalisés sur Matlab version (6.5) 13 Il est à noter que la concavité des déviations par rapport à la ligne droite dans les deux Q-Q plots précédents révèle une distribution à queue épaisse. En revanche, des déviations convexes témoignent d’une distribution à queue fine. Ce résultat corrobore le fait que la distribution des rendements est une distribution de Fréchet. 4.2.2 Estimateur de Hill L’estimateur de Hill de l’indice de queue de la loi GPD a été étudié par Mason (1982), Goldie et Smith (1987) et Rootzèn et al. (1992). La méthode consiste à ordonner les observations par ordre décroissant X 1 ≥ X 2 ≥ ... ≥ X n , l’indice de queue étant donné par l’équation ci-dessous avec Nµ, le nombre d’observations supérieures au seuil µ: ∧ ξ= 1 N µ X i ∑ ln N µ i =1 X N µ +1 (16) Il s’agit de sélectionner graphiquement le nombre d’excès au-delà duquel la valeur de l’indice de queue ξ devient stable. Selon Dress, de Haan et Resnick (1998), cette méthode serait particulièrement bien adaptée aux distributions d’excès convergeant vers une GPD en assurant un bon équilibre entre biais et variance. L’estimateur de Hill n’est valable que pour les distributions de Fréchet. Prenons l’exemple de la queue droite de l’indice Tunindex. Le graphique 4 présente le résultat de l’estimation de l’indice de queue ξ calculé par la méthode de Hill en fonction du nombre d’excès considéré. Le choix de 50 excès correspondant à un seuil de 0,9932 semble pertinent, dans la mesure où l’indice de queue devient relativement stable au delà de ce point. D’une manière analogue, pour la queue gauche, l’indice de queue devient relativement stable pour un nombre d’excès égal à 50. FIG. 4– Hill Plot (Queue droite) FIG. 5– Hill Plot (Queue gauche) Gr) Graphiques réalisés sur Matlab version (6.5) 14 4.2.3 Fonction d’excès en moyenne On appelle fonction d’excès en moyenne (mean excess function), la fonction e(µ ) définie par : e(µ ) = E[ X − µ / x〉 µ ] pour µ >0 (17) L’estimateur empirique de la fonction d’excès en moyenne est défini comme étant le rapport entre le nombre total des excès par rapport au seuil µ et le nombre total de points dépassant le seuil µ. Il est donné par : ∑ n (X i − µ ) en (µ ) = i =1 ∑ in=1 I {X i 〉 µ } + (18) Ainsi, cette fonction est linéaire en µ. Il s’agit donc de repérer les valeurs de µ à partir desquelles e(µ) est approximativement linéaire. Graphiquement, cela se traduit par un changement de la pente de la courbe qui ensuite reste stable. Nous observons, pour la queue droite (gauche), que le graphique devient presque linéaire quand le seuil µ est égal à 0,9932 (0,8128). FIG. 6– Fonction d’excès en moyenne (Queue droite) FIG. 7– Fonction d’excès en moyenne (Queue gauche) Graphiques réalisés sur Matlab version (6.5) 15 4.2.4 Estimation des paramètres de la GPD Après avoir identifié un seuil pour chacune des queues (droite et gauche) et avoir formé la série des excès correspondante, les deux paramètres ξ et β de la loi GPD peuvent être déterminés. Nous choisissons ainsi la méthode la plus utilisée, celle basée sur le maximum de vraisemblance12 pour les estimer. TAB. 1 – Résultats de l’estimation par la méthode du maximum de vraisemblance des paramètres (ξ, β) de la loi GPD Nµ U Queue droite ∧ ξ ∧ β 50 0,9932 0,2164 0,4099 Queue gauche Nµ u ∧ ξ ∧ β 50 0,8128 0,1547 0,4453 Estimation réalisée sur Matlab Version (6.5). ∧ L’analyse de ces résultats révèle que pour l’indice Tunindex, le paramètre ξ de la distribution GPD estimé est positif à la fois pour la queue droite et la queue gauche. Cela vient corroborer les conclusions généralement obtenues dans les études sur les données ∧ financières à savoir des paramètres ξ supérieurs à zéro (Embrechts et al. [1997], Longin [1999], Danielsson et al [1997], Gençay et Selçuk [2004], Emmanuelle Fromont [2005]). Cette observation indique que les queues situées de part et d’autre de ces distributions de rentabilité sont épaisses, c'est-à-dire que la probabilité d’occurrence de pertes et de gains extrêmes est plus élevée que ce que prévoit la loi normale. Cette information signale à l’investisseur que si la perspective d’une augmentation quotidienne importante de leur capital investi est plus probable que ce que prévoit la loi normale, elle s’accompagne également d’un risque de pertes extrêmes plus marqué. 12 La détermination des estimateurs de ξ et β s’obtient par l’optimisation de la fonction du logarithme de vraisemblance : 1 n ξ − n log β − + 1 ∑ log 1 + X i si ξ ≠ 0 ξ β i =1 L(ξ , β / X ) = − n log β − 1 n X ξ si = 0 ∑ i β i =1 16 ∧ En réalisant le rapport du paramètre estimé ξ de la queue gauche sur celui de la queue droite, on observe une valeur égale à 0,7148 = 0,1547/0,2164 qui est inférieure à l’unité. Il apparaît ainsi que l’indice Tunindex présente une queue droite plus épaisse que la queue gauche. Par conséquent, la fréquence d’apparition de perte quotidienne substantielle reste inférieure à celle de gain extrême. 5. Performance relative des modèles de VaR Nous comparons les résultats de VaR obtenus par les deux approches : l’approche traditionnelle qui s’intéresse à toute la distribution et l’approche des valeurs extrêmes qui s’intéresse, en particulier, aux queues de distribution. Les résultats trouvés sont reportés dans le tableau 2 pour les différentes méthodes. TAB. 2– Comparaison des VaR calculées selon les 3 modèles Seuil de confiance 95% 97,50% 99% 99,50% 99,90% Seuil de confiance 95% 97,50% 99% 99,50% 99,90% Position courte VaR - SH VaR - VC 0,007009959 0,008164174 0,009931882 0,009682206 0,014650480 0,011447247 0,017583461 0,012649115 0,023558920 0,015127233 Position longue VaR - SH VaR - VC -0,006487648 -0,007683872 -0,008178081 -0,009201905 -0,010732293 -0,010966946 -0,013074714 -0,012168813 -0,018069867 -0,014646931 VaR – TVE 0,00730 0,00994 0,01409 0,01783 0,02901 VaR – TVE -0,005209 -0,008136 -0,012521 -0,016277 -0,026710 En ce qui concerne le seuil à 95%, nous pouvons difficilement nous prononcer. En effet, la VaR historique est, sur nos données, supérieure à la VaR TVE mais inférieure à la VaR obtenue par la méthode de Variance-Covariance. Nous pouvons donc difficilement donner la préférence à une de ces trois mesures : elles ont chacune leurs faiblesses. A 97,5%, la VaR historique et la VaR TVE sont sensiblement les mêmes. Cependant, nous pouvons dire que la mesure VaR TVE est plus pertinente, car elle fait intervenir un plus grand nombre de points dans les calculs. En effet, la VaR historique ne tient compte que d’une seule donnée, à savoir la plus grande perte, alors que la théorie des extrêmes prend en 17 compte toutes les valeurs supérieures au seuil µ. Nous pouvons donc conclure que la VaR TVE est un indicateur plus robuste. Pour les quantiles supérieurs à 99%, les résultats ont montré que les outils traditionnels d’étude du risque construits sur le modèle gaussien sous estiment le risque de perte. En effet, il apparaît, qu’à partir de 99%, les VaR calculées selon l’approche traditionnelle deviennent inférieures aux VaR fondées sur les valeurs extrêmes. Nous observons aussi un accroissement de l’écart entre les quantiles gaussiens et les quantiles des valeurs extrêmes. Ainsi, si on se place dans une optique dynamique, c'est-à-dire si on prend en compte la possibilité que la réglementation change et que le seuil dépasse les 99%, la VaR de la théorie des valeurs extrêmes devient un outil incontournable. Cette hypothèse n’est pas à écarter. De plus, en raison de leurs objectifs de rating, les banques ciblent sur des seuils supérieurs à 99% dans leurs programmes d’allocation de fonds propres. Ces résultats tendent à souligner la faiblesse de la VaR gaussienne pour des niveaux de probabilité élevés lorsqu’elle est employée sur des distributions présentant des queues épaisses, comme celle de l’indice Tunindex. Celle-ci minimise l’importance des évènements inclus dans les queues de distribution et entraîne la sous estimation du risque réel dans des conditions de marchés extrêmes. Pour juger de la performance relative de chaque modèle, nous nous basons maintenant sur le «Violation Ratio». Il est utile ainsi de rappeler qu’une violation survient si le rendement réalisé est supérieur au rendement estimé. Le «Violation ratio» est défini comme étant le rapport entre le nombre total de violations et le nombre total de VaR estimées. Ainsi, quand nous estimons la VaR à un certain quantile q, nous nous attendons, si le modèle est correct, à ce que le rendement réalisé soit supérieur à cette dernière dans (1-q) % des cas. En d’autres termes, le «Violation Ratio» prévu à un certain quantile q% est égal à (1-q) %. Par exemple, au seuil de 95%, le «Violation Ratio» prévu est égal à 5%. Ainsi, si le «Violation Ratio» estimé est supérieur à celui théorique, le modèle de prévision sous estime le rendement d’où le risque extrême et inversement. En pratique, nous pouvons difficilement juger de la performance relative d’un modèle par rapport à un autre. En effet, nous retenons le modèle dont le Violation Ratio se rapproche le plus de celui théorique. 18 Ainsi, dans le cas d’une surestimation, s’il existe au seuil de 95%, par exemple, trois modèles avec un «Violation Ratio» égal respectivement à 3%, 4% et 4,5%, nous choisissons le dernier modèle. Dans le cas d’une sous estimation, s’il existe au seuil de 95%, par exemple, trois modèles avec un «Violation Ratio» égal respectivement à 5,5%, 6% et 7%, nous choisissons le premier modèle. Les deux tableaux ci-dessous mettent en évidence, dans notre cas d’espèce, le modèle le plus performant pour chaque quantile q et ce, pour les deux positions longue et courte. TAB. 3- Modèles avec la moindre sous/sur estimation du risque pour chaque quantile q Position courte Position longue Seuil 5% 500 jours 1000 jours SH 5,411% 4,012% VC 3,941% 3,009% 500 jours 1000 jours SH 2,806% 2,006% VC 2,672% 2,106% 500 jours 1000 jours SH 0,935% 0,502% VC 1,670% 1,003% 500 jours 1000 jours SH 0,468% 0,300% VC 1,202% 0,702% 500 jours 1000 jours SH 0,200% 0,100% VC 0,601% 0,301% EVT SH 4,676% 4,943% 4,012% 3,009% Seuil 2,5% EVT SH 2,605% 2,204% 2,006% 1,204% Seuil 1% EVT SH 0,868% 0,868% 0,502% 0,301% Seuil 0,5% EVT SH 0,468% 0,468% 0,602% 20,000% Seuil 0,1% EVT SH 0,134% 0,067% 0,100% 0,100% VC 3,407% 2,207% EVT 4,876% 3,109% VC 1,937% 1,003% EVT 2,338% 1,103% VC 1,069% 0,301% EVT 1,069% 0,301% VC 0,735% 0,301% EVT 0,468% 0,502% VC 0,334% 0,100% EVT 0,134% 0,100% TAB. 4- Récapitulatif des modèles les plus performants Sous estimation Surestimation 5% SH TVE 2,50% TVE VC Sous estimation Surestimation 5% SH 2,50% TVE Position courte 1% VC SH Position longue 1% TVE SH 0,50% TVE TVE 0,10% TVE TVE 0,50% TVE TVE 0,10% TVE TVE 19 Ces deux derniers tableaux reportent des résultats pertinents, corroborant ceux trouvés supra. Pour les quantiles inférieurs à 99%, nous pouvons difficilement donner la préférence à l’un des trois modèles. En revanche, pour les quantiles supérieurs à 99% (99,5% et 99,9%), il apparaît clairement que le modèle de la théorie des valeurs extrêmes est le plus performant. Ainsi, nous concluons que la théorie des valeurs extrêmes est un outil indispensable pour construire des indicateurs ou des mesures de risque qui viennent compléter la VaR. En effet, les deux méthodes analytique et historique paraissent inadaptées pour calculer la VaR au-delà du seuil de confiance de 99%. Conclusion En s’appuyant sur la théorie des valeurs extrêmes, notre étude a montré qu’à fréquence journalière, l’indice Tunindex présente une distribution leptokurtique et asymétrique. L’estimation de la loi GPD s’ajustant aux rentabilités extrêmes quotidiennes a permis de mettre en évidence l’existence des queues épaisses de part et d’autre de cette distribution. Mais, il apparaît que l’indice Tunindex présente une queue droite plus épaisse que la queue gauche. Ainsi, la fréquence d’apparition de perte extrême reste inférieure à celle de gain extrême. Pour juger de la performance relative de chaque méthode, nous avons utilisé la méthode de Violation Ratio. Les résultats ont révélé que pour les seuils de confiance supérieurs à 99%, les méthodes classiques d’étude du risque sous estiment le risque de perte. En effet, il apparaît qu’à partir de 99%, les VaR calculées selon la méthode de simulation historique et la méthode de Variance Covariance deviennent inférieures aux VaR fondées sur la théorie des valeurs extrêmes. Nous concluons que la théorie des valeurs extrêmes apparaît indispensable pour compléter la palette des outils traditionnels de mesure du risque s’intéressant aux conditions de marché normales. Si notre méthode se prête bien au cas simple d’une position linéaire, des progrès restent à faire pour traiter des cas plus complexes. Deux directions de recherches futures peuvent être envisagées : le cas d’une position non linéaire et le cas d’une position dont la composition évolue au cours du temps. Le premier cas (la non-linéarité des positions) est de toute importance puisque l’impact des chocs de marché peut être amplifié en présence d’options. Le deuxième cas (l’évolution des actifs composant le portefeuille et plus 20 généralement l’agrégation des risques) nécessite une approche multivariée. L’extension de la théorie des valeurs extrêmes au cas multivarié permet d’étudier la corrélation des marchés en période de crise. Bibliographie Aglietta M. (2002), « Actualité et prévention du risque systémique », CEPII, FORUM et CNRS-Université de Paris X-Nanterre. Artzner P, Delbaen F, Eber J.M et Heath D. (1998), « Coherent measures of risk », Mathematical finance 9:203-228. Beder T.S. (1995), « VaR : seductive but dangerous », Financial analysts Journal. Bekiros S.D et Georgoutsos D.A. (2005), « Estimation of value at risk by extreme value and conventional methods: a comparative evaluation of their predictive performance », Journal of International Financial Markets, Institutions and Money. Bezat A et Nikeghbali A. (2000), « La théorie des extrêmes et la gestion des risques de marché », Groupe de Travail ENSAE. Brooks C, Clare A.D, Dalle Molle J.W et Persand G. (2005), « A comparison of extreme value theory approaches for determining value at risk », Journal of Empirical Finance 12, 339-352. Butler C. (1999), « Mastering Value at Risk: a step by step guide to understanding and applying VaR », Prentice Hall, Financial Times. Costinot A, Riboulet G et Roncalli T. (2000), « Stress testing et théorie des valeurs extrêmes : une vision quantifiée du risque extrême », Groupe de Recherche Opérationnelle, Crédit Lyonnais. Danielsson J et de Vries C.G. (1997), « Value at Risk and extreme returns », Paper n°273, London School of Economics, Financial Markets Group. Danielsson J et de Vries C.G. (2000), « Value at Risk and extreme returns », Annales d’Economie et de Statistique n°60-2000. Drees H, De Haan L et Resnick S. (1991), « How to make a hill plot ». Timbergen Institute, Erasmus University, Rotterdam. El Aroui M.A et Diebolt J. (1999), « Estimation of extreme quantiles: empirical tools for methods assessment and comparison », International Journal of Reliability, Quality and Safety Engineering, volume 7, N°1. Embrechts P. (2000), « Extreme value theory: potentials and limitations as an integrated risk management tool », Manuscript. Zurich, Switzerland: Department of Mathematics, ETH. 21 Fernandez V. (2003), « Extreme value theory and value-at-risk », Departement of industrial engineering at the University of Chile (DII). Filho C.M et Yao F. (2006), « Estimation of Value-at-Risk and Expected Shortfall based on nonlinear models of return dynamics and extreme value theory», Studies in nonlinear dynamics and econometrics, volume 10, Issue 2. Fromont E. (2005), « Modélisation des rentabilités extrêmes des distributions de Hedge Funds », CREM UMR CNRS 6211- Axe Macroéconomie et Finance. Gavin J. (2000), « Extreme value theory – an empirical analysis of equity risk », UBS Warburg, working paper. Gençay R, Selçuk F et Ulugulyagci A. (2002), « EVIM: a software package for extreme value analysis in MATLAB », Studies in Nonlinear Dynamics and Econometrics. Gençay R et Selçuk F. (2004), « Extreme value theory and value at risk: relative performance in emerging markets », International Journal of Forecasting, 287-303. Gilli M et Kellezi E. (2005), « An application of extreme value theory for measuring financial risk », Departement of econometrics, University of Geneva and FAME. Gilli M et Kellezi E. (2003), « An application of extreme value theory for measuring risk », Departement of Econometrics, University of Geneva and FAME. Glasserman P. (2005), « Measuring marginal risk contributions in credit portfolios », Center for financial research, working paper n°2005-01. Gordon J.A et Baptista A.M. (2003), « CVaR as a measure of risk: implications for portfolio selection », University of Minnesota, University of Arizona, working paper. Helaine P. (2005), « Gestion des risques financiers en entreprise, indicateurs de pilotage et Value-at-Risk », CNAM DESS Finance d’entreprise- chaire de finance –Paris. Hendricks D. (1996), « Evaluation of Value-at-Risk models using historical data », Economic policy review. Holton G.A. (2003), «Value at Risk: theory and practice », Academic Press. Hongwei T et Wei Z. (2000), « A new method to compute Value at Risk: extreme value theory », School of Management, Tianjin University, working paper. Huisman R, Koedijk KG et Pownall R.A.J. (1999), « Asset allocation in a Value-at-Risk framework », Financial Management. Jondeau E et Rockinger M. (1999), « The tail behavior of stock returns: emerging versus mature markets », notes d’études et de recherche, Banque de France. Jorion P. (1998), « Value at Risk: the new benchmark for controlling derivatives risk », McGraw Hill, New York. 22 Jorion P. (2002), « Value at Risk », Second edition, McGraw Hill, New York. Kyrtsou C et Terraza V. (2004), « VaR non linéaire chaotique : application à la série des rentabilités de l’indice NIKKEI », AFFI International Conference. Lardic S et Mignon V. (2002), « Econométrie des séries temporelles macroéconomiques et financières », Economica. LeBaron B et Samanta R. (2005), « Extreme value theory and fat tails in equity markets », International Business School, working paper. Linsmeier T.J et Pearson N.D. (1996), « Risk measurement : an introduction to VaR », University of Illinois at Urbana-Champaign, working paper. Longin F. (1995), « La théorie des valeurs extrêmes : présentation et premières applications en finance », Journal de la Société de Statistique de Paris, tome 136, N°1. Longin F. (1996), « The asymptotic distribution of extreme stock market returns », Journal of Business, volume 69, N°3. Longin F. (1998), « Value at Risk : une nouvelle approche fondée sur les valeurs extrêmes », Annales d’Economie et de Statistiques N°52. Longin F. (1999), « Optimal margin level in futures markets: extreme price movements », The Journal of Futures Markets, volume 19, N°2, 127-152. Longin F. (2000), « From value at risk to stress testing: the extreme value approach », Journal of Banking and Finance 24, 1097-1130. Longin F. (2001), « Beyond the VaR », The Journal of Derivatives, volume 8, N°4. Longin F. (2005), « The choice of the distribution of asset returns: How extreme value theory can help? », Journal of Banking and Finance 29, 1017-1035. Longin F et Solnik B. (1999), « Correlation structure of international equity markets during extremely volatile periods », Journal of finance 56. Longin F et Solnik B. (2001), « Extreme correlation of international equity markets », The Journal of Finance, N°2. Mc Neil A.J. (1998), « Calculating quantile risk measures for financial return series using extreme value theory », Manuscript. Zurich, Switzerland: Department of Mathematics, ETH. Mc Neil A.J. (1999), « Extreme value theory for risk managers », Internal modelling and CAD II, Risk books. London, UK, 93-118. Mc Neil A.J et Frey R. (2000), « Estimation of tail-related risk measures for heteroscedastic financial time series: an extreme value approach », Journal of Empirical Finance 7, 271-300. 23 Mc Neil A.J et Saladin T. (1997), « The peaks over thresholds method for estimating high quantiles of loss distributions », Manuscript. Zurich, Switzerland: Department of Mathematics, ETH. Meyfredi J.C. (2003), « Towards the integration of extreme values in obtaining the value at risk », EDHEC Business School. Neftci S.N. (2000), « Value at Risk calculations, extreme events and tail estimation », The Journal of Derivatives. Ossé A. (2002), « La value at risk », BCV, les cahiers de la finance. Poncet P. (1998), « Value at Risk », Banque et Marché, Isssue 37. Racicot F.E et Théoret R. (2001), « Introduction à l’utilisation des méthodes basées sur le calcul numérique en finance quantitative : variations sur les aspects théoriques de la VaR avec application Visual Basic du calcul de la VaR selon la méthode de Bootstrapping et selon l’expansion de Cornish-Fisher », Centre de Recherche en Gestion, Document de Travail 192001. Racicot F.E et Théoret R. (2001), « Modèles de la VaR, simulations en Visual Basic (Excel) et autres mesures récentes du risque de marché », Working Paper n°022006. Robert C. (2002), « Analyse des queues de distribution et des valeurs extrêmes en finance : applications aux séries financières haute fréquence », Thèse, Université Paris 7, UFR Mathématiques appliquées. Rocard A et Blanc J.Y. (1998), « Comparaison des différentes méthodologies de calcul de la Value-at-Risk », Lettre d’OTC conseil n°3. Roncalli T. (2001), « La théorie des extrêmes et la gestion des risques de marché », Groupe de Recherche Opérationnelle, Crédit Lyonnais. Terraza V. (2001), « Modélisations de la Value at risk du CAC 40. Un essai d’amélioration de l’approche Riskmetrics par la modélisation hétéroscédastique saisonnière », Cellule de Recherche Economie Appliquée, Document de travail N° 04-6. Tokpavi S. (2004), « La Value-at-Risk comme mesure du risque de marché : cas de la catastrophe financière de Comté d’Orange », Université d’Orléans, document de travail. de Vries A (2000), « The Value-at-Risk », Germany, Working paper. Wang S. (2002), « A risk measure beyond coherence », Cancun, Mexico. Yamai Y et Yoshiba T. (2005), « Value at Risk versus expected shortfall: a practical perspective », Journal of Banking and Finance 29, 997-1015. 24