En savoir plus
Transcription
En savoir plus
JOURNEES D’ETUDES EN STATISTIQUE 15-19 NOVEMBRE 2010 APPROCHES STATISTIQUES DU RISQUE Lundi 15 novembre Mardi 16 novembre Mercredi 17 novembre Jeudi 18 novembre Vendredi 19 novembre 8H30-10H00 10H30-12H00 Organisateurs J.M. Tallon Accueil Les catégories de risque Historique du sujet Décision dans l’incertain A.L. Fougères Extrêmes univariés A. Charpentier A.L. Fougères Copules Extrêmes multivariés S. Loisel Solvabilité E. Parent P. Bertail Application en Application en santé météorologie 16H00-18H00 A. Charpentier Les mesures de risque et leur estimation P. Bertail Modèles de ruine A. Charpentier Application en assurance DETAIL DES INTERVENTIONS Jean-Marc Tallon : Catégories de risque et décision dans l’incertain Nous aborderons dans ce cours les fondements de la théorie de la décision dans le risque et l'incertain. Nous présenterons dans un premier temps l'axiomatique de von Neumann et Morgenstern du modèle d'espérance d'utilité. Des extensions, basées sur la remise en cause expérimentale de cette construction, seront alors étudiées: modèle de Yaari, modèle d'espérance d'utilité dépendant du rang et prospect theory. Nous aborderons ensuite la construction de Savage, qui axiomatise le modèle d'espérance d'utilité dans le cadre de l'incertain non probabilisé. Là aussi, nous présenterons rapidement des expériences mettant en cause cette construction et décrirons les avancées récentes dans le domaine de la théorie de la décision dans l'incertain (ou ambiguïté). Arthur Charpentier : Mesures de risque et estimation Dans cet exposé, dans la continuité de la partie de Jean-Marc Tallon, reviendra sur les mesures de risques induites par les notions classiques de théorie de la décision (que ce soit par espérance d’utilité, ou au travers de l’approche duale de Yaari). Nous verrons les mesures de risques les plus usuelles, comme la mesure entropie (dérivée d’un modèle d’indifférence d’utilité avec utilité exponentielle), la VaR et la TVaR, ou plus généralement les primes obtenues par distorsion de probabilité (et vues comme des intégrales de Choquet). Enfin, la mesure de risque introduite par Esscher sera également présentée, avec en particulier ses application en (ré)assurance mais aussi en valorisation par arbitrage via la transformée de GergerShiu. Copules Ce premier exposé sur les notions de modélisation multivariée proposera une introduction à la théorie des copules. Un cadre général à la modélisation multivariée sera proposé, et nous passerons en revue les grandes familles de copules paramétriques (elliptiques, Archimédiennes et extrêmes). Nous présenterons les copules en dimension 2 et évoquerons la difficulté du passage à une dimension supérieure. Une courte partie sera dédiée à l’inférence statistique des copules (paramétrique ou non paramétrique), et une autre évoquera les mesures de dépendance (corrélation de Pearson, de Spearman, de Kendall et une courte introduction à la dépendance entre extrêmes). Enfin nous conclurons sur la difficulté d’établir un lien entre une relation d’ordre entre vecteurs aléatoires (en particulier les bornes de comonotonie) et l’ordonnancement des mesures de risque d’agrégation de ces vecteurs. Applications en assurance Au cours de cet exposé, nous reviendrons sur les modèles classiques en assurance, et plus particulièrement dans le cadre des modèles dynamiques. Nous parlerons plus précisément de la problématique du provisionnement en assurance dommage (et des mesures d’incertitude sur les prédictions de mesures de risques à horizon plus ou moins long) mais aussi de la modélisation du risque de longévité (dans des modèles prospectifs, en essayant de dépasser l’approche traditionnelle basée sur des calculs d’espérance de vie). Anne-Laure Fougères : L'objectif de l’intervention est de présenter une introduction à la théorie des valeurs extrêmes, dans son cadre univarié tout d'abord, puis multivarié. Cette théorie a pour objet de fournir des outils probabilistes et statistiques permettant de répondre à des questions du type : Comment évaluer la probabilité d'un événement se produisant très rarement ? Comment déterminer la hauteur d'une digue de sorte que la probabilité qu'un débordement ait lieu soit inférieure à une valeur réglementaire ? Comment fixer le montant d'une prime de réassurance ? etc. Le plan de cours sera le suivant : (i) Extrêmes univariés 1 : Lois limites pour les maxima renormalisés ("lois de valeurs extrêmes généralisées"). Domaines d'attraction pour les maxima. Fonctions à variation régulière. Modélisation pour les dépassements de seuil ("lois de Pareto généralisées"). (ii) Extrêmes univariés 2 : Evaluation de petites probabilités et de quantiles extrêmes : Approche par les maxima par blocs, par les dépassements de seuil, et par la fonction quantile de queue. Estimation. (iii) Extrêmes multivariés : Structure des distributions max-stables multivariées. Transformation en coordonnées polaires et représentation de la mesure limite sous forme d'un produit. Dépendance et indépendance asymptotique. Patrice Bertail : (i) Modèles de ruine Les modèles de ruine sont des modèles dynamiques en général à temps continu qui décrivent l’évolution d’un stock avec entrées et sorties. Dans le cadre des assurances, le but est de modéliser l’évolution des réserves d’une compagnie d’assurances en fonction - de sa réserve initiale, - des hypothèses sur le processus d’arrivée des sinistres et de la distribution de leurs montants, - des hypothèses sur le processus de rentrée des primes d’assurance. La ruine se produit lorsque les réserves sont mises en défaut à un instant ou sur une période donnée, ou encore lorsque le processus dépasse un certain niveau. Plus généralement ce type de modèle est lié aux modèles de file d’attente, avec des applications diverses dans le champ de l’hydrologie, de l’informatique, de la gestion des stocks ou encore la santé comme nous le verrons dans l’un des exposés. L’objectif de cet exposé est - de rappeler les bases de la théorie de la ruine. Nous rappellerons le modèle de Cramer-Lundberg et donnerons les représentations intégro-différentielles et les résultats asymptotiques sur la probabilité de ruine (lorsque les réserves sont grandes). - de donner les bases du calcul approché de la ruine en horizon fini et infini - d’évoquer les différentes mesures de risque disponibles dans ces modèles (temps de la ruine, sévérité de la ruine, temps de rétablissement etc.) - de donner un aperçu sur les généralisations de ce modèle et les résultats obtenus selon les hypothèses faites sur les composantes du modèle. (ii) Applications en santé Dans cet exposé nous montrerons comment les techniques de valeurs extrêmes et les modèles de ruines peuvent être utilisés dans le cadre de l’évaluation des risques d’expositions à certains contaminants. Le cadre sera celui de la consommation alimentaire où un individu peut être exposé à un ou plusieurs contaminants présents dans divers aliments. Dans une approche statique, sur une période donnée, il peut être fondamental d’estimer la probabilité que, dans une population donnée, un individu dépasse la dose hebdomadaire tolérable (DHT) pour son organisme. Selon l’importance de cette probabilité, plusieurs techniques d’estimation peuvent être proposées : des techniques de U-statistiques généralisées combinant l’information sur les consommations des individus et les teneurs en contaminants si le risque est grand (DHT petite), ou des techniques d’estimation des queues de distribution notamment de l’indice de Pareto, lorsque la DHT est grande par rapport aux expositions réelles. Dans une approche dynamique de l’exposition au risque, le problème est de quantifier l’accumulation des contaminants dans le corps humain compte-tenu des consommations et de l’élimination naturelle. L’évolution de la contamination d’un individu peut être modélisée par un processus markovien déterministe par morceau (inversé par rapport à celui des assurances) dans lequel les intrants sont les niveaux d’exposition à certains contaminants (produits de la consommation par le niveau de la contamination), qui sont éliminés par l’organisme selon une cinétique pharmacologique régie par une équation déterministe (dans notre cas une décroissance exponentielle caractérisée par la demi-vie du contaminant éventuellement aléatoire). La question est alors de savoir quelle est la probabilité qu’un individu dépasse la DHT sur un horizon donné, qu’elle est alors la sévérité de son exposition à la contamination etc. Un des problèmes d’estimation spécifique à ce modèle est l’impossibilité d’observer directement la contamination de sorte que des techniques de simulations doivent être utilisées. Nous illustrerons nos propos par une application de l’évaluation des risques d’exposition au méthyl-mercure. Stéphane Loisel : (i) Théorie de la ruine multivariée Une compagnie d’assurance a souvent plusieurs branches d’activité (assurance automobile, incendie, tempête, etc.) ou des filiales dans différents pays, soumises à des normes de solvabilité distinctes, avec une fongibilité du capital (capacité de transférer des réserves d’une branche ou filiale n’ayant pas de problème vers une branche en difficulté) limitée. Dans ce contexte, il est pertinent d’étudier l’évolution conjointe des réserves des différentes branches d’activité de la compagnie. Nous définirons les différentes mesures de risque d’intérêt et présenterons les méthodes de calcul existantes pour certaines probabilités de ruine multivariées, (ce qui peut par exemple faire intervenir des temps de sortie d’un ensemble par des processus multivariés), ainsi que pour certains problème d’allocation optimale de la réserve initiale : comment répartir de manière optimale la réserve globale entre les branches d’activités , par exemple de manière à minimiser la somme des intégrales des parties négatives des processus de réserve de chaque branche ? (ii) Solvabilité, Gestion des risques d’entreprise et prise en compte des nonstationnarités et des dépendances Dans cette partie nous présenterons les grands principes de la nouvelle réglementation prudentielle européenne, Solvabilité II et le modèle mathématique sous-jacent. Ensuite, dans une perspective de gestion des risques d’entreprise, nous expliquerons comment calculer des probabilités de ruine en présence de crises de corrélation ou en prenant en compte la stratégie d’adaptation de la tarification de l’assureur à la sinistralité passée en utilisant la théorie de la crédibilité. Ces modèles sont des généralisations du modèle de Cramer Lundberg (qui sera introduit par Patrice Bertail) dans lesquels soit les montants de sinistres ne sont plus nécessairement indépendants et identiquement distribués, mais peuvent devenir soudainement très positivement dépendants, soit le taux de cotisation n’est plus déterministe mais est lui-même fonction de l’historique du processus, qui n’est plus à accroissements indépendants et stationnaires. Eric Parent : Considérations décisionnelles pour la construction d’un ouvrage de protection contre les crues Statistique inférentielle d’un côté et analyse des décisions de l’autre côté ont longtemps été séparées dans les préoccupations des chercheurs et des ingénieurs. Lors de l’étude de la construction d’un ouvrage de protection contre les crues, par exemple, on a d’abord principalement cherché à estimer, au mieux, les paramètres incertains des modèles : l’expression au mieux signifie selon des critères de valeurs choisis de façon arbitraire car même si ce choix obéit à une certaine logique du mathématicien, les considérations décisionnelles n’y ont guère leur part. Le choix des décisions opérationnelles s’opère traditionnellement dans une phase ultérieure, séparée de l’inférence, et comme si les paramètres des modèles étaient parfaitement connus, en appliquant souvent forfaitairement un coefficient de sécurité multiplicateur. Dans l’approche bayésienne au contraire, la distribution a posteriori du ou des paramètres récapitule tout le savoir mobilisé pour porter un jugement à partir des données expérimentales et du savoir a priori. Le choix d’une décision basée sur cette distribution a posteriori doit faire intervenir ses conséquences, évaluées au moins sommairement. Une telle évaluation peut paraître difficile ou prématurée, pourtant aucun modélisateur ne travaille jamais sans idée des suites de ses jugements et propositions. Il suffit bien souvent de prendre en compte une fonction de coût forfaitaire donnant une indication très qualitative des conséquences. C’est le lien entre le jugement sur échantillon (celui qu’on a sous la main) et la prise de décision finale avec ses coûts qui fait d’ailleurs l’efficacité de la démarche bayésienne. Formellement, le choix d’une décision implique de supporter des conséquences incertaines. Celles-ci s’expriment par une fonction de coût conditionnée conjointement par la décision et l’état de la nature. La théorie de la décision en avenir incertain développe ce concept en l’articulant avec les éléments du modèle bayésien. D’un point de vue pratique –et dans le domaine de l’ingénierie hydraulique qui nous intéresse ici- la prise en compte de l’incertitude se traduit par la mise en œuvre d’un surdimensionnement de protection par rapport à l’approche classique.