En savoir plus

Transcription

En savoir plus
JOURNEES D’ETUDES EN STATISTIQUE
15-19 NOVEMBRE 2010
APPROCHES STATISTIQUES DU RISQUE
Lundi 15
novembre
Mardi 16
novembre
Mercredi 17
novembre
Jeudi 18
novembre
Vendredi 19
novembre
8H30-10H00
10H30-12H00
Organisateurs
J.M. Tallon
Accueil
Les catégories de risque
Historique du sujet
Décision dans l’incertain
A.L. Fougères
Extrêmes univariés
A. Charpentier
A.L. Fougères
Copules
Extrêmes multivariés
S. Loisel
Solvabilité
E. Parent
P. Bertail
Application en
Application en santé
météorologie
16H00-18H00
A. Charpentier
Les mesures de risque et leur
estimation
P. Bertail
Modèles de ruine
A. Charpentier
Application en assurance
DETAIL DES INTERVENTIONS
Jean-Marc Tallon :
Catégories de risque et décision dans l’incertain
Nous aborderons dans ce cours les fondements de la théorie de la décision dans le
risque et l'incertain. Nous présenterons dans un premier temps l'axiomatique de von
Neumann et Morgenstern du modèle d'espérance d'utilité. Des extensions, basées
sur la remise en cause expérimentale de cette construction, seront alors étudiées:
modèle de Yaari, modèle d'espérance d'utilité dépendant du rang et prospect theory.
Nous aborderons ensuite la construction de Savage, qui axiomatise le modèle
d'espérance d'utilité dans le cadre de l'incertain non probabilisé. Là aussi, nous
présenterons rapidement des expériences mettant en cause cette construction et
décrirons les avancées récentes dans le domaine de la théorie de la décision dans
l'incertain (ou ambiguïté).
Arthur Charpentier :
Mesures de risque et estimation
Dans cet exposé, dans la continuité de la partie de Jean-Marc Tallon, reviendra sur
les mesures de risques induites par les notions classiques de théorie de la décision
(que ce soit par espérance d’utilité, ou au travers de l’approche duale de Yaari).
Nous verrons les mesures de risques les plus usuelles, comme la mesure entropie
(dérivée d’un modèle d’indifférence d’utilité avec utilité exponentielle), la VaR et la
TVaR, ou plus généralement les primes obtenues par distorsion de probabilité (et
vues comme des intégrales de Choquet). Enfin, la mesure de risque introduite par
Esscher sera également présentée, avec en particulier ses application en
(ré)assurance mais aussi en valorisation par arbitrage via la transformée de GergerShiu.
Copules
Ce premier exposé sur les notions de modélisation multivariée proposera une
introduction à la théorie des copules. Un cadre général à la modélisation multivariée
sera proposé, et nous passerons en revue les grandes familles de copules
paramétriques (elliptiques, Archimédiennes et extrêmes). Nous présenterons les
copules en dimension 2 et évoquerons la difficulté du passage à une dimension
supérieure. Une courte partie sera dédiée à l’inférence statistique des copules
(paramétrique ou non paramétrique), et une autre évoquera les mesures de
dépendance (corrélation de Pearson, de Spearman, de Kendall et une courte
introduction à la dépendance entre extrêmes). Enfin nous conclurons sur la difficulté
d’établir un lien entre une relation d’ordre entre vecteurs aléatoires (en particulier les
bornes de comonotonie) et l’ordonnancement des mesures de risque d’agrégation de
ces vecteurs.
Applications en assurance
Au cours de cet exposé, nous reviendrons sur les modèles classiques en assurance,
et plus particulièrement dans le cadre des modèles dynamiques. Nous parlerons plus
précisément de la problématique du provisionnement en assurance dommage (et
des mesures d’incertitude sur les prédictions de mesures de risques à horizon plus
ou moins long) mais aussi de la modélisation du risque de longévité (dans des
modèles prospectifs, en essayant de dépasser l’approche traditionnelle basée sur
des calculs d’espérance de vie).
Anne-Laure Fougères :
L'objectif de l’intervention est de présenter une introduction à la théorie des valeurs
extrêmes, dans son cadre univarié tout d'abord, puis multivarié. Cette théorie a pour
objet de fournir des outils probabilistes et statistiques permettant de répondre à des
questions du type : Comment évaluer la probabilité d'un événement se produisant
très rarement ? Comment déterminer la hauteur d'une digue de sorte que la
probabilité qu'un débordement ait lieu soit inférieure à une valeur réglementaire ?
Comment fixer le montant d'une prime de réassurance ? etc.
Le plan de cours sera le suivant :
(i) Extrêmes univariés 1 :
Lois limites pour les maxima renormalisés ("lois de valeurs extrêmes
généralisées"). Domaines d'attraction pour les maxima. Fonctions à variation
régulière.
Modélisation pour les dépassements de seuil ("lois de Pareto généralisées").
(ii) Extrêmes univariés 2 :
Evaluation de petites probabilités et de quantiles extrêmes : Approche par les
maxima par blocs, par les dépassements de seuil, et par la fonction quantile de
queue.
Estimation.
(iii) Extrêmes multivariés :
Structure des distributions max-stables multivariées.
Transformation en coordonnées polaires et représentation de la mesure limite
sous forme d'un produit.
Dépendance et indépendance asymptotique.
Patrice Bertail :
(i) Modèles de ruine
Les modèles de ruine sont des modèles dynamiques en général à temps continu qui
décrivent l’évolution d’un stock avec entrées et sorties. Dans le cadre des
assurances, le but est de modéliser l’évolution des réserves d’une compagnie
d’assurances en fonction
- de sa réserve initiale,
- des hypothèses sur le processus d’arrivée des sinistres et de la distribution de
leurs montants,
- des hypothèses sur le processus de rentrée des primes d’assurance.
La ruine se produit lorsque les réserves sont mises en défaut à un instant ou sur une
période donnée, ou encore lorsque le processus dépasse un certain niveau.
Plus généralement ce type de modèle est lié aux modèles de file d’attente, avec des
applications diverses dans le champ de l’hydrologie, de l’informatique, de la gestion
des stocks ou encore la santé comme nous le verrons dans l’un des exposés.
L’objectif de cet exposé est
- de rappeler les bases de la théorie de la ruine. Nous rappellerons le modèle
de Cramer-Lundberg et donnerons les représentations intégro-différentielles
et les résultats asymptotiques sur la probabilité de ruine (lorsque les réserves
sont grandes).
- de donner les bases du calcul approché de la ruine en horizon fini et infini
- d’évoquer les différentes mesures de risque disponibles dans ces modèles
(temps de la ruine, sévérité de la ruine, temps de rétablissement etc.)
- de donner un aperçu sur les généralisations de ce modèle et les résultats
obtenus selon les hypothèses faites sur les composantes du modèle.
(ii) Applications en santé
Dans cet exposé nous montrerons comment les techniques de valeurs extrêmes et
les modèles de ruines peuvent être utilisés dans le cadre de l’évaluation des risques
d’expositions à certains contaminants. Le cadre sera celui de la consommation
alimentaire où un individu peut être exposé à un ou plusieurs contaminants présents
dans divers aliments.
Dans une approche statique, sur une période donnée, il peut être fondamental
d’estimer la probabilité que, dans une population donnée, un individu dépasse la
dose hebdomadaire tolérable (DHT) pour son organisme. Selon l’importance de cette
probabilité, plusieurs techniques d’estimation peuvent être proposées : des
techniques de U-statistiques généralisées combinant l’information sur les
consommations des individus et les teneurs en contaminants si le risque est grand
(DHT petite), ou des techniques d’estimation des queues de distribution notamment
de l’indice de Pareto, lorsque la DHT est grande par rapport aux expositions réelles.
Dans une approche dynamique de l’exposition au risque, le problème est de
quantifier l’accumulation des contaminants dans le corps humain compte-tenu des
consommations et de l’élimination naturelle. L’évolution de la contamination d’un
individu peut être modélisée par un processus markovien déterministe par morceau
(inversé par rapport à celui des assurances) dans lequel les intrants sont les niveaux
d’exposition à certains contaminants (produits de la consommation par le niveau de
la contamination), qui sont éliminés par l’organisme selon une cinétique
pharmacologique régie par une équation déterministe (dans notre cas une
décroissance exponentielle caractérisée par la demi-vie du contaminant
éventuellement aléatoire). La question est alors de savoir quelle est la probabilité
qu’un individu dépasse la DHT sur un horizon donné, qu’elle est alors la sévérité de
son exposition à la contamination etc. Un des problèmes d’estimation spécifique à ce
modèle est l’impossibilité d’observer directement la contamination de sorte que des
techniques de simulations doivent être utilisées. Nous illustrerons nos propos par
une application de l’évaluation des risques d’exposition au méthyl-mercure.
Stéphane Loisel :
(i)
Théorie de la ruine multivariée
Une compagnie d’assurance a souvent plusieurs branches d’activité (assurance
automobile, incendie, tempête, etc.) ou des filiales dans différents pays, soumises à
des normes de solvabilité distinctes, avec une fongibilité du capital (capacité de
transférer des réserves d’une branche ou filiale n’ayant pas de problème vers une
branche en difficulté) limitée. Dans ce contexte, il est pertinent d’étudier l’évolution
conjointe des réserves des différentes branches d’activité de la compagnie. Nous
définirons les différentes mesures de risque d’intérêt et présenterons les méthodes
de calcul existantes pour certaines probabilités de ruine multivariées, (ce qui peut par
exemple faire intervenir des temps de sortie d’un ensemble par des processus
multivariés), ainsi que pour certains problème d’allocation optimale de la réserve
initiale : comment répartir de manière optimale la réserve globale entre les branches
d’activités , par exemple de manière à minimiser la somme des intégrales des parties
négatives des processus de réserve de chaque branche ?
(ii) Solvabilité, Gestion des risques d’entreprise et prise en compte des nonstationnarités et des dépendances
Dans cette partie nous présenterons les grands principes de la nouvelle
réglementation prudentielle européenne, Solvabilité II et le modèle mathématique
sous-jacent. Ensuite, dans une perspective de gestion des risques d’entreprise, nous
expliquerons comment calculer des probabilités de ruine en présence de crises de
corrélation ou en prenant en compte la stratégie d’adaptation de la tarification de
l’assureur à la sinistralité passée en utilisant la théorie de la crédibilité. Ces modèles
sont des généralisations du modèle de Cramer Lundberg (qui sera introduit par
Patrice Bertail) dans lesquels soit les montants de sinistres ne sont plus
nécessairement indépendants et identiquement distribués, mais peuvent devenir
soudainement très positivement dépendants, soit le taux de cotisation n’est plus
déterministe mais est lui-même fonction de l’historique du processus, qui n’est plus à
accroissements indépendants et stationnaires.
Eric Parent :
Considérations décisionnelles pour la construction d’un ouvrage de protection
contre les crues
Statistique inférentielle d’un côté et analyse des décisions de l’autre côté ont
longtemps été séparées dans les préoccupations des chercheurs et des ingénieurs.
Lors de l’étude de la construction d’un ouvrage de protection contre les crues, par
exemple, on a d’abord principalement cherché à estimer, au mieux, les paramètres
incertains des modèles : l’expression au mieux signifie selon des critères de valeurs
choisis de façon arbitraire car même si ce choix obéit à une certaine logique du
mathématicien, les considérations décisionnelles n’y ont guère leur part. Le choix
des décisions opérationnelles s’opère traditionnellement dans une phase ultérieure,
séparée de l’inférence, et comme si les paramètres des modèles étaient parfaitement
connus, en appliquant souvent forfaitairement un coefficient de sécurité
multiplicateur. Dans l’approche bayésienne au contraire, la distribution a posteriori
du ou des paramètres récapitule tout le savoir mobilisé pour porter un jugement à
partir des données expérimentales et du savoir a priori. Le choix d’une décision
basée sur cette distribution a posteriori doit faire intervenir ses conséquences,
évaluées au moins sommairement. Une telle évaluation peut paraître difficile ou
prématurée, pourtant aucun modélisateur ne travaille jamais sans idée des suites de
ses jugements et propositions. Il suffit bien souvent de prendre en compte une
fonction de coût forfaitaire donnant une indication très qualitative des conséquences.
C’est le lien entre le jugement sur échantillon (celui qu’on a sous la main) et la prise
de décision finale avec ses coûts qui fait d’ailleurs l’efficacité de la démarche
bayésienne. Formellement, le choix d’une décision implique de supporter des
conséquences incertaines. Celles-ci s’expriment par une fonction de coût
conditionnée conjointement par la décision et l’état de la nature. La théorie de la
décision en avenir incertain développe ce concept en l’articulant avec les éléments
du modèle bayésien. D’un point de vue pratique –et dans le domaine de l’ingénierie
hydraulique qui nous intéresse ici- la prise en compte de l’incertitude se traduit par la
mise en œuvre d’un surdimensionnement de protection par rapport à l’approche
classique.