MEMOIRE PERRIN Mickaël

Transcription

MEMOIRE PERRIN Mickaël
EURIA — EURo Institut d’Actuariat
Mémoire présenté devant le jury de l’EURIA en vue de l’obtention du
Diplôme d’Actuaire EURIA
et de l’admission à l’Institut des Actuaires
le 28 septembre 2012
Par :
Mickaël PERRIN
Titre : Calibration des Undertaking Specific Parameters et leurs impacts sur les fonds propres
Confidentialité : oui, un an. Les signataires s’engagent à respecter la confidentialité indiquée.
Entreprise
Altia
Signature :
Membre présent du jury de l’Institut
des Actuaires
Signature :
Membres présents du jury de l’EURIA
Directeur de mémoire en entreprise
Delphine DO HUU
Signature :
Invité
Signature :
Autorisation de publication et de mise en ligne sur un site de diffusion
de documents actuariels
(après expiration du délai de confidentialité)
Signature du responsable entreprise
Signature du candidat
Bibliothèque :
Secrétariat :
EURIA
EURo Institut
d’Actuariat
6, avenue le Gorgeu
CS 93837
29238 Brest Cedex 3
T +33 (0)2 98 01 66 55
F +33 (0)2 98 01 66 57
[email protected]
Résumé
La mise en place de la nouvelle directive prudentielle Solvabilité 2 force les compagnies d’assurance
à changer leur prise en compte des risques. Dans cette configuration, nous nous intéressons dans
le mémoire au besoin de fonds propres lié au risque de réserve et de prime du module de souscription non-vie. Ce risque a la particularité de laisser la possibilité aux entreprises d’intégrer leurs
propres données dans leurs calculs, avec l’utilisation des Undertaking Specific Parameters (USP).
Les méthodes de calcul de ces paramètres doivent s’adapter aux nouvelles problématiques de Solvabilité 2, comme estimer les réserves à un horizon d’un an plutôt qu’à l’ultime.
L’objectif du mémoire est d’analyser et de tester les différentes méthodes de calcul des USP
afin de vérifier qu’elles soient opérationnelles et robustes aux particularités de l’assurance non-vie.
Une alternative aux méthodes proposées par l’European Insurance and Occupational Pensions
Authority (EIOPA) pour le risque de réserve est développée dans le mémoire ; et dans les cas
nécessaires, des solutions on été proposées pour rendre applicable ces méthodes.
La réassurance permet de réduire la volatilité du résultat d’une entreprise, aussi dans la
dernière partie du mémoire nous avons étudié les répercutions éventuelles sur la volatilité du
risque de réserve et de prime via l’utilisation des USP.
Mots-clé
Solvabilité 2, Undertaking Specific Parameters (USP), assurance non-vie, réassurance, risque de
réserve, risque de prime.
i
Abstract
The implementation of the new prudent directive Solvency 2 forces insurance companies to change
their consideration of the risks. In this configuration, we are interested in the report in the need
of own funds connected with the risk of reserve and premium of the no-life subscription module.
This risk has the particularity to let the possibility to the companies to integrate their own data
into their calculations, with the use of Undertaking Specific Parameters (USP). The methods of
calculation of these parameters have to adapt themselves to the new problems of Solvency 2, as
to estimate the reserves at a horizon of one year rather than at the ultimate.
The objective of the report is to analyze and to test the various methods of calculation of the
USP to verify they are operational and strong in the peculiarities of the no-life insurance. An alternative in the methods proposed by European Insurance and Occupational Pensions Authority
(EIOPA) in the case of the reserve risk is developed in the report; and when it was necessary,
solutions are proposed to make the methods applicable.
The reinsurance allows to reduce the volatility of the result of a company, in the last part of
the report we have studied the reflections on the volatility of the risk of reserve and premium
with the use of the USP.
Key words
Solvency 2, Undertaking Specific Parameters (USP), no-life insurance, reinsurance, reserve risk,
premium risk.
ii
Synthèse
Mots-clés
Solvabilité 2, USP, Merz Wüthrich, risque de réserve, risque de prime, Bootstrap un an, réassurance, assurance non-vie
Depuis quelques années, plusieurs crises d’une grande intensité ont frappé le monde entier.
Avec la mondialisation et les interconnexions des différents acteurs du secteur financier, une crise
nationale devient rapidement une crise internationale. C’est dans une optique prudentielle que
les réformes Bâle 1 et Solvabilité 1, respectivement pour le secteur bancaire et assurantiel, ont
vu le jour. La directive Solvabilité 1 impose des exigences aux assureurs et réassureurs européens
afin de garantir leurs stabilités et le respect de leurs engagements vis-à-vis de leurs assurés. Mais
cette réforme admet d’importantes limites, notamment dans sa prise en compte des risques et
dans sa cohérence avec l’application des normes internationales. Des faiblesses qui peuvent avoir
de lourdes conséquences. C’est pour surmonter ces problèmes et pour mieux préparer les assureurs à affronter les risques qui les menacent, que la réforme Solvabilité 2 a été mise en place.
L’application de cette nouvelle directive prudentielle Solvabilité 2 est fixée à 2014. Elle exige que
les compagnies d’assurance soient couvertes en capital contre des scénarios défavorables pouvant
arriver dans l’année à venir. Les assureurs ont plusieurs choix pour satisfaire ces exigences : ils
peuvent construire un modèle interne, un modèle interne partiel, ou encore utiliser la formule
standard.
Les undertaking specific parameters (USP) propose, dans le cadre du risque de prime et de
réserve du module de souscription non-vie, une alternative à la formule standard et au modèle
interne. Le modèle interne permet à une compagnie de modéliser précisément ses risques et de
mesurer ses exigences en fonds propres en tenant compte des spécificités qui lui sont propres.
Mais sa mise en place demande beaucoup de main d’œuvre et de temps, entraînant un coût élevé,
et nécessitant de plus l’aval de l’autorité de contrôle prudentiel (ACP). Toutes ces contraintes
limitent l’accès à un nombre restreint d’entreprises. La formule standard est quant à elle, très
simple dans son application mais est identique pour tous. Ce qui ne lui permet pas de prendre
les paramètres propres à une compagnie en compte.
L’application des USP consiste à utiliser la volatilité calculée par la compagnie plutôt que
celle imposée par la formule standard. Les entreprises possédant un historique de données assez
iii
iv
important ont la possibilité de mesurer leur risque réel, à la place d’un risque identique pour
toutes les compagnies. En effet, les volatilités proposées par l’European Insurance and Occupational Pensions Authority (EIOPA) sont calculées sur un panel de sociétés, elles ne peuvent pas
refléter les risques individuels pour chaque assurance mais représentent une moyenne du marché.
Les méthodes d’estimation des paramètres de volatilité sont assez simples dans la mise en place et
ne demandent pas de temps de calcul excessif. C’est pourquoi, l’utilisation des USP présente une
solution intéressante pour ces risques. De plus, les formalités vis-à-vis de l’ACP pour l’application
des USP sont nettement moins contraignantes que pour les modèles internes. Les entreprises sont
laissées libres d’utiliser d’autres méthodes que celles proposées si celles-ci sont validées par l’ACP.
Les compagnies d’assurance ont la particularité, contrairement aux autres entreprises, de ne
pas connaître le montant à payer sur leurs engagements ; elles sont donc soumises à un risque de
mauvaise estimation de leur provision : le risque de réserve. La directive Solvabilité 2 assure la
solvabilité d’une entreprise à un horizon un an, pour rester cohérent dans le calcul, la méthode de
provisionnement doit aussi estimer l’incertitude des réserves uniquement sur l’année à venir. Or
cette nouvelle vision bouscule les méthodes déjà établies puisque la grande majorité de celles-ci
ne s’intéressent qu’aux sinistres à l’ultime. C’est pourquoi l’EIOPA propose 3 méthodes pour
mesurer le risque de réserve à un an.
La première est une méthode rétrospective, qui regarde l’erreur de prédiction des best estimate
passés. Elle est simple en compréhension et à mettre en place mais présente un inconvénient de
poids : les entreprises n’ont pas d’historique de best estimate puisqu’ils ne sont apparus dans
le monde assurantiel que très récemment avec la réforme Solvabilité 2. Cette contrainte peut
être surmontée en estimant les best estimate passés, mais il est nécessaire d’avoir beaucoup de
données, et de les estimer dans les conditions du passé. Par conséquent, tant que les compagnies
ne possèdent pas un historique de best estimate suffisant, la méthode 1 ne semble pas être la
plus adéquate pour estimer la volatilité des réserves.
Les méthodes 2 et 3 utilisent toutes les deux la formule fermée de Merz Wüthrich, développée dans l’article Modelling the claims development result for Solvency purposes, publié en 2008.
Cette méthode est basée sur le modèle de Mack et propose une formule qui estime l’erreur de
prédiction des réserves à un an. La différence entre les méthodes 2 et 3 vient de l’estimation des
réserves : la méthode 2 laisse libre l’entreprise dans le choix de l’estimation, alors que la méthode
3 impose Chain Ladder. Mais Merz Wüthrich est basée sur Mack qui est une version stochastique de Chain Ladder, il semble donc que, pour rester dans une certaine logique, l’utilisation
de la formule Merz Wüthrich devrait se faire avec l’utilisation de Chain Ladder pour estimer les
réserves. Par conséquent, la méthode 3 semble plus appropriée que la méthode 2. L’avantage
de Merz Wüthrich est qu’une formule ne demande pas de temps de calculs, et est simple à
mettre en place. Mais le modèle reprend les calculs de Mack, les données doivent donc valider
les hypothèses de ce modèle. De plus, la formule ne s’applique qu’à un triangle stabilisé car
elle ne permet pas la prise en compte des facteurs de queue de développement. Cette restriction
est problématique puisque pour de nombreux triangles, les sinistres ne sont pas encore à l’ultime.
Afin de trouver une méthode plus optimale, des mathématiciens ont proposé des versions
modifiées de la méthode Bootstrap, pour avoir une vision à un an plutôt qu’à l’ultime. Laurent Devineau dans son article One-year reserve risk including a tail factor: closed formula and
bootstrap approaches, développe une version Bootstrap à un an avec l’utilisation de Chain Lad-
v
der. Dans la méthode sont ajoutés des facteurs de queue de développement sur lesquels est
appliquée de la volatilité. Devineau démontre que sa méthode Bootstrap sans facteur de queue
de développement est équivalente à la méthode de Merz Wüthrich. Par conséquent, pour un
triangle stabilisé vérifiant les hypothèses de Chain Ladder, utiliser la méthode de Bootstrap ou
celle de Merz Wüthrich reviendrait au même. Si le triangle n’est pas stabilisé, il devient alors
nécessaire d’utiliser la méthode Bootstrap. Un autre grand avantage de cette méthode vient de
la possibilité de l’adapter avec d’autres méthodes de provisionnement, ce qui ne la limite pas qu’à
Chain Ladder. De plus, contrairement à Merz Wüthrich, la méthode Bootstrap permet d’avoir
la distribution complète des réserves. Il est aussi possible de la modifier pour obtenir l’erreur de
prédiction dans k années, très pratique dans le cadre de l’Own Risk and Solvency Assessment
(ORSA).
Le risque de prime, quant à lui, représente le risque d’une mauvaise tarification, impliquant
que le montant des pertes liés aux sinistres à venir sur un an soit supérieur à celui anticipé dans
le tarif. L’EIOPA propose 3 méthodes pour estimer la volatilité du risque de prime.
Les deux premières méthodes sont rétrospectives, elles calculent l’erreur de tarification sur
les résultats passés. Ces méthodes font l’hypothèse d’un loss ratio constant au cours des années,
une hypothèse rarement vérifiée dans la pratique. En effet, le marché de l’assurance non-vie
présente des cycles, des périodes de fortes rentabilités suivies de périodes de pertes. Une très
forte concurrence pousse les entreprises à accepter des pertes pour gagner des parts de marché.
Et celles-ci profitent d’un événement exceptionnel comme une catastrophe naturelle pour justifier des augmentations tarifaires, et ainsi entrer dans une période de profits. La présence de
cycle rend l’hypothèse d’un loss ratio constant impraticable puisque l’erreur de tarification serait
surévaluée. L’erreur de tarification est l’écart entre le résultat obtenu et celui prévu. Pour être
plus réaliste, il faudrait appliquer à la méthode 1 les loss ratio prévus en début d’année par
l’entreprise, et les comparer avec ceux obtenus. Cela permettrait ainsi d’obtenir la vraie volatilité historique des primes. Mais pour cela, il est nécessaire que les compagnies aient un historique
de données suffisant pour les recalculer dans les conditions de l’époque.
La troisième méthode est basée sur le modèle Swiss Solvency Test, elle estime la volatilité
des pertes de l’année à venir en émettant l’hypothèse que la fréquence et la charge des sinistres
sont des variables aléatoires. La méthode joue sur la fréquence des sinistres ; c’est pourquoi il est
nécessaire d’avoir des Lines of Business (LoB) avec une fréquence de sinistres importante et constante dans le temps comme l’assurance de voiture ou d’habitation...Cette méthode a l’avantage
d’être moins sensible aux phénomènes de cycle que les autres. Mais elle demande plus de données, comme le nombre de sinistres attendus chaque année, ou encore le détail de chaque sinistre.
La réassurance couvre les entreprises contre de futures pertes exceptionnelles. Cette garantie
permet aux assureurs de limiter leur exposition aux risques, et les assure d’une certaine stabilité
dans leur résultat. Nous avons voulu étudier les conséquences de ce gain de volatilité sur les
USP. Pour cela, nous avons analyser les différents résultats obtenus en faisant varier les franchises de traités de réassurance. Il ressort logiquement que la réassurance diminue le besoin de
fonds propres d’une compagnie ; mais cette différence s’explique principalement par la baisse de
volume du best estimate des réserves et du montant de primes après réassurance. L’effet sur la
volatilité a par contre été moins important que prévu, elle est dans l’ensemble diminuée après
réassurance, mais pas de façon significative.
vi
Nous pouvons nous demander si, sur des données réelles et non construites par des simulations
de lois, l’influence de la réassurance aurait été identique. C’est une étude intéressante pour une
assurance car elle permet d’appréhender le niveau de réassurance le plus rentable comparé à son
prix. De plus, elle montre les conséquences de l’utilisation des USP avec son programme de
réassurance.
Les méthodes analysées dans le mémoire présentent toutes des inconvénients de taille. Afin
d’avoir une idée précise de la qualité et la robustesse de ces méthodes, il faudra attendre que la
mise en place de Solvabilité 2 soit terminée et que les entreprises possèdent plusieurs années de
retours sur ces méthodes.
Synthesis
Keywords :
Solvency 2, USP, Merz Wüthrich, reserve risk, premium risk, Bootstrap in one year, reinsurance,
no-life insurance
Since a few years, several crisis of great intensity struck the whole world. With globalization and the interconnections between the various actors of the financial sector, a national crisis
quickly becomes an international crisis. It is in a prudential perspective that the Basel 1 and
Solvency 1 reforms, respectively for the banking and insurance-related sector, came to light. The
Solvency 1 directive imposes requirements to the European insurers and reinsurers to guarantee
their stability and the respect of their commitments towards their policyholders. But this reform
has significant limitations, in particular in the consideration of risks and in its coherence with the
application of the international standards. Weaknesses which can have heavy consequences. It
is in order to overcome these problems and to prepare better the insurers to face the risks which
threaten them, that the Solvency 2 reform has been developped. The application of this new
prudent directive Solvency 2 is fixed in 2014. It requires that insurance companies are covered
in capital against unfavourable scenarios arrived within the next year. The insurers have several
choices to satisfy these requirements: they can build an internal model, a partial internal model,
or still use the standard formula
Undertaking specific parameters (USP) offer, in the context of premium and reserve risks of
the non-life underwriting risk module, an alternative to the standard formula and the internal
model. The internal model allows a company to model its risks exactly and to measure its requirements in own funds by taking into account its own specificities. But its implementation,
which requires much work and time, leading to a high cost, is also subject to the approval of the
Prudential Supervisory Authority (ACP). As a result of all these constraints, only big companies
can afford to build an internal model. The standard formula calls for a very simple application
but is identical for all. Consequently, it cannot take into account the parameters specific to a
company.
The use of USP consists in using the volatility calculated by the company rather than that
imposed by the standard formula. Companies with quite a large historical data are therefore
able to measure their real risk, instead of an identical risk for all companies. The volatilities
vii
viii
suggested by the European Insurance and Occupational Pensions Authority (EIOPA) are calculated on a panel of companies, they cannot reflect individuals risks for each insurance company
but represent a market average. Methods to estimate the parameters of volatility allow for a
fairly simple implementation and do not require excessive calculation time. Thus, the use of the
USP presents an interesting solution to estimate premium and reserve risk. Furthermore, the
formalities towards the ACP for USP application are significantly less stringent than for internal
models. Companies are allowed to use others methods, as long as they are validated by the ACP.
Insurance companies have the particularity, contrary to other companies, of not knowing the
amount to be paid on their commitments; they are affected by the risk of a bad estimation of
the reserving: The reserve risk. The Solvency 2 directive ensures the solvency of a company in
one-year time horizon, consequently, the reserving method has to estimate the uncertainty in
one year. Yet this new vision shakes up already established methods because the great majority
of these are only interested in the ultimate claim costs. That is why EIOPA proposes 3 methods
to measure reserve risk in one year’s time.
The first one is a retrospective method, which looks at the error of prediction of past best
estimate. It is relatively easy to understand and implement but has one major drawback : companies have no history of best estimate because they appeared in the insurance-related world
only recently with the Solvency 2 reform. This constraint can be overcome by estimations of
past best estimate, but it is necessary to have many data, and to estimate them in the conditions
of past. Consequently, as long as companies do not possess enough history of best estimate, the
method 1 does not seem to be the most adequate to estimate the volatility of reserves.
The methods 2 and 3 use both the closed formula by Merz Wüthrich, developed in the article
Modelling the claims development result for Solvency purposes, published in 2008. This method
is based on the model of Mack and provides a formula which estimates the error of prediction of
the reserves in one year. The difference between the methods 2 and 3 comes from the estimation
of the reserves: the method 2 leaves free the company in the choice of the estimation, while
the method 3 imposes Chain Ladder. But Merz Wüthrich is based on Mack who is a stochastic
version of Chain Ladder, thus to be logic, the use of the formula Merz Wüthrich should be made
with the use of Chain Ladder to estimate the reserves. Consequently, the method 3 seems more
appropriate than the method 2. The advantage of Merz Wüthrich is that a formula does not
ask for calculation time, and is simple to set up. Furthermore, the formula applies only to a
closed triangle because she does not allow the consideration of the tail factor. This limitation is
problematic, because for numerous triangles, the claims are not at the ultimate.
To find a more optimal method, mathematicians suggested modified versions of the Bootstrap method, to have a vision in one year rather than in the ultimate. Laurent Devineau in
its article One-year reserve risk including has tail factor: closed formulated and bootstrap approaches, develops a Bootstrap version in one year with the application of the method Chain
Ladder for the estimation of the reserves. In the method, tail factor are added with volatility
on it. In its article, Devineau demonstrates that its method Bootstrap without tail factor is
equivalent to the method of Merz Wüthrich. Consequently, for a closed triangle which verifies
the hypotheses of Chain Ladder, using the method of Bootstrap or Merz Wüthrich method would
return the same result. But if the triangle is not closed, then it is necessary to use the method
Bootstrap. Another big advantage of this method comes from the possibility to adapt it with
ix
another reserving method in case the hypotheses of Chain Ladder would not be verified. Furthermore, unlike Merz Wüthrich who gives only the first two moments of reserves, it allows to have
the complete distribution. It is also possible to modify it to obtain the error of prediction in k
years, very convenient within the framework of the Own Risk and Solvency Assessment (ORSA).
Premium risk itself represents the risk of a bad pricing which would mean that losses from
claims arisen in the year might be superior to those anticipated in the price. The EIOPA provides
3 methods to consider the volatility of the premium risk.
The first two methods are retrospective, they calculate the pricing error on the past results.
The assumptions in these methods are a constant loss ratio over the years, a rarely verified assumption in practice. Indeed, the market of non-life insurance presents cycles, periods of strong
margins followed by periods of losses. Intense competition forces companies to accept losses to
gain market shares. And these take advantage of an exceptional event as a natural disaster to
justify price increases, and so they enter in a period of profits. The presence of cycle makes
the constant loss ratio hypothesis impracticable because the method would overvalue the pricing
error in a significant way. The pricing error is the difference between actual and expected result.
To be more realistic, it would be necessary to apply to the method 1, the loss ratio that would
have been planned by the company at the beginning of the year, to compare them with those
obtained, and then it would makes it possible to get the premiums real historical volatility. But
to do so, companies must have kept previous data in order to recalculate them in the conditions
of the time.
The third method is based on the model Swiss Solvency Test, it estimates the volatility
for losses of the year to come. To that end, it is assumed that the frequency and the amount
of claims are random variables. The method uses claims frequency. Thus it requires Lines of
business (LoB) with an significant and constant frequency of claims over time as the motor or
property insurance... This method has the advantage to be less sensitive to the phenomena of
cycle than the others. However, it requires more data, such as the number of claims expected
every year, or the detail of each claim.
The reinsurance covers companies against unexpected future losses. This guarantee allows
the insurers to limit their risk exposure, and insures them of a certain stability in the result. We
wanted to study the consequences of these earnings of volatility on the USP. For that purpose,
we made vary the treaties of reinsurance and analyze the results. It emerges logically that the
reinsurance decreases the need of own funds of a company; but the effect volume is important
because the best estimate reserves and the amount of premiums fall after reinsurance. The effect
on the volatility was less important on the other hand than planned. The volatility is decreased
after reinsurance, but not in a significative way.
We can wonder if on real data and not built by simulations of distributions, the influence of
the reinsurance would have been identical. It is an interesting study for an insurance because she
allows to arrest the most profitable level of reinsurance compared with her price. Furthermore,
it shows the consequences of the use of the USP with its program of reinsurance.
The methods analyzed in the report present quite important inconveniences. To have a specific
idea of the quality and the robustness of these methods, it will be necessary to wait that the
development of Solvency 2 is ended and that companies possess several years of returns on these
x
methods.
Remerciements
Je tiens tout d’abord à remercier l’ensemble des associés, pour m’avoir donné l’opportunité d’effectuer mon stage de fin d’études au sein de leur société.
Je tiens à remercier pour leur accessibilité, leur suivi et leurs conseils très formateurs, Hervé
DOUARD, en qualité de président d’Altia et Marie-Christine BRASSIER, en qualité d’associée.
Je remercie tout particulièrement Delphine DO HUU et Clément CALARD pour leurs précieux conseils ainsi que leur disponibilité tout au long de mon stage.
J’adresse également ma sympathie à l’ensemble des collaborateurs d’Altia pour leur accueil
et leur disponibilité, et spécialement à Fabien BESSEYRE, Guillaume GERBER et Étienne
GUILLOU pour leur aide.
Mes remerciements s’adressent enfin à l’ensemble du collège de direction de l’EURIA pour
m’avoir permis de suivre cette formation de qualité en un an, et à Vincent SOULAS pour ses
conseils et son suivi tout au long de la rédaction de mon mémoire.
xi
Table des matières
Résumé
i
Abstract
ii
Synthèse
iii
Synthesis
vii
Remerciements
xi
Table des matières
xii
Liste des tableaux
xiv
Table des figures
xv
Introduction générale
1
I Contexte théorique
3
1 Solvabilité 2 et cadre réglementaire
1.1 Solvabilité 1 . . . . . . . . . . . . . . . . . .
1.2 Solvabilité 2 . . . . . . . . . . . . . . . . . .
1.3 Pilier 1 . . . . . . . . . . . . . . . . . . . . .
1.4 Le SCR risque de réserve et risque de prime
1.5 Undertaking Specific Parameters . . . . . .
2 Méthodes de provisionnements
2.1 Triangle de liquidation . . . .
2.2 Chain Ladder . . . . . . . . .
2.3 Méthode de Mack . . . . . . .
.
.
.
.
.
4
4
5
8
11
13
classiques
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
16
17
18
xii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
TABLE DES MATIÈRES
2.4
xiii
Bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
II Undertaking Specific Parameters
21
1 Données
1.1 Présentation des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Vérification des hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22
22
24
2 Risque de réserve
2.1 Méthode 1 . . . . . . . .
2.2 Méthode Merz Wüthrich
2.3 Bootstrap à un an . . .
2.4 Résultats . . . . . . . .
.
.
.
.
28
28
32
37
43
3 Risque de prime
3.1 Méthodes 1 et 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Méthode 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
48
48
53
55
4 Risque de prime et de réserve
58
IIIImpact de la réassurance sur le SCR
60
1 Présentation
1.1 Construction de la base sinistre . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Traité de réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Risque de contrepartie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
61
62
64
66
2 Application
2.1 Hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
68
68
69
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Conclusion générale
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
78
Bibliographie
80
Glossaire
82
Annexes
I
Données risque de réserve et de prime
I
Formule de la méthode 3 du risque de prime
II
Liste des tableaux
1.1
1.2
Crédibilité pour les branches Third-party liability, Motor vehicle liability et Credit and
suretyship . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Crédibilité pour les autres branches . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
14
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
Résultats des tests statistiques, LoB Other Motor . . . . . . . . . . . . . . . . . .
Vérification de l’hypothèse de Merz Wüthrich, LoB Other Motor . . . . . . . . .
Best Estimate par LoB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Comparaison des MSEP entre les différentes méthodes . . . . . . . . . . . . . . .
Calcul des USP par LoB en fonction des méthodes . . . . . . . . . . . . . . . . .
Gain de SCR effectué en montant et pourcentage du SCR de la formule standard
Effet des queues de développement sur la volatilité . . . . . . . . . . . . . . . . .
Effet des queues de développement sur le gain en SCR . . . . . . . . . . . . . . .
Effet de l’actualisation sur les USP . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
42
43
43
44
44
45
45
46
47
3.1
3.2
3.3
Volume de prime par LoB . . . . . . . . . . . .
Comparaison des USP risque de prime . . . . .
Gain de SCR effectué sur le risque de prime en
la formule standard . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . .
du SCR de
. . . . . . .
55
56
56
4.1
4.2
4.3
Volume de prime et de réserve par LoB . . . . . . . . . . . . . . . . . . . . . . . . .
Volatilité des primes et des réserves par LoB . . . . . . . . . . . . . . . . . . . . . . .
Gain en SCR sur le risque de prime et de réserve par LoB . . . . . . . . . . . . . . .
58
58
59
1.1
L’indice à la consommation de 1994 à 2009 . . . . . . . . . . . . . . . . . . . . . . .
63
2.1
2.2
2.3
2.4
2.5
2.6
2.7
Informations sur les sinistres de la base . . . . . . . . . . . . . . . . . . . . . . . . .
Risque de réserve brut de réassurance . . . . . . . . . . . . . . . . . . . . . . . . . .
Évolution du risque de réserve en fonction des franchises . . . . . . . . . . . . . . . .
Évolution des USP risque de prime en fonction des franchises . . . . . . . . . . . . .
Gains ou pertes en pourcentage de SCR brut de réassurance en fonction des franchises
Gains ou pertes en pourcentage de la prime de réassurance en fonction des franchises
Effet de l’utilisation des USP sur le SCR risque de prime et de réserve . . . . . . . .
69
72
72
73
74
75
76
1
Volatilité par branche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
xiv
. . . . .
. . . . .
montant
. . . . .
. . . . . . . . .
. . . . . . . . .
et pourcentage
. . . . . . . . .
.
.
.
.
.
.
.
.
.
I
Table des figures
1.1
1.2
ORSA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
La formule standard, QIS 5 Technical Specifications . . . . . . . . . . . . . . . . . . .
7
10
2.1
Triangle de règlements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
1.1
1.2
1.3
Existence de facteur de développement, LoB Other Motor . . . . . . . . . . . . . . .
Indépendance des années de survenance, LoB Other Motor . . . . . . . . . . . . . . .
Existence d’un paramètre de variance, LoB Other Motor . . . . . . . . . . . . . . . .
25
26
27
2.1
2.2
2.3
2.4
2.5
2.6
Explication de l’estimation de l’erreur de prédiction . . . . . .
Vision en N . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Vision en N+1 . . . . . . . . . . . . . . . . . . . . . . . . . .
Explication de la méthode Bootstrap à un an . . . . . . . . .
Distribution de CDR pour la branche Other motor . . . . . .
Comparaison de la fonction de répartition avec la loi normale
31
32
33
40
41
42
3.1
Évolution du ratio sinistres à primes en responsabilité civile automobile de 1988 à 2010 51
2.1
2.2
2.3
2.4
Évolution du ratio prime de réassurance sur prime totale en fonction des
Évolution des USP risque de réserve en fonction des franchises . . . . .
Évolution des USP risque de prime en fonction des franchises . . . . . .
Gain en SCR proportionnellement à la prime de réassurance . . . . . . .
xv
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
franchises
. . . . . .
. . . . . .
. . . . . .
.
.
.
.
.
.
.
.
.
.
71
72
74
75
Introduction générale
Les compagnies d’assurance ont, dans l’ensemble, été solides face aux différentes crises qui sont
apparues ces dernières années. Elles ont surmonté les chocs importants causés par un contexte
difficile et continué à financer largement l’économie. C’est dans l’optique d’assurer la solvabilité
des compagnies d’assurance que la réforme Solvabilité 1 a vu le jour en 1973. Dans la continuation
de cette réforme, la nouvelle directive prudentielle Solvabilité 2 a été introduite afin d’améliorer
le système de gestion des risques.
Son objectif principal est de garantir, pour chaque compagnie, un niveau de fonds propres
capable d’encaisser les scénarios les plus défavorables, et de respecter ses obligations en toutes
circonstances. Pour cela, la réforme Solvabilité 2 fixe des exigences de capital aux entreprises, et
les force à être plus précis dans leur prise en compte des risques qui les menacent.
La solution la plus optimale, pour estimer son besoin de fonds propres en réel adéquation
avec son profil de risque, est la création d’un modèle interne. Mais cela peut être consommateur
de temps et de main d’œuvre, seules les grandes compagnies peuvent pallier ces exigences. C’est
pourquoi l’European Insurance and Occupational Pensions Authority(EIOPA) propose une méthode simplifiée : la formule standard.
Notre étude porte sur l’assurance non-vie, et plus précisément sur le sous-module du risque
de réserve et de prime. Ces risques prennent en compte les conséquences qu’entraînent respectivement, une mauvaise estimation des provisions et une mauvaise tarification. Afin d’estimer
le besoin en fonds propres lié à ces risques, l’EIOPA donne des volatilités pour chaque Lines of
Business (LoB). Mais ces volatilités ont été calculées sur un ensemble de compagnies et représentent une estimation du marché. Les entreprises considérant que ces volatilités ne reflètent pas
leur propre risque peuvent appliquer les Undertaking Specific Parameters (USP).
Dans le QIS 5 Technical Specifications1 , l’EIOPA propose 3 méthodes pour le risque de prime
et 3 autres pour le risque de réserve. Les méthodes possèdent toutes des limites, les entreprises ont
la liberté d’utiliser une méthode alternative sous réserve qu’elle obtienne une validation par l’autorité de contrôle prudentiel (ACP). Ces différentes méthodes seront étudiées dans le mémoire.
L’objectif étant d’analyser les avantages, inconvénients ou encore les conditions d’application des
méthodes. Il est aussi intéressant d’observer les conséquences réelles de l’utilisation des USP, et
de vérifier si l’impact sur l’exigence de fonds propres est significatif ou bien s’il ne joue seulement
1
cf Bibliographie
1
Table des figures
2
que de façon négligeable.
La nouvelle réforme réglemente le niveau de fonds propres nécessaire pour couvrir les risques
de l’année à venir. Pour être en adéquation avec elle, il est indispensable de calculer la volatilité
des réserves sur l’année prochaine. Cette nouvelle vision bouscule les méthodes de provisionnement classiques qui s’intéressent majoritairement aux sinistres à l’ultime. Les mathématiciens
Merz et Wüthrich ont modélisé une formule fermée basée sur la méthode de Mack, afin d’estimer la volatilité des réserves à un an. Cette méthode fait partie des propositions de l’EIOPA.
D’autres mathématiciens ont développé des adaptations de la méthode Bootstrap, qui proposent
une bonne alternative aux différentes méthodes proposées.
La réassurance permet aux entreprises de lisser leurs résultats au cours du temps en les protégeant contre les pertes exceptionnelles. Naturellement, la réassurance influe sensiblement sur
le risque catastrophe, mais le gain en stabilité qu’elle apporte a aussi des conséquences sur le
risque de prime et sur celui de réserve. Comme l’utilisation des USP donne une vision plus réelle
de ces risques pour une compagnie, appliquer les USP permet de mettre en avant l’impact de la
réassurance sur la volatilité de ces risques.
Dans ce mémoire, nous commencerons par introduire le contexte théorique indispensable à
la compréhension du sujet ; avec, notamment, une présentation des risques appréhendés par les
USP, et une description des méthodes de provisionnement utilisées dans la suite du mémoire.
Dans la deuxième partie, nous analyserons les méthodes de calculs des USP et vérifierons la
pertinence dans leur application. Le marché de l’assurance non-vie a ses propres spécificités et
nous étudierons, par exemple, la résistance des méthodes face aux phénomènes de cycle. L’objectif
étant d’être le plus précis et complet dans l’étude, nous déterminerons la marche à suivre pour
une entreprise qui souhaite utiliser les USP. Les méthodes sont testées avec des données venant
de la réalité afin d’avoir des exemples concrets. La qualité des données est un des éléments clé de
la réforme Solvabilité 2, c’est pourquoi nous détaillerons les données utilisées dans le mémoire.
La dernière partie étudie les conséquences de la réassurance sur la volatilité du risque de prime
et de réserve, et son impact sur l’exigence de fonds propres.
Première partie
Contexte théorique
3
Chapitre 1
Solvabilité 2 et cadre réglementaire
Les organismes bancaires et les compagnies d’assurances se différencient des autres entreprises
par l’incertitude de leurs résultats due aux événements aléatoires. Or pour faire face à leurs
obligations vis-à-vis des clients, il est nécessaire d’avoir un niveau de fonds propres suffisant,
c’est pourquoi ces organismes sont soumis à des directives particulières.
1.1
Solvabilité 1
Les premières normes européennes de solvabilité des organismes assureurs datent de 1973, et ont
été mises à jour en 2002 avec la création de Solvabilité 1, système toujours en place actuellement.
Solvabilité 1 (S1) s’appuie sur trois grands principes : calculer les engagements de façon prudente,
avoir un portefeuille d’actifs sûrs, liquides et dispersés, et disposer d’une marge de solvabilité
supérieure à la marge réglementaire.
Mais la réforme Solvabilité 1 présente certaines faiblesses notamment dans la prise en compte
des risques, et dans son manque de cohérence avec l’application des normes IFRS (International
Financial Reporting Standards).
Les différentes critiques envers S1 sont :
• Une vision uniquement rétrospective, S1 regarde seulement le passé pour estimer le futur.
• Pas de distinction des risques.
• Certains risques ne sont pas pris en compte.
• Pas de surveillance sur le contrôle interne.
• Non satisfaction des exigences internationales et notamment des normes US-GAAP et IASIFRS.
Dans l’optique de pallier ces limites, la Commission Européenne a lancé en 2001 la directive
Solvabilité 2.
4
CHAPITRE 1. SOLVABILITÉ 2 ET CADRE RÉGLEMENTAIRE
1.2
5
Solvabilité 2
Objectifs
Solvabilité 2 est une directive de l’Union Européenne s’adressant aux assureurs et réassureurs
européens à l’horizon 2014. Elle a pour objectif de fixer des normes prudentielles afin de mieux
prendre en compte les besoins en fonds propres des compagnies d’assurances par rapport aux
risques qu’elles supportent.
Acteurs
Les différents acteurs de la réforme Solvabilité 2 sont :
Commission Européenne : Elle a un rôle législatif de rédaction et pilotage de la directive en
collaboration avec les états membres.
EIOPA : L’European Insurance and Occupational Pensions Authority, anciennement le CEIOPS
(Committee of European Insurance and Occupentional Pensions) est un comité regroupant les
autorités de contrôle des états membres. L’EIOPA a mené des études d’impacts afin de mesurer les conséquences des nouvelles réglementations sur le marché assurantiel, sa dernière étude
quantitative est le QIS 5.
ACP : L’Autorité de Contrôle Prudentiel a pour objectif de vérifier l’application des nouvelles
réglementations par les organismes d’assurance en France. Elle a le pouvoir de sanction en cas
de non respect de ces règles.
Professionnels de l’assurance : Ils ont un rôle important dans l’élaboration de la directive en
effectuant des retours sur les « Consultation Papers », ce qui permet de voir les points d’amélioration et les difficultés dans l’application de la réforme. Les professionnels de l’assurance participent
également aux études quantitatives QIS.
Processus Lamfalussy
La réforme Solvabilité 2 utilise le processus législatif Lamfalussy, déjà opérationnel dans la
conception des réglementations du secteur financier. Ce système porte le nom d’Alexandre Lamfalussy, le président du comité consultatif qui le mis au point en 2001, et a pour objectif d’assurer
un dialogue entre les acteurs du marché et le législateur. Ce processus est composé de 4 niveaux :
Niveau
Niveau
Niveau
Niveau
1
2
3
4
:
:
:
:
L’élaboration de la législation.
L’élaboration des mesures d’exécution.
Coordination des travaux entre les différents régulateurs.
Contrôle de l’application.
Les 3 piliers
La réforme Solvabilité 2 est organisée en 3 piliers distincts, représentant les besoins quantitatifs,
qualitatifs et la nécessité d’harmoniser et d’améliorer la communication entre les différents ac-
CHAPITRE 1. SOLVABILITÉ 2 ET CADRE RÉGLEMENTAIRE
6
teurs.
Pilier 1 : Le pilier 1 concerne les exigences quantitatives en capital, il s’attache à vérifier
que la compagnie d’assurance puisse faire face à ses engagements sur un horizon d’un an. Nous
le détaillerons plus loin dans ce chapitre.
Pilier 2 : Le deuxième pilier fixe des normes qualitatives de contrôle des risques en interne.
Il a pour objectif d’assurer une meilleure sécurité pour les assurés européens, d’harmoniser les
pratiques en Europe, et de mettre la réglementation et le contrôle des entreprises d’assurance
aux normes par rapport aux autres réglementations financières ainsi qu’aux progrès en matière
de gestion des risques.
Les assureurs doivent également vérifier s’ils sont solvables selon leur propre vision des risques.
Ils doivent mettre en place un processus ERM (Entreprise Risk Management), qui définit la
discipline utilisée par toutes les entreprises (pas uniquement les entreprises d’assurance) pour
assurer une maîtrise de leurs risques. La démarche ERM s’effectue en plusieurs étapes :
• Un système de gouvernance et une organisation qui tient compte de la gestion des risques
pour la mise en œuvre de la stratégie de l’entreprise.
• La définition d’une tolérance aux risques.
• Une évaluation interne du risque (Own Risk and Solvency Assessment) afin de valider qu’on
est à l’intérieur des limites fixées et de vérifier que le système de contrôle des risques est
opérationnel et efficace.
• Un réseau d’information et reporting avec un système de « feedback » et une organisation
qui garantit que le dispositif de gestion des risques reste efficace en cas de crise, d’émergence
de nouveaux risques, de déviation par rapport aux limites.
Dans le cadre de son système de gestion des risques, les compagnies d’assurance procèdent à
une évaluation interne des risques et de la solvabilité avec la création d’un processus ORSA. A
la différence du pilier 1, l’ORSA a pour objectif de s’assurer de la solvabilité pluriannuelle de
l’assureur en prenant en compte la stratégie de l’entreprise et ses spécificités dans les calculs.
L’autorité de contrôle aura la possibilité de demander à l’entreprise de posséder un capital plus
important que celui calculé dans le pilier 1 (capital add-on), et aussi de diminuer son exposition
à certains risques.
Pilier 3 : Ce pilier vise à améliorer la communication aux régulateurs et au public et à
harmoniser l’information, pour cela l’assureur doit produire trois supports de communication :
• Le SFCR (Solvency and Financial Conditions Report), qui est un rapport annuel ayant
pour objectif de présenter la situation financière des entreprises au public.
• Le RSR (Regular Supervisory Reporting), autre rapport annuel servant de base à l’autorité
de contrôle prudentiel dans le cadre d’un contrôle.
• Le QRT (Quantitative Reporting Templates), dont la fréquence dépend du template (trimestrielle ou annuelle)
CHAPITRE 1. SOLVABILITÉ 2 ET CADRE RÉGLEMENTAIRE
7
Figure 1.1: ORSA
Les études quantitatives d’impact
Dans l’optique de faciliter la mise en place de Solvabilité 2, la Commission Européenne a demandé
au CEIOPS d’élaborer plusieurs études quantitatives d’impact (Quantitative Impact Studies) auprès des compagnies d’assurance. Ces études permettent d’obtenir des retours précis des acteurs
du marché, et d’opérer en conséquence les changements nécessaires pour améliorer la mise en
pratique de Solvabilité 2.
Le premier QIS est lancé en 2005, il se spécialise sur l’évaluation des provisions techniques. Le
deuxième en 2006 introduit la notion d’exigence de fond propre, et le troisième en 2007 présente
le calibrage des MCR et SCR et aborde pour la première fois les problématiques de groupes. Le
QIS 4 a publié des nouveautés sur les groupes, les modèles internes et sur les calculs techniques ;
la participation des assureurs a été très bonne notamment grâce aux simplifications et aux précisions apportées aux spécifications techniques. Le dernier QIS est sorti en 2010, et les résultats
sont optimistes. Ils montrent que les assureurs et réassureurs européens sont bien préparés, et
vérifient pour la plus part les exigences de fonds propres.
Une version draft des Implementing Measures Solvency 2 est sortie en Octobre 2011, mais ce
n’est pas une version définitive, et la partie concernant les Undertaking Specific Parameters est
moins détaillée. Par conséquent, afin d’avoir une base fixe, nous utiliserons les hypothèses et les
spécifications techniques du dernier QIS tout au long du mémoire.
CHAPITRE 1. SOLVABILITÉ 2 ET CADRE RÉGLEMENTAIRE
1.3
8
Pilier 1
L’ensemble des définitions est tiré du QIS 5 Technical Specifications.
Les actifs et les passifs
La réforme Solvabilité 2 impose d’estimer les actifs et les passifs en valeur de marché :
1. V3 « Assets should be valued at the amount for which they could be exchanged between
knowledgeable willing parties in an arm’s length transaction ; »
2. V3 « Liabilities should be valued at the amount for which they could be transferred, or
settled, between knowledgeable willing parties in an arm’s length transaction. »
Provision technique
Les provisions techniques représentent le montant que l’entreprise doit anticiper pour faire face à
la sinistralité future des contrats en cours et passés. Elles sont inscrites au passif du bilan d’une
compagnie d’assurance. Sous Solvabilité 2, les provisions techniques se calculent en sommant le
Best Estimate et une marge pour risque pour les passifs non réplicables1 .
La réforme Solvabilité 2 impose une segmentation par Line of Business (LoB) dans le calcul
des provisions afin de gérer de façon homogène les différents risques. L’assurance non-vie est
segmentée en 12 branches.
Le Best Estimate
TP.2.1 « The best estimate should correspond to the probability weighted average of future cashflows taking account of the time value of money. »
TP.2.2 « Therefore, the best estimate calculation should allow for the uncertainty in the future
cash-flows. The calculation should consider the variability of the cash flows in order to ensure
that the best estimate represents the mean of the distribution of cash flow values. Allowance for
uncertainty does not suggest that additional margins should be included within the best estimate. »
TP.2.3 « The best estimate is the average of the outcomes of all possible scenarios, weighted according to their respective probabilities.[...] »
Il en ressort que le Best Estimate correspond à la moyenne pondérée des flux de règlements
futurs obtenus par les différents scénarios. Ces flux doivent être actualisés grâce à une courbe
des taux swaps.
Cette définition semble favoriser l’application de méthodes stochastiques dans l’évaluation
du niveau de provisionnement, mais il est cependant ajouté :
TP.2.3 « [...] Although, in principle, all possible scenarios should be considered, it may not be
necessary, or even possible, to explicitly incorporate all possible scenarios in the valuation of the
liability, nor to develop explicit probability distributions in all cases, depending on the type of risks
involved and the materiality of the expected financial effect of the scenarios under consideration.
1
Un passif réplicable est un passif dont les prestations peuvent être répliquées par un instrument financier.
CHAPITRE 1. SOLVABILITÉ 2 ET CADRE RÉGLEMENTAIRE
9
Moreover, it is sometimes possible to implicitly allow for all possible scenarios, for example in
closed form solutions in life insurance or the chain-ladder technique in non-life insurance. »
La Commission Européenne accepte l’utilisation de méthodes déterministes, comme ChainLadder, dans le calcul du Best Estimate.
La marge pour risque
La marge pour risque est défini dans le QIS 5 par :
TP.5.2 « The risk margin is a part of technical provisions in order to ensure that the value
of technical provisions is equivalent to the amount that insurance and reinsurance undertakings
would be expected to require in order to take over and meet the insurance and reinsurance obligations. »
Le SCR la formule standard
La directive Solvabilité 2 impose deux niveaux réglementaire de fonds propres, le MCR (Minimum Capital Requirement) et le SCR (Solvency Capital Requirement). Le MCR est le niveau
minimum de fonds propres qu’une entreprise doit posséder sous peine d’une intervention de l’Autorité de Contrôle Prudentielle, il se calcule en prenant un pourcentage du SCR.
La directive Solvabilité 2 est une réforme prudentielle qui vise à garantir le versement au
client des engagements des assureurs et des réassureurs à un horizon 1 an, et ce même en cas de
situation très défavorable. C’est pourquoi les compagnies d’assurance doivent calculer le SCR qui
correspond à une exigence de fonds propres pour faire face à un scénario de crise qui arriverait
une fois tout les 200 ans. L’EIOPA propose 5 méthodes pour déterminer le SCR :
• La formule standard
• La formule standard et un modèle interne partiel
• La formule standard avec l’utilisation des Undertaking Specific Parameters
• Un modèle interne
• Simplifications
En formule standard, le SCR se calcule avec l’expression suivante :
SCR = BSCR + Adj + SCROp
(1.1)
Avec :
• BSCR (Basic Solvency Capital Requirement), le SCR de base.
• SCROp , le niveau de capital requis pour le risque opérationnel.
• Adj, l’ajustement pour l’absorption des pertes par les provisions techniques et par l’impôt
différé.
CHAPITRE 1. SOLVABILITÉ 2 ET CADRE RÉGLEMENTAIRE
10
Figure 1.2: La formule standard, QIS 5 Technical Specifications
La formule standard est une approche modulaire dans le sens où un besoin en capital élémentaire est calculé pour chaque facteur de risque (taux, concentration,. . .) appartenant à un module
de risque. La formule standard agrège les différents SCR obtenus à l’aide de matrices de coefficients de corrélation linéaires. Elle utilise une approche « bottum-up », une première agrégation
des risques est effectuée au sein de chaque module de risque, c’est une agrégation intra-modulaire,
puis une deuxième est appliquée entre les différents modules, c’est une agrégation inter-modulaire.
La formule standard prend 7 risques en compte :
-
Risque
Risque
Risque
Risque
Risque
Risque
Risque
de marché
de souscription non-vie
de souscription vie
de santé
d’intangibilité des actifs incorporels
de défaut
opérationnel
Ce mémoire s’attache au module de souscription non-vie, et principalement les risques
de réserves et de primes.
Le risque de souscription non-vie
Le risque de souscription regroupe l’ensemble des risques pris par un assureur lors de la distribution de contrats d’assurance. Dans les spécifications techniques du QIS 5, le risque de souscription
non-vie se décompose en trois sous-modules :
CHAPITRE 1. SOLVABILITÉ 2 ET CADRE RÉGLEMENTAIRE
11
• Le risque de réserve et de prime
• Le risque de catastrophe
• Le risque de rachat
Le risque de rachat
Le risque de rachat est défini dans le QIS 5 par :
SCR.9.36.« Non-life insurance contracts can include policyholder options which significantly
influence the obligations arising from them.[...]Where such policyholder options are inclued in a
non-life insurance contract, the calculation of premium provisions is based on assumptions about
the exercice rates of these options. Lapse risk is the risk that these assumptions turn out to be
wrong or needed to be changed. »
Le risque catastrophe
Le risque de catastrophe est défini dans la directive cadre Solvency 2 (Directive 2009/138/EC)
par :
« the risk of loss, or of adverse change in the value of insurance liabilities, resulting from significant uncertainty of pricing and provisionning assumptions related to extreme or exceptional
events. »
Le risque de réserve et de prime
Le risque de prime est un risque de sous tarification, c’est à dire le risque que les montants des
sinistres et des frais liés aux sinistres soient supérieurs à ceux prévus dans la tarification.
Le risque de réserve mesure l’incertitude dans l’estimation des engagements d’une compagnie
d’assurance envers ses assurés. Les montants restant à payer des sinistres déjà survenus ne sont
pas connus au moment du calcul des provisions, il réside donc un risque lié à la sous-évaluation
des réserves.
1.4
Le SCR risque de réserve et risque de prime
Le SCR du risque de prime et de réserve est noté N Lpr dans le QIS 5 Technical Specifications
et se calcule avec la formule suivante :
N Lpr = ρ(σ) × V
Avec :
• V = Volume
• σ = Une estimation de l’écart type du portefeuille non-vie
• ρ(σ) = Fonction de cet écart type
(1.2)
CHAPITRE 1. SOLVABILITÉ 2 ET CADRE RÉGLEMENTAIRE
12
La distribution des pertes est supposée Lognormale, La fonction ρ(σ) est définie par :
p
exp(N0.995 × log(σ 2 + 1))
√
−1
ρ(σ) =
σ2 + 1
(1.3)
Où :
N0,995 = Le quantile à 99,5% de la loi normale centrée réduite
Le volume et l’écart type sont calculés pour chaque LoB et pour chaque risque (prime et
réserve), puis ils sont agrégés pour obtenir un volume et un écart type global.
Le Volume
Le volume du risque de prime pour un LoB donné est défini par la relation suivante :
t,written
t,earned
t−1,written
PP
V(prem,lob) = max(Plob
, Plob
, Plob
) + Plob
Où :
t,written
• Plob
= Estimation du montant de primes émises durant l’année à venir pour chaque
LoB
t,earned
• Plob
= Estimation du montant de primes acquises durant l’année à venir pour chaque
LoB
t−1,written
• Plob
= Estimation du montant de primes émises durant l’année qui vient de s’écouler
pour chaque LoB
P P = Valeur actuelle probable des primes attendues après l’année à venir pour chaque
• Plob
LoB
Le volume du risque de réserve pour un LoB est représenté par son Best Estimate des provisions
de sinistres P COlob :
V(res,lob) = P COlob
Le volume global de l’entreprise pour le risque de tarification et de provisionnement se calcule
par :
V =
P
Vlob
lob
où Vlob est défini par :
Vlob = (Vprem,lob + Vres,lob ) × (0.75 + 0.25 × DIVlob )
DIVlob est un coefficient de diversification géographique pour chaque LoB
(1.4)
CHAPITRE 1. SOLVABILITÉ 2 ET CADRE RÉGLEMENTAIRE
13
La volatilité
La volatilité globale pour le risque de réserve et de prime du SCR de souscription non-vie est
calculée en agrégeant les différentes volatilités de chaque LoB avec une matrice de corrélation :
v
u
u 1 X
σ = t 2.
CorrLobr,c .σr .σc .Vr .Vc
V
(1.5)
r,c
Avec :
• V est le volume global
• CorrLob est la matrice de corrélation entre les différents LoB
• r,c sont des indices de LoB
• Vr , Vc sont les volumes des LoB représentés par les indices r et c
La formule suivante donne la volatilité par LoB qui est une agrégation entre le risque de prime
et le risque de réserve, en considérant un coefficient de corrélation α.
q
(σ(prem,lob) V(prem,lob) )2 + 2ασ(prem,lob) σ(res,lob) V(prem,lob) V(res,lob) + (σ(res,lob) V(res,lob) )2
σlob =
V(prem,lob) + V(res,lob)
(1.6)
Les entreprises qui considèrent que les volatilités de marché proposées dans la formule standard ne correspondent pas à leurs risques et que leurs spécificités ne sont pas bien prises en
compte, peuvent utiliser leurs propres données pour calculer le SCR risque de prime et de réserve.
1.5
Undertaking Specific Parameters
L’utilisation d’un modèle interne permet de modéliser précisément le risque encouru par l’entreprise, et d’obtenir un SCR qui prend en compte toutes ses spécificités. Mais la mise en place d’un
tel modèle demande beaucoup de temps et de main d’oeuvre, ce qui limite l’accès aux compagnies
d’assurance de tailles conséquentes. L’application des Undertaking Specific Parameters propose
une alternative aux sociétés n’ayant pas la possibilité de construire un modèle interne et qui
considèrent que la formule standard surestime leur SCR. Les entreprises possédant un historique
suffisant de données sur leurs primes et leur sinistralité passées peuvent appliquer les USP pour
que leurs besoins de fonds propres soient calculés avec leurs propres hypothèses et non celles du
marché.
Lors du QIS 5, l’EIOPA a proposé des méthodes pour que les compagnies puissent calculer
leurs propres volatilités des réserves et des primes. En fonction de son nombre d’années d’historique, la compagnie devra appliquer une méthode de crédibilité pour pouvoir appliquer les USP.
σ = c × σU + (1 − c) × σM
Avec :
CHAPITRE 1. SOLVABILITÉ 2 ET CADRE RÉGLEMENTAIRE
14
• c le facteur de crédibilité
• σU la volatilité estimée par la compagnie.
• σM la volatilité du marché.
Soit NLoB le nombre d’années d’historique que possède l’assureur.
NLoB
C
5
34%
6
43%
7
51%
8
59%
9
67%
10
74%
11
81%
12
87%
13
92%
14
96%
≥ 15
100%
Table 1.1: Crédibilité pour les branches Third-party liability, Motor vehicle liability et Credit
and suretyship
NLoB
C
5
34%
6
51%
7
67%
8
81%
9
92%
≥ 10
100%
Table 1.2: Crédibilité pour les autres branches
L’EIOPA dans le QIS 5 propose 3 méthodes pour le risque de prime et 3 méthodes pour le
risque de réserve qui seront analysées dans la partie 2, la compagnie d’assurance aura aussi la
possibilité de choisir une autre méthode si celle-ci est validée par l’ACP.
Chapitre 2
Méthodes de provisionnements
classiques
A la différence des entreprises classiques, une compagnie d’assurance ne sait pas à l’avance le
montant précis des sommes à verser à ses clients ; il y a là une inversion du cycle de production
par rapport à l’industrie. Pour faire face à ses engagements, l’assurance estime des provisions
qu’elle inscrit au passif de son bilan. Les différentes provisions en assurance non-vie sont :
• Provisions pour sinistres à survenir
– Provisions pour primes non acquises
– Provisions pour risques en cours
• Provisions pour sinistres survenus
– Provisions pour sinistres survenus et déclarés
– Provisions pour sinistres non déclarés
– Provisions mathématiques des rentes
• Autres provisions
– Provisions d’égalisation
– Provisions pour risques d’exigibilité
– Provisions pour risques croissant
C’est la provision pour sinistre à payer (PSAP) qui sera étudiée dans la suite de ce chapitre, elle
correspond à l’estimation de la somme restant à verser à l’assuré. Dans l’article R333-6 du Code
des Assurances, la PSAP est définie par :
« Valeur estimative des dépenses en principal et en frais, tant internes qu’externes, nécessaires
au règlement de tous les sinistres survenus et non payés, y compris les capitaux constitutifs des
rentes non encore mises à la charge de l’entreprise. »
La méthode réglementaire d’évaluation de la PSAP est la méthode dossier-dossier, où l’assureur calcule le montant qu’il reste à payer sur chaque sinistre déclaré non clos, auquel est
ajouté une estimation de la charge des tardifs (sinistres survenus avant la date d’inventaire mais
non connus à la date des calculs). Depuis 1991, l’autorité de contrôle des assurances autorise
15
CHAPITRE 2. MÉTHODES DE PROVISIONNEMENTS CLASSIQUES
16
l’utilisation de méthodes statistiques sous contrainte de son accord. A la différence de l’évaluation dossier-dossier qui est une méthode prospective, l’approche statistique est basée sur des
données historiques, elle nécessite donc des données relativement nombreuses et fiables, un futur
qui suit la même structure que le passé, un passé assez régulier et que la branche soit peu volatile.1
2.1
Triangle de liquidation
Les triangles de liquidation sont des tableaux à double entrée représentant l’évolution des sinistres
(charge, règlements, nombre de sinistre, primes,. . .). Nous travaillerons dans ce mémoire avec des
triangles de règlements cumulés, qui sont de la forme suivante :
Figure 2.1: Triangle de règlements
où :
• i représente l’année de survenance du sinistre.
• j représente l’année de développement du sinistre.
• Cij est le montant cumulé des règlements des sinistres survenus l’année i au bout de j
années de développement.
Dans la suite de ce mémoire, nous faisons l’hypothèse réaliste que le nombre d’années de développement est identique au nombre d’année de survenance.
Soit D = {Ci,j \i + j ≤ N + 1} toute l’information disponible avec le triangle supérieur, et N
le nombre d’année de survenance et de développement.
Les méthodes statistiques permettent d’estimer le triangle inférieur, et de calculer la provision
nécessaire à ces sinistres. Il en existe de toutes sortes, détaillées dans de nombreux mémoires, mais
seules celles qui sont utiles à la compréhension du mémoire seront présentées dans ce chapitre.
1
cf Partrat C. (2007) Provisionnement technique en assurance non-vie. Economica.
CHAPITRE 2. MÉTHODES DE PROVISIONNEMENTS CLASSIQUES
2.2
17
Chain Ladder
La méthode Chain Ladder est une méthode déterministe, très utilisée car elle a pour avantages
d’être très simple dans sa mise en œuvre, de ne pas faire d’hypothèses de loi et de s’appliquer à
des triangles de toutes natures.
Hypothèses 2.2.1
1. Il existe f1 , ..., fN −1 > 0 facteurs de développement tels que ∀i =
1, · · · , N et ∀j = 1, · · · , N − 1 on a :
E[Ci,j+1 \Ci,1 , ...Ci,j ] = E[Ci,j+1 \Ci,j ]
= Ci,j × fj
2. Les paiements cumulés Ci,j des années de survenances i sont indépendants.
Les coefficients Chain-Ladder sont estimés par : ∀j = 1, .., N − 1
NP
−j
fbj =
Ci,j
i=1
NP
−j
Ci,j+1
i=1
A partir des deux hypothèses de la méthode, nous obtenons :2
1. ∀i = 1, .., N
E[Ci,N \DN ] = E[Ci,N \Ci,N −j ]
= Ci,N −i fN −i × ... × fN −1
2. Les facteurs de Chain Ladder fbj sont des estimateurs sans biais et non corrélés.
Il est alors possible d’estimer le montant des paiements cumulés à l’ultime : ∀i = 1, · · · , N
CL
b
Cd
i,N = E[Ci,N \DN ]
= Ci,N −i+1 fbN −i+1 × ... × fbN −1
Ce qui nous permet de calculer la provision par année de survenance, qui correspond à l’estimation
des paiements entre aujourd’hui et l’ultime :
ci = E[C
b i,N \DN ] − Ci,N −i+1
R
CL
= Cd
i,N − Ci,N −i+1
= Ci,N −i+1 (fbN −i+1 × ... × fbN −1 − 1)
b correspond à la somme des provisions par année de survenance. R
b =
Et la provision globale R
N
P
Ri
i=1
2
cf Mack T. (1993) Distribution-free calculation of the standard error of Chain-Ladder reserve estimates.
Munich Re, Munich.
CHAPITRE 2. MÉTHODES DE PROVISIONNEMENTS CLASSIQUES
18
Validation des Hypothèses
La première hypothèse porte sur la linéarité, la méthode Chain Ladder suppose que les facteurs
de développement ne varient pas en fonction des années de survenance, ce qui induit que les
couples (Ci,j+1 , Ci,j ) doivent être relativement alignés sur une même droite pour une année de
développement fixée.
La deuxième hypothèse peut être vérifiée avec un test d’indépendance classique ou en utilisant
le d-triangle, le triangle des facteurs de développement individuel. Si les années de survenance
sont indépendantes, les facteurs de développement individuel sont relativement constant pour
une même année de développement.
Limites de la méthode
La méthode Chain Ladder possède les inconvénients des méthodes déterministes, de plus, elle
présente des incohérences en cas de changement sur le portefeuille et elle est trop sensible à la
volatilité des facteurs de développement. L’estimation à l’ultime de la dernière année de survenance est calculée à partir d’une seule valeur. Ce qui fait qu’elle est presque entièrement estimée
avec les facteurs Chain Ladder, et donc dépend beaucoup de la qualité des facteurs. Les derniers
facteurs sont calculés sur peu de données, notamment pour la dernière année de développement,
sur une seule valeur.
2.3
Méthode de Mack
Le modèle de Mack est une méthode stochastique développée par Thomas Mack en 1993 dans
son article Distribution-free calculation of the standard error of Chain Ladder reserves estimates.
Le modèle de Mack reprend les hypothèses de la méthode de Chain Ladder et en ajoute une sur
les moments d’ordre 2 afin d’estimer l’erreur de prédiction.
Hypothèses 2.3.1
1. Il existe f1 , ..., fN −1 > 0 facteurs de développement tels que ∀i = 1...N
et ∀j = 1, · · · , N − 1 on a :
E[Ci,j+1 \Ci,1 , ...Ci,j ] = E[Ci,j+1 \Ci,j ]
= Ci,j × fj
2. Les paiements cumulés Ci,j des années de survenances i sont indépendants.
2
3. Il existe σ12 , · · · , σN
−1 paramètres de variance tels que ∀i = 1...N et ∀j = 1, · · · , N − 1 on
a:
V ar[Ci,j+1 \Ci,1 , ...Ci,j ] = V ar[Ci,j+1 \Ci,j ]
= Ci,j × σj2
Les facteurs de développement sont estimés de la même façon que dans la méthode Chain Ladder :
NP
−j
fbj =
i=1
NP
−j
Ci,j
Ci,j+1
i=1
CHAPITRE 2. MÉTHODES DE PROVISIONNEMENTS CLASSIQUES
19
Le paramètre de variance est estimé par : ∀0 ≤ k ≤ N − 2
bk2 =
σ
N
−k
X
Ci,k+1
1
Ci,k (
− fbk )2
N − k − 1 i=1
Ci,k
Cet estimateur est sans biais pour k = 1, · · · , N − 2, pour k = N − 1, la variance est estimée
par :
4
bN
σ
−2
2
2
2
bN
bN
bN
σ
, min(σ
−1 = min( 2
−3 , σ
−2 ))
bN −3
σ
La méthode de Mack donne les mêmes résultats que celle de Chain Ladder, mais elle permet en
plus de calculer l’erreur de prédiction sur la provision, en mesurant l’écart quadratique moyen
MSEP (Mean Square Error of Prediction).
M SEP
b 2]
= E[(R − R)
b − E[R])2 ] + E[(R − E[R])2 ]
= E[(R
= M SE + V ar(R)
L’erreur de prédiction peut être séparée en deux, un facteur de variance V (R) (process error),
et une erreur d’estimation MSE.
ci ) peut être estimée par :
Théorème 2.3.2 Sous les 3 hypothèses, la M SEP (R

N
−1
X
ci ) = C
b2
M SEP (R
i,N
d
k=N +1−i

bk2 
σ
 1
1
+ N −k

P
fb2  Cbi,k
k
Cj,k




(2.1)
j=1
Il est alors possible de déduire de ce théorème une estimation de l’erreur de prédiction de la
provision totale :
Corollaire 2.3.3 Sous les conditions du théorème, la MSEP estimée de la provision totale est :


N
N
X
X
d c
d b
M SEP (R) =
{M SEP (Ri ) + Cbi,N 
Cbj,N 
i=2
j=i+1
N
−1
X
k=N +1−i
bk2 /fbk2
2σ
NP
−1
}
(2.2)
Cn,k
n=1
Validation des hypothèses
Les deux premières hypothèses sont les mêmes que pour la méthode Chain Ladder, leurs validation restent identiques. Pour vérifier l’hypothèse d’existence d’un paramètre de variance, il faut
regarder le caractère aléatoire des résidus suivant :
ri,k =
Ci,k+1 − fbk Ci,k
p
Ci,k
Pour que l’hypothèse soit validée, il faut que les résidus montrent un caractère aléatoire.
CHAPITRE 2. MÉTHODES DE PROVISIONNEMENTS CLASSIQUES
2.4
20
Bootstrap
Principe
A la différence de la méthode de Mack qui permet d’obtenir l’estimation des moments d’ordres
1 et 2 des provisions, la méthode Bootstrap présente l’avantage d’estimer la distribution des
provisions. En effet, la théorie du Bootstrap permet de simuler la distribution d’un estimateur
ou d’une statistique de test en ré-échantillonnant des données. La méthode Bootstrap est simple
à utiliser et ne repose sur aucune hypothèse de loi, il suffit de considérer les variables de l’échantillon indépendantes et identiquement distribuées.
La procédure Bootstrap générale peut se résumer en trois étapes :
Soit un échantillon de n variables aléatoires indépendantes et identiquement distribuées.
1. La première étape consiste à un tirage aléatoire avec remise dans l’échantillon pour obtenir
un pseudo échantillon de taille n.
2. La deuxième étape établit la taille de la distribution voulue, et effectue la première étape
T fois afin d’obtenir T pseudo échantillons de taille n créés à partir de l’échantillon initial.
3. La dernière étape permet d’analyser la distribution avec plusieurs mesures comme la variance, la moyenne ou les quantiles de différents niveaux.
Application au triangle de liquidation
Les règlements cumulés (Ci,j )(i,j)∈D sont supposés indépendants mais pas identiquement distribués, c’est pour cela que la méthode sera appliquée sur des résidus construit de tels sortes qu’ils
soient considérés indépendants et identiquement distribués. Le résidus le plus fréquemment choisi
est le résidus de Pearson, calculé avec la formule suivante :
Ci,j − Cbi,j
ri,j = q
V ar(Cbi,j )
Les étapes d’application de la méthode Bootstrap à un triangle de règlement sont :
1. A l’aide d’une méthode estimer les Cbi,j .
2. Obtention d’un triangle supérieur de résidus.
0 .
3. Rééchantillonnage des résidus et obtention d’un nouveau triangle supérieur de résidus rij
0 .
4. Calcul d’un nouveau triangle supérieur estimé à partir des résidus ri,j
5. Avec la méthode utilisée en 1, estimer le triangle inférieur et calculer une provision.
Les étapes 3 → 5 sont à effectuer T fois afin d’avoir une distribution de provision et de calculer
l’erreur d’estimation.
La popularité de la méthode Bootstrap vient de la facilité de mise en œuvre dans le cadre du
provisionnement, mais le temps d’exécution peut constituer un frein dans son application.
Deuxième partie
Undertaking Specific Parameters
21
Chapitre 1
Données
1.1
Présentation des données
Présentation des triangles
Il est difficile de s’approprier une méthode uniquement avec de la théorie, c’est pourquoi nous
allons illustrer les modèles présentés dans ce mémoire à l’aide de données extraites de la réalité.
Les résultats numériques des chapitres suivants proviennent des données introduites ici.
Les données étudiées sont :
• Les triangles de règlements et de charges pour les LoB Other motor et MAT ainsi que les
primes reçues pour chaque année de survenance.
• Les triangles de règlements pour le LoB Third-party liability ainsi que les primes reçues
pour chaque année de survenance.
Nous avons à notre disposition un historique de 14 ans de données de sinistralité et de primes sur
les branches Marine Aviation and Transport et Other motor et 20 ans sur la branche Third-party
liability. La branche Third-party liability présentée ici a l’avantage de posséder plus de 15 ans
d’historique et les deux autres branches plus de 10 ans ce qui permet de ne pas être impacté par
le facteur de crédibilité introduit dans la partie 1. Les triangles présentés sont bruts de recours,
nets de réassurance et les frais ne sont pas pris en compte. Les définitions des LoB ci-dessous
sont issues du QIS 5 Technical Specifications.
Marine, Aviation and Transport (MAT)« This line of business includes obligations which
cover all damage to or loss to river, canal, lake and sea vessels, aircraft, and damage to or loss
of goods in transit or baggage irrespective of the form of transport. This line of business also
includes all liabilities arising out of use of aircraft, ships, vessels or boats on the sea, lakes, rivers
or canals including carrier’s liability irrespective of the form of transport. »
La garantie qui représente cette branche est un contrat en transport d’une grande compagnie
d’assurance. C’est une garantie qui couvre à la fois du dommage considérée comme une branche
court terme et de la responsabilité civile, considérée comme une branche long terme. Le ratio
paiements cumulés sur charge des sinistres atteint les 95% en moyenne sur les années de surve-
22
CHAPITRE 1. DONNÉES
23
nance au bout de 10 ans. C’est une branche moyen terme qui est intéressante à étudier car elle
admet une très grande volatilité entre ses différentes années de survenance.
Other motor« This line of business includes obligations which cover all damage to or loss of
land motor vehicles, land vehicles other than motor vehicles and railway rolling stock. »
C’est une garantie en dommage automobile d’une grande compagnie d’assurance qui représente cette branche. C’est une branche court terme où les sinistres sont réglés rapidement. Le
ratio paiements cumulés sur charge des sinistres est de plus de 95% en moyenne sur les années
de survenance dès la deuxième année de développement, et atteint 99% à partir de la quatrième
année. Ces ratios montrent qu’en 4 ans, les sinistres de ce LoB sont quasiment tous clos.
Third-party liability« This line of business includes obligations which cover all liabilities other
than those included in motor vehicle liability and marine, aviation and transport. »
Les données représentant cette branche viennent de garanties en Responsabilité Civile médicale d’une grande mutuelle. Ce contrat couvre le client contre les conséquences d’une faute
médicale qui serait à l’origine d’un dommage physique, moral, matériel, présent ou futur. C’est
une branche à développement long car une réclamation peut intervenir plusieurs années après
l’acte médical et le règlement du dossier peut se dérouler sur de nombreuses années. Le fait
d’avoir un triangle à 20 ans d’historique permet de confirmer le long développement des sinistres.
N’ayant pas de triangle de charges pour ce LoB, nous avons regarder l’évolution des paiements décumulés pour mettre en valeur l’écoulement sur une longue échéance des sinistres. Les
paiements incrémentaux de la dixième année de développement représentent plus de 10% des
paiements cumulés de cette année en moyenne sur les années de survenance et toujours 4% au
bout de 17 ans. Ce qui montre qu’au bout de 17 ans, il y a toujours des flux de règlements
conséquents sur les sinistres.
Présentation de la base sinistres
Nous disposons d’une « photo » d’une base de sinistres vue en 2009, avec comme première année
de survenance l’année 1994, d’une très grosse mutuelle du marché français. Cela signifie que, pour
chaque année de survenance, nous avons la valeur de chaque sinistre en fin d’année 2009, soit le
montant sur la diagonale d’un triangle de règlements. Les sinistres représentent des garanties de
responsabilité civile (RC), rattachés au LoB motor vehicle liability et de dommage automobile du
LoB other motor, et nous disposons des primes reçues par la compagnie pour chaque année ainsi
que du nombre d’adhérents afin de voir l’évolution du portefeuille. En plus de cette base, nous
avons le triangle de règlements attaché à cette base, ce qui donne des indications sur l’écoulement
des sinistres.
Vérification : La somme des sinistres bruts de recours pour une année est égale au montant sur
la diagonale du triangle de règlements.
La RC automobile est une branche très longue, avec une grande volatilité sur les montants.
Des sinistres très graves peuvent apparaître, dont certains sont très durs à évaluer ce qui fait
que leurs paiements s’écoulent sur de nombreuses années. Les données proviennent d’une très
CHAPITRE 1. DONNÉES
24
grosse compagnie, ce qui fait que le volume de sinistres est conséquent et qu’il existe des sinistres
atteignant plusieurs millions d’euros.
Analyse des données
La fiabilité des données joue un rôle important dans la précision de l’estimation des provisions,
c’est pourquoi la directive Solvabilité 2 a imposé des exigences strictes sur la qualité des données.
L’EIOPA a publié les mesures d’implémentation de Solvabilité 2 afin d’encadrer les compagnies,
il défini l’évaluation des données selon trois critères : la pertinence, l’exhaustivité, et la précision.
Nous avons à notre disposition les triangles de liquidation qui proviennent des données du
service technique des entreprises, mais nous n’avons pas les bases complètes de sinistres ni les
données comptables. Par conséquent, nous n’avons pas pu vérifier les différents retraitements ou
validations de données. Mais pour que les données soient de qualités et respectent les normes de
Solvabilité 2, chaque compagnie doit vérifier les étapes suivantes :
- Les résultats techniques sont validés avec les résultats comptables, normalement la comptabilité est censée retrouver les mêmes résultats que le service technique. Si jamais des différences
existent entre les deux services, elles sont remontées et expliquées.
La compagnie doit effectuer les retraitements suivants sur ces données :
- Les enregistrements de la base de données dont les différentes dates ne sont pas cohérentes
doivent être supprimés. En effet, les enregistrements sont définis par plusieurs dates : la date de
survenance du sinistre, de déclaration, d’ouverture du dossier et la date de clôture. Il faut par
exemple vérifier que la date de survenance du sinistre est antérieure à la date de déclaration, ou
encore que la date de clôture est la date la plus récente, etc... Les tests de cohérence de dates
sont importants pour s’assurer de la qualité des données.
- La compagnie doit regarder si les variables de différentes dates ne comportent pas de pics afin
de déceler d’éventuels problèmes sur la qualité des données. Pour cela, elle sort des graphiques
de points d’accumulations qui montrent le nombre d’enregistrements pour une date, et vérifie
qu’il n’y ait pas de pics non expliqués.
- Les règlements sont bruts de recours, par conséquent tous les flux négatifs représentent une
anomalie et seront supprimés des données. Cette vérification a été effectuée sur la base mise à
notre disposition.
Nous considérons que les données sont de qualité et respectent les normes de Solvabilité 2,
mais ne pouvant pas vérifier les tests effectués par les compagnies, nous mettons une certaine
réserve sur cette hypothèse, et dans l’analyse des résultats sur ces données.
1.2
Vérification des hypothèses
Nous allons vérifier que les données suivent les trois hypothèses de Mack sur l’existence de facteur
de développement, l’indépendance des années de développement et l’existence d’un facteur de
variance. Les tests ont été effectués sur tous les triangles, mais seuls les résultats du LoB other
CHAPITRE 1. DONNÉES
25
motor seront présentés dans la suite.
L’existence d’un facteur de développement
Figure 1.1: Existence de facteur de développement, LoB Other Motor
L’hypothèse n’est pas totalement respectée pour la première année de développement puisqu’il y a un point nettement en dehors de la droite et tous les points ne sont pas bien alignés.
Par contre pour les deux autres années observées, tous les points sont parfaitement sur la droite,
l’hypothèse d’existence d’un facteur de développement est donc validée.
CHAPITRE 1. DONNÉES
26
Indépendance des années de survenance
Figure 1.2: Indépendance des années de survenance, LoB Other Motor
Les graphiques représentent les facteurs individuels fi,j en fonction des années de survenance
pour une année de développement fixée. Comme pour le test sur la première hypothèse, nous
pouvons observer que pour la troisième année de survenance et la première année de développement, le facteur de développement individuel donne une valeur disproportionnée. L’hypothèse
d’indépendance des années de survenance n’est pas validée pour la première année de développement puisque les facteurs de développement individuels varient en fonction de l’année de
survenance. Par contre pour l’année d’après, et toutes celles qui suivent, l’hypothèse est vérifiée.
Nous pouvons voir sur le graphique que les points sont alignés sur une droite horizontale.
CHAPITRE 1. DONNÉES
27
Existence d’un paramètre de variance
Figure 1.3: Existence d’un paramètre de variance, LoB Other Motor
Les résidus ne présentent pas de tendance, ils semblent être désordonnés sur le graphique.
La troisième hypothèse du modèle de Mack n’est pas rejetée. Nous pouvons donc appliquer ce
triangle aux méthodes de Chain Ladder et de Mack, mais en gardant une réserve puisque les
hypothèses ne sont pas parfaitement vérifiées. Les tests ont été effectués sur les autres triangles,
et les résultats montrent que les hypothèses ne sont pas rejetées. Nous pouvons appliquer ces
méthodes sur ces triangles.
Dans la suite du mémoire, les méthodes sont codées en VBA dans un outils de provisionnement
déjà existant dans l’entreprise.
Chapitre 2
Risque de réserve
Nous avons vu précédemment que la directive Solvabilité 2 avait pour objectif de garantir la
pérennité de la compagnie à un horizon un an. Par conséquent, la volatilité des réserves utilisée dans le calcul de l’exigence de capital de la formule standard doit représenter l’erreur de
prédiction à un an. Cette nouvelle vision bouscule les modèles déjà établis puisque jusqu’à récemment, les méthodes de provisionnement étaient à l’ultime, c’est-à-dire qu’elles permettaient
de calculer la provision et l’erreur de prédiction sur toute la durée de développement des sinistres.
Dans la formule standard, les compagnies utilisent la volatilité marché pour calculer leurs
SCR, mais cette volatilité est calculée sur un ensemble d’entreprise, et ne reflète donc pas précisément une compagnie particulière. L’utilisation des USP propose une alternative à cette situation,
avec notamment l’EIOPA qui a présenté trois méthodes différentes pour calibrer la volatilité des
réserves. Toutes ces méthodes sont décrites lors de l’exercice du QIS 5 Technical Specifications.
Les triangles utilisés dans les méthodes du risque de réserve doivent respecter les conditions
suivantes :
• Le triangle de règlement ne doit pas inclure les frais car la volatilité des frais est considérée
identique à celle des sinistres.
• L’inflation doit être prise en compte.
• Le triangle doit être net de réassurance pour que les données reflètent la couverture en
réassurance de la compagnie.
2.1
Méthode 1
Présentation de la méthode
La première méthode proposée par l’EIOPA est une méthode rétrospective, elle regarde les années
passées pour calculer l’erreur de prédiction de l’année prochaine. La méthode part des hypothèses
suivantes pour chaque compagnie, chaque LoB et chaque année :
Hypothèses 2.1.1
1. La somme des réserves et des paiements incrémentaux à un horizon
un an est égale au best estimate actuel des réserves.
28
CHAPITRE 2. RISQUE DE RÉSERVE
29
2. La variance de la somme des réserves à un horizon un an et des paiements incrémentaux
à un an est proportionnelle au best estimate actuel.
3. La méthode des moindres carrés est appropriée.
Définitions :
2 , la constante de proportionnalité de la variance de la somme du best estimate des réserves
- βlob
à un horizon un an et des paiements incrémentaux à un an.
- εA,lob , une variable aléatoire d’espérance nulle et de variance un.
- P COlob,i,j , le best estimate des réserves par LoB pour l’année de survenance i et de développement j.
- Ilob,i,j , les paiements incrémentaux par LoB pour l’année de survenance i et de développement j.
- VA,lob , le best estimate par LoB et par année calendaire, il se calcule avec la formule suivante :
VA,lob =
X
P COlob,i,j
i+j=A+1
- RA,lob , la somme du best estimate des réserves et des paiements vus dans un an par année
calendaire et par LoB. Il est définit par :
X
RA,lob =
P COlob,i,j +
i+j=A+2
i6=A+1
X
Ilob,i,j
i+j=A+2
i6=A+1
- Nlob , le nombre d’années d’historique par LoB où sont disponibles les valeurs RA,lob et VA,lob .
- P COlob , le best estimate actuel des réserves par LoB.
La distribution des pertes est donnée par la dynamique :
RA,lob ∼ VA,lob +
q
VA,lob βlob εA,lob
(2.1)
Et nous obtenons E[RA,lob ] = VA,lob et V ar(RA,lob ) = VA,lob × βlob
A partir de cette dynamique, il est possible d’obtenir un ensemble de variables aléatoires indépendantes et identiquement distribuées :
RA,lob − VA,lob
p
βlob εA,lob =
(2.2)
VA,lob
La méthode des moindres carrés permet de trouver un estimateur de βlob :
v
u
u
βblob = t
1
Nlob − 1
X (RA,lob − VA,lob )2
A
VA,lob
(2.3)
A l’aide de cet estimateur, la volatilité des réserves à un an est donnée par :
βblob
(2.4)
P COlob
C’est cette volatilité, agrégée avec la volatilité du risque de prime qui est utilisée dans la formule
du SCR risque de réserve et de prime.
σres,lob = √
CHAPITRE 2. RISQUE DE RÉSERVE
30
Application
La première méthode proposée par l’EIOPA est très simple au niveau compréhension, elle calcule
la volatilité des bonis/malis liés à la liquidation à 1 an du best estimate. Mais les compagnies
d’assurance ont commencé à garder en historique leur best estimate que depuis très récemment,
ce qui limite l’application de cette méthode. En effet, pour pouvoir appliquer correctement la
méthode, il est nécessaire de posséder un historique important de best estimate, ainsi que les
paiements incrémentaux. Pour pallier cet inconvénient, les entreprises possédant un triangle de
liquidation avec suffisamment d’années peuvent reconstruire leurs best estimate passés.
Pour recalculer les best estimate passés, il faut se placer dans le triangle à la date à laquelle
nous voulons l’estimer. Par exemple pour calculer celui de 1989, seul le triangle jusqu’à l’année
1989 incluse sera pris en compte. A partir de ce triangle, un best estimate est calculé (dans notre
exemple cela correspondrait à V1989,lob ).
Puis une diagonale est ajoutée au triangle, et un nouveau best estimate est calculé en rajoutant les paiements incrémentaux de l’année. Dans ce calcul, la dernière année de survenance
ajoutée avec la diagonale n’est pas prise en compte. Pour notre exemple, cela correspondrait à
R1989,lob .
CHAPITRE 2. RISQUE DE RÉSERVE
31
Figure 2.1: Explication de l’estimation de l’erreur de prédiction
Mais cette estimation de best estimate passé présente deux gros inconvénients :
-La nécessité d’avoir un triangle de liquidation avec un grand nombre d’années :
En effet, l’EIOPA exige un historique de données de cinq ans minimum pour pouvoir avoir le
droit d’utiliser les USP. Afin d’estimer les différents best estimate passés à l’aide de l’approche
proposée un triangle de liquidation est utilisé. Or il est indispensable que celui-ci possède au
moins cinq ans d’historique pour que les provisions soient calculées avec un triangle qui a un
sens, même si cela reste en général insuffisant. Par conséquent cette méthode requiert un historique de dix ans de données minimum pour être relativement applicable pour une compagnie ne
possédant pas d’historique de best estimate.
-Biais dans le calcul des provisions pour projeter les sinistres à l’ultime.
Afin d’estimer les provisions passées, les sinistres doivent être mis à l’ultime, mais dans les
mêmes conditions que le passé. Cela signifie que pour calculer les réserves fin 1988, il faut utiliser
le triangle jusqu’à l’année de survenance 1988 et projeter les sinistres à l’ultime uniquement avec
ces données. En effet, l’utilisation des facteurs de développement du triangle complet biaiserait
CHAPITRE 2. RISQUE DE RÉSERVE
32
l’estimation du best estimate. Mais il est difficile d’estimer convenablement les sinistres à l’ultime
avec si peu de données, le problème est d’autant plus marquant avec les branches longues où les
sinistres sont encore loin d’être à l’ultime au bout de cinq ans.
2.2
Méthode Merz Wüthrich
Les méthodes deux et trois proposées par l’EIOPA afin d’estimer la volatilité des réserves utilisent
le modèle de Merz Wüthrich. Cette méthode a été introduite en 2008 par les mathématiciens
Mario V.Wüthrich, Michael Merz et Natalia Lysenko dans un article intitulé Uncertainty of the
Claims Development Result in the Chain Ladder Method. Leur papier développe une formule
fermée qui permet d’estimer le risque de réserve à un horizon un an.
Dans le souci de s’adapter à la réforme Solvabilité 2, les mêmes mathématiciens ont proposé
dans l’article Modelling the claims development result for Solvency purposes une version simplifiée de cette formule, plus facile à implémenter.
Vision actuelle en N DN = {Ci,j i + j ≤ N + 1}
Figure 2.2: Vision en N
Vision l’année d’après en N+1, DN +1 = {Ci,j \i + j ≤ N + 2}
CHAPITRE 2. RISQUE DE RÉSERVE
33
Figure 2.3: Vision en N+1
La formule fermée de Merz Wüthrich part des hypothèses suivantes :
Hypothèses 2.2.1
1. Les paiements cumulés Ci,j des différentes années de survenance i ∈
{1, . . . , N } sont indépendants.
2. Les paiements cumulés (Ci,j )j≥1 suivent une chaîne de Markov, et il existe fj > 0 et σj > 0
tels que pour 1 ≤ j ≤ N − 1 et 1 ≤ i ≤ N :
E[Ci,j+1 \Ci,j ] = fj Ci,j
2
V ar(Ci,j+1 \Ci,j ) = σi,j
Remarque 2.2.2 Ce modèle se base sur les hypothèses de Mack, tout en ajoutant une condition
plus forte avec l’hypothèse de chaîne de Markov des paiements cumulés.
Sous ces hypothèses, il est possible de prédire les montants à l’ultime pour les visions en N et en
N+1. Ces prédictions diffèrent avec l’ajout d’informations disponibles entre N et N+1.
NY
−1
E[Ci,N \DN ] = Ci,N −i+1
fj
j=N −i+1
E[Ci,N \DN +1 ] = Ci,N −i+2
NY
−1
fj
j=N −i+2
Claims development result (CDR)
Le CDR correspond à la différence entre deux estimations successives au temps N et N+1 du
best estimate augmentée des paiements incrémentaux de l’année N pour celui en N+1.
Le Claims development result réel CDRi par année de survenance i ∈ {2, . . . N } est défini
par :
CDRi (N + 1) = E[RiN \DN ] − (Xi,N −i+2 + E[RiN +1 \DN +1 ])
= E[Ci,N \DN ] − E[Ci,N \DN +1 ]
(2.5)
CHAPITRE 2. RISQUE DE RÉSERVE
34
où Xi,N −i+2 = Ci,N −i+2 − Ci,N −i+1 représente les paiements incrémentaux, RiN les réserves
vues en N pour l’année de survenance i.
Le CDR réel est la somme des CDR par années de survenance :
CDR =
N
X
CDRi
i=2
L’ensemble des informations disponibles en N est aussi connu en N+1, soit DN ⊂ DN +1 . En
utilisant la propriété de martingale de (E[Ci,N \Dt ]), il est possible de trouver :
E[CDR(N + 1)i \DN ] = 0
d i par année de survenance i ∈ {2, . . . N } est
Le Claims development result observable CDR
définit par :
d i (N + 1) = R
b N − (Xi,N −i+2 + R
b N +1 ) = C
bN − C
b N +1
CDR
(2.6)
i
i,N
i
i,N
bN = C
b N − Ci,N −i+1 est un estimateur sans biais de E[RN \DN ]
où R
i
i
i,N
b N +1 − Ci,N −i+2 est un estimateur sans biais de E[RN +1 \DN +1 ]
b N +1 = C
et R
i
i
i,N
Mesure de l’erreur d’estimation
D’un point de vue Solvabilité 2, c’est l’incertitude de la prédiction du CDR autour de 0 qui est
important puisque la société doit posséder un capital suffisant pour faire face aux fluctuations
du CDR autour de 0. L’objectif est donc de calculer :
2
d
M SEPCDR
d (N +1)\D (0) = E[(CDRi (N + 1) − 0) \DN ]
i
N
(2.7)
Lemme 2.2.3 Le biais de l’estimation du CDR observable pour toutes les années de survenance,
vu à la date N est estimé par :

bD  E
(u − bias)2 = E
N
"N
X
#!2 
d i (N + 1)\DN
CDR

i=2
=
Avec :
ˆN
∆
i,N
N
X
X
i=2
i>k>1
N 2ˆN
(Ĉi,j
) ∆i,N + 2
N
N ˆN
Ĉi,N
Ĉk,N
∆k,N
N
−1
X
(σ̂ N
)2 /(fˆN
)2
CN −j+1,j
= N −i+1 N N −i+1 +
SN −i+1
SjN +1
j=N −i+2
où SjN est défini par :
SjN =
N
−j
X
i=1
Ci,j
!2
(σ̂jN )2 /(fˆjN )2
SjN
(2.8)
(2.9)
CHAPITRE 2. RISQUE DE RÉSERVE
35
Lemme 2.2.4 La Variance de process des CDR observables pour toutes les années de survenance, avec l’information de DN est estimée par :
Vd
ar
N
X
!
d i (N + 1)\DN
CDR
=
i=2
N
X
X
bN + 2
Γ
i,N
i=2
bN
Υ
i,k
(2.10)
i>k>1
Avec pour i ≥ 2
bN
Γ
i,N
d i (N + 1)\DN )
= Vd
ar(CDR
"
#
N
2 /(fˆN
2

(σ̂
)
)
N
−i+1
N
−i+1
N 2 
= (Cbi,N
)
1+

Ci,N −i+1
NY
−1
1+
l=N −i+2
(σ̂lN )2 /(fˆlN )2
CN −l+1,l
(SlN +1 )2


!
−1

Et pour i > k > 1
d d
d
Υ̂N
i,k = Cov(CDRi (N + 1), CDRk (N + 1)\DN )
"
#
N
2
2

ˆN
(σ̂N
−k+1 ) /(fN −k+1 )
N bN
b

= Ci,N Ck,N
1+

S N +1
N −k+1
NY
−1
l=N −k+2
!
Théorème 2.2.5 L’erreur conditionnelle de prédiction autour de 0 du CDR observable est donnée par :

Md
SEP P
N
i=2
(0) = E 
d i (N +1)\DN
CDR
N
X
!2
d i (N + 1) − 0
CDR

\DN 
i=2
2
= (u − bias) + Vd
ar
N
X
!
d i (N + 1)\DN
CDR
(2.11)
i=2
Approximation de la formule
2
2
ˆN
σ̂N
−i+1 /(fN −i+1 )
Ci,N −i+1
Pour simplifier la formule, l’hypothèse
1 est effectuée.
Lemme 2.2.6 Si les aj sont des constantes positives telles que aj 1 alors :
J
Y
(1 + aj ) ≈ 1 +
j=1
J
X
aj
j=1
Avec cette nouvelle hypothèse, nous obtenons l’erreur de prédiction autour de 0 du CDR observable pour chaque année de survenance i ∈ {1 . . . N } avec la formule :
N
bN 2 N
ˆN
Md
SEP CDR
d (N +1)\D (0) = (Ci,N ) (φ̂i,N + Ψ̂i + ∆i,N )
i
N
avec :
φ̂N
i,N
=
N
−1
X
j=N −i+2
CN −j+1,j
SjN +1
!2


(σ̂ N )2 /(fˆN )2
1 + l N +1 l
CN −l+1,l  − 1

(Sl
)2
σ̂j2 /(fˆjN )2
CN −j+1,j
CHAPITRE 2. RISQUE DE RÉSERVE
Ψ̂N
i =
36
2
2
ˆN
σ̂N
−i+1 /(fN −i+1 )
Ci,N −i+1
L’approximation de l’erreur conditionnelle de prédiction autour de 0 du CDR observable
agrégé vue au temps N est donnée par la formule suivante :
Md
SEP P
N
(0) =
i=2
d i (N +1)\DN
CDR
N
X
i=2
Md
SEP CDR
d (N +1)\D (0) + 2
i
N
X
N bN
bN + Λ
bN )
Cbi,N
Ck,N (Ξ
i,N
i,N
k>i>1
(2.12)
avec :
bN = Φ
bN +
Ξ
i,N
i,N
bN
Λ
i,N
2
2
ˆN
σ̂N
−i+1 /(fN −i+1 )
N +1
SN
−i+1
N
−1
2
2
ˆN
X
Ci,N −i+1 σ̂N
CN −j+1,j
−i+1 /(fN −i+1 )
= N +1
+
N
SN −i+1
SN −i+1
SjN +1
j=N −i+2
!2
σ̂j2 /(fˆjN )2
SjN
Application de la méthode
La formule de Merz Wüthrich est utilisée dans les méthodes 2 et 3 du risque de réserve proposées
par l’EIOPA. La différence vient du choix de la méthode dans le calcul du best estimate des
réserves : la méthode 2 laisse la compagnie libre de choisir la méthode qu’elle préfère, alors que
la méthode 3 impose l’utilisation de Chain Ladder.
La volatilité des provisions dans un an se calcule avec la formule suivante :
√
M SEP
σ(res,lob) =
P COlob
où la M SEP est calculée avec la formule fermée simplifiée de Merz Wüthrich, et le P COlob
représente le best estimate des réserves par branche.
Le modèle de Merz Wüthrich est une vision à un an de la méthode de Mack, il reprend
les mêmes hypothèses en ajoutant une contrainte supplémentaire. La méthode de Mack est une
vision stochastique de la méthode de Chain Ladder, par conséquent, il semble logique que dans
l’estimation de la volatilité des réserves avec la formule de Merz Wüthrich, la méthode Chain
Ladder soit utilisée pour calculer les provisions.
La méthode Merz Wüthrich est une formule fermée, ce qui lui donne l’avantage d’être facile
à mettre en place et de ne pas demander beaucoup de temps d’exécution. C’est un atout important à l’heure de la réforme Solvabilité 2 qui demande une remontée des résultats plus fréquente.
Mais le modèle présente plusieurs limites, notamment l’impossibilité de prendre en compte les
queues de développement. Il est indispensable que la première année de survenance soit close
CHAPITRE 2. RISQUE DE RÉSERVE
37
pour appliquer la formule puisque qu’il n’est pas possible de prendre en compte les facteurs de
queue, ce qui pose problème pour les branches avec un développement assez long.
De plus la méthode est construite sur le modèle de Mack, elle possède donc les avantages et les
inconvénients de ce modèle. Il faut donc que le triangle respecte les hypothèses de Mack, et une
σ̂ 2
/(fˆN
)2
N −i+1
nouvelle contrainte N −i+1
1 qui n’est pas toujours respectée. Cette méthode permet
Ci,N −i+1
d’obtenir les deux premiers moments de la distribution des provisions mais pas la distribution
complète. Pour pallier ces différents inconvénients, une adaptation de la méthode Bootstrap à
une vision un an a été mise en place.
2.3
Bootstrap à un an
Différents mathématiciens comme Peter England1 ou Arthur Charpentier2 ont proposé des versions modifiées de la méthode Bootstrap pour l’adapter à la contrainte temporelle de Solvabilité
2. C’est la méthode de Laurent Devineau décrite dans l’article One-year reserve risk including a
tail factor : closed formula and bootstrap approaches qui sera explicitée dans ce mémoire.
Étape 1 :
La première étape consiste à l’estimation du best estimate sur le triangle de liquidation avec la
méthode Chain Ladder et le calcul des résidus.
On note fˆult le facteur de queue de développement pour projeter les sinistres à l’ultime.
Devineau a choisi d’approcher les facteurs par la fonction suivante ∀j ∈ {1, ..., N − 1} :
ln(fj − 1) = a × j + b
Mais d’autres fonctions peuvent être appliquées, il faut choisir celle qui représente le mieux les
facteurs. La date de clôture des sinistres est choisie arbitrairement, mais il faut rester cohérent
dans le choix de la date et prendre en compte si c’est une branche plutôt court terme ou plutôt
long terme. Si rapidement, les coefficients ne deviennent plus significatifs (<1,0001 par exemple),
il n’est pas nécessaire de les retenir dans le calcul de la queue de développement. Différentes méthodes pour estimer la date de clôture des sinistres ont été développées, notamment une méthode
basée sur les modèles de durée avec l’utilisation de l’estimateur de Kaplan Meier.
Le best estimate des réserves à la date N est défini par :
BEN =
N
X
(Cbi,ult − Cbi,N −i+1 )
i=1
avec Cb1,ult = fˆult C1,N
et ∀i ∈ {2, ..., N }, Cbi,ult = fˆult
NQ
−1
!
fˆj Ci,N −i+1
j=N −i+1
1
cf England P. (2009) The ultimate and one-year views of reserving risk with respect to solvency and risk
margins. GIRO conference, Edinburgh.
2
cf Charpentier A. (2011) One year uncertainty in claims reserving. Workshop on Insurance Mathematics,
Montreal.
CHAPITRE 2. RISQUE DE RÉSERVE
38
Les résidus ajustés des facteurs de développement individuels sont calculés avec la formule :
s
∀1 ≤ i + j ≤ N, ri,j =
N −j+1
N −j
p
Ci,j (fi,j − fˆj )
σ̂j
Les étapes suivantes sont à effectuer T fois.
Étape 2 :
Replacement aléatoire des résidus et construction d’un pseudo triangle de facteurs de développement individuels.
v
u 2
u σ̂
N,b
b t j
∀1 ≤ i + j ≤ N, fi,j = ri,j
+ fˆj
Ci,j
Les facteurs de Chain Ladder sont recalculés :
NP
−j
∀i ∈ {1, ..., N }, fjb,N =
b,N
Ci,j fi,j
i=1
NP
−j
Ci,j
i=1
Étape 3 :
Simulation des paiements incrémentaux entre l’année N et N+1, en supposant que les paiements
cumulés vus en N+1 suivent une loi normale.
b,N
b
N
2
Ci,N
+2−i ∼ N (Ci,N −i+1 fN −i , Ci,N −i+1 (σ̂N −i ) )
Les paiements incrémentaux sont calculés par :
PNb +1 =
N
X
b
(Ci,N
+2−i − Ci,N −i+1 )
i=2
Étape 4 :
b,N +1
Estimation des nouveaux facteurs de développement individuels (fN
−j+1,j )1≤j≤N avec l’information supplémentaire obtenue avec la simulation des paiements incrémentaux entre N et N+1.
Les coefficients de Chain Ladder sont recalculés en prenant en compte l’information DN disponible à la date N du triangle initial, et les nouveaux facteurs individuels :
NP
−j
∀j ∈ {1, . . . , N − 1}, fjb,N +1 =
i=1
b,N +1
Ci,j fi,j + CN −j+1,j fN
−j+1,j
N −j+1
P
i=1
Ci,j
CHAPITRE 2. RISQUE DE RÉSERVE
39
Pour obtenir de la volatilité sur le facteur de queue de distribution, celui-ci est considéré
comme suivant une loi normale :
b ∼ N (fˆ , σ 2 )
fult
ult ult
2 = Vd
où σult
ar(fˆult ), une méthode explicite pour estimer cette variance est détaillée dans
l’article de Devineau.
Étape 5 :
Estimation du best estimate vu en N+1 :
b
BEN
+1 =
N
X
b
(Ci,ult
− Ci,N −i+2 )
i=1
avec
b
b
= fult
C1,N
C1,ult
b
b
b
C2,ult
= fult
C2,N
et,

b
b 
∀i ∈ {3, . . . , N }, Ci,ult
= fult
NY
−1

b
fjb,N +1  Ci,N
−i+2
j=N −i+2
Ce qui permet d’obtenir le CDR de l’itération b :
b
CDRb = BEN − PNb +1 − BEN
+1
Le schéma suivant synthétise la méthode Bootstrap :
CHAPITRE 2. RISQUE DE RÉSERVE
40
Figure 2.4: Explication de la méthode Bootstrap à un an
Application
L’adaptation de la méthode Bootstrap à un an offre une autre possibilité pour estimer la volatilité
des réserves en respectant l’horizon temporel fixé par la réforme Solvabilité 2. A la différence du
modèle de Merz Wüthrich qui se base sur la méthode de Mack, la méthode Bootstrap a l’avantage de pouvoir s’utiliser avec différentes méthodes de provisionnement. En effet, la méthode
introduite ce mémoire utilise Chain Ladder ce qui permet de retrouver les résultats de Merz
Wüthrich, mais elle peut facilement s’adapter avec des méthodes différentes.
De plus, la méthode Bootstrap à un an donne une distribution de CDR contrairement à Merz
Wüthrich qui ne calcule que les deux premiers moments, cela permet notamment d’estimer les
différents quantiles de la distribution. La méthode Bootstrap peut s’adapter à d’autres horizons
temporels, ce qui est très utile dans le cadre de l’ORSA où les assureurs doivent estimer leurs
solvabilité sur plusieurs années.
Exemple de distribution de CDR obtenue pour la branche Other motor sur 10 000 simulations :
CHAPITRE 2. RISQUE DE RÉSERVE
41
Figure 2.5: Distribution de CDR pour la branche Other motor
Le graphique des CDR ressemble à une distribution de loi normale centrée. Pour vérifier cette
hypothèse, la distribution de CDR est comparée avec la fonction de répartition d’une loi normale
centrée et de variance, la variance empirique des CDR.
CHAPITRE 2. RISQUE DE RÉSERVE
42
Figure 2.6: Comparaison de la fonction de répartition avec la loi normale
La courbe bleue représente la fonction de répartition empirique et la rouge celle de la loi
normale, il ressort du graphique que les deux courbes sont quasiment confondues, ce qui semble
valiser l’hypothèse. Les tests statistiques de Shapiro et de Kolmogorov Smirnov confirment cette
analyse avec les résultats suivant :
p-value
Kolmogorov Smirnov
0,5806
Shapiro 1
0,4886
Shapiro 2
0,7701
Table 2.1: Résultats des tests statistiques, LoB Other Motor
Le test de Shapiro peut contenir de 3 à 5000 valeurs, or la distribution empirique comprend 10
000 simulations de CDR, c’est pourquoi le test a été effectué sur les 5000 premières valeurs puis
sur les 5000 autres. Les 3 p-value obtenues sont significativement au dessus de 5%, l’hypothèse
de normalité n’est pas rejetée.
La moyenne de la distribution est de 758 552, ce qui correspond à 0,2% des réserves. L’espérance des CDR est donc très proche de 0, ce qui signifie qu’en moyenne le best estimate des
réserves estimés en N est égale à celui vu en N+1 augmenté des paiements incrémentaux de
l’année.
Une des principales critiques de la formule fermée de Merz Wüthrich vient de l’impossibilité
CHAPITRE 2. RISQUE DE RÉSERVE
43
d’appliquer des facteurs de queue de développement. La méthode Bootstrap proposée permet
de dépasser cette limite, et d’ajouter de la volatilité sur ces facteurs. Dans son article, Laurent
Devineau démontre que sans facteur de queue de développement, il y a équivalence entre les deux
méthodes. Par conséquent si la méthode Chain Ladder est appropriée, dans les triangles où la
première année de survenance est considérée comme close, la méthode de Merz Wüthrich peut
être appliquée. Sinon il est plus correcte d’utiliser la méthode Bootstrap à un an pour calculer
les USP réserves.
2.4
Résultats
Comparaison de résultats
Dans le chapitre précédent, les différents triangles ont été testés aux hypothèses de Mack. Pour
pouvoir appliquer la formule simplifiée de Merz Wüthrich, il faut tester une autre hypothèse,
celle de
σ̂j2 /(fˆjN )2
CN −j+1,j
σ̂j2 /(fˆjN )2
CN −j+1,j
7
4, 34.10−6
1.
1
2
3
4
5
6
1, 49.10−3
8
2, 29.10−6
1, 24.10−5
9
1, 30.10−6
8, 16.10−6
10
5, 51.10−7
2, 76.10−5
11
4, 21.10−7
6, 54.10−6
12
1, 87.10−8
6, 09.10−6
13
2, 34.10−10
Table 2.2: Vérification de l’hypothèse de Merz Wüthrich, LoB Other Motor
Les résultats montrent que l’hypothèse est validée, les valeurs sont très proches de 0.
Pour le risque de réserve le volume correspond au Best Estimate des réserves. L’objectif de
ce mémoire n’étant pas d’étudier les différentes méthodes de provisionnement, les best estimate
sont estimés à l’aide de la méthode Chain Ladder afin de simplifier les calculs.
MAT
Third-party liability
Other motor
Best Estimate
345 885 818
490 020 690
386 976 699
Table 2.3: Best Estimate par LoB
Nous observons la MSEP de la distribution des CDR pour les méthodes Merz Wüthrich,
Mack et Bootstrap à un an pour les différents LoB analysés dans ce mémoire. Les résultats de
la méthode Bootstrap de ce chapitre sont effectués sur 10 000 simulations.
CHAPITRE 2. RISQUE DE RÉSERVE
√
MAT
Third-party liability
Other motor
44
M SEP Mack
43 335 109
44 070 790
42 172 607
√
M SEP MW
38 719 764
23 820 885
38 160 529
√
M SEP
38
23
38
Bootstrap 1 an
663 414
815 224
324 738
Table 2.4: Comparaison des MSEP entre les différentes méthodes
Il est notable que l’erreur de prédiction à l’ultime (Mack) est plus élevée que celle à un an
pour les trois triangles analysés. C’est d’autant plus marquant pour le LoB Third-party liability
qui est une branche long terme. Le ratio entre le risque à un an et le risque à l’ultime est dans
l’ensemble compris dans l’intervalle [50%, 95%], il semble logique de considérer que le risque de
prédiction de l’année prochaine est plus faible que celui à l’ultime. De plus, l’approximation de la
formule de Merz Wüthrich force l’estimation à un an à être inférieure à celle à l’ultime. Différents
exemples ont été trouvés pour montrer que cela ne reste pas vrai avec la formule exacte. Pour
plus de détails, le mémoire d’Arnaud Lacoume3 et celui de Stephane Riban et d’Ilan Habib4
explicitent les différences entre les méthodes de provisionnement à l’ultime et à un an.
Les USP réserves pour ces différents LoB sont estimés dans le tableau suivant.
MAT
Third-party liability
Other motor
MW
11,19%
4,86%
9,86%
Bootstrap à 1 an
11,18%
4,86%
9,90%
Méthode 1
14,34%
7,95%
11,36%
Marché
14,00%
11,00%
10,00%
Table 2.5: Calcul des USP par LoB en fonction des méthodes
L’équivalence entre les méthodes Bootstrap à un an sans facteur de queue de développement
et Merz Wüthrich semble vérifiée par les résultats trouvés puisque les volatilités des réserves
estimées sont très proches pour ces deux méthodes.
Pour le LoB Third-party liability, les USP trouvés sont nettement en dessous de la volatilité
marché proposée par l’EIOPA. Il est aussi notable que la méthode 1 surestime la volatilité, de
plus pour l’application de cette méthode diminue le nombre d’années d’historique et donc force
l’utilisation d’un facteur de crédibilité.
Pour bien visualiser l’impact de l’utilisation des USP, nous regardons le gain en fonds propres
économisé par rapport à l’utilisation de la formule standard pour les trois LoB.
3
cf Lacoume A. (2008) Mesure du risque de réserve sur un horizon de un an. ISFA/IA.
cf Habib I. et Riban S. (2009) Quelle méthode de provisionnement pour des engagements non-vie dans
Solvabilité 2 ?. ENSAE/IA.
4
CHAPITRE 2. RISQUE DE RÉSERVE
MAT
Third-party liability
Other motor
SCR
144 823 624
156 355 073
111 096 866
Gains avec
32 283 772
91 573 147
1 699 712
45
MW
22 %
59%
2%
Gains avec Bootstrap
32 466 383
22%
91 589 344
59%
1 180 572
1%
Méthode
-3 988 116
46 951 916
-16 948 103
1
-3%
30%
-15%
Table 2.6: Gain de SCR effectué en montant et pourcentage du SCR de la formule standard
Il en ressort assez nettement que la formule standard surestime fortement le besoin en fond
propre pour la compagnie représentant la branche Third-party liability, puisque celle-ci économiserait 59% des fonds propres exigés par la formule standard.Cette entreprise aurait donc intérêt
à prendre en compte ses spécificités, soit avec la mise en place d’un modèle interne, soit avec
l’application des USP. Le triangle représentatif de la branche Other motor semble correspondre
relativement bien à la valeur marché proposée par l’EIOPA, le gain en SCR est de l’ordre de 1%
avec l’application des USP. Pour la compagnie de la branche MAT, l’utilisation des USP semble
bénéfique car elle permet de diminuer de 22% les fonds propres demandés par la formule standard.
En comparaison aux deux autres méthodes, la méthode 1, proposée par l’EIOPA, semble
surestimer la volatilité des réserves à un an. Les différentes limites de cette méthode présentées
précédemment sont confirmées dans les résultats. La méthode 1 serait applicable si les compagnies
possédaient un historique de Best Estimate, ce qui n’est pas le cas actuellement sur le marché.
Par conséquent dans les conditions actuelles, il n’est pas conseillé d’utiliser cette méthode.
Impact des queues de développement
Nous avons vu que sans queue de développement, la méthode Bootstrap à un an donnait des
résultats similaires à Merz Wüthrich. Mais pour les branches long terme, il est rare d’avoir un
triangle de sinistres clos, par conséquent il est indispensable d’utiliser les queues de développement. Le tableau suivant montre les différences dans l’estimation du Best Estimate, du MSEP
et de la volatilité entre avec et sans prise en compte de ces facteurs dans le calcul.
MAT
Third-party liability
Other motor
BE
345 885 818
490 020 690
386 976 699
√MW
M SEP
38 719 764
23 820 885
38 160 529
Volatilité
11,194%
4,861%
9,861%
Bootstrap
√ à un an
BE
M SEP
Volatilité
349 216 911 38 770 218 11,102%
525 423 448 24 405 721
4,645%
386 976 699 38 095 430
9,844%
Table 2.7: Effet des queues de développement sur la volatilité
Pour une branche court terme comme la branche Other motor, le volume des réserves est
le même avec ou sans queue de développement puisque les sinistres de la première année de
survenance sont déjà à l’ultime. L’erreur de prédiction est très proche, la différence s’expliquant
simplement par la volatilité sur les queues de développement de la méthode Bootstrap proposée
par Devineau.
Par opposition, la branche Third-party liability est une branche long terme, et il est notable
que le Best Estimate et la MSEP sont plus importants avec les queues de développement. L’uti-
CHAPITRE 2. RISQUE DE RÉSERVE
46
lisation des queues de développement donne des différences significatives, ce qui montre que le
triangle n’est pas à l’ultime, et qu’appliquer la méthode de Merz Wüthrich fausse l’erreur de
prédiction. La volatilité des réserves est plus faible avec que sans queue car les queues de développement permettent une estimation plus précise des sinistres à l’ultime, et donc diminue
l’erreur de prédiction des best estimate.
Pour véritablement se rendre compte de l’impact des queues de développement, le tableau
suivant nous montre l’impact de l’utilisation des queues sur le SCR.
MAT
Third-party liability
Other motor
SCR formule
144 823
156 355
111 096
standard
624
073
866
Gains avec
32 283 772
91 573 147
1 699 712
MW
22 %
59%
2%
Gains avec Bootstrap à un an
32 244 116
22%
91 136 151
58%
1 905 401
2%
Table 2.8: Effet des queues de développement sur le gain en SCR
Au niveau du SCR, la seule différence notable vient de la branche longue, le gain en exigence
de capital est plus faible avec les queues de développement de 1% du SCR du risque de réserve
calculé avec la formule standard.
Pour résumer, si la méthode Chain Ladder est appropriée, il est plus efficace d’utiliser la
méthode de Merz Wüthrich pour les triangles stabilisés, car celle-ci ne demande pas beaucoup de
temps de calcul. Mais si les sinistres ne sont pas à l’ultime il est conseillé d’appliquer la méthode
de Bootstrap à un an avec les facteurs de queue de développement.
Impact de l’actualisation
La directive Solvabilité 2 demande aux assureurs d’estimer leurs provisions actualisées dans le
calcul du Best Estimate, ce qui a une conséquence directe sur la volatilité des réserves. Il n’est
pas question ici de prendre en compte le risque de taux qui intervient dans l’actualisation, celuici est déjà comptabilisé dans le SCR de marché. Mais l’actualisation des Best Estimate donne
de l’importance à la cadence de règlement des sinistres, puisque le coût n’est pas le même si le
sinistre est payé tout de suite ou à une date ultérieure.
Le tableau suivant montre l’effet de l’actualisation des flux futurs sur l’estimation du Best
Estimate, de l’erreur de prédiction des réserve et des USP. Les taux d’actualisation proviennent
des taux swap 2010. La version draft des Implementing Measures Solvency 2 demande d’intégrer
des primes en plus dans l’actualisation. Mais la prise en compte de l’actualisation n’étant pas
une partie importante du mémoire, nous ne rentrerons pas dans le détail.
CHAPITRE 2. RISQUE DE RÉSERVE
MAT
Third-party liability
Other motor
Best Estimate
non actualisé
actualisé
345 885 818 325 038 272
490 020 690 403 534 546
386 976 699 374 914 604
47
√
M SEP Bootstrap
non actualisé
actualisé
38 663 414
38 547 236
23 815 224
23 680 862
38 324 738
38 057 774
USP
non actualisé actualisé
11,18%
11,86%
4,86%
5,81%
9,9%
10,15%
Table 2.9: Effet de l’actualisation sur les USP
Nous observons que pour les trois branches, la volatilité avec actualisation est plus importante que sans. Ceci est principalement du à la baisse du volume avec l’actualisation. L’erreur
de prédiction reste très proche avec et sans actualisation alors que le volume des réserves diminue nettement. La branche Third-party liability donne les résultats les plus marquant avec une
réduction d’environ 18% de ses réserves et de moins de 1% de son erreur de prédiction. Cela
s’explique par le fait que c’est une branche long terme, il peut donc y avoir de grande variation
dans la cadence des règlements.
Résumé des conditions d’application :
• Méthode 1 : La méthode sera applicable quand les entreprises auront un historique de best
estimate important.
• Méthode 2 : La méthode 3 semble préférable à cette méthode.
• Méthode 3 : Il faut que le triangle soit stabilisé et que les hypothèses de la méthode de
Mack soient validées.
• Bootstrap : La méthode Bootstrap s’utilise quand les conditions de la méthode 3 ne sont
pas vérifiées.
Chapitre 3
Risque de prime
Le risque de prime représente le risque que peut entraîner une mauvaise tarification pour un
assureur. Si la sinistralité obtenue est au dessus de celle anticipée dans le tarif, la compagnie doit
faire face à un risque sur sa solvabilité. Contrairement au risque de réserve qui a fait l’étude de
nombreuses recherches, le risque de prime a été beaucoup moins développé.
Les données utilisées dans les méthodes du risque de prime doivent respecter les conditions
suivantes :
• Le triangle de règlement ne doit pas inclure les frais car la volatilité des frais est considérée
identique à celle des sinistres.
• L’inflation doit être prise en compte.
• Le triangle doit être net de réassurance pour que les données reflètent la couverture en
réassurance de la compagnie.
• S’il y a existence d’un cycle dans les résultats de la compagnie, il faut que les données
contiennent au moins un cycle complet.
3.1
Méthodes 1 et 2
Méthode 1
La première méthode pour calculer le risque de prime est une méthode simple qui regarde l’erreur
de tarification sur les années passées de l’entreprise.
Hypothèses 3.1.1
1. Les pertes attendues sont proportionnelles aux primes.
2. Le loss ratio attendu est constant pour chaque compagnie.
3. La variance des pertes est proportionnelle à la prime reçue.
4. La méthode des moindres carrés est appropriée.
48
CHAPITRE 3. RISQUE DE PRIME
49
Définitions :
-UA,lob , la perte après un an par année de survenance et par branche.
-µlob , le loss ratio attendu par branche
2 , la constante de proportionnalité de la variance des pertes par branche.
-βlob
-εA,lob , une variable aléatoire d’espérance zéro et de variance un.
-VA,lob , la prime reçue par année de survenance et par branche.
-Nlob , le nombre d’année d’historique par branche.
La distribution des pertes est donnée par la dynamique :
UA,lob ∼ VA,lob µlob +
q
VA,lob βlob εA,lob
(3.1)
Et nous obtenons E[UA,lob ] = VA,lob × µlob et V ar(UA,lob ) = VA,lob × βlob
A partir de cette dynamique, il est possible d’obtenir un ensemble de variables aléatoires indépendantes et identiquement distribuées :
UA,lob − VA,lob µlob
p
VA,lob
βlob εA,lob =
(3.2)
La méthode des moindres carrés permet de trouver un estimateur de βlob :
2
β̂lob
=
X (UA,lob − VA,lob µlob )2
1
Nlob − 1
Et l’estimateur du loss ratio est :
(3.3)
VA,lob
A
P
UA,lob
A
µ̂lob = P
VA,lob
A
Ce qui fait que β̂lob devient :
v
u
u
u
u
u
u
β̂lob = t

P
A
UA,lob − VA,lob P
1
Nlob − 1
X
UA,lob
2
VA,lob

A
VA,lob
A
La volatilité de l’erreur de tarification est calculée par :
σprem,lob = p
β̂lob
Vprem,lob
(3.4)
CHAPITRE 3. RISQUE DE PRIME
50
Méthode 2
La deuxième méthode est très proche de la première, les pertes suivent la même dynamique avec
une hypothèse de loi en plus et l’application de la méthode du maximum de vraissemblance à la
place des moindres carrés.
Hypothèses 3.1.2
1. Les pertes attendues sont proportionnelles aux primes.
2. Le loss ratio attendu est constant pour chaque compagnie.
3. La variance des pertes est proportionnelle à la prime reçue.
4. La distribution des pertes suit une loi lognormale.
5. La méthode du maximum de vraissemblance est appropriée.
Soit SA,lob et MA,lob calculés par :
v
u
u
SA,lob = tlog
2
βlob
1+
VA,lob µ2lob
!
1 2
MA,lob = log(VA,lob µlob ) − Slob
2
La fonction de logvraissemblance est donnée par :
logL =
X
A
(log(UA,lob ) − MA,lob )2
−log(SA,lob ) −
2
2SA,lob
!
Les paramètres βlob et µlob sont calculés en maximisant la fonction de logvraissemblance. La
volatilité devient :
β̂lob
σprem,lob = p
(3.5)
Vprem,lob
Limites des méthodes
Les méthodes 1 et 2 sont très proches, elles ont l’avantage d’être très simples au niveau compréhension, et application. Elles calculent l’erreur de tarification sur le passé en comparant la
charge de sinistre réellement obtenue avec une charge estimée en fonction du volume de prime.
Mais ces méthodes sont basées sur une hypothèse d’un loss ratio constant au cours des années, une hypothèse difficilement vérifiée dans la réalité. En effet, le marché de l’assurance non-vie
présente des cycles, c’est à dire des périodes avec une forte rentabilité des contrats suivies de
périodes de pertes. L’assureur a conscience d’avoir un loss ratio très élevé, et donc de faire très
peu de bénéfice voir même des pertes pendant une période. Puis, il compensera avec une période
de loss ratio faible, où il fera du profit.
Le graphique suivant montre l’évolution du ratio sinistres à primes en responsabilité civile
automobile de 1988 à 2010. Les données proviennent de la Fédération Française des Sociétés
d’Assurances (FFSA) :
CHAPITRE 3. RISQUE DE PRIME
51
Figure 3.1: Évolution du ratio sinistres à primes en responsabilité civile automobile de 1988 à
2010
Des cycles d’une durée légèrement supérieure à 5 ans sont bien visibles sur le graphique.
Dans sa thèse professionnelle sur Le cycle de l’assurance Non-Vie, une opportunité stratégique 1 , Christophe Gimond propose trois hypothèses pour expliquer ces cycles :
• L’excès de concurrence par les prix.
Dans l’optique de gagner des parts de marché, les assureurs se livrent à une concurrence
féroce qui entraine une baisse des prix de façon irrationnelle. Les acteurs attendent la
survenance d’un événement catastrophique marquant pour justifier une hausse de leurs
tarifs.
• L’hypothèse de la capacité contrainte.
Des événements défavorables ont pour conséquence des pertes sur les actifs et sur les passifs,
ce qui entraîne une diminution des fonds propres de l’entreprise. Pour faire face à cette
situation, la compagnie augmente ses prix, et réduit sa capacité de souscription. Le climat
redevient normal, l’entreprise avec l’augmentation de ses prix dégage des profits et accroît
ses fonds propres. Puis, avec sa majoration de capital, elle peut augmenter sa capacité de
souscription en baissant ses prix.
• L’hypothèse des marchés rationnels imparfaitement prévisibles.
Les acteurs agissent rationnellement dans un cadre concurrentiel, mais le marché est sensible
à plusieurs événements externes qui peuvent engendrer des cycles tels que de nouvelles
réglementations ou des variations inattendues de taux d’intérêt et de cours des actions.
1
Cf Gimond C. (2010) Le cycle de l’assurance non-vie, une opportunité stratégique. Ecole nationale d’assurances.
CHAPITRE 3. RISQUE DE PRIME
52
L’EIOPA demande aux entreprises de posséder au moins un cycle complet dans les données
utilisées en entrées des méthodes. Mais le problème principal lié aux phénomènes de cycle reste
identique avec la présence d’un cycle complet : il perdure toujours une surestimation de la volatilité du risque de prime. En effet, si l’assureur décide de sous-tarifer et donc d’accepter d’avoir
un loss ratio élevé, la différence avec le loss ratio constant calculé par la méthode sera importante. Dans la méthode 1, le loss ratio est calculé sur une moyenne pondérée. La présence de
cycle implique des périodes consécutives de loss ratio haut et bas, nous pouvons donc considérer
que la moyenne se situera entre ces deux extrémités. Que ce soit en période de sur ou de sous
tarification, l’écart entre les deux loss ratio sera important, ce qui surestimera la volatilité.
Quand l’entreprise sous-tarifie à cause d’une concurrence forte, elle a conscience d’être en
perte mais cela ne devrait pas influencer le risque de prime puisque celui-ci est censé représenter
l’erreur de tarification, et le fait de sous tarifer n’implique pas une mauvaise estimation de son
prix. L’exemple suivant est volontairement amplifié mais permet de comprendre les problématiques engendrés par l’hypothèse d’un loss ratio constant :
Exemple 3.1.3 Dans l’optique d’augmenter ses parts de marché, une compagnie d’assurance
accepte d’être en perte sur l’année qui vient et anticipe un loss ratio de 110% alors que jusqu’à
présent ses résultats étaient plutôt bons. A la fin de l’année, elle obtient un résultat de 107%, elle a
donc fait moins de pertes que prévu. Puisque l’entreprise était en gain avant, le loss ratio constant
calculé avec les différentes méthodes de prime est plus faible, nous le choisissons arbitrairement
à 100%. L’erreur de tarification réelle est de 3% alors que dans le calcul du risque de prime,
l’erreur sera considérée à 7%, soit une surestimation de 4%.
Pour pallier ce problème, nous proposons d’utiliser pour chaque année les loss ratio attendus
par l’entreprise à la place du loss ratio constant de la méthode 1, et de les comparer avec les
résultats réels obtenus. Cela permettrait d’avoir une estimation réelle de l’erreur de tarification,
puisque la volatilité serait calculée sur l’écart entre le résultat attendu et le résultat obtenu. Pour
cela, il faut que l’entreprise est gardée ses anciens loss ratio attendus ou au moins les données
nécessaires pour pouvoir les recalculer. Si la compagnie doit ré-estimer ses anciens loss ratio, il est
indispensable qu’elle se mette dans des conditions similaires à celles du passé et qu’elle n’utilise
pas d’information qui serait survenue après la date d’évaluation. L’entreprise devra posséder des
justifications sur l’exactitude des données utilisées pour que l’ACP valide cette application de la
méthode. La formule du paramètre de variance de la méthode 1 deviendrait alors :
2
β̂lob
=
1
Nlob − 1
X (UA,lob − VA,lob µlob,i )2
A
VA,lob
Avec µlob,i le loss ratio que l’entreprise anticipait pour l’année i, en fin d’année i − 1.
Pour conclure les méthodes 1 et 2 sont des méthodes simples et faciles à appliquer, mais sans
l’utilisation des loss ratio attendus à la place d’un loss ratio constant, elles surestiment nettement
l’erreur de tarification.
Contraintes données
Nous voulions montrer, dans ce mémoire, l’impact de l’hypothèse d’un loss ratio constant sur
la volatilité du risque de prime. Malheureusement le nombre d’années d’historique des données
CHAPITRE 3. RISQUE DE PRIME
53
disponibles ne permet pas de délimiter un cycle. L’idée était de modéliser à l’aide de séries temporelles le cycle de loss ratio et de le considérer comme le loss ratio attendu pour le comparer au réel.
Une autre solution aurait été de partir avec une base complète de sinistres, et d’essayer de
tarifer dans les conditions de l’assureur pour obtenir une estimation du loss ratio attendu, mais
nous n’avions à notre disposition qu’une photo d’une base sinistre vue à une date donnée et non
une base complète.
3.2
Méthode 3
La troisième méthode proposée par l’EIOPA est basée sur le modèle Swiss Solvency Test, elle
calcule la volatilité du risque de prime en partant d’un modèle collectif.
Le montant total des sinistres à payer par l’assureur SN se calcule par :
SN =
N
X
Xi
i=1
où :
N \Θ ∼ P oiss(λΘ)
Le nombre de sinistres est une variable aléatoire, et Θ est une variable aléatoire qui représente
les fluctuations des nombres de sinistres. On suppose E[Θ] = 1, donc Θ joue uniquement sur la
volatilité, elle n’influence pas en moyenne.
Xi ∼ F (µ, σ), et les Xi sont indépendants et identiquement distribués et conditionnellement
indépendants de N
Le montant des sinistres est une variable aléatoire d’espérance µ et de variance σ 2 , on ne fera
pas d’hypothèse de loi.
L’objectif est de calculer la variance des pertes 2 ,
V ar(SN ) = µ2 λ2 V ar(Θ) + λµ2 + λσ 2
Les paramètres sont estimés par :
P
UA
A
µ̂ = P
Ni
A
où Ni est le nombre de sinistres de l’année i et UA le montant total des sinistres de l’année i.
P
σ̂ 2
=
E[X12 ]
− E[X1
]2
Zi
A
=P
− µ̂2
Ni
A
2
La démonstration de cette formule est faite en annexe
CHAPITRE 3. RISQUE DE PRIME
54
avec Zi la somme de chaque sinistre au carré pour l’année i.
P
Ni
A
λ= P
V
Vi (prem,lob)
A
où Vi est le montant de prime reçue pour l’année i.
Le paramètre λ est estimé en fonction du volume des primes, il représente le nombre de
sinistres moyen pour le volume de prime de l’année. Il faut aussi la variance de la variable
aléatoire Θ, la difficulté étant que cette variable est difficilement quantifiable. Une estimation de
cette variance est donnée par la formule suivante :
d = c
V ar(Θ)
α
j
−1 VF
−1
F̄
On note :
-vj le nombre de sinistres prévu pour l’année j.
-J, le nombre d’années d’historique de donnée disponible.
Nj
vj
• Fj =
J
P
• α=
vj
j=1
α/J représente le nombre moyen de sinistre prévus par année.
J
P
vj
• F̄ =
j=1
α
Fj
F̄ est un coefficient d’erreur de prédiction du nombre de sinistres, si chaque année la
prédiction était parfaite, F̄ serait égale à 1.
• VF =
• c=
1
J−1
J
P
vj
j=1
α
J
P
vj (Fj − F̄ )2
j=1
1−
vj α
La volatilité globale du risque de prime se calcule par :
σprem,lob =
1
Vprem,lob
q
V ar(SN )
Limites de la méthode
Le principal avantage des méthodes 1 et 2 vient de leur simplicité de compréhension et d’application. La méthode 3 est quant à elle plus difficile à appréhender et demande plus de données
comme l’estimation du nombre de sinistres de chaque année ainsi que le détails de chaque sinistre.
La méthode 3 joue sur la fréquence des sinistres, par conséquent il faut un LoB avec un volume
important et une fréquence de sinistres comparables dans le temps. La méthode est donc adaptée
à des LoB à hautes fréquences de sinistres (comme l’assurance voiture, habitation,...). Mais elle
CHAPITRE 3. RISQUE DE PRIME
55
n’est pas applicable pour les branches avec des sinistres rares comme l’assurance d’entreprises
où la fréquence des sinistres entre les années varient beaucoup.
La méthode 3 semble légèrement moins sensible au risque de cycle que les 2 autres méthodes.
En effet, le nombre de sinistres estimé N pour l’année prochaine dépend du volume de prime de
l’année qui vient. La variance des pertes est donc calculée en fonction du nombre de sinistres
relatif à cette prime propre à l’année prochaine. Mais le volume de prime ne reflète pas forcément
l’évolution des sinistres de l’assureur car celui-ci est biaisé par la stratégie de tarification. Par
exemple, supposons que l’entreprise baisse ses prix par rapport à l’année précédente. Pour un
même volume de prime, le nombre de clients sera plus important cette année, et logiquement le
nombre de sinistres aussi. La méthode 3 reste donc impactée par le phénomène de cycle. Une
solution serait de calculer le nombre de sinistres en fonction du nombre d’adhérents de l’année.
Cela permettrait de prendre en compte les stratégies de tarification dans le risque de prime,
puisque celles-ci se répercutent sur la capacité de souscription de l’entreprise.
La méthode demande en entrée le nombre de sinistres que la compagnie attendait pour chaque
année, ce qui permet d’avoir une volatilité entre le nombre de sinistres attendus et réellement
obtenus. Mais si l’entreprise n’a pas à sa disposition cet historique de données, l’EIOPA propose
dans sa spreadsheet USP de l’estimer avec une hypothèse de loi. L’ajout de cette nouvelle hypothèse enlève de la précision aux calculs car ils ne représentent plus le véritable écart entre le
nombre réel et attendu de sinistres.
Le fait de ne pas posséder une base complète a aussi pour conséquence que nous n’avons
pas de résultat pour la méthode 3 qui demande le détails des sinistres pour pouvoir estimer la
volatilité de la charge d’un sinistre.
3.3
Résultats
Nous allons regarder avec les différents triangles et leurs primes correspondant, les conséquences
de l’utilisation des USP. Les volumes de prime pour les trois branches étudiées dans ce mémoire
sont :
MAT
Third-party liability
Other motor
Volume de prime
215 692 307
334 885 917
1 142 895 881
Table 3.1: Volume de prime par LoB
Le tableau suivant donne les résultats des USP sur les deux premières méthodes du risque de
prime comparés avec la volatilité du marché de la formule standard.
CHAPITRE 3. RISQUE DE PRIME
MAT
Third-party liability
Other motor
56
Méthode 1
11,67%
5,70%
4,82%
Méthode 2
10,87%
5,21%
4,83%
Marché
17%
15%
7%
Table 3.2: Comparaison des USP risque de prime
Pour les trois branches observées, les volatilités calculées avec les méthodes 1 et 2 sont nettement inférieures à celles du marché. Le plus marquant est pour la branche Third-party liability,
où il y a une différence de plus de 9%, ce qui montre que l’entreprise a fortement intérêt à prendre
ses propres spécificités en compte.
L’avantage d’utiliser les USP du risque de prime par rapport à la formule standard se quantifie
avec le gain fait sur le SCR du risque de souscription non-vie risque de prime.
MAT
Third-party liability
Other motor
SCR formule
112 988
151 748
222 576
standard
645
853
754
Gains avec méthode 1
39 439 686
35%
99 401 360
66%
72 781 290
33%
Gains avec méthode 2
45 048 733
40%
104 147 104
69%
72 460 913
33%
Table 3.3: Gain de SCR effectué sur le risque de prime en montant et pourcentage du SCR de
la formule standard
Les trois entreprises étudiées ont des USP nettement inférieurs à la volatilité marché pour
les deux méthodes proposées, par conséquent, elles obtiennent donc un gain de SCR en utilisant
les USP. Le gain le plus important est pour la branche Third-party liability, qui économiserait
69% de son SCR risque de prime en prenant ses propres spécificités dans la formule standard.
Les deux autres compagnies représentant les branches Other motor et MAT gagneraient plus
de 30% de leurs SCR risque de prime. Ces gains importants montrent que les USP impactent
réellement la solvabilité d’une compagnie. cependant les exemples étudiés ici ne reflètent pas
toutes les entreprises : pour une partie des compagnies l’utilisation des USP entraînerait une
augmentation du besoin de fonds propres.
Pour conclure, actuellement les trois méthodes semblent applicables, les différences entre la
méthode 1 et la méthode 2 sont très faibles puisqu’elles sont construites de la même façon. Mais
les deux méthodes possèdent le même défaut avec l’hypothèse d’un loss ratio constant qui surestime la volatilité. Afin d’ajouter de la précision, il faudrait utiliser des loss ratio estimés pour
chaque année à la place d’un constant dans la méthode 1. La méthode 2 peut difficilement être
modifiée à cause de la méthode du maximum de vraissemblance, et par conséquent la méthode
1 ajustée semble préférable. La méthode 3 peut être utilisée pour un LoB avec une grande fréquence de sinistres, mais elle demande plus de renseignement comme le détail de chaque sinistre
et une estimation du nombre de sinistres pour chaque année passée. Si l’entreprise ne possède
pas ces estimations, L’EIOPA propose de les estimer avec une nouvelle hypothèse de loi, ce qui
enlève de la précision à l’étude.
CHAPITRE 3. RISQUE DE PRIME
57
Résumé des conditions d’application :
• Méthode 1 : La méthode est un applicable avec un historique de loss ratio attendus.
• Méthode 2 : La méthode 1 modifiée semble préférable à cette méthode.
• Méthode 3 : Il faut un LoB avec une haute fréquence de sinistres, le nombre de sinistres
attendus pour chaque année et le détail de chaque sinistre. La méthode serait moins sensible
au risque de cycles si l’estimation du nombre de sinistres de l’année prochaine dépend du
nombre d’adhérents et non du volume de prime.
Chapitre 4
Risque de prime et de réserve
Nous avons regardé jusque là les conséquences de l’application des USP sur le SCR pour le risque
de prime et le risque de réserve séparément. Or dans la réforme Solvabilité 2, ces deux risques
sont calculés ensemble dans un seul sous module. C’est pourquoi nous allons étudier l’impact de
l’utilisation des USP sur le SCR du risque de prime et de réserve.
Nous considérons dans ce mémoire que le coefficient géographique DIVlob est égale à 1, et
donc que la diversification géographique n’intervient pas dans nos calculs. Ce qui induit que le
volume global du risque de prime et de réserve est défini par la somme du volume de prime et
de celui de réserve.
MAT
Third-party liability
Other motor
Volume de prime et de réserve
561 578 125
824 906 607
1 142 895 881
Table 4.1: Volume de prime et de réserve par LoB
La volatilité globale par branche est calculée avec la formule (1.6) de la partie 1 de ce mémoire.
Pour la volatilité des réserves c’est la méthode Merz Wüthrich qui est choisie, nous séparerons
les résultats entre la méthode 1 et la méthode 2 du risque de prime.
MAT
Third-party liability
Other motor
Volatilité
Méthode 1 Méthode 2
9,9%
9,7%
4,5%
4,3%
5,3%
5,3%
Marché
13,2%
10,9%
6,9%
Table 4.2: Volatilité des primes et des réserves par LoB
Avec les volumes et les volatilités ci-dessus, nous pouvons estimer le gain effectué sur le SCR
risque de prime et de réserve du module de risque de souscription non-vie.
58
CHAPITRE 4. RISQUE DE PRIME ET DE RÉSERVE
MAT
Third-party liability
Other motor
.
SCR formule
219 231
261 475
291 258
standard
937
707
112
Méthode
59 294 692
160 612 622
69 337 526
59
Merz Wüthrich
1
Méthode
27%
63 621 326
61,4% 164 456 331
23,8% 69 041 905
2
29%
62,9%
23,7%
Table 4.3: Gain en SCR sur le risque de prime et de réserve par LoB
Pour les trois branches représentées ici, l’utilisation des USP présente un avantage certain
d’économie de fonds propres. Le montant économisé est significatif puisque pour un des LoB il
atteint plus de 60% du SCR. De plus c’est un gain qui ne demande pas beaucoup d’efforts de
mise en place ni de temps de calcul puisque les méthodes sont relativement simples à implémenter. Cependant certaines méthodes requièrent beaucoup de données. Les exemples présentés ne
reflètent pas forcément l’ensemble des assureurs, les volatilités marché sont calculées sur un panel
de compagnies, par conséquent pour d’autres entreprises l’utilisation des USP peut entraîner une
perte. Mais en perte ou en gain, l’utilisation des paramètres propres à l’entreprise permet de
mieux prendre en compte le risque encourus par la compagnie, ce qui a son importance dans le
cadre de la mise en place de l’ORSA.
Les gains obtenus sont très importants, mais il ne faut pas les généraliser à l’ensemble des
LoB. Il semble, par exemple, étrange que la garantie responsabilité civile est une volatilité nettement inférieure à la garantie dommage. Comme nous n’avons pas pu effectuer les retraitements
indispensables sur les données, nous mettons une réserve sur leurs qualités.
Un des risques liés aux undertaking specific parameters est le biais dans son utilisation, dans
le sens où seules les compagnies dont l’application des USP présente un intérêt vont les utiliser,
les autres préféreront la formule standard. Cela implique qu’une grande partie des entreprises
qui estimeront leurs SCR avec la formule standard auront une volatilité réelle supérieure à celle
prise dans les calculs, et donc présenteront un risque de sous estimation de leurs besoins de fonds
propres. La mise en place des calculs des USP étant relativement simple, rendre leur application
obligatoire pour les entreprises ayant assez de données permettrait de limiter ce biais, et d’avoir
une estimation plus adéquate de leurs SCR.
Les compagnies utilisant les USP sur une année devront être conscientes qu’elles auront une
obligation de continuer sur les années suivante, que ce soit un avantage ou un inconvénient. En
effet, il sera très difficile d’expliquer aux autorités de contrôle l’utilisation sur une année et pas
sur l’autre, avec comme seul argument le gain en fond propre sur cette année mais pas sur l’autre.
Troisième partie
Impact de la réassurance sur le SCR
60
Chapitre 1
Présentation
La réassurance permet de protéger les gains des assureurs contre les grosses pertes qui seraient un
risque pour la solvabilité de la société. En se réassurant, l’assureur échange une part de son profit
contre un gain de stabilité de ses résultats. En effet, la compagnie qui se réassure sait qu’elle va
être perdante en moyenne mais cela lui permet de lisser son résultat et en évite les variations qui
pourraient avoir de graves conséquences financières. Il est logique que la réassurance influe sur
le risque catastrophe, mais cette stabilité obtenue se répercute aussi sur le risque de prime et de
réserve. En effet, comme l’assureur est protégé contre les pertes exceptionnelles, l’estimation de
son résultat et de ses réserves sera plus précise.
La réassurance influe sur le volume de prime et de réserve, puisque le montant à provisionner
est plus faible après réassurance, et le montant de la prime perçue aussi. Mais elle impacte aussi
en volatilité, en limitant les risques d’obtenir une très mauvaise année. L’objectif de cette partie
est d’étudier les conséquences de la réassurance non proportionnelle sur le calcul du SCR pour
les compagnies utilisant les USP. Pour bien étudier le gain ou la perte induit par la réassurance,
nous allons observer l’impact sur le SCR en prenant en compte le coût de la réassurance et
l’augmentation du besoin de fond propre pour le risque de contrepartie lié à cette réassurance.
Il est indispensable de posséder une base de sinistres complète pour faire varier les traités de
réassurance et les appliquer sur chaque sinistre individuellement, afin de construire un triangle
net de réassurance. Le problème étant que nous avons seulement à notre disposition une « photo »
d’une base sinistre. Pour pallier cette problématique, nous avons construit une base complète en
émettant quelques hypothèses que nous allons détailler dans ce chapitre.
Pour rappel, nous disposons de :
• Une « Photo » d’une base sinistre vue en fin 2009 avec comme date de survenance la plus
ancienne 1994.
• Le triangle de règlements cumulés construit à partir de cette table.
• Le nombre de sinistres pour chaque année de survenance.
• Le montant des primes reçues par année.
• Le nombre d’adhérents par année.
61
CHAPITRE 1. PRÉSENTATION
1.1
62
Construction de la base sinistre
Modélisation des sinistres à l’ultime
Pour construire la table, nous voulions partir d’une table existante afin de pouvoir calibrer nos
hypothèses sur des données réelles, et ainsi rester proche de la réalité tout en ayant la possibilité
d’utiliser les primes réelles ainsi que le triangle dont nous disposons.
Comme décrit précédemment dans la partie données, la base contient des contrats en responsabilité civile automobile et en dommage. Nous avons choisi d’étudier des contrats de responsabilité civile car ils présentent une plus grande disparité dans les montants des sinistres
que la branche dommage, et permettent donc de mettre en valeur l’impact de la réassurance.
Mais la Responsabilité Civile est une branche long terme, et nous avons une base vue en 2009
dont l’année de survenance de sinistre la plus ancienne est 1994. Dans un souci de simplification,
nous considérons que la première année de survenance de la base est close, ce qui signifie qu’au
bout de 16 ans tous les sinistres sont réglés. Cette hypothèse n’est pas tout à fait correcte dans
la réalité mais au regard du triangle de règlements, elle reste crédible. En effet, les 2 derniers
paiements incrémentaux de l’année de survenance 1994 représentent seulement 0,25% et 0,30%
des paiements cumulés de l’année.
Nous avons créé la base de sinistres réels en calibrant des lois à partir de l’année 1994 de
la base, et en ajoutant un bruit afin d’avoir de la volatilité entre les différentes années. La base
représente 16 ans de données, de 1994 à 2009, le coût d’un sinistre et la fréquence des sinistres
sont modélisés par des lois mathématiques.
Fréquence des sinistres
Le nombre de sinistres est estimé avec une loi de Poisson. Cette loi est très utilisée en assurance
non-vie dans l’estimation de la fréquence de sinistres car elle a l’avantage d’avoir un seul paramètre facile à interpréter et à estimer. Nous possédons le nombre de sinistres pour chaque année
de la base. Nous considérons que ces nombres de sinistres représentent les moyennes de sinistres
attendues chaque année et les utilisons comme paramètres de la loi de poisson.
Coût d’un sinistre
Les lois classiques les plus utilisées pour modéliser le coût des sinistres sont la loi Lognormale,
la loi Weibull, la loi gamma et la loi de Pareto. La loi de Pareto est la loi qu’utilisent les réassureurs, elle possède une queue de distribution épaisse qui permet de prendre en compte les
pertes extrêmes. Mais la lourdeur de sa queue surestimerait la gravité des sinistres par rapport
à la réalité et amènerait un biais à l’étude puisque la réassurance aurait un rôle plus important
que dans la réalité. Le choix entre les trois autres lois est effectué avec le test de Kolmogorov
Smirnov. Les résultats pour les trois lois ne sont pas très bons, nous choisissons quand même la
loi Lognormale qui a des résultats moins mauvais que les autres.
CHAPITRE 1. PRÉSENTATION
63
Pour prendre en compte l’inflation sur le coût des sinistres, les données sont inflatées avec
l’indice à la consommation de l’INSEE1 .
Année
Inflation
Année
Inflation
1994
1,6%
2002
1,9%
1995
1,8%
2003
2,1%
1996
2%
2004
2,1%
1997
1,2%
2005
1,8%
1998
0,7%
2006
1,6%
1999
0,5%
2007
1,5%
2000
1,7%
2008
2,8%
2001
1,7%
2009
0,1%
Table 1.1: L’indice à la consommation de 1994 à 2009
Modélisation de la cadence de règlement
Afin d’obtenir un triangle de règlements, il est nécessaire de posséder le détail de l’écoulement
des sinistres, or pour l’instant seuls les sinistres à l’ultime ont été modélisés. Dans l’optique de
rester proche de la réalité et d’avoir une référence à suivre, le triangle de la » photo« de la base
servira de cadre à la modélisation de la cadence de règlement.
Nous faisons l’hypothèse que les sinistres de la base suivent la même cadence que celle du
triangle, représentée par ses coefficients de Chain Ladder fj . Pour chaque année de survenance,
le montant d’un sinistre pour une date de développement donnée est calculé par :
b
b
Xi,j
= Uj × Xi,j−1
b représente le montant d’un sinistre b de l’année de survenance i pour l’année de dévelopoù Xi,j
pement j.
Uj ∼ LogNormal(a, b)
Uj suit une loi Lognormale dont les paramètres sont estimés avec la méthode des moments en
considérant le facteur de développement fj comme l’espérance, et la volatilité des facteurs individuels pour une année de développement comme variance.
Pour chaque sinistre d’une année de survenance, et pour chaque année de développement,
une loi Lognormale est simulée ce qui permet d’ajouter de la volatilité dans l’écoulement des
sinistres tout en suivant la cadence globale du triangle initial. Une fois la cadence modélisée,
nous avons une base sinistre complète de 16 ans d’historique.
Limites de la modélisation
La principale limite attachée à la création de la base vient de la non segmentation des sinistres
attritionnels et graves. Dans la réalité, les sinistres graves ont une distribution et un cadencement
différents des sinistres attritionnels, ils sont aussi plus touchés par l’inflation.
La loi Lognormale est la plus utilisée par les assureurs en assurance non-vie pour modéliser leur distribution de sinistres, mais elle a tendance à sous-estimer les sinistres extrêmes par
1
cf Bibliographie site internet
CHAPITRE 1. PRÉSENTATION
64
rapport à la réalité, ce qui diminue l’influence de la réassurance. Afin d’être plus précis dans l’estimation des sinistres à l’ultime, il aurait fallu utiliser des mélanges de lois propres à la branche
RC automobile. La création de la base est une étape nécessaire pour pouvoir analyser l’impact
de la réassurance mais elle n’est pas le centre du mémoire. Par conséquent, dans un souci de
simplification, une baisse de précision est acceptée, et les sinistres sont estimés avec une loi statistique classique. Parmi ces différentes lois, la loi Lognormale semble être la plus adaptée pour
estimer la distribution des sinistres à l’ultime.
Il faut un temps important avant qu’une compagnie d’assurance parvienne à mesurer la gravité d’un sinistre, et plus le sinistre est sévère, plus le temps est long. C’est pourquoi les sinistres
extrêmes suivent une cadence différente de celle des autres sinistres. Mais il est nécessaire d’avoir
des informations précises sur les sinistres, et des outils de simulation adaptés à la branche, pour
pouvoir estimer convenablement les particularités du cadencement des sinistres graves. N’ayant
pas à disposition ces informations et ne voulant pas définir arbitrairement une cadence qui pourrait s’éloigner de la réalité, l’écoulement des sinistres graves a été modélisé de la même façon
que les autres sinistres. Ce choix a un effet sur l’étude puisque le cadencement des sinistres a un
poids sur la volatilité des réserves, et que la réassurance porte sur les sinistres graves. Cela peut
avoir pour conséquence de diminuer l’impact de la réassurance sur les USP, et donc sur le risque
de réserve et de prime.
L’inflation aussi est différente pour les sinistres graves. En effet, les sinistres graves sont
principalement des sinistres corporels, et l’inflation est liée à l’évolution jurisprudentielle qui
augmente constamment, avec notamment des appareils respiratoires à la maison, ou encore des
constructions de chambres médicalisées.
1.2
Traité de réassurance
La réassurance permet à l’assureur de limiter ses engagements. Il existe trois modes classiques
de réassurance : la réassurance facultative, la facultative-obligatoire et la réassurance obligatoire.
C’est cette dernière catégorie où le cédant (l’assureur) s’engage, sur une période fixée, à céder ses
risques d’une catégorie donnée et le cessionnaire (le réassureur) étant obligé de les accepter. La
réassurance obligatoire se divise en deux parties, la réassurance proportionnelle et la réassurance
non proportionnelle.
Dans la réassurance proportionnelle, l’assureur s’engage à céder au réassureur une fraction
des primes en échange de la prise en charge de ce dernier de la même fraction du montant des
sinistres. Dans la réassurance non proportionnelle, le réassureur n’intervient qu’à partir d’un
certain seuil de sinistre ou de perte de la cédante. C’est cette dernière que nous allons étudier
dans ce mémoire, la réassurance proportionnelle influant plus sur le volume que sur la volatilité
des primes et des réserves.
L’objectif de ce mémoire n’est pas de trouver le traité de réassurance optimal par rapport
à Solvabilité 2, mais d’étudier l’impact de la réassurance sur les USP et sur l’exigence de fonds
propres d’une compagnie. C’est pour cela que nous ne regarderons qu’un seul traité, le traité en
excédent de sinistre (XL) qui est un des plus fréquemment utilisé, assez simple dans la mise en
place.
CHAPITRE 1. PRÉSENTATION
65
Les traités en excédent de sinistre (ou excess of loss) sont représentés par leurs portées et
leurs priorités. Ils se décomposent en deux catégories de traités : Les XL par risque et les XL par
événements.
• Les traités en excédent de sinistre par risque permettent la couverture de risques individuels (une personne, un objet,...)
• Les traités en excédent de sinistre par événement permettent la couverture contre des sinistres liés à un événement (catastrophe naturelle, accident d’avion, pollution,...) et touchant plusieurs objets assurés.
Dans la suite, seul le traité XL par risque sera utilisé puisque c’est la réassurance pour chaque
sinistre individuel qui nous intéresse.
• La priorité est le montant au-delà duquel intervient le réassureur.
• La portée de l’XL est le montant maximum à la charge du réassureur
• La portée additionnée de la priorité représente le plafond de l’XL, au-delà de ce seuil le
sinistre n’est plus réassuré
La réassurance influe sur l’exigence de fonds propres d’une compagnie d’assurance, mais l’analyse
du gain ou de la perte obtenu avec celle-ci doit nécessairement intégrer le coût de la réassurance.
En effet, le montant du profit en soi n’est pas significatif, il faut le rapporter au prix de la
réassurance pour pouvoir se faire une idée précise. Or, les primes de réassurance ne sont pas
disponibles, il est donc indispensable de les estimer.
Il existe différentes méthodes de tarification du prix de réassurance :
• Des approches « pragmatiques » telles que le prix du marché, le prix de l’apériteur ou
encore le Rate on Line (RoL) minimum.
• Une approche « probabiliste » similaire à celle de l’assurance qui estime des lois de fréquence
et de sévérité, et calcule la prime par simulation.
• Une méthode sur expérience, appelée aussi méthode de « burning cost ».
La méthode choisie est celle de « burning cost », qui est une méthode simple à mettre en place et
qui donne des résultats rationnels par rapport aux prix du marché. La méthode tarifie la prime en
fonction des sinistres graves du passé qui auraient été impactés par le traité de réassurance étudié.
La première étape consiste à mettre les sinistres passés en valeur actuelle, dans l’étude cela
correspond à 2009. Les sinistres graves par année de survenance sont redressés de 3% par an,
ce pourcentage a été choisi arbitrairement pour rester en cohérence avec les autres hypothèses
de l’étude. En effet, les sinistres graves ont une inflation plus importante que les autres, mais
cette distinction n’a pas été intégrée dans la création de la base. Il paraît quand même important
de la prendre en compte dans le prix de la réassurance qui ne concerne que les sinistres graves.
C’est pourquoi, le redressement de ces sinistres est estimé à 3% par an, ce qui correspond à
peu près au double de l’indice de consommation moyen sur les 16 années. L’utilisation d’une
inflation plus élevée pour les sinistres graves dans le prix de la réassurance et pas dans la base de
CHAPITRE 1. PRÉSENTATION
66
sinistre aura tendance à surestimer la prime de réassurance, et donc limiter légèrement l’impact
de la réassurance. Mais cela reste cohérent puisque dans leur tarification, les réassureurs ont
tendance à surestimer les pertes afin d’anticiper des cas exceptionnels. C’est pourquoi dans la tarification par simulation, la loi pareto qui a une queue de distribution épaisse, est souvent utilisée.
La deuxième étape réassure les sinistres individuellement avec la portée et la priorité du traité
à tarifer, et ainsi calcule la charge du réassureur pour chaque année passée avec les sinistres redressés. Une fois cette charge estimée, il est alors possible d’obtenir la prime pure du traité en
faisant une moyenne des charges sur le nombre d’années d’exposition. Ce nombre est estimé par
le montant des primes passées en valeur 2009 sur la prime 2009, il permet de prendre en compte
l’évolution du portefeuille dans la prime de réassurance. Dans notre étude, l’exposition correspond au nombre d’année de la base, ce qui montre que le portefeuille n’a pas trop évolué.
La prime finale est défini par :
P rime =
P P × (1 + α)
1 − Courtage
où
• Prime est la prime de réassurance.
• PP est la prime pure.
• α est le chargement qui couvre les frais administratifs ou encore la marge du réassureur, il
est estimé à 10%.
• Courtage représente les frais de courtage, soit le coût de la rémunération du courtier de
réassurance, il est estimé à 10%.
1.3
Risque de contrepartie
Les économies de fonds propres obtenues avec la réassurance seraient biaisés sans la prise en
compte du risque de contrepartie. Le risque de contrepartie représente la perte potentielle en cas
de défaut de la contrepartie, ici le réassureur. En effet, si celui-ci fait défaut, il n’est plus en état
d’assurer ses obligations vis-à-vis de l’assureur, ce qui nécessite une protection supplémentaire en
fonds propres. Le risque de contrepartie représente un module de risque dans la formule standard
de la réforme Solvabilité 2.
Le SCR de contrepartie se calcule avec la formule suivante :
√
 √
P
si V ≤ 5% LGDi

 3 V
i
SCRcont =
√ P

 min
LGDi ; 5 V
sinon.
i
où :
• V, la variance de la distribution des pertes ;
• Loss-given-default (LGDi ), la perte en cas de défaut de la contrepartie i.
CHAPITRE 1. PRÉSENTATION
67
La perte en cas de défaut est défini par :
LGDi = max(50%(Recouvrementsi + RMi − Collatrali ); 0)
avec :
- Les recouvrements sont les best estimate des retours des réassureurs.
- Le Risk mitigating (RM) représente l’effet d’atténuation des risques. Il se calcule comme la
différence entre le SCR brut et net de réassurance.
- Le collatéral est le montant que le réassureur donne comme garantie à l’assureur.
Une fois la perte en cas de défaut calculée, la variance de la distribution des pertes peut être
estimée :
XX
X
V =
uj,k yj yk +
v j zj
j
où yi =
P
i
LGDi et zj =
k
j
(LGDj )2 . Le paramètre de corrélation γ est fixé à 0,25.
P
j
uij =
pi (1 − pi )pj (1 − pj )
(1 + γ)(pi + pj ) − pi pj
vi =
(1 + 2γ)pi (1 − pi )
2 + 2γ − pi
pi représente la probabilité de défaut de la contrepartie i, elle est donnée en fonction du rating
de celle-ci par L’EIOPA.
Chapitre 2
Application
2.1
Hypothèses
Dans le cadre de l’étude de la réassurance, des hypothèses ont été nécessaires pour mener à
bien l’analyse. La première est que le réassureur utilise l’euro comme monnaie, ce qui enlève
les problèmes liés au taux de change. La seconde hypothèse est que le réassureur est noté A
par les agences de notation. Dans la réalité, le prix d’une couverture en réassurance est corrélée avec la note du réassureur puisque les assureurs sont prêts à payer plus cher pour avoir
une contrepartie plus sûr. Les assureurs se couvrent auprès de plusieurs réassureurs, à cause du
niveau des tranches XL, il y a des réassureurs qui proposent des tranches élevées et d’autres
qui préfèrent les tranches plus basses, et pour diversifier leurs portefeuilles. Nous n’avons pas la
possibilité de faire varier le prix de la réassurance en fonction du rating, pour cela nous faisons
l’hypothèse d’un unique réassureur de rang A, qui correspond à un réassureur relativement fiable.
En pratique, le réassureur fournit souvent une garantie à l’assureur, le collatéral, qui peut
être un dépôt en espèce ou en actifs financiers. Nous n’avons pas la possibilité d’estimer le collatéral puisque celui-ci varie en fonction des compagnies et qu’il faudrait le fixer arbitrairement
sans aucune base. L’hypothèse d’un collatéral nul est donc effectuée. C’est principalement les
réassureurs les moins bien notés qui ont intérêt à fournir une garantie, dans l’étude le réassureur
a un rating A, l’hypothèse d’absence de dépôt du réassureur se justifie donc.
Un réassureur avec une bonne notation a une probabilité de défaut plus faible qu’un autre
réassureur avec un plus mauvais rating. Mais celui-ci mettra plus souvent un collatéral dans son
contrat, ce qui diminuera le besoin en capital lié au risque de contrepartie. Cette compensation
permet de limiter l’importance du rating dans la tarification du prix de réassurance.
Bien que le risque catastrophe soit fortement impacté par la réassurance, il n’est pas le sujet
de l’étude. Nous supposerons donc qu’il n’y a pas de risque catastrophe dans notre analyse.
Notre portefeuille de sinistres ne subit pas de changement important, nous supposons que la
stratégie de réassurance n’évolue pas de 1994 à 2009.
Afin de gagner en temps de calculs, c’est la méthode de Merz Wüthrich pour le risque de réserve et la méthode 1 du risque de prime qui seront utilisées pour estimer les USP de ces risques.
Le triangle construit à été testé aux hypothèses de Mack et à celle de la formule simplifiée de
68
CHAPITRE 2. APPLICATION
69
Merz Wüthrich, et les hypothèses ne sont pas rejetées.
Pour résumer, les hypothèses effectuées dans ce chapitre sont :
• Le réassureur est européen.
• Un unique réassureur.
• Pas de prise en compte du risque catastrophe.
• L’achat de réassurance n’évolue pas dans le temps.
• Le réassureur est noté A par les agences de notations.
• Pas de collatéral.
• La méthode Merz Wüthrich est utilisée pour le risque de réserve.
• La méthode 1 du risque de prime est choisie pour calculer la volatilité du risque de prime.
2.2
Résultats
La compagnie servant de benchmark à la table construite est un acteur majeur en assurance
responsabilité civile automobile, et les volumes traités sont importants. Chaque année la compagnie doit faire face à des centaines de milliers de sinistres, dont certains atteignent plusieurs
millions d’euros. Les très grosses compagnies n’ont pas d’intérêt à acheter de la réassurance pour
des tranches basses car cela consisterait à un échange de capital, mais elles veulent se protéger
contre d’éventuelles pertes exceptionnelles qui auraient un véritable impact sur leurs résultats.
Les franchises des XL pour une compagnie de cette taille commencent généralement aux alentours de 4 millions, et atteignent la dizaine de millions pour une portée illimitée. L’hypothèse de
lognormalité des sinistres aplatit les sinistres graves, par conséquent, afin de rester cohérent dans
l’étude, le niveau de franchise est baissé par rapport à la réalité, pour commencer à un million
d’euros.
Afin d’avoir une idée de l’ordre de grandeur des sinistres, voici quelques données sur l’année
1993 inflatée qui sert de cadre à la création de la base :
Min
1 euro
Max
7 millions d’euros
Moyenne
1800 euros
Ecart-type
20 460 euros
Table 2.1: Informations sur les sinistres de la base
Calcul du gain de la réassurance
La directive Solvabilité 2 demande aux compagnies de posséder assez de fonds propres pour assurer leurs solvabilités dans 99,5% des cas. L’achat de réassurance sur des hautes tranches permet
de diminuer cette exigence, puisque dans les pires scénarios la réassurance allège une partie des
pertes de l’assureur. Le besoin en capital de l’assureur est donc plus faible car il sera moins
CHAPITRE 2. APPLICATION
70
sensible à un scénario défavorable.
Le gain en SCR peut se quantifier, il se calcule avec la formule suivante :
P,R
P,R
GainSCR = SCRBrut
− (SCRN
et + SCRcont )
avec :
P,R
• SCRBrut
, le besoin de fonds propres lié au risque de réserve et de prime brut de réassurance.
P,R
• SCRN
et , le besoin de fonds propres lié au risque de réserve et de prime net de réassurance.
• SCRcont , le besoin de fonds propres lié au risque de contrepartie.
Pour que le résultat soit interprétable, il faut le comparer avec d’autres montants tels que le
besoin de fonds propres brut de réassurance, ce qui permet d’avoir le pourcentage de SCR gagné,
ou encore, avec la prime de réassurance, qui donne le gain effectué en fonction du prix payé.
Le gain en SCR calculé ici est obtenu après 16 années de réassurance, il ne montre pas le
bénéfice que ferait l’entreprise en se réassurant l’année prochaine mais celui qu’elle aurait eu si
elle avait appliquer cette stratégie depuis 16 ans. Mais pour comparer le gain en SCR avec le
prix de la réassurance nous allons utiliser le prix pour une seule année de réassurance et non
celui des 16 années cumulées. En effet, le triangle agrandi des années futures (2010, 2011,...) aura
un gain de volatilité grâce aux années passées, et la réassurance des années passées participera
au gain en SCR de l’année 2010, mais aussi sur celui de l’année 2011 et sur plusieurs après.
Le gain en SCR a été obtenu après 16 ans de réassurance, mais cette réassurance assurera des
gains sur plusieurs années encore, par conséquent il est plus adéquate de comparer le gain en
SCR obtenu aujourd’hui avec le prix d’une seule année de réassurance. Pour être tout à fait
correcte, il faudrait mesurer le gain en SCR acquis avec la réassurance des années 1994 à 2009
sur toutes les années futures et comparer ce montant là avec la somme des primes de réassurance sur les 16 ans. Mais cela est impossible à calculer, par conséquent, comparer l’économie
de fonds propres réalisée avec une année de prime de réassurance semble être la meilleure solution.
Primes de réassurance
Les traités analysés varient d’une franchise de 1 million jusqu’à 10 millions, avec une portée
illimitée pour chaque traité. C’est représentatif des achats de réassurance réels des grandes compagnies d’assurance, à l’exception que les assureurs achètent plusieurs tranches intermédiaires
avant de finir avec un XL illimité à partir d’une dizaine de millions d’euros. Afin de vérifier si les
prix de réassurance sont cohérents, nous regardons l’évolution du ratio des primes de réassurance
par rapport aux primes reçues par l’assureur en fonction des contrats de réassurance :
CHAPITRE 2. APPLICATION
71
Figure 2.1: Évolution du ratio prime de réassurance sur prime totale en fonction des franchises
Il ressort du graphique que le ratio prime de réassurance sur prime finale diminue en fonction
de la franchise du traité, et que la décroissance est beaucoup plus importante pour les priorités
basses que pour les hautes. A partir d’un certain seuil, les retours du réassureur n’ont pas une
grande différence en moyenne quand on augmente d’une tranche, ce qui fait que la différence de
prix n’est pas importante. Le graphique montre que la tarification semble cohérente.
USP
Les exemples étudiés dans la partie précédente ont toujours montré des volatilités inférieures en
préférant l’utilisation des USP à la formule standard. Ce n’est pas toujours le cas, comme le
montre le triangle construit dans cette partie. En effet, le triangle a une volatilité de réserve de
14,27% avec l’utilisation de la méthode de Merz Wüthrich, alors que celle proposée par la formule
standard est de 9,5%. La volatilité des primes est, quant à elle, plus faible avec la méthode 1
que celle du marché puisqu’elle est estimée à 7,71% contre 10%. L’entreprise augmenterait son
exigence de fonds propres de 21% si elle choisissait d’utiliser les USP. Dans cette partie, c’est
l’effet de la réassurance qui est mesuré, nous ne nous intéressons pas au gain ou à la perte entre
USP et formule standard. Par conséquent, même si l’entreprise est obligée d’augmenter son exigence de fonds propres, nous considérons qu’elle choisit d’utiliser les USP dans son calcul du SCR.
CHAPITRE 2. APPLICATION
72
Risque de réserve
Franchises
√
M SEP
Best estimate
USP
Brut
147 554 868
1 033 691 568
14,27%
Table 2.2: Risque de réserve brut de réassurance
Les résultats suivants montrent les MSEP, les best estimate et les USP du risque de réserve en
fonction du niveau de la franchise :
Franchises
√
M SEP
Best estimate
USP
1M
135 652 092
970 202 467
13,98%
2M
140 037 973
997 268 643
14,04%
Franchises
√
M SEP
Best estimate
USP
6M
146 189 653
1 024 678 392
14,27%
7M
146 772 889
1 026 403 927
14,30%
3M
142 856 216
1 012 333 485
14,11%
4M
143 754 160
1 020 075 504
14,09%
5M
145 673 951
1 022 856 229
14,24%
8M
147 033 517
1 027 870 712
14,30%
9M
147 218 115
1 028 785 078
14,31%
10M
147 341 656
1 030 371 341
14,30%
.
Table 2.3: Évolution du risque de réserve en fonction des franchises
Le graphique suivant montre l’évolution des USP du risque de réserve en fonction des priorités
des XL :
Figure 2.2: Évolution des USP risque de réserve en fonction des franchises
CHAPITRE 2. APPLICATION
73
Le graphique montre que la volatilité des réserves augmente en fonction des franchises et que
la MSEP et le best estimate sont strictement croissants en fonction des priorités. Ces résultats
sont cohérents puisque plus la compagnie se couvre avec de la réassurance, plus elle gagne en
volatilité sur ses réserves. Son estimation des réserves est améliorée avec une plus grande prise
en compte des pertes exceptionnelles. Mais deux exceptions ressortent du graphique, il y a une
baisse des USP entre la franchise à 3 et celle à 4 millions, puis dans le passage de 9 à 10 millions.
Ces deux cas s’expliquent par une hausse plus importante du best estimate des réserves que de
la MSEP.
La diminution des USP entre net et brut de réassurance est notable jusqu’à une priorité de
4 millions, avec des différences allant de 0,18% à 0,29%. Par contre, à partir d’une franchise de
5 millions, le gain en volatilité est très faible, même négatif pour les tranches supérieures à 6
millions. La réassurance améliore l’erreur de prédiction des réserves en volume (MSEP) puisque
celle-ci est inférieure nette de réassurance à celle brute pour toutes les franchises. Mais cette
volatilité diminue moins que le best estimate des réserves pour les tranches hautes, ce qui fait
que le paramètre USP est meilleur sans réassurance pour ces priorités. A partir d’un certain
seuil, très peu de sinistres rentrent dans la couverture de réassurance. Dans notre étude, seuls 3
sinistres dépassent les 9 millions. la réassurance minimise le best estimate avec ce qui dépasse de
la priorité, mais ces montants n’ont pas d’incidence majeure sur la volatilité globale du portefeuille. Par conséquent, dans notre étude au delà d’un certain niveau, utiliser les USP ne présente
plus un avantage.
Risque de prime
Le tableau et le graphique suivants représentent la volatilité du risque de prime pour les différentes
franchises étudiées dans cette étude :
Franchises
USP
Franchises
USP
Brut
7,71%
6M
7,65%
1M
7,55%
7M
7,67%
2M
7,56%
8M
7,68%
3M
7,60%
9M
7,69%
4M
7,62%
10M
7,69%
5M
7,63%
Table 2.4: Évolution des USP risque de prime en fonction des franchises
CHAPITRE 2. APPLICATION
74
Figure 2.3: Évolution des USP risque de prime en fonction des franchises
Dans la même logique que les réserves, la volatilité du risque de prime est croissante en fonction des franchises des traités. En effet, plus la priorité est basse, plus le traité va écrêter de
sinistres ce qui aura un impact sur la volatilité. Jusqu’aux tranches 4/5, la réassurance permet
de gagner en stabilité avec une différence de 0,16% (respectivement 0,08%) entre brut et net pour
une franchise de 1 million (respectivement 5 millions). Au dessus des 5 millions, l’erreur de tarification est toujours améliorée avec l’utilisation de la réassurance, mais les différences sont faibles.
Les résultats montrent que jusqu’à un certain seuil, la réassurance permet de gagner en
précision dans l’estimation des réserves et dans la tarification. Mais l’influence de la réassurance
sur la volatilité du risque de réserve et de prime est moins importante qu’anticipée, puisque
dans les cas les plus marquants, elle diminue seulement de 0,29% pour les réserves, et de 0,16%
pour les primes. La non différenciation des sinistres graves dans la construction de la table peut
expliquer en partie le faible impact de la réassurance.
Impact sur le SCR
Le tableau suivant représente l’effet sur l’exigence de fonds propres obtenue par la réassurance,
proportionnellement à l’exigence sans réassurance :
Franchises
Gains/Pertes en SCR
Franchises
Gains/Pertes en SCR
1M
7,42%
6M
0,91%
2M
4,76%
7M
0,54%
3M
3,03%
8M
0,37%
4M
2,42%
9M
0,23%
5M
1,27%
10M
0,15%
Table 2.5: Gains ou pertes en pourcentage de SCR brut de réassurance en fonction des franchises
Les résultats mettent en lumière la réduction de l’exigence de fonds propres d’une compagnie
par la réassurance. Plus la couverture en réassurance est grande, plus l’exigence diminue. La
CHAPITRE 2. APPLICATION
75
logique est respectée puisque si l’entreprise achète une grosse couverture de réassurance, elle sera
forcément mieux protégée qu’une autre moins couverte. L’exigence de fonds propres représente
le capital nécessaire pour couvrir une perte qui arriverait tous les 200 ans, par conséquent le
montant de cette perte sera plus faible avec une plus grande réassurance. Il y a une économie de
fonds propres notable pour les 4 premiers traités, avec notamment une économie de 7,42% du
SCR pour une franchise de 1 million. Au delà de 4 millions, les retours du réassureur deviennent
trop rares pour influer en volume, ce qui fait que les gains sont peu significatifs.
Mais ces différences entre brut et net de réassurance sont principalement dues à la diminution du volume des réserves et des primes après réassurance. Le montant à provisionner est plus
faible après réassurance puisqu’il n’y aura pas de sinistres graves à payer. Et la prime reçue est
logiquement diminuée du coût de la réassurance.
L’économie de fonds propres est nécessairement plus avantageuse pour les grands achats de
réassurance quand le prix de celle-ci n’est pas pris en compte. En effet, sans intégrer son coût,
la réassurance n’a que des aspects positifs pour une société. C’est pourquoi nous allons étudier
à travers le tableau et le graphique suivants, l’économie de fonds propres proportionnellement à
la prime de réassurance pour les différentes franchises.
Franchises
Gains/Pertes en SCR
Franchises
Gains/Pertes en SCR
1M
107,8%
6M
149,1%
2M
138,7%
7M
110,9%
3M
148,5%
8M
90,8%
4M
193,1%
9M
70,6%
5M
149,8%
10M
54,6%
Table 2.6: Gains ou pertes en pourcentage de la prime de réassurance en fonction des franchises
Figure 2.4: Gain en SCR proportionnellement à la prime de réassurance
Le graphique est segmenté en 2, avec une croissance du gain en SCR proportionnellement
CHAPITRE 2. APPLICATION
76
à la prime de réassurance en fonction des franchises jusqu’à la priorité à 4 millions. Puis de 4
à 10 millions, une forte décroissance. Il ressort du graphique de façon assez marquante, que le
traité en XL avec une franchise à 4 millions semble être le plus avantageux au regard du coût de
la réassurance. Pour les 10 traités, l’assureur réalise une économie d’exigence de fonds propres
avec la réassurance, puisque le moins bon traité a un gain qui représente 54% de sa prime. La
tranche 4 économise quasiment le double de sa prime de réassurance en fonds propres. Si l’on
ajoute à cela gain en SCR du risque catastrophe qui n’est pas pris en compte dans ces résultats,
la compagnie rentabilise facilement le coût de la réassurance. Jusqu’à une franchise de 7 millions,
l’assureur peut diminuer son exigence de fonds propres d’au moins le montant de sa prime de
réassurance.
Cette étude est intéressante pour l’entreprise car elle peut servir d’aide à la décision dans
l’achat de la réassurance. Les spécificités du triangle font que le traité avec une franchises à 4
millions est le plus avantageux. Cela s’explique en partie par la baisse de volatilité des réserves
entre la tranche 3 et 4, qui représente une exception. Mais même si nous lissons la courbe entre
les franchises 3 et 5, le traité optimal resterait dans ces environs. Cela permet d’avoir une idée
de la meilleur couverture pour l’assureur.
Les premières franchises sont souvent atteintes, ce qui fait que leurs primes de réassurance
sont élevées. Le gain en stabilité de résultat effectué sur ces traités est notable, mais leurs coûts
importants les rendent moins rentables que d’autres traités moins actifs.
Impact de l’utilisation des USP
Les différents résultats précédents ont montré que la réassurance impactait significativement le
besoin de fonds propres d’une compagnie, mais il est difficile de visualiser le rôle de la volatilité.
Une entreprise qui se réassure, même si elle n’utilise pas les USP, prend son volume de prime et
de réserve net de réassurance pour estimer son SCR. Afin de mettre en avant l’utilisation des
USP dans ces résultats, nous allons observer le gain ou la perte en exigence de fonds propres
avec l’utilisation des USP net et brut de réassurance et le volume net de réassurance :
Resultat =
N et
N et
(SCRU
SPnet − SCRU SPbrut )
N et
SCRU
SPbrut
où :
N et
• SCRU
SPnet est calculé avec les USP estimés sur le triangle net de réassurance, et avec le
volume net de réassurance.
N et
• SCRU
SPbrut est calculé avec les USP estimés sur le triangle brut de réassurance, et avec le
volume net de réassurance.
Franchises
Gains/Pertes en SCR
Franchises
Gains/Pertes en SCR
1M
2,44%
6M
0,29%
2M
2,06%
7M
0,03%
3M
1,43%
8M
-0,05%
4M
1,44%
9M
-0,11%
5M
0,50%
10M
-0,10%
Table 2.7: Effet de l’utilisation des USP sur le SCR risque de prime et de réserve
CHAPITRE 2. APPLICATION
77
Ces résultats mettent en relief l’utilisation des paramètres de volatilité dans l’étude de la réassurance. En effet, les différences trouvées s’expliquent uniquement avec les USP puisque les volumes
utilisés sont les mêmes. Pour les 4 premières franchises, l’utilisation des USP permet une économie de fonds propres supérieure à 1%, allant jusqu’à 2,44% pour la première priorité. A partir
d’une franchise de 7 millions, l’entreprise ne fait plus de gains en SCR, et doit même augmenter
ses fonds propres pour certaines franchises. Cela s’explique par la volatilité des réserves qui est
supérieure à celle du triangle brut de réassurance pour les franchises très élevées.
La logique voudrait de comparer l’utilisation des USP par rapport à une application classique
de la formule standard. Mais la volatilité des réserves du triangle étant largement supérieure à
celle du marché, les résultats n’auraient pas été probants. Ce qui importe dans l’étude, c’est
les conséquences de la réassurance sur les USP. Et les résultats montrent que pour les priorités
basses, la réassurance influe sur la volatilité ce qui permet d’économiser des fonds propres à
l’entreprise. Les diminutions de volatilité observées restent en dessous de nos anticipations, cela
peut être du aux limites de la modélisation de la base. Afin de le vérifier, il serait intéressant
d’avoir les résultats de cette étude effectuée sur des données réelles.
Conclusion générale
Tout au long de ce mémoire, nous avons étudié en profondeur les différentes méthodes d’estimation des paramètres propres aux entreprises. Les résultats obtenus ont montré que l’utilisation
des USP avait des conséquences significatives sur l’exigence de fonds propres d’une compagnie.
Parmi les différentes méthodes proposées dans le QIS 5 Technical Specifications pour estimer
la volatilité du risque de réserve, aucune n’est applicable en toutes circonstances. Tout d’abord,
deux d’entre elles sont quasiment identiques ; elles utilisent la même base : la formule fermée de
Merz Wüthrich. La différence entre les deux vient du volume utilisé, la méthode 2 laissant libre
dans le choix de la méthode de provisionnement, alors que la méthode 3 impose Chain Ladder.
Pour être cohérent, nous préférons cette dernière puisque, la formule de Merz Wüthrich est une
adaptation du modèle de Mack, qui est une vision stochastique de Chain Ladder. La première
méthode est, quant à elle, difficilement applicable puisqu’elle demande de posséder un historique de best estimate. Or, les entreprises n’ont commencé que très récemment avec la réforme
Solvabilité 2 à les estimer. Il est donc rare qu’elles soient en mesures de posséder un historique
important. Nous avons introduit dans le mémoire, une alternative à ces méthodes : la méthode
Bootstrap à un an. Elle possède les avantages de prendre en compte les facteurs de queue de développement, et de pouvoir s’adapter à d’autres méthodes de provisionnement que Chain Ladder.
Nous avons détaillé dans le mémoire les différentes méthodes du risque de prime, afin de
mettre en évidence la méthode la plus adaptée pour une entreprise. Les trois méthodes ont des
inconvénients importants qui rendent leur application difficile. Les deux premières méthodes proposées par l’EIOPA sont des méthodes retrospectives. Elles calculent l’erreur de tarification de
l’année prochaine en se basant sur les erreurs passées. Mais l’erreur est estimée à l’aide d’un loss
ratio constant, ce qui est préjudiciable en cas de cycle dans la tarification. La solution serait
alors d’utiliser des loss ratio attendus pour chaque année passée, et de le comparer avec le loss
ratio réellement obtenu. Cela permettrait à l’entreprise d’avoir une vision de sa véritable erreur
de tarification passée. La troisième méthode estime la variance de la perte de l’année prochaine.
Pour calculer cette perte, elle suppose que la fréquence et la charge des sinistres sont des variables
aléatoires. La méthode nécessite plus de données, comme le détails de chaque sinistre ou encore
le nombre de sinistres attendus pour chaque année. Mais bien qu’elle soit plus résistante face à la
présence de cycle que les autres méthodes, elle reste sensible à ces phénomènes. Pour pallier cette
problématique, nous préférons estimer le nombre de sinistres de l’année qui vient en fonction du
nombre d’adhérents de l’entreprise plutôt que du volume de prime. Cette alternative intégrera
la stratégie tarifaire de l’entreprise dans la volatilité du risque de prime et sera par conséquent
moins impactée par les cycles.
78
CHAPITRE 2. APPLICATION
79
Avec la directive prudentielle Solvabilité 2, les assureurs doivent se protéger contre des scénarios catastrophes qui pourraient porter atteinte à la solvabilité de l’entreprise. Dans cette nouvelle
configuration, le rôle de la réassurance semble primordiale ; en effet, la réassurance permet aux
assureurs de se protéger contre les pertes exceptionnelles qui auraient des conséquences sur le
résultat de l’entreprise. Le risque le plus sensible à la réassurance est, logiquement, le risque
catastrophe qui prend en compte le risque qu’un événement rare survienne. Mais l’utilisation des
USP permet aussi aux entreprises d’intégrer le gain en stabilité sur leurs risque de prime et de
réserve obtenu avec la réassurance. L’objectif de la partie sur la réassurance était de mettre en
avant l’effet de celle-ci sur la volatilité des réserves et des primes. Les résultats ont montré que
la réassurance diminuait le besoin de fonds propres d’une compagnie, et que les gains obtenus
proportionnellement au coût de la réassurance étaient intéressants. Nous avons pu observer des
différences sur la volatilité, mais l’impact n’a pas été aussi important que nous l’avions anticipé. Mais même un faible écart de volatilité peut produire des gains ou des pertes notables
sur l’exigence de fonds propres d’une entreprise. Pour conclure, l’utilisation des USP permet aux
entreprises d’intégrer la stabilité gagnée avec la réassurance dans le risque de prime et de réserve.
L’étude que nous avons menée a analysé les conditions d’application des Undertaking Specific
Parameters en prenant en compte les spécificités du marché de l’assurance non-vie. Nous avons
pu vérifier que les USP ont un véritable impact sur le besoin de fonds propres d’une compagnie. Les volatilités de marché utilisées dans la formule standard ont été calculées par les mêmes
méthodes proposées pour estimer les USP. Par conséquent, l’utilisation des USP pour une entreprise donnera forcément une estimation plus précise de la volatilité du risque de réserve et de
prime que celle du marché. En effet, la même méthode sera appliquée sur les données propres
à l’entreprise plutôt que sur plusieurs sociétés, et sera donc plus adaptée à ses propres risques.
Il serait intéressant, dans la continuation de la réforme Solvabilité 2, d’imposer la pratique des
USP aux compagnies disposant de données suffisantes, mais ne possédant pas de modèle interne.
Cela éviterait le biais possible d’une utilisation uniquement par les entreprises ayant un avantage
financier à cela.
La réforme Solvabilité 2 est encore en cours de développement, il faudra attendre encore
quelques années afin d’obtenir des retours des assureurs et ainsi pouvoir évaluer la pertinence
des USP. Par exemple, dans une dizaine d’années la méthode 1 du risque de réserve pourra être
appliquée, et il sera alors possible de comparer les résultats avec les autres méthodes et ainsi
se faire une idée précise de la volatilité des réserves. L’étude sur la réassurance n’a pas donné
d’importantes différences de volatilité entre net et brut de réassurance. Mais nous pouvons nous
demander si cela est spécifique au triangle construit dans le mémoire, ou si de façon générale,
l’impact de la réassurance sur la volatilité est limité. Il serait intéressant de le vérifier en faisant
la même étude avec une base de données réelles.
Bibliographie
Ouvrages
• Blondeau J., Partrat C. (2003) La réassurance, approche technique. Economica.
• Partrat C., Besson J.L (2004) Assurance non-vie, modélisation, simulation. Economica.
• Partrat C. (2007) Provisionnement technique en assurance non-vie. Economica.
Articles
• Boumezoued A., Angoua Y., Devineau L.et Boisseau J.P. (2000) One-year reserve risk
including a tail factor : closed formula and bootstrap approaches. Milliman, Paris.
• Mack T. (1993) Distribution-free calculation of the standard error of Chain-Ladder reserve
estimates. Munich Re, Munich.
• Merz M., Wüthrich M.V. (2008) Modelling the claims development result for Solvency
purposes. Casualty Actuarial Society, E-Forum, Fall 2008
• Merz M., Wüthrich M.V.et Lysenko N. (2008) Uncertainty of the Claims Development
Result in the Chain Ladder Method.
Mémoires
• Compain H. (2010) Analyse du risque de provisionnement non-vie dans le cadre de la
réforme Solvabilité II. Dauphine/IA.
• Guillou C. (2011) Les risques en IARD et les impacts de Solvabilité II. EURIA/IA.
• Habib I. et Riban S. (2009) Quelle méthode de provisionnement pour des engagements
non-vie dans Solvabilité 2 ?. ENSAE/IA.
• Jaziri S. (2011) Méthodes de provisionnement non-vie et risque de réserve à un an. ISFA/IA.
• Lacoume A. (2008) Mesure du risque de réserve sur un horizon de un an. ISFA/IA.
• Rose N. (2009) Provisionnement en assurance non-vie : Utilisation de modèles paramétriques censurés. ISUP/IA.
80
BIBLIOGRAPHIE
81
Cours
• Angoua Y. (2011-2012) Provisionnement non-vie. EURIA.
Sites Internet
• Site de l’INSEE. www.insee.fr.
Thèse
• Gimond C. (2010) Le cycle de l’assurance non-vie, une opportunité stratégique. Ecole
nationale d’assurances.
Conférences
• Charpentier A. (2011) One year uncertainty in claims reserving. Workshop on Insurance
Mathematics, Montreal.
• England P. (2009) The ultimate and one-year views of reserving risk with respect to solvency
and risk margins. GIRO conference, Edinburgh.
Autres
• Draft Implementing measures Solvency II (2011)
• QIS 5 technical specifications (2010)
Glossaire
L’assurance non-vie regroupe les assurances de Biens, les assurances de Responsabilité et les
assurances Santé. Les assurances non-vie gèrent les primes par répartition.
L’assurance vie est un contrat par lequel l’assureur s’engage à verser une rente ou un capital à une personne, moyennant une prime. Les assurances vie gèrent les primes par capitalisation.
Les fonds propres d’une entreprise correspondent au total de ses actifs moins l’ensemble de
ses dettes.
Le loss ratio d’une entreprise correspond au rapport du coût des sinistres sur les primes encaissées.
Les Primes émises représentent l’ensemble des primes que l’assurance recevra sur la durée de
vie d’un contrat.
Les Primes acquises représentent les primes effectives payées par les adhérents pour être couvert au cous de la période comptable.
82
Annexes
83
Données risque de réserve et de prime
Les volatilités marchés proposées par l’EIOPA sont :
Branche
Motor vehicle liability
Motor other classes
MAT
Fire and other property damage
Third-party liability
Credit and suretyship
Legal expenses
Assistance
Miscellaneous
NP reinsurance - property
NP reinsurance - casualty
NP reinsurance - MAT
Medical expense
Income protection
Workers’ compensation
NP reinsurance - Health
Prime
10%
7%
17%
10%
15%
21,50%
6,50%
5%
13%
17,50%
17%
16%
4%
8,50%
5,50%
17%
Table 1: Volatilité par branche
I
Réserve
9,50%
10%
14%
11%
11%
19%
9%
11%
15%
20%
20%
20%
10%
14%
11%
20%
Formule de la méthode 3 du risque de
prime
V ar(SN ) = µ2 λ2 V ar(Θ) + λµ2 + λσ 2
les Xi sont indépendant et identiquement distribués et conditionnellement indépendant de N ,
donc :
E[SN \Θ] = E[Xi] × E[N \Θ]
= µλΘ
Et si N ∼ P oiss(λ) alors :
V ar(SN ) = E[V ar(SN \N )] + V ar(E[SN \N ])
= E[N × V ar(X1 )] + V ar(N E[X1 ])
= E[N ]V ar(X1 ) + V ar(N )E[X1 ]2
= λσ 2 + λµ2
Ici, N \Θ ∼ P oiss(λΘ) donc
V ar(SN \Θ) = λΘσ 2 + λΘµ2
Nous obtenons bien :
V ar(SN ) = E[V ar(SN \Θ)] + V ar(E[SN \Θ])
= E[λΘσ 2 + λΘµ2 ] + V ar(µλΘ)
= λσ 2 + λµ2 + µ2 λ2 V ar(Θ)
II

Documents pareils