MEMOIRE PERRIN Mickaël
Transcription
MEMOIRE PERRIN Mickaël
EURIA — EURo Institut d’Actuariat Mémoire présenté devant le jury de l’EURIA en vue de l’obtention du Diplôme d’Actuaire EURIA et de l’admission à l’Institut des Actuaires le 28 septembre 2012 Par : Mickaël PERRIN Titre : Calibration des Undertaking Specific Parameters et leurs impacts sur les fonds propres Confidentialité : oui, un an. Les signataires s’engagent à respecter la confidentialité indiquée. Entreprise Altia Signature : Membre présent du jury de l’Institut des Actuaires Signature : Membres présents du jury de l’EURIA Directeur de mémoire en entreprise Delphine DO HUU Signature : Invité Signature : Autorisation de publication et de mise en ligne sur un site de diffusion de documents actuariels (après expiration du délai de confidentialité) Signature du responsable entreprise Signature du candidat Bibliothèque : Secrétariat : EURIA EURo Institut d’Actuariat 6, avenue le Gorgeu CS 93837 29238 Brest Cedex 3 T +33 (0)2 98 01 66 55 F +33 (0)2 98 01 66 57 [email protected] Résumé La mise en place de la nouvelle directive prudentielle Solvabilité 2 force les compagnies d’assurance à changer leur prise en compte des risques. Dans cette configuration, nous nous intéressons dans le mémoire au besoin de fonds propres lié au risque de réserve et de prime du module de souscription non-vie. Ce risque a la particularité de laisser la possibilité aux entreprises d’intégrer leurs propres données dans leurs calculs, avec l’utilisation des Undertaking Specific Parameters (USP). Les méthodes de calcul de ces paramètres doivent s’adapter aux nouvelles problématiques de Solvabilité 2, comme estimer les réserves à un horizon d’un an plutôt qu’à l’ultime. L’objectif du mémoire est d’analyser et de tester les différentes méthodes de calcul des USP afin de vérifier qu’elles soient opérationnelles et robustes aux particularités de l’assurance non-vie. Une alternative aux méthodes proposées par l’European Insurance and Occupational Pensions Authority (EIOPA) pour le risque de réserve est développée dans le mémoire ; et dans les cas nécessaires, des solutions on été proposées pour rendre applicable ces méthodes. La réassurance permet de réduire la volatilité du résultat d’une entreprise, aussi dans la dernière partie du mémoire nous avons étudié les répercutions éventuelles sur la volatilité du risque de réserve et de prime via l’utilisation des USP. Mots-clé Solvabilité 2, Undertaking Specific Parameters (USP), assurance non-vie, réassurance, risque de réserve, risque de prime. i Abstract The implementation of the new prudent directive Solvency 2 forces insurance companies to change their consideration of the risks. In this configuration, we are interested in the report in the need of own funds connected with the risk of reserve and premium of the no-life subscription module. This risk has the particularity to let the possibility to the companies to integrate their own data into their calculations, with the use of Undertaking Specific Parameters (USP). The methods of calculation of these parameters have to adapt themselves to the new problems of Solvency 2, as to estimate the reserves at a horizon of one year rather than at the ultimate. The objective of the report is to analyze and to test the various methods of calculation of the USP to verify they are operational and strong in the peculiarities of the no-life insurance. An alternative in the methods proposed by European Insurance and Occupational Pensions Authority (EIOPA) in the case of the reserve risk is developed in the report; and when it was necessary, solutions are proposed to make the methods applicable. The reinsurance allows to reduce the volatility of the result of a company, in the last part of the report we have studied the reflections on the volatility of the risk of reserve and premium with the use of the USP. Key words Solvency 2, Undertaking Specific Parameters (USP), no-life insurance, reinsurance, reserve risk, premium risk. ii Synthèse Mots-clés Solvabilité 2, USP, Merz Wüthrich, risque de réserve, risque de prime, Bootstrap un an, réassurance, assurance non-vie Depuis quelques années, plusieurs crises d’une grande intensité ont frappé le monde entier. Avec la mondialisation et les interconnexions des différents acteurs du secteur financier, une crise nationale devient rapidement une crise internationale. C’est dans une optique prudentielle que les réformes Bâle 1 et Solvabilité 1, respectivement pour le secteur bancaire et assurantiel, ont vu le jour. La directive Solvabilité 1 impose des exigences aux assureurs et réassureurs européens afin de garantir leurs stabilités et le respect de leurs engagements vis-à-vis de leurs assurés. Mais cette réforme admet d’importantes limites, notamment dans sa prise en compte des risques et dans sa cohérence avec l’application des normes internationales. Des faiblesses qui peuvent avoir de lourdes conséquences. C’est pour surmonter ces problèmes et pour mieux préparer les assureurs à affronter les risques qui les menacent, que la réforme Solvabilité 2 a été mise en place. L’application de cette nouvelle directive prudentielle Solvabilité 2 est fixée à 2014. Elle exige que les compagnies d’assurance soient couvertes en capital contre des scénarios défavorables pouvant arriver dans l’année à venir. Les assureurs ont plusieurs choix pour satisfaire ces exigences : ils peuvent construire un modèle interne, un modèle interne partiel, ou encore utiliser la formule standard. Les undertaking specific parameters (USP) propose, dans le cadre du risque de prime et de réserve du module de souscription non-vie, une alternative à la formule standard et au modèle interne. Le modèle interne permet à une compagnie de modéliser précisément ses risques et de mesurer ses exigences en fonds propres en tenant compte des spécificités qui lui sont propres. Mais sa mise en place demande beaucoup de main d’œuvre et de temps, entraînant un coût élevé, et nécessitant de plus l’aval de l’autorité de contrôle prudentiel (ACP). Toutes ces contraintes limitent l’accès à un nombre restreint d’entreprises. La formule standard est quant à elle, très simple dans son application mais est identique pour tous. Ce qui ne lui permet pas de prendre les paramètres propres à une compagnie en compte. L’application des USP consiste à utiliser la volatilité calculée par la compagnie plutôt que celle imposée par la formule standard. Les entreprises possédant un historique de données assez iii iv important ont la possibilité de mesurer leur risque réel, à la place d’un risque identique pour toutes les compagnies. En effet, les volatilités proposées par l’European Insurance and Occupational Pensions Authority (EIOPA) sont calculées sur un panel de sociétés, elles ne peuvent pas refléter les risques individuels pour chaque assurance mais représentent une moyenne du marché. Les méthodes d’estimation des paramètres de volatilité sont assez simples dans la mise en place et ne demandent pas de temps de calcul excessif. C’est pourquoi, l’utilisation des USP présente une solution intéressante pour ces risques. De plus, les formalités vis-à-vis de l’ACP pour l’application des USP sont nettement moins contraignantes que pour les modèles internes. Les entreprises sont laissées libres d’utiliser d’autres méthodes que celles proposées si celles-ci sont validées par l’ACP. Les compagnies d’assurance ont la particularité, contrairement aux autres entreprises, de ne pas connaître le montant à payer sur leurs engagements ; elles sont donc soumises à un risque de mauvaise estimation de leur provision : le risque de réserve. La directive Solvabilité 2 assure la solvabilité d’une entreprise à un horizon un an, pour rester cohérent dans le calcul, la méthode de provisionnement doit aussi estimer l’incertitude des réserves uniquement sur l’année à venir. Or cette nouvelle vision bouscule les méthodes déjà établies puisque la grande majorité de celles-ci ne s’intéressent qu’aux sinistres à l’ultime. C’est pourquoi l’EIOPA propose 3 méthodes pour mesurer le risque de réserve à un an. La première est une méthode rétrospective, qui regarde l’erreur de prédiction des best estimate passés. Elle est simple en compréhension et à mettre en place mais présente un inconvénient de poids : les entreprises n’ont pas d’historique de best estimate puisqu’ils ne sont apparus dans le monde assurantiel que très récemment avec la réforme Solvabilité 2. Cette contrainte peut être surmontée en estimant les best estimate passés, mais il est nécessaire d’avoir beaucoup de données, et de les estimer dans les conditions du passé. Par conséquent, tant que les compagnies ne possèdent pas un historique de best estimate suffisant, la méthode 1 ne semble pas être la plus adéquate pour estimer la volatilité des réserves. Les méthodes 2 et 3 utilisent toutes les deux la formule fermée de Merz Wüthrich, développée dans l’article Modelling the claims development result for Solvency purposes, publié en 2008. Cette méthode est basée sur le modèle de Mack et propose une formule qui estime l’erreur de prédiction des réserves à un an. La différence entre les méthodes 2 et 3 vient de l’estimation des réserves : la méthode 2 laisse libre l’entreprise dans le choix de l’estimation, alors que la méthode 3 impose Chain Ladder. Mais Merz Wüthrich est basée sur Mack qui est une version stochastique de Chain Ladder, il semble donc que, pour rester dans une certaine logique, l’utilisation de la formule Merz Wüthrich devrait se faire avec l’utilisation de Chain Ladder pour estimer les réserves. Par conséquent, la méthode 3 semble plus appropriée que la méthode 2. L’avantage de Merz Wüthrich est qu’une formule ne demande pas de temps de calculs, et est simple à mettre en place. Mais le modèle reprend les calculs de Mack, les données doivent donc valider les hypothèses de ce modèle. De plus, la formule ne s’applique qu’à un triangle stabilisé car elle ne permet pas la prise en compte des facteurs de queue de développement. Cette restriction est problématique puisque pour de nombreux triangles, les sinistres ne sont pas encore à l’ultime. Afin de trouver une méthode plus optimale, des mathématiciens ont proposé des versions modifiées de la méthode Bootstrap, pour avoir une vision à un an plutôt qu’à l’ultime. Laurent Devineau dans son article One-year reserve risk including a tail factor: closed formula and bootstrap approaches, développe une version Bootstrap à un an avec l’utilisation de Chain Lad- v der. Dans la méthode sont ajoutés des facteurs de queue de développement sur lesquels est appliquée de la volatilité. Devineau démontre que sa méthode Bootstrap sans facteur de queue de développement est équivalente à la méthode de Merz Wüthrich. Par conséquent, pour un triangle stabilisé vérifiant les hypothèses de Chain Ladder, utiliser la méthode de Bootstrap ou celle de Merz Wüthrich reviendrait au même. Si le triangle n’est pas stabilisé, il devient alors nécessaire d’utiliser la méthode Bootstrap. Un autre grand avantage de cette méthode vient de la possibilité de l’adapter avec d’autres méthodes de provisionnement, ce qui ne la limite pas qu’à Chain Ladder. De plus, contrairement à Merz Wüthrich, la méthode Bootstrap permet d’avoir la distribution complète des réserves. Il est aussi possible de la modifier pour obtenir l’erreur de prédiction dans k années, très pratique dans le cadre de l’Own Risk and Solvency Assessment (ORSA). Le risque de prime, quant à lui, représente le risque d’une mauvaise tarification, impliquant que le montant des pertes liés aux sinistres à venir sur un an soit supérieur à celui anticipé dans le tarif. L’EIOPA propose 3 méthodes pour estimer la volatilité du risque de prime. Les deux premières méthodes sont rétrospectives, elles calculent l’erreur de tarification sur les résultats passés. Ces méthodes font l’hypothèse d’un loss ratio constant au cours des années, une hypothèse rarement vérifiée dans la pratique. En effet, le marché de l’assurance non-vie présente des cycles, des périodes de fortes rentabilités suivies de périodes de pertes. Une très forte concurrence pousse les entreprises à accepter des pertes pour gagner des parts de marché. Et celles-ci profitent d’un événement exceptionnel comme une catastrophe naturelle pour justifier des augmentations tarifaires, et ainsi entrer dans une période de profits. La présence de cycle rend l’hypothèse d’un loss ratio constant impraticable puisque l’erreur de tarification serait surévaluée. L’erreur de tarification est l’écart entre le résultat obtenu et celui prévu. Pour être plus réaliste, il faudrait appliquer à la méthode 1 les loss ratio prévus en début d’année par l’entreprise, et les comparer avec ceux obtenus. Cela permettrait ainsi d’obtenir la vraie volatilité historique des primes. Mais pour cela, il est nécessaire que les compagnies aient un historique de données suffisant pour les recalculer dans les conditions de l’époque. La troisième méthode est basée sur le modèle Swiss Solvency Test, elle estime la volatilité des pertes de l’année à venir en émettant l’hypothèse que la fréquence et la charge des sinistres sont des variables aléatoires. La méthode joue sur la fréquence des sinistres ; c’est pourquoi il est nécessaire d’avoir des Lines of Business (LoB) avec une fréquence de sinistres importante et constante dans le temps comme l’assurance de voiture ou d’habitation...Cette méthode a l’avantage d’être moins sensible aux phénomènes de cycle que les autres. Mais elle demande plus de données, comme le nombre de sinistres attendus chaque année, ou encore le détail de chaque sinistre. La réassurance couvre les entreprises contre de futures pertes exceptionnelles. Cette garantie permet aux assureurs de limiter leur exposition aux risques, et les assure d’une certaine stabilité dans leur résultat. Nous avons voulu étudier les conséquences de ce gain de volatilité sur les USP. Pour cela, nous avons analyser les différents résultats obtenus en faisant varier les franchises de traités de réassurance. Il ressort logiquement que la réassurance diminue le besoin de fonds propres d’une compagnie ; mais cette différence s’explique principalement par la baisse de volume du best estimate des réserves et du montant de primes après réassurance. L’effet sur la volatilité a par contre été moins important que prévu, elle est dans l’ensemble diminuée après réassurance, mais pas de façon significative. vi Nous pouvons nous demander si, sur des données réelles et non construites par des simulations de lois, l’influence de la réassurance aurait été identique. C’est une étude intéressante pour une assurance car elle permet d’appréhender le niveau de réassurance le plus rentable comparé à son prix. De plus, elle montre les conséquences de l’utilisation des USP avec son programme de réassurance. Les méthodes analysées dans le mémoire présentent toutes des inconvénients de taille. Afin d’avoir une idée précise de la qualité et la robustesse de ces méthodes, il faudra attendre que la mise en place de Solvabilité 2 soit terminée et que les entreprises possèdent plusieurs années de retours sur ces méthodes. Synthesis Keywords : Solvency 2, USP, Merz Wüthrich, reserve risk, premium risk, Bootstrap in one year, reinsurance, no-life insurance Since a few years, several crisis of great intensity struck the whole world. With globalization and the interconnections between the various actors of the financial sector, a national crisis quickly becomes an international crisis. It is in a prudential perspective that the Basel 1 and Solvency 1 reforms, respectively for the banking and insurance-related sector, came to light. The Solvency 1 directive imposes requirements to the European insurers and reinsurers to guarantee their stability and the respect of their commitments towards their policyholders. But this reform has significant limitations, in particular in the consideration of risks and in its coherence with the application of the international standards. Weaknesses which can have heavy consequences. It is in order to overcome these problems and to prepare better the insurers to face the risks which threaten them, that the Solvency 2 reform has been developped. The application of this new prudent directive Solvency 2 is fixed in 2014. It requires that insurance companies are covered in capital against unfavourable scenarios arrived within the next year. The insurers have several choices to satisfy these requirements: they can build an internal model, a partial internal model, or still use the standard formula Undertaking specific parameters (USP) offer, in the context of premium and reserve risks of the non-life underwriting risk module, an alternative to the standard formula and the internal model. The internal model allows a company to model its risks exactly and to measure its requirements in own funds by taking into account its own specificities. But its implementation, which requires much work and time, leading to a high cost, is also subject to the approval of the Prudential Supervisory Authority (ACP). As a result of all these constraints, only big companies can afford to build an internal model. The standard formula calls for a very simple application but is identical for all. Consequently, it cannot take into account the parameters specific to a company. The use of USP consists in using the volatility calculated by the company rather than that imposed by the standard formula. Companies with quite a large historical data are therefore able to measure their real risk, instead of an identical risk for all companies. The volatilities vii viii suggested by the European Insurance and Occupational Pensions Authority (EIOPA) are calculated on a panel of companies, they cannot reflect individuals risks for each insurance company but represent a market average. Methods to estimate the parameters of volatility allow for a fairly simple implementation and do not require excessive calculation time. Thus, the use of the USP presents an interesting solution to estimate premium and reserve risk. Furthermore, the formalities towards the ACP for USP application are significantly less stringent than for internal models. Companies are allowed to use others methods, as long as they are validated by the ACP. Insurance companies have the particularity, contrary to other companies, of not knowing the amount to be paid on their commitments; they are affected by the risk of a bad estimation of the reserving: The reserve risk. The Solvency 2 directive ensures the solvency of a company in one-year time horizon, consequently, the reserving method has to estimate the uncertainty in one year. Yet this new vision shakes up already established methods because the great majority of these are only interested in the ultimate claim costs. That is why EIOPA proposes 3 methods to measure reserve risk in one year’s time. The first one is a retrospective method, which looks at the error of prediction of past best estimate. It is relatively easy to understand and implement but has one major drawback : companies have no history of best estimate because they appeared in the insurance-related world only recently with the Solvency 2 reform. This constraint can be overcome by estimations of past best estimate, but it is necessary to have many data, and to estimate them in the conditions of past. Consequently, as long as companies do not possess enough history of best estimate, the method 1 does not seem to be the most adequate to estimate the volatility of reserves. The methods 2 and 3 use both the closed formula by Merz Wüthrich, developed in the article Modelling the claims development result for Solvency purposes, published in 2008. This method is based on the model of Mack and provides a formula which estimates the error of prediction of the reserves in one year. The difference between the methods 2 and 3 comes from the estimation of the reserves: the method 2 leaves free the company in the choice of the estimation, while the method 3 imposes Chain Ladder. But Merz Wüthrich is based on Mack who is a stochastic version of Chain Ladder, thus to be logic, the use of the formula Merz Wüthrich should be made with the use of Chain Ladder to estimate the reserves. Consequently, the method 3 seems more appropriate than the method 2. The advantage of Merz Wüthrich is that a formula does not ask for calculation time, and is simple to set up. Furthermore, the formula applies only to a closed triangle because she does not allow the consideration of the tail factor. This limitation is problematic, because for numerous triangles, the claims are not at the ultimate. To find a more optimal method, mathematicians suggested modified versions of the Bootstrap method, to have a vision in one year rather than in the ultimate. Laurent Devineau in its article One-year reserve risk including has tail factor: closed formulated and bootstrap approaches, develops a Bootstrap version in one year with the application of the method Chain Ladder for the estimation of the reserves. In the method, tail factor are added with volatility on it. In its article, Devineau demonstrates that its method Bootstrap without tail factor is equivalent to the method of Merz Wüthrich. Consequently, for a closed triangle which verifies the hypotheses of Chain Ladder, using the method of Bootstrap or Merz Wüthrich method would return the same result. But if the triangle is not closed, then it is necessary to use the method Bootstrap. Another big advantage of this method comes from the possibility to adapt it with ix another reserving method in case the hypotheses of Chain Ladder would not be verified. Furthermore, unlike Merz Wüthrich who gives only the first two moments of reserves, it allows to have the complete distribution. It is also possible to modify it to obtain the error of prediction in k years, very convenient within the framework of the Own Risk and Solvency Assessment (ORSA). Premium risk itself represents the risk of a bad pricing which would mean that losses from claims arisen in the year might be superior to those anticipated in the price. The EIOPA provides 3 methods to consider the volatility of the premium risk. The first two methods are retrospective, they calculate the pricing error on the past results. The assumptions in these methods are a constant loss ratio over the years, a rarely verified assumption in practice. Indeed, the market of non-life insurance presents cycles, periods of strong margins followed by periods of losses. Intense competition forces companies to accept losses to gain market shares. And these take advantage of an exceptional event as a natural disaster to justify price increases, and so they enter in a period of profits. The presence of cycle makes the constant loss ratio hypothesis impracticable because the method would overvalue the pricing error in a significant way. The pricing error is the difference between actual and expected result. To be more realistic, it would be necessary to apply to the method 1, the loss ratio that would have been planned by the company at the beginning of the year, to compare them with those obtained, and then it would makes it possible to get the premiums real historical volatility. But to do so, companies must have kept previous data in order to recalculate them in the conditions of the time. The third method is based on the model Swiss Solvency Test, it estimates the volatility for losses of the year to come. To that end, it is assumed that the frequency and the amount of claims are random variables. The method uses claims frequency. Thus it requires Lines of business (LoB) with an significant and constant frequency of claims over time as the motor or property insurance... This method has the advantage to be less sensitive to the phenomena of cycle than the others. However, it requires more data, such as the number of claims expected every year, or the detail of each claim. The reinsurance covers companies against unexpected future losses. This guarantee allows the insurers to limit their risk exposure, and insures them of a certain stability in the result. We wanted to study the consequences of these earnings of volatility on the USP. For that purpose, we made vary the treaties of reinsurance and analyze the results. It emerges logically that the reinsurance decreases the need of own funds of a company; but the effect volume is important because the best estimate reserves and the amount of premiums fall after reinsurance. The effect on the volatility was less important on the other hand than planned. The volatility is decreased after reinsurance, but not in a significative way. We can wonder if on real data and not built by simulations of distributions, the influence of the reinsurance would have been identical. It is an interesting study for an insurance because she allows to arrest the most profitable level of reinsurance compared with her price. Furthermore, it shows the consequences of the use of the USP with its program of reinsurance. The methods analyzed in the report present quite important inconveniences. To have a specific idea of the quality and the robustness of these methods, it will be necessary to wait that the development of Solvency 2 is ended and that companies possess several years of returns on these x methods. Remerciements Je tiens tout d’abord à remercier l’ensemble des associés, pour m’avoir donné l’opportunité d’effectuer mon stage de fin d’études au sein de leur société. Je tiens à remercier pour leur accessibilité, leur suivi et leurs conseils très formateurs, Hervé DOUARD, en qualité de président d’Altia et Marie-Christine BRASSIER, en qualité d’associée. Je remercie tout particulièrement Delphine DO HUU et Clément CALARD pour leurs précieux conseils ainsi que leur disponibilité tout au long de mon stage. J’adresse également ma sympathie à l’ensemble des collaborateurs d’Altia pour leur accueil et leur disponibilité, et spécialement à Fabien BESSEYRE, Guillaume GERBER et Étienne GUILLOU pour leur aide. Mes remerciements s’adressent enfin à l’ensemble du collège de direction de l’EURIA pour m’avoir permis de suivre cette formation de qualité en un an, et à Vincent SOULAS pour ses conseils et son suivi tout au long de la rédaction de mon mémoire. xi Table des matières Résumé i Abstract ii Synthèse iii Synthesis vii Remerciements xi Table des matières xii Liste des tableaux xiv Table des figures xv Introduction générale 1 I Contexte théorique 3 1 Solvabilité 2 et cadre réglementaire 1.1 Solvabilité 1 . . . . . . . . . . . . . . . . . . 1.2 Solvabilité 2 . . . . . . . . . . . . . . . . . . 1.3 Pilier 1 . . . . . . . . . . . . . . . . . . . . . 1.4 Le SCR risque de réserve et risque de prime 1.5 Undertaking Specific Parameters . . . . . . 2 Méthodes de provisionnements 2.1 Triangle de liquidation . . . . 2.2 Chain Ladder . . . . . . . . . 2.3 Méthode de Mack . . . . . . . . . . . . 4 4 5 8 11 13 classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 16 17 18 xii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TABLE DES MATIÈRES 2.4 xiii Bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 II Undertaking Specific Parameters 21 1 Données 1.1 Présentation des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Vérification des hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 22 24 2 Risque de réserve 2.1 Méthode 1 . . . . . . . . 2.2 Méthode Merz Wüthrich 2.3 Bootstrap à un an . . . 2.4 Résultats . . . . . . . . . . . . 28 28 32 37 43 3 Risque de prime 3.1 Méthodes 1 et 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Méthode 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 48 53 55 4 Risque de prime et de réserve 58 IIIImpact de la réassurance sur le SCR 60 1 Présentation 1.1 Construction de la base sinistre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Traité de réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Risque de contrepartie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 62 64 66 2 Application 2.1 Hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 68 69 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conclusion générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 Bibliographie 80 Glossaire 82 Annexes I Données risque de réserve et de prime I Formule de la méthode 3 du risque de prime II Liste des tableaux 1.1 1.2 Crédibilité pour les branches Third-party liability, Motor vehicle liability et Credit and suretyship . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Crédibilité pour les autres branches . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 14 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 Résultats des tests statistiques, LoB Other Motor . . . . . . . . . . . . . . . . . . Vérification de l’hypothèse de Merz Wüthrich, LoB Other Motor . . . . . . . . . Best Estimate par LoB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Comparaison des MSEP entre les différentes méthodes . . . . . . . . . . . . . . . Calcul des USP par LoB en fonction des méthodes . . . . . . . . . . . . . . . . . Gain de SCR effectué en montant et pourcentage du SCR de la formule standard Effet des queues de développement sur la volatilité . . . . . . . . . . . . . . . . . Effet des queues de développement sur le gain en SCR . . . . . . . . . . . . . . . Effet de l’actualisation sur les USP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 43 43 44 44 45 45 46 47 3.1 3.2 3.3 Volume de prime par LoB . . . . . . . . . . . . Comparaison des USP risque de prime . . . . . Gain de SCR effectué sur le risque de prime en la formule standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . du SCR de . . . . . . . 55 56 56 4.1 4.2 4.3 Volume de prime et de réserve par LoB . . . . . . . . . . . . . . . . . . . . . . . . . Volatilité des primes et des réserves par LoB . . . . . . . . . . . . . . . . . . . . . . . Gain en SCR sur le risque de prime et de réserve par LoB . . . . . . . . . . . . . . . 58 58 59 1.1 L’indice à la consommation de 1994 à 2009 . . . . . . . . . . . . . . . . . . . . . . . 63 2.1 2.2 2.3 2.4 2.5 2.6 2.7 Informations sur les sinistres de la base . . . . . . . . . . . . . . . . . . . . . . . . . Risque de réserve brut de réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . Évolution du risque de réserve en fonction des franchises . . . . . . . . . . . . . . . . Évolution des USP risque de prime en fonction des franchises . . . . . . . . . . . . . Gains ou pertes en pourcentage de SCR brut de réassurance en fonction des franchises Gains ou pertes en pourcentage de la prime de réassurance en fonction des franchises Effet de l’utilisation des USP sur le SCR risque de prime et de réserve . . . . . . . . 69 72 72 73 74 75 76 1 Volatilité par branche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xiv . . . . . . . . . . montant . . . . . . . . . . . . . . . . . . . . . . . et pourcentage . . . . . . . . . . . . . . . . . . I Table des figures 1.1 1.2 ORSA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . La formule standard, QIS 5 Technical Specifications . . . . . . . . . . . . . . . . . . . 7 10 2.1 Triangle de règlements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.1 1.2 1.3 Existence de facteur de développement, LoB Other Motor . . . . . . . . . . . . . . . Indépendance des années de survenance, LoB Other Motor . . . . . . . . . . . . . . . Existence d’un paramètre de variance, LoB Other Motor . . . . . . . . . . . . . . . . 25 26 27 2.1 2.2 2.3 2.4 2.5 2.6 Explication de l’estimation de l’erreur de prédiction . . . . . . Vision en N . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vision en N+1 . . . . . . . . . . . . . . . . . . . . . . . . . . Explication de la méthode Bootstrap à un an . . . . . . . . . Distribution de CDR pour la branche Other motor . . . . . . Comparaison de la fonction de répartition avec la loi normale 31 32 33 40 41 42 3.1 Évolution du ratio sinistres à primes en responsabilité civile automobile de 1988 à 2010 51 2.1 2.2 2.3 2.4 Évolution du ratio prime de réassurance sur prime totale en fonction des Évolution des USP risque de réserve en fonction des franchises . . . . . Évolution des USP risque de prime en fonction des franchises . . . . . . Gain en SCR proportionnellement à la prime de réassurance . . . . . . . xv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . franchises . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 72 74 75 Introduction générale Les compagnies d’assurance ont, dans l’ensemble, été solides face aux différentes crises qui sont apparues ces dernières années. Elles ont surmonté les chocs importants causés par un contexte difficile et continué à financer largement l’économie. C’est dans l’optique d’assurer la solvabilité des compagnies d’assurance que la réforme Solvabilité 1 a vu le jour en 1973. Dans la continuation de cette réforme, la nouvelle directive prudentielle Solvabilité 2 a été introduite afin d’améliorer le système de gestion des risques. Son objectif principal est de garantir, pour chaque compagnie, un niveau de fonds propres capable d’encaisser les scénarios les plus défavorables, et de respecter ses obligations en toutes circonstances. Pour cela, la réforme Solvabilité 2 fixe des exigences de capital aux entreprises, et les force à être plus précis dans leur prise en compte des risques qui les menacent. La solution la plus optimale, pour estimer son besoin de fonds propres en réel adéquation avec son profil de risque, est la création d’un modèle interne. Mais cela peut être consommateur de temps et de main d’œuvre, seules les grandes compagnies peuvent pallier ces exigences. C’est pourquoi l’European Insurance and Occupational Pensions Authority(EIOPA) propose une méthode simplifiée : la formule standard. Notre étude porte sur l’assurance non-vie, et plus précisément sur le sous-module du risque de réserve et de prime. Ces risques prennent en compte les conséquences qu’entraînent respectivement, une mauvaise estimation des provisions et une mauvaise tarification. Afin d’estimer le besoin en fonds propres lié à ces risques, l’EIOPA donne des volatilités pour chaque Lines of Business (LoB). Mais ces volatilités ont été calculées sur un ensemble de compagnies et représentent une estimation du marché. Les entreprises considérant que ces volatilités ne reflètent pas leur propre risque peuvent appliquer les Undertaking Specific Parameters (USP). Dans le QIS 5 Technical Specifications1 , l’EIOPA propose 3 méthodes pour le risque de prime et 3 autres pour le risque de réserve. Les méthodes possèdent toutes des limites, les entreprises ont la liberté d’utiliser une méthode alternative sous réserve qu’elle obtienne une validation par l’autorité de contrôle prudentiel (ACP). Ces différentes méthodes seront étudiées dans le mémoire. L’objectif étant d’analyser les avantages, inconvénients ou encore les conditions d’application des méthodes. Il est aussi intéressant d’observer les conséquences réelles de l’utilisation des USP, et de vérifier si l’impact sur l’exigence de fonds propres est significatif ou bien s’il ne joue seulement 1 cf Bibliographie 1 Table des figures 2 que de façon négligeable. La nouvelle réforme réglemente le niveau de fonds propres nécessaire pour couvrir les risques de l’année à venir. Pour être en adéquation avec elle, il est indispensable de calculer la volatilité des réserves sur l’année prochaine. Cette nouvelle vision bouscule les méthodes de provisionnement classiques qui s’intéressent majoritairement aux sinistres à l’ultime. Les mathématiciens Merz et Wüthrich ont modélisé une formule fermée basée sur la méthode de Mack, afin d’estimer la volatilité des réserves à un an. Cette méthode fait partie des propositions de l’EIOPA. D’autres mathématiciens ont développé des adaptations de la méthode Bootstrap, qui proposent une bonne alternative aux différentes méthodes proposées. La réassurance permet aux entreprises de lisser leurs résultats au cours du temps en les protégeant contre les pertes exceptionnelles. Naturellement, la réassurance influe sensiblement sur le risque catastrophe, mais le gain en stabilité qu’elle apporte a aussi des conséquences sur le risque de prime et sur celui de réserve. Comme l’utilisation des USP donne une vision plus réelle de ces risques pour une compagnie, appliquer les USP permet de mettre en avant l’impact de la réassurance sur la volatilité de ces risques. Dans ce mémoire, nous commencerons par introduire le contexte théorique indispensable à la compréhension du sujet ; avec, notamment, une présentation des risques appréhendés par les USP, et une description des méthodes de provisionnement utilisées dans la suite du mémoire. Dans la deuxième partie, nous analyserons les méthodes de calculs des USP et vérifierons la pertinence dans leur application. Le marché de l’assurance non-vie a ses propres spécificités et nous étudierons, par exemple, la résistance des méthodes face aux phénomènes de cycle. L’objectif étant d’être le plus précis et complet dans l’étude, nous déterminerons la marche à suivre pour une entreprise qui souhaite utiliser les USP. Les méthodes sont testées avec des données venant de la réalité afin d’avoir des exemples concrets. La qualité des données est un des éléments clé de la réforme Solvabilité 2, c’est pourquoi nous détaillerons les données utilisées dans le mémoire. La dernière partie étudie les conséquences de la réassurance sur la volatilité du risque de prime et de réserve, et son impact sur l’exigence de fonds propres. Première partie Contexte théorique 3 Chapitre 1 Solvabilité 2 et cadre réglementaire Les organismes bancaires et les compagnies d’assurances se différencient des autres entreprises par l’incertitude de leurs résultats due aux événements aléatoires. Or pour faire face à leurs obligations vis-à-vis des clients, il est nécessaire d’avoir un niveau de fonds propres suffisant, c’est pourquoi ces organismes sont soumis à des directives particulières. 1.1 Solvabilité 1 Les premières normes européennes de solvabilité des organismes assureurs datent de 1973, et ont été mises à jour en 2002 avec la création de Solvabilité 1, système toujours en place actuellement. Solvabilité 1 (S1) s’appuie sur trois grands principes : calculer les engagements de façon prudente, avoir un portefeuille d’actifs sûrs, liquides et dispersés, et disposer d’une marge de solvabilité supérieure à la marge réglementaire. Mais la réforme Solvabilité 1 présente certaines faiblesses notamment dans la prise en compte des risques, et dans son manque de cohérence avec l’application des normes IFRS (International Financial Reporting Standards). Les différentes critiques envers S1 sont : • Une vision uniquement rétrospective, S1 regarde seulement le passé pour estimer le futur. • Pas de distinction des risques. • Certains risques ne sont pas pris en compte. • Pas de surveillance sur le contrôle interne. • Non satisfaction des exigences internationales et notamment des normes US-GAAP et IASIFRS. Dans l’optique de pallier ces limites, la Commission Européenne a lancé en 2001 la directive Solvabilité 2. 4 CHAPITRE 1. SOLVABILITÉ 2 ET CADRE RÉGLEMENTAIRE 1.2 5 Solvabilité 2 Objectifs Solvabilité 2 est une directive de l’Union Européenne s’adressant aux assureurs et réassureurs européens à l’horizon 2014. Elle a pour objectif de fixer des normes prudentielles afin de mieux prendre en compte les besoins en fonds propres des compagnies d’assurances par rapport aux risques qu’elles supportent. Acteurs Les différents acteurs de la réforme Solvabilité 2 sont : Commission Européenne : Elle a un rôle législatif de rédaction et pilotage de la directive en collaboration avec les états membres. EIOPA : L’European Insurance and Occupational Pensions Authority, anciennement le CEIOPS (Committee of European Insurance and Occupentional Pensions) est un comité regroupant les autorités de contrôle des états membres. L’EIOPA a mené des études d’impacts afin de mesurer les conséquences des nouvelles réglementations sur le marché assurantiel, sa dernière étude quantitative est le QIS 5. ACP : L’Autorité de Contrôle Prudentiel a pour objectif de vérifier l’application des nouvelles réglementations par les organismes d’assurance en France. Elle a le pouvoir de sanction en cas de non respect de ces règles. Professionnels de l’assurance : Ils ont un rôle important dans l’élaboration de la directive en effectuant des retours sur les « Consultation Papers », ce qui permet de voir les points d’amélioration et les difficultés dans l’application de la réforme. Les professionnels de l’assurance participent également aux études quantitatives QIS. Processus Lamfalussy La réforme Solvabilité 2 utilise le processus législatif Lamfalussy, déjà opérationnel dans la conception des réglementations du secteur financier. Ce système porte le nom d’Alexandre Lamfalussy, le président du comité consultatif qui le mis au point en 2001, et a pour objectif d’assurer un dialogue entre les acteurs du marché et le législateur. Ce processus est composé de 4 niveaux : Niveau Niveau Niveau Niveau 1 2 3 4 : : : : L’élaboration de la législation. L’élaboration des mesures d’exécution. Coordination des travaux entre les différents régulateurs. Contrôle de l’application. Les 3 piliers La réforme Solvabilité 2 est organisée en 3 piliers distincts, représentant les besoins quantitatifs, qualitatifs et la nécessité d’harmoniser et d’améliorer la communication entre les différents ac- CHAPITRE 1. SOLVABILITÉ 2 ET CADRE RÉGLEMENTAIRE 6 teurs. Pilier 1 : Le pilier 1 concerne les exigences quantitatives en capital, il s’attache à vérifier que la compagnie d’assurance puisse faire face à ses engagements sur un horizon d’un an. Nous le détaillerons plus loin dans ce chapitre. Pilier 2 : Le deuxième pilier fixe des normes qualitatives de contrôle des risques en interne. Il a pour objectif d’assurer une meilleure sécurité pour les assurés européens, d’harmoniser les pratiques en Europe, et de mettre la réglementation et le contrôle des entreprises d’assurance aux normes par rapport aux autres réglementations financières ainsi qu’aux progrès en matière de gestion des risques. Les assureurs doivent également vérifier s’ils sont solvables selon leur propre vision des risques. Ils doivent mettre en place un processus ERM (Entreprise Risk Management), qui définit la discipline utilisée par toutes les entreprises (pas uniquement les entreprises d’assurance) pour assurer une maîtrise de leurs risques. La démarche ERM s’effectue en plusieurs étapes : • Un système de gouvernance et une organisation qui tient compte de la gestion des risques pour la mise en œuvre de la stratégie de l’entreprise. • La définition d’une tolérance aux risques. • Une évaluation interne du risque (Own Risk and Solvency Assessment) afin de valider qu’on est à l’intérieur des limites fixées et de vérifier que le système de contrôle des risques est opérationnel et efficace. • Un réseau d’information et reporting avec un système de « feedback » et une organisation qui garantit que le dispositif de gestion des risques reste efficace en cas de crise, d’émergence de nouveaux risques, de déviation par rapport aux limites. Dans le cadre de son système de gestion des risques, les compagnies d’assurance procèdent à une évaluation interne des risques et de la solvabilité avec la création d’un processus ORSA. A la différence du pilier 1, l’ORSA a pour objectif de s’assurer de la solvabilité pluriannuelle de l’assureur en prenant en compte la stratégie de l’entreprise et ses spécificités dans les calculs. L’autorité de contrôle aura la possibilité de demander à l’entreprise de posséder un capital plus important que celui calculé dans le pilier 1 (capital add-on), et aussi de diminuer son exposition à certains risques. Pilier 3 : Ce pilier vise à améliorer la communication aux régulateurs et au public et à harmoniser l’information, pour cela l’assureur doit produire trois supports de communication : • Le SFCR (Solvency and Financial Conditions Report), qui est un rapport annuel ayant pour objectif de présenter la situation financière des entreprises au public. • Le RSR (Regular Supervisory Reporting), autre rapport annuel servant de base à l’autorité de contrôle prudentiel dans le cadre d’un contrôle. • Le QRT (Quantitative Reporting Templates), dont la fréquence dépend du template (trimestrielle ou annuelle) CHAPITRE 1. SOLVABILITÉ 2 ET CADRE RÉGLEMENTAIRE 7 Figure 1.1: ORSA Les études quantitatives d’impact Dans l’optique de faciliter la mise en place de Solvabilité 2, la Commission Européenne a demandé au CEIOPS d’élaborer plusieurs études quantitatives d’impact (Quantitative Impact Studies) auprès des compagnies d’assurance. Ces études permettent d’obtenir des retours précis des acteurs du marché, et d’opérer en conséquence les changements nécessaires pour améliorer la mise en pratique de Solvabilité 2. Le premier QIS est lancé en 2005, il se spécialise sur l’évaluation des provisions techniques. Le deuxième en 2006 introduit la notion d’exigence de fond propre, et le troisième en 2007 présente le calibrage des MCR et SCR et aborde pour la première fois les problématiques de groupes. Le QIS 4 a publié des nouveautés sur les groupes, les modèles internes et sur les calculs techniques ; la participation des assureurs a été très bonne notamment grâce aux simplifications et aux précisions apportées aux spécifications techniques. Le dernier QIS est sorti en 2010, et les résultats sont optimistes. Ils montrent que les assureurs et réassureurs européens sont bien préparés, et vérifient pour la plus part les exigences de fonds propres. Une version draft des Implementing Measures Solvency 2 est sortie en Octobre 2011, mais ce n’est pas une version définitive, et la partie concernant les Undertaking Specific Parameters est moins détaillée. Par conséquent, afin d’avoir une base fixe, nous utiliserons les hypothèses et les spécifications techniques du dernier QIS tout au long du mémoire. CHAPITRE 1. SOLVABILITÉ 2 ET CADRE RÉGLEMENTAIRE 1.3 8 Pilier 1 L’ensemble des définitions est tiré du QIS 5 Technical Specifications. Les actifs et les passifs La réforme Solvabilité 2 impose d’estimer les actifs et les passifs en valeur de marché : 1. V3 « Assets should be valued at the amount for which they could be exchanged between knowledgeable willing parties in an arm’s length transaction ; » 2. V3 « Liabilities should be valued at the amount for which they could be transferred, or settled, between knowledgeable willing parties in an arm’s length transaction. » Provision technique Les provisions techniques représentent le montant que l’entreprise doit anticiper pour faire face à la sinistralité future des contrats en cours et passés. Elles sont inscrites au passif du bilan d’une compagnie d’assurance. Sous Solvabilité 2, les provisions techniques se calculent en sommant le Best Estimate et une marge pour risque pour les passifs non réplicables1 . La réforme Solvabilité 2 impose une segmentation par Line of Business (LoB) dans le calcul des provisions afin de gérer de façon homogène les différents risques. L’assurance non-vie est segmentée en 12 branches. Le Best Estimate TP.2.1 « The best estimate should correspond to the probability weighted average of future cashflows taking account of the time value of money. » TP.2.2 « Therefore, the best estimate calculation should allow for the uncertainty in the future cash-flows. The calculation should consider the variability of the cash flows in order to ensure that the best estimate represents the mean of the distribution of cash flow values. Allowance for uncertainty does not suggest that additional margins should be included within the best estimate. » TP.2.3 « The best estimate is the average of the outcomes of all possible scenarios, weighted according to their respective probabilities.[...] » Il en ressort que le Best Estimate correspond à la moyenne pondérée des flux de règlements futurs obtenus par les différents scénarios. Ces flux doivent être actualisés grâce à une courbe des taux swaps. Cette définition semble favoriser l’application de méthodes stochastiques dans l’évaluation du niveau de provisionnement, mais il est cependant ajouté : TP.2.3 « [...] Although, in principle, all possible scenarios should be considered, it may not be necessary, or even possible, to explicitly incorporate all possible scenarios in the valuation of the liability, nor to develop explicit probability distributions in all cases, depending on the type of risks involved and the materiality of the expected financial effect of the scenarios under consideration. 1 Un passif réplicable est un passif dont les prestations peuvent être répliquées par un instrument financier. CHAPITRE 1. SOLVABILITÉ 2 ET CADRE RÉGLEMENTAIRE 9 Moreover, it is sometimes possible to implicitly allow for all possible scenarios, for example in closed form solutions in life insurance or the chain-ladder technique in non-life insurance. » La Commission Européenne accepte l’utilisation de méthodes déterministes, comme ChainLadder, dans le calcul du Best Estimate. La marge pour risque La marge pour risque est défini dans le QIS 5 par : TP.5.2 « The risk margin is a part of technical provisions in order to ensure that the value of technical provisions is equivalent to the amount that insurance and reinsurance undertakings would be expected to require in order to take over and meet the insurance and reinsurance obligations. » Le SCR la formule standard La directive Solvabilité 2 impose deux niveaux réglementaire de fonds propres, le MCR (Minimum Capital Requirement) et le SCR (Solvency Capital Requirement). Le MCR est le niveau minimum de fonds propres qu’une entreprise doit posséder sous peine d’une intervention de l’Autorité de Contrôle Prudentielle, il se calcule en prenant un pourcentage du SCR. La directive Solvabilité 2 est une réforme prudentielle qui vise à garantir le versement au client des engagements des assureurs et des réassureurs à un horizon 1 an, et ce même en cas de situation très défavorable. C’est pourquoi les compagnies d’assurance doivent calculer le SCR qui correspond à une exigence de fonds propres pour faire face à un scénario de crise qui arriverait une fois tout les 200 ans. L’EIOPA propose 5 méthodes pour déterminer le SCR : • La formule standard • La formule standard et un modèle interne partiel • La formule standard avec l’utilisation des Undertaking Specific Parameters • Un modèle interne • Simplifications En formule standard, le SCR se calcule avec l’expression suivante : SCR = BSCR + Adj + SCROp (1.1) Avec : • BSCR (Basic Solvency Capital Requirement), le SCR de base. • SCROp , le niveau de capital requis pour le risque opérationnel. • Adj, l’ajustement pour l’absorption des pertes par les provisions techniques et par l’impôt différé. CHAPITRE 1. SOLVABILITÉ 2 ET CADRE RÉGLEMENTAIRE 10 Figure 1.2: La formule standard, QIS 5 Technical Specifications La formule standard est une approche modulaire dans le sens où un besoin en capital élémentaire est calculé pour chaque facteur de risque (taux, concentration,. . .) appartenant à un module de risque. La formule standard agrège les différents SCR obtenus à l’aide de matrices de coefficients de corrélation linéaires. Elle utilise une approche « bottum-up », une première agrégation des risques est effectuée au sein de chaque module de risque, c’est une agrégation intra-modulaire, puis une deuxième est appliquée entre les différents modules, c’est une agrégation inter-modulaire. La formule standard prend 7 risques en compte : - Risque Risque Risque Risque Risque Risque Risque de marché de souscription non-vie de souscription vie de santé d’intangibilité des actifs incorporels de défaut opérationnel Ce mémoire s’attache au module de souscription non-vie, et principalement les risques de réserves et de primes. Le risque de souscription non-vie Le risque de souscription regroupe l’ensemble des risques pris par un assureur lors de la distribution de contrats d’assurance. Dans les spécifications techniques du QIS 5, le risque de souscription non-vie se décompose en trois sous-modules : CHAPITRE 1. SOLVABILITÉ 2 ET CADRE RÉGLEMENTAIRE 11 • Le risque de réserve et de prime • Le risque de catastrophe • Le risque de rachat Le risque de rachat Le risque de rachat est défini dans le QIS 5 par : SCR.9.36.« Non-life insurance contracts can include policyholder options which significantly influence the obligations arising from them.[...]Where such policyholder options are inclued in a non-life insurance contract, the calculation of premium provisions is based on assumptions about the exercice rates of these options. Lapse risk is the risk that these assumptions turn out to be wrong or needed to be changed. » Le risque catastrophe Le risque de catastrophe est défini dans la directive cadre Solvency 2 (Directive 2009/138/EC) par : « the risk of loss, or of adverse change in the value of insurance liabilities, resulting from significant uncertainty of pricing and provisionning assumptions related to extreme or exceptional events. » Le risque de réserve et de prime Le risque de prime est un risque de sous tarification, c’est à dire le risque que les montants des sinistres et des frais liés aux sinistres soient supérieurs à ceux prévus dans la tarification. Le risque de réserve mesure l’incertitude dans l’estimation des engagements d’une compagnie d’assurance envers ses assurés. Les montants restant à payer des sinistres déjà survenus ne sont pas connus au moment du calcul des provisions, il réside donc un risque lié à la sous-évaluation des réserves. 1.4 Le SCR risque de réserve et risque de prime Le SCR du risque de prime et de réserve est noté N Lpr dans le QIS 5 Technical Specifications et se calcule avec la formule suivante : N Lpr = ρ(σ) × V Avec : • V = Volume • σ = Une estimation de l’écart type du portefeuille non-vie • ρ(σ) = Fonction de cet écart type (1.2) CHAPITRE 1. SOLVABILITÉ 2 ET CADRE RÉGLEMENTAIRE 12 La distribution des pertes est supposée Lognormale, La fonction ρ(σ) est définie par : p exp(N0.995 × log(σ 2 + 1)) √ −1 ρ(σ) = σ2 + 1 (1.3) Où : N0,995 = Le quantile à 99,5% de la loi normale centrée réduite Le volume et l’écart type sont calculés pour chaque LoB et pour chaque risque (prime et réserve), puis ils sont agrégés pour obtenir un volume et un écart type global. Le Volume Le volume du risque de prime pour un LoB donné est défini par la relation suivante : t,written t,earned t−1,written PP V(prem,lob) = max(Plob , Plob , Plob ) + Plob Où : t,written • Plob = Estimation du montant de primes émises durant l’année à venir pour chaque LoB t,earned • Plob = Estimation du montant de primes acquises durant l’année à venir pour chaque LoB t−1,written • Plob = Estimation du montant de primes émises durant l’année qui vient de s’écouler pour chaque LoB P P = Valeur actuelle probable des primes attendues après l’année à venir pour chaque • Plob LoB Le volume du risque de réserve pour un LoB est représenté par son Best Estimate des provisions de sinistres P COlob : V(res,lob) = P COlob Le volume global de l’entreprise pour le risque de tarification et de provisionnement se calcule par : V = P Vlob lob où Vlob est défini par : Vlob = (Vprem,lob + Vres,lob ) × (0.75 + 0.25 × DIVlob ) DIVlob est un coefficient de diversification géographique pour chaque LoB (1.4) CHAPITRE 1. SOLVABILITÉ 2 ET CADRE RÉGLEMENTAIRE 13 La volatilité La volatilité globale pour le risque de réserve et de prime du SCR de souscription non-vie est calculée en agrégeant les différentes volatilités de chaque LoB avec une matrice de corrélation : v u u 1 X σ = t 2. CorrLobr,c .σr .σc .Vr .Vc V (1.5) r,c Avec : • V est le volume global • CorrLob est la matrice de corrélation entre les différents LoB • r,c sont des indices de LoB • Vr , Vc sont les volumes des LoB représentés par les indices r et c La formule suivante donne la volatilité par LoB qui est une agrégation entre le risque de prime et le risque de réserve, en considérant un coefficient de corrélation α. q (σ(prem,lob) V(prem,lob) )2 + 2ασ(prem,lob) σ(res,lob) V(prem,lob) V(res,lob) + (σ(res,lob) V(res,lob) )2 σlob = V(prem,lob) + V(res,lob) (1.6) Les entreprises qui considèrent que les volatilités de marché proposées dans la formule standard ne correspondent pas à leurs risques et que leurs spécificités ne sont pas bien prises en compte, peuvent utiliser leurs propres données pour calculer le SCR risque de prime et de réserve. 1.5 Undertaking Specific Parameters L’utilisation d’un modèle interne permet de modéliser précisément le risque encouru par l’entreprise, et d’obtenir un SCR qui prend en compte toutes ses spécificités. Mais la mise en place d’un tel modèle demande beaucoup de temps et de main d’oeuvre, ce qui limite l’accès aux compagnies d’assurance de tailles conséquentes. L’application des Undertaking Specific Parameters propose une alternative aux sociétés n’ayant pas la possibilité de construire un modèle interne et qui considèrent que la formule standard surestime leur SCR. Les entreprises possédant un historique suffisant de données sur leurs primes et leur sinistralité passées peuvent appliquer les USP pour que leurs besoins de fonds propres soient calculés avec leurs propres hypothèses et non celles du marché. Lors du QIS 5, l’EIOPA a proposé des méthodes pour que les compagnies puissent calculer leurs propres volatilités des réserves et des primes. En fonction de son nombre d’années d’historique, la compagnie devra appliquer une méthode de crédibilité pour pouvoir appliquer les USP. σ = c × σU + (1 − c) × σM Avec : CHAPITRE 1. SOLVABILITÉ 2 ET CADRE RÉGLEMENTAIRE 14 • c le facteur de crédibilité • σU la volatilité estimée par la compagnie. • σM la volatilité du marché. Soit NLoB le nombre d’années d’historique que possède l’assureur. NLoB C 5 34% 6 43% 7 51% 8 59% 9 67% 10 74% 11 81% 12 87% 13 92% 14 96% ≥ 15 100% Table 1.1: Crédibilité pour les branches Third-party liability, Motor vehicle liability et Credit and suretyship NLoB C 5 34% 6 51% 7 67% 8 81% 9 92% ≥ 10 100% Table 1.2: Crédibilité pour les autres branches L’EIOPA dans le QIS 5 propose 3 méthodes pour le risque de prime et 3 méthodes pour le risque de réserve qui seront analysées dans la partie 2, la compagnie d’assurance aura aussi la possibilité de choisir une autre méthode si celle-ci est validée par l’ACP. Chapitre 2 Méthodes de provisionnements classiques A la différence des entreprises classiques, une compagnie d’assurance ne sait pas à l’avance le montant précis des sommes à verser à ses clients ; il y a là une inversion du cycle de production par rapport à l’industrie. Pour faire face à ses engagements, l’assurance estime des provisions qu’elle inscrit au passif de son bilan. Les différentes provisions en assurance non-vie sont : • Provisions pour sinistres à survenir – Provisions pour primes non acquises – Provisions pour risques en cours • Provisions pour sinistres survenus – Provisions pour sinistres survenus et déclarés – Provisions pour sinistres non déclarés – Provisions mathématiques des rentes • Autres provisions – Provisions d’égalisation – Provisions pour risques d’exigibilité – Provisions pour risques croissant C’est la provision pour sinistre à payer (PSAP) qui sera étudiée dans la suite de ce chapitre, elle correspond à l’estimation de la somme restant à verser à l’assuré. Dans l’article R333-6 du Code des Assurances, la PSAP est définie par : « Valeur estimative des dépenses en principal et en frais, tant internes qu’externes, nécessaires au règlement de tous les sinistres survenus et non payés, y compris les capitaux constitutifs des rentes non encore mises à la charge de l’entreprise. » La méthode réglementaire d’évaluation de la PSAP est la méthode dossier-dossier, où l’assureur calcule le montant qu’il reste à payer sur chaque sinistre déclaré non clos, auquel est ajouté une estimation de la charge des tardifs (sinistres survenus avant la date d’inventaire mais non connus à la date des calculs). Depuis 1991, l’autorité de contrôle des assurances autorise 15 CHAPITRE 2. MÉTHODES DE PROVISIONNEMENTS CLASSIQUES 16 l’utilisation de méthodes statistiques sous contrainte de son accord. A la différence de l’évaluation dossier-dossier qui est une méthode prospective, l’approche statistique est basée sur des données historiques, elle nécessite donc des données relativement nombreuses et fiables, un futur qui suit la même structure que le passé, un passé assez régulier et que la branche soit peu volatile.1 2.1 Triangle de liquidation Les triangles de liquidation sont des tableaux à double entrée représentant l’évolution des sinistres (charge, règlements, nombre de sinistre, primes,. . .). Nous travaillerons dans ce mémoire avec des triangles de règlements cumulés, qui sont de la forme suivante : Figure 2.1: Triangle de règlements où : • i représente l’année de survenance du sinistre. • j représente l’année de développement du sinistre. • Cij est le montant cumulé des règlements des sinistres survenus l’année i au bout de j années de développement. Dans la suite de ce mémoire, nous faisons l’hypothèse réaliste que le nombre d’années de développement est identique au nombre d’année de survenance. Soit D = {Ci,j \i + j ≤ N + 1} toute l’information disponible avec le triangle supérieur, et N le nombre d’année de survenance et de développement. Les méthodes statistiques permettent d’estimer le triangle inférieur, et de calculer la provision nécessaire à ces sinistres. Il en existe de toutes sortes, détaillées dans de nombreux mémoires, mais seules celles qui sont utiles à la compréhension du mémoire seront présentées dans ce chapitre. 1 cf Partrat C. (2007) Provisionnement technique en assurance non-vie. Economica. CHAPITRE 2. MÉTHODES DE PROVISIONNEMENTS CLASSIQUES 2.2 17 Chain Ladder La méthode Chain Ladder est une méthode déterministe, très utilisée car elle a pour avantages d’être très simple dans sa mise en œuvre, de ne pas faire d’hypothèses de loi et de s’appliquer à des triangles de toutes natures. Hypothèses 2.2.1 1. Il existe f1 , ..., fN −1 > 0 facteurs de développement tels que ∀i = 1, · · · , N et ∀j = 1, · · · , N − 1 on a : E[Ci,j+1 \Ci,1 , ...Ci,j ] = E[Ci,j+1 \Ci,j ] = Ci,j × fj 2. Les paiements cumulés Ci,j des années de survenances i sont indépendants. Les coefficients Chain-Ladder sont estimés par : ∀j = 1, .., N − 1 NP −j fbj = Ci,j i=1 NP −j Ci,j+1 i=1 A partir des deux hypothèses de la méthode, nous obtenons :2 1. ∀i = 1, .., N E[Ci,N \DN ] = E[Ci,N \Ci,N −j ] = Ci,N −i fN −i × ... × fN −1 2. Les facteurs de Chain Ladder fbj sont des estimateurs sans biais et non corrélés. Il est alors possible d’estimer le montant des paiements cumulés à l’ultime : ∀i = 1, · · · , N CL b Cd i,N = E[Ci,N \DN ] = Ci,N −i+1 fbN −i+1 × ... × fbN −1 Ce qui nous permet de calculer la provision par année de survenance, qui correspond à l’estimation des paiements entre aujourd’hui et l’ultime : ci = E[C b i,N \DN ] − Ci,N −i+1 R CL = Cd i,N − Ci,N −i+1 = Ci,N −i+1 (fbN −i+1 × ... × fbN −1 − 1) b correspond à la somme des provisions par année de survenance. R b = Et la provision globale R N P Ri i=1 2 cf Mack T. (1993) Distribution-free calculation of the standard error of Chain-Ladder reserve estimates. Munich Re, Munich. CHAPITRE 2. MÉTHODES DE PROVISIONNEMENTS CLASSIQUES 18 Validation des Hypothèses La première hypothèse porte sur la linéarité, la méthode Chain Ladder suppose que les facteurs de développement ne varient pas en fonction des années de survenance, ce qui induit que les couples (Ci,j+1 , Ci,j ) doivent être relativement alignés sur une même droite pour une année de développement fixée. La deuxième hypothèse peut être vérifiée avec un test d’indépendance classique ou en utilisant le d-triangle, le triangle des facteurs de développement individuel. Si les années de survenance sont indépendantes, les facteurs de développement individuel sont relativement constant pour une même année de développement. Limites de la méthode La méthode Chain Ladder possède les inconvénients des méthodes déterministes, de plus, elle présente des incohérences en cas de changement sur le portefeuille et elle est trop sensible à la volatilité des facteurs de développement. L’estimation à l’ultime de la dernière année de survenance est calculée à partir d’une seule valeur. Ce qui fait qu’elle est presque entièrement estimée avec les facteurs Chain Ladder, et donc dépend beaucoup de la qualité des facteurs. Les derniers facteurs sont calculés sur peu de données, notamment pour la dernière année de développement, sur une seule valeur. 2.3 Méthode de Mack Le modèle de Mack est une méthode stochastique développée par Thomas Mack en 1993 dans son article Distribution-free calculation of the standard error of Chain Ladder reserves estimates. Le modèle de Mack reprend les hypothèses de la méthode de Chain Ladder et en ajoute une sur les moments d’ordre 2 afin d’estimer l’erreur de prédiction. Hypothèses 2.3.1 1. Il existe f1 , ..., fN −1 > 0 facteurs de développement tels que ∀i = 1...N et ∀j = 1, · · · , N − 1 on a : E[Ci,j+1 \Ci,1 , ...Ci,j ] = E[Ci,j+1 \Ci,j ] = Ci,j × fj 2. Les paiements cumulés Ci,j des années de survenances i sont indépendants. 2 3. Il existe σ12 , · · · , σN −1 paramètres de variance tels que ∀i = 1...N et ∀j = 1, · · · , N − 1 on a: V ar[Ci,j+1 \Ci,1 , ...Ci,j ] = V ar[Ci,j+1 \Ci,j ] = Ci,j × σj2 Les facteurs de développement sont estimés de la même façon que dans la méthode Chain Ladder : NP −j fbj = i=1 NP −j Ci,j Ci,j+1 i=1 CHAPITRE 2. MÉTHODES DE PROVISIONNEMENTS CLASSIQUES 19 Le paramètre de variance est estimé par : ∀0 ≤ k ≤ N − 2 bk2 = σ N −k X Ci,k+1 1 Ci,k ( − fbk )2 N − k − 1 i=1 Ci,k Cet estimateur est sans biais pour k = 1, · · · , N − 2, pour k = N − 1, la variance est estimée par : 4 bN σ −2 2 2 2 bN bN bN σ , min(σ −1 = min( 2 −3 , σ −2 )) bN −3 σ La méthode de Mack donne les mêmes résultats que celle de Chain Ladder, mais elle permet en plus de calculer l’erreur de prédiction sur la provision, en mesurant l’écart quadratique moyen MSEP (Mean Square Error of Prediction). M SEP b 2] = E[(R − R) b − E[R])2 ] + E[(R − E[R])2 ] = E[(R = M SE + V ar(R) L’erreur de prédiction peut être séparée en deux, un facteur de variance V (R) (process error), et une erreur d’estimation MSE. ci ) peut être estimée par : Théorème 2.3.2 Sous les 3 hypothèses, la M SEP (R N −1 X ci ) = C b2 M SEP (R i,N d k=N +1−i bk2 σ 1 1 + N −k P fb2 Cbi,k k Cj,k (2.1) j=1 Il est alors possible de déduire de ce théorème une estimation de l’erreur de prédiction de la provision totale : Corollaire 2.3.3 Sous les conditions du théorème, la MSEP estimée de la provision totale est : N N X X d c d b M SEP (R) = {M SEP (Ri ) + Cbi,N Cbj,N i=2 j=i+1 N −1 X k=N +1−i bk2 /fbk2 2σ NP −1 } (2.2) Cn,k n=1 Validation des hypothèses Les deux premières hypothèses sont les mêmes que pour la méthode Chain Ladder, leurs validation restent identiques. Pour vérifier l’hypothèse d’existence d’un paramètre de variance, il faut regarder le caractère aléatoire des résidus suivant : ri,k = Ci,k+1 − fbk Ci,k p Ci,k Pour que l’hypothèse soit validée, il faut que les résidus montrent un caractère aléatoire. CHAPITRE 2. MÉTHODES DE PROVISIONNEMENTS CLASSIQUES 2.4 20 Bootstrap Principe A la différence de la méthode de Mack qui permet d’obtenir l’estimation des moments d’ordres 1 et 2 des provisions, la méthode Bootstrap présente l’avantage d’estimer la distribution des provisions. En effet, la théorie du Bootstrap permet de simuler la distribution d’un estimateur ou d’une statistique de test en ré-échantillonnant des données. La méthode Bootstrap est simple à utiliser et ne repose sur aucune hypothèse de loi, il suffit de considérer les variables de l’échantillon indépendantes et identiquement distribuées. La procédure Bootstrap générale peut se résumer en trois étapes : Soit un échantillon de n variables aléatoires indépendantes et identiquement distribuées. 1. La première étape consiste à un tirage aléatoire avec remise dans l’échantillon pour obtenir un pseudo échantillon de taille n. 2. La deuxième étape établit la taille de la distribution voulue, et effectue la première étape T fois afin d’obtenir T pseudo échantillons de taille n créés à partir de l’échantillon initial. 3. La dernière étape permet d’analyser la distribution avec plusieurs mesures comme la variance, la moyenne ou les quantiles de différents niveaux. Application au triangle de liquidation Les règlements cumulés (Ci,j )(i,j)∈D sont supposés indépendants mais pas identiquement distribués, c’est pour cela que la méthode sera appliquée sur des résidus construit de tels sortes qu’ils soient considérés indépendants et identiquement distribués. Le résidus le plus fréquemment choisi est le résidus de Pearson, calculé avec la formule suivante : Ci,j − Cbi,j ri,j = q V ar(Cbi,j ) Les étapes d’application de la méthode Bootstrap à un triangle de règlement sont : 1. A l’aide d’une méthode estimer les Cbi,j . 2. Obtention d’un triangle supérieur de résidus. 0 . 3. Rééchantillonnage des résidus et obtention d’un nouveau triangle supérieur de résidus rij 0 . 4. Calcul d’un nouveau triangle supérieur estimé à partir des résidus ri,j 5. Avec la méthode utilisée en 1, estimer le triangle inférieur et calculer une provision. Les étapes 3 → 5 sont à effectuer T fois afin d’avoir une distribution de provision et de calculer l’erreur d’estimation. La popularité de la méthode Bootstrap vient de la facilité de mise en œuvre dans le cadre du provisionnement, mais le temps d’exécution peut constituer un frein dans son application. Deuxième partie Undertaking Specific Parameters 21 Chapitre 1 Données 1.1 Présentation des données Présentation des triangles Il est difficile de s’approprier une méthode uniquement avec de la théorie, c’est pourquoi nous allons illustrer les modèles présentés dans ce mémoire à l’aide de données extraites de la réalité. Les résultats numériques des chapitres suivants proviennent des données introduites ici. Les données étudiées sont : • Les triangles de règlements et de charges pour les LoB Other motor et MAT ainsi que les primes reçues pour chaque année de survenance. • Les triangles de règlements pour le LoB Third-party liability ainsi que les primes reçues pour chaque année de survenance. Nous avons à notre disposition un historique de 14 ans de données de sinistralité et de primes sur les branches Marine Aviation and Transport et Other motor et 20 ans sur la branche Third-party liability. La branche Third-party liability présentée ici a l’avantage de posséder plus de 15 ans d’historique et les deux autres branches plus de 10 ans ce qui permet de ne pas être impacté par le facteur de crédibilité introduit dans la partie 1. Les triangles présentés sont bruts de recours, nets de réassurance et les frais ne sont pas pris en compte. Les définitions des LoB ci-dessous sont issues du QIS 5 Technical Specifications. Marine, Aviation and Transport (MAT)« This line of business includes obligations which cover all damage to or loss to river, canal, lake and sea vessels, aircraft, and damage to or loss of goods in transit or baggage irrespective of the form of transport. This line of business also includes all liabilities arising out of use of aircraft, ships, vessels or boats on the sea, lakes, rivers or canals including carrier’s liability irrespective of the form of transport. » La garantie qui représente cette branche est un contrat en transport d’une grande compagnie d’assurance. C’est une garantie qui couvre à la fois du dommage considérée comme une branche court terme et de la responsabilité civile, considérée comme une branche long terme. Le ratio paiements cumulés sur charge des sinistres atteint les 95% en moyenne sur les années de surve- 22 CHAPITRE 1. DONNÉES 23 nance au bout de 10 ans. C’est une branche moyen terme qui est intéressante à étudier car elle admet une très grande volatilité entre ses différentes années de survenance. Other motor« This line of business includes obligations which cover all damage to or loss of land motor vehicles, land vehicles other than motor vehicles and railway rolling stock. » C’est une garantie en dommage automobile d’une grande compagnie d’assurance qui représente cette branche. C’est une branche court terme où les sinistres sont réglés rapidement. Le ratio paiements cumulés sur charge des sinistres est de plus de 95% en moyenne sur les années de survenance dès la deuxième année de développement, et atteint 99% à partir de la quatrième année. Ces ratios montrent qu’en 4 ans, les sinistres de ce LoB sont quasiment tous clos. Third-party liability« This line of business includes obligations which cover all liabilities other than those included in motor vehicle liability and marine, aviation and transport. » Les données représentant cette branche viennent de garanties en Responsabilité Civile médicale d’une grande mutuelle. Ce contrat couvre le client contre les conséquences d’une faute médicale qui serait à l’origine d’un dommage physique, moral, matériel, présent ou futur. C’est une branche à développement long car une réclamation peut intervenir plusieurs années après l’acte médical et le règlement du dossier peut se dérouler sur de nombreuses années. Le fait d’avoir un triangle à 20 ans d’historique permet de confirmer le long développement des sinistres. N’ayant pas de triangle de charges pour ce LoB, nous avons regarder l’évolution des paiements décumulés pour mettre en valeur l’écoulement sur une longue échéance des sinistres. Les paiements incrémentaux de la dixième année de développement représentent plus de 10% des paiements cumulés de cette année en moyenne sur les années de survenance et toujours 4% au bout de 17 ans. Ce qui montre qu’au bout de 17 ans, il y a toujours des flux de règlements conséquents sur les sinistres. Présentation de la base sinistres Nous disposons d’une « photo » d’une base de sinistres vue en 2009, avec comme première année de survenance l’année 1994, d’une très grosse mutuelle du marché français. Cela signifie que, pour chaque année de survenance, nous avons la valeur de chaque sinistre en fin d’année 2009, soit le montant sur la diagonale d’un triangle de règlements. Les sinistres représentent des garanties de responsabilité civile (RC), rattachés au LoB motor vehicle liability et de dommage automobile du LoB other motor, et nous disposons des primes reçues par la compagnie pour chaque année ainsi que du nombre d’adhérents afin de voir l’évolution du portefeuille. En plus de cette base, nous avons le triangle de règlements attaché à cette base, ce qui donne des indications sur l’écoulement des sinistres. Vérification : La somme des sinistres bruts de recours pour une année est égale au montant sur la diagonale du triangle de règlements. La RC automobile est une branche très longue, avec une grande volatilité sur les montants. Des sinistres très graves peuvent apparaître, dont certains sont très durs à évaluer ce qui fait que leurs paiements s’écoulent sur de nombreuses années. Les données proviennent d’une très CHAPITRE 1. DONNÉES 24 grosse compagnie, ce qui fait que le volume de sinistres est conséquent et qu’il existe des sinistres atteignant plusieurs millions d’euros. Analyse des données La fiabilité des données joue un rôle important dans la précision de l’estimation des provisions, c’est pourquoi la directive Solvabilité 2 a imposé des exigences strictes sur la qualité des données. L’EIOPA a publié les mesures d’implémentation de Solvabilité 2 afin d’encadrer les compagnies, il défini l’évaluation des données selon trois critères : la pertinence, l’exhaustivité, et la précision. Nous avons à notre disposition les triangles de liquidation qui proviennent des données du service technique des entreprises, mais nous n’avons pas les bases complètes de sinistres ni les données comptables. Par conséquent, nous n’avons pas pu vérifier les différents retraitements ou validations de données. Mais pour que les données soient de qualités et respectent les normes de Solvabilité 2, chaque compagnie doit vérifier les étapes suivantes : - Les résultats techniques sont validés avec les résultats comptables, normalement la comptabilité est censée retrouver les mêmes résultats que le service technique. Si jamais des différences existent entre les deux services, elles sont remontées et expliquées. La compagnie doit effectuer les retraitements suivants sur ces données : - Les enregistrements de la base de données dont les différentes dates ne sont pas cohérentes doivent être supprimés. En effet, les enregistrements sont définis par plusieurs dates : la date de survenance du sinistre, de déclaration, d’ouverture du dossier et la date de clôture. Il faut par exemple vérifier que la date de survenance du sinistre est antérieure à la date de déclaration, ou encore que la date de clôture est la date la plus récente, etc... Les tests de cohérence de dates sont importants pour s’assurer de la qualité des données. - La compagnie doit regarder si les variables de différentes dates ne comportent pas de pics afin de déceler d’éventuels problèmes sur la qualité des données. Pour cela, elle sort des graphiques de points d’accumulations qui montrent le nombre d’enregistrements pour une date, et vérifie qu’il n’y ait pas de pics non expliqués. - Les règlements sont bruts de recours, par conséquent tous les flux négatifs représentent une anomalie et seront supprimés des données. Cette vérification a été effectuée sur la base mise à notre disposition. Nous considérons que les données sont de qualité et respectent les normes de Solvabilité 2, mais ne pouvant pas vérifier les tests effectués par les compagnies, nous mettons une certaine réserve sur cette hypothèse, et dans l’analyse des résultats sur ces données. 1.2 Vérification des hypothèses Nous allons vérifier que les données suivent les trois hypothèses de Mack sur l’existence de facteur de développement, l’indépendance des années de développement et l’existence d’un facteur de variance. Les tests ont été effectués sur tous les triangles, mais seuls les résultats du LoB other CHAPITRE 1. DONNÉES 25 motor seront présentés dans la suite. L’existence d’un facteur de développement Figure 1.1: Existence de facteur de développement, LoB Other Motor L’hypothèse n’est pas totalement respectée pour la première année de développement puisqu’il y a un point nettement en dehors de la droite et tous les points ne sont pas bien alignés. Par contre pour les deux autres années observées, tous les points sont parfaitement sur la droite, l’hypothèse d’existence d’un facteur de développement est donc validée. CHAPITRE 1. DONNÉES 26 Indépendance des années de survenance Figure 1.2: Indépendance des années de survenance, LoB Other Motor Les graphiques représentent les facteurs individuels fi,j en fonction des années de survenance pour une année de développement fixée. Comme pour le test sur la première hypothèse, nous pouvons observer que pour la troisième année de survenance et la première année de développement, le facteur de développement individuel donne une valeur disproportionnée. L’hypothèse d’indépendance des années de survenance n’est pas validée pour la première année de développement puisque les facteurs de développement individuels varient en fonction de l’année de survenance. Par contre pour l’année d’après, et toutes celles qui suivent, l’hypothèse est vérifiée. Nous pouvons voir sur le graphique que les points sont alignés sur une droite horizontale. CHAPITRE 1. DONNÉES 27 Existence d’un paramètre de variance Figure 1.3: Existence d’un paramètre de variance, LoB Other Motor Les résidus ne présentent pas de tendance, ils semblent être désordonnés sur le graphique. La troisième hypothèse du modèle de Mack n’est pas rejetée. Nous pouvons donc appliquer ce triangle aux méthodes de Chain Ladder et de Mack, mais en gardant une réserve puisque les hypothèses ne sont pas parfaitement vérifiées. Les tests ont été effectués sur les autres triangles, et les résultats montrent que les hypothèses ne sont pas rejetées. Nous pouvons appliquer ces méthodes sur ces triangles. Dans la suite du mémoire, les méthodes sont codées en VBA dans un outils de provisionnement déjà existant dans l’entreprise. Chapitre 2 Risque de réserve Nous avons vu précédemment que la directive Solvabilité 2 avait pour objectif de garantir la pérennité de la compagnie à un horizon un an. Par conséquent, la volatilité des réserves utilisée dans le calcul de l’exigence de capital de la formule standard doit représenter l’erreur de prédiction à un an. Cette nouvelle vision bouscule les modèles déjà établis puisque jusqu’à récemment, les méthodes de provisionnement étaient à l’ultime, c’est-à-dire qu’elles permettaient de calculer la provision et l’erreur de prédiction sur toute la durée de développement des sinistres. Dans la formule standard, les compagnies utilisent la volatilité marché pour calculer leurs SCR, mais cette volatilité est calculée sur un ensemble d’entreprise, et ne reflète donc pas précisément une compagnie particulière. L’utilisation des USP propose une alternative à cette situation, avec notamment l’EIOPA qui a présenté trois méthodes différentes pour calibrer la volatilité des réserves. Toutes ces méthodes sont décrites lors de l’exercice du QIS 5 Technical Specifications. Les triangles utilisés dans les méthodes du risque de réserve doivent respecter les conditions suivantes : • Le triangle de règlement ne doit pas inclure les frais car la volatilité des frais est considérée identique à celle des sinistres. • L’inflation doit être prise en compte. • Le triangle doit être net de réassurance pour que les données reflètent la couverture en réassurance de la compagnie. 2.1 Méthode 1 Présentation de la méthode La première méthode proposée par l’EIOPA est une méthode rétrospective, elle regarde les années passées pour calculer l’erreur de prédiction de l’année prochaine. La méthode part des hypothèses suivantes pour chaque compagnie, chaque LoB et chaque année : Hypothèses 2.1.1 1. La somme des réserves et des paiements incrémentaux à un horizon un an est égale au best estimate actuel des réserves. 28 CHAPITRE 2. RISQUE DE RÉSERVE 29 2. La variance de la somme des réserves à un horizon un an et des paiements incrémentaux à un an est proportionnelle au best estimate actuel. 3. La méthode des moindres carrés est appropriée. Définitions : 2 , la constante de proportionnalité de la variance de la somme du best estimate des réserves - βlob à un horizon un an et des paiements incrémentaux à un an. - εA,lob , une variable aléatoire d’espérance nulle et de variance un. - P COlob,i,j , le best estimate des réserves par LoB pour l’année de survenance i et de développement j. - Ilob,i,j , les paiements incrémentaux par LoB pour l’année de survenance i et de développement j. - VA,lob , le best estimate par LoB et par année calendaire, il se calcule avec la formule suivante : VA,lob = X P COlob,i,j i+j=A+1 - RA,lob , la somme du best estimate des réserves et des paiements vus dans un an par année calendaire et par LoB. Il est définit par : X RA,lob = P COlob,i,j + i+j=A+2 i6=A+1 X Ilob,i,j i+j=A+2 i6=A+1 - Nlob , le nombre d’années d’historique par LoB où sont disponibles les valeurs RA,lob et VA,lob . - P COlob , le best estimate actuel des réserves par LoB. La distribution des pertes est donnée par la dynamique : RA,lob ∼ VA,lob + q VA,lob βlob εA,lob (2.1) Et nous obtenons E[RA,lob ] = VA,lob et V ar(RA,lob ) = VA,lob × βlob A partir de cette dynamique, il est possible d’obtenir un ensemble de variables aléatoires indépendantes et identiquement distribuées : RA,lob − VA,lob p βlob εA,lob = (2.2) VA,lob La méthode des moindres carrés permet de trouver un estimateur de βlob : v u u βblob = t 1 Nlob − 1 X (RA,lob − VA,lob )2 A VA,lob (2.3) A l’aide de cet estimateur, la volatilité des réserves à un an est donnée par : βblob (2.4) P COlob C’est cette volatilité, agrégée avec la volatilité du risque de prime qui est utilisée dans la formule du SCR risque de réserve et de prime. σres,lob = √ CHAPITRE 2. RISQUE DE RÉSERVE 30 Application La première méthode proposée par l’EIOPA est très simple au niveau compréhension, elle calcule la volatilité des bonis/malis liés à la liquidation à 1 an du best estimate. Mais les compagnies d’assurance ont commencé à garder en historique leur best estimate que depuis très récemment, ce qui limite l’application de cette méthode. En effet, pour pouvoir appliquer correctement la méthode, il est nécessaire de posséder un historique important de best estimate, ainsi que les paiements incrémentaux. Pour pallier cet inconvénient, les entreprises possédant un triangle de liquidation avec suffisamment d’années peuvent reconstruire leurs best estimate passés. Pour recalculer les best estimate passés, il faut se placer dans le triangle à la date à laquelle nous voulons l’estimer. Par exemple pour calculer celui de 1989, seul le triangle jusqu’à l’année 1989 incluse sera pris en compte. A partir de ce triangle, un best estimate est calculé (dans notre exemple cela correspondrait à V1989,lob ). Puis une diagonale est ajoutée au triangle, et un nouveau best estimate est calculé en rajoutant les paiements incrémentaux de l’année. Dans ce calcul, la dernière année de survenance ajoutée avec la diagonale n’est pas prise en compte. Pour notre exemple, cela correspondrait à R1989,lob . CHAPITRE 2. RISQUE DE RÉSERVE 31 Figure 2.1: Explication de l’estimation de l’erreur de prédiction Mais cette estimation de best estimate passé présente deux gros inconvénients : -La nécessité d’avoir un triangle de liquidation avec un grand nombre d’années : En effet, l’EIOPA exige un historique de données de cinq ans minimum pour pouvoir avoir le droit d’utiliser les USP. Afin d’estimer les différents best estimate passés à l’aide de l’approche proposée un triangle de liquidation est utilisé. Or il est indispensable que celui-ci possède au moins cinq ans d’historique pour que les provisions soient calculées avec un triangle qui a un sens, même si cela reste en général insuffisant. Par conséquent cette méthode requiert un historique de dix ans de données minimum pour être relativement applicable pour une compagnie ne possédant pas d’historique de best estimate. -Biais dans le calcul des provisions pour projeter les sinistres à l’ultime. Afin d’estimer les provisions passées, les sinistres doivent être mis à l’ultime, mais dans les mêmes conditions que le passé. Cela signifie que pour calculer les réserves fin 1988, il faut utiliser le triangle jusqu’à l’année de survenance 1988 et projeter les sinistres à l’ultime uniquement avec ces données. En effet, l’utilisation des facteurs de développement du triangle complet biaiserait CHAPITRE 2. RISQUE DE RÉSERVE 32 l’estimation du best estimate. Mais il est difficile d’estimer convenablement les sinistres à l’ultime avec si peu de données, le problème est d’autant plus marquant avec les branches longues où les sinistres sont encore loin d’être à l’ultime au bout de cinq ans. 2.2 Méthode Merz Wüthrich Les méthodes deux et trois proposées par l’EIOPA afin d’estimer la volatilité des réserves utilisent le modèle de Merz Wüthrich. Cette méthode a été introduite en 2008 par les mathématiciens Mario V.Wüthrich, Michael Merz et Natalia Lysenko dans un article intitulé Uncertainty of the Claims Development Result in the Chain Ladder Method. Leur papier développe une formule fermée qui permet d’estimer le risque de réserve à un horizon un an. Dans le souci de s’adapter à la réforme Solvabilité 2, les mêmes mathématiciens ont proposé dans l’article Modelling the claims development result for Solvency purposes une version simplifiée de cette formule, plus facile à implémenter. Vision actuelle en N DN = {Ci,j i + j ≤ N + 1} Figure 2.2: Vision en N Vision l’année d’après en N+1, DN +1 = {Ci,j \i + j ≤ N + 2} CHAPITRE 2. RISQUE DE RÉSERVE 33 Figure 2.3: Vision en N+1 La formule fermée de Merz Wüthrich part des hypothèses suivantes : Hypothèses 2.2.1 1. Les paiements cumulés Ci,j des différentes années de survenance i ∈ {1, . . . , N } sont indépendants. 2. Les paiements cumulés (Ci,j )j≥1 suivent une chaîne de Markov, et il existe fj > 0 et σj > 0 tels que pour 1 ≤ j ≤ N − 1 et 1 ≤ i ≤ N : E[Ci,j+1 \Ci,j ] = fj Ci,j 2 V ar(Ci,j+1 \Ci,j ) = σi,j Remarque 2.2.2 Ce modèle se base sur les hypothèses de Mack, tout en ajoutant une condition plus forte avec l’hypothèse de chaîne de Markov des paiements cumulés. Sous ces hypothèses, il est possible de prédire les montants à l’ultime pour les visions en N et en N+1. Ces prédictions diffèrent avec l’ajout d’informations disponibles entre N et N+1. NY −1 E[Ci,N \DN ] = Ci,N −i+1 fj j=N −i+1 E[Ci,N \DN +1 ] = Ci,N −i+2 NY −1 fj j=N −i+2 Claims development result (CDR) Le CDR correspond à la différence entre deux estimations successives au temps N et N+1 du best estimate augmentée des paiements incrémentaux de l’année N pour celui en N+1. Le Claims development result réel CDRi par année de survenance i ∈ {2, . . . N } est défini par : CDRi (N + 1) = E[RiN \DN ] − (Xi,N −i+2 + E[RiN +1 \DN +1 ]) = E[Ci,N \DN ] − E[Ci,N \DN +1 ] (2.5) CHAPITRE 2. RISQUE DE RÉSERVE 34 où Xi,N −i+2 = Ci,N −i+2 − Ci,N −i+1 représente les paiements incrémentaux, RiN les réserves vues en N pour l’année de survenance i. Le CDR réel est la somme des CDR par années de survenance : CDR = N X CDRi i=2 L’ensemble des informations disponibles en N est aussi connu en N+1, soit DN ⊂ DN +1 . En utilisant la propriété de martingale de (E[Ci,N \Dt ]), il est possible de trouver : E[CDR(N + 1)i \DN ] = 0 d i par année de survenance i ∈ {2, . . . N } est Le Claims development result observable CDR définit par : d i (N + 1) = R b N − (Xi,N −i+2 + R b N +1 ) = C bN − C b N +1 CDR (2.6) i i,N i i,N bN = C b N − Ci,N −i+1 est un estimateur sans biais de E[RN \DN ] où R i i i,N b N +1 − Ci,N −i+2 est un estimateur sans biais de E[RN +1 \DN +1 ] b N +1 = C et R i i i,N Mesure de l’erreur d’estimation D’un point de vue Solvabilité 2, c’est l’incertitude de la prédiction du CDR autour de 0 qui est important puisque la société doit posséder un capital suffisant pour faire face aux fluctuations du CDR autour de 0. L’objectif est donc de calculer : 2 d M SEPCDR d (N +1)\D (0) = E[(CDRi (N + 1) − 0) \DN ] i N (2.7) Lemme 2.2.3 Le biais de l’estimation du CDR observable pour toutes les années de survenance, vu à la date N est estimé par : bD E (u − bias)2 = E N "N X #!2 d i (N + 1)\DN CDR i=2 = Avec : ˆN ∆ i,N N X X i=2 i>k>1 N 2ˆN (Ĉi,j ) ∆i,N + 2 N N ˆN Ĉi,N Ĉk,N ∆k,N N −1 X (σ̂ N )2 /(fˆN )2 CN −j+1,j = N −i+1 N N −i+1 + SN −i+1 SjN +1 j=N −i+2 où SjN est défini par : SjN = N −j X i=1 Ci,j !2 (σ̂jN )2 /(fˆjN )2 SjN (2.8) (2.9) CHAPITRE 2. RISQUE DE RÉSERVE 35 Lemme 2.2.4 La Variance de process des CDR observables pour toutes les années de survenance, avec l’information de DN est estimée par : Vd ar N X ! d i (N + 1)\DN CDR = i=2 N X X bN + 2 Γ i,N i=2 bN Υ i,k (2.10) i>k>1 Avec pour i ≥ 2 bN Γ i,N d i (N + 1)\DN ) = Vd ar(CDR " # N 2 /(fˆN 2 (σ̂ ) ) N −i+1 N −i+1 N 2 = (Cbi,N ) 1+ Ci,N −i+1 NY −1 1+ l=N −i+2 (σ̂lN )2 /(fˆlN )2 CN −l+1,l (SlN +1 )2 ! −1 Et pour i > k > 1 d d d Υ̂N i,k = Cov(CDRi (N + 1), CDRk (N + 1)\DN ) " # N 2 2 ˆN (σ̂N −k+1 ) /(fN −k+1 ) N bN b = Ci,N Ck,N 1+ S N +1 N −k+1 NY −1 l=N −k+2 ! Théorème 2.2.5 L’erreur conditionnelle de prédiction autour de 0 du CDR observable est donnée par : Md SEP P N i=2 (0) = E d i (N +1)\DN CDR N X !2 d i (N + 1) − 0 CDR \DN i=2 2 = (u − bias) + Vd ar N X ! d i (N + 1)\DN CDR (2.11) i=2 Approximation de la formule 2 2 ˆN σ̂N −i+1 /(fN −i+1 ) Ci,N −i+1 Pour simplifier la formule, l’hypothèse 1 est effectuée. Lemme 2.2.6 Si les aj sont des constantes positives telles que aj 1 alors : J Y (1 + aj ) ≈ 1 + j=1 J X aj j=1 Avec cette nouvelle hypothèse, nous obtenons l’erreur de prédiction autour de 0 du CDR observable pour chaque année de survenance i ∈ {1 . . . N } avec la formule : N bN 2 N ˆN Md SEP CDR d (N +1)\D (0) = (Ci,N ) (φ̂i,N + Ψ̂i + ∆i,N ) i N avec : φ̂N i,N = N −1 X j=N −i+2 CN −j+1,j SjN +1 !2 (σ̂ N )2 /(fˆN )2 1 + l N +1 l CN −l+1,l − 1 (Sl )2 σ̂j2 /(fˆjN )2 CN −j+1,j CHAPITRE 2. RISQUE DE RÉSERVE Ψ̂N i = 36 2 2 ˆN σ̂N −i+1 /(fN −i+1 ) Ci,N −i+1 L’approximation de l’erreur conditionnelle de prédiction autour de 0 du CDR observable agrégé vue au temps N est donnée par la formule suivante : Md SEP P N (0) = i=2 d i (N +1)\DN CDR N X i=2 Md SEP CDR d (N +1)\D (0) + 2 i N X N bN bN + Λ bN ) Cbi,N Ck,N (Ξ i,N i,N k>i>1 (2.12) avec : bN = Φ bN + Ξ i,N i,N bN Λ i,N 2 2 ˆN σ̂N −i+1 /(fN −i+1 ) N +1 SN −i+1 N −1 2 2 ˆN X Ci,N −i+1 σ̂N CN −j+1,j −i+1 /(fN −i+1 ) = N +1 + N SN −i+1 SN −i+1 SjN +1 j=N −i+2 !2 σ̂j2 /(fˆjN )2 SjN Application de la méthode La formule de Merz Wüthrich est utilisée dans les méthodes 2 et 3 du risque de réserve proposées par l’EIOPA. La différence vient du choix de la méthode dans le calcul du best estimate des réserves : la méthode 2 laisse la compagnie libre de choisir la méthode qu’elle préfère, alors que la méthode 3 impose l’utilisation de Chain Ladder. La volatilité des provisions dans un an se calcule avec la formule suivante : √ M SEP σ(res,lob) = P COlob où la M SEP est calculée avec la formule fermée simplifiée de Merz Wüthrich, et le P COlob représente le best estimate des réserves par branche. Le modèle de Merz Wüthrich est une vision à un an de la méthode de Mack, il reprend les mêmes hypothèses en ajoutant une contrainte supplémentaire. La méthode de Mack est une vision stochastique de la méthode de Chain Ladder, par conséquent, il semble logique que dans l’estimation de la volatilité des réserves avec la formule de Merz Wüthrich, la méthode Chain Ladder soit utilisée pour calculer les provisions. La méthode Merz Wüthrich est une formule fermée, ce qui lui donne l’avantage d’être facile à mettre en place et de ne pas demander beaucoup de temps d’exécution. C’est un atout important à l’heure de la réforme Solvabilité 2 qui demande une remontée des résultats plus fréquente. Mais le modèle présente plusieurs limites, notamment l’impossibilité de prendre en compte les queues de développement. Il est indispensable que la première année de survenance soit close CHAPITRE 2. RISQUE DE RÉSERVE 37 pour appliquer la formule puisque qu’il n’est pas possible de prendre en compte les facteurs de queue, ce qui pose problème pour les branches avec un développement assez long. De plus la méthode est construite sur le modèle de Mack, elle possède donc les avantages et les inconvénients de ce modèle. Il faut donc que le triangle respecte les hypothèses de Mack, et une σ̂ 2 /(fˆN )2 N −i+1 nouvelle contrainte N −i+1 1 qui n’est pas toujours respectée. Cette méthode permet Ci,N −i+1 d’obtenir les deux premiers moments de la distribution des provisions mais pas la distribution complète. Pour pallier ces différents inconvénients, une adaptation de la méthode Bootstrap à une vision un an a été mise en place. 2.3 Bootstrap à un an Différents mathématiciens comme Peter England1 ou Arthur Charpentier2 ont proposé des versions modifiées de la méthode Bootstrap pour l’adapter à la contrainte temporelle de Solvabilité 2. C’est la méthode de Laurent Devineau décrite dans l’article One-year reserve risk including a tail factor : closed formula and bootstrap approaches qui sera explicitée dans ce mémoire. Étape 1 : La première étape consiste à l’estimation du best estimate sur le triangle de liquidation avec la méthode Chain Ladder et le calcul des résidus. On note fˆult le facteur de queue de développement pour projeter les sinistres à l’ultime. Devineau a choisi d’approcher les facteurs par la fonction suivante ∀j ∈ {1, ..., N − 1} : ln(fj − 1) = a × j + b Mais d’autres fonctions peuvent être appliquées, il faut choisir celle qui représente le mieux les facteurs. La date de clôture des sinistres est choisie arbitrairement, mais il faut rester cohérent dans le choix de la date et prendre en compte si c’est une branche plutôt court terme ou plutôt long terme. Si rapidement, les coefficients ne deviennent plus significatifs (<1,0001 par exemple), il n’est pas nécessaire de les retenir dans le calcul de la queue de développement. Différentes méthodes pour estimer la date de clôture des sinistres ont été développées, notamment une méthode basée sur les modèles de durée avec l’utilisation de l’estimateur de Kaplan Meier. Le best estimate des réserves à la date N est défini par : BEN = N X (Cbi,ult − Cbi,N −i+1 ) i=1 avec Cb1,ult = fˆult C1,N et ∀i ∈ {2, ..., N }, Cbi,ult = fˆult NQ −1 ! fˆj Ci,N −i+1 j=N −i+1 1 cf England P. (2009) The ultimate and one-year views of reserving risk with respect to solvency and risk margins. GIRO conference, Edinburgh. 2 cf Charpentier A. (2011) One year uncertainty in claims reserving. Workshop on Insurance Mathematics, Montreal. CHAPITRE 2. RISQUE DE RÉSERVE 38 Les résidus ajustés des facteurs de développement individuels sont calculés avec la formule : s ∀1 ≤ i + j ≤ N, ri,j = N −j+1 N −j p Ci,j (fi,j − fˆj ) σ̂j Les étapes suivantes sont à effectuer T fois. Étape 2 : Replacement aléatoire des résidus et construction d’un pseudo triangle de facteurs de développement individuels. v u 2 u σ̂ N,b b t j ∀1 ≤ i + j ≤ N, fi,j = ri,j + fˆj Ci,j Les facteurs de Chain Ladder sont recalculés : NP −j ∀i ∈ {1, ..., N }, fjb,N = b,N Ci,j fi,j i=1 NP −j Ci,j i=1 Étape 3 : Simulation des paiements incrémentaux entre l’année N et N+1, en supposant que les paiements cumulés vus en N+1 suivent une loi normale. b,N b N 2 Ci,N +2−i ∼ N (Ci,N −i+1 fN −i , Ci,N −i+1 (σ̂N −i ) ) Les paiements incrémentaux sont calculés par : PNb +1 = N X b (Ci,N +2−i − Ci,N −i+1 ) i=2 Étape 4 : b,N +1 Estimation des nouveaux facteurs de développement individuels (fN −j+1,j )1≤j≤N avec l’information supplémentaire obtenue avec la simulation des paiements incrémentaux entre N et N+1. Les coefficients de Chain Ladder sont recalculés en prenant en compte l’information DN disponible à la date N du triangle initial, et les nouveaux facteurs individuels : NP −j ∀j ∈ {1, . . . , N − 1}, fjb,N +1 = i=1 b,N +1 Ci,j fi,j + CN −j+1,j fN −j+1,j N −j+1 P i=1 Ci,j CHAPITRE 2. RISQUE DE RÉSERVE 39 Pour obtenir de la volatilité sur le facteur de queue de distribution, celui-ci est considéré comme suivant une loi normale : b ∼ N (fˆ , σ 2 ) fult ult ult 2 = Vd où σult ar(fˆult ), une méthode explicite pour estimer cette variance est détaillée dans l’article de Devineau. Étape 5 : Estimation du best estimate vu en N+1 : b BEN +1 = N X b (Ci,ult − Ci,N −i+2 ) i=1 avec b b = fult C1,N C1,ult b b b C2,ult = fult C2,N et, b b ∀i ∈ {3, . . . , N }, Ci,ult = fult NY −1 b fjb,N +1 Ci,N −i+2 j=N −i+2 Ce qui permet d’obtenir le CDR de l’itération b : b CDRb = BEN − PNb +1 − BEN +1 Le schéma suivant synthétise la méthode Bootstrap : CHAPITRE 2. RISQUE DE RÉSERVE 40 Figure 2.4: Explication de la méthode Bootstrap à un an Application L’adaptation de la méthode Bootstrap à un an offre une autre possibilité pour estimer la volatilité des réserves en respectant l’horizon temporel fixé par la réforme Solvabilité 2. A la différence du modèle de Merz Wüthrich qui se base sur la méthode de Mack, la méthode Bootstrap a l’avantage de pouvoir s’utiliser avec différentes méthodes de provisionnement. En effet, la méthode introduite ce mémoire utilise Chain Ladder ce qui permet de retrouver les résultats de Merz Wüthrich, mais elle peut facilement s’adapter avec des méthodes différentes. De plus, la méthode Bootstrap à un an donne une distribution de CDR contrairement à Merz Wüthrich qui ne calcule que les deux premiers moments, cela permet notamment d’estimer les différents quantiles de la distribution. La méthode Bootstrap peut s’adapter à d’autres horizons temporels, ce qui est très utile dans le cadre de l’ORSA où les assureurs doivent estimer leurs solvabilité sur plusieurs années. Exemple de distribution de CDR obtenue pour la branche Other motor sur 10 000 simulations : CHAPITRE 2. RISQUE DE RÉSERVE 41 Figure 2.5: Distribution de CDR pour la branche Other motor Le graphique des CDR ressemble à une distribution de loi normale centrée. Pour vérifier cette hypothèse, la distribution de CDR est comparée avec la fonction de répartition d’une loi normale centrée et de variance, la variance empirique des CDR. CHAPITRE 2. RISQUE DE RÉSERVE 42 Figure 2.6: Comparaison de la fonction de répartition avec la loi normale La courbe bleue représente la fonction de répartition empirique et la rouge celle de la loi normale, il ressort du graphique que les deux courbes sont quasiment confondues, ce qui semble valiser l’hypothèse. Les tests statistiques de Shapiro et de Kolmogorov Smirnov confirment cette analyse avec les résultats suivant : p-value Kolmogorov Smirnov 0,5806 Shapiro 1 0,4886 Shapiro 2 0,7701 Table 2.1: Résultats des tests statistiques, LoB Other Motor Le test de Shapiro peut contenir de 3 à 5000 valeurs, or la distribution empirique comprend 10 000 simulations de CDR, c’est pourquoi le test a été effectué sur les 5000 premières valeurs puis sur les 5000 autres. Les 3 p-value obtenues sont significativement au dessus de 5%, l’hypothèse de normalité n’est pas rejetée. La moyenne de la distribution est de 758 552, ce qui correspond à 0,2% des réserves. L’espérance des CDR est donc très proche de 0, ce qui signifie qu’en moyenne le best estimate des réserves estimés en N est égale à celui vu en N+1 augmenté des paiements incrémentaux de l’année. Une des principales critiques de la formule fermée de Merz Wüthrich vient de l’impossibilité CHAPITRE 2. RISQUE DE RÉSERVE 43 d’appliquer des facteurs de queue de développement. La méthode Bootstrap proposée permet de dépasser cette limite, et d’ajouter de la volatilité sur ces facteurs. Dans son article, Laurent Devineau démontre que sans facteur de queue de développement, il y a équivalence entre les deux méthodes. Par conséquent si la méthode Chain Ladder est appropriée, dans les triangles où la première année de survenance est considérée comme close, la méthode de Merz Wüthrich peut être appliquée. Sinon il est plus correcte d’utiliser la méthode Bootstrap à un an pour calculer les USP réserves. 2.4 Résultats Comparaison de résultats Dans le chapitre précédent, les différents triangles ont été testés aux hypothèses de Mack. Pour pouvoir appliquer la formule simplifiée de Merz Wüthrich, il faut tester une autre hypothèse, celle de σ̂j2 /(fˆjN )2 CN −j+1,j σ̂j2 /(fˆjN )2 CN −j+1,j 7 4, 34.10−6 1. 1 2 3 4 5 6 1, 49.10−3 8 2, 29.10−6 1, 24.10−5 9 1, 30.10−6 8, 16.10−6 10 5, 51.10−7 2, 76.10−5 11 4, 21.10−7 6, 54.10−6 12 1, 87.10−8 6, 09.10−6 13 2, 34.10−10 Table 2.2: Vérification de l’hypothèse de Merz Wüthrich, LoB Other Motor Les résultats montrent que l’hypothèse est validée, les valeurs sont très proches de 0. Pour le risque de réserve le volume correspond au Best Estimate des réserves. L’objectif de ce mémoire n’étant pas d’étudier les différentes méthodes de provisionnement, les best estimate sont estimés à l’aide de la méthode Chain Ladder afin de simplifier les calculs. MAT Third-party liability Other motor Best Estimate 345 885 818 490 020 690 386 976 699 Table 2.3: Best Estimate par LoB Nous observons la MSEP de la distribution des CDR pour les méthodes Merz Wüthrich, Mack et Bootstrap à un an pour les différents LoB analysés dans ce mémoire. Les résultats de la méthode Bootstrap de ce chapitre sont effectués sur 10 000 simulations. CHAPITRE 2. RISQUE DE RÉSERVE √ MAT Third-party liability Other motor 44 M SEP Mack 43 335 109 44 070 790 42 172 607 √ M SEP MW 38 719 764 23 820 885 38 160 529 √ M SEP 38 23 38 Bootstrap 1 an 663 414 815 224 324 738 Table 2.4: Comparaison des MSEP entre les différentes méthodes Il est notable que l’erreur de prédiction à l’ultime (Mack) est plus élevée que celle à un an pour les trois triangles analysés. C’est d’autant plus marquant pour le LoB Third-party liability qui est une branche long terme. Le ratio entre le risque à un an et le risque à l’ultime est dans l’ensemble compris dans l’intervalle [50%, 95%], il semble logique de considérer que le risque de prédiction de l’année prochaine est plus faible que celui à l’ultime. De plus, l’approximation de la formule de Merz Wüthrich force l’estimation à un an à être inférieure à celle à l’ultime. Différents exemples ont été trouvés pour montrer que cela ne reste pas vrai avec la formule exacte. Pour plus de détails, le mémoire d’Arnaud Lacoume3 et celui de Stephane Riban et d’Ilan Habib4 explicitent les différences entre les méthodes de provisionnement à l’ultime et à un an. Les USP réserves pour ces différents LoB sont estimés dans le tableau suivant. MAT Third-party liability Other motor MW 11,19% 4,86% 9,86% Bootstrap à 1 an 11,18% 4,86% 9,90% Méthode 1 14,34% 7,95% 11,36% Marché 14,00% 11,00% 10,00% Table 2.5: Calcul des USP par LoB en fonction des méthodes L’équivalence entre les méthodes Bootstrap à un an sans facteur de queue de développement et Merz Wüthrich semble vérifiée par les résultats trouvés puisque les volatilités des réserves estimées sont très proches pour ces deux méthodes. Pour le LoB Third-party liability, les USP trouvés sont nettement en dessous de la volatilité marché proposée par l’EIOPA. Il est aussi notable que la méthode 1 surestime la volatilité, de plus pour l’application de cette méthode diminue le nombre d’années d’historique et donc force l’utilisation d’un facteur de crédibilité. Pour bien visualiser l’impact de l’utilisation des USP, nous regardons le gain en fonds propres économisé par rapport à l’utilisation de la formule standard pour les trois LoB. 3 cf Lacoume A. (2008) Mesure du risque de réserve sur un horizon de un an. ISFA/IA. cf Habib I. et Riban S. (2009) Quelle méthode de provisionnement pour des engagements non-vie dans Solvabilité 2 ?. ENSAE/IA. 4 CHAPITRE 2. RISQUE DE RÉSERVE MAT Third-party liability Other motor SCR 144 823 624 156 355 073 111 096 866 Gains avec 32 283 772 91 573 147 1 699 712 45 MW 22 % 59% 2% Gains avec Bootstrap 32 466 383 22% 91 589 344 59% 1 180 572 1% Méthode -3 988 116 46 951 916 -16 948 103 1 -3% 30% -15% Table 2.6: Gain de SCR effectué en montant et pourcentage du SCR de la formule standard Il en ressort assez nettement que la formule standard surestime fortement le besoin en fond propre pour la compagnie représentant la branche Third-party liability, puisque celle-ci économiserait 59% des fonds propres exigés par la formule standard.Cette entreprise aurait donc intérêt à prendre en compte ses spécificités, soit avec la mise en place d’un modèle interne, soit avec l’application des USP. Le triangle représentatif de la branche Other motor semble correspondre relativement bien à la valeur marché proposée par l’EIOPA, le gain en SCR est de l’ordre de 1% avec l’application des USP. Pour la compagnie de la branche MAT, l’utilisation des USP semble bénéfique car elle permet de diminuer de 22% les fonds propres demandés par la formule standard. En comparaison aux deux autres méthodes, la méthode 1, proposée par l’EIOPA, semble surestimer la volatilité des réserves à un an. Les différentes limites de cette méthode présentées précédemment sont confirmées dans les résultats. La méthode 1 serait applicable si les compagnies possédaient un historique de Best Estimate, ce qui n’est pas le cas actuellement sur le marché. Par conséquent dans les conditions actuelles, il n’est pas conseillé d’utiliser cette méthode. Impact des queues de développement Nous avons vu que sans queue de développement, la méthode Bootstrap à un an donnait des résultats similaires à Merz Wüthrich. Mais pour les branches long terme, il est rare d’avoir un triangle de sinistres clos, par conséquent il est indispensable d’utiliser les queues de développement. Le tableau suivant montre les différences dans l’estimation du Best Estimate, du MSEP et de la volatilité entre avec et sans prise en compte de ces facteurs dans le calcul. MAT Third-party liability Other motor BE 345 885 818 490 020 690 386 976 699 √MW M SEP 38 719 764 23 820 885 38 160 529 Volatilité 11,194% 4,861% 9,861% Bootstrap √ à un an BE M SEP Volatilité 349 216 911 38 770 218 11,102% 525 423 448 24 405 721 4,645% 386 976 699 38 095 430 9,844% Table 2.7: Effet des queues de développement sur la volatilité Pour une branche court terme comme la branche Other motor, le volume des réserves est le même avec ou sans queue de développement puisque les sinistres de la première année de survenance sont déjà à l’ultime. L’erreur de prédiction est très proche, la différence s’expliquant simplement par la volatilité sur les queues de développement de la méthode Bootstrap proposée par Devineau. Par opposition, la branche Third-party liability est une branche long terme, et il est notable que le Best Estimate et la MSEP sont plus importants avec les queues de développement. L’uti- CHAPITRE 2. RISQUE DE RÉSERVE 46 lisation des queues de développement donne des différences significatives, ce qui montre que le triangle n’est pas à l’ultime, et qu’appliquer la méthode de Merz Wüthrich fausse l’erreur de prédiction. La volatilité des réserves est plus faible avec que sans queue car les queues de développement permettent une estimation plus précise des sinistres à l’ultime, et donc diminue l’erreur de prédiction des best estimate. Pour véritablement se rendre compte de l’impact des queues de développement, le tableau suivant nous montre l’impact de l’utilisation des queues sur le SCR. MAT Third-party liability Other motor SCR formule 144 823 156 355 111 096 standard 624 073 866 Gains avec 32 283 772 91 573 147 1 699 712 MW 22 % 59% 2% Gains avec Bootstrap à un an 32 244 116 22% 91 136 151 58% 1 905 401 2% Table 2.8: Effet des queues de développement sur le gain en SCR Au niveau du SCR, la seule différence notable vient de la branche longue, le gain en exigence de capital est plus faible avec les queues de développement de 1% du SCR du risque de réserve calculé avec la formule standard. Pour résumer, si la méthode Chain Ladder est appropriée, il est plus efficace d’utiliser la méthode de Merz Wüthrich pour les triangles stabilisés, car celle-ci ne demande pas beaucoup de temps de calcul. Mais si les sinistres ne sont pas à l’ultime il est conseillé d’appliquer la méthode de Bootstrap à un an avec les facteurs de queue de développement. Impact de l’actualisation La directive Solvabilité 2 demande aux assureurs d’estimer leurs provisions actualisées dans le calcul du Best Estimate, ce qui a une conséquence directe sur la volatilité des réserves. Il n’est pas question ici de prendre en compte le risque de taux qui intervient dans l’actualisation, celuici est déjà comptabilisé dans le SCR de marché. Mais l’actualisation des Best Estimate donne de l’importance à la cadence de règlement des sinistres, puisque le coût n’est pas le même si le sinistre est payé tout de suite ou à une date ultérieure. Le tableau suivant montre l’effet de l’actualisation des flux futurs sur l’estimation du Best Estimate, de l’erreur de prédiction des réserve et des USP. Les taux d’actualisation proviennent des taux swap 2010. La version draft des Implementing Measures Solvency 2 demande d’intégrer des primes en plus dans l’actualisation. Mais la prise en compte de l’actualisation n’étant pas une partie importante du mémoire, nous ne rentrerons pas dans le détail. CHAPITRE 2. RISQUE DE RÉSERVE MAT Third-party liability Other motor Best Estimate non actualisé actualisé 345 885 818 325 038 272 490 020 690 403 534 546 386 976 699 374 914 604 47 √ M SEP Bootstrap non actualisé actualisé 38 663 414 38 547 236 23 815 224 23 680 862 38 324 738 38 057 774 USP non actualisé actualisé 11,18% 11,86% 4,86% 5,81% 9,9% 10,15% Table 2.9: Effet de l’actualisation sur les USP Nous observons que pour les trois branches, la volatilité avec actualisation est plus importante que sans. Ceci est principalement du à la baisse du volume avec l’actualisation. L’erreur de prédiction reste très proche avec et sans actualisation alors que le volume des réserves diminue nettement. La branche Third-party liability donne les résultats les plus marquant avec une réduction d’environ 18% de ses réserves et de moins de 1% de son erreur de prédiction. Cela s’explique par le fait que c’est une branche long terme, il peut donc y avoir de grande variation dans la cadence des règlements. Résumé des conditions d’application : • Méthode 1 : La méthode sera applicable quand les entreprises auront un historique de best estimate important. • Méthode 2 : La méthode 3 semble préférable à cette méthode. • Méthode 3 : Il faut que le triangle soit stabilisé et que les hypothèses de la méthode de Mack soient validées. • Bootstrap : La méthode Bootstrap s’utilise quand les conditions de la méthode 3 ne sont pas vérifiées. Chapitre 3 Risque de prime Le risque de prime représente le risque que peut entraîner une mauvaise tarification pour un assureur. Si la sinistralité obtenue est au dessus de celle anticipée dans le tarif, la compagnie doit faire face à un risque sur sa solvabilité. Contrairement au risque de réserve qui a fait l’étude de nombreuses recherches, le risque de prime a été beaucoup moins développé. Les données utilisées dans les méthodes du risque de prime doivent respecter les conditions suivantes : • Le triangle de règlement ne doit pas inclure les frais car la volatilité des frais est considérée identique à celle des sinistres. • L’inflation doit être prise en compte. • Le triangle doit être net de réassurance pour que les données reflètent la couverture en réassurance de la compagnie. • S’il y a existence d’un cycle dans les résultats de la compagnie, il faut que les données contiennent au moins un cycle complet. 3.1 Méthodes 1 et 2 Méthode 1 La première méthode pour calculer le risque de prime est une méthode simple qui regarde l’erreur de tarification sur les années passées de l’entreprise. Hypothèses 3.1.1 1. Les pertes attendues sont proportionnelles aux primes. 2. Le loss ratio attendu est constant pour chaque compagnie. 3. La variance des pertes est proportionnelle à la prime reçue. 4. La méthode des moindres carrés est appropriée. 48 CHAPITRE 3. RISQUE DE PRIME 49 Définitions : -UA,lob , la perte après un an par année de survenance et par branche. -µlob , le loss ratio attendu par branche 2 , la constante de proportionnalité de la variance des pertes par branche. -βlob -εA,lob , une variable aléatoire d’espérance zéro et de variance un. -VA,lob , la prime reçue par année de survenance et par branche. -Nlob , le nombre d’année d’historique par branche. La distribution des pertes est donnée par la dynamique : UA,lob ∼ VA,lob µlob + q VA,lob βlob εA,lob (3.1) Et nous obtenons E[UA,lob ] = VA,lob × µlob et V ar(UA,lob ) = VA,lob × βlob A partir de cette dynamique, il est possible d’obtenir un ensemble de variables aléatoires indépendantes et identiquement distribuées : UA,lob − VA,lob µlob p VA,lob βlob εA,lob = (3.2) La méthode des moindres carrés permet de trouver un estimateur de βlob : 2 β̂lob = X (UA,lob − VA,lob µlob )2 1 Nlob − 1 Et l’estimateur du loss ratio est : (3.3) VA,lob A P UA,lob A µ̂lob = P VA,lob A Ce qui fait que β̂lob devient : v u u u u u u β̂lob = t P A UA,lob − VA,lob P 1 Nlob − 1 X UA,lob 2 VA,lob A VA,lob A La volatilité de l’erreur de tarification est calculée par : σprem,lob = p β̂lob Vprem,lob (3.4) CHAPITRE 3. RISQUE DE PRIME 50 Méthode 2 La deuxième méthode est très proche de la première, les pertes suivent la même dynamique avec une hypothèse de loi en plus et l’application de la méthode du maximum de vraissemblance à la place des moindres carrés. Hypothèses 3.1.2 1. Les pertes attendues sont proportionnelles aux primes. 2. Le loss ratio attendu est constant pour chaque compagnie. 3. La variance des pertes est proportionnelle à la prime reçue. 4. La distribution des pertes suit une loi lognormale. 5. La méthode du maximum de vraissemblance est appropriée. Soit SA,lob et MA,lob calculés par : v u u SA,lob = tlog 2 βlob 1+ VA,lob µ2lob ! 1 2 MA,lob = log(VA,lob µlob ) − Slob 2 La fonction de logvraissemblance est donnée par : logL = X A (log(UA,lob ) − MA,lob )2 −log(SA,lob ) − 2 2SA,lob ! Les paramètres βlob et µlob sont calculés en maximisant la fonction de logvraissemblance. La volatilité devient : β̂lob σprem,lob = p (3.5) Vprem,lob Limites des méthodes Les méthodes 1 et 2 sont très proches, elles ont l’avantage d’être très simples au niveau compréhension, et application. Elles calculent l’erreur de tarification sur le passé en comparant la charge de sinistre réellement obtenue avec une charge estimée en fonction du volume de prime. Mais ces méthodes sont basées sur une hypothèse d’un loss ratio constant au cours des années, une hypothèse difficilement vérifiée dans la réalité. En effet, le marché de l’assurance non-vie présente des cycles, c’est à dire des périodes avec une forte rentabilité des contrats suivies de périodes de pertes. L’assureur a conscience d’avoir un loss ratio très élevé, et donc de faire très peu de bénéfice voir même des pertes pendant une période. Puis, il compensera avec une période de loss ratio faible, où il fera du profit. Le graphique suivant montre l’évolution du ratio sinistres à primes en responsabilité civile automobile de 1988 à 2010. Les données proviennent de la Fédération Française des Sociétés d’Assurances (FFSA) : CHAPITRE 3. RISQUE DE PRIME 51 Figure 3.1: Évolution du ratio sinistres à primes en responsabilité civile automobile de 1988 à 2010 Des cycles d’une durée légèrement supérieure à 5 ans sont bien visibles sur le graphique. Dans sa thèse professionnelle sur Le cycle de l’assurance Non-Vie, une opportunité stratégique 1 , Christophe Gimond propose trois hypothèses pour expliquer ces cycles : • L’excès de concurrence par les prix. Dans l’optique de gagner des parts de marché, les assureurs se livrent à une concurrence féroce qui entraine une baisse des prix de façon irrationnelle. Les acteurs attendent la survenance d’un événement catastrophique marquant pour justifier une hausse de leurs tarifs. • L’hypothèse de la capacité contrainte. Des événements défavorables ont pour conséquence des pertes sur les actifs et sur les passifs, ce qui entraîne une diminution des fonds propres de l’entreprise. Pour faire face à cette situation, la compagnie augmente ses prix, et réduit sa capacité de souscription. Le climat redevient normal, l’entreprise avec l’augmentation de ses prix dégage des profits et accroît ses fonds propres. Puis, avec sa majoration de capital, elle peut augmenter sa capacité de souscription en baissant ses prix. • L’hypothèse des marchés rationnels imparfaitement prévisibles. Les acteurs agissent rationnellement dans un cadre concurrentiel, mais le marché est sensible à plusieurs événements externes qui peuvent engendrer des cycles tels que de nouvelles réglementations ou des variations inattendues de taux d’intérêt et de cours des actions. 1 Cf Gimond C. (2010) Le cycle de l’assurance non-vie, une opportunité stratégique. Ecole nationale d’assurances. CHAPITRE 3. RISQUE DE PRIME 52 L’EIOPA demande aux entreprises de posséder au moins un cycle complet dans les données utilisées en entrées des méthodes. Mais le problème principal lié aux phénomènes de cycle reste identique avec la présence d’un cycle complet : il perdure toujours une surestimation de la volatilité du risque de prime. En effet, si l’assureur décide de sous-tarifer et donc d’accepter d’avoir un loss ratio élevé, la différence avec le loss ratio constant calculé par la méthode sera importante. Dans la méthode 1, le loss ratio est calculé sur une moyenne pondérée. La présence de cycle implique des périodes consécutives de loss ratio haut et bas, nous pouvons donc considérer que la moyenne se situera entre ces deux extrémités. Que ce soit en période de sur ou de sous tarification, l’écart entre les deux loss ratio sera important, ce qui surestimera la volatilité. Quand l’entreprise sous-tarifie à cause d’une concurrence forte, elle a conscience d’être en perte mais cela ne devrait pas influencer le risque de prime puisque celui-ci est censé représenter l’erreur de tarification, et le fait de sous tarifer n’implique pas une mauvaise estimation de son prix. L’exemple suivant est volontairement amplifié mais permet de comprendre les problématiques engendrés par l’hypothèse d’un loss ratio constant : Exemple 3.1.3 Dans l’optique d’augmenter ses parts de marché, une compagnie d’assurance accepte d’être en perte sur l’année qui vient et anticipe un loss ratio de 110% alors que jusqu’à présent ses résultats étaient plutôt bons. A la fin de l’année, elle obtient un résultat de 107%, elle a donc fait moins de pertes que prévu. Puisque l’entreprise était en gain avant, le loss ratio constant calculé avec les différentes méthodes de prime est plus faible, nous le choisissons arbitrairement à 100%. L’erreur de tarification réelle est de 3% alors que dans le calcul du risque de prime, l’erreur sera considérée à 7%, soit une surestimation de 4%. Pour pallier ce problème, nous proposons d’utiliser pour chaque année les loss ratio attendus par l’entreprise à la place du loss ratio constant de la méthode 1, et de les comparer avec les résultats réels obtenus. Cela permettrait d’avoir une estimation réelle de l’erreur de tarification, puisque la volatilité serait calculée sur l’écart entre le résultat attendu et le résultat obtenu. Pour cela, il faut que l’entreprise est gardée ses anciens loss ratio attendus ou au moins les données nécessaires pour pouvoir les recalculer. Si la compagnie doit ré-estimer ses anciens loss ratio, il est indispensable qu’elle se mette dans des conditions similaires à celles du passé et qu’elle n’utilise pas d’information qui serait survenue après la date d’évaluation. L’entreprise devra posséder des justifications sur l’exactitude des données utilisées pour que l’ACP valide cette application de la méthode. La formule du paramètre de variance de la méthode 1 deviendrait alors : 2 β̂lob = 1 Nlob − 1 X (UA,lob − VA,lob µlob,i )2 A VA,lob Avec µlob,i le loss ratio que l’entreprise anticipait pour l’année i, en fin d’année i − 1. Pour conclure les méthodes 1 et 2 sont des méthodes simples et faciles à appliquer, mais sans l’utilisation des loss ratio attendus à la place d’un loss ratio constant, elles surestiment nettement l’erreur de tarification. Contraintes données Nous voulions montrer, dans ce mémoire, l’impact de l’hypothèse d’un loss ratio constant sur la volatilité du risque de prime. Malheureusement le nombre d’années d’historique des données CHAPITRE 3. RISQUE DE PRIME 53 disponibles ne permet pas de délimiter un cycle. L’idée était de modéliser à l’aide de séries temporelles le cycle de loss ratio et de le considérer comme le loss ratio attendu pour le comparer au réel. Une autre solution aurait été de partir avec une base complète de sinistres, et d’essayer de tarifer dans les conditions de l’assureur pour obtenir une estimation du loss ratio attendu, mais nous n’avions à notre disposition qu’une photo d’une base sinistre vue à une date donnée et non une base complète. 3.2 Méthode 3 La troisième méthode proposée par l’EIOPA est basée sur le modèle Swiss Solvency Test, elle calcule la volatilité du risque de prime en partant d’un modèle collectif. Le montant total des sinistres à payer par l’assureur SN se calcule par : SN = N X Xi i=1 où : N \Θ ∼ P oiss(λΘ) Le nombre de sinistres est une variable aléatoire, et Θ est une variable aléatoire qui représente les fluctuations des nombres de sinistres. On suppose E[Θ] = 1, donc Θ joue uniquement sur la volatilité, elle n’influence pas en moyenne. Xi ∼ F (µ, σ), et les Xi sont indépendants et identiquement distribués et conditionnellement indépendants de N Le montant des sinistres est une variable aléatoire d’espérance µ et de variance σ 2 , on ne fera pas d’hypothèse de loi. L’objectif est de calculer la variance des pertes 2 , V ar(SN ) = µ2 λ2 V ar(Θ) + λµ2 + λσ 2 Les paramètres sont estimés par : P UA A µ̂ = P Ni A où Ni est le nombre de sinistres de l’année i et UA le montant total des sinistres de l’année i. P σ̂ 2 = E[X12 ] − E[X1 ]2 Zi A =P − µ̂2 Ni A 2 La démonstration de cette formule est faite en annexe CHAPITRE 3. RISQUE DE PRIME 54 avec Zi la somme de chaque sinistre au carré pour l’année i. P Ni A λ= P V Vi (prem,lob) A où Vi est le montant de prime reçue pour l’année i. Le paramètre λ est estimé en fonction du volume des primes, il représente le nombre de sinistres moyen pour le volume de prime de l’année. Il faut aussi la variance de la variable aléatoire Θ, la difficulté étant que cette variable est difficilement quantifiable. Une estimation de cette variance est donnée par la formule suivante : d = c V ar(Θ) α j −1 VF −1 F̄ On note : -vj le nombre de sinistres prévu pour l’année j. -J, le nombre d’années d’historique de donnée disponible. Nj vj • Fj = J P • α= vj j=1 α/J représente le nombre moyen de sinistre prévus par année. J P vj • F̄ = j=1 α Fj F̄ est un coefficient d’erreur de prédiction du nombre de sinistres, si chaque année la prédiction était parfaite, F̄ serait égale à 1. • VF = • c= 1 J−1 J P vj j=1 α J P vj (Fj − F̄ )2 j=1 1− vj α La volatilité globale du risque de prime se calcule par : σprem,lob = 1 Vprem,lob q V ar(SN ) Limites de la méthode Le principal avantage des méthodes 1 et 2 vient de leur simplicité de compréhension et d’application. La méthode 3 est quant à elle plus difficile à appréhender et demande plus de données comme l’estimation du nombre de sinistres de chaque année ainsi que le détails de chaque sinistre. La méthode 3 joue sur la fréquence des sinistres, par conséquent il faut un LoB avec un volume important et une fréquence de sinistres comparables dans le temps. La méthode est donc adaptée à des LoB à hautes fréquences de sinistres (comme l’assurance voiture, habitation,...). Mais elle CHAPITRE 3. RISQUE DE PRIME 55 n’est pas applicable pour les branches avec des sinistres rares comme l’assurance d’entreprises où la fréquence des sinistres entre les années varient beaucoup. La méthode 3 semble légèrement moins sensible au risque de cycle que les 2 autres méthodes. En effet, le nombre de sinistres estimé N pour l’année prochaine dépend du volume de prime de l’année qui vient. La variance des pertes est donc calculée en fonction du nombre de sinistres relatif à cette prime propre à l’année prochaine. Mais le volume de prime ne reflète pas forcément l’évolution des sinistres de l’assureur car celui-ci est biaisé par la stratégie de tarification. Par exemple, supposons que l’entreprise baisse ses prix par rapport à l’année précédente. Pour un même volume de prime, le nombre de clients sera plus important cette année, et logiquement le nombre de sinistres aussi. La méthode 3 reste donc impactée par le phénomène de cycle. Une solution serait de calculer le nombre de sinistres en fonction du nombre d’adhérents de l’année. Cela permettrait de prendre en compte les stratégies de tarification dans le risque de prime, puisque celles-ci se répercutent sur la capacité de souscription de l’entreprise. La méthode demande en entrée le nombre de sinistres que la compagnie attendait pour chaque année, ce qui permet d’avoir une volatilité entre le nombre de sinistres attendus et réellement obtenus. Mais si l’entreprise n’a pas à sa disposition cet historique de données, l’EIOPA propose dans sa spreadsheet USP de l’estimer avec une hypothèse de loi. L’ajout de cette nouvelle hypothèse enlève de la précision aux calculs car ils ne représentent plus le véritable écart entre le nombre réel et attendu de sinistres. Le fait de ne pas posséder une base complète a aussi pour conséquence que nous n’avons pas de résultat pour la méthode 3 qui demande le détails des sinistres pour pouvoir estimer la volatilité de la charge d’un sinistre. 3.3 Résultats Nous allons regarder avec les différents triangles et leurs primes correspondant, les conséquences de l’utilisation des USP. Les volumes de prime pour les trois branches étudiées dans ce mémoire sont : MAT Third-party liability Other motor Volume de prime 215 692 307 334 885 917 1 142 895 881 Table 3.1: Volume de prime par LoB Le tableau suivant donne les résultats des USP sur les deux premières méthodes du risque de prime comparés avec la volatilité du marché de la formule standard. CHAPITRE 3. RISQUE DE PRIME MAT Third-party liability Other motor 56 Méthode 1 11,67% 5,70% 4,82% Méthode 2 10,87% 5,21% 4,83% Marché 17% 15% 7% Table 3.2: Comparaison des USP risque de prime Pour les trois branches observées, les volatilités calculées avec les méthodes 1 et 2 sont nettement inférieures à celles du marché. Le plus marquant est pour la branche Third-party liability, où il y a une différence de plus de 9%, ce qui montre que l’entreprise a fortement intérêt à prendre ses propres spécificités en compte. L’avantage d’utiliser les USP du risque de prime par rapport à la formule standard se quantifie avec le gain fait sur le SCR du risque de souscription non-vie risque de prime. MAT Third-party liability Other motor SCR formule 112 988 151 748 222 576 standard 645 853 754 Gains avec méthode 1 39 439 686 35% 99 401 360 66% 72 781 290 33% Gains avec méthode 2 45 048 733 40% 104 147 104 69% 72 460 913 33% Table 3.3: Gain de SCR effectué sur le risque de prime en montant et pourcentage du SCR de la formule standard Les trois entreprises étudiées ont des USP nettement inférieurs à la volatilité marché pour les deux méthodes proposées, par conséquent, elles obtiennent donc un gain de SCR en utilisant les USP. Le gain le plus important est pour la branche Third-party liability, qui économiserait 69% de son SCR risque de prime en prenant ses propres spécificités dans la formule standard. Les deux autres compagnies représentant les branches Other motor et MAT gagneraient plus de 30% de leurs SCR risque de prime. Ces gains importants montrent que les USP impactent réellement la solvabilité d’une compagnie. cependant les exemples étudiés ici ne reflètent pas toutes les entreprises : pour une partie des compagnies l’utilisation des USP entraînerait une augmentation du besoin de fonds propres. Pour conclure, actuellement les trois méthodes semblent applicables, les différences entre la méthode 1 et la méthode 2 sont très faibles puisqu’elles sont construites de la même façon. Mais les deux méthodes possèdent le même défaut avec l’hypothèse d’un loss ratio constant qui surestime la volatilité. Afin d’ajouter de la précision, il faudrait utiliser des loss ratio estimés pour chaque année à la place d’un constant dans la méthode 1. La méthode 2 peut difficilement être modifiée à cause de la méthode du maximum de vraissemblance, et par conséquent la méthode 1 ajustée semble préférable. La méthode 3 peut être utilisée pour un LoB avec une grande fréquence de sinistres, mais elle demande plus de renseignement comme le détail de chaque sinistre et une estimation du nombre de sinistres pour chaque année passée. Si l’entreprise ne possède pas ces estimations, L’EIOPA propose de les estimer avec une nouvelle hypothèse de loi, ce qui enlève de la précision à l’étude. CHAPITRE 3. RISQUE DE PRIME 57 Résumé des conditions d’application : • Méthode 1 : La méthode est un applicable avec un historique de loss ratio attendus. • Méthode 2 : La méthode 1 modifiée semble préférable à cette méthode. • Méthode 3 : Il faut un LoB avec une haute fréquence de sinistres, le nombre de sinistres attendus pour chaque année et le détail de chaque sinistre. La méthode serait moins sensible au risque de cycles si l’estimation du nombre de sinistres de l’année prochaine dépend du nombre d’adhérents et non du volume de prime. Chapitre 4 Risque de prime et de réserve Nous avons regardé jusque là les conséquences de l’application des USP sur le SCR pour le risque de prime et le risque de réserve séparément. Or dans la réforme Solvabilité 2, ces deux risques sont calculés ensemble dans un seul sous module. C’est pourquoi nous allons étudier l’impact de l’utilisation des USP sur le SCR du risque de prime et de réserve. Nous considérons dans ce mémoire que le coefficient géographique DIVlob est égale à 1, et donc que la diversification géographique n’intervient pas dans nos calculs. Ce qui induit que le volume global du risque de prime et de réserve est défini par la somme du volume de prime et de celui de réserve. MAT Third-party liability Other motor Volume de prime et de réserve 561 578 125 824 906 607 1 142 895 881 Table 4.1: Volume de prime et de réserve par LoB La volatilité globale par branche est calculée avec la formule (1.6) de la partie 1 de ce mémoire. Pour la volatilité des réserves c’est la méthode Merz Wüthrich qui est choisie, nous séparerons les résultats entre la méthode 1 et la méthode 2 du risque de prime. MAT Third-party liability Other motor Volatilité Méthode 1 Méthode 2 9,9% 9,7% 4,5% 4,3% 5,3% 5,3% Marché 13,2% 10,9% 6,9% Table 4.2: Volatilité des primes et des réserves par LoB Avec les volumes et les volatilités ci-dessus, nous pouvons estimer le gain effectué sur le SCR risque de prime et de réserve du module de risque de souscription non-vie. 58 CHAPITRE 4. RISQUE DE PRIME ET DE RÉSERVE MAT Third-party liability Other motor . SCR formule 219 231 261 475 291 258 standard 937 707 112 Méthode 59 294 692 160 612 622 69 337 526 59 Merz Wüthrich 1 Méthode 27% 63 621 326 61,4% 164 456 331 23,8% 69 041 905 2 29% 62,9% 23,7% Table 4.3: Gain en SCR sur le risque de prime et de réserve par LoB Pour les trois branches représentées ici, l’utilisation des USP présente un avantage certain d’économie de fonds propres. Le montant économisé est significatif puisque pour un des LoB il atteint plus de 60% du SCR. De plus c’est un gain qui ne demande pas beaucoup d’efforts de mise en place ni de temps de calcul puisque les méthodes sont relativement simples à implémenter. Cependant certaines méthodes requièrent beaucoup de données. Les exemples présentés ne reflètent pas forcément l’ensemble des assureurs, les volatilités marché sont calculées sur un panel de compagnies, par conséquent pour d’autres entreprises l’utilisation des USP peut entraîner une perte. Mais en perte ou en gain, l’utilisation des paramètres propres à l’entreprise permet de mieux prendre en compte le risque encourus par la compagnie, ce qui a son importance dans le cadre de la mise en place de l’ORSA. Les gains obtenus sont très importants, mais il ne faut pas les généraliser à l’ensemble des LoB. Il semble, par exemple, étrange que la garantie responsabilité civile est une volatilité nettement inférieure à la garantie dommage. Comme nous n’avons pas pu effectuer les retraitements indispensables sur les données, nous mettons une réserve sur leurs qualités. Un des risques liés aux undertaking specific parameters est le biais dans son utilisation, dans le sens où seules les compagnies dont l’application des USP présente un intérêt vont les utiliser, les autres préféreront la formule standard. Cela implique qu’une grande partie des entreprises qui estimeront leurs SCR avec la formule standard auront une volatilité réelle supérieure à celle prise dans les calculs, et donc présenteront un risque de sous estimation de leurs besoins de fonds propres. La mise en place des calculs des USP étant relativement simple, rendre leur application obligatoire pour les entreprises ayant assez de données permettrait de limiter ce biais, et d’avoir une estimation plus adéquate de leurs SCR. Les compagnies utilisant les USP sur une année devront être conscientes qu’elles auront une obligation de continuer sur les années suivante, que ce soit un avantage ou un inconvénient. En effet, il sera très difficile d’expliquer aux autorités de contrôle l’utilisation sur une année et pas sur l’autre, avec comme seul argument le gain en fond propre sur cette année mais pas sur l’autre. Troisième partie Impact de la réassurance sur le SCR 60 Chapitre 1 Présentation La réassurance permet de protéger les gains des assureurs contre les grosses pertes qui seraient un risque pour la solvabilité de la société. En se réassurant, l’assureur échange une part de son profit contre un gain de stabilité de ses résultats. En effet, la compagnie qui se réassure sait qu’elle va être perdante en moyenne mais cela lui permet de lisser son résultat et en évite les variations qui pourraient avoir de graves conséquences financières. Il est logique que la réassurance influe sur le risque catastrophe, mais cette stabilité obtenue se répercute aussi sur le risque de prime et de réserve. En effet, comme l’assureur est protégé contre les pertes exceptionnelles, l’estimation de son résultat et de ses réserves sera plus précise. La réassurance influe sur le volume de prime et de réserve, puisque le montant à provisionner est plus faible après réassurance, et le montant de la prime perçue aussi. Mais elle impacte aussi en volatilité, en limitant les risques d’obtenir une très mauvaise année. L’objectif de cette partie est d’étudier les conséquences de la réassurance non proportionnelle sur le calcul du SCR pour les compagnies utilisant les USP. Pour bien étudier le gain ou la perte induit par la réassurance, nous allons observer l’impact sur le SCR en prenant en compte le coût de la réassurance et l’augmentation du besoin de fond propre pour le risque de contrepartie lié à cette réassurance. Il est indispensable de posséder une base de sinistres complète pour faire varier les traités de réassurance et les appliquer sur chaque sinistre individuellement, afin de construire un triangle net de réassurance. Le problème étant que nous avons seulement à notre disposition une « photo » d’une base sinistre. Pour pallier cette problématique, nous avons construit une base complète en émettant quelques hypothèses que nous allons détailler dans ce chapitre. Pour rappel, nous disposons de : • Une « Photo » d’une base sinistre vue en fin 2009 avec comme date de survenance la plus ancienne 1994. • Le triangle de règlements cumulés construit à partir de cette table. • Le nombre de sinistres pour chaque année de survenance. • Le montant des primes reçues par année. • Le nombre d’adhérents par année. 61 CHAPITRE 1. PRÉSENTATION 1.1 62 Construction de la base sinistre Modélisation des sinistres à l’ultime Pour construire la table, nous voulions partir d’une table existante afin de pouvoir calibrer nos hypothèses sur des données réelles, et ainsi rester proche de la réalité tout en ayant la possibilité d’utiliser les primes réelles ainsi que le triangle dont nous disposons. Comme décrit précédemment dans la partie données, la base contient des contrats en responsabilité civile automobile et en dommage. Nous avons choisi d’étudier des contrats de responsabilité civile car ils présentent une plus grande disparité dans les montants des sinistres que la branche dommage, et permettent donc de mettre en valeur l’impact de la réassurance. Mais la Responsabilité Civile est une branche long terme, et nous avons une base vue en 2009 dont l’année de survenance de sinistre la plus ancienne est 1994. Dans un souci de simplification, nous considérons que la première année de survenance de la base est close, ce qui signifie qu’au bout de 16 ans tous les sinistres sont réglés. Cette hypothèse n’est pas tout à fait correcte dans la réalité mais au regard du triangle de règlements, elle reste crédible. En effet, les 2 derniers paiements incrémentaux de l’année de survenance 1994 représentent seulement 0,25% et 0,30% des paiements cumulés de l’année. Nous avons créé la base de sinistres réels en calibrant des lois à partir de l’année 1994 de la base, et en ajoutant un bruit afin d’avoir de la volatilité entre les différentes années. La base représente 16 ans de données, de 1994 à 2009, le coût d’un sinistre et la fréquence des sinistres sont modélisés par des lois mathématiques. Fréquence des sinistres Le nombre de sinistres est estimé avec une loi de Poisson. Cette loi est très utilisée en assurance non-vie dans l’estimation de la fréquence de sinistres car elle a l’avantage d’avoir un seul paramètre facile à interpréter et à estimer. Nous possédons le nombre de sinistres pour chaque année de la base. Nous considérons que ces nombres de sinistres représentent les moyennes de sinistres attendues chaque année et les utilisons comme paramètres de la loi de poisson. Coût d’un sinistre Les lois classiques les plus utilisées pour modéliser le coût des sinistres sont la loi Lognormale, la loi Weibull, la loi gamma et la loi de Pareto. La loi de Pareto est la loi qu’utilisent les réassureurs, elle possède une queue de distribution épaisse qui permet de prendre en compte les pertes extrêmes. Mais la lourdeur de sa queue surestimerait la gravité des sinistres par rapport à la réalité et amènerait un biais à l’étude puisque la réassurance aurait un rôle plus important que dans la réalité. Le choix entre les trois autres lois est effectué avec le test de Kolmogorov Smirnov. Les résultats pour les trois lois ne sont pas très bons, nous choisissons quand même la loi Lognormale qui a des résultats moins mauvais que les autres. CHAPITRE 1. PRÉSENTATION 63 Pour prendre en compte l’inflation sur le coût des sinistres, les données sont inflatées avec l’indice à la consommation de l’INSEE1 . Année Inflation Année Inflation 1994 1,6% 2002 1,9% 1995 1,8% 2003 2,1% 1996 2% 2004 2,1% 1997 1,2% 2005 1,8% 1998 0,7% 2006 1,6% 1999 0,5% 2007 1,5% 2000 1,7% 2008 2,8% 2001 1,7% 2009 0,1% Table 1.1: L’indice à la consommation de 1994 à 2009 Modélisation de la cadence de règlement Afin d’obtenir un triangle de règlements, il est nécessaire de posséder le détail de l’écoulement des sinistres, or pour l’instant seuls les sinistres à l’ultime ont été modélisés. Dans l’optique de rester proche de la réalité et d’avoir une référence à suivre, le triangle de la » photo« de la base servira de cadre à la modélisation de la cadence de règlement. Nous faisons l’hypothèse que les sinistres de la base suivent la même cadence que celle du triangle, représentée par ses coefficients de Chain Ladder fj . Pour chaque année de survenance, le montant d’un sinistre pour une date de développement donnée est calculé par : b b Xi,j = Uj × Xi,j−1 b représente le montant d’un sinistre b de l’année de survenance i pour l’année de dévelopoù Xi,j pement j. Uj ∼ LogNormal(a, b) Uj suit une loi Lognormale dont les paramètres sont estimés avec la méthode des moments en considérant le facteur de développement fj comme l’espérance, et la volatilité des facteurs individuels pour une année de développement comme variance. Pour chaque sinistre d’une année de survenance, et pour chaque année de développement, une loi Lognormale est simulée ce qui permet d’ajouter de la volatilité dans l’écoulement des sinistres tout en suivant la cadence globale du triangle initial. Une fois la cadence modélisée, nous avons une base sinistre complète de 16 ans d’historique. Limites de la modélisation La principale limite attachée à la création de la base vient de la non segmentation des sinistres attritionnels et graves. Dans la réalité, les sinistres graves ont une distribution et un cadencement différents des sinistres attritionnels, ils sont aussi plus touchés par l’inflation. La loi Lognormale est la plus utilisée par les assureurs en assurance non-vie pour modéliser leur distribution de sinistres, mais elle a tendance à sous-estimer les sinistres extrêmes par 1 cf Bibliographie site internet CHAPITRE 1. PRÉSENTATION 64 rapport à la réalité, ce qui diminue l’influence de la réassurance. Afin d’être plus précis dans l’estimation des sinistres à l’ultime, il aurait fallu utiliser des mélanges de lois propres à la branche RC automobile. La création de la base est une étape nécessaire pour pouvoir analyser l’impact de la réassurance mais elle n’est pas le centre du mémoire. Par conséquent, dans un souci de simplification, une baisse de précision est acceptée, et les sinistres sont estimés avec une loi statistique classique. Parmi ces différentes lois, la loi Lognormale semble être la plus adaptée pour estimer la distribution des sinistres à l’ultime. Il faut un temps important avant qu’une compagnie d’assurance parvienne à mesurer la gravité d’un sinistre, et plus le sinistre est sévère, plus le temps est long. C’est pourquoi les sinistres extrêmes suivent une cadence différente de celle des autres sinistres. Mais il est nécessaire d’avoir des informations précises sur les sinistres, et des outils de simulation adaptés à la branche, pour pouvoir estimer convenablement les particularités du cadencement des sinistres graves. N’ayant pas à disposition ces informations et ne voulant pas définir arbitrairement une cadence qui pourrait s’éloigner de la réalité, l’écoulement des sinistres graves a été modélisé de la même façon que les autres sinistres. Ce choix a un effet sur l’étude puisque le cadencement des sinistres a un poids sur la volatilité des réserves, et que la réassurance porte sur les sinistres graves. Cela peut avoir pour conséquence de diminuer l’impact de la réassurance sur les USP, et donc sur le risque de réserve et de prime. L’inflation aussi est différente pour les sinistres graves. En effet, les sinistres graves sont principalement des sinistres corporels, et l’inflation est liée à l’évolution jurisprudentielle qui augmente constamment, avec notamment des appareils respiratoires à la maison, ou encore des constructions de chambres médicalisées. 1.2 Traité de réassurance La réassurance permet à l’assureur de limiter ses engagements. Il existe trois modes classiques de réassurance : la réassurance facultative, la facultative-obligatoire et la réassurance obligatoire. C’est cette dernière catégorie où le cédant (l’assureur) s’engage, sur une période fixée, à céder ses risques d’une catégorie donnée et le cessionnaire (le réassureur) étant obligé de les accepter. La réassurance obligatoire se divise en deux parties, la réassurance proportionnelle et la réassurance non proportionnelle. Dans la réassurance proportionnelle, l’assureur s’engage à céder au réassureur une fraction des primes en échange de la prise en charge de ce dernier de la même fraction du montant des sinistres. Dans la réassurance non proportionnelle, le réassureur n’intervient qu’à partir d’un certain seuil de sinistre ou de perte de la cédante. C’est cette dernière que nous allons étudier dans ce mémoire, la réassurance proportionnelle influant plus sur le volume que sur la volatilité des primes et des réserves. L’objectif de ce mémoire n’est pas de trouver le traité de réassurance optimal par rapport à Solvabilité 2, mais d’étudier l’impact de la réassurance sur les USP et sur l’exigence de fonds propres d’une compagnie. C’est pour cela que nous ne regarderons qu’un seul traité, le traité en excédent de sinistre (XL) qui est un des plus fréquemment utilisé, assez simple dans la mise en place. CHAPITRE 1. PRÉSENTATION 65 Les traités en excédent de sinistre (ou excess of loss) sont représentés par leurs portées et leurs priorités. Ils se décomposent en deux catégories de traités : Les XL par risque et les XL par événements. • Les traités en excédent de sinistre par risque permettent la couverture de risques individuels (une personne, un objet,...) • Les traités en excédent de sinistre par événement permettent la couverture contre des sinistres liés à un événement (catastrophe naturelle, accident d’avion, pollution,...) et touchant plusieurs objets assurés. Dans la suite, seul le traité XL par risque sera utilisé puisque c’est la réassurance pour chaque sinistre individuel qui nous intéresse. • La priorité est le montant au-delà duquel intervient le réassureur. • La portée de l’XL est le montant maximum à la charge du réassureur • La portée additionnée de la priorité représente le plafond de l’XL, au-delà de ce seuil le sinistre n’est plus réassuré La réassurance influe sur l’exigence de fonds propres d’une compagnie d’assurance, mais l’analyse du gain ou de la perte obtenu avec celle-ci doit nécessairement intégrer le coût de la réassurance. En effet, le montant du profit en soi n’est pas significatif, il faut le rapporter au prix de la réassurance pour pouvoir se faire une idée précise. Or, les primes de réassurance ne sont pas disponibles, il est donc indispensable de les estimer. Il existe différentes méthodes de tarification du prix de réassurance : • Des approches « pragmatiques » telles que le prix du marché, le prix de l’apériteur ou encore le Rate on Line (RoL) minimum. • Une approche « probabiliste » similaire à celle de l’assurance qui estime des lois de fréquence et de sévérité, et calcule la prime par simulation. • Une méthode sur expérience, appelée aussi méthode de « burning cost ». La méthode choisie est celle de « burning cost », qui est une méthode simple à mettre en place et qui donne des résultats rationnels par rapport aux prix du marché. La méthode tarifie la prime en fonction des sinistres graves du passé qui auraient été impactés par le traité de réassurance étudié. La première étape consiste à mettre les sinistres passés en valeur actuelle, dans l’étude cela correspond à 2009. Les sinistres graves par année de survenance sont redressés de 3% par an, ce pourcentage a été choisi arbitrairement pour rester en cohérence avec les autres hypothèses de l’étude. En effet, les sinistres graves ont une inflation plus importante que les autres, mais cette distinction n’a pas été intégrée dans la création de la base. Il paraît quand même important de la prendre en compte dans le prix de la réassurance qui ne concerne que les sinistres graves. C’est pourquoi, le redressement de ces sinistres est estimé à 3% par an, ce qui correspond à peu près au double de l’indice de consommation moyen sur les 16 années. L’utilisation d’une inflation plus élevée pour les sinistres graves dans le prix de la réassurance et pas dans la base de CHAPITRE 1. PRÉSENTATION 66 sinistre aura tendance à surestimer la prime de réassurance, et donc limiter légèrement l’impact de la réassurance. Mais cela reste cohérent puisque dans leur tarification, les réassureurs ont tendance à surestimer les pertes afin d’anticiper des cas exceptionnels. C’est pourquoi dans la tarification par simulation, la loi pareto qui a une queue de distribution épaisse, est souvent utilisée. La deuxième étape réassure les sinistres individuellement avec la portée et la priorité du traité à tarifer, et ainsi calcule la charge du réassureur pour chaque année passée avec les sinistres redressés. Une fois cette charge estimée, il est alors possible d’obtenir la prime pure du traité en faisant une moyenne des charges sur le nombre d’années d’exposition. Ce nombre est estimé par le montant des primes passées en valeur 2009 sur la prime 2009, il permet de prendre en compte l’évolution du portefeuille dans la prime de réassurance. Dans notre étude, l’exposition correspond au nombre d’année de la base, ce qui montre que le portefeuille n’a pas trop évolué. La prime finale est défini par : P rime = P P × (1 + α) 1 − Courtage où • Prime est la prime de réassurance. • PP est la prime pure. • α est le chargement qui couvre les frais administratifs ou encore la marge du réassureur, il est estimé à 10%. • Courtage représente les frais de courtage, soit le coût de la rémunération du courtier de réassurance, il est estimé à 10%. 1.3 Risque de contrepartie Les économies de fonds propres obtenues avec la réassurance seraient biaisés sans la prise en compte du risque de contrepartie. Le risque de contrepartie représente la perte potentielle en cas de défaut de la contrepartie, ici le réassureur. En effet, si celui-ci fait défaut, il n’est plus en état d’assurer ses obligations vis-à-vis de l’assureur, ce qui nécessite une protection supplémentaire en fonds propres. Le risque de contrepartie représente un module de risque dans la formule standard de la réforme Solvabilité 2. Le SCR de contrepartie se calcule avec la formule suivante : √ √ P si V ≤ 5% LGDi 3 V i SCRcont = √ P min LGDi ; 5 V sinon. i où : • V, la variance de la distribution des pertes ; • Loss-given-default (LGDi ), la perte en cas de défaut de la contrepartie i. CHAPITRE 1. PRÉSENTATION 67 La perte en cas de défaut est défini par : LGDi = max(50%(Recouvrementsi + RMi − Collatrali ); 0) avec : - Les recouvrements sont les best estimate des retours des réassureurs. - Le Risk mitigating (RM) représente l’effet d’atténuation des risques. Il se calcule comme la différence entre le SCR brut et net de réassurance. - Le collatéral est le montant que le réassureur donne comme garantie à l’assureur. Une fois la perte en cas de défaut calculée, la variance de la distribution des pertes peut être estimée : XX X V = uj,k yj yk + v j zj j où yi = P i LGDi et zj = k j (LGDj )2 . Le paramètre de corrélation γ est fixé à 0,25. P j uij = pi (1 − pi )pj (1 − pj ) (1 + γ)(pi + pj ) − pi pj vi = (1 + 2γ)pi (1 − pi ) 2 + 2γ − pi pi représente la probabilité de défaut de la contrepartie i, elle est donnée en fonction du rating de celle-ci par L’EIOPA. Chapitre 2 Application 2.1 Hypothèses Dans le cadre de l’étude de la réassurance, des hypothèses ont été nécessaires pour mener à bien l’analyse. La première est que le réassureur utilise l’euro comme monnaie, ce qui enlève les problèmes liés au taux de change. La seconde hypothèse est que le réassureur est noté A par les agences de notation. Dans la réalité, le prix d’une couverture en réassurance est corrélée avec la note du réassureur puisque les assureurs sont prêts à payer plus cher pour avoir une contrepartie plus sûr. Les assureurs se couvrent auprès de plusieurs réassureurs, à cause du niveau des tranches XL, il y a des réassureurs qui proposent des tranches élevées et d’autres qui préfèrent les tranches plus basses, et pour diversifier leurs portefeuilles. Nous n’avons pas la possibilité de faire varier le prix de la réassurance en fonction du rating, pour cela nous faisons l’hypothèse d’un unique réassureur de rang A, qui correspond à un réassureur relativement fiable. En pratique, le réassureur fournit souvent une garantie à l’assureur, le collatéral, qui peut être un dépôt en espèce ou en actifs financiers. Nous n’avons pas la possibilité d’estimer le collatéral puisque celui-ci varie en fonction des compagnies et qu’il faudrait le fixer arbitrairement sans aucune base. L’hypothèse d’un collatéral nul est donc effectuée. C’est principalement les réassureurs les moins bien notés qui ont intérêt à fournir une garantie, dans l’étude le réassureur a un rating A, l’hypothèse d’absence de dépôt du réassureur se justifie donc. Un réassureur avec une bonne notation a une probabilité de défaut plus faible qu’un autre réassureur avec un plus mauvais rating. Mais celui-ci mettra plus souvent un collatéral dans son contrat, ce qui diminuera le besoin en capital lié au risque de contrepartie. Cette compensation permet de limiter l’importance du rating dans la tarification du prix de réassurance. Bien que le risque catastrophe soit fortement impacté par la réassurance, il n’est pas le sujet de l’étude. Nous supposerons donc qu’il n’y a pas de risque catastrophe dans notre analyse. Notre portefeuille de sinistres ne subit pas de changement important, nous supposons que la stratégie de réassurance n’évolue pas de 1994 à 2009. Afin de gagner en temps de calculs, c’est la méthode de Merz Wüthrich pour le risque de réserve et la méthode 1 du risque de prime qui seront utilisées pour estimer les USP de ces risques. Le triangle construit à été testé aux hypothèses de Mack et à celle de la formule simplifiée de 68 CHAPITRE 2. APPLICATION 69 Merz Wüthrich, et les hypothèses ne sont pas rejetées. Pour résumer, les hypothèses effectuées dans ce chapitre sont : • Le réassureur est européen. • Un unique réassureur. • Pas de prise en compte du risque catastrophe. • L’achat de réassurance n’évolue pas dans le temps. • Le réassureur est noté A par les agences de notations. • Pas de collatéral. • La méthode Merz Wüthrich est utilisée pour le risque de réserve. • La méthode 1 du risque de prime est choisie pour calculer la volatilité du risque de prime. 2.2 Résultats La compagnie servant de benchmark à la table construite est un acteur majeur en assurance responsabilité civile automobile, et les volumes traités sont importants. Chaque année la compagnie doit faire face à des centaines de milliers de sinistres, dont certains atteignent plusieurs millions d’euros. Les très grosses compagnies n’ont pas d’intérêt à acheter de la réassurance pour des tranches basses car cela consisterait à un échange de capital, mais elles veulent se protéger contre d’éventuelles pertes exceptionnelles qui auraient un véritable impact sur leurs résultats. Les franchises des XL pour une compagnie de cette taille commencent généralement aux alentours de 4 millions, et atteignent la dizaine de millions pour une portée illimitée. L’hypothèse de lognormalité des sinistres aplatit les sinistres graves, par conséquent, afin de rester cohérent dans l’étude, le niveau de franchise est baissé par rapport à la réalité, pour commencer à un million d’euros. Afin d’avoir une idée de l’ordre de grandeur des sinistres, voici quelques données sur l’année 1993 inflatée qui sert de cadre à la création de la base : Min 1 euro Max 7 millions d’euros Moyenne 1800 euros Ecart-type 20 460 euros Table 2.1: Informations sur les sinistres de la base Calcul du gain de la réassurance La directive Solvabilité 2 demande aux compagnies de posséder assez de fonds propres pour assurer leurs solvabilités dans 99,5% des cas. L’achat de réassurance sur des hautes tranches permet de diminuer cette exigence, puisque dans les pires scénarios la réassurance allège une partie des pertes de l’assureur. Le besoin en capital de l’assureur est donc plus faible car il sera moins CHAPITRE 2. APPLICATION 70 sensible à un scénario défavorable. Le gain en SCR peut se quantifier, il se calcule avec la formule suivante : P,R P,R GainSCR = SCRBrut − (SCRN et + SCRcont ) avec : P,R • SCRBrut , le besoin de fonds propres lié au risque de réserve et de prime brut de réassurance. P,R • SCRN et , le besoin de fonds propres lié au risque de réserve et de prime net de réassurance. • SCRcont , le besoin de fonds propres lié au risque de contrepartie. Pour que le résultat soit interprétable, il faut le comparer avec d’autres montants tels que le besoin de fonds propres brut de réassurance, ce qui permet d’avoir le pourcentage de SCR gagné, ou encore, avec la prime de réassurance, qui donne le gain effectué en fonction du prix payé. Le gain en SCR calculé ici est obtenu après 16 années de réassurance, il ne montre pas le bénéfice que ferait l’entreprise en se réassurant l’année prochaine mais celui qu’elle aurait eu si elle avait appliquer cette stratégie depuis 16 ans. Mais pour comparer le gain en SCR avec le prix de la réassurance nous allons utiliser le prix pour une seule année de réassurance et non celui des 16 années cumulées. En effet, le triangle agrandi des années futures (2010, 2011,...) aura un gain de volatilité grâce aux années passées, et la réassurance des années passées participera au gain en SCR de l’année 2010, mais aussi sur celui de l’année 2011 et sur plusieurs après. Le gain en SCR a été obtenu après 16 ans de réassurance, mais cette réassurance assurera des gains sur plusieurs années encore, par conséquent il est plus adéquate de comparer le gain en SCR obtenu aujourd’hui avec le prix d’une seule année de réassurance. Pour être tout à fait correcte, il faudrait mesurer le gain en SCR acquis avec la réassurance des années 1994 à 2009 sur toutes les années futures et comparer ce montant là avec la somme des primes de réassurance sur les 16 ans. Mais cela est impossible à calculer, par conséquent, comparer l’économie de fonds propres réalisée avec une année de prime de réassurance semble être la meilleure solution. Primes de réassurance Les traités analysés varient d’une franchise de 1 million jusqu’à 10 millions, avec une portée illimitée pour chaque traité. C’est représentatif des achats de réassurance réels des grandes compagnies d’assurance, à l’exception que les assureurs achètent plusieurs tranches intermédiaires avant de finir avec un XL illimité à partir d’une dizaine de millions d’euros. Afin de vérifier si les prix de réassurance sont cohérents, nous regardons l’évolution du ratio des primes de réassurance par rapport aux primes reçues par l’assureur en fonction des contrats de réassurance : CHAPITRE 2. APPLICATION 71 Figure 2.1: Évolution du ratio prime de réassurance sur prime totale en fonction des franchises Il ressort du graphique que le ratio prime de réassurance sur prime finale diminue en fonction de la franchise du traité, et que la décroissance est beaucoup plus importante pour les priorités basses que pour les hautes. A partir d’un certain seuil, les retours du réassureur n’ont pas une grande différence en moyenne quand on augmente d’une tranche, ce qui fait que la différence de prix n’est pas importante. Le graphique montre que la tarification semble cohérente. USP Les exemples étudiés dans la partie précédente ont toujours montré des volatilités inférieures en préférant l’utilisation des USP à la formule standard. Ce n’est pas toujours le cas, comme le montre le triangle construit dans cette partie. En effet, le triangle a une volatilité de réserve de 14,27% avec l’utilisation de la méthode de Merz Wüthrich, alors que celle proposée par la formule standard est de 9,5%. La volatilité des primes est, quant à elle, plus faible avec la méthode 1 que celle du marché puisqu’elle est estimée à 7,71% contre 10%. L’entreprise augmenterait son exigence de fonds propres de 21% si elle choisissait d’utiliser les USP. Dans cette partie, c’est l’effet de la réassurance qui est mesuré, nous ne nous intéressons pas au gain ou à la perte entre USP et formule standard. Par conséquent, même si l’entreprise est obligée d’augmenter son exigence de fonds propres, nous considérons qu’elle choisit d’utiliser les USP dans son calcul du SCR. CHAPITRE 2. APPLICATION 72 Risque de réserve Franchises √ M SEP Best estimate USP Brut 147 554 868 1 033 691 568 14,27% Table 2.2: Risque de réserve brut de réassurance Les résultats suivants montrent les MSEP, les best estimate et les USP du risque de réserve en fonction du niveau de la franchise : Franchises √ M SEP Best estimate USP 1M 135 652 092 970 202 467 13,98% 2M 140 037 973 997 268 643 14,04% Franchises √ M SEP Best estimate USP 6M 146 189 653 1 024 678 392 14,27% 7M 146 772 889 1 026 403 927 14,30% 3M 142 856 216 1 012 333 485 14,11% 4M 143 754 160 1 020 075 504 14,09% 5M 145 673 951 1 022 856 229 14,24% 8M 147 033 517 1 027 870 712 14,30% 9M 147 218 115 1 028 785 078 14,31% 10M 147 341 656 1 030 371 341 14,30% . Table 2.3: Évolution du risque de réserve en fonction des franchises Le graphique suivant montre l’évolution des USP du risque de réserve en fonction des priorités des XL : Figure 2.2: Évolution des USP risque de réserve en fonction des franchises CHAPITRE 2. APPLICATION 73 Le graphique montre que la volatilité des réserves augmente en fonction des franchises et que la MSEP et le best estimate sont strictement croissants en fonction des priorités. Ces résultats sont cohérents puisque plus la compagnie se couvre avec de la réassurance, plus elle gagne en volatilité sur ses réserves. Son estimation des réserves est améliorée avec une plus grande prise en compte des pertes exceptionnelles. Mais deux exceptions ressortent du graphique, il y a une baisse des USP entre la franchise à 3 et celle à 4 millions, puis dans le passage de 9 à 10 millions. Ces deux cas s’expliquent par une hausse plus importante du best estimate des réserves que de la MSEP. La diminution des USP entre net et brut de réassurance est notable jusqu’à une priorité de 4 millions, avec des différences allant de 0,18% à 0,29%. Par contre, à partir d’une franchise de 5 millions, le gain en volatilité est très faible, même négatif pour les tranches supérieures à 6 millions. La réassurance améliore l’erreur de prédiction des réserves en volume (MSEP) puisque celle-ci est inférieure nette de réassurance à celle brute pour toutes les franchises. Mais cette volatilité diminue moins que le best estimate des réserves pour les tranches hautes, ce qui fait que le paramètre USP est meilleur sans réassurance pour ces priorités. A partir d’un certain seuil, très peu de sinistres rentrent dans la couverture de réassurance. Dans notre étude, seuls 3 sinistres dépassent les 9 millions. la réassurance minimise le best estimate avec ce qui dépasse de la priorité, mais ces montants n’ont pas d’incidence majeure sur la volatilité globale du portefeuille. Par conséquent, dans notre étude au delà d’un certain niveau, utiliser les USP ne présente plus un avantage. Risque de prime Le tableau et le graphique suivants représentent la volatilité du risque de prime pour les différentes franchises étudiées dans cette étude : Franchises USP Franchises USP Brut 7,71% 6M 7,65% 1M 7,55% 7M 7,67% 2M 7,56% 8M 7,68% 3M 7,60% 9M 7,69% 4M 7,62% 10M 7,69% 5M 7,63% Table 2.4: Évolution des USP risque de prime en fonction des franchises CHAPITRE 2. APPLICATION 74 Figure 2.3: Évolution des USP risque de prime en fonction des franchises Dans la même logique que les réserves, la volatilité du risque de prime est croissante en fonction des franchises des traités. En effet, plus la priorité est basse, plus le traité va écrêter de sinistres ce qui aura un impact sur la volatilité. Jusqu’aux tranches 4/5, la réassurance permet de gagner en stabilité avec une différence de 0,16% (respectivement 0,08%) entre brut et net pour une franchise de 1 million (respectivement 5 millions). Au dessus des 5 millions, l’erreur de tarification est toujours améliorée avec l’utilisation de la réassurance, mais les différences sont faibles. Les résultats montrent que jusqu’à un certain seuil, la réassurance permet de gagner en précision dans l’estimation des réserves et dans la tarification. Mais l’influence de la réassurance sur la volatilité du risque de réserve et de prime est moins importante qu’anticipée, puisque dans les cas les plus marquants, elle diminue seulement de 0,29% pour les réserves, et de 0,16% pour les primes. La non différenciation des sinistres graves dans la construction de la table peut expliquer en partie le faible impact de la réassurance. Impact sur le SCR Le tableau suivant représente l’effet sur l’exigence de fonds propres obtenue par la réassurance, proportionnellement à l’exigence sans réassurance : Franchises Gains/Pertes en SCR Franchises Gains/Pertes en SCR 1M 7,42% 6M 0,91% 2M 4,76% 7M 0,54% 3M 3,03% 8M 0,37% 4M 2,42% 9M 0,23% 5M 1,27% 10M 0,15% Table 2.5: Gains ou pertes en pourcentage de SCR brut de réassurance en fonction des franchises Les résultats mettent en lumière la réduction de l’exigence de fonds propres d’une compagnie par la réassurance. Plus la couverture en réassurance est grande, plus l’exigence diminue. La CHAPITRE 2. APPLICATION 75 logique est respectée puisque si l’entreprise achète une grosse couverture de réassurance, elle sera forcément mieux protégée qu’une autre moins couverte. L’exigence de fonds propres représente le capital nécessaire pour couvrir une perte qui arriverait tous les 200 ans, par conséquent le montant de cette perte sera plus faible avec une plus grande réassurance. Il y a une économie de fonds propres notable pour les 4 premiers traités, avec notamment une économie de 7,42% du SCR pour une franchise de 1 million. Au delà de 4 millions, les retours du réassureur deviennent trop rares pour influer en volume, ce qui fait que les gains sont peu significatifs. Mais ces différences entre brut et net de réassurance sont principalement dues à la diminution du volume des réserves et des primes après réassurance. Le montant à provisionner est plus faible après réassurance puisqu’il n’y aura pas de sinistres graves à payer. Et la prime reçue est logiquement diminuée du coût de la réassurance. L’économie de fonds propres est nécessairement plus avantageuse pour les grands achats de réassurance quand le prix de celle-ci n’est pas pris en compte. En effet, sans intégrer son coût, la réassurance n’a que des aspects positifs pour une société. C’est pourquoi nous allons étudier à travers le tableau et le graphique suivants, l’économie de fonds propres proportionnellement à la prime de réassurance pour les différentes franchises. Franchises Gains/Pertes en SCR Franchises Gains/Pertes en SCR 1M 107,8% 6M 149,1% 2M 138,7% 7M 110,9% 3M 148,5% 8M 90,8% 4M 193,1% 9M 70,6% 5M 149,8% 10M 54,6% Table 2.6: Gains ou pertes en pourcentage de la prime de réassurance en fonction des franchises Figure 2.4: Gain en SCR proportionnellement à la prime de réassurance Le graphique est segmenté en 2, avec une croissance du gain en SCR proportionnellement CHAPITRE 2. APPLICATION 76 à la prime de réassurance en fonction des franchises jusqu’à la priorité à 4 millions. Puis de 4 à 10 millions, une forte décroissance. Il ressort du graphique de façon assez marquante, que le traité en XL avec une franchise à 4 millions semble être le plus avantageux au regard du coût de la réassurance. Pour les 10 traités, l’assureur réalise une économie d’exigence de fonds propres avec la réassurance, puisque le moins bon traité a un gain qui représente 54% de sa prime. La tranche 4 économise quasiment le double de sa prime de réassurance en fonds propres. Si l’on ajoute à cela gain en SCR du risque catastrophe qui n’est pas pris en compte dans ces résultats, la compagnie rentabilise facilement le coût de la réassurance. Jusqu’à une franchise de 7 millions, l’assureur peut diminuer son exigence de fonds propres d’au moins le montant de sa prime de réassurance. Cette étude est intéressante pour l’entreprise car elle peut servir d’aide à la décision dans l’achat de la réassurance. Les spécificités du triangle font que le traité avec une franchises à 4 millions est le plus avantageux. Cela s’explique en partie par la baisse de volatilité des réserves entre la tranche 3 et 4, qui représente une exception. Mais même si nous lissons la courbe entre les franchises 3 et 5, le traité optimal resterait dans ces environs. Cela permet d’avoir une idée de la meilleur couverture pour l’assureur. Les premières franchises sont souvent atteintes, ce qui fait que leurs primes de réassurance sont élevées. Le gain en stabilité de résultat effectué sur ces traités est notable, mais leurs coûts importants les rendent moins rentables que d’autres traités moins actifs. Impact de l’utilisation des USP Les différents résultats précédents ont montré que la réassurance impactait significativement le besoin de fonds propres d’une compagnie, mais il est difficile de visualiser le rôle de la volatilité. Une entreprise qui se réassure, même si elle n’utilise pas les USP, prend son volume de prime et de réserve net de réassurance pour estimer son SCR. Afin de mettre en avant l’utilisation des USP dans ces résultats, nous allons observer le gain ou la perte en exigence de fonds propres avec l’utilisation des USP net et brut de réassurance et le volume net de réassurance : Resultat = N et N et (SCRU SPnet − SCRU SPbrut ) N et SCRU SPbrut où : N et • SCRU SPnet est calculé avec les USP estimés sur le triangle net de réassurance, et avec le volume net de réassurance. N et • SCRU SPbrut est calculé avec les USP estimés sur le triangle brut de réassurance, et avec le volume net de réassurance. Franchises Gains/Pertes en SCR Franchises Gains/Pertes en SCR 1M 2,44% 6M 0,29% 2M 2,06% 7M 0,03% 3M 1,43% 8M -0,05% 4M 1,44% 9M -0,11% 5M 0,50% 10M -0,10% Table 2.7: Effet de l’utilisation des USP sur le SCR risque de prime et de réserve CHAPITRE 2. APPLICATION 77 Ces résultats mettent en relief l’utilisation des paramètres de volatilité dans l’étude de la réassurance. En effet, les différences trouvées s’expliquent uniquement avec les USP puisque les volumes utilisés sont les mêmes. Pour les 4 premières franchises, l’utilisation des USP permet une économie de fonds propres supérieure à 1%, allant jusqu’à 2,44% pour la première priorité. A partir d’une franchise de 7 millions, l’entreprise ne fait plus de gains en SCR, et doit même augmenter ses fonds propres pour certaines franchises. Cela s’explique par la volatilité des réserves qui est supérieure à celle du triangle brut de réassurance pour les franchises très élevées. La logique voudrait de comparer l’utilisation des USP par rapport à une application classique de la formule standard. Mais la volatilité des réserves du triangle étant largement supérieure à celle du marché, les résultats n’auraient pas été probants. Ce qui importe dans l’étude, c’est les conséquences de la réassurance sur les USP. Et les résultats montrent que pour les priorités basses, la réassurance influe sur la volatilité ce qui permet d’économiser des fonds propres à l’entreprise. Les diminutions de volatilité observées restent en dessous de nos anticipations, cela peut être du aux limites de la modélisation de la base. Afin de le vérifier, il serait intéressant d’avoir les résultats de cette étude effectuée sur des données réelles. Conclusion générale Tout au long de ce mémoire, nous avons étudié en profondeur les différentes méthodes d’estimation des paramètres propres aux entreprises. Les résultats obtenus ont montré que l’utilisation des USP avait des conséquences significatives sur l’exigence de fonds propres d’une compagnie. Parmi les différentes méthodes proposées dans le QIS 5 Technical Specifications pour estimer la volatilité du risque de réserve, aucune n’est applicable en toutes circonstances. Tout d’abord, deux d’entre elles sont quasiment identiques ; elles utilisent la même base : la formule fermée de Merz Wüthrich. La différence entre les deux vient du volume utilisé, la méthode 2 laissant libre dans le choix de la méthode de provisionnement, alors que la méthode 3 impose Chain Ladder. Pour être cohérent, nous préférons cette dernière puisque, la formule de Merz Wüthrich est une adaptation du modèle de Mack, qui est une vision stochastique de Chain Ladder. La première méthode est, quant à elle, difficilement applicable puisqu’elle demande de posséder un historique de best estimate. Or, les entreprises n’ont commencé que très récemment avec la réforme Solvabilité 2 à les estimer. Il est donc rare qu’elles soient en mesures de posséder un historique important. Nous avons introduit dans le mémoire, une alternative à ces méthodes : la méthode Bootstrap à un an. Elle possède les avantages de prendre en compte les facteurs de queue de développement, et de pouvoir s’adapter à d’autres méthodes de provisionnement que Chain Ladder. Nous avons détaillé dans le mémoire les différentes méthodes du risque de prime, afin de mettre en évidence la méthode la plus adaptée pour une entreprise. Les trois méthodes ont des inconvénients importants qui rendent leur application difficile. Les deux premières méthodes proposées par l’EIOPA sont des méthodes retrospectives. Elles calculent l’erreur de tarification de l’année prochaine en se basant sur les erreurs passées. Mais l’erreur est estimée à l’aide d’un loss ratio constant, ce qui est préjudiciable en cas de cycle dans la tarification. La solution serait alors d’utiliser des loss ratio attendus pour chaque année passée, et de le comparer avec le loss ratio réellement obtenu. Cela permettrait à l’entreprise d’avoir une vision de sa véritable erreur de tarification passée. La troisième méthode estime la variance de la perte de l’année prochaine. Pour calculer cette perte, elle suppose que la fréquence et la charge des sinistres sont des variables aléatoires. La méthode nécessite plus de données, comme le détails de chaque sinistre ou encore le nombre de sinistres attendus pour chaque année. Mais bien qu’elle soit plus résistante face à la présence de cycle que les autres méthodes, elle reste sensible à ces phénomènes. Pour pallier cette problématique, nous préférons estimer le nombre de sinistres de l’année qui vient en fonction du nombre d’adhérents de l’entreprise plutôt que du volume de prime. Cette alternative intégrera la stratégie tarifaire de l’entreprise dans la volatilité du risque de prime et sera par conséquent moins impactée par les cycles. 78 CHAPITRE 2. APPLICATION 79 Avec la directive prudentielle Solvabilité 2, les assureurs doivent se protéger contre des scénarios catastrophes qui pourraient porter atteinte à la solvabilité de l’entreprise. Dans cette nouvelle configuration, le rôle de la réassurance semble primordiale ; en effet, la réassurance permet aux assureurs de se protéger contre les pertes exceptionnelles qui auraient des conséquences sur le résultat de l’entreprise. Le risque le plus sensible à la réassurance est, logiquement, le risque catastrophe qui prend en compte le risque qu’un événement rare survienne. Mais l’utilisation des USP permet aussi aux entreprises d’intégrer le gain en stabilité sur leurs risque de prime et de réserve obtenu avec la réassurance. L’objectif de la partie sur la réassurance était de mettre en avant l’effet de celle-ci sur la volatilité des réserves et des primes. Les résultats ont montré que la réassurance diminuait le besoin de fonds propres d’une compagnie, et que les gains obtenus proportionnellement au coût de la réassurance étaient intéressants. Nous avons pu observer des différences sur la volatilité, mais l’impact n’a pas été aussi important que nous l’avions anticipé. Mais même un faible écart de volatilité peut produire des gains ou des pertes notables sur l’exigence de fonds propres d’une entreprise. Pour conclure, l’utilisation des USP permet aux entreprises d’intégrer la stabilité gagnée avec la réassurance dans le risque de prime et de réserve. L’étude que nous avons menée a analysé les conditions d’application des Undertaking Specific Parameters en prenant en compte les spécificités du marché de l’assurance non-vie. Nous avons pu vérifier que les USP ont un véritable impact sur le besoin de fonds propres d’une compagnie. Les volatilités de marché utilisées dans la formule standard ont été calculées par les mêmes méthodes proposées pour estimer les USP. Par conséquent, l’utilisation des USP pour une entreprise donnera forcément une estimation plus précise de la volatilité du risque de réserve et de prime que celle du marché. En effet, la même méthode sera appliquée sur les données propres à l’entreprise plutôt que sur plusieurs sociétés, et sera donc plus adaptée à ses propres risques. Il serait intéressant, dans la continuation de la réforme Solvabilité 2, d’imposer la pratique des USP aux compagnies disposant de données suffisantes, mais ne possédant pas de modèle interne. Cela éviterait le biais possible d’une utilisation uniquement par les entreprises ayant un avantage financier à cela. La réforme Solvabilité 2 est encore en cours de développement, il faudra attendre encore quelques années afin d’obtenir des retours des assureurs et ainsi pouvoir évaluer la pertinence des USP. Par exemple, dans une dizaine d’années la méthode 1 du risque de réserve pourra être appliquée, et il sera alors possible de comparer les résultats avec les autres méthodes et ainsi se faire une idée précise de la volatilité des réserves. L’étude sur la réassurance n’a pas donné d’importantes différences de volatilité entre net et brut de réassurance. Mais nous pouvons nous demander si cela est spécifique au triangle construit dans le mémoire, ou si de façon générale, l’impact de la réassurance sur la volatilité est limité. Il serait intéressant de le vérifier en faisant la même étude avec une base de données réelles. Bibliographie Ouvrages • Blondeau J., Partrat C. (2003) La réassurance, approche technique. Economica. • Partrat C., Besson J.L (2004) Assurance non-vie, modélisation, simulation. Economica. • Partrat C. (2007) Provisionnement technique en assurance non-vie. Economica. Articles • Boumezoued A., Angoua Y., Devineau L.et Boisseau J.P. (2000) One-year reserve risk including a tail factor : closed formula and bootstrap approaches. Milliman, Paris. • Mack T. (1993) Distribution-free calculation of the standard error of Chain-Ladder reserve estimates. Munich Re, Munich. • Merz M., Wüthrich M.V. (2008) Modelling the claims development result for Solvency purposes. Casualty Actuarial Society, E-Forum, Fall 2008 • Merz M., Wüthrich M.V.et Lysenko N. (2008) Uncertainty of the Claims Development Result in the Chain Ladder Method. Mémoires • Compain H. (2010) Analyse du risque de provisionnement non-vie dans le cadre de la réforme Solvabilité II. Dauphine/IA. • Guillou C. (2011) Les risques en IARD et les impacts de Solvabilité II. EURIA/IA. • Habib I. et Riban S. (2009) Quelle méthode de provisionnement pour des engagements non-vie dans Solvabilité 2 ?. ENSAE/IA. • Jaziri S. (2011) Méthodes de provisionnement non-vie et risque de réserve à un an. ISFA/IA. • Lacoume A. (2008) Mesure du risque de réserve sur un horizon de un an. ISFA/IA. • Rose N. (2009) Provisionnement en assurance non-vie : Utilisation de modèles paramétriques censurés. ISUP/IA. 80 BIBLIOGRAPHIE 81 Cours • Angoua Y. (2011-2012) Provisionnement non-vie. EURIA. Sites Internet • Site de l’INSEE. www.insee.fr. Thèse • Gimond C. (2010) Le cycle de l’assurance non-vie, une opportunité stratégique. Ecole nationale d’assurances. Conférences • Charpentier A. (2011) One year uncertainty in claims reserving. Workshop on Insurance Mathematics, Montreal. • England P. (2009) The ultimate and one-year views of reserving risk with respect to solvency and risk margins. GIRO conference, Edinburgh. Autres • Draft Implementing measures Solvency II (2011) • QIS 5 technical specifications (2010) Glossaire L’assurance non-vie regroupe les assurances de Biens, les assurances de Responsabilité et les assurances Santé. Les assurances non-vie gèrent les primes par répartition. L’assurance vie est un contrat par lequel l’assureur s’engage à verser une rente ou un capital à une personne, moyennant une prime. Les assurances vie gèrent les primes par capitalisation. Les fonds propres d’une entreprise correspondent au total de ses actifs moins l’ensemble de ses dettes. Le loss ratio d’une entreprise correspond au rapport du coût des sinistres sur les primes encaissées. Les Primes émises représentent l’ensemble des primes que l’assurance recevra sur la durée de vie d’un contrat. Les Primes acquises représentent les primes effectives payées par les adhérents pour être couvert au cous de la période comptable. 82 Annexes 83 Données risque de réserve et de prime Les volatilités marchés proposées par l’EIOPA sont : Branche Motor vehicle liability Motor other classes MAT Fire and other property damage Third-party liability Credit and suretyship Legal expenses Assistance Miscellaneous NP reinsurance - property NP reinsurance - casualty NP reinsurance - MAT Medical expense Income protection Workers’ compensation NP reinsurance - Health Prime 10% 7% 17% 10% 15% 21,50% 6,50% 5% 13% 17,50% 17% 16% 4% 8,50% 5,50% 17% Table 1: Volatilité par branche I Réserve 9,50% 10% 14% 11% 11% 19% 9% 11% 15% 20% 20% 20% 10% 14% 11% 20% Formule de la méthode 3 du risque de prime V ar(SN ) = µ2 λ2 V ar(Θ) + λµ2 + λσ 2 les Xi sont indépendant et identiquement distribués et conditionnellement indépendant de N , donc : E[SN \Θ] = E[Xi] × E[N \Θ] = µλΘ Et si N ∼ P oiss(λ) alors : V ar(SN ) = E[V ar(SN \N )] + V ar(E[SN \N ]) = E[N × V ar(X1 )] + V ar(N E[X1 ]) = E[N ]V ar(X1 ) + V ar(N )E[X1 ]2 = λσ 2 + λµ2 Ici, N \Θ ∼ P oiss(λΘ) donc V ar(SN \Θ) = λΘσ 2 + λΘµ2 Nous obtenons bien : V ar(SN ) = E[V ar(SN \Θ)] + V ar(E[SN \Θ]) = E[λΘσ 2 + λΘµ2 ] + V ar(µλΘ) = λσ 2 + λµ2 + µ2 λ2 V ar(Θ) II