benjamin baltesar › ext › isfa › 1226-02.nsf › 0... · 2018-11-07 · benjamin baltesar m...

93

Upload: others

Post on 26-Jun-2020

2 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille
Page 2: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

2

Page 3: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Benjamin BALTESAR

Memoire d’Actuaire

Construction d’une table de mortalite sur un

portefeuille de temporaires deces

2 janvier 2014

Page 4: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

4

Page 5: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Resume

Mots-cles : Table de mortalite, qx, Hoem, Kaplan-Meier, Bootstrap, Whittaker-Henderson, Makeham, Logit, Credibilite, Best Estimate, SOGECAP, R.

Ce memoire a pour objectif de construire une table de mortalite dans le but decalculer un Best Estimate et d’isoler les marges sur un portefeuille de temporairesdeces de SOGECAP. La construction d’une telle table necessite la comprehensiondes donnees sur lesquelles est fondee l’analyse afin de passer de taux de mortaliteempiriques tres volatils a une courbe lisse et la plus fidele possible aux resultats. Lapremiere etape consiste a passer d’une base de donnees a des probabilites de decesdites brutes.

Les premieres estimations de la mortalite ont ete realisees a partir de deuxmodeles. Le premier modele est celui de Hoem : rapport du nombre de deces aun certain age sur l’exposition observee au meme age. La deuxieme methode estcelle de Kaplan-Meier, qui prend en compte la censure a droite de nos donnees depar la sortie autre que le deces de certains assures du portefeuille sur la perioded’observations. Ces deux methodes donnent des resultats bruts, volatils la ou l’ex-position est faible. Nous avons egalement utilise une methode de reechantillonageappelee bootstrap pour les taux de Kaplan-Meier afin d’en eliminer le biais.

L’etape suivante a ete de lisser ces taux afin de les rendre plus reguliers touten respectant la fidelite a l’experience. Nous avons compare un lissage geometrique,moyenne mobile geometrique sur cinq ans, avec un lissage de Whittaker-Henderson.Une fois l’un de ces lissages effectue, nous avons ajuste les taux lisses a un modelede Makeham afin d’obtenir une courbe plus reguliere et refletant les proprietes decroissance des taux de mortalite.

La derniere etape de construction de la table a ete de la fermer pour les ages auxextremites ayant peu ou pas d’observation. Le modele de Makeham sur-estimant engeneral la mortalite aux ages eleves, la fermeture de la table par une regression logitsur une courbe de reference s’est averee necessaire.

Nous avons ensuite verifie la legitimite des lissages et ajustements par des testsstatistiques puis avons confronte les resultats des differentes courbes modelisees viales methodes decrites ci-dessus.

Finallement, nous avons utilise la credibilite pour calculer nos Best Estimate, etchallenger la modelisation versus l’experience. Le choix d’une courbe de mortalitepour representer le portefeuille a ete discute selon le contexte.

5

Page 6: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Abstract

Keywords : Life table, qx, Hoem, Kaplan-Meier, Bootstrap, Whittaker-Henderson,Makeham, Logit, Credibility theory, Best Estimate, SOGECAP, R.

This work aims at constructing a life table in order to provide a Best Estimateand to isolate the margins on a term life insurance portfolio of SOGECAP. In orderto construct such a life table, there is a need to deeply understand the underlyingdata to transform very volatile empirical death probabilities into a smoother andmore representative curve. The first step is to go from a data base to some grossdeath probabilities.

The first estimations of mortality have been realised from two different models.The first one is the Hoem model which is the ratio of the number of dead insu-reds of a certain age on the total observed exposition for this very age. The secondmethod is the Kaplan-Meier one, which takes into account a right censoring of thedate taking into account non-death exits of some insureds of the portfolio during theobservation period. Both those methods give gross results, volatile where the expo-sition is almost lacking. We added on top of this method a sampling method calledbootstrap to be applied on Kaplan-Meier survival probabilities to get rid of the bias.

The next step is to smooth those probabilities to make them more regular whilerespecting the fidelity to experience. We have compared two different smoothings :a geometric smoothing, more precisely a 5-year moving average, and a Whittaker-Henderson smoothing. Once implemented, we have adjusted the smoothed rates toa Makeham model to get a more regular curve reflecting increasing properties of themortality probabilities with age.

The final step in the construction of the table was to close it to ages at the extre-mities with little or none exposition. Makeham model tend to overestimate mortalityat high ages and the closing of the table with a logit regression on a reference curverevealed itself necessary.

Finally, we have checked the consistency of all adjustments and smoothings withstatistical tests and confronted modelled results between themselves. We have thenused the credibility theory to compute our Best Estimate and challenged modelledresults with experience. The final choice of a life table to model this portfolio hasbeen discussed in some specific contexts.

6

Page 7: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Remerciements

Je tiens a remercier plusieurs personnes sans qui ce memoire n’aurait pas pu voirle jour.

Mes remerciements vont tout d’abord a Stephanie HAAS pour avoir encadre cememoire et pour ces precieux conseils. Je tiens aussi a remercier Rudy ROCHATpour sa disponibilite, ses conseils, et son aide dans la collection des donnees. Je tiensa remercier egalement les autres membres de l’equipe de SOGECAP que j’ai pucotoyer lors de mon annee d’alternance.

Du cote academique, je tiens a remercier Anne EYRAUD-LOISEL pour sesconseils, sa relecture, mais aussi pour son amitie.

7

Page 8: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Sommaire

Introduction 9

1 Les hypotheses de calcul de Best Estimate 111.1 Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

1.1.1 Les risques biometriques . . . . . . . . . . . . . . . . . . . . . 111.1.2 Le Best Estimate . . . . . . . . . . . . . . . . . . . . . . . . 11

1.2 Legislation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.2.1 Les tables reglementaires . . . . . . . . . . . . . . . . . . . . 151.2.2 Les tables d’experiences et la certification . . . . . . . . . . . 15

1.3 Qualite des donnees . . . . . . . . . . . . . . . . . . . . . . . . . . . 171.4 Processus de calcul du Best Estimate . . . . . . . . . . . . . . . . . . 18

1.4.1 Choix d’un benchmark . . . . . . . . . . . . . . . . . . . . . . 181.4.2 Choix des facteurs de segmentation . . . . . . . . . . . . . . . 181.4.3 Analyse d’experience sur le portefeuille . . . . . . . . . . . . . 191.4.4 Theorie de la credibilite . . . . . . . . . . . . . . . . . . . . . 19

2 Etude du portefeuille 232.1 Presentation du produit . . . . . . . . . . . . . . . . . . . . . . . . . 232.2 Statistiques du portefeuille . . . . . . . . . . . . . . . . . . . . . . . 242.3 Validation des donnees . . . . . . . . . . . . . . . . . . . . . . . . . . 28

3 Modelisation du portefeuille Deces avec R 293.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293.2 Methode classique de Hoem dite par la suite de l’exposition . . . . . 313.3 Methode de Kaplan-Meier, avec precision par bootstrap . . . . . . . 34

3.3.1 Definitions des troncatures et censures . . . . . . . . . . . . . 343.3.2 Theorie de Kaplan-Meier . . . . . . . . . . . . . . . . . . . . 363.3.3 Bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

3.4 Lissage geometrique . . . . . . . . . . . . . . . . . . . . . . . . . . . 433.5 Lissage de Whittaker - Henderson . . . . . . . . . . . . . . . . . . . 463.6 Ajustement de Makeham . . . . . . . . . . . . . . . . . . . . . . . . . 48

3.6.1 Test d’adequation du Khi-Deux . . . . . . . . . . . . . . . . . 543.6.2 Test d’adequation de Kolmogorov-Smirnov . . . . . . . . . . 553.6.3 Test d’identite lineaire . . . . . . . . . . . . . . . . . . . . . . 58

3.7 Fermeture de la table par une regression logit . . . . . . . . . . . . . 66

4 Analyse des resultats 714.1 Comparaisons diverses entre les methodes . . . . . . . . . . . . . . . 714.2 Backtesting, credibilite et choix d’une table . . . . . . . . . . . . . . 75

8

Page 9: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

4.2.1 Projections et backtesting . . . . . . . . . . . . . . . . . . . . 754.2.2 Credibilite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 754.2.3 Choix d’une table pour modeliser la mortalite . . . . . . . . . 764.2.4 Suivi annuel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

Conclusion 78

Bibliographie 79

Table des figures 80

Liste des tableaux 81

Annexes 82Annexe A : Resultats des tables construites . . . . . . . . . . . . . . . . . 82Annexe B : Code R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

Code R : Lissage Geometrique . . . . . . . . . . . . . . . . . . . . . 85Code R : Whittaker-Henderson . . . . . . . . . . . . . . . . . . . . . 85Code R : Kaplan - Meier . . . . . . . . . . . . . . . . . . . . . . . . . 87Code R : Exemple de Kaplan-Meier . . . . . . . . . . . . . . . . . . 87Code R : Construction de la fonction de repartition . . . . . . . . . . 88Code R : Calcul des intervalles de confiance pour le bootstrap . . . . 88Code R : Simulation du Bootstrap . . . . . . . . . . . . . . . . . . . 89Code R : Ajustement de Makeham . . . . . . . . . . . . . . . . . . . 90Code R : Fermeture de la table . . . . . . . . . . . . . . . . . . . . . 91

9

Page 10: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Introduction

La modelisation de la mortalite est un sujet courant chez les assureurs pour gar-der un controle sur leurs reserves et sur leur tarification mais aussi pour calculer lesdivers SCR 1, MCEV 2 ou encore EEV 3. Ils ont besoin d’utiliser des objets actuarielspour apprehender au mieux la sinistralite de leur portefeuille. Aujourd’hui, dans uncontexte reglementaire de plus en plus contraignant, il est indispensable de disposerd’outils adaptes pour provisionner ou pour tarifer des produits. SOGECAP disposed’un departement dedie aux risques techniques repondant a ses besoins de meilleurequantification des risques biometriques.

L’objet de ce memoire est la construction d’une courbe de mortalite pour un por-tefeuille de temporaires deces de cette entreprise. Cette courbe servira a evaluer unepossible derive de la mortalite, a aider les equipes de tarification ou a les challenger,ou pourra servir pour le provisionnement si cette table est certifiee et jugee assezprudente. Elle pourra egalement servir au calcul de Best Estimate pour la MCEVet l’EEV, ou encore servir pour projeter et calculer le SCR.

L’interet du portefeuille de SOGECAP est le volume de donnees qu’il permetd’exploiter ainsi que la proprete de ces donnees. Nous disposons de toutes les in-formations dont l’actuaire a besoin lorsqu’il est charge de construire une table demortalite : date de naissance, date de souscription, sexe, contrat en cours ou ter-mine, date de deces si applicable, date de sortie du portefeuille si l’assure a resilieson contrat avec SOGECAP. Il sera donc interessant de construire une table de mor-talite fondee sur ces donnees et de tester differentes methodes pour en comprendreles differents impacts.

Nous avons decide de nous concentrer sur deux methodes d’estimations des qxbruts, puis deux lissages afin de reduire les fluctuations dues a une faible observationde certains ages, puis un ajustement afin de donner une allure ”attendue” de courbede mortalite, et enfin une fermeture de table pour reduire la sous/sur-estimationque certains ajustements peuvent creer aux ages situes aux extremites. Cela va per-mettre de creer quatre courbes et de comprendre les impacts de chaque methode.Nous avons d’abord estime les qx bruts par la methode de Hoem et la methode deKaplan-Meier. Nous avons egalement bootstrappe l’estimateur de Kaplan-Meier afind’en supprimer le biais et d’obtenir une mesure de la precision de cet estimateur.Nous avons lisse nos courbes brutes par une moyenne mobile geometrique sur cinqans ou par Whittaker - Henderson. Nous avons ensuite ajustes les taux lisses a une

1. Solvency Capital Requirement2. Market Consistent Embedded Value3. European Embedded Value

10

Page 11: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

loi de Makeham avant de fermer la table par une regression logit sur une table dereference.

La comparaison des differents modeles a ete effectuee en prenant en compte latheorie de la credibilite qui reduit l’ecart entre la modelisation et l’experience quandle nombre de sinistres observes est assez grand, ce qui est verifie dans le cas present.

Nous parcourrons dans un premier temps les hypotheses de calcul d’un BestEstimate pour les risques biometriques et notamment le deces. Nous examineronsdans une deuxieme partie la composition du contrat de SOGECAP concerne etnous etudierons macroscopiquement le portefeuille grace a des statistiques globalessur celui-ci. Nous verrons ensuite la theorie des methodes que nous avons evoqueesci-dessus concernant la modelisation des probabilites de deces et l’appliquerons graceau logiciel R. Nous finirons par analyser les resultats et verifierons leur coherenceavec l’experience.

11

Page 12: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Chapitre 1

Les hypotheses de calcul deBest Estimate

1.1 Definitions

1.1.1 Les risques biometriques

Les risques biometriques sont les risques couverts par les compagnies d’assurance(departements Vie) qui sont inherents a la vie humaine. Ce sont donc typiquementles risques deces, invalidite, incapacite, dependance. SOGECAP a l’ambition de creerdes tables d’experience pour le deces comme le montre ce memoire mais egalementpour l’incapacite/invalidite, ce qui ne sera pas traite ici.

1.1.2 Le Best Estimate

Le Best Estimate ou meilleure estimation en francais est l’estimation la plusprecise faite par l’actuaire et basee sur l’experience. Il ne comprend aucune margepour risque et n’est ni optimiste, ni pessimiste. Son principe est de supprimer lesbiais a priori dans l’estimation du futur et de permettre d’expliciter les marges pourrisque, marges auparavant implicites. Cette approche impose d’utiliser toutes lesdonnees disponibles, de s’adapter a celles-ci pour etre en coherence avec l’experiencedu portefeuille de l’assureur. Son calcul n’est jamais simple et necessite de choisirdes hypotheses compte-tenu des donnees disponibles.

Ces hypotheses font partie integrante du metier d’actuaire, determinant les previsionsfutures d’un portefeuille de risques assures. La tarification d’un produit d’assurancedans un environnement competitif voire agressif necessite d’avoir des hypothesesde calcul de bonne qualite. Les hypotheses de Best Estimate sont specifiques achaque niveau de granularite que l’on retiendra pour effectuer les calculs. Il estimportant pour l’actuaire de bien prendre en compte toutes les donnees fiables etdisponibles, d’utiliser des methodes statistiques et actuarielles adaptees aux donneesqu’il aura choisi d’utiliser, de faire preuve de jugement et d’experience et de ne pasdeliberement sur-evaluer ou sous-evaluer le Best Estimate. Les estimations doiventrefleter au plus pres possible l’experience future du portefeuille de l’assureur. Ceshypotheses doivent etre mises a jour regulierement avec l’evolution de l’experienceet du contexte economique et juridique.

12

Page 13: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Dans le dispositif Solvabilite II, le principe de calcul des provisions techniquesrepose sur la distinction entre deux categories de risques :

– les risques couvrables– les risques non couvrables.

Dans le premier cas, la provision technique correspond au prix de la couverturefinanciere, construite a partir d’instruments financiers issus d’un marche profond,liquide et transparent, repliquant les flux futurs d’assurance. Dans le second cas, laprovision technique est evaluee par la somme du Best Estimate et de la marge pourrisque.

Le CEIOPS retient comme definition du Best Estimate (cf. CP numero 26)celle enoncee dans le paragraphe TS.II.A.10 des specifications techniques du QIS4,a savoir : La moyenne ponderee en fonction de leur probabilite des futurs flux detresorerie compte tenu de la valeur temporelle de l’argent, laquelle est estimee surla base de la courbe des taux sans risque pertinente.La directive europeenne stipule que le Best Estimate doit etre calcule brut dereassurance, en contrepartie un actif de reassurance, tenant compte des probabi-lites de defaut du reassureur, est reconnu a l’actif.Les hypotheses de calcul des provisions Best Estimate reposent sur des informationsactuelles et credibles. Ces hypotheses doivent presentees un caractere realiste.Selon le CP numero 40, la courbe retenue pour l’actualisation doit verifier 4 criteresa savoir :

– Pas de risque de credit– Presenter des taux realistes– Estimer via une methode robuste– Etre tres liquides

En pratique, le CEIOPS insiste sur l’utilisation de la courbe construite a partir desobligations d’Etats notees AAA.

En assurance de personne, le calcul du Best Estimate necessite de prendre encompte l’experience du portefeuille lorsque qu’il s’agit d’evaluer la probabilite deversement de flux futurs.

En outre, le Best Estimate presente d’autres difficultes de calcul liees a l’evaluationdes garanties financieres. En effet, du fait de l’interaction forte entre l’actif et le pas-sif, notamment en presence de rachats ou de dispositif de participation aux benefices,l’utilisation de techniques stochastiques est inevitable pour tenir compte de la ”va-leur temps” de ces garanties.

Le CP numero 27 definit les regles a retenir en termes de segmentation qui doiventpermettre d’aboutir a des groupes de risques homogenes.

Cette approche est relativement arbitraire puisqu’elle se base sur la valeur de trans-fert des provisions techniques, delicate en pratique a justifier.

Il y a une reelle utilite a passer a des methodes stochastiques. En effet, d’un envi-ronnement deterministe ou aucune demarche ou methode n’est requise pour pouvoir

13

Page 14: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

definir le montant des provisions, les assureurs devront passer a un environnementmethodologique tres encadre et dote d’une dimension stochastique. Solvabilite IIse refere a un montant de provisions techniques additionne a une marge de risque.Les provisions techniques doivent etre calculees en Best Estimate , puis tenir compted’une marge de securite supplementaire, de sorte que la probabilite d’une insuffisancede provisions par rapport aux prestations futures corresponde a un seuil predefini.

Solvabilite I : evalue le risque dans les provisions techniques avec une charge encapital forfaitaire on ”mesure” donc plutot le risque dans les provisions (cout dereglement)

Solvabilite II : s’appuie sur un bilan en valeur de marche, evalue le risque dansles provisions (Best Estimate et marge de risque) et discrimine la charge en capitalen fonction de la volatilite des risques (avec un seuil de ruine 99,5% a un an). On”mesure” donc le risque a la fois dans les provisions et dans le capital (qui est lie ala volatilite des risques d’assurance ET d’autres risques - principalement risque demarche).

Le cadre de solvabilite II est plus ”economique” et conduit globalement a ”transferer”leniveau de securite des provisions vers le capital (assurance non vie).

1.2 Legislation

L’arrivee de Solvabilite II ainsi que des normes IFRS 1, la MCEV ou EEV etla notion de ”juste valeur” font du Best Estimate une necessite pour les compa-gnies d’assurance. L’EIOPA 2, autorite de controle sous Solvabilite II, demande auxassureurs de retenir 3 criteres concernant la qualite des donnees.

”The quality of data should be assessed by scrutinizing a set of threecriteria : Appropriateness, Completeness and Accuracy” 3

La mise en place d’hypotheses de Best Estimate est assez surveillee.C elui quifait les hypotheses doit etre different de celui qui revoit et donne son opinion sur laraisonnabilite de l’etude.

Les tables de mortalite utilisees par les assureurs pour leurs tarifs et leurs provi-sions sont encadrees par la reglementation. En pratique, des tables de la populationgenerale sont utilisables par defaut, et la reglementation prevoit les conditions danslesquelles l’organisme peut utiliser ses propres tables. Ce contexte est defini par lesarticles A335-1 du Code des Assurances.

1. International Financial Reporting Standards2. European Insurance and Occupational Pensions Authority3. ”La qualite des donnees doit etre validee en examinant minutieusement trois criteres : Justesse,

Completude et Precision” Article 82 du texte Niveau 1 de la directive de Solvabilite II

14

Page 15: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Article Risque Theme Presentation

A335-1 Vie Taux technique Risques dependant de la duree devie humaine - Taux technique

A132-1 Vie Taux technique Risques dependant de la duree devie humaine - Taux technique

A132-1-1 Vie Taux technique Risques dependant de la duree devie humaine - Evolution du tauxtechnique

A441-4 Retraite Taux technique PM theorique de rentes - taux tech-nique

A331-10 Non-Vie Taux technique PM incap/inval - Taux techniqueL310-1 al.3

A331-22 Non-Vie Taux technique PM incap/inval - Taux techniqueautre

A331-1-1 Vie/Non Vie Taux technique PM Vie / Non vie - Taux techniqueA335-1 Vie Tarification Risques dependant de la duree de

vie humaine - TarificationA335-1 Vie Tables de mortalite Tables de mortalite tarification VieA335-1-1 Vie Tables de mortalite Tables de mortalite tarification Vie

- application des decalages d’agesA441-4-1 Retraite Tables de mortalite PM theorique de rentes - Tables de

mortaliteA331-1-2 Vie Tables de mortalite PM de rentes en cours - tables de

mortaliteA331-1-1 Vie/Non Vie Tables de mortalite PM Vie et Non vie - Tables de mor-

taliteA331-10 Non-Vie Provisions techniques Provisions technique d’incapacite et

d’invaliditeA331-1-1 Vie/Non Vie Provisions techniques Provisions de gestion branches 20 a

22 et 24R331-3 Vie/Non Vie Provisions techniques Liste des provisions techniques

branches 20 a 22 et 24A331-17 Vie/Non Vie Provisions techniques Calcul de la provision pour risque en

coursA441-4 Retraite Etalement PM theorique de rentes - etalement

des effets lies a un changement detaux

A441-4-1 Retraite Etalement PM theorique de rentes - etalementdes effets lies a un changement detables

A331-1-2 Vie Etalement PM de rentes en cours - etalementdes effets lies a un changement detables

A331-1-1 Vie/Non Vie Etalement PM Vie et Non Vie - Etalement deseffets lies a un changement de basede calcul

Du point de vue de l’assureur, on peut distinguer les tables reglementaires, quijouent un role particulier dans la determination du tarif et des provisions, et les

15

Page 16: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

tables d’experience.

1.2.1 Les tables reglementaires

Homologuee par l’arrete du 20 decembre 2005, les tables TH et TF 00-02 ont eteetablies a partir des donnees de l’INSEE issues d’observations realisees entre 2000 et2002 et sont applicables aux contrats d’assurance vie souscrits depuis le 1er juillet1993. La table TF decrit la mortalite feminine. La table TH est construite a partirde la population masculine.

De plus, la necessite d’utiliser des tables de mortalite prospectives pour les rentesviageres a ete prise en compte par le legislateur et des tables de generations (TGHet TGF 05) ont ete homologuees par un arrete du 01/08/2006. Celles-ci ont eteobtenues sur base de la mortalite de la population des beneficiaires de contrats derentes observee sur la periode 1993-2005 et de donnees sur la population generale(INSEE) de 1962 a 2000. Ces tables servent depuis le 1er janvier 2007 a la tarifica-tion et au provisionnement des contrats de rentes viageres immediates ou differees.Elles imposent un tarif minimal.

Garantie concernees Reglementation tables Reglementation taux

Arret de travail Arrete du 28-03-96 Arretes de 1993Incapacite en cours, Invalidite enattente ou en cours

Tables BCAC homologuee 75 % du TME

Maintient des garanties DC Tables BCAC preconisees 60 % du TMEDeces Arretes de 2006 Arretes de 2006

Rente de conjoint viagere, outemporaire, rente d’education

TGH 05 & TGF 05 60 % du TME

1.2.2 Les tables d’experiences et la certification

Dans le cadre du suivi technique de ses produits et au regard de l’article A. 335-1du Code des assurances, un assureur peut souhaiter utiliser des tables de mortalited’experience en lieu et place des tables officiellement en vigueur pour justifier duniveau de la prime pure dans les contrats qu’il couvre. Il apparaıt en effet opportun,dans ce cadre, de cerner au mieux tout ”comportement” de la population assureequi serait significativement different des tables reglementaires.

La procedure d’agrement des actuaires independants habilites a certifier et asuivre les tables de mortalite (et les lois de maintien en incapacite de travail eten invalidite) est definie par l’Institut des Actuaires, apres avis de la Commissionde Controle des assurances et de la Commission de Controle des mutuelles et desinstitutions de prevoyance :

– dans le cadre des arretes du 19 mars 1993 (entreprises d’assurances), du 13octobre 1993 (mutuelles), du 21 decembre 1993 (institutions de prevoyance)concernant les lois de mortalite,

– dans le cadre de l’arrete du 28 mars 1996 (entreprises d’assurances, mutuelleset institutions de prevoyance), concernant les lois de maintien en incapacitede travail et en invalidite.

16

Page 17: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Cette procedure comprend la mise en place d’une Commission d’Agrement independanteet souveraine dans ses missions d’habilitation des Actuaires a certifier et a suivre lestables de mortalite et les lois de maintien en incapacite de travail et en invalidite.Elle a ete approuvee par les membres de la Commission d’Agrement le 3 decembre2002. Elle a ete ratifiee par le Conseil d’administration de l’Institut des Actuairesle 11 decembre 2002 et transmise aux autorites de tutelle le 18 decembre 2002. Enpratique la mise en place, et l’autorisation d’utilisation, d’une table d’experiencecomporte 3 etapes :

1. La construction de la table ;

2. La certification initiale ;

3. Le suivi annuel destine a assurer la perennite du droit d’utilisation de la table.

Le rapport final de certification doit s’assurer que la table permet la ”constitutionde provisions suffisantes et prudentes”. Ce document doit en particulier :

– valider les donnees utilisees et leurs sources, qu’elles soient internes ou externesa l’entreprise,

– verifier les hypotheses de travail et les modalites utilisees pour construire lestables de mortalite ou les lois de maintien en incapacite de travail ou en inva-lidite

– s’assurer que les principes de prudence communement admis ont ete respectes,eu egard aux risques induits (en particulier stabilite des tables ou des lois demaintien),

– definir precisement les conditions d’application et de validite des elementscertifies, les statistiques ou tableaux de bord a preparer periodiquement parl’entreprise pour permettre le suivi des resultats d’experience.

Le suivi doit etre annuel. En l’absence de suivi, la validite des tables (et des lois demaintien) cesse deux ans apres leur certification. La validite des tables de mortaliteest limitee a cinq ans (celle des lois de maintien en incapacite et en invalidite a quatreans). Le point important que l’on peut retenir est que la certification ne concernepas une table dans l’absolu, mais une table utilisee pour un contrat ou un groupe decontrats particuliers, au regard notamment du risque induit par le contrat considere.Par ailleurs, il est necessaire de certifier dans les cas suivant :

1. En Vie– En Deces individuel il est necessaire de faire certifier les tables pour la ta-

rification et le provisionnement, qui peuvent etre plus ou moins favorablesque les tables reglementaires.

– Pour le cas des rentes viageres, c’est egalement obligatoire, mais la tabledoit etre plus prudente que la table reglementaire.

2. En Non-Vie– Pour le maintien en incapacite et en invalidite, c’est obligatoire mais utili-

sable que pour le provisionnement, que la table soit plus ou moins favorableque la table reglementaire.

3. En Assurance Collective a adhesion obligatoire ou facultative a caractere an-nuel, la certification n’etant pas necessaire, et la table reglementaire n’etantqu’une reference.

17

Page 18: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

1.3 Qualite des donnees

Le CEIOPS 4 et l’EIOPA ont donne des criteres permettant de valider la qualitedes donnees dans leur utilisation pour un Best Estimate . Les donnees doivent etre :

Justes : elles sont representatives du risque specifique evalue et appropriees pourleur utilisation.

Completes : il y a assez d’informations historiques, ainsi qu’une granularite suffi-sante pour identifier des tendances et comprendre les comportements du risquesous-jacent. Finalement plus le portefeuille est heterogene et plus les donneesdoivent etre detaillees.

Precises : Pas d’erreurs, d’omissions, de doublons. Le processus de recueillementdes donnees doit etre fiable, consistant dans le temps.

Il est parfois necessaire d’avoir une table de reference quand on veut calculer unBest Estimate. Il existe plusieurs niveaux de donnees pouvant servir de references.Tout d’abord il existe des donnees pour des populations generales diffusees par desorganisations internationales comme l’Organisation Mondiale de la Sante ou pardes organisations nationales comme l’INSEE 5 en France ou l’INED 6. Ces donneessont en general de bonne qualite mais elles ne correspondent cependant pas a lapopulation assuree (selection medicale, effet d’age, richesse de l’individu . . .) et nepeuvent pas etre utilisees en l’etat.

Les donnees recueillies par les prestataires de conseil, les reassureurs ou encore lesinstituts des actuaires sont beaucoup plus representatives des risques assures et dumarche. Cependant, elles ont le desavantage de ne souvent pas etre disponibles pourtous. Ces informations peuvent meme avoir un bon niveau de granularite avec desdistinctions par sexe, capitaux assures, categories socio-professionnelles ou encorele statut fumeur/non-fumeur. Ces donnees doivent cependant etre retraitees pourprendre en compte les changements d’environnement juridique au cours du temps,l’amelioration de la mortalite avec le temps, les changements dans le processus deselection medicale, la presence d’IBNR 7 dans les donnees les plus recentes . . .

Il existe egalement des tables de mortalite publiees autant par des organisa-tions publiques que des institutions privees d’assurance. Ces tables jouent un rolede benchmark. Il faut toutefois etre prudent dans l’utilisation de ces tables car ellescontiennent souvent une marge de prudence et peuvent ne plus etre d’actualite aumoment de leur utilisation.

Finalement, si les donnees le permettent, l’assureur peut lui meme construire sapropre table pour evaluer le Best Estimate de son produit. Il faut garder en teteque ce processus necessite un travail prealable assez lourd de choix, d’extraction, detraitement et d’ajustement des donnees. Les donnees peuvent provenir de diversessources, tant internes qu’externes et posent donc la question de la precision desdonnees. Sans parler du fait que les donnees doivent etre collectees depuis le lance-ment du produit, dans le meme format et mises a jour regulierement. Ce processusest consommateur de temps, de moyens si un avis d’expert est necessaire et si latable doit etre certifiee. Il faudra egalement documenter au maximum la methode

4. Committee of European Insurance and Occupational Pension Supervisors5. Institut National de la Statistique et des Etudes Economiques

6. Institut National d’Etudes Demographiques7. Incurred But Not Reported provision

18

Page 19: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

de construction de cette table d’experience , valider les hypotheses de calcul du BestEstimate, et les ajustements faits sur les donnees.

Une methode de ”verification” de la coherence du Best Estimate consiste a lecomparer a celui donne par differents reassureurs pour un traite en Quote-Partou en Excedent de Plein si le reassureur fait la tarification (prime de risque vs.prime originale). Cela donnera un intervalle pour notre Best Estimate. En effet,en reassurance proportionnelle la prime de reassurance sera le Best Estimate dureassureur plus un chargement plus une marge pour risque. Meme s’il est difficiled’identifier les profits et les marges des reassureurs cela peut au moins donner uneidee a l’assureur de ce que sera son Best Estimate ou au moins ce qu’il ne devraitpas depasser. Il se peut aussi que la vision du reassureur soit plus optimiste quecelle de l’assureur de par la diversification des risques et l’experience connue par lereassureur.

Solvabilite II devrait egalement apporter plus de transparence en termes de publi-cations du risk management et pourrait egalement donner une idee des Best Estimatedes assureurs pour un risque biometrique specifique .

1.4 Processus de calcul du Best Estimate

Une des premieres possibilites est de confronter les donnees les plus recentes denotre portefeuille aux donnees d’un benchmark marche qui refleterait au mieux notreportefeuille.

1.4.1 Choix d’un benchmark

Le benchmark va permettre de donner une estimation du risque donne dans unmarche donne. L’actuaire doit obtenir des donnees representatives du risque qu’ilveut evaluer, de bonne qualite et a jour. L’actuaire doit souvent faire un compromisdans sa segmentation entre gros volume de population et bonne adequation desrisques a la segmentation.

1.4.2 Choix des facteurs de segmentation

En general les facteurs de segmentation sont le sexe (interdit pour la tarificationmais autorise pour la calcul de Best Estimate depuis une decision de la cour de jus-tice de l’Union europeenne du 1er mars 2011 applicable a compter du 21 decembre2012), le statut fumeur/non-fumeur, la categorie socio-professionnelle (CSP). Unexemple en est les tables TH/F 00-02 segmentees par sexe pour la mortalite. Onpeut cependant penser a segmenter par capitaux sous risque ou duree de couver-ture. On pourrait meme penser a d’autres facteurs comme le statut marital, le lieud’habitation ou toutes sortes de donnees personnelles liees aux reseaux sociaux. Uneconnaissance tres approfondie de l’assure (son alimentation, les types achats qu’il faitsur internet, ses activites sportives) permettrait de segmenter davantage le porte-feuille. Il faut faire cependant attention a ce que ce Big Data ne vienne pas perturberle principe meme de l’assurance, a savoir la mutualisation. Sans soulever egalementle probleme qu’une partie des individus ne serait plus acceptee par les assureurs carjugee trop a risques.

19

Page 20: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

1.4.3 Analyse d’experience sur le portefeuille

L’analyse d’experience consiste en la comparaison des sinistres attendus par lebenchmark ajuste au portefeuille et aux sinistres donnes par l’experience. On calculele ratio Experience/Estime, on calcule le facteur de credibilite associe au Benchmarket a l’experience. On obtient alors le Best Estimate estime. La credibilite permet dedire dans quelles mesures les donnees de l’experience sont fiables, et si les differencesobservees entre l’experience et le benchmark sont dues au hasard ou sont reelles. Ilfaudra remarquer que le resultat peut etre different selon les choix de segmentations.

En notant x le montant de sinistre par l’experience,En notant y le montant de sinistre par le benchmark,En notant x/y le ratio experience/estimation,En notant Z le facteur de credibilite,En notant BE% le Best Estimate divise par le montant de sinistre benchmark :

BE = Z × x+ (1− Z)× y⇔ BE% = Z × x/y + (1− Z)× 100% (1.1)

Au final, le Best Estimate estime va etre de BE% ∗ y . Nous donnerons plusde details dans les parties suivantes. Apres ces diverses etapes de calcul il devientnecessaire d’analyser nos resultats, de questionner leur vraisemblance et sur les rai-sons d’accepter une difference importante par rapport au benchmark le cas echeant,de questionner la justesse des calculs effectues, de comparer a la vision a priori del’actuaire, . . .

1.4.4 Theorie de la credibilite

1.4.4.1 Theorie

La credibilite est une technique actuarielle permettant de mesurer la confianceque l’on peut donner a des donnees.

Pour calculer un Best Estimate, on dispose a la fois de nos donnees de l’experienceet de donnees ”nationales” voire meme d’un benchmark marche correspondant anotre risque sous-jacent. L’idee est de savoir dans quelles mesures on peut se fier al’experience et au benchmark. Notre Best Estimate sera une moyenne ponderee duBest Estimate de l’experience et du Best Estimate du benchmark. Il faudra doncdeterminer le facteur de credibilite Z tel que :

BE = Z ×BEexp + (1− Z)×BEbenchmark (1.2)

On peut obtenir Z de plusieurs manieres differentes selon si on utilise la credibilitetotale, partielle ou Bayesienne par exemple. Il existe donc des criteres permettantde donner credibilite totale (Z = 1) ou credibilite nulle (Z = 0) a l’experience.

On dira qu’il y a credibilite totale si le nombre de sinistres N que l’on attendest proche de la vraie valeur de E[N] avec une probabilite assez grande. En notant cun parametre de precision, ε une estimation de l’erreur, la credibilite totale peut setraduire par :

P [(1− c)µN ≤ N ≤ (1 + c)µN ] = 1− ε

20

Page 21: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

en notant E[N ] = µN et V ar(N) = σ2N .

Comme la variable aleatoire (N−µN )σN

est centree et reduite, on cherche a resoudre

P[−cµNσN

≤ N − µNσN

≤ cµNσN

]≥ 1− ε

Si N−µNσN

a pour fonction de repartition Ψ symetrique en 0 et continue alors

Ψ(cµNσN

)−Ψ(−cµNσN

) = 2Ψ(cµNσN

)− 1 ≥ 1− ε

AinsicµNσN≥ Ψ−1((1 + 1− ε))/2) = Ψ−1(1− ε/2)

Rappel sur le theoreme central-limite :Soient X1, X2, . . . , Xn des variables aleatoires reelles definies sur le meme espaceprobablise, suivant la meme loi de probabilite L et independantes. En notant :

Sn =

n∑k=1

Xk

et en supposant que l’esperance µ et l’ecart-type (non-nul) σ de L existent et sontfinis, alors ;

Zn =Sn − nµσ√n

Loi−→n→+∞

N (0, 1) (1.3)

i.e.lim

n→+∞P[Zn ≤ z] = Φ(z)

ou Φ est la fonction de repartition d’une loi normale centree reduite.

Ainsi, le theoreme central-limite nous permet de considerer Ψ = Φ. La conditionpour avoir credibilite totale se resume finalement par :

cµNσN≥ z1−ε/2 ou z1−ε/2 = Φ−1(1− ε/2)

Entre ces 2 extremes la credibilite est dite partielle et le facteur de credibilitepeut etre calcule ainsi :

Z = min

(1;

√M

n

)ou M est le nombre de sinistres observes et n le nombre minimal de sinistresnecessaires pour obtenir la credibilite totale (dependant du niveau de probabiliteaccepte pour une erreur relative donnee). Si N suit une loi de Poisson d’esperance λalors la condition de credibilite totale donne :

cµNσN

= c√µN ≥ z1−ε/2

21

Page 22: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

⇐⇒ µN ≥(z1−ε/2

c

)2

On peut donc prendre n =(z1−ε/2c

)2

Dans la credibilite Bayesienne, on peut exprimer le critere de credibilite par :

Z =v

v + k

ou v mesure le volume associe (volume de primes ou volume de sinistres par exemple)et ou k est un terme correctif decroissant avec la precision de l’estimation.

1.4.4.2 Exemple

Le plus simple est de prendre un exemple pour illustrer le calcul du Best Estimateavec une intervention de la credibilite.

Table 1.1 – Exemple de credibilite

Cadres Classe 1

Femmes Hommes Femmes HommesExperience 25 213 149 330Estimation 26 227 162 390

Exp/Est 96.2% 93.8% 92.0% 84.6%Credibilite 9.1% 26.7% 22.3% 33.2%

BE 99.7% 98.3% 98.2% 94.9%

BE estime 26 223 159 370

Classe 2 Classe 3

Femmes Hommes Femmes Hommes TotalExperience 138 279 25 213 1373Estimation 169 288 27 216 1505

Exp/Est 81.7% 96.9% 92.6% 98.6% 91.2%Credibilite 21.4% 30.5% 9.1% 26.7% 67.6%

BE 96.1% 99.1% 99.3% 99.6% 94.1%

1415BE estime 162 285 27 215 vs

1468

Ici, Exp/Est est le rapport Experience sur Estimation. Pour les femmes de Classe1 Exp/Est = 149/162 = 92, 0% Ensuite, en acceptant une erreur de 3% avec un ni-veau de confiance de 90% le nombre minimum de sinistres pour obtenir la credibilite

totale est n = 3006 =(z1−0.1/2

0.03

)2. N’ayant pas le minimum de sinistres observes pour

avoir credibilite total, on obtiendra le facteur de credibilite par Z = min

(1;√

Expn

).

Dans notre cas on a bien 22.3% =√

149/3006. Finalement le Best Estimate est cal-cule ainsi : 98.2% = 22.3% · 92.0% + (1 − 22.3%) · 100%, ce qui donne en nombre

22

Page 23: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

98.2% · 162 = 159 sinistres pour les femmes de classe 1.Pour information, 1468 est la somme de tous les BE par categorie, qui est plus grandque 1415, le BE calcule au global. La credibilite se reduit donc avec la segmentationde l’experience.

23

Page 24: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Chapitre 2

Etude du portefeuille

Il est important de bien comprendre et analyser notre portefeuille avant de tenterune modelisation quelconque de table de mortalites. C’est ce que nous allons fairedans ce chapitre.

2.1 Presentation du produit

Le produit etudie est une temporaire deces qui a ete creee en 1993 et modifiee adiverses reprises jusqu’a maintenant. Il existe une selection medicale pour ce produitqui depend de l’age, du capital et de l’etat de sante de l’assure. A ce jour, lescaracteristiques sont :

1. Age– Age de l’assure a l’adhesion : 18 ans minimum a 69 ans– Age limite de l’assure pour beneficier des garanties : 79 ans au deces

2. Garanties du contrat– Garantie principale : Versement au(x) beneficiaire(s) designe(s) d’un capital

(transformable en rente sur demande du beneficiaire) en cas de deces, suitea maladie ou accident.

– Garanties optionnelles– le doublement du capital garanti en cas de deces par accident .– l’indexation des garanties et des cotisations sur la base du plafond annuel

de la Securite Sociale.

3. Capital garanti– Sur la garantie de base obligatoire, un minimum de 10 000 EUR et un

maximum de 149 999 EUR– Sur la garantie facultative accident : supplement de capital d’un montant

egal a celui de la garantie de base obligatoire, un minimum de 10 000 EURet un maximum 149 999 EUR

– Possibilite d’indexer le capital garanti, en fonction du taux d’evolution duplafond annuel de la Securite Sociale. La cotisation tient compte de ce nou-veau capital garanti. Le capital garanti peut etre augmente (nouvelle de-mande et nouvelles formalites medicales) ou reduit (sans etre inferieur auminimum), a la demande de l’adherent et avec accord de l’assure. La coti-sation est alors modifiee en consequence. Aucune augmentation du capitalgaranti n’est possible au dela de l’echeance annuelle suivant le 69eme anni-versaire de l’assure.

24

Page 25: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

4. Duree– 1 an, renouvelable par tacite reconduction annuelle.– Pour toute adhesion souscrite a compter du 10/09/2001, l’adhesion prend

fin a la date d’echeance annuelle qui suit le 79eme anniversaire de l’assure.– Pour toute adhesion souscrite avant le 10/09/2001, l’adhesion prend fin a la

date d’echeance annuelle qui suit le 75eme anniversaire de l’assure.

2.2 Statistiques du portefeuille

Avant de presenter le portefeuille apres traitement des donnees, il est impor-tant de rappeler quelques points d’ordre general. Il faut se poser des questions surl’origine des donnees. Un premier exemple est le cas des reseaux de souscriptions.Il y a une grande difference entre un reseau peu ”partenaire” dans le sens ou iln’effectuera pas une reelle souscription de sinistre. Par souscription de sinistre ilfaut comprendre une vraie analyse du sinistre, savoir si cela est garanti, si cela peutetre diminue ou non. Un reseau ”partenaire” et consciencieux permettra en generalune reduction de la charge sinistre par rapport a un reseau jouant un role d’in-termediaire pur. Un deuxieme point est de verifier si la base de donnees sur laquellenous allons travailler represente bien la comptabilite de l’entreprise. Si c’est le cas, latable d’experience creee pourra ainsi etre utilisee dans un cadre de calcul de MCEV.Il y a aussi une question d’evolution de la tarification a comprendre. L’entreprisea-t-elle decide une annee d’etre agressive en termes de prix dans un but de gainde part de marche ? L’evolution Homme/Femme du portefeuille est-elle constanteou y a-t-il eu une annee ou l’un des sexes a pris significativement l’ascendant (ennombre) sur l’autre sexe ? Nos donnees refletent-elles bien uniquement des assuressur le meme type de produit (temporaire deces par exemple) ? La selection medicalea-t-elle evoluee egalement au cours de la periode d’observation ? A-t-on une distinc-tion fumeur/non-fumeur ? Peut-il y avoir eu une probleme informatique qui a alterenotre base de donnees et qui montrerait a priori une baisse de la qualite de la base ?Y a-t-il eu une perte d’information lors des diverses extractions ? Toutes ces ques-tions permettent d’etre certains de comprendre ce que representent nos donnees etsi la construction d’une table d’experience a partir de celles-ci est toujours coherenteavec l’utilisation que nous voudrons en faire.

Le portefeuille que nous considerons comprend toutes les polices souscrites de1993 jusqu’au 31 decembre 2010. Il contient 573 466 assures. Nous allons restreindrenotre etude sur la periode 2006 - 2010 soit 5 ans d’observations pour des raisons destabilite dans les conditions generales du contrat. Sur cette periode nous observonsau final 393 904 tetes pour 1 294 133 annees-police. La proportion Homme/Femmeest de 56.34% en termes de nombre et de 56.43% en termes d’annees-police. L’agemoyen du portefeuille est de 40.36 ans (41.18 pour les hommes et 39.31 pour lesfemmes) avec un age moyen a l’entree de 37.08 ans. La repartition des ages duportefeuille s’etale de 10 ans a 84 ans (avec une exposition negligeable pour lesassures de moins de 18 ans et plus de 79 ans) ce qui indique une erreur soit dans lesdonnees, soit dans la gestion des contrats, soit des acceptations speciales puisque lesconditions generales n’autorisent pas ces cas.Commencons tout d’abord par observer la repartition par age de nos assures. Lorsquecela n’est pas precise, les graphiques montrent les resultats pour le portefeuille globalet non pas seulement par categorie Homme ou Femme.

25

Page 26: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 2.1 – Repartition en annees police de l’exposition par age

Une grande partie de l’exposition se situe pour des ages compris entre 25 anset 50 ans, ce qui, ajoute a l’age moyen du portefeuille, suggere que celui-ci n’estpas tres age. L’etude de la mortalite nous donnera une idee du risque associe a ceportefeuille. Une vision par sexe montre que l’exposition aux ages les plus avances estessentiellement celle venant des hommes, qui ont empiriquement et statistiquementdu point de vue general plus de risques de deceder que les femmes au meme age. Ilsera interessant de verifier si cette idee a priori est vraie dans notre portefeuille etd’en mesurer l’impact sur la modelisation.

Figure 2.2 – Repartition enannees-police de l’expositionHomme par age

Figure 2.3 – Repartition enannees-police de l’expositionFemme par age

En termes d’exposition on constate (a echelles egales) que les profils par agehommes et femmes semblent similaires. On observe cependant moins de riques femmeque homme et notamment aux ages les plus eleves.Il serait interessant de comparer la nature du portefeuille avec la pyramide desages de la population francaise. Le site de l’INSEE 1 met a notre disposition les

1. www.insee.fr

26

Page 27: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

estimations de population au 1er janvier de chaque annee depuis 1920 en Francemetropolitaine. Pour pouvoir comparer notre portefeuille et la population francaisesur une meme base il est necessaire de retravailler les donnees fournies par l’INSEE.Le portefeuille nous donnant une exposition en annees-police sur la periode 2006-2010 et pour des assures de 18 a 79 ans, nous avons calcule :

– Pour chaque age x de 18 ans a 79 ans– Le nombre d’hommes d’age x de 2006 a 2010– Le nombre de femmes d’age x de 2006 a 2010– La proportion d’hommes d’age x sur le nombre d’hommes d’age 18 a 79 ans– La proportion de femmes d’age x sur le nombre de femmes d’age 18 a 79

ans– Le nombre d’hommes d’age x pour une population similaire au portefeuille

i.e. la proportion d’hommes d’age x × 730 385 (= Nombre d’annees-policehomme du portefeuille)

– Le nombre de femmes d’age x pour une population similaire au portefeuillei.e. la proportion de femmes d’age x × 563 748 (= Nombre d’annees-policefemme du portefeuille)

– Le sexe-ratio de la pyramide des ages mise a l’echelle du portefeuille i.e. lenombre d’hommes (en annees-police) divise par le nombre d’assures total(en annees-police)

Ci-dessous une comparaison entre le portefeuille et la pyramide des ages de l’INSEE.

Figure 2.4 – Comparaison entre la pyramide des ages et le portefeuille

Le portefeuille de SOGECAP semble beaucoup plus desequilibre que ne l’est lapopulation francaise. Cela peut s’expliquer par :

– le manque d’interet pour la souscription d’une temporaire deces en debut devie professionnelle et/ou tout simplement le manque de moyens des jeunes de18 a 25 ans encore etudiants ou venant tout juste de sortir du systeme educatif.

27

Page 28: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

– l’interet accru pour les couples ayant des enfants a ne pas laisser sa familleavec des dettes ou dans le besoin si un tragique accident venait a arriver.

– la selection medicale pour les ages superieurs a 50 ans dissuadant par les prixles personnes avec des antecedents medicaux ou excluant les personnes tropmalades.

La difference est d’autant plus flagrante quand on regarde l’ecart entre le portefeuilleet la pyramide des ages pour les femmes. Une telle difference est difficile a expliquer,notamment pour les ages du milieu (entre 30 et 50 ans). Une des explications pos-sibles serait une plus grande aversite aux risques lies au deces de la part des femmesplutot que de la part des hommes.

Figure 2.5 – Comparaison entrela pyramide des ages et le porte-feuille Hommes

Figure 2.6 – Comparaison entrela pyramide des ages et le porte-feuille Femmes

Une autre statistique interessante a regarder est la comparaison des sexe-ratiopar age entre le portefeuille et la pyramide des ages de l’INSEE.

Figure 2.7 – Comparaison des sexe-ratio entre la pyramide des ages et le portefeuille

Dans les deux cas, on observe plus d’hommes que de femmes. Cependant, les

28

Page 29: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

donnees de l’INSEE montrent qu’il y a de moins en moins d’hommes compare auxfemmes aux ages eleves ce qui serait en adequation avec l’idee que la mortalite chezles hommes est plus forte que chez les femmes. Toutefois, il faut etre prudent quantau fait que les donnees de l’INSEE ont et mis a l’echelle sur le portefeuille, i.e. sur unportefeuille ou les hommes sont bien plus nombreux que les femmes aux ages eleves.Ceci biaise donc l’analyse de ces sexe-ratio. On peut simplement conclure que notreportefeuille est bien plus desequilibre au sens repartition homme/femme par age quene l’est la population francaise, mais ceci pour des raisons que nous avons expliqueesauparavant (la population assuree n’est pas semblable a la population generale).

Nous allons donc chercher par la suite a modeliser une table de mortalite quirepresentera au mieux notre portefeuille et qui nous servira a calculer notre BestEstimate par projection. Avant de passer a la modelisation proprement dit, il fauts’assurer que les donnees que nous avons vont nous permettre d’estimer correctementles probabilites de deces.

2.3 Validation des donnees

La pertinence et la qualite des donnees vont conditionner la qualite de la tabled’experience. Il est donc indispensable de s’assurer que toutes les precautions ontete prises et que l’on comprend bien les donnees avant de les traiter.

Nous avons pris soin ici de travailler sur une periode d’observation de 5 ans. Cechoix semble raisonnable car il va nous permettre d’avoir un volume plus importantd’observation et de donnees sans observer une evolution de la mortalite qui deman-derait un retraitement des donnees. Si l’on etudie en montant avec les capitaux sousrisques, l’evolution de l’inflation et des taux d’interets techniques pourrait avoir uneinfluence si la periode d’observation est trop longue. On notera que nous avons prisun multiple de douze mois pour eviter les problemes lies a la fluctuation naturellede la mortalite sur une annee.

Nous avons selectionne tout le portefeuille sur ces 5 ans, les sinistres, les en-courset les sorties. Si nous ne tenions pas compte des contrats qui ont pris fin au coursde la periode d’observation,nous aurions un biais dans l’extraction de nos donneesamenant a une surestimation de la mortalite.

Nous avons egalement travaille sur les donnees police par police en connaissantdate de naissance, date de souscription, date de sortie, statut sinistre ou non, sexe,etc.. Nous avons aussi elimine les doublons de la base qui auraient tendance a sous-estimer les intervalles de confiance sans avoir d’impact direct sur l’estimation destaux de mortalite. La coherence des donnees vis-a-vis du contrat nous permet dereperer des cas de derogations et des erreurs (age minimum des donnees inferieur al’age minimum de souscription).

Nous avons a notre disposition des donnees de qualite et en nombre important.Nous ne devrions pas etre gene dans notre etude par les donnees car nous avonstoutes les informations dont l’actuaire pourrait avoir besoin pour la modelisation dela table de mortalite. Nous pourrions meme utiliser une segmentation plus fine sicela nous semblait approprie.

29

Page 30: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Chapitre 3

Modelisation du portefeuilleDeces avec R

3.1 Notations

On appelle qx la probabilite pour un individu de deceder a l’age x. Les qx sontles taux de deces d’une population observee. Pour les calculer il est necessaire deconnaitre le nombre de personnes en vie a l’age x et le nombre de personnes decedeesentre l’age x et l’age x + 1. En construisant un unique qx par age on suppose quechaque individu d’age x a la meme probabilite de deces. On suppose egalement queles deces sont independants.

Soit T la duree de vie d’un individu. T est une variable aleatoire telle que T ∈ N.Pour des raisons pratiques on considerera que la duree de vie d’un individu estentiere. On cherchera a modeliser par la suite les qx pour des ages ∈ [[18, 79]]Soit Tx la duree de vie residuelle d’un individu conditionnellement au fait qu’il vive

a l’age x. On pourrait noter TxLoi= [T − x|T > x]

Soit FT : x 7→ FT (x) la probabilite de deceder avant ou a l’age x.Soit ST : x 7→ ST (x) la probabilite de survivre au moins jusqu’a l’age x. On noteraque ∀x ∈ [0,+∞[ F (x) = 1− S(x)Soit Sx : t 7→ Sx(t) = P[T > t + x|T > x] = P[Tx > t|Tx > 0] la fonction de survieconditionnelle ou autrement dit la probabilite de survivre jusqu’a l’age t sachantqu’on est en vie a l’age x.Soit qx la probabilite de deceder apres l’age x mais avant l’age x + 1. On peut ledefinir ainsi : qx = P[T ≤ x+ 1|T > x] = P[Tx ≤ 1]

Il est facile de relier les qx a la fonction de survie de T ainsi qu’a sa fonction de

30

Page 31: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

repartition.

∀x > 0 qx = P[T ≤ x+ 1|T > x] = 1− P[T > x+ 1|T > x]

= 1− P[T > x+ 1, T > x]

P[T > x]

= 1− P[T > x+ 1]

P[T > x]

= 1− ST (x+ 1)

ST (x)(3.1)

=FT (1 + x)− FT (x)

1− FT (x)(3.2)

Ainsi on en deduit que

∀x > 0 FT (x+ 1) = FT (x)× (1− qx) + qx (3.3)

Par extension, cette equation reste vraie pour x=0 puisque FT (1) = q0. La proba-bilite de deceder avant ou a l’age 1, c’est bien la probabilite de deceder entre 0 et 1an (0 exclu) par definition des qx. En prenant comme convention :

0∑i=1

ai = 0 et

0∏i=1

ai = 1

On peut demontrer par recurrence que :

∀n ∈ N FT (n) =n∑i=1

qn−i ·i−1∏j=1

(1− qn−j) (3.4)

Preuve :La formule (3.4) est vraie au rang 0 puisque FT (0) = 0. De plus, elle est vraie aurang 1 puisque FT (1) = q0. Supposons desormais que cette relation soit vraie au rangn ∈ N. Montrons que cette formule reste vraie au rang n+ 1.

FT (n+ 1) = (1− qn) · FT (n) + qn d’apres (3.3)

= (1− qn) ·n∑i=1

qn−i ·i−1∏j=1

(1− qn−j) + qn par hyp. de recurrence

= (1− qn) ·n+1∑k=2

qn−(k−1) ·k−2∏j=1

(1− qn−j) + qn en posant k = i+ 1

= (1− qn) ·n+1∑k=2

qn+1−k ·k−1∏l=2

(1− qn+1−l) + qn en posant l = j + 1

=

n+1∑k=2

qn+1−k ·k−1∏l=1

(1− qn+1−l) + qn car qn = qn+1−1

=n+1∑k=1

qn+1−k ·k−1∏l=1

(1− qn+1−l) idem + convention sur le produit

31

Page 32: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

QED.

On vient de prouver par recurrence que (3.4) est vraie. Il est important de preciserque cette relation ne definit pas entierement FT mais qu’elle definit simplement FTaux points de N.

3.2 Methode classique de Hoem dite par la suite de l’ex-position

Une premiere methode pour construire notre table de mortalite est de calculerpar age le ratio nombre de deces / nombre d’annees d’exposition pour cet age.On calculera les tables homme, femme et unisexe (ou plus correctement asexuee).Pour preciser un peu le propos, l’exposition d’une personne est la duree en annee(non necessairement un nombre entier) d’observation dune personne restreinte a laperiode d’observation. Ainsi, si on note Ex le nombre de jours (exprime en fractiond’annees) dont nous avons observe une personne a l’age x et Dx le nombre depersonnes decedees a l’age x alors on peut calculer un estimateur (de Hoem) destaux de mortalite qx ainsi :

qx =Dx

Ex

Il est sans biais et convergent.– Sans biais car :

Posons Ii,x = 1{T (i)≥x+1|T (i)>x} l’indicatrice de survie de l’individu i apresl’age x + 1 sachant qu’il est en vie a l’age x. Des lors, l’exposition a l’agex + 1 est l’exposition a l’age x moins les individus decedes entre x et x + 1,

i.e. Ex+1 =

Ex∑i=1

Ii,x.

On a de plus Dx = Ex − Ex+1 =

Ex∑i=1

(1− Ii,x) ou (1 − Ii,x) represente l’indi-

catrice du deces avant l’age x + 1 sachant que l’individu est en vie en x. Onconclut avec le fait que ∀i, E(1− Ii,x) = qx et donc E(Dx) = qx · ExD’ou E(qx) = Ex·qx

Ex= qx.

– Convergent car :Pour rappel, on dit qu’un estimateur θn de θ est convergent si :

∀ε > 0 limn→+∞

P(|θn − θ| > ε) = 0

Or l’inegalite de Bienayme-Tchebychev nous affirme que :

∀ε > 0 P(|θn − θ| > ε) ≤ V ar(θn)

ε2

32

Page 33: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Dans notre cas, V ar(qx) = E(q2x)− q2

x = E(D2x)

E2x− q2

x

E(q2x) =

E

( Ex∑i=1

(1− Ii,x)

)2

E2x

=

V ar

(Ex∑i=1

(1− Ii,x)

)+ E

(Ex∑i=1

(1− Ii,x)

)2

E2x

=

V ar

(Ex∑i=1

(1− Ii,x)

)+ q2

x · E2x

E2x

=

Ex∑i=1

V ar (1− Ii,x) + q2x · E2

x

E2x

par independance des deces.

=Ex · qx · (1− qx) + q2

x · E2x

E2x

car on a :

1− Ii,x suit une loi de Bernoulli de parametre qx.Et donc :

V ar(qx) =Ex · qx · (1− qx)

E2x

=qx · (1− qx)

Ex

Le rapport qx·(1−qx)Ex

tendant vers 0 pour x→ +∞ on en conclut par l’inegalitede Bienayme-Tchebychev que l’estimateur qx est convergent.

En appliquant cette methode a notre portefeuille on peut tracer les qx brutshomme, femme et unisexe. Le graphique ci-dessous les presente.

Figure 3.1 – Comparaison des qx bruts par age

33

Page 34: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Une premiere observation est le fait que la courbe unisexe soit en dessous dela courbe homme et au dessus de la courbe femme. Cela semble en adequationavec les statistiques nationales sur la mortalite. Les courbes nationales TF/TH 00- 02 ont une allure exponentionnelle, ce qu’on retrouve ici jusqu’a environ 50 ans.Au dela, les qx deviennent beaucoup plus volatils. Cela s’explique en partie par lefait que l’exposition est moindre et donc qu’un deces supplementaire peut avoir unimpact significatif sur les qx. Il est interessant de construire un intervalle de confianceasymptotique de cet estimateur afin d’en apprecier la precision. Nous avons vu queles 1− Ii,x(= Xi,x) dans la suite suivent une loi de Bernoulli et sont independants.Pour resumer :

∀i ∈ [1, Ex] Xi,x ∼ B(qx)

∀i ∈ [1, Ex] E(Xi,x) = qx

∀i ∈ [1, Ex] V ar(Xi,x) = qx · (1− qx)

∀(i, j) ∈ [1, Ex]2 i 6= j Xi,x ⊥ Xj,x

Des lors, on va pouvoir appliquer le theoreme central-limite vu en (1.3) en posant :

SEx = Dx

Ainsi,

ZEx =SEx − Ex · qx√qx · (1− qx) · Ex

=

√Ex

qx · (1− qx)· (qx − qx)

Loi−→Ex→+∞

N (0, 1)

On peut alors deduire de cette remarque un intervalle de confiance asymptotique deniveau α pour qx.

q±(x) = q(x)± u1−α2·

√qx · (1− qx)

Ex

ou u1−α2

represente le quantile d’ordre 1 − α2 de la loi normale centree reduite. On

peut montrer qu’en remplacant dans l’expression precedente qx , inconnu, par sonestimateur qx, que l’intervalle de confiance obtenu asymptotiquement est egalementde niveau α.

Figure 3.2 – Intervalle de confiance a 95% asymptotique des qx bruts

34

Page 35: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

On observe que le corridor forme par les intervalles de confiance a 95% est beau-coup plus large aux extremites (pour les ages de 18, 19, 20 ans et apres 60 ans). Cecis’explique par le fait que la construction de ces intervalles depend de la variance del’estimateur qx, qui a le terme Ex au denominateur. Aux ages extremes, l’expositionest faible et donc la variance beaucoup plus grande.Nous verrons par la suite que nous pouvons lisser geometriquement sur 5 ans ces qxpour mieux les exploiter. Une approche prudente consisterait meme a travailler surles bornes superieures de l’intervalle de confiance a 95% des qx. Regardons cependantd’abord une autre methode de construction des qx bruts, la methode de Kaplan -Meier.

3.3 Methode de Kaplan-Meier, avec precision par boots-trap

La methode de Kaplan - Meier a ete introduite eponymement en 1958 par Ed-ward L. KAPLAN et Paul MEIER dans un article [7] du Journal of the AmericanStatistical Association nomme Nonparametric estimation from incomplete observa-tions. Elle permet de prendre en compte les censures et les troncatures (notionsdefinies infra). Il s’agit d’un modele tres repandu autant en actuariat pour estimerles lois de mortalite ou de maintien en incapacite/invalidite, qu’en demographie etmedecine pour evaluer la duree de vie de patients suivant un traitement par rapporta ceux ne le suivant pas. Ce modele est assez simple a mettre en place d’ou sa po-pularite. Le principe de cette methode est d’estimer la fonction de survie des viesobservees par un estimateur non parametrique et est base sur le principe qu’etre envie a l’instant t c’est etre en vie juste avant et ne pas deceder a cet instant. Il faitdonc intervenir les probabilites de survie en t conditionnellement au fait d’etre envie juste avant.

3.3.1 Definitions des troncatures et censures

Les troncatures et censures indiquent une observation partielle de certaines donnees.Commencons par un exemple pour une comprehension plus simple.

35

Page 36: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 3.3 – Exemple de troncatures et censures [OPTIMIND] [9]

Si nous observons sur la periode [Td, Tf ] :– l’individu 1 est une donnee complete puisqu’il a atteint l’age x apres Td et

qu’il est decede ou a atteint l’age x+ 1 avant Tf .– l’individu 2 est une donnee tronquee a gauche puisque l’individu a atteint l’agex avant le debut de l’observation Td mais a atteint l’age x + 1 apres la dated’entree Td.

– l’individu 3 est une donnee censuree a droite puisque l’individu a disparu duchamp d’observation avant de celebrer son x+ 1 eme anniversaire et pour unecause autre que le deces.

Il existe en theorie 3 types de censures : la censure fixe, la censure ”arret au rieme

deces” et la censure aleatoire. Nous n’allons developper ici que la censure fixe et lelecteur curieux trouvera plus d’information dans un cours sur les modeles de dureepar exemple.Introduisons dans un premier temps quelques notations.

– (X1, . . . , Xn) un echantillon de durees de survie– C fixe strictement positif representant la censure

On dit qu’il y a censure a droite si au lieu d’observer directement l’echantillon(X1, . . . , Xn) on observe a la place ((T1, D1), . . . , (Tn, Dn)) avec

Ti = max(Xi, C) et Di =

{1 si Xi ≤ C0 si Xi > C

On dit qu’il y a troncature a gauche (resp. a droite) lorsque Xi n’est pas observablelorsqu’elle est inferieure a un seuil C > 0 (resp. superieure a un seuil C > 0).La difference entre la troncature et la censure et que pour la troncature on perdcompletement l’information alors que dans le cas de la censure on sait au moins quela variable observee a depasse un seuil.

36

Page 37: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

3.3.2 Theorie de Kaplan-Meier

Kaplan et Meier donnent une methode de calcul des lois de survie des individusquand ceux-ci sont soumis a des censures a droite. La fonction de survie de Kaplan-Meier est definie de maniere discrete. Introduisons les notations dont nous allonsavoir besoin par la suite.

En reprenant les notations de la section 3.1 page 29 et en ajoutant :Soit ai, i ∈ {1, . . . ,m} les ages connus des individus entre x et x+ 1Soit ni le nombre de tetes vivantes en aiSoit di le nombre de tetes decedees en aiSoit ci le nombre de personnes censurees sur la periode ]ai, ai+1]Soit ti le nombre de personnes tronquees sur la periode ]ai, ai+1]Il existe une relation recursive sur les ni :

ni = ni−1 − di−1 − ci−1 + ti−1

L’idee de Kaplan-Meier est basee sur la propriete de la fonction de survie S(t) =P(T > t) = P(T > t|T > x)× S(x) = Sx(t)× S(x) pour t > x.Ainsi en notant pi = P(T > ai|T > ai−1)

S(a1) = P(T > a1|T > 0)× S(0) = p1

S(a2) = P(T > a2|T > a1)× S(a1) = p2 × p1

· · ·

S(ai) = P(T > ai|T > ai−1)× S(ai−1) =i∏

k=1

pk

Un estimateur naturel de pi est le nombre de survivant a la date ai+1 divise parle nombre de survivant a la date ai soit logiquement pi = ni−di

ni.

D’ou on a ∀t ∈]0, am] S(t) =∏i|ai<t

ni − dini

(3.5)

On peut montrer que S(t) est un estimateur non-parametrique du maximum devraisemblance, c’est a dire qu’il maximise la vraisemblance approchee :

Lapp(S) =∏i=1..n

(S(ti−1)− S(ti))di × S(ti−1)ci

Cet estimateur est sans biais et sa variance s’ecrit :

V ar(S(t)

)= −S2(t)

∑j|tj≤t

djnj (nj − dj)

37

Page 38: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Des lors, la formule (3.5) donne les qx

qx = 1− S(x+ 1)

S(x)

= 1−

∏i|ai<x+1

ni − dini∏

i|ai<x

ni − dini

= 1−am∏i=a1

ni − dini

On remarquera que si a une date donnee il n’y a pas de deces alors son termedans le produit vaut 1. Les seuls moments qui font changer les qx sont les dates dedeces. De plus l’estimateur ne bougera pas en cours de periode si de nouvelles tetesarrivent dans le portefeuille. Prenons un exemple simple avant de passer a notreportefeuille. Imaginons que nous observons 20 individus sur 1 semaine et a intervallede temps regulier egal a un jour en commencant le lundi. La population que nousavons contient des censures (a droite).

Jourde lasemaine

Nombred’individuspartant

Nombred’individusdecede cejour

Nombred’individusrestant audebut

Probabilitede survie

Lundi 2 2 20 0.900Mardi 3 1 18 0,850Mercredi 3 0 15 0,850Jeudi 5 3 12 0,637Vendredi 4 3 7 0,364Samedi 2 2 3 0,121Dimanche 1 0 1 0,121

Le lundi 2 personnes partent et decedent, la probabilite de survie est donc de18/20 = 0, 900. Le mardi 3 personnes partent mais 1 seule decede. La probabilite desurvie est donc de (18−1)/18×0, 900 = 0, 850. Le mercredi 3 personnes partent maisaucune ne decede. La probabilite de survie reste inchangee car 15/15×0, 850 = 0, 850.On remarque qu’a la fin de la semaine on n’observe plus d’individus mais cependantla derniere probabilite de survie n’est pas 0. Cela est explique par le phenomenede censure sur le dernier individu. On observe ci-dessous la courbe de survie deKaplan-Meier pour cette population de 20 personnes. Les traits verticaux sur lacourbe indiquent une censure et les pointilles indiquent quant a eux les bornes del’intervalle de confiance a 95%.

38

Page 39: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 3.4 – Exemple de courbe de survie de Kaplan - Meier

Passons maintenant a l’application de Kaplan-Meier grace au package survivaldu logiciel R. Les resultats des qx bruts par cette methode sont representes graphi-quement infra.

Figure 3.5 – Comparaison des qx bruts KM par age

On observe, comme avec la methode classique (3.1), que la courbe unisexe deKaplan-Meier est entre la courbe homme et le courbe femme. La volatilite des qxaux ages les plus eleves semblent moindre mais l’estimateur de Kaplan-Meier n’esten general pas sans biais et nous allons appliquer une methode de Bootstrap a celui-ci pour en construire son equivalent non biaise et ainsi construire un intervalle deconfiance a 95% permettant de verifier la volatilite de cet estimateur.

39

Page 40: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

3.3.3 Bootstrap

La methode de bootstrap est une methode de reechantillonnage. On part d’unechantillon initial et a partir de celui-ci on fait de l’inference statistique sur de nou-veaux echantillons (bases sur celui initial). L’idee va ensuite etre de tirer au sortun nombre eleve de fois un echantillon de meme taille que celui initial. L’analysedes nouveaux echantillons va nous permettre d’affiner l’inference faite sur les obser-vations initiales. Bien qu’aucune information n’est ajoutee le reechantillonnage vadans certains cas permettre d’extraire une information souhaitee sur l’echantillon debase telle que sa moyenne, son ecart-type ou ses quantiles.Nous allons utiliser la methode de bootstrap pour eliminer le biais de l’estimateurde Kaplan-meier. Precisons d’abord quelques notations. Soit X = (X1, · · · , Xn)notre observation. On suppose que chaque Xi, i ∈ {1, · · · , n} suit une loi F de pa-rametre θ. Soit T un estimateur de θ. Soit F0 la loi empirique associee a X. SoitX∗ = (X∗1 , · · · , X∗n) un reechantillon ou aussi appele echantillon bbootstrap . Les X∗isont equidistribues de proba 1/n pour la loi de X ou pour F0. On definit le biais deT par

b(T ) = E(T |F )− θ

On peut estimer le biais par

b∗(T ) = E(T ∗|X)− T

avec T ∗ calcule sur un echantillon bootstrap X∗ issu de X, l’echantillon initial, etE(·|X) signifie la moyenne pour la loi empirique equidistribuee de X. En corrigeantle biais de T on obtient un estimateur sans biais. T − b∗(T ) = 2T − E(T ∗|X) quisera presque sans biais puisque par definition T − b(T ) est sans biais.

On va appliquer le principe du bootstrap pour evaluer la precision d’un es-timateur. Pour cela, traitons un exemple propose par [EFRON] [3] et repris par[HUBER] [6]. EFRON se livre a une experimentation sur des souris malades en don-nant un traitement a 7 d’entre elles et un placebo aux 9 autres. Voici les durees desurvie en jours qu’il obtient.

Moyenne Ecart-typeTraitees X 94 197 16 38 99 141 23 86,66 25,24

Controlees Y 52 104 146 10 51 30 40 27 46 56,22 14,14

En terme d’esperance de vie, le traitement semble assurer une meilleure surviepour les souris malades d’environ 30 jours. Cependant il ne faut pas oublier queles echantillons sont de taille 7 et 9 ce qui est tres petit. La precision de ces 2estimateurs semble a priori tres mauvaise. L’idee du bootstrap est de se dire que sinous avions un echantillon assez grand on pourrait utiliser le theoreme centrale limiteou egalement appele approximation normale. Ainsi, s’il est legitime de remplacer laloi inconnue de duree de vie des souris traitees par la loi observee sur cet echantillonde 7 observations et si on peut remplacer X par l’echantillon bootstrap X∗ de loiF1 alors on pourra dire que

L(X|F ) ≈ L(X∗|F0)

Nous pouvons maintenant reechantillonner B fois avec B grand. On obtient ainsiB echantillons bootstrap X∗b . On va pouvoir calculer la moyenne (ou la statistique

40

Page 41: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

qui nous interesse) sur chacun de ces echantillons bootstrap . On va ainsi obtenirune loi empirique pour la moyenne, qui sera assez proche de la vraie loi si B estassez grand. On peut calculer l’estimateur bootstrap de l’ecart-type par l’habituelestimateur sans biais de l’ecart-type.

s∗ =

√√√√√√B∑b=1

(X∗b − ¯X∗b)2

B − 1

Voila des resultats pour l’estimateur bootstrap de l’ecart-type pour la moyenne pourdifferents B possibles.

B 50 100 250 500 1000 ∞s∗ 19,72 23,63 22,32 23,79 23,02 23,36

Au final l’ecart-type de l’estimateur de la moyenne par bootstrap est assez prochepour les souris traitees, quel que soit le nombre de reechantillonnage effectue.

Revenons maintenant sur notre portefeuille. Pour boostrapper nos qx obtenuspar Kaplan-Meier, nous allons :

– recalculer la fonction de repartition Fx a partir des qx– creer une fonction rAge capable de generer des ages de loi Fx– creer une fonction calculant la fonction de repartition empirique de l’echantillon

rAge– generer B echantillons de fonction de repartition empirique associee a la loi

initial Fx– convertir les fonctions de repartition en qx– calculer l’intervalle de confiance a 95%

La simulation bootstrap a ici consiste en 1000 simulations d’echantillon de fonctionde repartition generee a partir de 500 points chacune. Ci-dessous une comparaisondes qx par la methode de Kaplan-Meier avant (en noir) et apres application dubootstrap (en bleu).

41

Page 42: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 3.6 – Comparaison des qx avec et sans bootstrap pour Kaplan - Meier

Les resultats montres sont bases sur un constuction unisexe de Kaplan-Meiermais les memes resulats sont observes en segmentant Homme et Femme. Les femmesayant une bien meilleure probabilite de survie que les hommes, et ce pour tous lesages.

Figure 3.7 – Effet du bootstrap sur les qx Unisexe, Homme et Femme

On observe ici tres peu de difference entre la courbe non bootstrappee (en noir)et la courbe bootstrappee (en bleu). On remarquera par ailleurs que l’intervallede confiance est tres large. Il semblerait plus approprie de tracer les biais par age

42

Page 43: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

de notre estimateur de Kaplan-Meier pour mieux se rendre compte de l’ordre degrandeur de ceux-ci.

Figure 3.8 – Biais par age en % des qx observes par KM

Ces resultats sont confirmes en observant les biais relatifs (difference entre l’echantillonet notre estimateur bootstrap pour chaque age). Ils sont compris entre −11% pourl’age de 19 ans et +23% pour l’age de 28 ans des observations initiales par Kaplan -Meier. Pour les ages compris entre 30 et 60 ans, les biais relatifs sont compris entre−7% et +9%. On peut dire que notre estimateur de Kaplan-Meier par bootstrapn’est pas fortement biaise. On pourra donc l’utiliser pour ameliorer la precision denotre table avec la methode de Kaplan - Meier. Notre echantillon initial appartenaiten tout point a l’intervalle de confiance a 95% de cet estimateur. On peut raison-nablement penser que notre estimateur bootstrap reflete bien la loi des qx vu parKaplan-Meier. On utilisera donc la version bootstrappee dans la suite de l’etudequand on fera reference a Kaplan-Meier. On peut voir ci-dessous une premiere com-paraison entre la methode de Hoem et la methode de Kaplan-Meier.

43

Page 44: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 3.9 – Comparaison des qx bruts entre la methode classique et Kaplan-MeierBootstrappee

L’estimateur de Kaplan-Meier est compris dans l’intervalle de confiance a 95%de l’estimateur de Hoem en tout point puisqu’il est quasiment confondue avec cedernier. Ceci est rassurant car les 2 approches doivent en theorie modeliser la mememortalite sous-jacente.

Cette premiere modelisation de la mortalite faite, il nous reste cependant a rendreces courbes de qx exploitables pour la projection de la mortalite du portefeuille. Unemethode de lissage les rendra plus exploitables et plus fideles a la realite. C’estpourquoi nous allons developper les lissages dans la suite.

3.4 Lissage geometrique

Le premier lissage que nous allons effectuer est un lissage simple appele lissagegeometrique. Il s’agit de remplacer chaque valeur par une moyenne geometrique sur5 ans avec les donnees des deux annees precedentes et des 2 suivantes. En termesmathematiques cela donne :

qx = 5√qx−2 · qx−1 · qx · qx+1 · qx+2

L’avantage de cette operation est de lisser les qx avec une methode tres facile amettre en place mais un des desavantages de cette methode est que si un des qxprecedents ou suivants est nul alors le nouveau qx sera nul. On risque de perdrequelques annees d’observation aux extremites ou au centre si on a un ”trou” d’obser-vation. Nous avons lisse les qx donnes par la methode classique et par Kaplan-Meier(bootstrappee). Voici donc les resultats.

44

Page 45: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 3.10 – Comparaison pour la methode classique avant et apres lissagegeometrique

Par la methode dite classique on voit bien que le lissage a permis de lisser les qxet on observe egalement une perte de donnees pour les ages superieurs comme l’ons’y attendait. Plus les taux bruts sont volatils (faiblesse du nombre de donnees dansl’exposition) et moins le lissage ne semble bien representer l’experience.Ces remarques restent valables pour le graphique suivant numero 3.11 pour Kaplan-Meier. Nous comparerons dans une prochaine partie les impacts sur les differentesmethodes.

45

Page 46: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 3.11 – Comparaison pour la methode Kaplan- Meier avant et apres lissagegeometrique

Voici egalement une comparaison des 2 methodes vues precedemment apres l’ap-plication du lissage geometrique. Il n’y a pas de surprise quant aux resultats puisquenous avons applique un lissage ne changeant pas l’ordre de comparaison de croissancedes courbes.

Figure 3.12 – Comparaison pour les 2 methodes apres lissage Geometrique

Le lissage geometrique est en general utilise pour lisser simplement une premierefois la table avant de l’ajuster a une loi. On part ici de l’hypothese que les varia-tions brusques dans les qx viennent d’une insuffisance de donnees et non pas d’une

46

Page 47: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

variation de l’incidence reelle. Avant d’ajuster notre table a une loi de Makeham,nous allons d’abord etudier un lissage plus complexe qui est le lissage de Whittaker- Henderson.

3.5 Lissage de Whittaker - Henderson

Le lissage par la methode de Whittaker - Henderson est une methode reposantsur la minimisation de 2 criteres. Le premier critere est un critere de fidelite alorsque le deuxieme est un critere de regularite. En appelant (wi)i=1···n un vecteur depoids, le critere de fidelite s’exprime ainsi :

F =n∑i=1

wi · (qi − qi)2

De plus, en notant ∆r la difference avant d’ordre r, c’est a dire que si ∆u(x) =

u(x+ 1)− u(x) alors ∆ru(x) =r∑j=0

(r

j

)(−1)r−ju(x+ j)

Le critere de regularite s’exprime ainsi en notant z le nombre de parametres dumodele :

S =n−z∑i=1

(∆zqi)2

En notant egalement h un parametre de poids reel positif, la methode de Whittaker- Henderson minimise une combinaison lineaire des 2 criteres :

M = F + h · S

Le reel h permet de controler l’influence que l’on souhaite donner a la fidelite et a laregularite. Si h est grand, la reguarite est privilegiee, si h est petit c’est la fidelite.Par ailleurs nous avons utilise ce lissage en considerant tous les wi egaux a 1. Il pour-rait etre judicieux d’utiliser pour wi une ponderation par effectif a l’age x rapportea l’effectif moyen pour tous les ages. Nous ne resoudrons pas ce probleme d’opti-misation ici mais le lecteur curieux pourra se referer a un cours sur les methodesde Whittaker-Henderson ou a ce guideline realise par la Commission d’Agrement etapprouve apres consultation des membres de l’Institut des Actuaires [2] par exemplesur les methodes de lissage et d’ajustement.

Nous avons effectue ces lissages sur notre portefeuille et sur la base des qx donnespar la methode classique et par la methode de Kaplan - Meier. Les resultats sontresumes dans les 2 graphiques qui suivent.

47

Page 48: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 3.13 – Comparaison des lissages pour les qx classiques Geometriques etWhittaker - Henderson

Figure 3.14 – Comparaison pour la methode Kaplan-Meier avant, apres lissagegeometrique, Makeham et Whittaker Henderson

Dans les deux cas, le lissage par Whittaker-Henderson permet d’obtenir unemeilleure estimation des qx la ou l’exposition est grande car elle va lisser la courbeavec plus de liberte que la methode geometrique mais le probleme se pose quand onarrive aux qx volatils. En effet, le critere de fidelite va faire ”suivre” a Whittaker -Henderson sa volatilite et son non-sens aux ages eleves. Une solution pour palier cesproblemes d’extremites est de lisser la courbe sur une partie dont l’exposition nous

48

Page 49: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

assure une certaine regularite du lissage. C’est ce que nous faisons dans la partiesuivante en ajustant nos qx au modele de Makeham. Nous devrons ensuite fermer latable aux ages ”extremes”.

3.6 Ajustement de Makeham

En 1960, MAKEHAM [8] decide de perfectionner la loi de GOMPERTZ [5] et defournir un nouveau modele de mortalite. Il etablit un modele a 3 parametres reliantage et taux instantanes de mortalite par la formule suivante.

µx = A+BCx avec A > 0, B > 0, C > 1

Le parametre A rend compte des deces accidentels, le parametre BCx reflete unprocessus de vieillissement de GOMPERTZ faisant croitre le taux de deces exponen-tiellement. On notera que le parametre A est independant des ages. Ces parametressont estimes par maximum de vraisemblance.

A partir de l’expression de µx on peut remonter a l’expression des qx par laformule :

qx = 1− exp(−∫ x+1

xµy dy

)= 1− exp

(−∫ x+1

x(A+BCy) dy

)= 1− exp

(−[Ay +

B

lnCexp (y lnC)

]x+1

x

)

= 1− exp(−(A(x+ 1) +

B

lnCCx+1 −Ax− B

lnCCx))

= 1− exp(−(A+

B

lnCCx(C − 1)

))

La loi de Makeham presente plusieurs avantages. Tout d’abord, les logarithmesdes px = 1− qx ont une forme assez simple.

ln (px) = −(A+

B

lnCCx(C − 1)

)On a par developpement limite a l’ordre 1 :

ln (px) = ln(1− qx) ≈ −qx pour qx proche de 0

On peut etudier la difference entre 2 qx :

qx+1 − qx = Cx(C − 1)2

(− B

lnC

)D’ou :

ln |qx+1 − qx| = x lnC + ln

((C − 1)2

(− B

lnC

))

49

Page 50: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

On en conclut que si les taux de mortalite suivent une loi de Makeham alors pourdes qx suffisamment petits les points (x, ln |qx+1 − qx|) sont alignes sur une droitede pente lnC. Nous allons donc effectuer une regression lineaire et conclure par untest de Fisher sur la relation de dependance ou d’independance entre x et y pourverifier que le modele de Makeham est justifie pour l’ajustement de nos taux bruts.

Figure 3.15 – Regression lineaire pour l’ajustement de Makeham sur lissagegeometrique

Le test de Fisher nous permet de verifier si l’adequation de la courbe des tauxbruts au modele de Makeham est realisee. Le modele de la regression a tester esty = ax+ b.On va tester H0 : a = 0 contre H1 : a 6= 0.Nous avons effectue ci-dessus la regression sur les taux bruts de Kaplan-Meier boots-trappes et lisses geometriquement et pour les ages compris entre 25 et 65 ans. Noustrouvons un R2 de 71.7% et une valeur de la statistique de Fisher de 95.04 qui estsuperieure a la valeur de F au seuil de 5% de 4.09. Nous en concluons que nousacceptons H1 et que le modele de regression est significatif. On peut ainsi ajuster latable utilisee a la loi de Makeham.Voici ci-dessous les resultats en regressant les taux bruts de Kaplan-Meier boots-trappes et lisses par Whittaker - Henderson et pour les ages compris entre 25 et65 ans. Le R2 est de 74.6% et la statistique de Fisher de 114.3. Nous acceptonsegalement H1 et jugeons que le modele de regression est significatif.

50

Page 51: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 3.16 – Regression lineaire pour l’ajustement de Makeham sur Lissage Whit-taker - Henderson

Nous avons accepte l’ajustement de Makeham et l’etape suivante est donc d’enestimer les parametres. Le moyen d’estimer ces parametres est d’utiliser la methodedu maximum de vraisemblance. La fonction de vraisemblance associee a la loi deMakeham s’ecrit :

L =

xm∏x=x0

(qDxx ) · (px)Nx−Dx

ou encore

ln(L) =

xm∑x=x0

(ln(qx) ·Dx + (Nx −Dx) · ln(px))

On note ici x0 le premier age dont nous avons une observation, xm le dernierage dont nous avons une observation, Nx l’effectif present au debut de la periodeet Dx le nombre de deces dans la periode [x, x + 1]. Nous n’allons pas traiter ici lapartie theorique montrant comment estimer les parametres mais le lecteur curieuxpourra s’interesser aux travaux de KING et HARDY ou encore a des methodes dedeveloppement de TAYLOR. Pour notre etude nous avons decide de prendre commeplage de reference pour le lissage de Makeham la plage [25, 65] ans. Ce choix a eterealise apres plusieurs essais et reflete une certaine logique de s’ecarter des ages oul’exposition est moindre. Les graphiques suivants montrent les qx bruts, geometriques/Whittaker-Henderson, et par Makeham pour la methode dite ”classique” et puispour la methode de Kaplan- Meier que l’on a bootstrappee. On notera que les testsd’adequation au modele de Makeham sont egalement verifies a partir de ces taux.

51

Page 52: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 3.17 – Comparaison pour la methode classique avant, apres lissagegeometrique et apres Makeham

Figure 3.18 – Comparaison pour la methode classique avant, apres lissage W-H etapres Makeham

Ci-dessus les resultats pour les qx de la methode classique apres lissage geometriqueet lissage de Whittaker - Henderson. Dans les deux cas l’ajustement de Makehamsemble etre proche des taux lisses.

52

Page 53: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 3.19 – Comparaison pour la methode Kaplan- Meier avant, apres lissagegeometrique et apres Makeham

Figure 3.20 – Comparaison pour la methode Kaplan- Meier avant, apres lissageW-H et apres Makeham

Ci-dessus les resultats pour la methode de Kaplan-Meier bootstrappee apres leslissages geometriques et de Whittaker-Henderson.

L’ajustement prenant comme periode de reference la plage [25, 65] ans permetd’affiner le lissage aux ages eleves, ce que ne faisait pas le lissage geometrique. On serend compte que ce lissage va a priori sur-estimer la mortalite a partir de 68 ans parrapport a l’experience mais le manque de donnees aux extremites peut aussi sous-

53

Page 54: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

estimer la mortalite. En se referant a une periode a laquelle on accorde du credit onpeut extrapoler sous conditions que nos deces suivent une loi de Makeham, ce qui aete verifie prealablement.

Figure 3.21 – Comparaison du lissage de Makeham pour les qx classiques et Kaplan-Meier Bootstrappes

Comme nous l’avons vu precedemment la difference entre la courbe de Kaplan-Meier et celle de Hoem est quasiment nulle, ce qui est attendu car on modelisela meme mortalite sous-jacente. Une fois l’ajustement realise, on peut observer leresultat de la regression sur ces qx ajustes. Voici ici les resultats de l’ajustement deMakeham.

54

Page 55: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 3.22 – Regression lineaire apres ajustement de Makeham

Cet alignement est coherent avec les resultats theoriques.L’ajustement realise, il est important de mesurer la qualite de l’ajustement, a savoirsi les taux ajustes sont une bonne representation de la mortalite. L’idee va doncetre de verifier que les differences entre les taux ajustes et les taux lisses sont bienaleatoires et que la distribution des taux ajustes est bien en accord avec les hy-potheses faites. Nous allons ainsi effectuer un test d’adequation du Khi-Deux et untest d’adequation de Kolmogorov-Smirnov.

3.6.1 Test d’adequation du Khi-Deux

Le test d’adequation du χ2 va nous permettre de voir qu’il n’y a pas eu dedeformation non aleatoire lors de l’ajustement de Makeham sur les qx lisses.

On va etudier la variable suivante en notant qx les taux lisses, q∗x les taux ajusteset Ex l’exposition a l’age x :

χ20 =

65∑x=25

(qx − q∗x)2

q∗x/Ex

Cette variable doit suivre une loi du χ2 a 37 degres de libertes puisque nousavons 65− 25 + 1 = 41 ages, 3 parametres estimes pour l’ajustement de Makeham.Le nombre de degres de liberte est donc de 41 − 3 − 1 = 37. Nous accepteronsl’hypothese selon laquelle les ecarts entre les taux ajustes et les taux lisses sont dusau hasard si χ2

0 < χ2 ou χ2 est donnee par une table. Voici les differentes valeurstrouvees pour χ2

0 :– Pour la methode de Hoem et lissage Geometrique : χ2

0 =10.01– Pour la methode de Hoem et Whittaker - Henderson : χ2

0 =13.79– Pour Kaplan - Meier boostrappe et lissage Geometrique : χ2

0 =12.22– Pour Kaplan - Meier boostrappe et Whittaker - Henderson : χ2

0 =15.88

55

Page 56: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Pour un seuil de 5%, l’adequation de l’ajustement est bonne pour χ20 < χ2 = 52.192

Nos 4 differents ajustements de Makeham sont valides par le test du χ2.

3.6.2 Test d’adequation de Kolmogorov-Smirnov

Le test d’ajustement de Kolmogorov-Smirnov est un test non parametrique quipermet de tester l’hypothese H0 selon laquelle les donnees observees sont engendreespar la meme loi de probabilite qu’un autre echantillon comme etant un modeleconvenable. Dans ce test, les calculs sur les lois de probabilite se font sur les fonctionsde repartition : on mesure l’ecart entre la fonction de repartition theorique et lafonction de repartition observee. On considere ainsi les fonction de repartition F etF ∗ des variables aleatoires duree de survie sur l’intervalle d’age 25-65 ans que l’onveut comparer. On souhaite tester :

– l’hypothese H0 : F = F ∗

– contre H1 : F 6= F ∗

La statistique de Kolmogorov-Smirnov avec k un age entre 25 et 65 ans, n le nombrede valeurs pour lesquels on dispose d’une estimation de F (k) et F ∗(k) est ici :

– Dn(k) = F (k + 1)− F ∗(k) si F (k) > F ∗(k)

– Dn(k) = Max(F (k + 1)− F ∗(k), F ∗(k)− F (k)

)si F (k) ≤ F ∗(k) ≤ F (k+ 1)

– Dn(k) = F ∗(k)− F (k) si F (k + 1) < F ∗(k)

En notant Dn = max(Dn(k)), sa distribution ne depend pas de F ∗ ni de F sousl’hypothese que les qx lisses et ajustes ont la meme fonction de repartition.

Soit Yα defini tel que :P[√nDn > Yα] = α

On rejettera l’hypothese H0 si√nDn > Yα Lorsque H0 est vraie, Dn suit asympto-

tiquement une loi sur R+ definie par sa fonction de repartition :

K(y) =n=+∞∑n=−∞

e−2ny

L’approximation de Feller nous permet d’approcher

P[√nDn > Yα]

par e−2y2 soit α = e−2y2

Nous allons nous servir de ce test pour detecter les mauvais ajustements. Unevaleur trop grande de Dn ou une valeur trop faible de α indique que l’ajustementn’est pas satisfaisant. Voici les resultats obtenus pour n=41 (=65-25+1) :

– Pour la methode de Hoem et lissage Geometrique : Dn = 0.0488 et α = 99.5%– Pour la methode de Hoem et Whittaker - Henderson : Dn = 0.0732 et α =

98.9%– Pour Kaplan - Meier Boostrappe et lissage Geometrique : Dn = 0.0732 etα = 99.9%

– Pour Kaplan - Meier Boostrappe et Whittaker - Henderson : Dn = 0.0732 etα = 99.9%

56

Page 57: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Pour chaque methode, l’adequation de l’ajustement est bonne au vu des niveauxde significativite trouves. Les resultats de ce test sont confirmes en tracant les fonc-tions de repartitions des qx ajustes et lisses sur la plage 25 a 65 ans. Par ordre :Methode de Hoem, lissage geometriqueMethode de Hoem, lissage par Whittaker - HendersonMethode de Kaplan - Meier, lissage geometriqueMethode de Kaplan - Meier, lissage par Whittaker - Henderson

Figure 3.23 – Fonction de repartition des qx lisses et ajustes

Figure 3.24 – Fonction de repartition des qx lisses et ajustes

57

Page 58: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 3.25 – Fonction de repartition des qx lisses et ajustes

Figure 3.26 – Fonction de repartition des qx lisses et ajustes

Les differences entre les fonctions de repartition sont faibles dans tous les cas.Cela nous conforte dans l’idee de ne pas rejeter le lissage. Nous ne tracerons pas icil’ajustement hors zone d’ajustement mais nous pourrions nous rendre compte queles queues de distribution sont moins proches.

58

Page 59: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

3.6.3 Test d’identite lineaire

Le test d’identite lineaire va nous permettre de tester la proximite entre les tauxlisses et les taux ajustes a partir d’une regression lineaire. L’idee est de considererla regression lineaire : q∗x = aqx + bL’hypothese H0 que nous testons est : a = 1 et b = 0 contre H1 : a 6= 1 ou b 6= 0

Ce que nous allons faire pour realiser ce test est effectuer sous R la regressiony = ax+ b et nous interesser a la significativite du test pour b=0. Nous accepteronsl’hypothese b=0 si la p.value est superieure a 5%. Puis nous effectuerons la regres-sion y = ax en forcant le coefficient b a 0 et nous regarderons si 1 est bien dansl’intervalle de confiance a 95% de a. Nous comparerons les 2 tests du point de vuedu R2 pour accepter a=1 et b=0.Voici les resultats obtenus :

– Pour la methode de Hoem et lissage Geometrique : p.value = 0.29 pour l’in-tercept, puis l’intervalle de confiance pour a est [0.995, 1.026] et le R2 de ladeuxieme regression est 99.8% compare a R2 = 99.5% Les coefficients de laregression donnent : q∗x = 1.02qx − 0.00004366

– Pour la methode de Hoem et Whittaker - Henderson : p.value = 0.48 pourl’intercept, puis l’intervalle de confiance pour a est [0.989, 1.025] et le R2 dela deuxieme regression est 99.7% compare a R2 = 99.4% Les coefficients de laregression donnent : q∗x = 1.015qx − 0.00003397

– Pour Kaplan - Meier Boostrappe et lissage Geometrique : p.value = 0.324pour l’intercept, puis l’intervalle de confiance pour a est [0.987, 1.030] et le R2

de la deuxieme regression est 99.8% compare a R2 = 99.5% Les coefficients dela regression donnent : q∗x = 1.02qx − 0.00004293

– Pour Kaplan - Meier Boostrappe et Whittaker - Henderson : p.value = 0.0.517pour l’intercept, puis l’intervalle de confiance pour a est [0.984, 1.025] et le R2

de la deuxieme regression est 99.3% compare a R2 = 98.4% Les coefficients dela regression donnent : q∗x = 1.011qx − 0.00003264

Les tests nous indiquent que le modele ou b=0 n’est pas moins significatif que lemodele ou on estime b. Avec chaque methode on peut considerer l’hypothese q∗x = qxvraie et decider H0 vraie.

Il reste maintenant a etudier les residus pour verifier l’hypothese de normalitedes residus, ou encore detecter des points aberrants.

Etude des residus

Les residus sont la difference entre les q∗x ajustes et les qx lisses sur lesquels ona ajuste. Ces residus doivent etre normaux si on veut attribuer a cette differenceobservee le credit de bruit aleatoire et non pas d’une deformation due a une tendance.Nous avons construit pour nos 4 courbes les residus correspondants ainsi que leursintervalles de confiance a 95%. Les residus juges non aberrants seront contenus al’interieur de ces intervalles de confiance. Ceux-ci sont crees a partir de l’ecart-typeestime des residus a partir de la formule :

σres =

√√√√x=65∑x=25

(q∗x − qx)2

n− k

59

Page 60: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

avec n = 41 le nombre d’observations et k = 3 le nombre de parametres estimes parle modele.

Ci-dessous sont les resultats graphiques des residus des qx ajustes et lisses sur laplage 25 - 65 ans. Par ordre :Methode de Hoem, lissage geometriqueMethode de Hoem, lissage par Whittaker - HendersonMethode de Kaplan - Meier, lissage geometriqueMethode de Kaplan - Meier, lissage par Whittaker - Henderson

Figure 3.27 – Residus et intervalle de confiance a 95%

Dans ce premier cas, on n’observe a priori pas de tendances des residus. Lamoyenne des residus est de 1.95 · 10−21 soit tres proche de 0. On observe des pointsaberrants aux ages 48, 59 et 60 ans. L’ajustement est loin du lissage pour ces points.

60

Page 61: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 3.28 – Residus et intervalle de confiance a 95%

Dans ce deuxieme cas, on n’observe a priori pas non plus de tendances des residus.La moyenne des residus est de −7.46 · 10−21 soit tres proche de 0. On observe unpoint aberrant aux ages 47, 58 jusqu’a 60 ans. Il y a quatre ages consecutifs quisont hors de l’intervalle de confiance. L’ajustement est eloigne du lissage sur 4 agesconsecutifs.

Figure 3.29 – Residus et intervalle de confiance a 95%

Dans ce troisieme cas, on n’observe a priori pas non plus de tendances des residus.La moyenne des residus est de −9.76 · 10−21 soit tres proche de 0. Seuls trois pointssortent de l’intervalle de confiance, ce sont les ages 48, 59 et 60.

61

Page 62: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 3.30 – Residus et intervalle de confiance a 95%

Dans ce dernier cas, on n’observe a priori pas non plus de tendances des residus.La moyenne des residus est de −1.15 · 10−20 soit tres proche de 0. Seuls trois pointssortent de l’intervalle de confiance, ce sont les ages 48, 59 et 60.

Une remarque est que les ages apparaissant ”aberrants” sont tres proches pourtoutes les methodes. On retrouve quasiment partout les ages 47, 48, 59 et 60 ans.Nous devrons garder ces imperfections en tete une fois la table terminee pour verifiersi ces points aberrants ont un impact significatif sur la projection de la mortalite ounon.

Pour continuer avec la normalite des residus, un histogramme des residus va nousdonner une conviction (et non une preuve) sur la normalite des residus. Toujoursdans le meme ordre, sont presentes ci-apres ces histogrammes.

62

Page 63: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 3.31 – Histogramme des residus

Figure 3.32 – Histogramme des residus

63

Page 64: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 3.33 – Histogramme des residus

Figure 3.34 – Histogramme des residus

Ces histogrammes ont un ”air” de loi normale mais il faut faire tres attention caravec le peu de residus que nous avons (41) les resultats graphiques des histogrammessont tres sensibles a la segmentation.

Il est ainsi difficile de conclure quoi que ce soit sur la normalite des residus hormisle fait qu’on ne peut pas rejeter la normalite de par les graphiques. Il n’y a pas nonplus une asymetrie flagrante resortant d’un des graphiques. Les lissages geometriquessemblent montrer une moyenne ecartee de 0 mais l’echelle et les moyennes contre-

64

Page 65: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

disent cette idee. Il est probablement preferable de regarder les qqplot des residusen utilisant la fonction qqnorm de R.

Figure 3.35 – qqnorm des residus de Hoem Geometrique

Figure 3.36 – qqnorm des residus de Hoem Whittaker-Henderson

65

Page 66: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 3.37 – qqnorm des residus de Kaplan-Meier Geometrique

Figure 3.38 – qqnorm des residus de Kaplan-Meier Whittaker-Henderson

Pour les 4 graphiques, les extremites s’eloignent de la bissectrice ce qui pourraitremettre en cause la normalite des residus. Encore une fois, 41 residus semble etrepeu pour pouvoir se fier a ces resultats.Toutes ces remarques sur la normalite des residus et sur les qualites de l’adequationde l’ajustement nous aideront a choisir une courbe de mortalite representant aumieux notre portefeuille. Il reste cependant une derniere etape pour achever laconstruction de la courbe de mortalite : c’est la fermmeture de la table.

66

Page 67: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

3.7 Fermeture de la table par une regression logit

Le lissage par la methode de Makeham, bien que tres souvent utilise par lesassureurs, ne convient pas toujours et impose aux qx de suivre une allure exponen-tielle, ce qui a pour tendance de les surestimer. Le manque egalement d’experienceaux ages jeunes et aux ages les plus grands nous amene egalement a fermer la tableplutot que d’utiliser l’ajustement de Makeham au complet. Les tests statistiques quenous avons realises ci-dessus pour l’ajustement sur la periode 25 - 65 ans n’auraientpas ete valides sur des periodes plus grandes de 10 ou 20 ans.Comme nos extremites des courbes de mortalite ne sont pas tres fiables par manqued’exposition, nous allons fermer ces tables par une regression dite logit. Cela signifieque nous allons remplacer les valeurs des qx pour les plages [18 : 24] et [66 : 79]par des qx regresses (en logit) par rapport a une table de reference. Le choix d’unetable de reference n’est pas facile et nous avions 2 possibilites. La premiere etaitd’utiliser une table certifiee en 2005 sur le portefeuille mais compte-tenu de l’ancien-nete de la certification nous preferons construire nous meme une table de referenceplus prudente. Nous avons donc construit une table de reference en ponderant par lesexe-ratio les tables TF 00-02 et TH 00-02. Ce que nous appelons sexe-ratio par ageest le rapport Homme

Homme+Femme pour un age donne en exposition ou en nombre selonnotre choix. La construction de la table de reference est donc basee sur la formule :

tabrefx = TH00− 02x × SexeRatiox + TF00− 02x × (1− SexeRatiox)

On remarquera pour l’instant qu’aucun abattement n’est applique. Une fois la tablede reference construite, on va effectuer une regression lineaire sur les logit. Rappelonsd’abord la definition du logit et la regression lineaire que nous allons effectuer.

logit(x) = ln

(x

1− x

)Nous faisons l’hypothese qu’il existe une relation affine entre les logits de notre tablesur [25 : 65] et la table de reference sur [25 : 65]. En resume il va falloir estimer lescoefficients a et b tels que

logit(qx) = a · logit(qrefx ) + b

Une fois que nous avons effectue la regression lineaire et ainsi obtenu les co-efficients a et b, nous pouvons calculer les nouveaux qx sur les plages [18 : 24] et[66 : 79].

logit(qx) = a · logit(qrefx ) + b

⇐⇒ qx1− qx

= exp(b) ·

(qrefx

1− qrefx

)a

⇐⇒ qx ·

(1 + exp(b) ·

(qrefx

1− qrefx

)a)= exp(b) ·

(qrefx

1− qrefx

)a

⇐⇒ qx =exp(b) ·

(qrefx

1−qrefx

)a1 + exp(b) ·

(qrefx

1−qrefx

)a

67

Page 68: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

La table finale prolongee par logit ressemble donc a ceci :

∀x ∈ [18, 24] qx = qlogitx

∀x ∈ [25, 65] qx = qClassique ou KM, Geom ou WHx

∀x ∈ [66, 79] qx = qlogitx

Voici dans un premier temps une comparaison entre les tables de referenceconstruites, la TH 00-02, TF 00-02 et la table certifiee en 2005.

Figure 3.39 – Comparaison des qx pour les differentes tables de reference possibles

Deux remarques viennent immediatement a l’esprit en regardant ce graphique.La premiere est que la reference en exposition ou en nombre est quasiment identique.Cela s’explique par le fait que les populations observees le sont pratiquement toutessur la periode entiere d’observation. La deuxieme observation est que notre table dereference est au-dessus de la table certifiee en 2005. On peut dire que soit la mortalites’est aggravee en quelques annees, soit que nos tables de reference construites sonttrop prudentes. Rappelons que nous n’avons fait aucun abattement sur ces tableset que compte-tenu de l’effet de selection medicale, il serait adapte d’en appliquer un.

Verifions egalement que les logit sont bien alignes. Le graphique ci-dessousmontre la droite de la regression lineaire des logit et en points les valeurs pour lesages [25, 65]. Le R2 de la regression est de 0.994 et nous acceptons ainsi la regression.

68

Page 69: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 3.40 – Validation graphique de la regression logit pour KMB lissegeometriquement

Nous avons fini de mettre en place les diverses methodes de calculs et de lissagedes qx. Il est maintenant important d’effectuer des comparaisons, de comprendred’ou viennent les differences et de faire un choix sur la table a retenir. Le graphiquesuivant, 3.41 resume toutes les courbes que nous avons a notre disposition pourl’instant.

Figure 3.41 – Resume des diverses courbes a notre disposition

Afin de mieux lire ce graphique, precisons que la courbe violette est dissimuleesous la courbe verte, sous la courbe rouge et sous la courbe jaune du fait que les

69

Page 70: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

methodes de Kaplan-Meier et de Hoem sont quasiment identiques. Nos 2 methodessont toutes les 2 moins prudentes que la table certifee en 2005, indiquant uneamelioration de la mortalite du portefeuille. En ”zoomant” sur les periodes 19-29et 30-40 on observe un leger ecart entre les differentes courbes, notamment sur laperiode aux ages plus jeunes. Ceci s’explique par la moindre quantite de donneesdisponibles pour cette tranche d’age. La courbe modelisee par Hoem et Whittaker-Henderson semble la plus prudente et lq courbe de Kaplan-Meier Geometriquesemble etre la courbe la moins prudente. Les 2 autres courbes semblent etre com-prises entre les 2 citees precedemment en se croisant en certains points.

Figure 3.42 – Resume des diverses courbes a notre disposition

70

Page 71: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 3.43 – Resume des diverses courbes a notre disposition

Nous allons comparer plus en details ces differentes tables construites dans lapartie suivante, du point de vue quantitatif mais egalement du point de vue quan-titatif.

71

Page 72: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Chapitre 4

Analyse des resultats

4.1 Comparaisons diverses entre les methodes

Les resultats de nos lissages et ajustements vont etre compares aux courbes dereferences dont la table du portefeuille certifiee en 2005. Il faut tout d’abord com-prendre comment cette table avait ete construite pour mieux comparer. La table aete certifiee par un cabinet d’actuaire certifie. Un rapport reprenant la methodologiede construction de la table a ete delivre a SOGECAP. Tout d’abord, les donneesutilisees sont celles des annees 2002, 2003 et 2004. La table qui a ete adoptee estune table unisexe compte-tenu de la stabilite des sexe-ratio pour ces annees. Voicila methode :

– Calcul des taux bruts de mortalite en rapportant, pour chaque age, le nombrede deces a l’effectif soumis au risque, sur la plage [25, 65] ans.

– Lissage de la table brute ainsi obtenue pour reduire les fluctuations d’echantillonnagea l’aide d’une moyenne mobile sur 5 ans.

– Ajuster enfin les taux lisses a un modele de Makeham par la methode dumaximum de vraisemblance sur la plage [25,65] ans

– Prolonger la table sur la plage [24, 79] ans a l’aide d’un ajustement logistique.

La table finalement retenue pour la certification est construite en prenant lestaux ajustes entre 30 et 59 ans et, pour les tranches 25-29 ans et 60-65 ans, les tauxajustes de la borne superieur de l’intervalle de confiance. Pour les ages inferieurs a25 ans et superieurs a 65 ans une projection par la methode du logit est effectuee.

72

Page 73: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 4.1 – Comparaison des qx des 2 methodes geometriques apres fermeturelogit

Comme nous l’avons vu precedemment, les modelisations de Kaplan-Meier et deHoem sont tres proches. Elles sont toutes les deux moins prudentes que la table dereference (qui n’est pas abattue et explique ainsi cet ecart non negligeable). Elles sontegalement moins prudentes que le table certifiee en 2005, qui a conditions generalesequivalentes est en accord avec l’idee que la mortalite s’ameliore avec le temps dansle sens ”table prospective” et non pas population vieillissante. En ”zoomant” surla periode 18-50 ans on observe egalement la bosse de mortalite qui est beaucoupmoins presente dans notre modelisation que dans la table de reference et la tablecertifiee. Pour finir, on remarque que la table certifiee en 2005 est moins reguliereque nos tables lissees ce qui indique un choix different dans nos criteres de fideliteet de regularite. Le fait que la table certifiee ait ete ajustee sur la borne superieurede l’intervalle de confiance a 95% peut lui donner ce cote plus volatil.

73

Page 74: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 4.2 – Comparaison des qx des 2 methodes geometriques apres fermeturelogit

Nous remarquons avec le graphique ci-dessous que ces commentaires sont adap-tables avec le lissage de Whittaker - Henderson.

Figure 4.3 – Comparaison des qx des 2 methodes W-H apres fermeture logit

A titre indicatif, voici ci-dessous dans les 2 graphiques suivant une comparaisondes qx ”par etape”. On s’apercoit qu’une fois un premier lissage effectue les courbessont quasiment toutes les memes. Makeham semble tout de meme avoir tendance asur-estimer la mortalite.

74

Page 75: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Figure 4.4 – Comparaison des qx classique au cours des differentes etapes

Figure 4.5 – Comparaison des qx Kaplan - Meier au cours des differentes etapes

Il est maintenant temps de verifier la legitimite des methodes en realisant uneetude macroscopique sur le portefeuille. L’idee est d’appliquer les tables de mortalitemodelisees a toutes nos donnees en n’observant pas la derniere annee. Nous allonsainsi estimer par nos modeles la mortalite sur la derniere annee et comparer a larealite observee.

75

Page 76: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

4.2 Backtesting, credibilite et choix d’une table

4.2.1 Projections et backtesting

Nous avons fait tourner le programme R afin de recuperer la sinistralite et l’ex-position pour les annees 2006 a 2009 afin de resimuler la mortalite pour l’annee2010 et de la comparer a la realite. L’annee 2010 complete donne une exposition de267,223 annees-polices. Il y a normalement plus de personnes en nombre observeespuisque chacun ne souscrit pas un contrat au 1er janvier. Le nombre de deces pourl’annee 2010 est de 485. Voici ci-dessous un comparatif des differentes projectionsde la mortalite pour 2010 basee sur l’exposition reelle observee.

Table 4.1 – Projections par les diverses methodes

Realite Hoem G Hoem WH KM G KM WH Certif05

Est 2010 485 502 505 500 503 628Est 2006/2010 2308 2311 2324 2303 2316 2909

Regardons les resultats par tranche d’age pour la projection des sinistres 2010 :

Table 4.2 – Projections pour 2010 par tranche d’age

Realite Hoem G Hoem WH KM G KM WH Certif05

18 - 24 ans 8 5 5 5 5 1525 - 65 ans 401 416 418 415 418 52266 - 80 ans 76 80 80 80 80 92

Comme attendu, les projections sont toutes tres proches de la realite, sur-estimantde 15 a 20 deces selon la methode. La table certifiee sur-estime tres largement la mor-talite du fait de sa prudence lors de la construction. Quand on regarde les resultatsdes projections par tranche d’age, on note que les differences viennent de la partiecentrale et non pas des parties ayant ete modelisees par une regression logit. Uneautre remarque est que les lissages Geometriques et de Whittaker-Henderson sontequivalents en termes de resultats puisque sur environ 500 deces il n’y a que 3 decesd’ecart entre ces 2 lissages soit 0.6% d’ecart. Utilisons maintenant la credibilite pourestimer nos differents Best Estimates.

4.2.2 Credibilite

Pour avoir credibilite totale, avec un erreur de 5% et un niveau de confiance

de 95%, nous devons avoir n = 1537 =(z1−0.05/2

0.05

)2comme nous l’avons vu dans

l’exemple 1.4.4.2 . Nous n’avons pas 1537 deces sur l’annee 2010 et allons donc

utiliser la credibilite partielle par Z = min

(1;√

Expn

).

On remarque est que la credibilite a ramene les methodes de Kaplan-Meier et deHoem vers des resultats encore plus proches de l’observation que precedemment. Latable certifiee en 2005 donne toujours un Best Estimate plus grand et plus prudent.Cela peut suggerer l’envie de certifier une nouvelle table dans le cadre de calcul d’uneMCEV par exemple. Meme si nous n’avions pas assez d’experience pour donnercredibilite totale a l’experience, nous en avions quand meme assez pour attribuer

76

Page 77: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Table 4.3 – Credibilite sur nos resultats

Classique G Classique WH KM G KM WH Certif05

Experience 485 485 485 485 485Estimation 502 505 500 503 628Exp/Est 96.6% 96.0% 97.0% 96.4% 77.2%Credibilite 56.2% 56.2% 56.2% 56.2% 56.2%BE 98.1% 97.8% 98.3% 97.9% 87.2%BE Estime 493 494 492 493 548

56% de credibilite a l’experience (pour une erreur de 5% et un niveau de confiancede 95%).Il est maintenant temps de considerer tout ce que nous avons vu pour faire un choixde table.

4.2.3 Choix d’une table pour modeliser la mortalite

Il est clair que le choix d’une methode plutot qu’une autre est difficile mais ilest important de garder en tete que la table de mortalite doit avoir ete construitea partir de toutes les informations disponibles, qu’elle doit avoir une forme a prioriattendue, qu’elle doit etre coherente avec l’experience. S’il y a une methode quidonne une certaine incoherence entre les taux alors il ne faudra pas la privilegier.Il est important egalement de verifier que les taux de mortalite sont croissants avecl’age (idee que la mortalite s’aggrave avec l’age) mais egalement de verifier que lesdifferences premieres des taux de deces augmentent avec l’age. Il faut garder entete que des exceptions existent comme la mortalite aux premiers ages de la vie, lamortalite aux ages tres eleves et egalement la mortalite accidentelle touchant parti-culierement les jeunes de 18 a 25 ans et creant une bosse de mortalite. Finalement,dans une population homogene, les femmes ont une mortalite moins importanteque les hommes et ceci pour tout age. Une fois ces criteres verifies, les criteres deregularite et de fidelite peuvent aider a quantifier la qualite des constructions descourbes, en sus des tests de validation des lissages et des ajustements. L’etude desratio Experience/Estimation permet de controler de maniere pragmatique si la tablede mortalite modelisee reproduit la mortalite d’experience.

Au terme des differents tests effectues, des comparaisons des courbes aux tablescertifiee et de reference et des resultats des projections auxquelles on a applique lacredibilite par la suite, nous en arrivons a la conclusion suivante :

– Si l’idee de la construction de la table est de creer une table approchant au pluspres la mortalite observee dans un but d’audit interne, de calcul d’embeddedvalue ou de faire certifier une table dans un de provisionnement, les deuxmethodes de Kaplan-Meier et de Hoem sont a appliquer. Il est important deverifier que les 2 tables ainsi creees sont tres proches car cela permet d’eviterdes erreurs de construction. Il faut egalement tenir compte du temps disponiblepour creer la table car la methode de Kaplan-Meier est plus delicate a mettreen place. Elle demande en effet beaucoup de verifications dans les donneesmais aussi dans leur traitement.

– Concernant le type de lissage a utiliser, au vu des resultats observes, le lissage

77

Page 78: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

geometrique sur 5 ans est a recommander de par sa rapidite a mettre enplace. Le lissage de Whittaker-Henderson peut egalement etre mis en place depar sa relative facilite a se procurer des codes R l’implementant. Il offre unemeilleure adaptativite quant aux criteres de lissage et de fidelite. On preconiseici le lissage geometrique car nous avons beaucoup de donnees et que le lissagen’est pas volatil sauf aux ages aux extremites mais si nous avions un troud’observation vers 40ans alors il est fort recommander d’utiliser la methode deWhittaker-Henderson.

4.2.4 Suivi annuel

La reglementation francaise permet la certification de table pour des lois demortalite ou des lois de maintien en arret de travail. Afin d’etre certifiee, une tabledoit avoir ete controlee dans toutes les etapes de sa construction. Elle doit etreetudiee concernant son niveau de prudence, son perimetre et sa periode d’utilisation.Que la table soit certifiee ou non, il reste tout de meme une etape cle a respectersous risque de ne plus pouvoir l’utiliser. C’est le suivi annuel de la table consistant averifier au fur-et-a-mesure du temps de l’adequation de la table a l’experience, maisaussi de la relative prudence de la table.Des lors qu’une modification est effectuee (changement dans la commercialisationdes contrats notamment des agences de souscriptions, politique tarifaire agressive,changement dans les sommes assurees, etc...) il faut s’assurer qu’elle ne cree pasune deformation trop importante de la population assuree. Il faut donc en mesurerl’impact et se poser la question de savoir si la table est toujours pertinente. Dans lecas de la construction d’une table unisexe, l’evolution du sex-ratio est importante.L’evolution de la repartition par age (ou par generation) de la population est asurveiller car elle pourrait induire une imprudence locale pour certains ages.

78

Page 79: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Conclusion

L’objectif de ce memoire etait de construire une table de mortalite afin de pou-voir estimer le Best Estimate d’un portefeuille de temporaires deces de SOGECAP.L’entreprise a voulu mettre en oeuvre tout un faisceau de methodes pour construireune table d’experience qui sera utilisee par la suite pour le calcul du Best Estimate ,du SCR, de la MCEV ou de l’EEV.

Nous avons vu que la construction d’une table de mortalite demande beaucoupde precautions, notamment a cause de la proprete des donnees, des tests de valida-tion a effectuer et du credit que l’on accorde aux donnees. La construction d’unetable de mortalite par la methode de Kaplan - Meier semble representer le risque demaniere aussi precise qu’une methode dite ”classique” d’exposition, donnant toutesles deux une mortalite tres proche de l’experience. Ceci est vrai dans notre exemple,l’estimateur de Kaplan-Meier bootstrappe est compris dans l’intervalle de confiancea 95% de l’estimateur de Hoem, mais ce resultat doit etre vrai egalement en general,indiquant une erreur de construction de la table si ce n’est pas le cas. Des lissagessont egalement importants afin de beneficier d’une certaine regularite avant ajuste-ment mais nous n’avons pas pu decider au niveau de notre etude de la predominanced’une methode plutot qu’une autre. Il est probable que l’ajustement de Makehamannihile en partie l’effet de ces deux pre-lissages. Les methodes de lissages ne donnentpas souvent de bonnes estimations des risques aux extremites et nous avons donc duutiliser une fermeture de table par une regression logit sur une table de reference.Ceci a permis d’obtenir une queue de distribution acceptable pour les ages ou peud’exposition etait disponible et d’autant plus prudente de par l’absence d’abatte-ment sur la table de reference utilisee.

De par la qualite, la diversite et l’abondance de donnees sur ce portefeuille,nous avons pu nous concentrer sur la partie modelisation. Parfois, les donnees de-mandent plus de traitements, d’ajustements et corrections de points aberrants, d’ex-trapolation si des annees ne sont pas completes. Il faut alors retenir qu’avant toutemodelisation la partie comprehension des donnees est la plus importante. En effet,il n’y a pas de sens a etudier et challenger differentes methodes pour construire unetable si le support de la modelisation consiste en des donnees biaisees.

Enfin, il existe d’autres methodes qui meritent d’etre envisagees dans la construc-tion d’une table de mortalite. On pourrait penser a utiliser une loi de Gompertz quine prend pas en compte le deces accidentel de Makeham, une loi de Weibull quidonne le taux de hasard comme une puissance de l’age et dont on peut faire l’ana-logie avec la defaillance technique d’un systeme ; une loi de Heligman-Pollard quimodelise la mortalite infantile en plus du modele de Makeham (inutile si la popu-

79

Page 80: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

lation assuree est majeure) ; une approximation de Kannisto semblable au modelelogistique. On pourrait egalement penser a des lissages parametriques comme lamethode des splines se rapprochant d’un lissage polynomial ; des lissages non pa-rametriques comme Whittaker-Henderson mais avec des coefficients de poids non- tous egaux a 1 ; ou encore des modeles relationnels comme le modele de Coxou l’on suppose qu’il existe une relation entre la mortalite de la population ob-servee et celle d’une population de reference. Une derniere piste est la constructionde tables generationnelles qui prennent en compte l’evolution de la mortalite se-lon les generations. Les tables prospectives sont utilisees dans le calcul de la valeureconomique par exemple mais il est en general plus simple de construire une tableunidimensionelle quand on desire calculer un Best Estimate sur un produit de tem-poraire deces.

Finalement, SOGECAP a pour ambitions de realiser la meme etude sur le risqued’incapacite/invalidite pour son portefeuille d’assures emprunteurs et il est certainque certaines parties de ce memoire se reveleront utiles dans cette mission.

80

Page 81: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Bibliographie

[1] Olivier CLEMENT. Elaboration d’une table d’experience : comparaison demethodes de lissage analytique et d’ajustement statistique application a la po-pulation d’un regime de retraite marocain. Master’s thesis, EURIA, 2003.

[2] Commission d’Agrement. Lignes directrices mortalites, 06 2006. Version ap-prouvee apres consultattion des membres de l’Institut des Actuaires inseree entant que recommandation dans les regles professionnelles de l’Institut par leConseil d’Administration du 20 juin 2006.

[3] Bradley EFRON. Censored data and the bootstrap. Journal of the AmericanStatistical Association, 76 :1 – 8, 1981.

[4] FrederiPLANCHET. Divers codes r pour les modeles de durees. www.ressource-actuarielle.net.

[5] B. GOMPERTZ. on the nature of the function expressive of the law of humanmortality, and on a new mode of determining the value of life contingencies.Philosophical Transactions of the Royal Society of London, 115 :513 – 585,1825.

[6] Catherine HUBER. Une methode de reechantillonnage : le bootstrap., 2006.

[7] E.L. KAPLAN and P. MEIER. Nonparametric estimation from incompleteobservations. Journal of the American Statistical Association, 53 :457 – 481,1958.

[8] W.M. MAKEHAM. on the law of mortality and the construction of annuitytables. Journal of the Institute of Actuaries, 6 :301 – 310, 1860.

[9] Frederic HENGE Philippe DESPLANCHE Thibaud HAGER Gildas ROBERT.Les tables de mortalite, Juin 2007. Les dossiers techniques d’information Opti-mind.

[10] SOGECAP. Rapport de construction d’une table de mortalite. 2004.

[11] G. TAYLOR. A bayesian interpretation of whittaker-henderson graduation.IME, 11 :7 – 16, 1992.

81

Page 82: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Table des figures

2.1 Repartition en annees police de l’exposition par age . . . . . . . . . 252.2 Repartition en annees-police de l’exposition Homme par age . . . . . 252.3 Repartition en annees-police de l’exposition Femme par age . . . . . 252.4 Comparaison entre la pyramide des ages et le portefeuille . . . . . . 262.5 Comparaison entre la pyramide des ages et le portefeuille Hommes . 272.6 Comparaison entre la pyramide des ages et le portefeuille Femmes . 272.7 Comparaison des sexe-ratio entre la pyramide des ages et le portefeuille 27

3.1 Comparaison des qx bruts par age . . . . . . . . . . . . . . . . . . . 323.2 Intervalle de confiance a 95% asymptotique des qx bruts . . . . . . . 333.3 Exemple de troncatures et censures [OPTIMIND] [9] . . . . . . . . . 353.4 Exemple de courbe de survie de Kaplan - Meier . . . . . . . . . . . . 383.5 Comparaison des qx bruts KM par age . . . . . . . . . . . . . . . . . 383.6 Comparaison des qx avec et sans bootstrap pour Kaplan - Meier . . 413.7 Effet du bootstrap sur les qx Unisexe, Homme et Femme . . . . . . . 413.8 Biais par age en % des qx observes par KM . . . . . . . . . . . . . . 423.9 Comparaison des qx bruts entre la methode classique et Kaplan-Meier

Bootstrappee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433.10 Comparaison pour la methode classique avant et apres lissage geometrique 443.11 Comparaison pour la methode Kaplan- Meier avant et apres lissage

geometrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453.12 Comparaison pour les 2 methodes apres lissage Geometrique . . . . . 453.13 Comparaison des lissages pour les qx classiques Geometriques et Whit-

taker - Henderson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473.14 Comparaison pour la methode Kaplan-Meier avant, apres lissage geometrique,

Makeham et Whittaker Henderson . . . . . . . . . . . . . . . . . . . 473.15 Regression lineaire pour l’ajustement de Makeham sur lissage geometrique 493.16 Regression lineaire pour l’ajustement de Makeham sur Lissage Whit-

taker - Henderson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 503.17 Comparaison pour la methode classique avant, apres lissage geometrique

et apres Makeham . . . . . . . . . . . . . . . . . . . . . . . . . . . . 513.18 Comparaison pour la methode classique avant, apres lissage W-H et

apres Makeham . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 513.19 Comparaison pour la methode Kaplan- Meier avant, apres lissage

geometrique et apres Makeham . . . . . . . . . . . . . . . . . . . . . 523.20 Comparaison pour la methode Kaplan- Meier avant, apres lissage W-

H et apres Makeham . . . . . . . . . . . . . . . . . . . . . . . . . . . 523.21 Comparaison du lissage de Makeham pour les qx classiques et Kaplan-

Meier Bootstrappes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 533.22 Regression lineaire apres ajustement de Makeham . . . . . . . . . . . 54

82

Page 83: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

3.23 Fonction de repartition des qx lisses et ajustes . . . . . . . . . . . . . 563.24 Fonction de repartition des qx lisses et ajustes . . . . . . . . . . . . . 563.25 Fonction de repartition des qx lisses et ajustes . . . . . . . . . . . . . 573.26 Fonction de repartition des qx lisses et ajustes . . . . . . . . . . . . . 573.27 Residus et intervalle de confiance a 95% . . . . . . . . . . . . . . . . 593.28 Residus et intervalle de confiance a 95% . . . . . . . . . . . . . . . . 603.29 Residus et intervalle de confiance a 95% . . . . . . . . . . . . . . . . 603.30 Residus et intervalle de confiance a 95% . . . . . . . . . . . . . . . . 613.31 Histogramme des residus . . . . . . . . . . . . . . . . . . . . . . . . . 623.32 Histogramme des residus . . . . . . . . . . . . . . . . . . . . . . . . . 623.33 Histogramme des residus . . . . . . . . . . . . . . . . . . . . . . . . . 633.34 Histogramme des residus . . . . . . . . . . . . . . . . . . . . . . . . . 633.35 qqnorm des residus de Hoem Geometrique . . . . . . . . . . . . . . . 643.36 qqnorm des residus de Hoem Whittaker-Henderson . . . . . . . . . . 643.37 qqnorm des residus de Kaplan-Meier Geometrique . . . . . . . . . . 653.38 qqnorm des residus de Kaplan-Meier Whittaker-Henderson . . . . . 653.39 Comparaison des qx pour les differentes tables de reference possibles 673.40 Validation graphique de la regression logit pour KMB lisse geometriquement 683.41 Resume des diverses courbes a notre disposition . . . . . . . . . . . . 683.42 Resume des diverses courbes a notre disposition . . . . . . . . . . . . 693.43 Resume des diverses courbes a notre disposition . . . . . . . . . . . . 70

4.1 Comparaison des qx des 2 methodes geometriques apres fermeture logit 724.2 Comparaison des qx des 2 methodes geometriques apres fermeture logit 734.3 Comparaison des qx des 2 methodes W-H apres fermeture logit . . . 734.4 Comparaison des qx classique au cours des differentes etapes . . . . . 744.5 Comparaison des qx Kaplan - Meier au cours des differentes etapes . 74

83

Page 84: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Liste des tableaux

1.1 Exemple de credibilite . . . . . . . . . . . . . . . . . . . . . . . . . . 21

4.1 Projections par les diverses methodes . . . . . . . . . . . . . . . . . . 754.2 Projections pour 2010 par tranche d’age . . . . . . . . . . . . . . . . 754.3 Credibilite sur nos resultats . . . . . . . . . . . . . . . . . . . . . . . 764.4 Tables finales construites . . . . . . . . . . . . . . . . . . . . . . . . . 834.5 Tables finales construites (Suite) . . . . . . . . . . . . . . . . . . . . 84

Annexe A : Resultats des tables construites

On notera :

– qxbGM les qx par la methode classique, lissage geometrique, ajustes avec Ma-keham et fermes logistiquement.

– qxbWHM les qx par la methode classique, lissage Whittaker-Henderson, ajustesavec Makeham et fermes logistiquement.

– qxKMBGM les qx par la methode de Kaplan-Meier bootstrappes, lissage geometrique,ajustes avec Makeham et fermes logistiquement.

– qxKMBWHM les qx par la methode de Kaplan-Meier bootstrappes, lissageWhittaker-Henderson, ajustes avec Makeham et fermes logistiquement.

84

Page 85: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Table 4.4 – Tables finales construites

Age qxbGM qxbWHM qxKMBGM qxKMBWHM

0 0.00000000 0.00000000 0.00000000 0.000000001 0.00000000 0.00000000 0.00000000 0.000000002 0.00000000 0.00000000 0.00000000 0.000000003 0.00000000 0.00000000 0.00000000 0.000000004 0.00000000 0.00000000 0.00000000 0.000000005 0.00000000 0.00000000 0.00000000 0.000000006 0.00000000 0.00000000 0.00000000 0.000000007 0.00000000 0.00000000 0.00000000 0.000000008 0.00000000 0.00000000 0.00000000 0.000000009 0.00000000 0.00000000 0.00000000 0.00000000

10 0.00000000 0.00000000 0.00000000 0.0000000011 0.00000000 0.00000000 0.00000000 0.0000000012 0.00000000 0.00000000 0.00000000 0.0000000013 0.00000000 0.00000000 0.00000000 0.0000000014 0.00000000 0.00000000 0.00000000 0.0000000015 0.00000000 0.00000000 0.00000000 0.0000000016 0.00000000 0.00000000 0.00000000 0.0000000017 0.00000000 0.00000000 0.00000000 0.0000000018 0.00029469 0.00029657 0.00029313 0.0002955719 0.00033897 0.00034111 0.00033721 0.0003399620 0.00036077 0.00036305 0.00035892 0.0003618221 0.00036596 0.00036827 0.00036408 0.0003670222 0.00036451 0.00036681 0.00036264 0.0003655723 0.00036140 0.00036368 0.00035954 0.0003624524 0.00036244 0.00036472 0.00036057 0.0003634925 0.00028634 0.00028817 0.00028482 0.0002871926 0.00031261 0.00031460 0.00031097 0.0003135327 0.00034129 0.00034346 0.00033952 0.0003422928 0.00037261 0.00037496 0.00037070 0.0003736929 0.00040679 0.00040935 0.00040474 0.0004079630 0.00044411 0.00044689 0.00044190 0.0004453831 0.00048486 0.00048788 0.00048248 0.0004862332 0.00052934 0.00053263 0.00052678 0.0005308333 0.00057790 0.00058148 0.00057514 0.0005795134 0.00063092 0.00063480 0.00062795 0.0006326635 0.00068880 0.00069302 0.00068560 0.0006906836 0.00075198 0.00075657 0.00074854 0.0007540237 0.00082096 0.00082595 0.00081726 0.0008231738 0.00089626 0.00090169 0.00089229 0.0008986539 0.00097847 0.00098437 0.00097420 0.00098105

85

Page 86: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Table 4.5 – Tables finales construites (Suite)

Age qxbGM qxbWHM qxKMBGM qxKMBWHM

40 0.00106821 0.00107462 0.00106362 0.0010710141 0.00116618 0.00117315 0.00116125 0.0011692042 0.00127312 0.00128070 0.00126783 0.0012764043 0.00138987 0.00139811 0.00138419 0.0013934144 0.00151732 0.00152627 0.00151122 0.0015211545 0.00165644 0.00166618 0.00164990 0.0016605846 0.00180831 0.00181889 0.00180129 0.0018127947 0.00197409 0.00198559 0.00196656 0.0019789348 0.00215505 0.00216755 0.00214698 0.0021602849 0.00235257 0.00236616 0.00234393 0.0023582450 0.00256818 0.00258295 0.00255892 0.0025743051 0.00280352 0.00281957 0.00279361 0.0028101452 0.00306040 0.00307783 0.00304978 0.0030675553 0.00334077 0.00335972 0.00332941 0.0033484954 0.00364678 0.00366737 0.00363463 0.0036551355 0.00398076 0.00400313 0.00396778 0.0039897856 0.00434527 0.00436957 0.00433140 0.0043550157 0.00474307 0.00476947 0.00472826 0.0047535958 0.00517719 0.00520588 0.00516138 0.0051885559 0.00565094 0.00568210 0.00563407 0.0056632060 0.00616790 0.00620175 0.00614992 0.0061811461 0.00673200 0.00676876 0.00671284 0.0067462862 0.00734749 0.00738742 0.00732709 0.0073629163 0.00801903 0.00806239 0.00799732 0.0080356664 0.00875168 0.00879876 0.00872859 0.0087696265 0.00955094 0.00960206 0.00952640 0.0095702966 0.01020278 0.01025709 0.01017715 0.0102232267 0.01115475 0.01121379 0.01112753 0.0111768268 0.01219787 0.01226205 0.01216898 0.0122216869 0.01343606 0.01350631 0.01340529 0.0134619270 0.01484802 0.01492512 0.01481521 0.0148761671 0.01632509 0.01640930 0.01629028 0.0163555872 0.01819597 0.01828910 0.01815879 0.0182293773 0.01995870 0.02006016 0.01991942 0.0199947874 0.02216059 0.02227233 0.02211887 0.0221999475 0.02473485 0.02485848 0.02469053 0.0247779576 0.02748953 0.02762573 0.02744267 0.0275365377 0.03035587 0.03050498 0.03030661 0.0304068278 0.03346679 0.03362974 0.03341520 0.0335219179 0.03781871 0.03800072 0.03776426 0.0378795080 0.00000000 0.00000000 0.00000000 0.00000000

86

Page 87: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Annexe B : Code R

Code R : Lissage Geometrique

#Lissage eegomtrique

LissageGeom=function(t){

Result=t

for(y in (3) :(119))

{

Result[y]=(t[y-2]*t[y-1]*t[y]*t[y+1]*t[y+2]) ^(1/5)

}

Result [1]=t[1]

Result [2]=t[2]

Result [120]=t[120]

Result [121]=t[121]

return(Result)

}

Code R : Whittaker-Henderson

Ce code est de Frederic PLANCHET [4].

W_H=function(Tbruts ,Poids ,z,h)#

{

#eDclaration de la taille des variables#

p<<-nrow(Tbruts)

W=matrix(0,p,p)

v=matrix(0,z+1)

K=matrix(0,p-z,p)

M=matrix(0,p,p)

qlisse=matrix(0,p)

Tlisse=matrix(0,p)

Ecart=matrix(0,p)

# Construction du vecteur des poids W#

{

for (i in 1:p)

{

W[i,i]=Poids[i,1]

}

}

#Construction de la matrice K#

for (k in 0:z)

{

v[(k+1) ,1]=(-1)^(z-k)*factorial(z)/(factorial(k)*factorial(z-k))

}

for (j in 1:(p-z))

{

for (i in 1:(z+1))

{

K[j,i+j-1]=v[i,1]

}

87

Page 88: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

}

#Calcul des taux elisss#

M=W+h*t(K)%*%K

qlisse=solve(M)%*%W%*%Tbruts

for (i in 1:p)

{

Tlisse[i,1]= qlisse[i,1]

Ecart[i,1]= Tlisse[i,1]/Tbruts[i,1]

}

Tlisse <<-Tlisse

Ecart<<-Ecart

par(mfrow=c(1,2))

plot(Tbruts ,xlab="Age",main="Taux Bruts",adj=0.5, font=2,col=’red’,type="l"

)

plot(Tlisse ,xlab="Age",main="Taux eLisss",adj=0.5, font=2,col=’red’,type="l

")

return(cbind(Tlisse ,Ecart))

}

Chi2=function(qAj ,qLis ,Plage ,Expo)

{

chi=0

for (i in Plage)

{chi=chi+((qAj[i]-qLis[i])^2)/(qAj[i]/Expo[i])}

return(chi)

}

88

Page 89: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Code R : Kaplan - Meier

Pour utiliser ce code, vous devez avoir vos donnees dans une table t, avec les agesdes individus a l’entree et a la sortie en jours (Comprendre sortie comme la date defin d’observation si l’assure n’est pas sorti) et un indicateur de non-censure appeleis dead.

library(survival)

KMSurvfit=function(table){

tt=subset(table ,table$AgeEntreeJours <table$AgeSortieJours)

AgeEntreeJours_KM=as.numeric(tt$AgeEntreeJours)

AgeSortieJours_KM=as.numeric(tt$AgeSortieJours)

wSurv=Surv(AgeEntreeJours_KM/365.25 , AgeSortieJours_KM/365.25 ,tt$is_dead ,

type="counting")

w=survfit(wSurv~1, data=tt, type="kaplan -meier")

return(w)

}

#Fonction calculant les Qx a partir de la survie de KM

getQx=function(w){

AgeMin =0

AgeMax =120

S=as.vector (0:121)

for(x in AgeMin :( AgeMax +1))

{

S[x+1]= min(w$surv[w$time <=x])

}

return ((S[1:121] -S[2:122])/S[1:121])

}

#Obtention des qx de Kaplan -Meier a partir des 2 fonctions eeprcdentes

w=KMSurvfit(t)

qxKM=getQx(w)

Code R : Exemple de Kaplan-Meier

x <- Surv(c(1,1,2,2,2,3,3,3,4,4,4,4,4,5,5,5,5,6,6,7),c

(1,1,1,0,0,0,0,0,1,1,1,0,0,1,1,1,0,1,1,0))

summary(survfit(x~1))

plot(survfit(x~1),xaxt="n")

title(main="Courbe de survie par Kaplan -Meier des 20 individus")

axis(1,axTicks (1),label=c("Dimanche","Lundi","Mardi","Mercredi","Jeudi","

Vendredi","Samedi","Dimanche"))

89

Page 90: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Code R : Construction de la fonction de repartition

ProdQx=function(qx,i,n)

{

if(i<2){res=1} else

{

res=1

for (j in 1:(i-1))

{res=res*(1-qx[n+1-j])}

}

return(res)

}

Repartqx=function(qx)

{

F=1:121

F[1]=0

for (n in 1:120)

{ temp=0

for (i in 1:n)

{

if (i==1) {temp=temp+qx[n+1-i]}

else {temp=temp+qx[n+1-i]*ProdQx(qx,i,n)}

}

F[n+1]= temp

}

return(F)

}

Code R : Calcul des intervalles de confiance pour le boots-trap

IntConf2=function(a,Sim)

{ Sim=t(sapply (1: NROW(Sim), function(i) sort(Sim[i,])))

IC.perc <-matrix(1,nrow=nrow(Sim),ncol =3)

for(i in (1: nrow(Sim)))

{ IC.perc[i,1] <-Sim[i,max(1,floor(ncol(Sim)*(a/2)))]

IC.perc[i,2] <-mean(Sim[i,])

IC.perc[i,3] <-Sim[i,ceiling(ncol(Sim)*(1-a/2))]

}

return(IC.perc)

}

90

Page 91: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Code R : Simulation du Bootstrap

#Calcul de l’inverse de la fonction de erpartition pour un x edonn

InvRepart=function(Fx,x)

{

i=1

repeat {if(i>length(Fx))

{i=max(rank(Fx,ties.method="min"))+1

break}

else {if(x<Fx[i]){break} else {i=i+1}}

}

return(i-1)

}

#Simulation de n ages de loi Fx

rAge=function(n,Fx,Maxi)

{

Age=matrix(0,nrow=n,ncol =2)

Unif=runif(n,0,Maxi)

for (i in 1:n) {Age[i,1]= InvRepart(Fx ,Unif[i])

Age[i ,2]=1}

return(Age[order(Age[,1]) ,])

}

#Calcul de la fonction de erpartion empirique des n simulations da’ges

RepartEmp=function(rage)

{

Empcdf =0:120

n=length(rage [,1])

for(i in 1:121)

{

Empcdf[i]=sum(rage [,2][ rage[,1]<=i-1])/n

}

return(Empcdf)

}

#Bootstrap B fois

BootSim=function(Fx,B,n,Maxi)

{

Res=matrix(0,nrow =121, ncol=B+1)

Res [ ,1]=0:120

for (i in 1:B)

{Res[,i+1]= RepartEmp(rAge(n,Fx,Maxi))

}

return(Res)

}

91

Page 92: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Code R : Ajustement de Makeham

Ce code est de Frederic PLANCHET [4].

# Lissage par Makeham

#Taux conditionnel de survie : Makeham / h(x)=a+b*c^x

qxMakeham=function(a,b,c,x){1-exp(-a)*exp(-b/log(c)*(c-1)*c^x)}

#Ajustement par moindres ecarrs

getValeursInitiales=function(qxBrut ,xMin ,xMax){

#eDtermination des valeurs initiales pour Makeham (on les utilise aussi

pour Thatcher)

#On exploite le fait que ln(q(x+1)-q(x)) est ealign sur une droite de

pente ln(c)

q=pmax(qxBrut ,10^ -10) #on eenlve les valeurs nulles

x=as.vector(xMin:xMax)

y=log(pmax(abs(q[(xMin +1):(xMax +1)]-q[(xMin +2):(xMax +2)]) ,10^-10))

t=data.frame(cbind(x,y))

d=lm(y~x,data=t)

p=as.vector (1:3)

p[1]=2*10^-4 #a=Taux accident de base

p[3]= exp(d$coefficients [2]) #c=exp(pente)

p[2]= max(10^-10,-log(p[3])*exp(d$coefficients [1])/(p[3]-1)^2) #b

p

}

getEcart=function(qxBrut ,expo ,xMin ,xMax ,a,b,c,pond){

#Ecart quadratique entre les taux eestims et les taux bruts

#ePondrations par l’exposition eventuelle

w=pmin(1,as.vector (1:120))

if (pond){expo=expo [1:120]

w=expo/(qxBrut*(1-qxBrut))}

w[(is.na(w))|(is.infinite(w))]=0 #Pour les cas uo qxBrut =0 ou 1, on met

un poids nul

s=0

for (x in xMin:xMax){

s=s+w[x+1]*(qxMakeham(a,b,c,x)-qxBrut[x+1])^2

}

s

}

qxAjuste=function(qxBrut ,expo ,xMin ,xMax ,pond){

#eDtermination de l’ajustement

pInitial=getValeursInitiales(qxBrut ,xMin ,xMax)

f=function(p){getEcart(qxBrut ,expo ,xMin ,xMax ,p[1],p[2],p[3],pond)}

argmin=constrOptim(pInitial ,f,ui=rbind(c(1,0,0),c(0,1,0),c(0,0,1)),ci=c

(0,0,0),control=list(maxit =10^3) ,method="Nelder -Mead")$par

q=as.vector (0:120)

for (x in 0:120){

q[x+1]= qxMakeham(argmin [1], argmin [2], argmin [3],x)

}

list(argmin ,q)

}

92

Page 93: Benjamin BALTESAR › EXT › ISFA › 1226-02.nsf › 0... · 2018-11-07 · Benjamin BALTESAR M emoire d’Actuaire Construction d’une table de mortalit e sur un portefeuille

Code R : Fermeture de la table

#Construction de la table eferme

qprolonge=function(AbatTH ,plageBas ,plageMil ,plageHaut ,RefExpo ,qx){

TableLogitref =(1- AbatTH)*RefExpo[PlageMil]

TableLogitrefBas =(1- AbatTH)*RefExpo[PlageBas]

TableLogitrefHaut =(1- AbatTH)*RefExpo[PlageHaut]

CoeffRegLogit=ajustement_logit(qx[PlageMil],TableLogitref)

qbas=qxLogit(CoeffRegLogit [2], CoeffRegLogit [1], TableLogitrefBas)

qhaut=qxLogit(CoeffRegLogit [2], CoeffRegLogit [1], TableLogitrefHaut)e

qprolonge =0e

qprolonge [1:20]=0e

qprolonge[PlageBas ]=qbase

qprolonge[PlageMil ]=qx[PlageMil]e

qprolonge[PlageHaut ]=qhaute

qprolonge [81:121]=0

return(eqprolonge)

}

93