édito - l’actu économique et financière vue par la ... · christian robert est professeur en...

16
AVEC LE CONCOURS DE CHRISTIAN ROBERT JEAN-PAUL LAURENT FRÉDÉRIC PLANCHET STÉPHANE LOISEL YAHIA SAHLI PIERRE THÉROND 19 Novembre 2015 QUELS CHOIX DE MODÉLISATION POUR UNE GESTION DES RISQUES PLUS EFFICACE ?

Upload: dohanh

Post on 15-Sep-2018

215 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: édito - L’actu économique et financière vue par la ... · Christian Robert est professeur en statistique et en science actuarielle à l’Ins-titut de Sciences financière et

Avec le concours de

christiAn robertJeAn-pAul lAurentFrédéric plAnchet

stéphAne loiselYAhiA sAhlipierre thérond

N°19Novembre 2015

quels choix de modélisationpour une gestion des risques plus efficace ?

Page 2: édito - L’actu économique et financière vue par la ... · Christian Robert est professeur en statistique et en science actuarielle à l’Ins-titut de Sciences financière et

2 les cahiers louis Bachelier

L’ambiguïté peut-elle affecter la réduction des risques ?

D’après un entretien avec christian robert

Bâle III parvient-il à harmoniser la mesure du risque de crédit ?

D’après un entretien avec Jean-Paul laurent

Valorisation des assurances-vie : comment mesurer la volatilité ?

Assurance : comment détecter une rupture dans la fréquence des sinistres ou l’intensité de mortalité ?

D’après les travaux de Frédéric Planchet

D’après un entretien avec Yahia sahli

Normes IFRS : Comment définir les paramètres de dépréciation optimaux ?

Gestion du risque : définir une zone plutôt qu’un seuil

D’après un entretien avec Pierre Thérond

D’après un entretien avec stéphane loisel

PuBLICAtIoN de L’INStItut LouIS BACheLIeRPalais Brongniart28 place de la Bourse75002 ParisTél. 01 73 01 93 40www.institutlouisbachelier.orgwww.louisbachelier.org

dIReCteuR de LA PuBLICAtIoNJean-Michel Beacco

CheF de PRojetcyril armange

[email protected]

RédACtRICe eN CheFisaure du [email protected]

jouRNALIStecoralie [email protected]

CoNCePtIoN GRAPhIque, CouVeRtuRe et RéALISAtIoNGaël Nicoletla cote Bleue : 10-12 place Vendôme75001 ParisTél. 01 44 76 85 85www.lacotebleue.fr

ImPRImeuRKava : 42, rue Danton94270 le Kremlin-BicêtreTél. 06 14 32 96 87

Avec le concours de

christiAn robertJeAn-pAul lAurentFrédéric plAnchet

stéphAne loiselYAhiA sAhlipierre thérond

N°19Novembre 2015

quels choix de modélisationpour une gestion des risques plus efficace ?

Sommaire

les cahiers louis BachelierN°19 - novembre 2015

4

6

8

14

14

12

Page 3: édito - L’actu économique et financière vue par la ... · Christian Robert est professeur en statistique et en science actuarielle à l’Ins-titut de Sciences financière et

les cahiers louis Bachelier 3

édito

la chaire d’excellence “Management de la modélisation en assurance” a été créée en septembre 2010 et a depuis contribué à la recherche au meilleur niveau international dans le domaine de l’assurance et de la gestion des risques.

le projet initial était basé sur le constat que la réforme solvabilité 2 allait induire de profonds bouleversements au sein des compagnies d’assurance en termes de modélisation. il s’appuyait sur l’idée que les décisions en matière de gestion financière, d’investissement, de réassurance, de tarification, allaient reposer de plus en plus sur l’utilisation de modèles quantitatifs sophistiqués et interdépendants. idem pour les politiques de provisionnement, de distribution des bénéfices, pour les choix de croissance interne ou externe, et la gestion des risques.

ce premier projet pluridisciplinaire, associant des chercheurs d’horizons variés (économistes, actuaires, statisticiens, financiers) vient d’être renouvelé pour une période de 5 ans sous l’intitulé Data Analytics and models for Insurance et associe également des chercheurs spécialisés dans le datamining.

il s’agira, au-delà des axes originels de la chaire, de s’intéresser au data analytics et à sa gouvernance pour la création de valeur dans les entreprises d’assurance. la chaire travaillera également sur l’interaction entre les modèles prédictifs et de simulation. l’objectif de ces recherches est de faire le lien entre la collecte de nouvelles données sur les assurés, la modélisation de leurs comportements et la prise en compte de ces comportements dans les modèles de projection.

le présent cahier est l’occasion de présenter une synthèse des réflexions développées au cours des 5 premières années de la chaire afin d’en illustrer la diversité.

Bonne lecture !

Jean-Paul Laurent / Frédéric Planchet / Christian Robert

Frédéric Planchet

Christian Robert

Jean-Paul Laurent

ParTeNaires

Page 4: édito - L’actu économique et financière vue par la ... · Christian Robert est professeur en statistique et en science actuarielle à l’Ins-titut de Sciences financière et

4 les cahiers louis Bachelier

etre alerté de la présence d’un danger ne suffit pas, encore faut-il savoir quel est ce danger. la gestion du risque renvoie en effet à deux notions : la proba-bilité de survenance du risque et le degré de connaissance sur les caractéristiques de ce dernier. classiquement, les mo-dèles utilisés dans l’évaluation et la mesure du risque considèrent que l’information est parfaite et que la distribution est connue des agents économiques. Dans le cadre de la formule standard de solvabilité 2 par exemple, le régulateur impose des para-mètres pour définir la distribu-tion des risques. Mais comment ces paramètres sont-ils choisis ? les mesures de risques pré-conisées garantissent-elles la sécurité des assurés ? il est peu probable que des paramètres standards s’avèrent adaptés aux spécificités des différentes compagnies, mais il est vraisem-

blable que ces paramètres ont été choisis en tenant compte de la connaissance imprécise des risques de chaque assureur.

l’hypothèse d’une connaissance parfaite du risque n’est en effet pas réaliste. les agents écono-miques ne possèdent qu’une partie des informations. Dans quelle mesure cette connais-sance imparfaite impacte-t-elle la mesure du risque et les prises de décision des agents ? leurs choix peuvent-ils être modifiés en conséquence ?

l’ambiguïté peut-elle affecter la réduction des risques ?

Comprendre le processus de décision

Dans leurs travaux, les cher-cheurs font le lien entre l’incer-titude pesant sur la nature du risque, l’aversion au risque, et l’aversion à l’ambigüité. ils partent ainsi de l’hypothèse que le décideur ne connaît pas un des paramètres de la distribu-tion du risque.

Dans un premier temps, les au-teurs tentent de mieux cerner le processus de prise de décision, et ce, dans le contexte idéal de connaissance parfaite de la dis-tribution des risques. ils com-parent les choix de deux agents, sachant que le second est plus averse au risque que le pre-mier : vont-ils réaliser les mêmes choix ?

la réponse dépend de la dis-tribution des risques. un choix

Face à une connaissance imparfaite du risque, un agent averse à l’ambigüité consentira moins d’effort

Les modèles utilisés dans la mesure des risques considèrent que la distribution de ces risques est connue. mais en réalité, les agents économiques n’en ont qu’une connaissance partielle.

L’incertitude liée aux risques sous-jacents peut modifier le comportement et la prise de décision des agents. une personne averse à l’ambiguïté consentira ainsi moins d’effort pour réduire les risques.

une politique de prévention sera d’autant plus efficace que les décideurs sont bien informés sur la nature des risques.

d’après l’article distortion risk measures, ambiguity aversion and optimal effort de Christian Robert et Pierre thérond, ainsi que d’un entretien avec Christian Robert.

L’aversion à l’ambiguïté des individus est rarement prise en considération dans les méthodes d’évaluation des risques. elle a pourtant des conséquences sur les processus de prise de décision. Christian Robert et son co-auteur montrent comment une mauvaise compréhension des risques peut nuire aux politiques de prévention.

a retenir

Page 5: édito - L’actu économique et financière vue par la ... · Christian Robert est professeur en statistique et en science actuarielle à l’Ins-titut de Sciences financière et

les cahiers louis Bachelier 5

Christian Robert est professeur en statistique et en science actuarielle à l’Ins-titut de Sciences financière et d’Assurances (ISFA), école interne de l’Univer-sité Claude Bernard Lyon 1. Il est aussi directeur du laboratoire de Sciences actuarielle et financière (SAF) et co-porteur de la Chaire BNP Paribas Cardif “Management de la modélisation en assurance”. Ses domaines de recherche et d’expertise sont : la théorie et les statistiques des valeurs extrêmes, la théorie actuarielle et ses applications, la finance statistique.

qui apparaît moins risqué pour le premier ne le sera pas for-cément pour le second, même s’il est plus averse au risque. chaque individu possède en effet sa propre perception du risque. Dans leurs critères de décision, deux personnes ne donnent pas le même poids aux mêmes parties de la distribution d’un risque. Quelqu’un d’averse aux extrêmes, par exemple, prê-tera une grande attention aux queues de distribution.

en outre, l’agent averse au risque n’est pas nécessairement prêt à payer plus que son homo-logue pour réduire son risque (willingness to pay). là encore, cela dépend de la distribution des risques.

moins de connaissance…

les modalités de prise de déci-sion diffèrent dans un contexte de connaissance imparfaite. lorsque l’agent n’a qu’une connaissance partielle de la dis-tribution, il majore la mesure du risque d’une prime à l’ambiguïté. la mesure est donc plus élevée, non pas à cause d’un risque plus grand, mais en raison d’une aversion à l’ambigüité du déci-deur.

réduire l’ambigüité implique ef-fectivement un coût supplémen-

Retrouvez l’entretien de Christian Robert

sur www.louisbachelier.org

taire. il s’agit de définir combien l’agent est prêt à payer pour une information lui permettant de ré-duire cette incertitude. un agent plus averse à l’ambigüité aura toujours une propension à payer plus grande, et ce, quel que soit le risque sous-jacent.

Par ailleurs, les auteurs évaluent l’effort financier qu’un décideur est prêt à consentir pour échan-ger un risque fort contre un risque faible. cette question ren-voie à une problématique d’arbi-trage entre coût et réduction des risques. résultat : un agent plus averse au risque fera toujours plus d’effort. Toutefois, dans un contexte de connaissance imparfaite de la distribution du risque, un agent plus averse à l’ambigüité consentira moins d’effort.

…rime avec moins d’effort

les travaux soulignent la néces-sité de prendre en compte le niveau de connaissance des dé-cideurs. le degré d’aversion au risque n’est en effet pas le seul facteur à influencer les prises de décision. la partialité de la connaissance affecte également les comportements.

ces résultats peuvent aider à définir les politiques de préven-tion, dont le rôle doit être autant

de réduire les risques que d’in-former sur ces derniers. une mauvaise compréhension limite les efforts que les agents sont prêts à consentir, en particulier lorsqu’ils sont averses à l’ambi-güité.

cette anxiété vis-à-vis de l’incer-titude doit également être prise en compte dans les rapports entretenus avec le régulateur. si les assureurs veulent discu-ter des paramètres fixés dans solvabilité 2, par exemple, ils ont intérêt à réduire le niveau d’in-certitude du régulateur qui est, par essence, averse au risque comme à l’ambigüité.

Christian Robert

les auteurs ont considéré la classe des mesures de risque de distorsion, comme proposée dans la théorie duale de Yaari (1987) et imposent de plus que ces mesures sont cohérentes. ils présentent des théorèmes de statiques comparatives, puis étudient la propension à payer pour réduire le risque. le cadre d’imprécision d’information avec aversion à l’ambigüité est étudié dans un second temps, ainsi que la propension à payer pour réduire l’imprécision sur l’information. enfin, ils considèrent un modèle d’effort pour réduire le risque.

méthodologie

Page 6: édito - L’actu économique et financière vue par la ... · Christian Robert est professeur en statistique et en science actuarielle à l’Ins-titut de Sciences financière et

6 les cahiers louis Bachelier

Dans la lignée d’une gestion plus prudente et plus sûre, l’encadre-ment des risques de crédit dans les activités de marché s’est ren-forcé au cours des dernières an-nées. les banques doivent dé-sormais intégrer ce risque dans le portefeuille de négociation (dans lequel sont enregistrés les actifs détenus à des fins de tran-saction à court terme), et prévoir la stratégie de couverture asso-ciée. Mais les modèles utilisés pour calculer les provisions de fonds propres changent d’une banque à l’autre ; si bien que pour une exposition identique au risque, les résultats diffèrent entre les établissements.

une forte disparité des résultats…

le régulateur a constaté l’im-portance de ces écarts suite à l’envoi d’un ensemble de por-

tefeuilles tests aux principales compagnies (documents du comité de Bâle et de l’european Banking authority, sur la variabi-lité des actifs moyens pondérés). les besoins en fonds propres qui découlaient des mesures du risque de crédit pouvaient varier de 1 à 4 pour un même porte-feuille d’actifs.

une telle variabilité a poussé les autorités à réagir, encadrer les modèles de mesure de risque de crédit et rendre comparables les résultats des banques gérant des portefeuilles similaires. Bâle

Bâle iii parvient-il à harmoniser la mesure du risque de crédit ?

Face aux écarts constatés dans les mesures de risque de crédit, le régulateur a imposé certaines contraintes de modélisation. Ces nouvelles règles sont-elles efficaces ? Parviennent-elles à réduire la dispersion des résultats ? La réponse est nuancée…

iii prévoit ainsi certaines pré-conisations quant aux choix de modélisation, que ce soit pour le calcul du taux de recouvre-ment en cas de défaut, le niveau de dépendance entre les évè-nements de défaut (niveau de corrélation), ou la probabilité de défaut.

les contraintes du régulateur sont-elles efficaces ? Permettent-elles d’obtenir une mesure du risque plus homogène entre les banques ? les auteurs ont sou-haité évaluer l’impact de ces préconisations, en particulier celles portant sur le calcul du niveau de dépendance.

un seuil de confiance trop élevée ?

les règles de calcul du niveau de dépendance traitent de plu-sieurs points. Tout d’abord, Bâle

Pour un même portefeuille d’actifs, les mesures de risque de crédit varient de 1 à 4 selon l’établissement bancaire.

Cette dispersion des résultats est due en partie au seuil de confiance imposé par le régulateur. un seuil de confiance de 99 % à horizon d’un an (au lieu de 99,9 % actuellement) permettrait d’harmoniser les résultats.

La diversité des données utilisées pour réaliser les calculs renforce également les écarts de mesure.

d’après l’article “trading book and credit risk: how fundamental is the basel review?” de jean-Paul Laurent, michael Sestier et Stéphane thomas, ainsi que d’un entretien avec jean-Paul Laurent.

Les modèles sont hypersensibles aux situations extrêmes

a retenir

Page 7: édito - L’actu économique et financière vue par la ... · Christian Robert est professeur en statistique et en science actuarielle à l’Ins-titut de Sciences financière et

les cahiers louis Bachelier 7

Jean-Paul Laurent est professeur à l’Université Paris 1 Panthéon – Sorbonne où il anime le pôle finance du laboratoire de Sciences de Gestion. Il est égale-ment membre du Laboratoire d’excellence Régulation financière (labex Refi). Ses recherches portent sur la modélisation des risques financiers et la régle-mentation prudentielle.

iii impose l’utilisation d’un mo-dèle de corrélation à deux fac-teurs. une contrainte qui n’en est pas vraiment une, selon les chercheurs… “le fait d’utiliser deux facteurs ou plus pour le calcul de la corrélation change peu les résultats en termes de risque” note Jean-Paul laurent.

le texte fixe également le seuil de confiance de la mesure. le risque de crédit doit ainsi être évalué avec un seuil de confiance de 99,9 % à horizon d’un an. ce niveau, particuliè-rement élevé, revient à inclure le risque d’un évènement se produisant une fois par millé-naire. “a un tel niveau, les résul-tats de calcul de risque varient beaucoup d’un modèle à l’autre, prévient Jean-Paul laurent. les modèles sont en effet hypersen-sibles aux situations extrêmes. Nous avons constaté des écarts allant du simple au triple dans les résultats obtenus.”

un seuil de confiance de 99 %, à un horizon d’un an, resterait élevé puisqu’il inclurait la proba-bilité d’évènements centenaires, mais présenterait l’avantage de réduire fortement la dispersion entre les différents modèles. en outre, il serait possible de com-penser l’abaissement du seuil de confiance par une augmentation de la réserve de fonds propres :

l’étude empirique se propose de comparer les risques de portefeuilles de crédit représentatifs, selon différentes (i) sources de données pour (spreads de cDs, actions, …), (ii) méthodes d’estimation de la structure de dépendance des défauts, (iii) spécifications des modèles factoriels en faisant varier le nombre de facteurs. ces comparaisons sont menées à plusieurs seuils de confiance de la mesure du risque à 1 an, dont le seuil réglementaire (99.9 %).

méthodologie

Retrouvez l’entretien de jean-Paul Laurent

sur www.louisbachelier.org

pour un même niveau de risque les provisions passeraient par exemple de 100 à 150. le ni-veau de protection serait alors similaire, mais les mesures de risque réalisées par les banques seraient plus comparables.

des données à harmoniser

enfin, le dernier point réglemen-té concerne le type de données utilisées pour établir les corréla-tions. le comité de Bâle autorise deux catégories de données : le niveau de rentabilité des actions et le changement de spread des credit Default swaps (cDs : forme de dérivé de crédit). or, pour un même scénario, les résultats changent fortement selon qu’un établissement utilise la rentabilité des actions ou les spread des cDs. si le régulateur souhaite améliorer la comparabi-lité des résultats, il serait néces-saire d’harmoniser les données utilisées.

l’efficacité de la réglementa-tion sur la mesure du risque de crédit est donc mitigée. si les contraintes sur les facteurs de corrélation n’ont que peu de conséquences, le niveau du seuil de confiance imposé ainsi que les données autorisées ex-pliquent en grande partie la dis-persion des résultats. un seuil de confiance légèrement plus

faible et des données de nature identique favoriseraient la com-parabilité des mesures.

les auteurs vont par ailleurs poursuivre leurs travaux afin d’évaluer l’impact des proba-bilités de défaut et des taux de recouvrement. les recherches devraient ainsi déterminer l’effet de chaque facteur sur la dis-persion de la mesure du risque de crédit, permettant de mieux qualifier la qualité des modèles utilisés par les banques.

jean-Paul Laurent

Page 8: édito - L’actu économique et financière vue par la ... · Christian Robert est professeur en statistique et en science actuarielle à l’Ins-titut de Sciences financière et

8 les cahiers louis Bachelier

les marchés financiers ont pris une importance considé-rable dans l’économie mondiale. l’économiste François Morin a ainsi montré, à partir des comptes de l’année 2002 de la Banque des règlements internationaux (Bri), que le montant des échanges annuels nécessaires à l’économie réelle (échanges de biens et de marchandises, échanges com-merciaux) était de 40,3 teradollars, tandis que l’ensemble des tran-sactions entre les banques s’élè-vait lui à 1 150 teradollars.

un tel phénomène de financiarisa-tion se répercute nécessairement sur les logiques de valorisation des activités économiques : alors qu’un actif était initialement comp-tabilisé à sa valeur d’acquisition, il est désormais valorisé selon le prix de vente potentiel défini par les marchés à l’instant t. ces logiques de valorisation, conçues initialement pour calculer le prix des produits dérivés, se retrouvent

aujourd’hui dans les référentiels financiers et prudentiels, notam-ment dans la directive solvabilité 2. Mais, si ces choix de modélisa-tion sont légitimes pour des activi-tés de trading, ils s’avèrent moins adaptés aux assurances-vie dont la gestion s’opère sur plusieurs décennies…

les difficultés techniques posées par la transposition en assurance de l’idée d’absence d’arbitrage et de réplication de flux qui en découlent sont bien identifiées. les modèles s’affinent progres-sivement pour fournir des résul-tats reflétant aussi correctement que possible les conséquences en termes de valorisation des

Valorisation des assurances-vie : comment mesurer la volatilité ?

actions de l’assureur, notamment en termes d’attribution de parti-cipation aux bénéfices pour les contrats d’épargne. il ne s’agit plus de discuter du bien-fondé de ces règles de valorisation mais d’en intégrer les résultats dans le processus de prise de décision.

distinguer volatilité intrinsèque et volatilité parasite

la volatilité importante des diffé-rents indicateurs, notamment des fonds propres économiques et du ratio de couverture du capital de solvabilité requis1 par solvabilité 2, constitue une difficulté majeure pour les dirigeants des orga-nismes d’assurance. ces derniers ne peuvent pas, en effet, baser leur processus de décision sur des données extrêmement fluctuantes.

le régulateur a partiellement pris conscience de cette situation, en distinguant la volatilité qui reflète des risques portés par l’assureur,

Les assureurs ne peuvent baser leurs décisions sur des données extrêmement fluctuantes

Les méthodes de valorisation économique s’appuient sur les logiques financières des marchés. Leurs résultats sont ainsi très fluctuants.

Ce type de modélisation est peu adapté au pilotage de l’activité des assureurs-vie qui gèrent des portefeuilles sur le long terme.

Il est donc nécessaire de l’adapter en distinguant la volatilité propre au portefeuille, de la volatilité générée par les fluctuations de marché.

Réflexion issue des articles cités en référence.

Les pratiques de valorisation économique s’inspirent fortement des logiques des marchés financiers, générant par là-même, des résultats très fluctuants. de tels choix de modélisation compliquent les processus de prise de décision des assureurs. Comment adapter une logique court terme à une gestion de long terme ?

1. On peut observer sur ce point que la volatilité de l’exigence de capital (SCR) est beaucoup plus faible que celle des fonds propres (dans un ratio de 1 à 10).

a retenir

Page 9: édito - L’actu économique et financière vue par la ... · Christian Robert est professeur en statistique et en science actuarielle à l’Ins-titut de Sciences financière et

les cahiers louis Bachelier 9

Frédéric Planchet est professeur de sciences actuarielles à l’ISFA et associé fondateur du cabinet d’actuariat conseil PRIM’ACT.

Plus d’informations : http://www.ressources-actuarielles.net/

d’une volatilité “parasite” liée à des fluctuations de marché qui seront lissées sur le moyen terme. afin d’atténuer les effets de cette der-nière, deux mécanismes ont été introduits : la correction de volati-lité (art. 50 du règlement délégué 2015/35) et l’ajustement égalisa-teur (art. 53 du même règlement).

Se baser sur l’historique des prix

les travaux académiques montrent également que les choix de calibrage du générateur de scénarios économiques ont un impact direct et important sur la volatilité de l’évaluation. ainsi, la pratique la plus courante consiste à réaliser un calibrage sur la base de prix instantanés. il est pourtant possible d’estimer les paramètres sur un historique de prix (et non sur le dernier prix connu) afin de réduire la volatilité de l’évaluation.

l’objectif n’est pas de “casser le thermomètre”, mais bien de distin-guer la composante informative de la volatilité du bruit. Pour prendre leurs décisions, les assureurs ont besoin d’extraire l’information per-tinente des indicateurs issus du bilan économique. en d’autres termes, ils doivent lisser la valeur brute issue du calcul réglemen-taire.

il faut noter que cette situation est propre aux approches éco-nomiques, qui s’appuient sur des modèles de valorisation et non, comme les comptes sociaux, sur des valeurs réalisées pour établir le bilan.

l’orsa fournit sans doute un cadre dans lequel inscrire la re-cherche de ce qui, dans la varia-tion de valeur de l’actif net, doit être attribué au résultat et ce qui relève de fluctuations de valeur non affectables au résultat. en ef-

Retrouvez les travaux de Frédéric Planchet

sur www.louisbachelier.org

fet, l’orsa implique de projeter le bilan selon différents scénarios et permet, sous réserve d’y intégrer une modélisation stochastique des facteurs de risques financiers, de mesurer ex-ante la volatilité des indicateurs à laquelle s’attendre autour d’un scénario central.

Dès lors, l’analyse de la tendance et des écarts entre la volatilité ex-ante et la volatilité mesurée ex-post fournit les éléments de base

pour construire des mesures de performance.

ce sujet devrait donner lieu à de nombreux travaux dans les an-nées à venir.

Fréderic Planchet

RéférencesBoNNiN F., PlaNcheT F.[2013] engagement best estimate d’un contrat d’épargne en euro, la Tribune de l’assurance (rubrique “le mot de l’actuaire”), n°185 du 01/11/2013.

FÉliX J.P., PlaNcheT F. [2015] calcul des engagements en as-surance-vie : quel calibrage ‘cohérent avec des valeurs de mar-ché’ ?, l’actuariel, n°16 du 01/03/2015.

GuiBerT Q., JuillarD M., NTeuKaM T. o., PlaNcheT F. [2014] solvabilité Prospective en assurance - Méthodes quanti-tatives pour l’orsa, Paris : economica.

laÏDi Y., PlaNcheT F. [2015] calibrating lMN Model to compute Best estimates in life insurance, Bulletin Français d’actuariat, vol. 15, n°29.

leroY G., PlaNcheT F. [2013] risque de taux, spread et garan-ties de long terme, la Tribune de l’assurance (rubrique “le mot de l’actuaire”), n°178 du 01/03/2013.

MoriN F. [2006] le Nouveau Mur de l’argent. essai sur la finance globalisée, Économie humaine, Paris : seuil.

PlaNcheT F., ThÉroND P.e., JuillarD M. [2011] Modèles financiers en assurance. analyses de risques dynamiques - se-conde édition revue et augmentée, Paris : economica (première édition : 2005).

PlaNcheT F. [2009] Provisionnement et couverture des garan-ties financières : deux notions indissociables., la Tribune de l’as-surance (rubrique “le mot de l’actuaire”), n°138 du 01/07/2009.

roDarie h. [2011], Dettes et monnaie de singe, Paris, salvatore.

WalTer c., BriaN e. (Dir.) [2008] critique de la valeur fonda-mentale, Paris : springer.

Page 10: édito - L’actu économique et financière vue par la ... · Christian Robert est professeur en statistique et en science actuarielle à l’Ins-titut de Sciences financière et

10 les cahiers louis Bachelier

les assurances sont tenues à une réglementation de plus en plus stricte quant à leur gestion des risques. Mais sait-on réel-lement définir une situation ris-quée ? le risque peut-il se ré-duire à une notion de ligne rouge à ne pas franchir ou faut-il élargir cette perception ?

en fonction du niveau de risque pris, les assureurs ont l’obligation de constituer un montant de ca-pital de solvabilité requis (scr), majoré d’un certain pourcentage. le but est de n’entamer le scr qu’en cas d’incident important. cette réserve initiale est calculée selon des méthodes issues de la théorie de la ruine économique, qui se définit comme “la surve-nance d’un scenario défavorable, pouvant conduire à l’impossibi-lité, pour la compagnie, de faire face à certains de ses engage-ments, aussi bien envers ses as-

surés que ses actionnaires, voire à devoir cesser son activité pour cause d’insolvabilité”. il s’agit alors de déterminer la réserve ini-tiale de sorte à contrôler le risque de ruine, autrement dit le risque que les montants provisionnés soient inférieurs aux dettes.

Sortir d’une vision binaire du risque

“cette approche repose sur une vision très binaire du risque, sou-

Gestion du risque : définir une zone plutôt qu’un seuil

Les mesures de risque comme la VaR ou la probabilité de ruine reposent souvent sur une approche très binaire : l’entreprise est-elle au-dessus ou en dessous de son seuil de solvabilité ? une logique peut-être un peu restrictive… Stéphane Loisel et son co-auteur proposent une nouvelle mesure basée sur le temps moyen passé sous le seuil de solvabilité.

ligne stéphane loisel. elle est en outre assez court-termiste puisqu’elle se place sur un hori-zon d’un an dans solvabilité ii, alors que les assureurs fonc-tionnent selon une gestion de long terme. aussi, dans nos tra-vaux, nous posons l’hypothèse que le risque ne se définit pas comme le fait d’être sous le seuil de solvabilité mais comme le fait d’être trop longtemps sous le seuil ou très en-dessous”. les auteurs établissent ainsi la notion “d’aire moyenne rouge”, à savoir la surface qui représente le temps passé en-dessous du seuil de solvabilité. etre dans l’aire rouge génère un coût pour l’assureur qui doit donc prévoir un budget de risque du groupe en vue du paiement des pénalités.

Dans ce contexte, les cher-cheurs s’intéressent tout d’abord à la réserve initiale minimale

d’après l’article “Properties of a risk measure derived from the expected area in red”, de Stéphane Loisel et julien trufin, ainsi que d’un entretien avec Stéphane Loisel.

Le risque, c’est être longtemps sous le seuil de solvabilité ou être très en-dessous

Les mesures du risque comme la VaR et la probabilité de ruine reposent souvent sur une approche binaire et court-termiste du risque.

Les auteurs ont créé un indicateur de risque “d’aire moyenne rouge” pour représenter le temps passé sous le seuil de solvabilité.

Cette nouvelle mesure permet de calculer l’allocation optimale de la réserve initiale ainsi que celle du budget de risque.

Les auteurs montrent que les deux approches sont équivalentes.

a retenir

Page 11: édito - L’actu économique et financière vue par la ... · Christian Robert est professeur en statistique et en science actuarielle à l’Ins-titut de Sciences financière et

les cahiers louis Bachelier 11

Stéphane Loisel est professeur en actuariat et gestion des risques à l’ISFA, de l’Université Claude Bernard Lyon 1. Il est aussi membre de la Chaire BNP Paribas Cardif “Management de la modélisation en assurance”, titulaire de l’Ini-tiative de recherche “Actuariat Durable” financé par Milliman Paris et porteur du projet ANR LoLitA (Longevity with Lifestyle Adjustments). Ses domaines de recherche principaux sont la théorie du risque, le risque de longévité, Solvabilité II et l’ERM (Enterprise Risk Management), le comportement des assurés et la compétition entre assureurs.

que doit détenir un assureur afin que son indicateur de risque “aire moyenne rouge”, établi sur un certain horizon de temps, ne dépasse pas le seuil fixé au préalable. les propriétés de ce capital en tant que mesure de risque sont ensuite étudiées, notamment la problématique de la sous-additivité d’une telle me-sure de risque.

optimiser la réserve initiale ou le budget de risque

le modèle proposé donne ainsi l’allocation optimale de réserve qui permet de minimiser l’aire moyenne rouge. il prend en compte la problématique de la fongibilité du capital, à savoir la capacité de déplacer rapide-ment les capitaux d’une entité à l’autre. en effet, les groupes d’assurance sont généralement constitués de différentes divi-sions, géographiques et métiers. or, si l’une d’entre elles fait face à un sinistre important, elle ne peut pas toujours recevoir rapidement des fonds des autres entités.

Dans une seconde étape, les auteurs reformulent la probléma-tique sous l’angle du budget de risque. ils conçoivent une nou-velle mesure capable d’établir l’allocation optimale de budget de risque. l’assureur fixe ainsi le montant global des pénalités

les auteurs utilisent et généralisent des résultats de différentiation de loisel (2005). ils montrent que la mesure de risque considérée satisfait des propriétés similaires aux notions de cohérence d’artzner et al. (1999), après adaptation des axiomes de cohérence. les auteurs utilisent des résultats classiques sur les ordres stochastiques et généralisent des résultats de Trufin et al. (2012) et de loisel (2005) pour démontrer ces propriétés et caractériser la solution d’allocation optimale.

méthodologie

Retrouvez l’entretien de Stéphane Loisel

sur www.louisbachelier.org

qu’il accepte de payer. Puis, il voit comment répartir ce bud-get entre les différentes entités, de sorte à respecter la limite de risque qu’il a choisie.

calculable, cette mesure valo-rise les queues de distributions de façon dynamique, c’est-à-dire qu’elle inclut le coût associé à un risque ainsi que sa volatilité. un risque très volatil, ou un risque dont la réalisation générerait d’importants coûts financiers, est ainsi fortement pénalisé. la taille du portefeuille, et donc le niveau de mutualisation des risques, sont également pris en compte.

Revoir les besoins de solvabilité

in fine, les chercheurs dé-montrent que les deux approches aboutissent au même résultat. répartir un montant de réserve initiale est équivalent au fait de rechercher la meilleure allocation du budget de risque global : il s’agit, dans les deux cas, en ab-sence de saturation, d’égaliser le temps moyen passé sous le seuil de risque pour les différentes branches.

si la mesure de l’aire moyenne rouge n’est pas utilisable par les assureurs en temps continu sans recourir à des proxies, car elle implique de connaître la valeur économique de la compagnie en

temps réel, elle met en lumière les insuffisances des mesures utilisées : une vision très binaire du risque et un horizon trop court-termiste.

Par ailleurs, une version simplifiée de l’aire moyenne rouge pourrait être envisagée et s’intégrer dans les réflexions liées aux besoins globaux de solvabilité et à l’allo-cation de capital de réserve. il s’agirait par exemple, de répartir le coût engendré par l’immobili-sation du capital. le modèle peut aider à déterminer combien doit payer chaque entité du groupe en fonction de sa contribution au risque global.

Stéphane Loisel

Page 12: édito - L’actu économique et financière vue par la ... · Christian Robert est professeur en statistique et en science actuarielle à l’Ins-titut de Sciences financière et

12 les cahiers louis Bachelier

d’après l’article de Nicole el Karoui, Stéphane Loisel, et Yahia Salhi “minimax optimality in Robust detection of a disorder time in Poisson Rate” et un entretien avec Yahia Salhi.

Pour configurer leurs produits, les assureurs émettent une hypothèse sur la fréquence de sinistra-lité. Ils l’établissent en fonction d’un historique de données.

Cette fréquence est néanmoins amenée à évoluer au fil du temps. Il est alors primordial pour la compagnie d’assurance d’être avertie rapidement de ce changement afin d’adapter ses produits et sa gestion des risques.

Les auteurs ont démontré l’optimalité de la méthode de CuSum pour répondre à cette probléma-tique.

a retenir

assurance : comment détecter une rupture dans la fréquence des sinistres ou l’intensité de mortalité ?La mutualisation des risques, un principe fondamental en assurance, conduit les assureurs à estimer un risque moyen, en vue de la tarification. L’estimation de la fréquence des sinistres et de leur ampleur est donc un des outils de base de l’assurance. L‘un des enjeux est alors de détecter de manière robuste les instants de changements de “régime” (appelés aussi instants de rupture) de ces paramètres afin d’adapter rapidement les tarifs et la gestion des risques à cette évolution.

une recrudescence des acci-dents, une augmentation du nombre de catastrophes natu-relles sur une région, ou encore une baisse rapide de la mortalité des assurés, voici quelques-unes des raisons qui entraînent une hausse du prix de certains pro-duits d’assurance. un assureur structure en effet ses produits en fonction de l’estimation de la fréquence des sinistres : plus ceux-ci sont nombreux, plus la prime sera élevée. Pour calculer ce risque de sinistralité, les com-pagnies utilisent un processus mathématique, dit processus de Poisson. au vu d’une longue ex-périence, il est considéré que les sinistres surviennent au hasard, mais avec une certaine simila-rité permettant d’estimer la fré-quence moyenne (intensité) des sinistres par intervalle de temps: par exemple, compte tenu de son historique l’assureur peut l’estimer

à 10 sinistres par an. De même, dans le cadre d’assurances-vie, la compagnie part, par exemple, d’une intensité de mortalité “ré-glementaire” (par exemple les tables TGhF05 en France) pour déterminer celle de la population de son portefeuille. les caracté-ristiques de cette dernière ne sont en effet pas les mêmes que celles de la population de référence. l’assureur choisit donc un taux

d’abattement pour relier les deux intensités de mortalité.

Signaler un changement rapidement…

cette hypothèse sur la fréquence de la sinistralité joue un rôle pri-mordial en assurance, à la fois dans la tarification des produits et dans la gestion des risques sous-jacents. il est donc important d’être en mesure de bien estimer cette fréquence mais surtout de la mettre à jour dès lors que le flux des données le suggère.

les recherches de Yahia salhi et ses co-auteurs visent à répondre à ces problématiques. Plus préci-sément, l’objectif est de mettre en place une procédure de détection permettant de tirer une alarme dès lors que l’intensité change. il s’agit de détecter une sur-sinis-tralité, autrement dit un passage

Il s’agit de détecter le plus rapidement possible une rupture tout en ayant un temps moyen fixé jusqu’à la fausse alarme

Page 13: édito - L’actu économique et financière vue par la ... · Christian Robert est professeur en statistique et en science actuarielle à l’Ins-titut de Sciences financière et

les cahiers louis Bachelier 13

Yahia Salhi est maître de conférence associé à l’ISFA, de l’université de Lyon et chercheur associé à la chaire BNP Paribas Assurance “Management de la modé-lisation en assurance”. Il est titulaire d’un doctorat en mathématiques appliquées de l’Université de Lyon et d’un master spécialisé en sciences actuarielles et finan-cières. Yahia est également ingénieur civil des Mines. Ses intérêts de recherche portent sur les mathématiques appliquées à l’actuariat, les risques de longévité et de mortalité, la dépréciation des actifs sous les normes IFRS, au comporte-ment des clients dans le domaine de l’assurance ainsi qu’au risque de modèles.

Dans le cas Poissonien, les auteurs ont résolu le problème de détection rapide en utilisant le processus des sommes cumulées (cusuM) du logarithme du quotient des vraisemblances. l’idée de base de l’utilisation de ce genre de processus a été motivée par Page (1954) à l’aide des tests séquentiels d’adéquation d’hypothèses statistiques. en effet, l’auteur fait le parallèle avec le test statistique basé sur le rapport de vraisemblance. en considérant deux hypothèses : h0 “pas de changement” et h1 “changement”, on effectue un test du rapport de vraisemblance entre les deux hypothèses. Pour prendre en compte l’arrivée des observations, le rapport de vraisemblance est mis à jour à chaque nouvelle observation. Puis, pour décider entre les hypothèses h0 et h1, on considère le(s) moment(s) où la statistique de ce test franchit un certain seuil fixé par avance. les auteurs utilisent notamment des martingales et martingales locales liées au nombre de sauts jusqu’au prochain temps où le processus cusuM est au-dessus d’une barrière. la clé de la démonstration consiste à résoudre le problème posé par la discontinuité (au niveau de la barrière) de la fonction qui associe à un niveau de départ le nombre moyen de sauts jusqu’au moment où on est au-dessus de la barrière.

méthodologie

Yahia Salhi

d’une moyenne de 10 sinistres par an à une moyenne de 12 sinistres par an, ou au contraire une baisse des décès correspondant à une accélération des améliorations de longévité.

…tout en limitant les fausses alarmes

a cette fin, les auteurs intro-duisent le formalisme de la dé-tection rapide et robuste. “la détection des ruptures dans les modèles dynamiques a suscité un intérêt grandissant, notam-ment en surveillance statistique, détection des signaux et en contrôle des procédés industriels, explique Yahia salhi. elle répond à un besoin des risk managers de mieux contrôler l’évolution de leur risque. l’objectif principal est de diagnostiquer des anomalies pouvant survenir tout au long de l’évolution du système.” on parle ici de système au sens large. la surveillance consiste à détecter d’éventuelles anomalies d’une façon séquentielle.

la détection rapide répond à une double problématique : déclen-

Retrouvez l’entretien de Yahia Salhi

sur www.louisbachelier.org

cher l’alarme le plus tôt possible afin de permettre au superviseur de prendre des décisions adé-quates dans les plus brefs dé-lais ; tout en limitant les fausses alarmes, à savoir le déclenche-ment d’une alarme alors qu’aucun changement n’a eu lieu. cette problématique est abordée par la formulation minimax qui mêle les notions de temps moyen jusqu’à la fausse alarme et le retard de détection. la qualité d’une procé-dure de détection sous ces deux approches est alors appréciée sur sa capacité à détecter le plus rapidement possible une rupture tout en ayant un temps moyen fixé jusqu’à la fausse alarme. en prenant en compte ces deux mesures, l’approche minimax est formulée moyennant un problème d’arrêt optimal.

des applications financières comme industrielles

Dans leurs travaux, les auteurs démontrent l’optimalité de la méthode dite de cusuM pour la détection d’un changement dans l’intensité d’un processus de Poisson. la méthode était déjà

utilisée mais l’optimalité n’avait pas été prouvée jusqu’ici. cette méthode de détection ra-pide trouve de multiples applica-tions, en particulier dans le sec-teur assurantiel. Qu’il s’agisse d’assurance-vie ou non vie, elle signale une rupture d’intensité de sinistre au sein du portefeuille. les compagnies sont ainsi en mesure de mieux gérer leurs risques, en ajustant leur prix, et en mettant ra-pidement à jour leurs hypothèses de travail, sans pour autant sur-réagir à une fausse alarme. au-delà du secteur financier, la méthode cusuM a également des applications industrielles, que ce soit pour détecter une pertur-bation sur un réseau ou une intru-sion dans une zone aérienne par exemple.

Page 14: édito - L’actu économique et financière vue par la ... · Christian Robert est professeur en statistique et en science actuarielle à l’Ins-titut de Sciences financière et

14 les cahiers louis Bachelier

Depuis 2005, les normes comp-tables iFrs régissent la communi-cation financière des entreprises cotées en europe. elles codifient notamment l’enregistrement des plus-values ou moins-values la-tentes des actions “disponibles à la vente”, regroupées dans la catégorie aFs (available for sale). Pour cette catégorie de titres, les plus-values latentes (différence entre la juste valeur à l’année N et la valeur d’achat) sont comptabili-sées dans les fonds propres, sans impact sur le résultat. Toutefois, lorsque cette différence est néga-tive et fait apparaître des moins-values latentes, elle doit, sous certaines conditions, être matéria-lisée en perte dans le compte de résultat.

selon, les normes iFrs, une perte latente doit être inscrite en résul-

tat si la baisse de la juste valeur par rapport à la valeur d’acquisi-tion est “significative”, ou si cette baisse est “prolongée”. ces deux critères, assez imprécis, laissent une marge de manœuvre impor-tante aux entreprises quant aux paramètres d’application de ces règles.

or, selon les paramètres fixés, le résultat comptable diffère. la dé-finition de ces critères est d’autant plus essentielle pour les sociétés que les dépréciations ne peuvent

Normes iFrs : comment définir les paramètres de dépréciation optimaux ?

Les règles d’enregistrement des dépréciations de titres financiers laissent une libre part à l’interprétation. en particulier, les pratiques sont très différentes d’un groupe d’assurance à l’autre. Comment ces choix impactent-ils les résultats de la compagnie ? Comment déterminer les paramètres les plus adaptés à sa stratégie ?

être reprises. ainsi, lorsqu’une dépréciation est enregistrée en année N aux résultats, elle ne pourra pas être compensée l’an-née suivante par une plus-value latente puisque celle-ci s’inscrira en fonds propres.

des pratiques disparates

Face à ce contexte réglementaire, comment les compagnies d’as-surance interprètent-elles et ap-pliquent-elles ces normes? Quels paramètres fixent-elles pour défi-nir une baisse “significative” et une baisse “prolongée” ? Quel est l’impact de ces critères sur les dépréciations enregistrées ? le papier fournit quelques éléments de réponse afin d’analyser la mise en œuvre de la réglementation et les conséquences sur le compte de résultat.

Les normes IFRS laissent une importante marge de manœuvre aux entreprises dans l’application des règles pour l’enregistrement des moins-values latentes.

Chaque entreprise définit elle-même ce que sont une baisse “significative” et une baisse “prolon-gée”. Le niveau des paramètres choisis impacte directement les montants dépréciés et donc les résultats.

Les auteurs proposent un outil permettant de définir les paramètres les plus appropriés à la stra-tégie de l’entreprise.

d’après l’article “Some characteristics of an equity security next-year impairment, Review of quantitative Finance and Accounting” de julien Azzaz, Stéphane Loisel et Pierre thérond, ainsi que d’un entretien avec Pierre thérond.

Les paramètres utilisés sont très variables d’une compagnie d’assurance à l’autre

a retenir

Page 15: édito - L’actu économique et financière vue par la ... · Christian Robert est professeur en statistique et en science actuarielle à l’Ins-titut de Sciences financière et

les cahiers louis Bachelier 15

Pierre Thérond est docteur en sciences de gestion (Université Lyon 1) et actuaire diplômé de l’ISFA. Il est actuellement associé du Cabinet d’actuariat conseil Galea & Associés et professeur associé à l’ISFA, Université Lyon 1. Il intervient sur les problématiques associées à la mise en œuvre de Solvabilité 2 et des normes IFRS, ainsi que sur des sujets de modélisation et de gestion des risques. Ses do-maines de recherche incluent la mesure des risques financiers et d’assurance (en particulier à des fins prudentielles, comptables et de communication financière),

la gestion des risques en assurance et le comportement face au risque. Il a reçu le prix Scor de la thèse en 2007. Membre certifié de l’Institut des Actuaires, il préside la commission comptable de l’Institut des Actuaires. Il est conseiller scientifique de la revue L’Actuariel.

Dans un premier temps, les au-teurs ont observé les pratiques des assureurs et constaté de fortes disparités entre elles. les paramètres utilisés pour définir une baisse significative ou pro-longée sont en effet très variables d’une compagnie à l’autre. Pour axa ou allianz, par exemple, une baisse significative est égale ou supérieure à 20 %, tandis que, pour Generali ou cNP, il s’agit d’une baisse d’au minimum 50 %. De même, une baisse prolongée s’enclenche dès 6 mois chez axa alors qu’elle ne s’applique qu’à partir de 36 mois chez Generali.

les critères utilisés ont évidem-ment un impact sur les pratiques de dépréciation. Plus les para-mètres sont bas, plus les dépré-ciations sont fréquentes mais de faible ampleur. au contraire, si les paramètres sont élevés, elles sont plus rares mais plus fortes.

Pierre Thérond et ses co-auteurs ont développé une formule ma-thématique permettant de décrire l’impact du niveau des para-mètres sur les dépréciations. en fonction des critères retenus, il est ainsi possible de calculer le mon-tant attendu des dépréciations sur l’année et de connaître la distribu-tion de ces dernières.

la méthodologie utilisée par les auteurs consiste, dans un premier temps, en la formulation mathématique des principes d’ias 39 relatifs à l’évaluation et la comptabilisation des instruments de capitaux propres (actions, fonds, etc.) en s’appuyant sur la dynamique de Black & scholes, ils utilisent des résultats issus du calcul stochastique et de la théorie des options (options à barrière notamment) pour expliciter une distribution du niveau de dépréciation à un horizon donné. les résultats obtenus s’expriment de manière analytique, permettant une mise en œuvre aisée (choix des paramètres de dépréciation, intégration des effets des dépréciations dans un budget prévisionnel, etc.)

méthodologie

Retrouvez l’entretien de Pierre thérond

sur www.louisbachelier.org

Gérer au mieux les dépréciations

une telle méthode peut faciliter la gestion quotidienne des assu-reurs en permettant aux directeurs financiers de mieux anticiper les dépréciations et d’actualiser les provisions au jour le jour. Mais elle s’insère également, en amont, dans la définition de la stratégie de la compagnie. il s’agit alors, pour les assureurs, de s’appuyer sur cet outil d’aide à la décision pour choisir les critères de dépré-ciation les plus adaptés à leurs caractéristiques.

l’arbitrage est particulièrement difficile à trouver puisqu’il n’existe pas de paramètres optimaux uniques. ces derniers doivent tenir compte des spécificités de l’entreprise, qu’il s’agisse de son activité, de ses besoins en liqui-dité, des objectifs fixés par ses actionnaires, ou encore du type de gestion de titres utilisé (dyna-mique ou non).

ces premiers résultats ouvrent la voie à un outil plus complexe. les auteurs poursuivent actuelle-ment leurs travaux afin d’élaborer une formule intégrant un objec-tif visé par l’entreprise. celle-ci serait alors capable de définir les paramètres optimaux selon les

caractéristiques de la compagnie et le but fixé par les actionnaires, comme par exemple avoir un ré-sultat relativement stable dans le temps. les dépréciations doivent dans ce cas être régulières mais de faible ampleur.

enfin, au-delà des applications opérationnelles, ce travail met en avant l’utilité des mathématiques financières dans la résolution des problématiques comptables. “Peu de recherches ont été menées sur ce sujet car il croise deux disci-plines que sont la comptabilité financière et le calcul stochas-tique” explique Pierre Thérond. les modèles mathématiques sont pourtant de plus en plus présents dans les référentiels comptables, renforçant la nécessité de ce type de recherche.

Pierre thérond

Page 16: édito - L’actu économique et financière vue par la ... · Christian Robert est professeur en statistique et en science actuarielle à l’Ins-titut de Sciences financière et

OPINIONS& DÉBATS Numéro Spécial - Octobre 2015

Christian Gollier & Jean Tirole

Gouvernance mondiale de la lutte contre

le réchauffement climatique

The Negotiating effective institutions

against climate change

DÉBA& OPINIONS

T SSDÉBAONSNIO

DÉBA& T SSDÉBANumér

e 2015o Spécial - Octobr

Numére 2015

l

imate ag gainst

e e

t cl li Negotiating

T The Ne e réchauffeme le e

G Gouvernance m

m m

e ch h o

d d

institutio e ins tio g g on tio

change g e ins g g g effective in

queqlli utte u

tiq e la lu de u

limali ent c c iale d

c mondi d dia d nt ntr tre tr

The Negotiating effective institutions

n e con

g g

Christian Gollier & Jean Tirole Christian Gollier & Jean Tir

g

À PARAÎTREOpinions & DébatsNuméro Spécial COP 21

Les articles publiés

dans la série “Opinions

& Débats” offrent aux

spécialistes, aux

universitaires et aux

décideurs économiques

un accès aux travaux de

recherche les plus

récents. Ils abordent les

principales questions

d’actualité économique

et financière et

fournissent des

recommandations en

termes de politiques

publiques.

The Opinion and Debates

series sheds scientific

light on current topics in

economics and finance.

Bringing together several

types of expertise

(from mathematicians,

statisticians, economists,

lawyers, etc.) this

publication makes

recommendations in the

formulation and

implementation of public

economic policy.

PUB 4 COUV CAHIERS ILB-11_Mise en page 1 02/11/15 12:10 Page1