modele garch analyse cvar

34
1 Modélisation GARCH multivariée, analyse Moyenne-CVaR et risque d’estimation : une approche pour une allocation d’actifs optimale . L’industrie de la gestion d’actifs 1 connaît depuis ces dernières années une croissance sans précédent. En effet, les encours gérés ont été multipliés par deux entre 1998 et 2005. Les actifs gérés sous mandat, y compris les OPCVM investis dans les mandats, connaissent le même rythme de progression avec un taux de croissance à deux chiffres. Néanmoins, un problème majeur se pose. Le problème réside dans la difficulté pour les investisseurs, qui délèguent leur gestion, à connaître et comprendre les décisions d’investissements opérées par les gestionnaires d’actifs. En effet, les investisseurs ne connaissent qu’approximativement les mécanismes par lesquels un portefeuille parvient aux résultats escomptés. Une formalisation 2 du processus de gestion s’avère donc pertinente. En rendant le processus de gestion plus transparent, la formalisation permettrait aux investisseurs de contrôler plus facilement la gestion de leurs actifs et favoriserait la communication entre les investisseurs et les gestionnaires d’actifs. D’autre part, elle faciliterait, au sein même des sociétés de gestion, la communication entre les différents services et permettrait une automatisation d’un processus de gestion fiabilisé. En outre, il est important de souligner la prépondérance du rôle de l’allocation d’actifs 3 dans la construction d’un portefeuille. En effet, les études empiriques (Brinson, Singer et Beebower, 1991) montrent que l’allocation d’actifs stratégique expliquerait près de 90 %, dans la durée, la dispersion observée des performances. Ibbotson et Kaplan (2002) 1 Les investisseurs (particuliers ou investisseurs institutionnels) délèguent la gestion de leurs actifs à des sociétés de gestion spécialisées, qui emploient et rémunèrent des gérants qui vont choisir la composition du portefeuille. On distingue la gestion collective (SICAV et FCP) et la gestion sous mandat, utilisé, pour l’essentiel, par les investisseurs institutionnels. 2 Par un raisonnement littéraire seul, l’esprit humain n’est pas en mesure de tenir compte des interactions multiples qui secouent les variables économiques et financières. De plus, la formalisation mathématique introduit la rigueur nécessaire dans l’étude des questions économiques. 3 L’allocation d’actif peut se définir comme la répartition optimale des investissements entre les différentes classes d’actifs de façon à maximiser le rendement attendu à un horizon donné et dans une « enveloppe de risque » donnée. Dans la pratique de l’allocation d’actifs, on distingue la phase « d’allocation stratégique » où est déterminée le portefeuille de référence (la répartition moyenne entre grande classe d’actif à long terme) étant donné les caractéristiques propres de l’investisseur (horizon d’investissement, aversion au risque, contrainte de

Upload: idsu

Post on 08-Feb-2016

125 views

Category:

Documents


6 download

DESCRIPTION

modèle GARCH

TRANSCRIPT

Page 1: Modele GARCH Analyse Cvar

1

Modélisation GARCH multivariée, analyse Moyenne-CVaR et risque d’estimation : une approche pour une allocation d’actifs optimale.

L’industrie de la gestion d’actifs1 connaît depuis ces dernières années une croissance

sans précédent. En effet, les encours gérés ont été multipliés par deux entre 1998 et 2005. Les

actifs gérés sous mandat, y compris les OPCVM investis dans les mandats, connaissent le

même rythme de progression avec un taux de croissance à deux chiffres.

Néanmoins, un problème majeur se pose. Le problème réside dans la difficulté pour

les investisseurs, qui délèguent leur gestion, à connaître et comprendre les décisions

d’investissements opérées par les gestionnaires d’actifs. En effet, les investisseurs ne

connaissent qu’approximativement les mécanismes par lesquels un portefeuille parvient aux

résultats escomptés. Une formalisation2 du processus de gestion s’avère donc pertinente. En

rendant le processus de gestion plus transparent, la formalisation permettrait aux investisseurs

de contrôler plus facilement la gestion de leurs actifs et favoriserait la communication entre

les investisseurs et les gestionnaires d’actifs. D’autre part, elle faciliterait, au sein même des

sociétés de gestion, la communication entre les différents services et permettrait une

automatisation d’un processus de gestion fiabilisé.

En outre, il est important de souligner la prépondérance du rôle de l’allocation

d’actifs3 dans la construction d’un portefeuille. En effet, les études empiriques (Brinson,

Singer et Beebower, 1991) montrent que l’allocation d’actifs stratégique expliquerait près de

90 %, dans la durée, la dispersion observée des performances. Ibbotson et Kaplan (2002) 1 Les investisseurs (particuliers ou investisseurs institutionnels) délèguent la gestion de leurs actifs à des sociétés de gestion spécialisées, qui emploient et rémunèrent des gérants qui vont choisir la composition du portefeuille. On distingue la gestion collective (SICAV et FCP) et la gestion sous mandat, utilisé, pour l’essentiel, par les investisseurs institutionnels. 2 Par un raisonnement littéraire seul, l’esprit humain n’est pas en mesure de tenir compte des interactions multiples qui secouent les variables économiques et financières. De plus, la formalisation mathématique introduit la rigueur nécessaire dans l’étude des questions économiques. 3 L’allocation d’actif peut se définir comme la répartition optimale des investissements entre les différentes classes d’actifs de façon à maximiser le rendement attendu à un horizon donné et dans une « enveloppe de risque » donnée. Dans la pratique de l’allocation d’actifs, on distingue la phase « d’allocation stratégique » où est déterminée le portefeuille de référence (la répartition moyenne entre grande classe d’actif à long terme) étant donné les caractéristiques propres de l’investisseur (horizon d’investissement, aversion au risque, contrainte de

Page 2: Modele GARCH Analyse Cvar

2

tentent de déterminer l’explication de la différence entre les fonds, il apparaît que la

déterminante principale est l’allocation d’actifs tactique (45%) suivi par l’allocation

stratégique(40%).

Le point de départ de notre analyse est le célèbre modèle fondateur de Markowitz

(1952) qui a posé les jalons des méthodes quantitatives d’allocation d’actifs, son nom est

d’ailleurs associé à la notion de « portefeuille efficient ». Selon ce modèle, tout investisseur

poursuit deux objectifs conflictuels : la maximisation du rendement espéré et la minimisation

du risque, mesuré par la variance des rendements. Les principaux apports de ce modèle sont

sans doute son aspect relativement général, permettant son utilisation dans un grand nombre

de situations pratiques, et sa simplicité en terme d’analyse.

Cependant l’application de l’optimisation moyenne-variance est sujette à caution. En

effet une optimisation moyenne variance ne sera valable que si les taux de rentabilités suivent

une loi normale ou si l’investisseur possède une fonction d’utilité quadratique. De plus la

variance ne parait pas être une mesure du risque adéquate. Dans son calcul, l’écart entre les

taux de rentabilité au dessus de la moyenne et la moyenne est considéré comme une source

potentielle de risque. Enfin, la critique la plus sévère à l’égard de ce modèle est le fait qu’il

maximise l’erreur d’estimation (Michaud, 1989), en pratique le portefeuille efficient s’est

trouvé être instable ; de petits changements dans les paramètres qui servent d’inputs (matrice

de covariance, vecteurs de rendement) conduisent à un portefeuille radicalement différent.

Notre intérêt se porte plus particulièrement sur les différents modèles théoriques qui

ont cherché à dépasser ses limites. Cette démarche vise à faire profiter le monde

professionnel des dernières avancées issues de la recherche académique, tant en terme

d’allocation d’actifs que de mesures du risque. Le rejet de la part de la communauté

professionnelle du modèle mythique de Markowitz (1952), en raison de ses nombreuses

insuffisances, semble expliquer pour partie l’absence de formalisation dans la gestion

déléguée et, par conséquent, le fait que les approches quantitatives soient très peu répandues

dans les sociétés de gestion malgré les résultats des recherches académiques, les sociétés lui

préférant une approche qualitative. passif…). Et la phase « d’allocation tactique » où sont prises en compte les configurations de marché particulières, qui justifie un écart par rapport à l’allocation stratégique sur le court terme.

Page 3: Modele GARCH Analyse Cvar

3

Dans ces conditions, il s’agit ici de se demander :

Quels modèles utiliser pour formaliser le processus de gestion, afin d’optimiser l’allocation

d’actifs, dans un contexte de gestion déléguée ?

Nous introduisons dans ce contexte une nouvelle méthodologie permettant de résoudre

les problèmes fondamentaux inhérent à l’utilisation de l’optimisation moyenne-variance.

Cette méthodologie apporte une double contribution à la littérature. A notre connaissance

aucun auteur ne s’est attardé sur l’analyse du risque d’estimation dans le cadre théorique

Moyenne-CVaR. Le choix de ce cadre théorique se justifie par le fait que la CVaR est une

mesure du risque cohérente au sens d’Artzner et al et est capable, en autre, de capturer les

downsides risks et la non-normalité observée sur les séries financières. Le risque d’estimation

étant, en premier lieu, analyser dans la modélisation GARCH-DCC (Dynamic Conditional

Correlation) d’Engle (2002). Ce modèle étant capable de capter la plupart des caractéristiques

observées sur les séries financières (corrélations dynamiques, clusters de volatilité, non-

normalité, effet de levier…) et contribue, donc, à augmenter la qualité des inputs nécessaires à

l’optimisation moyenne-CVaR. La deuxième contribution est relative à la généralisation du

modèle de Ruiz, permettant la prise en compte du risque d’estimation dans les paramètres du

GARCH univarié, au cas multivarié, dans notre cas aux paramètres du modèle GARCH-DCC.

La suite de cette présentation s’organise ainsi de la façon suivante. Dans un premier

temps, nous revenons brièvement sur la première limite du modèle de Markowitz, la variance

comme mesure du risque. Dans une deuxième partie, nous nous intéresserons à une mesure du

risque pouvant remplacer la variance comme mesure du risque, la CVaR. La section suivante

s’intéressera à la modélisation GARCH-DCC d’Engle (2002). Enfin, notre attention se portera

sur un modèle d’allocation reprenant le principe du portfolio resampling basé sur la

méthodologie de Michaud(1998) adaptée à la modélisation GARCH multivarié dans un cadre

Moyenne-CVaR.

Page 4: Modele GARCH Analyse Cvar

4

I) Le cadre Moyenne-Variance I-1) La variance, une mauvaise mesure du risque

La première limite du modèle de Markowitz (1952) porte sur les deux hypothèses

suivantes : les rendements sont supposés être normalement distribués et/ou les investisseurs

sont supposés avoir une fonction d’utilité quadratique.

Ces deux hypothèses permettent de justifier le recours à la variance comme mesure du

risque. La variance est la plus ancienne et la plus connue des mesures du risque. C’est une

mesure simple et efficiente du risque de marché sous certaines hypothèses contraignantes. La

variance ne considère que les deux premiers moments d’une distribution. On peut, donc, se

limiter à l’analyse des deux premiers moments d’une distribution que si l’une ou l’autre des

hypothèses est valable. Si la distribution des rendements est normale, alors cette distribution

est complètement caractérisée par ses deux premiers moments. Ensuite, si la fonction d’utilité

des investisseurs est quadratique (peu réaliste), alors l’investisseur ne considère comme

mesure du risque que le deuxième moment et non les moments d’ordre supérieurs. Mais dans

les faits aucune de ces conditions n’est valide.

D’une part, une simple fonction quadratique ne respecte pas la propriété fondamentale

d’une fonction d’utilité, à partir du moment où, à un certain niveau de richesse, la fonction a

une utilité marginale négative (les investisseurs préfèrent moins de richesse que plus de

richesse, propriété de satiété).

D’autre part, de nombreuses études ont conclu au rejet de la loi normale comme loi de

distribution des taux de rentabilité (Kon (1984), Mills (1995), Peiro (1999) et, Premaratne et

Bera (2002))… Les études empiriques suggèrent que les rendements présentent des queues

plus épaisses que celles qui ressortent de la loi normale, et peuvent également être

asymétriques (moments supérieurs d’ordre 3 et 4 qui présentent donc d’autres dimensions du

risque). Les théories de gestion du risque ont donc évolué vers des mesures qui intègrent les

moments d’ordre supérieur à 2.

De plus, même en supposant une rentabilité normalement distribuée, la variance ne

parait pas être une mesure du risque adéquate. Dans son calcul, l’écart entre les taux de

rentabilité au dessus de la moyenne et la moyenne est considéré comme une source potentielle

Page 5: Modele GARCH Analyse Cvar

5

de risque, ce qui est contraire à la vision communément admise du risque. Or, la théorie du

« safety first » (Roy, 1952) affirme que les investisseurs accordent plus d’importance aux

risques baissiers « downside risk » plutôt qu’aux risques haussiers « upside gains ». Un

portefeuille optimale selon Roy (1952) est celui qui assure la probabilité de désastre

minimum. Dans son modèle, le risque est mesuré en terme d’écarts en dessous d’un objectif

prédéfini. Cette approche permet au gestionnaire de portefeuille de définir le risque d’une

manière adéquate en fonction de ses objectifs et des contraintes qui lui sont imposés

concernant le rendement de son portefeuille.

Ainsi, plusieurs méthodologies ont été proposé pour remplacer la variance comme

mesure du risque afin d’évaluer et d’optimiser l’exposition au risque d’un investisseur. On

peut, notamment, citer l’approche mean-semivariance de Markowitz(1959), l’analyse mean-

Gini de Shalit et Yitzhaki (1984), l’approche mean absolute deviation (MAD) de Konno et

Yamasaki (1991), le modèle mean semi-deviation de Ogryczak et Ruszcznski (1991)…

La plus connue de ces mesures de risque est, sans nul doute, la VaR (value at risk),

apparue au début des années 90. Face aux limites des mesures traditionnelles du risque, il a

fallu se doter d’une mesure du risque de baisse de la valeur des actifs en ayant recours à des

mesures qui sont davantage reliées à l’ensemble de la distribution des flux monétaires d’un

portefeuille. C’est dans ce contexte qu’une mesure nominale du risque a été proposée : la

VaR. Cette mesure a d’abord servi à quantifier les risques de marché auxquels sont soumis

les portefeuilles bancaires. En effet, l’Accord de Bâle a imposé aux banques, en 1997, de

détenir un montant de capital réglementaire pour pallier les risques de marché. Or ce capital

est calculé à partir de la VaR. Cette mesure est ensuite devenue populaire pour évaluer le

risque de portefeuille institutionnel.

La VaR d’un portefeuille d’actifs correspond à la perte (en valeur absolu) maximale

potentielle, liée à la détention de ce dernier pour une période donnée, avec une probabilité

d’occurrence égale à α−1 (α généralement fixé à 1% ou 5%). Pour la période de détention

il y a donc α % de chance d’obtenir des pertes, en valeur absolue, pus grande que la VaR

(Raison pour laquelle α est maintenue à un niveau faible).

Plusieurs auteurs utilisent l’approche mean-VaR dans le cadre de la sélection de portefeuille.

On peut citer les travaux de Campbell, Huisman et Koedijk(2001), ou encore Tokpavi (2005).

Page 6: Modele GARCH Analyse Cvar

6

Le risque n’est plus un concept symétrique comme c’était le cas pour l’écart-type. Les

théories du « downside risk » sont très préoccupées par les moments d’ordre supérieur à 2. La

VaR relève de la première génération de ces théories. La Var est une mesure du risque

attractive de part sa simplicité dans sa compréhension, elle est rapidement devenue un

standard dans la mesure du risque .Malgré sa popularité, la VaR possède quelques limites.

1. La VaR d’un portefeuille de titre n’est pas, dans certains cas, plus faible que la

somme des VaR de ses composants. Elle escamote donc le principe de

diversification, un principe de base en finance. Elle ne satisfait pas la propriété

de sous-addivité. Il est donc probable que la VaR ne soit pas la meilleure

mesure du risque.

2. La VaR comme fonction des poids de portefeuille n’est pas convexe. Son

manque de convexité peut conduire à avoir plusieurs extrema locaux. C’est

donc un problème lorsque l’on cherche à déterminer les poids qui minimisent

la VaR.

3. La VaR nous donne seulement une perte maximale probable pour un niveau de

confiance donné, ne donnant aucune indication sur l’amplitude des pertes au

delà de la VaR si elles surviennent effectivement. Il est sûrement plus

intéressant, dans certains cas, de savoir, qu’elle est le montant moyen des

pertes en cas de dépassement de la VaR. La CVaR répond à ce problème, elle

possède donc l’avantage de balayer, toute la zone de désastre.

La CVaR est relativement proche de la VaR, cependant elle possède les propriétés

mathématiques qui lui permette d’être une meilleure mesure du risque que la VaR dans ce

contexte précis d’allocation d’actifs. De plus, Alors que la VaR mesure la probabilité qui est

couverte par la partie extrême de la distribution des rendements, elle est cependant insensible

aux modifications de la queue de distribution à gauche du alpha quantile.

Page 7: Modele GARCH Analyse Cvar

7

II) L’optimisation Moyenne-CVaR

L’optimisation Moyenne-CVaR nous permet de définir le portefeuille qui pour un

niveau de rendement espéré fixé aura la CVaR minimum.

La CVaR est une mesure du risque appropriée dans le cadre de l’optimisation de

portefeuille. D’une part, cette mesure alternative du risque prend en compte la non-normalité

des rendements des actifs, ce qui lui procure un avantage par rapport à l’optimisation

Moyenne-Variance. D’autre part la CVaR possède les propriété mathématique qui font d’elle

une mesure du risque cohérente au sens d’Artzner et al (1997), propriété que la var ne possède

pas. Une propriété importante dans l’optimisation de portefeuille est la convexité. En effet, La

convexité de la CVaR garantit qu’il n’y pas de minima locaux. En d’autres termes, s’il existe

un portefeuille qui minimise la CVaR, alors ce portefeuille est optimal.

Ces avantages lui permettent d’avoir été choisi par plusieurs auteurs, dont Rockafellar

et Uryasev (1999, 2001), comme la mesure du risque dans un contexte d’optimisation de

portefeuille, on peut également citer Di Clemente et Romano (2003).

II-1) Le modèle général de la CVaR

Soit nX ℜ⊂ un jeu de portefeuilles possibles et Xx∈ un portefeuille donné. Soit ny ℜ∈ une variable aléatoire représentant les rendements du portefeuilles et ses variations.

On définie ),( yxf comme la fonction des pertes, on suppose que f à une fonction de

probabilité de densité p.

Afin de définir la CVaR de façon mathématique, nous avons besoin de quelques définitions.

Pour un portefeuille x donné, la probabilité que les pertes n’excèdent pas un seuil α est

donnée par :

∫ ≤=Ψ dyypx yxf )(),( ),( αα (1)

Page 8: Modele GARCH Analyse Cvar

8

En définissant un niveau de probabilité β et un portefeuille x, alors la Value-at-Risk ( β -

VaR) est définie comme la perte minimale de telle sorte que la probabilité de dépasser les

pertes est supérieure ou égale à β :

βαψααβ ≥ℜ∈= ),(:min)( xx (2)

De façon analogue, avec une probabilité β et un portefeuille x, la Conditional-Value-at-Risk

( β -CVaR) est définie comme l’espérance des pertes supérieur a la β -VaR.

La CVaR est calculée à partir de la distribution des réalisations comprises dans la

queue. Elle tient compte de l’asymétrie de cette région. Cette distribution est également

influencée par l’épaisseur de la queue, qui est reliée à l’intensité des événements extrêmes.

De façon mathématique on a :

∫ ≤−= dyypyxfx xyxf )(),(

)1(1)( )(),( βαβ β

φ (3)

La probabilité que )(),( xyxf βα≥ est précisément égale à 1-β . On peut donc réécrire

l’équation précédente de la façon suivante :

[ ]∫ +

ℜ∈−

−= dyypxyxfxx ny )()(),(

)1(1)()( βββ αβ

αφ (4)

Avec [ ] aa =+ si a>0 mais [ ] 0=+a si a<0

Avec une probabilité β donnée, le problème de minimisation de la β -CVaR consiste à

trouver le portefeuille nx ℜ∈ de telle façon que )(xβφ est à son minimum.

Page 9: Modele GARCH Analyse Cvar

9

Il est néanmoins difficile d’utiliser cette fonction à cause de la fonction )(xβα de la

VaR présente dans cette définition, à moins d’avoir une représentation analytique de la VaR.

L’idée principale est de définir une fonction plus simple qui peut être utilisée à la place de la

CVaR :

[ ]∫ +

ℜ∈−

−+= dyypyxfxF ny )(),(

)1(1),( αβ

ααβ (5)

On peut prouver (voir Rockafellar et Uryasev (1999)) que :

1. la fonction ),( αβ xF est convexe par rapport àα .

2. la VaR est minimisée par cette fonction.

3. Minimiser ),( αβ xF par rapport àα donne la CVaR.

),(min))(,()( ααφ βαβββ xFxxFx ==

Plus encore, on peut utiliser la fonction ),( αβ xF pour le calcul simultané de la VaR et

l’optimisation de la CVaR :

),(min)(min,

αφ βαβ xFxXxXx ∈∈

=

Minimiser la fonction ),( αβ xF par rapport aux variables (x,α ) optimise la CVaR et

détermine la VaR simultanément. Soit ),( ** αx la solution du problème de minimisation alors

),( ** αβ xF donne, dans le même temps, le portefeuille CVaR optimal )( *x , aussi bien que la

CVaR et la VaR )( *α du portefeuille optimal.

La puissance de cette approche provient du fait que la fonction ),( αβ xF est convexe

et également linéaire en fonction de α , et si f(x,y) est convexe par rapport à x, alors ),( αβ xF

est convexe par rapport à (x, α ) et )(xβφ est convexe par rapport à x. Les propriétés de

convexité assurent de pouvoir trouver un minimum global.

Page 10: Modele GARCH Analyse Cvar

10

Une fois que les propriétés qui permettent de trouver le minimum de la fonction βF

ont été défini. Nous pouvons introduire l’algorithme de minimisation. Pour ce faire nous

montrerons dans la prochaine section qu’un algorithme de programmation linéaire peut être

utilisé.

II-2) L’optimisation de portefeuille

Soit W la richesse investie dans un portefeuille composé de d actifs financiers, De

façon analytique on a :

∑=d

iiwW (6)

Avec iw (i=1,…,d) le montant de capital investi dans l’actif i. L’équation (6) représente la

contrainte d’équilibre en terme monétaire. Il serait mieux d’exprimer cette contrainte en

pourcentage :

∑=d

iix1 (7)

Avec Wwx ii /=

Soit x= ),...,( 1 dxx le vecteur de décision dont les éléments, ix (i=1,…,d), représentent

le pourcentage de capital détenu dans chaque actif. En général, d’autres contraintes peuvent

être également utilisés, tel que l’interdiction des ventes à découvert :

0≥ix (8)

pour chaque i=1,…,d

Le vecteur aléatoire ),...,( 1 dyyy = représente les rendements futures pour chaque

actif i à la fin de la période de détention considérée. La distribution de y est une distribution

multivariée de la rentabilité des d actifs du portefeuille et dépend de x. On assume qu’une

telle distribution à une fonction de densité p(y). Les rendements aléatoires du portefeuille à la

Page 11: Modele GARCH Analyse Cvar

11

fin de la période de détention est la somme des rendements aléatoire de chaque actif, iy ,

pondérés par leur poids respectif, ix . La perte du portefeuille est définie comme les

rendements négatifs du portefeuille associés à l’état y:

]...[),( 11 dd yxyxyxf ++−= (9)

La fonction objective à minimiser est la suivante :

)()(]),([1

1),( ydypyxfxFdR

+∫ −−

+= αβ

ααα (10)

L’équation (10) est convexe par rapport aux variables ),( ax

Cette eqaution peut , cependant, être simplifiée en générant K scénarios à partir de

l’historique ou de simulations de monte-carlo. Les scénarios générés sont représentés par K

vecteurs Kyy ~,...,~1 . De cette façon , il est possible d’approximer la fonction F par la fonction

F~ qui est donné par :

∑=

+−−

+=K

kkyxf

KxF

1])~,([

)1(1),(~ αβ

ααα (11)

Afin de résoudre ce problème d’optimisation, il suffit de remplacer +−− ]~[ αkT yx par

une variable artificielle kυ , tout en imposant les contraintes linéaires suivantes :

αυ −≥ )~,( kk yxf (12)

0≥kυ (13)

Nous introduisons une dernière contrainte ; le rendement espéré du portefeuille doit

être égal à un objectif donné 0R .

][0 i

d

ii RExR ∑≤ (14)

Page 12: Modele GARCH Analyse Cvar

12

Soit kiR le rendement de l’actifs i dans le scénario ky~ . Nous pouvons exprimer les

pertes du portefeuille de la façon suivante :

kiik Rxyxf −=)~,( (15)

Nous obtenons donc le problème de programmation linéaire, suivant,

−+ ∑

=

K

kkx K

Min1

, )1(1 υβ

αα (16)

Sous contrainte :

0≥kυ , αυ −−≥ kiik Rx ,

0≥ix , ][0 i

d

ii RExR ∑≤ ,

1=∑d

iix .

La taille de ce problème de programmation linéaire, qui peut être déterminé

numériquement, est K+d+1.

La principale limite de cette méthode optimisation CVaR est qu’un échantillon fini ne

peut seulement donner qu’une description approximative de la distribution des rendements

futures. La précision de l’optimisation CVaR est essentiellement limitée par la taille de

l’échantillon, nous avons besoin d’un échantillon plus grand par rapport à la var pour le même

degré de précision.

Page 13: Modele GARCH Analyse Cvar

13

III) La génération de scénarios nécessaires à l’optimisation, une approche économétrique. III-1)Les caractéristiques des séries financières

La correcte spécification des rendements espérés et de la matrice de variance

covariance est une étape cruciale dans le monde de la gestion d’actifs. En général, dans la

gestion du risque, les simulations de monte carlo pour les scénarios des rendements des actifs

sont générés à partir d’une loi multi-normale. Le vecteur des rendements espérés et la matrice

de variance covariance espéré sont calculé à partir de l’historique. Malgré la simplicité de

cette méthodologie, nous passons à travers les caractéristiques des séries financières ce qui

motivait l’utilisation de la CVaR comme mesure du risque.

Passons en revue ces caractéristiques :

• Queue de distribution épaisse et asymétrie

On assume, généralement, que les rendements des actifs financiers suivent une loi

normale. L’avantage de cette hypothèse est qu’il est relativement facile de travailler avec ce

type de distribution. Or, les observations empiriques des rendements montrent plus de valeurs

extrêmes que ceux qui sont générées par une loi normale, c’est-à-dire que les distributions des

rendements des actifs ont des queues plus épaisses que la distribution normale. On dit qu’elles

ont une distribution leptokurtique. De plus, il apparaît que la distribution des actifs est

généralement asymétrique : il y a plus de mouvement fort à la baisse qu’à la hausse, les

distribution présentent donc un coefficient de skewness (moment d’ordre 3) négatif.

• Clusters de volatilité

On observe souvent une corrélation temporelle dans le rendements des séries financières.

Ce qui signifie que si une valeur absolue élevée est observée alors la prochaine observation

sera probablement aussi élevée. Ce phénomène est appelé cluster de volatilité. L’effet de ce

phénomène devient plus apparent lorsque la taille de l’échantillon augmente. Une possible

explication de ce phénomène est que l’arrivé de nouvelle information est corrélée

temporellement.

Page 14: Modele GARCH Analyse Cvar

14

• l’effet de levier

Les données empiriques indiquent que la volatilité des rendements des actifs réagissent

souvent différemment à un choc négatif par rapport à un choc positif sur les prix. Un choc

négatif à un impact beaucoup plus marqué qu’un choc positif sur la volatilité.

• Corrélation dynamique.

Lorsque l’on cherche à construire un portefeuille de plusieurs actifs. Regarder seulement

les rendements espérés et le risque des ces différents actifs n’est pas suffisant. Nous devons

également prendre en compte les corrélations entre ces classes d’actifs. Il existe en effet des

corrélations négative ou positive plus ou moins forte entre les classes d’actifs. De plus il

apparaît que ces corrélations évoluent dans le temps ; ils augmentent, par exemple, en période

de bear market et diminue en période de bull market Longin et Solnik (1995), Ang et Bakaet

(1999).

La réalité empirique montre donc quelques aspects des séries financière que n’incorporent

pas une matrice de variance covariance historique et une distribution normale. Dans la

procédure d’optimisation, ignorer de telles caractéristiques de la matrice de variance

covariance et des distributions suivies par les actifs tend à conduire à une mauvaise estimation

des poids optimaux des actifs, et in fine, tend à sous estimer le risque associé au portefeuille.

Par conséquent l’investisseur à une solution sous optimale pour construire son portefeuille.

Dans ce contexte comment capter de façon optimale toutes ces caractéristiques afin d’obtenir

un mélange optimal d’actif ?

.

Page 15: Modele GARCH Analyse Cvar

15

III-2) Le modèle GARCH DCC III-1-1) GARCH univarié

La spécification hétéroscédastique conditionnelle autorégressive ou ARCH, a été

initiée par Engel (1982) pour caractériser la dynamique des seconds moments conditionnels

que l’on retrouve dans la plupart des séries financières. Elle a été par la suite généralisée par

Bollerslev (1986) avec ce qu’on a appelé l’hétéroscédastique conditionnelle autorégressive

généralisée ou GARCH. C’est le modèle le plus populaire lorsqu’il s’agit d’estimer les

variances conditionnelles. Les modèles GARCH ne se contentent pas seulement d’estimer des

variances qui évoluent dans le temps, mais incorpore également les caractéristiques observées

sur les séries financières (leptokurtisme, effet de levier, cluster de volatilité…).

D’autre généralisations ont été proposé par plusieurs chercheurs, on peut citer les modèles

AGARCH, EGARCH, FIGARCH,GJR-GARCH, TARCH...

Nous débutons avec un modèle GARCH univarié pour l’estimation de la variance

conditionnelle. La variance conditionnelle d’un actif x qui suit un modèle GARCH(1,1)

univarié est donnée comme la fonction de la variance inconditionnelle, du carré de la

rentabilité centrée en t-1 et de la variance conditionnelle en t-1.

On assume que les dynamiques d’une série temporelle x est donné par un modèle

dynamique du type GARCH(1,1) :

tttt zx σµ += (17)

21

21

2−− ++= ttt βσαεωσ (18)

Avec ttt x µε −= (19)

ttt z σε = (20)

tz i.i.d. E( tz )=0 et Var( tz )=1 de fonction de distribution G.

1<+ βα (21)

βαωσ−−

=1

21 (22)

Page 16: Modele GARCH Analyse Cvar

16

tµ et tσ sont respectivement la moyenne et la variance conditionnelle à un ensemble

d’information 1−tI .

Avec la condition 1<+ βα qui garantie que la variance inconditionnelle 21σ est stationnaire.

On estime les paramètres ( βαω ,, ) grâce au quasi maximum de vraisemblance en

assumant une distribution conditionnelle normale.

Ln X ∝

+− ∑

=

T

t t

tt

1

22 )()ln(21

σε

σ (23)

A partir des estimations du quasi maximum de vraisemblance ( βαω))) ,, ), nous pouvons

calculer la série de variances 2tσ) et les résidus induits, à partir des rendements centrés au carré

tε observés, les variances estimées passées en utilisant l’équation récursive suivante.

222

1 ttt σβεαωσ ))))) ++=+ (24)

Avec βα

ωσ ))

))

−−=

121 .

Une prévision de 21+Tσ est donné par :

222

1 TTT σβεαωσ ))))) ++=+ (25)

III-2-2) GARCH multivarié, le GARCH DCC

La modélisation conjointe de la dépendance des seconds moments conditionnels d’une

gamme d’actifs a conduit à la généralisation du cadre multivarié des modèles GARCH, et de

ce fait permis l’accès à une meilleure boite à outils décisionnelle dans plusieurs aspect de la

gestion financière, et notamment la gestion d’actifs.

Il existe une large palette de modèles GARCH multivariés, incluant les modèles VECH

GARCH de Bollerslev, Engel et Wooldridge (1988), les modèles BEKK d’Engel et Kroner

Page 17: Modele GARCH Analyse Cvar

17

(1995), Factor modèles (F-GARCH) d’Engel, Ng et Rothschild (1990), le CCC GARCH de

Bollerslev (1990) ou encore le model DCC GARCH de Tse et Tsui (2002) et d’Engel (2002).

Nous nous intéresserons plus particulièrement au modèle DCC. Dans la plupart des

modèles GARCH multivariés, le nombre de paramètres à estimer augmente très rapidement

lorsque le nombre d’actifs augmente, rendant ces modèles relativement compliqué à estimer

avec la présence d’un nombre d’actifs supérieur à deux. Or sous les hypothèses de normalité

de la distribution des résidus. Le modèle DCC peut être estimer en deux étapes. Dans la

première étape, un modèle GARCH univarié est spécifié pour chaque classe d’actifs. Dans la

seconde étape les résidus standardisés issus de la première étape sont utilisés pour estimer les

corrélations dynamiques. La procédure en deux étapes permet de limiter le nombre de

paramètre à estimer simultanément tout en assurant la positivité de la matrice de variance

covariance.

De plus, ce modèle étant une généralisation du modèle CCC, permet de s’affranchir de

l’hypothèse erronée de la constance des corrélations dans le temps du modèle CCC en

rendant les corrélations conditionnelles dépendantes du temps. Les études empiriques

montrant l’existence d’une dynamique des corrélations dans le temps.

• Le modèle DCC

Les variances conditionnelles,de chaque actifs, tii ,σ sont modélisé par l’intermédiaire d’un

GARCH univarié et les paramètres correspondants sont estimés. L’idée qui sous tend la

formulation du type DCC, est de décomposer les covariance conditionnelles comme produit

des variances conditionnelles et des corrélations conditionnelles.

tijtjjtii

tijtij ,

,,

,, σ

σσ

σρ ⇒= = tjjtiitij ,,, σσρ (26)

Le modèle multivarié est défini comme suit :

tttt ZHX 2/1+= µ (27)

tttt DRDH = (28)

Page 18: Modele GARCH Analyse Cvar

18

Où ),...,( ,1 tdtt xxX = le vecteur des observations passées.

),...( 1 dttt µµµ = le vecteur des rendements conditionnels.

),...,( ,1 tdtt zzZ = le vecteurs des résidus standardisés.

tR =( tij ,ρ ) la matrice symétrique (dxd) des corrélations dynamiques.

),...,( ,,11 tddtt diagD σσ= est la matrice (dxd) des écarts types conditionnels de chacune des

séries financières respectant individuellement la spécification d’un GARCH univarié c'est-à-

dire : 2

1,2

1,2, −− ++= tiiitiiiitii σβεαωσ (29)

Selon Engel(2002), les éléments de la matrice tR , soient ( tij ,ρ ) sont égaux aux

éléments de la matrice de covariance des résidus standardisés ; tij ,ρ = tijz ,

Modéliser tR revient à modéliser la matrice de variance covariance tQ des résidus

standardisés tZ . La formulation proposée par Engle (2002) est la suivante :

111 ')1( −−− ++−−= tttt QZZQQ γδγδ (30)

avec 0, >γδ et 1<+ γδ

tQ étant une matrice de variance covariance, il est donc peu probable que les éléments

diagonaux soit égaux à 1 et donc qu’elles correspondent à une matrice de corrélation. Cette

propriété est cependant garantie par l’équation suivante :

2/12/1 )()( −−= tttt diagQQdiagQR (31)

Pour l’estimation des deux paramètres nous faisons donc appel à la méthodologie en

deux étapes étant donné que cette formulation allie la richesse de la dynamique du processus

modélisé et la flexibilité dans l’estimation. Seulement cette méthode ne se fait pas sans

inconvénient étant donné qu’elle n’est possible que sous l’hypothèse de normalité, or les

études empiriques rejettent l’hypothèse de normalité. Néanmoins, l’idée générale des

estimateurs du quasi-maximum de vraisemblance consiste à démontrer que si l’on commet

une erreur sur la distribution conditionnelle des résidus en utilisant à tort une log-

vraisemblance fondée sur une loi normale, l’estimateur du maximum de vraisemblance ainsi

Page 19: Modele GARCH Analyse Cvar

19

obtenue peut tout de même être convergeant si la vraie loi des résidus appartient à la famille

de la loi normale (Gourieroux, Montfort 1989). L’estimateur sera convergeant et

asymptotiquement normale. Engle et Sheppard (2001) démontrent que les estimateurs du

modèle DCC sont consistant et asymptotiquement normaux.

Dans ce cas , la log-vraisemblance est :

L= )()()'(21)log(det

21)2log(

21

tttttT uxHuxHn−−−−− −π (32)

Avec tttt DRDH =

L= ))(()'(21)]log[det(

21)2log(

2111

tttttttttt uxDRDuxDRDn−−−−− −−−π (33)

Or on sait que ttt ux ε=− et que le vecteur des résidus standardisés est égal

à ttt DZ ε1−= .

L’expression devient :

L= )(21)]log[det(

21)2log(

21'

tttttt ZRZDRDn −−−− π (34)

Cette fonction de vraisemblance se décompose en un terme pour la volatilité noté vL et

un pour la corrélation noté cL et prend donc la forme )( 0θL = )( 1θvL + ),( 12 θθcL .

)( 0θL = ∑=

−+−T

ttttttt ZRZDRD

1

1' )()]log[det(21 (35)

= −+− ∑=

T

tttt ZZD

1')]log[det(2

21

∑=

− −+T

ttttttt ZZZRZR

1

1 '')]log[det(21

Page 20: Modele GARCH Analyse Cvar

20

Avec

)( 1θvL = ∑=

+−T

tttt ZZD

1

')]log[det(221 (36)

= ∑ ∑= =

+−

T

t

n

i tii

titii

1 1 ,2

2,

,2 )log(

21

σε

σ

= ∑ ∑= =

+−

n

i

T

t tii

titii

1 1 ,2

2,

,2 )log(

21

σε

σ

Et

),( 12 θθcL = ∑=

− −+−T

ttttttt ZZZRZR

1

1 '')]log[det(21 (37)

Avec 1θ l’ensemble des paramètres des éléments diagonaux de tD , soit les tii ,σ et 2θ est

l’ensemble des paramètres de la matrice de corrélations tR soit les tij ,ρ .

La maximisation de cette fonction de vraisemblance se fera en deux étapes :

Etape 1 : trouver 1θ)

tel que 1θ)

= argmax )( 1θvL

Dans cette première estimation, un modèle GARCH(1,1) univarié est appliqué aux

variances conditionnelles de chaque actif. À l’issue de celle-ci, les coefficients qui expliquent

la volatilité de chaque actif, pris individuellement, sont obtenus.

Etape 2 : ),(max 212

θθθ

)cL

Dans cette seconde phase d’estimation, les coefficients des volatilités obtenus lors de

la première étape, 1θ)

, sont maintenus constants, et servent à conditionner la fonction de

vraisemblance utilisée pour estimer les paramètres de la dynamique des corrélations, 2θ .

Page 21: Modele GARCH Analyse Cvar

21

Hafner et al (2003) affirment que dans le cas du DCC de Engle et Sheppard (2001), et

Engle (2002) ce modèle conduit à une sélection sous optimale des titres d’un portefeuille

lorsque le nombre d’actifs en jeu est d’environ 20 et 30 alors qu’il est conçu pour des matrices

de grandes dimensions. Selon eux ceci est dû au fait que le modèle DCC suppose que les

corrélations conditionnelles spécifiques aux actifs suivent toutes la même dynamique qui est

une structure de type ARMA. Cette hypothèse peut être facilement satisfaite par un petit

nombre de rendements d’actifs sélectionnés (condition satisfaite dans le cas de l’allocation

des classes d’actifs, en effet la gestion diversifiée institutionnelle requiert relativement peu de

classe d’actif).

II-3) Simulation de Monte-Carlo : la méthode FHS

La simulation historique, via le bootstrap naïf des séries financières, est largement

utilisée dans la pratique de la gestion du risque. Cette méthode consiste à générer des

scénarios basés sur les mouvements historiques des prix. Elle est, donc, basée sur une

distribution empirique des rendements des actifs. La méthode du bootstrap naïf consiste à

générer des pseudo rendement en rééchantillonnant avec replacement à partir de la série

originale, elle reflète une image plus réaliste qu’une distribution paramétrique. Néanmoins

une simulation classique historique ne se fait pas sans inconvénient. En effet, comme évoqué

ci-dessus les études empiriques montrent l’existence de cluster de volatilité ce qui prouve

l’existence d’hétéroscédasticité dans les séries financières. Or la méthode naïve du bootstrap

ignore l’existence des dynamiques de volatilité et est basé sur l’hypothèse de distribution

i.i.d. et n’arrive donc pas à capter la dépendance des rendements dans le temps.

Malheureusement la seule loi de distribution à laquelle nous avons accès est la loi

normale, loi spécifiée dans le cadre du DCC qui constitue une des critiques potentielles de ce

modèle étant donné que la normalité a été rejeté par les faits. De plus le recours à cette loi

dans un cadre moyenne CVaR n’as pas plus d’intérêt que d’utiliser une optimisation

Moyenne-Variance à partir du moment où les deux méthodes donnent, à peu près, la même

pondération d’actifs dans le cas où une loi normale est spécifiée et enlève,donc, toute la

puissance de l’optimisation moyenne CVaR. En effet, dans le cas où les rendements sont

gaussien, il est équivalent de prendre l’une ou l’autre de ces mesures à partir du moment il est

Page 22: Modele GARCH Analyse Cvar

22

impossible de discriminer en fonction des moments d’ordre supérieurs. De plus l’utilisation

d’une loi paramétrique à tort peut ne pas être sans conséquence sur le résultat escompté.

La méthode FHS (filtered historical simulation) répond au problème que nous

rencontrons. En particulier, les données historiques sont filtrés en utilisant le GARCH

(Barone-Adesi et al 1999,2000) .

Au lieu d’utiliser un choc commun dont la loi de distribution serait normale, nous utiliserons

un vecteur de chocs, qui n’est rien d’autre que le vecteur des résidus standardisés centrés

Tddiit zzZ ,1, ,...,= que nous bootstraperons. Nous étendons donc le concept de la méthode

FHS au cas multivarié dans un contexte d’optimisation de portefeuille. Nous ne spécifions

donc aucune loi paramétrique, ce qui nous permet d’éviter une erreur quand à la loi choisie. Et

surtout, nous ne voulons pas assumer une distribution normale des chocs. De plus l’idée du

pseudo maximum de vraisemblance est de dire que les résidus tendent vers les vrais résidus,

la distribution empirique tend donc vers la vraie distribution.

Nous devons construire une séries de K scenarii, qui serviront d’inputs à l’optimisation

Moyenne-CVaR (16). Nous supposons que les chocs qui serviront à la simulation de Monte-

Carlo sont mieux caractérisés par les résidus du modèle GARCH. Cette procédure nous

affranchis de l’hypothèse de normalité. De fait, même après avoir standardisé les rendements

avec un modèle de variance dynamique, les résidus standardisés présentent des moments

d’ordre supérieurs potentiellement éloignés de la normalité

kTTk ZHX .' 2/111 ++ += µ (38)

avec k=1,…,K

Avec kZ , le vecteur de résidus bootstrapés à partir de la série des résidus standardisés

originaux.

Pour la simulation, il est nécessaire d’avoir kZ i.i.d avec var( kZ )= dI . Les résidus étant

standardisés, la corrélation temporelle n’existe plus, mais il existe une corrélation entre les

kZ , (c'est-à-dire entre les résidus du modèle dynamique de chaque actifs, ce qui est,

d’ailleurs, à la base de la méthodologie en deux étapes d’Engle(2002) );

kZ est tel que kk IZ ≠

Page 23: Modele GARCH Analyse Cvar

23

Il faut donc les rendre i.i.d, pour ce faire nous faisons appel à l’inverse de la

décomposition de Cholesky de la matrice de corrélation tR .

Soit L la matrice triangulaire inférieure de la décomposition de Cholesky de la matrice, on a :

ttDt ZLZ .2/1−= (39)

De cette façon nous aurons DtZ i.i.d avec var( D

tZ )= dI , que nous pouvons utiliser pour

générer les scénarios nécessaires à l’optimisation.

DkTTk ZHX .' 2/1

11 ++ += µ (40)

Cette méthodologie, bien que, présente, théoriquement, une avancée par rapport au

modèle original, ne réussit pas complètement à contrer la critique la plus sévère énoncée à

l’encontre du modèle de Markovitz ; à savoir l’omission de l’erreur d’estimation dans

l’optimisation. Il est vrai qu’une modélisation GARCH multivariée permet d’augmenter,

relativement, la qualité des informations d’investissement nécessaire à l’optimisation, par

rapport à de simples estimateurs historiques (matrice de rendement et matrice de variance

covariance plus réaliste en prenant en compte les caractéristiques essentielles des séries

financières) et contribuerait à diminuer l’erreur d’estimation sur ces estimateurs. Cependant, il

existe, tout de même, une erreur d’estimation sur les paramètres du modèle GARCH-DCC.

Ces paramètres ne sont pas les vrais paramètres, ils ne sont que l’estimation de vrais

paramètres inconnus. Geyer (2000) remarquait que la non prise en compte de l’erreur

d’estimation dans la matrice de variance covariance des modèles GARCH pouvait annihile,r

en partie, les biens fait de la prise en compte des clusters de volatilité.

Nous présenterons, avant toute chose, le phénomène d’erreur d’estimation, son impact

et une méthodologie dans le cadre moyenne variance avec estimateur historique des

informations d’investissement, proposé par Michaud (1998), afin d’appréhender ce dernier

phénomène. (Cette méthodologie étant la base de la méthodologie que nous introduisons).

Page 24: Modele GARCH Analyse Cvar

24

IV) L’erreur d’estimation et méthodologie pour un portefeuille optimal IV-1) L’erreur d’estimation dans le cadre moyenne variance

• Définition de l’erreur d’estimation Le modèle Moyenne-Variance de Markowitz requiert trois inputs : les rendements

espérés, les corrélations espérés, et les variances espérées. Typiquement, les estimations des

taux de rentabilité et de la matrice de covariance d’un portefeuille sont déduites des données

historiques. Ces estimations sont faites à partir d’un échantillon d’observations. Ces

estimations ne sont pas les vrais paramètres (vecteurs de rendements, matrice de variance-

covariance) de la population entière, mais sont l’estimation de paramètres inconnus. Ils sont

donc soumis aux erreurs d’estimation, l’erreur d’estimation étant la différence entre les vrais

paramètres et l’estimation des paramètres. L’impact de cette erreur d’estimation dans une

optimisation de portefeuille peut avoir des conséquences néfastes. Comme l’ont montré Bawa

et Klein (1976) cette approximation conduit à un choix de portefeuille sous optimal. Selon

Jobson et Korkie (1989) l’erreur d’estimation dans ces paramètres annihile les bénéfices

théoriques dû au paradigme Moyenne-Variance.

• Impact de l’erreur d’estimation Les inputs étant soumis à des erreurs d’estimation, l’optimisation de portefeuille

souffre de la « maximisation de l’erreur d’estimation » (Michaud, 1989). « L’optimiseur »

tend à garder les actifs ayant les caractéristiques les plus attractives (rendement élevé, risque

faible et/ou corrélation faible) et délaisser les actifs ayant de mauvaises caractéristiques. Ces

actifs choisis par l’optimiseur sont les actifs sur lesquels l’erreur d’estimation pèse le plus.

L’algorithme du programme d’optimisation quadratique de Markowitz (1952) considère que

les inputs sont les vrais paramètres et non des inputs issus de simulations de paramètres

inconnus. Ces inputs sont donc traités comme s’ils étaient connus avec certitude (alors qu’ils

ne le sont pas), et sur-réagira à de petites différences dans les rendements. Selon Scherer

(2002), l’algorithme d’optimisation quadratique du cadre Moyenne-Variance est trop puissant

par rapport à la qualité des inputs.

Page 25: Modele GARCH Analyse Cvar

25

C’est la raison pour laquelle le processus d’optimisation maximise l’impact de l’erreur

d’estimation. En conséquence de quoi, un tel algorithme donnera un portefeuille sous

diversifié et très instable.

• Visualisation de l’erreur d’estimation Les paramètres utilisés dans les problèmes d’allocation d’actifs sont calculés à partir

d’une seule réalisation possible des rendements historiques. Les paramètres estimés, à partir

de cet échantillon, ne peuvent converger vers la vraie distribution des paramètres seulement si

l’échantillon d’observations est très grand. Cependant, les effets résultant de l’erreur

d’estimation peuvent être capturés par la procédure de Monte Carlo aussi connu en tant que

"portfolio resampling".

Supposons que nous connaissons la vraie distribution des paramètres ; la matrice de

variance-covariance 0Ω)

et le vecteur de la moyenne des rendements 0µ) . Si nous générons un

échantillon aléatoire basé sur la même distribution avec T observations (T étant la taille de

l’échantillon original). Alors les points estimés sont des variables aléatoires, car sont estimés à

partir de rendements aléatoires. Ce nouvel échantillon de variables aléatoires, issu de la même

distribution, donnera donc des estimations différentes. Cependant les deux échantillons sont

statistiquement équivalents.

En répétant la procédure d’échantillonnage n fois, nous avons, donc, n nouvelles

paires d’inputs d’optimisation ( 1Ω)

, 1µ) à nΩ

), nµ) ). Pour chacune de ces paires d’inputs, nous

pouvons calculer une nouvelle frontière efficiente avec J portefeuilles allant, par exemple, du

portefeuille à variance minimale (rang 1) au portefeuille à rendement maximal (rang J). En

gardant les vecteurs de poids correspondant à chaque portefeuille ( 11w , …, Jw1 à 1nw ,

…, nJw ), nous pouvons les appliquer aux inputs originaux. Ces portefeuilles se situeront en

dessous de la frontière efficiente originale. Ces poids ont, en effet, été déterminés à partir de

données contenant des erreurs d’estimations

Page 26: Modele GARCH Analyse Cvar

26

Le résultat de cette procédure d’échantillonnage est qu’elle transforme l’erreur

d’estimation des inputs en incertitude sur le vecteur optimal des poids. Cette technique ne

nous dit pas où devrait se situer la nouvelle frontière efficiente, elle ne nous renseigne pas sur

les poids que nous devons retenir pour notre allocation. Ce qui nous renvoie à la méthode de

Michaud (1998).

• L’efficience ré-échantillonée La méthode de Michaud (1998) traite ce problème d’estimation d’erreur. Les

portefeuilles situés sur la frontière ré-échantillonée sont définis comme la moyenne, pour

chaque rang, des n portefeuilles « efficients ». Cette procédure garantit une importante

caractéristique ; la somme des poids est égale à l’unité.

La détermination de la frontière efficiente ré-échantillonée (et, donc, les poids associés

à chaque portefeuille composant cette frontière) peut être résumée de la façon suivante :

Supposons que nous avons m=5 actifs et T=200 observations historiques.

Etape 1. Déterminer les vecteurs de rendement et la matrice de covariance issue des observations historiques. Puis on utilise une optimisation moyenne-variance afin de calculer la frontière efficiente, qui est composée de J portefeuilles.

Etape 2. A partir de la loi de distribution suivie par les variables, on tire m=5

rendements T=200 fois (T peut être supérieur au nombre d’observations, tout dépend du degré de confiance sur les observations historiques). Avec les données générées on calcule un nouveau vecteur de rendements et une nouvelle matrice de covariance. La différence entre ces nouveaux inputs et les inputs originaux est la résultante de l’erreur d’estimation.

Etape 3. Une nouvelle optimisation est faite avec les nouveaux inputs, afin de construire une nouvelle frontière efficiente avec J points.

On garde, pour chacun des J points, le poids de chaque actif du portefeuille « efficient ». Il en ressort un nouveau vecteur de poids Jia (J × m) des m actifs pour chacun des J portefeuilles pour la simulation i.

Etape 4. On répète la simulation k fois. Nous avons donc k frontières efficientes donnant ainsi k Jia . Puis on calcule la moyenne des Jia . ∑

=

=k

iJi

resampledJ a

ka

1

1

Page 27: Modele GARCH Analyse Cvar

27

resampledJa est le vecteur des poids qui va permettre de construire la frontière

efficiente, en réduisant l’erreur d’estimation. Enfin, on applique ces poids

moyens aux inputs originaux (issus de l’étape 1) afin d’avoir la frontière

efficiente ré-échantillonnée.

L’avantage de cette méthode est l’utilisation de données disponibles (l’historique),

afin de produire une allocation intuitive qui serait moins sensible aux perturbations des inputs.

Ceci est dû à un portefeuille plus diversifié et, intuitivement, moins risqué qu’un portefeuille

correspondant à la frontière efficiente de Markowitz (1952). L’efficience ré-échantillonnée

utilise donc les informations d’investissements d’une manière plus robuste que l’efficience de

Markowitz (1952). De plus cette procédure assure une plus grande stabilité du processus, dans

la mesure où de petits changements dans les inputs sont généralement associés à de petits

changements dans le portefeuille optimisé. Au final, le processus procure ainsi une protection

contre l’impact de l’erreur d’estimation.

Sanfillipo (2006) étudie la capacité de la méthode de ré-échantillonnage à réduire

l’erreur d’estimation. Il montre que le portefeuille obtenu à partir de cette technique est plus

proche du portefeuille réellement efficient. De plus, Markowitz et Usmen (2003) ont testé la

méthode du resampling (proposée par Michaud, 1998). Markowitz et Usmen cherchaient à

savoir si des méthodes alternatives à la méthode du resampling (telles que les méthodes

shrinkage) dominaient l’amélioration qui résultait du ré-échantillonnage. Ces auteurs ont

conclu que les méthodes alternatives, qui traitent le problème du risque d’estimation,

n’amélioraient pas suffisamment l’optimisation de Markowitz (1952) pour pouvoir dominer la

méthode du resampling.

Michaud en réponse à l’article de Markowitz et Usmen (2003), démontrant

empiriquement la supériorité de sa méthode permettant la prise en compte de l’erreur

d’estimation dans le modèle de Markowitz, opposait la manière dont les informations

d’investissement sont utilisées à la qualité des informations investissement utilisées. Selon lui

on devrait accorder plus d’effort à la manière dont on utilise les informations plutôt que

d’essayer d’augmenter la qualité de ces derniers. Evensky (1997) rejoint cette idée, selon lui il

serait plus intéressant de chercher une « bonne solution approximative », plutôt que de

chercher la meilleure des solutions.

Page 28: Modele GARCH Analyse Cvar

28

Cependant, bien que cette méthode réussi relativement bien à tacler le problème

principal du modèle de Markowitz, il ne prend cependant pas en compte les critiques

précédemment citées, à savoir l’utilisation de la variance comme mesure du risque et les

caractéristiques propres aux séries financières. Il est donc utile de revoir cette méthodologie.

Nous proposons, pour ce faire, une méthodologie semblable dans l’optimisation Moyenne-

CVaR, en incluant l’erreur d’estimation dans un cadre GARCH multivarié. L’idée étant de

combiner ces deux méthodologies dans un cadre Moyenne-CVaR :

• Une méthodologie permettant d’augmenter la qualité des informations

d’investissement (modèle GARCH-DCC)

• Une méthodologie permettant d’accroître la robustesse de l’utilisation de ces

informations d’investissement (portfolio resampling) .

L’objet et l’intérêt de la méthodologie est d’augmenter la qualité des informations

d’investissement tout en les utilisant de manière plus robuste, afin de déterminer une

allocation d’actifs optimale. En effet, très peu d’auteur, si ce n’est aucun, ont accordé de

l’importance à l’erreur d’estimation des modèles GARCH multivariés dans un contexte

d’allocation d’actifs, ce qui constitue le premier intérêt. Le deuxième intérêt de cette

méthodologie est relatif au cadre théorique utilisé; le cadre Moyenne-CVaR. En effet

l’analyse du risque d’estimation dans ce cadre est un sujet, qui a notre connaissance, n’a pas

encore été traité.

Page 29: Modele GARCH Analyse Cvar

29

IV-2) La théorie du « portfolio resampling » revisitée

L’erreur d’estimation ne se trouve plus au niveau de la matrice de variance covariance

historique mais au niveau des paramètres du modèle DCC qui serviront à estimer la matrice

de variance covariance conditionnelle. Afin d’intégrer l’erreur d’estimation de ce type de

modèle dans notre optimisation, nous basons notre méthodologie sur les travaux de Pascual,

Romo et Ruiz (2001) ainsi que de Christoffersen et Gonçalves (2004). Ces auteurs utilisent le

bootstrap afin de construire des intervalles confiance dans le calcul de la VaR et de l’expected

shortfall dans un cas univarié, afin d’évaluer et mesurer l’importance de l’erreur d’estimation.

Nous étendons leur méthodologie au problème d’allocation d’actif dans un cadre multivarié.

Dans cette section nous présentons la méthodologie du bootstrap afin de prendre en

compte le risque d’estimation dans le cadre de la modélisation GARCH-DCC, sans spécifier

aucune loi suivie par les innovations.

La Validité du bootstrap pour les données financières dépend de sa capacité à

reproduire correctement les propriétés des rendements observés. Une façon d’utiliser le

bootstrap dans la modélisation GARCH consiste à rééchantillonner avec replacement les

résidus standardisé du model. L’idée étant que les résidus sont i.i.d. à partir du moment ou ils

ont été « dévolatilisé », on peut donc utiliser le bootstrap naïf sur ces résidus. Pour ce faire,

nous utiliserons un vecteur de résidus « bootstrapé » en rééchantillonnant avec remise les

résidus standardisés originaux tout en tenant compte de la corrélation entre les résidus.

L’échantillon artificielle bootstrap des rendements est ensuite générer de façon récursive en

utilisant l’équation de la volatilité dynamique des modèle GARCH et les résidus standardisés

rééchantilonnés.

Nous avons vu dans les sections précédentes l’équation suivante :

tttt ZHX .2/1+= µ

Nous avons donc deux sources de risque. L’une de ces sources potentielles de risque

est liée à l’incertitude sur les chocs utilisés qui serviront à générer les scénarii (nous évacuons

cependant ce risque en utilisant une méthode FHS multivariée, voir section précédente).

L’autre source de risque est liée à la prévision de la matrice de variance covariances futures.

Page 30: Modele GARCH Analyse Cvar

30

Pour la modélisation DCC-GARCH, on voit assez facilement que la volatilité et les

corrélations futures dépendent de l’information valable en T ainsi que des paramètres

inconnus ( γδ , , βαω ,, ). En particulier, en utilisant les équations issues du modèle GARCH-

DCC, nous pouvons réécrire les 2,Tiiσ et TQ comme des fonctions des observations passées :

∑∞

=−−

−−−+

−−=

0

21,

2, 11 j ii

ijtii

jii

ii

iTii βα

ωεβα

βαω

σ (41)

( )∑∞

=−−−− −+=

011 '

iitit

jT QZZQQ γδ (42)

On remplace les paramètres inconnus γδ , , βαω ,, par leur estimation qui ressort de la

maximisation du maximum de vraisemblance :

∑−

=−−

−−−+

−−=

2

0

21,

2, 11

T

j ii

ijTii

jii

ii

iTii βα

ωεβα

βαω

σ ))

)))))

)) (43)

( )∑−

=−−−− −+=

2

011 '

T

iiTiT

jT QZZQQ

)))))γδ (44)

A partir delà nous pouvons estimer les variances futures :

2,

2,

21, TiiTiiTii σβεαωσ ))))) ++=+ (45)

et les covariances :

=+1TR) 2/1

112/1

1 )()( −++

−+ TTT QdiagQQdiag

))) (46)

avec TTTT QZZQQ)))))))

γδγδ ++−−=+ ')1(1 (47)

La nécessité d’estimer les paramètres du GARCH-DCC introduit donc une source de

risque d’estimation.

Page 31: Modele GARCH Analyse Cvar

31

La présence du risque d’estimation, dans la façon de déterminer les inputs qui

serviront à l’optimisation, est la principale motivation de l’utilisation du bootstrap. Cette

procédure nous permet de tenir compte de l’erreur d’estimation dans la matrice de variance

covariance.

L’algorithme Etape 1. On estime le modèle GARCH-DCC par le pseudo maximum de

vraisemblance et on déduit les résidus centrés iitii zz )) −, ,

avec tii

tiitiiz

,

,, σ

ε)

) = , t=1,…T. Soit TiG ,

) la fonction de distribution

empirique de .,tiiz)

Etape 2. Afin d’incorporer l’incertitude des paramètres estimés, il est nécessaire

d’obtenir un nouvel échantillon bootstrap *,

*1, ,..., Tdi XX qui réplique la

structure originale, en prenant en compte les corrélations. Cette réplique

bootstrap est obtenue à partir des récursions suivantes :

*2/1*** Dtttt ZHX += µ pour t=1,…,T

Avec *tH obtenue grâce à :

),...,( ,*

,11**

tnntt diagD σσ ))=

avec 2*1,

2*1,

2,

*−− ++= tiiitiiiitii σβεαωσ )))))

2/1**2/1** )()( −−= tttt QdiagQQdiagR))))

*11

*1

** ')1( −−− ++−−= tttt QZZQQ)))))))

γδγδ 4

4 Pour Q nous procédons à un bootstrap « cross sectionnal » afin de conserver la corrélation entre les résidus

Page 32: Modele GARCH Analyse Cvar

32

Pour obtenir le nouveau vecteur des résidus standardisés bootstrapés

nous devons décomposer la matrice des corrélations dynamiques à la date t,

tR)

, grâce à la décomposition de Cholesky, afin de rendre les résidus

standardisés orthogonaux.

*2/1* . tt

Dt ZLZ −=

Avec tZ obtenu aléatoirement à partir de TiG ,

), la fonction de distribution

empirique des résidus centrés de l’actif i, et 2/1−tL la matrice inverse de la

décomposition de Cholesky de la matrice tR)

.

Les valeurs initiales sont :

21,

2*1, iiii σσ )= =

ii

i

βαω

))

)

−−1

QQ =1

Cet échantillon bootstrap *tX , nous permet de calculer les paramètres

bootstrap via le maximum de vraisemblance en deux étapes ; *** ,, iii βαω

))) , ** ,γδ )).

Etape 3. Nous pouvons déterminer une prévision bootstrap de la matrice de variance

covariance *1+TH

) *

1*

1*

1 +++= TTT DRD selon les équations suivantes :

2*1,

*2*1,

**21,

*+++ ++= TiiiTiiiiTii σβεαωσ )))))

*1

********1 ')1( ++ ++−−= TTTT QZZQQ

)))))))γδγδ

Page 33: Modele GARCH Analyse Cvar

33

Les valeurs initiales étant :

TT XX =*

*TZ = TZ

∑−

=−−

−−−+

−−=

2

0**

*2

1,**

**

*2*, 11

T

j ii

ijTi

jii

ii

iTii βα

ωεβα

βαω

σ ))

)))))

))

( )∑−

=−−−− −+=

2

0

*11

**** 'T

iiTiT

iT QZZQQ

)))))γδ

Avec 2/1**2/1** )()( −−= tttt QdiagQQdiagR

))))

),...,( ,*

,11**

tnntt diagD σσ ))=

On peut remarquer dans l’expression de 2*1, +Tiiσ) et *

1+TQ)

, même s’ils sont différents dans

chaque réplique bootstrap, leurs valeurs sont obtenues en utilisant les paramètres estimés

bootstrap mais toujours avec les séries originales. De cette façon leur valeurs sont faibles

lorsque les « vrais » rendements et les « vrais » corrélations à la fin de la période sont faibles,

et élevés lorsqu’ils sont élevés. En conséquence de quoi 2*1, +Tiiσ) et *

1+TQ)

incorporent seulement

la variabilité due à l’erreur d’estimation et prend en compte l’état du processus quand des

prévisions sont faites.

Etape 4. Une foi la matrice de variance covariance future estimée, nous pouvons simuler

un certain de nombre de scénarios avec l’équation (40), que nous soumettons à

l’optimisation Moyenne-CVaR en utilisant le problème de programmation

linéaire (16) . Cette optimisation nous donnera un vecteurs de poids optimal ix~

( ix~ , i=1,…,d) qui minimisera la CVaR sous contrainte d’un objectif de

rendement.

Page 34: Modele GARCH Analyse Cvar

34

Etape 6. On répète les étapes précédentes M fois. Nous avons donc M portefeuilles

efficients donnant ainsi m x~ . Puis on calcule la moyenne des x~ . ∑=

=M

mm

resampled xM

x1

~1~

resampledx~ est le vecteur des poids qui va permettre de déterminer l’allocation

optimale, en réduisant l’erreur d’estimation.

Les problèmes liés au modèle de Markowitz (1952) ont été traités dans la littérature, mais de

façon isolée. Nous proposons donc de regrouper ces solutions dans un seul et même modèle

d’allocation d’actifs afin d’atteindre notre objectif ; déterminer un processus d’allocation

d’actifs cohérent et optimal, appliqué à une société de gestion. Au final, nous construisons un

modèle d’allocation d’actifs avec une mesure cohérente du risque, la prise en compte des

caractéristiques observées sur les séries financières et une protection contre le risque

d’estimation de la modélisation GARCH-DCC dans le cadre Moyenne-CVaR.