Title:
1Évaluation, Analyse et Gestion des Risques
Financiers
- Lotfi BELKACEM
- Professeur IHEC Sousse
2Plan du cours
- Motivation et description de la problématique
- Quelques outils statistiques
- La notion de risque
- Les mesures Standards des risques
- La Value-at-Risk
- Au-delà de la VaR Risques Extrêmes
- Le Backtesting
- Le stresstesting
3Quelques Références Bibliographiques
- JORION P. Value at risk the new Benchmark for
controlling Market risks, McGraw-Hill, 2001. - Roncalli, T. La Gestion des Risques Financiers
, Economica - Belkacem L. et Aubry H. Au-delà de la VaR, vers
une nouvelle mesure du risque en gestion de
portefeuille, Analyse Financière, Juin 1998. - Belkacem L. et Aubry Hugues "Hedging Model of
Extreme Values and Mutualisation of Risk in
Emerging Financial Markets" Euro-Mediterranean
Economic and Finance Review,2006. - Danielson J. et de Vries C. G. " Value-at-Risk
and Extreme Returns " , Annales déconomie et de
statistique N60, 2000. - EMBRECHTS, KLÜPPELBERG and MIKOSH (1997)
Modeling Extremal Events for insurance and
Finance, Springer-verlag. - COLES (2001) An introduction to statistical
modeling of extreme value, Springer-verlag. - BIERLANT, TEUGELS and VYNCKIER (1996) Practical
analysis of extreme values, Leuven. University
Press, - JP Morgan RiskMetrics , (1996). Technical
Document, Fourth Edition,. - JP Morgan CreditMetrics , (1997). Technical
Document,.
4Motivation et description de la problématique
- Jusquà la fin des années 80, le risque bancaire
prenait essentiellement deux formes - Le risque de crédit (risque de contrepartie)
risque de défaillance dun emprunteur. - Le risque de liquidité difficulté potentielle
de réaliser rapidement et sans perte
significative de valeur, une transaction. - Les années 90 développement rapide des
instruments dérivés et libéralisation des
mouvements internationaux des capitaux. - augmentation des activités de
trading dans les banques, les assurances et les
réassurances. - évolution particulièrement
importante du risque de marché auquel sont
exposés les établissements financiers.
5Motivation et description de la problématique
- Quelques points de repère sur les désastres
financières
6Motivation et description de la problématique
- Réglementation en matière de contrôle des risques
règles et recommandation de surveillance
prudentielles imposées par les autorités
réglementaires le comité de Bâle - Cette réglementation impose une exigence
minimale de fonds propres sur toutes les
opérations financières qui représentent un
risque. - CAD Capital adequacy directive tjs
avoir un montant de FP qui va couvrir le risque
ajuster les FP à la grandeur des risques - Ratio Mc Donough
-
- Les FP doivent couvrir au mois 8 du
risque global
7Motivation et description de la problématique
- Les actifs financiers sont régis par des
comportements aléatoires qui traduisent la
complexité du monde économique et politique. La
mesure et la gestion des risques sont ainsi
devenus des enjeux majeurs pour les opérateurs
des marchés financiers, et intéressent les
chercheurs du Laboratoire de probabilités et
modèles aléatoires. Les outils mathématiques que
ces derniers développent offrent une modélisation
et des méthodes quantitatives adaptées à la
description et au contrôle des risques
financiers.
8Objectifs
- Apporter des réponses aux questions liées à
lévaluation, à lanalyse et à la gestion des
risques financiers au sein de lactivité
bancaire. - Expliquer les méthodologies existantes
utilisables à la définition dun cadre exhaustif
pour lévaluation des risques, les processus
dévaluation et des accords de Bâle II afin de
relever le défi global des risques. /
9Objectifs
- Ce cours a pour but de fournir les mesures et
les techniques d'évaluation du risque sur le
marché des actions, le marché des changes et le
marché de crédit. -
10Quelques outils statistiques Les Statistiques
dordre
- Soient n variables aléatoires iid X1, X2, Xn.
- Rangeons ces variables aléatoires par ordre
croissant de grandeur . Pour cela, nous
introduisons la notation Xin avec -
-
- Xin est donc la i-ème statistique dordre dans
léchantillon de taille n. -
- Exemples
- X1nmin(X1, , Xn)
- Xnnmax(X1, , Xn)
11Quelques outils statistiques Les Statistiques
dordre
12Quelques outils statistiques Fonction de
répartition empirique
13Quelques outils statistiques Fonction quantile
14Quelques outils statistiques Q-Q Plot
- Le graphique Quantile-Quantile permet de tester
graphiquement ladéquation dune famille de lois
à des données. Goodness-of-fit ? -
- Dans la pratique étant donné un ensemble des
données de valeurs x1, x2, .xn, on remplace la
fonction de quantile théorique Q(p) par son
approximation et on trace les quantiles
empiriques contre les
quantiles calculés à partir de la distribution
spécifique dans un repère orthogonal.
15Quelques outils statistiques Conditionnement
-
- La distribution conditionnelle de X sachant que
- est exprimé par
16Quelques outils statistiques Loi Limite de la
somme des n variables aléatoires
17Quelques outils statistiques Loi Limite de la
somme des n variables aléatoires
- Lévy (1925) a montré que de telles lois
existent, en introduisant pour cela la notion de
loi stable.
18Quelques outils statistiques Loi Limite de la
somme des n variables aléatoires
19Quelques outils statistiques De la somme au
maximum
- De la même façon que pour la somme, on peut se
demander sil existe une loi des grands nombres
et un théorème central limite pour le
maximum? - En normalisant convenablement, peut-on trouver
une loi non dégénérée pour le maximum? - Celle loi dépend-elle de la normalisation
choisie?
20Quelques outils statistiques Loi Limite des
maxima
21Quelques outils statistiques Loi Limite des
maxima
22Quelques outils statistiques Loi Limite des
maxima
23Quelques outils statistiques Loi Limite des
maxima
- Théorème limite de Fisher-Tippet
24Quelques outils statistiques Loi Limite des
maxima
25Quelques outils statistiques Loi Limite des
maxima
26Quelques outils statistiques Loi Limite des
maxima
- En général, on applique le théorème comme suit
on considère n suffisamment grand et fixé on
fait alors lapproximation suivante
27Quelques outils statistiques Caractérisation
des domaines dattraction
- On dit quune distribution F appartient au
max-domaine dattraction de G et on note F ?
MDA(G) - si la distribution du maximum normalisée
converge vers G.
Domaine dattraction Distributions appartenant au domaine dattraction
MDA(?) Exponentielle, Normale, Gamma, Lognormale, etc.
MDA(Fa) Cauchy, Pareto, a-stable (alt2), etc.
MDA(?a) Uniforme, Beta, etc.
28Quelques outils statistiques Caractérisation
des domaines dattraction
- Remarque les 3 distributions des VE sont très
différentes en terme de MDA - Dans MDA(?) on trouve des distributions qui nont
pas de queues épaisses - Dans MDA(Fa) on trouve des distributions à queues
épaisses - Dans MDA(?a) on trouve des distributions à
supports finis.
29Quelques outils statistiques Generalized
Extreme Value distribution (GEV)
- Loi de probabilité de von Mises-Jenkinson
- Nous pouvons caractériser les trois types de
distribution précédentes par une distribution
unique
30Quelques outils statistiques Generalized
Extreme Value distribution (GEV)
- Fonction densité de GEV
- Quantile dordre p de la distribution GEV
31Quelques outils statistiques Visualisation des
extrêmes
- Strict exponential quantile plot
32Quelques outils statistiques Visualisation des
extrêmes
- Shifted exponential quantile plot
33Quelques outils statistiques Visualisation des
extrêmes
34Quelques outils statistiques Visualisation des
extrêmes
35Quelques outils statistiques Visualisation des
extrêmes
- Pareto quantile plot
- Strict Pareto case
- Bounded Pareto case
36Quelques outils statistiques Etude de la loi
des excès Modèles à seuils
- Létude du maximum sest historiquement imposée
comme la première méthode pour estimer les
phénomènes extrêmes. -
- Néanmoins, en réassurance, une variable
dintérêt peut également être la loi des excès
(la loi de X sachant Xgtu) pour un seuil u
suffisamment grand.
37Quelques outils statistiques Etude de la loi
des excès Modèles à seuils
- Nous allons nous intéresser au comportement de
X/Xgtu, pour des seuils u suffisamment élevés. - Cette étude fera naturellement apparaître la loi
de Pareto Généralisée ou GPD
38Quelques outils statistiques Etude de la loi
des excès Modèles à seuils
- Loi de Pareto généralisé GPD
- Nous nous intéressons à la probabilité
conditionnelle suivante
39Quelques outils statistiques Etude de la loi
des excès Modèles à seuils
- Loi de Pareto généralisé GPD
40Quelques outils statistiques Etude de la loi
des excès Modèles à seuils
Remarque Cette loi est intéressante
puisquelle correspond à la loi limite
des excès
41Quelques outils statistiques Etude de la loi
des excès Modèles à seuils
- Excess Function
- Étant donnée un niveau u pour tout sinistre dans
le secteur dassurance, le réassureur doit
considérer une variable aléatoire conditionnelle
(X-u / Xgtu). - Dans le but de calculer le niveau de prime
lactuaire est amené à calculer le Mean Excess
Function (MEF) - Dans la pratique le MEF est estimé par
en utilisant un échantillon représenté par (X1,
Xn)
42Quelques outils statistiques Etude de la loi
des excès Modèles à seuils
43Quelques outils statistiques Etude de la loi
des excès Modèles à seuils
44Quelques outils statistiques Etude de la loi
des excès Modèles à seuils
- Empirical Mean Excess Function plots
- La représentation graphique des valeurs des
excès moyens empirique peut prendre deux formes
45Quelques outils statistiques Etude de la loi
des excès Modèles à seuils
- Empirical Mean Excess Function plots
- La représentation de en fonction de u
permet didentifier le niveau optimal de u - Mean residual life plot du rendement du CAC40
46Théorie des Valeurs Extrêmes et Applications
Estimation de quantiles extrêmes
- Pour évaluer les risques extrêmes, nous serons
intéressés par lestimation de probabilité
dévénements rares (coûts de sinistres dépassant
un seuil élevé), ou de façon duale, les quantiles
associés à des niveaux élevés (99, 99,9,
99,99, ) -
- estimation de lindice de queue ?
indiquant limportance des risques extrêmes pour
une distribution
47Quelques outils statistiques Estimation de
lindice de queue
- Utilisation de la loi GEV
-
- Considérons un échantillon des données Xt de
taille T K n avec K?IN . Nous divisons cet
échantillon en K blocs et nous définissons le
maximum de la façon suivante - Nous disposons alors dun échantillon de maxima
(Y1, YK). - lexpression de la vraisemblance de
lobservation k est donc
48Quelques outils statistiques Estimation de
lindice de queue
49Quelques outils statistiques Estimation de
lindice de queue
50Quelques outils statistiques Estimation de
lindice de queue
- Utilisation de la loi GPD
- Considérons un échantillon des données Xt de
taille T K n - Nous divisons cet échantillon en K blocs et nous
définissons - le maximum de la façon suivante
- Nous disposons alors dun échantillon de
max-excès (Y1, ,YK) - i.i.d. selon la loi GPD de fonction densité
-
51Quelques outils statistiques Estimation de
lindice de queue
- lexpression de log-vraisemblance de
lobservation k - est donc
52Quelques outils statistiques Estimation de
lindice de queue
- Quelques variantes destimateurs
- La plupart des estimateurs du paramètre de queue
reposent sur lutilisation de la statistique
dordre. - A partir dun échantillon de taille n, on
sintéresse aux k valeurs les plus grandes. - Les estimateurs les plus utilisés en pratique
sont -
- Estimateur de Pickands (1975)
-
53Quelques outils statistiques Estimation de
quantiles extrêmes
- Estimateur de Hill (1975)
- Estimateur de Dekkers, Einmalh et de Haan (1990)
54Quelques outils statistiques Estimation de
quantiles extrêmes
- Remarque
- La principale difficulté de ces estimateurs est
le choix de k - Si k est petit, le biais est faible, la variance
est grande - Si k est grand, le biais est grand, la variance
est petite. - Comportement asymptotique
- sous des hypothèses de régularité et de vitesse
de convergence de m par rapport à n, on a la
normalité asymptotique des estimateurs
55Quelques outils statistiques Estimation de
quantiles extrêmes
- Remarque
- Lestimateur de Hill présente une variance
asymptotique plus - faible que les trois autres (dans le cas où ?gt0).
- Il est généralement le plus utilisé.
56La notion de risque
- Le risque est lié à la survenance dun événement
non prévisible qui peut avoir des conséquences
importantes sur le bilan ou le compte de résultat
de la banque ou de la société dassurance -
- Généralement on distingue trois types de risque
- Risque de marché
- Risque de crédit
- Risque opérationnel
57La notion de risque Types de risque
- Risque de crédit défini par la défaillance
dune contre partie et/ou la dégradation de la
qualité de lemprunteur (baisse de la valeur de
lemprunt obligataire ou dégradation du rating). - Risque de marché risque lié aux pertes sur les
positions du bilan (baisse de la valeur des FP)
et/ou du hors bilan (activités de trading). - Risque opérationnels Défaillance des procédures
de gestion et du système interne de contrôle de
risque, événements externes (exp panne
délectricité).
58La notion de risque Types de risque
- Quelques exemples de risque
- Risque de crédit (credit risk)
- Risque de défaillance (default risk)
- Risque de dégradation de la valeur de la créance
(downgrading risk) - Risque de marché (market risk)
- Risque de taux dintérêt (interest rate risk)
- Risque de change (currency risk)
- Risque de volatilité (volatility risk)
- Risque opérationnel (operational risk)
- Risque de désastre (disaster risk)
- Risque de fraude (fraud risk)
- Risque technologique (technologic risk)
- Risque juridique (litigation risk)
59La notion de risque Types de risque
- Répartition optimale des 3 risques suivant les
instructions du comité de Bâle (Janvier 2001)
Types de risque Exigence en FP Répartition
Crédit Marché opérationnel 6 0,4 1,6 75 5 20
Total 8 100
60La mesure cohérente de risque
61La mesure cohérente de risque
62Lapproche classique de risque en finance
- La modélisation classique des variations de prix
repose sur lhypothèse de normalité. -
- Modèle de la marche aléatoire (mouvement
brownien à temps discret)
63Lapproche classique de risque en finance
- Hypothèse defficience du marché Le cours
reflète pleinement et instantanément toute
linformation disponible - La normalité des rentabilités résume le
comportement dun portefeuille autour des deux
premiers moments (Espérance et variance) - La mesure classique de risque en finance est la
volatilité suffisante dans un univers gaussien
64Les modèles destimation de la volatilité
GARCH
Historique
EWMA (RMetrics)
RM ? 0.94
65Lapproche classique de risque en finance
- Limites
- Insuffisante dans un univers non gaussien
matrice var-cov ne donne quune information
limitée sur la structure de dépendance - X et Y deux v.a telle que Cov(X,Y) 0
nimplique pas que - X et Y sont indépendantes (la réciproque est
vraie) - Nest pas une mesure cohérente du risque ne
vérifie pas la condition de monotonie, ni celle
dinvariance déchelle. - Accorde autant de poids aux gains et au pertes
- développer des mesures de risque de perte
Étudier le comportements des queues de
distribution des pertes.
66Lapproche classique de risque en finance
- Illustration
- Sous la loi normale
- Temps de retour de ces deux phénomènes
- T 1/P 740 jours 3 ans ( 250 jours 1 an)
- T 1/P 31250 jours 125 ans
- Interprétation
- Sous la loi normale ce type de phénomène
arrive en moyenne tous les 125 ans.
67(No Transcript)
68Rentabilités journalières du Nasdaq
69La Value at Risk
- La VaR est une mesure du risque de perte et
correspond à la notion de quantile - Définition
- La Valeur en Risque ou la Value at Risk (noté
VaR) est une mesure de la perte potentielle que
peut subir un titre ou un portefeuille suite à
des mouvements défavorables des prix de marché.
Elle permet de répondre à la question suivante - Combien létablissement financier peut-il perdre
avec une probabilité ? pour un horizon de
temps h fixé ?
70La Value at Risk
- Deux éléments sont donc indispensables pour
interpréter la VaR - La période de détention (holding period) qui
correspond à la période sur laquelle la variation
de valeur du titre ou du portefeuille est
mesurée - Le seuil de confiance ? qui correspond à la
probabilité dobserver une perte inférieure à la
valeur en risque. - Un risque à 10 jours avec une probabilité de 99
est beaucoup plus important quun risque à 1
jours avec une probabilité 90. Dans le 1er cas,
nous avons une chance sur 100 que la perte
réalisée pour les 10 prochains jours ouvrés soit
supérieure à celle estimée par la VaR. Dans le
second cas, nous avons une chance sur 10 que la
perte réalisé demain soit plus grande que la VaR.
71La Value at Risk
- Soit P(t) la valeur dun portefeuille à la date
t. - La variation du portefeuille entre les dates t et
th - (h est la période de détention) est appelée PL
(Profit Loss) - PL P(th) P(t)
- Nous pouvons aussi définir la perte L - PL.
- La valeur en risque au seuil de confiance ? est
définie par - PrL lt VaR(?) ?
72La Value at Risk
73La Value at Risk
- Remarques
- La mesure VaR marché donne une image du risque de
marché dans le cadre de conditions normales du
marché. Cest pourquoi le seuil de confiance est
fixé à 99 alors que celui-ci est fixé à 99,9
pour les risques de crédit et opérationnel - Pour le calcul du capital réglementaire, la
période de détention est fixée à 10 jours de
trading. Cest le temps que les autorités jugent
nécessaire pour que la banque puisse retourner sa
position
74La Value at Risk Méthode destimation
- Trois grandes familles de méthodes
- La VaR analytique ou paramétrique
- La VaR historique ou non paramétrique
- La VaR Monte-Carlo
75La VaR paramétrique
- Considérons un portefeuille linéaire composé de
m actifs et dont la composition est - ? (?1, , ?m). Nous notons Pi(t) et ri(t) le
prix et le rendement journalier de l actif i à
la date t. - La valeur du portefeuille à la date t est donc
76La VaR paramétrique
- Le PL entre les dates t et t1 est donc
-
77La VaR paramétrique
Titres A B C
Rendements moyens 0,50 0,30 0,20
volatilités 2 3 1
Prix actuels 244 135 315
Composition du Portefeuille 2 -1 1
78La VaR historique
- Contrairement à la VaR paramétrique, la VaR
historique ne fait pas dhypothèse sur la
distribution jointe des facteurs de risque. Elle
utilise directement la distribution empirique des
rendements des actifs. - Supposons que nous disposons dun historique de
données de longueur n. - A linstant t, nous pouvons valoriser le
portefeuille en appliquant les rendements
historiques. Nous pouvons donc calculer n
réalisations possibles du PL que nous notons
PL1, PLn - et donc en déduire le quantile empirique de la
perte au seuil de confiance a. - Pour cela, nous calculons les statistiques
dordre - La VaR est égale à la valeur absolue de
plus petite valeur
79La VaR historique
- Exemple pour un seuil de confiance de 99, la
VaR correspond à la plus petite perte
si la taille de lhistorique est 100, à la
10-ième plus petite perte si la
taille de lhistorique est 1000. - Lorsque nest pas un entier, la
VaR est calculé par interpolation
80La VaR historique
- Exemple Reprenons le portefeuille précédent.
- Nous calculons
- les rendements journaliers des trois actifs sur
les 251 derniers jours ouvrés. - Les prix choqués des trois actifs prix
choqué(t)prix actuel X (1r(t))
81La VaR historique
- Quelques détails
- Le rendement logarithmique pour la date t-250 de
lactif A est égale à - Log(100,98) - Log(100) 0,009898. Si nous
appliquons ce choc au - prix actuel de lactif A (244 ), nous obtenons
un prix choqué égale à - 244 X (198)246,3
- Si les chocs historiques observés il y a 250
jours se reproduisent, - PL (2 X 246,38-136,83313,61) - (2 X
244-135315) 1,54 - Une fois que nous avons calculé les 250 valeurs
de PL, nous les trions par ordre croissant. - Les pertes les plus importants sont de
-28,42-22,59-20,98 -20,94 - -19,59 -17,35 etc.
82La VaR historique
83La VaR Monte Carlo
- La VaR Monte Carlo est basé sur la simulation des
rendements de portefeuille (r1(t1), r2(t1)) à
partir dune distribution a priori (nous pouvons
faire lhypothèse que les rendements sont
gaussiens). - Si nous considérons n simulations de ces
rendements, nous pouvons calculer n variations
simulés de la valeur du portefeuille. -
- Il suffit ensuite de calculer le quantile
correspondant comme pour la méthode de la VaR
historique
84La VaR Monte Carlo
85Application
- 4 actions Alcatel, Total, Airliquid, Carrefour
- Période 01/01/2001 jusquà 30/12/2005
- Composition du portefeuille (0.318 0.098
0.470 0.112)
86Application
87Application
88Application
89Application
90Les aspects réglementaires du calcul de la VaR
- Le seuil de confiance
- Théoriquement, ce seuil sinterprète comme une
fréquence. - Il est fixé par les autorités réglementaires à
99. Cela veut dire que la probabilité dobserver
une perte supérieur à la VaR est de 1. Cela doit
donc se produire théoriquement une période toutes
les cents périodes. Comme la période de détention
est de 10 jours, nous aurons un retour tous les
1000 jours (quatre années calendaires). Une VaR
10 jours au seuil de confiance de 99 est donc
équivalente à une couverture à quatre ans. - Pour une banque, ce seuil de confiance indique le
degré de couverture de ses risques.
91Les aspects réglementaires du calcul de la VaR
- Ce seuil tient une grande importance pour le
calcul des fonds propres -
- Sous lhypothèse de normalité, nous pouvons
calculer la variation du niveau de fonds propres
requis selon le niveau de confiance souhaité par
rapport à lexigence réglementaire.
a () 90 95 98,04 98,5 99 99,5 99,96
? () -44,9 -29,3 -11,4 -9,69 0 10,7 44,1
92Les aspects réglementaires du calcul de la VaR
- Le facteur complémentaire
- La VaR peut être différente de la perte
potentielle réelle pour plusieurs raisons les
hypothèses qui sont faites ne sont pas réalistes,
lestimation des paramètres nest pas assez
précise. - les autorités réglementaires ont
jugé nécessaire de corriger lestimation de
quantile par un facteur de prudence. - celui-ci correspond implicitement au facteur
multiplicatif (3?). - Ce facteur, souvent présenté comme arbitraire, a
des fondements théorique rigoureux. -
-
93Les aspects réglementaires du calcul de la VaR
- Si la distribution F de la perte est
effectivement gaussienne, le coefficient ? est
égale à un. - Si elle présente des queues épaisses, on peut
sattendre à ce que ce coefficient soit plus
grand - Si la distribution est asymétrique, nous en
déduisons daprès linégalité de BT que
94Les aspects réglementaires du calcul de la VaR
- Par conséquent
- Et comme
,nous avons - Le ratio est le
coefficient de multiplication qui permet dêtre
sûr que la VaR correspond bien à un quantile au
moins égale à a. lorsque nous utilisons à raison
une approximation gaussienne. -
95Les aspects réglementaires du calcul de la VaR
- Nous remarquons que lorsque le seuil de confiance
est égal à 99, ce ratio est proche de 3. Cest
la justification théorique du facteur
multiplicatif. - En pratique, ce ratio est plus difficile à
justifier (VaR gaussienne très peu utilisée, pb
de cohérence entre le calcul des FP et la
procédure de backtesting). La justification la
plus plausible de ce facteur est peut être le
grand décalage entre la mesure basée sur les
modèles internes et celle basé sur lapproche
standard.
96Les aspects réglementaires du calcul de la VaR
- Le scaling
- La comité de Bâle impose une période détention de
10 jours pour calculer les fonds propres et une
période de détention de 1 jour pour lexercice de
backtesting. - Les banques sont autorisées à convertir la VaR
1jour en une VaR 10 jours par scaling
97La VaR - GEV
- Considérons un portefeuille linéaire composé de
m actifs et dont la composition est ? (?1, ,
?m). Nous notons Pi(t) et ri(t) le prix et le
rendement journalier de l actif i à la date t. - La valeur du portefeuille à la date t est donc
- Nous pouvons construire une valeur en risque GEV
pour le portefeuille linéaire en procédant de la
façon suivante - 1. Soit n la taille des blocs maxima. Nous
définissons le seuil de couverture
équivalent en égalisant les temps de retour
98La VaR - GEV
- 2. Nous modélisons alors la loi du maximum de
- - r(t) Log(P(t-1))- Log(P(t)) par la
distribution GEV. - Notons la distribution estimé
- 3. Rappelons que la VaR journalière est définie
par - Nous en déduisons que
- Remarque pour des raisons de robustesse, nous
préférons modéliser - r(t) et non r(t), car nous
cherchons à calculer directement le quantile a de
la perte, et non le quantile 1- a du gain.
99La VaR - GEV
- Exemple
- Roncalli (2000).
- Nous considérons
- 4 portefeuilles
CAC40 DJ
P1 P2 P3 P4 1 0 0 1 1 1 1 -1
100La VaR - GEV
- Interprétations
- La VaR analytique gaussienne, comparée à la VaR
historique, sous-estime les risques pour des
quantiles supérieurs à 99 alors quelle le
surestime pour les quantiles à 90. Ceci est dû
au faite que lapproximation gaussienne conduit à
accorder moins de poids aux événements extrêmes. - A 99 et 99,6, la VaR historique est toujours
supérieur à la VaR GEV ceci provient du fait que
lorsquon prend pour référence des quantiles
supérieurs à 99, les événements extrêmes sont de
moins en moins nombreux. - A 99,9, les VaR historique et GEV sont
sensiblement les mêmes. Cependant on peut dire
que la mesure VaR GEV est plus pertinente car
elle fait intervenir un plus grand nombre des
points dans les calculs.
101Au-delà de la VaRUtilisation de lapproximation
GPD
- Nous nous intéressons ici à la modélisation de
la queu de la distribution , au-delà dun seuil
u. - Notons le nombre de
dépassement de u dans léchantillon X1, Xn. - Nous rappelons la fonction de distribution des
excès par rapport à u. -
102Au-delà de la VaRUtilisation de lapproximation
GPD
- On peut alors donner une estimation de la queue
de distribution -
-
- remarquons que cet estimateur est valable pour
xgtu. - Cet estimateur peut être vu comme un estimateur
historique amélioré par la théorie des extrêmes - Un estimateur de la VaR est obtenu alors en
inversant lestimateur de la queue de distribution
103Au-delà de la VaRUtilisation de lapproximation
GPD
- Expected shortfall ou VaR conditionnelle
- Cest lespérance de la perte au-delà de la VaR
définie par - Lexpected shortfall peut être écrite aussi sous
la suivante - Un estimateur semi-paramétrique de ES(a) est
donc -
104Notion de temps de retour
- Les financiers et les réassureurs utilisent une
notion pertinente pour caractériser la rareté
dun événement le temps de retour ou return
period/time. Cette notion est née en hydrologie
et peut se caractériser comme suit. - Soient X1, X2, Xn les montants des maxima
annuels observés sur les n dernières années,
supposés iid. Considérons un seuil u au delà
duquel une observation est jugé extrême. - Le temps de retour est la variable aléatoire
associée au premier dépassement du seuil u, - Notons que la variable suit une loi
géométrique -
105Notion de temps de retour
- En effet,
- Grace à lhypothèse dindépendances des maxima
annuels, -
- On appellera période de retour dun sinistre ou
dun événement dépassant u la moyenne du temps de
premier excès - cest le temps dattente moyen entre deux
dépassements
106Notion de temps de retour
- Exemple
- Soit F la distribution des pertes.
- La valeur en risque pour un niveau de couverture
a est - Nous avons donc
-
- Exemple le seuil associé à un crue de période
de retour T est la VaR de niveau de probabilité
1/T
107Backtesting
- le but est de confronter la VaR calculée avec
les pertes et profits effectivement réalisés - adéquation de la méthode utilisée pour le
calcul de la VaR. - Considérons alors les valeurs de la VaR à un
niveau de confiance a. Pour chaque jour dun
historique de T jours, nous comparons la VaR
prévue à la perte réalisée. Nous calculons alors
le nombre de dépassements noté N.
108Backtesting
- Table de comité de Bâle
- Il est à remarquer que le rapport N/T doit être
de lordre de (1-a)
Niveau de confiance Région dacceptation T255
90 16ltNlt36
92.5 11ltNlt28
95 6ltNlt21
97.5 2ltNlt12
99 Nlt7
109Backtesting (Application)
110Backtesting
111Stress testing
- Un programme de simulation de crise doit être en
mesure de répondre à ces trois questions - Quelles seront les pertes si le scénario X se
produit? - Quels sont les pires scénarios pour
linstitution? - Que pouvons-nous faire pour limiter les pertes
dans ce cas? - la méthode fondée sur la TVE propose de
créer des scénarios de crise en caractérisant la
loi de extrema dune ou plusieurs séries
financières. Les scénarios de crise sont ensuite
définis comme des variations sur ces séries dont
la probabilité doccurrence est très faible. -
112Stress testing
- Afin de rendre plus intuitive cette démarche,
nous utilisons la notion de temps de retour. - Construire un scénario de crise consiste à
fournir pour un temps de retour préalablement
choisi (correspondant au degré de gravité de
scénario) la ou les variations journalières
extrêmes associées pour chacun des principaux
facteurs de risque du portefeuille
113Stress testingApproche paramétrique
- A partir de la série initiale, nous créons la
série des extrema pour des tailles de blocs
fixées à n jours (ce qui sinterprète comme le
pire à n jours). - Ensuite, il ne reste plus quà calibrer les
paramètres de la GEV ( qui est dans notre cas une
Fréchet) à laide destimateur standard de type
MV. - Nous choisissons alors des temps de retour de 3,
5, 10, 25, 50, 75 et 100 ans. Ensuite, nous
calculons - puis les variations maximales de chaque titre
relatives à ces niveau de confiance
114Stress testingApproche paramétrique (Application)
115Stress testingApproche semi-paramétrique
- Cette approche nutilise que la caractérisation
du domaine dattraction de la distribution de
Fréchet. On nutilise donc pas une série des
extrema mais on se focalise sur les propriétés de
la série initiale en queue de distribution. En
effet, on sait quau-delà dun certain seuil les
excès suivent une GPD. - Nous construisons des scénarios de crise pour
chaque titre après avoir déterminé son seuil par
la méthode de Hill. Pour chaque temps de retour,
nous calculons les variations maximales.
116Stress testingApproche semi-paramétrique
(Application)