Manuel d’exercices avec corriges en management des risques financiers
Correction des exercices du livre
La Gestion des Risques Financiers
Thierry Roncalli
4 Décembre 2011
Ce document présente les corrections des questions de cours et des exercices des pages 535 à 552 du livre : Thierry Roncalli, La Gestion des Risques Financiers, Economica, deuxième édition, 2009. Notons que ce livre est cité sous la référence [TR-GDR] par la suite. Ce document présente aussi de nouveaux exercices (à partir de la page 46) et la correction de ceux-ci (de la page 49 à la page 61). Pour chaque exercice, nous indiquons à quelle page du livre le lecteur peut trouver l’énoncé correspondant. Par exemple, l’énoncé du premier exercice “valeur en risque d’un portefeuille long/short” se trouve à la page 538 du livre “La Gestion des Risques Financiers”.
Table des matières
1 Correction des exercices 2
1.1 Valeur en risque d’un portefeuille long/short (TR-GDR, page 538) . . . . . . . . . . . . . 2
1.2 Valeur en risque d’un portefeuille de gestion (TR-GDR, page 538) . . . . . . . . . . . . . 3
1.3 Construction d’un scénario de stress à partir de la théorie des valeurs extrêmes (TR-GDR,
page 542) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Stress-testing et statistiques d’ordre (TR-GDR, page 545) . . . . . . . . . . . . . . . . . . 7
1.5 Les mesures de risque (TR-GDR, page 549) . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6 Valeur en risque crédit d’un portefeuille non granulaire (TR-GDR, page 542) . . . . . . . 13
1.7 Contribution en risque dans le modèle Bâle II (TR-GDR, page 541) . . . . . . . . . . . . 15
1.8 Le risque de contrepartie sur opérations de marché (TR-GDR, page 551) . . . . . . . . . . 17
1.9 Le risque opérationnel (TR-GDR, page 550) . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.10 Valorisation d’un CDS (TR-GDR, page 539) . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.11 Calibration du paramètre LGD (TR-GDR, page 543) . . . . . . . . . . . . . . . . . . . . . 28
1.12 Modélisation du temps de défaut (TR-GDR, page 544) . . . . . . . . . . . . . . . . . . . . 30
1.13 Les spreads de crédit (TR-GDR, page 546) . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.14 Valeur en risque d’une position optionnelle (TR-GDR, page 551) . . . . . . . . . . . . . . 34
1.15 Corrélation et copules (TR-GDR, page 547) . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.16 La distribution exponentielle (TR-GDR, page 548) . . . . . . . . . . . . . . . . . . . . . . 39
1.17 Les fonctions copules (TR-GDR, page 540) . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2 De nouveaux exercices 46
2.1 Calculs statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.2 Contribution en risque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.3 Dérivés de crédit et corrélation de défaut . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.4 Modélisation de la perte en cas de défaut . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.5 Produits exotiques et gestion des risques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.6 Calcul des bornes de corrélation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.7 Le modèle exponentiel généralisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3 Correction des exercices supplémentaires 49
3.1 Calculs statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.2 Contribution en risque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3 Dérivés de crédit et corrélation de défaut . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4 Modélisation de la perte en cas de défaut . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.5 Produits exotiques et gestion des risques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.6 Calcul des bornes de corrélation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.7 Le modèle exponentiel généralisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4 Éléments de correction des questions de cours 61
4.1 La réglementation Bâle II (TR-GDR, page 535) . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2 Le risque de marché (TR-GDR, page 535) . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.3 Le risque de crédit (TR-GDR, page 536) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.4 Le risque opérationnel (TR-GDR, page 536) . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.5 Les fonctions copules (TR-GDR, page 537) . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.6 Les dérivés de crédit (TR-GDR, page 538) . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.7 La gestion du risque de crédit (TR-GDR, page 538) . . . . . . . . . . . . . . . . . . . . . 64
1 Correction des exercices
1.1 Valeur en risque d’un portefeuille long/short (TR-GDR, page 538)
La référence principale de cet exercice est (TR-GDR, pages 61-63). On note PA (t) (resp. PB (t)) la valeur de l’action A (resp. B) à la date t. La valeur du portefeuille est :
P (t) = xA · PA (t) + xB · PB (t)
avec xA et xB le nombre d’actions A et B. On en déduit que le PnL entre les dates t et t + 1 est:
PnL(t;t + 1) = P (t + 1) ? P (t)
avec RA (t;t + 1) et RB (t;t + 1) les rendements des actions A et B entre les dates t et t + 1.
1. On a xA = +1, xB = ?1 et PA (t) = PB (t) = 100. On en déduit que :
PnL(t;t + 1) = 100 × (RA ? RB)
On a RA ? RB ? N (0,?A?B) avec :
?A?B = ?0,20+ (?0,20)2 + 2 × 0,5 × 0,20 × (?0,20)
= 20%
La volatilité annuelle de cette position long/short est donc de 20%. Pour calculer la VaR pour un horizon 1 jour, on utilise la méthode du scaling (TR-GDR, page 74). On obtient2 :
La probabilité de perdre 2,89 euros par jour est de 1%.
2. On a PnL(t;t + 1) = 100×(RA ? RB). On utilise les données historiques pour calculer les scénarios de rendements joints (RA,RB). On en déduit ensuite la distribution empirique du PnL. Enfin, on calcule le quantile empirique correspondant. Avec 250 scénarios, le quantile empirique 1% est à mi-chemin entre la deuxième et troisième pires pertes :
La probabilité de perdre 2,905 euros par jour est de 1%. On obtient un résultat très proche de la VaR Gaussienne.
3. L’expression du PnL devient (TR-GDR, pages 91-95) :
PnL(
avec CA (t) la valeur de l’option d’achat. On a :
CA (t + 1) ? CA (t) ? ? × (PA (t + 1) ? PA (t))
avec ? le delta de l’option. On en déduit que :
PnL(t;t + 1) = 50 × RA ? 100 × RB
À titre d’illustration, on obtient pour la VaR analytique :
car :
La VaR 1 jour 99% est donc passée de 2,89 euros à 2,50 euros.
1.2 Valeur en risque d’un portefeuille de gestion (TR-GDR, page 538)
1. On a (TR-GDR, page 63) :
PnL(t;t + 1) = P (t + 1) ? P (t)
avec P (t) la valeur du portefeuille à la date t et R(t;t + 1) le rendement du portefeuille pour la période [t;t + 1]. À la date t, P (t) est une variable certaine – P (t) est égal à 20000 euros – tandis que R(t;t + 1) est aléatoire. Par construction, R(t?;t + 1) suit une distribution N (µp,?p)
avec µp = x?µ le rendement espéré du portefeuille et ?p = x??x la volatilité du portefeuille. Soit VaR? la valeur en risque du portefeuille. Celle-ci vérifie :
Pr{PnL(t;t + 1) ? ?VaR} = 1 ? ?
ou de façon équivalente :
Pr{L(t;t + 1) ? VaR} = 1 ? ?
avec L(t;t + 1) = ?PnL(t;t + 1) la fonction de perte. On en déduit que :
PnL(
Pr{
On obtient finalement que :
Pour déterminer la VaR gaussienne du portefeuille, il suffit de calculer l’expression précédente avec les valeurs données de P (t), x, µ et ?. Dans cet exercice, on a µp = ?34% et ?p = 40%. La VaR 99% pour une période de détention d’un an est donc :
VaR1Y = 20000 × (2,33 × 0,40 + 0,34) = 25440
On applique la méthode du scaling pour calculer la VaR mensuelle (TR-GDR, page 74) :
Si on néglige l’effet moyenne – µp = 0 – on obtient VaR1M = 5380. En fait, il n’est pas pertinent d’introduire l’effet moyenne car on n’a aucune information sur le rendement espéré du portefeuille dans le futur. Introduire l’effet moyenne revient à considérer qu’il y a une persistance de la performance. Ainsi, des actifs qui ont bien performé dans le passé récent auraient une valeur en risque plus faible que des actifs qui ont moins bien performé pour le même niveau de volatilité. À titre d’illustration, considérons un actif qui a une performance de 15% et une volatilité de 5% sur les 250 derniers jours de trading. On obtient une VaR négative égale à 2,33 × 0,05 ? 0,15, ce qui signifie que la probabilité de subir une perte est plus petite que 1%!
2. Le quantile empirique 1% correspond à la statistique d’ordre 2,6 : 260. On procède par interpolation et on a (TR-GDR, page 66) :
VaR1D = ?(?1124 + 0,6 × (?1012 ? (?1124))) = 1056.8
Par la méthode du scaling, on obtient (TR-GDR, page 74) :
VaR1M = ?20VaR1D = 4726
La VaR historique 99% pour une période de détention d’un mois est égale à 4726 euros.
3. On écrit la relation de façon vectorielle (TR-GDR, pages 119-121) :
rt = BFt + ?t
On en déduit que :
var(rt) = B?B? + D
avec B la matrice n×m de sensibilité aux facteurs et D une matrice diagonale d’éléments.
(a) On a :
?p = ?x?B?B?x + x?Dx
Il vient donc que :
VaR = P (t) × ??1 (?) × ?x?B?B?x + x?Dx
(b) On en déduit que :
VaR = P (t) × ??1 (?) × ?(??F)2x?11?x + x?Dx
Si ?i2 = ?j2 = ?2, alors le portefeuille de VaR minimale satisfait le programme d’optimisation suivant :
x? = argmin
s.c. 1?x = 1
Le Lagrangien est :
avec Q = (??F)211? + ?2In. Les conditions de premier ordre sont :
On obtient x = ?Q?11. On en déduit aussi que :
d’où :
La solution optimale est donc :
La matrice( Q?1 est particulière. C’est une matrice telle que (Q?1)i,i = (Q?1)j,j et (Q?1)i,j =
Q?1)j,i car les termes de variance sont les mêmes ainsi que les termes de covariance. Le portefeuille de valeur en risque minimale est donc le portefeuille équipondéré (ou portefeuille 1/n) :
1.3 Construction d’un scénario de stress à partir de la théorie des valeurs extrêmes (TR-GDR, page 542)
1. Le théorème de Fisher-Tippet permet de caractériser la loi asymptotique de Xn:n = max(X1, ,Xn) avec Xi des variables aléatoires iid de distribution F. S’il existe des constantes an et bn telles que :
alors G est une distribution de Gumbel, de Fréchet ou de Weibull (TR-GDR, page 139).
2. On a (TR-GDR, page 140) :
Pr
(a) On a (TR-GDR, page 141) :
Fn (anx + bn) = (1 ? e??(??1x+??1 lnn))n
On en déduit que :
G
(b) On a :
F
On en déduit que :
G
(c) On a :
n
F
On en déduit que :
G
3. La distribution GEV permet de caractériser les trois types de distribution par une distribution unique. On a (TR-GDR, page 146) :
On en déduit que :
4. On a :
On en déduit que :
5. Le temps de retour est la durée moyenne entre deux dépassements successifs de la VaR (TR-GDR, pages 79-81). On a :
1
t?(VaR?) = × p 1 ? ?
avec ? le seuil de confiance et p la période de détention. Si ? est égal à 99% (resp. 95%) et si p est 1 jour (resp. 1 an), t?(VaR?) est égal à 100 jours (resp. 20 ans).
6. Le stress-testing permet de calculer la perte maximale d’un portefeuille pour un scénario extrême donné (TR-GDR, pages 121-129). Il permet donc de compléter la valeur en risque. En effet, celleci est généralement basée sur les 260 derniers scénarios historiques journaliers. Ces scénarios ne correspondent pas forcément à des scénarios extrêmes ou adverses. Dans la réglementation, le stresstesting est utilisé pour identifier les scénarios les plus risqués pour la banque. Ils ne donnent pas lieu à une exigence de fonds propres. Néanmoins, ils doivent être réalisés de façon périodique (par exemple tous les trimestres) et les résultats doivent être communiqués aux autorités réglementaires. Pour le risque de marché, un exemple de scénario de crise est une baisse des actions de 50% en un mois. On utilise aussi le stress-testing pour mesurer les risques de marché liés à des paramètres inobservables (pour le pricing d’options exotiques par exemple). Pour le risque de crédit, un exemple de scénario de crise est un défaut de plusieurs pays de la zone Euro.
7. On a (TR-GDR, page 146) :
G?1 (?) = µ ? ???1 [1 ? (?ln?)??]
Pour ? = 1, on obtient :
G?1 (?) = µ ? ? (1 ? (?ln?)?1)
Par définition, on a t? = (1 ? ?)?1n. Le temps de retour t? est donc associé au seuil de confiance ? = 1 ? n/t?. On en déduit que:
On remplace ensuite µ et ? par les estimateurs du maximum de vraisemblance µˆ et ?ˆ.
8. On a : | ||
r(P1) | = | ?(0,01 + (12 ? 1)0,03) = ?34% |
r(P2) | = | ?(0,10 + (12 ? 1)0,02) = ?32% |
Le scénario de stress est plus sévère pour le portefeuille P1. Si on considère cette mesure de risque, le portefeuille P1 est donc plus risqué que le portefeuille P2.
1.4 Stress-testing et statistiques d’ordre (TR-GDR, page 545)
1. Le stress-testing permet de calculer la perte maximale d’un portefeuille pour un scénario extrême donné (TR-GDR, pages 121-129). Il permet donc de compléter la valeur en risque. En effet, celleci est généralement basée sur les 260 derniers scénarios historiques journaliers. Ces scénarios ne correspondent pas forcément à des scénarios extrêmes ou adverses. Dans la réglementation, le stresstesting est utilisé pour identifier les scénarios les plus risqués pour la banque. Ils ne donnent pas lieu à une exigence de fonds propres. Néanmoins, ils doivent être réalisés de façon périodique (par exemple tous les trimestres) et les résultats doivent être communiqués aux autorités réglementaires.
Pour le risque de marché, un exemple de scénario de crise est une baisse des actions de 50% en un mois. On utilise aussi le stress-testing pour mesurer les risques de marché liés à des paramètres inobservables (pour le pricing d’options exotiques par exemple). Pour le risque de crédit, un exemple de scénario de crise est un défaut de plusieurs pays de la zone Euro.
2. On a (TR-GDR, pages 131-133) :
Gn (x) = Pr{max(X1, ,Xn) ? x}
3. On considère la statistique d’ordre Xn:n. La fonction de densité associée est :
La log-vraisemblance associée à un échantillon (x1, ,xm) de la statistique d’ordre Xn:n est donc (TR-GDR, page 135) :
Pour chaque statistique d’ordre Xn:n, nous pouvons donc calculer la log-vraisemblance ?(n) et déterminer les estimations µˆ(n) et ?ˆ (n). Il suffit ensuite de tester les hypothèses µˆ(1) = µˆ(2) = = µˆ(n) et ?ˆ (1) = ?ˆ (2) = = ?ˆ (n) (TR-GDR, pages 136-137).
4. Le temps de retour est la durée moyenne entre deux dépassements successifs de la VaR. On a (TR-GDR, page 81) :
avec ? le seuil de confiance et p la période de détention. Si ? = 99%, t?(VaR?) est égal à 100 jours (resp. 4 ans et 100 ans) si la période de détention est 1 jour (resp. 10 jours et 1 an). On a :
Le temps de retour associé aux quantiles G?11 (99%), G?51 (99%) et G jours, 500 jours et 2200 jours.
5. On cherche le seuil de confiance ? tel que (TR-GDR, page 150) :
On a donc :
ou encore :
? = 1 ? 20 × 0,001 = 98%
est donc égal à 100
1.5 Les mesures de risque (TR-GDR, page 549)
1. (a) On a (TR-GDR, page 29) :
VaR(?) = inf {x : Pr{L ? x} ? ?} ES(?) = E[L|L ? VaR(?)]
(b) On suppose que F est continue. On a donc VaR(?) = F?1 (?). On en déduit que :
ES(
On considère le changement de variable t = F(x). Comme dt = f (x) dx et F(?) = 1, on obtient :
ES(
(c) On a :
On a donc :
On en déduit que :
et :
On remarque aussi que :
x permet de localiser la distribution tandis que ? contrôle la queue de distribution. On a : ?
On en déduit que :
F?1 (?) = x? (1 ? ?)???1
On obtient donc :
ES(
Comme ? > 1, on a alors et :
ES( VaR( )
(d) On a :
ES(
On considère le changement de variable t = ??1 (x ? µ). On obtient (TR-GDR, page 498) :
ES(
Comme ?? (x) = ?x?(x), on a :
On considère l’intégration par partie avec u(t) = ?t?1 et v? (t) = ?(t) et on obtient :
On considère de nouveau l’intégration par partie avec u(t) = t?3 et v? (t) = ?(t) et on obtient :
On peut continuer à intégrer par partie de façon récursive en posant v? (t) = ?(t). On obtient finalement l’expansion suivante :
d’où on en déduit que :
On reprend l’expression de ES(?) et on pose x = ??1 (?) :
ES(
On en déduit que ES(?) ? VaR(?) lorsque ? ? 1 car :
(e) Pour la distribution gaussienne, l’expected shortfall et la valeur en risque coincident pour des niveaux élevés de probabilité, ce qui n’est pas le cas de la distribution de Pareto, qui présente une queue épaisse. L’utilisation de la distribution de Pareto peut donc produire des mesures de risque beaucoup plus élevées que celles basées sur la distribution gaussienne.
2. On a (TR-GDR, page 29) :
R(L1 + L2) = E[L1 + L2] = E[L1] + E[L2] = R(L1) + R(L2)
R(?L) = E[?L] = ?E[L] = ?R(L)
R(L + m) = E[L ? m] = E[L] ? m = R(L) ? m
On remarque que :
On en déduit que si F1 (x) ? F2 (x), alors F?11 (t) ? F?21 (t) et E[L1] ? E[L2]. R est donc une mesure de risque cohérente.
3. On procède de la même façon pour montrer que R(L) = E[L] + ? (L) est une mesure de risque cohérente.
4. On a :
?i | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | |
Pr{L = ?i} Pr L ?i | 0,2 0,2 | 0,1 0,3 | 0,1 0,4 | 0,1 0,5 | 0,1 0,6 | 0,1 0,7 | 0,1 0,8 | 0,1 0,9 | 0,1 1,0 |
{ ? }
(a) On a VaR(50%) = 3, VaR(75%) = 6 et VaR(90%) = 7. On en déduit que :
3 × 10% + + 8 × 10%
ES(50%) == 5,5
60%
6 × 10% + + 8 × 10%
ES(75%) == 7,0
30%
7 × 10% + 8 × 10%
ES(90%) = = 7,5
20%
(b) On doit construire une distribution bivariée telle que (TR-GDR, page 30) :
F
Pour cela, on peut s’aider des différents résultats sur les inégalités de Makarov (TR-GDR, pages 344-350). Par exemple, il suffit de considérer la somme ordinale de la copule C+ pour u1 ? ? et u2 ? ? et d’une autre copule C? pour u1> ? et u2> ? pour produire dans la plupart des cas une distribution bivariée qui ne vérifie pas la propriété de sous-additivité pour la valeur en risque. Prenons par exemple ? = 70% et C? = C?, on obtient la distribution bivariée suivante :
On a donc :
?i | 2 | 4 | 6 | 8 | 10 | 14 | |
Pr{L1 + L2 = ?i} Pr L1 + L2 ?i | 0,2 0,2 | 0,1 0,3 | 0,1 0,4 | 0,1 0,5 | 0,1 0,6 | 0,1 0,7 | 0,3 1,0 |
{ ? }
Comme F?11 (80%) = F?21 (80%) = 6 et F, on en déduit que :
F
5. (a) On a (TR-GDR, page 498) :
(b) On a :
L ? N (x?µ,?x??x)
On en déduit que :
VaR(?) = x?µ + ??1 (?)?x??x
et :
On peut aussi utiliser le résultat précédent pour retrouver cette expression (TR-GDR, page 499).
1.6 Valeur en risque crédit d’un portefeuille non granulaire (TR-GDR, page 542)
On rappelle le résultat suivant. Soient A et B deux événements indépendants. On a :
Pr{A et B} | = | Pr{A} × Pr{B} |
Pr{A ou B} | = | Pr{A} + Pr{B} ? Pr{A} × Pr{B} |
La référence principale de cet exercice est (TR-GDR, pages 30 et 197-200). La perte aléatoire L a pour expression :
L = 1000 × LGD×D
avec LGD la perte en cas de défaut et D la variable aléatoire représentant le défaut. D est une variable de Bernoulli de paramètre PD.
1. On a L = 1000 × D. L peut donc prendre deux valeurs 0 et 1000. On a :
Pr{L = 0} | = | Pr{1000 × D = 0} |
= | Pr{D = 0} | |
= | 1 ? PD |
On obtient finalement :
x | 1000 | |
Pr{L = x} Pr L x | 99,5% 99,5% | 0,5% 100% |
{ ? }
On en déduit que la VaR 1 an à 99% est nulle.
2. Dans ce cas, L peut prendre trois valeurs 0, 500 et 1000. On a :
Pr{L = 0} | = | Pr{1000 × LGD×D = 0} |
= | Pr{D = 0} | |
et : | = | 99,5% |
Pr{L = 500} | = | Pr{1000 × LGD×D = 500} |
= | Pr{LGD = 50% et D = 1} | |
= | Pr{LGD = 50%} × Pr{D = 1} | |
= | 25% × 0,5% |
On obtient finalement :
x | 500 | 1000 | |
Pr{L = x} Pr L x | 99,5% 99,5% | 0,125% 99,625% | 0,375% 100% |
{ ? }
On en déduit que la VaR 1 an à 99% est nulle.
3. Dans le premier cas, on obtient :
x | 1000 | |
Pr{L = x} Pr L x | 90% 90% | 10% 100% |
{ ? }
Dans le deuxième cas, les résultats deviennent :
x | 500 | 1000 | |
Pr{L = x} Pr L x | 90% 90% | 2,5% 92,5% | 7,5% 100% |
{ ? }
La VaR 1 an à 99% est égale à 1000 euros dans les 2 cas.
4. L’expression de la perte aléatoire L devient :
L = 1000 × LGDA ×DA + 1000 × LGDB ×DB
L peut donc prendre trois valeurs 0 (si A et B ne font pas défaut), 1000 (si A ou B fait défaut) et
2000 (si A et B font défaut). On a : | ||
Pr{L = 0} | = | Pr{DA = 0 et DB = 0} |
= | Pr{DA = 0} × Pr{DB = 0} | |
et : | = | 0.9 × 0.9 |
Pr{L = 1000} = Pr{DA = 0 et DB = 1} + Pr{DA = 1 et DB = 0}
= 2 × 0,9 × 0,1
On obtient :
x | 1000 | 2000 | |
Pr{L = x} Pr L x | 81% 81% | 18% 99% | 1% 100% |
{ ? }
La VaR 1 an à 99% est égale à 1000 euros.
5. Dans ce cas, L prend cinq valeurs 0, 500, 1000, 1500 et 2000. On a :
Pr{L = 0} | = | Pr{DA = 0 et DB = 0} = 0,9 × 0,9 |
Pr{L = 500} | = | Pr{DA = 1, LGDA = 50% et DB = 0} + Pr{DA = 0, DB = 1 et LGDB = 50%} |
= | 2 × 0,9 × 0,25 × 0,1 | |
Pr{L = 1000} | = | Pr{DA = 1, LGDA = 100% et DB = 0} + Pr{DA = 0, DB = 1 et LGDB = 100%} + Pr{DA = 1, LGDA = 50%, DB = 1 et LGDB = 50%} |
= | 2 × 0,9 × 0,75 × 0,1 + 0,1 × 0,25 × 0,1 × 0,25 | |
Pr{L = 1500} | = | Pr{DA = 1, LGDA = 100%, DB = 1 et LGDB = 50%} + Pr{DA = 1, LGDA = 50%, DB = 1 et LGDB = 100%} |
= | 2 × 0,1 × 0,75 × 0,1 × 0,25 | |
Pr{L = 2000} | = | Pr{DA = 1, LGDA = 50%, DB = 1 et LGDB = 50%} |
= | 0,1 × 0,75 × 0,1 × 0,75 |
On obtient :
x | 500 | 1000 | 1500 | 2000 | |
Pr{L = x} Pr L x | 81% 81% | 4,5% 85,5% | 13,5625% 99,0625% | 0,375% 99,4375% | 0,5625% 100% |
{ ? }
La VaR 1 an à 99% est égale à 1000 euros.
1.7 Contribution en risque dans le modèle Bâle II (TR-GDR, page 541)
1. On suppose que (TR-GDR, page 179) :
(a) les pertes en cas de défaut LGDi sont indépendantes des temps de défaut ?i ;
(b) le défaut de la i-ième créance dépend d’un ensemble de facteurs communs X1, ,Xm ;
(c) le portefeuille est infiniment granulaire; il n’y a donc pas de concentration d’exposition sur une contrepartie, ce qui se peut se traduire par la propriété mathématique suivante :
EAD
2. Soit R une mesure de risque. La contribution en risque de la créance i est le produit de l’exposition de la créance i et du risque marginal (TR-GDR, page 497) :
RCi = EAD ? EADi
Dans le cas d’une mesure de risque convexe, on a :
La mesure de risque est alors égale à la somme des différentes contributions en risque.
3. On a :
EL = E[L]
UL = F?1 (?) ? EL
avec F la fonction de répartition de L. Si les temps de défaut sont indépendants, on obtient :
I
E[L | X1, ,Xm] = ?EADi ×E[LGDi] × PDi = EL
i=1
L n’est donc plus aléatoire, on a Pr{L = EL} = 1. Il vient que F?1 (?) = EL et UL = 0.
4. On note (TR-GDR, page 180) :
I
g (x) = ?EADi ×E[LGDi] × PDi (x)
i=1
d’où :
E[L | X = x] = g (x)
On a donc :
F(?) = Pr{L ? ?} = Pr{g (X) ? ?}
Comme EADi ? 0 et E[LGDi] ? 0, g (x) est une fonction monotone croissante (resp. décroissante) si PDi (x) est une fonction croissante (resp. décroissante) de x. Dans le cas où g (x) est une fonction
croissante, on a : | |
? ? ? | Pr{g (X) ?1?} = ? Pr({X(1? g1)? (?))} = ? Hg? (?) = ? ? = gH? (?) |
On en déduit donc que :
F[LGDi] × PDi (H?1 (?))
Dans le cas où g (x) est une fonction décroissante, on a :
? ? ? On en déduit donc que : | Pr{g (X) ?1?} = ? Pr({X(1? g1)? (?)} =) ? Hg? (?) = 1 ? ? ? = gH? (1 ? ?) |
F[LGDi] × PDi (H?1 (1 ? ?))
Si au moins une des expositions EADi est négative, la fonction g (x) n’est plus forcément monotone. On ne vérifie plus g (X) ? ? ? X ? g?1 (?) (cas croissant) ou g (X) ? ? ? X ? g?1 (?) (cas décroissant) et les expressions de F?1 (?) ne sont plus valides. On ne peut donc pas utiliser le modèle de capital réglementaire si le portefeuille de crédit contient une (ou plusieurs) exposition nette négative sur une contrepartie. Pour la gestion de portefeuille de crédit, cela implique que l’achat d’une protection de type CDS sur une contrepartie ne doit se faire que pour réduire l’exposition sur cette contrepartie et non pour prendre une position short sur celle-ci.
5. On a (TR-GDR, pages 181-182) :
PDi = Pr{?i ? Mi} = Pr{Zi ? Bi} = ?(Bi)
d’où Bi = ??1 (PDi). On a aussi :
Pr
?
En utilisant la paramétrisation de ?(x1,x2;?) donnée à la page 296 de TR-GDR, on a :
6. La probabilité de défaut conditionnelle étant une fonction décroissante de x, on a :
F
Comme fF?1 (?)) = (??F?1 (?))?1, on en déduit que (TR-GDR, page 505) :
1
f (?) =
avec ? = F?1 (?).
7. ? est la corrélation constante des actifs :
cor(Zi,Zj) = E[ZiZj]
On peut estimer ce paramètre par maximum de vraisemblance en considérant un historique de taux de défaut (TR-GDR, pages 474-477).
8. Le Pilier II doit donc s’intéresser à l’impact du non-respect des hypothèses et au risque de modèle. En particulier, on doit comprendre quel est l’impact de la non-granularité du portefeuille et quel est l’impact si la corrélation des actifs n’est pas constante (par exemple si elle augmente fortement dans le cas d’une crise systèmique).
1.8 Le risque de contrepartie sur opérations de marché (TR-GDR, page 551)
1. (a) Notons MtMA (C) et MTMB (C) le mark-to-market des banques A et B pour le contrat C. On doit vérifier théoriquement que :
MtMA+B (C) = MTMA (C) + MTMB (C)
= 0
Dans le cas de contrats listés, la relation précédente est généralement vérifiée. Dans le cas de contrats OTC, il n’y a pas de prix de marché. Dans ce cas, la banque utilise un modèle pour valoriser le contrat OTC. On parle d’une valorisation en mark-to-model. La relation MTMA+B (C) = 0 (ou MTMA+B (C) ? 0) n’est plus forcément vérifiée pour plusieurs raisons : les deux contreparties n’utilisent pas forcément le même modèle de valorisation, les paramètres utilisés ne sont pas exactement les mêmes, les systèmes de provisionnement pour le risque de modèle (appelés aussi réfactions) ne sont pas comparables, etc. Dans cet exemple, on obtient :
MTMA+B (C1) = 10 ? 11 = ?1
MTMA+B (C2) = ?5 + 6 = 1 MTMA+B (C3) = 6 ? 3 = 3
MTMA+B (C4) = 17 ? 12 = 5
MTMA+B (C5) = ?5 + 9 = 4
MTMA+B (C6) = ?5 + 5 = 0 MTMA+B (C7) = 1 + 1 = 2
Il y a donc un contrat qui vérifie exactement la relation (c’est le contrat C6). La relation est presque vérifiée pour deux autres contrats (ce sont les contrats C1 et C2). Pour le contrat C7, chaque contrepartie pense être gagnante et affiche un mark-to-market positif! Enfin, il y a trois contrats qui présentent de grosses différences (ce sont les contrats C3, C4 et C5).
(b) On a (TR-GDR, pages 216-217) :
EAD =max(MTM(Ci),0)
On obtient donc :
EADA = 10 + 6 + 17 + 1 = 34 EADB = 6 + 9 + 5 + 1 = 21
(c) On a (TR-GDR, page 217) :
EAD = maxMTM(Ci),0)
On obtient donc :
EADA = max(10 ? 5 + 6 + 17 ? 5 ? 5 + 1,0) = max(19,0) = 19 EADB = max(?11 + 6 ? 3 ? 12 + 9 + 5 + 1,0) = max(?5,0) = 0
(d) On a (TR-GDR, page 217) :
EADA = max(10 ? 5 + 6,0) + 17 + 1 = 29 EADB = max(?11 + 6 ? 3,0) + 9 + 5 + 1 = 15
(a) On a (TR-GDR, pages 220-221) :
– L’exposition au défaut d’un contrat OTC est égale à :
e(t) = max(MTM(t),0)
avec MTM(t) le mark-to-market du contrat à la date future t. e(t) est donc une variable aléatoire.
– La distribution de l’exposition au défaut e(t) pour la date future t est notée F[0,t]. L’exposition future potentielle (potential future exposure) est le quantile de la distribution F[0,t] pour un seuil de confiance ? donné :
PFE? (0;t) = F?[01,t] (?)
– L’exposition maximale (peak exposure) est le maximum des expositions futures potentielles :
PEPFE? (0;t)
Cette quantité est aussi connue sous le nom d’exposition future potentielle maximale (maximum potential future exposure ou MPFE).
– L’exposition attendue (expected exposure) est la moyenne de l’exposition au défaut pour une date t donnée :
EE(0;t) = E[e(t)] = ? xdF[0,t] (x)
– L’exposition positive attendue (expected positive exposure) est la moyenne pondérée dans le temps des expositions attendues :
EPE(0; EE(0,t) dt
– L’exposition attendue effective (effective expected exposure) est l’exposition maximale attendue jusqu’à la date t :
EEE(0;EE(0;?) = max(EEE(0;t?),EE(0;t))
– L’exposition positive attendue effective (effective expected positive exposure) est la moyenne pondérée dans le temps des expositions attendues :
EEPE(0;EEE(0;t) dt
– Si e(t) = ??t? avec ? ? U[0,1], on obtient :
F
avec x ? [0,??t]. On a donc : 1
PFE? (0;t) = F?[0,t] (?) = ???t
PE? (0) = ???T
EE(0; EPE(0;
EEE(0;
EEPE(0;
– Si e(t) = exp(??t?) avec ? ? N (0,1), on obtient :
F
avec x ? [0,?]. On a donc :
PFE
PE? (0) = exp(??T??1 (?))
EE(0; EPE(0;
EEE(0;
EEPE(0;
– Si, on obtient :
F
avec. On a donc :
PFE
PE? (0) = 1{t < t?} · PFE? (0;t) + 1{t ? t?} · PFE? (0;t?)
EE(0;
EPE(0;
EEE(0;t) = 1{t < t?} · EE(0;t) + 1{t ? t?} · EE(0;t?)
EEPE(0;EEE(0;t) dt
avec :
Cette exercice est plus difficile que le précédent, car la fonction e(t) n’est pas monotone croissante. Elle est croissante pour et ensuite décroissante. Ceci explique que l’on doit déterminer pour PE? (0) et EEE(0;t) l’optimum t?. À titre de comparaison, nous reportons les différentes fonctions EE(0;t), EPE(0;h), EEE(0;t) et EEPE(0;h) pour ces deux exercices sur les graphiques 1 et 2.
Figure 1 – Exposition au défaut si e(t) = exp(??tN (0,1))
Figure 2 – Exposition au défaut si
(b) On a (TR-GDR, pages 224-225) :
e(t) = max(x1 + ?1W1 (t),0)
On en déduit que : avec f (x) la fonction de densité de e1 (t). Comme e(t) ? N (x1,?1?t), on obtient :
On considère le changement de variable y = ?1?1t?1/2 (x ? x1). On obtient :
car ?(?x) = ?(x) et ?(?x) = 1 ? ?(x).
(c) On a :
e(t) = max(x1 + x2 + ?1W1 (t) + ?2W2 (t),0)
On en déduit que :
En utilisant le résultat de la question (b), il vient que :
(d) On a représenté la fonction E[e(t)] sur le graphique 3 dans le cas x1 = x2 = 0 et ?1 = ?2. On note que la moyenne de l’exposition au défaut est une fonction croissante du temps et de la volatilité et que l’impact d’un contrat de compensation globale peut être très important, surtout dans le cas d’une corrélation faible ou négative.
Figure 3 – Espérance de l’exposition au défaut E[e(t)] de la banque A
1.9 Le risque opérationnel (TR-GDR, page 550)
1. (a) On rappelle que la fonction de densité de la distribution LN (µ,?) est (TR-GDR, pages 239) :
On en déduit que la fonction de log-vraisemblance est :
Pour calculer les expressions des estimateurs µˆ et ?ˆ, on peut procéder de deux façons.
#1 On sait que si Y ? LN (µ,?), alors X = lnY ? N (µ,?) et que les estimateurs µˆ et ?ˆ du maximum de vraisemblance de X ? N (µ,?) sont :
On en déduit que les estimateurs µˆ et ?ˆ du maximum de vraisemblance dans le cas (i) sont :
#2 On maximize la log-vraisemblance et on en déduit les estimateurs µˆ et ?ˆ :
(µ,ˆ ?ˆ) = argmax?(µ,?)
Cela revient à résoudre les conditions du 1er ordre :
On a :
et donc :
On a :
et donc :
Pour m ? 1, on a :
On considère les changements de variable y = ??1 (lnx ? µ) et z = y ? ?. On obtient :
On en déduit que :
On peut donc estimer les paramètres µ et ? par la méthode généralisée des moments en considérant les moments empiriques suivantes (TR-GDR, pages 239) :
(b) On a :
On en déduit que la fonction de log-vraisemblance est :
La condition du 1er ordre est :
On en déduit que :
L’estimateur du maximum de vraisemblance est donc :
Pour m ? 1, on a :
On en déduit que :
et :
On remarque aussi que :
On peut donc estimer les paramètres µ et ? par la méthode généralisée des moments en considérant les moments empiriques suivantes :
La mise en place de la méthode GMM peut se faire en considérant soit le premier moment hi,1 (?), soit le second moment hi,2 (?) soit les deux moments joints (hi,1 (?),hi,2 (?)).
(c) L’expression de la densité conditionnelle dans le cas (ii) est (TR-GDR, page 242) :
La distribution conditionnelle est donc une distribution de Pareto de même paramètre ? avec x = H. L’estimateur ?ˆ du maximum de vraisemblance devient donc :
?
Pour la distribution (i), on obtient (TR-GDR, page 243) :
Les deux premiers moments de Li | Li ? H sont donc :
On peut donc estimer les paramètres µ et ? par la méthode généralisée des moments en considérant les moments empiriques suivantes :
hi,1 (µ,?) = Li ? m(µ,?)
hi,2 (µ,?) = (Li ? m(µ,?))2 ? (v (µ,?) ? m2 (µ,?))
(d) On peut utiliser un test dérivé de la représentation QQ-plot ou un test basé sur les statistiques d’ordre (et plus particulièrement la statistique du maximum).
2. On considère un échantillon de T nombres de pertes {N1, ,NT}. On suppose que le nombre de pertes suit une distribution de Poisson P (?).
(a) On a :
n
Pr
!
On en déduit que la log-vraisemblance a pour expression :
!
La condition du premier ordre est :
L’estimateur du maximum de vraisemblance est donc :
1Y
(b) On sait que :
N1Y = NQ1 + NQ2 + NQ3 + NQ4
D’après la propriété de la distribution de Poisson, si N1Y ? P (?) alors N1Q ? P (?/4). On en déduit que :
1Q
3. (a) On sait que la durée d entre deux pertes consécutives supérieures à ? est une distribution exponentielle de paramètre ?(1 ? F (?)) (TR-GDR, page 251). On en déduit que :
(b) On peut demander aux experts d’évaluer les temps de retour dj de différents scénarios ?j et on peut calibrer les paramètres ? et ? par la méthode des moments en remarquant que (TR-GDR, pages 252-253) :
1.10 Valorisation d’un CDS (TR-GDR, page 539)
1. Si on note N le notionnel et s le spread, la jambe fixe (ou de prime) annuelle payée par l’acheteur B de la protection est (TR-GDR, page 410) :
Comme on considère un CDS 6M, la jambe fixe est payée tous les six mois pendant 3 ans et le montant de celle-ci est donc égale à 10000 euros. S’il y a un défaut de paiement avant les 3 ans, l’acheteur B reçoit à la maturité la jambe de protection qui est égale à 600000 euros :
avec R le taux de recouvrement. On en déduit le diagramme des flux suivant (TR-GDR, page 411) :
Figure'4 – Diagramme des flux du point de vue de l’acheteur de la protection$
S’il n’y a pas de défaut avant les 3 ans, l’acheteur B paye donc au vendeur A 10000 euros pendant 6 semestres. Le PnL du vendeur A est donc égal à 60000 euros. Si la contrepartie X fait défaut dans 2 ans et 2 mois, le PnL de l’acheteur B est égal à :
PnLB = 600000 ? 4 × 10000
= 560000
2. Si le spread de la contrepartie X augmente sept mois plus tard et vaut 1000 pb, alors l’acheteur B de la protection gagne de l’argent s’il retourne sa position dans le marché puisque la probabilité de défaut de X a augmenté. La nouvelle valeur de la jambe de prime semestrielle est :
Comme il reste encore 5 versements semestriels de la jambe de prime, le PnL de l’acheteur B est égal à (si on néglige l’effet d’actualisation) (TR-GDR, page 410) :
PnLB = 5 × (50000 ? 10000) ? 10000
= 190000
On a la relation suivante (TR-GDR, page 411) :
PD
La probabilité de défaut initiale est donc :
PD
pb
La nouvelle probabilité de défaut devient :
PD ?
= 1667 pb
1.11 Calibration du paramètre LGD (TR-GDR, page 543)
1. On calcule la perte en cas de défaut moyenne empirique de la classe de risque C :
100 × 0% + 100 × 25% + 600 × 50% + 100 × 75% + 100 × 100%
mˆ LGD
= 50%
Soit L la perte aléatoire du portefeuille. On a (TR-GDR, page 457) :
100
L = ?EADi ×LGDi ×1{?i ? 1}
i=1
avec EADi l’exposition au défaut de la créance i qui vaut 10000 euros, LGDi la perte en cas de défaut aléatoire de la contrepartie i et ?i le temps de défaut aléatoire de la contrepartie i. Comme les variables aléatoires LGDi et ?i sont indépendantes, on en déduit que :
EL = LGDi ×1{?i ? 1}]
100
= ?E[EADi ×LGDi ×1{?i ? 1}]
= ?EADi ×E[LGDi] × E[1{?i ? 1}]
= ?EADi ×E[LGDi] × PDi
i=1
avec PDi la probabilité de défaut annuelle de la contrepartie i. On obtient donc :
EL =
= 5000 euros
2. L’espérance de perte par créance est donc égale à 50 euros. Si on suppose que l’exigence des fonds propres porte aussi sur la perte espérée, alors il convient d’impacter le bilan en considérant une charge supplémentaire de capital par créance égale à 50 euros. Si ce n’est pas le cas, alors il convient de provisionner la perte espérée au niveau du compte de résultat. Dans ce cas, cela revient à considérer que la marge commerciale est de 600 euros par créance.
3. On a :
mˆ LGD = 50%
et :
?ˆLGD
= 25%
On rappelle que :
µLGD
?LGD2
On en déduit que (TR-GDR, pages 452-453) :
(1 ? µLGD)
b = a
µLGD
et :
(a + b)2 (a + b + 1)?LGD2
(1
2 ?
LGD = a
µLGDµLGD
On obtient finalement que :
LGD
LGD
(1 ? µLGD)2µLGD ? ?
b = ?LGD2 (1 µLGD)
En utilisant les expressions numériques de µLGD et ?LGD, on a :
4. On peut considérer le portefeuille précédent comme infiniment granulaire puisque c’est un portefeuille homogène avec 100 créances. On sait dans ce cas que l’unexpected loss dépend seulement de l’espérance de la perte en cas de défaut. Comme l’espérance de la distribution uniforme est 50% (comme la distribution Bêta calibrée), alors il n’y a pas de différence dans ce cas entre utiliser une distribution uniforme ou la distribution Bêta calibrée. Ce résultat est valable pour le modèle Bâle II à un seul facteur, mais aussi dans le cas où il y a plusieurs facteurs (TR-GDR, page 458).
1.12 Modélisation du temps de défaut (TR-GDR, page 544)
1. Si t? [t?m?1,t?m[, on a (TR-GDR, page 427) :
S
Par itération, on obtient :
S
On en déduit que :
f (t) = ??tS(t) ?
= ??t (S(t?m?1)e?m?m(t?m?tm1 ?1))
= ?mS(tm? ?1)e?? (t?t? )
= ?mS(t)
= ?me??mi=1?1 ?i(t?i?ti??1)e??m(t?t?m?1)
2. On a donc :
si t 5
S e? 15e? 2( ?5) si t >? 5
avec ?1 = 0,01 et ?1 = 0,02. On vérifie que :
S
car F(?) ? U[0,1]. Soit U ? U[0,1]. On en déduit que :
? = S?1 (u)
Si u ? S(5), on a e??1t = u ou encore t = ???11 lnu. Si u >S(5), on a e??15e??2(t?5) = u ou encore t = 5 ? ??21 (lnu + ?15). On simule donc ? de la façon suivante :
???1 1 lnu si u ? e??115 ? =5 ? ??1 (lnu + ? 5) si u > e?? 5
2 1
Comme e??15 = e?0,01×5 = 0,951, les valeurs simulées de ? sont donc :
163,44 pour u = 0,04 ? =75,98 pour u = 0,23 ? 3,05 pour u = 0,97
3. On a :
S
On en déduit que (TR-GDR, page 431) :
avec S. On considère la classe de risque A. On en déduit que :
On obtient finalement les résultats suivantes :
A | B | C | ||
0 ? t < 2 2 ? t < 4 4 t < 6 | ?1?2?3 | 0,0050 0,0076 0,0093 | 0,0256 0,0276 0,0278 | 0,1116 0,0857 0,0650 |
?
4. Soit ? (t) la matrice de transition entre les dates 0 et t. On appelle générateur de ? (t) la matrice ? = (?i,j) définie par (TR-GDR, page 441) :
? (t) = et?
où eM est l’exponentielle matricielle de M. On en déduit que (TR-GDR, page 443) :
On a donc ? = (ˆ ln?)/2. Le générateur est Markovien si ?4j=1?i,j = 0 et ?i,j ? 0 si i ?= j. Ces conditions sont vérifiées, on en déduit que ?ˆ est une générateur Markovien.
5. Concernant le modèle exponentiel généralisé, on procède comme à la question 3. On a déjà calculé ?(t) pour 0 ? t < 2, 2 ? t < 4 et 4 ? t < 6. On calcule alors ?4 et ?4 et on en déduit ?(t) pour 6 ? t < 8 et 8 ? t < 10. On rappelle que la fonction de survie pour la classe de risque i est (TR-GDR, page 441) :
Si (t) = 1 ? e?i ? (t)e4
= 1 ? e?iet?ˆe4
On en déduit que (TR-GDR, page 467) :
e?i ?ˆet?ˆe4
=
1 ? e?iet?ˆe4
On utilise donc la formule précédente pour calculer ?(t) directement à partir du générateur Markovien. À long terme, le système de transition est stationnaire. La probabilité de défaut d’une contrepartie appartenant à la classe de risque A est donc à long terme la même que celle d’une contrepartie appartenant à la classe de risque B ou C. On a donc :
?A (?) = ?B (?) = ?C (?) = 147,6 bp
A court terme, ce n’est pas le cas et les probabilités de défaut sont ordonnées selon la classe de risque :
?A (0) < ?B (0) < ?C (0)
Il est donc tout à fait normal que l’on obtienne une courbe croissante pour le rating A et une courbe décroissante pour le rating C (TR-GDR, page 448).
1.13 Les spreads de crédit (TR-GDR, page 546)
1. On a (TR-GDR, page 427) :
F
Sf (t) = ?e??t
On note X = S(?). On a X ? [0,1] et :
Pr{X ? x} = Pr{S(?) ? x}
= Pr ? ? S?1 (x)}
= S({S?1 (x))
On en déduit que S(?) ? U[0,1] (TR-GDR, page 428). On a donc ? = S?1 (U) avec U ? U[0,1]. Soit u un nombre aléatoire uniforme. Simuler ? revient à transformer u en t :
2. On a (TR-GDR, pages 409-411) :
avec s le spread du CDS et N le notionnel. Le paiement trimestriel de la prime de protection explique le facteur 1/4 dans la formule de JF. On en déduit le diagramme des flux suivant : 'Figure 5 – Diagramme des flux du point de vue de l’acheteur de la protection $
3. La marge à la monnaie ou le spread du CDS est la valeur de s telle que le prix du CDS soit nul (TR-GDR, page 410) :
P (t) = E[JF ? JV ]
On a la relation triangulaire suivante (TR-GDR, page 410) :
s ? ? × (1 ? R)
4. Soit PD la probabilité de défaut annuelle. On a :
PD = 1
car ? est généralement petit (? ? 10%). On en déduit donc que :
PD
On a :
2%
PD = = 267 pb
1 ? 25%
Une stratégie de valeur relative consiste à construire son propre modèle théorique pour valoriser le spread de CDS et à acheter ou vendre la protection en fonction de la position du spread estimé par rapport au spread de marché (TR-GDR, page 413).
5. Une courbe de crédit exprime le spread du CDS en fonction de la maturité (TR-GDR, page 412). Pour la première contrepartie, le spread est croissant. On anticipe donc une hausse de la probabilité de défaut à long terme. C’est la configuration classique d’une contrepartie bien notée. En effet, si on considère un modèle de migration, la chaîne de Markov est stationnaire à long terme. Les contreparties les mieux notées à court terme ont donc la même probabilité de défaut à long terme que les autres contreparties. Pour la deuxième contrepartie, le spread est décroissant. On anticipe donc une baisse de la probabilité de défaut à long terme. Il y a donc des tensions à court terme, mais si la deuxième contrepartie arrive à surmonter ces difficultés, la probabilité de défaut dans 5 ans est la même que celle de la première contrepartie. Si on anticipe que les tensions sur la deuxième contrepartie vont finalement durer, on peut envisager la stratégie consistant à vendre la protection 6M et à acheter la protection 5Y (stratégie de pente), ou celle consistant à acheter la protection 5Y de la première contrepartie et à vendre la protection 5Y de la deuxième contrepartie (stratégie de valeur relative).
1.14 Valeur en risque d’une position optionnelle (TR-GDR, page 551)
1. L’expression du PnL est (TR-GDR, page 91) :
PnL = C (St+1) ? C (St)
avec C (St) la valeur de l’option à la date t. On a :
? = ?SC = 50% = 4%
et St+1 = (1 + Rt+1)St avec Rt+1 le rendement journalier:
Rt+1 ? N (0,2%)
(a) On a (TR-GDR, page 93) :
PnL
On en déduit que :
PnL ? N (0,??St)
et: | ||
VaR(?) | = | ??1 (?)??St |
= | 2,33 × 50% × 2% × 100 | |
= | 2,33 euros |
(b) On a (TR-GDR, page 94) :
PnL
On en déduit que :
E[PnL] =
et :
E[PnL
On a Rt+1 = ?X avec X ? N (0,1). Il vient que :
car E[X] = 0, E[X2] = 1, E[X3] = 0 et E[X4] = 3. L’expression de l’écart-type du PnL est donc :
? (PnL) =
L’approximation gaussienne du PnL est alors la suivante :
PnL
On en déduit que la VaR gaussienne est :
En utilisant les valeurs numériques des différents paramètres, on obtient :
VaR(99%) = 2,29 euros
(c) Soit L = ?PnL la perte. La VaR Cornish-Fisher est égale à (TR-GDR, page 82) :
VaR(?) = z? (?1,?2) × ? (L)
avec
et z? = ??1 (?). ?1 et ?2 sont respectivement le coefficient de skewness et l’excès de kurtosis associés à la distribution de la perte L. On a :
PnL = ?
avec X ? N (0,1). On rappelle que :
E[X] | = | |
E[X2]]]]]] E X4 E X5 E X6 E X7 E[[[[[[X3] E X8 | = = = = = = = | 1 (2 × 2 ? 1)E[X2] = 3 (2 × 3 ? 1)E[X4] = 15 (2 × 4 ? 1)E[X4] = 105 |
On en déduit que :
et :
L’expression des moments centrés est donc :
E[(PnL
et :
E[(PnL?E[PnL])4] = E[PnL4] ? 4E[PnL]E[PnL3] + 6E2 [PnL]E[PnL2] ? 3E4 [PnL]
L’expression de ?1 et ?2 est donc (TR-GDR, page 82) :
?1 (L) = ??1 (PnL)
E[(PnL?E[PnL])3]
E[(PnL?E[PnL])4]
En utilisant les valeurs numériques des différents paramètres, on obtient ? (L) = 1,0016, ?1 (L) = ?0,2394, ?2 (L) = 0,0764, z? (?1,?2) = 2,1466 et VaR(?) = 2,15 euros.
(d) La VaR est réduite avec la méthode Cornish-Fisher à cause de l’effet de skewness . Comme celle-ci est négative, cela revient à réduire la queue de distribution de probabilité de la perte
et à augmenter la masse de probabilité des pertes plus petites que la perte moyenne. Il est donc normal que la valeur en risque soit plus petite que celle obtenue avec l’approximation gaussienne (car on rappelle que l’excès de kurtosis est très faible).
2. On a :
PnL = ?
En utilisant un historique de rendement, on peut calculer la valeur du PnL avec la formule précédente en remplaçant Rt+1 par les scénarios historiques. Il suffit ensuite de classer les valeurs simulées du PnL et de prendre la statistique d’ordre correspondant au quantile 1 ? ? (TR-GDR, pages 94-95). Pour la méthode de Monte Carlo, on remplace les scénarios historiques par des scénarios simulés de Rt+1 ? N (0,2%).
1.15 Corrélation et copules (TR-GDR, page 547)
1. D’après le thèorème de Sklar, on a (TR-GDR, page 261) :
?2 (x1,x2) = C?X1,X2? (?(x1),?(x2))
Soit F la distribution bivariée du vecteur aléatoire (Y1,Y2) avec Y1 = ?(X1) et Y2 = ?(X2). On a
(TR-GDR, page 275) : | ||
F(y1,y2) | = | Pr{Y1 ? y1,Y2 ? y2} |
et : | = = = = | Pr{?(X1) ?1y1,?(X2) ? y2}1 Pr2X{(1X,X121? ?11? 2(y11),X2 2)? ?? (y2)} ? ?? (y ),?? (y ) C (y ,y ) ? ? |
F1 (y1) = Pr{Y1 ? y1}
= Pr{X1 ? ??1 (y1)}
= y1
On en déduit que Y1 ? U[0,1] et Y2 ? U[0,1] et que la décomposition canonique de F est :
F(y1,y2) = C?X1,X2? (y1,y2) On a donc montré que :
C?Y1,Y2? = C?X1,X2?
Simuler la copule gaussienne de paramètre ? revient à simuler le vecteur aléatoire (Y1,Y2). Pour cela, on simule (x1,x2) une réalisation du vecteur gaussien (X1,X2) et on applique la transformation (?(x1),?(x2)).
2. On a :
On a (TR-GDR, page 484) :
??S1,S2? = 1 ? ?(a,b) ? R × R+ : S1 = a + bS2
On en déduit que :
Comme (X1,X2) est un vecteur gaussien, on en déduit que a = 0 et :
Comme E[X1] = 0, b = 0. La condition implique que ?1 = ?2. On obtient donc le résultat suivant :
??S1,S2? = 1 ? ?1 = ?2
Corréler parfaitement les mouvements browniens W1 (t) et W2 (t) dans le modèle Black-Scholes n’est pas suffisant pour corréler parfaitement les prix des actifs S1 (t) et S2 (t). Il faut aussi imposer que ?1 = ?2. Si ?1 ?= ?2 et W1 (t) = W2 (t), on obtient alors que (TR-GDR, page 484) :
??S1,S2? < 1
3. On a :
C?X1,X2? = ?C? + (1 ? ?)C+ (a) On a (TR-GDR, page 269) :
F(x1,x2) = ? max(?(x1) + ?(x2) ? 1) + (1 ? ?)min(?(x1),?(x2))
On en déduit que :
E[X1X2] = ?? x1x2 dF(x1,x2)
= ? × (?1) + (1 ? ?) × (+1)
On obtient donc :
??X1,X2? = E[X1X2]
= 1 ? 2?
La corrélation linéaire de X1 et X2 est nulle lorsque :
(b) Soient. On a (TR-GDR, page 284) :
(c) On a :
On calcule donc la corrélation empirique ?ˆ et on en déduit que l’estimateur des moments est (TR-GDR, page 328) :
?ˆ= 1 ? ?ˆ
2
1.16 La distribution exponentielle (TR-GDR, page 548)
1. D’après la formule de Bayes, on a :
Pr ? > t ? > s Pr ? > s
Pr{? > t | ? > s} = { { ? } }
Pr{? > t}
=
Pr{? > s}
S(s)
On dit que la distribution exponentielle possède la propriété d’absence de mémoire (TR-GDR, page 427).
Pr{? > t | ? > s} = Pr{? > t ? s}
Cela veut dire que la distribution de ? reste inchangée quelque soit la date d’origine pour mesurer ? et n’est pas influencée par le passé. Cette propriété est très intéressante dans la modélisation du risque de crédit car on utilise généralement la date présente pour mesurer ?. Si la propriété d’absence de mémoire n’est pas vérifiée, cela voudrait dire que modéliser le temps de défaut d’une entreprise en octobre 2011 dépendrait par exemple de sa date de création. La propriété Markovienne de la distribution exponentielle permet ainsi d’oublier tout ce qui s’est passé avant octobre 2011.
2. (a) On a :
Pr
et :
Pr
On en déduit que (TR-GDR, page 427) :
(b) ?1 et ?i sont co-monotones si et seulement si (TR-GDR, page 274) :
U1 = Ui
S1 (?1) = Si (?i)
Soit ?+ = max(?1, ,?n) et ?? = min(?1, ,?n). On en déduit que :
Pr
et :
Pr
On obtient finalement que :
min(?1, ,?n) max(?1, ,?n) (c) On considère le cas n = 2. On a : | ? ? | E ((??+?)) E |
Pr
Ce résultat se généralise facilement au cas n ? 2 et on obtient :
Pr
3. (a) Si la fonction de dépendance de (?1,?2) est C+, alors ?1 et ?2 sont co-monotones. En utilisant les résultats de la question 2b, on obtient :
(b) Si la fonction de dépendance de (?1,?2) est C?, on a (TR-GDR, page 274) :
U1 = 1 ? U2
S1 (?1) = 1 ? S2 (?2)
? ? ? ?
Il existe bien une fonction f telle que ?1 = f (?2) avec :
(c) On sait que ? ? [?min,?max] avec ?min et ?max les coefficients de corrélation linéaire de (?1,?2) pour C = C? et C = C+ (TR-GDR, page 283). On sait aussi que ? = 1 (resp. ? = 1) si et seulement si il existe une fonction f linéaire croissante (resp. décroissante) telle que ?1 = f (?2) (TR-GDR, page 284). D’après les résultats de la question 3a, on a ?1 = f (?2) pour C = C+ avec :
La fonction f (t) est linéaire et croissante, on en déduit que ?max = 1. D’après les résultats de la question 3b, on a ?1 = f (?2) pour C = C? avec :
La fonction f (t) est bien décroissante, mais elle n’est pas linéaire. On en déduit donc que ?min = 1? . On obtient finalement que :
?1 < ? ? 1
(d) Pour C = C?, on sait qu’il existe une fonction décroissante f telle que (TR-GDR, page 274) :
X2 = f (X1)
On sait aussi que ? atteint sa borne basse si C = C? (TR-GDR, page 284) et que ? = ?1 s’il existe une fonction linéaire décroissante f telle que :
X2 = a + bX1
On doit donc vérifier que X2 = a + bX1 avec b < 0. Dans le cas où X1 = +?, on obtient :
Comme X2 est borné par 0, on en déduit donc que :
a = +?
Si le support des variables aléatoires X1 et X2 est [0,+?], il n’existe donc pas de fonction linéaire décroissante f telle que X2 = f (X1). On en déduit que la borne ? = ?1 ne peut pas être atteinte.
1.17 Les fonctions copules (TR-GDR, page 540)
1. (a) On a :
C(u,0) = C(0,u) = 0
C(u,1) = C(1,u) = u
Comme ?1 ? 1 + ?(1 ? 2u1)(1 ? 2u2) ? 1, on en déduit que
On en déduit que C est une fonction copule (TR-GDR, page 260).
(b) On a (TR-GDR, page 289) :
On en déduit que : | ||
?u1C(u1,u2)?u2C(u1,u2) Comme on a : | = = | u1u2 + ?u1u2 ? 2?u1u22 ? ?u21u2 + 2?u21u22 + ?u1u2 + ?2u1u2 ? 2?2u1u22 ? ?2u21u2 + 2?2u21u22 ? 2?u21u2 ? 2?2u21u2 + 4?2u21u22 + 2?2u31u2 ? 4?2u13u22 ? ?u1u22 ? ?2u1u22 + 2?2u1u32 + ?2u12u22 ? 2?2u21u32 + 2?u21u22 + 2?2u21u22 ? 4?2u21u32 ? 2?2u31u22 + 4?2u31u23 u1u2 ((((1 + 2?? ??) +)?2)) +(? ( (?)) ? ()( )) u1u22 3? 3?2 + u21u2 3? 3?2 + 2 2 2 3 2 3 2 u1u2 4? + 9? + u1u2 2? + u1u2 2? + u31u22 6?2 + u21u32 6?2 + u31u32 4?2 |
On a :
on obtient le résultat suivant (TR-GDR, page 281) :
(c) On simule tout d’abord (U1,U2) en utilisant la méthode des distributions conditionnelles (TRGDR, pages 315 et 318) et on applique la méthode de l’inversion (TR-GDR, page 314) :
(d) On a (TR-GDR, page 261) :
On en déduit que (TR-GDR, page 330) :
2. (a) On a :
S(0,0) = 1
S(?,?) = 0
et :
(b) On a :
S1 (x1) = S(x1,0)
= exp(?x1)
Comme U1 = S1 (X1), on en déduit l’expression suivante de la fonction copule :
C
avec u˜ = ?lnu. On obtient la copule EV appelée Gumbel II (TR-GDR, page 312).
3. (a) ? est une fonction de classe C2 qui vérifie ?(1) = 0, ?? (u) < 0 et ??? (u) > 0 (TR-GDR, page
293).
(b) C? est archimédienne avec ?(u) = ?lnu, C? est archimédienne avec ?(u) = 1 ? u et C+ n’est pas archimédienne (TR-GDR, page 294).
(c) C’est la copule de Gumbel (TR-GDR, page 294) :
C(u1,u2) = exp(?[(?lnu1)? + (?lnu1)?]1/?)
On a (TR-GDR, page 308) :
C(u1t,ut2) = exp(?[(?lnu1t)? +?(?lnut1)?]1/?)
= exp(?(t? [(?lnu1) + (?lnu1)?])1/?)
= exp(?t[(?lnu1)? + (?lnu1)?]1/?)
= Ct (u1,u2)
C’est donc une copule de valeurs extrêmes.
(d) Soit f une fonction. On note y = f (x). On a dy = ?xf (x) dx, x = f?1 (y) et dx = ?yf?1 (y) dy. On en déduit que :
On a donc :
C
Soient v1 et v2 deux nombres aléatoires uniformes. L’algorithme des distributions conditionnelles revient à poser :
On en déduit que (TR-GDR, page 320) :
On obtient l’algorithme de Genest et MacKay (1986).
4. (a) Soit X3 une variable gaussienne indépendante de X1 et X2. On a :
X2 = ?X1 + ?1 ? ?2X3
On en déduit que (TR-GDR, page 296) :
On obtient donc que :
Pr
(b) On a (TR-GDR, page 296) :
C
et :
C
On utilise la méthode des distributions conditionnelles. Soient v1 et v2 deux nombres aléatoires uniformes. On a : ou encore :
5. Une copule de valeurs extrêmes vérifie la propriété suivante pour tout t > 0 (TR-GDR, page 308) :
C
On a :
C
C
et :
C
En effet, si on prend u1 = u2 = 3/2 et t = 2, on obtient :
C
et :
C
2 De nouveaux exercices
2.1 Calculs statistiques
Soit L la variable aléatoire représentant la perte d’un portefeuille. On note f et F les fonctions de densité et de répartition associées.
1. Exprimez F(x) à partir de f.
2. Donnez la définition de F?1 (?).
3. Calculez le quantile x = F?1 (?) lorsque L ? N (µ,?).
4. Même question si L ? LN (µ,?).
5. Même question si L ? E (?).
6. Calculez F?1 (95%) et F?1 (99%) dans le cas de la distribution discrète suivante :
x | ?5 | 6 | 3 | 8 | 10 | |
Pr L = x | 10% | 50% | 23% | 7% | 6% | 4% |
{ }
2.2 Contribution en risque
Nous notons L la perte d’un portefeuille de n créances, et xi l’exposition au défaut de la i-ième créance. Nous avons :
avec ei la perte unitaire de la i-ième créance. Nous notons F la fonction de distribution de L.
1. On suppose que e = (e1, ,en) ? N (0,?). Calculez la valeur en risque au seuil de confiance ?.
2. En déduire la valeur en risque marginale de la i-ième créance. Définissez alors la contribution en risque de la i-ième créance.
3. Vérifiez que la valeur en risque marginale est égale à :
Interprétez ce résultat.
4. On se place dans le modèle de risque de crédit Bâle II. On a :
ei = LGDi ×Di
avec Di = 1{?i < Mi} l’indicatrice de défaut et Mi la maturité de la i-ième créance. Quelles sont les conditions à vérifier pour obtenir le résultat suivant :
E[ei | L = F?1 (?)] = E[LGDi] × E[Di | L = F?1 (?)]
5. On suppose que le défaut intervient avant la maturité Mi si une variable latente Zi passe en dessous d’une certaine barrière Bi :
?i ? Mi ? Zi ? Bi
On modélise Zi = ??X + ?1 ? ??i avec Zi, X et ?i trois variables aléatoires gaussiennes centrées réduites et indépendantes. X est le facteur (ou le risque systémique) et ?i est le risque individuel. Calculez la probabilité de défaut conditionnelle.
6. Montrez que, dans le modèle Bâle II, nous avons :
E[ei | L = F?1 (?)] = E[LGDi] × E[Di | X = ??1 (1 ? ?)]
7. Déduisez-en l’expression de la contribution en risque de la i-ième créance dans le modèle Bâle II.
8. On suppose que le portefeuille est homogène, c’est-à-dire que les créances ont la même exposition au défaut, la même distribution de perte en cas de défaut et la même probabilité de défaut. En utilisant le résultat suivant :
avec ?2 (x,y;?) la fonction de répartition de la distribution gaussienne bivariée de corrélation ? sur l’espace [??,x]×[??,y], calculez l’expected shortfall dans le cadre du modèle Bâle II. Commentez ce résultat.
2.3 Dérivés de crédit et corrélation de défaut
1. On considère un CDS 3M sur une contrepartie X de maturité 3 ans et de notionel 1 million d’euros. Le spread actuel du CDS est égal à 200 pbs. Donnez le diagramme des flux du CDS en supposant que la jambe de protection est payée au moment du défaut et que le taux de recouvrement est fixe et égal à 60%.
2. On suppose que le temps de défaut de X est exponentiel de paramètre ?. On considère que le taux d’intérêt instantanné est constant et égal à r. Donnez l’expression théorique du spread s du CDS.
3. En utilisant un modèle de Merton, vous estimez que le paramètre ? est égal à 250 pbs. Quelle est la position d’arbitrage que vous pouvez mettre en place?
4. Définissez la copule Normale de dimension n.
5. On considère un panier de n crédits. Qu’appelle-t-on un CDS first-to-default (F2D), un CDS secondto-default (S2D) et un CDS last-to-default (L2D)?
6. Définissez la notion de corrélation de défaut. Quel est l’impact de la corrélation de défaut sur le spread des trois CDS précédents?
7. On suppose maintenant que n = 3. Montrez la relation suivante :
L2D
avec sCDSi le spread CDS du i-ième crédit.
8. Certains professionnels et académiques considèrent que la crise des subprimes est dûe à l’utilisation de la copule Normale. Au vu des résultats de la question précédente, quels commentaires pouvezvous faire?
2.4 Modélisation de la perte en cas de défaut
1. Quelles différences faites vous entre le taux de recouvrement et la perte en cas de défaut?
2. On considère une banque qui octroie en moyenne 250000 crédits par an. Le montant moyen d’un crédit est égal à 50000 euros. On estime que la probabilité de défaut moyenne est égale à 1% et que le taux de recouvrement moyen est égal à 65%. Le coût total annuel du service contentieux est égal à 12,5 millions d’euros. Quelle est la perte en cas de défaut moyenne?
3. On rappelle que l’expression de la densité d’une distribution Bêta de paramètres a et b est :
avec B.
(a) Pourquoi la distribution Bêta est un bon candidat pour modéliser le paramètre LGD? Quel jeu de paramêtres (a,b) correspond à la distribution uniforme?
(b) On considère un échantillon (x1, ,xn) de n pertes en cas de défaut. Ecrivez la fonction de log-vraisemblance. Déduisez-en les conditions de premier ordre de l’estimateur du maximum de vraisemblance.
(c) On rappelle que les deux premiers moments de la distribution Bêta sont :
Déduisez-en l’expression de l’estimateur des moments.
2.5 Produits exotiques et gestion des risques
1. Définissez les notions de mark-to-market et mark-to-model. Pourquoi le backtesting de la VaR d’un portefeuille de dérivés exotiques pose-t-il un problème?
2. Qu’appelle-t-on le risque de modèle?
3. Quelles sont les différentes façons pour calculer la VaR d’un portefeuille de dérivés exotiques?
4. On considère la vente d’une option exotique sur un sous-jacent dont le prix actuel est 100. À cette date t, la valeur de l’option est égale à 6,78 euros.
(a) A la date t + 1, la valeur du sous-jacent devient 97 alors que la volatilité implicite n’a pas bougé. Le trader constate un PnL égal à 1,37 euros. Pourquoi le PnL du trader est positif? Pouvez-vous expliquer le PnL par les sensibilités sachant que le delta ?t est égal à 49%, que le gamma ?t vaut 2% et que le véga?t est estimé à 40%?
(b) A la date t + 2, la valeur du sous-jacent devient 100 alors que la volatilité implicite passe de 20% à 22%. Le trader constate un PnL négatif de ?2,37 euros. Pourquoi le PnL du trader est négatif? Pouvez-vous expliquer le PnL par les sensibilités sachant que le delta ?t+1 est égal à 43%, que le gamma ?t+1 vaut 2% et que le véga ?t+1 est estimé à 38%?
(c) Quelles conclusions faites-vous en terme de risque de modèle?
2.6 Calcul des bornes de corrélation
1. Donnez les définitions mathématiques des copules C?, C? et C+.
2. Définissez la copule Normale C(?) bivariée de corrélation ?.
3. Quelles sont les interprétations probabilistes des trois copules définies à la question 1? Déduisez-en que C(?=?1) = C?, C(?=0) = C? et C(?=1) = C+.
4. On considère le vecteur aléatoire (?,LGD) qui modélise la loi jointe du défaut ? et de la perte en cas de défaut LGD d’une contrepartie. On suppose que ? ? E? et LGD ? U[0,1].
(a) Montrez que la dépendance de (?,LGD) est maximale lorsque :
LGD+e??? ? 1 = 0
(b) Montrez que la corrélation ?(?,LGD) vérifie l’inégalité suivante :
|?(?,LGD)
(c) Commentez ces résultats.
2.7 Le modèle exponentiel généralisé
1. On note F et S les fonctions de répartition et de survie associée à la variable aléatoire ?. Définissez la fonction S(t) et déduisez-en l’expression de la fonction de densité f (t) associée.
2. Donnez la définition du taux de risque ?(t). Déduisez-en que le modèle exponentiel correspond au cas particulier ?(t) = ?.
3. Comment peut-on simuler la variable aléatoire ? dans le cas ?(t) = ?.
4. On suppose maintenant que :
Donnez l’expression de la distribution de survie S(t). Déduisez-en l’expression de la fonction de densité f (t). Vérifiez que :
constante S(t)
5. On suppose un taux d’intérêt constant r. On rappelle que dans le cas d’un CDS dont la marge est payée de façon continue, le spread du CDS est égal à :
avec S et f les fonctions de survie et de densité du temps de défaut ? associé au CDS, R le taux de recouvrement et T la maturité du CDS. Donnez l’égalité triangulaire lorsque ? ? E?.
6. On considère maintenant que ? est le modèle exponentiel généralisé de la question 4. On suppose que l’on dispose de trois spreads CDS de marché s1, s2 et s3 de maturité respectives 3 ans, 5 ans et 7 ans. Montrez que la calibration du modèle exponentiel généralisé revient à résoudre un système de 3 équations d’inconnues ?1, ?2 et ?3. Quel est le nom donné à cette méthode de calibration?
3 Correction des exercices supplémentaires
3.1 Calculs statistiques
1. Si on suppose que le support inférieur de L est ??, on a :
F
2. On a :
F?1 (?) = inf {x : F(x) ? ?}
Dans le cas d’une fonction de distribution continue, on obtient :
Pr{L ? F?1 (?)} = ?
3. On note ?(x) la fonction de répartition standardisée N (0,1). On a :
Pr{L ? x} = ?
Pr
Pr
On en déduit que :
x ? µ ?1 (?)
= ?
? On obtient finalement que :
F?1 (?) = x
= µ + ? · ??1 (?)
Application : Si µ est égal à 10 millions d’euros et ? est égal à 3 millions d’euros, on a :
F?1 (95%) | = | 10 + 3 × 1,6448536 |
et : | = | 14,93 |
F?1 (99%) | = | 10 + 3 × 2,3263479 |
= | 16,98 |
car ??1 (0,95) = 1,65 et ??1 (0,99) = 2,33.
4. Si L ? LN (µ,?), alors lnL ? N (µ,?). On en déduit que :
F(x) = Pr{L ? x}
= Pr{lnL ? lnx}
d’où :
On obtient :
F?1 (?) = exp(µ + ? · ??1 (?)) 5. On a F(x) = 1 ? e??x. Comme 1 ? e??x = ?, on obtient :
F?1 (?) = ?ln(1 ? ?) ? 6. On a :
x | ?5 | 3 | 6 | 8 | 10 | |
Pr L x | 50% | 60% | 67% | 90% | 96% | 100% |
{ ? }
On en déduit que F?1 (95%) = 8 et F?1 (99%) = 10.
3.2 Contribution en risque
Nous notons L la perte d’un portefeuille de n créances, et xi l’exposition au défaut de la i-ième créance. Nous avons :
avec ei la perte unitaire de la i-ième créance. Nous notons F la fonction de distribution de L.
1. On a :
On en déduit que :
2. On a :
La valeur en risque marginale de la i-ième créance est donc (TR-GDR, page 497) :
MR
La contribution en risque de la i-ième créance est le produit de l’exposition et du risque marginal :
RCi = xi × MRi
3. On considère le vecteur aléatoire Y = (e,L). Par construction, Y est un vecteur gaussien avec (TR-GDR, page 497) :
La distribution conditionnelle de e lorsque L = ? est gaussienne et on a :
E[e | L = ?] = ?x(x??x)?1?
On obtient donc :
La VaR marginale de la créance i est donc égale à l’espérance conditionnelle de la perte unitaire ei de la créance i sachant que la perte du portefeuille est égale à la valeur en risque.
4. On fait les hypothèses suivantes (TR-GDR, page 179) :
(i) la perte en cas de défaut est indépendante du temps de défaut; (ii) le portefeuille est infiniment granulaire.
5. On a :
Pr
car :
PDi = Pr{?i ? Mi} = Pr{Zi ? Bi} = ?(Bi)
6. Dans le modèle Bâle II, on a :
L = F?1 (?)
avec g? (x) < 0. On en déduit que : | ||
L = F?1 (?) On en déduit immédiatement que : | ? ? ? ? | Pr{g (X) ?1?} = ? Pr1{{X ? g?11(?)}} = ? Pr X ? g? (?) = 1 ? ? g? (?) = ?? (1 ? ?) |
E[ei | L = F?1 (?)] = E[LGDi] × E[Di | X = ??1 (1 ? ?)]
7. On a (TR-GDR, page 182) :
RCi = xi × MRi
Figure 6 – Comparaison VaR / ES dans le modèle Bâle II
8. D’après la question 6, on a :
L ? F?1 (?) ? X ? ??1 (1 ? ?)
On note EAD l’exposition au défaut. Comme on a :
L = n × EAD×E[LGD]
on en déduit que :
ES(
= n × EAD
= n × EAD
= n × EAD×E[LGD] × (1 ? ?)?1 × C(1 ? ?,PD;??)
avec C la copule gaussienne. L’expected shortfall est donc de la forme :
ES(?) = n × EAD×E[LGD] × (1 ? ?)?1 × P
avec P la probabilité correspondant au quadrant inférieur? [0,1 ? ??]×[0,PD] de la copule gaussienne de paramètre ?. On note aussi que l’on retrouve le paramètre ? des modèles Raroc (TR-GDR, page 524). On vérifie que l’on a pour ? = 0 :
ES(?) = n × EAD×E[LGD] × (1 ? ?)?1 × (1 ? ?) × PD
[LGD] × PD
En fait, le rapport ? entre l’expected shortfall et la VaR est égale à :
On peut montrer que ce rapport ? est une fonction croissante de ? et une fonction décroissante de PD. À titre d’illustration, on reporte sur le graphique 6 les valeurs de ES(?) et VaR(?) lorsque n = 1000, EAD = 1, E[LGD] = 50% et ? = 99%.
3.3 Dérivés de crédit et corrélation de défaut
1. On a :
JF =
= 5000 euros
Au moment du défaut, la jambe de protection est égale à :
JV = (1 ? 60%) × 1000000
= 400000 euros On en déduit le diagramme des flux suivant (TR-GDR, page 411) : ' Figure 7 – Diagramme des flux du point de vue de l’acheteur de la protection $
2. On a (TR-GDR, page 410) :
3. A partir de l’égalité triangulaire, on en déduit que l’intensité de défaut valorisée par le marché est :
pb
On vend donc le CDS car on anticipe que le spread va baisser.
4. On a :
C(u1, ,un;?) = ?n (??1 (u1), ,??1 (un);?)
avec ?n la fonction de répartition de la distribution gaussienne à n dimensions.
5. Un CDS first-to-default (resp. second-to-default et last-to-default) est un CDS dont l’événement de crédit porte sur le premier (resp. second et dernier) défaut observé (TR-GDR, pages 413-416).
6. La corrélation de défaut est le paramètre ? permettant de définir la matrice ? de la copule gaussienne :
sF2D (resp. sL2D) est une fonction décroissante (resp. croissante) de ? (TR-GDR, page 415). L’influence de ? sur le spread sS2D est plus complexe puisque la relation n’est pas monotone.
7. Acheter un CDS sur chaque crédit revient à acheter un CDS F2D, plus un CDS S2D et enfin un CDS LTD. On a donc:
L2D
8. Considérons un panier de 3 crédits. On peut alors assimiler le CDS F2D à la tranche junior d’un CDO, le CDS S2D à la tranche mezzanine et enfin le CDS LTD à la tranche senior. Par construction, l’expected loss du panier ne dépend pas de la corrélation de défaut ?, ce qui revient à dire que
CDS n’est pas une fonction de ?. On en déduit que sF2D + sS2D + sL2D ne dépend
pas de ?. ? a une influence seulement sur la répartition de l’expected loss entre sF2D, sS2D et sL2D :
sF2D (?1) + sS2D (?1) + sL2D (?1) = sF2D (?2) + sS2D (?2) + sL2D (?2)
Une sous-estimation de la corrélation de défaut entraîne donc une sur-estimation de sF2D et une sous-estimation de sL2D. Lors de la crise des subprimes, on a assisté à une augmentation importante de la corrélation de défaut. Le vendeur de la tranche junior doit donc subir une perte, mais pas le vendeur de la tranche senior. Si toutes les tranches ont souffertes, on ne peut pas l’expliquer par une sous-estimation de la corrélation de défaut. La seule explication est la sous-estimation générale des probabilités de défaut et des pertes en cas de défaut.
3.4 Modélisation de la perte en cas de défaut
1. On a (TR-GDR, page 447) :
LGD = 1 ? R + g
avec g la perte dûe à la gestion du recouvrement. Elle correspond donc à toutes les dépenses engagées (frais d’avocat, etc.) pour recouvrir la créance. Supposons par exemple une créance de 100 euros. On recouvre 70 euros, mais ce recouvrement a coûté 10 euros. On a alors R = 70% mais LGD = 60%.
2. Le montant de crédit est égal à :
N = 250000 × 50000
= 12,500 milliards d’euros
La perte après recouvrement est égale à :
L = N × (1 ? R) × PD
= 43,75 millions d’euros
Comme le coût total annuel du service contentieux C est égal à 12,5 millions d’euros, on en déduit que :
LGD = = 45%
Ce chiffre est supérieur au 35% obtenu si on ne tenait pas compte du coût du service contentieux.
(a) Elle permet d’obenir l’ensemble des configuations possibles (U et U inversé). La distribution uniforme correspond à a = 1 et b = 1 :
(b) On a :
n n
?(a,b) = ?nlnB(a,b) + (a ? 1)?lnxi + (b ? 1)?ln(1 ? xi)
i=1 i=1
Les conditions de premier ordre de l’estimateur du maximum de vraisemblance sont donc :
et :
(c) On a (TR-GDR, pages 452-453) :
LGD
LGD
LGD
3.5 Produits exotiques et gestion des risques
1. Le mark-to-market fait référence au prix de marché d’un produit financier, alors que le mark-tomodel correspond à un prix calculé avec un modèle de valorisation (TR-GDR, pages 96-98). Sur un marché listé, le prix est donc mark-to-market,alors qu’il est mark-to-model dans un marché OTC. Par construction, les dérivés exotiques s’échangent sur un marché OTC. Il n’existe donc pas de prix mark-to-market pour ces produits. On utilise donc le modèle de valorisation pour calculer la valeur en risque d’un portefeuille de dérivés exotiques, mais aussi pour la procédure de backtesting. Si le modèle de valorisation n’est pas bon, la VaR ne sera pas bonne ainsi que le calcul quotidien du PnL. La procédure de backtesting est alors fausse, puisque une non-exception peut correspondre à un mauvais calcul du PnL.
2. Le risque de modèle est l’ensemble des risques auxquels s’expose une institution financière dont la gestion des risques repose sur des modèles mathématiques (TR-GDR, page 98). Celui-ci comprend le risque opérationnel (erreurs d’implémentation, etc.), le risque de paramètre, le risque de spécification et le risque de couverture.
3. On peut calculer la VaR d’un portefeuille de dérivés exotiques en utilisant la méthode historique, les méthodes basées sur les sensibilités (VaR delta, VaR delta-gamma, etc.), la VaR Cornish-Fisher ou la méthode de Monte Carlo (TR-GDR, pages 93-95).
4. On a :
PnL = C (St,?t) ? C (St+1,?t+1)
avec St la valeur du sous-jacent et ?t la volatilité implicite à la date t.
(a) La valeur du sous-jacent a baissé alors que la volatilité implicite est restée la même. La probabilité d’exercer l’option diminue, ce qui implique que :
C (St+1,?t+1) ? C (St,?t)
On en déduit que :
PnL ? 0
On a (TR-GDR, page 94) :
PnL =
En utilisant les valeurs numériques de ?t, ?t et ?t, on obtient :
PnL
On arrive donc à expliquer le PnL par les sensibilités.
(b) La valeur du sous-jacent a augmenté ainsi que la volatilité implicite. La probabilité d’exercer l’option augmente donc puisque ?t > 0 et ?t > 0, ce qui implique que :
C (St+2,?t+2) ? C (St+1,?t+1)
On en déduit que :
PnL ? 0
On a :
PnL
On obtient le résultat numérique suivant :
PnL
En utilisant les sensibilités, on n’explique que seulement 90% du PnL.
(c) On voit que si la volatilité est constante, on arrive à bien expliquer le PnL par les sensibilités. Ce n’est plus le cas lorsque la volatilité bouge. Il y a manifestement un risque de modèle concernant la modélisation de la volatilité. Le pricer utilise sûrement une mauvaise dynamique pour appréhender la volatilité et sous-estime le véga de l’option (TR-GDR, pages 103-113).
3.6 Calcul des bornes de corrélation
1. On a (TR-GDR, page 269) :
C? (u1,u2) C? (u1,u2) | = = | max(u1 + u2 ? 1,0) u1u2 |
C+ (u1,u2) | = | min(u1,u2) |
2. C’est la copule associée à la distribution bivariée gaussienne ?2 (x1,x2;?) (TR-GDR, page 296) :
C
3. Soient 2 variables aléatoires X1 et X2. On a (TR-GDR, page 274) :
(i) C?X1,X2? = C? si et seulement si il existe une fonction f décroissante telle que X2 = f (X1);
(ii) C?X1,X2? = C? si et seulement si il X1 et X2 sont indépendantes;
(iii) C?X1,X2? = C+ si et seulement si il existe une fonction f croissante telle que X2 = f (X1).
Dans le cas de la distribution gaussienne ?2 (x1,x2;?), on sait que (TR-GDR, page 284) :
(i) si ? = ?1, alors X2 = ?X1 ;
(ii) si ? = 0, X1 et X2 sont indépendantes;
(iii) si ? = 1, alors X2 = X1 ;
Si ? = ?1 (resp. ? = 1), on a trouvé une fonction décroissante f (x) = ?x (resp. croissante f (x) = x) telle que X2 = f (X1). On en déduit donc que C(?=?1) = C?, C(?=0) = C? et C(?=1) = C+.
4. On note :
U1 = 1 ? e???
U2 = LGD
(a) La dépendance est maximale lorsque C??,LGD? = C+. Dans ce cas, on a U1 = U2 (TR-GDR, page 274) et on en déduit que :
LGD+e??? ? 1 = 0
(b) Si C??,LGD? = C?, on a U1 = 1 ? U2 et donc LGD = e???. On sait que ?(?,LGD) ?
[?min (?,LGD),?max (?,LGD)] avec ?min (?,LGD) la corrélation correspondant à la copule C? et ?max (?,LGD) la corrélation correspondant à la copule C+. Comme ? ? E? et LGD ? U[0,1], il vient que :
? (LGD) =
Dans le cas où C = C?, on a LGD = e???. On a donc :
E[? LGD] =
On en déduit que :
?min (?,LGD) =
Dans le cas où C = C+, on a LGD = 1 ? e???. On a donc :
E[? LGD] =
On en déduit que :
?max (?,LGD) =
On vérifie donc l’inégalité suivante :
|?(?,LGD)
On remarque donc que |?(?,LGD)| ne peut excéder 0,866. Voici donc un exemple pour lequel on ne peut pas atteindre les bornes ?1 et +1.
3.7 Le modèle exponentiel généralisé
1. On a (TR-GDR, page 426) :
S(t) = Pr{? ? t} = 1 ? F(t)
et :
f (t) = ?tF(t)
= ?tS(t)
2. ?(t) est le taux de défaut instantané (TR-GDR, page 426) :
Pr{t ? ? ? t + ?|}
= lim
??0+ ?Pr{? ? t}
1 Pr{t ? ? ? t + ?|}
= lim
=
S(t)
Dans le cas du modèle exponentiel E (?), on obtient :
f (t)
?(t) =
S(t)
3. On note X = S(?). On remarque que X ? [0,1] et que :
Pr{X ? x} = Pr{S(?) ?1x}
= Pr({? 1? S?) (x)}
= S S? (x)
= x
On en déduit que S(?) ? U[0,1] et ? ? S?1 (U[0,1]). Soit u un nombre aléatoire uniforme. On a donc :
4. On a (TR-GDR, page 427) :
si t ? 3
Ssi 3 < t ? 5
si t > 5
et :
si t ? 3 si 3 < t ? 5 si t > 5
On vérifie que :
f (
S
5. Si ? ? E?, on obtient (TR-GDR, page 411) :
dt
6. On a donc :
ou encore :
avec :
A partir de la première équation, on estime le paramètre ?ˆ1. On peut alors résoudre la deuxième équation qui ne comporte plus qu’une seule inconnue ?2 :
On estime alors le paramètre ?ˆ2. La troisième équation devient :
C’est une équation à une seule inconnue ?3, on peut donc estime facilement le paramètre ?ˆ3. Cette méthode de calibration successive des paramètres est appelée la méthode du bootstrap.
4 Éléments de correction des questions de cours
4.1 La réglementation Bâle II (TR-GDR, page 535)
1. Les différences entre le ratio Cooke et Bâle II sont décrites aux pages 34-37 de TR-GDR. Les points sur lesquels il faut insiter sont :
(a) le Nouvel Accord intègre le risque opérationnel;
(b) le traitement du risque de marché ne change quasiment pas;
(c) le risque de crédit fait l’objet d’une refonte totale. Les pondérations forfaitaires sont abandonnées et la notation devient l’élément central pour mesurer le risque de crédit. Deux méthodes sont alors disponibles, l’une est basée sur les notations externes (méthode SA) alors que l’autre utilise les notations internes (méthode IRB);
(d) le rôle central de la surveillance prudentielle et la place du Pilier II dans le système; (e) le renforcement des directions des risques au détriment des directions financières.
2. Le ratio McDonough correspond en fait à 3 ratios. Ceux-ci sont définis précisément à la page 34 de TR-GDR. La différence entre les ratios tier one et tier two est aussi expliquée à cette même page.
3. Les trois Piliers du Nouvel Accord sont (TR-GDR, pages 35-36) :
(a) l’exigence minimale de fonds propres;
(b) la surveillance prudentielle;
(c) la communication financière et la discipline de marché.
Le premier pilier permet de définir les différents éléments nécessaires au calcul des fonds propres et du ratio McDonough. Attention, les fonds propres calculés avec le premier pilier correspondent à une exigence minimale. Le régulateur peut demander des fonds propres supplémentaires. C’est le rôle du second pilier. Le second pilier concerne donc la ligne de conduite que doit adopter le régulateur pour surveiller l’établissement financier. Il comprend deux grands axes. Le premier est le processus de validation du premier pilier. Le second concerne le calcul de fonds propres supplémentaires. Ceux-ci peuvent être exigés si l’établissement financier présente un risque particulier ou si les hypothèses de calcul utilisées dans le modèle Bâle II ne sont pas applicables à l’établissement financier. Les problèmes de portefeuilles non granulaires et de concentration de risque sont donc traités dans ce second pilier (et non dans le premier pilier). Le troisième pilier cherche à promouvoir une discipline de marché plus efficace. Par exemple, l’établissement financier doit communiquer sur les différents modèles internes utilisés pour gérer le risque, doit publier les pertes les plus significatives, etc.
4. Cette question est moins d’actualité aujourd’hui, puisque la CB et l’ACAM ont fusionnées en une seule entité, l’ACP (ou Autorité de Contrôle Prudentiel). La Commission Bancaire (CB) était le régulateur des établissements financiers tandis que l’Autorité de Contrôle des Assurances et des Mutuelles (ACAM) était le régulateur des sociétés d’assurance (TR-GDR, page 38). L’Autorité des Marchés Financiers (AMF) est le régulateur des sociétés de gestion et le gendarme des marchés financiers (TR-GDR, page 155). Le système britannique de supervision est différent puisqu’il n’existe qu’une seule entité de régulation, la FSA (ou Financial Services Authority).
4.2 Le risque de marché (TR-GDR, page 535)
1. La distinction entre trading book et banking book est expliquée à la page 47 de TR-GDR. Il faut aussi reproduire le tableau page 47 de TR-GDR et illustrer les différences de traitement des risques Actions et Taux dans le banking book. Pour cela, on peut considérer le risque d’une participation majoritaire et celui lié aux plans d’épargne logement.
2. La valeur en risque est définie aux pages 27-28 de TR-GDR.
3. Donnez la formule des fonds propres qui se situe à la page 53 de TR-GDR. Les points à développer sont :
(a) la période de détention (au minimum 10 jours);
(b) le seuil de confiance de 99%; (c) la fenêtre de lissage de 60 jours; (d) le coefficient ?.
4. On a besoin de calculer une valeur en risque VaR1 pour l’exigence de fonds propres et une valeur en risque VaR2 pour le backtesting. La différence entre ces deux mesures concerne la période de détention, qui est de 10 jours pour VaR1 et de 1 jour pour VaR2. Expliquez aussi la notion de scaling (TR-GDR, page 74) et pourquoi il est plus pertinent de faire le backtesting avec la mesure VaR2 (TR-GDR, pages 56-57).
5. La réponse à cette question se trouve aux pages 90-103 de TR-GDR. Les points à développer sont :
(a) le problème de l’identification des facteurs de risque (TR-GDR, page 91);
(b) la différence entre un prix mark-to-market et un prix mark-to-model (TR-GDR, page 96);
(c) la difficulté du backtesting (TR-GDR, pages 96-98); (d) le risque de modèle (TR-GDR, page 98).
6. La procédure de backtesting est présentée aux pages 56-58 de TR-GDR. Insistez sur le facteur complémentaire ? et son incidence sur l’exigence de fonds propres.
7. La formule de robustesse de Black-Scholes est donnée à la page 103 de TR-GDR. Développez la notion de sur-réplication d’une option. Illustrez le problème de définir une volatilité conservatrice lorsque le gamma de l’option change de signe au cours du temps.
8. Le risque de contrepartie sur opérations de marché est défini aux pages 214-216 de TR-GDR. Précisez pourquoi il diffère du risque de crédit et pourquoi la perte en cas de défaut (EAD) est aléatoire (TR-GDR, page 216). Les trois méthodes pour l’exposition au défaut sont données à la page 222 de TR-GDR. Faites ensuite le lien avec l’exigence de fonds propres au titre du risque de crédit.
4.3 Le risque de crédit (TR-GDR, page 536)
1. La définition du défaut est donnée à la page 162 de TR-GDR.
2. Reproduisez le tableau de la page 165 de TR-GDR. Insistez sur la notion de notation externe (TR-GDR, page 168) et sur les 16 catégories de risque.
3. Les 4 paramètres de la méthode IRB (EAD, LGD, LGD et M) sont définis à la page 175 de TR-GDR.
4. Les différences entre FIRB et AIRB sont expliquées aux pages 209-210 de TR-GDR.
5. Ces quatre mesures de risque sont définies à la page 29 de TR-GDR (voir aussi la page 491).
6. En 2001, lors de la sortie du CP2, le Comité de Bâle avait choisi la valeur en risque comme mesure du risque de crédit. À la suite des négociations avec l’industrie bancaire, le Comité de Bâle a finalement opté pour l’unexpected loss. L’argument de l’industrie bancaire était que la perte espérée faisait déjà l’objet d’un provisionnement et qu’elle impactait donc le compte de résultat. Pour celle-ci, il n’y avait donc pas de raison qu’elle soit comptabilisée au niveau des fonds propres, c’est-à-dire au niveau
du bilan. Le Comité de Bâle jugeait que les systèmes de provisionnement de l’époque n’étaient pas basés sur la perte espérée, ce qui justifiait la prise en compte de celle-ci dans les fonds propres. Il y eut alors un débat sur la nécessité de mettre en place un provisionnement ex-ante (c’est-à-dire un provisionnement systématique basé sur la perte espérée). Finalement, le Comité de Bâle s’est rangé à l’avis de l’industrie bancaire et a choisi de ne pas inclure la perte espérée dans la mesure de risque.
7. La gestion du risque dans la banque de détail repose sur des systèmes de scoring et une segmentation de la clientèle. L’important est de bien distinguer les clients sains des clients qui peuvent faire défaut. La problématique de la tarification n’est donc pas centrale. Le taux d’un crédit est fixe et le même pour tous les clients (ou du moins pour ceux qui appartiennent au même segment). La question posée est alors la suivante : doit-on ou non accorder le crédit au client? Pour la banque commerciale, la problématique de la tarification est centrale. La question posée devient la suivante : à partir de quel taux peut-on accorder le crédit au client? Dans la banque de détail, un client qui a une probabilité de défaut élevée ne pourra donc pas avoir un crédit. Dans la banque commerciale, il obtiendra un crédit à condition qu’il paye un spread suffisamment élevé pour rémunérer ce risque. Ceci explique que les méthodes Raroc de tarification concernent principalement la banque de financement et d’investissement alors que la banque de détail utilise les outils de scoring (TR-GDR, pages 516523).
4.4 Le risque opérationnel (TR-GDR, page 536)
1. La définition du risque opérationnel est donnée à la page 228 de TR-GDR. Les pages 229-230 présentent différents exemples de risque opérationnel, ainsi que la classification Bâle II en 7 types de risque.
2. La différence entre BIA et STA est expliquée aux pages 231-233 de TR-GDR. Insistez sur le découpage en 8 lignes métiers (TR-GDR, page 230), sur les coefficients ?i (TR-GDR, page 232) et sur la procédure de validation de la méthode STA.
3. Un risque "low frequency / high severity" est un risque qui est très peu fréquent, mais qui peut produire une perte énorme. C’est par exemple le cas des désastres (l’incendie du siège du Crédit Lyonnais), le rogue trading (l’affaire Kerviel), etc. Un risque "high frequency / low severity" est un risque qui conduit à une petite perte, mais qui est très fréquent. L’exemple typique est la fraude "carte bleue". L’utilisation de la méthode LDA conduit donc à être vigilant pour estimer la distribution de sévérité dans le premier cas et la distribution de fréquence dans le deuxième cas.
4. Le formalisme mathématique de la méthode LDA est expliquée aux pages 236-237 de TR-GDR.
4.5 Les fonctions copules (TR-GDR, page 537)
1. La définition d’une copule est page 260 de TR-GDR. Les bornes de Fréchet sont données à la page 269 de TR-GDR. Insistez sur l’interprétation probabiliste de ces bornes et sur les notions de contre-monotonie et co-monotonie (TR-GDR, page 274).
2. L’ordre stochastique de concordance est présenté aux pages 270-271 de TR-GDR. Expliquez son importance dans la définition des mesures de dépendance (TR-GDR, pages 280-282).
3. Un mesure de concordance est une mesure signée alors qu’une mesure de dépendance est comprise entre 0 et 1. Dans le cas gaussien, la mesure de corrélation est assimilée à une mesure de concordance, alors que c’est la valeur absolue de la corrélation qui s’apparente à une mesure de dépendance. Rappelez aussi les différentes propriétés de ces deux mesures (TR-GDR, pages 280-282). Notez aussi qu’une mesure de concordance nulle n’implique pas que les variables aléatoires soient indépendantes contrairement à une mesure de dépendance nulle.
4. Le tau de Kendall, le rhô de Spearman et le coefficient de Gini sont définis à la page 281 de TR-GDR.
5. L’expression classique de la copule gaussienne est donnée à la page 262 de TR-GDR. Il est préférable d’utiliser la formulation du théorème 8 de la page 296, ce qui permet d’en déduire la copule conditionnelle.
6. Les copules archimédiennes sont définies à la page 293 de TR-GDR, tandis que la représentation des copules de valeurs extrêmes correspond à la définition 12 de la page 308.
7. La méthode des distributions conditionnelles est présentée à la page 314 de TR-GDR. Pour l’exemple, vous pouvez considérer la copule de Frank (TR-GDR, page 318) ou la copule gaussienne (voir la réponse 4 (b) de l’exercice 1.17 à la page 45 de ce document). Les autres algorithmes de simulation d’une copule sont la méthode des distributions (TR-GDR, page 314) et la méthode analytique (TR-GDR, page 318).
8. Les principaux résultats de la théorie des valeurs extrêmes multiples sont les suivants (TR-GDR, page 305) :
(a) les marges vérifient le théorème de Fisher-Tippet (TR-GDR, page 139);
(b) la dépendance est une copule de valeurs extrêmes (TR-GDR, page 308);
(c) la dépendance entre les extrêmes est forcément positive (TR-GDR, page 310);
(d) la dépendance de queue est conservée (TR-GDR, page 314);
(e) les extrêmes sont indépendants si les variables aléatoires sous-jacentes n’ont pas de dépendance de queue (TR-GDR, page 314).
9. La copule empirique de Deheuvels est présentée aux pages 322-325 de TR-GDR.
10. On peut répondre à cette question en montrant que la VaR n’est pas forcément une mesure de risque sous-additive (TR-GDR, page 30). On peut utiliser les inégalités de Makarov comme exemple (TR-
GDR, page 344). Une illustration se trouve à la page 12 de ce document (question 4 (b) de l’exercice
1.5).
4.6 Les dérivés de crédit (TR-GDR, page 538)
1. Donnez la définition d’un CDS (TR-GDR, page 409). Précisez en quoi un CLN est proche d’un CDS. Expliquez le montage d’un CLN en insistant sur l’aspect de structuration et la notion de SPV (TR-GDR, page 406).
2. Les ABS sont définis à la page 406 de TR-GDR tandis que les différentes catégories d’ABS sont répertoriées à la page 407 de TR-GDR.
3. Le mécanisme d’un CDO est expliqué aux pages 416-421 de TR-GDR. Il faut développer les points suivants :
(a) la technique du tranching (TR-GDR, page 416);
(b) la notion de points d’attachement et de détachement;
(c) la définition des tranches equity, mezzanine et senior (TR-GDR, page 419); (d) les points de ressemblance entre un CDO et les CDS F2D, S2D et L2D.
4. La différence entre les tranches equity, mezzanine et senior est expliquée à la page 419 de TR-GDR.
5. Les corrélations implicite et de base sont définies aux pages 421 et 478 de TR-GDR.
4.7 La gestion du risque de crédit (TR-GDR, page 538)
1. Les modèles exponentiel généralisé et à intensité sont présentés respectivement aux pages 427 et 433 de TR-GDR.
2. La définition d’un générateur markovien se trouve à la page 441 de TR-GDR.
3. On peut utiliser un modèle économétrique, par exemple le modèle LossCalc (TR-GDR, page 449), une distribution discrète (TR-GDR, page 456) ou une distribution Bêta (TR-GDR, page 452). Donnez les avantages à utiliser ce dernier modèle.
4. Il y a principalement 3 types de modèles pour modéliser la dépendance des temps de défaut :
(a) les modèles factoriels (TR-GDR, page 465);
(b) les modèles de copules (TR-GDR, page 458);
(c) les modèles de contagion (TR-GDR, page 470);
Expliquez aussi pourquoi il y a une dualité entre les deux premiers modèles (TR-GDR, pages 465470).
5. Le risque incrémental est défini aux pages 493-497 de TR-GDR. La notion de contribution en risque est présentée aux pages 497-506 de TR-GDR.
6. Les modèles de gestion de portefeuille sont des modèles d’allocation (TR-GDR, pages 505-516) alors que les modèles Raroc sont des modèles de tarification (TR-GDR, pages 516-526). Ceci explique que la couverture du risque de crédit par le biais de CDS concerne la gestion de portefeuille (TRGDR, page 516). Présentez aussi les différentes utilisations d’un modèle Raroc en tant qu’outil transactionnel (TR-GDR, pages 522-523).
. On suppose ici que les positions ne changent pas d’une période à l’autre.
. car ??1(0,99) = ???1(0,01).
. On prend l’opposé de G?1(?) car on considère ici les minima et non les maxima.
. En fait, il y a une seconde racine :
On note que e(t) peut prendre des valeurs négatives pour t autour de cette racine. On ignore ce problème pour calculer les différentes quantités.
. On suppose que les taux d’intérêt sont nuls, il n’y a donc pas besoin d’actualiser.
. car la volatilité journalière est égale à :
[7] ,6%
? = ?250 = 2%
. ? = 99%.
. L’excès de kurtosis a très peu d’effet.
. Celui-ci est mesuré en points de volatilité.
. On a :
x1 = = xn = EAD
. On fait bien sûr l’hypothèse que les notionnels et les maturités sont les mêmes.
[13] . Remarquez alors que la méthode des distributions conditionnelles est équivalente à la méthode de factorisation de Cholesky dans le cas d’une copule gaussienne.