Manuel complet sur la statistique financiere
Préface
L’essor important de la théorie financière moderne, telle qu’elle fut dévelopée à partir des résultats novateurs de Samuelson (1961-1965), Merton (1969-19711973-1976), Black et Scholes (1973) s’est pour une large part réalisé grâce au développement important de la théorie des processus stochastiques. Et sur ces trois dernières décennies, leur emploi s’est considérablement accru pour décrire l’évolution des fluctuations des marchés financiers, tant d’un point de vue de l’évaluation des actifs optionels que de la gestion des risques. Dans le même temps, les progrès importants de l’informatique ont permis d’une part de rendre opérationnelles des méthodes numériques et statistiques parfois exigeantes en termes de ressources et d’autre part de constituer de volumineuses bases de données d’historiques des actifs financiers et des marchés optionels. Finalement, la combinaison de ces deux effets place au centre des considérations actuelles et futures des risk managers les questions de la compréhension et de l’exploitation de ces informations.
L’objectif de ces notes est alors de deux ordres. Il vise à fournir une présentation autonome de la théorie des processus stochastiques et des méthodes statistiques connexes et de montrer comment ces notions et outils intéragissent dans des problématiques d’évaluation et de gestion des risques, auxquels les praticiens de la finance sont constamment confrontés.
Le but de ces notes est alors:
- d’expliquer les motivations pour l’emploi des processus stochastiques pour la modélisation des grandeurs économiques et financières. • de motiver la nécessité de l’équipement mathématique introduit pour la manipulation des processus stochastiques.
- de fournir les résultats mathématiques principaux des théories abordées sans entrer dans des détails techniques fastidieux.
- de présenter des exemples concrets d’emploi des processus stochastiques en évaluation et gestion des risques.
Sébastien ROLAND
Paris (France), Septembre 2005.
Mail: .
0Version: May 3, 2006.
iv Préface
1 Notions Générales de Probabilités 1
1.1 Eléments de Théorie de la Mesure . . . . 1
1.1.1 ??algèbres et Mesures . . . 1
1.1.2 Absolue Continuité et Densité . . . 3
1.2 Variables Aléatoires . . . . . . . . 4
1.2.1 Espace de Probabilité . . . 4
1.2.2 Quelle Caractérisation pour (?,F,P)? . . . . . . 6
1.2.3 Fonction Caractéristique . . . . . . 7
1.3 Processus Stochastiques . . . . . . 8
1.3.1 Fonctions Aléatoires . . . . 9
1.3.2 Filtrations et Histoires . . . 10
1.3.3 Espérance Conditionnelle . . . . . 13
1.3.4 Temps Aléatoire . . . . . . 13
1.3.5 Martingales et Propriété de Markov . . . 14
2 Processus de Wiener, Poisson et Lévy 17
2.1 Processus de Wiener . . . . . . . . 17
2.1.1 Loi Gaussienne . . . . . . . 17
2.1.2 Mouvement Brownien . . . 19
2.1.3 Version Multidimensionnelle . . . . 28
2.2 Processus de Poisson . . . . . . . . 30
2.2.1 Loi Exponentielle . . . . . . 30
2.2.2 Loi de Poisson . . . . . . . 31
2.2.3 Processus de Poisson . . . . 32
2.2.4 Processus de Poisson Composé . . . . . . 34
2.3 Processus de Lévy . . . . . 35
2.3.1 Mesures Aléatoires . . . . . 36
2.3.2 Marches Aléatoires . . . . . 38
2.3.3 Propriété de Markov . . . . 41
A Propriétés Empiriques des Séries Financières 43
A.1 Du Temps Continu au Temps Discret . . . 43
A.2 Faits Stylisés des Séries de Rendements . . . . . 44
3 Calcul Stochastique 47
3.1 Intégrales Stochastiques . . . . . . 47
3.1.1 Mouvement Brownien . . . 47
3.1.2 Cadre des Semimartingales . . . . 53
3.1.3 Processus de Poisson et Lévy . . . 57
3.2 Variation Quadratique . . . . . . . 59
3.2.1 Lien avec la Volatilité Réalisée . . . . . . 59
3.2.2 Covariance Quadratique . . . . . . 61
3.3 Formule d’Itô . . . . . . . . 63
3.3.1 Cas du Mouvement Brownien . . . 63
3.3.2 Cas des Processus d’Itô . . . . . . 65
3.3.3 Cas des Processus de Poisson . . . 68
3.4 Changement de Mesure . . . . . . 72
3.4.1 Construction . . . . . . . . 72
3.4.2 Cas du Processus de Wiener . . . . 74
3.4.3 Cas des Processus de Poisson . . . 75
3.4.4 Cas des Modèles Mixtes . . 78
B Evaluation Risque-Neutre 79
B.1 Règles d’Evaluation . . . . . . . . 79
B.2 Mesures Martingales Equivalentes . . . . . 82
4 Equations aux Dérivées Partielles 85
4.1 Equations Différentielles Stochastiques . . 85
4.1.1 Cas Brownien . . . . . . . . 85
4.1.2 Cas Mixte Brownien-Poisson . . . 87
4.2 Propriété de Markov . . . . . . . . 89
4.3 Equations aux Dérivées Partielles . . . . . 90
4.3.1 Cas Brownien . . . . . . . . 90
4.3.2 Cadre Multidimensionnel . . . . . 93
4.3.3 Cas Mixte Brownien-Poisson . . . 93
4.4 Modèles de Taux d’Intérêt . . . . . 94
C Simulation des EDS-S 97
C.1 Simulation Exacte . . . . . 97
C.1.1 Cas du Mouvement Brownien . . . 97
C.1.2 Cas des Processus à Sauts . . . . . 99
C.2 Méthodes de Discrétisation . . . . 102
C.2.1 Schéma d’Euler . . . . . . . 102
C.2.2 Schéma de Milstein . . . . . 103
5 Inférence Statistique 109
5.1 Contexte . . . . . . . 109
5.1.1 Estimations MV et MMG . . . . . 109
5.2 Quelques Exemples . . . . . 113
5.2.1 Mouvement Brownien Géométrique . . . . 113
Notions Générales de Probabilités
L’objectif de ce Chapitre est d’introduire l’ensemble des concepts mathématiques qui seront utiles dans la suite de la présentation du calcul stochastique en finance. Après avoir présenté les concepts de mesures, de ??algèbres, de filtrations et de martingales, nous aborderons les processus stochastiques en temps continu.
1.1. Eléments de Théorie de la Mesure
1.1.1 algèbres et MesuresLa notion de mesure est une extension naturelle des concepts plus familiers de distance, d’aire et de volume à un cadre plus abstrait. Considérons un ensemble E, que nous supposerons la plupart du temps être Rd (pour d > 1). On dira qu’une mesure µ sur E associe à certains ensembles A ? E, que nous nommerons alors des ensembles mesurables, un nombre (pouvant être infini) positif µ(A) [0,?] que nous appelerons la mesure de A. Par analogie avec les notions d’aire ou de volume, il est naturel de poser que l’ensemble vide ? a pour mesure 0, soit µ(?) = 0. De même, si A et B sont des ensembles mesurables disjoints, l’ensemble A ? B est aussi mesurable et sa mesure est définie comme µ(A ? B) = µ(A)+µ(B); il s’agit de la propriété d’additivité. Par ailleurs, pour une suite (An)n>1 d’ensembles mesurables disjoints, nous
avons:
µ³Sn>1An´ = Pn>1µ(An)
Cette propriété est parfois connue sous le nom de ??additivité. Par ailleurs, grâce à la propriété d’additivité, nous avons aussi:
µ(Ac) = µ(E) ? µ(A)
où Ac est le complémentaire de A. Pour conclure sur ces remarques, on dira que le domaine de définition d’une mesure E sur E est une collection d’ensembles de E qui:
- contient l’élément nul: ? E, • est stable par passage à l’union:
An E,(An)n>1 disjoints ? Sn>1An E
- contient le complémentaire de tout élément: ?A E, Ac E.
Une telle collection d’ensemble est alors appelée une ??algèbre. D’où la défi-
nition.
Définition 1.1.1 (??algèbre) Soit ? un ensemble non-nul et soit F une collection de sous-ensembles de ?. Alors, F est une ??algèbre si:
1. L’élément nul ? appartient à F,
2. Si A appartient à F, alors son complémentaire Ac = ??A appartient à F,
3. Si la séquence (An)n>1 appartient à F, alors Sn>1An appartient à F.
Un ensemble mesurable est alors un élément d’une ??algèbre. Une première question que nous sommes en droit de nous poser est: comment pouvonsnous construire des ??algèbres?
Exemple 1.1.2 Si ? représente la droite rélle R, les opérations de réunion et d’image par complémentaire d’intervalles forment une ??algèbre.
Exemple 1.1.3 Si E est doté d’une topologie, c’est-à-dire qu’il est possible de définir une notion de convergence, ce qui est le cas pour E = Rd, la ??algèbre générée par tous les ouverts est appelée la tribu borelienne B(E). Ce cas est d’un intérêt particulier car la définition de mesures sur E assure que tous les ensembles ouverts ou fermés sont mesurables.
Jeu de Pile ou Face
Supposons que ? représente les huit résultats possibles d’un jeu de pile ou face avec trois pièces. Si nous nous intéressons plus particulièrement au résultat du jeu après le lancer de la première pièce, alors les ensembles:
AP = {PPP,PPF,PFP,P,FF}, AF = {FPP,FPF,FFP,FFF}
sont connus suivant l’information disponible (resolved by the information). Par ailleurs, les ensembles ? et ? sont eux aussi connus, soit F0 = {?,?}. De fait, les ensembles connus dès lors que le résultat de la première pièce est disponible forment la ??algèbre:
F1 = {?,?,AP,AF}
Dit autrement, la ??algèbre F1 représente l’information accumulée par observation du résultat du lancer de la première pièce.
Nous pouvons à présent définir une mesure.
Définition 1.1.4 (Mesure) Soit E une ??algèbre de sous-ensembles de E. (E,E) est appelée un ensemble mesurable. Une mesure (positive) sur (E,E) est une fonction:
µ : E ?[0,?]
A 7? µ(A)
telle que:
1.1 Eléments de Théorie de la Mesure
1. µ(?) = 0,
2. Pour toute suite d’ensemble disjoints (An)n>1 E:
µ³Sn>1An´ = Pn>1µ(An)
Un élément A E est appelé un ensemble mesurable et µ(A) sa mesure.
Un exemple bien connu de mesure est la mesure de Lebesgue sur Rd: elle correspond à la notion (en dimension d) de volume:
?(A) = Z dx, A E
A
Et de façon plus générale et pour reprendre la définition précédente, il est possible pour toute fonction continue ? : Rd ?R+ de définir une mesure sur Rd comme:
La fonction ? est appelée la densité de µ par rapport à la mesure de Lebesgue ?.
Soit µ une mesure sur E, µ(E) n’est pas nécessairement finie. Une mesure µ sur (E,E) est dite finie si µ(A) < ?, pour tout ensemble mesurable A ? E. La quantité µ(E) est habituellement appelée la masse de µ. Par exemple, une masse de Dirac est une mesure finie de masse 1. Une mesure de masse 1 est appelée une mesure de probabilité et alors (E,E,µ) est un espace de probabilité. Toutefois, toutes les mesures que nous pouvons rencontrer en pratique ne sont pas toujours des mesures finies. Un exemple est la mesure de Lebesgue sur Rd qui est de masse infinie. Une notion plus flexible de mesure est alors donnée par une mesure de Radon.
Définition 1.1.5 (Mesure de Radon) Soit E ?Rd. Une mesure de Radon sur (E,B) où B est la tribu borélienne est une mesure µ telle que pour tout compact (sous-ensemble borné et fermé) mesurable B B, µ(B) < ?.
Pour exemple, la mesure de Lebesgue sur R est une mesure de Radon: la longueur de tout intervalle borné est finie. De même, les mesures de Dirac et toute combinaison linéraire de mesures de Dirac sont des mesures de Radon.
1.1.2 Absolue Continuité et Densité
Considérons un ensemble mesurable (E,E) doté des mesures µ1 et µ2. La question naturelle que nous nous posons est: comment ces deux mesures peuventelles être comparées? Un idée naturelle est de comparer µ1 et µ2 en observant le ratio de vraisemblance µ2 (A)/µ1 (A) pour plusieurs définitions de l’ensemble A. Mais cela n’est possible que si µ2 (A) = 0 chaque fois que µ1 (A) = 0. Cette observation motive alors pour la définition suivante.
Définition 1.1.6 (Absolue continuité) Une mesure µ2 est dite absolument continue par rapport à la mesure µ1 et on note µ2 ¿ µ1 si pour tout ensemble mesurable A :
µ1 (A) = 0 ? µ2 (A) = 0
La propriété d’absolue continuté peut par ailleurs être caractérisée sous la forme suivante.
Théorème 1.1.7 (Radon-Nikodym) Soit µ2 ¿ µ1. Alors, il existe une fonction mesurable Z : E ? [0,?] telle que pour tout ensemble mesurable A :
µ2 (A) = Z Zdµ1 = µ1 (1AZ)
A
La fonction Z est appelée la densité ou dérivée de Radon-Nikodym de µ2 par rapport à µ1 et on note. Pour toute fonction intégrable par rapport à µ2, nous avons:
µ2 (f) = Z fdµ2 = µ1 (fZ) = Z fZdµ1
E E
Preuve. Selon la Définition 1.1.4, la preuve est complète si µ2 est une mesure, c’est-à-dire si µ2 (?) = 0 et si la propriété de ??additivité est vérifiée.
Le résultat précédent s’interpréte de la sorte: si µ2 est absolument continue par rapport à µ1, alors l’intégrale par rapport à µ2 est une intégrale pondérée par rapport à µ1, le poids étant donnée par la densité Z. Il peut par ailleurs se réécrire en fonction du signe espérance. Soit, pour une variable aléatoire X non-négative:
Eµ2 [X] = Eµ[ZX]
ou pour une variable aléatoire Y non-négative:
Remarque 1.1.8 (Mesures équivalentes) Lorsque µest absolument continue par rapport à µ2 et que µ2 est absolument continue par rapport à µ1, on dit que µ1 et µ2 sont des mesures équivalentes, c’est-à-dire comparables.
Remarque 1.1.9 (Absolue continuité et évaluation d’actifs) Le cadre d’évaluation dit par arbitrage suppose l’existence d’une nouvelle mesure, dite risque-neutre ou martingale, sous laquelle le prix des actifs actualisés est une martingale. Le théorème de Radon-Nikodym est alors central dans cette approche, cf. Chapitre 3 et Section 3.4.
1.2 Variables Aléatoires
positive finie P de masse totale 1. Le triplet (?,F,P) est alors appelé un espace de probabilité. Et un ensemble A F, que nous appelerons un évènement, est alors un ensemble de scénarios auquel une probabilité peut être assignée. Une mesure de probabilité attribue ainsi une probabilité, nombre compris entre 0 et 1, à chaque évènement:
P : F ?[0,1]
A 7?P(A)
Il est par ailleurs possible de définir une propriété d’absolue continuité et d’équivalence pour des mesures de probabilités: deux probabilités P et Q définies sur (?,F) sont équivalentes si elles définissent les même ensembles d’évènements à probabilité nulle:
P?Q ? [?A F, P(A) = 0 ?Q(A) = 0]
Une variable aléatoire X à valeurs dans E est une fonction mesurable:
X : ?? E
où (?,F,P) est un espace de probabilité. Un élément ? ? est appelé un scénario ou un évènement. Ainsi X (?) représente le résultat de la variable aléatoire si le scénario ? se réalise et est appelé la réalisation de X pour le scénario ?. La loi de X est la mesure de probabilité définie sur E comme:
µX (A) = P(X A)
Si alors les variables X et Y sont dites identiques en loi et on note
X = Y .
Changement de Mesure pour une Variable Aléatoire Gaussienne
Nous montrons par la suite une application du Théorème 1.1.7. Soit X une variable aléatoire gaussienne définie sur l’espace de probabilité (?,F,P). En termes de mesure, cela équivaut à:
où:
est la distribution de probabilité de la loi normale centrée réduite N (0,1). Soit par ailleurs ? une constante positive et nous définissons Y = X + ?, qui est alors, sous P, une variable aléatoire gaussienne de moyenne ? et de variance 1. Nous cherchons à présent à expliciter une nouvelle mesure de probabilité, soit
On notera que l’on ne cherche pas à soustrairee ? de Y , mais plutôt à donner plus P, sous laquelle Y est une variable gaussienne de moyenne 0 et de variance 1.
de poids aux trajectoires ? pour lesquels Y (?) est positive et moins de poids aux trajectoires ? pour lesquels Y (?) est négative. Ainsi, nous changeons la distribution de Y sans affecter sa définition. A cette fin, nous considérons la v.a.:
qui possède deux propriétés remarquables qui lui assurent de pouvoir être utilisée comme dérivée de Radon-Nikodym et ainsi obtenir une nouvelle probabilité
P. Nous avons:
e E[Z] = 1, Z (?) > 0, ?? ?
Dès lors, par application du Théorème 1.1.7 de Radon-Nikodym, nous définissons:
Pe(A) = ZAZ (?)dP(?), A F
et Z a la propriété que si X (?) est positif, alors Z (?) < 1, ce qui se traduit est positif, recentrant de fait la variable aléatoiree Y . Il est par ailleurs possible par le fait que P attribue moins de poids que P aux ensembles pour lesquels X de montrer que:
et ainsi Y est bien une variable gaussienne centrée sous la mesure de probabilité
Pe.
1.2.2 Quelle Caractérisation pour (?,F,P)?
La définition que nous avons précédemment donnée d’un ensemble de probabilité (?,F,P) peut, en première analyse, sembler excessive. En effet, d’un point de vue probabiliste et statistique, la définition d’une variable aléatoire X s’accompagne de la spécification de sa distribution de probabilité µX et toutes les opérations: somme, espérance, variance, etc. réalisées sur des variables aléatoires se résument à des opérations analytiques: intégration, convolution, etc. faites sur leurs distributions de probabilités. Pour tout cela, un espace de probabilité ne semble pas nécessaire.
Cependant, comme le triplet (?,F,P) est à la base de la théorie (moderne) des processus stochastiques, il est nécessaire de comprendre pourquoi et comment ce concept est pertinent.
D’un point de vue de la modélisation, le point de départ est un ensemble d’observations qui prend ses valeurs dans un ensemble E, sur lequel nous souhaitons construire un processus stochastique. Dans la plupart des cas, il est naturel d’identifier ? avec E, c’est-à-dire d’identifier l’aléa ? avec son observé. Dans l’exemple d’un jeu de dés, ? = {1,2,3,4,5,6} et donc l’ensemble des possibles correspond à l’ensemble des réalisations et donc X (?) = ?. Ce choix de ? est qualifié de canonique pour la variable aléatoire X: le résultat de l’aléa est caractérisé par l’aléa lui-même. Dès lors, comme cette construction est propre à X, il n’est pas possible de définir sur le même espace de probabilité une autre variable aléatoire qui soit indépendante de X: X est la seule source d’incertitude pour tout le modèle. Ainsi, si nous souhaitons prendre en compte
1.2 Variables Aléatoires
des modèles dotés d’une structure suffisamment riche, nous devons distinguer ? - l’ensemble des scénarios sources de l’aléa - de E, l’ensemble des valeurs prises par les variables aléatoires. Une structure riche doit se comprendre dans le sens où le système étudié ne peut s’expliquer par une seule variable aléatoire, mais par plusieurs et que les liaisons entre chacune de ces sources d’aléa peuvent être complexes.
Pour résumer ces arguments, nous retiendrons les commentaires suivants. La description probabiliste d’une variable aléatoire X peut se ramener à la connaissance de sa distribution µX seulement si X est la seule source d’aléa. Dans ce cas, un processus stochastique peut être construit à partir d’une construction canonique de la variable aléatoire X. Dans les autres cas, c’est-à-dire dès lors que nous nous intéressons à une deuxième variable aléatoire qui ne soit pas une fonction déterministe de X, la probabilité P contient plus d’information sur X que sa seule distribution. En particulier, elle traduit une information sur la dépendance de X avec toutes les autres variables aléatoires du modèle: la spécification de P englobe la spécification des distributions jointes de toutes les variables aléatoires construites sur ?.
1.2.3 Fonction Caractéristique
La fonction caractéristique d’une variable aléatoire est la transformée de Fourier de sa distribution. Ce concept est important car nombre de propriétés probabilistes d’une variable aléatoire correspondent à des propriétés analytiques de sa fonction caractéristique.
Définition 1.2.1 (Fonction caractéristique) La fonction caractéristique d’une Rd-variable aléatoire X est la fonction ?X : Rd ?R définie par:
?X (z) = E£eiz.X¤ = Z deiz.xdµX (x), ?z Rd
R
La fonction caractéristique spécifie complètement une loi: deux variables aléatoires ayant la même fonction caractéristique sont identiquement distribuées. Nous donnons dans le Tableau 1.1 l’expression de la fonction caractéristique pour quelques lois usuelles
Table 1.1: Fonction caractéristique de lois usuelles.
Une propriété importante de cette fonction est qu’elle relie les moments d’une variable aléatoire à sa dérivée, rendant ainsi possible leurs calculs, de façon analytique ou numérique.
Proposition 1.2.2 (Fonction caractéristique et moments) La variable aléatoire X possède des moments à tous les ordres si et seulement si z 7??X (z) est C? en z = 0. Alors les moments de X sont reliés aux dérivées de ?X par:
Si les (Xi,i = 1, ,n) sont des variables aléatoires indépendantes, la fonction caractéristique de Sn = X1 + + Xn est le produit de leurs fonctions caractéristiques:
Remarque 1.2.3 (Conditions de moments) La fonction caractéristique permet d’obtenir les moments théoriques d’une variable aléatoire à tous les ordres. Cette dérivation se trouve être particulièrement utile dans le cadre de la construction d’un estimateur des moments généralisés (MMG) pour l’obtention d’un vecteur des moments, cf. Section 5.1.1
Nous concluons ce paragraphe en présentant une fonction qui est reliée de façon importante à la fonction caractéristique, il s’agit de la fonction génératrice des moments.
Définition 1.2.4 (Fonction génératrice des moments) La fonction génératrice des moments d’une Rd?variable aléatoire X est la fonction MX : Rd ?R définie par:
Alors que la fonction caractéristique est toujours définie (mais pas toujours explicite), la fonction génératrice des moments n’est pas toujours définie: l’intégrale 1.1 peut ne pas converger pour certaines valeurs de u. Quand MX est définie, elle est reliée à ?X par:
MX (u) = ?X (?iu)
Par ailleurs, les moments d’ordre n d’une variable aléatoire X sont dérivés
comme:
1.3. Processus Stochastiques
Un processus stochastiqueest une famille (Xt)t>0 de variables aléatoires indexées par le temps. L’indice de temps t peut soit être discret, soit continu. Pour chaque réalisation de l’aléa ?, la trajectoire X· (?) : t ? Xt (?) définit une fonction du temps, appelée la trajectoire du processus. De fait, un processus stochastique peut aussi être vu comme une suite de fonctions aléatoires: variables aléatoires à valeurs dans des espaces de fonctions.
1.3 Processus Stochastiques
Si nous souhaitons interpréter l’indice t comme le temps, il est nécessaire de prendre en compte le fait que les évènements deviennent moins incertains au fur et à mesure que plus d’information devient disponible au cours du temps. Pour caractériser cette idée, il est indispensable de pouvoir décrire comment l’information est progressivement révélée. Cela est réalisé en introduisant la notion importante de filtration, qui va ainsi permettre de définir les notions d’information passée et de non-anticipation et par suite permettre de classer les processus en fonction de ces propriétés.
1.3.1 Fonctions Aléatoires
Pour pouvoir définir les processus stochastiques comme des variables aléatoires de fonctions, il est nécessaire de définir des mesures sur des espaces de fonctions. L’espace de fonction le plus simple est dans doute l’espace de toutes les fonctions f : [0,T] ?Rd. Mais il est aussi possible et intéressant de considérer un espace qui permet de travailler avec des fonctions discontinues. La classe des fonctions càdlàg est alors adéquate pour traiter ce point.
Définition 1.3.1 (Fonction càdlàg) Une fonction f : [0,T] ?Rd est dite càdlàg si elle est continue à droite et possède des limites à gauche. Pour tout t [0,T], les limites:
f (t?) = s?limt,s<tf (s), f (t+) = s?limt,s>tf (s)
existent et f (t) = f (t+).
On remarquera que toute fonction continue est une càdlàg, mais que les fonctions càdlàg peuvent présenter des discontinuités. Si t est un point de discontinuité, nous notons par:
?f (t) = f (t) ? f (t?)