Formation d’initiation en économétrie financière
L'économétrie peut être définie comme l'application des méthodes statistiques à l'étude des phénomènes économiques .Plus précisément la démarche économétrique comporte trois étapes :
Historique
Premiers développements
Les tentatives de modélisation à partir de données empiriques ont une longue histoire que l'on peut faire remonter aux " Political Arithmeticians " anglais du XVII ème siècle et auxquels sont attachés les noms de William Petty , Gregory King et Charles Devenant . Gregory King chercha par exemple à établir une loi entre d'une part les déficits des récoltes de blé et d'autre part les variations du prix du blé . A partir du XVIII ème et surtout du XIX ème siècle les économistes tentèrent d' établir des lois économiques à l'instar des lois de la physique newtonnienne . Ce projet fut mené en termes scientifiques par Moore puis par Schultz , Lenoir , Tinbergen et Frisch entre 1914 et 1938 . Les deux grands axes de recherche furent alors l'estimation d'une loi de demande ( ce qui conduisit au problème de l'identification ) et celle des cycles économiques . Clément Juglar ( 1819 - 1905) fut le premier à utiliser les séries temporelles pour analyser les cycles et fut suivit par Kuznets et Kondratieff . Toutefois les théoriciens du cycle se limitèrent à l'étude de la périodicité du cycle et ne s'attachèrent guère à celle de la quantification des relations causales sous jacentes. Leur apport à l'économétrie est donc resté marginal.
La naissance de l'économétrie moderne
L'économétrie moderne est née à la fin des années 30 et pendant les années 40. Elle est la résultante de trois phénomènes :le développement de la théorie de l'inférence statistique à la fin du XIX ème siècle ; la théorie macroéconomique et la comptabilité nationale qui offrent des agrégats objectivement mesurables ( contrairement à la microéconomie fondée sur l'utilité subjective ) ; enfin, et surtout , la forte demande de travaux économétriques, soit de la part d'organismes publics de prévision et de planification , soit de la part d’entreprises qui ont de plus en plus besoin de modéliser la demande et leur environnement économique général. A partir des années 60 l'introduction de l'informatique et des logiciels standardisés va rendre presque routinière l'utilisation de l'économétrie .
En simplifiant de façon sans doute abusive l'on peut distinguer deux grandes périodes de la recherche économétrique moderne . Jusqu'à la fin des années 70 l'économétrie va étudier la spécification et la solvabilité de modèles macroéconomiques à équations simultanées . Puis à la suite de ce que l'on a appelé la révolution des anticipations rationnelles et de la critique de Lucas, la recherche se tournera davantage vers la microéconomie et l'analyse des séries temporelles .
Les modèles économétriques d'équations simultanées
La plus grande partie de la recherche économétrique américaine ( effectuée pour une large part au sein de la Cowles Commission ) entre 1944 et 1960 porta sur les conditions d'estimation des modèles macroéconomiques d'équations simultanées comportant un élément aléatoire . En 1939 Tinbergen construisait un modèle des cycles économiques comportant 31 équations de comportement de 17 identités . Chacune des équations était estimée au moyen de la méthode des moindres carrés , ce qui , nous le verrons ne pouvait conduire qu'à des estimations inconsistentes . En 1944 Haavelmo posait les conditions générales de solvabilité. Entre 1945 et 1950 Klein présentait ses premiers modèles dont la solution était obtenue par la méthode du maximum de vraisemblance . En 1949 Koopmans déterminait les conditions de solvabilité dans le cas d'un modèle linéaire . En 1954 Theil introduisait la méthode des doubles moindres carrés permettant des calculs effectifs . Toutefois la généralisation des modèles économétriques à équations simultanées utilisée pour des modèles prévisionnels se heurta pendant longtemps au manque de moyens informatiques . Le premier modèle utilisé à des fins prévisionnelles fut celui de Klein - Goldberger en 1955. D'autres modèles suivirent à la fin des années 50 , en particulier celui de la Brookings Institution. Avec l'avancée des techniques informatiques les années 60 et le début des années 70 virent une éclosion de modèles macroéconomiques jouant un rôle important dans la prévision . Le modèle dit de Brookings comprenait ainsi 400 équations . Aprés 1970 furent commercialisés des modèles standards comme celui dit de Wharton . La stabilité relative de l'environnement économique jusqu'en 1974 leur assura un certain succès .
L'analyse de la régression
L'importance des moyens consacrés à la résolution des problèmes d'identification laissa quelque peu dans l'ombre la recherche sur la corrélation . Le principal obstacle théorique était le traitement de l'autocorrélation des résidus aléatoires . En 1950 Durbin et Watson élaboraient leur célèbre test . Les années 50 virent d'autre part l'apparition de modèles à retards échelonnés avec les travaux de Koyck , d'Almon , de Cagan et de Friedman .
La révolution des anticipations rationnelles et la remise en cause des modèles macroéconométriques
Les années 70 furent celles de la remise en cause radicale des modèles macroéconométriques élaborés pendant les années 60 . Une des raisons vient de ce que l'abandon du système de Bretton Woods puis le quadruplement du prix du pétrole conduisirent à des bouleversements qui ne pouvaient être anticipés par les modèles économétriques . Au niveau théorique il apparut rapidement que les modèles macroéconométriques ne possédaient pas de fondations microéconomiques suffisamment solides . En particulier Lucas montra dés 1972 que si les agents forment leurs anticipations sur une base endogène à partir de leur expérience il n'est plus possible de considérer que les coefficients structurels des modèles macroéconométriques restent inchangés . Ainsi toute mesure de politique économique doit conduire à un changement dans le comportement des agents tant au niveau de la consommation que de l'investissement . Ceci remet bien évidemment en cause les modèles macroéconométriques traditionnels qui ne distinguaient pas les paramètres expliqués par des causes structurelles de ceux expliqués par la réponse aux mesures de politiques économique . Une estimation de ces deux types de paramètres a été effectuée par Lucas et Sargent qui les obtinrent directement comme solutions de modèles d'optimisation dynamique . Sur cette base la recherche économétrique des années 80 porta sur les problèmes d'agrégation des préférences des agents , d'inégalité dans la répartition de l'information et sur le processus d'apprentissage .
Vers une économétrie sans théorie ?
La critique de Lucas a ouvert la voie à des critiques plus radicales et a conduit certains économètres comme Sims à dénier à la théorie toute pertinence dans l'estimation des modèles . L'approche même en termes d'anticipations rationnelles est alors rejetée dans la mesure où elle nécessite une connaissance à priori des délais. Plus fondamentalement les modèles macroéconométriques reposaient sur une distinction entre variables "endogènes" et "exogènes" . Cette distinction qui suppose une connaissance théorique à priori est rejetée.
Cette critique a conduit à retenir des modèles autorégressifs où n'existe pas à priori une classification entre variables endogènes et exogènes . La question de l'utilité de tels modèles reste toutefois controversée dans la mesure où ils ne fournissent pas une explication structurelle de l'activité économique .
CHAPITRE ILE MODELE CLASSIQUE DE REGRESSION LINEAIRE
I - 1 ) La droite de régression
Dans ce chapitre nous chercherons à déterminer une relation linéaire entre une ou plusieurs variables explicatives (ou exogènes) et une variable déterminée ( ou endogène) à partir d'un ensemble de n observations temporelles .
Nos observations sont partielles et constituent un échantillon (que nous supposerons ici représentatif) de l'ensemble des observations.
Il s'agit donc d'estimer des coefficients à partir d'un échantillon aléatoire.
Par exemple si nous avons une seule variable expliquée Y(t) et une seule variable explicative, X(t), nous chercherons à déterminer si la relation entre ces deux variables peut être estimée par une relation linéaire de type:
(1-0) Y(t) = c(1) + c(2)* X(t) , t= 1, … , n
où le signe * est signe de multiplication.
les coefficients c(1) et c(2) devant être estimés à partir de n observations (voir graphique 1-1).Cette droite est dite " droite de régression".Remarquons que sur le graphique 1-1 les 10 observations peuvent être considérées comme un échantillon représentatif du nombre infini des observations possibles dans la mesure où nos observations sont effectuées à intervalles réguliers dans le temps.
Les coefficients c(1) et c(2) sont déterminés de façon à ce que la relation (1-1) minimise la somme des écarts entre les valeurs observées Y(t) et les valeurs Y(t) données par la droite de régression. La droite de régression passe donc par le "milieu " des points observés ( voir annexe 1).
Les écarts entre les observations et la relation (1-1) peuvent être expliqués par :
- des erreurs d’observation
- des variables explicatives qui ne sont pas inclues dans la relation (1-1) . Par exemple si Y(t) représente la consommation et X(t) le revenu, l'on sait que d'autres variables peuvent expliquer la consommation comme le temps qu’il fait , les modes , les possibilités d’emprunt. Il faut supposer que ces autres variables explicatives ont chacune une influence très faible car sinon il faudrait les inclure explicitement dans la relation (1-1). Nous verrons dans le chapitre suivant comment déterminer si des variables explicatives importantes ont été oubliées dans une fonction .
- des erreurs qui viennent de ce que la vraie relation n'est pas en fait linéaire .
Dans ces deux derniers cas l’on dit que la relation a été mal spécifiée.
Ces trois sources d'écart sont considérées ici comme aléatoires ( cette hypothèse sera examinée au chapitre suivant). Nous désignerons leur somme par e(t) au temps t.
Nos observations seront donc considérées comme la somme de c(1) + c(2)*X(t) et de l’élément aléatoire e(t).
L'analyse de la régression peut être facilement généralisée à n variables.
I - 2 ) Le problème des observations aberrantes
L'on observe quelquefois des observations "aberrantes" dues soit à une erreur grossière ( par exemple une erreur de virgule ) soit à l'incorporation dans les données de cas exceptionnels .
Considérons par exemple le cas du graphique 1 – 2 . Sur ce graphique l’on constate deux observations « aberrantes » , celles des années 1996 et 1997. Si nous les incluons dans nos observations nous obtenons une droite de régression :
Y = 0.7 + 0.62 X
Par contre si nous ne les incluons pas notre droite de régression devient :
Y = 1.13 + 0.46 X
L’inclusion ou la non inclusion de certaines variables peut conduire à des résultats significativement différents. Dans ce cas il convient de s'assurer que les observations "aberrantes " ne proviennent pas d'une erreur de mesure . Si tel n'est pas le cas l'on peut chercher à comprendre les raisons de l'apparition de ces cas exceptionnels et faire deux régressions, l'une sans , l'autre avec ces observations.
I – 3 ) La prise en compte des variables qualitatives explicatives
Par données qualitatives il faut entendre les données qui n'ont pas d'échelle de mesure mais que l'on peut classer en catégories.
Certaines de ces données sont sans ambiguïté comme le lieu de naissance ou le sexe mais d'autres doivent être considérées avec précaution comme les critères sociaux souvent arbitraires . Nous supposerons ici que toutes les variables qualitatives peuvent être classées en deux catégories comme par exemple le fait de voter oui ou non à une élection ,d'être français ou non, d'appartenir ou non aux moins de vingt ans, etc..
L’on peut alors à tester si l'appartenance à un groupe "qualitatif" entraîne une différence objective sur la variable déterminée.
Une variable qualitative qui peut prendre deux valeurs est appelée variable binaire ( ou quelquefois variable muette ou encore variable auxiliaire ). Par exemple l'on peut chercher à savoir si l'appartenance à l'un ou l'autre sexe entraîne une différence significative de salaire . L'on crée alors une variable binaire qui prend la valeur 1 pour les salariés masculins et 0 pour les salariés féminins .
L'on aura donc le modèle suivant :
Y(i) = c(1) + c(2)*X(i) + e(i)
où Y(i) est le revenu du nième salarié et où X(i) est une variable binaire .
Dans cet exemple simple c(1) mesure l’espérance mathématique du revenu féminin et c(2) l’espérance mathématique de la différence de salaire entre hommes et femmes . En effet :
E ( Y (i)) = c(1) si X(i) = 0 et c(1) + c(2) si X(i) = 1
Pour savoir s'il existe une différence significative entre salariés masculins et féminins il suffit donc de tester si c(2) est significativement différent de 0. En fait les estimations de c(1) et de c(2) obtenues par régression sont respectivement les revenus moyens des salariés féminins et la différence entre les revenus moyens des salariés masculins et féminins .
Une autre application est d'étudier s'il existe une différence significative des paramètres d'une fonction économique entre différentes périodes .Par exemple si nous considérons le graphique (1-3) l'on peut :
- soit effectuer une régression générale sur les dix observations et l'on obtiendra une estimation :
Y = c(1) + c(2)* X | , t = 1, ...., 10 |
- soit considérer que les paramètres des cinq premières observations sont différents des paramètres des cinq dernières observations .Dans ce cas l'on procédera à deux estimations :
Y = c(1)' + c(2)'* X , t = 1, ..., 5
Y = c(1)" + c(2)" *X , t = 6, ..., 10
et l'on testera si c (1)' est significativement différent de c (1)" et si c (2)' est significativement différent de c(2)"
Si tel était le cas il ne serait pas légitime d'effectuer une régression sur l'ensemble des variables .
I - 4 ) La régression log log
La régression log log présente deux avantages:
- elle permet de rendre linéaire une relation non linéaire;
- elle permet de faire apparaître les coefficients de la droite de régression comme des coefficients d'élasticité puisque : dlog y / dlog x = dy/dx / x/y
I - 5 ) L'intervalle de confiance des coefficients
Dans la relation 1 - 1 nous avons estimé un coefficient c(2) sur la base de n observations. La question p être posée si ce coefficient est significativement différent de 0. Si tel n'était pas le cas il n'existerait pas relation certaine entre les y(t) et les x(t).
Pour dire si c(2) est significativement différent de 0 il faut que la valeur 0 ne soit pas comprise à l'intéri de l'intervalle de confiance construit autour de c(2) avec une probabilité d'erreur donnée.
Il n'est toutefois pas possible de calculer directement l'intervalle de confiance autour de c(2) puisque no ne connaissons pas directement l'écart type de c(2). L'on peut toutefois estimer celui ci mais il faut alor utiliser une loi de Student à n-2 degrés de liberté pour les valeurs tabulaires t associées à des probabilité données. L'on peut ainsi montrer que l'intervalle de confiance autour de c(2) est :
∑( y − yi)/( n −2) | 1 | 2 | |||||
c ( 2)± tα | ∑ | ou c (2)± tα s | |||||
( xi | − x)2 | ||||||
où t est la valeur donnée par la table de Student avec n-2 degrés de liberté et une probabilité d'erreur donnée.
Si la valeur 0 n'est pas comprise dans l'intervalle de confiance construit avec une probabilité donnée qu relation entre les x(t) et les y(t) peut être considérée comme significative, ce qui ne signifie toutefois pa que les x(t) "déterminent" les y(t) ( voir p. )
L'on peut de façon équivalente calculer le t à partir duquel la valeur 0 serait incluse dans l'intervalle de confiance soit c(2) +|t* s| = 0 ou c(2) / s = t
Si t > t alors la relation entre les x(t) et les y(t) peut être considérée comme significative à une probab donnée .
En pratique l'on peut considérer que t = 2 pour n > 20.
...
Ou
Importer les données d'un tableur Excel ( auquel l'on a donné un nom ): Procs / Import / Read Text / Excel / nom du tableur
Ou
Faire un copier coller dans le workfile avec le même nombre de lignes et de colonnes que dans le tableur
2) Estimer les coefficients de la régression
Quick / estimate equation
Ou Object/ equation
L'on écrit le nom de la variable dépendante suivie de c ( la constante) et du nom des variables explicatives.
Les variables suivies de (–1 ) , (-2) , (-3) etc … sont les variables retards. Exemple : fbcf(-1)
Pour écrire les logarithmes des données l'on fait précéder log du nom de la variable . Exemple : log(fbcf) .
Rappelons que les coefficients d'une équation logarithmique sont les coefficients d'élasticité
Cliquer sur OK dans la boîte de dialogue .
L'estimation se fait en ajustant l'échantillon de façon à ne pas tenir compte des données manquantes .
E-views donne le choix entre plusieurs techniques d'estimation . Dans une première approche l'on peut se contenter de la méthode des moindres carrés ( "LS")
Résultats
L'on se bornera à ne considérer que les t de Student des différents coefficients ( significatifs si t>2 )et le Durbin Watson ( qui doit être proche de 2 )
Exemple :
L’on cherche à estimer la relation , que l’on suppose linéaire , entre la consommation des ménages français(CM) et le revenu national français (R) entre 1989 et 1998.
Ces données sont présentées dans le tableau suivant construit à partir de :
new / workfile ( indiquer que le tableau va de 1989 à 1998) quick / empty group
Pour estimer la droite de régression l’on clique sur :
quick/estimate equation
L’on demande alors d’estimer la relation CM=c(1)+c(2)*R
L’on obtient alors :
La droite de régression est donc :
CM = 1316 + 0.33R
Remarquons que le Durbin Watson est très faible (0.8) ce qui signifie ici que la spécification linéaire de la fonction n’est pas bonne ( voir chapitre suivant).
Annexe 1
La droite de régression
Soit un ensemble de n observations ( X(i) , Y(i)) , i = 1, …, n
L'analyse de la régression consiste à estimer les coefficients c(0) et c(1) d'une fonction linéaire :
Y(i) = c(1) + c(2)* X(i) + e(i)
qui passe par le "milieu" des observations .
La méthode la plus couramment utilisée est la méthode dite des moindres carrés . Les coefficients c(1) et c(2) sont définis en minimisant la somme des écarts e(i)_. L'on obtient alors :
c'(2) = E ( x(i) – x ) ( y (i) – y )
E ( x (i) – x ) _
_ _
c'(1) = Y – c*(1) X
La droite de régression s'écrira donc :
Y = c'(1) + c'(2) X
CHAPITRE IILA REMISE EN CAUSE DES HYPOTHESESDU MODELE LINEAIRE CLASSIQUE
II – 1) Les hypothèses du modèle classique de régression linéaire
Le modèle classique de régression linéaire est fondé sur les quatre hypothèses suivantes :
Dans le modèle classique de régression linéaire l'on suppose de plus que :
Ce caractère aléatoire des erreurs constitue une hypothèse fondamentale du modèle classique . Elle est justifiée si les erreurs n'ont pas un caractère systématique . Ceci suppose que le modèle de régression n'ait pas oublié une variable explicative importante . C'est cette hypothèse d'une loi de distribution statistique autour des vraies valeurs estimées qui va permettre de faire des estimations des paramètres du modèle d'ajustement .
Nous examinerons dans ce chapitre la remise en cause de cinq de ces hypothèses du modèle classique de régression linéaire :
II - 2 ) La remise en cause de la première hypothèse : Les résidus sont auto - corrélés Quand les éléments aléatoires sont corrélés entre eux l'on a :
e (t) = z e(t-1) + u(t) où u(t) est un élément aléatoire d'espérance statistique nulle mais où z est significativement différent de 0 .
Graphiquement le problème de l'auto-corrélation des éléments aléatoires peut être représenté sur le graphique (2-1) .
Si les observations sont représentées par des croix le modèle de régression peut conduire à l'estimation de la fonction Y = c(1) + c(2)* X . Or cette relation peut être fausse si les e suivent la loi suivante :
pour X< a , e >0
a <X < b , e < 0
X > b , e> 0
Pour mesurer l'auto - corrélation des éléments aléatoires l'on peut effectuer un test visuel soit utiliser le test de Durbin Watson
Pour une taille d'échantillon donnée et pour un nombre donné de variables explicatives la table des d du test de Durbin Watson donne deux valeurs critiques d (l) et d (v).
- si | d (l) < d < d (v) | le test n'est pas concluant |
- si | d < d (l) | il existe une auto - corrélation positive entre les éléments aléatoires |
- si | d > d (v) | l'on peut considérer que n'existe pas d'auto - corrélation positive |
Ce test est inapplicable au modèle à retards échelonnés.
En pratique l'on peut considérer que n'existe pas d'auto-corrélation positive entre les résidus si d> 2 . En cas de doute l'on peut chercher à visualiser le comportement des e(t).