//img.uscri.be/pth/3f5eee9a804b24990eadd37e03f8f1e63cd37b22
Cet ouvrage fait partie de la bibliothèque YouScribe
Obtenez un accès à la bibliothèque pour le lire en ligne
En savoir plus

Cours d'économétrie : méthodes et applications (Collection finance gestion management)

De
291 pages
Cet ouvrage présente de façon didactique les fondements des méthodes économétriques et leurs applications. Il est le fruit de plusieurs années d'enseignement des méthodes de prévision, de l'économétrie des séries temporelles et des cours de statistique et de probabilité. Ce livre utilise des outils statistiques et mathématiques simples et est accessible à tous ceux qui se servent de l'économétrie dans leurs études empiriques. Il constitue un ouvrage de référence pour les étudiants et les chercheurs qui s'intéressent aux applications des méthodes économétriques les plus récentes dans les études des séries macroéconomiques et financières.
Éléments de la régression économétrique. Les modèles de régression. Méthodes d'estimation. Hétéroscédasticité et autocorrélation. Introduction aux données de panel. Représentation des séries temporelles. Les modèles de Box-Jenkins. Méthodes de prévision des séries temporelles. Estimation des modèles ARMA. La volatilité des séries temporelles. Les séries temporelles non stationnaires. Estimation des relations de cointégration. Annexe. Le processus de Wiener. Exercices d'application. Corrigés de quelques exercices. Bibliographie. Index.
Voir plus Voir moins








Cours d'économétrie























© LAVOISIER, 2007
LAVOISIER
11, rue Lavoisier
75008 Paris

www.hermes-science.com
www.lavoisier.fr

ISBN 978-2-7462-1638-9


Le Code de la propriété intellectuelle n'autorisant, aux termes de l'article L. 122-5, d'une part,
que les "copies ou reproductions strictement réservées à l'usage privé du copiste et non
destinées à une utilisation collective" et, d'autre part, que les analyses et les courtes citations
dans un but d'exemple et d'illustration, "toute représentation ou reproduction intégrale, ou
partielle, faite sans le consentement de l'auteur ou de ses ayants droit ou ayants cause, est
illicite" (article L. 122-4). Cette représentation ou reproduction, par quelque procédé que ce
soit, constituerait donc une contrefaçon sanctionnée par les articles L. 335-2 et suivants du
Code de la propriété intellectuelle.
Tous les noms de sociétés ou de produits cités dans cet ouvrage sont utilisés à des fins
d’identification et sont des marques de leurs détenteurs respectifs.


Printed and bound in England by Antony Rowe Ltd, Chippenham, March 2007.




Cours



d'économétrie


méthodes et applications











Sami Khedhiri











Collection Finance – Gestion – Management
dirigée par JEAN-MARIE DOUBLET




La liste des titres de chaque collection se trouve en fin d’ouvrage.



TABLE DES MATIÈRES
Préface ......................................... 11
Chapitre 1. Eléments de la régression économétrique .......... 13
1.1. Introduction.................................. 13
1.1.1. Coefficient de corrélation ...................... 13
1.1.2. Approche probabiliste des modèles à de variables..... 14
1.2. Régression linéaire à deux variables .................. 16
1.2.1. Introduction .............................. 16
1.2.2. Estimations et estimateurs ..................... 17
1.2.3. Estimation par la méthode des moindres carrés ........ 18
1.2.4. Exemple numérique ......................... 19
1.3. Induction statistique............................. 20
1.3.1. Propriétés des estimateurs MCO ................. 20
1.3.2. Théorème de Gauss-Markov .................... 22
1.3.3. Inférence statistique 22
1.3.4. Application numérique ....................... 24
1.4. Analyse de la variance ........................... 26
1.5. Prévision.................................... 28
1.6. Quelques extensions ............................ 29
1.6.1. Transformations logarithmiques des variables ......... 29
1.6.2. Modèles autorégressifs AR (1) .................. 30
1.6.3. La méthode du maximum de vraisemblance .......... 31













6 Cours d’économétrie
Chapitre 2. Les modèles de régression .................... 33
2.1. Représentation ................................ 33
2.1.1. Introduction .............................. 33
2.1.2. Représentation sous forme homogène.............. 36
2.1.3. Coefficient de corrélation partielle ................ 40
2.2. Induction statistique............................. 41
2.3. Prévision.................................... 46
2.4. Tests des erreurs de spécification .................... 47
2.4.1. Introduction 47
2.4.2. Tests de constance des paramètres ................ 49
2.4.3. Test de changement structurel ................... 52
2.4.4. Spécification des variables explicatives ............. 55
Chapitre 3. Méthodes d’estimation....................... 57
3.1. Estimation par maximum de vraisemblance (MV) ......... 57
3.1.1. Introduction .............................. 57
3.1.2. Estimation MV du modèle linéaire ................ 58
3.1.3. Test du rapport de vraisemblance, test de Wald
et test du multiplicateur de Lagrange................... 60
3.1.4. Estimation MV avec erreurs non sphériques.......... 62
3.2. Estimation par moindres carrés généralisés .............. 63
3.3. Estimation par les variables instrumentales 64
3.4. Estimation par doubles moindres carrés ................ 67
Chapitre 4. Hétéroscédasticité et autocorrélation ............. 69
4.1. Introduction.................................. 69
4.2. Propriétés des estimateurs MCO avec des erreurs
hétéroscédastiques ................................ 70
4.3. Tests d’hétéroscédasticité ......................... 71
4.3.1. Test de White ............................. 71
4.3.2. Test de Breush-Pagan ........................ 72
4.3.3. Test de Goldfeld-Quandt ...................... 73
4.3.4. Test d’égalité des variances .................... 74
4.3.5. Test d’égalité Gleisjer 75
4.4. Estimation avec des erreurs hétéroscédastiques ........... 75
4.4.1. Première méthode........................... 75
4.4.2. Deuxième méthode.......................... 76
4.5. Autocorrélation des erreurs ........................ 79



















Table des matières 7
4.5.1. Formes d’autocorrelation ...................... 79
4.5.2. MCO et erreurs corrélées 80
4.6. Tests d’autocarrelation ........................... 81
4.6.1. Test de Durbin-Watson (DW) ................... 81
4.6.2. Test du multiplicateur de Lagrange................ 83
4.6.3. Le test Durbin-h ............................ 83
4.7. Estimation avec erreurs autocorrélées ................. 84
4.7.1. Procédure de Cocharne-Orcutt 85
4.7.2. Procédure de Hildreth-Lu ...................... 86
4.7.3. Méthode de Durbin .......................... 87
4.7.4. Méthode de Theil-Nagar ..................... 87
4.8. Quelques extensions 88
4.8.1. Erreurs AR (p) ............................. 88
4.8.2. Test ARCH ............................... 90
Chapitre 5. Introduction aux données de panel .............. 93
5.1. Introduction.................................. 93
5.2. Les différents modèles ........................... 94
5.2.1. Introduction .............................. 94
5.2.2. Présentation des modèles ...................... 99
Chapitre 6. Représentation des séries temporelles............. 103
6.1. Introduction 103
6.2. Propriétés des séries temporelles..................... 105
6.2.1. La modélisation ............................ 105
6.2.2. La stationnarité 106
6.2.3. La fonction d'autocorrélation.................... 107
6.3. Séries temporelles intégrées et cointégrées .............. 110
6.3.1. Introduction .............................. 110
6.3.2. Suppression de la tendance de la série 115
6.3.3. Introduction aux modèles VAR, ECM et ARDL ....... 118
6.3.4. Tests de racine unitaire ....................... 119
Chapitre 7. Les modèles de Box-Jenkins ................... 123
7.1. Les modèles autorégressifs ........................ 123
7.1.1. Modèle AR (1)............................. 127















8 Cours d’économétrie
7.1.2. Processus AR (2) ........................... 129
7.2. Les modèles de moyenne mobile .................... 132
7.2.1. Modèle MA (1) ............................ 133
7.2.2 Modèle MA (2)............................. 134
7.3. Les modèles ARMA 135
7.3.1. Le modèle ARMA (1,1) ....................... 135
7.3.2. Théorème de Wald .......................... 136
7.3.3. Facteurs communs 138
7.4. Introduction à la prévision des séries temporelles.......... 139
7.4.1. Estimation par le minimum de l'écart quadratique moyen. . 139
7.4.2. Prévision optimale dans les modèles ARMA 140
7.4.3. Détermination de l’EQM de la prévision ............ 141
7.5. Tests d’indépendance et tests de normalité .............. 143
7.5.1. Moyenne empirique ......................... 143
7.5.2. Autocovariances empiriques.................... 144
7.5.3. Tests d'indépendance des observations ............. 144
7.5.4. Tests de normalité .......................... 146
Chapitre 8. Méthodes de prévision des séries temporelles ....... 149
8.1. Introduction.................................. 149
8.2. Méthode de Box-Jenkins 151
8.2.1. Les étapes de la méthode ...................... 151
8.2.2. Calcul initial des prévisions .................... 153
8.2.3. Exemples ................................ 155
8.2.4. Tester la structure du modèle choisi ............... 158
8.3. Méthode de lissage exponentiel ..................... 159
8.3.1. Lissage exponentiel simple 159
8.3.2. Méthode de Holt-Winters sans composante saisonnière. . . 160
8.3.3.de de Holt-Winters avec com. . . 161
8.3.4. Optimalité du lissage exponentiel................. 163
8.4. Méthode d’autorégression ......................... 165
8.4.1. Introduction .............................. 165
8.4.2. Critères de choix du modèle .................... 167
Chapitre 9. Estimation des modèles ARMA................. 169
9.1. Introduction.................................. 169
9.1.1. Quelques résultats de l’estimation par MV ........... 169






Table des matières 9
9.1.2. Exemples ................................ 171
9.1.3. Optimisation numérique....................... 174
9.2. Méthodes d’estimation ........................... 175
9.2.1. Observations dépendantes ..................... 175
9.2.2. Décomposition de l'erreur de prévision ............. 176
9.3. Estimation des modèles autorégressifs ................. 177
9.3.1. Introduction .............................. 177
9.3.2. Moindres carrés ............................ 178
9.3.3. Estimation par le corrélogramme 179
9.3.4. Prévision avec paramètres estimés ................ 180
9.4. Estimation des modèles MA et ARMA 182
9.4.1. Estimation d'un modèle MA (1) .................. 182
9.4.2. Estimation du modèle ARMA (1,1) ............... 183
Chapitre 10. La volatilité des séries temporelles.............. 185
10.1. Caractéristiques des séries temporelles ................ 185
10.2. Les modèles ARCH ............................ 186
10.2.1. Présentation.............................. 187
10.2.2. Caractéristiques principales des modèles ARCH ...... 189
10.3. Les modèles GARCH........................... 191
10.4. Le modèle ARCH-M 194
10.5. Estimation des modèles ARCH..................... 195
10.5.1. Introduction 195
10.5.2. Estimation du modèle ARCH (1) ................ 196
10.6. Les tendances des séries temporelles ................. 199
10.6.1. Introduction.............................. 199
10.6.2. Décomposition de Beveridge-Nelson.............. 201
10.6.3. Modèle ARIMA (p, 1, q) ..................... 202
Chapitre 11. Les séries temporelles non stationnaires .......... 205
11.1. Racine unitaire et changement structurel ............... 205
11.1.1. Présentation des séries temporelles non stationnaires.... 206
11.1.2. Les tests de Dickey et Fuller................... 207
11.1.3. Tests de Phillips-Perron ...................... 209
11.1.4. Changement structurel ....................... 209
11.2. Présentation des modèles VAR..................... 210
11.2.1. Conditions de stabilité du modèle VAR ............ 211




10 Cours d’économétrie
11.2.2. Représentation MA du processus VAR ............ 213
11.2.3. Autocovariances et autocorrélations .............. 215
11.3. Utilisation des modèles VAR...................... 217
11.3.1. Forme réduite ............................ 217
11.3.2. Identification ............................. 219
11.3.3. Analyse des impulsions 221
11.4. Relation entre variables intégrées ................... 226
11.4.1. Combinaisons linéaires de variables intégrées ........ 226
11.4.2. Cointégration et tendances communes............. 227
11.4.3. Cointégration et modèle à correction d’erreur ........ 228
11.4.4. Causalité................................ 230
Chapitre 12. Estimation des relations de cointégration ......... 233
12.1. Théorie de la cointégration ....................... 233
12.1.1. Méthode de Granger ........................ 233
12.1.2. Racines caractéristiques et cointégration ........... 235
12.1.3. Tests d'hypothèses dans un système de cointégration.... 238
12.2. Méthodes d’estimation .......................... 239
12.2.1. Introduction.............................. 239
12.2.2. Composantes principales et cointégration ........... 242
12.3. Propriétés asymptotiques des estimateurs .............. 244
12.3.1. Introduction 244
12.3.2. Estimation efficace des vecteurs cointégrants ....... 245
12.3.3. Estimation par moindres carrés modifiés ........... 247
12.3.4. Estimation par moindres carrés dynamiques ......... 249
12.3.5. Estimation basée sur la régression canonique ........ 250
12.3.6. Estimation par le maximum de vraisemblance 252
Annexe. Le processus de Wiener ........................ 255
Exercices d’application............................... 259
Corrigés de quelques exercices ......................... 271
Bibliographie ..................................... 283
Index........................................... 285



PRÉFACE
Cet ouvrage a pour objectif de présenter une introduction compréhensive
des méthodes économétriques en utilisant les outils statistiques et
mathématiques les plus simples. Il est le fruit de plusieurs années
d’enseignement des méthodes de prévision, de l’économétrie des séries
temporelles et des cours de statistique et probabilité. De ce fait, il s’adresse
aux étudiants de la troisième année en sciences économiques et en finance.
Dans la première partie, la présentation des thèmes discutés par une méthode
pédagogique simple et pratique permet à ceux qui ont besoin d’utiliser les
outils économétriques dans leurs études empiriques de trouver une référence
qui donne l’essentiel sans trop naviguer dans les détails techniques.
Les thèmes présentés dans les trois derniers chapitres de l’ouvrage sont
particulièrement utiles pour les étudiants du troisième cycle et les chercheurs
en méthodes quantitatives qui s’intéressent aux applications des méthodes
économétriques dans les études des séries macroéconomiques et financières.

CHAPITRE 1
Eléments de la régression économétrique
1.1. Introduction
1.1.1. Coefficient de corrélation
Etant donné deux variables aléatoires ()X et ()Y , i = 1,...,n ; de moyenne i i
X et Y , on définit les variables centrées suivantes, c'est-à-dire les variables
exprimées par les écarts par rapport à leurs moyennes :
x = X − X y = Y − Y . i i i i, et
La covariance empirique entre X et Y est égale à :
n n1 1
Cov()X,Y = ∑()X − X ()Y −Y = ∑ x yi i i i . n ni=1 i=1
La covariance dépend de l’unité de mesure des variables.
A l’opposé, le coefficient de corrélation ne dépend par de l’unité de
mesure.
Il est défini par :
⎛ ⎞n ⎛ x ⎞ y x y1 1 ∑i i i i⎜ ⎟⎜ ⎟r = = ; −1 ≤ r ≤ 1 . ∑ ⎜ ⎟ ⎜ ⎟n S S n S Si=1 ⎝ x ⎠ y x y⎝ ⎠14 Cours d’économétrie
On rappelle que les écarts types des variables sont estimés par :
1 1
2 2⎛ 1 ⎞ ⎛ 1 ⎞2 2S = x , et S = y . ⎜ ∑ ⎟ ⎜ ∑ ⎟x i y i
n n⎝ ⎠ ⎝ ⎠
Remarquer que l’estimation non biaisée de ces mesures exige la
division par (n-1) au lieu de n.
On constate que dans de nombreuses séries économiques pour
lesquelles il y a une corrélation très forte entre les variables en niveau X
et Y, on peut avoir une corrélation très faible entre les variations, ou les
différences premières, ( ∆X = X − X , ∆Y = Y −Y ). Ce type de t t t−1 t t t−1
résultat signifie en général que la relation entre les variables est fortuite,
ou encore fallacieuse.
1.1.2. Approche probabiliste des modèles à deux variables
On commence par l’exemple de deux variables discrètes. On définit
les premiers moments des variables :
n n
µ = E()X = p(x) X , µ = E ()Y = p (y) Y . ∑ ∑x i i y j j
i=1 j=1
22⎡ ⎤2σ = Var()X = E()X - µ = p ()x (X − µ )∑x x x . ⎢ ⎥ i i
⎣ ⎦ i
22⎡ ⎤2σ = Var()Y = E()Y - µ = p ()y (Y − µ )∑y y j y⎢ ⎥ j . ⎣ ⎦ j
Cov ()X , Y = σ = E[](X-µ) ()Y-µ = p()x , y (X − µ) (Y − µ)∑∑x y x y i j .
ij
σ xy
Le coefficient de corrélation entre X et Y est égal à ρ = .
σ σx y
En termes de probabilité conditionnelle, on a :
Pij
= probabilité que Y = Y sachant X = X . j i
PiEléments de la régression économétrique 15
L’espérance mathématique conditionnelle est donnée par,
⎛ ⎞P⎜ ij ⎟
µ = E(Y /X ) = Y . La variance conditionnelle peut être ∑i jY/X ⎜ ⎟i
j ⎜ ⎟Pi⎝ ⎠
⎛ ⎞ 2P⎜ ij ⎟ ⎛ ⎞2représentée par σ = Var ()Y/X = Y − µ . ∑ ⎜ ⎟i jy/x ⎜ ⎟i Y / X⎜ ⎟ ⎝ i ⎠j Pi⎝ ⎠
Voyons maintenant le cas de 2 variables continues suivant la loi normale.
Leur densité jointe est donnée par :
⎡ ⎤⎧ ⎫2
⎛ ⎞⎢ ⎥⎪ x-µ ⎪x⎜ ⎟⎢ ⎥⎪ ⎪
⎜ ⎟σ⎢ ⎥⎪ ⎪⎝ x ⎠
⎢ ⎥⎪ ⎪
⎛ ⎞ ⎛ ⎞⎢ x − µ y-µ ⎥⎪ ⎪1 1 y y⎜ ⎟ ⎜ ⎟
f()x , y = exp ⎢- − 2 ρ ⎥ . ⎨ ⎬⎜ ⎟ ⎜ ⎟22 ⎜ ⎟ ⎜ ⎟⎢ 2(1- ρ ) σ σ ⎥⎪ ⎪2 π σ σ 1- ρ x y⎝ ⎠ ⎝ ⎠x y ⎢ ⎥⎪ ⎪
2⎢ ⎥⎪ ⎪⎛ ⎞y − µ y⎢ ⎥⎜ ⎟⎪ ⎪+⎢ ⎜ ⎟ ⎥⎪ ⎪σ⎜ ⎟y⎪ ⎪⎢ ⎥⎝ ⎠⎩ ⎭⎣ ⎦
La densité marginale de X est égale à :
2⎡ ⎤
⎛ ⎞x − µ1 1 x⎢ ⎥ . ⎜ ⎟f(x) = exp -
⎢ ⎥⎜ ⎟2σ 2 π σx x⎝ ⎠⎢ ⎥⎣ ⎦
La densité de probabilité conditionnelle de Y sachant X est :
2⎡ ⎤⎛ ⎞y -µ⎢ ⎥⎜ ⎟1 1 y/xf()y / x = f(x , y) / f(x)
= exp - . ⎢ ⎥⎜ ⎟
2 ⎜ ⎟σ 2 π ⎢ σ ⎥
y/x y/x⎝ ⎠
⎣ ⎦
σ y
Où µ = α + β X , avec α = µ − β µ , et β = ρ . y xy/x
σ x16 Cours d’économétrie
On remarque que l’espérance conditionnelle est donc une fonction
linéaire de la variable X. D’autre part, la variance conditionnelle
2 2σ = σ()1− ρ est indépendante de X, on dit qu’on a homoscédasticité. yy / x
2Le même raisonnement s’applique à f()x / y , µ et σ , en permutant
x / y x / y
les expressions de x et de y.
1.2. Régression linéaire à deux variables
1.2.1. Introduction
Dans plusieurs situations économiques on s’intéresse beaucoup plus à la
loi conditionnelle d’une variable Y (soit par exemple les dépenses des
ménages) sachant une variable X (soit le revenu des ménages) que le cas
contraire. Ceci provient d’une intuition a priori établie par un modèle
théorique, du sens de causalité, par exemple de X vers Y. Ainsi la théorie de
choix des consommateurs postule que le revenu des ménages est un
déterminant majeur des dépenses, mais la théorie de l’offre du travail
n’accorde pas un rôle important à l’idée que les dépenses des ménages
déterminent leurs revenus. Autrement dit, on s’intéresse à
f()X , Y = f(X) ⋅ f(Y/X), et non pas à f()X , Y = f(Y) ⋅ f(X/Y). Pour procéder à
une étude économétrique on commence par faire un modèle, puis on prend
un échantillon de n ménages parmi les N qui constituent toute la population,
et ensuite on recense les valeurs des variables X et Y en question pour
l’année concernée. La théorie économique suggère :
E()Y / X = g(X) = α + β X .
èmePour le i ménage on a, E(Y / X ) = α + β X . Soit Y la dépense du i ii
ménage, alors la différence u = Y − E(Y / X ) = Y -α - β X est appelée
i i i i i
perturbation ou erreur. Le terme u constitue l’influence de tous les facteurs i
autres que le revenu sur les dépenses du ménage i. Par exemple, on peut citer
la taille du ménage, son épargne, etc.
Pour estimer les paramètres du modèle on doit faire des hypothèses sur
les termes non observés, à savoir les erreurs u . iEléments de la régression économétrique 17
On suppose donc :
H E(u ) = 0, ∀ i
1 i .
2 2H var(u ) = E()u = σ , ∀ i
2 i i .
H cov(u , u ) = E(u u ) = 0 ∀ i ≠ j3 i j i j .
Ces trois hypothèses réunies définissent des erreurs indépendantes et
2identiquement distribuées, dénotées par u ~ iid (0, σ ). i
1.2.2. Estimations et estimateurs
Dans le modèle de régression linéaire à 2 variables, Y = α + β X + u , où i i i
2 2u ~ iid (0, σ ), et on a trois paramètres à estimer, α , β et σ . i
Définition 1: Un estimateur est une formule ou une méthode qui permet
d’estimer un paramètre inconnu.
Définition 2 : Une estimation est la valeur numérique qui résulte de
l’application de cette formule aux données d’un échantillon.
ˆ ˆˆY = α + β Xi iSoit , l’équation de la droite ajustée, la droite de la régression.
α et βOn peut avoir une infinité de droites selon les valeurs estimées de . Par
exemple, on peut choisir la droite qui passe par les points extrêmes.
y
• ⎫ uˆ⎬ iyˆ i ⎭
y
0 XX Xi
Figure 1.1. 18 Cours d’économétrie
1.2.3. Estimation par la méthode des moindres carrés
Les résidus (erreurs observées ou estimées) sont donnés par :
ˆ ˆˆ ˆu = Y - Y = Y − α − βX . i ii i i
ˆˆCes résidus sont mesurés verticalement. Chaque couple (α , β ) définit une
droite de régression différente et donc un ensemble différent des résidus. La
ˆˆsomme des carrés de ces résidus est une fonction de α et β . La méthode
d’estimation par les Moindres Carrés Ordinaires (dénotée par MCO) consiste
ˆˆà choisir (α , β ) de façon à minimiser :
n 2
i=n 2 ˆ ˆˆ ˆ ˆSCR = u()α , β = (Y − α − β X ) . ∑ ∑i i ii=1
i=1
La solution est donnée par les deux conditions de premier ordre
suivantes :
d SCR ˆˆ ˆ = -2 (Y − α − β X ) = - 2 u = 0 . ∑ ∑i i iˆd α i
d SCR ˆˆ ˆ = -2 X (Y − α - β X ) = -2 X u = 0∑ ∑ . i i i i iˆd β
Résoudre les équations normales de la régression de y sur X, donne :
⎧ ⎫ Y = n α + β X∑∑ ii⎪ ⎪
⎪ ⎪
⇔ ⎨ ⎬ .
⎪ 2 ⎪X Y = α X + β X∑ ∑ ∑i i i i⎪ ⎪
⎩ ⎭
sx y∑ yi iˆ ˆˆOn obtient les estimateurs α = Y − β X, et β = = r .
2 sx x∑
i
Remarquer que la pente de la régression MCO, peut être estimée à partir des
variances empiriques.
On peut vérifier les conditions du second ordre pour s’assurer que les
expressions trouvées correspondent à des minimums. Eléments de la régression économétrique 19
Revenons à l’estimation des paramètres. Ainsi on retient 3 propriétés de
la droite des MCO :
– elle minimise SCR,
– elle passe par le point moyen ()x, y ,
ˆ– les résidus ()u et les variables explicatives ()X ont une corrélation i i
empirique nulle : ()x uˆ = 0 ⇔ Cov ()x , uˆ = 0 , ∑ i i i i
2– d’autre part la variance σ de la perturbation est estimée par
2uˆ∑2 is = .
n − 2
ˆDécomposant la somme de carrés des résidus, et sachant uˆ = y − β x , i i i
on obtient :
2 2 2 2ˆ ˆuˆ = y − 2β x y + β x . ∑∑ ∑ ∑i i i i i
2 2 2 2ˆ ˆ⇔ y = uˆ − β x + 2β x y∑∑ ∑ ∑i i i i i .
2ˆOr on a établi que (β x ) = x y , il résulte par conséquent : ∑∑i i i
2 2ˆyˆ = β x y + uˆ ∑∑ ∑i i i i
SCR SCE2 2 2 2 2 y = r y + uˆ ⇒ r = 1− =∑∑ ∑Et . i i i SCT SCT
Il s’en suit SCT = SCE + SCR , c'est-à-dire que la somme totale des carrés
est égale à la somme des carrés, expliquée par la régression, plus la somme
des carrés des résidus.
Le coefficient r est donc la part de la variation de y qui est attribuable à la
régression linéaire de y sur x.
1.2.4. Exemple numérique
On donne l’information suivante pour appliquer la régression par MCO
de Y sur X. 20 Cours d’économétrie
Soit Y = 40 , et on donne n = 5 , Y = 8, X = 4, ∑ i
D’autre part on sait que X = 20 et X Y = 230. ∑ ∑i i i
On doit résoudre les équations normales pour déterminer les valeurs de
ˆˆα et β . En appliquant les équations normales, on obtient :
ˆ ⎞ˆ40 = 5 α + 20 β
⎟ ⇒ yˆ = 1+1.75 X, droite de régression MCO .
⎟ˆˆ230 = 20 α +120 β ⎠
ˆSCE = β x y = 1.75 (()X - X ()Y - Y∑∑ i i i i
= 1.75 ()X Y − n X Y∑ i i
230 -160⎛ ⎞
= 1.75 ⎜ ⎟ .
70⎝ ⎠
22 2 2On sait également que SCT = y =()Y - Y = Y - nY = 124 . ∑∑ ∑i i i
Or, d’après la relation entre les sommes des carrés, établie ci-dessus, on
retient que :
. SCR = SCT − SCE = 1.5
SCE 122.52Il s’ensuit que le coefficient r = = = 0.9879 .
SCT 125
1.3. Induction statistique
1.3.1. Propriétés des estimateurs MCO
Les propriétés des estimateurs dépendent de la loi d’échantillonnage qui
décrit le comportement des estimateurs lorsque l’on procède à des tirages
répétés d’échantillons. Chaque échantillon donne une estimation numérique
spécifique.
2Les paramètres d’intérêt α , β et σ sont ceux de la loi
conditionnelle f()y x . La seule source de variation d’un échantillon à un
autre est la perturbation (u ). iEléments de la régression économétrique 21
La fonction f (X ) ne contient aucune information sur les paramètres
2α , β et σ . On dit que la variable explicative X est non stochastique.
La droite de la régression obtenue par l’application des MOC peut être
représentée par :
x 1i 2ˆβ = w y , où w = , w = 0 , w = , w x = 1 = w X . ∑ ∑ ∑ ∑i i i i i i i i i2 2x x∑ ∑i i
ˆIl s’ensuit que β = w Y et ainsi on obtient le résultat suivant : ∑ i i
ˆβ = w Y∑ i i
= w()α + βX + u ∑ i i i
= α ∑ w + β ∑ w X + ∑ w ui i i i i
= β + w u∑ . i i
ˆOn trouve E(β )= β , donc un estimateur sans biais.
D’autre part, on a le résultat suivant concernant la variance de
l’estimateur,
2 x2 iˆ ˆVar ()β = E(β − β) = E[]()w u , sachant w = , il résulte : ∑ i i i
x∑ i
2⎡ ⎤ 2⎛ ⎞x σ⎢ i ⎥ˆ ⎜ ⎟Var()β = E u = . ∑ i⎢ 2 ⎥ 2⎜ ⎟x x∑ ∑⎝ i ⎠ i⎢ ⎥⎣ ⎦
En suivant le même raisonnement, on peut monter que :
2 2⎡ ⎤1 X σ X2 ˆˆ ˆ ˆE()α = α , Var()α = σ ⎢ + ⎥ , et Cov()α , β = − .
2 2n⎢ x ⎥ x∑ ∑⎣ i ⎦ i22 Cours d’économétrie
1.3.2. Théorème de Gauss-Markov
ˆL’estimateur de β obtenu par MCO et dénoté par (β ) possède la plus
petite variance dans toute la classe des estimateurs linéaires et sans biais. On
dit que l’estimateur par MCO est « BLUE », une abréviation en anglais de
(Best Linear Unbiased Estimator).
Ce résultat implique que si on a un autre estimateur de β, soit β * , qui est
linéaire et sans biais, alors :
n2 2ˆ ˆV()β * = var()β + σ ()c − w ⇒ V(β *) ≥()β . ∑ i i
i=1
1.3.3. Inférence statistique
On suppose que les erreurs u sont normalement distribuées et i
2indépendantes, dénotées par iid N (0, σ ), alors on a :
2 2⎛ ⎞⎛ ⎞ ⎡ ⎤σ ⎛ 1 ⎞ X⎜ 2 ⎟ˆ ⎜ ⎟ ˆβ ~ N β , , α ~ N α , σ + . ⎢ ⎜ ⎟ ⎥2 2⎜ ⎟ ⎜ ⎟n⎝ ⎠x ⎢ x ⎥∑ ∑i i⎝ ⎠ ⎣ ⎦⎝ ⎠
Ce résultat montre que les estimateurs suivent la loi normale.
2Si σ est connue, alors un intervalle de confiance pour β, à un niveau de
confiance déterminé, soit par exemple 95%, peut être obtenu par :
σˆIC ()β : β ± 1.96 .
2Σx i
Les tests d’hypothèse concernant β peuvent se faire sur la base de la loi
normale :
ˆβ − β
~ N()0 , 1 .
σ
2ΣxiEléments de la régression économétrique 23
Pour tester une valeur particulière, on formule l’hypothèse nulle,
H : β = β , contre l’hypothèse alternative H : β ≠ β , et on obtient : 0 0 0 0
ˆ ˆβ − β β − β0 0= , où e.t. désigne l’écart-type.
2 ˆ()σ Σx e.t. β
On compare la statistique qu’on vient de calculer avec la valeur tabulée
de la loi normale, soit 1.96 pour le niveau de risque d’erreur égale à 5%.
ˆβ − β 0Si > 1.96 alors on rejette H avec un niveau de confiance = 95%. 0ˆe.t.()β
2Cette procédure suppose que la variance des erreurs σ est connue. Mais
dans les études économétriques ceci n’est souvent pas le cas, et donc il faut
2estimer σ .
2ˆ∑u2 i 2Soit s = l’estimateur de σ obtenu par l’application de la
n − 2
méthode MCO, et soit s l’écart-type calculé, alors on obtient :
ˆβ − β
~ t , suit la loi de Student à (n-2) degrés de liberté. ()n−2s
2x∑ i
ˆβ − β0Ainsi, on rejette l’hypothèse nulle, H : β = β , si > t ()n − 2 , 0 0 0.025ˆe. t()β
c'est-à-dire si la statistique calculée est en valeur absolue plus grande que la
valeur tabulée de la loi de Student pour un niveau de risque égal à 2 fois
(0.025) = 5%.
Pour tester la significativité du terme constant du modèle, on peut utiliser
le résultat asymptotique suivant :
ˆα −α
~ t . ()n−21
2⎛ ⎞ 21 x⎜ ⎟s +
2⎜ ⎟n ∑ x⎝ i ⎠24 Cours d’économétrie
ˆα -α
Rejeter H :α = α si > t ()n − 2 . 0 0 0.05
2
1 x 2
s +
2n x∑ i
2Enfin pour effectuer des tests sur σ on procède comme suit :
2uˆ∑ i 2On a ~ χ , la loi de Chi-deux à (n-2) degrés de liberté. ()n−22
σ
⎡ ⎤2s⎢ () ⎥2 n − 2 2La probabilité de χ < < χ = 1− ε . ⎢ ε ⎥2 ε⎛ ⎞σ 1−2 ⎜ ⎟⎢ ⎥2⎝ ⎠⎣ ⎦
Prenons un exemple d’illustration. Soit ε = 5% , alors on obtient :
2⎡ ⎤s()2 n − 2 2P χ < < χ = 0.95⎢ ⎥ . 0.025 0.9752σ⎢ ⎥⎣ ⎦
2Donc un intervalle de confiance pour σ est donné par :
2 2⎡ ⎤()n − 2 s ()n - 2 s
⎢ ; ⎥ . 2 2⎢ χ χ ⎥⎣ 0.975 0.025 ⎦
1.3.4. Application numérique
Reprenons les données de l’exemple précédant. On a,
ˆˆn = 5 ; α = 1 , β = 1.75 :
2SCT = 124 ; SCE = 122.5 ; SCR = 1.5 ; r = 0.9879 .
SCR 1.52Maintenant on détermine s = = = 0.5 .
n − 2 3Eléments de la régression économétrique 25
2s 0.5 ⎛ 1 16 ⎞ˆ ˆVar ()β = = = 0.0125 , Var ()α = 0.5 + = 0.3 . ⎜ ⎟
2 40 5 40⎝ ⎠x∑
Les écarts types estimés des coefficients estimés de la régression sont :
ˆˆe.t ()α = 0.3 = 0.5477 , e.t (β ) = 0.0125 = 0.1118 .
La valeur tabulée (critique) de la loi de Student est t ()3 = 3.18 . 0.025
ˆ ˆDonc : IC ()α = α ±[]e.t.()α × ( t ()3 ) = 1± 3.182 × ()0.5477 =[]− 0.74 ; 2.74 . 0.025
ˆ ˆIC ()β = β ± t (3).[e.t.(β )]= 1.75 ± 3.18 ×()0.1118 =[]1.39 ; 2.11 . 0.025
On remarque que la valeur 0 appartient à IC (α ), ce qui veut dire que le
terme constant n’est pas significatif. D’ailleurs, on peut trouver ce résultat
par l’application directe d’un test d’hypothèse :
αˆ 1
= = 1.826 < 3.18, et ainsi on ne rejette pas l’hypothèse nulle,
ˆe.t()α 0.5477
ce qui nous conduit à conclure que le paramètre α n’est pas statistiquement
significatif.
Pour voir si le paramètre β est significatif, c'est-à-dire pour voir si la
variable X joue un rôle déterminant dans le modèle pour expliquer la
variable Y, on procède comme suit : on calcule le test statistique suivant :
ˆβ 1.75
= = 15.6 > 3.18, ce qui permet de rejeter l’hypothèse nulle.
ˆ 0.1118e.t()β
On conclut par conséquent que le paramètre β est statistiquement
significatif.
On peut aussi trouver ce résultat à partir de l’intervalle de confiance de β
qu’on a calculé ci-dessus. Remarquer que la valeur 0 n’est pas dans cet
intervalle, et donc on peut rejeter l’hypothèse nulle et on est confiant à 95%
qu’on a pris la bonne décision de considérer que β est statistiquement
significatif. 26 Cours d’économétrie
Il faut remarquer qu’un intervalle de confiance construit, par exemple à
95%, veut dire que chaque valeur de cet intervalle constitue à 95%, la valeur
de β .
2On passe à l’inférence statistique concernant le terme de variance σ . Les
valeurs tabulées de la loi de Chi-deux sont respectivement :
2 2χ ()3 = 0.216, et χ ()3 = 9.35 . 0.025 0.975
2⎛ ⎞ˆu∑2 2 i⎜ ⎟ˆD’autre part on a : u = 1.5, et on a s = . ∑ ii ⎜ ⎟n − 2⎝ ⎠
1.5 1.5⎡ ⎤2Il s’ensuit alors : IC ()σ = ; =[]0.16 ; 6.34 . 95% ⎢ ⎥9.35 0.216⎣ ⎦
1.4. Analyse de la variance
L’analyse de la variance est particulièrement utile dans le modèle de
ˆβ − β
régression multiple. On a d’une part ~ N()0,1 , ce qui implique que
e.t()β
2ˆ()β − β 2
suit la loi χ ()1 .
ˆvar()β
2⎛ ⎞ˆ∑ ui⎜ i ⎟ 2D’ autre part, on a établi que ~ χ . Ainsi on peut ⎜ ⎟ ()n−22⎜ ⎟σ
⎝ ⎠
2 2ˆβ x∑ itester H : β = 0 , en calculant la statistique F = ~ F()1, n - 2 , qui 0 2ˆ∑ u n - 2ii
suit donc la loi de Fisher au degrés de liberté 1 et (n-2).
SCE 1
F = , constitue l’ingrédient principal de l’analyse de la
SCR ()n - 2
variance qu’on peut résumer dans le tableau suivant pour le cas de la
régression simple. Eléments de la régression économétrique 27
Source de Somme des Carrés Degré de liberté Moyenne des Carrés
variation (SC) (dl) (MC=SC /dl)
2 2ˆ SCE 1 X 1 SCE = β x ∑ i
2 ()n − 2 SCR ()n - 2 Résidus ˆSCR = u ∑ i
2 ()n −1 Total SCT = y ∑ i
Revenons au test de l’hypothèse H : β = 0 . 0
SCE 1
On rejette H si F = > F ()1 ; n - 2 . 0 1−α
SCR ()n - 2
122.5
Dans notre exemple on a, F = = 245 > F ()1; 3 = 10.1et donc on 0.95
0.5
rejette H , pour conclure que la variable X est significative et elle joue un 0
rôle important dans la détermination de la variable Y qu’on cherche à
expliquer.
2Remarquer qu’en général on a t = F()1, m .
(m)
èmeOn peut se servir d’une 3 forme du test concernant l’hypothèse nulle.
Voici comment.
On a montré que :
2 2 2 2 2 2 2 2ˆ ˆˆ ˆ ˆ∑ y = β ∑ x +∑∑u = β xy +∑ u = r ∑ y + ∑ u .
i
D’où alors :
2 2SCE r y∑
F = =
2 2 2SCR ()n - 2()∑∑y − r y ()n - 2
.
2
r()n − 2
= ~ F(1, n-2 )
2()1− r