Nothing Special   »   [go: up one dir, main page]

Resume Du Cours D'econometrie

Télécharger au format docx, pdf ou txt
Télécharger au format docx, pdf ou txt
Vous êtes sur la page 1sur 15

INTRODUCTION GENERALE................................................................................................

2
Définition................................................................................................................................2
Utilité et démarche..................................................................................................................2
Type de données et notations..................................................................................................2
Objet du cours.........................................................................................................................3
L’ESSENTIEL A RETENIR SUR LA CORRELATION..........................................................4
1 Définition et caractéristiques..............................................................................................4
2 Étude de la corrélation linéaire...........................................................................................4
2.1 Vérification des conditions de validité de l’étude.......................................................4
2.2 Coefficients de corrélation linéaire.............................................................................6
2.3 Différences entre Spearman vs Bravais-Pearson........................................................8
2.4 Significativité du coefficient de corrélation................................................................8
2.5 Interprétation...............................................................................................................9
2.6 Limites......................................................................................................................10
1 Définition..........................................................................................................................11
2 Modèle et hypothèses........................................................................................................11
2.1 Modèle linéaire simple..............................................................................................11
2.2 Hypothèses................................................................................................................11
3 Estimateurs des MCO des paramètres..............................................................................11
3.1 Estimateurs pour un modèle avec constante.............................................................12
3.2 Estimateurs pour un modèle sans constante..............................................................12
4 Modèle estimé...................................................................................................................12
5 Qualité des estimateurs.....................................................................................................12
6 Estimation de variances....................................................................................................12
7 Adéquation du modèle......................................................................................................12
8 Significativité....................................................................................................................13
8.1 Significativité globale...............................................................................................13
8.2 Significativité individuelle........................................................................................13
9 Diagnostic des résidus.......................................................................................................14
9.1 Hétéroscédasticité.....................................................................................................14
9.2 Autocorrélation des résidus.......................................................................................14
9.3 Normalité..................................................................................................................15

1
INTRODUCTION GENERALE
Définition
« l’union de l’analyse économique, des mathématiques et de l’inférence statistique » (cf. A.
Pirotte cité par Bresson).1
 Au sens large, c’est un ensemble de techniques utilisant la statistique mathématique
pour vérifier la validité empirique des relations supposées entre les phénomènes
économiques et pour en mesurer les paramètres.
 Au sens strict, c’est l’art de construire et d’estimer des modèles empiriques adéquats
par rapport aux caractéristiques de la réalité, et intelligibles au regard de la théorie
économique.
Utilité et démarche
L’économétrie est un outil d’aide à la décision dont les quatre principales fonctions sont :
1) Tester les théories économiques ou certaines hypothèses de la théorie économique
2) Évaluer les paramètres des relations économiques.
3) Prévoir l’évolution des variables économiques : si la théorie n’est pas rejetée, on peut
utiliser le modèle pour prédire les valeurs futures du phénomène étudié.
4) Contrôle ou politique économique
L’analyse économétrique dérive d’une démarche en 8 étapes :
1) Énoncer la théorie ou les hypothèses à étudier
2) Spécifier le modèle mathématique de la théorie en question ;
3) Spécifier le modèle statistique ou économétrique qui en découle ;
4) Collecter les données ;
5) Estimer les paramètres du modèle économétrique ;
6) Tester les hypothèses sur les paramètres du modèle ;
7) Faire des prévisions ou prédictions en cas de validité du modèle
8) Contrôle ou de politique économique
En général, c’est la théorie (économique,) qui doit guider l’économètre pour la spécification
du modèle, les données ne doivent servir qu’à valider ou invalider les hypothèses émises.
Type de données et notations

Soit la fonction qui indique que le phénomène y est exclusivement expliqué


par x si on connait les paramètres β0 et β1. Pour déterminer les valeurs de ces paramètres,
l’économètre va utiliser des données observées de différentes manières. Il peut s’agir de :
 Séries chronologiques ou séries temporelles correspondent à des observations de
variables à intervalles temporels réguliers. Les variables de la fonction étudiée

seront alors marquées d’un indice de temps t : avec t=1,…, T.


Ici t désigne l’année, le trimestre ou encore le mois correspondant à l’observation
considérée. T est le nombre total d’observations (années) disponibles.
 Coupes instantanées ou coupes transversales correspondent à l’observation, à un
moment donné, de variables sur différents « individus ». Les variables de la fonction

étudiée seront alors marquées d’un indice d’individus i : avec

1
Raguar Frisch définit l’économétrie comme tel dans son éditorial du premier numéro de
la revue Econometrica paru en 1993.
2
i=1, …, n. Ici i désigne un individu, un ménage, une entreprise, un secteur, un pays…
correspondant à l’observation considérée. N est le nombre total d’observation
(individus) disponibles.
 Données de panel ou donnée individuelles-temporelles ou encore coupes répétées
intègrent les deux dimensions, individuelle et temporelle, puisqu’elles correspondent à
l’observation d’individus suivis dans le temps. Les variables de la fonction étudiée
seront alors marquées simultanément d’un indice d’individu et d’un indice de

temps it : avec i=1, …, n et t=1, …, T.


Objet du cours
Pour exprimer la relation ou l’association entre deux, on a recours à la régression et à la
corrélation, deux notions souvent confondues.
Une analyse de régression univariée donne une idée du mode d’association entre deux
variables, mais elle ne permet pas de déterminer le degré́ de cette association. L’intensité́ de la
liaison s’exprime au moyen du coefficient de corrélation.

EXERCICE D’APPLICATION

i C R
1 100 114
2 104 118
3 106 126
4 108 130
5 120 140
6 124 140
7 126 148
8 128 156
9 140 160
10 146 164
11 148 170
12 152 178

L’ESSENTIEL A RETENIR SUR LA CORRELATION

1 Définition et caractéristiques
Des phénomènes (économique) sont dits « corrélés » lorsqu’ils ont une évolution commune.

3
 La corrélation peut être simple ou multiple (partielle). Dans le premier cas il s’agit de
la liaison existante entre deux phénomènes représentés par des variables, tandis que
dans le deuxième cas, il s’agit de la liaison entre trois variables ou plus.
 La corrélation est dite positive lorsqu’il y a une augmentation (ou diminution, ou
constance) simultanée des valeurs des deux variables, tandis qu’elle est dite négative,
lorsque les valeurs de l’une augmentent, les valeurs de l’autre diminuent. Il y a non
corrélé, s’il n’y a aucune relation entre les variations des valeurs de l’une des variables
et les valeurs de l’autre.
 La corrélation peut être linéaire ou non linéaire.

2 Étude de la corrélation linéaire


En général, l’étude de la corrélation cherche à rendre compte de la forme, de la direction et de
la force de la liaison linéaire éventuelle entre les deux phénomènes.
Cette étude comporte les éléments suivants : Vérification des conditions de validité, Calcul
d’un coefficient de corrélation, Test de significativité, Interprétation du coefficient.
2.1 Vérification des conditions de validité de l’étude
Elles sont au nombre de trois :
 Indépendance des observations associées à chaque variable (x et y) ;
 Existence d’une liaison linéaire entre x et y.
 Distribution conditionnelle normale et variance constante des deux variables ;

2.1.1 Forme de la liaison entre x et y


La forme linéaire de la liaison peut s’appréhender par l’observation et l’interprétation d’un
diagramme de dispersion, qui permet de rendre compte de la direction et de la forme de la
corrélation. Soient des échantillons (aléatoires) de n observations {(xi, yi), i=1, …, n}. Pour
chaque échantillon, chaque couple (x i, yi) peut être représenté dans le plan par un point M i
d’abscisse xi et d’ordonnée yi. Par exemple :

y I y II

x x
y III IV

 La corrélation est linéaire, lorsque tous les points du couple de valeurs (x, y) des deux
variables semblent alignés sur une droite.
x Par exemple les pointsx des nuages I et II
sont presque alignés, mais de directions différentes traduisant une x corrélation linéaire
respectivement y positive (I) et négative (II) entre les variables x et y.
 La corrélation non linéaire lorsque le couple de valeurs se trouve sur une même courbe
d’allure quelconque. Par exemple, le nuage IV décrit une courbe régulière qui n'est pas
une droite traduisant une corrélation non-linéaire entre les variables x et y .

4
 Le nuage III ne présente pas de structure particulière, traduisant ainsi une absence il
n’y a donc pas de corrélation entre les variables x et y.

2.1.2 Normalité des variables x et y

On peut utiliser des tests de normalité dont le test de Jarque-Bera et le test de Shapiro-Wilk.

2.1.2.1 Test de Jarque-Bera


Le test JB est applicable lorsque n˃88. Il est basé sur les coefficients d’asymétrie et
d’aplatissement. Sous l’hypothèse nulle (H 0) de « normalité », la statistique du test JB suit
asymptotiquement une distribution χ2(2) à deux degrés de liberté au seuil de signification α =
5% est :

[
n
JB= S 2 +
6 4]
( K −3 )2

Où n est la taille de l’échantillon, S le Skewness et K la Kurtosis. Si JB≥ à la valeur du χ 2(2)


lue dans la table au seuil α, on rejette H0 et la variable ne suit pas une loi normale.

Encadré 1 asymétrie et aplatissement

SKEWNESS

En théorie des probabilités et statistique, le coefficient d’asymétrie ou skewness correspond à


une mesure d’asymétrie de la distribution d’une variables aléatoire réelle.

Soit une variables aléatoire réelle X de moyenne μ et d’écart-type σ on définit son coefficient
d’asymétrie comme le moment d’ordre trois de la variables aléatoire réelle

[( ) ]
3
x −μ
γ 1=E
σ
Lorsque cette espérance existe alors on a :
μ3
γ 1= 3
σ
γ 1 <0 distribution décalée à droite de la médiane et donc une queue de distribution étalée vers
la gauche
γ 1 >0 distribution décalée à gauche de la médiane et donc une queue de distribution étalée vers
la droite
γ 1=0 distribution symétrique mais pas forcement

KURTOSIS

En théorie des probabilités et statistique, le kurtosis correspond à une mesure directe de


Pearson de l’acuité ou indirecte de l’aplatissement de la distribution d’une variables aléatoire
réelle. On l’appelle aussi coefficient d’aplatissement ou coefficient d’acuité
Soit une variables aléatoire réelle X de moyenne μ et d’écart-type σ on définit son coefficient
d’asymétrie comme le moment d’ordre quatre de la variable aléatoire réelle

[( ) ]
4
x −μ
β 2=E
σ
Lorsque cette espérance existe alors on a :

5
μ4
β 2= 4
σ
β 2=3, on parle de distribution mésokurtique.
β 2> 3, on parle de distribution leptokurtique .
β 2< 3, on parle de distribution platikurtique .
La loi normale est un cas particulier de distribution mésokurtique pour laquelle le skewness
est nul γ 1=0

MOMENTS CENTRÉ D’ORDRE k

μk =E [ ( x−E(x ) ) ]
k

Avec μ1=0 et μ2=σ 2

Test de Shapiro-Wilk

Ce test applicable lorsque n<55 est basé sur une statistique W.

[∑ ]
j 2

a j ( x( n−i+1 )−x( i) )
i=1
W= n

∑ ( x (i )− x̄ )2
i=1
Où n est la taille de l’échantillon, j est la partie entière du rapport (n/2), x(i) correspond à la
série des données triées en ordre croissant, a i sont des valeurs lues dans la table des
coefficients de Shapiro et Wilk sachant n et j. Sous l’hypothèse nulle (H 0) « la variable est
gaussienne», on rejette H0 si W < WTable(n) au seuil α, la variable est non gaussienne.

2.2 Coefficients de corrélation linéaire

Un coefficient de corrélation permet de quantifier l’intensité ou degré et le sens de la liaison


linéaire entre x et y. Le coefficient de corrélation le plus couramment utilisé est celui de
Bravais-Pearson ou coefficient de Pearson.
2.2.1 Coefficient de Bravais-Pearson
Le coefficient de corrélation linéaire simple, dit de Bravais-Pearson (ou de Pearson), est une
normalisation de la covariance par le produit des écarts-type des variables.

COV ( X ,Y ) COV (X , Y )
r xy = =
√VAR ( X ) . VAR(Y ) σxσ y

Ce coefficient est un chiffre se situant toujours entre -1 (relation linéaire parfaite avec pente
négative) et +1 (relation linéaire parfaite avec pente positive).
Les propriétés de ce coefficient sont :
Il est de même signe que la variance, avec les mêmes interprétations.
1. Le coefficient de corrélation est indépendant des unités de mesure des variables, ce qui
permet les comparaisons.
2. Le coefficient de corrélation est une mesure normalisée qui prend des valeurs entre -1 et
1;

6
3. r =+ 1, la liaison entre X et Y est linéaire, positive et parfaite c.-à-d. la connaissance de
X nous fournit la valeur deY (et inversement) ;
4. r =−1 , la liaison est linéaire négative ;
5. Si X et Y sont indépendants, alors r xy =0. La réciproque est fausse car il peut exister
une liaison fonctionnelle, mais non monotone entre les variables une corrélation que le
coefficient Bravais-Pearson ne permet pas de révéler.
6. L’intensité de la corrélation d’une variable avec elle-même est r xx =1
7. il s’agit d’une mesure symétrique qui n’établit pas de distinction entre les variables
dépendantes et indépendantes

2.2.1.1 Coefficient de corrélation empirique :

Sur un échantillon de taille n , nous estimons le coefficient de corrélation à l’aide de la formule


suivante :

∑ ( x i−x ) ( y i− y) ∑ x i y i −n x y
i=1
r^ = =

√ √∑ √ x i2−n x 2 √ y i2−n y 2
n n

∑ ( xi −x) 2
( y i− y )
2

i=1 i=1

2.2.1.2 Biais et coefficient de corrélation ajusté :

Le coefficient de corrélation empirique est un estimateur biaisé. Fort heureusement, le biais devient
négligeable lorsque l’effectif augmente. L’espérance de l’estimateur s’écrit :

2
r (1−r )
E [ r^ ] =r −
2n

Pour cette raison, on peut être amené à utiliser un coefficient de corrélation ajusté :

r^aj = 1−
√ n−1
n−2
(1−r^ 2 )

Bien entendu, l’ajustement est d’autant plus sensible que l’effectif est faible. Lorsque n est élevé, r^
et r^aj se confondent.
Outre le coefficient de corrélation linéaire de Bravais-Pearson, on utilise souvent le
coefficient de rangs de Spearman.

2.2.2 Coefficient des rangs de Spearman

Ce coefficient est une mesure non paramétrique du degré de liaison linéaire entre deux
variables quantitatives X et Y.

7
n
6 ∑ D2i
i=1
rh o XY =1− 2
n (n −1)
Où Di = Ri - Si, où Ri est le rang de x et Si est le rang de y ; n est le nombre d’observations.
Avant d’appliquer la formule, il faut déterminer les rangs Ri et Si. Pour ce faire, il faut affecter
des rangs entre 1 et n à chaque observation sachant que la plus petite observation reçoit le
rang 1 et la plus grande observation reçoit le rang n. En présence d’ex aequo dans les
observations, on leur affecte la moyenne arithmétique de leurs rangs respectifs.

2.3 Différences entre Spearman vs Bravais-Pearson

Les différences entre le coefficient de Spearman et de Braivais-Pearson peuvent être mises en


évidence à partir de trois critères : présence de valeurs atypiques, aberrantes ; la normalité des
variables et l’existence d’un liaison linéaire et monotone entre x et y.

Spearman Bravais - Pearson


Les variables doivent être normalement distribuées
Cela n’est pas obligatoire pour rhoxy. Cela est obligatoire pour rxy. En cas de
distribution normale des variables rhoxy = rxy

Lorsque la liaison entre les variables est non linéaire mais monotone
rhoxy est approprié, car il estime mieux le rxy donne une idée sur le sens de la liaison mais
sens et la force de la liaison entre x et y. estime mal sa force de la liaison entre x et y.
En présence de points atypiques ou aberrants des déviants
Le rhoxy résiste Le rxy très influencé.
Si la liaison entre les deux variables étudiées est non linéaire et non monotone, les
deux coefficients rxy et rhoxy ne sont plus adaptés.

2.4 Significativité du coefficient de corrélation

Le coefficient de corrélation de Pearson ρ qui mesure le degré d’association linéaire entre X et


Y à partir des données sur la population est :

Le coefficient de Pearson r calculé à partir des données de l’échantillon est un estimateur de ρ


supposé inconnu. Le coefficient ρ des valeurs rarement très proche des bornes -1, 0, 1 et il est
donc difficile de proposer une interprétation fiable à la simple lecture de ce coefficient.
La théorie des tests statistiques nous permet de lever cette indétermination. Un test
d’hypothèse est une démarche qui vise à fournir une règle de décision permettant de faire un
choix entre deux hypothèses (nulle H0 et alternative H1) et ce sur la base de résultats
d’échantillon.
Ici il permet de vérifier si le coefficient β i est significativement différent de 0. Ce test est
efficace lorsque n > 30.

2.4.1 Les hypothèses du test


 H0 : ρ = 0 (absence de liaison linéaire entre x et y)
 H1 bilatérale : ρ  0 (existence d’une liaison entre X et Y)

8
2.4.2 Seuil de confiance

La décision de favoriser H0 est basée sur une information partielle, résultant d’un échantillon.
Ainsi, il est statistiquement impossible de prendre toujours la bonne décision. Le seuil de
confiance α est le risque de rejeter l’hypothèse nulle H 0 alors qu’elle est vraie. On l’appelle
aussi seuil de significativité ou erreur de première espèce.

Réalité H0 vraie H0 fausse


Décision
Non-rejet de H0 correct Manque de puissance
risque de second
espèce b
Rejet de H0 Rejet à tort Puissance du test
risque de première 1-b
espèce a

2.4.3 Statistique du test


Le test du coefficient de corrélation consiste à calculer la grandeur t C et à la comparer à la
valeur seuil tα sur la table de la loi associée à t C. Le rapport de l’estimateur du coefficient de
corrélation r sur son écart-type suit une loi de Student à (n-2) degrés de liberté.

Le nombre de degré de liberté est la différence entre le nombre d’observation n de


l’échantillon et le nombre de paramètre dans la relation linéaire.
2.4.4 Règle de décision
 Si ou on rejette H0 avec un risque 0 ≤ α ≤ 1

 Si ou , on rejette H0 avec un risque 0 ≤ α ≤ 1


Lorsqu’on rejette l’hypothèse nulle, cela signifie que le coefficient de corrélation calculé est
significativement différent de zéro. Il existe donc une liaison linéaire entre les variables y et x
étudiées.
2.5 Interprétation
Le coefficient de corrélation est un nombre forcément compris entre −1 et 1. La covariance
entre deux variables mesure la part de dépendance linéaire entre X et Y.
Interprétation géométrique de la corrélation
 Si ρ > 0 alors lorsque X tend à augmenter, Y augmente aussi et vice-versa.
 Si ρ < 0 alors lorsque X tend à augmenter, Y diminue aussi et vice-versa.
 Si ρ = 0 alors X et Y sont non corrélées : il n’y a pas d’association linéaire entre X et
Y.
 Si | ρ |=1 alors l’une des variables est une fonction affine de l’autre, par exemple y est
une fonction affine de x i.e. Y = β1X + β0 avec β1 du signe de ρ.
2.6 Limites
Le coefficient de corrélation linéaire présente essentiellement quatre faiblesses, à savoir :
 Le coefficient de corrélation de Bravais-Pearson ne mesure que les liaisons linéaires.
Lorsque la liaison est non linéaire, il induit une erreur sur l’intensité de la liaison.

9
 En présence des variables qualitatives comme la paix, la religion, etc., ces coefficients
ne sont plus adaptés.
 Ile coefficient de corrélation n’informe ni sur l’impact ni sur la causalité. Il ne permet
pas d’établir une causalité mais, rendre compte du sens et du degré d’association
éventuelle entre variables.
 La corrélation peut être fortuite ou fallacieuse : un coefficient de corrélation différent
de zéro n’implique pas toujours une liaison d’ordre économique. Les deux variables
peuvent être liés à un même phénomène (troisième variable) dont il faut neutraliser
l’effet.

L’ESSENTIEL A RETENIR SUR LA REGRESSION SIMPLE

1 Définition
« méthode statistique visant à analyser la relation (association) entre une variable
dépendante particulière et une ou plusieurs variables indépendantes ».

2 Modèle et hypothèses
2.1 Modèle linéaire simple
Le modèle linéaire simple est modèle qui établit une relation linéaire entre une seule variable
explicative (X) et une variable à expliquer (Y).
Il peut se présente sous forme :
 Théorique : Y = β0+ β1X
 Econométrique : Y = β0+ β1X+ε
Le bruit ε, ou erreur, ou terme d’erreurs regroupe trois types d'erreurs :

10
 Erreur de spécification (omissions): d’autres variables omises peuvent avoir une
influence sur y. L’estimation de β 1 est biaisée car sa vraie valeur est surestimée ou
sous-estime par le modèle.
 Erreur de mesure : les données ne représentent pas pleinement le phénomène. Cela
arrive lorsqu’on utilise des « proxy ».
 Erreur de fluctuation d'échantillonnage : les observations varient d'un échantillon à
l’autre provoquant des fluctuations de y autour de sa moyenne. Les estimations seront
différentes.
2.2 Hypothèses

 H1 : le modèle est linéaire en xt (ou en n’importe quelle transformation de xt).


 H2 : les valeurs xt sont observées sans erreur (xt non aléatoire).
 H3 : E(εt)= 0, l’espérance mathématique de l’erreur est nulle : en moyenne le modèle
est bien spécifié et donc l’erreur moyenne est nulle.
 H4 : E(εt²)=σ², la variance de l’erreur est constante : le risque de l’amplitude de
l’erreur est le même quelle que soit la période : homoscédasticité.
 H5 : E(εt, εh)=0 si t≠h, les erreurs sont non corrélées (ou encore indépendantes) : une
erreur à l’instant t n’a pas d’influence sur les erreurs suivantes : absence
d’autocorrélation
 H6 : E(εt, xt) = 0 , l’erreur est indépendante de la variable explicative.

3 Estimateurs des MCO des paramètres

3.1 Estimateurs pour un modèle avec constante

3.2 Estimateurs pour un modèle sans constante

La théorie économique postule parfois des relations dans lesquelles a0 = 0 : c’est le cas par
exemple pour une fonction de production de produit industriel où le facteur de production
(unique) nul entraîne une production nulle. L’estimation de a1 est alors donnée par la formule
suivante :

4 Modèle estimé

11
5 Qualité des estimateurs

Théorème de Gauss-Markov: les estimateurs des MCO sont « the Best Linear Unbiased
Estimator (BLUE) » c’est-à-dire qu’ils sont les meilleurs estimateurs linéaires sans biais.

6 Estimation de variances

Estimation de la variance des erreurs :

Estimation des variances de paramètres :

7 Adéquation du modèle
 Décomposition de la variance :

 Tableau ANOVA
Source de variation Somme des carrés Degré de liberté Carré F
moyen
Régression SCE 1 SCE
Résiduelle SCR n-2 SCR/(n-2)
Totale SCT n-1 SCT/n-1

 Coefficient de détermination :

et

12
8 Significativité
8.1 Significativité globale
1) Hypothèses du test : H0: β1=0 vs H1: β1≠0 (test bilatéral)
2) Seuil de confiance α=5%

3) Calcul de la statistique:
4) Décision
a. Si ou on rejette H0 avec un risque α=5%

o Si ou on rejette H0 au seuil α=5%


8.2 Significativité individuelle

Elle porte sur la pente de la droite de régression (β1) et l’ordonnée à l’origine (β0).

Test pour β1

1) Hypothèses du test : H0: β1=0 vs H1: β1≠0 (test bilatéral)


2) Seuil de confiance α=5%

3) Calcul de la statistique :
4) Décision
a. Si ou on rejette H0 avec un risque α=5%
b. Si ou on rejette H0 au seuil α=5%
Test pour β0
1) Hypothèses du test : H0: β0=0 vs H1: β0≠0 (test bilatéral)
2) Seuil de confiance α=5%

3) Calcul de la statistique :
4) Décision
a. Si ou on rejette H0 avec un risque α=5%
b. Si ou on rejette H0 au seuil α=5

9 Diagnostic des résidus

9.1 Hétéroscédasticité
 Définition : il y a hétéroscédasticité des résidus lorsque l’hypothèse E(ε i²) =σ² est
violée c’est-à-dire si E(εi²) ≠ σ². Ainsi E(εi²) dépend des valeurs de la variable
explicative.
 Problème : les estimateurs des paramètres sont sans biais, mais inefficaces puisque les
estimateurs de leur variance sont biaisés.

13
 Détection graphique: nuage de points des résidus normalisés en fonction des valeurs
de la variable explicative ou des valeurs prédites de la variable expliquée. Les points
du nuage décrivent un éparpillement autour de la valeur 0, sans comportement
particulier. Dans notre exemple, les résidus se situent à l’intérieur d’une bande
horizontale et les points ne présentent pas d’écart plus ou moins important à mesure
que X augmente, les erreurs sont homoscédastiques.
Rési
dus 2
norm
0
alisés x
-2

 Détection par test : plusieurs (Goldfeld-Quandt, White, Breush-Pagan et Park-


Glejser), mais nous nous limitons au test de White.
9.2 Autocorrélation des résidus
 Définition: il y a autocorrélation des résidus apparait lorsque l’hypothèse probabiliste
E(εi,εj)=0 est violée, c’est-à dire lorsque E(εi, εj)≠0.
 Détection graphique: tracé d’un nuage de points des résidus normalisés en fonction
des valeurs de la variable explicative ou des valeurs prédites de la variable expliquée:

 Détection par tests : On utilise le test de Durbin-Watson qui vérifie l’existence d’une
autocorrélation d’ordre 1 de la forme :

 Hypothèses du test
o H0 : ρ=0
o H1 : ρ≠0

 Statistique du test :
 Règle de décision: on compare le DW calculé avec les seuils d1 et d2 fournis par la
table de Durbin et Watson
o Si 0 < DW < d1 alors ρ > 0 : il y a autocorrélation positive
o Si d2 < DW < 4-d2 alors ρ = 0 : il y a absence d’autocorrélation
o Si 4-d²<DW<4 alors ρ < 0 : il y a autocorrélation négative

14
9.3 Normalité
 Problème: une non-normalité des résidus ne remet pas en cause l’équation du modèle
mais elle empêche d’estimer les intervalles de confiance des paramètres.
 Détection par tests: Jarque-Bera (applicable à de grand échantillon : n˃88) et
Shapiro-Wilk (applicable à des petits échantillons : n ≤50)
 Détection graphique: histogramme des résidus et des résidus studentisés ou nuage
de points des résidus en fonction des quantiles normalisés (courbe de Henry). Les
résidus normalement distribués si les points sont alignés selon une droite. Ainsi, tout
écart systématique indiquerait que les résidus ne sont pas normalement distribués.

Résidu
s

Quantiles normalisés

15

Vous aimerez peut-être aussi