Projet d`économétrie

Transcription

Projet d`économétrie
1
Projet d’économétrie
Après avoir mis la base de données portant le nom Don130e.txt du fichier Bazen sur
Eviews afin d’effectuer une analyse des variables Y et X à partir des 70 observations. Nous
sommes donc amenés à répondre à ces différentes questions.
Question 1
(a) Décrire les séries (analyse graphique, statistiques descriptives).
Sur notre base de données, il y a deux variables Y et X tel que Y figure dans la
première colonne et X figure dans la deuxième colonne. Nous allons analyser chaque
variable séparément.
Pour la variable Y :
On a l’histogramme et les statistique s suivantes :
Densité de Y
20
Series: Y
Sample 1 70
Observations 70
16
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
12
8
4
Jarque-Bera
Probability
0
32
34
36
38
40
37.55140
38.14534
40.21456
30.88107
1.899688
-1.540571
5.262873
42.62427
0.000000
Y
Figure 1.
Analyse descriptive de la variable Y :
Cette figure représente la fréquence de la distribution de notre variable en
histogramme. Les valeurs pour lesquelles la variable y est le plus concentrée tournent
autour de 38
Nous allons effectuer une analyse de la variable Y à partir des différentes statiques qui
figurent sur le carré à côté de l’histogramme.
1. Mean représente la valeur moyenne de la variable, calculé par la
variable divisée par le nombre d’observation.
Dans notre cas, la moyenne de la variable Y est de 37,55140.
somme de la
2. Median représente la valeur placée au milieu de la variable quand les valeurs sont
en ordre croissant.
La médiane , dans notre cas , est de 38,14534.
2
3. Max et Min sont les valeurs maximales et minimales de la variable. La valeur
maximale est de 40 ,21456 et la valeur minimale est de 30,88107.
4.
5. Std.Dev. ( Standard deviation ) est une mesure de dispersion de la variable ou
encore l’écart type . Standard déviation est donnée par :
où N est le nombre d’observation et
est la moyenne de la variable Y.
La valeur de Standard déviation est 1.899688.
6. Skewness représente une mesure d’asymétrie de la distribution autour de la
moyenne. Skewness est calculé par :
où
est un écart type estimé.
Si la distribution est symétrique, par exemple la distribution normale, la valeur de
Skewness est de zéro.
Si la valeur de Skewness est positive, on dit que la distribution est étalée à droite.
Si elle est négative, on dit que la distribution est étalée à gauche.
On remarque que la valeur de Skewness est de -1,540571 ce qui signifie que la
dispersion est étalée à gauche ( voir l’histogramme ).
7. Kurtosis mesure l’aplatissement de la distribution de la variable. Il est calculé
par :
La valeur de Kurtosis de la distribution normale est de 3. Dans notre cas, la valeur
de Kurtosis est de 5,262873.
8. Jarque -Bera est un test statistique qui sert à tester si la distribution est normale.
Les deux coefficients (Skewness et Kurtosis) permet de comparer une distribution
à une distribution normale, pour cela, on pose l’hypothèse suivante :
Ho : Skewness = 0 et Kurtosis -3 = 0
Pour tester cette hypothèse, on va utiliser la formule suivante :
Où N est le nombre d’observation, S est la valeur de Skewness , K représente la
valeur de Kurtosis et k représente le nombre de paramètres estimés.
3
Cette série statistique est distribuée selon une loi de Khi deux à 2 degrés de
liberté.
La table numérique de Khi deux à 2 degré de liberté nous donne la valeur critique
de 5,99 à 5% d’erreur. Or dans la figure 1, la valeur de Jarque-Bera est de
42,62427 donc elle est supérieur à la valeur critique alors on rejette l’hypothèse
Ho. Ce qui signifie que notre distribution de la variable Y n’est pas normale.
9. Probability est la probabilité que la valeur de Jarque-Bera dépasse la valeur
critique.
Si la probabilité est inférieure à 5%, on rejette l’hypothèse nulle de la distribution
normale.
Si la probabilité est supérieure à 5 , on accepte l’hypothèse nulle de la distribution
normale. Dans notre cas , la probabilité est de 0 donc on rejette l’hypothèse nulle.
Pour la variable X :
On a l’histogramme et les statistiques suivantes :
Densité de X
16
Series: X
Sample 1 70
Observations 70
14
12
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
10
8
6
4
2
Jarque-Bera
Probability
0
28
30
32
34
32.60575
33.02296
35.16726
26.67831
1.804982
-1.438424
4.864411
34.27750
0.000000
X
Figure 2.
Analyse descriptive de la variable X
Cette figure représente la fréquence de la distribution de notre variable en
histogramme. Les valeurs pour lesquelles la variable X est le plus concentrée tournent
autour de 33.
Nous allons effectuer une analyse de la variable X à partir des différentes statiques qui
figurent sur le carré à côté de l’histogramme.
1. La moyenne ( Mean ) de la variable X est de 32,60575.
2. La médiane ( Median) est de 33,02296.
3. Max et Min sont les valeurs maximales et minimales de la variable.
La valeur maximale est de 35,16726 et la valeur minimale est de 26,67831.
4. La valeur de Standard déviation ( Std.Dev. )est 1,804982.
4
5. La valeur de Skewness est de -1.438424 ce qui signifie que la dispersion est étalée
à gauche (voir l’histogramme).
6. La valeur de Kurtosis est de 4,864411.
7. Jarque -Bera est un test statistique qui sert à tester si la distribution est normale.
Les deux coefficients (Skewness et Kurtosis) permet de comparer une distribution
à une distribution normale, pour cela, on pose l’hypothèse suivante :
Ho : Skewness = 0 et Kurtosis -3 = 0
Pour tester cette hypothèse , on va utiliser la formule suivante :
Où N est le nombre d’observation , S est la valeur de Skewness , K représente la
valeur de Kurtosis et k représente le nombre de paramètres estimés.
Cette série statistique est distribuée selon une loi de Khi deux à 2 degrés de liberté.
La table numérique de Khi deux à 2 degré de liberté nous donne la valeur critique
de 5,99 à 5% d’erreur. Or dans la figure 2 , la valeur de Jarque-Bera est de
34,27750 donc elle est supérieur à la valeur critique alors on rejette l’hypothèse
Ho. Ce qui signifie que notre distribution de la variable X n’est pas normale.
8. la probabilité est de 0 donc on rejette l’hypothèse nulle de la distribution normale.
(b) Tester la (non) stationnarité et déterminer l’ordre d’intégration des séries Yt et Xt.
Pour tester la stationnarité de nos 2 série s (Y et X) , nous allons faire appel au test de
Dickey-Fuller Augmenté.
A partir du test de Dickey Fuller, on a l’équation suivante :
=
+
+
(1)
Si
, on en conclut que la série est stationnaire ( intégrée d’ordre 0 ).
Si
, on dit que la série est non stationnaire (série intégrée d’ordre k à
déterminer).
Si
, on dit que la série est explosive.
k représente le nombre de fois qu’on différencie la série non stationnaire afin qu’elle
devienne stationnaire.
Pour effectuer ce test, on pose :
H0 :
H1 :
A partir de l’équation (1) , on soustrait
des deux côtés de l’équation :
-
=
+
-
+
5
?
=
+ ( -1)
Or on pose
?
=
=
+
+
- 1 donc on a :
+
(2)
Pour effectuer un test à partir de l’équation (2), on pose :
Nous savons que
suit la loi de Dickey- fuller( DF) .
Si DF < DF* alors on rejette Ho en acceptant H1 , cela signifie que la série est
stationnaire.
Si DF > DF* alors on accepte Ho ce qui signifie que la série est non stationnaire.
Le modèle est très restreint. Pour éviter le problème d’autocorrélation, on introduit une
constante et deux retards dans l’équation (2) et on utilise le test de Dickey Fuller
augmenté ( DFA ).
Notre équation (2) devient alors :
?
=
+
+
?
+
?
+
(3)
Nous allons poser les mêmes hypothèses :
Nous savons que
suit la loi de Dickey- fuller Augmenté (DFA).
Nous allons effectuer une analyse statistique de chaque variable.
Pour la variable Yt , on a les résultats suivants :
Null Hypothesis: Y has a unit root
Exogenous: Constant
Lag Length: 1 (Automatic based on SIC, MAXLAG=10)
Augmented Dickey-Fuller test statistic
Test critical values:
1% level
5% level
10% level
*MacKinnon (1996) one-sided p-values.
Augmented Dickey-Fuller Test Equation
Dependent Variable: D(Y)
t-Statistic
Prob.*
-3.307561
-3.530030
-2.904848
-2.589907
0.0183
6
Method: Least Squares
Date: 12/08/02 Time: 15:45
Sample(adjusted): 3 70
Included observations: 68 after adjusting endpoints
Variable
Coefficient Std. Error
t-Statistic
Prob.
Y(-1)
D(Y(-1))
C
-0.090624
0.233761
3.485006
0.027399
0.109079
1.035837
-3.307561
2.143045
3.364435
0.0015
0.0359
0.0013
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.252749
0.229757
0.371057
8.949431
-27.53862
1.938261
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
0.100520
0.422792
0.898195
0.996114
10.99275
0.000077
Figure 3.
On remarque que la valeur de DFA est de -3,307561 (figurée en lettre gras) , elle est
inférieure à la valeur critique à 5% qui est de -2,904848. Alors on rejette Ho en
acceptant H1, ce qui signifie que la série Yt est stationnaire (intégrée d’ordre 0). On
remarque que la probabilité est de 0,15% qui est inférieure à 5% donc on rejette Ho.
On peut observer sur le graphique de notre série Y qu’elle est stationnaire :
42
Y
40
38
36
34
32
30
10
20
30
40
50
60
70 t
Y
Pour la variable Xt :
Null Hypothesis: X has a unit root
Exogenous: Constant
Lag Length: 0 (Automatic based on SIC, MAXLAG=10)
Augmented Dickey-Fuller test statistic
Test critical values:
1% level
5% level
10% level
*MacKinnon (1996) one-sided p-values.
Augmented Dickey-Fuller Test Equation
t-Statistic
Prob.*
-3.575526
-3.528515
-2.904198
-2.589562
0.0088
7
Dependent Variable: D(X)
Method: Least Squares
Date: 12/08/02 Time: 17:16
Sample(adjusted): 2 70
Included observations: 69 after adjusting endpoints
Variable
Coefficient Std. Error
t-Statistic
Prob.
X(-1)
C
-0.117445
3.935666
0.032846
1.071862
-3.575526
3.671800
0.000654
0.000479
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.160236
0.1477029
0.4896560
16.064125
-47.62238
2.0407119
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
0.108992
0.530390
1.438330
1.503086
12.78438
0.000654
Figure 4.
On remarque que la valeur de DFA est de -3,575526 (figurée en lettre gras), elle est
inférieure à la valeur critique à 5% qui est de -2,904198. Alors on rejette Ho en
acceptant H1, ce qui signifie que la série Xt est stationnaire (intégrée d’ordre 0). On
remarque que la probabilité est de 0,88% qui est inférieure à 5% donc on rejette Ho.
On peut observer sur le graphique de notre série X qu’elle est stationnaire :
36 X
34
32
30
28
26
10
20
30
40
50
60
70
t
X
Question 2 : Estimer le modèle suivant et effectuer des statistiques de spécification (Ex.
autocorrélation, …).
yt =
+
xt + ut
(4)
(a) Nous allons estimer ce modèle statique ( 4 ) à l’aide du logiciel Eviews .
On obtient les résultats suivants :
Dependent Variable: Y
Method: Least Squares
8
Date: 12/08/02 Time: 19:08
Sample: 1 70
Included observations: 70
Variable
Coefficient Std. Error
t-Statistic
Prob.
C
X
3.780302
1.035741
0.740131
0.022665
5.107613
45.69742
0.0000
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.968464
0.968000
0.339826
7.852763
-22.75865
1.802841
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
37.55140
1.899688
0.707390
0.771633
2088.254
0.000000
Figure 5.
Nous allons effectuer un test individuel.
L’hypothèse nulle Ho :
= 0 et
=0
On sais que t* =
/ (se ( )) suit la loi t de student à n-k degré de liberté
Où n = le nombre d’observatio n et k est le nombre de paramètre à estimer.
n = 70 et k = 2.
Sur le figure 5 , on remarque que la valeur de t de student pour le paramètre est de
5,107613 qui est supérieure au seuil critique à 5% ( 2 ) alors on rejette l’hypothèse
nulle ce qui signifie que le paramètre
est significativement différent de 0. Et aussi
on trouve que la valeur de t de student pour le paramètre
à 68 degré de liberté est
de 45,69742 qui est supérieur au seuil critique à 5% (2) alors on rejette Ho ce qui
signifie que le paramètre
est significatif autrement dit la variable explicative X
explique bien notre modèle.
On peut aussi regarder les valeurs de la probabilité pour les deux paramètres sont
inférieure à 5%, on rejette donc Ho pour les 2 paramètres.
(b) Tests de spécification :
On va faire les tests sur l’équation suivante :
yt =
+
xt + ut
(4)
1. Test de Normalité
Ce test porte sur une série de résidu. On va tester si la distribution du résidu suit la loi
normale ou non .A l’aide du test de Jarque-Bera qui est un test statistique qui sert à
tester si la distribution est normale.
Sur Eviews, on a le résultat suivant :
9
8
Series: Residuals
Sample 1 70
Observations 70
7
6
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
5
4
3
2
1
0
-0.75
Jarque-Bera
Probability
-0.50
-0.25
0.00
0.25
6.85E-15
0.031317
0.676985
-0.736939
0.337355
-0.174757
2.315193
1.724104
0.422295
0.50
Figure 6.
La table numérique de Khi deux à 2 degré de liberté nous donne la valeur critique de
5,99 à 5% d’erreur. Or dans la figure 6, la valeur de Jarque-Bera est de 1,724104 donc
elle est inférieure à la valeur critique alors on accepte l’hypothèse Ho. Ce qui signifie
que notre distribution du résidu est normal.
2. Test d’hétéroscédasticité.
C’est un test qui porte aussi sur le résidu .On va tester si la variance de notre résidu est
constante ou non à l’aide du test de White.
Sur Eviews, on obtient le résultat suivant :
White Heteroskedasticity Test:
F-statistic
Obs*R-squared
0.515953
1.061758
Probability
Probability
0.599284
0.588088
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 12/14/02 Time: 13:38
Sample: 1 70
Included observations: 70
Variable
Coefficient Std. Error
t-Statistic
Prob.
C
X
X^2
3.265716
-0.206391
0.003354
3.548814
0.227206
0.003625
0.920227
-0.908388
0.925139
0.3608
0.3669
0.3582
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.015168
-0.014230
0.130500
1.141034
44.75392
2.375901
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
Figure 7.
0.112182
0.129582
-1.192969
-1.096605
0.515953
0.599284
10
Test de White est un test avec une hypothèse nulle : il n’y a pas d’hétéroscédasticité.
On sait que la statistique de White suit la loi de Khi- deux :
W=T
RT
~
[k(k+1)]/2
Où T est le nombre d’observation et k est le nombre de paramètre estimé dans al
régression auxiliaire sans la constante.
Si
est inférieure à la valeur critique, on accepte
d’hétéroscédasticité.
Si
Ho alors il y a absence
est supérieure à la valeur critique, on rejette Ho alors il y a hétéroscédasticité.
Sur la figure 7, la valeur de
est de 1.061758 qui est inférieure à la valeur critique
(3.84 à 1 degré de liberté et une erreur de 5 % ). On peut aussi constater que la
probabilité est de 58.8088 % > à 5% alors on accepte Ho , ce qui veut dire qu’il y a
pas d’hétéroscédasticité donc la variance de notre résidu est constante.
3. Test d’autocorrélation .
Il porte sur le résidu. On va tester si la covariance est nulle ou non à l’aide du test de
Durbin-Watson.
Sur Eviews, on obtient le résultat suivant :
Dependent Variable: Y
Method: Least Squares
Date: 12/14/02 Time: 13:04
Sample: 1 70
Included observations: 70
Variable
Coefficient Std. Error
t-Statistic
Prob.
C
X
3.780302
1.035741
0.740131
0.022665
5.107613
45.69742
0.0000
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.968464
0.968000
0.339826
7.852763
-22.75865
1.802841
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
37.55140
1.899688
0.707390
0.771633
2088.254
0.000000
Figure 8.
L’hypothèse nulle de ce test : il n’y a pas d’autocorrélation. On sais que :
11
Si DW est supérieure à la borne supérieure critique ( DW2) , on accepte Ho alors il
n’y a pas d’autocorrélation.
Si DW est inférieure à la borne inférieure critique (DW1) , on rejette Ho alors il y a
autocorrélation.
Dans la figure 8. La valeur de la statistique de Durbin-Watson est de 1,802841 qui est
supérieure à la borne supérieure critique (1,64) alors on accepte Ho ce qui signifie
qu’il n’y a pas d’autocorrélation.
(c) Test de linéarité.
On va effectuer un test de CHOW et de RAMSEY RESET sur nos 2 variables afin
d’observer si nos variables sont linéaires ou non.
Pour un test de CHOW
On va couper nos séries en 2 périodes à la valeur 30 puisqu’on remarque que nos
séries se coupent à cette valeur.
Sur Eveiws , on obtient le résultat suivant :
Chow Breakpoint Test: 30
F-statistic
Log likelihood ratio
2.669549
5.445291
Probability
Probability
0.076761
0.065701
Figure 9.
Ce test consiste à détecter s’il y a un changement structurel. Pour cela, on a :
yt =
+
xt + ut
y1 = ß3 + ß4 x1 + u1
y2 = ß5 + ß6 x2 + u2
(4)
T
T1
T2
l’hypothèse nulle : Ho : ß2=ß4 =ß6
H1 : ß4 ? ß6
On sais que :
F = ( SCRc – ( SCR1 – SCR2 ) ) /k
( SCR1 – SCR2 )/T-2k
~
F(k ; T-2k )
Si F < F* alors on accepte Ho, c'est-à-dire qu’il y a absence de changement structurel.
Si F > F* alors on rejette Ho, c'est-à-dire qu’il y a changement structurel.
12
Dans la figure 9, on observe que la valeur de la statistique de Fisher set de 2.669549
qui inférieure à la valeur critique (3.15 avec V1 =2, V2=66 et à 5%). Donc on accepte
Ho, ce qui signifie qu’il n’y a pas changement de structure. Donc on va raisonner sur
une seule période.
Pour un test de RAMSEY
Ce test consiste à tester s’il y a manque de variables ou problème de formes
fonctionnelles dans notre modèle.
Sur Eviews , on obtient le résultat suivant :
Ramsey RESET Test:
F-statistic
Log likelihood ratio
2.257276
4.631504
Probability
Probability
0.112655
0.098692
Test Equation:
Dependent Variable: Y
Method: Least Squares
Date: 12/14/02 Time: 16:07
Sample: 1 70
Included observations: 70
Variable
Coefficient Std. Error
t-Statistic
Prob.
C
X
FITTED^2
FITTED^3
6.725858
-0.354826
0.055789
-0.000684
106.4747
13.44652
0.360321
0.003326
0.063169
-0.026388
0.154832
-0.205605
0.9498
0.9790
0.8774
0.8377
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.970483
0.969141
0.333712
7.350006
-20.44290
1.753009
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
37.55140
1.899688
0.698369
0.826854
723.3299
0.000000
Figure 10.
On teste Ho sur une base d’une régression augmentée. A partir de l’équation (4) :
yt = +
xt + bZt + ut
Où
et b = [b1, b2 , b3 , … ]
On va tester si b est nulle ou non. Donc on a l’hypothèse nulle suivante :
Ho : b1 = b2 = b3 = ….. = 0
On remarque que la statistique de Fisher est de 2.257276 et la probabilité est de
0.112655 qui est supérie ure à 5%. Alors on accepte Ho, ce qui signifie qu’il n’y a pas
de manque de variables ni problème de forme fonctionnelle dans notre modèle.
13
Question 3 : En fonction des résultats précédents , proposer
pour la relation entre y et x à l’aide des tests de spécification.
un modèle approprié
Les résultats précédents nous permettent d’écrire la relation statique suivante :
Yt = 3.780302 + 1.035741 Xt + Ut
Nous allons donc construire un modèle approprié à l’aide du modèle dynamique de
référence puisque le modèle statique est tout simplement un cas particulier du modèle
ARE (Yt = ß1 + ß2*Yt-1 + ß3*Xt + ß4*Xt-1 + Ut). Avec ß2 =0 et ß4 = 0.
Nous avons effectué le test de signification qui nous a confirmé que ces deux
coefficients sont significatifs. Or nous avons aussi effectué un test de normalité selon
lequel on a trouvé que notre résidu ne suit pas la loi normale. On a donc décidé
d’étudier le modèle d’ajustement partiel
Pour cela, on va ajouter la variable explicative suivante dans la modèle statique : Yt-1
On a donc :
Yt = ß1 + ß2*Yt-1 + ß3*Xt + Ut
(5)
En faisant l’estimation, on remarque que R² de ce modèle est supérieur à R² du modèle
statique :
R-squared
0.984263
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.983786
0.220476
3.208244
7.952450
2.284015
Modèle dynamique
R-squared
0.968464
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.968000
0.339826
7.852763
-22.75865
1.802841
Modèle statique
On va tout d’abord effectuer un test de signification et en suite un test de spécification
du modèle de référence.
14
(a) Estimation du modèle
Sur Eviews, on a le résultat suivant :
Dependent Variable: Y
Method: Least Squares
Date: 12/14/02 Time: 18:30
Sample(adjusted): 2 70
Included observations: 69 after adjusting endpoints
Variable
Coefficient Std. Error
t-Statistic
Prob.
C
Y(-1)
X
3.471501
0.410979
0.573568
0.532794
0.043674
0.049961
6.515653
9.410228
11.48021
0.0000
0.0000
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.984263
0.983786
0.220476
3.208244
7.952450
2.284015
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
37.64807
1.731499
-0.143549
-0.046414
2064.007
0.000000
Figure 11.
Test individuel de signification
Dans la figure 11, on constate que la coefficient d’estimateur de la constante est
significative puisque la statistique du test de t de student est supérieure à la valeur
critique à 5% d’erreur qui est égale à 2 avec 67 degré de liberté. On remarque aussi
que les autres coefficients sont significativement différents de zéro puisque toutes les
statistiques du test de t de student sont supérieures à la valeur critique alors toutes les
variables explicatives explique nt bien notre modèle.
Test global de signification
On constate que la probabilité de Fisher est inférieure à 5% ce qui signifie que les
coefficients sont globalement significatifs.
(b) Test de spécification
Nous allons effectuer des tests de spécification à partir de résidu du modèle
dynamique suivant :
Yt = ß1 + ß2*Yt-1 + ß3*Xt + Ut
(5)
15
1. Test de normalité.
Sur Eviews, on obtient le résultat suivant :
8
Series: Residuals
Sample 2 70
Observations 69
7
6
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
5
4
3
2
1
Jarque-Bera
Probability
0
-0.6
-0.4
-0.2
0.0
0.2
0.4
1.39E-14
-0.005661
0.575024
-0.677980
0.217210
-0.269455
3.697420
2.233353
0.327366
0.6
Figure 12.
La table numérique de Khi deux à 2 degré de liberté nous donne la valeur critique de
5,99 à 5% d’erreur. Or dans la figure 12, la valeur de Jarque-Bera est de 2 ,233353
donc elle est inférieure à la valeur critique alors on accepte l’hypothèse Ho. Ce qui
signifie que no tre distribution du résidu est normale.
2. Test d’hétéroscédasticité
Sur Eviews, on obtient le résultat suivant :
White Heteroskedasticity Test:
F-statistic
Obs*R-squared
0.232794
1.251698
Probability
Probability
0.946733
0.939823
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 12/14/02 Time: 18:49
Sample: 2 70
Included observations: 69
Variable
Coefficient Std. Error
t-Statistic
Prob.
C
Y(-1)
Y(-1)^2
Y(-1)*X
X
X^2
0.223292
0.273795
-0.018013
0.033056
-0.329566
-0.013903
2.699812
0.470074
0.022925
0.045082
0.570703
0.023705
0.082706
0.582452
-0.785723
0.733235
-0.577474
-0.586508
0.9343
0.5623
0.4350
0.4661
0.5657
0.5596
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.018141
-0.059785
0.079190
0.395079
80.20905
1.651389
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
Figure 13.
0.046496
0.076924
-2.150987
-1.956717
0.232794
0.946733
16
A l’aide de la statistique de White, la valeur de
est de 1.251698 qui est inférieure à la
valeur critique (7,82 à [2(2+1)]/2 = 3 degré de liberté et une erreur de 5 %). On constate
aussi que la probabilité est de 93,9823 % > à 5% alors on accepte Ho, ce qui veut dire qu’il
y a pas d’hétéroscédasticité donc la variance de notre résidu est constante.
3.Test d’autocorrélation
Nous allons effectuer un test d’autocorrélation à l’aide de la statistique de Breuschgodfrey (LM) puisqu’on a introduit un retard dans notre modèle.
Eviews nous fournit le résultat suivant
Breusch-Godfrey Serial Correlation LM Test:
F-statistic
Obs*R-squared
0.177432
0.190765
Probability
Probability
0.675001
0.662281
Test Equation:
Dependent Variable: RESID
Method: Least Squares
Date: 12/14/02 Time: 23:44
Presample missing value lagged residuals set to zero.
Variable
Coefficient Std. Error
t-Statistic
Prob.
C
Y(-1)
X
X(-1)
RESID(-1)
0.078884
-0.020663
-0.000698
0.022082
0.063997
0.562896
0.086755
0.049396
0.098296
0.151930
0.140140
-0.238176
-0.014125
0.224645
0.421227
0.8890
0.8125
0.9888
0.8230
0.6750
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.002765
-0.059562
0.196755
2.477605
16.86833
2.009350
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
1.35E-14
0.191145
-0.344010
-0.182118
0.044358
0.996188
Figure 14.
Après avoir estimé un modèle (5), on en déduit un résidu à partir duquel on construit
l’équation suivant :
(6)
Où p représente le nombre de retard de résidu introduit dans l’équation (6).
L’hypothèse nulle : Ho : a1 =
a2 = a3 =……= 0
17
Or on sais que :
LM = T
AR
~
p
Où T est le nombre d’observation.
Dans la figure 14, on a introduit p = 1 d’où l’hypothèse nulle est la suivante :
Ho : a1 = 0
Avec
LM = T
AR
~
1
La statistique de test de khi deux est de 0.190765 qui est inférieure à la valeur critique
à 5 % avec 1 degré de liberté (= 3,84), alors il n’y a pas d’autocorrélation dans notre
modèle.
(c) Test de linéarité .
On va effectuer un test de CHOW et de RAMSEY RESET sur nos 3 variables afin
d’observer si nos variables sont linéaires ou non.
Pour un test de CHOW
On va couper nos séries en 2 périodes à la valeur 30 puisqu’on remarque que nos
séries se coupent à cette valeur.
Chow Breakpoint Test: 30
F-statistic
Log likelihood ratio
0.280129
0.914342
Probability
Probability
0.839540
0.821965
Figure 15.
Ce test consiste à détecter s’il y a un changement structurel. Pour cela, on a :
Yt = ß1 + ß2*Yt-1 + ß3*Xt + Ut
(5)
Y1 = ß3 + ß4 ( Yt-1)1 + ß5X1 + u1
Y2 = ß6 + ß7 ( Yt-1)2 + ß8X2 + u2
T
T1
T2
L’hypothèse nulle : Ho : ß2=ß4=ß7 et ß3 = ß5= ß8
H1 : ß4 ? ß7
et ß5? ß8
On sais que :
F = (SCRc – (SCR1 – SCR2)) /k
~
F (k ; T-2k)
18
(SCR1 – SCR2)/T-2k
Si F < F* alors on accepte Ho, c'est-à-dire qu’il y a absence de changement structurel.
Si F > F* alors on rejette Ho, c'est-à-dire qu’il y a changement structurel.
Dans la figure 15, on observe que la valeur de la statistique de Fisher est de 0,280129
qui est inférieure à la valeur critique (2,75 avec V1 =3, V2=64 et à 5%). Donc on
accepte Ho, ce qui signifie qu’il n’y a pas changement de structure. Donc on va
raisonner sur une seule période.
Pour un test de RAMSEY
Ce test consiste à tester s’il y a manque de variables ou problème de formes
fonctionnelles dans notre modèle.
Sur Eviews, on obtient le résultat suivant :
Ramsey RESET Test:
F-statistic
Log likelihood ratio
1.203966
1.266364
Probability
Probability
0.276579
0.260450
Test Equation:
Dependent Variable: Y
Method: Least Squares
Date: 12/15/02 Time: 10:58
Sample: 2 70
Included observations: 69
Variable
Coefficient Std. Error
t-Statistic
Prob.
C
Y(-1)
X
FITTED^2
11.45991
0.194576
0.251983
0.007497
7.299776
0.201986
0.297297
0.006832
1.569899
0.963313
0.847582
1.097254
0.1213
0.3390
0.3998
0.2766
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.984549
0.983836
0.220136
3.149899
8.585632
2.343841
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
37.64807
1.731499
-0.132917
-0.003403
1380.659
0.000000
Figure16
On teste Ho sur une base d’une régression augmentée.
A partir de l’équation (4) : Yt = ß1 + ß2*Yt-1 + ß3*Xt + bZt + Ut
Où
et b = [b1, b2, b3, …]
On va tester si b est nulle ou non. Donc on une hypothèse nulle suivante :
Ho : b1 = b2 = b3 = ….. = 0
19
On remarque que la statistique de Fisher est de 1.203966 et la probabilité est de
0.276579 qui est supérieure à 5% alors on accepte Ho, ce qui signifie qu’il n’y a pas
de manque de variables ni problème de forme fonctionnelle dans notre modèle.
En conclusion et en fonction des résultats précédents, notre modèle approprié est un
modèle d’ajustement partiel qui est un cas particulier du modèle ARE.
On a donc introduit une seule variable retardée dans notre modèle statique, on obtient
le modèle approprié suivant :
Yt = 3.471501449 + 0.410978965*Yt-1 + 0.573568205*Xt
Question 4 : Quelles conclusions tirez-vous de la comparaison des relations de courte et
longue période ?
Notre relation à court terme est alors :
Yt = 3.471501449 + 0.410978965*Yt-1 + 0.573568205*Xt (CT)
On va chercher la relation à long terme à partir du régime stationnaire :
Y* = ß1/1- ß2 + (ß3/1- ß2) X*
Or ß1/1- ß2 = 3.471501449 / 1-0.410978965 = 5,89367992
Et ß3/1- ß2 = 0.573568205 / 1-0.410978965 = 0,97376523
Notre relation à long terme du régime stationnaire :
Y* = 5,89367992 + 0,97376523 X*
(LT)
A long terme, notre relation (CT) se transforme en relation (LT) puisque le régime
stationnaire nous impose que Yt-1 = Yt =Y* et Xt = X*.
Notre relation à court terme est en forme du modèle d’ajustement partiel avec un
retard.
€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€