Projet d`économétrie
Transcription
Projet d`économétrie
1 Projet d’économétrie Après avoir mis la base de données portant le nom Don130e.txt du fichier Bazen sur Eviews afin d’effectuer une analyse des variables Y et X à partir des 70 observations. Nous sommes donc amenés à répondre à ces différentes questions. Question 1 (a) Décrire les séries (analyse graphique, statistiques descriptives). Sur notre base de données, il y a deux variables Y et X tel que Y figure dans la première colonne et X figure dans la deuxième colonne. Nous allons analyser chaque variable séparément. Pour la variable Y : On a l’histogramme et les statistique s suivantes : Densité de Y 20 Series: Y Sample 1 70 Observations 70 16 Mean Median Maximum Minimum Std. Dev. Skewness Kurtosis 12 8 4 Jarque-Bera Probability 0 32 34 36 38 40 37.55140 38.14534 40.21456 30.88107 1.899688 -1.540571 5.262873 42.62427 0.000000 Y Figure 1. Analyse descriptive de la variable Y : Cette figure représente la fréquence de la distribution de notre variable en histogramme. Les valeurs pour lesquelles la variable y est le plus concentrée tournent autour de 38 Nous allons effectuer une analyse de la variable Y à partir des différentes statiques qui figurent sur le carré à côté de l’histogramme. 1. Mean représente la valeur moyenne de la variable, calculé par la variable divisée par le nombre d’observation. Dans notre cas, la moyenne de la variable Y est de 37,55140. somme de la 2. Median représente la valeur placée au milieu de la variable quand les valeurs sont en ordre croissant. La médiane , dans notre cas , est de 38,14534. 2 3. Max et Min sont les valeurs maximales et minimales de la variable. La valeur maximale est de 40 ,21456 et la valeur minimale est de 30,88107. 4. 5. Std.Dev. ( Standard deviation ) est une mesure de dispersion de la variable ou encore l’écart type . Standard déviation est donnée par : où N est le nombre d’observation et est la moyenne de la variable Y. La valeur de Standard déviation est 1.899688. 6. Skewness représente une mesure d’asymétrie de la distribution autour de la moyenne. Skewness est calculé par : où est un écart type estimé. Si la distribution est symétrique, par exemple la distribution normale, la valeur de Skewness est de zéro. Si la valeur de Skewness est positive, on dit que la distribution est étalée à droite. Si elle est négative, on dit que la distribution est étalée à gauche. On remarque que la valeur de Skewness est de -1,540571 ce qui signifie que la dispersion est étalée à gauche ( voir l’histogramme ). 7. Kurtosis mesure l’aplatissement de la distribution de la variable. Il est calculé par : La valeur de Kurtosis de la distribution normale est de 3. Dans notre cas, la valeur de Kurtosis est de 5,262873. 8. Jarque -Bera est un test statistique qui sert à tester si la distribution est normale. Les deux coefficients (Skewness et Kurtosis) permet de comparer une distribution à une distribution normale, pour cela, on pose l’hypothèse suivante : Ho : Skewness = 0 et Kurtosis -3 = 0 Pour tester cette hypothèse, on va utiliser la formule suivante : Où N est le nombre d’observation, S est la valeur de Skewness , K représente la valeur de Kurtosis et k représente le nombre de paramètres estimés. 3 Cette série statistique est distribuée selon une loi de Khi deux à 2 degrés de liberté. La table numérique de Khi deux à 2 degré de liberté nous donne la valeur critique de 5,99 à 5% d’erreur. Or dans la figure 1, la valeur de Jarque-Bera est de 42,62427 donc elle est supérieur à la valeur critique alors on rejette l’hypothèse Ho. Ce qui signifie que notre distribution de la variable Y n’est pas normale. 9. Probability est la probabilité que la valeur de Jarque-Bera dépasse la valeur critique. Si la probabilité est inférieure à 5%, on rejette l’hypothèse nulle de la distribution normale. Si la probabilité est supérieure à 5 , on accepte l’hypothèse nulle de la distribution normale. Dans notre cas , la probabilité est de 0 donc on rejette l’hypothèse nulle. Pour la variable X : On a l’histogramme et les statistiques suivantes : Densité de X 16 Series: X Sample 1 70 Observations 70 14 12 Mean Median Maximum Minimum Std. Dev. Skewness Kurtosis 10 8 6 4 2 Jarque-Bera Probability 0 28 30 32 34 32.60575 33.02296 35.16726 26.67831 1.804982 -1.438424 4.864411 34.27750 0.000000 X Figure 2. Analyse descriptive de la variable X Cette figure représente la fréquence de la distribution de notre variable en histogramme. Les valeurs pour lesquelles la variable X est le plus concentrée tournent autour de 33. Nous allons effectuer une analyse de la variable X à partir des différentes statiques qui figurent sur le carré à côté de l’histogramme. 1. La moyenne ( Mean ) de la variable X est de 32,60575. 2. La médiane ( Median) est de 33,02296. 3. Max et Min sont les valeurs maximales et minimales de la variable. La valeur maximale est de 35,16726 et la valeur minimale est de 26,67831. 4. La valeur de Standard déviation ( Std.Dev. )est 1,804982. 4 5. La valeur de Skewness est de -1.438424 ce qui signifie que la dispersion est étalée à gauche (voir l’histogramme). 6. La valeur de Kurtosis est de 4,864411. 7. Jarque -Bera est un test statistique qui sert à tester si la distribution est normale. Les deux coefficients (Skewness et Kurtosis) permet de comparer une distribution à une distribution normale, pour cela, on pose l’hypothèse suivante : Ho : Skewness = 0 et Kurtosis -3 = 0 Pour tester cette hypothèse , on va utiliser la formule suivante : Où N est le nombre d’observation , S est la valeur de Skewness , K représente la valeur de Kurtosis et k représente le nombre de paramètres estimés. Cette série statistique est distribuée selon une loi de Khi deux à 2 degrés de liberté. La table numérique de Khi deux à 2 degré de liberté nous donne la valeur critique de 5,99 à 5% d’erreur. Or dans la figure 2 , la valeur de Jarque-Bera est de 34,27750 donc elle est supérieur à la valeur critique alors on rejette l’hypothèse Ho. Ce qui signifie que notre distribution de la variable X n’est pas normale. 8. la probabilité est de 0 donc on rejette l’hypothèse nulle de la distribution normale. (b) Tester la (non) stationnarité et déterminer l’ordre d’intégration des séries Yt et Xt. Pour tester la stationnarité de nos 2 série s (Y et X) , nous allons faire appel au test de Dickey-Fuller Augmenté. A partir du test de Dickey Fuller, on a l’équation suivante : = + + (1) Si , on en conclut que la série est stationnaire ( intégrée d’ordre 0 ). Si , on dit que la série est non stationnaire (série intégrée d’ordre k à déterminer). Si , on dit que la série est explosive. k représente le nombre de fois qu’on différencie la série non stationnaire afin qu’elle devienne stationnaire. Pour effectuer ce test, on pose : H0 : H1 : A partir de l’équation (1) , on soustrait des deux côtés de l’équation : - = + - + 5 ? = + ( -1) Or on pose ? = = + + - 1 donc on a : + (2) Pour effectuer un test à partir de l’équation (2), on pose : Nous savons que suit la loi de Dickey- fuller( DF) . Si DF < DF* alors on rejette Ho en acceptant H1 , cela signifie que la série est stationnaire. Si DF > DF* alors on accepte Ho ce qui signifie que la série est non stationnaire. Le modèle est très restreint. Pour éviter le problème d’autocorrélation, on introduit une constante et deux retards dans l’équation (2) et on utilise le test de Dickey Fuller augmenté ( DFA ). Notre équation (2) devient alors : ? = + + ? + ? + (3) Nous allons poser les mêmes hypothèses : Nous savons que suit la loi de Dickey- fuller Augmenté (DFA). Nous allons effectuer une analyse statistique de chaque variable. Pour la variable Yt , on a les résultats suivants : Null Hypothesis: Y has a unit root Exogenous: Constant Lag Length: 1 (Automatic based on SIC, MAXLAG=10) Augmented Dickey-Fuller test statistic Test critical values: 1% level 5% level 10% level *MacKinnon (1996) one-sided p-values. Augmented Dickey-Fuller Test Equation Dependent Variable: D(Y) t-Statistic Prob.* -3.307561 -3.530030 -2.904848 -2.589907 0.0183 6 Method: Least Squares Date: 12/08/02 Time: 15:45 Sample(adjusted): 3 70 Included observations: 68 after adjusting endpoints Variable Coefficient Std. Error t-Statistic Prob. Y(-1) D(Y(-1)) C -0.090624 0.233761 3.485006 0.027399 0.109079 1.035837 -3.307561 2.143045 3.364435 0.0015 0.0359 0.0013 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.252749 0.229757 0.371057 8.949431 -27.53862 1.938261 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) 0.100520 0.422792 0.898195 0.996114 10.99275 0.000077 Figure 3. On remarque que la valeur de DFA est de -3,307561 (figurée en lettre gras) , elle est inférieure à la valeur critique à 5% qui est de -2,904848. Alors on rejette Ho en acceptant H1, ce qui signifie que la série Yt est stationnaire (intégrée d’ordre 0). On remarque que la probabilité est de 0,15% qui est inférieure à 5% donc on rejette Ho. On peut observer sur le graphique de notre série Y qu’elle est stationnaire : 42 Y 40 38 36 34 32 30 10 20 30 40 50 60 70 t Y Pour la variable Xt : Null Hypothesis: X has a unit root Exogenous: Constant Lag Length: 0 (Automatic based on SIC, MAXLAG=10) Augmented Dickey-Fuller test statistic Test critical values: 1% level 5% level 10% level *MacKinnon (1996) one-sided p-values. Augmented Dickey-Fuller Test Equation t-Statistic Prob.* -3.575526 -3.528515 -2.904198 -2.589562 0.0088 7 Dependent Variable: D(X) Method: Least Squares Date: 12/08/02 Time: 17:16 Sample(adjusted): 2 70 Included observations: 69 after adjusting endpoints Variable Coefficient Std. Error t-Statistic Prob. X(-1) C -0.117445 3.935666 0.032846 1.071862 -3.575526 3.671800 0.000654 0.000479 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.160236 0.1477029 0.4896560 16.064125 -47.62238 2.0407119 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) 0.108992 0.530390 1.438330 1.503086 12.78438 0.000654 Figure 4. On remarque que la valeur de DFA est de -3,575526 (figurée en lettre gras), elle est inférieure à la valeur critique à 5% qui est de -2,904198. Alors on rejette Ho en acceptant H1, ce qui signifie que la série Xt est stationnaire (intégrée d’ordre 0). On remarque que la probabilité est de 0,88% qui est inférieure à 5% donc on rejette Ho. On peut observer sur le graphique de notre série X qu’elle est stationnaire : 36 X 34 32 30 28 26 10 20 30 40 50 60 70 t X Question 2 : Estimer le modèle suivant et effectuer des statistiques de spécification (Ex. autocorrélation, …). yt = + xt + ut (4) (a) Nous allons estimer ce modèle statique ( 4 ) à l’aide du logiciel Eviews . On obtient les résultats suivants : Dependent Variable: Y Method: Least Squares 8 Date: 12/08/02 Time: 19:08 Sample: 1 70 Included observations: 70 Variable Coefficient Std. Error t-Statistic Prob. C X 3.780302 1.035741 0.740131 0.022665 5.107613 45.69742 0.0000 0.0000 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.968464 0.968000 0.339826 7.852763 -22.75865 1.802841 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) 37.55140 1.899688 0.707390 0.771633 2088.254 0.000000 Figure 5. Nous allons effectuer un test individuel. L’hypothèse nulle Ho : = 0 et =0 On sais que t* = / (se ( )) suit la loi t de student à n-k degré de liberté Où n = le nombre d’observatio n et k est le nombre de paramètre à estimer. n = 70 et k = 2. Sur le figure 5 , on remarque que la valeur de t de student pour le paramètre est de 5,107613 qui est supérieure au seuil critique à 5% ( 2 ) alors on rejette l’hypothèse nulle ce qui signifie que le paramètre est significativement différent de 0. Et aussi on trouve que la valeur de t de student pour le paramètre à 68 degré de liberté est de 45,69742 qui est supérieur au seuil critique à 5% (2) alors on rejette Ho ce qui signifie que le paramètre est significatif autrement dit la variable explicative X explique bien notre modèle. On peut aussi regarder les valeurs de la probabilité pour les deux paramètres sont inférieure à 5%, on rejette donc Ho pour les 2 paramètres. (b) Tests de spécification : On va faire les tests sur l’équation suivante : yt = + xt + ut (4) 1. Test de Normalité Ce test porte sur une série de résidu. On va tester si la distribution du résidu suit la loi normale ou non .A l’aide du test de Jarque-Bera qui est un test statistique qui sert à tester si la distribution est normale. Sur Eviews, on a le résultat suivant : 9 8 Series: Residuals Sample 1 70 Observations 70 7 6 Mean Median Maximum Minimum Std. Dev. Skewness Kurtosis 5 4 3 2 1 0 -0.75 Jarque-Bera Probability -0.50 -0.25 0.00 0.25 6.85E-15 0.031317 0.676985 -0.736939 0.337355 -0.174757 2.315193 1.724104 0.422295 0.50 Figure 6. La table numérique de Khi deux à 2 degré de liberté nous donne la valeur critique de 5,99 à 5% d’erreur. Or dans la figure 6, la valeur de Jarque-Bera est de 1,724104 donc elle est inférieure à la valeur critique alors on accepte l’hypothèse Ho. Ce qui signifie que notre distribution du résidu est normal. 2. Test d’hétéroscédasticité. C’est un test qui porte aussi sur le résidu .On va tester si la variance de notre résidu est constante ou non à l’aide du test de White. Sur Eviews, on obtient le résultat suivant : White Heteroskedasticity Test: F-statistic Obs*R-squared 0.515953 1.061758 Probability Probability 0.599284 0.588088 Test Equation: Dependent Variable: RESID^2 Method: Least Squares Date: 12/14/02 Time: 13:38 Sample: 1 70 Included observations: 70 Variable Coefficient Std. Error t-Statistic Prob. C X X^2 3.265716 -0.206391 0.003354 3.548814 0.227206 0.003625 0.920227 -0.908388 0.925139 0.3608 0.3669 0.3582 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.015168 -0.014230 0.130500 1.141034 44.75392 2.375901 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) Figure 7. 0.112182 0.129582 -1.192969 -1.096605 0.515953 0.599284 10 Test de White est un test avec une hypothèse nulle : il n’y a pas d’hétéroscédasticité. On sait que la statistique de White suit la loi de Khi- deux : W=T RT ~ [k(k+1)]/2 Où T est le nombre d’observation et k est le nombre de paramètre estimé dans al régression auxiliaire sans la constante. Si est inférieure à la valeur critique, on accepte d’hétéroscédasticité. Si Ho alors il y a absence est supérieure à la valeur critique, on rejette Ho alors il y a hétéroscédasticité. Sur la figure 7, la valeur de est de 1.061758 qui est inférieure à la valeur critique (3.84 à 1 degré de liberté et une erreur de 5 % ). On peut aussi constater que la probabilité est de 58.8088 % > à 5% alors on accepte Ho , ce qui veut dire qu’il y a pas d’hétéroscédasticité donc la variance de notre résidu est constante. 3. Test d’autocorrélation . Il porte sur le résidu. On va tester si la covariance est nulle ou non à l’aide du test de Durbin-Watson. Sur Eviews, on obtient le résultat suivant : Dependent Variable: Y Method: Least Squares Date: 12/14/02 Time: 13:04 Sample: 1 70 Included observations: 70 Variable Coefficient Std. Error t-Statistic Prob. C X 3.780302 1.035741 0.740131 0.022665 5.107613 45.69742 0.0000 0.0000 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.968464 0.968000 0.339826 7.852763 -22.75865 1.802841 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) 37.55140 1.899688 0.707390 0.771633 2088.254 0.000000 Figure 8. L’hypothèse nulle de ce test : il n’y a pas d’autocorrélation. On sais que : 11 Si DW est supérieure à la borne supérieure critique ( DW2) , on accepte Ho alors il n’y a pas d’autocorrélation. Si DW est inférieure à la borne inférieure critique (DW1) , on rejette Ho alors il y a autocorrélation. Dans la figure 8. La valeur de la statistique de Durbin-Watson est de 1,802841 qui est supérieure à la borne supérieure critique (1,64) alors on accepte Ho ce qui signifie qu’il n’y a pas d’autocorrélation. (c) Test de linéarité. On va effectuer un test de CHOW et de RAMSEY RESET sur nos 2 variables afin d’observer si nos variables sont linéaires ou non. Pour un test de CHOW On va couper nos séries en 2 périodes à la valeur 30 puisqu’on remarque que nos séries se coupent à cette valeur. Sur Eveiws , on obtient le résultat suivant : Chow Breakpoint Test: 30 F-statistic Log likelihood ratio 2.669549 5.445291 Probability Probability 0.076761 0.065701 Figure 9. Ce test consiste à détecter s’il y a un changement structurel. Pour cela, on a : yt = + xt + ut y1 = ß3 + ß4 x1 + u1 y2 = ß5 + ß6 x2 + u2 (4) T T1 T2 l’hypothèse nulle : Ho : ß2=ß4 =ß6 H1 : ß4 ? ß6 On sais que : F = ( SCRc – ( SCR1 – SCR2 ) ) /k ( SCR1 – SCR2 )/T-2k ~ F(k ; T-2k ) Si F < F* alors on accepte Ho, c'est-à-dire qu’il y a absence de changement structurel. Si F > F* alors on rejette Ho, c'est-à-dire qu’il y a changement structurel. 12 Dans la figure 9, on observe que la valeur de la statistique de Fisher set de 2.669549 qui inférieure à la valeur critique (3.15 avec V1 =2, V2=66 et à 5%). Donc on accepte Ho, ce qui signifie qu’il n’y a pas changement de structure. Donc on va raisonner sur une seule période. Pour un test de RAMSEY Ce test consiste à tester s’il y a manque de variables ou problème de formes fonctionnelles dans notre modèle. Sur Eviews , on obtient le résultat suivant : Ramsey RESET Test: F-statistic Log likelihood ratio 2.257276 4.631504 Probability Probability 0.112655 0.098692 Test Equation: Dependent Variable: Y Method: Least Squares Date: 12/14/02 Time: 16:07 Sample: 1 70 Included observations: 70 Variable Coefficient Std. Error t-Statistic Prob. C X FITTED^2 FITTED^3 6.725858 -0.354826 0.055789 -0.000684 106.4747 13.44652 0.360321 0.003326 0.063169 -0.026388 0.154832 -0.205605 0.9498 0.9790 0.8774 0.8377 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.970483 0.969141 0.333712 7.350006 -20.44290 1.753009 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) 37.55140 1.899688 0.698369 0.826854 723.3299 0.000000 Figure 10. On teste Ho sur une base d’une régression augmentée. A partir de l’équation (4) : yt = + xt + bZt + ut Où et b = [b1, b2 , b3 , … ] On va tester si b est nulle ou non. Donc on a l’hypothèse nulle suivante : Ho : b1 = b2 = b3 = ….. = 0 On remarque que la statistique de Fisher est de 2.257276 et la probabilité est de 0.112655 qui est supérie ure à 5%. Alors on accepte Ho, ce qui signifie qu’il n’y a pas de manque de variables ni problème de forme fonctionnelle dans notre modèle. 13 Question 3 : En fonction des résultats précédents , proposer pour la relation entre y et x à l’aide des tests de spécification. un modèle approprié Les résultats précédents nous permettent d’écrire la relation statique suivante : Yt = 3.780302 + 1.035741 Xt + Ut Nous allons donc construire un modèle approprié à l’aide du modèle dynamique de référence puisque le modèle statique est tout simplement un cas particulier du modèle ARE (Yt = ß1 + ß2*Yt-1 + ß3*Xt + ß4*Xt-1 + Ut). Avec ß2 =0 et ß4 = 0. Nous avons effectué le test de signification qui nous a confirmé que ces deux coefficients sont significatifs. Or nous avons aussi effectué un test de normalité selon lequel on a trouvé que notre résidu ne suit pas la loi normale. On a donc décidé d’étudier le modèle d’ajustement partiel Pour cela, on va ajouter la variable explicative suivante dans la modèle statique : Yt-1 On a donc : Yt = ß1 + ß2*Yt-1 + ß3*Xt + Ut (5) En faisant l’estimation, on remarque que R² de ce modèle est supérieur à R² du modèle statique : R-squared 0.984263 Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.983786 0.220476 3.208244 7.952450 2.284015 Modèle dynamique R-squared 0.968464 Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.968000 0.339826 7.852763 -22.75865 1.802841 Modèle statique On va tout d’abord effectuer un test de signification et en suite un test de spécification du modèle de référence. 14 (a) Estimation du modèle Sur Eviews, on a le résultat suivant : Dependent Variable: Y Method: Least Squares Date: 12/14/02 Time: 18:30 Sample(adjusted): 2 70 Included observations: 69 after adjusting endpoints Variable Coefficient Std. Error t-Statistic Prob. C Y(-1) X 3.471501 0.410979 0.573568 0.532794 0.043674 0.049961 6.515653 9.410228 11.48021 0.0000 0.0000 0.0000 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.984263 0.983786 0.220476 3.208244 7.952450 2.284015 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) 37.64807 1.731499 -0.143549 -0.046414 2064.007 0.000000 Figure 11. Test individuel de signification Dans la figure 11, on constate que la coefficient d’estimateur de la constante est significative puisque la statistique du test de t de student est supérieure à la valeur critique à 5% d’erreur qui est égale à 2 avec 67 degré de liberté. On remarque aussi que les autres coefficients sont significativement différents de zéro puisque toutes les statistiques du test de t de student sont supérieures à la valeur critique alors toutes les variables explicatives explique nt bien notre modèle. Test global de signification On constate que la probabilité de Fisher est inférieure à 5% ce qui signifie que les coefficients sont globalement significatifs. (b) Test de spécification Nous allons effectuer des tests de spécification à partir de résidu du modèle dynamique suivant : Yt = ß1 + ß2*Yt-1 + ß3*Xt + Ut (5) 15 1. Test de normalité. Sur Eviews, on obtient le résultat suivant : 8 Series: Residuals Sample 2 70 Observations 69 7 6 Mean Median Maximum Minimum Std. Dev. Skewness Kurtosis 5 4 3 2 1 Jarque-Bera Probability 0 -0.6 -0.4 -0.2 0.0 0.2 0.4 1.39E-14 -0.005661 0.575024 -0.677980 0.217210 -0.269455 3.697420 2.233353 0.327366 0.6 Figure 12. La table numérique de Khi deux à 2 degré de liberté nous donne la valeur critique de 5,99 à 5% d’erreur. Or dans la figure 12, la valeur de Jarque-Bera est de 2 ,233353 donc elle est inférieure à la valeur critique alors on accepte l’hypothèse Ho. Ce qui signifie que no tre distribution du résidu est normale. 2. Test d’hétéroscédasticité Sur Eviews, on obtient le résultat suivant : White Heteroskedasticity Test: F-statistic Obs*R-squared 0.232794 1.251698 Probability Probability 0.946733 0.939823 Test Equation: Dependent Variable: RESID^2 Method: Least Squares Date: 12/14/02 Time: 18:49 Sample: 2 70 Included observations: 69 Variable Coefficient Std. Error t-Statistic Prob. C Y(-1) Y(-1)^2 Y(-1)*X X X^2 0.223292 0.273795 -0.018013 0.033056 -0.329566 -0.013903 2.699812 0.470074 0.022925 0.045082 0.570703 0.023705 0.082706 0.582452 -0.785723 0.733235 -0.577474 -0.586508 0.9343 0.5623 0.4350 0.4661 0.5657 0.5596 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.018141 -0.059785 0.079190 0.395079 80.20905 1.651389 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) Figure 13. 0.046496 0.076924 -2.150987 -1.956717 0.232794 0.946733 16 A l’aide de la statistique de White, la valeur de est de 1.251698 qui est inférieure à la valeur critique (7,82 à [2(2+1)]/2 = 3 degré de liberté et une erreur de 5 %). On constate aussi que la probabilité est de 93,9823 % > à 5% alors on accepte Ho, ce qui veut dire qu’il y a pas d’hétéroscédasticité donc la variance de notre résidu est constante. 3.Test d’autocorrélation Nous allons effectuer un test d’autocorrélation à l’aide de la statistique de Breuschgodfrey (LM) puisqu’on a introduit un retard dans notre modèle. Eviews nous fournit le résultat suivant Breusch-Godfrey Serial Correlation LM Test: F-statistic Obs*R-squared 0.177432 0.190765 Probability Probability 0.675001 0.662281 Test Equation: Dependent Variable: RESID Method: Least Squares Date: 12/14/02 Time: 23:44 Presample missing value lagged residuals set to zero. Variable Coefficient Std. Error t-Statistic Prob. C Y(-1) X X(-1) RESID(-1) 0.078884 -0.020663 -0.000698 0.022082 0.063997 0.562896 0.086755 0.049396 0.098296 0.151930 0.140140 -0.238176 -0.014125 0.224645 0.421227 0.8890 0.8125 0.9888 0.8230 0.6750 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.002765 -0.059562 0.196755 2.477605 16.86833 2.009350 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) 1.35E-14 0.191145 -0.344010 -0.182118 0.044358 0.996188 Figure 14. Après avoir estimé un modèle (5), on en déduit un résidu à partir duquel on construit l’équation suivant : (6) Où p représente le nombre de retard de résidu introduit dans l’équation (6). L’hypothèse nulle : Ho : a1 = a2 = a3 =……= 0 17 Or on sais que : LM = T AR ~ p Où T est le nombre d’observation. Dans la figure 14, on a introduit p = 1 d’où l’hypothèse nulle est la suivante : Ho : a1 = 0 Avec LM = T AR ~ 1 La statistique de test de khi deux est de 0.190765 qui est inférieure à la valeur critique à 5 % avec 1 degré de liberté (= 3,84), alors il n’y a pas d’autocorrélation dans notre modèle. (c) Test de linéarité . On va effectuer un test de CHOW et de RAMSEY RESET sur nos 3 variables afin d’observer si nos variables sont linéaires ou non. Pour un test de CHOW On va couper nos séries en 2 périodes à la valeur 30 puisqu’on remarque que nos séries se coupent à cette valeur. Chow Breakpoint Test: 30 F-statistic Log likelihood ratio 0.280129 0.914342 Probability Probability 0.839540 0.821965 Figure 15. Ce test consiste à détecter s’il y a un changement structurel. Pour cela, on a : Yt = ß1 + ß2*Yt-1 + ß3*Xt + Ut (5) Y1 = ß3 + ß4 ( Yt-1)1 + ß5X1 + u1 Y2 = ß6 + ß7 ( Yt-1)2 + ß8X2 + u2 T T1 T2 L’hypothèse nulle : Ho : ß2=ß4=ß7 et ß3 = ß5= ß8 H1 : ß4 ? ß7 et ß5? ß8 On sais que : F = (SCRc – (SCR1 – SCR2)) /k ~ F (k ; T-2k) 18 (SCR1 – SCR2)/T-2k Si F < F* alors on accepte Ho, c'est-à-dire qu’il y a absence de changement structurel. Si F > F* alors on rejette Ho, c'est-à-dire qu’il y a changement structurel. Dans la figure 15, on observe que la valeur de la statistique de Fisher est de 0,280129 qui est inférieure à la valeur critique (2,75 avec V1 =3, V2=64 et à 5%). Donc on accepte Ho, ce qui signifie qu’il n’y a pas changement de structure. Donc on va raisonner sur une seule période. Pour un test de RAMSEY Ce test consiste à tester s’il y a manque de variables ou problème de formes fonctionnelles dans notre modèle. Sur Eviews, on obtient le résultat suivant : Ramsey RESET Test: F-statistic Log likelihood ratio 1.203966 1.266364 Probability Probability 0.276579 0.260450 Test Equation: Dependent Variable: Y Method: Least Squares Date: 12/15/02 Time: 10:58 Sample: 2 70 Included observations: 69 Variable Coefficient Std. Error t-Statistic Prob. C Y(-1) X FITTED^2 11.45991 0.194576 0.251983 0.007497 7.299776 0.201986 0.297297 0.006832 1.569899 0.963313 0.847582 1.097254 0.1213 0.3390 0.3998 0.2766 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.984549 0.983836 0.220136 3.149899 8.585632 2.343841 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) 37.64807 1.731499 -0.132917 -0.003403 1380.659 0.000000 Figure16 On teste Ho sur une base d’une régression augmentée. A partir de l’équation (4) : Yt = ß1 + ß2*Yt-1 + ß3*Xt + bZt + Ut Où et b = [b1, b2, b3, …] On va tester si b est nulle ou non. Donc on une hypothèse nulle suivante : Ho : b1 = b2 = b3 = ….. = 0 19 On remarque que la statistique de Fisher est de 1.203966 et la probabilité est de 0.276579 qui est supérieure à 5% alors on accepte Ho, ce qui signifie qu’il n’y a pas de manque de variables ni problème de forme fonctionnelle dans notre modèle. En conclusion et en fonction des résultats précédents, notre modèle approprié est un modèle d’ajustement partiel qui est un cas particulier du modèle ARE. On a donc introduit une seule variable retardée dans notre modèle statique, on obtient le modèle approprié suivant : Yt = 3.471501449 + 0.410978965*Yt-1 + 0.573568205*Xt Question 4 : Quelles conclusions tirez-vous de la comparaison des relations de courte et longue période ? Notre relation à court terme est alors : Yt = 3.471501449 + 0.410978965*Yt-1 + 0.573568205*Xt (CT) On va chercher la relation à long terme à partir du régime stationnaire : Y* = ß1/1- ß2 + (ß3/1- ß2) X* Or ß1/1- ß2 = 3.471501449 / 1-0.410978965 = 5,89367992 Et ß3/1- ß2 = 0.573568205 / 1-0.410978965 = 0,97376523 Notre relation à long terme du régime stationnaire : Y* = 5,89367992 + 0,97376523 X* (LT) A long terme, notre relation (CT) se transforme en relation (LT) puisque le régime stationnaire nous impose que Yt-1 = Yt =Y* et Xt = X*. Notre relation à court terme est en forme du modèle d’ajustement partiel avec un retard. €€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€€