Lignes de commandes initiales : fichier « .xls
Transcription
Lignes de commandes initiales : fichier « .xls
Lignes de commandes initiales : fichier « .xls » La dernière version de Grocer permet d’importer directement des fichiers « .xls » pour les transformer en fichier « .dat » lines(0); chdir('C:\grocer'); readxls2bd('C:\grocer\ofce.xls','C:\grocer\ofce.dat'); load('C:\grocer\ofce.dat'); Ces quatre programmes permettent d’initialiser le programme. Voici leur signification respective : lines(0) : initialise les lignes de programmation. chdir : indique à Scilab le chemin de direction. A noter que lorsque l’on n’a pas pu créer le fichier « grocer » dans le disque local C : , il suffit juste de spécifier à grocer le nouveau. Par exemple, « c:\Documents and Settings\Paul\Mes documents\grocer » readxls2bd : permet d’importer des données « .xls » sous Excel et le transforme en fichier « .dat » utilisé par Scilab. load : permet de charger les données pour son utilisation sous Grocer. Commandes de base : bounds('1991m4','2007m12'); limite la date de début et de fin de l’échantillon. prtts('LIPI','IS_CONF'); permet d’afficher les séries sur le console. pltseries('LIPI', 'title = evolution LIPI'); donne le graphique de la série PIB y=growthr(x); calcule le taux de croissance de la variable x y=lagts(1,x); donne la série x avec un retard : x t −1 y=lagts(2,x); donne la série x avec deux retard : xt − 2 y=delts(1,x); donne la série x en différence première : xt − xt −1 y=delts(4,x); donne la série x en différence quatrième : xt − xt − 4 y=m2q(x,ind); transforme des données mensuelles x en données trimestrielles avec ind = -1 si les données trimestrielles sont la somme des mois correspondant. 0 si les données trimestrielles sont la moyenne des mois correspondant. 1 si les données trimestrielles sont la valeur du 1er mois 2 si les données trimestrielles sont la valeur du 2ème mois 3 si les données trimestrielles sont la valeur du 3ème mois y=q2a(x,ind); transforme des données trimestrielles x en données annuelles avec ind = -1 si les données annuelles sont la somme des trimestres correspondant. 0 si les données annuelles sont la moyenne des trimestres correspondant. 1 si les données annuelles sont la valeur du 1er trimestre. 2 si les données annuelles sont la valeur du 2ème trimestre. 3 si les données annuelles sont la valeur du 3ème trimestre. 4 si les données annuelles sont la valeur du 4ème trimestre. Etude des séries : pltseries('LIPI', 'title = evolution LIPI'); donne le graphique de la série PIB y=mean(x); calcule la moyenne de la variable x. sd=st_dev(x); calcule l’écart type de la variable x. r=des_stat('LIPI'); donne la description statistique de la variable PIB. resacf=acf('LIPI'); donne la fonction d’autocorrélation de la variable PIB respcf=pacf('LIPI'); donne la fonction d’autocorrélation partielle de la variable PIB. a) tests de racine unitaire : readf=adf('y',p,k); test de Dickey Fuller augmenté (1981). p : ordre du polynôme dans l’hypothèse nulle p=-1 : ni constante ni tendance p=0 : avec constante mais sans tendance p=1 : avec constante et tendance repp=phil_perr('y',p,k); test de Phillips et Perron (1988). p : ordre du polynôme dans l’hypothèse nulle p=-1 : ni constante ni tendance p=0 : avec constante mais sans tendance p=1 : avec constante et tendance k : retard de troncation de la fenêtre de Newey-West (option) rekpss=kpss('y',p,k); Test de KPSS (1992) p : ordre du polynôme dans l’hypothèse nulle p=0 : avec constante mais sans tendance p=1 : avec constante et tendance k : retard de troncation de la fenêtre de Newey-West (option) resp=schmiphi('y',p,k); test de Schmidt et Phillips (1992) p : ordre du polynôme dans l’hypothèse nulle p=0 : avec constante mais sans tendance p=1 : avec constante et tendance p=2,3 ou 4 pour des ordres élevés du polynôme de la tendance. b) décomposition cycle tendance hptrend=hpfilter('y',lambda); filtre de Hodrick et Prescott (1996) lambda : paramètre de lissage lambda=100 pour des données annuelles. lambda=1600 pour des données trimestrielles. lambda=14400 pour des données mensuelles. Méthode d’estimation de régression : 1. Estimation par les MCO : rols=ols('IPI_VM','lagts(1,IPI_VM)','lagts(2,IPI_VM)','lagts(12,IPI_VM)','lagts(1,IS_CONF)', 'IS_PROD','IS_AEOB','lagts(1,IS_AEOB)','delts(1,IS_SP)','delts(1,lagts(2,CS_MPN))','cte'); Calcule la régression de « IPI_VM » (la variable endogène ou expliquée vient toujours juste après la commande « ols ») sur les autres variables exogènes (explicatives) par la méthode des MCO. « cte » indique la constante. ols estimation results for dependent variable: IPI_VM estimation period: 1991m4-2007m12 number of observations: 201 number of variables: 10 R² = 0.4560548 adjusted R² =0.430423 Overall F test: F(9,191) = 17.793143 p-value = 0 standard error of the regression: 1.0775468 sum of squared residuals: 221.77146 DW(0) =2.1609591 Belsley, Kuh, Welsch Condition index: 16 variable coeff lagts(1,IPI_VM) -0.5629230 lagts(2,IPI_VM) -0.2734363 lagts(12,IPI_VM) -0.2454046 lagts(1,IS_CONF) 0.0895964 IS_PROD -0.0828299 IS_AEOB 0.1136799 lagts(1,IS_AEOB) -0.0771675 delts(1,IS_SP) 0.0983548 delts(1,lagts(2,CS_MPN)) 0.0770639 cte 0.2893742 t-statistic -9.2149917 -4.4664207 -4.502652 2.4641114 -3.0038132 4.7271924 -3.1330707 3.0670486 2.3969566 1.4059534 p value 2.220D-16 0.0000136 0.0000117 0.0146196 0.0030234 0.0000044 0.0020024 0.0024756 0.0174960 0.1613627 2. Estimation par le maximum de vraisemblance : rolsar1=olsar1(...); calcule la régression par la méthode de maximum de vraisemblance pour des erreurs autocorrélées (AR1) en utilisant les estimations de Cochrane_Orcutt comme valeurs de départ. Donne en plus l’autocorrélation d’ordre 1 estimée des résidus et sa t-stat. 3. Cochrane-Orcutt: rolsc=olsc(...); calcule la régression par les MCO de Cochrane_Orcutt pour des erreurs autocorrélées d’ordre 1 (AR1). Donne en plus le coefficient d’autocorrélation des résidus et sa t-stat. 4. Régression RIDGE: r=ridge(…); calcule la régression ridge de Hoerl-Kennard. 5. Correction de Newey-West: rn=nwest(…); calcule la régression des moindres carrés cohérent pour l’hétéroscédasticité et l’autocorrélation (HAC) de Newey-West. 6. Correction de White: rh=hwhite(…); calcule la régression des moindres carrés cohérent pour l’hétéroscédasticité de White. Sélection automatique des variables : [r1]=automatic('IPI_VM','lagts(1,IPI_VM)','lagts(2,IPI_VM)','lagts(3,IPI_VM)','lagts(4,IPI_ VM)',... 'lagts(5,IPI_VM)','lagts(6,IPI_VM)','lagts(7,IPI_VM)','lagts(8,IPI_VM)',... 'lagts(9,IPI_VM)','lagts(10,IPI_VM)','lagts(11,IPI_VM)','lagts(12,IPI_VM)',... 'IS_CONF','lagts(1,IS_CONF)','lagts(2,IS_CONF)','lagts(3,IS_CONF)','lagts(4,IS_CONF)',... 'IS_PROD','lagts(1,IS_PROD)','lagts(2,IS_PROD)','lagts(3,IS_PROD)','lagts(4,IS_PROD)',... 'IS_AEOB','lagts(1,IS_AEOB)','lagts(2,IS_AEOB)','lagts(3,IS_AEOB)','lagts(4,IS_AEOB)',... 'IS_SP','lagts(1,IS_SP)','lagts(2,IS_SP)','lagts(3,IS_SP)','lagts(4,IS_SP)',... 'IS_EE','lagts(1,IS_EE)','lagts(2,IS_EE)','lagts(3,IS_EE)','lagts(4,IS_EE)',... 'CS_CONF','lagts(1,CS_CONF)','lagts(2,CS_CONF)','lagts(3,CS_CONF)','lagts(4,CS_CONF) ',... 'CS_PTN','lagts(1,CS_PTN)','lagts(2,CS_PTN)','lagts(3,CS_PTN)','lagts(4,CS_PTN)',... 'CS_SFSH','lagts(1,CS_SFSH)','lagts(2,CS_SFSH)','lagts(3,CS_SFSH)','lagts(4,CS_SFSH)',... 'CS_MPN','lagts(1,CS_MPN)','lagts(2,CS_MPN)','lagts(3,CS_MPN)','lagts(4,CS_MPN)',... 'cte','prt=initial,final,st2_mod,test'); C’est la procédure “Gets” (general to specific) élaborée par Hendry et Krolzig (2001). Cette dernière permet de faire une sélection automatique de variables tout en respectant un certain nombre de tests statistiques. automatic : met en œuvre la procédure de sélection automatique des variables. prt=initial : affiche l’estimation du modèle initial. prt=final : affiche l’estimation du modèle final. prt=st2_mod : affiche l’estimation du (des) modèles à l’étape 2. test : affiche les tests de spécification. Voici les tests préconisés par Hendry et Krolzig (2001) dans leur procédure : test=predfailin(0.5) : test d’échec prédictif de Chow à 50%. test=predfailin(0.9) : test d’échec prédictif de Chow à 90%. test=doornhans : test de normalité de Doornik-Hansen. test=arlm(5) : test d’autocorrélation LM d’ordre 5 de Godfrey. test=hetero_sq : test d’hétéroscédasticité du Chi2. reliability : cette sortie donne le pourcentage d’utilisation d’une variable dans la procédure de sélection automatique. Une variable avec un « reliability » égal à 1 signifie qu’elle a été utilisée dans 100% des tests de sélection. Remarque : Il à noter qu’il est possible de demander à Grocer de limiter le niveau de significativité des variables en rajoutant dans la procédure automatique la commande 'groups_pval=[]','alpha=0.05' si l’on veut par exemple ne retenir que les variables dont le pvalue est inférieur ou égal à 5%. On aura ainsi la commande : [r1]=automatic('IPI_VM','lagts(1,IPI_VM)','lagts(2,IPI_VM)','lagts(3,IPI_VM)','lagts(4,IPI_ VM)',... 'lagts(5,IPI_VM)','lagts(6,IPI_VM)','lagts(7,IPI_VM)','lagts(8,IPI_VM)',... 'lagts(9,IPI_VM)','lagts(10,IPI_VM)','lagts(11,IPI_VM)','lagts(12,IPI_VM)',... 'IS_CONF','lagts(1,IS_CONF)','lagts(2,IS_CONF)','lagts(3,IS_CONF)','lagts(4,IS_CONF)',... 'IS_PROD','lagts(1,IS_PROD)','lagts(2,IS_PROD)','lagts(3,IS_PROD)','lagts(4,IS_PROD)',... 'IS_AEOB','lagts(1,IS_AEOB)','lagts(2,IS_AEOB)','lagts(3,IS_AEOB)','lagts(4,IS_AEOB)',... 'IS_SP','lagts(1,IS_SP)','lagts(2,IS_SP)','lagts(3,IS_SP)','lagts(4,IS_SP)',... 'IS_EE','lagts(1,IS_EE)','lagts(2,IS_EE)','lagts(3,IS_EE)','lagts(4,IS_EE)',... 'CS_CONF','lagts(1,CS_CONF)','lagts(2,CS_CONF)','lagts(3,CS_CONF)','lagts(4,CS_CONF) ',... 'CS_PTN','lagts(1,CS_PTN)','lagts(2,CS_PTN)','lagts(3,CS_PTN)','lagts(4,CS_PTN)',... 'CS_SFSH','lagts(1,CS_SFSH)','lagts(2,CS_SFSH)','lagts(3,CS_SFSH)','lagts(4,CS_SFSH)',... 'CS_MPN','lagts(1,CS_MPN)','lagts(2,CS_MPN)','lagts(3,CS_MPN)','lagts(4,CS_MPN)',... 'cte','prt=initial,final,st2_mod,test','groups_pval=[]','alpha=0.05'); Tests de cointégration: rescadf=cadf(p,k,'X1','X2'); test ADF pour les résidus à partir d’une régression de cointégration. p : ordre du polynôme dans l’hypothèse nulle p=-1 : ni constante ni tendance p=0 : avec constante mais sans tendance p=1 : avec constante et tendance k : nombre de retards dans la régression result=johansen(p,k,'X1','X2'); test de cointégration de Johansen (1988). p : ordre du polynôme dans l’hypothèse nulle p=-1 : ni constante ni tendance p=0 : avec constante mais sans tendance p=1 : avec constante et tendance k : nombre de retards dans la régression Test de diagnostics : 1. Test d’autocorrélation arlm(rols,p); donne le test d’autocorrélation LM d’ordre p de Godfrey. LB=ljungbox(rols,p); donne le test d’autocorrélation d’ordre p de Ljungbox. 2. Test d’hétéroscédasticité white(rols); donne le test d’hétéroscédasticité de White. hetero_sq(rols); donne le test d’hétéroscédasticité du Chi2. archz(rols,p); donne le test d’hétéroscédasticité conditionnelle ARCH d’ordre p. 3. Test de normalité jbnorm(rols); donne le test de normalité de Jarque-Bera. doornhans(rols); donne le test de normalité de Doornik-Hansen. 4. Test de stabilité chowtest(rols,m); donne le test de stabilité de Chow avec break en m. predfailin(rols,50); donne le test prédictif de Chow en échantillon. cusumb('IPI_VM','lagts(1,IPI_VM)','lagts(2,IPI_VM)','lagts(12,IPI_VM)','lagts(1,IS_CONF)' ,'IS_PROD','IS_AEOB','lagts(1,IS_AEOB)','delts(1,IS_SP)','delts(1,lagts(2,CS_MPN))','cte'); donne le test de Cusum et Cusum carré « backward » de Brown-Durbin-Evans. cusumf('IPI_VM','lagts(1,IPI_VM)','lagts(2,IPI_VM)','lagts(12,IPI_VM)','lagts(1,IS_CONF)',' IS_PROD','IS_AEOB','lagts(1,IS_AEOB)','delts(1,IS_SP)','delts(1,lagts(2,CS_MPN))','cte'); donne le test de Cusum et Cusum carré « forward » de Brown-Durbin-Evans. 5. Test de non linéarité reset(rols,2); donne le test de Ramsay pour la non linéarité avec p (p=2 par Hendry Ericsson dans Grocer) degré de non linéarité. 6. Test de multicolinéartité bkwols(x); donne le diagnostic de multicolinéarité de Besley-Ku-Welsh. 7. Test de Wald waldf(r1,r2); donne le test sur les coefficients de Wald (stat de Fischer sur le modèle contraint r1 et le modèle non contraint r2).