Lignes de commandes initiales : fichier « .xls

Transcription

Lignes de commandes initiales : fichier « .xls
Lignes de commandes initiales : fichier « .xls »
La dernière version de Grocer permet d’importer directement des fichiers « .xls » pour les
transformer en fichier « .dat »
lines(0);
chdir('C:\grocer');
readxls2bd('C:\grocer\ofce.xls','C:\grocer\ofce.dat');
load('C:\grocer\ofce.dat');
Ces quatre programmes permettent d’initialiser le programme. Voici leur signification
respective :
lines(0) : initialise les lignes de programmation.
chdir : indique à Scilab le chemin de direction. A noter que lorsque l’on n’a pas pu créer le
fichier « grocer » dans le disque local C : , il suffit juste de spécifier à grocer le nouveau. Par
exemple, « c:\Documents and Settings\Paul\Mes documents\grocer »
readxls2bd : permet d’importer des données « .xls » sous Excel et le transforme en fichier
« .dat » utilisé par Scilab.
load : permet de charger les données pour son utilisation sous Grocer.
Commandes de base :
bounds('1991m4','2007m12'); limite la date de début et de fin de l’échantillon.
prtts('LIPI','IS_CONF'); permet d’afficher les séries sur le console.
pltseries('LIPI', 'title = evolution LIPI'); donne le graphique de la série PIB
y=growthr(x); calcule le taux de croissance de la variable x
y=lagts(1,x); donne la série x avec un retard : x t −1
y=lagts(2,x); donne la série x avec deux retard : xt − 2
y=delts(1,x); donne la série x en différence première : xt − xt −1
y=delts(4,x); donne la série x en différence quatrième : xt − xt − 4
y=m2q(x,ind); transforme des données mensuelles x en données trimestrielles
avec ind = -1 si les données trimestrielles sont la somme des mois correspondant.
0 si les données trimestrielles sont la moyenne des mois correspondant.
1 si les données trimestrielles sont la valeur du 1er mois
2 si les données trimestrielles sont la valeur du 2ème mois
3 si les données trimestrielles sont la valeur du 3ème mois
y=q2a(x,ind); transforme des données trimestrielles x en données annuelles
avec ind = -1 si les données annuelles sont la somme des trimestres correspondant.
0 si les données annuelles sont la moyenne des trimestres correspondant.
1 si les données annuelles sont la valeur du 1er trimestre.
2 si les données annuelles sont la valeur du 2ème trimestre.
3 si les données annuelles sont la valeur du 3ème trimestre.
4 si les données annuelles sont la valeur du 4ème trimestre.
Etude des séries :
pltseries('LIPI', 'title = evolution LIPI'); donne le graphique de la série PIB
y=mean(x); calcule la moyenne de la variable x.
sd=st_dev(x); calcule l’écart type de la variable x.
r=des_stat('LIPI'); donne la description statistique de la variable PIB.
resacf=acf('LIPI'); donne la fonction d’autocorrélation de la variable PIB
respcf=pacf('LIPI'); donne la fonction d’autocorrélation partielle de la variable PIB.
a) tests de racine unitaire :
readf=adf('y',p,k); test de Dickey Fuller augmenté (1981).
p : ordre du polynôme dans l’hypothèse nulle
p=-1 : ni constante ni tendance
p=0 : avec constante mais sans tendance
p=1 : avec constante et tendance
repp=phil_perr('y',p,k); test de Phillips et Perron (1988).
p : ordre du polynôme dans l’hypothèse nulle
p=-1 : ni constante ni tendance
p=0 : avec constante mais sans tendance
p=1 : avec constante et tendance
k : retard de troncation de la fenêtre de Newey-West (option)
rekpss=kpss('y',p,k); Test de KPSS (1992)
p : ordre du polynôme dans l’hypothèse nulle
p=0 : avec constante mais sans tendance
p=1 : avec constante et tendance
k : retard de troncation de la fenêtre de Newey-West (option)
resp=schmiphi('y',p,k); test de Schmidt et Phillips (1992)
p : ordre du polynôme dans l’hypothèse nulle
p=0 : avec constante mais sans tendance
p=1 : avec constante et tendance
p=2,3 ou 4 pour des ordres élevés du polynôme de la tendance.
b) décomposition cycle tendance
hptrend=hpfilter('y',lambda); filtre de Hodrick et Prescott (1996)
lambda : paramètre de lissage
lambda=100 pour des données annuelles.
lambda=1600 pour des données trimestrielles.
lambda=14400 pour des données mensuelles.
Méthode d’estimation de régression :
1. Estimation par les MCO :
rols=ols('IPI_VM','lagts(1,IPI_VM)','lagts(2,IPI_VM)','lagts(12,IPI_VM)','lagts(1,IS_CONF)',
'IS_PROD','IS_AEOB','lagts(1,IS_AEOB)','delts(1,IS_SP)','delts(1,lagts(2,CS_MPN))','cte');
Calcule la régression de « IPI_VM » (la variable endogène ou expliquée vient toujours
juste après la commande « ols ») sur les autres variables exogènes (explicatives) par la
méthode des MCO.
« cte » indique la constante.
ols estimation results for dependent variable: IPI_VM
estimation period: 1991m4-2007m12
number of observations: 201
number of variables: 10
R² = 0.4560548 adjusted R² =0.430423
Overall F test: F(9,191) = 17.793143
p-value = 0
standard error of the regression: 1.0775468
sum of squared residuals: 221.77146
DW(0) =2.1609591
Belsley, Kuh, Welsch Condition index: 16
variable
coeff
lagts(1,IPI_VM)
-0.5629230
lagts(2,IPI_VM)
-0.2734363
lagts(12,IPI_VM)
-0.2454046
lagts(1,IS_CONF)
0.0895964
IS_PROD
-0.0828299
IS_AEOB
0.1136799
lagts(1,IS_AEOB)
-0.0771675
delts(1,IS_SP)
0.0983548
delts(1,lagts(2,CS_MPN)) 0.0770639
cte
0.2893742
t-statistic
-9.2149917
-4.4664207
-4.502652
2.4641114
-3.0038132
4.7271924
-3.1330707
3.0670486
2.3969566
1.4059534
p value
2.220D-16
0.0000136
0.0000117
0.0146196
0.0030234
0.0000044
0.0020024
0.0024756
0.0174960
0.1613627
2. Estimation par le maximum de vraisemblance :
rolsar1=olsar1(...); calcule la régression par la méthode de maximum de vraisemblance pour
des erreurs autocorrélées (AR1) en utilisant les estimations de Cochrane_Orcutt comme
valeurs de départ.
Donne en plus l’autocorrélation d’ordre 1 estimée des résidus et sa t-stat.
3. Cochrane-Orcutt:
rolsc=olsc(...); calcule la régression par les MCO de Cochrane_Orcutt pour des erreurs
autocorrélées d’ordre 1 (AR1).
Donne en plus le coefficient d’autocorrélation des résidus et sa t-stat.
4. Régression RIDGE:
r=ridge(…); calcule la régression ridge de Hoerl-Kennard.
5. Correction de Newey-West:
rn=nwest(…); calcule la régression des moindres carrés cohérent pour l’hétéroscédasticité et
l’autocorrélation (HAC) de Newey-West.
6. Correction de White:
rh=hwhite(…); calcule la régression des moindres carrés cohérent pour l’hétéroscédasticité de
White.
Sélection automatique des variables :
[r1]=automatic('IPI_VM','lagts(1,IPI_VM)','lagts(2,IPI_VM)','lagts(3,IPI_VM)','lagts(4,IPI_
VM)',...
'lagts(5,IPI_VM)','lagts(6,IPI_VM)','lagts(7,IPI_VM)','lagts(8,IPI_VM)',...
'lagts(9,IPI_VM)','lagts(10,IPI_VM)','lagts(11,IPI_VM)','lagts(12,IPI_VM)',...
'IS_CONF','lagts(1,IS_CONF)','lagts(2,IS_CONF)','lagts(3,IS_CONF)','lagts(4,IS_CONF)',...
'IS_PROD','lagts(1,IS_PROD)','lagts(2,IS_PROD)','lagts(3,IS_PROD)','lagts(4,IS_PROD)',...
'IS_AEOB','lagts(1,IS_AEOB)','lagts(2,IS_AEOB)','lagts(3,IS_AEOB)','lagts(4,IS_AEOB)',...
'IS_SP','lagts(1,IS_SP)','lagts(2,IS_SP)','lagts(3,IS_SP)','lagts(4,IS_SP)',...
'IS_EE','lagts(1,IS_EE)','lagts(2,IS_EE)','lagts(3,IS_EE)','lagts(4,IS_EE)',...
'CS_CONF','lagts(1,CS_CONF)','lagts(2,CS_CONF)','lagts(3,CS_CONF)','lagts(4,CS_CONF)
',...
'CS_PTN','lagts(1,CS_PTN)','lagts(2,CS_PTN)','lagts(3,CS_PTN)','lagts(4,CS_PTN)',...
'CS_SFSH','lagts(1,CS_SFSH)','lagts(2,CS_SFSH)','lagts(3,CS_SFSH)','lagts(4,CS_SFSH)',...
'CS_MPN','lagts(1,CS_MPN)','lagts(2,CS_MPN)','lagts(3,CS_MPN)','lagts(4,CS_MPN)',...
'cte','prt=initial,final,st2_mod,test');
C’est la procédure “Gets” (general to specific) élaborée par Hendry et Krolzig (2001). Cette
dernière permet de faire une sélection automatique de variables tout en respectant un certain
nombre de tests statistiques.
automatic : met en œuvre la procédure de sélection automatique des variables.
prt=initial : affiche l’estimation du modèle initial.
prt=final : affiche l’estimation du modèle final.
prt=st2_mod : affiche l’estimation du (des) modèles à l’étape 2.
test : affiche les tests de spécification.
Voici les tests préconisés par Hendry et Krolzig (2001) dans leur procédure :
test=predfailin(0.5) : test d’échec prédictif de Chow à 50%.
test=predfailin(0.9) : test d’échec prédictif de Chow à 90%.
test=doornhans : test de normalité de Doornik-Hansen.
test=arlm(5) : test d’autocorrélation LM d’ordre 5 de Godfrey.
test=hetero_sq : test d’hétéroscédasticité du Chi2.
reliability : cette sortie donne le pourcentage d’utilisation d’une variable dans la procédure de
sélection automatique. Une variable avec un « reliability » égal à 1 signifie qu’elle a été
utilisée dans 100% des tests de sélection.
Remarque :
Il à noter qu’il est possible de demander à Grocer de limiter le niveau de significativité des
variables en rajoutant dans la procédure automatique la commande
'groups_pval=[]','alpha=0.05' si l’on veut par exemple ne retenir que les variables dont le pvalue est inférieur ou égal à 5%.
On aura ainsi la commande :
[r1]=automatic('IPI_VM','lagts(1,IPI_VM)','lagts(2,IPI_VM)','lagts(3,IPI_VM)','lagts(4,IPI_
VM)',...
'lagts(5,IPI_VM)','lagts(6,IPI_VM)','lagts(7,IPI_VM)','lagts(8,IPI_VM)',...
'lagts(9,IPI_VM)','lagts(10,IPI_VM)','lagts(11,IPI_VM)','lagts(12,IPI_VM)',...
'IS_CONF','lagts(1,IS_CONF)','lagts(2,IS_CONF)','lagts(3,IS_CONF)','lagts(4,IS_CONF)',...
'IS_PROD','lagts(1,IS_PROD)','lagts(2,IS_PROD)','lagts(3,IS_PROD)','lagts(4,IS_PROD)',...
'IS_AEOB','lagts(1,IS_AEOB)','lagts(2,IS_AEOB)','lagts(3,IS_AEOB)','lagts(4,IS_AEOB)',...
'IS_SP','lagts(1,IS_SP)','lagts(2,IS_SP)','lagts(3,IS_SP)','lagts(4,IS_SP)',...
'IS_EE','lagts(1,IS_EE)','lagts(2,IS_EE)','lagts(3,IS_EE)','lagts(4,IS_EE)',...
'CS_CONF','lagts(1,CS_CONF)','lagts(2,CS_CONF)','lagts(3,CS_CONF)','lagts(4,CS_CONF)
',...
'CS_PTN','lagts(1,CS_PTN)','lagts(2,CS_PTN)','lagts(3,CS_PTN)','lagts(4,CS_PTN)',...
'CS_SFSH','lagts(1,CS_SFSH)','lagts(2,CS_SFSH)','lagts(3,CS_SFSH)','lagts(4,CS_SFSH)',...
'CS_MPN','lagts(1,CS_MPN)','lagts(2,CS_MPN)','lagts(3,CS_MPN)','lagts(4,CS_MPN)',...
'cte','prt=initial,final,st2_mod,test','groups_pval=[]','alpha=0.05');
Tests de cointégration:
rescadf=cadf(p,k,'X1','X2'); test ADF pour les résidus à partir d’une régression de
cointégration.
p : ordre du polynôme dans l’hypothèse nulle
p=-1 : ni constante ni tendance
p=0 : avec constante mais sans tendance
p=1 : avec constante et tendance
k : nombre de retards dans la régression
result=johansen(p,k,'X1','X2'); test de cointégration de Johansen (1988).
p : ordre du polynôme dans l’hypothèse nulle
p=-1 : ni constante ni tendance
p=0 : avec constante mais sans tendance
p=1 : avec constante et tendance
k : nombre de retards dans la régression
Test de diagnostics :
1. Test d’autocorrélation
arlm(rols,p); donne le test d’autocorrélation LM d’ordre p de Godfrey.
LB=ljungbox(rols,p); donne le test d’autocorrélation d’ordre p de Ljungbox.
2. Test d’hétéroscédasticité
white(rols); donne le test d’hétéroscédasticité de White.
hetero_sq(rols); donne le test d’hétéroscédasticité du Chi2.
archz(rols,p); donne le test d’hétéroscédasticité conditionnelle ARCH d’ordre p.
3. Test de normalité
jbnorm(rols); donne le test de normalité de Jarque-Bera.
doornhans(rols); donne le test de normalité de Doornik-Hansen.
4. Test de stabilité
chowtest(rols,m); donne le test de stabilité de Chow avec break en m.
predfailin(rols,50); donne le test prédictif de Chow en échantillon.
cusumb('IPI_VM','lagts(1,IPI_VM)','lagts(2,IPI_VM)','lagts(12,IPI_VM)','lagts(1,IS_CONF)'
,'IS_PROD','IS_AEOB','lagts(1,IS_AEOB)','delts(1,IS_SP)','delts(1,lagts(2,CS_MPN))','cte');
donne le test de Cusum et Cusum carré « backward » de Brown-Durbin-Evans.
cusumf('IPI_VM','lagts(1,IPI_VM)','lagts(2,IPI_VM)','lagts(12,IPI_VM)','lagts(1,IS_CONF)','
IS_PROD','IS_AEOB','lagts(1,IS_AEOB)','delts(1,IS_SP)','delts(1,lagts(2,CS_MPN))','cte');
donne le test de Cusum et Cusum carré « forward » de Brown-Durbin-Evans.
5. Test de non linéarité
reset(rols,2); donne le test de Ramsay pour la non linéarité avec p (p=2 par Hendry Ericsson
dans Grocer) degré de non linéarité.
6. Test de multicolinéartité
bkwols(x); donne le diagnostic de multicolinéarité de Besley-Ku-Welsh.
7. Test de Wald
waldf(r1,r2); donne le test sur les coefficients de Wald (stat de Fischer sur le modèle
contraint r1 et le modèle non contraint r2).