STATISTIQUE APPLIQUEE

Transcription

STATISTIQUE APPLIQUEE
STATISTIQUE APPLIQUEE
Par
Jean-Paul TSASA Vangu
Sous la coordination du
Professeur MUKOKO Samba
Centre Congolais-Allemand de Microfinance
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
0
Ce recueil de travaux pratiques est rédigé sous la coordination du Professeur
MUKOKO Samba. Il servira d’un recueil de référence et d’applications lors des
travaux pratiques prévus à la fin du cours de Statistique appliquée aux finances.
*Centre Congolais-Allemand de Microfinance, Mai 2010.
Tout passe d’abord par le « fictif », c’est-à-dire l’imaginaire des savants.
− Robert Emerson Lucas
Avertissements
Il n’existe pas d’ouvrage d’introduction aux séries temporelles qui évite un discours trop technique et qui
présente des exemples concrets de procédure d’estimation-modélisation. Ainsi, ce recueil d’applications,
résultat d’un effort consistant à présenter dans un langage plus ou moins simplifié et rigoureux les
concepts appartenant aux sciences dures, est rédigé en fonction d’un étudiant attentif. Il a pour objet
l’explication de différentes techniques permettant d’estimer et de prévoir les chroniques financières et la
présentation de techniques statistiques d’évaluation de portefeuille.
Et comme objectif, ce recueil se propose d’initier l’étudiant { l’utilisation de la statistique en tant qu’outil
permettant la structuration, l’analyse, l’interprétation des données (chiffrées) financières et économiques.
Pour y aboutir, nous éclatons le cours (partie théorie) et le regroupons en deux grands points.
Le recueil débute par un rappel des fondamentaux du cours, avant de s’intéresser aux études des cas. Ces
dernières permettront de mettre en évidence les modèles appropriés pour les analyses utilisant des
chroniques financières ; puisqu’{ ce jour, la finance, en tant que sous-discipline de l’économie, ne se limite
plus à une gestion et à un recueil de pratiques. Mais elle va au-delà en empruntant { l’économie, ses
raisonnements formalisés et ses mécanismes d'optimisation.
Par ailleurs, notez que les applications retenues dans ce recueil aideront l’étudiant à se préparer { l’examen
final. Le logiciel Eviews 7 a été utilisé pour confectionner les applications. Enfin, l’étudiant est invité { bien
appréhender les concepts théoriques énoncés pendant le cours et aussi de ne pas hésiter de consulter les
ouvrages de références suivants disponibles sur internet : Charpentier (2006) ; Droesbeke, Fichet, Tassi
(1994) ; Hurlin (2006-2007) ; Raggad et Trabelsiy (2003).
Je dédie ce recueil aux étudiants de la première promotion du CCAM de master Microfinance
(2009-2010). Leurs multiples questions et interventions m’ont permis, via le mécanisme du
learning by spillover, d’améliorer cet exposé.
Jean-Paul Tsasa V.†
Plan de travail‡
1 /. Rappel des concepts techniques
•Chronique •Processus stochastique •Stationnarité, Bruit blanc et Marche aléatoire •Modèles dynamiques
•Méthodologie de Box et Jenkins •Analogie des modèles AR/ ARMA et ARCH/ GARCH
•Méthode de maximum de vraisemblance •Modélisation AR(I)MA ou Modélisation (G)ARCH
2/. De modèles AR/ MA/ ARMA aux modèles ARCH/ GARCH : une étude du cas de …
3/. Estimations des paramètres des modèles ARCH /GARCH par la méthode maximum de vraisemblance
4/. Optimisation de portefeuille selon le critère de la Value at Risk (VaR) et Backtesting
5/. Credit scoring
†
Assistant au Centre Congolais-Allemand de Microfinance/ Université Protestante au Congo.
Je remercie le Professeur Mukoko Samba pour son orientation lors de la préparation de ce recueil et aussi pour la
collection d’ouvrages, mise { notre disposition. In fine, je suis le seul { blâmer en cas d’éventuelles erreurs ou omissions.
‡
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
1
Rappels des concepts techniques
Ce manuel se propose de familiariser l’étudiant aux différentes applications liées { l’économétrie des
séries temporelles, orientée, bien sûr, vers l’économie et la finance. La démarche adoptée, à cet effet,
commence par un rappel de concepts-clé jugés importants pour une meilleure appréhension des
applications qui suivront
1.
CHRONIQUE
Synonyme : série chronologique, série temporelle.
Une chronique est une suite finie de valeurs numériques représentant l’évolution d’une variable aléatoire
indexé par le temps. C’est une suite d’observation des variables { des intervalles de temps réguliers.
Autrement, pour une chronique, les observations doivent être consécutives et d’une fréquence identique.
L’objet des séries temporelles est donc l’étude des processus temporels.
A titre illustratif, l’évolution des indices boursiers ou des prix d’actifs financiers, des données économiques
ou financières des entreprises, des agrégats macroéconomiques, des ventes et achats de biens ou celle des
productions agricoles ou industrielles sont, parmi tant d’autres, des chroniques qui intéressent
particulièrement les économistes et les financiers. Donc, une chronique n’est que la réalisation d’un
processus aléatoire.
NOTE 1 : les séries financières et certaines séries économiques sont caractérisées par de volatilité ; où l’on retrouve des
valeurs qui semblent être aberrantes. La spécification de telles séries exige de modèles non linéaires.
Contrairement aux modèles structurels, notamment d’inspiration keynésienne, où la prévision d’une
variable se fait en fonction des autres variables [Yt = f(Xt)], les séries temporelles se propose de prédire la
variable Yt en exploitant ses propriétés statistiques (moyenne, variance) et en utilisant généralement les
valeurs retardées de Yt et de chocs aléatoires (bruit blanc). A cet effet, un modèle très populaire en
économétrie des séries temporelles a été développé en 1970 : modèle ARMA§ (Auto Regressive with Moving
Average). Ce modèle n’est qu’un mélange des modèles AR et MA développés séparément et
respectivement par Yule et Slutsky en 1927.
2.
PROCESSUS STOCHASTIQUE, VARIABLES ALEATOIRES
Synonyme : processus aléatoire, fonction aléatoire.
Un processus stochastique correspond { l’évolution d’une variable aléatoire Yt dans le temps. Une variable
aléatoire est la valeur prise par Yt à chaque instant du temps.
3.
STATIONNARITE, BRUIT BLANC ET MARCHE ALEATOIRE
*Processus stationnaire
La stationnarité est un concept clé pour la validité d’une régression sur séries temporelles. D’un point de
vue statistique, la stationnarité suppose que le passé est comparable au présent et au futur. Ainsi, une série
chronologique est stationnaire, au sens strict, si sa distribution de probabilité ne change pas au cours du
temps : cette définition forte de la stationnarité implique que la distribution jointe (Yr+1, Yr+2, . . . , Yr+n ) ne
dépende pas de r ; si c’est le cas, on conclut que Yt est non stationnaire.
§
ARMA ; Auto Regressive (autorégressif) : puisque la spécification de ces modèles utilisent des valeurs « lagées » de Yt
et Moving Average (Moyenne Mobile) : parce que la variable représentant les chocs aléatoires (bruit blanc) dans ce
modèle est retardée. Rappelons que la moyenne mobile est une moyenne statistique qui supprime les fluctuations
transitoires dans une chronique en vue de ressortir les tendances à plus long terme. Elle est dite mobile puisqu’elle est
recalculée de façon continue, en utilisant à chaque calcul un sous-ensemble de valeurs dans lequel une nouvelle valeur
remplace la plus ancienne.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
2
Par ailleurs (définition faible de la stationnarité), un processus temporel Yt est stationnaire si :



E[Yt] = μ, pour tout t
: c’est-à-dire la série stationnaire en moyenne.
Var[Yt] ≡ E(Yt2) = σ2, pour tout t
: c’est-à-dire la série est stationnaire en variance.
Cov[Yt, Yt+k] ≡ E[(Yt – μ) (Yt+k – μ)] = γk
: l’autocovariance ou la covariance entre deux périodes t et
t+k** est uniquement fonction de la différence des temps k.
Un processus est stationnaire si celui-ci n’a ni trend, ni saisonnalité et de ce fait, fluctue autour d’une
moyenne constante. Il apparait donc sue la stationnarité est une exigence qui assure l’utilisation du modèle
en dehors de la période sur laquelle il a été estimé.
NOTE 2 : Un processus stationnaire possède de volatile lorsqu’il possède certaines réalisations qui s’écartent
sensiblement de la moyenne constante.
*Processus non-stationnaire
Une chronique qui ne vérifie pas les hypothèses ci-dessus est dite non stationnaire. Donc, il faudra la
stationnariser avant l’estimation. La méthode de stationnarisation dépend de la source de la non
stationnarité. Pour identifier cette source, le modèle suivant doit être testé :
Yt = α0 + αiYt-i + αjt + εt
*Critère de sélection :
- Statistique de t de Student (t) ;
- Probabilité critique (Prob).
*Test de signification du trend :
H0 : αi est non significatif
H0 : αi est significatif
*Test de signification de l’intercept :
H0 : α0 est non significatif
H0 : α0 est significatif
Le paramètre sera significatif si et seulement si : Prob < 0.05 et t > 1.96. Dans le cas contraire, il est non
significatif.
En estimant le modèle Yt = α0 + αiYt-i + αjt + εt :
Décision
Type de modèle
Processus
Méthode de
stationnarisation
αi est significatif
Trend and Intercept
Trend Stationnary (TS)
Ecart à la tendance
Differency Stationnary (DS)
Filtre aux différences
αi est non significatif
et
α0 est significatif
αi est non significatif
et
α0 est non significatif
Intercept
None (ni Trend, ni Intercept)
Procédure :
**
1/ Estimer le modèle Yt = α0 + αjt + εt
2/ Générer les résidus
3/ Tester si est stationnaire

Si le modèle est un TS

Si le modèle est un DS : il faut différencier ou intégrer Yt « d » fois pour obtenir une chronique
stationnaire, soit Yt → I(d).
:
La fonction d’autocovariance γk = Cov[Yt, Yt+k] = E[Yt – E(Yt)][Yt+k – E(Yt+k)] d’un processus stationnaire Yt vérifie
les propriétés : 1°) γk =Cov(Yt, Yt) = Var[Yt] = E(Yt2) = σ2 ≥ 0, avec Var[Yt] = E[Yt – E(Yt)2] ;
2°) |γk| ≤ γ0 ;
3°) γk = γ-k, la fonction d’autocovariance est une fonction paire, Cov(Yt, Yt+k) = Cov(Yt, Yt-k).
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
3
Un processus DS non-stationnaire Yt est intégré d’ordre d, noté I(d), si en le différenciant « d » fois, on
obtient un processus stationnaire.
A titre illustratif, Yt, non stationnaire, sera intégré d’ordre 1 si le processus Zt défini : Zt ≡ Yt – Yt-1 = (1 – L)Yt
est stationnaire. Le terme « L » est un opérateur de retard ou de décalage (lag)
Donc, par extension, Yt sera d’ordre d, si Yt est non-stationnaire, Vt = (1 – L)Yt est non stationnaire, …,
Wt = (1 – L)d-1Yt est non stationnaire et Zt = (1 – L)dYt est stationnaire.
Quelques transformations.
* Première différence
: ΔYt = Yt – Yt-1
* Opérateur première différence
: (1 – L)Yt = ΔYt
* Première différence en logarithme
: ΔLn(Yt) = Ln(Yt) - Ln(Yt-1)
* Taux de croissance
: (Yt - Yt-1)/Yt-1 = ΔLn(Yt)
NOTE 3 : les modèles intégrés sont très présents dans les séries économiques et financières, notamment les
séries d’indices boursiers, d’indice de production, d’indice de prix.
*Bruit blanc
Un processus εt†† est un bruit blanc lorsque :

E(εt) = 0 ; pour tout t
(hypothèse de centralité).

E(εt2) = σ2 ; pour tout t = t – k (hypothèse d’homoscédasticité).

E(εtεt-k) = 0 ; pour tout t ≠ t-k (absence d’autocorrélation des erreurs).
Donc, par définition, un bruit blanc est un processus stationnaire.
Par ailleurs, un processus εt est un bruit blanc indépendant si E(εt) = 0 ; E(εt2) = σ2 ; εt et εt-k sont indépendants pour
tout k ≠ 1. Et le bruit blanc est dit gaussien si le processus εt est un bruit blanc indépendant tel que εt ~ N(0, σ2).
4.
MODELES DYNAMIQUES EN ECONOMETRIE DES SERIES TEMPORELLES
Un modèle dynamique est un modèle pour lequel l’on trouve parmi les variables explicatives des variables
endogènes décalées et/ou des variables exogènes décalées. Les modèles ayant parmi ses variables
explicatives que de variables endogènes décalées sont dits autorégressifs. Parallèlement, ceux ayant parmi
les variables explicatives des variables exogènes décalées sont dits échelonnés (modèles à retards
échelonnés). En un premier temps, les modèles dynamiques qui retiennent notre attention est ceux
proposés par YULE et SLUTSKY.
Les modèles proposés par Yule et Slutsky se présentent, respectivement comme suit :
AR
:
Yt = Φ1Yt-1 + Φ2Yt-2 + εt
(1)
MA
:
Yt = εt – θ1εt-1 – θ2εt-2
(2)
En généralisant les modèles (1) et (2), on obtient les processus AR(p) et MA(q).
††
Dans les séries temporelles, le terme de l’erreur est souvent appelé innovation. Comme on le verra, le terme de l’erreur
sera la seule information nouvelle qui interviendra dans le processus à la date t.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
4
* Processus autorégressif d’ordre p, noté AR(p) ; c’est un processus stationnaire Yt vérifiant la relation
du type :
Yt– Φ1Yt-1 – … – ΦpYt-p = εt ; où Φi (i=1, …, p) sont des réels et εt un bruit blanc gaussien.
En introduisant un opérateur retard [tel que LiYt = Yt-i] et un polynôme retard de degré h [tel que Φ(L) = 1 – Φ1L –
Φ2L2 … – ΦpLp] , le processus AR(p) peut donc s’écrire comme suit :
(1 – Φ1L … – ΦpLp)Yt = εt
Soit :
Φ(L)Yt = εt
* Processus moyenne mobile d’ordre q, noté MA(q) ; c’est un processus Yt stationnaire vérifiant une
relation du type :
Yt = εt – θ1εt-1 + … – θqεt-q ; où θi (i=1, …, p) sont des réels et εt un bruit blanc gaussien.
En introduisant un opérateur retard et un polynôme retard de degré h, le processus MA(q) s’écrit donc :
Yt = (1 – θ 1L … – θ pLp) εt
Soit :
Yt = Θ(L) εt
* Processus autorégressifs de moyenne mobile, noté ARMA(p, q)
; c’est une extension naturelle des
processus AR(p) et MA(q), c’est donc un processus mixte qui vérifie la relation suivante :
Yt– Φ1Yt-1 – … – ΦpYt-p = εt – θ1εt-1 + … – θqεt-q
En se servant de distributeur retard, la relation ci-dessus s’écrit : Φ(L)Yt = Θ(L) εt
* Processus
autorégressifs de moyenne mobile intégrés, noté ARIMA(p, d, q) ; c’est un processus Yt ,
non stationnaire à niveau, pouvant se mettre sous la forme :
d
π(L)Yt = Φ(L)(1-L) Yt = Θ(L)εt
Où εt un bruit blanc gaussien et d : l’ordre d’intégration.
5.
METHODOLOGIE DE BOX ET JENKINS
La méthodologie de Box et Jenkins permet de déterminer le processus ARMA adéquat pour la modélisation
d’une chronique. La méthodologie BJ suggère quatre étapes, à noter : l’identification, l’estimation, la
validation et la prévision.
*L’identification : cette première étape consiste à trouver les valeurs p et q des processus ARMA en se
basant sur l’étude des fonctions d’autocorrélation simple et d’autocorrélation partielle.
*L’estimation
: après avoir identifié les valeurs p et q d’un ou plusieurs processus ARMA, il sera question
d’estimer les coefficients aux termes autorégressifs et moyenne mobile.
*La validation
: après avoir estimé les différents processus ARMA, il convient à présent de valider ces
modèles, en servant d’une part, des tests de significativité des paramètres (test de
student) pour les coefficients et d’autre part, les tests d’hypothèse nulle
d’homoscédasticité (tests ARCH, White, Breusch-Pagan) et d’hypothèse nulle
d’autocorrélation pour les résidus (tests de Box-Pierce, Ljung-Box, Breusch-Godfrey)
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
5
Autrement, l’étape de validation du modèle consiste à tester si les résidus sont de bruits blancs. Au cas où
les résidus sont de bruits blancs ; il faudra que la série de résidus soit stationnaire (fluctuant autour d’une
moyenne constante nulle) et par ailleurs, après application des tests Box-Pierce et ARCH, que l’on rejette les
hypothèses alternatives.
NOTE 4 : Si, { l’issue de l’application de ces différents tests diagnostics, plusieurs modèles sont validés,
l’étape de validation doit se poursuivre par une comparaison des qualités de ces modèles. Les critères de
choix du modèle à retenir peuvent être standards ou d’information. Les critères les plus utilisés sont repris
dans le tableau ci-dessous.
CRITERES STANDARDS
Erreur Absolue
Moyenne ou
Mean Absolute Error
Racine de l’Erreur
Quadratique
Moyenne ou
Root Mean Squared
Error
Erreur Absolue
Moyenne en
Pourcentage ou
Mean Absolute
Percent Error
CRITERES D’INFORMATION
:
Critère d’Akaike
(1969)
:
Critère de Schwarz
(1978)
:
:
:
T : nombre d’observation de la série Yt étudiée et et sont les résidus estimés.
Le modèle à retenir parmi les divers processus ARMA validés est celui qui se rapproche le plus des observations c’est-àdire celui pour lequel la valeur prise par les critères ci-dessus est plus faible (minimum).
NOTE 5 : contrairement aux critères ci-dessus, les critères tels que R2 ou log-likelihood sont à maximiser.
*La prévision
: c’est la dernière étape de la méthodologie de Box et Jenkins. Connaissant l’horizon de
prévision (h), la prévision faite en T pour la date T+h est donnée par
:
Cette expression représente la meilleure prévision de la série Y conditionnellement { l’ensemble
d’information disponible { la date t.
Ou encore :
Le terme
signifie que la valeur de Yt est prévue sur base des observations passées Yt-1, Yt-2, … en
utilisant la valeur estimée des coefficients.
Notez que la prévision et l’estimation des effets causaux sont des objectifs très différents. Pour un modèle
de prévision, par exemple :
Le coefficient de détermination corrigé a beaucoup d’importance, alors que le biais d’omission
n’est pas vraiment un problème ;
On ne cherche pas { interpréter les coefficients d’un modèle de prévision (c’est ce que l’on qualifie
également d’économétrie sans théorie), ce qui importe c’est la validité externe du modèle ;
Le modèle estimé sur des données du passé (prédiction) doit être valable dans le futur
(prévision)‡‡.
‡‡
Il existe une nette différence entre prédiction et prévision ; une valeur prédite ou valeur ajustée (prédiction) fait
référence { la valeur calculée par la régression pour une date { l’intérieur de l’échantillon d’estimation, (en anglais
predicted value), alors qu’une valeur prévue fait référence à la valeur calculée pour une date postérieure { l’échantillon
d’estimation,
(en anglais forecasted value).
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
6
Pour les calculs de l’erreur de prévision et de l’intervalle de prévision, le tableau suivant est si éloquent, {
cet effet.
Calcul de l’erreur de prévision
Calcul de l’intervalle de prévision
La différence entre erreur de prévision et résidu est de même nature que celle entre valeur prévue et valeur prédite (à l’intérieur ou
à l’extérieur de l’échantillon d’estimation).
6.
ANALOGIE DES MODELES AR/ MA/ ARMA ET ARCH/ GARCH
R. F. ENGLE
Professeur de finance américain, Robert F. Engle a partagé le prix Nobel d'économie 2003 avec
le Britannique Clive W. Granger, avec qui il avait publié nombre d'articles sur les séries
chronologiques tout au long des années 1980 et 1990. Il obtient avec la plus haute distinction
une licence de physique au Williams College de New York en 1964, une maîtrise de physique
deux ans plus tard, puis un doctorat de sciences économiques en 1969. Ses travaux ont ouvert
les recherches sur de nouvelles méthodes d'analyse des séries chronologiques et accéléré le
renouvellement des techniques économétriques dans l’analyse économique.
L’incapacité des modèles de type ARMA, { saisir les phénomènes non linéaires, a poussé les économètres à
développer les modèles non linéaires. En vue de prendre en compte la volatilité conditionnelle caractérisant
certaines chroniques, telles que financières, et leur non linéarité, Robert F. Engle§§ a introduit en 1982 la
classe des modèles ARCH***, puis Tim P. Bollerslev l’a généralisé en 1986†††.
Lorsque la variance conditionnelle d’une série Yt sachant Yt-1 est est constante, soit :
Var(Yt/ Yt-1) = σ2 où V(εt) = σ2, on parle dans ce cas de variance homoscédastique.
R.F. Engle a construit un modèle dans lequel la variance conditionnelle de Yt sachant Yt-1 dépendrait de Yt-1
et plus particulièrement :
Var(Yt/ Yt-1) = [α + βY2t-1] σ2
Pour cela, il a considéré les modèles de la forme
où ht = α0 + αY2t-1
Cette classe de modèle, appelée ARCH(1) a été généralisée sous la forme ARCH(p) :
Où ht = α0 + α1Y2t-1 + … + αpY2t-p
Cette forme pour ht a permis l’analogie entre les modèles AR et les modèles ARCH. Ainsi, de la même façon
que les ARMA généralisent les AR, la classe de modèle ARCH a été généralisée en considérant la fonction ht
de la forme :
Où
En résumé :
*AR
*ARCH
→
→
ARMA
GARCH
Note 5 : les modèles ARCH ou GARCH sont énormément utilisés dans les modèles financières parce qu’ils
sont caractérisés par de longues périodes de forte volatilité, appelée volatility clustering.
§§
"Autoregressive Conditional Heteroskedasticity With Estimates of the Variance of U.K. Inflation", Econometrica 50
(1982): 987-1008.
***
Modèle ARCH : Modèle Autorégressif conditionnellement hétéroscédastique.
†††
Le modèle GARCH(1,1) a été présenté indépendamment par Taylor (1986).
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
7
7.
METHODE DE MAXIMUM DE VRAISEMBLANCE
Fonction de Vraisemblance
Soit y = (y1, … yn), la réalisation de taille n d’un vecteur Y. On appelle fonction de vraisemblance ou tout
simplement la vraisemblance, la fonction de y et de θ :
V(y, θ) = V(y1, …, yn, θ)
Ainsi, dans le cas particulier où :
On note par la log-vraisemblance, la fonction :
Estimateurs du maximum de vraisemblance
L’estimateur du maximum de vraisemblance, noté
maximisation :
, n’est qu’une solution au problème de
Sachant qu’une transformation strictement croissante ne changeant pas un maximum, on considère
souvent le problème de maximisation du logarithme népérien de la vraisemblance, d’où :
8.
MODELISATION AR(I)MA OU MODELISATION (G)ARCH
A l’issue de ces tests diagnostics, s’il se dégage que la série des résidus est stationnaire en moyenne ; reste
à déterminer si les erreurs sont autocorrélées ou non et/ou leurs variances sont hétéroscédastiques ou non.
Ces deux derniers tests permettent de préciser le modèle à utiliser pour la prévision.
Absence
d’autocorrélation
Homoscédastique
:
Modélisation
ARMA
Hétéroscédastique
:
Modélisation
(G)ARCH
Homoscédastique
:
Ecarter le
modèle
Hétéroscédastique
:
Ecarter le
modèle
Si
Test de
validation
Présence
d’autocorrélation
Si
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
8
RAPPEL
Avant de passer aux exercices d’entrainement, notez que les applications retenues se feront en deux
temps. Le schéma suivant s’avère assez éloquent pour illustrer la démarche à suivre.
APPLICATIONS
Construction de modèles
de prévision
AR/ MA/ AR(I)MA : Méthodologie
de Box-Jenkins
(G)ARCH : Méthode de Maximum
de Vraisemblance
Optimisation du
portefeuille
Le portefeuille étant une collection d’actifs
financiers détenus par un établissement ou un
individu, on cherchera à limiter les risques courus
en se basant essentiellement sur le critère de la
VaR.
De modèles AR/ MA/ ARMA aux modèles ARCH/ GARCH :
une étude du cas de l’indice boursier Dow Jones
Construisons un modèle AR(I)MA { partir de la série de l’indice Dow Jones ‡‡‡, notée DJI (Dow Jones Index).
Les données considérées { cet effet sont mensuelles et la période retenue pour l’étude va de juin 1997 {
Juillet 2008, 134 observations. Pour construire le modèle de prévision, nous allons emprunter la
méthodologie de Box-Jenkins, telle que décrite précédemment ; mais avant tout, nous commençons par
l’analyse exploratoire (plot) de la dite chronique puis l’analyse de la stationnarité (test de la racine unitaire).
Les données saisies sur Eviews se présentent comme suit :
‡‡‡
La chronique de la DJI a été tirée auprès de la source Euronext Paris.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
9
A. ANALYSE EXPLORATOIRE DES DONNEES
Plot de la série DJI
PLOT DJI
150
140
130
120
DJI
110
100
90
80
97
98
99
00
01
02
03
04
05
06
07
08
On peut également travailler avec de données logarithmiques. Dans ce cas, le plot de la série linéarisée se
présente comme suit :
GENR LDJI = LOG(DJI)
5.1
5.0
4.9
4.8
LDJI
4.7
4.6
4.5
4.4
97
98
99
00
01
02
03
04
05
06
07
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
08
10
B. ETUDE DE LA STATIONNARITE
B.1. TEST INFORMEL : Analyse des Corrélogrammes de la série DJI
IDENT DJI ; cliquer sur level puis valider
B.2.EST FORMEL : TEST DE LA RACINE UNITAIRE
ADF DJI /UROOT DJI
Modèle avec tendance et constante
Null Hypothesis: DJI has a unit root
Exogenous: Constant, Linear Trend
Lag Length: 0 (Automatic based on SIC, MAXLAG=0)
Augmented Dickey-Fuller test statistic
Test critical values:
t-Statistic
-2.546403
-4.028496
-3.443961
-3.146755
1% level
5% level
10% level
Prob.*
0.3057
*MacKinnon (1996) one-sided p-values.
Augmented Dickey-Fuller Test Equation
Dependent Variable: D(DJI)
Method: Least Squares
Date: 05/28/10 Time: 01:32
Sample (adjusted): 1997M07 2008M07
Included observations: 133 after adjustments
Variable
DJI(-1)
C
@TREND(1997M06)
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
Coefficient
Std. Error
t-Statistic
Prob.
-0.101732
10.92612
0.016493
0.039951
4.162216
0.012938
-2.546403
2.625073
1.274799
0.0121
0.0097
0.2047
0.049707
0.035087
4.276247
2377.218
-380.4607
1.856615
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
0.135338
4.353302
5.766327
5.831523
3.399982
0.036369
Série non stationnaire et trend non significatif et trend non significatif.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
11
Modèle sans tendance et avec constante
Null Hypothesis: D(DJI) has a unit root
Exogenous: Constant
Lag Length: 0 (Automatic based on SIC, MAXLAG=0)
Augmented Dickey-Fuller test statistic
Test critical values:
1% level
5% level
t-Statistic
Prob.*
-11.13513
-3.480425
-2.883408
0.0000
*MacKinnon (1996) one-sided p-values.
Augmented Dickey-Fuller Test Equation
Dependent Variable: D(DJI,2)
Method: Least Squares
Date: 05/28/10 Time: 01:49
Sample (adjusted): 1997M08 2008M07
Included observations: 132 after adjustments
Variable
Coefficient
Std. Error
t-Statistic
D(DJI(-1))
C
-0.979538
0.140529
0.488171
0.484234
4.384610
2499.225
-381.4015
1.970918
0.087968
0.381913
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
-11.13513
0.367961
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
Prob.
0.0000
0.7135
-0.022727
6.105267
5.809114
5.852793
123.9912
0.000000
Série non stationnaire avec intercept significatif
B.3. STATIONARISATION DE LA SERIE DJI
Il faut appliquer le filtre de différence pour stationnariser la série DJI : GENR DDJI = D(DJI)
Test de la racine sur DIDJ
On applique le test de ADF en cliquant sur 1st difference de Unit Root Test puis successivement sur
« Intercept and trand » et on tape 2 pour le nombre de retard
Sur « intercept » et on tape 2 pour le nombre de retard
Sur « none » et on tape 2 pour le nombre de retard
Modèle avec tendance et constante
Null Hypothesis: D(DDJI) has a unit root
Exogenous: Constant, Linear Trend
Lag Length: 0 (Automatic based on SIC, MAXLAG=0)
Augmented Dickey-Fuller test statistic
Test critical values:
1% level
5% level
t-Statistic
Prob.*
-17.02519
-4.029595
-3.444487
0.0000
*MacKinnon (1996) one-sided p-values.
Augmented Dickey-Fuller Test Equation
Dependent Variable: D(DDJI,2)
Method: Least Squares
Date: 05/28/10 Time: 01:49
Sample (adjusted): 1997M09 2008M07
Included observations: 131 after adjustments
Variable
Coefficient
Std. Error
t-Statistic
Prob.
D(DDJI(-1))
C
@TREND(1997M06)
-1.385233
-0.070517
6.99E-05
0.081364
1.020420
0.013115
-17.02519
-0.069106
0.005332
0.0000
0.9450
0.9958
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.693677
0.688891
5.676221
4124.093
-411.8169
2.340458
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
-0.076336
10.17661
6.333083
6.398927
144.9301
0.000000
Il se dégage que la tendance n’est pas significativement différente de zéro car la probabilité critique
associée au trend est supérieure à 5 pour cent.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
12
Modèle sans tendance et avec constante
Null Hypothesis: D(DDJI) has a unit root
Exogenous: Constant
Lag Length: 0 (Automatic based on SIC, MAXLAG=0)
Augmented Dickey-Fuller test statistic
Test critical values:
1% level
5% level
10% level
t-Statistic
Prob.*
-17.09165
-3.480818
-2.883579
-2.578601
0.0000
*MacKinnon (1996) one-sided p-values.
Augmented Dickey-Fuller Test Equation
Dependent Variable: D(DDJI,2)
Method: Least Squares
Date: 05/28/10 Time: 01:52
Sample (adjusted): 1997M09 2008M07
Included observations: 131 after adjustments
Variable
Coefficient
Std. Error
t-Statistic
Prob.
D(DDJI(-1))
C
-1.385234
-0.065762
0.081047
0.494008
-17.09165
-0.133118
0.0000
0.8943
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.693677
0.691303
5.654177
4124.094
-411.8169
2.340455
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
-0.076336
10.17661
6.317816
6.361712
292.1246
0.000000
Il se dégage que la constante n’est pas significativement différent de zéro.
Modèle sans tendance et sans constante
Null Hypothesis: D(DDJI) has a unit root
Exogenous: None
Lag Length: 0 (Automatic based on SIC, MAXLAG=0)
Augmented Dickey-Fuller test statistic
Test critical values:
1% level
5% level
10% level
t-Statistic
Prob.*
-17.15677
-2.582734
-1.943285
-1.615099
0.0000
*MacKinnon (1996) one-sided p-values.
Augmented Dickey-Fuller Test Equation
Dependent Variable: D(DDJI,2)
Method: Least Squares
Date: 05/28/10 Time: 01:54
Sample (adjusted): 1997M09 2008M07
Included observations: 131 after adjustments
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Variable
Coefficient
Std. Error
t-Statistic
Prob.
D(DDJI(-1))
-1.385248
0.080741
-17.15677
0.0000
0.693635
0.693635
5.632775
4124.661
-411.8259
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Durbin-Watson stat
-0.076336
10.17661
6.302686
6.324634
2.340119
On accepte donc l’hypothèse alternative selon laquelle la série DDJI est stationnaire et donc :
DDJI → I(0) : la série DDJI suit un processus ARMA OU DJI → I(1) : la série DJI suit un processus ARIMA.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
13
Graphique de la série stationnaire
15
10
5
0
DDJI
-5
-10
-15
-20
97
98
99
00
01
02
03
04
05
06
07
08
Il ressort de ce graphique (après différence première) que la série fluctue autour d’une moyenne constante.
C.
MODELISATION ARMA PAR LA METHODE DE BOX-JENKINS
C.1. Identification des ordres p et q du modèle ARMA
La série DIDJ est stationnaire. On va lui chercher un modèle ARMA (p, q) Pour connaître les ordres du
modèle ARMA (p, q), nous allons nous servir de corrélogrammes de la série stationnaire DIDJ. En effet, le
corrélogramme simple permet d’identifier un modèle MA(q), alors que le corrélogramme partiel permet
d’identifier un modèle AR(q).
Corrélogramme de la série stationnaire
Il ressort de ces corrélogrammes que la deuxième autocorrélation (simple et partielle) de la série DDJI est
significativement différente de zéro.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
14
C.2. Estimation de processus AR/ MA/ ARMA
Comme il s’agit de processus ARIMA(2,1,2), les schéma ci-dessus nous servira de guide pour les estimations.
MA(1)
MA(2)
AR(2)
MA(2)
AR(1)
MA(1)
MA(2)
MA(2)
Rappelons qu’il existe quatre types de régression, { noter : la régression standard, la régression
hiérarchique, la régression statistique ou régression pas-à-pas et la régression set wise§§§. Pour estimer les
processus ARIMA(2, 1, 2), nous optons pour la régression set wise.
*Modèle AR(1)
*Modèle AR(2)
*Modèle AR(1) AR(2)
*Modèle AR(2) MA(1)
*Modèle AR(1) AR(2) MA(1)
*Modèle AR(2) MA(1) MA(2)
*Modèle AR(1) AR(2) MA(2)
*Modèle AR(2) MA(2)
*Modèle AR(1) MA(1)
*Modèle MA(1)
*Modèle AR(1) MA(1) MA(2)
*Modèle MA(1) MA(2)
*Modèle AR(1) MA(2)
*Modèle MA(2)
*Modèle AR(1) AR(2) MA(1) MA(2)
Comment estimer ?
COMMANDE EVIEWS : LS DDJI AR(p) MA(q)
Par exemple pour un modèle AR(1), la commande à passer est : LS DDJI AR(1)
Alors que pour un modèle ARMA(1, 2), la commande est dans ce cas : LS DDJI AR(1) MA(1) MA(2)
C.3. Validation du modèle
Après estimation des différents modèles, l’analyse de la significativité des coefficients nous conduits {
conserver les six modèles ci-après. Ces six modèles seront soumis à un test de diagnostic. Seuls les modèles
dont les résidus sont de bruits blancs seront validés.
* AR(2)
: DDJIt = – 0.200963DDJIt-2
* MA(2)
: DDJIt = – 0.252652εt-2
* AR(1) MA(1)
: DDJIt = – 0.815359DDJIt-1 + 0.933094εt-1
* AR(2) MA(2)
: DDJIt = 0.453573DDJIt-2 – 0.701201εt-2
* AR(1) MA(1) MA(2) : DDJIt = – 0.504959DDJIt-1 + 0.546070εt-1 – 0.181535 εt-2
* AR(1) AR(2) MA(1) : DDJIt = 0.619501DDJIt-1 – 0.153935DDJIt-2 – 0.642420εt-1
§§§
Lire Tsasa, 2009, Vers l’économétrie approfondie : une présentation en schémas, CRES. Des auteurs, comme
Kintambu M. (2008) préfère la régression statistique.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
15
Analyse de résidus
Test d’hypothèse nulle de centralité : cette hypothèse veut qu’en moyenne les résidus soient égaux à une
constante nulle.
En appliquant le test de racine unitaire, il ressort que le processus résiduel est stationnaire :
Null Hypothesis: DDJI_RESIDUALS has a unit root
Exogenous: None
Lag Length: 0 (Automatic based on SIC, MAXLAG=12)
Augmented Dickey-Fuller test statistic
Test critical values:
1% level
5% level
10% level
t-Statistic
Prob.*
-11.09590
-2.582599
-1.943266
-1.615111
0.0000
*MacKinnon (1996) one-sided p-values.
Augmented Dickey-Fuller Test Equation
Dependent Variable: D(DDJI_RESIDUALS)
Method: Least Squares
Date: 06/16/10 Time: 04:55
Sample (adjusted): 1997M08 2008M07
Included observations: 132 after adjustments
Variable
Coefficient
Std. Error
t-Statistic
Prob.
DDJI_RESIDUALS(-1)
-0.972381
0.087634
-11.09590
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
0.484485
0.484485
4.179631
2288.480
-375.5874
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Durbin-Watson stat
-0.023432
5.821264
5.705870
5.727709
1.979203
Cependant, le plot indique que le processus résiduel semble être stationnaire en moyenne et non en
variance, pour se faire, il faut passer au test d’hypothèse nulle d’homoscédasticité pour s’en assurer.
10
5
0
DDJI_RESIDUALS
-5
-10
-15
-20
97
98
99
00
01
02
03
04
05
06
07
08
En effet, si le processus n’est pas stationnaire en variance, il est conseiller d’utiliser, non plus un processus
ARIMA, mais plutôt un processus (G)ARCH afin de prendre compte la volatilité et le caractère non linéaire
du modèle.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
16
Test d’hypothèse nulle d’autocorrélation des erreurs (test de Box-Pierce)
Au regard de probabilités affectées aux autocorrélations pour les différents modèles respectifs, on est
conduit { rejeter l’hypothèse de soutient. En conséquence, on décide H0 : il y a absence d’autocorrélation
des erreurs.
Test d’hypothèse nulle d’homoscédasticité (test ARCH)
Pour réaliser ce test, il faut préalablement déterminer le nombre de retards à retenir. Au regard du
corrélogramme des résidus au carré **** du modèle AR(2), on choisit, compte tenu du critère de parcimonie,
un nombre de retards égal à trois.
Il se dégage que les probabilités affectées aux résidus au carré pour les différents modèles respectifs, on
est conduit { rejeter l’hypothèse de soutient. En conséquence, on décide H0 : il y a absence
d’autocorrélation des erreurs.
Etant donné que les hypothèses alternatives pour les différents tests respectifs ont été rejetées, La
modélisation retenue pour la prévision sera donc du type ARIMA.
NOTE : les différents tests sont repris dans l’annexe 2.
Les résidus de ces différents modèles sont de bruits blancs et donc, tous les modèles ci-dessous doivent
être validés.
* AR(2)
* MA(2)
* AR(1) MA(1)
* AR(2) MA(2)
* AR(1) MA(1) MA(2)
* AR(1) AR(2) MA(1)
:
:
:
:
:
:
DDJIt = – 0.200963DDJIt-2
DDJIt = – 0.252652εt-2
DDJIt = – 0.815359DDJIt-1 + 0.933094εt-1
DDJIt = 0.453573DDJIt-2 – 0.701201εt-2
DDJIt = – 0.504959DDJIt-1 + 0.546070εt-1 – 0.181535 εt-2
DDJIt = 0.619501DDJIt-1 – 0.153935DDJIt-2 – 0.642420εt-1
Cependant, pour choisir le modèle à retenir pour la prévision, nous allons recourir aux critères
d’information et au coefficient de détermination. Ces critères permettent d’évaluer la qualité d’une modèle.
MODELE
AIC
SIC
R²
5.751928
5.773876
0.039808
MA(2)
5.738369
5.760101
0.047693
AR(1) MA(1)
5.764665
5.808344
0.043874
AR(2) MA(2)
5.720381
5.764278
0.083722
AR(1) MA(1) MA(2)
5.770850
5.836368
0.052408
AR(1) AR(2) MA(1)
5.761109
5.826954
0.060094
D’après ces critères, il ressort que le modèle AR(2) MA(2) dispose d’une qualité supérieure. Le fait de
retenir ce modèle ne signifie pas que les autres modèles ne peuvent pas être utilisés pour la prévision. Ces
critères n’accordent au modèle retenu qu’une certaine prééminence sur les autres.
AR(2)
****
View (dans la fenêtre d’estimation du modèle sous analyse) → Residual Tests → Correlogram Squared Residuals.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
17
C.4. Prévision
La prédiction a été obtenue { l’étape 3. A présent, nous allons prévoir l’évolution du processus AR(2) MA(2)
à la période t+h.
Soit :
DDJIt = 0.453573DDJIt-2 – 0.701201εt-2
16
Forecast: DDJIF
Actual: DDJI
Forecast sample: 1997M06 2008M07
Adjusted sample: 1997M09 2008M07
Included observations: 131
12
8
4
Root Mean Squared Error
Mean Absolute Error
Mean Abs. Percent Error
Theil Inequality Coefficient
Bias Proportion
Variance Proportion
Covariance Proportion
0
-4
-8
4.161955
3.103631
95.26647
0.752537
0.001366
0.579237
0.419397
-12
98
99
00
01
02
03
04
05
06
07
08
DDJIF
Où DDJIF = DDJI fitted.
Il ressort de cet output que le coefficient de Theil est assez élevé, ce qui n’assure pas une bonne prédiction.
La figure ci-dessous s’avère assez éloquent { cet effet.
20
10
0
10
-10
5
-20
0
-5
-10
-15
-20
98
99
00
01
Residual
02
03
04
Actual
05
06
07
08
Fitted
Après avoir générer les résidus (resid) et la variable prédite [= (DDJI) – (Resid)], aller dans VIEW → DATED DATA TABLE.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
18
Une lecture minutieuse de ce tableau (traduisant en chiffre le résultat de la figure précédente) prouve, par
ailleurs, également que la prédiction n’est pas très bonne.
Jan
Feb
Mar
Apr
May
Jun
Aug
Sep
Oct
Nov
Dec
----
Jul
1997
-1.0
0.77
-1.77
5.0
0.89
4.11
7.0
1.21
5.79
5.0
3.69
1.31
-2.0
-0.89
-1.11
4.0
1.35
2.65
Year
1997
3.0
1.17
1.83
DDJI
FITTED
RESIDUAL
----
----
----
----
----
DDJI
FITTED
RESIDUAL
-1.0
-0.13
-0.87
-3.0
-0.05
-2.95
-3.0
0.16
-3.16
4.0
0.71
3.29
5.0
0.85
4.15
1.0
-0.49
1.49
1998
-9.0
-0.64
-8.36
0.0
-0.59
0.59
5.0
1.78
3.22
-4.0
-0.42
-3.58
0.0
0.01
-0.01
1.0
0.70
0.30
1998
-0.3
0.16
-0.49
DDJI
FITTED
RESIDUAL
3.0
0.01
2.99
0.0
0.24
-0.24
-6.0
-0.74
-5.26
3.0
0.17
2.83
0.0
0.97
-0.97
0.0
-0.62
0.62
1999
1.0
0.68
0.32
-8.0
-0.44
-7.56
2.0
0.23
1.77
8.0
1.67
6.33
-2.0
-0.33
-1.67
-4.0
-0.81
-3.19
1999
-0.3
0.09
-0.34
DDJI
FITTED
RESIDUAL
-1.0
0.26
-1.26
-12.0
0.42
-12.42
0.0
0.43
-0.43
6.0
3.27
2.73
2.0
0.30
1.70
0.0
0.81
-0.81
2000
-1.0
-0.28
-0.72
7.0
0.57
6.43
-4.0
0.05
-4.05
-1.0
-1.34
0.34
-6.0
1.02
-7.02
0.0
-0.69
0.69
2000
-0.8
0.40
-1.24
DDJI
FITTED
RESIDUAL
2.0
2.20
-0.20
3.0
-0.48
3.48
2.0
1.05
0.95
1.0
-1.08
2.08
-3.0
0.24
-3.24
-6.0
-1.01
-4.99
2001
3.0
0.91
2.09
3.0
0.78
2.22
-17.0
-0.10
-16.90
3.0
-0.20
3.20
12.0
4.14
7.86
-1.0
-0.88
-0.12
2001
0.2
0.46
-0.30
DDJI
FITTED
RESIDUAL
1.0
-0.07
1.07
-3.0
-0.37
-2.63
2.0
-0.30
2.30
1.0
0.48
0.52
4.0
-0.70
4.70
4.0
0.09
3.91
2002
1.0
-1.48
2.48
-3.0
-0.93
-2.07
1.0
-1.29
2.29
-3.0
0.09
-3.09
3.0
-1.15
4.15
-3.0
0.81
-3.81
2002
0.4
-0.40
0.82
DDJI
FITTED
RESIDUAL
-1.0
-1.55
0.55
2.0
1.31
0.69
-2.0
-0.84
-1.16
4.0
0.42
3.58
3.0
-0.09
3.09
-2.0
-0.69
-1.31
2003
2.0
-0.81
2.81
0.0
0.01
-0.01
-4.0
-1.06
-2.94
1.0
0.01
0.99
1.0
0.25
0.75
0.0
-0.24
0.24
2003
0.3
-0.27
0.61
DDJI
FITTED
RESIDUAL
1.0
-0.08
1.08
-1.0
-0.17
-0.83
-2.0
-0.30
-1.70
4.0
0.13
3.87
1.0
0.28
0.72
1.0
-0.90
1.90
2004
1.0
-0.05
1.05
2.0
-0.88
2.88
1.0
-0.28
1.28
1.0
-1.11
2.11
-4.0
-0.44
-3.56
1.0
-1.03
2.03
2004
0.5
-0.40
0.90
DDJI
FITTED
RESIDUAL
2.0
0.68
1.32
3.0
-0.97
3.97
5.0
-0.02
5.02
2.0
-1.42
3.42
2.0
-1.25
3.25
1.0
-1.49
2.49
2005
2.0
-1.37
3.37
-4.0
-1.29
-2.71
5.0
-1.46
6.46
7.0
0.08
6.92
1.0
-2.26
3.26
2.0
-1.68
3.68
2005
2.3
-1.04
3.37
DDJI
FITTED
RESIDUAL
-5.0
-1.83
-3.17
4.0
-1.67
5.67
3.0
-0.05
3.05
-7.0
-2.16
-4.84
2.0
-0.78
2.78
-9.0
0.22
-9.22
2006
-2.0
-1.04
-0.96
-2.0
2.38
-4.38
5.0
-0.23
5.23
2.0
2.17
-0.17
-8.0
-1.40
-6.60
-8.0
1.02
-9.02
2006
-2.1
-0.28
-1.80
DDJI
FITTED
RESIDUAL
2.0
1.00
1.00
-4.0
2.70
-6.70
1.0
0.20
0.80
-1.0
2.88
-3.88
4.0
-0.10
4.10
7.0
2.27
4.73
2007
-3.0
-1.06
-1.94
-1.0
-0.14
-0.86
1.0
-0.00
1.00
6.0
0.15
5.85
0.0
-0.25
0.25
3.0
-1.38
4.38
2007
1.3
0.52
0.73
DDJI
FITTED
RESIDUAL
6.0
-0.18
6.18
1.0
-1.71
2.71
-2.0
-1.61
-0.39
-17.0
-1.45
-15.55
-2.0
-0.63
-1.37
0.0
3.19
-3.19
2008
-4.0
0.05
-4.05
----
----
----
----
----
2008
-2.6
-0.33
-2.24
*DDJI : variable observée *FIITED : variable prédite
Il est possible de réaliser la prévision (c’est-à-dire DDJIt après juillet 2008) avec le modèle suivant :
DDJIt+h = 0.453573DDJIt-2+h – 0.701201εt-2+h (avec εt-2+h = 0 pour tout h > 2).
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
19
Le coefficient d’inégalité de Theil étant élevé, soit 75.25 pour cent ; Il est possible de réduire sa valeur en
transformant le modèle ARIMA(p, d, q) à un modèle ARIMA(p+1, 0, q).
Dans ce cas, comme il s’agit d’un ARIMA (2, 1, 2), ainsi, nous aurons après transformation :
ARIMA(3, 0, 2)
En effectuant successivement une régression statistique††††, on obtient (voir l’output en annexe 2) :
Estimation Command:
=====================
LS DJI C AR(1) AR(2) AR(3) MA(2)
Estimation Equation:
=====================
DJI = C(1) + [AR(1)=C(2),AR(2)=C(3),AR(3)=C(4),MA(2)=C(5),BACKCAST=1997M09]
Substituted Coefficients:
=====================
DJIt = 118.9092118 + 0.9340609646DJIt-1 – 0.8875797139DJIt-2 + 0.8404905899DJIt-3 + 0.8400971652εt-2
(19.57424)
(19.04214)
(-8.731020)
(9.030868)
(6.992286)
(0.0000)
(0.0000)
(0.0000)
(0.0000)
(0.0000)
R²= 0.885822
AIC = 5.760724
SIC =5.870464
Prob(F-Statistic) = 0.000000
Graphiquement, les valeurs prédites se présentent comme suit.
160
Forecast: DJIF
Actual: DJI
Forecast sample: 1997M06 2008M07
Adjusted sample: 1997M09 2008M07
Included observations: 131
150
140
130
Root Mean Squared Error
Mean Absolute Error
Mean Abs. Percent Error
Theil Inequality Coefficient
Bias Proportion
Variance Proportion
Covariance Proportion
120
110
100
90
4.150611
3.035962
2.615235
0.017600
0.000002
0.031708
0.968290
80
98
99
00
01
02
03
04
05
06
07
08
DJIF
Au regard de ce résultat, il se dégage que le coefficient d’inégalité de THEIL a sensiblement diminué
(0.017600) et que par ailleurs, l’erreur quadratique moyenne est inférieure (4.150611) { celle du modèle
précédent (4.161955). Donc, la prévision réalisée sur base de ce modèle est meilleure à celle du premier
modèle.
††††
Il existe quatre types de régressions, parmi celles, la régression statistique, appelée également régression pas-à-pas.
Cette dernière repose sur le test de Student ; c’est-à-dire, elle se refère à la règle de pousse pour décider sur la
prédictibilité d’un modèle.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
20
Les valeurs actuelles et prédites sont reprises dans la figure suivante :
160
140
120
100
10
80
0
-10
-20
98
99
00
01
02
Residual
03
04
05
Actual
06
07
08
Fitted
Pour prévoir l’évolution de la valeur actuelle de l’indice Dow Jones, nous allons nous référer au résultat de
l’équation estimée :
DJIt+h = 118.9092118 + 0.9340609646DJIt-1+h + 0.8875797139DJIt-2+h + 0.8404905899DJIt-3+h + 0.8400971652εt-2+h
Pour ce faire, nous avons besoin de données suivantes (VIEW→ Actual, Fitted, Residual→ Table) :
OBS
ACTUAL
FITTED
RESIDUAL
RESIDUAL PLOT
2008M01
2008M02
2008M03
2008M04
2008M05
2008M06
2008M07
142.000
143.000
141.000
124.000
122.000
122.000
118.000
135.513
141.054
140.731
139.203
124.531
123.073
121.205
6.48678
1.94598
0.26927
-15.2033
-2.53127
-1.07260
-3.20512
|
. | .*
|
. |* .
|
. * .
| * . | .
|
.* | .
|
. *| .
|
.* | .
|
|
|
|
|
|
|
En août, septembre, octobre, novembre et décembre 2008, nous aurons :
Horizon de prévision
Modèle de prévision :
Août 2008
→
h=1
DJIaoût = 118.909 + 0.934DJIjuillet – 0.888DJIjuin + 0.841DJImai + 0.840εjuin
Septembre 2008
→
h=2
DJIseptembre = 118.909 + 0.934DJIaoût – 0.888DJIjuillet + 0.841DJIjuin + 0.840εjuillet
Octobre 2008
→
h=3
DJIoctobre = 118.909 + 0.934DJIseptembre – 0.888DJIaoût + 0.841DJIjuillet
Novembre 2008
→
h=4
DJInovembre = 118.909 + 0.934DJIoctobre – 0.888DJIseptembre + 0.841DJIaoût
Décembre 2008
→
h=5
DJIdécembre = 118.909 + 0.934DJInovembre – 0.888DJIoctobre + 0.841DJIseptembre
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
21
Estimations des paramètres des modèles ARCH /GARCH
par la méthode maximum de vraisemblance
RAPPEL SUR LES PROPRIETES DE SERIES FINANCIERES
Propriété 1 (Stationnarité) : Les processus stochastiques Xt associés aux prix d’actif sont généralement non
stationnaires au sens de la stationnarité du second ordre, tandis que les processus associés aux rendements
sont compatibles avec la propriété de stationnarité au second ordre.
C’est la propriété centrale des processus ARCH : le processus Xt possède les propriétés d’un bruit blanc
homoscédastique, mais sa variance conditionnelle dépend du temps.
Propriété 2 (Autocorrélations des carrés des variations de prix) : La série r2t associée aux carrés des
rendements présente généralement de fortes autocorrélations, tandis que les autocorrélations de la série r t
sont souvent très faibles (hypothèse de bruit blanc).
NOTE : Lorsqu’un processus Xt vérifie les propriétés 1 et 2, on dit qu’il vérifie la définition d’une différence de
martingale‡‡‡‡ homoscédastique et d’un bruit blanc.
Propriété 3 (Queues de distribution épaisses) : L’hypothèse de normalité des rendements est généralement
rejetée. Les queues des distributions empiriques des rendements sont généralement plus épaisses que
celles d’une loi gaussienne. On parle alors de distribution leptokurtique.
Propriété 4 (Clusters de Volatilité) : On observe empiriquement que de fortes variations des rendements
sont généralement suivies de faibles variations. On assiste ainsi à un regroupement des extrêmes en cluster
ou paquets de volatilités. Dans ces conditions, le processus Xt est conditionnellement hétéroscédastique.
C
Propriété 5 (Queues épaisses conditionnelles) : Même une fois corrigée de la volatilité clustering (par
exemple avec des modèles ARCH), la distribution des résidus demeure leptokurtique même si la kurtosis est
plus faible que dans le cas non conditionnel.
Propriété 6 (Effet de levier) : Il existe une asymétrie entre l’effet des valeurs passées négatives et l’effet des
valeurs passées positives sur la volatilité des cours ou de rendements. Les baisses de cours tendent à
engendrer une augmentation de la volatilité supérieure à celle induite par une hausse des cours de même
ampleur.
Cette propriété n’est pas à confondre avec celle d’asymétrie de la distribution des cours ou des rendements
(propriété 8). Il s’agit ici d’une asymétrie de la relation liant les valeurs passés des cours ou rendements à la
volatilité de ces derniers.
Propriété 7 (Saisonnalité) : Les returns présentent de nombreux phénomènes de saisonnalité (effets weekend, effet janvier, etc..).
Propriété 8 (Asymétrie perte/gain) : La distribution des cours est généralement asymétrique : il y a plus de
mouvements forts { la baisse qu’{ la hausse.
‡‡‡‡
Un processus X test une différence de martingale homoscédastique si et seulement si : E(Xt/Xt-1) = 0 et V(Xt) = σ²x
pout tout t.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
22
Construisons, { présent, un modèle (G)ARCH { partir de la série de l’action General Electric Co, notée VAGE.
Les données considérées { cet effet sont hebdomadaires et la période retenue pour l’étude va du 3 janvier
1972 au 25 Janvier 2010, 1987 observations.
Les données sur Eviews se présentent comme suit :
A. ANALYSE EXPLORATOIRE DES DONNEES
Plot de la série VAGE
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
23
On peut également travailler avec de données logarithmiques dans ce cas, le plot de la série linéarisée
(noté, LVAGE) se présente comme suit :
B. ETUDE DE LA STATIONNARITE
B.1. Corrélogramme
En examinant le corrélogramme (figure ci-contre), nous
constatons qu’il y a une décroissance lente des
coefficients d’autocorrélation avec 36 coefficients
d’autocorrélation simple non nuls et 8 coefficients
d’autocorrélation partielle significatifs (non nuls). Cela
correspond donc à un modèle ARMA(8, 36) non
stationnaire. En vertu du principe de parcimonie, nous
admettons un processus ARMA(2, 2).
Rappel : d’après le principe de parcimonie, les valeurs
décalées d’une variable dépendante dans un modèle
ont tendance à exercer une influence chaque fois
moindre sur la variable dépendante au fur et à mesure
qu’on s’éloigne dans le temps.
Au regard de ce corrélogramme, il y a lieu de soupçonner que la série n’est pas stationnaire à niveau.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
24
B.2. Test de la racine unitaire
Cependant, en passant le test de Phillips-Perron, il ressort
que la série est stationnarité à niveau, avec trend et
constante significatifs. Le résultat ne change pas de nature
même si l’on recourt au test ADF.
En effet, la statistique PP (qui normalement doit être négative)
en valeur absolue est supérieure aux valeurs critiques de
MacKinnon à tous les seuils.
En se référant à la règle de pousse et aux probabilités critiques, il ressort que le trend et la dérive sont tous
significatifs.
Faudra-t-il appliquer la modélisation ARMA avec la méthodologie BJ ou la modélisation ARCH avec la méthode de
maximum de vraisemblance ? Pour se décider sur la méthodologie à suivre, nous nous basons sur deux tests.
Analyse du plot de la série résiduelle
Ce graphique indique la présence de volatilité, il y a donc lieu de suspecter la présence d’une série non stationnaire en
variance. Pour s’en convaincre, formellement, nous effectuons aussitôt le test d’hypothèse nulle d’homoscédasticité. Il
existe plusieurs tests§§§§, à cet effet. Dans le cadre de ce cours, on recourt au test ARCH.
§§§§
Test de Harvey, Test de Glejser, Test de White ou Custom test wizard.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
25
Test ARCH
Le résultat repris dans le tableau ci-dessous nous pousse à rejeter l’hypothèse nulle. Donc, on admet que la variance
résiduelle est non homoscédastique.
Donc, la prévision de l’évolution de la variable VAGE sera faite sur base d’un modèle (G)ARCH estimé par la méthode de
maximum de vraisemblance.
C. CHOIX DU MODELE (G)ARCH(p,q)
L’ordre approprié au modèle (G)ARCH(p,q) est obtenu { partir du corrélogramme des résidus au carré du
modèle ARMA(2,2). L’autocorrélation partielle permet de déterminer l’ordre q de ARCH, alors que
l’autocorrélation simple permet de définir l’ordre p du GARCH(p,q).
Comme l’indique le résultat ci-après, le corrélogramme des résidus au carré présente 36 autocorrélations
simples et 8 autocorrélations partielles significativement différentes de zéro.
Par principe de parcimonie, on retient les deux
premières autocorrélations (simples et partielles).
Ainsi, on estimera les modèles suivants : ARCH(2),
GARCH(2,2), GARCH(1,2), GARCH(2,1), GARCH(1,1).
La comparaison des modèles estimés se fera ensuite { l’aide des critères suivants : AIC, SIC, R², log-likehood.
On choisira le modèle qui vérifiera un maximum de ces critères.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
26
ESTIMATION
Pour estimer les modèles (G)ARCH, on va dans Quick puis dans Estimate Equation. Ensuite, cliquer la pointe
de la flèche là où on a Least Squares pour sélectionner ARCH. Dans la partie intitulé Mean Equation
Specification : on tape VAGE C T AR(1) AR(2) MA(1) MA(2).
Pour l’estimation d’un modèle :
o
o
o
o
o
ARCH(2), on tape 2 dans la case ARCH et 0 dans la case GARCH
GARCH (1,1), on tape 1 dans la case ARCH et 1 dans la case GARCH
GARCH (2,1), on tape 2 dans la case ARCH et 1 dans la case GARCH
GARCH (1,2), on tape 1 dans la case ARCH et 2 dans la case GARCH
GARCH (2,2), on tape 2 dans la case ARCH et 2 dans la case GARCH
NOTE : les coefficients estimés par la modélisation ARCH doivent être toujours être positif (contrainte de positivité*****).
ARCH(2)
*****
L’optimisation de la fonction de vraisemblance est réalisée sous certaintes conraintes, notamment celle de non
négativité.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
27
Le coefficient du modèle ARCH(2) n’étant pas significatif ; estimons, à présent, un modèle ARCH(1).
ARCH(1)
Le coefficient ARCH(1) est positif et significativement différent de zéro. On garde donc ce modèle.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
28
GARCH(1,1)
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
29
GARCH(1,2)
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
30
GARCH(2,1)
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
31
GARCH(2,2)
Au bout de ces estimations, il ressort donc que le seul modèle retenu pour la prévision de la volatilité est le
modèle ARCH(1).
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
32
CONCLUSION
Il y avait en plus un grand nombre de « profanes » c’est-à-dire d’auteurs qui soutenaient des systèmes
théoriques de leur cru, et condamnaient la théorie professionnelle sans se soucier de la maîtriser. Il y avait
enfin autre chose. Comme toujours, la majorité des économistes était absorbée par l’étude des faits et des
problèmes pratiques des divers départements de la politique publique. La théorie ne servait pas à grand
chose pour cette majorité.
Schumpeter, J., 1983, Histoire de l’analyse économique, Tome 3, Gallimard, Paris, p. 273.
Le seul moyen d’accès { une position telle que notre science puisse donner un avis positif pour de
nombreux politiciens et hommes d’affaires repose sur des travaux quantitatifs. Aussi longtemps que nous
ne serons pas capables de traduire nos arguments en chiffres, la voix de notre science, bien qu’elle puisse
occasionnellement aider à éviter des erreurs grossières, ne sera jamais entendue par les praticiens. Ils sont
tous, par instinct, économètres, du fait de leur incrédulité pour toute chose dont il n’existe pas une preuve
exacte.
Schumpeter, J.A., 1933, The common sense of econometrics, vol. 1, Econometrica, p. 12.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
33
Bibliographie
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
Charpentier, A., 2006, Cours de séries temporelles : théorie et applications, Université Paris Dauphjine.
Cobbaut, R., 1997, Théorie Financière, Economica.
Droesbeke, J-J., Fichet, B., et Tassi, P. (eds), 1994, Modélisation ARCH. Théorie statistique et Applications
dans le domaine de la finance, disponible en ligne http://digistore.bib.ulb.ac.be/DL2826626_000_f.pdf.
Engel, R.F. and Bollerslev, T.P., 1986, Modelling the persistence of conditional variances, Econometric
reviews, 5, 1-50, pp.81-87.
Friedman, B.M. and Kuttner, K.N., 1988, Time varying risk perceptions and the pricing of risk assets,
unpublished manuscript, Departement of economics, Havard University and NBER, Working paper,
n°2694.
Hurlin, C., 2006-2007, Econométrie pour la finance: Modèles ARCH-GARCH, Applications à la VaR, Master
econométrie et Statistique appliquée, Université d’Orléans, disponible en ligne http://www.univorleans.fr/deg/masters/ESA/CH/churlin_E.htm .
Kintambu, E.G., 2008, Principes d’économétrie, 3ème édition, Presse de l’Université Kongo.
Mankiw, N.G. and Shapiro, M.D., 1986, Risk and Return: consumption versus Market Beta, Review of
Economics and statistics, 68.
Mukoko, D., 2010, Cours de Statistique appliquée aux finances, Centre Congolais-Allemand de
Microfinance, UPC, Kinshasa.
RAGGAD, B. et TRABELSIY, A., 2003, Value at Risk et Prévision de la volatilité d’un panier de taux de
change, Institut Supérieur de Gestion de Tunis.
Taylor, S.J., 1984, Estimating the variances of autocorrelations calculated from financial time series,
Journal of the royal statistical association, series C (Applied statistics), 33, pp 300-308.
Taylor, S.J., 1986, Modelling financial time series, John Wiley and Sons, Chichester.
Tsasa, J.P., Vers l’économétrie approfondie : une présentation en schémas, CRES.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
34
ANNEXE 1 : Estimation de processus ARIMA(2, 1, 2)
*Modèle AR(1) : DDJI = AR(1)
Dependent Variable: DDJI
Method: Least Squares
Date: 06/08/10 Time: 17:21
Sample (adjusted): 1997M08 2008M07
Included observations: 132 after adjustments
Convergence achieved after 2 iterations
Variable
Coefficient
Std. Error
t-Statistic
Prob.
AR(1)
0.021704
0.087613
0.247728
0.8047
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Inverted AR Roots
-0.000625
-0.000625
4.370117
2501.828
-381.4702
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Durbin-Watson stat
0.143939
4.368752
5.795004
5.816843
1.970832
.02
Modèle non significatif.
*Modèle AR(2) : DDJI = AR(1) AR(2)
Dependent Variable: DDJI
Method: Least Squares
Date: 06/08/10 Time: 17:16
Sample (adjusted): 1997M09 2008M07
Included observations: 131 after adjustments
Convergence achieved after 3 iterations
Variable
Coefficient
Std. Error
t-Statistic
Prob.
AR(2)
-0.200563
0.085744
-2.339098
0.0209
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
0.039808
0.039808
4.276878
2377.919
-375.7513
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Durbin-Watson stat
0.106870
4.364634
5.751928
5.773876
1.938085
En estimant le modèle AR(2), il ressort que AR(1) est non significatif, on l’écarte dès lors du modèle et on
obtient :
DDJI = AR(2)
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
35
*Modèle MA(1) : DDJI = MA(1)
Dependent Variable: DDJI
Method: Least Squares
Date: 06/08/10 Time: 17:22
Sample (adjusted): 1997M07 2008M07
Included observations: 133 after adjustments
Convergence achieved after 12 iterations
Backcast: 1997M06
Variable
Coefficient
Std. Error
t-Statistic
Prob.
MA(1)
0.036413
0.087261
0.417289
0.6771
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Inverted MA Roots
-0.000188
-0.000188
4.353712
2502.035
-383.8638
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Durbin-Watson stat
0.135338
4.353302
5.787425
5.809157
2.007848
-.04
Modèle non significatif.
*Modèle MA(2) : DDJI = MA(1) MA(2)
Dependent Variable: DDJI
Method: Least Squares
Date: 06/08/10 Time: 17:18
Sample (adjusted): 1997M07 2008M07
Included observations: 133 after adjustments
Convergence achieved after 9 iterations
Backcast: 1997M05 1997M06
Variable
Coefficient
Std. Error
t-Statistic
Prob.
MA(2)
-0.252652
0.085593
-2.951775
0.0037
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
0.047693
0.047693
4.248223
2382.257
-380.6015
Inverted MA Roots
.50
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Durbin-Watson stat
0.135338
4.353302
5.738369
5.760101
1.926493
-.50
En estimant le modèle MA(2), il ressort que MA(1) est non significatif, on l’écarte dès lors du modèle et on
obtient :
DDJI = MA(2)
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
36
*Modèle ARMA (1, 1) : DDJI = AR(1) MA(1)
Dependent Variable: DDJI
Method: Least Squares
Date: 06/08/10 Time: 17:20
Sample (adjusted): 1997M08 2008M07
Included observations: 132 after adjustments
Convergence achieved after 14 iterations
Backcast: 1997M07
Variable
Coefficient
Std. Error
t-Statistic
Prob.
AR(1)
MA(1)
-0.815355
0.933094
0.106831
0.073167
-7.632190
12.75288
0.0000
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Inverted AR Roots
Inverted MA Roots
0.043874
0.036519
4.288239
2390.569
-378.4679
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Durbin-Watson stat
0.143939
4.368752
5.764665
5.808344
2.097860
-.82
-.93
*Modèle ARMA (1, 2) : DDJI = AR(1) MA(1) MA(2)
Dependent Variable: DDJI
Method: Least Squares
Date: 06/08/10 Time: 17:43
Sample (adjusted): 1997M08 2008M07
Included observations: 132 after adjustments
Convergence achieved after 20 iterations
Backcast: 1997M06 1997M07
Variable
Coefficient
Std. Error
t-Statistic
Prob.
AR(1)
MA(1)
MA(2)*
-0.504959
0.546070
-0.181535
0.235592
0.236989
0.102377
-2.143368
2.304195
-1.773200
0.0340
0.0228
0.0786
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Inverted AR Roots
Inverted MA Roots
0.052408
0.037717
4.285572
2369.230
-377.8761
-.50
.23
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Durbin-Watson stat
0.143939
4.368752
5.770850
5.836368
1.980523
-.78
*MA(2) est significatif au seuil de 10%.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
37
*Modèle ARMA (2, 1) : DDJI = AR(1) AR(2) MA(1)
Dependent Variable: DDJI
Method: Least Squares
Date: 06/08/10 Time: 17:42
Sample (adjusted): 1997M09 2008M07
Included observations: 131 after adjustments
Convergence achieved after 8 iterations
Backcast: 1997M08
Variable
Coefficient
Std. Error
t-Statistic
Prob.
AR(1)
AR(2)*
MA(1)
0.619501
-0.153935
-0.642420
0.210899
0.089664
0.207155
2.937434
-1.716807
-3.101161
0.0039
0.0884
0.0024
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
0.060094
0.045407
4.264389
2327.682
-374.3527
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Durbin-Watson stat
Inverted AR Roots
Inverted MA Roots
.31+.24i
.64
.31-.24i
0.106870
4.364634
5.761109
5.826954
1.963489
*AR(2) est significatif au seuil de 10%.
*Modèle ARMA (2, 2) : DDJI = AR(1) AR(2) MA(1) MA(2)
Dependent Variable: DDJI
Method: Least Squares
Date: 06/08/10 Time: 17:44
Sample (adjusted): 1997M09 2008M07
Included observations: 131 after adjustments
Convergence achieved after 8 iterations
Backcast: 1997M07 1997M08
Variable
Coefficient
Std. Error
t-Statistic
Prob.
AR(2)
MA(2)
0.453573
-0.701201
0.194064
0.158860
2.337233
-4.413952
0.0210
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
0.083722
0.076619
4.194094
2269.165
-372.6850
Inverted AR Roots
Inverted MA Roots
.67
.84
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Durbin-Watson stat
0.106870
4.364634
5.720381
5.764278
1.942155
-.67
-.84
En estimant le modèle ARMA(2, 2), il ressort que AR(1) et MA(1) sont non significatifs, on les écarte dès lors
du modèle et on obtient un modèle :
DDJI = AR(2) MA(2)
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
38
ANNEXE 2 : Tests de validité
TEST D’HYPOTHESE NULLE D’ABSENCE D’AUTOCORRELATION DES ERREURS
VIEW → RESIDUAL TESTS → CORRELOGRAM-Q-STATISTICS
TEST D’HETEROSCEDASTICITE
*Détermination du nombre de retards à retenir : l’identification du nombre de décalages se fait { partir du
corrélogramme des résidus au carré du modèle estimé, par exemple AR(2).
VIEW → RESIDUAL TESTS → CORRELOGRAM SQUAREDE RESIDUALS
Après avoir identifié le nombre de retards, on dès lors effectue le test ARCH : VIEW → RESIDUAL → TESTS ARCH LM Test
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
39
Modèle AR(2)
Test d’autocorrélation
Les probabilités affectées aux autocorrélations sont toutes supérieures à 5 pour cent. On décide donc qu’il y a absence
d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
40
Test d’hypothèse nulle d’homoscédasticité
ARCH Test:
F-statistic
Obs*R-squared
0.489736
1.498843
Probability
Probability
0.690038
0.682537
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 06/24/10 Time: 19:55
Sample (adjusted): 1997M12 2008M07
Included observations: 128 after adjustments
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
RESID^2(-1)
RESID^2(-2)
RESID^2(-3)
18.15252
-0.091697
0.043795
0.034063
4.558358
0.089684
0.089912
0.089452
3.982249
-1.022446
0.487087
0.380790
0.0001
0.3086
0.6271
0.7040
0.011710
-0.012201
39.51697
193637.3
-650.2137
1.998437
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
17.93201
39.27809
10.22209
10.31121
0.489736
0.690038
41
Modèle MA(2)
Test d’autocorrélation
Les probabilités affectées aux autocorrélations sont toutes supérieures { 5 pour cent. On décide donc qu’il y a absence
d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
42
Test d’hypothèse nulle d’homoscédasticité
ARCH Test:
F-statistic
Obs*R-squared
0.524552
1.603587
Probability
Probability
0.666191
0.658577
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 06/24/10 Time: 20:02
Sample (adjusted): 1997M10 2008M07
Included observations: 130 after adjustments
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
RESID^2(-1)
RESID^2(-2)
RESID^2(-3)
18.24174
-0.097171
0.037953
0.034929
4.458063
0.088843
0.089204
0.088819
4.091854
-1.093737
0.425459
0.393257
0.0001
0.2762
0.6712
0.6948
0.012335
-0.011181
38.42745
186060.2
-656.7709
2.003703
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
17.80579
38.21441
10.16571
10.25394
0.524552
0.666191
43
Modèle AR(1) MA(1)
Test d’autocorrélation
Les probabilités affectées aux autocorrélations sont toutes supérieures à 5 pour cent. On décide donc qu’il y a absence
d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
44
Test d’hypothèse nulle d’homoscédasticité
ARCH Test:
F-statistic
Obs*R-squared
0.302495
0.929773
Probability
Probability
0.823543
0.818238
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 06/24/10 Time: 20:04
Sample (adjusted): 1997M11 2008M07
Included observations: 129 after adjustments
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
RESID^2(-1)
RESID^2(-2)
RESID^2(-3)
17.23746
-0.047793
0.067421
0.012564
4.620924
0.089455
0.088857
0.088991
3.730305
-0.534275
0.758756
0.141184
0.0003
0.5941
0.4494
0.8880
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.007208
-0.016619
41.30206
213232.5
-661.0091
1.997196
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
17.85585
40.96307
10.31022
10.39890
0.302495
0.823543
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
45
Modèle AR(2) MA(2)
Test d’autocorrélation
Les probabilités affectées aux autocorrélations sont toutes supérieures { 5 pour cent. On décide donc qu’il y a absence
d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
46
Test d’hypothèse nulle d’homoscédasticité
ARCH Test:
F-statistic
Obs*R-squared
0.495518
1.516330
Probability
Probability
0.686050
0.678506
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 06/28/10 Time: 22:53
Sample (adjusted): 1997M12 2008M07
Included observations: 128 after adjustments
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
RESID^2(-1)
RESID^2(-2)
RESID^2(-3)
17.62215
-0.090771
0.048596
0.031668
4.368494
0.089673
0.089901
0.089637
4.033918
-1.012234
0.540547
0.353287
0.0001
0.3134
0.5898
0.7245
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.011846
-0.012061
37.78869
177070.1
-644.4895
2.000400
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
17.44264
37.56285
10.13265
10.22177
0.495518
0.686050
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
47
Modèle AR(1) AR(2) MA(2)
Test d’autocorrélation
Les probabilités affectées aux autocorrélations sont toutes supérieures { 5 pour cent. On décide donc qu’il y a absence
d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
48
Test d’hypothèse nulle d’homoscédasticité
ARCH Test:
F-statistic
Obs*R-squared
0.454391
1.391846
Probability
Probability
0.714659
0.707447
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 06/28/10 Time: 22:54
Sample (adjusted): 1997M12 2008M07
Included observations: 128 after adjustments
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
RESID^2(-1)
RESID^2(-2)
RESID^2(-3)
17.69121
-0.088161
0.045513
0.027634
4.373277
0.089688
0.089907
0.089655
4.045298
-0.982975
0.506219
0.308225
0.0001
0.3275
0.6136
0.7584
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.010874
-0.013057
37.86379
177774.7
-644.7436
2.000406
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
17.43300
37.61900
10.13662
10.22574
0.454391
0.714659
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
49
Modèle AR(1) AR(2) MA(1)
Test d’autocorrélation
Les probabilités affectées aux autocorrélations sont toutes supérieures { 5 pour cent. On décide donc qu’il y a absence
d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
50
Test d’hypothèse nulle d’homoscédasticité
ARCH Test:
F-statistic
Obs*R-squared
0.794439
2.413805
Probability
Probability
0.499211
0.491070
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 06/28/10 Time: 22:56
Sample (adjusted): 1997M12 2008M07
Included observations: 128 after adjustments
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
RESID^2(-1)
RESID^2(-2)
RESID^2(-3)
17.16682
-0.094886
0.078145
0.066204
4.481736
0.089643
0.089747
0.089655
3.830395
-1.058488
0.870726
0.738435
0.0002
0.2919
0.3856
0.4616
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.018858
-0.004879
39.04670
189056.0
-648.6813
1.997104
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
18.04914
38.95178
10.19815
10.28727
0.794439
0.499211
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
51
ANNEXE 3 : Estimation du processus ARIMA(3, 0,2) →ARMA(3, 2)
Dependent Variable: DJI
Method: Least Squares
Date: 06/28/10 Time: 16:08
Sample (adjusted): 1997M09 2008M07
Included observations: 131 after adjustments
Convergence achieved after 13 iterations
Backcast: 1997M07 1997M08
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
AR(1)
AR(2)
AR(3)
MA(2)
118.9092
0.934061
-0.887580
0.840491
0.840097
6.074779
0.049052
0.101658
0.093069
0.120146
19.57424
19.04214
-8.731020
9.030868
6.992286
0.0000
0.0000
0.0000
0.0000
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
Inverted AR Roots
0.885822
0.882198
4.232163
2256.812
-372.3274
1.893536
.94
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
-.00+.95i
117.3053
12.33063
5.760724
5.870464
244.3858
0.000000
-.00-.95i
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
52
ANNEXE 4 : Liste des ouvrages de la B.U.C
Jean-Paul TSASA V.
Université Protestante au Congo
Centre Congolais-Allemand de Microfinance
Alors que je fus sur le banc de l’école, je me posais toujours la question de savoir d’où vient l’incompréhension ? Qu’estce qui fait que certaines personnes maîtrisent mieux certains concepts que certaines autres ? Après beaucoup de temps
de réflexion, j’ai trouvé une réponse satisfaisante, que j’estime être plus ou moins parfaite. L’incompréhension vient de
trois éléments essentiels, à savoir : le manque de pré-requis, la non maîtrise du jargon et la limite imposée par le
quotient intellectuel. Le dernier argument pose une contrainte de disponibilité. Cependant, pour résoudre les
problèmes liés au pré-requis et au jargon, il faut beaucoup lire. Et cette lecture doit intégrer certaines exigences,
notamment : la concentration, le raisonnement, l’attention, la conscience et le sérieux ; donc, une lecture intelligente.
Pour ce faire, je propose aux étudiants ou intéressés ayant l’accès { la Bibliothèque Universitaire Centrale (B.U.C), une
panoplie d’ouvrage que j’ai eu { lire tout au long de mon parcours universitaire. Donc, voici la liste de quelques
ouvrages de statistique/économétrie répertoriés au sein de la B.U.C de l’Université Protestante au Congo. Une
collection d’ouvrages, limitée, pour l’étudiant qui désire s’entraîner avec des applications classiques de statistique
descriptive, de statistique mathématique ou d’économétrie.
Note : la liste des ouvrages, bien qu’obéissant au principe d’essentialité, apparait non exhaustive puisque la roue de la
recherche scientifique demeure très dynamique dans le temps et dans l’espace.
N°
1
AUTEUR(S)
ANDREFF, M.
OUVRAGE
Statistique : traitement des données d’échantillon, PUG, Grenoble,
1994 :
1er tome : Les méthodes, 158p.
2ème tome : Les applications, 142p.
Statistique appliquée en 11 questions et 120 exemples et une annexe
sur les probabilités pour Michèle Mallens, Ed. d’organisation, Paris,
1985, 221p.
Econométrie : Manuel et exercices corrigés, 5è éd. Dunod, Paris, 2003,
329p
2
BLUMENTHORL, S.
3
BOURBONNAIS, R.
4
BOURSIN, J.L.
Comprendre la statistique descriptive.
5
BOY, Cl. Et NIZARD, A.
Exercices corrigés de probabilités : option générale et économique
6
DUBUS, A.,
7
CARON, N. et PH. TASSI
Méthodes et pratiques du traitement statistique en Sciences
humaines : étide de cas avec le logiciel ADSO 3
Problèmes résolus de statistique mathématique.
8
CHAUVOT, G. et J.PH. REAU
Statistiques descriptives.
9
COHEN, M. et PRUDEL, J.
10
11
DAUNHA-CASTELLE, D. et M.
DUFLS
DAGNIELIE, P.
Econométrie : théorie et technique de base, méthode d’utilisation et
exercices, Litec, Paris, 1993
Probabilités et statistiques : Problèmes à temps fixe, tome 1, 220p.
12
DHRYMES, P.J.
13
DREPREZ, M. et DUVANT, M.
14
DUTHIL, G. et D. VANHAECKE
Statistique théorique et appliquée ; De Boeck Université, Bruxelles,
1998 :
1er tome : Statistique descriptive et bases de l’inférence statistique,
508p.
2ème tome : Inférence statistique à une et à deux dimensions, 659p.
Econometrics : Statistical foundations and applications
Méthodes quantitatives de gestion : l’analyse comptable etles
mathémathématiques appliquées
Les statiques descriptives appliquées à l’économie de l’entreprise, Ed.
Harmattan, Paris, 1990, 258p.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
CODE
311
ARS
519.53
BLU
330.015 195
BOU
2003
310
BOU
519.2
BOY
005.4
DUB
310
CAR
310
CHA
310.02
DAC
310
DAG
1998
339.5
DHR
658.15
DEP
310
DUT
1990
53
→ Suite...
N°
15
AUTEUR(S)
DUGHOUE, L.T.
16
FOURASTIE, J. et S. Levy
17
GHORBANZADEH, D.
18
GIARD, V.
19
GIARD, V.
20
GIRAUD, R. et CHOIX, N.
21
GRAIS, B.
22
HOWELL, D.C.
23
INADES-FORMATION
24
JOHNSTON, J.
25
JOHNSTON, J.
26
JOHNSTON, J. & Dinardo, J.
27
JUSTENS, D.
28
KAUFFMANN, P.
29
KAZMIER, L.J.
30
HAMBURG, M.
31
LARSEN, R.J.
32
LAVIEVILLE, M.
33
LECOUTRE, J.P.
34
35
36
LECOUTRE, J.P., P. TOSSI et S.
LEGRITMAILLE
MAILLET, P.
MARTEL, J.M. et R. NADEAU
37
MASIERI, W.
38
MASIERI, W.
OUVRAGE
Manuel de statistique, 5ème éd. Ottawa, éd. De l’Université d’Ottawa,
1979, 586p.
Statistiques appliquées à l’économie.
CODE
310.2
DAY
310
FOU
Probabilités : exercices corrigés, Ed. Technip, Paris, 1998, 270p.
519.2
GHO
1998
Statistique appliquée à la gestion : avec 70 exercices d’application
310.02
corrigés, Economica, 6ème Ed. Paris, 1992, 512p.
GIA
Statistique descriptive pour les gestionnaires, Economica, Paris, 1995,
658.403 3
112p.
GIA
1995
Econométrie, PUF, Paris, 1989, 354p.
330.015.195
GIR
Méthodes statistiques : techniques statistiques
310
DRA
Méthodes statistiques en sciences humaines, trad. De M. Rogier,
310
Revue scientifique de V. Yvebyt et Y. Bestgzn., Paris, DE Boeck,
HOW
Université, ITP, 1998, 821 p.
Calcul économique : quelques éléments de mathématiques et
331.028
statistiques économiques, Kinshasa, 76p.
INA
Méthodes économétriques, trad. Par Bernard Guerrien, 3ème éd. Paris, 330.015.195
Economica, 1995, 359p.
JOH
1995
Méthodes économétriques, trad. Par Bernard Guerrien, 3ème éd. Paris, 330.015.195
Economica, 1988, 648p., tome 2.
JOH
1988
Méthodes économétriques, trad. Préf. de Bernard Guerrien, 4ème éd. 330.015.195
Paris, Economica, 1999, 383p.
JOH
Statistique pour décideurs.
519.5
JUS
Statistiques : information, estimation, tests.
310.02
KAU
Statistiques de la gestion : théorie et problèmes, MC Graw-Hill, Série
310.02
Schaum, Montréal, 1982, 374p.
KAZ
Statistical analysis for decisions making, Brace and World Inc. Cop.,
519.5
New-York, 817p.
MOR
Statistics, Prentice-hall, 1990.
310
LAR
Statistique et probabilités : précis de cours accompagné d’exercices
310.02
corrigés, d’un formulaire d’analyse combinatoire et des tables
LAV
numériques.
Probabilités : Exercices corrigés avec rappels de cours.
519.2
LEC
Statistique : Exercices corrigés avec rappels de cours, 2ème Ed.
519.5
complétée, Paris, A990, 278p.
LEC
Econom2trie, 2ème éd., PUF, Paris, 1971, 127p.
658.403 3
Statistique en gestion et en économie.
310.02
MAR
Statistique et calcul des probabilités.
310
MAS
Statistique et calcul des probabilités, Ed. Dalloz, 2001.
519.2
MAS
2001
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
54
→ Suite...
N°
39
AUTEUR(S)
MONIERS, J-L. et J-L. SOL
40
RAFFIN, C.
41
REAU, J.PH. et G. CHAUVOT
42
SANDERS, D.H.
OUVRAGE
Statistique et probabilités : accès à l’université, Dunod, Paris, 1994,
179p.
Statistique et probabilités : dogmes scientifiques, Armand Colin, Paris,
1993, 267p.
Probabilité et statistiques : résumé des cours, exercices et problèmes
corrigés.
Statistiques : une approche nouvelle.
43
SINCICH, T.
Statistics example, Dellen Mac millan, 4ème Ed. New-York, 1993.
44
SMITH, L.
Statistical Reasoning, Allyn and Bacon, 3d Ed. Boston, 1991.
45
47
SNEDECOR, L. et W. COCHRAN Statistical methods, 6ème Ed. Anes : The Iowa State University Press,
1967, 593p.
SCHWARTZ, D.
Méthodes statistiques à l’usage des médecins et des biologistes, 4ème
éd. Paris : Flammarion, 1993, 314p.
TRIGNAN, J.
Probabilités statistiques et leurs applications.
48
VERLAUT, B. G. SAINT-PIERRE
Statistique et Probabilités : corrigé des exercices, Ed. Foucher, Paris,
tome 2, 63p.
49
VESSEREAU, A.
Méthodes statistiques en biologie et en agronomie, Paris : Technique et
Documentation, 538p., 1998.
50
VESSEREAU, A.
La statistique, PUF, 18ème Ed. Paris, 1992, 127p.
51
WEIMER, R.C.
Statistics, 2ème Ed., WCB, 1993.
46
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
CODE
310.02
MON
310.02
RAF
519.2
REA
310
SAN
519.5
SIN
519.2
SMI
310
SNE
311
SCH
519.2
TRI
519.2
VER
1998
310
VES
1988
311
VES
310
WEI
55
ANNEXE 5
Cellule de Réflexions Economiques et Sociales
Ten Pager
Avril 2010
Numéro
.
Copyright © tsasajp –cres 2010
L’analyse économétrique : Par où commencer ?
Jean-Paul TSASA Vangu
Avertissement
Ce papier est le fruit d’un effort consistant { rapprocher l’analyse théorique et celle de phénomènes réels
en économie. Noter déj{ { ce niveau que c’est par un processus continu de défis et de réponses que la
Science économique évolue. S’inscrivant dans la logique de la préférence pour la simplicité dans la rigueur,
nous nous sommes proposé d’élaborer un papier qui montrerait l’intérêt de l’outil économétrique dans
l’analyse économique.
Objectif : encourager les intéressés { se servir de l’économétrie comme outil de travail et de ne pas la
considérer comme un instrument de torture scientifique.
0. Introduction
Dans ce papier, nous nous proposons de montrer à l’étudiant inscrit en économie le rôle de l’outil
économétrique dans l’analyse économique. Tout au long de son parcours universitaire et même après
l’université, l’étudiant est appelé { réaliser des études ou analyses (travail pratique, mémoire, séminaire,
etc.) ; alors parmi les multiples outils d’analyse disponibles, l’économétrie occupe sans nul doute une place
de choix.
Prenons un cas simple où il est demandé { l’étudiant de mener une analyse sur les interactions existant
entre le Produit Intérieur Brut (PIB) et la variation de l’indice général des prix, généralement qualifiée de
taux d’inflation (INFLA). Plusieurs approches sont { la portée de l’étudiant pour mener cette étude. Dans le
cas où il décide de recourir { l’outil économétrique, il pourra procéder comme suit. Avant de chercher à
explorer le monde économétrique, l’intéressé doit être { même de définir l’ « économétrie », c’est-à-dire de
cerner ses contours. Après avoir appréhendé les contours de l’économétrie, l’intéressé peut ensuite
s’interroger sur la nature de relations qui lient les variables sous examen. Il ne suffirait pas de préciser
uniquement la nature de relation caractérisant les variables, faudra-t-il encore déterminer l’influence
qu’exerce une variable sur l’autre tout en respectant les hypothèses sous-tendant la méthode utilisée pour
l’analyse.
Enfin, d’une part, pour plus de rigueur et de rapidité lors de l’étude et d’autre part, pour aboutir { de
résultat fiable et généralement admissible, l’intéressé sera obligé de maîtriser au moins l’utilisation d’un
logiciel économétrique. Le tableau suivant résume les différentes étapes { suivre pour l’initiation {
l’utilisation de l’outil économétrique.
Tableau 1. Analyse économétrique
Etape 1→
Avoir une idée
sur
l’économétrie
avant de l’utiliser
Etape 2→
Préciser le degré de
relation
entre
les
variables (dans ce cas PIB
et
INFLA)
avant
d’approfondir l’analyse
Etape 3→
Construire
un
modèle d’analyse
permettant saisir
les
interactions
entre variables.
Etape 4→
Etablir
les
différents
tests
permettant
de
diagnostiquer
la
validité du modèle.
Etape 5.
Recourir à un
logiciel
pour
l’estimation du
modèle.
Source : réalisé par l’auteur.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
56
En vue de faciliter la compréhension, nous proposons une schématisation de l’analyse
économétrique. Ainsi, étant une initiation { l’utilisation de l’outil économétrique, ce papier offre
donc { l’intéressé une vision globale de la démarche qu’il suivra afin de réaliser son étude.
1. Schématisation de l’analyse économétrique
Schéma 1. Analyse économétrique
ANALYSE ECONOMETRIQUE
CONSTRUCTION
DU MODELE
VALIDATION DU
MODELE
→Test de spécification du modèle
TESTS DE SIGNIFICATIVITE
*Test de Student
*Test de Fisher
TESTS DE DIAGNOSTIC
*Test d’autocorrélation
*Test d’hétéroscédasticité
*Test de multicolinéarité
TESTS COMPLEMENTS
*Test de normalité
*Test de stabilité
CONTOUR DE
L’ECONOMETRIE
ETUDES
DE CORRELATION
*Qu’est-ce que
l’économétrie ?
*Qu’est-ce que la
corrélation ?
*Ses objectifs ?
*Coefficient de corrélation ?
*Format de données
utilisées ?
*Corrélation VS Régression.
*Modèle de régression non
linéaire.
*Limites de la corrélation.
*Modèle à décalage temporel.
*Principaux éléments
présents dans les modèles ?
*Modèle de régression
linéaire (Simple & multiple).
*Modèle à équations
simultanées ou
multiéquationnel
APPLICATION DU MODELE SUR UN
LOGICIEL ECONOMETRIQUE
Source : réalisé par l’auteur.
1.1.
Contour de l’économétrie†††††
1.1.1.
Qu’est-ce que l’économétrie ?
o
o
Littéralement, l’économétrie se définit comme étant une mesure de l’économie.
Wassily LEONTIEF (économiste américain d’origine russe, Prix Nobel 1973) définit l’économétrie
comme un type spécial d’analyse économique dans lequel l’approche théorique générale – souvent
formulée en termes explicitement mathématiques – se combine fréquemment au moyen de
procédures statistiques complexes à la mesure empirique des phénomènes économiques.
Jan TINBERGEN (économiste et statisticien néerlandais, Prix Nobel 1969) propose la définition
suivante : L’économétrie est une observation statistique de concepts théoriquement fondés, ou
économie mathématique travaillant sur données mesurées.
o
L’économétrie pourrait donc être comprise comme une utilisation des mathématiques et de la
statistique pour évaluer les relations de la théorie économique.
†††††
Lire R. Barre, 1975, Economie Politique, Presse universitaire de France, Paris, pp 58-64, pour avoir une idée sur la
genèse de l’économétrie.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
57
1.1.2.
-
Ses principales fonctions ?
L’économétrie se propose de :
Estimer les relations.
Evaluer les politiques économiques.
1.1.3.
-
Tester les théories.
-
Prévoir l’évolution des grandeurs
économiques.
Types de données ?
Il existe 3 types de données généralement utilisées en Econométrie.
Tableau 2. Types de données
DONNEES EN SERIE
DONNEES TRANVERSALES
Syn. : CROSS-SECTION DATA,
TEMPORELLE
DONNEES DE PANEL
Syn. : DONNEES CROISEES
Syn. : CHRONIQUE,
SERIE CHRONOLOGIQUE
DONNEES INDIVIDUELLES,
DONNEES EN COUPE
Correspondent à une suite
finie de données indexées
par le temps.
Correspondent aux données où
l’indice rattaché à la variable sous
examen indique l’individu.
Correspondent à un ensemble de
données indexées par des indices
indiquant l’individu concerné (i) et le
temps correspondant (t).
Exemple : Evolution du taux
de croissance du PIB réel en
RDC de 20O0 à 2005.
Exemple : Niveau du taux de croissance
économique en RDC, Lybie et Gambie en
2005.
Exemple : Evolution du taux de croissance
économique en RDC, Lybie et Gambie de
2000 à 2005.
T
2000
2001
2002
2003
2004
2005
Yt : Taux de
croissance
-7.18
-2.66
3.22
5.73
6.64
6.20
Yi
RDC
6.20
Lybie
4.28
Gambie
4.70
Indice : t=temps
Indice : i=individu
Source : réalisé par l’auteur sur base de statistiques de la BAD.
1.1.4.
RDC
Yit
2000
2001
2002
2003
2004
2005
Lybie
Gambie
Taux de croissance en %
-7.18
-2.66
3.22
5.73
6.64
6.20
1.15
4.52
3.26
9.13
4.39
4.28
5.33
7.57
-3.80
7.70
5.10
4.70
Indice : i (individu) et t (temps)
Eléments principaux d’un modèle économétrique ?
Modèle : représentation simplifiée, mais complète, de l’évolution économique d’une société,
pendant une période donnée, sous un aspect chiffré.
Comme une carte résumant la réalité géographique, la technique des modèles correspond à la
cartographie de l’économie. Donc, tout modèle implique une simplification et non une déformation.
Dans un modèle, il y a lieu de distinguer : les variables, les relations et les paramètres.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
58
Tableau 3. Bref aperçu des éléments principaux d’un modèle
VARIABLES
Elles correspondent à de symboles
(X, Y, x ou M) qui peut prendre
toutes les valeurs d’un ensemble
donné, appelé domaine de la variable.
On
distingue
les
variables
quantitatives de variables qualitatives.
Variable
quantitative
Continue :
Lorsqu’elle
prend une
infinité des
valeurs dans
un intervalle
donné.
Discrète
Variable
qualitative
Nominale
Ordinale
Note : une variable qui ne prend
qu’une seule valeur est appelée
constante.
RELATIONS
On distingue :
- Relations comptables
Exemple : YM = CM + SM – T
- Relations de définition
ou Relations d’identité
Exemple : RT = Q*P ou
Yd = C + S
- Relations d’équilibre
Exemple :
Y=C+I+X–M
- Relations
fonctionnelles :
*Relations de comportement
Exemple : C = a + bY
*Relations techniques ;
Exemple : Q = AKaLb
.
- Relations institutionnelles.
PARAMETRES
Les valeurs prises par les
paramètres peuvent être fixées à
priori, estimés par référence au
passé ou inconnus.
Il y a lieu de distinguer :
- Les propensions moyennes et
marginales ;
-
Les productivités moyennes
et marginales ;
-
Les élasticités ;
-
Les coefficients techniques.
CLASSIFICATION DES VARIABLES
Variable dépendante (endogène ou
expliquée)
Variable indépendante (exogène ou
explicative)
Variables de flux
Variables de stock
Variable ex ante
Variable ex post
Variable temps
Terme aléatoire
Différence entre ECONOMISTE & ECONOMETRE (ou ECONOMETRICIEN) : si l’on considère à titre illustratif l’analyse de
la fonction keynésienne de consommation.
- Economiste : Y= Co + bCt
- Economètre : Y = Co + bCt + ε
Source : réalisé par l’auteur.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
59
1.2.
Etude de la corrélation
L’étude de la corrélation permet de déterminer l’intensité ou la force de la relation existant entre
variables sous examen.
L’étude de la corrélation peut être scindée en deux catégories : l’analyse de la corrélation
proprement dite et l’analyse de l’ajustement.
Schéma 2. Etude de la corrélation
ETUDE DE LA CORRELATION
CORRELATION
AJUSTEMENT
proprement dite
Outil d’analyse :
* Diagramme de dispersion
* Droite d’ajustement,
Droite d’estimation ou
Droite de régression.
Outil d’analyse : Coefficient
de corrélation
Méthodes :
* Méthode de 3 points ;
* Méthode de moindres carrés
METHODE QUALITATIVE
METHODE QUANTITATIVE
*
: covariance entre Y et X et
: écart-type de i.
Source : par l’auteur.
Soit n variable intervenant dans l’étude de corrélation :
- Si n = 2 : la corrélation est dite simple ;
- Si n > 2 : la corrélation est dite multiple et dans ce cas, elle alimente la matrice de corrélation.
Le domaine du coefficient de corrélation « r » est [-1, +1]. Le coefficient de corrélation linéaire, appelé
aussi coefficient de Bravais-Pearson a été préalablement étudié par Galton.
Tableau 4. Coefficient de corrélation et limites
La corrélation entre variables peut être positive, négative, nulle ou maximale.
POSITIVE ou DIRECTE :
Exemple : Prix et
Quantité produite (loi de
l’offre).
CORRELATION
NEGATIVE :
Exemple : Prix et
Quantité demandée
(loi de la
demande).
NULLE :
MAXIMALE:
La corrélation est maximale lorsque tous les
points se confondent à la droite d’ajustement.
Limites de la corrélation linéaire :
Linéarité : en réalité, la relation entre
variables n’est pas forcément linéaire.
Symétrie : cette étude traite les variables
de manière symétrique.
Corrélation n’est pas
causalité (corrélation trompeuse ou
fortuite): le coefficient r mesure l’intensité
de la relation entre variables mais
n’exprime pas la relation de cause à effet.
Le carré du coefficient de corrélation (r) est le coefficient le coefficient de détermination (R²)
Source : réalisé par l’auteur.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
60
APPLICATION 1
Ci-après est reprise l’évolution du taux de croissance économique et du taux d’inflation (en moyenne
annuelle) en R.D. Congo de 2000 à 2008.
Tableau 5. Evolution du PIB et du taux d’inflation en RDC
T
2000
2001
2002
2003
2004
2005
2006
2007
2008
Yt
-6.9
-2.1
3.5
5.8
6.6
7.2
5.6
6.3
5.9
Xt
511.2
135.1
15.8
4.4
9.2
18.2
21.3
9.9
27.6
Source : Banque Centrale du Congo
Travail demandé : Mesurez l’intensité de la relation entre les variables Yt (taux de croissance) et Xt
(taux d’inflation) et dites comment varient-elles ?
RESOLUTION
Connaissant la formule du coefficient de corrélation, on dégage le tableau suivant qui permet de
mesurer l’intensité de la relation existant entre le PIB et l’inflation :
Tableau 5. Evolution du PIB et du taux d’inflation en RDC
)(
-6.9
-2.1
3.5
5.8
6.6
7.2
5.6
6.3
5.9
511.2
135.1
15.8
4.4
9.2
18.2
21.3
9.9
27.6
=3.5
=83.6
-10.4
-5.6
0
2.3
3.1
3.7
2.1
2.8
2.4
A savoir :
La moyenne arithmétique de
w est donnée par :
427.6
51.5
-67.8
-79.2
-74.4
-65.4
-62.3
-73.7
-56.0
-4447.04
-288.4
0
-182.16
-230.64
-241.98
-130.83
-206.36
-134.4
108.16
31.36
0
5.29
9.61
13.69
4.41
7.84
5.76
=186.12
182841.76
2652.25
4596.84
6272.64
5535.36
4277.16
3881.29
5431.69
3136
=218624.99
(intensité de la relation entre Y et X).
Comme
, ce que le taux de croissance du PIB réel et l’inflation en
RDC sont négativement corrélés c’est-à-dire varient dans le sens contraire (si Yt
augmente, Xt diminue et vice-versa).
Limite : le coefficient r ne permet pas de préciser s’il faudra augmenter la
croissance pour diminuer l’inflation ou il faudra diminuer l’inflation pour
promouvoir la croissance. Pour y parvenir, on recourt à l’analyse de causalité.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
61
Note : En général, plus le coefficient est proche de 1, meilleure est la corrélation. Cependant, c’est le
nombre d’observations n, ou plutôt le nombre de degrés de liberté (n - 2 pour une régression
simple), qui détermine plus précisément une valeur limite, pour un niveau de risque d’erreur donné,
et il existe pour cela des tables du r. Elles sont rarement reprises dans les manuels de statistiques.
Le tableau 6 (extrait de la table du coefficient de Pearson) permet de tester si le coefficient « r » est
significatif avec un risque de 5% :
Tableau 6 : Table du coefficient de Pearson
n-2 = Degré de liberté
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
Seuil de signification: α = 0.05
1.00
0.95
0.88
0.81
0.75
0.71
0.67
0.63
0.60
0.58
0.55
0.53
0.51
0.50
0.48
0.47
0.46
0.44
0.43
0.42
Ce tableau indique que pour un niveau de confiance de 0.95, le coefficient de 0,919 est significatif
puisqu’il est supérieur { 0.67 (n-2 = 7 degrés de liberté).
Par ailleurs, le test t-Student permet également d’évaluer la signification du coefficient de corrélation
c’est-à-dire de préciser si la relation entre Y et X n’est pas le fait d’un hasard.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
62
Test de signification du coefficient r
H0 : le coefficient r est significativement nul (absence de corrélation).
H1 : le coefficient r est significativement différent de zéro.
Décision :
Rejeter H0 Si
* : t calculé et
est supérieure à la valeur du t de la table de Student.
α
: à lire dans la table de Student.
En considérant l’exemple précédent, il se dégage que :
et que
1.895
Comme
, on rejette l’hypothèse nulle ; le coefficient de corrélation entre le
taux de croissance économique et le taux d’inflation est donc significatif.
Etant donné que le coefficient de corrélation est une mesure qualitative, la relation entre X
et Y serait :
 parfaite si r = 1
 d'intensité moyenne si r se situe entre 0,2 et
 très forte si r > 0,8.
0,5.
 forte si r se situe entre 0,5 et
 faible si r se situe entre 0 et 0.2.
0,8.
 nulle si r = 0
Détermination du coefficient de corrélation de Pearson à partir de logiciels Excel, Eviews
et SPSS.
La détermination du coefficient sur les différents logiciels nécessite une installation de chacun d’eux
dans le PC.
Détermination du coefficient de corrélation à partir du logiciel EXCEL
1ère étape : cliquer sur le menu DEMARRER
2ème étape : aller dans TOUS LES PROGRAMMES
3ème étape : cliquer sur Microsoft office et puis sur EXCEL
4ème étape : Saisir les données, telles que reprises dans les 2 premières colonnes du tableau
5ème étape : enregistrer et nommer le fichier ; « PEARSON » par exemple.
6ème étape : écrire la commande :
« =COEFFICIENT.CORRELATION (sélectionner la 1ère colonne ; sélectionner la 2ème colonne) »
En validant (appuyer sur enter  ), aussitôt le résultat apparait.
Détermination du coefficient de corrélation à partir du logiciel EVIEWS
1ère étape : cliquer sur le menu DEMARRER
2ème étape : aller dans TOUS LES PROGRAMMES
3ème étape : cliquer sur Eviews et puis sur EVIEWS
4ème étape : Importer les données à partir du fichier Excel PEARSON (créé précédemment),
en cliquant sur File → Open
5ème étape : Aller dans Fichiers de type → Choisir Excel file (*xls) et ensuite, cliquer
sur le fichier Excel PEARSON et puis sur : Ouvrir → Suivant → Terminer
5ème étape : pour tester la corrélation entre deux Variables ; aller dans :
View → Correlations → Pairwise samples ;
ainsi obtient-on la matrice de corrélation.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
63
Détermination du coefficient de corrélation à partir du logiciel SPSS
1ère étape : lancer le logiciel SPPS
2ème étape : Importer les données à partir du fichier Excel PEARSON en cliquant sur
l’option : « ouvrir une source de données existante »
3ème étape : aller dans type de fichier et choisir « Excel (*.xls) »
4ème étape : cliquer sur ouvrir et puis sur OK
5ème étape : pour calculer le coefficient de corrélation, aller dans :
Analyse → Corrélation → Bivariée…
ème
6 étape : sélectionner chaque variable puis la faire passer dans la case à droite
7ème étape : cliquer sur OK ; aussitôt les résultats s’affichent.
Note : si SIG (correspondant de p-value) est inférieur à 0.05, ce que le r de Pearson est
significatif.
Application d’entraînement :
Effectuer la même étude sur les données suivantes :
- Taux de change annuel moyen (cours indicatif) et
- Taux de croissance de la masse monétaire (M1)
Note : Considérer la période allant de 1990 à 2009, ce qui correspond à 18 observations.
To be continued …
1.3. Construction du modèle d’analyse
1.4. Validation du modèle d’analyse
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
64
Voici juste une brève incursion de ce que nous aurons à développer aux points 1.3 et 1.4 dans les prochaines
éditions :
I.
ESTIMATION PAR LA METHODE DES MOINDRES CARRES ORDINAIRES
Instruction Eviews :
Cliquer sur Quick→Estimate Equation→écrire son modèle et après valider.
Par exemple : après instigations on remarque que le taux de croissance à la période t (variable dépendante
ou endogène) est fonction du taux de croissance au temps t-1, du taux d’inflation au temps t (variable
dépendant ou exogène) ; on pourrait donc écrire dans la fenêtre : TXCROIS C TXCROIS(-1) TXINFL.
Commande Eviews :
Ou encore, on peut directement passer la commande suivante : LS suivi du modèle.
Donc, on écrira : LS TXCROIS C TXCROIS(-1) TXINFL.
Où LS = Least Squares (Moindres carrés)
C’est ainsi qu’on obtient l’estimation du modèle linéaire simple.
II.
TEST DE SIGNIFICATIVITE DES VARIABLES EXPLICATIVES
D’après ce test, appelé aussi test de student, la variable explicative (ou variable exogène) a une influence
significative sur la variable expliqué (ou variable endogène) si :
Probability < 0.05 et
t-statistic > 1.96 (règle de pousse)
Note : Prob = Probability =Probabilité critique.
III.
TEST DE SIGNIFICATIVITE GLOBALE DU MODELE
D’après ce test, appelé aussi test de Fisher, le modèle est globalement significatif si :
Prob(F-Statistic) < 0.05
ou encore si F-statistic > F-théorique.
IV.
TEST D’HYPOTHESE NULLE D’HOMOSCEDASTICITE : TEST DE WHITE
Ce test permet d’évaluer l’hypothèse de la constance de la variance résiduelle dans le temps et dans
l’espace :
H0 : modèle homoscédastique
H1 : modèle hétéroscédastique
Où H0 : hypothèse nulle et H1 : hypothèse alternative ou hypothèse de soutien.
Instruction Eviews :
Cliquer sur : VIEW→ RESIDUALS TESTS→ WHITE HETEROSKEDASTICITY (no cross terms).
Rejeter H1 : Si Probability > 0.05
Rejeter H0 : Si Probability ≤ 0.05
Si l’on décide de rejeter H1, ce que les estimations obtenues par les MCO sont optimales.
V.
TESTS D’AUTOCORRELATION DES ERREURS
Une des hypothèses de moindre carré veut que les erreurs de la période précédente n’influe n’aient aucune
relation avec celles de périodes à venir.
i. TEST DE DURBIN-WATSON : εt = εt-1 + μt
Ce test n’est utilisé que si les conditions suivantes sont respectées :
a. Le modèle doit impérativement comporter un terme constant ;
b. Le nombre d’observation doit être ≥ 15 ;
c. Le modèle doit être spécifié en série temporelle ;
d. La variable à expliquer ne doit pas figurer parmi les variables explicatives en tant que variable
retardée (si c’est le cas, alors utiliser le test du h de Durbin)
Exemple : Yt = C + αXt +βXt-1 + δYt-1 + ut ; dans ce cas, on ne doit pas utiliser le test de D-w car la
variable explicative(Yt) apparaît encore dans le modèle comme variable retardée parmi les
variables endogènes.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
65
Soit,
H0 : Erreurs non corrélées (ρ = 0)
H1 : Erreurs corrélées (ρ ≠ 0)
La statistique de Durbin-Watson est obtenue après estimation du modèle par la méthode des moindres
carrés ordinaires.
Comment prendre la décision ?
Pour commenter le résultat, il faut maîtriser quelques notions indispensables liées à la lecture de la table de
Durbin-Watson.
et − et−1)2/
La statistique de Durbin-Watson est définie comme suit : DW =
Supposons que t→∞ ; on aura
et-12) =
et2).
Et par conséquent, en développant l’expression (1), nous obtenons :
et2) :(1)
DW = 2−2ê …
= -1 : DW = 4 (Autocorrélation négative)
Si ê
= 0 : DW = 2 (Absence d’autocorrélation)
= +1 : DW = 0 (Autocorrélation positive)
TABLE DE DURBIN-WATSON
2
0
Autocorrélation
positive
Absence
d’autocorrélation
DOUTE
dL
4
dV
DOUTE
4-dV
Autocorrélation
négative
4-dL
Comment déterminer les valeurs de dL et dV se trouvant sur la table de D-W ?
Il faut se référer au tableau de D-W ayant la forme ci-après :
Observation
K=1
dL
K=2
dV
dL
dV
dL
K=m
dV
6
7
8
9
10
11
12
13
14
15
16
17
18
.
.
.
n
Note : K : nombre de variables explicatives, constante exclue ;
n : nombre d’observations et α = 0.05.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
66
Lors d’une application, si vous tombez dans la zone de doute, dites-vous qu’il y a présomption
d’autocorrélation. Il n’y a absence d’autocorrélation que si cette condition est remplie : dV < D-W < 4−dV.
En cas d’autocorrélation, on peut utiliser d’autres méthodes la corriger :
- La méthode d’estimation de COCHRANE ORCUTT ou
- Celle de HILDRETH-LU.
ii. TEST DU h DE DURBIN
Soit le modèle ci-après : Yt = C +aYt-1 + bXt + ut
La statistique du h de Durbin est définie comme suit :
avec ê = 1−
(DW :statistique Durbin-Watson calculée sur le modèle
linéaire autorégressif -QUICK→ ESTIMATION-).
n: nombre d’observations (sur Eviews, voir « Included observations »)
Sur le logiciel Eviews, la variance estimée du coefficient « a » (où « a » est toujours le coefficient de la
variable expliquée reprise dans les variables explicatives comme variable retardée), soit σâ2, correspond au
carré de « Std Error » car la variance correspond à l’écart-type élevé à la deuxième puissance.
Hypothèses :
H0 : Erreurs non corrélées
H1 : Erreurs corrélées
- Si |h| < 1.96 : rejeter l’hypothèse alternative (ce que les estimateurs sont BLUE) ;
- Si |h| ≥ 1.96 : rejeter l’hypothèse nulle.
VI.
METHODE DE COCHRANE ORCUTT
La méthode de Cochrane Orcutt est une méthode d’estimation des paramètres qui doit être utilisée en cas
de correction des erreurs. Donc, on n’applique cette méthode que si les erreurs du modèle Y t = C +aYt-1 + bXt
+ ut sont corrélées.
Instruction Eviews :
Cliquer sur : QUICK→ ESTIMATE EQUATION→ écrire le modèle (par exemple : Yt C AR(-1) Xt)
Pour savoir si la convergence est assurée après combien d’itérations, il faut voir la ligne :
« convergence achieved after… »
Voir ensuite la statistique D-W , lire dV et dL et déterminer 4-dV et 4-dL.
Si l’on obtient : dV < D-W < 4−dV, ce qu’il s’agit d’une non corrélation des erreurs ; et par conséquent, la
procédure Cochrane Orcutt a corrigé l’autocorrélation des erreurs.
VII.
TEST DE NORMALITE DE JARQUE BERA
La statistique de Jarque-Bera est définie comme suit : JB = n[S2/6 + (K-3)2/24]
Où S : Skewness (coefficient de dissymétrie) et
K : Kurtosis (coefficient d’aplatissement)
Instruction Eviews :
Sélectionner les séries que l’on veut tester et
Cliquer sur Quick→Group Statistics→ Descriptive Statistics→Common Sample→Series List puis cliquer sur
OK.
-
On décide l’hypothèse de normalité au seuil de 5% :Si JB < 5.99 ou
si Probability (probabilité critique) > 0.05 ;
-
On rejette l’hypothèse de normalité au seuil de 5% : Si JB ≥ 5.99 ou
si Probability (probabilité critique) ≤ 0.05 ;
Note : une série est dite log-normale si son logarithme est normal.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
67
VIII.
TESTS DE STABILITE DES COEFFICIENTS DU MODELE
Ce test est important lorsqu’on cherche { comprendre les mécanismes de l’évolution d’une économie et
aussi, lorsqu’on se propose de réaliser des projections. L’économie est soumis { des chocs (chocs de
demande ou chocs d’offre), ainsi, au passage de temps l’instabilité des coefficients dans le modèle traduit
ces événements.
i. TEST DE CHOW(1960)
Le test de Chow, appelé aussi test de changement structurel examine si les coefficients d’une régression
sont stables par rapport aux observations utilisées. Comme tout médaille comporte un révère, le test de
Chow présente un inconvénient majeur : le choix du point de rupture par le modélisateur.
Soit,
H0 : modèle stable
H1 : modèle instable
Instruction Eviews :
Cliquer sur :
VIEW→ STABILITY TESTS→ CHOW BREAKPOINT TESTS→ choisir une année (par exemple : 1973)
Le point de rupture est 1973 (premier choc pétrolier)
Si toutes les probabilités critiques (Probability) sont supérieure à 0.05, ce que l’on rejette H1 ; donc, on
décide que le modèle est stable sur la période sous analyse.
ii.
TESTS DE CUSUM DE BROW, DURBIN ET EVANS
CUSUM= Cumulative SUM (test fondé sur la somme cumulée des résidus récursifs).
Résidu récursif : c’est l’écart entre la prévision cumulée en t-1 par t et la réalisation en t.
Les tests CUSUM sont des tests graphiques permettant { d’admettre ou non l’hypothèse de stabilité.
L’avantage de ce type des tests, ce qu’ils permettent { l’analyste de mener une étude de la stabilité d’une
régression sans définir a priori la date de rupture sur les coefficients :
CRITERE DE STABILITE
- Si la courbe sort du corridor, ce que les coefficients du modèle sont instables
- Par contre, si la courbe ne sort pas du corridor, ce que les coefficients du modèle sont stables.
Note : Corridor = intervalles defines par les pointillés.
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
68
Instruction Eviews :
Cliquer sur :
VIEW→ STABILITY TESTS→ RECURSIVE ESTIMATES (OLS only) …
*Si Test CuSum : cliquer sur CUSUM Test;
*Si Test CuSum carré : cliquer sur CUSUM of Squares Test.
Jean-Paul TSASA Vangu
ADMINISTRATION DES AFFAIRES ETSCIENCES ECONOMIQUES
CENTRE CONGOLAIS-ALLEMAND DE MICROFINANCE/ DAAD
UNIVERSITE PROTESTANTE AU CONGO
[Année académique2009-2010]
Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010
69