STATISTIQUE APPLIQUEE
Transcription
STATISTIQUE APPLIQUEE
STATISTIQUE APPLIQUEE Par Jean-Paul TSASA Vangu Sous la coordination du Professeur MUKOKO Samba Centre Congolais-Allemand de Microfinance Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 0 Ce recueil de travaux pratiques est rédigé sous la coordination du Professeur MUKOKO Samba. Il servira d’un recueil de référence et d’applications lors des travaux pratiques prévus à la fin du cours de Statistique appliquée aux finances. *Centre Congolais-Allemand de Microfinance, Mai 2010. Tout passe d’abord par le « fictif », c’est-à-dire l’imaginaire des savants. − Robert Emerson Lucas Avertissements Il n’existe pas d’ouvrage d’introduction aux séries temporelles qui évite un discours trop technique et qui présente des exemples concrets de procédure d’estimation-modélisation. Ainsi, ce recueil d’applications, résultat d’un effort consistant à présenter dans un langage plus ou moins simplifié et rigoureux les concepts appartenant aux sciences dures, est rédigé en fonction d’un étudiant attentif. Il a pour objet l’explication de différentes techniques permettant d’estimer et de prévoir les chroniques financières et la présentation de techniques statistiques d’évaluation de portefeuille. Et comme objectif, ce recueil se propose d’initier l’étudiant { l’utilisation de la statistique en tant qu’outil permettant la structuration, l’analyse, l’interprétation des données (chiffrées) financières et économiques. Pour y aboutir, nous éclatons le cours (partie théorie) et le regroupons en deux grands points. Le recueil débute par un rappel des fondamentaux du cours, avant de s’intéresser aux études des cas. Ces dernières permettront de mettre en évidence les modèles appropriés pour les analyses utilisant des chroniques financières ; puisqu’{ ce jour, la finance, en tant que sous-discipline de l’économie, ne se limite plus à une gestion et à un recueil de pratiques. Mais elle va au-delà en empruntant { l’économie, ses raisonnements formalisés et ses mécanismes d'optimisation. Par ailleurs, notez que les applications retenues dans ce recueil aideront l’étudiant à se préparer { l’examen final. Le logiciel Eviews 7 a été utilisé pour confectionner les applications. Enfin, l’étudiant est invité { bien appréhender les concepts théoriques énoncés pendant le cours et aussi de ne pas hésiter de consulter les ouvrages de références suivants disponibles sur internet : Charpentier (2006) ; Droesbeke, Fichet, Tassi (1994) ; Hurlin (2006-2007) ; Raggad et Trabelsiy (2003). Je dédie ce recueil aux étudiants de la première promotion du CCAM de master Microfinance (2009-2010). Leurs multiples questions et interventions m’ont permis, via le mécanisme du learning by spillover, d’améliorer cet exposé. Jean-Paul Tsasa V.† Plan de travail‡ 1 /. Rappel des concepts techniques •Chronique •Processus stochastique •Stationnarité, Bruit blanc et Marche aléatoire •Modèles dynamiques •Méthodologie de Box et Jenkins •Analogie des modèles AR/ ARMA et ARCH/ GARCH •Méthode de maximum de vraisemblance •Modélisation AR(I)MA ou Modélisation (G)ARCH 2/. De modèles AR/ MA/ ARMA aux modèles ARCH/ GARCH : une étude du cas de … 3/. Estimations des paramètres des modèles ARCH /GARCH par la méthode maximum de vraisemblance 4/. Optimisation de portefeuille selon le critère de la Value at Risk (VaR) et Backtesting 5/. Credit scoring † Assistant au Centre Congolais-Allemand de Microfinance/ Université Protestante au Congo. Je remercie le Professeur Mukoko Samba pour son orientation lors de la préparation de ce recueil et aussi pour la collection d’ouvrages, mise { notre disposition. In fine, je suis le seul { blâmer en cas d’éventuelles erreurs ou omissions. ‡ Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 1 Rappels des concepts techniques Ce manuel se propose de familiariser l’étudiant aux différentes applications liées { l’économétrie des séries temporelles, orientée, bien sûr, vers l’économie et la finance. La démarche adoptée, à cet effet, commence par un rappel de concepts-clé jugés importants pour une meilleure appréhension des applications qui suivront 1. CHRONIQUE Synonyme : série chronologique, série temporelle. Une chronique est une suite finie de valeurs numériques représentant l’évolution d’une variable aléatoire indexé par le temps. C’est une suite d’observation des variables { des intervalles de temps réguliers. Autrement, pour une chronique, les observations doivent être consécutives et d’une fréquence identique. L’objet des séries temporelles est donc l’étude des processus temporels. A titre illustratif, l’évolution des indices boursiers ou des prix d’actifs financiers, des données économiques ou financières des entreprises, des agrégats macroéconomiques, des ventes et achats de biens ou celle des productions agricoles ou industrielles sont, parmi tant d’autres, des chroniques qui intéressent particulièrement les économistes et les financiers. Donc, une chronique n’est que la réalisation d’un processus aléatoire. NOTE 1 : les séries financières et certaines séries économiques sont caractérisées par de volatilité ; où l’on retrouve des valeurs qui semblent être aberrantes. La spécification de telles séries exige de modèles non linéaires. Contrairement aux modèles structurels, notamment d’inspiration keynésienne, où la prévision d’une variable se fait en fonction des autres variables [Yt = f(Xt)], les séries temporelles se propose de prédire la variable Yt en exploitant ses propriétés statistiques (moyenne, variance) et en utilisant généralement les valeurs retardées de Yt et de chocs aléatoires (bruit blanc). A cet effet, un modèle très populaire en économétrie des séries temporelles a été développé en 1970 : modèle ARMA§ (Auto Regressive with Moving Average). Ce modèle n’est qu’un mélange des modèles AR et MA développés séparément et respectivement par Yule et Slutsky en 1927. 2. PROCESSUS STOCHASTIQUE, VARIABLES ALEATOIRES Synonyme : processus aléatoire, fonction aléatoire. Un processus stochastique correspond { l’évolution d’une variable aléatoire Yt dans le temps. Une variable aléatoire est la valeur prise par Yt à chaque instant du temps. 3. STATIONNARITE, BRUIT BLANC ET MARCHE ALEATOIRE *Processus stationnaire La stationnarité est un concept clé pour la validité d’une régression sur séries temporelles. D’un point de vue statistique, la stationnarité suppose que le passé est comparable au présent et au futur. Ainsi, une série chronologique est stationnaire, au sens strict, si sa distribution de probabilité ne change pas au cours du temps : cette définition forte de la stationnarité implique que la distribution jointe (Yr+1, Yr+2, . . . , Yr+n ) ne dépende pas de r ; si c’est le cas, on conclut que Yt est non stationnaire. § ARMA ; Auto Regressive (autorégressif) : puisque la spécification de ces modèles utilisent des valeurs « lagées » de Yt et Moving Average (Moyenne Mobile) : parce que la variable représentant les chocs aléatoires (bruit blanc) dans ce modèle est retardée. Rappelons que la moyenne mobile est une moyenne statistique qui supprime les fluctuations transitoires dans une chronique en vue de ressortir les tendances à plus long terme. Elle est dite mobile puisqu’elle est recalculée de façon continue, en utilisant à chaque calcul un sous-ensemble de valeurs dans lequel une nouvelle valeur remplace la plus ancienne. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 2 Par ailleurs (définition faible de la stationnarité), un processus temporel Yt est stationnaire si : E[Yt] = μ, pour tout t : c’est-à-dire la série stationnaire en moyenne. Var[Yt] ≡ E(Yt2) = σ2, pour tout t : c’est-à-dire la série est stationnaire en variance. Cov[Yt, Yt+k] ≡ E[(Yt – μ) (Yt+k – μ)] = γk : l’autocovariance ou la covariance entre deux périodes t et t+k** est uniquement fonction de la différence des temps k. Un processus est stationnaire si celui-ci n’a ni trend, ni saisonnalité et de ce fait, fluctue autour d’une moyenne constante. Il apparait donc sue la stationnarité est une exigence qui assure l’utilisation du modèle en dehors de la période sur laquelle il a été estimé. NOTE 2 : Un processus stationnaire possède de volatile lorsqu’il possède certaines réalisations qui s’écartent sensiblement de la moyenne constante. *Processus non-stationnaire Une chronique qui ne vérifie pas les hypothèses ci-dessus est dite non stationnaire. Donc, il faudra la stationnariser avant l’estimation. La méthode de stationnarisation dépend de la source de la non stationnarité. Pour identifier cette source, le modèle suivant doit être testé : Yt = α0 + αiYt-i + αjt + εt *Critère de sélection : - Statistique de t de Student (t) ; - Probabilité critique (Prob). *Test de signification du trend : H0 : αi est non significatif H0 : αi est significatif *Test de signification de l’intercept : H0 : α0 est non significatif H0 : α0 est significatif Le paramètre sera significatif si et seulement si : Prob < 0.05 et t > 1.96. Dans le cas contraire, il est non significatif. En estimant le modèle Yt = α0 + αiYt-i + αjt + εt : Décision Type de modèle Processus Méthode de stationnarisation αi est significatif Trend and Intercept Trend Stationnary (TS) Ecart à la tendance Differency Stationnary (DS) Filtre aux différences αi est non significatif et α0 est significatif αi est non significatif et α0 est non significatif Intercept None (ni Trend, ni Intercept) Procédure : ** 1/ Estimer le modèle Yt = α0 + αjt + εt 2/ Générer les résidus 3/ Tester si est stationnaire Si le modèle est un TS Si le modèle est un DS : il faut différencier ou intégrer Yt « d » fois pour obtenir une chronique stationnaire, soit Yt → I(d). : La fonction d’autocovariance γk = Cov[Yt, Yt+k] = E[Yt – E(Yt)][Yt+k – E(Yt+k)] d’un processus stationnaire Yt vérifie les propriétés : 1°) γk =Cov(Yt, Yt) = Var[Yt] = E(Yt2) = σ2 ≥ 0, avec Var[Yt] = E[Yt – E(Yt)2] ; 2°) |γk| ≤ γ0 ; 3°) γk = γ-k, la fonction d’autocovariance est une fonction paire, Cov(Yt, Yt+k) = Cov(Yt, Yt-k). Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 3 Un processus DS non-stationnaire Yt est intégré d’ordre d, noté I(d), si en le différenciant « d » fois, on obtient un processus stationnaire. A titre illustratif, Yt, non stationnaire, sera intégré d’ordre 1 si le processus Zt défini : Zt ≡ Yt – Yt-1 = (1 – L)Yt est stationnaire. Le terme « L » est un opérateur de retard ou de décalage (lag) Donc, par extension, Yt sera d’ordre d, si Yt est non-stationnaire, Vt = (1 – L)Yt est non stationnaire, …, Wt = (1 – L)d-1Yt est non stationnaire et Zt = (1 – L)dYt est stationnaire. Quelques transformations. * Première différence : ΔYt = Yt – Yt-1 * Opérateur première différence : (1 – L)Yt = ΔYt * Première différence en logarithme : ΔLn(Yt) = Ln(Yt) - Ln(Yt-1) * Taux de croissance : (Yt - Yt-1)/Yt-1 = ΔLn(Yt) NOTE 3 : les modèles intégrés sont très présents dans les séries économiques et financières, notamment les séries d’indices boursiers, d’indice de production, d’indice de prix. *Bruit blanc Un processus εt†† est un bruit blanc lorsque : E(εt) = 0 ; pour tout t (hypothèse de centralité). E(εt2) = σ2 ; pour tout t = t – k (hypothèse d’homoscédasticité). E(εtεt-k) = 0 ; pour tout t ≠ t-k (absence d’autocorrélation des erreurs). Donc, par définition, un bruit blanc est un processus stationnaire. Par ailleurs, un processus εt est un bruit blanc indépendant si E(εt) = 0 ; E(εt2) = σ2 ; εt et εt-k sont indépendants pour tout k ≠ 1. Et le bruit blanc est dit gaussien si le processus εt est un bruit blanc indépendant tel que εt ~ N(0, σ2). 4. MODELES DYNAMIQUES EN ECONOMETRIE DES SERIES TEMPORELLES Un modèle dynamique est un modèle pour lequel l’on trouve parmi les variables explicatives des variables endogènes décalées et/ou des variables exogènes décalées. Les modèles ayant parmi ses variables explicatives que de variables endogènes décalées sont dits autorégressifs. Parallèlement, ceux ayant parmi les variables explicatives des variables exogènes décalées sont dits échelonnés (modèles à retards échelonnés). En un premier temps, les modèles dynamiques qui retiennent notre attention est ceux proposés par YULE et SLUTSKY. Les modèles proposés par Yule et Slutsky se présentent, respectivement comme suit : AR : Yt = Φ1Yt-1 + Φ2Yt-2 + εt (1) MA : Yt = εt – θ1εt-1 – θ2εt-2 (2) En généralisant les modèles (1) et (2), on obtient les processus AR(p) et MA(q). †† Dans les séries temporelles, le terme de l’erreur est souvent appelé innovation. Comme on le verra, le terme de l’erreur sera la seule information nouvelle qui interviendra dans le processus à la date t. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 4 * Processus autorégressif d’ordre p, noté AR(p) ; c’est un processus stationnaire Yt vérifiant la relation du type : Yt– Φ1Yt-1 – … – ΦpYt-p = εt ; où Φi (i=1, …, p) sont des réels et εt un bruit blanc gaussien. En introduisant un opérateur retard [tel que LiYt = Yt-i] et un polynôme retard de degré h [tel que Φ(L) = 1 – Φ1L – Φ2L2 … – ΦpLp] , le processus AR(p) peut donc s’écrire comme suit : (1 – Φ1L … – ΦpLp)Yt = εt Soit : Φ(L)Yt = εt * Processus moyenne mobile d’ordre q, noté MA(q) ; c’est un processus Yt stationnaire vérifiant une relation du type : Yt = εt – θ1εt-1 + … – θqεt-q ; où θi (i=1, …, p) sont des réels et εt un bruit blanc gaussien. En introduisant un opérateur retard et un polynôme retard de degré h, le processus MA(q) s’écrit donc : Yt = (1 – θ 1L … – θ pLp) εt Soit : Yt = Θ(L) εt * Processus autorégressifs de moyenne mobile, noté ARMA(p, q) ; c’est une extension naturelle des processus AR(p) et MA(q), c’est donc un processus mixte qui vérifie la relation suivante : Yt– Φ1Yt-1 – … – ΦpYt-p = εt – θ1εt-1 + … – θqεt-q En se servant de distributeur retard, la relation ci-dessus s’écrit : Φ(L)Yt = Θ(L) εt * Processus autorégressifs de moyenne mobile intégrés, noté ARIMA(p, d, q) ; c’est un processus Yt , non stationnaire à niveau, pouvant se mettre sous la forme : d π(L)Yt = Φ(L)(1-L) Yt = Θ(L)εt Où εt un bruit blanc gaussien et d : l’ordre d’intégration. 5. METHODOLOGIE DE BOX ET JENKINS La méthodologie de Box et Jenkins permet de déterminer le processus ARMA adéquat pour la modélisation d’une chronique. La méthodologie BJ suggère quatre étapes, à noter : l’identification, l’estimation, la validation et la prévision. *L’identification : cette première étape consiste à trouver les valeurs p et q des processus ARMA en se basant sur l’étude des fonctions d’autocorrélation simple et d’autocorrélation partielle. *L’estimation : après avoir identifié les valeurs p et q d’un ou plusieurs processus ARMA, il sera question d’estimer les coefficients aux termes autorégressifs et moyenne mobile. *La validation : après avoir estimé les différents processus ARMA, il convient à présent de valider ces modèles, en servant d’une part, des tests de significativité des paramètres (test de student) pour les coefficients et d’autre part, les tests d’hypothèse nulle d’homoscédasticité (tests ARCH, White, Breusch-Pagan) et d’hypothèse nulle d’autocorrélation pour les résidus (tests de Box-Pierce, Ljung-Box, Breusch-Godfrey) Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 5 Autrement, l’étape de validation du modèle consiste à tester si les résidus sont de bruits blancs. Au cas où les résidus sont de bruits blancs ; il faudra que la série de résidus soit stationnaire (fluctuant autour d’une moyenne constante nulle) et par ailleurs, après application des tests Box-Pierce et ARCH, que l’on rejette les hypothèses alternatives. NOTE 4 : Si, { l’issue de l’application de ces différents tests diagnostics, plusieurs modèles sont validés, l’étape de validation doit se poursuivre par une comparaison des qualités de ces modèles. Les critères de choix du modèle à retenir peuvent être standards ou d’information. Les critères les plus utilisés sont repris dans le tableau ci-dessous. CRITERES STANDARDS Erreur Absolue Moyenne ou Mean Absolute Error Racine de l’Erreur Quadratique Moyenne ou Root Mean Squared Error Erreur Absolue Moyenne en Pourcentage ou Mean Absolute Percent Error CRITERES D’INFORMATION : Critère d’Akaike (1969) : Critère de Schwarz (1978) : : : T : nombre d’observation de la série Yt étudiée et et sont les résidus estimés. Le modèle à retenir parmi les divers processus ARMA validés est celui qui se rapproche le plus des observations c’est-àdire celui pour lequel la valeur prise par les critères ci-dessus est plus faible (minimum). NOTE 5 : contrairement aux critères ci-dessus, les critères tels que R2 ou log-likelihood sont à maximiser. *La prévision : c’est la dernière étape de la méthodologie de Box et Jenkins. Connaissant l’horizon de prévision (h), la prévision faite en T pour la date T+h est donnée par : Cette expression représente la meilleure prévision de la série Y conditionnellement { l’ensemble d’information disponible { la date t. Ou encore : Le terme signifie que la valeur de Yt est prévue sur base des observations passées Yt-1, Yt-2, … en utilisant la valeur estimée des coefficients. Notez que la prévision et l’estimation des effets causaux sont des objectifs très différents. Pour un modèle de prévision, par exemple : Le coefficient de détermination corrigé a beaucoup d’importance, alors que le biais d’omission n’est pas vraiment un problème ; On ne cherche pas { interpréter les coefficients d’un modèle de prévision (c’est ce que l’on qualifie également d’économétrie sans théorie), ce qui importe c’est la validité externe du modèle ; Le modèle estimé sur des données du passé (prédiction) doit être valable dans le futur (prévision)‡‡. ‡‡ Il existe une nette différence entre prédiction et prévision ; une valeur prédite ou valeur ajustée (prédiction) fait référence { la valeur calculée par la régression pour une date { l’intérieur de l’échantillon d’estimation, (en anglais predicted value), alors qu’une valeur prévue fait référence à la valeur calculée pour une date postérieure { l’échantillon d’estimation, (en anglais forecasted value). Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 6 Pour les calculs de l’erreur de prévision et de l’intervalle de prévision, le tableau suivant est si éloquent, { cet effet. Calcul de l’erreur de prévision Calcul de l’intervalle de prévision La différence entre erreur de prévision et résidu est de même nature que celle entre valeur prévue et valeur prédite (à l’intérieur ou à l’extérieur de l’échantillon d’estimation). 6. ANALOGIE DES MODELES AR/ MA/ ARMA ET ARCH/ GARCH R. F. ENGLE Professeur de finance américain, Robert F. Engle a partagé le prix Nobel d'économie 2003 avec le Britannique Clive W. Granger, avec qui il avait publié nombre d'articles sur les séries chronologiques tout au long des années 1980 et 1990. Il obtient avec la plus haute distinction une licence de physique au Williams College de New York en 1964, une maîtrise de physique deux ans plus tard, puis un doctorat de sciences économiques en 1969. Ses travaux ont ouvert les recherches sur de nouvelles méthodes d'analyse des séries chronologiques et accéléré le renouvellement des techniques économétriques dans l’analyse économique. L’incapacité des modèles de type ARMA, { saisir les phénomènes non linéaires, a poussé les économètres à développer les modèles non linéaires. En vue de prendre en compte la volatilité conditionnelle caractérisant certaines chroniques, telles que financières, et leur non linéarité, Robert F. Engle§§ a introduit en 1982 la classe des modèles ARCH***, puis Tim P. Bollerslev l’a généralisé en 1986†††. Lorsque la variance conditionnelle d’une série Yt sachant Yt-1 est est constante, soit : Var(Yt/ Yt-1) = σ2 où V(εt) = σ2, on parle dans ce cas de variance homoscédastique. R.F. Engle a construit un modèle dans lequel la variance conditionnelle de Yt sachant Yt-1 dépendrait de Yt-1 et plus particulièrement : Var(Yt/ Yt-1) = [α + βY2t-1] σ2 Pour cela, il a considéré les modèles de la forme où ht = α0 + αY2t-1 Cette classe de modèle, appelée ARCH(1) a été généralisée sous la forme ARCH(p) : Où ht = α0 + α1Y2t-1 + … + αpY2t-p Cette forme pour ht a permis l’analogie entre les modèles AR et les modèles ARCH. Ainsi, de la même façon que les ARMA généralisent les AR, la classe de modèle ARCH a été généralisée en considérant la fonction ht de la forme : Où En résumé : *AR *ARCH → → ARMA GARCH Note 5 : les modèles ARCH ou GARCH sont énormément utilisés dans les modèles financières parce qu’ils sont caractérisés par de longues périodes de forte volatilité, appelée volatility clustering. §§ "Autoregressive Conditional Heteroskedasticity With Estimates of the Variance of U.K. Inflation", Econometrica 50 (1982): 987-1008. *** Modèle ARCH : Modèle Autorégressif conditionnellement hétéroscédastique. ††† Le modèle GARCH(1,1) a été présenté indépendamment par Taylor (1986). Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 7 7. METHODE DE MAXIMUM DE VRAISEMBLANCE Fonction de Vraisemblance Soit y = (y1, … yn), la réalisation de taille n d’un vecteur Y. On appelle fonction de vraisemblance ou tout simplement la vraisemblance, la fonction de y et de θ : V(y, θ) = V(y1, …, yn, θ) Ainsi, dans le cas particulier où : On note par la log-vraisemblance, la fonction : Estimateurs du maximum de vraisemblance L’estimateur du maximum de vraisemblance, noté maximisation : , n’est qu’une solution au problème de Sachant qu’une transformation strictement croissante ne changeant pas un maximum, on considère souvent le problème de maximisation du logarithme népérien de la vraisemblance, d’où : 8. MODELISATION AR(I)MA OU MODELISATION (G)ARCH A l’issue de ces tests diagnostics, s’il se dégage que la série des résidus est stationnaire en moyenne ; reste à déterminer si les erreurs sont autocorrélées ou non et/ou leurs variances sont hétéroscédastiques ou non. Ces deux derniers tests permettent de préciser le modèle à utiliser pour la prévision. Absence d’autocorrélation Homoscédastique : Modélisation ARMA Hétéroscédastique : Modélisation (G)ARCH Homoscédastique : Ecarter le modèle Hétéroscédastique : Ecarter le modèle Si Test de validation Présence d’autocorrélation Si Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 8 RAPPEL Avant de passer aux exercices d’entrainement, notez que les applications retenues se feront en deux temps. Le schéma suivant s’avère assez éloquent pour illustrer la démarche à suivre. APPLICATIONS Construction de modèles de prévision AR/ MA/ AR(I)MA : Méthodologie de Box-Jenkins (G)ARCH : Méthode de Maximum de Vraisemblance Optimisation du portefeuille Le portefeuille étant une collection d’actifs financiers détenus par un établissement ou un individu, on cherchera à limiter les risques courus en se basant essentiellement sur le critère de la VaR. De modèles AR/ MA/ ARMA aux modèles ARCH/ GARCH : une étude du cas de l’indice boursier Dow Jones Construisons un modèle AR(I)MA { partir de la série de l’indice Dow Jones ‡‡‡, notée DJI (Dow Jones Index). Les données considérées { cet effet sont mensuelles et la période retenue pour l’étude va de juin 1997 { Juillet 2008, 134 observations. Pour construire le modèle de prévision, nous allons emprunter la méthodologie de Box-Jenkins, telle que décrite précédemment ; mais avant tout, nous commençons par l’analyse exploratoire (plot) de la dite chronique puis l’analyse de la stationnarité (test de la racine unitaire). Les données saisies sur Eviews se présentent comme suit : ‡‡‡ La chronique de la DJI a été tirée auprès de la source Euronext Paris. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 9 A. ANALYSE EXPLORATOIRE DES DONNEES Plot de la série DJI PLOT DJI 150 140 130 120 DJI 110 100 90 80 97 98 99 00 01 02 03 04 05 06 07 08 On peut également travailler avec de données logarithmiques. Dans ce cas, le plot de la série linéarisée se présente comme suit : GENR LDJI = LOG(DJI) 5.1 5.0 4.9 4.8 LDJI 4.7 4.6 4.5 4.4 97 98 99 00 01 02 03 04 05 06 07 Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 08 10 B. ETUDE DE LA STATIONNARITE B.1. TEST INFORMEL : Analyse des Corrélogrammes de la série DJI IDENT DJI ; cliquer sur level puis valider B.2.EST FORMEL : TEST DE LA RACINE UNITAIRE ADF DJI /UROOT DJI Modèle avec tendance et constante Null Hypothesis: DJI has a unit root Exogenous: Constant, Linear Trend Lag Length: 0 (Automatic based on SIC, MAXLAG=0) Augmented Dickey-Fuller test statistic Test critical values: t-Statistic -2.546403 -4.028496 -3.443961 -3.146755 1% level 5% level 10% level Prob.* 0.3057 *MacKinnon (1996) one-sided p-values. Augmented Dickey-Fuller Test Equation Dependent Variable: D(DJI) Method: Least Squares Date: 05/28/10 Time: 01:32 Sample (adjusted): 1997M07 2008M07 Included observations: 133 after adjustments Variable DJI(-1) C @TREND(1997M06) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Coefficient Std. Error t-Statistic Prob. -0.101732 10.92612 0.016493 0.039951 4.162216 0.012938 -2.546403 2.625073 1.274799 0.0121 0.0097 0.2047 0.049707 0.035087 4.276247 2377.218 -380.4607 1.856615 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) 0.135338 4.353302 5.766327 5.831523 3.399982 0.036369 Série non stationnaire et trend non significatif et trend non significatif. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 11 Modèle sans tendance et avec constante Null Hypothesis: D(DJI) has a unit root Exogenous: Constant Lag Length: 0 (Automatic based on SIC, MAXLAG=0) Augmented Dickey-Fuller test statistic Test critical values: 1% level 5% level t-Statistic Prob.* -11.13513 -3.480425 -2.883408 0.0000 *MacKinnon (1996) one-sided p-values. Augmented Dickey-Fuller Test Equation Dependent Variable: D(DJI,2) Method: Least Squares Date: 05/28/10 Time: 01:49 Sample (adjusted): 1997M08 2008M07 Included observations: 132 after adjustments Variable Coefficient Std. Error t-Statistic D(DJI(-1)) C -0.979538 0.140529 0.488171 0.484234 4.384610 2499.225 -381.4015 1.970918 0.087968 0.381913 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) -11.13513 0.367961 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Prob. 0.0000 0.7135 -0.022727 6.105267 5.809114 5.852793 123.9912 0.000000 Série non stationnaire avec intercept significatif B.3. STATIONARISATION DE LA SERIE DJI Il faut appliquer le filtre de différence pour stationnariser la série DJI : GENR DDJI = D(DJI) Test de la racine sur DIDJ On applique le test de ADF en cliquant sur 1st difference de Unit Root Test puis successivement sur « Intercept and trand » et on tape 2 pour le nombre de retard Sur « intercept » et on tape 2 pour le nombre de retard Sur « none » et on tape 2 pour le nombre de retard Modèle avec tendance et constante Null Hypothesis: D(DDJI) has a unit root Exogenous: Constant, Linear Trend Lag Length: 0 (Automatic based on SIC, MAXLAG=0) Augmented Dickey-Fuller test statistic Test critical values: 1% level 5% level t-Statistic Prob.* -17.02519 -4.029595 -3.444487 0.0000 *MacKinnon (1996) one-sided p-values. Augmented Dickey-Fuller Test Equation Dependent Variable: D(DDJI,2) Method: Least Squares Date: 05/28/10 Time: 01:49 Sample (adjusted): 1997M09 2008M07 Included observations: 131 after adjustments Variable Coefficient Std. Error t-Statistic Prob. D(DDJI(-1)) C @TREND(1997M06) -1.385233 -0.070517 6.99E-05 0.081364 1.020420 0.013115 -17.02519 -0.069106 0.005332 0.0000 0.9450 0.9958 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.693677 0.688891 5.676221 4124.093 -411.8169 2.340458 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) -0.076336 10.17661 6.333083 6.398927 144.9301 0.000000 Il se dégage que la tendance n’est pas significativement différente de zéro car la probabilité critique associée au trend est supérieure à 5 pour cent. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 12 Modèle sans tendance et avec constante Null Hypothesis: D(DDJI) has a unit root Exogenous: Constant Lag Length: 0 (Automatic based on SIC, MAXLAG=0) Augmented Dickey-Fuller test statistic Test critical values: 1% level 5% level 10% level t-Statistic Prob.* -17.09165 -3.480818 -2.883579 -2.578601 0.0000 *MacKinnon (1996) one-sided p-values. Augmented Dickey-Fuller Test Equation Dependent Variable: D(DDJI,2) Method: Least Squares Date: 05/28/10 Time: 01:52 Sample (adjusted): 1997M09 2008M07 Included observations: 131 after adjustments Variable Coefficient Std. Error t-Statistic Prob. D(DDJI(-1)) C -1.385234 -0.065762 0.081047 0.494008 -17.09165 -0.133118 0.0000 0.8943 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.693677 0.691303 5.654177 4124.094 -411.8169 2.340455 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) -0.076336 10.17661 6.317816 6.361712 292.1246 0.000000 Il se dégage que la constante n’est pas significativement différent de zéro. Modèle sans tendance et sans constante Null Hypothesis: D(DDJI) has a unit root Exogenous: None Lag Length: 0 (Automatic based on SIC, MAXLAG=0) Augmented Dickey-Fuller test statistic Test critical values: 1% level 5% level 10% level t-Statistic Prob.* -17.15677 -2.582734 -1.943285 -1.615099 0.0000 *MacKinnon (1996) one-sided p-values. Augmented Dickey-Fuller Test Equation Dependent Variable: D(DDJI,2) Method: Least Squares Date: 05/28/10 Time: 01:54 Sample (adjusted): 1997M09 2008M07 Included observations: 131 after adjustments R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Variable Coefficient Std. Error t-Statistic Prob. D(DDJI(-1)) -1.385248 0.080741 -17.15677 0.0000 0.693635 0.693635 5.632775 4124.661 -411.8259 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin-Watson stat -0.076336 10.17661 6.302686 6.324634 2.340119 On accepte donc l’hypothèse alternative selon laquelle la série DDJI est stationnaire et donc : DDJI → I(0) : la série DDJI suit un processus ARMA OU DJI → I(1) : la série DJI suit un processus ARIMA. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 13 Graphique de la série stationnaire 15 10 5 0 DDJI -5 -10 -15 -20 97 98 99 00 01 02 03 04 05 06 07 08 Il ressort de ce graphique (après différence première) que la série fluctue autour d’une moyenne constante. C. MODELISATION ARMA PAR LA METHODE DE BOX-JENKINS C.1. Identification des ordres p et q du modèle ARMA La série DIDJ est stationnaire. On va lui chercher un modèle ARMA (p, q) Pour connaître les ordres du modèle ARMA (p, q), nous allons nous servir de corrélogrammes de la série stationnaire DIDJ. En effet, le corrélogramme simple permet d’identifier un modèle MA(q), alors que le corrélogramme partiel permet d’identifier un modèle AR(q). Corrélogramme de la série stationnaire Il ressort de ces corrélogrammes que la deuxième autocorrélation (simple et partielle) de la série DDJI est significativement différente de zéro. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 14 C.2. Estimation de processus AR/ MA/ ARMA Comme il s’agit de processus ARIMA(2,1,2), les schéma ci-dessus nous servira de guide pour les estimations. MA(1) MA(2) AR(2) MA(2) AR(1) MA(1) MA(2) MA(2) Rappelons qu’il existe quatre types de régression, { noter : la régression standard, la régression hiérarchique, la régression statistique ou régression pas-à-pas et la régression set wise§§§. Pour estimer les processus ARIMA(2, 1, 2), nous optons pour la régression set wise. *Modèle AR(1) *Modèle AR(2) *Modèle AR(1) AR(2) *Modèle AR(2) MA(1) *Modèle AR(1) AR(2) MA(1) *Modèle AR(2) MA(1) MA(2) *Modèle AR(1) AR(2) MA(2) *Modèle AR(2) MA(2) *Modèle AR(1) MA(1) *Modèle MA(1) *Modèle AR(1) MA(1) MA(2) *Modèle MA(1) MA(2) *Modèle AR(1) MA(2) *Modèle MA(2) *Modèle AR(1) AR(2) MA(1) MA(2) Comment estimer ? COMMANDE EVIEWS : LS DDJI AR(p) MA(q) Par exemple pour un modèle AR(1), la commande à passer est : LS DDJI AR(1) Alors que pour un modèle ARMA(1, 2), la commande est dans ce cas : LS DDJI AR(1) MA(1) MA(2) C.3. Validation du modèle Après estimation des différents modèles, l’analyse de la significativité des coefficients nous conduits { conserver les six modèles ci-après. Ces six modèles seront soumis à un test de diagnostic. Seuls les modèles dont les résidus sont de bruits blancs seront validés. * AR(2) : DDJIt = – 0.200963DDJIt-2 * MA(2) : DDJIt = – 0.252652εt-2 * AR(1) MA(1) : DDJIt = – 0.815359DDJIt-1 + 0.933094εt-1 * AR(2) MA(2) : DDJIt = 0.453573DDJIt-2 – 0.701201εt-2 * AR(1) MA(1) MA(2) : DDJIt = – 0.504959DDJIt-1 + 0.546070εt-1 – 0.181535 εt-2 * AR(1) AR(2) MA(1) : DDJIt = 0.619501DDJIt-1 – 0.153935DDJIt-2 – 0.642420εt-1 §§§ Lire Tsasa, 2009, Vers l’économétrie approfondie : une présentation en schémas, CRES. Des auteurs, comme Kintambu M. (2008) préfère la régression statistique. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 15 Analyse de résidus Test d’hypothèse nulle de centralité : cette hypothèse veut qu’en moyenne les résidus soient égaux à une constante nulle. En appliquant le test de racine unitaire, il ressort que le processus résiduel est stationnaire : Null Hypothesis: DDJI_RESIDUALS has a unit root Exogenous: None Lag Length: 0 (Automatic based on SIC, MAXLAG=12) Augmented Dickey-Fuller test statistic Test critical values: 1% level 5% level 10% level t-Statistic Prob.* -11.09590 -2.582599 -1.943266 -1.615111 0.0000 *MacKinnon (1996) one-sided p-values. Augmented Dickey-Fuller Test Equation Dependent Variable: D(DDJI_RESIDUALS) Method: Least Squares Date: 06/16/10 Time: 04:55 Sample (adjusted): 1997M08 2008M07 Included observations: 132 after adjustments Variable Coefficient Std. Error t-Statistic Prob. DDJI_RESIDUALS(-1) -0.972381 0.087634 -11.09590 0.0000 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood 0.484485 0.484485 4.179631 2288.480 -375.5874 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin-Watson stat -0.023432 5.821264 5.705870 5.727709 1.979203 Cependant, le plot indique que le processus résiduel semble être stationnaire en moyenne et non en variance, pour se faire, il faut passer au test d’hypothèse nulle d’homoscédasticité pour s’en assurer. 10 5 0 DDJI_RESIDUALS -5 -10 -15 -20 97 98 99 00 01 02 03 04 05 06 07 08 En effet, si le processus n’est pas stationnaire en variance, il est conseiller d’utiliser, non plus un processus ARIMA, mais plutôt un processus (G)ARCH afin de prendre compte la volatilité et le caractère non linéaire du modèle. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 16 Test d’hypothèse nulle d’autocorrélation des erreurs (test de Box-Pierce) Au regard de probabilités affectées aux autocorrélations pour les différents modèles respectifs, on est conduit { rejeter l’hypothèse de soutient. En conséquence, on décide H0 : il y a absence d’autocorrélation des erreurs. Test d’hypothèse nulle d’homoscédasticité (test ARCH) Pour réaliser ce test, il faut préalablement déterminer le nombre de retards à retenir. Au regard du corrélogramme des résidus au carré **** du modèle AR(2), on choisit, compte tenu du critère de parcimonie, un nombre de retards égal à trois. Il se dégage que les probabilités affectées aux résidus au carré pour les différents modèles respectifs, on est conduit { rejeter l’hypothèse de soutient. En conséquence, on décide H0 : il y a absence d’autocorrélation des erreurs. Etant donné que les hypothèses alternatives pour les différents tests respectifs ont été rejetées, La modélisation retenue pour la prévision sera donc du type ARIMA. NOTE : les différents tests sont repris dans l’annexe 2. Les résidus de ces différents modèles sont de bruits blancs et donc, tous les modèles ci-dessous doivent être validés. * AR(2) * MA(2) * AR(1) MA(1) * AR(2) MA(2) * AR(1) MA(1) MA(2) * AR(1) AR(2) MA(1) : : : : : : DDJIt = – 0.200963DDJIt-2 DDJIt = – 0.252652εt-2 DDJIt = – 0.815359DDJIt-1 + 0.933094εt-1 DDJIt = 0.453573DDJIt-2 – 0.701201εt-2 DDJIt = – 0.504959DDJIt-1 + 0.546070εt-1 – 0.181535 εt-2 DDJIt = 0.619501DDJIt-1 – 0.153935DDJIt-2 – 0.642420εt-1 Cependant, pour choisir le modèle à retenir pour la prévision, nous allons recourir aux critères d’information et au coefficient de détermination. Ces critères permettent d’évaluer la qualité d’une modèle. MODELE AIC SIC R² 5.751928 5.773876 0.039808 MA(2) 5.738369 5.760101 0.047693 AR(1) MA(1) 5.764665 5.808344 0.043874 AR(2) MA(2) 5.720381 5.764278 0.083722 AR(1) MA(1) MA(2) 5.770850 5.836368 0.052408 AR(1) AR(2) MA(1) 5.761109 5.826954 0.060094 D’après ces critères, il ressort que le modèle AR(2) MA(2) dispose d’une qualité supérieure. Le fait de retenir ce modèle ne signifie pas que les autres modèles ne peuvent pas être utilisés pour la prévision. Ces critères n’accordent au modèle retenu qu’une certaine prééminence sur les autres. AR(2) **** View (dans la fenêtre d’estimation du modèle sous analyse) → Residual Tests → Correlogram Squared Residuals. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 17 C.4. Prévision La prédiction a été obtenue { l’étape 3. A présent, nous allons prévoir l’évolution du processus AR(2) MA(2) à la période t+h. Soit : DDJIt = 0.453573DDJIt-2 – 0.701201εt-2 16 Forecast: DDJIF Actual: DDJI Forecast sample: 1997M06 2008M07 Adjusted sample: 1997M09 2008M07 Included observations: 131 12 8 4 Root Mean Squared Error Mean Absolute Error Mean Abs. Percent Error Theil Inequality Coefficient Bias Proportion Variance Proportion Covariance Proportion 0 -4 -8 4.161955 3.103631 95.26647 0.752537 0.001366 0.579237 0.419397 -12 98 99 00 01 02 03 04 05 06 07 08 DDJIF Où DDJIF = DDJI fitted. Il ressort de cet output que le coefficient de Theil est assez élevé, ce qui n’assure pas une bonne prédiction. La figure ci-dessous s’avère assez éloquent { cet effet. 20 10 0 10 -10 5 -20 0 -5 -10 -15 -20 98 99 00 01 Residual 02 03 04 Actual 05 06 07 08 Fitted Après avoir générer les résidus (resid) et la variable prédite [= (DDJI) – (Resid)], aller dans VIEW → DATED DATA TABLE. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 18 Une lecture minutieuse de ce tableau (traduisant en chiffre le résultat de la figure précédente) prouve, par ailleurs, également que la prédiction n’est pas très bonne. Jan Feb Mar Apr May Jun Aug Sep Oct Nov Dec ---- Jul 1997 -1.0 0.77 -1.77 5.0 0.89 4.11 7.0 1.21 5.79 5.0 3.69 1.31 -2.0 -0.89 -1.11 4.0 1.35 2.65 Year 1997 3.0 1.17 1.83 DDJI FITTED RESIDUAL ---- ---- ---- ---- ---- DDJI FITTED RESIDUAL -1.0 -0.13 -0.87 -3.0 -0.05 -2.95 -3.0 0.16 -3.16 4.0 0.71 3.29 5.0 0.85 4.15 1.0 -0.49 1.49 1998 -9.0 -0.64 -8.36 0.0 -0.59 0.59 5.0 1.78 3.22 -4.0 -0.42 -3.58 0.0 0.01 -0.01 1.0 0.70 0.30 1998 -0.3 0.16 -0.49 DDJI FITTED RESIDUAL 3.0 0.01 2.99 0.0 0.24 -0.24 -6.0 -0.74 -5.26 3.0 0.17 2.83 0.0 0.97 -0.97 0.0 -0.62 0.62 1999 1.0 0.68 0.32 -8.0 -0.44 -7.56 2.0 0.23 1.77 8.0 1.67 6.33 -2.0 -0.33 -1.67 -4.0 -0.81 -3.19 1999 -0.3 0.09 -0.34 DDJI FITTED RESIDUAL -1.0 0.26 -1.26 -12.0 0.42 -12.42 0.0 0.43 -0.43 6.0 3.27 2.73 2.0 0.30 1.70 0.0 0.81 -0.81 2000 -1.0 -0.28 -0.72 7.0 0.57 6.43 -4.0 0.05 -4.05 -1.0 -1.34 0.34 -6.0 1.02 -7.02 0.0 -0.69 0.69 2000 -0.8 0.40 -1.24 DDJI FITTED RESIDUAL 2.0 2.20 -0.20 3.0 -0.48 3.48 2.0 1.05 0.95 1.0 -1.08 2.08 -3.0 0.24 -3.24 -6.0 -1.01 -4.99 2001 3.0 0.91 2.09 3.0 0.78 2.22 -17.0 -0.10 -16.90 3.0 -0.20 3.20 12.0 4.14 7.86 -1.0 -0.88 -0.12 2001 0.2 0.46 -0.30 DDJI FITTED RESIDUAL 1.0 -0.07 1.07 -3.0 -0.37 -2.63 2.0 -0.30 2.30 1.0 0.48 0.52 4.0 -0.70 4.70 4.0 0.09 3.91 2002 1.0 -1.48 2.48 -3.0 -0.93 -2.07 1.0 -1.29 2.29 -3.0 0.09 -3.09 3.0 -1.15 4.15 -3.0 0.81 -3.81 2002 0.4 -0.40 0.82 DDJI FITTED RESIDUAL -1.0 -1.55 0.55 2.0 1.31 0.69 -2.0 -0.84 -1.16 4.0 0.42 3.58 3.0 -0.09 3.09 -2.0 -0.69 -1.31 2003 2.0 -0.81 2.81 0.0 0.01 -0.01 -4.0 -1.06 -2.94 1.0 0.01 0.99 1.0 0.25 0.75 0.0 -0.24 0.24 2003 0.3 -0.27 0.61 DDJI FITTED RESIDUAL 1.0 -0.08 1.08 -1.0 -0.17 -0.83 -2.0 -0.30 -1.70 4.0 0.13 3.87 1.0 0.28 0.72 1.0 -0.90 1.90 2004 1.0 -0.05 1.05 2.0 -0.88 2.88 1.0 -0.28 1.28 1.0 -1.11 2.11 -4.0 -0.44 -3.56 1.0 -1.03 2.03 2004 0.5 -0.40 0.90 DDJI FITTED RESIDUAL 2.0 0.68 1.32 3.0 -0.97 3.97 5.0 -0.02 5.02 2.0 -1.42 3.42 2.0 -1.25 3.25 1.0 -1.49 2.49 2005 2.0 -1.37 3.37 -4.0 -1.29 -2.71 5.0 -1.46 6.46 7.0 0.08 6.92 1.0 -2.26 3.26 2.0 -1.68 3.68 2005 2.3 -1.04 3.37 DDJI FITTED RESIDUAL -5.0 -1.83 -3.17 4.0 -1.67 5.67 3.0 -0.05 3.05 -7.0 -2.16 -4.84 2.0 -0.78 2.78 -9.0 0.22 -9.22 2006 -2.0 -1.04 -0.96 -2.0 2.38 -4.38 5.0 -0.23 5.23 2.0 2.17 -0.17 -8.0 -1.40 -6.60 -8.0 1.02 -9.02 2006 -2.1 -0.28 -1.80 DDJI FITTED RESIDUAL 2.0 1.00 1.00 -4.0 2.70 -6.70 1.0 0.20 0.80 -1.0 2.88 -3.88 4.0 -0.10 4.10 7.0 2.27 4.73 2007 -3.0 -1.06 -1.94 -1.0 -0.14 -0.86 1.0 -0.00 1.00 6.0 0.15 5.85 0.0 -0.25 0.25 3.0 -1.38 4.38 2007 1.3 0.52 0.73 DDJI FITTED RESIDUAL 6.0 -0.18 6.18 1.0 -1.71 2.71 -2.0 -1.61 -0.39 -17.0 -1.45 -15.55 -2.0 -0.63 -1.37 0.0 3.19 -3.19 2008 -4.0 0.05 -4.05 ---- ---- ---- ---- ---- 2008 -2.6 -0.33 -2.24 *DDJI : variable observée *FIITED : variable prédite Il est possible de réaliser la prévision (c’est-à-dire DDJIt après juillet 2008) avec le modèle suivant : DDJIt+h = 0.453573DDJIt-2+h – 0.701201εt-2+h (avec εt-2+h = 0 pour tout h > 2). Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 19 Le coefficient d’inégalité de Theil étant élevé, soit 75.25 pour cent ; Il est possible de réduire sa valeur en transformant le modèle ARIMA(p, d, q) à un modèle ARIMA(p+1, 0, q). Dans ce cas, comme il s’agit d’un ARIMA (2, 1, 2), ainsi, nous aurons après transformation : ARIMA(3, 0, 2) En effectuant successivement une régression statistique††††, on obtient (voir l’output en annexe 2) : Estimation Command: ===================== LS DJI C AR(1) AR(2) AR(3) MA(2) Estimation Equation: ===================== DJI = C(1) + [AR(1)=C(2),AR(2)=C(3),AR(3)=C(4),MA(2)=C(5),BACKCAST=1997M09] Substituted Coefficients: ===================== DJIt = 118.9092118 + 0.9340609646DJIt-1 – 0.8875797139DJIt-2 + 0.8404905899DJIt-3 + 0.8400971652εt-2 (19.57424) (19.04214) (-8.731020) (9.030868) (6.992286) (0.0000) (0.0000) (0.0000) (0.0000) (0.0000) R²= 0.885822 AIC = 5.760724 SIC =5.870464 Prob(F-Statistic) = 0.000000 Graphiquement, les valeurs prédites se présentent comme suit. 160 Forecast: DJIF Actual: DJI Forecast sample: 1997M06 2008M07 Adjusted sample: 1997M09 2008M07 Included observations: 131 150 140 130 Root Mean Squared Error Mean Absolute Error Mean Abs. Percent Error Theil Inequality Coefficient Bias Proportion Variance Proportion Covariance Proportion 120 110 100 90 4.150611 3.035962 2.615235 0.017600 0.000002 0.031708 0.968290 80 98 99 00 01 02 03 04 05 06 07 08 DJIF Au regard de ce résultat, il se dégage que le coefficient d’inégalité de THEIL a sensiblement diminué (0.017600) et que par ailleurs, l’erreur quadratique moyenne est inférieure (4.150611) { celle du modèle précédent (4.161955). Donc, la prévision réalisée sur base de ce modèle est meilleure à celle du premier modèle. †††† Il existe quatre types de régressions, parmi celles, la régression statistique, appelée également régression pas-à-pas. Cette dernière repose sur le test de Student ; c’est-à-dire, elle se refère à la règle de pousse pour décider sur la prédictibilité d’un modèle. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 20 Les valeurs actuelles et prédites sont reprises dans la figure suivante : 160 140 120 100 10 80 0 -10 -20 98 99 00 01 02 Residual 03 04 05 Actual 06 07 08 Fitted Pour prévoir l’évolution de la valeur actuelle de l’indice Dow Jones, nous allons nous référer au résultat de l’équation estimée : DJIt+h = 118.9092118 + 0.9340609646DJIt-1+h + 0.8875797139DJIt-2+h + 0.8404905899DJIt-3+h + 0.8400971652εt-2+h Pour ce faire, nous avons besoin de données suivantes (VIEW→ Actual, Fitted, Residual→ Table) : OBS ACTUAL FITTED RESIDUAL RESIDUAL PLOT 2008M01 2008M02 2008M03 2008M04 2008M05 2008M06 2008M07 142.000 143.000 141.000 124.000 122.000 122.000 118.000 135.513 141.054 140.731 139.203 124.531 123.073 121.205 6.48678 1.94598 0.26927 -15.2033 -2.53127 -1.07260 -3.20512 | . | .* | . |* . | . * . | * . | . | .* | . | . *| . | .* | . | | | | | | | En août, septembre, octobre, novembre et décembre 2008, nous aurons : Horizon de prévision Modèle de prévision : Août 2008 → h=1 DJIaoût = 118.909 + 0.934DJIjuillet – 0.888DJIjuin + 0.841DJImai + 0.840εjuin Septembre 2008 → h=2 DJIseptembre = 118.909 + 0.934DJIaoût – 0.888DJIjuillet + 0.841DJIjuin + 0.840εjuillet Octobre 2008 → h=3 DJIoctobre = 118.909 + 0.934DJIseptembre – 0.888DJIaoût + 0.841DJIjuillet Novembre 2008 → h=4 DJInovembre = 118.909 + 0.934DJIoctobre – 0.888DJIseptembre + 0.841DJIaoût Décembre 2008 → h=5 DJIdécembre = 118.909 + 0.934DJInovembre – 0.888DJIoctobre + 0.841DJIseptembre Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 21 Estimations des paramètres des modèles ARCH /GARCH par la méthode maximum de vraisemblance RAPPEL SUR LES PROPRIETES DE SERIES FINANCIERES Propriété 1 (Stationnarité) : Les processus stochastiques Xt associés aux prix d’actif sont généralement non stationnaires au sens de la stationnarité du second ordre, tandis que les processus associés aux rendements sont compatibles avec la propriété de stationnarité au second ordre. C’est la propriété centrale des processus ARCH : le processus Xt possède les propriétés d’un bruit blanc homoscédastique, mais sa variance conditionnelle dépend du temps. Propriété 2 (Autocorrélations des carrés des variations de prix) : La série r2t associée aux carrés des rendements présente généralement de fortes autocorrélations, tandis que les autocorrélations de la série r t sont souvent très faibles (hypothèse de bruit blanc). NOTE : Lorsqu’un processus Xt vérifie les propriétés 1 et 2, on dit qu’il vérifie la définition d’une différence de martingale‡‡‡‡ homoscédastique et d’un bruit blanc. Propriété 3 (Queues de distribution épaisses) : L’hypothèse de normalité des rendements est généralement rejetée. Les queues des distributions empiriques des rendements sont généralement plus épaisses que celles d’une loi gaussienne. On parle alors de distribution leptokurtique. Propriété 4 (Clusters de Volatilité) : On observe empiriquement que de fortes variations des rendements sont généralement suivies de faibles variations. On assiste ainsi à un regroupement des extrêmes en cluster ou paquets de volatilités. Dans ces conditions, le processus Xt est conditionnellement hétéroscédastique. C Propriété 5 (Queues épaisses conditionnelles) : Même une fois corrigée de la volatilité clustering (par exemple avec des modèles ARCH), la distribution des résidus demeure leptokurtique même si la kurtosis est plus faible que dans le cas non conditionnel. Propriété 6 (Effet de levier) : Il existe une asymétrie entre l’effet des valeurs passées négatives et l’effet des valeurs passées positives sur la volatilité des cours ou de rendements. Les baisses de cours tendent à engendrer une augmentation de la volatilité supérieure à celle induite par une hausse des cours de même ampleur. Cette propriété n’est pas à confondre avec celle d’asymétrie de la distribution des cours ou des rendements (propriété 8). Il s’agit ici d’une asymétrie de la relation liant les valeurs passés des cours ou rendements à la volatilité de ces derniers. Propriété 7 (Saisonnalité) : Les returns présentent de nombreux phénomènes de saisonnalité (effets weekend, effet janvier, etc..). Propriété 8 (Asymétrie perte/gain) : La distribution des cours est généralement asymétrique : il y a plus de mouvements forts { la baisse qu’{ la hausse. ‡‡‡‡ Un processus X test une différence de martingale homoscédastique si et seulement si : E(Xt/Xt-1) = 0 et V(Xt) = σ²x pout tout t. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 22 Construisons, { présent, un modèle (G)ARCH { partir de la série de l’action General Electric Co, notée VAGE. Les données considérées { cet effet sont hebdomadaires et la période retenue pour l’étude va du 3 janvier 1972 au 25 Janvier 2010, 1987 observations. Les données sur Eviews se présentent comme suit : A. ANALYSE EXPLORATOIRE DES DONNEES Plot de la série VAGE Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 23 On peut également travailler avec de données logarithmiques dans ce cas, le plot de la série linéarisée (noté, LVAGE) se présente comme suit : B. ETUDE DE LA STATIONNARITE B.1. Corrélogramme En examinant le corrélogramme (figure ci-contre), nous constatons qu’il y a une décroissance lente des coefficients d’autocorrélation avec 36 coefficients d’autocorrélation simple non nuls et 8 coefficients d’autocorrélation partielle significatifs (non nuls). Cela correspond donc à un modèle ARMA(8, 36) non stationnaire. En vertu du principe de parcimonie, nous admettons un processus ARMA(2, 2). Rappel : d’après le principe de parcimonie, les valeurs décalées d’une variable dépendante dans un modèle ont tendance à exercer une influence chaque fois moindre sur la variable dépendante au fur et à mesure qu’on s’éloigne dans le temps. Au regard de ce corrélogramme, il y a lieu de soupçonner que la série n’est pas stationnaire à niveau. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 24 B.2. Test de la racine unitaire Cependant, en passant le test de Phillips-Perron, il ressort que la série est stationnarité à niveau, avec trend et constante significatifs. Le résultat ne change pas de nature même si l’on recourt au test ADF. En effet, la statistique PP (qui normalement doit être négative) en valeur absolue est supérieure aux valeurs critiques de MacKinnon à tous les seuils. En se référant à la règle de pousse et aux probabilités critiques, il ressort que le trend et la dérive sont tous significatifs. Faudra-t-il appliquer la modélisation ARMA avec la méthodologie BJ ou la modélisation ARCH avec la méthode de maximum de vraisemblance ? Pour se décider sur la méthodologie à suivre, nous nous basons sur deux tests. Analyse du plot de la série résiduelle Ce graphique indique la présence de volatilité, il y a donc lieu de suspecter la présence d’une série non stationnaire en variance. Pour s’en convaincre, formellement, nous effectuons aussitôt le test d’hypothèse nulle d’homoscédasticité. Il existe plusieurs tests§§§§, à cet effet. Dans le cadre de ce cours, on recourt au test ARCH. §§§§ Test de Harvey, Test de Glejser, Test de White ou Custom test wizard. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 25 Test ARCH Le résultat repris dans le tableau ci-dessous nous pousse à rejeter l’hypothèse nulle. Donc, on admet que la variance résiduelle est non homoscédastique. Donc, la prévision de l’évolution de la variable VAGE sera faite sur base d’un modèle (G)ARCH estimé par la méthode de maximum de vraisemblance. C. CHOIX DU MODELE (G)ARCH(p,q) L’ordre approprié au modèle (G)ARCH(p,q) est obtenu { partir du corrélogramme des résidus au carré du modèle ARMA(2,2). L’autocorrélation partielle permet de déterminer l’ordre q de ARCH, alors que l’autocorrélation simple permet de définir l’ordre p du GARCH(p,q). Comme l’indique le résultat ci-après, le corrélogramme des résidus au carré présente 36 autocorrélations simples et 8 autocorrélations partielles significativement différentes de zéro. Par principe de parcimonie, on retient les deux premières autocorrélations (simples et partielles). Ainsi, on estimera les modèles suivants : ARCH(2), GARCH(2,2), GARCH(1,2), GARCH(2,1), GARCH(1,1). La comparaison des modèles estimés se fera ensuite { l’aide des critères suivants : AIC, SIC, R², log-likehood. On choisira le modèle qui vérifiera un maximum de ces critères. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 26 ESTIMATION Pour estimer les modèles (G)ARCH, on va dans Quick puis dans Estimate Equation. Ensuite, cliquer la pointe de la flèche là où on a Least Squares pour sélectionner ARCH. Dans la partie intitulé Mean Equation Specification : on tape VAGE C T AR(1) AR(2) MA(1) MA(2). Pour l’estimation d’un modèle : o o o o o ARCH(2), on tape 2 dans la case ARCH et 0 dans la case GARCH GARCH (1,1), on tape 1 dans la case ARCH et 1 dans la case GARCH GARCH (2,1), on tape 2 dans la case ARCH et 1 dans la case GARCH GARCH (1,2), on tape 1 dans la case ARCH et 2 dans la case GARCH GARCH (2,2), on tape 2 dans la case ARCH et 2 dans la case GARCH NOTE : les coefficients estimés par la modélisation ARCH doivent être toujours être positif (contrainte de positivité*****). ARCH(2) ***** L’optimisation de la fonction de vraisemblance est réalisée sous certaintes conraintes, notamment celle de non négativité. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 27 Le coefficient du modèle ARCH(2) n’étant pas significatif ; estimons, à présent, un modèle ARCH(1). ARCH(1) Le coefficient ARCH(1) est positif et significativement différent de zéro. On garde donc ce modèle. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 28 GARCH(1,1) Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 29 GARCH(1,2) Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 30 GARCH(2,1) Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 31 GARCH(2,2) Au bout de ces estimations, il ressort donc que le seul modèle retenu pour la prévision de la volatilité est le modèle ARCH(1). Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 32 CONCLUSION Il y avait en plus un grand nombre de « profanes » c’est-à-dire d’auteurs qui soutenaient des systèmes théoriques de leur cru, et condamnaient la théorie professionnelle sans se soucier de la maîtriser. Il y avait enfin autre chose. Comme toujours, la majorité des économistes était absorbée par l’étude des faits et des problèmes pratiques des divers départements de la politique publique. La théorie ne servait pas à grand chose pour cette majorité. Schumpeter, J., 1983, Histoire de l’analyse économique, Tome 3, Gallimard, Paris, p. 273. Le seul moyen d’accès { une position telle que notre science puisse donner un avis positif pour de nombreux politiciens et hommes d’affaires repose sur des travaux quantitatifs. Aussi longtemps que nous ne serons pas capables de traduire nos arguments en chiffres, la voix de notre science, bien qu’elle puisse occasionnellement aider à éviter des erreurs grossières, ne sera jamais entendue par les praticiens. Ils sont tous, par instinct, économètres, du fait de leur incrédulité pour toute chose dont il n’existe pas une preuve exacte. Schumpeter, J.A., 1933, The common sense of econometrics, vol. 1, Econometrica, p. 12. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 33 Bibliographie 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. Charpentier, A., 2006, Cours de séries temporelles : théorie et applications, Université Paris Dauphjine. Cobbaut, R., 1997, Théorie Financière, Economica. Droesbeke, J-J., Fichet, B., et Tassi, P. (eds), 1994, Modélisation ARCH. Théorie statistique et Applications dans le domaine de la finance, disponible en ligne http://digistore.bib.ulb.ac.be/DL2826626_000_f.pdf. Engel, R.F. and Bollerslev, T.P., 1986, Modelling the persistence of conditional variances, Econometric reviews, 5, 1-50, pp.81-87. Friedman, B.M. and Kuttner, K.N., 1988, Time varying risk perceptions and the pricing of risk assets, unpublished manuscript, Departement of economics, Havard University and NBER, Working paper, n°2694. Hurlin, C., 2006-2007, Econométrie pour la finance: Modèles ARCH-GARCH, Applications à la VaR, Master econométrie et Statistique appliquée, Université d’Orléans, disponible en ligne http://www.univorleans.fr/deg/masters/ESA/CH/churlin_E.htm . Kintambu, E.G., 2008, Principes d’économétrie, 3ème édition, Presse de l’Université Kongo. Mankiw, N.G. and Shapiro, M.D., 1986, Risk and Return: consumption versus Market Beta, Review of Economics and statistics, 68. Mukoko, D., 2010, Cours de Statistique appliquée aux finances, Centre Congolais-Allemand de Microfinance, UPC, Kinshasa. RAGGAD, B. et TRABELSIY, A., 2003, Value at Risk et Prévision de la volatilité d’un panier de taux de change, Institut Supérieur de Gestion de Tunis. Taylor, S.J., 1984, Estimating the variances of autocorrelations calculated from financial time series, Journal of the royal statistical association, series C (Applied statistics), 33, pp 300-308. Taylor, S.J., 1986, Modelling financial time series, John Wiley and Sons, Chichester. Tsasa, J.P., Vers l’économétrie approfondie : une présentation en schémas, CRES. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 34 ANNEXE 1 : Estimation de processus ARIMA(2, 1, 2) *Modèle AR(1) : DDJI = AR(1) Dependent Variable: DDJI Method: Least Squares Date: 06/08/10 Time: 17:21 Sample (adjusted): 1997M08 2008M07 Included observations: 132 after adjustments Convergence achieved after 2 iterations Variable Coefficient Std. Error t-Statistic Prob. AR(1) 0.021704 0.087613 0.247728 0.8047 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Inverted AR Roots -0.000625 -0.000625 4.370117 2501.828 -381.4702 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin-Watson stat 0.143939 4.368752 5.795004 5.816843 1.970832 .02 Modèle non significatif. *Modèle AR(2) : DDJI = AR(1) AR(2) Dependent Variable: DDJI Method: Least Squares Date: 06/08/10 Time: 17:16 Sample (adjusted): 1997M09 2008M07 Included observations: 131 after adjustments Convergence achieved after 3 iterations Variable Coefficient Std. Error t-Statistic Prob. AR(2) -0.200563 0.085744 -2.339098 0.0209 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood 0.039808 0.039808 4.276878 2377.919 -375.7513 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin-Watson stat 0.106870 4.364634 5.751928 5.773876 1.938085 En estimant le modèle AR(2), il ressort que AR(1) est non significatif, on l’écarte dès lors du modèle et on obtient : DDJI = AR(2) Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 35 *Modèle MA(1) : DDJI = MA(1) Dependent Variable: DDJI Method: Least Squares Date: 06/08/10 Time: 17:22 Sample (adjusted): 1997M07 2008M07 Included observations: 133 after adjustments Convergence achieved after 12 iterations Backcast: 1997M06 Variable Coefficient Std. Error t-Statistic Prob. MA(1) 0.036413 0.087261 0.417289 0.6771 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Inverted MA Roots -0.000188 -0.000188 4.353712 2502.035 -383.8638 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin-Watson stat 0.135338 4.353302 5.787425 5.809157 2.007848 -.04 Modèle non significatif. *Modèle MA(2) : DDJI = MA(1) MA(2) Dependent Variable: DDJI Method: Least Squares Date: 06/08/10 Time: 17:18 Sample (adjusted): 1997M07 2008M07 Included observations: 133 after adjustments Convergence achieved after 9 iterations Backcast: 1997M05 1997M06 Variable Coefficient Std. Error t-Statistic Prob. MA(2) -0.252652 0.085593 -2.951775 0.0037 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood 0.047693 0.047693 4.248223 2382.257 -380.6015 Inverted MA Roots .50 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin-Watson stat 0.135338 4.353302 5.738369 5.760101 1.926493 -.50 En estimant le modèle MA(2), il ressort que MA(1) est non significatif, on l’écarte dès lors du modèle et on obtient : DDJI = MA(2) Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 36 *Modèle ARMA (1, 1) : DDJI = AR(1) MA(1) Dependent Variable: DDJI Method: Least Squares Date: 06/08/10 Time: 17:20 Sample (adjusted): 1997M08 2008M07 Included observations: 132 after adjustments Convergence achieved after 14 iterations Backcast: 1997M07 Variable Coefficient Std. Error t-Statistic Prob. AR(1) MA(1) -0.815355 0.933094 0.106831 0.073167 -7.632190 12.75288 0.0000 0.0000 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Inverted AR Roots Inverted MA Roots 0.043874 0.036519 4.288239 2390.569 -378.4679 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin-Watson stat 0.143939 4.368752 5.764665 5.808344 2.097860 -.82 -.93 *Modèle ARMA (1, 2) : DDJI = AR(1) MA(1) MA(2) Dependent Variable: DDJI Method: Least Squares Date: 06/08/10 Time: 17:43 Sample (adjusted): 1997M08 2008M07 Included observations: 132 after adjustments Convergence achieved after 20 iterations Backcast: 1997M06 1997M07 Variable Coefficient Std. Error t-Statistic Prob. AR(1) MA(1) MA(2)* -0.504959 0.546070 -0.181535 0.235592 0.236989 0.102377 -2.143368 2.304195 -1.773200 0.0340 0.0228 0.0786 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Inverted AR Roots Inverted MA Roots 0.052408 0.037717 4.285572 2369.230 -377.8761 -.50 .23 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin-Watson stat 0.143939 4.368752 5.770850 5.836368 1.980523 -.78 *MA(2) est significatif au seuil de 10%. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 37 *Modèle ARMA (2, 1) : DDJI = AR(1) AR(2) MA(1) Dependent Variable: DDJI Method: Least Squares Date: 06/08/10 Time: 17:42 Sample (adjusted): 1997M09 2008M07 Included observations: 131 after adjustments Convergence achieved after 8 iterations Backcast: 1997M08 Variable Coefficient Std. Error t-Statistic Prob. AR(1) AR(2)* MA(1) 0.619501 -0.153935 -0.642420 0.210899 0.089664 0.207155 2.937434 -1.716807 -3.101161 0.0039 0.0884 0.0024 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood 0.060094 0.045407 4.264389 2327.682 -374.3527 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin-Watson stat Inverted AR Roots Inverted MA Roots .31+.24i .64 .31-.24i 0.106870 4.364634 5.761109 5.826954 1.963489 *AR(2) est significatif au seuil de 10%. *Modèle ARMA (2, 2) : DDJI = AR(1) AR(2) MA(1) MA(2) Dependent Variable: DDJI Method: Least Squares Date: 06/08/10 Time: 17:44 Sample (adjusted): 1997M09 2008M07 Included observations: 131 after adjustments Convergence achieved after 8 iterations Backcast: 1997M07 1997M08 Variable Coefficient Std. Error t-Statistic Prob. AR(2) MA(2) 0.453573 -0.701201 0.194064 0.158860 2.337233 -4.413952 0.0210 0.0000 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood 0.083722 0.076619 4.194094 2269.165 -372.6850 Inverted AR Roots Inverted MA Roots .67 .84 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin-Watson stat 0.106870 4.364634 5.720381 5.764278 1.942155 -.67 -.84 En estimant le modèle ARMA(2, 2), il ressort que AR(1) et MA(1) sont non significatifs, on les écarte dès lors du modèle et on obtient un modèle : DDJI = AR(2) MA(2) Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 38 ANNEXE 2 : Tests de validité TEST D’HYPOTHESE NULLE D’ABSENCE D’AUTOCORRELATION DES ERREURS VIEW → RESIDUAL TESTS → CORRELOGRAM-Q-STATISTICS TEST D’HETEROSCEDASTICITE *Détermination du nombre de retards à retenir : l’identification du nombre de décalages se fait { partir du corrélogramme des résidus au carré du modèle estimé, par exemple AR(2). VIEW → RESIDUAL TESTS → CORRELOGRAM SQUAREDE RESIDUALS Après avoir identifié le nombre de retards, on dès lors effectue le test ARCH : VIEW → RESIDUAL → TESTS ARCH LM Test Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 39 Modèle AR(2) Test d’autocorrélation Les probabilités affectées aux autocorrélations sont toutes supérieures à 5 pour cent. On décide donc qu’il y a absence d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 40 Test d’hypothèse nulle d’homoscédasticité ARCH Test: F-statistic Obs*R-squared 0.489736 1.498843 Probability Probability 0.690038 0.682537 Test Equation: Dependent Variable: RESID^2 Method: Least Squares Date: 06/24/10 Time: 19:55 Sample (adjusted): 1997M12 2008M07 Included observations: 128 after adjustments Variable Coefficient Std. Error t-Statistic Prob. C RESID^2(-1) RESID^2(-2) RESID^2(-3) 18.15252 -0.091697 0.043795 0.034063 4.558358 0.089684 0.089912 0.089452 3.982249 -1.022446 0.487087 0.380790 0.0001 0.3086 0.6271 0.7040 0.011710 -0.012201 39.51697 193637.3 -650.2137 1.998437 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 17.93201 39.27809 10.22209 10.31121 0.489736 0.690038 41 Modèle MA(2) Test d’autocorrélation Les probabilités affectées aux autocorrélations sont toutes supérieures { 5 pour cent. On décide donc qu’il y a absence d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 42 Test d’hypothèse nulle d’homoscédasticité ARCH Test: F-statistic Obs*R-squared 0.524552 1.603587 Probability Probability 0.666191 0.658577 Test Equation: Dependent Variable: RESID^2 Method: Least Squares Date: 06/24/10 Time: 20:02 Sample (adjusted): 1997M10 2008M07 Included observations: 130 after adjustments Variable Coefficient Std. Error t-Statistic Prob. C RESID^2(-1) RESID^2(-2) RESID^2(-3) 18.24174 -0.097171 0.037953 0.034929 4.458063 0.088843 0.089204 0.088819 4.091854 -1.093737 0.425459 0.393257 0.0001 0.2762 0.6712 0.6948 0.012335 -0.011181 38.42745 186060.2 -656.7709 2.003703 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 17.80579 38.21441 10.16571 10.25394 0.524552 0.666191 43 Modèle AR(1) MA(1) Test d’autocorrélation Les probabilités affectées aux autocorrélations sont toutes supérieures à 5 pour cent. On décide donc qu’il y a absence d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 44 Test d’hypothèse nulle d’homoscédasticité ARCH Test: F-statistic Obs*R-squared 0.302495 0.929773 Probability Probability 0.823543 0.818238 Test Equation: Dependent Variable: RESID^2 Method: Least Squares Date: 06/24/10 Time: 20:04 Sample (adjusted): 1997M11 2008M07 Included observations: 129 after adjustments Variable Coefficient Std. Error t-Statistic Prob. C RESID^2(-1) RESID^2(-2) RESID^2(-3) 17.23746 -0.047793 0.067421 0.012564 4.620924 0.089455 0.088857 0.088991 3.730305 -0.534275 0.758756 0.141184 0.0003 0.5941 0.4494 0.8880 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.007208 -0.016619 41.30206 213232.5 -661.0091 1.997196 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) 17.85585 40.96307 10.31022 10.39890 0.302495 0.823543 Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 45 Modèle AR(2) MA(2) Test d’autocorrélation Les probabilités affectées aux autocorrélations sont toutes supérieures { 5 pour cent. On décide donc qu’il y a absence d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 46 Test d’hypothèse nulle d’homoscédasticité ARCH Test: F-statistic Obs*R-squared 0.495518 1.516330 Probability Probability 0.686050 0.678506 Test Equation: Dependent Variable: RESID^2 Method: Least Squares Date: 06/28/10 Time: 22:53 Sample (adjusted): 1997M12 2008M07 Included observations: 128 after adjustments Variable Coefficient Std. Error t-Statistic Prob. C RESID^2(-1) RESID^2(-2) RESID^2(-3) 17.62215 -0.090771 0.048596 0.031668 4.368494 0.089673 0.089901 0.089637 4.033918 -1.012234 0.540547 0.353287 0.0001 0.3134 0.5898 0.7245 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.011846 -0.012061 37.78869 177070.1 -644.4895 2.000400 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) 17.44264 37.56285 10.13265 10.22177 0.495518 0.686050 Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 47 Modèle AR(1) AR(2) MA(2) Test d’autocorrélation Les probabilités affectées aux autocorrélations sont toutes supérieures { 5 pour cent. On décide donc qu’il y a absence d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 48 Test d’hypothèse nulle d’homoscédasticité ARCH Test: F-statistic Obs*R-squared 0.454391 1.391846 Probability Probability 0.714659 0.707447 Test Equation: Dependent Variable: RESID^2 Method: Least Squares Date: 06/28/10 Time: 22:54 Sample (adjusted): 1997M12 2008M07 Included observations: 128 after adjustments Variable Coefficient Std. Error t-Statistic Prob. C RESID^2(-1) RESID^2(-2) RESID^2(-3) 17.69121 -0.088161 0.045513 0.027634 4.373277 0.089688 0.089907 0.089655 4.045298 -0.982975 0.506219 0.308225 0.0001 0.3275 0.6136 0.7584 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.010874 -0.013057 37.86379 177774.7 -644.7436 2.000406 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) 17.43300 37.61900 10.13662 10.22574 0.454391 0.714659 Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 49 Modèle AR(1) AR(2) MA(1) Test d’autocorrélation Les probabilités affectées aux autocorrélations sont toutes supérieures { 5 pour cent. On décide donc qu’il y a absence d’autocorrélation des erreurs ; soit on rejette l’hypothèse alternative de présence d’autocorrélation des erreurs. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 50 Test d’hypothèse nulle d’homoscédasticité ARCH Test: F-statistic Obs*R-squared 0.794439 2.413805 Probability Probability 0.499211 0.491070 Test Equation: Dependent Variable: RESID^2 Method: Least Squares Date: 06/28/10 Time: 22:56 Sample (adjusted): 1997M12 2008M07 Included observations: 128 after adjustments Variable Coefficient Std. Error t-Statistic Prob. C RESID^2(-1) RESID^2(-2) RESID^2(-3) 17.16682 -0.094886 0.078145 0.066204 4.481736 0.089643 0.089747 0.089655 3.830395 -1.058488 0.870726 0.738435 0.0002 0.2919 0.3856 0.4616 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat 0.018858 -0.004879 39.04670 189056.0 -648.6813 1.997104 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) 18.04914 38.95178 10.19815 10.28727 0.794439 0.499211 Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 51 ANNEXE 3 : Estimation du processus ARIMA(3, 0,2) →ARMA(3, 2) Dependent Variable: DJI Method: Least Squares Date: 06/28/10 Time: 16:08 Sample (adjusted): 1997M09 2008M07 Included observations: 131 after adjustments Convergence achieved after 13 iterations Backcast: 1997M07 1997M08 Variable Coefficient Std. Error t-Statistic Prob. C AR(1) AR(2) AR(3) MA(2) 118.9092 0.934061 -0.887580 0.840491 0.840097 6.074779 0.049052 0.101658 0.093069 0.120146 19.57424 19.04214 -8.731020 9.030868 6.992286 0.0000 0.0000 0.0000 0.0000 0.0000 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Inverted AR Roots 0.885822 0.882198 4.232163 2256.812 -372.3274 1.893536 .94 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic) -.00+.95i 117.3053 12.33063 5.760724 5.870464 244.3858 0.000000 -.00-.95i Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 52 ANNEXE 4 : Liste des ouvrages de la B.U.C Jean-Paul TSASA V. Université Protestante au Congo Centre Congolais-Allemand de Microfinance Alors que je fus sur le banc de l’école, je me posais toujours la question de savoir d’où vient l’incompréhension ? Qu’estce qui fait que certaines personnes maîtrisent mieux certains concepts que certaines autres ? Après beaucoup de temps de réflexion, j’ai trouvé une réponse satisfaisante, que j’estime être plus ou moins parfaite. L’incompréhension vient de trois éléments essentiels, à savoir : le manque de pré-requis, la non maîtrise du jargon et la limite imposée par le quotient intellectuel. Le dernier argument pose une contrainte de disponibilité. Cependant, pour résoudre les problèmes liés au pré-requis et au jargon, il faut beaucoup lire. Et cette lecture doit intégrer certaines exigences, notamment : la concentration, le raisonnement, l’attention, la conscience et le sérieux ; donc, une lecture intelligente. Pour ce faire, je propose aux étudiants ou intéressés ayant l’accès { la Bibliothèque Universitaire Centrale (B.U.C), une panoplie d’ouvrage que j’ai eu { lire tout au long de mon parcours universitaire. Donc, voici la liste de quelques ouvrages de statistique/économétrie répertoriés au sein de la B.U.C de l’Université Protestante au Congo. Une collection d’ouvrages, limitée, pour l’étudiant qui désire s’entraîner avec des applications classiques de statistique descriptive, de statistique mathématique ou d’économétrie. Note : la liste des ouvrages, bien qu’obéissant au principe d’essentialité, apparait non exhaustive puisque la roue de la recherche scientifique demeure très dynamique dans le temps et dans l’espace. N° 1 AUTEUR(S) ANDREFF, M. OUVRAGE Statistique : traitement des données d’échantillon, PUG, Grenoble, 1994 : 1er tome : Les méthodes, 158p. 2ème tome : Les applications, 142p. Statistique appliquée en 11 questions et 120 exemples et une annexe sur les probabilités pour Michèle Mallens, Ed. d’organisation, Paris, 1985, 221p. Econométrie : Manuel et exercices corrigés, 5è éd. Dunod, Paris, 2003, 329p 2 BLUMENTHORL, S. 3 BOURBONNAIS, R. 4 BOURSIN, J.L. Comprendre la statistique descriptive. 5 BOY, Cl. Et NIZARD, A. Exercices corrigés de probabilités : option générale et économique 6 DUBUS, A., 7 CARON, N. et PH. TASSI Méthodes et pratiques du traitement statistique en Sciences humaines : étide de cas avec le logiciel ADSO 3 Problèmes résolus de statistique mathématique. 8 CHAUVOT, G. et J.PH. REAU Statistiques descriptives. 9 COHEN, M. et PRUDEL, J. 10 11 DAUNHA-CASTELLE, D. et M. DUFLS DAGNIELIE, P. Econométrie : théorie et technique de base, méthode d’utilisation et exercices, Litec, Paris, 1993 Probabilités et statistiques : Problèmes à temps fixe, tome 1, 220p. 12 DHRYMES, P.J. 13 DREPREZ, M. et DUVANT, M. 14 DUTHIL, G. et D. VANHAECKE Statistique théorique et appliquée ; De Boeck Université, Bruxelles, 1998 : 1er tome : Statistique descriptive et bases de l’inférence statistique, 508p. 2ème tome : Inférence statistique à une et à deux dimensions, 659p. Econometrics : Statistical foundations and applications Méthodes quantitatives de gestion : l’analyse comptable etles mathémathématiques appliquées Les statiques descriptives appliquées à l’économie de l’entreprise, Ed. Harmattan, Paris, 1990, 258p. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 CODE 311 ARS 519.53 BLU 330.015 195 BOU 2003 310 BOU 519.2 BOY 005.4 DUB 310 CAR 310 CHA 310.02 DAC 310 DAG 1998 339.5 DHR 658.15 DEP 310 DUT 1990 53 → Suite... N° 15 AUTEUR(S) DUGHOUE, L.T. 16 FOURASTIE, J. et S. Levy 17 GHORBANZADEH, D. 18 GIARD, V. 19 GIARD, V. 20 GIRAUD, R. et CHOIX, N. 21 GRAIS, B. 22 HOWELL, D.C. 23 INADES-FORMATION 24 JOHNSTON, J. 25 JOHNSTON, J. 26 JOHNSTON, J. & Dinardo, J. 27 JUSTENS, D. 28 KAUFFMANN, P. 29 KAZMIER, L.J. 30 HAMBURG, M. 31 LARSEN, R.J. 32 LAVIEVILLE, M. 33 LECOUTRE, J.P. 34 35 36 LECOUTRE, J.P., P. TOSSI et S. LEGRITMAILLE MAILLET, P. MARTEL, J.M. et R. NADEAU 37 MASIERI, W. 38 MASIERI, W. OUVRAGE Manuel de statistique, 5ème éd. Ottawa, éd. De l’Université d’Ottawa, 1979, 586p. Statistiques appliquées à l’économie. CODE 310.2 DAY 310 FOU Probabilités : exercices corrigés, Ed. Technip, Paris, 1998, 270p. 519.2 GHO 1998 Statistique appliquée à la gestion : avec 70 exercices d’application 310.02 corrigés, Economica, 6ème Ed. Paris, 1992, 512p. GIA Statistique descriptive pour les gestionnaires, Economica, Paris, 1995, 658.403 3 112p. GIA 1995 Econométrie, PUF, Paris, 1989, 354p. 330.015.195 GIR Méthodes statistiques : techniques statistiques 310 DRA Méthodes statistiques en sciences humaines, trad. De M. Rogier, 310 Revue scientifique de V. Yvebyt et Y. Bestgzn., Paris, DE Boeck, HOW Université, ITP, 1998, 821 p. Calcul économique : quelques éléments de mathématiques et 331.028 statistiques économiques, Kinshasa, 76p. INA Méthodes économétriques, trad. Par Bernard Guerrien, 3ème éd. Paris, 330.015.195 Economica, 1995, 359p. JOH 1995 Méthodes économétriques, trad. Par Bernard Guerrien, 3ème éd. Paris, 330.015.195 Economica, 1988, 648p., tome 2. JOH 1988 Méthodes économétriques, trad. Préf. de Bernard Guerrien, 4ème éd. 330.015.195 Paris, Economica, 1999, 383p. JOH Statistique pour décideurs. 519.5 JUS Statistiques : information, estimation, tests. 310.02 KAU Statistiques de la gestion : théorie et problèmes, MC Graw-Hill, Série 310.02 Schaum, Montréal, 1982, 374p. KAZ Statistical analysis for decisions making, Brace and World Inc. Cop., 519.5 New-York, 817p. MOR Statistics, Prentice-hall, 1990. 310 LAR Statistique et probabilités : précis de cours accompagné d’exercices 310.02 corrigés, d’un formulaire d’analyse combinatoire et des tables LAV numériques. Probabilités : Exercices corrigés avec rappels de cours. 519.2 LEC Statistique : Exercices corrigés avec rappels de cours, 2ème Ed. 519.5 complétée, Paris, A990, 278p. LEC Econom2trie, 2ème éd., PUF, Paris, 1971, 127p. 658.403 3 Statistique en gestion et en économie. 310.02 MAR Statistique et calcul des probabilités. 310 MAS Statistique et calcul des probabilités, Ed. Dalloz, 2001. 519.2 MAS 2001 Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 54 → Suite... N° 39 AUTEUR(S) MONIERS, J-L. et J-L. SOL 40 RAFFIN, C. 41 REAU, J.PH. et G. CHAUVOT 42 SANDERS, D.H. OUVRAGE Statistique et probabilités : accès à l’université, Dunod, Paris, 1994, 179p. Statistique et probabilités : dogmes scientifiques, Armand Colin, Paris, 1993, 267p. Probabilité et statistiques : résumé des cours, exercices et problèmes corrigés. Statistiques : une approche nouvelle. 43 SINCICH, T. Statistics example, Dellen Mac millan, 4ème Ed. New-York, 1993. 44 SMITH, L. Statistical Reasoning, Allyn and Bacon, 3d Ed. Boston, 1991. 45 47 SNEDECOR, L. et W. COCHRAN Statistical methods, 6ème Ed. Anes : The Iowa State University Press, 1967, 593p. SCHWARTZ, D. Méthodes statistiques à l’usage des médecins et des biologistes, 4ème éd. Paris : Flammarion, 1993, 314p. TRIGNAN, J. Probabilités statistiques et leurs applications. 48 VERLAUT, B. G. SAINT-PIERRE Statistique et Probabilités : corrigé des exercices, Ed. Foucher, Paris, tome 2, 63p. 49 VESSEREAU, A. Méthodes statistiques en biologie et en agronomie, Paris : Technique et Documentation, 538p., 1998. 50 VESSEREAU, A. La statistique, PUF, 18ème Ed. Paris, 1992, 127p. 51 WEIMER, R.C. Statistics, 2ème Ed., WCB, 1993. 46 Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 CODE 310.02 MON 310.02 RAF 519.2 REA 310 SAN 519.5 SIN 519.2 SMI 310 SNE 311 SCH 519.2 TRI 519.2 VER 1998 310 VES 1988 311 VES 310 WEI 55 ANNEXE 5 Cellule de Réflexions Economiques et Sociales Ten Pager Avril 2010 Numéro . Copyright © tsasajp –cres 2010 L’analyse économétrique : Par où commencer ? Jean-Paul TSASA Vangu Avertissement Ce papier est le fruit d’un effort consistant { rapprocher l’analyse théorique et celle de phénomènes réels en économie. Noter déj{ { ce niveau que c’est par un processus continu de défis et de réponses que la Science économique évolue. S’inscrivant dans la logique de la préférence pour la simplicité dans la rigueur, nous nous sommes proposé d’élaborer un papier qui montrerait l’intérêt de l’outil économétrique dans l’analyse économique. Objectif : encourager les intéressés { se servir de l’économétrie comme outil de travail et de ne pas la considérer comme un instrument de torture scientifique. 0. Introduction Dans ce papier, nous nous proposons de montrer à l’étudiant inscrit en économie le rôle de l’outil économétrique dans l’analyse économique. Tout au long de son parcours universitaire et même après l’université, l’étudiant est appelé { réaliser des études ou analyses (travail pratique, mémoire, séminaire, etc.) ; alors parmi les multiples outils d’analyse disponibles, l’économétrie occupe sans nul doute une place de choix. Prenons un cas simple où il est demandé { l’étudiant de mener une analyse sur les interactions existant entre le Produit Intérieur Brut (PIB) et la variation de l’indice général des prix, généralement qualifiée de taux d’inflation (INFLA). Plusieurs approches sont { la portée de l’étudiant pour mener cette étude. Dans le cas où il décide de recourir { l’outil économétrique, il pourra procéder comme suit. Avant de chercher à explorer le monde économétrique, l’intéressé doit être { même de définir l’ « économétrie », c’est-à-dire de cerner ses contours. Après avoir appréhendé les contours de l’économétrie, l’intéressé peut ensuite s’interroger sur la nature de relations qui lient les variables sous examen. Il ne suffirait pas de préciser uniquement la nature de relation caractérisant les variables, faudra-t-il encore déterminer l’influence qu’exerce une variable sur l’autre tout en respectant les hypothèses sous-tendant la méthode utilisée pour l’analyse. Enfin, d’une part, pour plus de rigueur et de rapidité lors de l’étude et d’autre part, pour aboutir { de résultat fiable et généralement admissible, l’intéressé sera obligé de maîtriser au moins l’utilisation d’un logiciel économétrique. Le tableau suivant résume les différentes étapes { suivre pour l’initiation { l’utilisation de l’outil économétrique. Tableau 1. Analyse économétrique Etape 1→ Avoir une idée sur l’économétrie avant de l’utiliser Etape 2→ Préciser le degré de relation entre les variables (dans ce cas PIB et INFLA) avant d’approfondir l’analyse Etape 3→ Construire un modèle d’analyse permettant saisir les interactions entre variables. Etape 4→ Etablir les différents tests permettant de diagnostiquer la validité du modèle. Etape 5. Recourir à un logiciel pour l’estimation du modèle. Source : réalisé par l’auteur. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 56 En vue de faciliter la compréhension, nous proposons une schématisation de l’analyse économétrique. Ainsi, étant une initiation { l’utilisation de l’outil économétrique, ce papier offre donc { l’intéressé une vision globale de la démarche qu’il suivra afin de réaliser son étude. 1. Schématisation de l’analyse économétrique Schéma 1. Analyse économétrique ANALYSE ECONOMETRIQUE CONSTRUCTION DU MODELE VALIDATION DU MODELE →Test de spécification du modèle TESTS DE SIGNIFICATIVITE *Test de Student *Test de Fisher TESTS DE DIAGNOSTIC *Test d’autocorrélation *Test d’hétéroscédasticité *Test de multicolinéarité TESTS COMPLEMENTS *Test de normalité *Test de stabilité CONTOUR DE L’ECONOMETRIE ETUDES DE CORRELATION *Qu’est-ce que l’économétrie ? *Qu’est-ce que la corrélation ? *Ses objectifs ? *Coefficient de corrélation ? *Format de données utilisées ? *Corrélation VS Régression. *Modèle de régression non linéaire. *Limites de la corrélation. *Modèle à décalage temporel. *Principaux éléments présents dans les modèles ? *Modèle de régression linéaire (Simple & multiple). *Modèle à équations simultanées ou multiéquationnel APPLICATION DU MODELE SUR UN LOGICIEL ECONOMETRIQUE Source : réalisé par l’auteur. 1.1. Contour de l’économétrie††††† 1.1.1. Qu’est-ce que l’économétrie ? o o Littéralement, l’économétrie se définit comme étant une mesure de l’économie. Wassily LEONTIEF (économiste américain d’origine russe, Prix Nobel 1973) définit l’économétrie comme un type spécial d’analyse économique dans lequel l’approche théorique générale – souvent formulée en termes explicitement mathématiques – se combine fréquemment au moyen de procédures statistiques complexes à la mesure empirique des phénomènes économiques. Jan TINBERGEN (économiste et statisticien néerlandais, Prix Nobel 1969) propose la définition suivante : L’économétrie est une observation statistique de concepts théoriquement fondés, ou économie mathématique travaillant sur données mesurées. o L’économétrie pourrait donc être comprise comme une utilisation des mathématiques et de la statistique pour évaluer les relations de la théorie économique. ††††† Lire R. Barre, 1975, Economie Politique, Presse universitaire de France, Paris, pp 58-64, pour avoir une idée sur la genèse de l’économétrie. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 57 1.1.2. - Ses principales fonctions ? L’économétrie se propose de : Estimer les relations. Evaluer les politiques économiques. 1.1.3. - Tester les théories. - Prévoir l’évolution des grandeurs économiques. Types de données ? Il existe 3 types de données généralement utilisées en Econométrie. Tableau 2. Types de données DONNEES EN SERIE DONNEES TRANVERSALES Syn. : CROSS-SECTION DATA, TEMPORELLE DONNEES DE PANEL Syn. : DONNEES CROISEES Syn. : CHRONIQUE, SERIE CHRONOLOGIQUE DONNEES INDIVIDUELLES, DONNEES EN COUPE Correspondent à une suite finie de données indexées par le temps. Correspondent aux données où l’indice rattaché à la variable sous examen indique l’individu. Correspondent à un ensemble de données indexées par des indices indiquant l’individu concerné (i) et le temps correspondant (t). Exemple : Evolution du taux de croissance du PIB réel en RDC de 20O0 à 2005. Exemple : Niveau du taux de croissance économique en RDC, Lybie et Gambie en 2005. Exemple : Evolution du taux de croissance économique en RDC, Lybie et Gambie de 2000 à 2005. T 2000 2001 2002 2003 2004 2005 Yt : Taux de croissance -7.18 -2.66 3.22 5.73 6.64 6.20 Yi RDC 6.20 Lybie 4.28 Gambie 4.70 Indice : t=temps Indice : i=individu Source : réalisé par l’auteur sur base de statistiques de la BAD. 1.1.4. RDC Yit 2000 2001 2002 2003 2004 2005 Lybie Gambie Taux de croissance en % -7.18 -2.66 3.22 5.73 6.64 6.20 1.15 4.52 3.26 9.13 4.39 4.28 5.33 7.57 -3.80 7.70 5.10 4.70 Indice : i (individu) et t (temps) Eléments principaux d’un modèle économétrique ? Modèle : représentation simplifiée, mais complète, de l’évolution économique d’une société, pendant une période donnée, sous un aspect chiffré. Comme une carte résumant la réalité géographique, la technique des modèles correspond à la cartographie de l’économie. Donc, tout modèle implique une simplification et non une déformation. Dans un modèle, il y a lieu de distinguer : les variables, les relations et les paramètres. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 58 Tableau 3. Bref aperçu des éléments principaux d’un modèle VARIABLES Elles correspondent à de symboles (X, Y, x ou M) qui peut prendre toutes les valeurs d’un ensemble donné, appelé domaine de la variable. On distingue les variables quantitatives de variables qualitatives. Variable quantitative Continue : Lorsqu’elle prend une infinité des valeurs dans un intervalle donné. Discrète Variable qualitative Nominale Ordinale Note : une variable qui ne prend qu’une seule valeur est appelée constante. RELATIONS On distingue : - Relations comptables Exemple : YM = CM + SM – T - Relations de définition ou Relations d’identité Exemple : RT = Q*P ou Yd = C + S - Relations d’équilibre Exemple : Y=C+I+X–M - Relations fonctionnelles : *Relations de comportement Exemple : C = a + bY *Relations techniques ; Exemple : Q = AKaLb . - Relations institutionnelles. PARAMETRES Les valeurs prises par les paramètres peuvent être fixées à priori, estimés par référence au passé ou inconnus. Il y a lieu de distinguer : - Les propensions moyennes et marginales ; - Les productivités moyennes et marginales ; - Les élasticités ; - Les coefficients techniques. CLASSIFICATION DES VARIABLES Variable dépendante (endogène ou expliquée) Variable indépendante (exogène ou explicative) Variables de flux Variables de stock Variable ex ante Variable ex post Variable temps Terme aléatoire Différence entre ECONOMISTE & ECONOMETRE (ou ECONOMETRICIEN) : si l’on considère à titre illustratif l’analyse de la fonction keynésienne de consommation. - Economiste : Y= Co + bCt - Economètre : Y = Co + bCt + ε Source : réalisé par l’auteur. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 59 1.2. Etude de la corrélation L’étude de la corrélation permet de déterminer l’intensité ou la force de la relation existant entre variables sous examen. L’étude de la corrélation peut être scindée en deux catégories : l’analyse de la corrélation proprement dite et l’analyse de l’ajustement. Schéma 2. Etude de la corrélation ETUDE DE LA CORRELATION CORRELATION AJUSTEMENT proprement dite Outil d’analyse : * Diagramme de dispersion * Droite d’ajustement, Droite d’estimation ou Droite de régression. Outil d’analyse : Coefficient de corrélation Méthodes : * Méthode de 3 points ; * Méthode de moindres carrés METHODE QUALITATIVE METHODE QUANTITATIVE * : covariance entre Y et X et : écart-type de i. Source : par l’auteur. Soit n variable intervenant dans l’étude de corrélation : - Si n = 2 : la corrélation est dite simple ; - Si n > 2 : la corrélation est dite multiple et dans ce cas, elle alimente la matrice de corrélation. Le domaine du coefficient de corrélation « r » est [-1, +1]. Le coefficient de corrélation linéaire, appelé aussi coefficient de Bravais-Pearson a été préalablement étudié par Galton. Tableau 4. Coefficient de corrélation et limites La corrélation entre variables peut être positive, négative, nulle ou maximale. POSITIVE ou DIRECTE : Exemple : Prix et Quantité produite (loi de l’offre). CORRELATION NEGATIVE : Exemple : Prix et Quantité demandée (loi de la demande). NULLE : MAXIMALE: La corrélation est maximale lorsque tous les points se confondent à la droite d’ajustement. Limites de la corrélation linéaire : Linéarité : en réalité, la relation entre variables n’est pas forcément linéaire. Symétrie : cette étude traite les variables de manière symétrique. Corrélation n’est pas causalité (corrélation trompeuse ou fortuite): le coefficient r mesure l’intensité de la relation entre variables mais n’exprime pas la relation de cause à effet. Le carré du coefficient de corrélation (r) est le coefficient le coefficient de détermination (R²) Source : réalisé par l’auteur. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 60 APPLICATION 1 Ci-après est reprise l’évolution du taux de croissance économique et du taux d’inflation (en moyenne annuelle) en R.D. Congo de 2000 à 2008. Tableau 5. Evolution du PIB et du taux d’inflation en RDC T 2000 2001 2002 2003 2004 2005 2006 2007 2008 Yt -6.9 -2.1 3.5 5.8 6.6 7.2 5.6 6.3 5.9 Xt 511.2 135.1 15.8 4.4 9.2 18.2 21.3 9.9 27.6 Source : Banque Centrale du Congo Travail demandé : Mesurez l’intensité de la relation entre les variables Yt (taux de croissance) et Xt (taux d’inflation) et dites comment varient-elles ? RESOLUTION Connaissant la formule du coefficient de corrélation, on dégage le tableau suivant qui permet de mesurer l’intensité de la relation existant entre le PIB et l’inflation : Tableau 5. Evolution du PIB et du taux d’inflation en RDC )( -6.9 -2.1 3.5 5.8 6.6 7.2 5.6 6.3 5.9 511.2 135.1 15.8 4.4 9.2 18.2 21.3 9.9 27.6 =3.5 =83.6 -10.4 -5.6 0 2.3 3.1 3.7 2.1 2.8 2.4 A savoir : La moyenne arithmétique de w est donnée par : 427.6 51.5 -67.8 -79.2 -74.4 -65.4 -62.3 -73.7 -56.0 -4447.04 -288.4 0 -182.16 -230.64 -241.98 -130.83 -206.36 -134.4 108.16 31.36 0 5.29 9.61 13.69 4.41 7.84 5.76 =186.12 182841.76 2652.25 4596.84 6272.64 5535.36 4277.16 3881.29 5431.69 3136 =218624.99 (intensité de la relation entre Y et X). Comme , ce que le taux de croissance du PIB réel et l’inflation en RDC sont négativement corrélés c’est-à-dire varient dans le sens contraire (si Yt augmente, Xt diminue et vice-versa). Limite : le coefficient r ne permet pas de préciser s’il faudra augmenter la croissance pour diminuer l’inflation ou il faudra diminuer l’inflation pour promouvoir la croissance. Pour y parvenir, on recourt à l’analyse de causalité. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 61 Note : En général, plus le coefficient est proche de 1, meilleure est la corrélation. Cependant, c’est le nombre d’observations n, ou plutôt le nombre de degrés de liberté (n - 2 pour une régression simple), qui détermine plus précisément une valeur limite, pour un niveau de risque d’erreur donné, et il existe pour cela des tables du r. Elles sont rarement reprises dans les manuels de statistiques. Le tableau 6 (extrait de la table du coefficient de Pearson) permet de tester si le coefficient « r » est significatif avec un risque de 5% : Tableau 6 : Table du coefficient de Pearson n-2 = Degré de liberté 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Seuil de signification: α = 0.05 1.00 0.95 0.88 0.81 0.75 0.71 0.67 0.63 0.60 0.58 0.55 0.53 0.51 0.50 0.48 0.47 0.46 0.44 0.43 0.42 Ce tableau indique que pour un niveau de confiance de 0.95, le coefficient de 0,919 est significatif puisqu’il est supérieur { 0.67 (n-2 = 7 degrés de liberté). Par ailleurs, le test t-Student permet également d’évaluer la signification du coefficient de corrélation c’est-à-dire de préciser si la relation entre Y et X n’est pas le fait d’un hasard. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 62 Test de signification du coefficient r H0 : le coefficient r est significativement nul (absence de corrélation). H1 : le coefficient r est significativement différent de zéro. Décision : Rejeter H0 Si * : t calculé et est supérieure à la valeur du t de la table de Student. α : à lire dans la table de Student. En considérant l’exemple précédent, il se dégage que : et que 1.895 Comme , on rejette l’hypothèse nulle ; le coefficient de corrélation entre le taux de croissance économique et le taux d’inflation est donc significatif. Etant donné que le coefficient de corrélation est une mesure qualitative, la relation entre X et Y serait : parfaite si r = 1 d'intensité moyenne si r se situe entre 0,2 et très forte si r > 0,8. 0,5. forte si r se situe entre 0,5 et faible si r se situe entre 0 et 0.2. 0,8. nulle si r = 0 Détermination du coefficient de corrélation de Pearson à partir de logiciels Excel, Eviews et SPSS. La détermination du coefficient sur les différents logiciels nécessite une installation de chacun d’eux dans le PC. Détermination du coefficient de corrélation à partir du logiciel EXCEL 1ère étape : cliquer sur le menu DEMARRER 2ème étape : aller dans TOUS LES PROGRAMMES 3ème étape : cliquer sur Microsoft office et puis sur EXCEL 4ème étape : Saisir les données, telles que reprises dans les 2 premières colonnes du tableau 5ème étape : enregistrer et nommer le fichier ; « PEARSON » par exemple. 6ème étape : écrire la commande : « =COEFFICIENT.CORRELATION (sélectionner la 1ère colonne ; sélectionner la 2ème colonne) » En validant (appuyer sur enter ), aussitôt le résultat apparait. Détermination du coefficient de corrélation à partir du logiciel EVIEWS 1ère étape : cliquer sur le menu DEMARRER 2ème étape : aller dans TOUS LES PROGRAMMES 3ème étape : cliquer sur Eviews et puis sur EVIEWS 4ème étape : Importer les données à partir du fichier Excel PEARSON (créé précédemment), en cliquant sur File → Open 5ème étape : Aller dans Fichiers de type → Choisir Excel file (*xls) et ensuite, cliquer sur le fichier Excel PEARSON et puis sur : Ouvrir → Suivant → Terminer 5ème étape : pour tester la corrélation entre deux Variables ; aller dans : View → Correlations → Pairwise samples ; ainsi obtient-on la matrice de corrélation. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 63 Détermination du coefficient de corrélation à partir du logiciel SPSS 1ère étape : lancer le logiciel SPPS 2ème étape : Importer les données à partir du fichier Excel PEARSON en cliquant sur l’option : « ouvrir une source de données existante » 3ème étape : aller dans type de fichier et choisir « Excel (*.xls) » 4ème étape : cliquer sur ouvrir et puis sur OK 5ème étape : pour calculer le coefficient de corrélation, aller dans : Analyse → Corrélation → Bivariée… ème 6 étape : sélectionner chaque variable puis la faire passer dans la case à droite 7ème étape : cliquer sur OK ; aussitôt les résultats s’affichent. Note : si SIG (correspondant de p-value) est inférieur à 0.05, ce que le r de Pearson est significatif. Application d’entraînement : Effectuer la même étude sur les données suivantes : - Taux de change annuel moyen (cours indicatif) et - Taux de croissance de la masse monétaire (M1) Note : Considérer la période allant de 1990 à 2009, ce qui correspond à 18 observations. To be continued … 1.3. Construction du modèle d’analyse 1.4. Validation du modèle d’analyse Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 64 Voici juste une brève incursion de ce que nous aurons à développer aux points 1.3 et 1.4 dans les prochaines éditions : I. ESTIMATION PAR LA METHODE DES MOINDRES CARRES ORDINAIRES Instruction Eviews : Cliquer sur Quick→Estimate Equation→écrire son modèle et après valider. Par exemple : après instigations on remarque que le taux de croissance à la période t (variable dépendante ou endogène) est fonction du taux de croissance au temps t-1, du taux d’inflation au temps t (variable dépendant ou exogène) ; on pourrait donc écrire dans la fenêtre : TXCROIS C TXCROIS(-1) TXINFL. Commande Eviews : Ou encore, on peut directement passer la commande suivante : LS suivi du modèle. Donc, on écrira : LS TXCROIS C TXCROIS(-1) TXINFL. Où LS = Least Squares (Moindres carrés) C’est ainsi qu’on obtient l’estimation du modèle linéaire simple. II. TEST DE SIGNIFICATIVITE DES VARIABLES EXPLICATIVES D’après ce test, appelé aussi test de student, la variable explicative (ou variable exogène) a une influence significative sur la variable expliqué (ou variable endogène) si : Probability < 0.05 et t-statistic > 1.96 (règle de pousse) Note : Prob = Probability =Probabilité critique. III. TEST DE SIGNIFICATIVITE GLOBALE DU MODELE D’après ce test, appelé aussi test de Fisher, le modèle est globalement significatif si : Prob(F-Statistic) < 0.05 ou encore si F-statistic > F-théorique. IV. TEST D’HYPOTHESE NULLE D’HOMOSCEDASTICITE : TEST DE WHITE Ce test permet d’évaluer l’hypothèse de la constance de la variance résiduelle dans le temps et dans l’espace : H0 : modèle homoscédastique H1 : modèle hétéroscédastique Où H0 : hypothèse nulle et H1 : hypothèse alternative ou hypothèse de soutien. Instruction Eviews : Cliquer sur : VIEW→ RESIDUALS TESTS→ WHITE HETEROSKEDASTICITY (no cross terms). Rejeter H1 : Si Probability > 0.05 Rejeter H0 : Si Probability ≤ 0.05 Si l’on décide de rejeter H1, ce que les estimations obtenues par les MCO sont optimales. V. TESTS D’AUTOCORRELATION DES ERREURS Une des hypothèses de moindre carré veut que les erreurs de la période précédente n’influe n’aient aucune relation avec celles de périodes à venir. i. TEST DE DURBIN-WATSON : εt = εt-1 + μt Ce test n’est utilisé que si les conditions suivantes sont respectées : a. Le modèle doit impérativement comporter un terme constant ; b. Le nombre d’observation doit être ≥ 15 ; c. Le modèle doit être spécifié en série temporelle ; d. La variable à expliquer ne doit pas figurer parmi les variables explicatives en tant que variable retardée (si c’est le cas, alors utiliser le test du h de Durbin) Exemple : Yt = C + αXt +βXt-1 + δYt-1 + ut ; dans ce cas, on ne doit pas utiliser le test de D-w car la variable explicative(Yt) apparaît encore dans le modèle comme variable retardée parmi les variables endogènes. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 65 Soit, H0 : Erreurs non corrélées (ρ = 0) H1 : Erreurs corrélées (ρ ≠ 0) La statistique de Durbin-Watson est obtenue après estimation du modèle par la méthode des moindres carrés ordinaires. Comment prendre la décision ? Pour commenter le résultat, il faut maîtriser quelques notions indispensables liées à la lecture de la table de Durbin-Watson. et − et−1)2/ La statistique de Durbin-Watson est définie comme suit : DW = Supposons que t→∞ ; on aura et-12) = et2). Et par conséquent, en développant l’expression (1), nous obtenons : et2) :(1) DW = 2−2ê … = -1 : DW = 4 (Autocorrélation négative) Si ê = 0 : DW = 2 (Absence d’autocorrélation) = +1 : DW = 0 (Autocorrélation positive) TABLE DE DURBIN-WATSON 2 0 Autocorrélation positive Absence d’autocorrélation DOUTE dL 4 dV DOUTE 4-dV Autocorrélation négative 4-dL Comment déterminer les valeurs de dL et dV se trouvant sur la table de D-W ? Il faut se référer au tableau de D-W ayant la forme ci-après : Observation K=1 dL K=2 dV dL dV dL K=m dV 6 7 8 9 10 11 12 13 14 15 16 17 18 . . . n Note : K : nombre de variables explicatives, constante exclue ; n : nombre d’observations et α = 0.05. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 66 Lors d’une application, si vous tombez dans la zone de doute, dites-vous qu’il y a présomption d’autocorrélation. Il n’y a absence d’autocorrélation que si cette condition est remplie : dV < D-W < 4−dV. En cas d’autocorrélation, on peut utiliser d’autres méthodes la corriger : - La méthode d’estimation de COCHRANE ORCUTT ou - Celle de HILDRETH-LU. ii. TEST DU h DE DURBIN Soit le modèle ci-après : Yt = C +aYt-1 + bXt + ut La statistique du h de Durbin est définie comme suit : avec ê = 1− (DW :statistique Durbin-Watson calculée sur le modèle linéaire autorégressif -QUICK→ ESTIMATION-). n: nombre d’observations (sur Eviews, voir « Included observations ») Sur le logiciel Eviews, la variance estimée du coefficient « a » (où « a » est toujours le coefficient de la variable expliquée reprise dans les variables explicatives comme variable retardée), soit σâ2, correspond au carré de « Std Error » car la variance correspond à l’écart-type élevé à la deuxième puissance. Hypothèses : H0 : Erreurs non corrélées H1 : Erreurs corrélées - Si |h| < 1.96 : rejeter l’hypothèse alternative (ce que les estimateurs sont BLUE) ; - Si |h| ≥ 1.96 : rejeter l’hypothèse nulle. VI. METHODE DE COCHRANE ORCUTT La méthode de Cochrane Orcutt est une méthode d’estimation des paramètres qui doit être utilisée en cas de correction des erreurs. Donc, on n’applique cette méthode que si les erreurs du modèle Y t = C +aYt-1 + bXt + ut sont corrélées. Instruction Eviews : Cliquer sur : QUICK→ ESTIMATE EQUATION→ écrire le modèle (par exemple : Yt C AR(-1) Xt) Pour savoir si la convergence est assurée après combien d’itérations, il faut voir la ligne : « convergence achieved after… » Voir ensuite la statistique D-W , lire dV et dL et déterminer 4-dV et 4-dL. Si l’on obtient : dV < D-W < 4−dV, ce qu’il s’agit d’une non corrélation des erreurs ; et par conséquent, la procédure Cochrane Orcutt a corrigé l’autocorrélation des erreurs. VII. TEST DE NORMALITE DE JARQUE BERA La statistique de Jarque-Bera est définie comme suit : JB = n[S2/6 + (K-3)2/24] Où S : Skewness (coefficient de dissymétrie) et K : Kurtosis (coefficient d’aplatissement) Instruction Eviews : Sélectionner les séries que l’on veut tester et Cliquer sur Quick→Group Statistics→ Descriptive Statistics→Common Sample→Series List puis cliquer sur OK. - On décide l’hypothèse de normalité au seuil de 5% :Si JB < 5.99 ou si Probability (probabilité critique) > 0.05 ; - On rejette l’hypothèse de normalité au seuil de 5% : Si JB ≥ 5.99 ou si Probability (probabilité critique) ≤ 0.05 ; Note : une série est dite log-normale si son logarithme est normal. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 67 VIII. TESTS DE STABILITE DES COEFFICIENTS DU MODELE Ce test est important lorsqu’on cherche { comprendre les mécanismes de l’évolution d’une économie et aussi, lorsqu’on se propose de réaliser des projections. L’économie est soumis { des chocs (chocs de demande ou chocs d’offre), ainsi, au passage de temps l’instabilité des coefficients dans le modèle traduit ces événements. i. TEST DE CHOW(1960) Le test de Chow, appelé aussi test de changement structurel examine si les coefficients d’une régression sont stables par rapport aux observations utilisées. Comme tout médaille comporte un révère, le test de Chow présente un inconvénient majeur : le choix du point de rupture par le modélisateur. Soit, H0 : modèle stable H1 : modèle instable Instruction Eviews : Cliquer sur : VIEW→ STABILITY TESTS→ CHOW BREAKPOINT TESTS→ choisir une année (par exemple : 1973) Le point de rupture est 1973 (premier choc pétrolier) Si toutes les probabilités critiques (Probability) sont supérieure à 0.05, ce que l’on rejette H1 ; donc, on décide que le modèle est stable sur la période sous analyse. ii. TESTS DE CUSUM DE BROW, DURBIN ET EVANS CUSUM= Cumulative SUM (test fondé sur la somme cumulée des résidus récursifs). Résidu récursif : c’est l’écart entre la prévision cumulée en t-1 par t et la réalisation en t. Les tests CUSUM sont des tests graphiques permettant { d’admettre ou non l’hypothèse de stabilité. L’avantage de ce type des tests, ce qu’ils permettent { l’analyste de mener une étude de la stabilité d’une régression sans définir a priori la date de rupture sur les coefficients : CRITERE DE STABILITE - Si la courbe sort du corridor, ce que les coefficients du modèle sont instables - Par contre, si la courbe ne sort pas du corridor, ce que les coefficients du modèle sont stables. Note : Corridor = intervalles defines par les pointillés. Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 68 Instruction Eviews : Cliquer sur : VIEW→ STABILITY TESTS→ RECURSIVE ESTIMATES (OLS only) … *Si Test CuSum : cliquer sur CUSUM Test; *Si Test CuSum carré : cliquer sur CUSUM of Squares Test. Jean-Paul TSASA Vangu ADMINISTRATION DES AFFAIRES ETSCIENCES ECONOMIQUES CENTRE CONGOLAIS-ALLEMAND DE MICROFINANCE/ DAAD UNIVERSITE PROTESTANTE AU CONGO [Année académique2009-2010] Assistant Jean-Paul Tsasa V. Centre Congolais-Allemand de Microfinance-UPC/2009-2010 69