Polycopié - Jean-François Burnol
Transcription
Polycopié - Jean-François Burnol
Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis « Mathématiques des Séries Temporelles » Jean-François Burnol Sont rassemblées ici 82 pages comprenant : – un texte de vingt-deux pages développant, sans preuves, certains aspects théoriques sous-jacents aux notions qui furent abordées dans le cours, – des feuilles avec 50 exercices corrigés pour les séances de travaux dirigés du deuxième semestre de l’année académique 1999–2000, – un examen blanc, un sujet de partiel, un sujet d’examen, avec leurs solutions, aussi un sujet d’examen de rattrapage, toujours pour 1999–2000, – des feuilles avec 30 exercices partiellement corrigés pour le deuxième semestre de l’année 2000–2001, – et finalement un partiel, un examen, avec corrections, et un examen de rattrapage pour l’année 2000–2001. C’est un plaisir de remercier Marc Diener qui a fait travailler les étudiants sur un logiciel spécialisé, ce qui fut très complémentaire à mon cours et à mes exercices (trop) théoriques. Les feuilles d’exercices réunies ici ne représentent donc que la moitié du travail que les étudiants ont dû accomplir en séances de travaux dirigés. Et je remercie aussi Francine Diener et Nicolas Radulesco. Maîtrise MASS, Université de Nice – Sophia Antipolis, c J.-F. Burnol 2000 Maîtrise MASS 1999/2000 – 2ème semestre – MM6 Université de Nice – Sophia Antipolis “Mathématiques des Séries Temporelles” Jean-François Burnol Nous devons prévenir le lecteur qu’il rencontrera dans ces notes les défauts suivants (entre autres) : – Il n’y a aucune démonstration. – De plus le niveau mathématique est trop élevé pour une Maîtrise MASS. – Les termes inversibilité, causalité, régularité ne sont pas employés selon l’acceptation courante en économétrie. En économétrie il semble que l’on dise “inversible” là où nous disons “causal et d’inverse causal (régulier)”. – Le résultat mathématique central (théorème de SzegöKolmogorov-Krein) n’est pas exposé (il est inutile pour un ARMA.) – La théorie de Szegö des polynômes orthogonaux n’est pas exposée. – (lié au point précédent) La prévision est vue uniquement dans le cas où tout le passé est disponible. – (lié au point précédent) Les autocorrélations partielles ne sont pas discutées. L’algorithme de Durbin n’est pas discuté. Le filtre récursif de Kalman n’est pas discuté. – Le problème de l’identification des paramètres n’est que brièvement évoqué. L’estimation selon la fonction de vraisemblance maximale ne l’est pas du tout. – Les statistiques liées à l’estimation des autocovariances ne sont pas discutées. 1 2 Maîtrise MASS, Université de Nice – Sophia Antipolis, c J.-F. Burnol 2000 Maîtrise MASS 1999/2000 – 2ème semestre – MM6 Université de Nice – Sophia Antipolis Cours “Mathématiques des séries temporelles” Compléments 4 : aide-mémoire sur les séries stationnaires version du 14 mai 2000, c Jean-François Burnol, 2000. Note : cet aide-mémoire ne correspond pas à l’ordre dans lequel les sujets ont été abordés, mais reprend l’essentiel du matériel couvert dans les précédents compléments. Il ne contient pas de démonstration. Le coeur du sujet est la notion d’innovation fondamentale, l’existence de la représentation MA(∞), et l’algorithme de prévision sur la base des aspects complémentaires AR(∞) et MA(∞). J’ai utilisé dans ces notes une notion de “série analytique”, mais je ne sais pas si cette terminologie est couramment employée. Elle est très utile pour discuter de manière naturelle les ARMA(p,q). Un effort a été fait pour bien distinguer entre elles les notions de stationnarité, d’inversibilité et de causalité. Cet effort est nécessaire au vu de la confusion sur ce sujet présente dans différents textes destinés aux étudiants en économétrie (par exemple l’ouvrage de référence “Time Series Analysis”, Princeton University Press, 1994, 799 pages, James D. Hamilton, qui comporte des arguments “intuitifs” qui en plus d’être intuitifs sont faux). J’ai par ailleurs bénéficié pour la préparation de ce cours du polycopié “Prévision” de Monique Pontier (DESS 1996 à l’université de Orléans, 68 pages), mais dans un état d’esprit qui a dû prendre en compte les réalités d’un cours de niveau maîtrise. Parmi les autres sujets partiellement abordés dans le cours : projections orthogonales et régression, mesure et représentation spectrale, séries non-stationnaires (polynomiales, ARIMA, I(d)) avec une discussion des effets d’une racine unité, le filtre de Kalman (scalaire et vectoriel), et son utilisation pour la prévision sur la base d’un échantillon fini et l’interpolation. Le temps a manqué en particulier pour traiter de la co-intégration, de l’hétéroscédasticité (ARCH, GARCH, . . .), et surtout de l’estimation de paramètres. Cependant, grâce au Professeur Marc Diener, les étudiants ont pu bénéficier pendant les TDs d’une formation complémentaire aux outils logiciels. Je remercie Francine et Marc Diener, Nicolas Radulesco, et les participants du séminaire gtmass pour avoir stimulé mon intérêt en ce sujet. Maîtrise MASS, Université de Nice – Sophia Antipolis, c J.-F. 3 Burnol 2000 Sommaire 1 Stationnarité : autocovariances 1.1 Stationnarité . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Fonction génératrice des autocovariances . . . . . . . . . . . . 1.3 Histoire d’un processus . . . . . . . . . . . . . . . . . . . . . . 4 4 4 5 2 Filtres : inversibilité, causalité 2.1 Moyennes mobiles . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Filtres analytiques et Inversibilité . . . . . . . . . . . . . . . . 2.3 Filtres causaux . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 6 7 3 Prévision : innovations, décomposition 3.1 Innovations fondamentales . . . . . . . 3.2 Décomposition de Wold . . . . . . . . 3.3 Formules de prévision de Wiener . . . de . . . . . . Wold . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 8 9 10 4 MA(q) 4.1 Structure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 12 13 5 AR(p) 5.1 Structure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Équations de Yule-Walker . . . . . . . . . . . . . . . . . . . . 14 14 15 16 6 ARMA(p,q) 6.1 Condition d’existence . . . . . . . . . . . . . . . . . . . . . . 6.2 Structure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 17 18 19 7 Séries analytiques 7.1 MA(∞) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 AR(∞) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 21 21 22 4 1 1.1 Maîtrise MASS, Université de Nice – Sophia Antipolis, c J.-F. Burnol 2000 Stationnarité : autocovariances Stationnarité Une série temporelle est une suite de variables aléatoires X = (Xt )t∈Z (définies sur le même espace probabilisé, et on les supposera à valeurs dans R). Elle est dite cov-stationnaire (ou à covariances stationnaires, ou encore faiblement stationnaire du deuxième ordre, etc. . .) si d’une part E(Xt ) est indépendant de t et si d’autre part E(Xt+j Xt ) est indépendant de t pour tout j. On note alors E(X) = E(Xt ) (espérance de X). On dit que X est centrée si E(X) = 0. On note X ∗ la série temporelle centrée déduite de X : ∀t Xt∗ = Xt − E(X). On note γ0X = E(Xt∗ Xt∗ ) ∗ X ∗ ) (j ème autocovariance de X). (variance de X) et plus généralement γjX = E(Xt+j t Note 1.1.1 (technique) : on suppose ci-dessus (et dans tout ce qui suit) X à valeurs réelles. Dans le ∗ X ∗ ), soit cas d’une série à valeurs complexes il y a deux conventions possibles pour γjX : soit E(Xt+j t ∗ ∗ E(Xt+j Xt ). Ce choix a des répercussions dans différentes formules (filtrage du spectre, Yule-Walker, etc. . .). Contrairement au choix fait dans le cours, c’est le deuxième qui semble le meilleur (par exemple l’opérateur de décalage L corrrespond à la multiplication par z et non par z1 ), et il est implicite dans certaines formules de ce texte dès qu’elles impliquent des nombres complexes. Un bruit blanc est une série temporelle ε cov-stationnaire, centrée, telle que γjε = 0 pour j 6= 0. En général on sous-entend aussi que γ0ε > 0 (sinon la série est identiquement nulle). 1.2 Fonction génératrice des autocovariances On a toujours |γj | ≤ γ0 et γ−j = γj (pour X à valeurs complexes on a γ−j = γj ). Lorsque les autocovariances sont sommables ( fX (θ) = P X j |γj | < ∞), la fonction (continue) suivante : γj exp(i jθ) j∈Z est dite fonction génératrice des autocovariances. Par γ−j = γj on voit que fX (θ) ∈ R et il est remarquable que l’on puisse de plus démontrer : ∀θ fX (θ) ≥ 0. La j ème autocovariance de X s’obtient par la formule suivante de la théorie des séries de Fourier : Z 2π dθ fX (θ) exp(−i jθ) γj = 2π 0 Maîtrise MASS, Université de Nice – Sophia Antipolis, c J.-F. Burnol 2000 5 Souvent on utilise la notation alternative : fX (z) = X γj z j pour z = exp(iθ) j∈Z mais attention cela n’aura en général de sens que pour les nombres complexes z de module 1 (pour les autres la série pourrait diverger soit pour j → ∞ soit pour j → −∞). 1.3 Histoire d’un processus Si X est centrée on note H(X) et on appelle histoire (linéaire) de X l’espace (de Hilbert) des combinaisons linéaires des Xt , t ∈ Z. Si X n’est pas centrée, on définira l’histoire de X selon H(X) = H(X ∗ ) (d’autres conventions sont possibles). Le passé (linéaire) de X jusqu’à l’instant t, noté H≤t (X) est le sous-espace (fermé) de H(X) engendré par les Xu∗ , u ≤ t. Les H≤t (X) forment une chaine croissante de sous-espaces de H(X). Leur réunion est dense dans H(X), leur intersection H−∞ (X) := ∩t H≤t (X) est appelée passé (linéaire) lointain de X. 2 2.1 Filtres : inversibilité, causalité Moyennes mobiles On note L l’opérateur de décalage qui transforme une série temporelle X = (Xt ) en la série temporelle L ◦ X := Y = (Yt = Xt−1 ). Cet opérateur est donc défini pour n’importe quelle série temporelle, pas nécessairement cov-stationnaire (et aussi pour des séries numériques, ou à valeurs vectorielles, etc. . .). Il constitue l’exemple de base d’un filtre. On définit aussi son inverse L−1 selon L−1 ◦ X := Y = (Yt = Xt+1 ). Le filtre unité 1 est le filtre qui ne fait rien : 1 ◦ X = X. La notion de filtre est très vaste : d’une manière générale, il s’agit d’une opération X 7→ A ◦ X, définie sur un certain espace vectoriel de séries temporelles (le domaine de A), et satisfaisant des conditions telles que la linéarité (A ◦ (X + Y ) = A ◦ X + A ◦ Y ) et l’invariance dans le temps (A ◦ L ◦ X = L ◦ A ◦ X). 6 Maîtrise MASS, Université de Nice – Sophia Antipolis, c J.-F. Burnol 2000 Lorsque les séries temporelles considérées sont stationnaires, il est naturel d’imposer que A ◦ X soit également stationnaire et que l’histoire de A ◦ X soit contenue dans l’histoire de X. Un exemple important est donné par les moyennes mobiles (bilatères) : le filtre A est déterminé par une suite de coefficients aj , j ∈ Z, et agit (sur les séries centrées) selon ( 2.1.1 ) (A ◦ X)t = P j∈Z aj Xt−j On impose au minimum que les coefficients aj du filtre vérifient P j |aj |2 < ∞, de sorte que A ◦ ε est bien définie pour tout bruit blanc ε (il est alors possible pour certaines séries X que la somme dans 2.1.1 soit divergente et donc que A ◦ X ne soit pas définie). Si les coefficients aj sont nuls pour j < 0 on dit que la moyenne mobile est unilatère. 2.2 Filtres analytiques et Inversibilité On dit que A est un filtre analytique si la fonction h(z) = P j∈Z aj z j est analytique dans un anneau contenant le cercle S 1 . Concrètement cela signifie que les coefficients aj ont une décroissance exponentielle : ∃C < 1, B > 0, ∀j |aj | ≤ B · C |j| On dit de h(z) qu’elle est la fonction spectrale de A et on notera A = Ah ou même A = h(L). La formule 2.1.1 définit A ◦ X pour toute série stationnaire X. Théorème 2.2.1 Le composé de deux filtres analytiques Ah et Ak est le filtre analytique de fonction spectrale h(z)k(z). En particulier Ah ◦ Ak = Ak ◦ Ah . Théorème 2.2.2 Si les autocovariances de X sont sommables alors il en est de même pour Ah ◦ X et la fonction génératrice de ses autocovariances vaut |h(z)|2 fX (z). Note 2.2.3 (technique) : Dans le cas complexe la formule du théorème est valable pour la définition ∗ γj = E(Xt+j Xt∗ ). Pour l’autre convention c’est |h( z1 )|2 qu’il faudrait prendre. Si les coefficients aj sont réels il n’y a aucune différence entre |h( z1 )|2 et |h(z)|2 (pour |z| = 1). Dans tous les cas attention : la formule vaut uniquement pour |z| = 1, pour d’autres valeurs de z il faudrait prendre h(z)h( z1 ) fX (z). Maîtrise MASS, Université de Nice – Sophia Antipolis, c J.-F. Burnol 2000 7 Le filtre Ah est dit inversible si pour toute série (cov-stationnaire, centrée) Y on peut en trouver une autre X avec Ah ◦ X = Y . Théorème 2.2.4 Un filtre analytique est inversible si et seulement si sa fonction spectrale h(z) ne s’annule pas sur le cercle. Dans ce cas la solution à Ah ◦ X = Y est unique et donnée par X = Ak ◦ Y avec k(z) = 1 h(z) . Un filtre polynomial est un filtre analytique dont la fonction spectrale h(z) est un polynôme en z. On impose alors de plus toujours la convention h(0) = 1, de sorte que Ah = 1 + φ1 L + Q φ2 L2 + . . . φd Ld . Le polynôme h(z) se factorise en 1≤j≤d (1 − λj z). On dit que les λj sont les co-racines de h (ses racines sont les inverses 2.3 1 λj ). Filtres causaux On dit qu’un filtre Ah est causal si pour tout X : ∀t H≤t (Ah ◦ X) ⊂ H≤t (X) Théorème 2.3.1 Un filtre analytique Ah = h(L) = P j j∈Z cj L est causal si et seulement si les coefficients cj sont tous nuls pour j < 0 (de manière équivalente si la fonction h(z) est analytique dans le disque |z| ≤ 1). On dit qu’un filtre Ah est régulier (ou bi-causal ) si pour tout X : ∀t H≤t (Ah ◦ X) = H≤t (X) Un filtre régulier est donc nécessairement causal. Théorème 2.3.2 Un filtre analytique causal Ah = h(L) = P j j≥0 cj L est régulier si seulement si la fonction analytique h(z) ne s’annule pour aucun z vérifiant |z| ≤ 1. Un filtre régulier est donc nécessairement inversible. Théorème 2.3.3 Un filtre analytique est régulier si et seulement si il est inversible, causal, et d’inverse également causal. 8 Maîtrise MASS, Université de Nice – Sophia Antipolis, c J.-F. Burnol 2000 On voit donc qu’un filtre polynomial est toujours causal, qu’il est inversible si le polynôme ne s’annule pas sur le cercle, et régulier si ses co-racines λj vérifient |λj | < 1 (ses racines sont toutes strictement à l’extérieur du cercle). On reviendra (lors de la discussion des processus MA(q), AR(p), ARMA(p,q)) sur le problème de donner explicitement les coefficients de l’inverse d’un filtre polynomial inversible. 3 Prévision : innovations, décomposition de Wold Les séries temporelles considérées dans cette section seront toutes supposées centrées. Sinon on remplace X par sa version centrée X ∗ . 3.1 Innovations fondamentales Soit X une série temporelle cov-stationnaire (centrée). Soit, pour tout t, Pt la projection orthogonale sur H≤t (X). Soit εt := Xt − Pt−1 (Xt ) Théorème 3.1.1 La série temporelle ε = (εt )t∈Z est un bruit blanc. Ce bruit blanc est appelé bruit blanc d’innovation de X. Les εt sont les innovations fondamentales du processus X. La relation Xt = εt + Pt−1 (Xt ) montre que εt est ce qui arrive de “nouveau” à X à l’instant t. La variance de ε est nécessairement inférieure ou égale à la variance de X. On dit que X est purement déterministe si son bruit blanc d’innovation est nul. On peut alors (en théorie) prévoir exactement les valeurs futures de X en fonction de la connaissance de toutes ses valeurs passées. Théorème 3.1.2 X est purement déterministe si et seulement si pour au moins un t on a H≤t (X) = H≤t+1 (X), si et seulement si H−∞ (X) = H(X). Maîtrise MASS, Université de Nice – Sophia Antipolis, c J.-F. Burnol 2000 9 L’extrême opposé est le suivant : on dit que X est purement innovante si X est non nulle et si H−∞ (X) = {0}. Théorème 3.1.3 X (non nulle) est purement innovante si et seulement si pour au moins un t on a H≤t (X) = H≤t (ε), et l’égalité est alors valable pour tout t. 3.2 Décomposition de Wold Théorème 3.2.1 (Wold) Pour toute série temporelle stationnaire centrée X il existe (de manière unique) une série purement innovante (ou nulle) Y et une série purement déterministe κ telles que X =Y +κ Y et κ sont non corrélées Théorème 3.2.2 Soit P−∞ la projection orthogonale sur H−∞ (X). Alors dans la décomposition de Wold on a κt = P−∞ (Xt ). À chaque instant t on a la décomposition orthogonale H≤t (X) = H≤t (Y ) ⊕ H(κ). Théorème 3.2.3 Supposons que X ne soit pas purement déterministe. Alors la partie purement innovante Y de la décomposition de Wold s’exprime de manière unique comme moyenne mobile unilatère en fonction du bruit blanc d’innovation ε de X : ∀t avec c0 = 1, P vation pour Y . j Yt = X cj εt−j j≥0 |cj |2 < ∞. Le bruit blanc d’innovation de X est également bruit blanc d’inno- P Théorème 3.2.4 Une moyenne mobile unilatère non nulle Xt = j≥0 dj ηt−j (avec η un bruit P blanc, et j |dj |2 < ∞) est purement innovante. Cependant η n’est pas nécessairement le bruit blanc d’innovation de X. 10 Maîtrise MASS, Université de Nice – Sophia Antipolis, Pour que dans une moyenne mobile unilatère Xt = P j≥0 cj εt−j c J.-F. Burnol 2000 le bruit blanc ε soit le bruit blanc d’innovation de X il faut des conditions sur les coefficients cj dont l’énoncé est assez P technique. Cependant lorsqu’ils correspondent à un filtre (causal) analytique h(z) = j cj z j on a l’énoncé simple suivant : Théorème 3.2.5 Soit Ah = h(L) = P j j≥0 cj L un filtre causal analytique, et ε un bruit blanc (non nul). Alors la série purement innovante X = Ah ◦ ε a comme bruit blanc d’innovation ε si et seulement si c0 = 1 et |z| < 1 ⇒ h(z) 6= 0 On rappelle que par définition la fonction h(z) est supposée analytique dans un disque |z| < c2 strictement plus grand que le disque unité. Elle n’aura donc qu’un nombre fini de zéros éventuels dans le disque |z| ≤ 1. Pour que ε soit le bruit blanc d’innovation de Ah ◦ ε la condition est donc qu’aucun zéro ne se trouve à l’intérieur du cercle, mais les zéros sur le cercle sont autorisés. 3.3 Formules de prévision de Wiener Pour une série purement déterministe le futur est exactement déterminé par le passé : cela peut paraitre un avantage pour la prévision, mais aussi un inconvénient (suivant son inclination philosophique). D’ailleurs identifier une série κ comme étant purement déterministe, puis trouver concrètement comment exprimer κt en fonction (linéaire) de ses valeurs passées pose des problèmes considérables (et de toute façon insolubles car on ne dispose jamais que d’un nombre fini d’observations). Dans ce cours l’accent est mis sur les séries purement innovantes comme les AR(p) pour lesquelles le futur recèle de manière “officielle” une part de hasard, avec cependant un faible nombre de paramètres inconnus a priori. La représentation de Wold d’une série purement innovante comme moyenne mobile unilatère par rapport à son bruit blanc d’innovation permet de résoudre le problème de la prévision optimale du futur en fonction du passé. Théorème 3.3.1 Soit X une série purement innovante, qui est donc une moyenne mobile P bt+δ | t unilatère Xt = j≥0 cj εt−j par rapport à son bruit blanc d’innovation. Soit, pour δ > 0, X la prévision optimale de Xt+δ sur la base du passé linéaire H≤t (X). Alors : Maîtrise MASS, Université de Nice – Sophia Antipolis, ( 3.3.2 ) bt+δ | t = X X cj εt+δ−j = j≥δ X c J.-F. Burnol 2000 11 cj+δ εt−j j≥0 Ceci constitue une partie des formules de prévision de Wiener-Kolmogorov, la version complète contenant les éléments suivants : 1. Un critère qui permette de décider sur la base des autocovariances de X si X est purement innovante. 2. Des formules ou algorithmes pour les coefficients cj . 3. Les formules 3.3.2 et si possible l’expression de εt en fonction des Xu , u ≤ t bt+δ | t en fonction des Xu , u ≤ t. 4. Dans la mesure du possible une expression directe des X En toute généralité, les réponses à ces questions sont assez techniques, mais nous y reviendrons pour les MA(q), AR(p), ARMA(p,q) et plus généralement les “séries analytiques”. bt+δ | t . On a Théorème 3.3.3 Soit σδ2 la variance de Xt+δ − X σδ2 = γ0ε ( X 0≤j≤δ−1 γ0X = γ0ε · X j≥0 |cj |2 ) |cj |2 On voit donc que au fur et à mesure que l’horizon t + δ s’éloigne l’erreur σδ2 de la prévision optimale augmente et tend vers la variance de X, avec une valeur minimale pour δ = 1 égale à la variance de ε. 4 MA(q) Dans cette section et les suivantes les séries temporelles sont centrées. Plus généralement on dira ensuite que X est un MA(q) ou un AR(p) ou un ARMA(p,q) si X ∗ l’est. MA = “moving average” (moyenne mobile), AR = “autoregressive” (autoregressif). 12 4.1 Maîtrise MASS, Université de Nice – Sophia Antipolis, c J.-F. Burnol 2000 Structure On dit que X est un MA(q) si X est le filtré Ak ◦ η d’un bruit blanc (non nul) par un filtre polynomial Ak = k(L) = 1 + ψ0 L + . . . + ψq Lq , de degré q (ψq 6= 0). On dit que X est un MA(≤q) si deg(k) ≤ q. Théorème 4.1.1 Un MA(q) X = Ak ◦η est purement innovant. Sa relation avec son bruit blanc d’innovation ε est aussi du type MA(q) : X = Ah ◦ ε, avec deg(h) = deg(k) = q. Le polynôme h(z) (dit polynôme canonique) s’obtient à partir du polynôme k(z) en remplaçant toutes les racines éventuelles se trouvant à l’intérieur du cercle unité par leurs inversions (α 7→ 1 α ), les déplaçant ainsi à l’extérieur du cercle unité. Théorème 4.1.2 Soit X un MA(q). Il n’y a qu’un nombre fini de polynômes k(z) pour lesquels on puisse trouver un bruit blanc η avec X = Ak ◦ η. Une fois k choisi, η est uniquement déterminé. Tous les polynômes k ont le même degré q. Théorème 4.1.3 Soit X = Ak ◦ η un MA(q). Soit µ1 , . . . , µq les co-racines de k(z). Le poly- nôme h(z) qui relie X à son bruit blanc d’innovation est h(z) = Y j, |µj |≤1 (1 − µj z) Y (1 − j, |µj |>1 1 z) µj La variance du bruit blanc d’innovation est relié à la variance de η par γ0ε = γ0η · Y j, |µj |>1 |µj |2 Les autocovariances d’un MA(q) X = Ak ◦ η = η + ψ1 L ◦ η + . . . + ψq Lq ◦ η se calculent selon : X γjX z j = γ0η (1 + ψ1 z + . . . + ψq z q )(1 + ψ1 j 1 1 + . . . + ψq q ) z z En particulier γ0X = γ0η (1 + |ψ1 |2 + . . . + |ψq |2 ) et les γjX sont nuls pour |j| > q. Maîtrise MASS, Université de Nice – Sophia Antipolis, c J.-F. Burnol 2000 13 Théorème 4.1.4 Une série cov-stationnaire est un MA(q) si et seulement si ses autocovariances γjX sont nulles pour j > q et γqX 6= 0. Théorème 4.1.5 La somme d’un MA(q1 ) et d’un MA(q2 ) (non-corrélées) est un MA(≤max(q1 , q2 )). 4.2 Prévision Soit X un MA(q). On a vu comment trouver le polynôme canonique h(z) = Y 1≤k≤q (1 − λk z) ∀k |λk | ≤ 1 et donc la relation qui le lie à son bruit blanc d’innovation ε : Xt = εt + φ1 εt−1 + . . . + φq εt−q On a donc Théorème 4.2.1 bt+1 | t = φ1 εt + . . . + φq εt−(q−1) X bt+2 | t = φ2 εt + . . . + φq εt−(q−2) X ... bt+q | t = φq εt X bt+j | t = 0 j>q⇒ X Il subsiste le problème d’exprimer explicitement les εu en fonction des Xt . Il y a des difficultés si le polynôme canonique s’annule sur le cercle : Théorème 4.2.2 Si h(z) s’annule en un point du cercle unité, alors il n’existe aucun choix P de coefficients αj pour lesquels j≥0 αj Xt−j converge et coïncide avec εt . Cependant on peut représenter εt comme une limite de telles combinaisons linéaires des Xu , u ≤ t. 14 Maîtrise MASS, Université de Nice – Sophia Antipolis, c J.-F. Burnol 2000 Dans le cas régulier où le polynôme h(z) ne s’annule pas sur le cercle unité (et définit donc un filtre régulier), on a Théorème 4.2.3 Si h(z) ne s’annule en aucun point du cercle unité alors il existe un choix unique de coefficients αj pour lesquels on a εt = X αj Xt−j j≥0 Les coefficients αj convergent rapidement vers 0 lorsque j → ∞, en effet ce sont les coefficients du filtre analytique A1/h . Dans le cas où h n’a pas de racine multiple, on a la formule explicite suivante : ∀j ≥ 0 X αj = avec mk = Q mk λjk 1≤k≤q 1 l6=k (1 − λl λk ) En conclusion les MA(q) ne sont pas bien adaptés à la prévision puisque d’une part j > q ⇒ bt+j | t = 0 et d’autre part les prévisions nécessitent la connaissance de toutes les valeurs passées X de X. 5 5.1 AR(p) Structure On dit que X est un AR(p) si il existe un filtre polynomial k(z) = 1 − ψ1 z − . . . − ψp z p de degré p (ψp 6= 0) tel que η = Ak ◦ X soit un bruit blanc non nul. On dit que X est un AR(≤p) si deg(k) ≤ p. Théorème 5.1.1 Si X est un AR(p) alors k(z) n’a aucune racine sur le cercle. Autrement dit le filtre analytique Ak est nécessairement inversible et X = A1/k ◦ η. Il n’y a qu’un nombre fini de polynômes qui filtrent X en un bruit blanc : ils s’obtiennent à partir de k(z) par la même règle que pour les MA(q). En particulier ils ont tous le même degré p. Maîtrise MASS, Université de Nice – Sophia Antipolis, c J.-F. Burnol 2000 15 Théorème 5.1.2 Si X est un AR(p) (η = Ak ◦ X) alors X est purement innovante, et il existe un unique polynôme h(z) (dit canonique) tel que le bruit blanc d’innovation de X soit de la forme ε = Ah ◦ X. Le polynôme canonique est de degré p et s’obtient à partir de k(z) Q par la même règle que pour les MA(q). Il est donc de la forme h(z) = 1≤k≤q (1 − λk z) avec ∀k |λk | < 1. Théorème 5.1.3 Si X est un AR(p) alors X s’exprime comme moyenne mobile unilatère à partir de son bruit blanc d’innovation ε : Xt = X cj εt−j j≥0 avec des coefficients cj qui convergent rapidement vers 0 lorsque j → ∞, en effet ce sont les coefficients du filtre analytique A1/h , avec h(z) le polynôme canonique. 5.2 Prévision Les AR(p) sont bien adaptés à la prévision : Théorème 5.2.1 Soit X un AR(p) de bruit blanc d’innovation ε et de polynôme canonique bu | t (pour u > t) sont des combinaisons h(z) = 1 − φ1 z − . . . − φp z p . Les prévisions optimales X linéaires de Xt , Xt−1 , . . . , Xt−p+1 : bu | t = X X aj (u) Xt−j 0≤j≤p−1 qui s’obtiennent par récurrence selon bu | t = X X 1≤k≤p bu−k | t φk X bt−j | t = Xt−j pour j ≥ 0 avec les conditions initiales X On peut donner des formules plus explicites pour les coefficients aj (u), mais c’est un peu compliqué, surtout si h(z) a des racines multiples. Du point de vue du calcul par un ordinateur bu | t par récurrence comme ciil est en général plus simple, et tout aussi efficace, d’évaluer X dessus. Lorsque h(z) n’a pas de racine multiples, on peut aussi procéder selon : 16 Maîtrise MASS, Université de Nice – Sophia Antipolis, c J.-F. Burnol 2000 Théorème 5.2.2 Soit X un AR(p) de bruit blanc d’innovation ε et de polynôme canonique Q Q h(z) = 1−φ1 z−. . .−φp z p = 1≤k≤p (1−λk z), sans racine multiple. Soit hk (z) = j6=k (1−λj z) et Y k = hk (L) ◦ X. Alors les Y k sont des AR(1) qui partagent avec X le même bruit blanc d’innovation. On a bu | t = X avec X 1≤k≤p mk · λku−t · Ytk 1 mk = Q j6=k (1 − λj λk ) bu | t peuvent En comparaison avec les MA(q), on voit donc que pour un AR(p) les prévisions X être non nulles même avec u ≫ t, et de plus s’expriment assez directement comme une combi- naison linéaire des p dernières valeurs observées de X. Ces avantages paraissent décisifs...mais attention, dans la pratique on ne connaît pas à l’avance les valeurs de φ1 , . . . , φp et on ne connaît pas non plus la variance γ0ε du bruit blanc d’innovation : pour obtenir des valeurs approchées significatives il faudra disposer de nettement plus que p observations. On calculera alors d’abord des approximations aux auto-covariances de X puis on en déduira (section suivante) des valeurs pour φ1 , . . . , φp et γ0ε . 5.3 Équations de Yule-Walker Soit X un AR(p) de bruit blanc d’innovation ε et de polynôme canonique h(z) = 1 − φ1 z − Q . . . − φp z p = 1≤k≤p (1 − λk z). Pour des raisons théoriques on veut pouvoir calculer les auto- covariances de X lorsque les φk et γ0ε sont connus. Pour des raisons pratiques on veut pouvoir calculer φk et γ0ε lorsque les autocovariances de X sont connues. Théorème 5.3.1 (Yule-Walker) On a les équations suivantes : (Y W0 ) X X γ0X − φ1 γ−1 − . . . − φp γ−p = γ0ε (Y W1 ) X γ1X − φ1 γ0X − . . . − φp γ1−p =0 ... (Y Wj ) X X γjX − φ1 γj−1 − . . . − φp γj−p =0 dites équations de Yule-Walker. Maîtrise MASS, Université de Nice – Sophia Antipolis, c J.-F. Burnol 2000 17 X X Note 5.3.2 Lorsque X est à valeurs réelles γ−j = γjX , en général γ−j = γjX . On suppose X à valeurs réelles dans les deux théorèmes suivants. Théorème 5.3.3 Étant donnés φ1 , . . . , φp et γ0ε le système Y W0 , . . . , Y Wp de p + 1 équations linéaires en les p + 1 inconnues γ0X , . . . , γpX possède une unique solution. Les γjX pour j > p sont alors calculées par récurrence avec les Y Wj , j > p. Théorème 5.3.4 Étant donnés γ0X , . . . , γpX le système Y W1 , . . . , Y Wp de p équations linéaires en les p inconnues φ1 , . . . , φp possède une unique solution. L’équation Y W0 permet alors d’évaluer γ0ε . Dans la pratique (après avoir deviné une valeur raisonnable pour p) on calcule des valeurs empiriques des autocovariances γ0X , . . . , γpX . On en déduit les valeurs de φ1 , . . . , φp et γ0ε . Puis on cherche à valider le modèle en comparant avec les valeurs empiriques les valeurs des γjX pour j > p déduites des autres Y Wj . Enfin le modèle sera “efficace” (du point de vue de la prédiction) si γ0ε est petit par rapport à γ0X . Cela signifie que les racines (ou co-racines) de h(z) doivent être proches du cercle unité. 6 6.1 ARMA(p,q) Condition d’existence Soit P (z) = 1 − φ1 z − . . . − φp z p un polynôme de degré p et Q(z) = 1 + ψ1 z + . . . + ψp z p un polynôme de degré q. Soit η un bruit blanc. On cherche X cov-stationnaire vérifiant : (ARMAP |Q ) AP ◦ X = AQ ◦ η Théorème 6.1.1 Pour qu’il existe une solution cov-stationnaire à l’équation ARMAP |Q il faut et il suffit que toute co-racine de P (z) sur le cercle, si il en existe, soit aussi une co-racine de Q(z) avec au moins la même multiplicité. Théorème 6.1.2 Si ARMAP |Q possède une solution cov-stationnaire alors elle en possède une unique qui soit purement innovante, et cette solution s’obtient comme X = AF ◦ η où F (z) est 18 Maîtrise MASS, Université de Nice – Sophia Antipolis, la fraction rationnelle Q(z) P (z) . c J.-F. Burnol 2000 Toutes les autres solutions sont de la forme X + Z1 + . . . + Zr avec Zk une série temporelle de la forme (Zk )t = αkt (Zk )0 et {α1 , . . . , αr } les co-racines de P (z) sur le cercle. On dira donc que X est un ARMA(p,q) si X est l’unique solution purement innovante d’une équation ARMAP |Q avec deg(P ) = p et deg(Q) = q (et on dit que X est un ARMA(≤p,≤q) si deg(P ) ≤ p et deg(Q) ≤ q). On peut supprimer tout facteur commun à P et Q. Alors P (z) ne peut pas avoir de racine sur le cercle, le filtre AP est inversible, et X = (AP )−1 ◦ AQ ◦ η. On suppose que c’est le cas dans tout ce qui suit. 6.2 Structure Théorème 6.2.1 Pour que η soit le bruit blanc d’innovation de X il faut et il suffit que P (z) = Q Q 1≤j≤q (1 − µj z) avec ∀k |λk | < 1 et ∀j |µj | ≤ 1. 1≤k≤p (1 − λk z) et Q(z) = Théorème 6.2.2 Si X est un ARMA(p,q) donné selon AP ◦ X = AQ ◦ η, alors la relation (dite minimale) entre X et son bruit blanc d’innovation est du même type : AP1 ◦ X = AQ1 ◦ ε où P1 et Q1 s’obtiennent à partir de P et Q selon la même règle que pour les AR(p) et les MA(q), puis en supprimant tout facteur commun éventuel. Théorème 6.2.3 X est un ARMA(p,q) (pour p et q bien choisis) si et seulement si la fonction génératrice de ses autocovariances est une fraction rationnelle. Théorème 6.2.4 La somme d’un ARMA(p1 ,q1 ) et d’un ARMA(p2 ,q2 ) (non-corrélées) est un ARMA(p1 +p2 , ≤max(p1 +q2 , p2 +q1 )). Par exemple : la somme de deux bruits blanc indépendants (=ARMA(0, 0)) est un bruit blanc. La somme d’un bruit blanc et d’un MA(q) est un MA(≤q) (en fait exactement un MA(q)). La somme d’un AR(p) et d’un bruit blanc indépendant est un ARMA(p, ≤p). La somme Maîtrise MASS, Université de Nice – Sophia Antipolis, c J.-F. Burnol 2000 19 d’un AR(p1 ) et d’un AR(p2 ) est un ARMA(p1 +p2 , ≤max(p1 , p2 )). La somme d’un AR(p) et d’un MA(q) est un ARMA(p, ≤p+q). La somme d’un MA(q1 ) et d’un MA(q2 ) est un MA(≤max(q1 ,q2 )). Toutes ces sommes portent sur des séries non-corrélées. 6.3 Prévision Supposons que l’on dispose d’un grand nombre d’observations consécutives de X jusqu’à l’insbu | t il faut suivant la méthode générale de Wiener tant t. Pour estimer les prévisions optimales X d’une part disposer des coefficients cj qui relient X à son bruit blanc d’innovation ε, et d’autre part déduire des valeurs numériques observées des Xu (pour u ≤ t) les valeurs numériques des εu (pour u ≤ t). On a alors suivant la formule générale 3.3.2 : bt+δ | t = X X cj+δ εt−j j≥0 Dans une première étape on utilise le théorème suivant pour essayer d’évaluer p et les coefficients du polynôme P (z) : Théorème 6.3.1 Les équations de Yule-Walker Y Wj (définies précédemment pour un AR(p)) sont valables pour un ARMA(p,q) pour j > q. Lorsque (p,q) est minimal le système Sp|q de p équations Y Wq+1 , . . . , Y Wq+p en les p inconnues φ1 , . . . , φp possède une unique solution. Dans la pratique on devine p, on calcule les autocovariances empiriques, puis on résoud Sp|q pour des valeurs croissantes de q. Si les solutions ne se stabilisent pas, c’est que p est trop petit. Si les systèmes ont numériquement des déterminants proches de 0, c’est que p est trop grand. Une fois déterminée une valeur raisonnable pour p, on dispose donc de P (z) = 1 − φ1 z − . . . − φp z p et on peut calculer numériquement les autocovariances βj de AP ◦ X, d’où une valeur pour P q (j > q ⇒ βj ≈ 0). L’étape suivante est de trouver les zéros µ1 , . . . , µq de |j|≤q βj z j dans Q le disque unité d’où Q(z) = 1≤j≤q (1 − µj z) = 1 + ψ1 z + . . . + ψq z q . C’est seulement à ce stade que l’on pourra évaluer la variance γ0ε du bruit blanc d’innovation, par exemple selon P β0 = γ0ε · j |ψj |2 . 20 Maîtrise MASS, Université de Nice – Sophia Antipolis, c J.-F. Burnol 2000 Les coefficients cj sont les coefficients du filtre analytique A−1 P ◦AQ , autrement dit les coefficients du développement (|z| ≤ 1) X j≥0 Q 1≤j≤q cj z j = Q (1 − µj z) 1≤k≤p (1 − λk z) pour lesquels on peut donner diverses formules ou algorithmes. L’expression du bruit blanc d’innovation ε en fonction de X n’est accessible que si Q(z) ne P s’annule pas sur le cercle, on a alors εt = j≥0 dj Xt−k où les dj sont les coefficients du filtre analytique AP ◦ A−1 Q . Dans ce cas : Théorème 6.3.2 Les prévisions optimales s’expriment comme des combinaisons linéaires avec pour chaque δ : bt+δ | t = X X j≥0 X α(δ, j) Xt−j j≥0 1 Q(z) α(δ, j) z = δ z P (z) j + · P (z) Q(z) où [·]+ signifie que l’on ne retient que les termes en z k avec k ≥ 0. Pour δ = 1 on a α(1, j) = −dj+1 , et il est inutile de calculer les α(δ, j) pour δ ≥ 2. En effet : bt+δ | t s’obtiennent par récurrence selon Théorème 6.3.3 Les X bt+δ | t = − X X j≥1 avec les conditions initiales pour u ≤ t bt+δ−j | t dj X b u | t = Xu X et les dj reliant X et son bruit blanc d’innovation ε selon εt = X dj Xt−j j≥0 Autrement dit on procède comme avec un AR(p), à partir du moment où l’on dispose de la représentation “AR(∞)” qui exprime le bruit blanc d’innovation à partir de X. Maîtrise MASS, Université de Nice – Sophia Antipolis, 7 7.1 c J.-F. Burnol 2000 21 Séries analytiques MA(∞) les séries AR(p), MA(q), ARMA(p,q) sont toutes des séries analytiques au sens suivant : on dit que la série cov-stationnaire centrée X est analytique si elle est non-nulle et si ses autocovariances γjX ont une décroissance exponentielle : ∃c < 1 ∃A ∀j |γjX | < A · c|j| Autrement dit X (non-nulle) est analytique si la fonction génératrice de ses autocovariances est la restriction au cercle d’une fonction analytique dans un certain anneau. Théorème 7.1.1 X est analytique si et seulement si elle est purement innovante et si les coefP ficients cj apparaissant dans sa décomposition de Wold Xt = j≥0 cj εt−j ont une décroissance exponentielle. Nous dirons que X est un MA(∞) si elle est une moyenne mobile unilatère avec des coefficients à décroissance exponentielle à partir d’un bruit blanc (non nul). D’après le théorème précédent toute série analytique est un MA(∞). Théorème 7.1.2 X est un MA(∞) si et seulement si elle est analytique. Théorème 7.1.3 X (non-nulle) est une série analytique si et seulement si elle peut s’écrire sous la forme A(L) ◦ η avec A(L) un filtre analytique et η un bruit blanc. Ce dernier sera le bruit blanc d’innovation de X si et seulement si A(L) est un filtre causal avec A(0) = 1 et |z| < 1 ⇒ A(z) 6= 0. 7.2 AR(∞) On dit que X est un AR(∞) si il existe des coefficients à décroissance exponentielle φj tels que le filtré de X par le filtre analytique causal 1 − φ1 L − φ2 L2 − . . . soit un bruit blanc (non nul). 22 Maîtrise MASS, Université de Nice – Sophia Antipolis, c J.-F. Burnol 2000 Théorème 7.2.1 X est un AR(∞) si et seulement si elle est une série analytique dont la fonction génératrice des autocovariances ne s’annule pas sur le cercle. Tout AR(∞) est donc aussi un MA(∞). Si X est un AR(∞) alors il existe un unique filtre analytique tel que son bruit blanc d’innovation ε puisse s’écrire sous la forme A(L) ◦ X. Ce filtre est causal et vérifie |z| ≤ 1 ⇒ A(z) 6= 0. Théorème 7.2.2 X est un AR(∞) si et seulement si il existe un filtre analytique A(L) avec A(L) ◦ X = η un bruit blanc (non nul). Nécessairement A(L) est un filtre inversible et donc X = A(L)−1 ◦ η. η est le bruit blanc d’innovation de X si et seulement si A(L) est un filtre causal avec A(0) = 1 et |z| < 1 ⇒ A(z) 6= 0. 7.3 Prévision Soit X un AR(∞). Il existe donc deux suites de coefficients φ0 = 1, φ1 , φ2 , . . . et c0 = 1, c1 , c2 , . . . à décroissances exponentielles qui le relient à son bruit blanc d’innovation : AR(∞) M A(∞) Xt − φ1 Xt−1 − φ2 Xt−2 − . . . Xt = = εt εt + c1 εt−1 + c2 εt−2 + . . . Théorème 7.3.1 (Algorithme fondamental pour la prévision) Les prévisions optimales bt+δ | t s’obtiennent par récurrence selon X bt+δ | t = X avec les conditions initiales pour u ≤ t X j≥1 bt+δ−j | t φj X b u | t = Xu X L’erreur quadratique dans la prévision est donnée par bt+δ | t |2 ) = γ0ε · σδ2 := E(|Xt+δ − X On a σ12 = γ0ε et à la limite lorsque δ → ∞ : lim σδ2 = γ0X = γ0ε · δ→∞ X 0≤j X 0≤j≤δ−1 |cj |2 |cj |2 Université de Nice – Sophia Antipolis Maîtrise MASS 1999-2000 (2ème sem.) Séries Temporelles (option Mathématiques) Exercices et sujets d’examens c J.-F. Burnol, 2000. Note: Les premières feuilles d’exercices posent de grosses difficultés à des étudiants qui ne disposent que de très peu de notions préalables sur les séries de Fourier, la notion de projection orthogonale, les espaces de Hilbert, la théorie de la mesure, la notion de variable aléatoire, les nombres complexes et les fractions rationnelles. De plus la convention retenue pour les covariances d’une série centrée à valeurs complexes pas la meilleure. Il aurait fallu prendre γj = E(Xt+j Xt ) (tout en conservant γj = Rn’est −j z dµX .) Il aurait mieux valu éviter le plus possible l’emploi des nombres complexes. La notion de mesure spectrale est trop technique, et il vaut mieux se limiter à la fonction génératrice des covariances qui existe toujours pour un ARMA(p,q). Les exercices des examens n’utilisent que les nombres réels, et ils donnent une meilleure idée du niveau attendu des étudiants, compte tenu de leur bagage mathématique. Dans le cours, on a abordé d’autres sujets comme les séries non-stationnaires ARIMA et le filtre de Kalman-Bucy. 23 24 c Jean-François Burnol, 2000. Université de Nice – Sophia Antipolis Maîtrise MASS 1999/2000 – 2ème semestre – Analyse des séries temporelles Feuille d’exercices 1 SC = série chronologique (à valeurs complexes ou réelles). SCCS = série chronologique à covariances stationnaires. e = E(Xt ) γj = E(Xt+j Xt ) − |e|2 = SCCCS = série chronologique centrée à covariances stationnaires. R z −j dµX e=0 E(εt+j εt ) = σ 2 δj,0 BB = bruit blanc. (*) indique un exercice d’une difficulté plus grande. 1. Soient ε et η deux BB indépendants. À quelle condition la série (. . . , ε0 , η0 , ε1 , η1 , . . .) est une SCCS ? 2. Soit X une SCCCS. On se donne des constantes (complexes) at et on définit Yt = at Xt . On suppose γ1X 6= 0. À quelle condition Y est-elle une SCCS ? 3. (*) Même question mais en supposant γ2X 6= 0 et γ3X 6= 0. 4. Soient X et Y deux SCCCS indépendantes. Montrer que Z = X + Y est une SCCCS et calculer ses covariances ainsi que sa mesure spectrale en fonction de celles pour X et Y . 5. Soit ε un BB, et X un MA(1) défini par Xt = aεt + bεt−1 (a, b ∈ C). Calculer les covariances de X. Montrer l’inégalité γ0 ≥ 2|γ1 |. 6. (*) Soit X une SCCCS. Montrer ∀j γ0 ≥ |γj | (ind.: calculer la variance de la variable aléatoire Y = |γj |X0 − γj Xj ). Donner un exemple pour lequel ces inégalités sont des égalités. 7. (*) Soit X une SCCCS vérifiant: |j| ≥ 2 ⇒ γj = 0. Soit z un nombre complexe de module 1 et k ≥ 1. Quelle est la variance de Y = Xt + zXt−1 + . . . + z k Xt−k ? En déduire γ0 ≥ 2|γ1 |, et utiliser les formules de l’exercice 5 pour montrer l’existence d’un MA(1) qui a les mêmes covariances que X (cela implique que X est lui-même un MA(1) par un résultat que l’on verra ultérieurement en cours). 8. Soit ε un BB, et X un MA(2) défini par Xt = aεt + bεt−1 + cεt−2 (a, b, c ∈ C). Calculer les covariances de X. Montrer les inégalités |γ2 | ≤ est une égalité. γ0 2 et |γ1 | ≤ γ0 2 + |γ2 |. Donner un exemple où cette deuxième inégalité 9. (*) Soit X une SCCCS vérifiant: |j| ≥ 3 ⇒ γj = 0. On montrera ultérieurement en cours que X est un MA(2), et donc que ses covariances vérifient les inégalités de l’exercice 8. Prouver ces inégalités directement (ind.: adopter la méthode de l’exercice 7). 25 c Jean-François Burnol, 2000. Université de Nice – Sophia Antipolis Maîtrise MASS 1999/2000 – 2ème semestre – Analyse des séries temporelles 1. Même variance pour les deux bruits blancs. 2. Comme γ1X 6= 0, X n’est pas nulle et γ0X 6= 0 aussi. Donc |at | est une constante et soit les at sont tous nuls, soit aucun n’est nul. Dans ce cas le calcul de γ1Y donne une relation at+1 = cat , |c| = 1. Donc at = a0 ct , |c| = 1. 3. idem en reliant at+3 et at ainsi que at+3 et at+1 donc at+1 et at . 4. γjZ = γjX + γjY , µZ = µX + µY . 5. γ0 = |a|2 + |b|2 , γ1 = ab, γ−1 = ba, les autres sont nuls. 2 6. E(|γj |X0 − γj Xj ) = 2|γj |2 (γ0 − |γj |). Exemple: ∀t : Xt = X0 . 7. E(|Xt + zXt−1 + . . . + z k Xt−k |2 ) = (k + 1)γ0 + 2kRe(γ1 z). Prendre z = − |γγ11 | . (si γ1 = 0 il n’y a rien à montrer). Faire k → ∞. L’inégalité permet de trouver a et b avec γ0 = |a|2 + |b|2 , γ1 = ab. 8. γ0 = |a|2 + |b|2 + |c|2 , γ1 = γ−1 = ab + bc, γ2 = γ−2 = ac. Les autres sont nuls. Pour l’exemple prendre a = 1, b = 2, c = 1. 9. Si on se restreint aux termes pairs, on a une SC à laquelle 7 s’applique donc |γ2 | ≤ γ0 2 . Sinon E(|Xt + zXt−1 + . . . + z Xt−k | ) = (k + 1)γ0 + 2kRe(γ1 z) + 2(k − 1)Re(γ2 z ). Faire k → ∞. Prendre z = − |γγ11 | . k 2 2 26 c Jean-François Burnol, 2000. Université de Nice – Sophia Antipolis Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles Feuille d’exercices 2 1. Exercice. Soit ε un BB de variance 1 et X le MA(1) défini par Xt = εt − 31 εt−1 . Exprimer εt en fonction de Xt , Xt−1 , . . . Quelles sont les meilleures prédictions de Xt+1 , Xt+2 , . . . connaissant les Xu , u ≤ t ? 2. Problème. Soit η un BB de variance 1 et X le MA(1) défini par Xt = ηt − 5ηt−1 . On définit εt comme P étant j≥0 ( 15 )j Xt−j . Quelles sont les fonctions représentant les ηt , Xt et εt dans L2 (S 1 , µη )? Montrer que ε est un BB. Quelle est sa variance? Quelles sont les fonctions représentant les εt , Xt et ηt dans L2 (S 1 , µε )? et dans L2 (S 1 , µX )? Exprimer ηt en fonction des εu . Quelle est la meilleure prédiction possible pour ηt+1 exprimée en fonction des Xu , u ≤ t ? 3. Exercice. Soit Y une SCS, h(z) un polynôme, et Z le filtré de Y par h. Soit k(z) un second polynôme et W le filtré de Z par k. Montrer que W est le filtré de Y par le produit des polynômes h et k. 4. Exercice. Soit ε un BB de variance 1 et X le MA(1) défini par Xt = εt − εt−1 . Soit WN = εt−1 +εt−2 +...+εt−N N . Quelle est la variance de WN ? Montrez Xt + (1 − N1 )Xt−1 + . . . + N1 Xt−N +1 = εt − WN . En déduire εt ∈ H≤t (X). 5. Problème (**). On conserve les notations de l’exercice précédent. Montrer qu’il est impossible d’écrire p P E(|W |2 ) ). εt sous la forme d’une série Z = j≥0 αj Xt−j (convergente au sens de la norme kW k = Raisonnant par l’absurde, on commencera par calculer Cov(Xu , Z) pour u ≤ t + 1 pour en déduire des relations de récurrence entre les αj . On montrera ensuite que le critère de Cauchy ne peut être satisfait pour la suite définissant Z. 6. Exercice. Soit ε un BB de variance 1 et X le MA(2) défini par Xt = εt − 56 εt−1 + 61 εt−2 . Dans L2 (S 1 , µX ) quelles sont les fonctions représentant les Xt et les εt ? Exprimez εt comme combinaison des Xu , u ≤ t, et donnez les meilleurs prédictions possibles pour Xt+1 , Xt+2 , . . . connaissant les Xu , u ≤ t. On utilisera la formule 7. Problème (*). 1 (1−λ1 z)(1−λ2 z) = 1 1 (λ1 −λ2 )z ( 1−λ1 z − 1 1−λ2 z ). Soit η un BB de variance 1 et X le MA(2) défini par Xt = ηt − 5ηt−1 + 6ηt−2 . Quelles sont les meilleures prédictions possibles pour les valeurs futures de η connaissant les valeurs passées de X? On commencera par construire le bruit blanc d’innovation ε de X en utilisant les résultats de l’exercice précédent. Puis on donnera les fonctions correspondant aux εt , Xt et ηt dans L2 (S 1 , µǫ ). On en déduira les valeurs des covariances Cov(ηt , εu ). 8. Soit η un BB de variance 1 et X le MA(3) défini par Xt = ηt − 3ηt−1 − 4ηt−2 + 12ηt−3 . Quel est le polynôme canonique de X? Quelle est la variance du bruit blanc d’innovation εinn ? Quelles sont les fonctions représentant les εt dans L2 (S 1 , µX )? Université de Nice – Sophia Antipolis J.-F. Burnol 27 c Jean-François Burnol, 2000. Université de Nice – Sophia Antipolis Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles Feuille d’exercices 2 – Solutions 1. On a εt = ∗ Xt+1 = − 31 ε∗t = P 1 j≥0 3j Xt−j . D’ après P 1 − j≥0 3j+1 Xt−j . ∗ la méthode expliquée en cours Xt+j = 0 pour j ≥ 2, tandis que 2. Dans L2 (S 1 , µη ) les fonctions représentant les ηt sont par définition z 7→ z t . Pour les Xt : z 7→ xt (z) := P 1−5 1 1−5 1 z t − 5z t−1 . Pour les εt : z 7→ εt (z) := (z t − 5z t−1 ) j≥0 ( 51 )j z1j = z t 1− 1 z1 . Notons h(z) = 1− 1 z1 . On a 5 z h(z) = −5 5 z 1 1 − 15 z z 1 − 15 z1 et donc |h(z)| = 5 pour |z| = 1. Les fonctions εt (z) représentant les εt sont z 7→ z t h(z). Elles sont orthogonales de sorte que ε est un BB, et de variance 5. Dans L2 (S 1 , µε ) les fonctions représentant les εt sont z 7→ z t . On a Xt = εt − 51 εt−1 donc les fonctions représentant les Xt sont z 7→ z t (1 − 51 z1 ). L’application f (z) 7→ f (z)/h(z) est une isométrie de L2 (S 1 , µη ) vers L2 (S 1 , µε ) qui envoie les εt (z) sur z 7→ z t . Donc zt h(z) les fonctions représentant les ηt sont: z 7→ z− 1 = −z t 51 1− 15z . On obtient une isométrie de L2 (S 1 , µη ) vers L2 (S 1 , µX ), qui envoie xt (z) vers z 7→ z t par f (z) 7→ 5 f (z) 1−5/z . Les fonctions représentant les εt dans L2 (S 1 , µX ) 1 sont donc z 7→ z t 1−11 1 , et celles représentant les ηt sont z 7→ z t 1−5 1 . Comme Xt s’exprime en fonction des 5 z z valeurs passées de η, le passé de X est inclus dans le passé de η, et comme la meilleure prédiction possible pour ηt+1 connaissant le passé de η est simplement 0, la réponse est la même si l’ on ne connaît que le passé de X: la meilleure prédiction est 0. 3. On a Zt = P j φj Yt−j avec h(z) = P j φj z j . Si k1 et k2 sont deux polynômes, W1 et W2 les filtrés de Z par k1 et k2 , le filtré de Z par k1 + k2 est W1 + W2 et il suffit donc de montrer le résultat pour k(z) = z a , P P a ≥ 0. Alors Wt = Zt−a = j φj Yt−a−j = k ψk Yt−k avec ψ0 = 0, . . . , ψa−1 = 0, ψa+j = φj , ce qui signifie que W est le filtré de Y par z a h(z). 4. Var(WN ) = 1 N. On a Xt = εt − εt−1 Xt + Xt−1 = εt − εt−2 Xt + Xt−1 + Xt−2 = εt − εt−3 Xt + Xt−1 + Xt−2 + . . . + Xt−N +1 = εt − εt−N et en additionant ces N égalités on obtient N Xt + (N − 1)Xt−1 + . . . + Xt−N +1 = N εt − N WN Donc εt diffère de Xt + (1 − N1 )Xt−1 + . . . + N1 Xt−N +1 par une variable aléatoire de variance 1 N, et en faisant tendre N vers ∞ on obtient εt ∈ H≤t (X). Université de Nice – Sophia Antipolis J.-F. Burnol 28 c Jean-François Burnol, 2000. Université de Nice – Sophia Antipolis 5. On a Cov(Xu , Z) = P j≥0 αj Cov(Xu , Xt−j ). Par ailleurs Cov(Xt1 , Xt2 ) = 0 si |t1 − t2 | ≥ 2, = −1 si |t1 − t2 | = 1, = 2 si t1 = t2 . Donc Cov(Xt+1 , Z) = −α0 , Cov(Xt , Z) = 2α0 − α1 , Cov(Xt−1 , Z) = −α0 + 2α1 − α2 , Cov(Xt−1−j , Z) = −αj + 2αj+1 − αj+2 . Supposons εt = Z. Alors cela donne −α0 = −1 2α0 − α1 = +1 (j ≥ 0) −αj + 2αj+1 − αj+2 = 0 Donc α0 = 1, puis α1 = 1, puis α2 = 1, etc. . . . Tous les αj sont donc nécessairement égaux à 1. Cependant les sommes partielles XN + XN +1 + . . . + XM = εN − εM −1 ont toutes variance 2, qui ne tend pas vers 0 P lorsque N, M → ∞. La série j Xt−j est donc divergente. 6. Pour Xt : z 7→ z t . Pour εt : z 7→ On a zt 1 − 65 z1 + 1 et ainsi εt = P 1 j≥0 (3 2j (1 − 11 2 z )(1 − 11 3 z) = 1 1 6 z2 = zt (1 − 21 z1 )(1 − 11 3 z) X 1 −2 3 1 1 (3 j − 2 j )( )j 11 + 11 = 2 3 z 1− 2z 1− 3z j≥0 ∗ ∗ ∗ ∗ − 2 31j )Xt−j . On a Xt+1 = − 65 εt + 16 εt−1 , Xt+2 = 61 εt , Xt+3 = Xt+4 = . . . = 0. Pour exprimer ceci en fonction des Xu , u ≤ t, il faut ensuite remplacer εt et εt−1 par leurs expressions en fonction des Xu , u ≤ t. 7. ∗ Le passé de X est inclus dans le passé de η. Donc les meilleures prédictions possibles ηt+j pour ∗ les valeurs futures (j > 0) de η sont simplement ηt+j = 0. X est le filtré de η par le polynôme k(z) = 1 − 5z + 6z 2 = (1 − 2z)(1 − 3z). Le polynôme canonique associé est h(z) = (1 − 21 z)(1 − 13 z). Le bruit blanc d’innovation est celui pour lequel Xt = εt − 65 εt−1 + 16 εt−2 . Les fonctions représentant les εt sont z 7→ z t . Pour les Xt : z 7→ z t − 65 z t−1 + 61 z t−2 . Pour les ηt : z 7→ z t On a 1 − 65 z −1 + 16 z −2 1 − 5z −1 + 6z −2 1 − 65 z −1 + 16 z −2 1 1 − 5z + 6z 2 = 1 − 5z −1 + 6z −2 36 1 − 56 z + 61 z 2 45 1 X 45 80 1 −35 + 25z 1 80 zj − = 1 + =1+ = 1 + − 36 1 − 65 z + 61 z 2 36 1 − 21 z 36 2j 3j 1 − 13 z j≥0 ηt = 1 1 X εt + 36 36 j≥1 45 80 − j 2j 3 εt+j D’où les valeurs de Cov(ηt , εu ) comme coefficients de cette expansion. 29 c Jean-François Burnol, 2000. Université de Nice – Sophia Antipolis 8. X est le filtré de η par le polynôme k(z) = 1−3z−4z 2 +12z 3 = (1−3z)(1−4z 2 ) = (1−3z)(1−2z)(1+2z). Le polynôme canonique est donc h(z) = (1 − 13 z)(1 − 12 z)(1 + 21 z) = 1 − 13 z − 41 z 2 + représentant le bruit blanc d’innovation de X dans L (S , µ ) sont donc 2 z 7→ εt (z) := z t = 12 z t 1 η 1 1 1 k( z1 ) t (1 − 3 z )(1 − 2 z )(1 + 2 z ) = z h( z1 ) (1 − 31 z1 )(1 − 12 z1 )(1 + 12 z1 ) 1 (1 − 13 z)(1 − 21 z)(1 + 12 z) z 3 (1 − 31 z1 )(1 − 21 z1 )(1 + 12 z1 ) et sa variance est donc 12. Les fonctions représentant les εt dans L2 (S 1 , µX ) sont: z 7→ z t (1 − 11 3 z )(1 30 1 − 12 z1 )(1 + 11 2 z) 1 3 12 z . Les fonctions c Jean-François Burnol, 2000. Université de Nice – Sophia Antipolis Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles Feuille d’exercices 3 1. Exercice. Soit ε un BB de variance 1, ρ un nombre complexe de module strictement plus petit que 1 et X le AR(1) vérifiant Xt − ρXt−1 = εt . Dans l’espace L2 (S 1 , µε ) quelles sont les fonctions représentant les εt ? les Xt ? Quelle est la mesure spectrale de X ? Exprimer les auto-covariances de X en fonction de ρ. 2. Exercice. Soit η un BB de variance 1, ρ un nombre complexe de module strictement plus grand que 1 et X le AR(1) vérifiant Xt − ρXt−1 = ηt . Quel est le polynôme canonique de X, quelle est la relation entre X et son bruit blanc d’innovation ε = (εt )t∈Z ? Dans l’espace L2 (S 1 , µε ) quelles sont les fonctions représentant les εt ? les Xt ? les ηt ? Quelle est la mesure spectrale de X ? Exprimer les auto-covariances de X en fonction de ρ. 3. Exercice. On reprend les notations de l’exercice 1. Quelles sont les meilleures prédictions possibles des Xt+1 , Xt+2 , . . . connaissant les Xu , u ≤ t ? Et dans le cas de l’exercice 2? 4. Problème. Soit ε un BB de variance 1, et X le AR(2) vérifiant Xt − 14 Xt−2 = εt . Dans l’espace L2 (S 1 , µε ) quelles sont les fonctions représentant les εt ? les Xt ? On pose Yt = Xt − 21 Xt−1 et Zt = Xt + 12 Xt−1 . Montrer que Y et Z sont des AR(1) dont on donnera les polynômes canoniques et le bruit blanc d’innovation. Montre que X, Y , Z, et ε ont tous le même passé. Quelles sont les meilleures prédictions possibles des valeurs futures de Y et de Z connaissant les valeurs passées de X? En déduire les meilleures prédictions des valeurs futures de X connaissant ses valeurs passées (on utilisera: 2Xt = Yt + Zt ). 5. Exercice (*). Soit ε un BB de variance 1, et X le AR(2) vérifiant Xt − (λ1 + λ2 )Xt−1 + λ1 λ2 Xt−2 = εt , avec |λ1 | = 6 1, |λ2 | = 6 1, λ1 6= λ2 . Quelles sont les auto-covariances de X en fonction de λ1 et de λ2 ? (il y a 4 cas à traiter). Et si λ1 = λ2 ? 6. Problème (**). Soit ε un BB de variance 1, et X le AR(2) vérifiant Xt − Xt−1 + 14 Xt−2 = εt . Dans l’espace L2 (S 1 , µε ) quelles sont les fonctions représentant les εt ? les Xt ? On pose Yt = Xt − 21 Xt−1 . Montrer que Y est un AR(1) dont on donnera le polynôme canonique, le bruit blanc d’innovation, les meilleures prédictions possibles des valeurs futures connaissant les valeurs passées de X. On pose Wt = Xt − t · Yt . Montrer: Wt − 21 Wt−1 = −(t − 1) · εt . En déduire les meilleures prédictions des valeurs futures de W , puis de X, connaissant les valeurs passées de X. La série temporelle W est-elle stationnaire? 7. Problème (**). 1 Soit ε un BB de variance 1, et X le AR(3) vérifiant Xt − 13 Xt−1 − 41 Xt−2 + 12 Xt−3 = εt . On pose Yt = Xt − 14 Xt−2 , Zt = Xt − 56 Xt−1 + 61 Xt−2 et Wt = Xt + 16 Xt−1 − 61 Xt−2 . Montrer que Y , Z et W sont des AR(1) dont on donnera les polynômes canoniques et le bruit blanc d’innovation. Exprimer Xt comme combinaison linéaire de Yt , Zt et Wt et en déduire les meilleures prédictions pour ses valeurs futures. Université de Nice – Sophia Antipolis J.-F. Burnol 31 c Jean-François Burnol, 2000. Université de Nice – Sophia Antipolis Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles Feuille d’exercices 3 – Solutions 1. Pour εt : z 7→ z t , pour Xt : z 7→ autocovariances de X sont données par zt 1−ρ z1 . La mesure spectrale de X est dµX = γj = Cov(Xt+j , Xt ) = Par ailleurs Z z −j dθ 1 |1 − ρ z1 |2 2π X ρk X 1 ρ 1 1 ( ( + + ) = ρk z k ) 1 − |ρ|2 z − ρ 1 − ρz 1 − |ρ|2 zk k≥1 Donc pour j ≥ 0 on a γj = 1− 1 ρz Les 1 z 1 1 = 1 2 = 1 z − ρ 1 − ρz |1 − ρ z | (1 − ρ z )(1 − ρz) = 2. dθ 1 . |1−ρ z1 |2 2π j ρ 1−|ρ|2 tandis que pour j < 0 on a γj = k≥0 |j| ρ 1−|ρ|2 . X est le filtré de η par le polynôme k(z) = 1 − ρz, et le polynôme canonique est donc h(z) = = 1 − |ρ|ρ 2 z. Le bruit blanc d’innovation est tel que Xt − |ρ|ρ 2 Xt−1 = εt . Dans L2 (S 1 , µε ) les fonctions représentant les εt sont z 7→ z t . Pour Xt ce sont les z 7→ z 7→ z t zt ρ 1− |ρ| 2 1 z , et pour ηt ce sont 1 − ρz 1 − ρ z1 t ρ = −z z 1 − ρ1 z1 1 − |ρ|ρ 2 z1 Les autocovariances sont données par les formules de l’exercice 1, appliquées à 1 ρ au lieu de ρ, mais il faut faire attention à la variance de ε. D’après la formule ci-dessus la variance de η est |ρ|2 celle de ε. Donc la variance de ε est 1 |ρ|2 et ainsi 1 (j ≥ 0) γjX = 1 1 ρj = ρ−j 2 1 2 2 |ρ| 1 − | ρ | |ρ| − 1 (j < 0) γjX = 1 1 ρj = ρj 2 1 2 2 |ρ| 1 − | ρ | |ρ| − 1 3. ∗ D’après ce qui a été expliqué en cours Xt+j = ρj Xt pour j > 0. Pour l’exercice 2 (|ρ| > 1) la réponse ∗ est Xt+j = 4. 1+ 1 X ρj t (toujours pour j > 0). Pour εt : z 7→ z t . Pour Xt : z 7→ 1 2z zt 1− 41 z12 . Pour Yt : z 7→ z t (1 − 11 1 2 z ) 1− 41 1 z2 = zt 1 1+ 12 1 z . Le filtré de Y par est donc ε. Donc Y est un AR(1) et ε est son bruit blanc d’innovation (car la racine −2 de 1 + 12 z est en dehors du disque unité). Idem pour Z. X, Y , et Z ont donc tous ε comme bruit blanc d’innovation, donc ont toutes le même passé. Connaître le passé de X est donc équivalent à connaître le passé de Y et Université de Nice – Sophia Antipolis J.-F. Burnol 32 c Jean-François Burnol, 2000. Université de Nice – Sophia Antipolis ∗ ainsi Yt+j = 1 (−2)j Yt ∗ et Zt+j = 1 2j Zt . ∗ Pour j impair, cela donne 2Xt+j = 5. ∗ ∗ ∗ ∗ On a aussi 2Xt+j = Yt+j + Zt+j . Pour j pair cela donne Xt+j = 1 2j (−Yt + Zt ) = 1 2j Xt−1 ∗ d’où Xt+j = 1 2j X t . 1 2j+1 Xt−1 . Les auto-covariances de X sont γjX = Z z −j 1 dθ |1 − (λ1 + λ2 ) z1 + λ1 λ2 z12 |2 2π Notons h(z) = 1 − (λ1 + λ2 )z + λ1 λ2 z 2 . Supposons |λ1 | < 1, |λ2 | < 1. Alors pour |z| = 1: 1 1 1 1 1 1 = = |1 − (λ1 + λ2 ) z1 + λ1 λ2 z12 |2 |1 − λ1 z1 |2 |1 − λ2 z1 |2 1 − λ1 z1 1 − λ1 z 1 − λ2 z1 1 − λ2 z = Aλ1 Cλ2 z z B D 1 1 = + + + z − λ1 1 − λ1 z z − λ2 1 − λ2 z z − λ1 z − λ 1 − λ1 z 1 − λ2 z 2 X X 1 j j (Bλ1 + Dλ2 ) z j = (Aλj1 + Cλj2 )( )j + z j≥0 j≥1 pour certaines constantes A, B, C, D qui sont A= B= λ1 1 1 λ1 − λ2 1 − |λ1 |2 1 − λ2 λ1 λ1 λ1 1 1 1 = λ1 − λ2 1 − |λ1 |2 1 − λ1 λ2 λ1 − λ2 h(λ1 ) C=− D=− ce qui donne γjX (j ≥ 0) λ2 1 1 λ1 − λ2 1 − |λ2 |2 1 − λ1 λ2 1 1 λ2 λ2 1 =− 2 λ1 − λ2 1 − |λ2 | 1 − λ2 λ1 λ1 − λ2 h(λ2 ) j = Bλ1 + Dλ2 j 1 = λ1 − λ2 j+1 j+1 λ1 λ2 − h(λ1 ) h(λ2 ) ! X γjX = Aλ1 |j| + Cλ2 |j| = γ−j (j < 0) Tout cela est un petit peu compliqué, désolé. Je laisse aux enthousiastes les cas |λ1 | > 1 ou |λ2 | > 1. Avec h(z) = 1 + αz + βz 2 (α = −λ1 − λ2 , β = λ1 λ2 ) cela donne aussi γjX λ1 1 = h(λ1 )h(λ2 ) j+1 − λ2 j+1 j j + αλ1 λ2 (λ1 − λ2 ) + β(λ1 λ2 )2 (λ1 λ1 − λ2 j−1 − λ2 j−1 ) une expression qui permet de passer à la limite lorsque λ2 → λ1 ce dernier étant fixé, et avec à la limite α = −2λ1 , β = λ21 , h(λ1 ) = (1 − |λ1 |2 )2 , on obtient: γjX = 1 j j+1 j+2 λ + α j λ + β (j − 1) λ (j + 1) 1 1 1 h(λ1 )2 33 c Jean-François Burnol, 2000. Université de Nice – Sophia Antipolis γjX = j 1 λ1 1 + |λ1 |2 j j 4 jλ h(λ (1 − |λ | ) = ) + λ j + 1 1 1 1 (1 − |λ1 |2 )2 1 − |λ1 |2 h(λ1 )2 toujours pour j ≥ 0. Encore une fois, c’est un petit peu compliqué, désolé. 6. 1− Les εt : z 7→ z t , les Xt : z 7→ 1 2 z, zt . (1− 21 z1 )2 Les Yt : z 7→ zt 1− 21 1 z et ainsi Y est un AR(1) de polynôme canonique de bruit blanc d’innovation ε. Il a le même passé que X, et pour j > 0 les meilleures prédictions ∗ possibles sont Yt+j = ( 21 )j Yt . L’équation Wt − 21 Wt−1 = −(t − 1) · εt se vérifie par un calcul direct. Il en ∗ ∗ ∗ ∗ résulte Wt+j = ( 12 )j Wt pour j > 0 car ε∗t+j = 0. Ainsi Xt+j = Wt+j + (t + j) · Yt+j = ( 12 )j (Wt + (t + j) · Yt ) = ( 21 )j ((j + 1)Xt − 2j Xt−1 ). Non W n’est pas stationnaire, sinon ((t − 1)εt )t∈Z le serait. 7. Le polynôme canonique de X est h(z) = (1 − 13 z)(1 + 12 z)(1 − 21 z) et Y , Z, W sont des AR(1) de polynômes respectifs 1− 13 z, 1+ 21 z, 1− 12 z, de bruit blanc d’innovation ε. On obtient Xt = ∗ ∗ ∗ ∗ = (− 12 )j Zt , Wt+j = ( 12 )j Wt , puis Xt+j si l’on y tient. et de plus Yt+j = ( 13 )j Yt , Zt+j 34 −4 3 3 5 Yt + 10 Zt + 2 Wt c Jean-François Burnol, 2000. Université de Nice – Sophia Antipolis Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles Feuille d’exercices 4 1. On se donne un AR(1) X d’équation 1 Xt − Xt−1 = εt 5 Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . . connaissant le passé linéaire de X jusqu’à l’instant t ? 2. On reprend l’exercice précédent. On suppose que εt est de variance 1. Soient γj les autocovariances de X. Ce sont des nombres réels et γ−j = γj . Écrire les équations de Yule-Walker, en déduire les valeurs de γ0 et γ1 puis des autres autocovariances. 3. On se donne un bruit blanc ε de variance 1 et X le MA(3) vérifiant Xt = εt − εt−1 + 2εt−2 − 3εt−3 Que valent les autocovariances de X ? 4. Soit η un bruit blanc de variance 1 et X le MA(q) vérifiant Xt = 5ηt+5 − 10ηt−5 Quelle est la valeur minimale de q pour laquelle X est un MA(q)? Quelles sont les autocovariances de X ? 5. On reprend l’exercice précédent. Quelle est la relation entre X et son bruit blanc d’innovation ε ? Quelle est la variance de ε ? 6. Soit η un bruit blanc et X une SCCS telle que 3Xt+1 − 6Xt−1 = ηt Quelle est la valeur minimale de p pour laquelle X est un AR(p)? Quelle est la relation entre X et son bruit blanc d’innovation ε ? 7. On reprend l’exercice précédent, en supposant de plus que la variance γ0 de X est 1. Écrivez les équations de Yule-Walker pour les autocovariances de X. Calculez les valeurs de γ1 , . . . γ5 , ainsi que la variance de ε. 8. On suppose que X est un AR(2) d’équation 1 1 Xt − Xt−1 − Xt−2 = εt 2 4 Université de Nice – Sophia Antipolis J.-F. Burnol 35 c Jean-François Burnol, 2000. Université de Nice – Sophia Antipolis et que les valeurs suivantes successives ont été observées: 2, 1, 0, 1.25, 1.625, 0.125 la valeur 0 survenant à l’instant t = 0. Quelles sont vos prédictions pour les valeurs X4 , X5 , X6 ? 9. On continue avec l’exercice précédent. Un autre observateur ne s’est vu communiquer que X−2 = 2 et X−1 = 1. Quelles sont ses prédictions pour X0 , X1 , X2 , X3 , X4 , X5 , X6 ? Commentez. 10. Quelles sont les équations de Yule-Walker pour le X des deux exercices précédents (en sachant que ε est de variance 1)? Donnez les valeurs exactes de γ0 , . . . , γ5 . Par ailleurs quelles sont les valeurs empiriques que l’on déduit des valeurs numériques? Comparez. 36 c Jean-François Burnol, 2000. Université de Nice – Sophia Antipolis Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles Feuille d’exercices 4 – Solutions ∗ ∗ 1. Xt+1 = 51 Xt , Xt+2 = 1 25 Xt , ∗ Xt+3 = 1 125 Xt , etc. . . 2. γ0 − 15 γ−1 = 1, γ1 − 51 γ0 = 0, γ2 − 15 γ1 = 0, γ3 − 15 γ2 = 0. . . Les deux premières équations (compte tenu de γ1 = γ−1 ) donnent γ0 = 25 24 , γ1 = 5 24 puis γj = ( 15 )j γ0 . 3. γ0 = 1 + 1 + 4 + 9 = 15, γ1 = −1 − 2 − 6 = −9, γ2 = 2 + 3 = 5, γ3 = −3 et γj = 0 pour j > 3. 4. En posant κt = 5ηt+5 , on a Xt = κt − 2κt−10 (et κ est de variance 25). La valeur minimale de q est 10. Les autocovariances de X sont γ0 = (1 + 4) ∗ 25 = 125, γ1 = 0, . . . ,γ9 = 0, γ10 = −2 ∗ 25 = −50, γj = 0 pour j > 10. 5. κ n’est pas le bruit blanc d’innovation car le polynôme 1 − 2z 10 a ses racines a l’intérieur du disque unité. Le polynôme canonique vaut h(z) = 1 − 12 z 10 . La relation entre X et son bruit blanc d’innovation est donc Xt = εt − 21 εt−10 . La variance de X est donc 1 + 6. En posant κt = 1 3 ηt−1 1 4 celle de ε qui vaut donc 100. on obtient Xt − 2Xt−2 = κt . Donc p= 2. Le polynôme 1 − 2z 2 a ses racines a l’intérieur du disque unité. Le bon polynôme associé est 1 − 12 z 2 et la relation entre X et son bruit blanc d’innovation est Xt − 12 Xt−2 = εt . 7. Pour obtenir les équations de Yule-Walker il est indispensable d’utiliser la représentation canonique de X comme AR(2) qui le relie à son bruit blanc d’innovation: Xt − 12 Xt−2 = εt . Notons γ ε la variance de ε qui est inconnue pour le moment. Compte tenu de γ0 = 1, γ−1 = γ1 , γ−2 = γ2 , les équations de Yule-Walker donnent: γ0 − 21 γ2 = γ ε , γ1 − 21 γ1 = 0, γ2 − 12 γ0 = 0 donc γ2 = 12 , γ1 = 0, γ0 = 1, γ ε = 1 − γ3 = 12 γ1 = 0, γ4 = 21 γ2 = 1 4 8. X4∗ = 12 X3 + 41 X2 = = 0.46875, X5∗ = 12 X4∗ + 41 X3 = 15 32 = 1 2 = 0.5, X4! = 13 32 = 34 . Puis: et γ5 = 21 γ3 = 0. 17 64 = 0.265625, X6∗ = 12 X5∗ + 41 X4∗ = 9. Notons Xj! les prédictions du deuxième observateur. X0! = 1, X1! = X3! 1 4 = 0.40625, X5! = 21 64 = 0.328125, X6! = 17 64 3 4 = 0.75, X2! = 1 4 5 8 = 0.25. = 0.625, = 0.265625. Pour pouvoir faire des prédictions significatives il faudrait que le bruit blanc d’innovation ait une variance sensiblement plus petite que celle de X, puisque le principe de la prédiction est d’utiliser ε∗t+j = 0 pour j > 0, et cette estimation est d’autant meilleure que la variance de εt+j est petite. Or ce n’est pas le cas ici (l’exercice suivant montre que la variance de ε est à peu près la moitié de celle de X). Les deux observateurs sont affectés au même titre par ce problème. Le fait que X6! et X6∗ soient proches est une coïncidence (d’ailleurs X2! et X3! sont nettement distincts de X2 et X3 ). Université de Nice – Sophia Antipolis J.-F. Burnol 37 c Jean-François Burnol, 2000. Université de Nice – Sophia Antipolis 10. γ0 − 12 γ1 − 41 γ2 = 1, γ1 − 21 γ0 − 41 γ1 = 0, γ2 − 12 γ1 − 41 γ0 = 0, γj+2 − 21 γj+1 − 14 γj = 0 pour j > 0. Les trois premières équations donnent γ0 = 1 + puis on obtient γ3 = 2 22 25 2 = 0.88, γ4 = 18 25 23 25 = 1.92, γ1 = 1 + = 0.72, γ5 = 2 29 50 7 25 = 1.28, γ2 = 1 + 3 25 = 1.12, = 0.58. Les valeurs empiriques sont γb0 = (4 + 1 + 0 + 1.25 + 1.625 + 0.125 )/6 = 1.53649, γb1 = (2 + 0 + 0 + 1.25 ∗ 1.625 + 1.625 ∗ 0.125)/5 = 0.84688, γb2 = (0 + 1.25 + 0 + 1.25 ∗ 0.125)/4 = 0.35157, γb3 = (2 ∗ 1.25 + 1 ∗ 1.625 + 0)/3 = 1.375, γb4 = (2 ∗ 1.625 + 1 ∗ 0.125)/2 = 1.6875, γb5 = (2 ∗ 0.125) = 0.250. Les différences par rapport aux vraies valeurs sont importantes, même pour γ0 et γ1 . Il faudrait au moins une bonne vingtaine de valeurs successives de X pour que le calcul des covariances empiriques ait une réelle signification. 38 c Jean-François Burnol, 2000. Université de Nice – Sophia Antipolis Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles Feuille d’exercices 5 NOTE: je vous encourage à modifier les données numériques (vous constaterez mon manque d’originalité) et à résoudre de multiples fois ces exercices. Vous aurez besoin d’une calculette, et/ou de savoir inverser une matrice 2×2 (3×3 dans le dernier problème). Dans chaque exercice on suppose que la variance de ε vaut 1, et on veut la meilleure estimation de Xt pour certains instants (et la variance de l’erreur commise) compte-tenu des valeurs observées en d’autres instants. Il faudra commencer par calculer certaines autocovariances de la série cov–stationnaire X. Problème 1. Xt − 12 Xt−1 = εt a. X0 = 1, estimer Xt pour t = −2, −1, 1, 2. b. X0 = 1, X1 = −1, estimer Xt pour t = −2, −1, 2, 3. c. X0 = 1, X2 = −1, estimer Xt pour t = −2, −1, 1, 3. d. X0 = 1, X3 = −1, estimer Xt pour t = 1, 2. Problème 2. Xt = εt + 12 εt−1 a. X0 = 1, estimer Xt pour t = −2, −1, 1, 2. b. X0 = 1, X1 = −1, estimer Xt pour t = −2, −1, 2, 3. c. X0 = 1, X2 = −1, estimer Xt pour t = −2, −1, 1, 3. d. X0 = 1, X3 = −1, estimer Xt pour t = 1, 2. 1 8 Xt−1 + 15 Xt−2 = εt Problème 3. Xt − 15 a. X0 = 1, estimer Xt pour t = −2, −1, 1, 2. b. X0 = 1, X1 = −1, estimer Xt pour t = −2, −1, 2, 3. c. X0 = 1, X2 = −1, estimer Xt pour t = −2, −1, 1, 3. d. X0 = 1, X3 = −1, estimer Xt pour t = 1, 2. Problème 4. Xt − 13 Xt−1 = εt a. X0 = 1, X1 = −1, X2 = 0, estimer Xt pour t = −2, −1, 3, 4. b. X0 = 1, X2 = 0, X4 = −1, estimer Xt pour t = −1, 1, 3, 5. c. X0 = 1, X12 = −1, X24 = 0, estimer X6 et X18 . Université de Nice – Sophia Antipolis J.-F. Burnol 39 c Jean-François Burnol, 2000. Université de Nice – Sophia Antipolis 40 Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles Examen blanc du 21 mars 2000 1. Soit ε un bruit blanc et X le MA(1) défini selon 1 Xt = εt − εt−1 7 Exprimez εt en fonction de Xt , Xt−1 , Xt−2 , etc. . . 2. Soit ε un bruit blanc et X le MA(1) défini selon 1 Xt = εt − εt−1 5 Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . . en fonction de Xt , Xt−1 , Xt−2 , etc. . . ? 3. Soit η un bruit blanc et X le MA(1) défini selon Xt = ηt − 5ηt−1 Quelle est la relation entre X et son bruit blanc d’innovation? Quelle est la meilleure prédiction possible pour Xt+1 en fonction de Xt , Xt−1 , Xt−2 , etc. . . ? 4. Soit η un BB de variance 1, soit k(z) = 1 + 5z + 6z 2 et X le MA(2) obtenu en filtrant η par le polynôme k. Comment s’exprime X en fonction de η? Que valent les autocovariances de X? Quelle est la relation entre X et son bruit blanc d’innovation? 5. On se donne un AR(1) X d’équation 1 Xt − Xt−1 = εt 3 Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . . connaissant le passé linéaire de X jusqu’à l’instant t ? 6. On reprend l’exercice précédent. On suppose que εt est de variance 1. Soient γj les autocovariances de X. Ce sont des nombres réels et γ−j = γj . Écrire les équations de Yule-Walker, en déduire les valeurs de γ0 et γ1 puis des autres autocovariances. 7. Soit ε un bruit blanc et X le AR(2) telle que Xt − 9 1 Xt−1 + Xt−2 = εt 20 20 Université de Nice – Sophia Antipolis J.-F. Burnol 41 Soient Y et Z définis selon 1 Yt = Xt − Xt−1 4 1 Zt = Xt − Xt−1 5 Montrez que Y et Z sont des AR(1) (calculez Yt − 51 Yt−1 et Zt − 14 Zt−1 ). Trouvez α et β de sorte que Xt = αYt + βZt . 8. On reprend l’exercice précédent. Montrer que X, Y , Z ont toutes le même passé (à chaque instant). Quelles sont les meilleures prédictions possibles pour Yt+1 , Yt+2 , etc. . . et Zt+1 , Zt+2 , etc. . . connaissant H≤t (X) ? Et quelles sont les meilleures prédictions pour Xt+1 , Xt+2 , etc. . . ? 9. Soit ε un bruit blanc de variance 1 et X le AR(2) tel que Xt − 1 7 Xt−1 + Xt−2 = εt 12 12 Écrivez les équations de Yule-Walker pour les autocovariances de X. Calculez les valeurs de γ0 , γ1 , γ2 puis de γ3 . . . γ6 . 10. Soit η un bruit blanc et X un AR(2) de variance 1 tel que Xt − 7 Xt−1 + 12 Xt−2 = ηt Quelle est la relation entre X et son bruit blanc d’innovation ε? Quelle est la variance de ε? 11. Soit η un bruit blanc. Existe-t-il une série temporelle à covariances stationnaires telle que ∀t Xt − 1 3 Xt−1 + Xt−2 = ηt 2 2 12. Un AR(p) peut-il être simultanément un MA(q) ? Justifiez. 42 ? Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles Examen blanc du 21 mars 2000 – Solutions 1. Soit ε un bruit blanc et X le MA(1) défini selon 1 Xt = εt − εt−1 7 Exprimez εt en fonction de Xt , Xt−1 , Xt−2 , etc. . . εt = ∞ X 1 ( )j Xt 7 j=0 2. Soit ε un bruit blanc et X le MA(1) défini selon 1 Xt = εt − εt−1 5 Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . . en fonction de Xt , Xt−1 , Xt−2 , etc. . . ? ∞ 1X 1 j 1 ∗ ( ) Xt Xt+1 = − εt = − 5 5 j=0 5 ∗ ∗ ∗ Xt+2 = Xt+3 = Xt+4 = ... = 0 3. Soit η un bruit blanc et X le MA(1) défini selon Xt = ηt − 5ηt−1 Quelle est la relation entre X et son bruit blanc d’innovation? Quelle est la meilleure prédiction possible pour Xt+1 en fonction de Xt , Xt−1 , Xt−2 , etc. . . ? 1 Xt = εt − εt−1 5 ∞ 1X 1 j ∗ Xt+1 = − ( ) Xt 5 j=0 5 4. Soit η un BB de variance 1, soit k(z) = 1 + 5z + 6z 2 et X le MA(2) obtenu en filtrant η par le polynôme k. Comment s’exprime X en fonction de η? Que valent les autocovariances de X? Quelle est la relation entre X et son bruit blanc d’innovation? Université de Nice – Sophia Antipolis J.-F. Burnol 43 Xt = ηt + 5 ηt−1 + 6 ηt−2 γ0 = 62 γ1 = 35 γ2 = 6 γj = 0 pour j > 2 Le polynôme filtrant est k(z) = 1 + 5 z + 6 z 2 = (1 + 2z)(1 + 3z). Le polynôme canonique associé est h(z) = (1 + 21 z)(1 + 31 z) = 1 + 56 z + 61 z 2 et ainsi X t = εt + 5 1 εt−1 + εt−2 6 6 5. On se donne un AR(1) X d’équation 1 Xt − Xt−1 = εt 3 Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . . connaissant le passé linéaire de X jusqu’à l’instant t ? 1 ∗ Xt+j = ( )j Xt 3 6. On reprend l’exercice précédent. On suppose que εt est de variance 1. Soient γj les autocovariances de X. Ce sont des nombres réels et γ−j = γj . Écrire les équations de Yule-Walker, en déduire les valeurs de γ0 et γ1 puis des autres autocovariances. 1 γ0 − γ−1 = 1 3 1 γ1 − γ0 = 0 3 1 γj+1 − γj = 0 3 9 γ0 = 8 9 1 j γj = ( ) 8 3 7. Soit ε un bruit blanc et X le AR(2) telle que Xt − 1 9 Xt−1 + Xt−2 = εt 20 20 44 Soient Y et Z définis selon 1 Yt = Xt − Xt−1 4 1 Zt = Xt − Xt−1 5 Montrez que Y et Z sont des AR(1) (calculez Yt − 51 Yt−1 et Zt − 14 Zt−1 ). Trouvez α et β de sorte que Xt = αYt + βZt . 1 9 1 Yt − Yt−1 = Xt − Xt−1 + Xt−2 = εt 5 20 20 9 1 1 Zt − Zt−1 = Xt − Xt−1 + Xt−2 = εt 4 20 20 Xt = −4 Yt + 5 Zt 8. On reprend l’exercice précédent. Montrer que X, Y , Z ont toutes le même passé (à chaque instant). Quelles sont les meilleures prédictions possibles pour Yt+1 , Yt+2 , etc. . . et Zt+1 , Zt+2 , etc. . . connaissant H≤t (X) ? Et quelles sont les meilleures prédictions pour Xt+1 , Xt+2 , etc. . . ? X, Y , Z ont le même bruit blanc d’innovation, donc le même passé à chaque instant. 1 ∗ Yt+j = ( )j Yt 5 ∗ ∗ Xt+j = −4 Yt+j 1 ∗ Zt+j = ( )j Zt 4 1 1 1 1 1 1 ∗ + 5 Zt+j = −4 ( )j Yt + 5 ( )j Zt = −4 ( )j (Xt − Xt−1 ) + 5 ( )j (Xt − Xt−1 ) 5 4 5 4 4 5 1 1 1 1 ∗ Xt+j = (−4 ( )j + 5 ( )j )Xt + (( )j − ( )j )Xt−1 5 4 5 4 9. Soit ε un bruit blanc de variance 1 et X le AR(2) tel que Xt − 1 7 Xt−1 + Xt−2 = εt 12 12 Écrivez les équations de Yule-Walker pour les autocovariances de X. Calculez les valeurs de γ0 , γ1 , et γ2 . 7 1 γ−1 + γ−2 = 1 12 12 7 1 7 (Y W1 ) γ1 − γ0 + γ−1 = 0 ⇒ γ1 = γ0 12 12 13 7 1 3 (Y W2 ) γ2 − γ1 + γ0 = 0 ⇒ γ2 = γ0 12 12 13 55 78 Y W0 ⇒ γ0 = 1 ⇒ γ0 = 78 55 42 18 γ1 = γ2 = 55 55 (Y W0 ) γ0 − 45 10. Soit η un bruit blanc et X un AR(2) de variance 1 tel que Xt − 7 Xt−1 + 12 Xt−2 = ηt Quelle est la relation entre X et son bruit blanc d’innovation ε? Quelle est la variance de ε? Le polynôme filtrant est k(z) = 1 − 7 z + 12 z 2 = (1 − 3z)(1 − 4z). Le polynôme canonique associé est h(z) = (1 − 31 z)(1 − 41 z) = 1 − 7 12 z + 1 2 12 z et ainsi Xt − 7 1 Xt−1 + Xt−2 = εt 12 12 D’ après l’exercice précédent la variance de X est de celui-ci vaut dont 78 55 fois celle de son bruit blanc d’innovation. La variance 55 78 . 11. Soit η un bruit blanc. Existe-t-il une série temporelle à covariances stationnaires telle que ∀t Xt − 1 3 Xt−1 + Xt−2 = ηt 2 2 Non, car le polynôme filtrant k(z) = 1 − 32 z + 1 2 ? z 2 vérifie k(1) = 0 et a donc une racine sur le cercle unité, ce qui est interdit pour un AR(p). 12. Un AR(p) peut-il être simultanément un MA(q) ? Justifiez. Seul un bruit blanc est simultanément un AR(p) et un MA(q). On peut, par exemple, le montrer ainsi: supposons que X soit un AR(p) et un MA(q). Il existe donc un polynôme h1 (z) de degré q1 ≤ q qui filtre un bruit blanc ε1 en X, et un polynôme h2 (z) de degré p2 ≤ p qui filtre X en un deuxième bruit blanc ε2 . P Mais alors ε2 est le filtré de ε1 par le polynôme k(z) = h1 (z)h2 (z) = 0≤j≤d φj z j de degré exact d = q1 + p2 (et φ0 = 1). La dième autocovariance de ε2 vaut ainsi φd qui est non nul, et ceci impose d = 0 car ε2 est un bruit blanc. Donc q1 = p2 = 0 et X = ε1 = ε2 . 46 NOM: PRÉNOM: né(e) le: à: REPLIEZ ET AGRAFEZ Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles Université de Nice – Sophia Antipolis J.-F. Burnol Partiel du 2 mai 2000 Tous documents autorisés. Il y a six problèmes pour un total de 24 points (toute note audessus de 20 sera arrondie à 20/20). Toutes les réponses numériques doivent être justifiées par un calcul. Vous disposez de 90 minutes. Problème 1: points. Problème 2: points. Problème 3: points. Problème 4: points. Problème 5: points. Problème 6: points. NOTE: 47 Problème 1. (5 points) Soit η un bruit blanc de variance 1 et X le MA(1) défini selon Xt = ηt − 2ηt−1 1a. Quelles sont les autocovariances de X? 1b. Quelle est la relation MA(1) entre X et son bruit blanc d’innovation ε? 1c. Quelle est la variance de ε ? 1d. Exprimez εt en fonction des valeurs passées de X. bt+1|t , X bt+2|t , . . . en fonction de Xt , Xt−1 , . . .. 1e. Exprimez les prévisions optimales X Problème 2. (5 points) Soit η un bruit blanc et X le AR(1) de variance 1 vérifiant Xt − 3Xt−1 = ηt 2a. Comment s’exprime X en fonction des valeurs passées de son bruit blanc d’innovation ε? 2b. On suppose avoir observé X−5 , . . . , X0 = −1, 0.6, 1.2, −0.6, 0.75, 0.27. Quelles sont les valeurs numéb1|0 et X b2|0 ? riques des prédictions optimales X 2c. Quelle est la variance de ε ? 2d. Comment s’exprime X en fonction des valeurs futures de η ? 2e. Quelle est la variance de η ? Problème 3. (5 points) Soit ε un bruit blanc de variance γ ε et X le AR(2) vérifiant Xt − 1 8 Xt−1 + Xt−2 = εt 15 15 3a. On suppose que X est de variance 1. Quelles sont les équations de Yule-Walker reliant γ ε , γ0 (= 1), γ1 , γ2 ? 3b. Que valent γ ε , γ1 , γ2 ? 3c. Trouvez A et B de sorte que 1 (1− 13 z)(1− 51 z) = A (1− 31 z) + B . (1− 15 z) 3d. Donnez les valeurs de c0 , c1 , c2 dans l’expression Xt = c0 εt + c1 εt−1 + c2 εt−2 + . . . bt+1|t en fonction des εt+1 , εt , . . .? Même question pour Xt+2 − X bt+2|t (en 3e. Comment s’exprime Xt+1 − X fonction des εt+2 , εt+1 , . . .). Quelle est sa variance? Problème 4. (3 points) Soit η un bruit blanc et X le ARMA(1,1) vérifiant 1 Xt − 2Xt−1 = ηt + ηt−1 2 4a. Quelle est la relation ARMA entre X et son bruit blanc d’innovation ε ? 4b. Exprimez Xt en fonction de εt , εt−1 , . . .. 4c. Exprimez εt en fonction de Xt , Xt−1 , . . . Problème 5. (3 points) Soit X un ARMA(p,q). Soit Y la série cov-stationnaire définie par ∀t Yt = X−t . Montrez que Y est aussi un ARMA(p,q). Problème 6. (3 points) Soit X une série cov-stationnaire et Y son filtré par 1 − 12 z, c’est-à-dire ∀t Yt = Xt − 12 Xt−1 . Montrez que X et Y ont le même bruit blanc d’innovation. 48 NOM: PRÉNOM: né(e) le: à: REPLIEZ ET AGRAFEZ Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles Université de Nice – Sophia Antipolis J.-F. Burnol Partiel du 2 mai 2000 Tous documents autorisés. Il y a six problèmes pour un total de 24 points (toute note audessus de 20 sera arrondie à 20/20). Toutes les réponses numériques doivent être justifiées par un calcul. Vous disposez de 90 minutes. CORRIGÉ Problème 1. (5 points) Soit η un bruit blanc de variance 1 et X le MA(1) défini selon Xt = ηt − 2ηt−1 1a. Quelles sont les autocovariances de X? 1b. Quelle est la relation MA(1) entre X et son bruit blanc d’innovation ε? 1c. Quelle est la variance de ε ? 1d. Exprimez εt en fonction des valeurs passées de X. bt+1|t , X bt+2|t , . . . en fonction de Xt , Xt−1 , . . .. 1e. Exprimez les prévisions optimales X 1a. γ0 = 5, γ±1 = −2, les autres sont nuls. 1b. Xt = εt − 12 εt−1 1c. 5 = (1 + 41 )γ ε ⇒ γ ε = 4. 1d. εt = P 1 j≥0 2j Xt−j . bt+1|t = − 1 εt = − P 1e. X j≥0 2 1 2j+1 Xt−j . bt+δ|t = 0 pour δ ≥ 2. X Problème 2. (5 points) Soit η un bruit blanc et X le AR(1) de variance 1 vérifiant Xt − 3Xt−1 = ηt 49 2a. Comment s’exprime X en fonction des valeurs passées de son bruit blanc d’innovation ε? 2b. On suppose avoir observé X−5 , . . . , X0 = −1, 0.6, 1.2, −0.6, 0.75, 0.27. Quelles sont les valeurs numéb1|0 et X b2|0 ? riques des prédictions optimales X 2c. Quelle est la variance de ε ? 2d. Comment s’exprime X en fonction des valeurs futures de η ? 2e. Quelle est la variance de η ? 2a. Xt − 31 Xt−1 = εt ⇒ Xt = P 1 j≥0 3j εt−j . b1|0 = 0.27/3 = 0.09 et X b2|0 = 0.09/3 = 0.03. 2b. X 2c. YW: 1 − 13 γ1 = γ ε , γ1 − 1 3 = 0 ⇒ γ1 = 2d. Xt = − 13 ηt+1 + 31 Xt+1 ⇒ Xt = − 2e. 1 = γ η ( 19 + 1 92 + 1 93 P 1 3 et donc γ ε = 89 . 1 j≥1 3j ηt+j . + . . .) ⇒ γ η = 8. Problème 3. (5 points) Soit ε un bruit blanc de variance γ ε et X le AR(2) vérifiant Xt − 1 8 Xt−1 + Xt−2 = εt 15 15 3a. On suppose que X est de variance 1. Quelles sont les équations de Yule-Walker reliant γ ε , γ0 (= 1), γ1 , γ2 ? 3b. Que valent γ ε , γ1 , γ2 ? 3c. Trouvez A et B de sorte que 1 (1− 13 z)(1− 51 z) = A (1− 31 z) + B . (1− 15 z) 3d. Donnez les valeurs de c0 , c1 , c2 dans l’expression Xt = c0 εt + c1 εt−1 + c2 εt−2 + . . . bt+1|t en fonction des εt+1 , εt , . . .? Même question pour Xt+2 − X bt+2|t (en 3e. Comment s’exprime Xt+1 − X fonction des εt+2 , εt+1 , . . .). Quelle est sa variance? 8 1 8 1 8 1 3a. et 3b. 1 − 15 γ1 + 15 γ2 = γ ε , γ1 − 15 + 15 γ1 = 0 ⇒ γ1 = 12 , γ2 − 15 γ1 + 15 = 0 ⇒ γ2 = 51 , donc γ ε = 56 75 . 3c. A = 52 , B = − 23 . 3d. 1 (1− 31 z)(1− 15 z) = 52 (1 + 31 z + 91 z 2 + . . .) − 23 (1 + 15 z + 1 2 25 z + . . .) = 1 + 8 15 z + 49 2 225 z + ... bt+1|t = εt+1 , Xt+2 − X bt+2|t = εt+2 + c1 εt+1 . Sa variance est donc (1 + ( 8 )2 ) 56 = 3e. Xt+1 − X 15 75 0.959 . . . Problème 4. (3 points) Soit η un bruit blanc et X le ARMA(1,1) vérifiant 1 Xt − 2Xt−1 = ηt + ηt−1 2 4a. Quelle est la relation ARMA entre X et son bruit blanc d’innovation ε ? 50 23 ·7·172 33 ·54 = 4b. Exprimez Xt en fonction de εt , εt−1 , . . .. 4c. Exprimez εt en fonction de Xt , Xt−1 , . . . 4a. Xt − 21 Xt−1 = εt + 12 εt−1 . 4b. 1+ 12 z 1− 12 z = −1 + 4c. εt = Xt + P 2 1− 21 z = 1 + z + 12 z 2 + 41 z 3 + . . .. Donc Xt = εt + 1 j j≥1 2j−1 (−1) Xt−j . P 1 j≥1 2j−1 εt−j . Problème 5. (3 points) Soit X un ARMA(p,q). Soit Y la série cov-stationnaire définie par ∀t Yt = X−t . Montrez que Y est aussi un ARMA(p,q). Supposons (avec ap 6= 0, bq 6= 0) Xt + a1 Xt−1 + . . . + ap Xt−p = εt + b1 εt−1 + . . . + bq εt−q Cela donne Y−t + a1 Y−t+1 + . . . + ap Y−t+p = εt + b1 εt−1 + . . . + bq εt−q En remplaçant t par −t cela donne Yt + a1 Yt+1 + . . . + ap Yt+p = ε−t + b1 ε−t−1 + . . . + bq ε−t−q Yt+p + 1 1 b1 bq ap−1 Yt+p−1 + . . . + Yt = ε−t + ε−t−1 + . . . + ε−t−q ap ap ap ap ap puis en remplaçant t par t − p: Yt + 1 1 b1 bq ap−1 Yt−1 + . . . + Yt−p = ε−t+p + ε−t+p−1 + . . . + ε−t+p−q ap ap ap ap ap Pour conclure on pose ηt = Yt + bq ap ε−t+p−q qui est un bruit blanc, et on obtient: ap−1 1 bq−1 1 Yt−1 + . . . + Yt−p = ηt + ηt−1 + . . . + ηt−q ap ap bq bq ce qui montre que Y est un ARMA(p,q). Problème 6. (3 points) Soit X une série cov-stationnaire et Y son filtré par 1 − 12 z, c’est-à-dire ∀t Yt = Xt − 12 Xt−1 . Montrez que X et Y ont le même bruit blanc d’innovation. Comme ∀t Yt = Xt − 12 Xt−1 on a ∀t H≤t (Y ) ⊂ H≤t (X). Et comme Xt = P 1 j≥0 2j Yt−j on a aussi ∀t H≤t (X) ⊂ H≤t (Y ). Donc ∀t H≤t (Y ) = H≤t (X). Notons Pt la projection orthogonale sur H≤t (Y ) = H≤t (X). On a εt = Xt − Pt−1 (Xt ) pour le bruit blanc d’innovation de X et pour le bruit blanc d’innovation de Y : ηt = Yt − Pt−1 (Yt ) = Xt − 12 Xt−1 − Pt−1 (Xt − 21 Xt−1 ) = Xt − 21 Xt−1 − Pt−1 (Xt ) + 12 Xt−1 = εt . QED. 51 52 Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Séries temporelles Université de Nice – Sophia-Antipolis J.-F. Burnol Examen du 31 mai 2000 Documents et calculatrices autorisés. Il y a huit problèmes, comprenant vingt-quatre questions. Chacune rapporte 1 point. Problème 1. Soit ε un bruit blanc de variance 1 et X le AR(1) vérifiant 1 Xt − Xt−1 = εt 5 1a. Quelles sont les autocovariances de X ? bt+1|t , X bt+2|t , . . . en fonction de Xt , Xt−1 , . . .. 1b. Exprimez les prévisions optimales X 1c. Exprimez Xt en fonction des valeurs passées de ε. bt+δ|t |2 ) ? 1d. Soit δ ≥ 1. Que vaut E(|Xt+δ − X Problème 2. Soit ε un bruit blanc de variance 66 et X le AR(2) vérifiant Xt − 3 1 Xt−1 − Xt−2 = εt 10 10 2a. Que valent γ0X , γ1X , γ2X ? 2b. Soit Yt = Xt − 12 Xt−1 et Zt = Xt + 51 Xt−1 . Montrez que Y et Z sont des AR(1). 2c. Exprimez les prévisions optimales des valeurs futures de Y et de Z en fonction des valeurs passées de X (jusqu’à l’instant t). 2d. On a observé X0 = 100 et X1 = −50. Quelle est la meilleure prévision pour X4 ? 53 Problème 3. Soit η un bruit blanc et X le MA(2) vérifiant Xt = ηt − 6ηt−1 + 8ηt−2 3a. Quelles sont les racines et co-racines de 1 − 6z + 8z 2 ? 3b. Quelle est la relation MA(2) entre X et son bruit blanc d’innovation ε ? 3c. Trouvez A et B de sorte que 1 (1− 12 z)(1− 41 z) = A (1− 21 z) + B . (1− 14 z) 3d. Exprimez εt en fonction de Xt , Xt−1 , . . . Problème 4. Soit ε un bruit blanc et X le ARMA(1,1) vérifiant 1 1 Xt − Xt−1 = εt − εt−1 3 2 4a. Soit Y le AR(1) vérifiant Yt − 13 Yt−1 = εt . Montrez: Xt = Yt − 21 Yt−1 . 4b. Exprimez γ0X en fonction de γ0Y et γ1Y . 4c. On suppose que ε est de variance 1. Calculez γ0Y , γ1Y déduisez-en γ0X . Problème 5. Soit ε un bruit blanc et X le AR(1) de variance 90 vérifiant 1 Xt − Xt−1 = εt 3 4a. Que valent γ1X et γ2X ? b1 et l’erreur E(|X1 − X b1 |2 ) ? 4b. On a observé X0 et X2 . Quelle est la valeur optimale X 54 Problème 6. Soit η un bruit blanc et X le MA(1) de variance 90 vérifiant Xt = ηt + 3ηt−1 4a. Que valent les autocovariances de X ? b1 et l’erreur E(|X1 − X b1 |2 ) ? 4b. On a observé X0 et X2 . Quelle est la valeur optimale X Problème 7. Soit ε un bruit blanc de variance 1 et X le MA(1) vérifiant 1 Xt = εt − εt−1 2 Soit Y une série non-stationnaire vérifiant Yt − Yt−1 = Xt 4a. Exprimez pour t > 0 Yt en fonction de Y0 , ε0 , . . . , εt . 4b. On supposera que εu pour u > 0 n’est pas corrélé avec Y0 . Soit Ybt|0 (pour t > 0) la meilleure estimation possible de Yt sur la base des valeurs passées Y0 , Y−1 , . . . . Que vaut E(|Yt − Ybt|0 |2 ) ? Problème 8. On fait N mesures répétées d’une grandeur physique X. Cette grandeur ne change pas et on la représente donc comme une variable aléatoire constante (de valeur x ∈ R; et on supposera x > 0). Chaque mesure Yi vaut X + Wi avec des erreurs Wi mutuellement indépendantes, d’espérance nulle et toutes avec la même variance γ = qx2 pour un certain q > 0. 4a. Montrez que l’inverse de la matrice N × N avec 1 + q sur la diagonale et 1 partout ailleurs est 1 q(N +q) fois la matrice avec N − 1 + q sur la diagonale et −1 partout ailleurs. bN de X comme combinaison linéaire de Y1 , Y2 , . . . , YN ? (on 4b. Quelle est la meilleure estimation X admettra si besoin est le résultat de la question précédente). Quelle est l’erreur associée ? 4c. Soit ZN l’estimateur sans biais Y1 +...+YN N bN |2 ) < E(|X − ZN |2 ). . Vérifiez E(|X − X FIN 55 Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Séries temporelles Université de Nice – Sophia-Antipolis J.-F. Burnol CORRIGÈ – Examen du 31 mai 2000 – CORRIGÈ Documents et calculatrices autorisés. Il y a huit problèmes, comprenant vingt-quatre questions. Chacune rapporte 1 point. Problème 1. 1a. Par YW on a γ0 − 51 γ1 = 1 et γ1 − 51 γ0 = 0, donc γ0 = bt+δ|t = 1b. X 1c. Xt = 25 24 , γ1 = 5 24 , et γj = 25 1 24 5j pour j > 1. 1 X. 5δ t P 1 j≥0 5j εt−j . 1 2 bt+δ|t |2 ) = P 1d. E(|Xt+δ − X 0≤j<δ ( 5j ) = 2a. 25 24 (1 − 1 ) 25δ Problème 2. 3 γ1 − 10 3 γ1 − γ0 − 10 3 γ2 − γ1 − 10 γ0 − 1 γ2 = 66 10 1 γ1 = 0 10 1 γ0 = 0 10 donc γ1 = 31 γ0 et γ2 = 15 γ0 puis γ0 = 75, γ1 = 25, γ2 = 15. 2b. On calcule Yt + 15 Yt−1 = εt et Zt − 21 Zt−1 = εt . Bien sûr Y et Z sont cov–stationnaires, donc ce sont des AR(1), de bruit blanc d’innovation ε. δ 2c. Comme Y et Z ont le même bruit blanc d’innovation que X, elles ont le même passé. Ybt+δ|t = ( −1 5 ) Yt bt+δ|t = ( 1 )δ Zt . et Z 2 b2 = (3(−50) + 100)/10 = −5, X b3 = (3(−5) + (−50))/10 = −6.5, X b4 = (3(−6.5) + (−5))/10 = −2.45. 2d. X b4 = 1 (2Yb4 + 5Zb4 ). On a Y1 = −100 et Z1 = −30, donc Autre méthode: on a Xt = 1 (2Yt + 5Zt ) donc X 7 3 Yb4 = ( −1 5 ) (−100) = 4 5 7 b4 = ( 1 )3 (−30) = − 15 donc finalement X b4 = 1 ( 8 − et Z 2 4 7 5 56 75 4 ) 49 = − 20 = −2.45. Problème 3. 3a. 1 − 6z + 8z 2 = (1 − 2z)(1 − 4z) donc les racines sont 1 2 et 1 4 et les co-racines sont 2 et 4. 3b. Le polynôme canonique est h(z) = (1 − 21 z)(1 − 41 z) = 1 − 34 z + 81 z 2 donc Xt = εt − 43 εt−1 + 81 εt−2 3c. 1 (1− 21 z)(1− 14 z) 3d. εt = P = 2 j≥0 ( 2j 2 1− 21 z − − 1 . 1− 41 z 1 4j )Xt−j . Problème 4. 4a. Posons: Zt = Yt − 12 Yt−1 , alors Z est cov-stationnaire et vérifie Zt − 31 Zt−1 = εt − 21 εt−1 . Elle est donc identique avec X (par le théorème d’unicité). 4b. γ0X = (1 + 14 )γ0Y − γ1Y . 4c. γ0Y = 1/(1 − 91 ) = 98 , γ1Y = 3 8 donc γ0X = 59 48 − 3 8 = 33 32 . Problème 5. 4a. γ1X = 90 3 = 30 et γ2X = 30 3 = 10. b1 = αX0 + βX2 avec 4b. X [α β] = [30 30] b1 = donc X 3 10 X0 + 3 10 X2 . 90 10 10 90 −1 = [30 30] 3 3 1 1 9 −1 =[ ] 10 80 −1 9 10 10 De plus b1 |2 ) = 90 − [α β] 30 = 90 − 18 = 72 E(|X1 − X 30 Problème 6. 5a. 90 = γ0X = 10γ0ε donc γ0ε = 9 et γ1X = 3γ0ε = 27. Comme X est un MA(1) γjX = 0 pour j > 1. b1 = αX0 + βX2 avec 5b. X 90 [α β] = [27 27] 0 b1 = donc X 3 10 X0 + 3 10 X2 . 0 90 −1 3 3 1 1 0 =[ = [27 27] ] 90 0 1 10 10 De plus b1 |2 ) = 90 − [α β] 27 = 90 − 162 = 738 E(|X1 − X 27 10 10 57 Problème 7. 4a. Yt = Y0 + X1 + . . . + Xt 1 1 1 Yt = Y0 + (− ε0 + ε1 ) + (− ε1 + ε2 ) + . . . + (− εt−1 + εt ) 2 2 2 1 1 1 Yt = Y0 − ε0 + ε1 + . . . + εt−1 + εt 2 2 2 4b. On a 1 Ybt|0 = Y0 − ε0 2 car d’une part εu pour u > 0 n’est pas corrélé avec Y0 (et donc avec aucun des Yj , j < 0 car il n’est pas corrélé avec les Xj , j ≤ 0) et d’autre part ε0 appartient au passé de X donc de Y aussi. Ainsi 1 t+3 E(|Yt − Ybt|0 |2 ) = (t − 1) + 1 = 4 4 Problème 8. 4a. On suppose N ≥ 2 bien sûr. Notons A la matrice N × N avec 1 + q sur la diagonale et 1 partout ailleurs et B 1 q(N +q) fois la matrice avec N − 1 + q sur la diagonale et −1 partout ailleurs. Le produit AB est une matrice avec sur la diagonale 1 q(N +q) (−(1 1 q(N +q) ((1 + q)(N − 1 + q) − (N − 1)) qui vaut simplement 1 et partout ailleurs + q) + (N − 1 + q) − (N − 2)) qui donne 0. 4b. On note que les produits scalaires (X, Yi ) valent tous x2 , que les produits scalaires (Yi , Yj ) valent bN = P αj Yj avec x2 (1 + q) lorsque i = j et x2 lorsque i 6= j. Par la formule du cours X j −1 [α1 . . . αN ] = [x2 . . . x2 ] [(Yi , Yj )] = [1 . . . 1]A−1 = [1 . . . 1]B 1 1 [α1 . . . αN ] = [q . . . q] = [1 . . . 1] q(N + q) N +q bN = donc X Y1 +...+YN N +q . L’erreur associée vaut par la formule du cours 2 x q 1 N . 2 2 b [1 . . . 1] .. = x2 (1 − ) = x2 E(|X − XN | ) = x − N +q N + q N +q x2 4c. On a ZN = X + grand que x2 Nq+q . W1 +...+WN N donc E(|X − ZN |2 ) = FIN 58 1 2 N 2 N qx = x2 Nq ce qui est bien strictement plus Maîtrise MASS 1999/2000 – 2„eme semestre – MM6 – Séries temporelles Université de Nice Sophia– Antipolis J.-F. Burnol Deuxième session – jeudi 14 septembre 2000 Documents et calculatrices autorisés. Il y a 5 problèmes, comprenant vingt-deux questions. Chacune rapporte 1 point. Toute réponse numérique non justifiée est invalide et sera notée 0. Durée: deux heures. Problème 1. Soit η un bruit blanc et X le MA(1) de variance 50 vérifiant Xt = ηt − ηt−1 (1) Quelle est la variance de η? (2) Que valent les autocovariances de X ? b1 et l’erreur E(|X1 − X b1 |2 ) ? (3) On a observé X0 et X3 . Quelle est la valeur optimale X Problème 2. Soit η un bruit blanc et X le MA(2) vérifiant Xt = ηt − 2ηt−1 − 35ηt−2 (1) Quelles sont les racines et co-racines de 1 − 2z − 35z 2 ? (2) Quelle est la relation MA(2) entre X et son bruit blanc d’innovation ε ? (3) Exprimez εt en fonction de Xt , Xt−1 , . . . Problème 3. Soit ε un bruit blanc et Y le ARMA(1,1) vérifiant 1 1 Yt − Yt−1 = εt − εt−1 2 3 59 (1) Soit W le AR(1) vérifiant Wt − 21 Wt−1 = εt . Montrez: Yt = Wt − 13 Wt−1 . (2) Exprimez γ0Y en fonction de γ0W et γ1W . (3) On suppose que W est de variance 1. Quelle est la variance de ε? (4) On suppose toujours que W est de variance 1. Que valent γ1W et γ2W ? Que vaut γ0Y ? Problème 4. Soit ε un bruit blanc de variance 1 et Z le AR(1) vérifiant Zt − 1 Zt−1 = εt 10 (1) Quelles sont les autocovariances de Z ? b1|0 , Zb2|0 , . . . en fonction de Z0 , Z−1 , . . .. (2) Exprimez les prévisions optimales Z (3) Exprimez Z0 en fonction de ε0 , ε−1 , . . .. bδ|0 |2 ) ? (4) Soit δ ≥ 1. Que vaut E(|Zδ − Z Problème 5. Soit ε un bruit blanc et X le AR(1) de variance 100 vérifiant 1 Xt − Xt−1 = εt 2 (1) Quelle est la variance de εt ? (2) Comment s’exprime Xt comme combinaison de εt , εt−1 , . . . ? (3) Que valent γ1X et γ2X ? b3 et l’erreur E(|X3 − X b3 |2 ) ? (4) On a observé X1 et X2 . Quelle est la valeur optimale X FIN 60 Séries Temporelles Maîtrise MASS — Université de Nice Jean-François Burnol avec la collaboration de Marc Diener Année 2000–2001, 2ème semestre Fiches d’exercices, partiel, examen, examen de rattrapage. 62 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre Université de Nice Département de Mathématiques Année 2000-2001 Maîtrise MASS Séries Temporelles Fiche TD 1 (13.02.01) b (qui est également On appelle régression linéaire de la v.a. X par les v.a. Y1 , . . ., Yn la v.a. notée X b notée E(X | Y1 , . . . , Yn )) qui est l’unique combinaison affine b = α0 + α1 Y1 + . . . + αn Yn X 2 rendant E (X − α0 − α1 Y1 − . . . − αn Yn ) minimale. On montre que (α0 , α1 , . . . , αn ) est une solution du système des N + 1 équations à N + 1 inconnues : N X pour i = 0..N. αj E(Yi Yj ) = E(Yi X) j=0 où l’on a posé Y0 = IΩ (v.a. déterministe égale a 1), ou, si l’on préfère : α0 α0 E(Y1 ) +α1 E(Y1 ) +α1 E(Y12 ) α0 E(Yi ) +α1 E(Yi Y1 ) α0 E(YN ) +α1 E(YN Y1 ) ··· +α2 E(Y1 Y2 ) .. . ··· ··· .. . ··· .. . +αj E(Yi Yj ) .. . ··· ··· +αN E(YN ) = E(X) +αN E(Y1 YN ) = E(Y1 X) .. . ··· = E(Yi X) .. . +αN E(YN2 ) = E(YN X) En général il y a une unique solution, mais il y aura plusieurs solutions si les variables aléatoires Yj ne sont pas linéairement indépendantes. La combinaison résultante α0 + α1 Y1 + . . . + αn Yn est-elle unique, indépendante du choix éventuel de la solution. On montre b = E(X) + X N X k=1 avec β1 ,. . .,βN formant une solution du système : βk (Yk − E(Yk )), PN j=1 βj Cov(Yi , Yj ) = Cov(Yi , X) , i = 1..N. 1. Déterminer la régression linéaire de X par Y1 , . . ., Yn dans les cas suivants : N = 2, EY1 = 0 = EY2 , VY1 = 1, VY2 = 2, E(Y1 Y2 ) = 1, et 1. 2. 3. 4. EX EX EX EX = 0, = 1, = 0, = 2, E(XY1 ) = 1, E(XY2 ) = 0 ; E(XY1 ) = 1, E(XY2 ) = 0 ; E(XY1 ) = 0, E(XY2 ) = 0 ; Cov(X, Y1 ) = 2, Cov(X, Y2 ) = 1. 2. On suppose que les T1 , T2 , T3 , et T4 sont tels que pour tous i 6= j dans {1, 2, 3, 4} on ait ETi = 0, ETi2 = 1, E(Ti Tj ) = 0. b 1. On pose Y1 = T1 + T2 + T3 , Y2 = T2 + T3 + T4 , et X = T1 + T2 + T3 + T4 . Que vaut E(X | Y1 , Y2 ) ? b 2. On pose Y3 = T1 + T3 + T4 . Que vaut E(X | Y1 , Y2 , Y3 ) ? b 3. On pose Y4 = T1 + T2 + T4 . Que vaut E(X | Y1 , Y2 , Y3 , Y4 ) ? Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre 63 64 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre Université de Nice Département de Mathématiques Année 2000-2001 Maîtrise MASS Séries Temporelles Fiche TD 2 (20.02.01) 1. Soit H l’ensemble des v.a. sur l’espace probabilisé Ω ; des deux applications bilinéaires suivantes, laquelle est un produit scalaire et laquelle ne l’est pas ? (expliquez.) (X, Y ) = E(XY ) ou (X, Y ) = Cov(X, Y ). On choisit q dorénavant celle des deux définitions qui est effectivement un produit scalaire, et l’on pose kXk = (X, X). 2. On note U ⊥ V si et seulement si (U, V ) = 0 (et on dit que U et V sont perpendiculaires.) Montrer le “théorème de Pythagore” : U ⊥ V ⇔ kU + V k2 = kU k2 + kV k2 . b sa régression 3. Soit Y0 la variable aléatoire constante Y0 := 1Ω . Soit X une variable aléatoire et soit X b = α0 Y0 , avec α0 = EX. Deux méthodes : a. On considère la fonction linéaire par Y0 . Montrer : X α 7→ ϕ(α) := kX − αk2 . Expliciter cette fonction et déterminer pour quelle valeur de α elle est minimale. b. Montrer (X − (EX)Y0 , Y0 ) = 0 et en déduire par le théorème de Pythagore pour tout α : kX − αY0 k ≥ kX − (EX)Y0 k. 4. Soient Y1 , . . ., YN des v.a. sur Ω ; on pose FN =≪ Y0 , Y1 , . . . , YN ≫= {α0 Y0 + α1 Y1 + . . . + αN YN , αi ∈ R} où Y0 := 1Ω b le régressé linéaire de X par Y1 , . . ., YN . Montrer que X − X b ∈ F ⊥ , c’est-à-dire que pour et on note X N tout Y ∈ FN on a : b Y)=0 (X − X, b est caractérisé comme étant l’unique vecteur dans FN tel que X − X b ∈ F ⊥ soit vrai. Montrer que X N b Vérifier les propriétés suivantes : 5. On pose Z := X − X. b = EX. 1. La v.a. Z est centrée, et EX b et Z ne sont pas corrélées. 2. Les v.a. X b + VZ. 3. VX = VX b = Cov(X, b X). 4. VX PN b = PN αi Yi , avec Y0 = 1Ω . 5. VZ = VX − k=1 αk Cov(Yk , X), où X i=0 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre 65 66 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre Université de Nice Département de Mathématiques Année 2000-2001 Maîtrise MASS Séries Temporelles Fiche TD 3 (27.02.01) : Innovations pour un MA(1) Soit ε = (εt )t∈Z un bruit blanc, centré, de variance σ 2 . Soit θ un nombre réel non nul, et soit X = (Xt )t∈Z la série temporelle définie par Xt = εt − θεt−1 . On dit que X est un MA(1) (moyenne mobile d’ordre 1 ; (K) MA = “moving average”.) Le but de ce problème est de comprendre comment évolue la régression X0 de X0 sur X−1 , . . . , X−K lorsque la taille de la mémoire K tend vers +∞, et en particulier l’erreur de (K) prédiction V(X0 − X0 ). 1. montrer que les covariances cov(Xt , Xu ) valent (1 + θ2 )σ 2 pour t = u et −θσ 2 pour |t − u| = 1 et sont nulles dans les autres cas. θ 2. Soit ρ = − 1+θ 2 . Montrer que les coefficients a1 (K), . . . , aK (K) de la régression de X0 sur X−1 , . . . , X−K forment la solution du système linéaire suivant : a (K) 1 ρ 0 ··· 0 1 ρ 0 .. .. .. . . ρ ρ 1 . .. .. .. . = . 0 . 1 0 ρ . . .. . . . . .. .. .. ρ .. . . 0 0 ··· 0 ρ 1 aK (K) 3. On suppose |θ| = 6 1. Il se trouve que la solution du système précédent est alors de la forme : j aj (K) = AK · θj + BK · θ1 pour des constantes AK et BK correctement choisies. Déterminer les valeurs de AK et de BK : on les déduira des équations impliquant a1 (K), a2 (K), aK−1 (K) et aK (K). Les relations suivantes sont utiles : ρ θ1 + 1 + ρθ = 0, θ + ρθ2 = −ρ. (K) 2 4. On suppose toujours |θ| = 6 1. Soit σK la variance de l’erreur X0 − X0 2 2 (1 + θ + θ a1 (K))σ , puis la formule explicite : 1 − θ2 2 σK = σ2 · θ2 + 1 − θ2K+2 2 . Montrer que σK vaut 2 Montrer que σK décroît lorsque K augmente et converge vers une valeur limite que l’on déterminera en fonction de θ. Distinguer soigneusement les cas |θ| < 1 et |θ| > 1. 5. En prenant la limite K → ∞ dans le cas |θ| < 1 montrer la representation AR(∞) suivante de X : Xt + θ Xt−1 + θ2 Xt−2 + . . . = ηt , avec η le bruit blanc des innovations de X. En déduire que η = ε. Que se passe-t-il si |θ| > 1 ? 2K+2 1 θ 2 Indications : dans 3 on trouve AK = − 1−θ2K+2 et BK = 1−θ 2K+2 . Dans 4 la valeur de limK→∞ σ (K) 2 2 2 est σ si |θ| < 1 et θ σ si |θ| > 1. Cette limite est la variance du bruit blanc des innovations de X. Les innovations de X sont les εt uniquement lorsque |θ| ≤ 1. Dans 5, la représentation AR(∞) de X lorsque |θ| > 1 existe aussi mais utilise θ1 en lieu et place de θ. Dans ce cas les innovations ηt ne sont pas égales avec les εt . On montre par ailleurs que dans les cas spéciaux θ = ±1 il n’existe aucune représentation AR(∞) de X (mais ses innovations sont bien les εt .) jf b. Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre 67 68 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre Université de Nice Département de Mathématiques Année 2000-2001 Maîtrise MASS Séries Temporelles Fiche TD 4 (13.03.01) 1. Soit ε un bruit blanc et X le MA(1) défini selon 1 Xt = εt − εt−1 7 Exprimez εt en fonction de Xt , Xt−1 , Xt−2 , etc. . . 2. Soit ε un bruit blanc et X le MA(1) défini selon 1 Xt = εt − εt−1 5 Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . .en fonction de Xt , Xt−1 , Xt−2 , etc. . . ? 3. On se donne un AR(1) X d’équation 1 Xt − Xt−1 = εt 3 Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . .connaissant le passé linéaire de X jusqu’à l’instant t ? 4. On reprend l’exercice précédent. On suppose que εt est de variance 1. Soient γj les autocovariances de X. Ce sont des nombres réels et γ−j = γj . Écrire les équations de Yule-Walker, en déduire les valeurs de γ0 et γ1 puis des autres autocovariances. 5. Soit η un bruit blanc et X le MA(1) défini selon Xt = ηt − 5ηt−1 Quelle est la relation entre X et son bruit blanc d’innovation ? Quelle est la meilleure prédiction possible pour Xt+1 en fonction de Xt , Xt−1 , Xt−2 , etc. . . ? Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre 69 1 (corr.) Soit ε un bruit blanc et X le MA(1) défini selon 1 Xt = εt − εt−1 7 Exprimez εt en fonction de Xt , Xt−1 , Xt−2 , etc. . . εt = ∞ X 1 ( )j Xt 7 j=0 2 (corr.) Soit ε un bruit blanc et X le MA(1) défini selon 1 Xt = εt − εt−1 5 Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . .en fonction de Xt , Xt−1 , Xt−2 , etc. . . ? ∞ 1 1X 1 j ∗ Xt+1 = − εt = − ( ) Xt 5 5 j=0 5 ∗ ∗ ∗ Xt+2 = Xt+3 = Xt+4 = ... = 0 3 (corr.) On se donne un AR(1) X d’équation 1 Xt − Xt−1 = εt 3 Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . .connaissant le passé linéaire de X jusqu’à l’instant t ? 1 ∗ Xt+j = ( )j Xt 3 4 (corr.) On reprend l’exercice précédent. On suppose que εt est de variance 1. Soient γj les autocovariances de X. Ce sont des nombres réels et γ−j = γj . Écrire les équations de Yule-Walker, en déduire les valeurs de γ0 et γ1 puis des autres autocovariances. 1 γ0 − γ−1 = 1 3 1 1 γ1 − γ0 = 0 γj+1 − γj = 0 3 3 9 1 j 9 γj = ( ) γ0 = 8 8 3 5 (corr.) Soit η un bruit blanc et X le MA(1) défini selon Xt = ηt − 5ηt−1 Quelle est la relation entre X et son bruit blanc d’innovation ? Quelle est la meilleure prédiction possible pour Xt+1 en fonction de Xt , Xt−1 , Xt−2 , etc. . . ? 1 Xt = εt − εt−1 5 ∞ X 1 1 ∗ Xt+1 =− ( )j Xt 5 j=0 5 70 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre Université de Nice Département de Mathématiques Année 2000-2001 Maîtrise MASS Séries Temporelles Fiche TD 5 (20.03.01) 1. Soit ε un bruit blanc centré et X le AR(2) tel que Xt − 1 9 Xt−1 + Xt−2 = εt 20 20 Vérifiez que la “condition de stationnarité” est satisfaite. On suppose que ε est de variance 57 (sic. . .). Écrivez les équations de Yule-Walker, et résolvez en γ0 , γ1 et γ2 . 2. (suite) Soient Y et Z définis selon 1 Yt = Xt − Xt−1 4 1 Zt = Xt − Xt−1 5 Montrez que Y et Z sont des AR(1) (calculez Yt − 15 Yt−1 et Zt − 41 Zt−1 ). Trouvez α et β de sorte que Xt = αYt + βZt pour tous les t. 3. (suite) On reprend l’exercice précédent. Montrer que les trois séries chronologiques X, Y , Z ont toutes les mêmes innovations fondamentales et le même passé à chaque instant. Quelles sont les meilleures prédictions possibles pour Yt+1 , Yt+2 , etc. . .et Zt+1 , Zt+2 , etc. . .connaissant Xt , Xt−1 , Xt−2 , etc. . . ? Et quelles sont les meilleures prédictions pour Xt+1 , Xt+2 , etc. . . ? 4. (suite) Exprimez Yt et Zt puis Xt en fonction de εt , εt−1 , εt−2 , etc. . . 5. Soit η un bruit blanc centré de variance 1, soit Q(z) le polynôme 1 − 9z + 20z 2 et Y le MA(2) obtenu en filtrant η par Q(L). Que valent les autocovariances de Y ? 9 z+ 6. (suite) Soit ε un bruit blanc centré de variance 400, soit R(z) le polynôme 1 − 20 MA(2) obtenu en filtrant ε par le polynôme R(L). Que valent les autocovariances de X ? 1 2 20 z et X le 7. (suite) Dans les deux exercices précédents comparez les covariances de X avec celles de Y . Quelle est la relation entre X et son bruit blanc d’innovation ? Quelle est la relation entre Y et son bruit blanc d’innovation ? On suppose connus Yt , Yt−1 , Yt−2 , etc. . .Quelle est la meilleure prédiction possible pour Yt+1 ? Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre 71 Solutions : Sauf erreur on trouve γ0 = 70, γ1 = 30, γ2 = 10. On a Xt = −4Yt + 5Zt . Les meilleures prédictions sont E(Yu | ≤ t) = 1 u−t 5 Yt , et E(Zu | ≤ t) = E(Xu | ≤ t) = −4 E(Yu | ≤ t) + 5 E(Zu | ≤ t) Yt = P j 1 j 5 εt−j , Zt = P j 1 j 4 1 u−t 4 Zt . De plus εt−j , d’où Xt par combinaison linéaire. Sauf erreur : 482, - 189, et 20. Sauf erreur : 482, - 189, et 20. Mêmes autocovariances pour Y et pour X. La relation entre Y et son bruit blanc d’innovation est celle d’un MA(2) avec le même polynôme filtrant que X. Soient ε les innovations de Y . On a E(Yt+1 | ≤ t) = 9 1 − 20 εt + 20 εt−1 . Il faut exprimer εt et εt−1 en fonctions du passé de Y ce qui nécessite d’inverser le filtre R(L). Pour cela il suffit de récuperer les données de l’exercice 4 où l’expression du AR(2) en fonction de ses innovations correspond justement à l’inversion de ce polynôme. On conclut : j ! j X 1 1 εt = +5 Yt−j −4 5 4 j≥0 X 9 E(Yt+1 | ≤ t) = − Yt + 20 j≥1 72 4 5 j j ! 1 5 1 Yt−j − 5 4 4 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre Université de Nice Département de Mathématiques Année 2000-2001 Maîtrise MASS Séries Temporelles Fiche TD 6 (15.05.01) 1. On dispose d’un indicateur bruité Y d’une variable aléatoire X : Y = X + ε avec ε ∼ N (0, τ 2 ). On suppose que l’erreur ε est indépendante de X qui elle-même suit une loi N (µ, σ 2 ) dont les paramètres sont supposés connus. Quelle est la meilleure estimation que l’on puisse faire de X sachant Y et quelle est l’erreur quadratique associée. Discuter en fonction de τ 2 → ∞ et de τ 2 → 0. 2. Montrer pour ν > −1 : T 1 1 1 X ν t = T →∞ T T ν ν+1 t=1 lim 3. Soient εt des variables indépendantes, centrées, identiquement distribuées, de variance commune σ 2 . PT Soit Y0 = 0 et pour T ≥ 1, YT = t=1 εt . Montrer : T −3/2 T X Yt−1 = T −1/2 t=1 À la limite lorsque T → ∞ quelle est la loi de T −3/2 PT T X t (1 − )εt T t=1 t=1 Yt−1 ? PT 4. (suite) Plus généralement quelle est la loi jointe à la limite lorsque T → ∞ du vecteur (T −1/2 t=1 εt , R P 1 T T −3/2 t=1 Yt−1 ) ? En déduire la loi jointe de (B(1), 0 B(r)dr) pour le mouvement Brownien standard. 5. On observe une série chronologique Yt que l’on cherche à modéliser du mieux possible avec une loi autorégressive d’ordre 1 de la forme Yt = A + BYt−1 + ut . Quelles sont les formules (utilisant une matrice 2 × 2) donnant les meilleures estimations AT et BT possibles au sens Pdes moindres carrés pour A et B lorsque T + 1 observations Y0 , . . ., YT sont connues ? (on minimise (Yt − A − BYt−1 )2 ) Quelle est la formule pour le vecteur des différences (AT − A, BT − B), lorsque l’on a réellement Yt = A + BYt−1 + ut ? 6. (suite, difficile) On suppose que la série chronologique Yt est en fait une marche aléatoire Yt = Yt−1 +εt (la variance des εt valant σ 2 ), autrement dit que les vraies valeurs de A et de B sont respectivement 0 et 1. On pourra supposer Y0 = 0. En utilisant le théorème de la limite centrale fonctionnelle, exprimer la loi limite du vecteur (T 1/2 AT , T (BT − 1)) en fonction d’un mouvement Brownien. Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre 73 Université de Nice Département de Mathématiques Année 2000-2001 Maîtrise MASS Séries Temporelles Fiche TD 6 (15.05.01) – Corrigé des exercices 29 et 30 6 (corr.) On considère les trois vecteurs suivant dans RT : V1 = (1, . . . , 1), V2 = (Y0 , . . . , YT −1 ) et W = (Y1 , . . . , YT ). Les valeurs AT et BT sont celles pour lesquelles la projection orthogonale de W sur << V1 , V2 >> est AV1 + BV2 . Elles sont donc données par ce qui donne AT BT AT BT = = PT (V1 , V1 ) (V1 , V2 ) (V1 , V2 ) (V2 , V2 ) (W, V1 ) (W, V2 ) −1 PT PT Yt−1 Yt PTt=1 2 PT t=1 t=1 Yt−1 t=1 Yt Yt−1 T t=1 −1 Yt−1 Supposons que A et B soient tels que l’on ait pour tout t : Yt = A + BYt−1 + ut . Alors T X t=1 T T X X ut Yt−1 )B + Yt = T A + ( t=1 t=1 T X t=1 T T T X X X 2 ut Yt−1 Yt−1 )B + Yt−1 )A + ( Yt Yt−1 = ( t=1 t=1 t=1 PT PT PT T A t=1 Yt t=1 Yt−1 t=1 ut = PT + PT PT PT 2 B t=1 Yt Yt−1 t=1 Yt−1 t=1 Yt−1 t=1 ut Yt−1 −1 PT PT T AT A t=1 Yt−1 t=1 ut = + PT PT PT 2 BT B t=1 Yt−1 t=1 Yt−1 t=1 ut Yt−1 7 (corr.) Par ce qui précède on a AT BT − 1 = PT T t=1 Yt−1 −1 PT PT t=1 Yt−1 t=1 εt PT PT 2 t=1 Yt−1 t=1 εt Yt−1 Comme dans l’exercice 4 résolu en cours, si l’on définit la fonction en escalier XT (r) sur l’intervalle √ [0, 1] comme valant Yt−1 /T sur l’intervalle [(t − 1)/T, t/T [ pour 1 ≤ t ≤ T et YT /T en 1, on sait que T XT (·) converge pour T → ∞ vers un Mouvement Brownien standard B(r) (de variance σ 2 ). Cela signifie par R1 PT √ exemple que lorsque T est très grand la somme de Riemann T1 t=1 T XT ( t−1 T ) approxime 0 B(r)dr. En fonction des Yt cela donne Z 1 T X −3/2 T B(r)dr Yt−1 ∼ 0 t=1 De même la somme de Riemann 1 T PT t=1 2 T (XT ( t−1 T )) approxime T −2 T X t=1 2 Yt−1 ∼ Notons de plus la petite astuce suivante : 1 1 PT √ √ 0 T t=1 Yt−1 T T · PT · PT 1 2 0 0 Y Y t−1 t=1 t=1 t−1 T 74 Z 1 R1 0 B(r)2 dr, d’où B(r)2 dr 0 0 1 T = T 1 PT −3/2 t=1 Yt−1 PT T −3/2 t=1 Yt−1 PT 2 T −2 t=1 Yt−1 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre et donc pour T → ∞ : √ T 0 0 T T · PT t=1 Yt−1 ce qui donne en fin de compte : On notera que utilisant Yt2 = √1 T 2 Yt−1 −1 √ PT T t=1 Yt−1 · PT 2 0 t=1 Yt−1 √ 1 T AT ∼ R1 T (BT − 1) B(r)dr 0 PT √ 0 T ∼ R1 −1 B(r)dr · R 10 B(r)2 dr 0 1 R1 B(r)dr 0 √1 T 1 T R1 −1 B(r)dr 0 R1 B(r)2 dr 0 PT PT t=1 εt t=1 εt Yt−1 ! T XT (1) ∼ B(1) et que par ailleurs comme on l’avait vu en cours, en PT PT + 2εt Yt−1 + ε2t on obtient YT2 = 2 t=1 εt Yt−1 + t=1 ε2t soit encore t=1 εt = T T T 1X 1 X 2 1 X 2 1 2 1 YT − εt Yt−1 = εt = T XT (1)2 − ε T t=1 2T 2T t=1 2 2T t=1 t Le dernier terme tend avec probabilité 1 vers lorsque T → ∞ : 1 2 2σ √ 1 T AT ∼ R1 T (BT − 1) B(r)dr 0 tandis que le premier est ∼ 21 B(1)2 . En conclusion, R1 −1 B(r)dr B(1) · R 10 1 2 2 B(r)2 dr 2 (B(1) − σ ) 0 ce qui répond à la question (on peut trouver l’expression finale un peu compliquée). En particulier la loi de T (BT − 1) est approximativement celle de 1 2 2 2 (B(1) − σ ) R1 B(r)2 dr − ( 0 B(r)dr)2 0 R1 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre 75 76 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre Université de Nice Département de Mathématiques Année 2000-2001 Maîtrise MASS Séries Temporelles Contrôle (02.04.01) Problème 1. Soit ε un bruit blanc centré de variance 8 et X le AR(1) vérifiant 1 Xt − Xt−1 = εt 3 (1) Quelles sont les autocovariances de X ? c1 , X c2 ,. . .de X1 , X2 , . . .connaissant toutes les valeurs passées (2) Exprimer les prévisions optimales X X0 , X−1 , . . .. (3) Exprimer X0 en fonction de ε0 , ε−1 , . . .. ch |2 ) ? (4) Soit h ≥ 1. Que vaut E(|Xh − X Problème 2. Soit ε un bruit blanc centré et X le AR(1) de variance 25 vérifiant 1 Xt − Xt−1 = εt 5 (1) Quelle est la variance de εt ? (2) Comment s’exprime Xt comme combinaison de toutes les innovations passées εt , εt−1 , . . . ? (3) Que valent γ1X et γ2X ? b3 sachant X1 et X2 et qu’elle est l’erreur E(|X3 − X b3 |2 ) ? (4) Quelle est la valeur optimale X Problème 3. Soit η un bruit blanc centré et X le MA(2) vérifiant Xt = ηt − 2ηt−1 − 35ηt−2 (1) Quelle est la relation MA(2) entre X et son bruit blanc d’innovation ε ? (2) On suppose que η est de variance 1. Quelle est la variance de ε ? Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre 77 78 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre NOM : PRÉNOM : né(e) le : à: Replier et agrafer Université de Nice Département de Mathématiques Année 2000-2001 Maîtrise MASS Séries Temporelles Examen (30.05.01) Problème 1. Soient Y1 , . . ., YN et Z1 , . . ., ZM des variables aléatoires (N, M ≥ 1). Soit X une autre variable aléatoire. Soit X1 la régression linéaire de X par Y1 , . . ., YN , Z1 , . . ., ZM . Montrer que X et X1 ont les mêmes régressions linéaires par Y1 , . . ., YN . Problème 2. Soit η un bruit blanc centré et soit X le MA(1) défini selon Xt = ηt − 10ηt−1 (1) Quelle est la relation entre X et son bruit blanc d’innovation ? (2) Quelle est la meilleure prédiction possible pour Xt+1 en fonction de Xt , Xt−1 , Xt−2 , etc. . . ? (3) Quelle est l’erreur quadratique moyenne associée ? Problème 3. On se donne un AR(1) centré X d’équation 1 Xt − Xt−1 = εt 7 (1) Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . .connaissant le passé linéaire de X jusqu’à l’instant t ? (2) Quelles sont les erreurs quadratiques moyennes associées ? Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre 79 Problème 4. Soit ε un bruit blanc centré et soit X le AR(2) tel que Xt − 1 2 Xt−1 − Xt−2 = εt 35 35 (1) Le bruit blanc ε est il le bruit blanc des innovations de X ? (justifier la réponse.) (2) On note σ 2 la variance de ε et γ0 , γ1 et γ2 les premières autocovariances de X. Écrire les équations de Yule-Walker et exprimer γ0 , γ1 et γ2 en fonction de σ 2 . Problème 5. On dispose de deux mesures Y1 et Y2 d’une variable aléatoire X : Y1 = X + ε1 et Y2 = X + ε2 avec ε1 ∼ N (0, τ 2 ) et ε2 ∼ N (0, τ 2 ). On supposera que les erreurs ε1 et ε2 sont mutuellement indépendantes et aussi sont indépendantes de X et que celle-ci suit elle-même une loi N (µ, σ 2 ) dont les paramètres sont connus. (1) Quelle est la meilleure estimation que l’on puisse faire de X sachant Y1 et Y2 ? (2) Quelle est l’erreur quadratique associée ? Discuter en fonction de τ 2 → ∞ et de τ 2 → 0. (3) Après la première mesure Y1 quelle est la meilleure prévision que l’on puisse faire pour le résultat de la deuxième mesure Y2 ? (4) Quelle est l’erreur quadratique associée ? Discuter en fonction de τ 2 . Problème 6. On observe une série chronologique Yt que l’on cherche à modéliser du mieux possible avec une loi autorégressive d’ordre 1 de la forme Yt = BYt−1 + ut . (1) Quelle est la formule donnant la meilleure estimation BT possible au sens des moindres carrés pour P B lorsque T + 1 observations Y0 , . . ., YT sont connues ? (on minimise (Yt − BYt−1 )2 ) (2) Donner une formule pour la différence BT − B, lorsque l’on a réellement Yt = BYt−1 + ut . On suppose que la série chronologique Yt suit en réalité une quasi-marche aléatoire de la forme Yt = Yt−1 + Zt avec Zt = εt + 21 εt−1 un MA(1) (les εt étant des variables gaussiennes centrées indépendantes de variance commune σ 2 ). Donc la vraie valeur de B est 1. On supposera pour simplifier Y0 = 0, Z0 = 0. √ +...+Zt−1 On définit une fonction en escalier XT (r) sur l’intervalle [0, 1] comme valant Yt−1 / T = Z0 +Z1 √ T √ sur l’intervalle [(t − 1)/T, t/T [ pour 1 ≤ t ≤ T et valant YT / T en r = 1. (3) Exprimer XT (r) en fonction des εt . En déduire que lorsque T → ∞ les fonctions aléatoires XT (r) convergent vers un mouvement Brownien standard B(r) dont on donnera la variance. PT (4) En déduire la loi limite de T −3/2 t=1 Yt−1 . PT PT PT (5) Montrer YT2 = 2 t=1 Zt Yt−1 + t=1 Zt2 et en déduire la loi-limite de T1 t=1 Zt Yt−1 . (6) Déterminer la loi-limite de T (BT − 1). 80 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre NOM: PRÉNOM: né(e) le: à: Replier et agrafer Université de Nice Département de Mathématiques Année 2000-2001 Maîtrise MASS Séries Temporelles Examen (session de septembre, le 17.09.01) Problème 1. Soit X = (Xt ) une série chronologique stationnaire. Expliquer la notion de “bruit blanc des innovations”: définition mathématique d’une part, commentaires que cela vous inspire d’autre part. En quoi cette notion est-elle reliée au problème de la prédiction? Problème 2. On se donne une modélisation AR(p) pour une série chronologique stationnaire X = (Xt ). (1) Qu’appelle-t-on condition de stationnarité? (2) On suppose connu le passé jusqu’à l’instant t. Soit e1 l’erreur quadratique moyenne associée à la meilleure prédiction de Xt+1 , et e2 pour la meilleure prédiction de Xt+2 . On a e2 ≥ e1 . Pourquoi? Problème 3. On se donne un AR(1) centré X d’équation 1 Xt − Xt−1 = εt 5 (1) Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . .connaissant le passé linéaire de X jusqu’à l’instant t ? (2) Quelles sont les erreurs quadratiques moyennes associées ? Cours: Jean-François Burnol. Travaux Dirigés: Marc Diener. Année 2000–2001, 2ème semestre 81 Problème 4. On observe une série chronologique Yt que l’on cherche à modéliser du mieux possible avec une loi autorégressive d’ordre 1 AR(1) de la forme Yt = A · Yt−1 + ut . (1) Montrer que la formule donnant la meilleure estimation AT possible au sens des moindres carrés pour A lorsque T + 1 observations Y0 , . . ., YT sont connues est: P 1≤t≤T Yt · Yt−1 AT = P 2 1≤t≤T Yt−1 (on minimise P (Yt − AYt−1 )2 ) On suppose pour toutes les questions qui suivent que la série chronologique Yt suit en réalité, sans qu’on le sache, un processus MA(1) de la forme Yt = εt + 21 εt−1 (les εt étant des variables gaussiennes centrées indépendantes de variance commune σ 2 ). On rappelle le théorème suivant, la loi forte des grands nombres: Soient X1 , X2 , . . .des Pnvariables aléatoires indépendantes, identiquement distribuées, d’espérance commune α. Soit Sn = k=1 Xk . Alors: Sn converge pour n → ∞ vers α avec probabilité 1 n (2) En décomposant P 1≤t≤T 2 Yt−1 en deux parties, d’une part la somme pour t pair, d’autre part la somme pour t impair, montrer que avec probabilité 1 on a 1 X 5 2 Yt−1 = σ2 T →∞ T 4 lim 1≤t≤T (3) En décomposant P 1≤t≤T Yt · Yt−1 en trois parties, la somme pour t = 1, 4, . . ., la somme pour t = 2, 5, . . ., et la somme pour t = 3, 6, . . ., montrer par la loi forte des grands nombres que avec probabilité 1 on a 1 1 X Yt · Yt−1 = σ 2 lim T →∞ T 2 1≤t≤T (4) En déduire la valeur limite presque sûre de AT lorsque T → ∞. (5) On a fait un grand nombre T + 1 d’observations (disons T = 1000), et calculée une valeur correspondante de AT (disons AT = 0.402). Comment peut-on s’apercevoir par des calculs sur les observations Y0 , . . ., YT que Y n’est en fait certainement pas en réalité un AR(1) de paramètre approximativement 0.4, autrement dit quel estimateur peut-on utiliser qui amènera avec une grande probabilité à rejeter l’hypothèse que Y est un AR(1) ? 82 Cours: Jean-François Burnol. Travaux Dirigés: Marc Diener. Année 2000–2001, 2ème semestre