Polycopié - Jean-François Burnol

Transcription

Polycopié - Jean-François Burnol
Maîtrise MASS (1999/2000 et 2000/2001)
Université de Nice – Sophia Antipolis
« Mathématiques des Séries Temporelles »
Jean-François Burnol
Sont rassemblées ici 82 pages comprenant :
– un texte de vingt-deux pages développant, sans preuves,
certains aspects théoriques sous-jacents aux notions qui
furent abordées dans le cours,
– des feuilles avec 50 exercices corrigés pour les séances de
travaux dirigés du deuxième semestre de l’année académique 1999–2000,
– un examen blanc, un sujet de partiel, un sujet d’examen,
avec leurs solutions, aussi un sujet d’examen de rattrapage, toujours pour 1999–2000,
– des feuilles avec 30 exercices partiellement corrigés pour
le deuxième semestre de l’année 2000–2001,
– et finalement un partiel, un examen, avec corrections, et
un examen de rattrapage pour l’année 2000–2001.
C’est un plaisir de remercier Marc Diener qui a fait travailler les étudiants sur un logiciel spécialisé, ce qui fut très
complémentaire à mon cours et à mes exercices (trop) théoriques. Les feuilles d’exercices réunies ici ne représentent
donc que la moitié du travail que les étudiants ont dû accomplir en séances de travaux dirigés.
Et je remercie aussi Francine Diener et Nicolas Radulesco.
Maîtrise MASS, Université de Nice – Sophia Antipolis,
c J.-F.
Burnol 2000
Maîtrise MASS 1999/2000 – 2ème semestre – MM6
Université de Nice – Sophia Antipolis
“Mathématiques des Séries Temporelles”
Jean-François Burnol
Nous devons prévenir le lecteur qu’il rencontrera dans ces
notes les défauts suivants (entre autres) :
– Il n’y a aucune démonstration.
– De plus le niveau mathématique est trop élevé pour une
Maîtrise MASS.
– Les termes inversibilité, causalité, régularité ne sont pas
employés selon l’acceptation courante en économétrie. En
économétrie il semble que l’on dise “inversible” là où nous
disons “causal et d’inverse causal (régulier)”.
– Le résultat mathématique central (théorème de SzegöKolmogorov-Krein) n’est pas exposé (il est inutile pour
un ARMA.)
– La théorie de Szegö des polynômes orthogonaux n’est pas
exposée.
– (lié au point précédent) La prévision est vue uniquement
dans le cas où tout le passé est disponible.
– (lié au point précédent) Les autocorrélations partielles
ne sont pas discutées. L’algorithme de Durbin n’est pas
discuté. Le filtre récursif de Kalman n’est pas discuté.
– Le problème de l’identification des paramètres n’est que
brièvement évoqué. L’estimation selon la fonction de vraisemblance maximale ne l’est pas du tout.
– Les statistiques liées à l’estimation des autocovariances
ne sont pas discutées.
1
2
Maîtrise MASS, Université de Nice – Sophia Antipolis,
c J.-F.
Burnol 2000
Maîtrise MASS 1999/2000 – 2ème semestre – MM6
Université de Nice – Sophia Antipolis
Cours “Mathématiques des séries temporelles”
Compléments 4 : aide-mémoire sur les séries stationnaires
version du 14 mai 2000,
c Jean-François
Burnol, 2000.
Note : cet aide-mémoire ne correspond pas à l’ordre dans lequel les sujets ont été abordés, mais reprend l’essentiel du matériel couvert dans les précédents compléments. Il ne
contient pas de démonstration. Le coeur du sujet est la notion d’innovation fondamentale,
l’existence de la représentation MA(∞), et l’algorithme de prévision sur la base des aspects complémentaires AR(∞) et MA(∞). J’ai utilisé dans ces notes une notion de “série
analytique”, mais je ne sais pas si cette terminologie est couramment employée. Elle est
très utile pour discuter de manière naturelle les ARMA(p,q).
Un effort a été fait pour bien distinguer entre elles les notions de stationnarité, d’inversibilité et de causalité. Cet effort est nécessaire au vu de la confusion sur ce sujet présente dans
différents textes destinés aux étudiants en économétrie (par exemple l’ouvrage de référence
“Time Series Analysis”, Princeton University Press, 1994, 799 pages, James D. Hamilton,
qui comporte des arguments “intuitifs” qui en plus d’être intuitifs sont faux). J’ai par
ailleurs bénéficié pour la préparation de ce cours du polycopié “Prévision” de Monique
Pontier (DESS 1996 à l’université de Orléans, 68 pages), mais dans un état d’esprit qui a
dû prendre en compte les réalités d’un cours de niveau maîtrise.
Parmi les autres sujets partiellement abordés dans le cours : projections orthogonales
et régression, mesure et représentation spectrale, séries non-stationnaires (polynomiales,
ARIMA, I(d)) avec une discussion des effets d’une racine unité, le filtre de Kalman (scalaire et vectoriel), et son utilisation pour la prévision sur la base d’un échantillon fini
et l’interpolation. Le temps a manqué en particulier pour traiter de la co-intégration, de
l’hétéroscédasticité (ARCH, GARCH, . . .), et surtout de l’estimation de paramètres. Cependant, grâce au Professeur Marc Diener, les étudiants ont pu bénéficier pendant les TDs
d’une formation complémentaire aux outils logiciels.
Je remercie Francine et Marc Diener, Nicolas Radulesco, et les participants du séminaire
gtmass pour avoir stimulé mon intérêt en ce sujet.
Maîtrise MASS, Université de Nice – Sophia Antipolis,
c J.-F.
3
Burnol 2000
Sommaire
1 Stationnarité : autocovariances
1.1 Stationnarité . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Fonction génératrice des autocovariances . . . . . . . . . . . .
1.3 Histoire d’un processus . . . . . . . . . . . . . . . . . . . . . .
4
4
4
5
2 Filtres : inversibilité, causalité
2.1 Moyennes mobiles . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Filtres analytiques et Inversibilité . . . . . . . . . . . . . . . .
2.3 Filtres causaux . . . . . . . . . . . . . . . . . . . . . . . . . .
5
5
6
7
3 Prévision : innovations, décomposition
3.1 Innovations fondamentales . . . . . . .
3.2 Décomposition de Wold . . . . . . . .
3.3 Formules de prévision de Wiener . . .
de
. .
. .
. .
Wold
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
8
8
9
10
4 MA(q)
4.1 Structure . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
12
13
5 AR(p)
5.1 Structure . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Équations de Yule-Walker . . . . . . . . . . . . . . . . . . . .
14
14
15
16
6 ARMA(p,q)
6.1 Condition d’existence . . . . . . . . . . . . . . . . . . . . . .
6.2 Structure . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
17
18
19
7 Séries analytiques
7.1 MA(∞) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2 AR(∞) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.3 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
21
21
22
4
1
1.1
Maîtrise MASS, Université de Nice – Sophia Antipolis,
c J.-F.
Burnol 2000
Stationnarité : autocovariances
Stationnarité
Une série temporelle est une suite de variables aléatoires X = (Xt )t∈Z (définies sur le même
espace probabilisé, et on les supposera à valeurs dans R). Elle est dite cov-stationnaire (ou à
covariances stationnaires, ou encore faiblement stationnaire du deuxième ordre, etc. . .) si d’une
part E(Xt ) est indépendant de t et si d’autre part E(Xt+j Xt ) est indépendant de t pour tout j.
On note alors E(X) = E(Xt ) (espérance de X). On dit que X est centrée si E(X) = 0. On note
X ∗ la série temporelle centrée déduite de X : ∀t Xt∗ = Xt − E(X). On note γ0X = E(Xt∗ Xt∗ )
∗ X ∗ ) (j ème autocovariance de X).
(variance de X) et plus généralement γjX = E(Xt+j
t
Note 1.1.1 (technique) : on suppose ci-dessus (et dans tout ce qui suit) X à valeurs réelles. Dans le
∗ X ∗ ), soit
cas d’une série à valeurs complexes il y a deux conventions possibles pour γjX : soit E(Xt+j
t
∗
∗
E(Xt+j Xt ). Ce choix a des répercussions dans différentes formules (filtrage du spectre, Yule-Walker,
etc. . .). Contrairement au choix fait dans le cours, c’est le deuxième qui semble le meilleur (par exemple
l’opérateur de décalage L corrrespond à la multiplication par z et non par z1 ), et il est implicite dans
certaines formules de ce texte dès qu’elles impliquent des nombres complexes.
Un bruit blanc est une série temporelle ε cov-stationnaire, centrée, telle que γjε = 0 pour j 6= 0.
En général on sous-entend aussi que γ0ε > 0 (sinon la série est identiquement nulle).
1.2
Fonction génératrice des autocovariances
On a toujours |γj | ≤ γ0 et γ−j = γj (pour X à valeurs complexes on a γ−j = γj ).
Lorsque les autocovariances sont sommables (
fX (θ) =
P
X
j
|γj | < ∞), la fonction (continue) suivante :
γj exp(i jθ)
j∈Z
est dite fonction génératrice des autocovariances. Par γ−j = γj on voit que fX (θ) ∈ R et il est
remarquable que l’on puisse de plus démontrer : ∀θ fX (θ) ≥ 0. La j ème autocovariance de X
s’obtient par la formule suivante de la théorie des séries de Fourier :
Z 2π
dθ
fX (θ) exp(−i jθ)
γj =
2π
0
Maîtrise MASS, Université de Nice – Sophia Antipolis,
c J.-F.
Burnol 2000
5
Souvent on utilise la notation alternative :
fX (z) =
X
γj z j
pour z = exp(iθ)
j∈Z
mais attention cela n’aura en général de sens que pour les nombres complexes z de module 1
(pour les autres la série pourrait diverger soit pour j → ∞ soit pour j → −∞).
1.3
Histoire d’un processus
Si X est centrée on note H(X) et on appelle histoire (linéaire) de X l’espace (de Hilbert) des
combinaisons linéaires des Xt , t ∈ Z. Si X n’est pas centrée, on définira l’histoire de X selon
H(X) = H(X ∗ ) (d’autres conventions sont possibles).
Le passé (linéaire) de X jusqu’à l’instant t, noté H≤t (X) est le sous-espace (fermé) de H(X)
engendré par les Xu∗ , u ≤ t. Les H≤t (X) forment une chaine croissante de sous-espaces de H(X).
Leur réunion est dense dans H(X), leur intersection H−∞ (X) := ∩t H≤t (X) est appelée passé
(linéaire) lointain de X.
2
2.1
Filtres : inversibilité, causalité
Moyennes mobiles
On note L l’opérateur de décalage qui transforme une série temporelle X = (Xt ) en la série
temporelle L ◦ X := Y = (Yt = Xt−1 ). Cet opérateur est donc défini pour n’importe quelle
série temporelle, pas nécessairement cov-stationnaire (et aussi pour des séries numériques, ou
à valeurs vectorielles, etc. . .). Il constitue l’exemple de base d’un filtre. On définit aussi son
inverse L−1 selon L−1 ◦ X := Y = (Yt = Xt+1 ). Le filtre unité 1 est le filtre qui ne fait rien :
1 ◦ X = X.
La notion de filtre est très vaste : d’une manière générale, il s’agit d’une opération X 7→ A ◦ X,
définie sur un certain espace vectoriel de séries temporelles (le domaine de A), et satisfaisant
des conditions telles que la linéarité (A ◦ (X + Y ) = A ◦ X + A ◦ Y ) et l’invariance dans le
temps (A ◦ L ◦ X = L ◦ A ◦ X).
6
Maîtrise MASS, Université de Nice – Sophia Antipolis,
c J.-F.
Burnol 2000
Lorsque les séries temporelles considérées sont stationnaires, il est naturel d’imposer que A ◦ X
soit également stationnaire et que l’histoire de A ◦ X soit contenue dans l’histoire de X. Un
exemple important est donné par les moyennes mobiles (bilatères) : le filtre A est déterminé
par une suite de coefficients aj , j ∈ Z, et agit (sur les séries centrées) selon
( 2.1.1 )
(A ◦ X)t =
P
j∈Z aj Xt−j
On impose au minimum que les coefficients aj du filtre vérifient
P
j
|aj |2 < ∞, de sorte que
A ◦ ε est bien définie pour tout bruit blanc ε (il est alors possible pour certaines séries X que
la somme dans 2.1.1 soit divergente et donc que A ◦ X ne soit pas définie).
Si les coefficients aj sont nuls pour j < 0 on dit que la moyenne mobile est unilatère.
2.2
Filtres analytiques et Inversibilité
On dit que A est un filtre analytique si la fonction h(z) =
P
j∈Z aj
z j est analytique dans
un anneau contenant le cercle S 1 . Concrètement cela signifie que les coefficients aj ont une
décroissance exponentielle :
∃C < 1, B > 0, ∀j
|aj | ≤ B · C |j|
On dit de h(z) qu’elle est la fonction spectrale de A et on notera A = Ah ou même A = h(L).
La formule 2.1.1 définit A ◦ X pour toute série stationnaire X.
Théorème 2.2.1 Le composé de deux filtres analytiques Ah et Ak est le filtre analytique de
fonction spectrale h(z)k(z). En particulier Ah ◦ Ak = Ak ◦ Ah .
Théorème 2.2.2 Si les autocovariances de X sont sommables alors il en est de même pour
Ah ◦ X et la fonction génératrice de ses autocovariances vaut |h(z)|2 fX (z).
Note 2.2.3 (technique) : Dans le cas complexe la formule du théorème est valable pour la définition
∗
γj = E(Xt+j
Xt∗ ). Pour l’autre convention c’est |h( z1 )|2 qu’il faudrait prendre. Si les coefficients aj sont
réels il n’y a aucune différence entre |h( z1 )|2 et |h(z)|2 (pour |z| = 1). Dans tous les cas attention : la
formule vaut uniquement pour |z| = 1, pour d’autres valeurs de z il faudrait prendre h(z)h( z1 ) fX (z).
Maîtrise MASS, Université de Nice – Sophia Antipolis,
c J.-F.
Burnol 2000
7
Le filtre Ah est dit inversible si pour toute série (cov-stationnaire, centrée) Y on peut en trouver
une autre X avec Ah ◦ X = Y .
Théorème 2.2.4 Un filtre analytique est inversible si et seulement si sa fonction spectrale h(z)
ne s’annule pas sur le cercle. Dans ce cas la solution à Ah ◦ X = Y est unique et donnée par
X = Ak ◦ Y avec k(z) =
1
h(z) .
Un filtre polynomial est un filtre analytique dont la fonction spectrale h(z) est un polynôme
en z. On impose alors de plus toujours la convention h(0) = 1, de sorte que Ah = 1 + φ1 L +
Q
φ2 L2 + . . . φd Ld . Le polynôme h(z) se factorise en 1≤j≤d (1 − λj z). On dit que les λj sont les
co-racines de h (ses racines sont les inverses
2.3
1
λj ).
Filtres causaux
On dit qu’un filtre Ah est causal si pour tout X :
∀t
H≤t (Ah ◦ X) ⊂ H≤t (X)
Théorème 2.3.1 Un filtre analytique Ah = h(L) =
P
j
j∈Z cj L
est causal si et seulement si
les coefficients cj sont tous nuls pour j < 0 (de manière équivalente si la fonction h(z) est
analytique dans le disque |z| ≤ 1).
On dit qu’un filtre Ah est régulier (ou bi-causal ) si pour tout X :
∀t
H≤t (Ah ◦ X) = H≤t (X)
Un filtre régulier est donc nécessairement causal.
Théorème 2.3.2 Un filtre analytique causal Ah = h(L) =
P
j
j≥0 cj L
est régulier si seulement
si la fonction analytique h(z) ne s’annule pour aucun z vérifiant |z| ≤ 1. Un filtre régulier est
donc nécessairement inversible.
Théorème 2.3.3 Un filtre analytique est régulier si et seulement si il est inversible, causal, et
d’inverse également causal.
8
Maîtrise MASS, Université de Nice – Sophia Antipolis,
c J.-F.
Burnol 2000
On voit donc qu’un filtre polynomial est toujours causal, qu’il est inversible si le polynôme ne
s’annule pas sur le cercle, et régulier si ses co-racines λj vérifient |λj | < 1 (ses racines sont toutes
strictement à l’extérieur du cercle). On reviendra (lors de la discussion des processus MA(q),
AR(p), ARMA(p,q)) sur le problème de donner explicitement les coefficients de l’inverse d’un
filtre polynomial inversible.
3
Prévision : innovations, décomposition de Wold
Les séries temporelles considérées dans cette section seront toutes supposées centrées. Sinon on
remplace X par sa version centrée X ∗ .
3.1
Innovations fondamentales
Soit X une série temporelle cov-stationnaire (centrée). Soit, pour tout t, Pt la projection orthogonale sur H≤t (X). Soit
εt := Xt − Pt−1 (Xt )
Théorème 3.1.1 La série temporelle ε = (εt )t∈Z est un bruit blanc.
Ce bruit blanc est appelé bruit blanc d’innovation de X. Les εt sont les innovations fondamentales du processus X. La relation
Xt = εt + Pt−1 (Xt )
montre que εt est ce qui arrive de “nouveau” à X à l’instant t. La variance de ε est nécessairement
inférieure ou égale à la variance de X.
On dit que X est purement déterministe si son bruit blanc d’innovation est nul. On peut alors
(en théorie) prévoir exactement les valeurs futures de X en fonction de la connaissance de toutes
ses valeurs passées.
Théorème 3.1.2 X est purement déterministe si et seulement si pour au moins un t on a
H≤t (X) = H≤t+1 (X), si et seulement si H−∞ (X) = H(X).
Maîtrise MASS, Université de Nice – Sophia Antipolis,
c J.-F.
Burnol 2000
9
L’extrême opposé est le suivant : on dit que X est purement innovante si X est non nulle et si
H−∞ (X) = {0}.
Théorème 3.1.3 X (non nulle) est purement innovante si et seulement si pour au moins un
t on a H≤t (X) = H≤t (ε), et l’égalité est alors valable pour tout t.
3.2
Décomposition de Wold
Théorème 3.2.1 (Wold) Pour toute série temporelle stationnaire centrée X il existe (de manière unique) une série purement innovante (ou nulle) Y et une série purement déterministe κ
telles que
X =Y +κ
Y et κ sont non corrélées
Théorème 3.2.2 Soit P−∞ la projection orthogonale sur H−∞ (X). Alors dans la décomposition de Wold on a κt = P−∞ (Xt ). À chaque instant t on a la décomposition orthogonale
H≤t (X) = H≤t (Y ) ⊕ H(κ).
Théorème 3.2.3 Supposons que X ne soit pas purement déterministe. Alors la partie purement
innovante Y de la décomposition de Wold s’exprime de manière unique comme moyenne mobile
unilatère en fonction du bruit blanc d’innovation ε de X :
∀t
avec c0 = 1,
P
vation pour Y .
j
Yt =
X
cj εt−j
j≥0
|cj |2 < ∞. Le bruit blanc d’innovation de X est également bruit blanc d’inno-
P
Théorème 3.2.4 Une moyenne mobile unilatère non nulle Xt = j≥0 dj ηt−j (avec η un bruit
P
blanc, et j |dj |2 < ∞) est purement innovante. Cependant η n’est pas nécessairement le bruit
blanc d’innovation de X.
10
Maîtrise MASS, Université de Nice – Sophia Antipolis,
Pour que dans une moyenne mobile unilatère Xt =
P
j≥0 cj εt−j
c J.-F.
Burnol 2000
le bruit blanc ε soit le bruit
blanc d’innovation de X il faut des conditions sur les coefficients cj dont l’énoncé est assez
P
technique. Cependant lorsqu’ils correspondent à un filtre (causal) analytique h(z) = j cj z j
on a l’énoncé simple suivant :
Théorème 3.2.5 Soit Ah = h(L) =
P
j
j≥0 cj L
un filtre causal analytique, et ε un bruit blanc
(non nul). Alors la série purement innovante X = Ah ◦ ε a comme bruit blanc d’innovation ε
si et seulement si
c0 = 1 et
|z| < 1 ⇒ h(z) 6= 0
On rappelle que par définition la fonction h(z) est supposée analytique dans un disque |z| < c2
strictement plus grand que le disque unité. Elle n’aura donc qu’un nombre fini de zéros éventuels
dans le disque |z| ≤ 1. Pour que ε soit le bruit blanc d’innovation de Ah ◦ ε la condition est donc
qu’aucun zéro ne se trouve à l’intérieur du cercle, mais les zéros sur le cercle sont autorisés.
3.3
Formules de prévision de Wiener
Pour une série purement déterministe le futur est exactement déterminé par le passé : cela
peut paraitre un avantage pour la prévision, mais aussi un inconvénient (suivant son inclination philosophique). D’ailleurs identifier une série κ comme étant purement déterministe, puis
trouver concrètement comment exprimer κt en fonction (linéaire) de ses valeurs passées pose
des problèmes considérables (et de toute façon insolubles car on ne dispose jamais que d’un
nombre fini d’observations). Dans ce cours l’accent est mis sur les séries purement innovantes
comme les AR(p) pour lesquelles le futur recèle de manière “officielle” une part de hasard, avec
cependant un faible nombre de paramètres inconnus a priori.
La représentation de Wold d’une série purement innovante comme moyenne mobile unilatère
par rapport à son bruit blanc d’innovation permet de résoudre le problème de la prévision
optimale du futur en fonction du passé.
Théorème 3.3.1 Soit X une série purement innovante, qui est donc une moyenne mobile
P
bt+δ | t
unilatère Xt = j≥0 cj εt−j par rapport à son bruit blanc d’innovation. Soit, pour δ > 0, X
la prévision optimale de Xt+δ sur la base du passé linéaire H≤t (X). Alors :
Maîtrise MASS, Université de Nice – Sophia Antipolis,
( 3.3.2 )
bt+δ | t =
X
X
cj εt+δ−j =
j≥δ
X
c J.-F.
Burnol 2000
11
cj+δ εt−j
j≥0
Ceci constitue une partie des formules de prévision de Wiener-Kolmogorov, la version complète
contenant les éléments suivants :
1. Un critère qui permette de décider sur la base des autocovariances de X si X est purement
innovante.
2. Des formules ou algorithmes pour les coefficients cj .
3. Les formules 3.3.2 et si possible l’expression de εt en fonction des Xu , u ≤ t
bt+δ | t en fonction des Xu , u ≤ t.
4. Dans la mesure du possible une expression directe des X
En toute généralité, les réponses à ces questions sont assez techniques, mais nous y reviendrons
pour les MA(q), AR(p), ARMA(p,q) et plus généralement les “séries analytiques”.
bt+δ | t . On a
Théorème 3.3.3 Soit σδ2 la variance de Xt+δ − X
σδ2 = γ0ε (
X
0≤j≤δ−1
γ0X = γ0ε ·
X
j≥0
|cj |2 )
|cj |2
On voit donc que au fur et à mesure que l’horizon t + δ s’éloigne l’erreur σδ2 de la prévision
optimale augmente et tend vers la variance de X, avec une valeur minimale pour δ = 1 égale à
la variance de ε.
4
MA(q)
Dans cette section et les suivantes les séries temporelles sont centrées. Plus généralement on
dira ensuite que X est un MA(q) ou un AR(p) ou un ARMA(p,q) si X ∗ l’est. MA = “moving
average” (moyenne mobile), AR = “autoregressive” (autoregressif).
12
4.1
Maîtrise MASS, Université de Nice – Sophia Antipolis,
c J.-F.
Burnol 2000
Structure
On dit que X est un MA(q) si X est le filtré Ak ◦ η d’un bruit blanc (non nul) par un filtre
polynomial Ak = k(L) = 1 + ψ0 L + . . . + ψq Lq , de degré q (ψq 6= 0). On dit que X est un
MA(≤q) si deg(k) ≤ q.
Théorème 4.1.1 Un MA(q) X = Ak ◦η est purement innovant. Sa relation avec son bruit blanc
d’innovation ε est aussi du type MA(q) : X = Ah ◦ ε, avec deg(h) = deg(k) = q. Le polynôme
h(z) (dit polynôme canonique) s’obtient à partir du polynôme k(z) en remplaçant toutes les
racines éventuelles se trouvant à l’intérieur du cercle unité par leurs inversions (α 7→
1
α
), les
déplaçant ainsi à l’extérieur du cercle unité.
Théorème 4.1.2 Soit X un MA(q). Il n’y a qu’un nombre fini de polynômes k(z) pour lesquels
on puisse trouver un bruit blanc η avec X = Ak ◦ η. Une fois k choisi, η est uniquement
déterminé. Tous les polynômes k ont le même degré q.
Théorème 4.1.3 Soit X = Ak ◦ η un MA(q). Soit µ1 , . . . , µq les co-racines de k(z). Le poly-
nôme h(z) qui relie X à son bruit blanc d’innovation est
h(z) =
Y
j, |µj |≤1
(1 − µj z)
Y
(1 −
j, |µj |>1
1
z)
µj
La variance du bruit blanc d’innovation est relié à la variance de η par
γ0ε = γ0η ·
Y
j, |µj |>1
|µj |2
Les autocovariances d’un MA(q) X = Ak ◦ η = η + ψ1 L ◦ η + . . . + ψq Lq ◦ η se calculent selon :
X
γjX z j = γ0η (1 + ψ1 z + . . . + ψq z q )(1 + ψ1
j
1
1
+ . . . + ψq q )
z
z
En particulier
γ0X = γ0η (1 + |ψ1 |2 + . . . + |ψq |2 )
et les γjX sont nuls pour |j| > q.
Maîtrise MASS, Université de Nice – Sophia Antipolis,
c J.-F.
Burnol 2000
13
Théorème 4.1.4 Une série cov-stationnaire est un MA(q) si et seulement si ses autocovariances γjX sont nulles pour j > q et γqX 6= 0.
Théorème 4.1.5 La somme d’un MA(q1 ) et d’un MA(q2 ) (non-corrélées) est un MA(≤max(q1 ,
q2 )).
4.2
Prévision
Soit X un MA(q). On a vu comment trouver le polynôme canonique
h(z) =
Y
1≤k≤q
(1 − λk z)
∀k |λk | ≤ 1
et donc la relation qui le lie à son bruit blanc d’innovation ε :
Xt = εt + φ1 εt−1 + . . . + φq εt−q
On a donc
Théorème 4.2.1
bt+1 | t = φ1 εt + . . . + φq εt−(q−1)
X
bt+2 | t = φ2 εt + . . . + φq εt−(q−2)
X
...
bt+q | t = φq εt
X
bt+j | t = 0
j>q⇒ X
Il subsiste le problème d’exprimer explicitement les εu en fonction des Xt . Il y a des difficultés
si le polynôme canonique s’annule sur le cercle :
Théorème 4.2.2 Si h(z) s’annule en un point du cercle unité, alors il n’existe aucun choix
P
de coefficients αj pour lesquels j≥0 αj Xt−j converge et coïncide avec εt . Cependant on peut
représenter εt comme une limite de telles combinaisons linéaires des Xu , u ≤ t.
14
Maîtrise MASS, Université de Nice – Sophia Antipolis,
c J.-F.
Burnol 2000
Dans le cas régulier où le polynôme h(z) ne s’annule pas sur le cercle unité (et définit donc un
filtre régulier), on a
Théorème 4.2.3 Si h(z) ne s’annule en aucun point du cercle unité alors il existe un choix
unique de coefficients αj pour lesquels on a
εt =
X
αj Xt−j
j≥0
Les coefficients αj convergent rapidement vers 0 lorsque j → ∞, en effet ce sont les coefficients
du filtre analytique A1/h . Dans le cas où h n’a pas de racine multiple, on a la formule explicite
suivante :
∀j ≥ 0
X
αj =
avec
mk = Q
mk λjk
1≤k≤q
1
l6=k (1
−
λl
λk )
En conclusion les MA(q) ne sont pas bien adaptés à la prévision puisque d’une part j > q ⇒
bt+j | t = 0 et d’autre part les prévisions nécessitent la connaissance de toutes les valeurs passées
X
de X.
5
5.1
AR(p)
Structure
On dit que X est un AR(p) si il existe un filtre polynomial k(z) = 1 − ψ1 z − . . . − ψp z p de degré
p (ψp 6= 0) tel que η = Ak ◦ X soit un bruit blanc non nul. On dit que X est un AR(≤p) si
deg(k) ≤ p.
Théorème 5.1.1 Si X est un AR(p) alors k(z) n’a aucune racine sur le cercle. Autrement dit
le filtre analytique Ak est nécessairement inversible et X = A1/k ◦ η. Il n’y a qu’un nombre fini
de polynômes qui filtrent X en un bruit blanc : ils s’obtiennent à partir de k(z) par la même
règle que pour les MA(q). En particulier ils ont tous le même degré p.
Maîtrise MASS, Université de Nice – Sophia Antipolis,
c J.-F.
Burnol 2000
15
Théorème 5.1.2 Si X est un AR(p) (η = Ak ◦ X) alors X est purement innovante, et il
existe un unique polynôme h(z) (dit canonique) tel que le bruit blanc d’innovation de X soit
de la forme ε = Ah ◦ X. Le polynôme canonique est de degré p et s’obtient à partir de k(z)
Q
par la même règle que pour les MA(q). Il est donc de la forme h(z) = 1≤k≤q (1 − λk z) avec
∀k |λk | < 1.
Théorème 5.1.3 Si X est un AR(p) alors X s’exprime comme moyenne mobile unilatère à
partir de son bruit blanc d’innovation ε :
Xt =
X
cj εt−j
j≥0
avec des coefficients cj qui convergent rapidement vers 0 lorsque j → ∞, en effet ce sont les
coefficients du filtre analytique A1/h , avec h(z) le polynôme canonique.
5.2
Prévision
Les AR(p) sont bien adaptés à la prévision :
Théorème 5.2.1 Soit X un AR(p) de bruit blanc d’innovation ε et de polynôme canonique
bu | t (pour u > t) sont des combinaisons
h(z) = 1 − φ1 z − . . . − φp z p . Les prévisions optimales X
linéaires de Xt , Xt−1 , . . . , Xt−p+1 :
bu | t =
X
X
aj (u) Xt−j
0≤j≤p−1
qui s’obtiennent par récurrence selon
bu | t =
X
X
1≤k≤p
bu−k | t
φk X
bt−j | t = Xt−j pour j ≥ 0
avec les conditions initiales X
On peut donner des formules plus explicites pour les coefficients aj (u), mais c’est un peu
compliqué, surtout si h(z) a des racines multiples. Du point de vue du calcul par un ordinateur
bu | t par récurrence comme ciil est en général plus simple, et tout aussi efficace, d’évaluer X
dessus. Lorsque h(z) n’a pas de racine multiples, on peut aussi procéder selon :
16
Maîtrise MASS, Université de Nice – Sophia Antipolis,
c J.-F.
Burnol 2000
Théorème 5.2.2 Soit X un AR(p) de bruit blanc d’innovation ε et de polynôme canonique
Q
Q
h(z) = 1−φ1 z−. . .−φp z p = 1≤k≤p (1−λk z), sans racine multiple. Soit hk (z) = j6=k (1−λj z)
et Y k = hk (L) ◦ X. Alors les Y k sont des AR(1) qui partagent avec X le même bruit blanc
d’innovation. On a
bu | t =
X
avec
X
1≤k≤p
mk · λku−t · Ytk
1
mk = Q
j6=k (1
−
λj
λk )
bu | t peuvent
En comparaison avec les MA(q), on voit donc que pour un AR(p) les prévisions X
être non nulles même avec u ≫ t, et de plus s’expriment assez directement comme une combi-
naison linéaire des p dernières valeurs observées de X. Ces avantages paraissent décisifs...mais
attention, dans la pratique on ne connaît pas à l’avance les valeurs de φ1 , . . . , φp et on ne connaît
pas non plus la variance γ0ε du bruit blanc d’innovation : pour obtenir des valeurs approchées
significatives il faudra disposer de nettement plus que p observations. On calculera alors d’abord
des approximations aux auto-covariances de X puis on en déduira (section suivante) des valeurs
pour φ1 , . . . , φp et γ0ε .
5.3
Équations de Yule-Walker
Soit X un AR(p) de bruit blanc d’innovation ε et de polynôme canonique h(z) = 1 − φ1 z −
Q
. . . − φp z p = 1≤k≤p (1 − λk z). Pour des raisons théoriques on veut pouvoir calculer les auto-
covariances de X lorsque les φk et γ0ε sont connus. Pour des raisons pratiques on veut pouvoir
calculer φk et γ0ε lorsque les autocovariances de X sont connues.
Théorème 5.3.1 (Yule-Walker) On a les équations suivantes :
(Y W0 )
X
X
γ0X − φ1 γ−1
− . . . − φp γ−p
= γ0ε
(Y W1 )
X
γ1X − φ1 γ0X − . . . − φp γ1−p
=0
...
(Y Wj )
X
X
γjX − φ1 γj−1
− . . . − φp γj−p
=0
dites équations de Yule-Walker.
Maîtrise MASS, Université de Nice – Sophia Antipolis,
c J.-F.
Burnol 2000
17
X
X
Note 5.3.2 Lorsque X est à valeurs réelles γ−j
= γjX , en général γ−j
= γjX . On suppose X à valeurs
réelles dans les deux théorèmes suivants.
Théorème 5.3.3 Étant donnés φ1 , . . . , φp et γ0ε le système Y W0 , . . . , Y Wp de p + 1 équations
linéaires en les p + 1 inconnues γ0X , . . . , γpX possède une unique solution. Les γjX pour j > p
sont alors calculées par récurrence avec les Y Wj , j > p.
Théorème 5.3.4 Étant donnés γ0X , . . . , γpX le système Y W1 , . . . , Y Wp de p équations linéaires
en les p inconnues φ1 , . . . , φp possède une unique solution. L’équation Y W0 permet alors d’évaluer γ0ε .
Dans la pratique (après avoir deviné une valeur raisonnable pour p) on calcule des valeurs
empiriques des autocovariances γ0X , . . . , γpX . On en déduit les valeurs de φ1 , . . . , φp et γ0ε . Puis
on cherche à valider le modèle en comparant avec les valeurs empiriques les valeurs des γjX
pour j > p déduites des autres Y Wj . Enfin le modèle sera “efficace” (du point de vue de la
prédiction) si γ0ε est petit par rapport à γ0X . Cela signifie que les racines (ou co-racines) de h(z)
doivent être proches du cercle unité.
6
6.1
ARMA(p,q)
Condition d’existence
Soit P (z) = 1 − φ1 z − . . . − φp z p un polynôme de degré p et Q(z) = 1 + ψ1 z + . . . + ψp z p un
polynôme de degré q. Soit η un bruit blanc. On cherche X cov-stationnaire vérifiant :
(ARMAP |Q )
AP ◦ X = AQ ◦ η
Théorème 6.1.1 Pour qu’il existe une solution cov-stationnaire à l’équation ARMAP |Q il faut
et il suffit que toute co-racine de P (z) sur le cercle, si il en existe, soit aussi une co-racine de
Q(z) avec au moins la même multiplicité.
Théorème 6.1.2 Si ARMAP |Q possède une solution cov-stationnaire alors elle en possède une
unique qui soit purement innovante, et cette solution s’obtient comme X = AF ◦ η où F (z) est
18
Maîtrise MASS, Université de Nice – Sophia Antipolis,
la fraction rationnelle
Q(z)
P (z) .
c J.-F.
Burnol 2000
Toutes les autres solutions sont de la forme X + Z1 + . . . + Zr avec
Zk une série temporelle de la forme (Zk )t = αkt (Zk )0 et {α1 , . . . , αr } les co-racines de P (z) sur
le cercle.
On dira donc que X est un ARMA(p,q) si X est l’unique solution purement innovante d’une
équation ARMAP |Q avec deg(P ) = p et deg(Q) = q (et on dit que X est un ARMA(≤p,≤q) si
deg(P ) ≤ p et deg(Q) ≤ q). On peut supprimer tout facteur commun à P et Q. Alors P (z) ne
peut pas avoir de racine sur le cercle, le filtre AP est inversible, et X = (AP )−1 ◦ AQ ◦ η. On
suppose que c’est le cas dans tout ce qui suit.
6.2
Structure
Théorème 6.2.1 Pour que η soit le bruit blanc d’innovation de X il faut et il suffit que P (z) =
Q
Q
1≤j≤q (1 − µj z) avec ∀k |λk | < 1 et ∀j |µj | ≤ 1.
1≤k≤p (1 − λk z) et Q(z) =
Théorème 6.2.2 Si X est un ARMA(p,q) donné selon AP ◦ X = AQ ◦ η, alors la relation (dite
minimale) entre X et son bruit blanc d’innovation est du même type :
AP1 ◦ X = AQ1 ◦ ε
où P1 et Q1 s’obtiennent à partir de P et Q selon la même règle que pour les AR(p) et les
MA(q), puis en supprimant tout facteur commun éventuel.
Théorème 6.2.3 X est un ARMA(p,q) (pour p et q bien choisis) si et seulement si la fonction
génératrice de ses autocovariances est une fraction rationnelle.
Théorème 6.2.4 La somme d’un ARMA(p1 ,q1 ) et d’un ARMA(p2 ,q2 ) (non-corrélées) est un
ARMA(p1 +p2 , ≤max(p1 +q2 , p2 +q1 )).
Par exemple : la somme de deux bruits blanc indépendants (=ARMA(0, 0)) est un bruit blanc.
La somme d’un bruit blanc et d’un MA(q) est un MA(≤q) (en fait exactement un MA(q)).
La somme d’un AR(p) et d’un bruit blanc indépendant est un ARMA(p, ≤p). La somme
Maîtrise MASS, Université de Nice – Sophia Antipolis,
c J.-F.
Burnol 2000
19
d’un AR(p1 ) et d’un AR(p2 ) est un ARMA(p1 +p2 , ≤max(p1 , p2 )). La somme d’un AR(p)
et d’un MA(q) est un ARMA(p, ≤p+q). La somme d’un MA(q1 ) et d’un MA(q2 ) est un
MA(≤max(q1 ,q2 )). Toutes ces sommes portent sur des séries non-corrélées.
6.3
Prévision
Supposons que l’on dispose d’un grand nombre d’observations consécutives de X jusqu’à l’insbu | t il faut suivant la méthode générale de Wiener
tant t. Pour estimer les prévisions optimales X
d’une part disposer des coefficients cj qui relient X à son bruit blanc d’innovation ε, et d’autre
part déduire des valeurs numériques observées des Xu (pour u ≤ t) les valeurs numériques des
εu (pour u ≤ t). On a alors suivant la formule générale 3.3.2 :
bt+δ | t =
X
X
cj+δ εt−j
j≥0
Dans une première étape on utilise le théorème suivant pour essayer d’évaluer p et les coefficients
du polynôme P (z) :
Théorème 6.3.1 Les équations de Yule-Walker Y Wj (définies précédemment pour un AR(p))
sont valables pour un ARMA(p,q) pour j > q. Lorsque (p,q) est minimal le système Sp|q de p
équations Y Wq+1 , . . . , Y Wq+p en les p inconnues φ1 , . . . , φp possède une unique solution.
Dans la pratique on devine p, on calcule les autocovariances empiriques, puis on résoud Sp|q pour
des valeurs croissantes de q. Si les solutions ne se stabilisent pas, c’est que p est trop petit. Si
les systèmes ont numériquement des déterminants proches de 0, c’est que p est trop grand. Une
fois déterminée une valeur raisonnable pour p, on dispose donc de P (z) = 1 − φ1 z − . . . − φp z p
et on peut calculer numériquement les autocovariances βj de AP ◦ X, d’où une valeur pour
P
q (j > q ⇒ βj ≈ 0). L’étape suivante est de trouver les zéros µ1 , . . . , µq de |j|≤q βj z j dans
Q
le disque unité d’où Q(z) = 1≤j≤q (1 − µj z) = 1 + ψ1 z + . . . + ψq z q . C’est seulement à ce
stade que l’on pourra évaluer la variance γ0ε du bruit blanc d’innovation, par exemple selon
P
β0 = γ0ε · j |ψj |2 .
20
Maîtrise MASS, Université de Nice – Sophia Antipolis,
c J.-F.
Burnol 2000
Les coefficients cj sont les coefficients du filtre analytique A−1
P ◦AQ , autrement dit les coefficients
du développement
(|z| ≤ 1)
X
j≥0
Q
1≤j≤q
cj z j = Q
(1 − µj z)
1≤k≤p (1
− λk z)
pour lesquels on peut donner diverses formules ou algorithmes.
L’expression du bruit blanc d’innovation ε en fonction de X n’est accessible que si Q(z) ne
P
s’annule pas sur le cercle, on a alors εt = j≥0 dj Xt−k où les dj sont les coefficients du filtre
analytique AP ◦ A−1
Q . Dans ce cas :
Théorème 6.3.2 Les prévisions optimales s’expriment comme des combinaisons linéaires
avec pour chaque δ :
bt+δ | t =
X
X
j≥0
X
α(δ, j) Xt−j
j≥0
1 Q(z)
α(δ, j) z = δ
z P (z)
j
+
·
P (z)
Q(z)
où [·]+ signifie que l’on ne retient que les termes en z k avec k ≥ 0.
Pour δ = 1 on a α(1, j) = −dj+1 , et il est inutile de calculer les α(δ, j) pour δ ≥ 2. En effet :
bt+δ | t s’obtiennent par récurrence selon
Théorème 6.3.3 Les X
bt+δ | t = −
X
X
j≥1
avec les conditions initiales pour u ≤ t
bt+δ−j | t
dj X
b u | t = Xu
X
et les dj reliant X et son bruit blanc d’innovation ε selon
εt =
X
dj Xt−j
j≥0
Autrement dit on procède comme avec un AR(p), à partir du moment où l’on dispose de la
représentation “AR(∞)” qui exprime le bruit blanc d’innovation à partir de X.
Maîtrise MASS, Université de Nice – Sophia Antipolis,
7
7.1
c J.-F.
Burnol 2000
21
Séries analytiques
MA(∞)
les séries AR(p), MA(q), ARMA(p,q) sont toutes des séries analytiques au sens suivant : on
dit que la série cov-stationnaire centrée X est analytique si elle est non-nulle et si ses autocovariances γjX ont une décroissance exponentielle :
∃c < 1 ∃A
∀j
|γjX | < A · c|j|
Autrement dit X (non-nulle) est analytique si la fonction génératrice de ses autocovariances est
la restriction au cercle d’une fonction analytique dans un certain anneau.
Théorème 7.1.1 X est analytique si et seulement si elle est purement innovante et si les coefP
ficients cj apparaissant dans sa décomposition de Wold Xt = j≥0 cj εt−j ont une décroissance
exponentielle.
Nous dirons que X est un MA(∞) si elle est une moyenne mobile unilatère avec des coefficients
à décroissance exponentielle à partir d’un bruit blanc (non nul). D’après le théorème précédent
toute série analytique est un MA(∞).
Théorème 7.1.2 X est un MA(∞) si et seulement si elle est analytique.
Théorème 7.1.3 X (non-nulle) est une série analytique si et seulement si elle peut s’écrire
sous la forme A(L) ◦ η avec A(L) un filtre analytique et η un bruit blanc. Ce dernier sera le
bruit blanc d’innovation de X si et seulement si A(L) est un filtre causal avec A(0) = 1 et
|z| < 1 ⇒ A(z) 6= 0.
7.2
AR(∞)
On dit que X est un AR(∞) si il existe des coefficients à décroissance exponentielle φj tels que
le filtré de X par le filtre analytique causal 1 − φ1 L − φ2 L2 − . . . soit un bruit blanc (non nul).
22
Maîtrise MASS, Université de Nice – Sophia Antipolis,
c J.-F.
Burnol 2000
Théorème 7.2.1 X est un AR(∞) si et seulement si elle est une série analytique dont la
fonction génératrice des autocovariances ne s’annule pas sur le cercle. Tout AR(∞) est donc
aussi un MA(∞). Si X est un AR(∞) alors il existe un unique filtre analytique tel que son
bruit blanc d’innovation ε puisse s’écrire sous la forme A(L) ◦ X. Ce filtre est causal et vérifie
|z| ≤ 1 ⇒ A(z) 6= 0.
Théorème 7.2.2 X est un AR(∞) si et seulement si il existe un filtre analytique A(L) avec
A(L) ◦ X = η un bruit blanc (non nul). Nécessairement A(L) est un filtre inversible et donc
X = A(L)−1 ◦ η. η est le bruit blanc d’innovation de X si et seulement si A(L) est un filtre
causal avec A(0) = 1 et |z| < 1 ⇒ A(z) 6= 0.
7.3
Prévision
Soit X un AR(∞). Il existe donc deux suites de coefficients φ0 = 1, φ1 , φ2 , . . . et c0 = 1, c1 , c2 , . . .
à décroissances exponentielles qui le relient à son bruit blanc d’innovation :
AR(∞)
M A(∞)
Xt − φ1 Xt−1 − φ2 Xt−2 − . . .
Xt
=
=
εt
εt + c1 εt−1 + c2 εt−2 + . . .
Théorème 7.3.1 (Algorithme fondamental pour la prévision) Les prévisions optimales
bt+δ | t s’obtiennent par récurrence selon
X
bt+δ | t =
X
avec les conditions initiales pour u ≤ t
X
j≥1
bt+δ−j | t
φj X
b u | t = Xu
X
L’erreur quadratique dans la prévision est donnée par
bt+δ | t |2 ) = γ0ε ·
σδ2 := E(|Xt+δ − X
On a σ12 = γ0ε et à la limite lorsque δ → ∞ :
lim σδ2 = γ0X = γ0ε ·
δ→∞
X
0≤j
X
0≤j≤δ−1
|cj |2
|cj |2
Université de Nice – Sophia Antipolis
Maîtrise MASS 1999-2000 (2ème sem.)
Séries Temporelles (option Mathématiques)
Exercices et sujets d’examens
c
J.-F.
Burnol, 2000.
Note: Les premières feuilles d’exercices posent de grosses difficultés à des étudiants qui
ne disposent que de très peu de notions préalables sur les séries de Fourier, la notion de
projection orthogonale, les espaces de Hilbert, la théorie de la mesure, la notion de variable
aléatoire, les nombres complexes et les fractions rationnelles.
De plus la convention retenue pour les covariances d’une série centrée à valeurs complexes
pas la meilleure. Il aurait fallu prendre γj = E(Xt+j Xt ) (tout en conservant γj =
Rn’est
−j
z dµX .) Il aurait mieux valu éviter le plus possible l’emploi des nombres complexes.
La notion de mesure spectrale est trop technique, et il vaut mieux se limiter à la fonction
génératrice des covariances qui existe toujours pour un ARMA(p,q).
Les exercices des examens n’utilisent que les nombres réels, et ils donnent une meilleure
idée du niveau attendu des étudiants, compte tenu de leur bagage mathématique. Dans le
cours, on a abordé d’autres sujets comme les séries non-stationnaires ARIMA et le filtre de
Kalman-Bucy.
23
24
c Jean-François Burnol, 2000.
Université de Nice – Sophia Antipolis
Maîtrise MASS 1999/2000 – 2ème semestre – Analyse des séries temporelles
Feuille d’exercices 1
SC = série chronologique (à valeurs complexes ou réelles).
SCCS = série chronologique à covariances stationnaires.
e = E(Xt ) γj = E(Xt+j Xt ) − |e|2 =
SCCCS = série chronologique centrée à covariances stationnaires.
R
z −j dµX
e=0
E(εt+j εt ) = σ 2 δj,0
BB = bruit blanc.
(*) indique un exercice d’une difficulté plus grande.
1. Soient ε et η deux BB indépendants. À quelle condition la série (. . . , ε0 , η0 , ε1 , η1 , . . .) est une SCCS ?
2. Soit X une SCCCS. On se donne des constantes (complexes) at et on définit Yt = at Xt . On suppose
γ1X 6= 0. À quelle condition Y est-elle une SCCS ?
3. (*) Même question mais en supposant γ2X 6= 0 et γ3X 6= 0.
4. Soient X et Y deux SCCCS indépendantes. Montrer que Z = X + Y est une SCCCS et calculer ses
covariances ainsi que sa mesure spectrale en fonction de celles pour X et Y .
5. Soit ε un BB, et X un MA(1) défini par Xt = aεt + bεt−1 (a, b ∈ C). Calculer les covariances de X.
Montrer l’inégalité γ0 ≥ 2|γ1 |.
6.
(*)
Soit X une SCCCS. Montrer ∀j γ0 ≥ |γj | (ind.: calculer la variance de la variable aléatoire
Y = |γj |X0 − γj Xj ). Donner un exemple pour lequel ces inégalités sont des égalités.
7. (*) Soit X une SCCCS vérifiant: |j| ≥ 2 ⇒ γj = 0. Soit z un nombre complexe de module 1 et k ≥ 1.
Quelle est la variance de Y = Xt + zXt−1 + . . . + z k Xt−k ? En déduire γ0 ≥ 2|γ1 |, et utiliser les formules de
l’exercice 5 pour montrer l’existence d’un MA(1) qui a les mêmes covariances que X (cela implique que X
est lui-même un MA(1) par un résultat que l’on verra ultérieurement en cours).
8. Soit ε un BB, et X un MA(2) défini par Xt = aεt + bεt−1 + cεt−2 (a, b, c ∈ C). Calculer les covariances
de X. Montrer les inégalités |γ2 | ≤
est une égalité.
γ0
2
et |γ1 | ≤
γ0
2
+ |γ2 |. Donner un exemple où cette deuxième inégalité
9. (*) Soit X une SCCCS vérifiant: |j| ≥ 3 ⇒ γj = 0. On montrera ultérieurement en cours que X est un
MA(2), et donc que ses covariances vérifient les inégalités de l’exercice 8. Prouver ces inégalités directement
(ind.: adopter la méthode de l’exercice 7).
25
c Jean-François Burnol, 2000.
Université de Nice – Sophia Antipolis
Maîtrise MASS 1999/2000 – 2ème semestre – Analyse des séries temporelles
1. Même variance pour les deux bruits blancs.
2. Comme γ1X 6= 0, X n’est pas nulle et γ0X 6= 0 aussi. Donc |at | est une constante et soit les at sont
tous nuls, soit aucun n’est nul. Dans ce cas le calcul de γ1Y donne une relation at+1 = cat , |c| = 1. Donc
at = a0 ct , |c| = 1.
3. idem en reliant at+3 et at ainsi que at+3 et at+1 donc at+1 et at .
4. γjZ = γjX + γjY , µZ = µX + µY .
5. γ0 = |a|2 + |b|2 , γ1 = ab, γ−1 = ba, les autres sont nuls.
2
6. E(|γj |X0 − γj Xj ) = 2|γj |2 (γ0 − |γj |). Exemple: ∀t : Xt = X0 .
7. E(|Xt + zXt−1 + . . . + z k Xt−k |2 ) = (k + 1)γ0 + 2kRe(γ1 z). Prendre z = − |γγ11 | . (si γ1 = 0 il n’y a rien à
montrer). Faire k → ∞. L’inégalité permet de trouver a et b avec γ0 = |a|2 + |b|2 , γ1 = ab.
8. γ0 = |a|2 + |b|2 + |c|2 , γ1 = γ−1 = ab + bc, γ2 = γ−2 = ac. Les autres sont nuls. Pour l’exemple prendre
a = 1, b = 2, c = 1.
9. Si on se restreint aux termes pairs, on a une SC à laquelle 7 s’applique donc |γ2 | ≤
γ0
2 .
Sinon E(|Xt +
zXt−1 + . . . + z Xt−k | ) = (k + 1)γ0 + 2kRe(γ1 z) + 2(k − 1)Re(γ2 z ). Faire k → ∞. Prendre z = − |γγ11 | .
k
2
2
26
c Jean-François Burnol, 2000.
Université de Nice – Sophia Antipolis
Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles
Feuille d’exercices 2
1. Exercice.
Soit ε un BB de variance 1 et X le MA(1) défini par Xt = εt − 31 εt−1 . Exprimer εt en fonction
de Xt , Xt−1 , . . . Quelles sont les meilleures prédictions de Xt+1 , Xt+2 , . . . connaissant les Xu , u ≤ t ?
2. Problème. Soit η un BB de variance 1 et X le MA(1) défini par Xt = ηt − 5ηt−1 . On définit εt comme
P
étant j≥0 ( 15 )j Xt−j . Quelles sont les fonctions représentant les ηt , Xt et εt dans L2 (S 1 , µη )? Montrer que
ε est un BB. Quelle est sa variance? Quelles sont les fonctions représentant les εt , Xt et ηt dans L2 (S 1 , µε )?
et dans L2 (S 1 , µX )? Exprimer ηt en fonction des εu . Quelle est la meilleure prédiction possible pour ηt+1
exprimée en fonction des Xu , u ≤ t ?
3. Exercice.
Soit Y une SCS, h(z) un polynôme, et Z le filtré de Y par h. Soit k(z) un second polynôme
et W le filtré de Z par k. Montrer que W est le filtré de Y par le produit des polynômes h et k.
4.
Exercice.
Soit ε un BB de variance 1 et X le MA(1) défini par Xt = εt − εt−1 . Soit WN =
εt−1 +εt−2 +...+εt−N
N
. Quelle est la variance de WN ? Montrez Xt + (1 − N1 )Xt−1 + . . . + N1 Xt−N +1 = εt − WN .
En déduire εt ∈ H≤t (X).
5. Problème (**).
On conserve les notations de l’exercice précédent. Montrer qu’il est impossible d’écrire
p
P
E(|W |2 ) ).
εt sous la forme d’une série Z =
j≥0 αj Xt−j (convergente au sens de la norme kW k =
Raisonnant par l’absurde, on commencera par calculer Cov(Xu , Z) pour u ≤ t + 1 pour en déduire des
relations de récurrence entre les αj . On montrera ensuite que le critère de Cauchy ne peut être satisfait pour
la suite définissant Z.
6. Exercice.
Soit ε un BB de variance 1 et X le MA(2) défini par Xt = εt − 56 εt−1 + 61 εt−2 . Dans
L2 (S 1 , µX ) quelles sont les fonctions représentant les Xt et les εt ? Exprimez εt comme combinaison des
Xu , u ≤ t, et donnez les meilleurs prédictions possibles pour Xt+1 , Xt+2 , . . . connaissant les Xu , u ≤ t. On
utilisera la formule
7. Problème (*).
1
(1−λ1 z)(1−λ2 z)
=
1
1
(λ1 −λ2 )z ( 1−λ1 z
−
1
1−λ2 z ).
Soit η un BB de variance 1 et X le MA(2) défini par Xt = ηt − 5ηt−1 + 6ηt−2 . Quelles
sont les meilleures prédictions possibles pour les valeurs futures de η connaissant les valeurs passées de X?
On commencera par construire le bruit blanc d’innovation ε de X en utilisant les résultats de l’exercice
précédent. Puis on donnera les fonctions correspondant aux εt , Xt et ηt dans L2 (S 1 , µǫ ). On en déduira les
valeurs des covariances Cov(ηt , εu ).
8. Soit η un BB de variance 1 et X le MA(3) défini par Xt = ηt − 3ηt−1 − 4ηt−2 + 12ηt−3 . Quel est
le polynôme canonique de X? Quelle est la variance du bruit blanc d’innovation εinn ? Quelles sont les
fonctions représentant les εt dans L2 (S 1 , µX )?
Université de Nice – Sophia Antipolis
J.-F. Burnol
27
c Jean-François Burnol, 2000.
Université de Nice – Sophia Antipolis
Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles
Feuille d’exercices 2 – Solutions
1. On a εt =
∗
Xt+1
= − 31 ε∗t =
P
1
j≥0 3j Xt−j . D’ après
P
1
− j≥0 3j+1
Xt−j .
∗
la méthode expliquée en cours Xt+j
= 0 pour j ≥ 2, tandis que
2. Dans L2 (S 1 , µη ) les fonctions représentant les ηt sont par définition z 7→ z t . Pour les Xt : z 7→ xt (z) :=
P
1−5 1
1−5 1
z t − 5z t−1 . Pour les εt : z 7→ εt (z) := (z t − 5z t−1 ) j≥0 ( 51 )j z1j = z t 1− 1 z1 . Notons h(z) = 1− 1 z1 . On a
5 z
h(z) = −5
5 z
1 1 − 15 z
z 1 − 15 z1
et donc |h(z)| = 5 pour |z| = 1. Les fonctions εt (z) représentant les εt sont z 7→ z t h(z). Elles sont
orthogonales de sorte que ε est un BB, et de variance 5. Dans L2 (S 1 , µε ) les fonctions représentant les εt
sont z 7→ z t . On a Xt = εt − 51 εt−1 donc les fonctions représentant les Xt sont z 7→ z t (1 − 51 z1 ). L’application
f (z) 7→ f (z)/h(z) est une isométrie de L2 (S 1 , µη ) vers L2 (S 1 , µε ) qui envoie les εt (z) sur z 7→ z t . Donc
zt
h(z)
les fonctions représentant les ηt sont: z 7→
z− 1
= −z t 51 1− 15z . On obtient une isométrie de L2 (S 1 , µη ) vers
L2 (S 1 , µX ), qui envoie xt (z) vers z 7→ z t par f (z) 7→
5
f (z)
1−5/z .
Les fonctions représentant les εt dans L2 (S 1 , µX )
1
sont donc z 7→ z t 1−11 1 , et celles représentant les ηt sont z 7→ z t 1−5
1 . Comme Xt s’exprime en fonction des
5 z
z
valeurs passées de η, le passé de X est inclus dans le passé de η, et comme la meilleure prédiction possible
pour ηt+1 connaissant le passé de η est simplement 0, la réponse est la même si l’ on ne connaît que le passé
de X: la meilleure prédiction est 0.
3.
On a Zt =
P
j
φj Yt−j avec h(z) =
P
j
φj z j . Si k1 et k2 sont deux polynômes, W1 et W2 les filtrés de
Z par k1 et k2 , le filtré de Z par k1 + k2 est W1 + W2 et il suffit donc de montrer le résultat pour k(z) = z a ,
P
P
a ≥ 0. Alors Wt = Zt−a = j φj Yt−a−j = k ψk Yt−k avec ψ0 = 0, . . . , ψa−1 = 0, ψa+j = φj , ce qui signifie
que W est le filtré de Y par z a h(z).
4.
Var(WN ) =
1
N.
On a
Xt = εt − εt−1
Xt + Xt−1 = εt − εt−2
Xt + Xt−1 + Xt−2 = εt − εt−3
Xt + Xt−1 + Xt−2 + . . . + Xt−N +1 = εt − εt−N
et en additionant ces N égalités on obtient
N Xt + (N − 1)Xt−1 + . . . + Xt−N +1 = N εt − N WN
Donc εt diffère de Xt + (1 − N1 )Xt−1 + . . . + N1 Xt−N +1 par une variable aléatoire de variance
1
N,
et en faisant
tendre N vers ∞ on obtient εt ∈ H≤t (X).
Université de Nice – Sophia Antipolis
J.-F. Burnol
28
c Jean-François Burnol, 2000.
Université de Nice – Sophia Antipolis
5.
On a Cov(Xu , Z) =
P
j≥0
αj Cov(Xu , Xt−j ). Par ailleurs Cov(Xt1 , Xt2 ) = 0 si |t1 − t2 | ≥ 2, = −1
si |t1 − t2 | = 1, = 2 si t1 = t2 . Donc Cov(Xt+1 , Z) = −α0 , Cov(Xt , Z) = 2α0 − α1 , Cov(Xt−1 , Z) =
−α0 + 2α1 − α2 , Cov(Xt−1−j , Z) = −αj + 2αj+1 − αj+2 . Supposons εt = Z. Alors cela donne
−α0 = −1
2α0 − α1 = +1
(j ≥ 0)
−αj + 2αj+1 − αj+2 = 0
Donc α0 = 1, puis α1 = 1, puis α2 = 1, etc. . . . Tous les αj sont donc nécessairement égaux à 1. Cependant
les sommes partielles XN + XN +1 + . . . + XM = εN − εM −1 ont toutes variance 2, qui ne tend pas vers 0
P
lorsque N, M → ∞. La série j Xt−j est donc divergente.
6.
Pour Xt : z 7→ z t . Pour εt :
z 7→
On a
zt
1 − 65 z1 +
1
et ainsi εt =
P
1
j≥0 (3 2j
(1 −
11
2 z )(1
−
11
3 z)
=
1 1
6 z2
=
zt
(1 − 21 z1 )(1 −
11
3 z)
X 1
−2
3
1 1
(3 j − 2 j )( )j
11 +
11 =
2
3 z
1− 2z
1− 3z
j≥0
∗
∗
∗
∗
− 2 31j )Xt−j . On a Xt+1
= − 65 εt + 16 εt−1 , Xt+2
= 61 εt , Xt+3
= Xt+4
= . . . = 0. Pour
exprimer ceci en fonction des Xu , u ≤ t, il faut ensuite remplacer εt et εt−1 par leurs expressions en fonction
des Xu , u ≤ t.
7.
∗
Le passé de X est inclus dans le passé de η. Donc les meilleures prédictions possibles ηt+j
pour
∗
les valeurs futures (j > 0) de η sont simplement ηt+j
= 0. X est le filtré de η par le polynôme k(z) =
1 − 5z + 6z 2 = (1 − 2z)(1 − 3z). Le polynôme canonique associé est h(z) = (1 − 21 z)(1 − 13 z). Le bruit blanc
d’innovation est celui pour lequel Xt = εt − 65 εt−1 + 16 εt−2 . Les fonctions représentant les εt sont z 7→ z t .
Pour les Xt : z 7→ z t − 65 z t−1 + 61 z t−2 . Pour les ηt :
z 7→ z t
On a
1 − 65 z −1 + 16 z −2
1 − 5z −1 + 6z −2
1 − 65 z −1 + 16 z −2
1 1 − 5z + 6z 2
=
1 − 5z −1 + 6z −2
36 1 − 56 z + 61 z 2
45
1 X 45 80
1 −35 + 25z
1
80
zj
−
=
1
+
=1+
=
1
+
−
36 1 − 65 z + 61 z 2
36 1 − 21 z
36
2j
3j
1 − 13 z
j≥0
ηt =
1
1 X
εt +
36
36
j≥1
45 80
− j
2j
3
εt+j
D’où les valeurs de Cov(ηt , εu ) comme coefficients de cette expansion.
29
c Jean-François Burnol, 2000.
Université de Nice – Sophia Antipolis
8. X est le filtré de η par le polynôme k(z) = 1−3z−4z 2 +12z 3 = (1−3z)(1−4z 2 ) = (1−3z)(1−2z)(1+2z).
Le polynôme canonique est donc h(z) = (1 − 13 z)(1 − 12 z)(1 + 21 z) = 1 − 13 z − 41 z 2 +
représentant le bruit blanc d’innovation de X dans L (S , µ ) sont donc
2
z 7→ εt (z) := z t
= 12 z t
1
η
1
1
1
k( z1 )
t (1 − 3 z )(1 − 2 z )(1 + 2 z )
=
z
h( z1 )
(1 − 31 z1 )(1 − 12 z1 )(1 + 12 z1 )
1 (1 − 13 z)(1 − 21 z)(1 + 12 z)
z 3 (1 − 31 z1 )(1 − 21 z1 )(1 + 12 z1 )
et sa variance est donc 12. Les fonctions représentant les εt dans L2 (S 1 , µX ) sont:
z 7→ z t
(1 −
11
3 z )(1
30
1
− 12 z1 )(1 +
11
2 z)
1 3
12 z .
Les fonctions
c Jean-François Burnol, 2000.
Université de Nice – Sophia Antipolis
Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles
Feuille d’exercices 3
1. Exercice.
Soit ε un BB de variance 1, ρ un nombre complexe de module strictement plus petit que 1
et X le AR(1) vérifiant Xt − ρXt−1 = εt . Dans l’espace L2 (S 1 , µε ) quelles sont les fonctions représentant les
εt ? les Xt ? Quelle est la mesure spectrale de X ? Exprimer les auto-covariances de X en fonction de ρ.
2. Exercice.
Soit η un BB de variance 1, ρ un nombre complexe de module strictement plus grand que
1 et X le AR(1) vérifiant Xt − ρXt−1 = ηt . Quel est le polynôme canonique de X, quelle est la relation
entre X et son bruit blanc d’innovation ε = (εt )t∈Z ? Dans l’espace L2 (S 1 , µε ) quelles sont les fonctions
représentant les εt ? les Xt ? les ηt ? Quelle est la mesure spectrale de X ? Exprimer les auto-covariances de
X en fonction de ρ.
3. Exercice.
On reprend les notations de l’exercice 1. Quelles sont les meilleures prédictions possibles des
Xt+1 , Xt+2 , . . . connaissant les Xu , u ≤ t ? Et dans le cas de l’exercice 2?
4. Problème.
Soit ε un BB de variance 1, et X le AR(2) vérifiant Xt − 14 Xt−2 = εt . Dans l’espace
L2 (S 1 , µε ) quelles sont les fonctions représentant les εt ? les Xt ? On pose Yt = Xt − 21 Xt−1 et Zt =
Xt + 12 Xt−1 . Montrer que Y et Z sont des AR(1) dont on donnera les polynômes canoniques et le bruit
blanc d’innovation. Montre que X, Y , Z, et ε ont tous le même passé. Quelles sont les meilleures prédictions
possibles des valeurs futures de Y et de Z connaissant les valeurs passées de X? En déduire les meilleures
prédictions des valeurs futures de X connaissant ses valeurs passées (on utilisera: 2Xt = Yt + Zt ).
5. Exercice (*).
Soit ε un BB de variance 1, et X le AR(2) vérifiant Xt − (λ1 + λ2 )Xt−1 + λ1 λ2 Xt−2 = εt ,
avec |λ1 | =
6 1, |λ2 | =
6 1, λ1 6= λ2 . Quelles sont les auto-covariances de X en fonction de λ1 et de λ2 ? (il y a
4 cas à traiter). Et si λ1 = λ2 ?
6. Problème (**).
Soit ε un BB de variance 1, et X le AR(2) vérifiant Xt − Xt−1 + 14 Xt−2 = εt . Dans
l’espace L2 (S 1 , µε ) quelles sont les fonctions représentant les εt ? les Xt ? On pose Yt = Xt − 21 Xt−1 . Montrer
que Y est un AR(1) dont on donnera le polynôme canonique, le bruit blanc d’innovation, les meilleures
prédictions possibles des valeurs futures connaissant les valeurs passées de X. On pose Wt = Xt − t · Yt .
Montrer: Wt − 21 Wt−1 = −(t − 1) · εt . En déduire les meilleures prédictions des valeurs futures de W , puis
de X, connaissant les valeurs passées de X. La série temporelle W est-elle stationnaire?
7. Problème (**).
1
Soit ε un BB de variance 1, et X le AR(3) vérifiant Xt − 13 Xt−1 − 41 Xt−2 + 12
Xt−3 = εt .
On pose Yt = Xt − 14 Xt−2 , Zt = Xt − 56 Xt−1 + 61 Xt−2 et Wt = Xt + 16 Xt−1 − 61 Xt−2 . Montrer que Y , Z et
W sont des AR(1) dont on donnera les polynômes canoniques et le bruit blanc d’innovation. Exprimer Xt
comme combinaison linéaire de Yt , Zt et Wt et en déduire les meilleures prédictions pour ses valeurs futures.
Université de Nice – Sophia Antipolis
J.-F. Burnol
31
c Jean-François Burnol, 2000.
Université de Nice – Sophia Antipolis
Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles
Feuille d’exercices 3 – Solutions
1.
Pour εt : z 7→ z t , pour Xt : z 7→
autocovariances de X sont données par
zt
1−ρ z1
. La mesure spectrale de X est dµX =
γj = Cov(Xt+j , Xt ) =
Par ailleurs
Z
z −j
dθ
1
|1 − ρ z1 |2 2π
X ρk X
1
ρ
1
1
(
(
+
+
)
=
ρk z k )
1 − |ρ|2 z − ρ 1 − ρz
1 − |ρ|2
zk
k≥1
Donc pour j ≥ 0 on a γj =
1−
1
ρz
Les
1
z
1
1
=
1 2 =
1
z − ρ 1 − ρz
|1 − ρ z |
(1 − ρ z )(1 − ρz)
=
2.
dθ
1
.
|1−ρ z1 |2 2π
j
ρ
1−|ρ|2
tandis que pour j < 0 on a γj =
k≥0
|j|
ρ
1−|ρ|2 .
X est le filtré de η par le polynôme k(z) = 1 − ρz, et le polynôme canonique est donc h(z) =
= 1 − |ρ|ρ 2 z. Le bruit blanc d’innovation est tel que Xt − |ρ|ρ 2 Xt−1 = εt . Dans L2 (S 1 , µε ) les fonctions
représentant les εt sont z 7→ z t . Pour Xt ce sont les z 7→
z 7→ z t
zt
ρ
1− |ρ|
2
1
z
, et pour ηt ce sont
1 − ρz
1 − ρ z1
t ρ
=
−z
z 1 − ρ1 z1
1 − |ρ|ρ 2 z1
Les autocovariances sont données par les formules de l’exercice 1, appliquées à
1
ρ
au lieu de ρ, mais il faut
faire attention à la variance de ε. D’après la formule ci-dessus la variance de η est |ρ|2 celle de ε. Donc la
variance de ε est
1
|ρ|2
et ainsi
1
(j ≥ 0)
γjX =
1
1
ρj
= ρ−j 2
1
2
2
|ρ| 1 − | ρ |
|ρ| − 1
(j < 0)
γjX =
1
1
ρj
= ρj 2
1
2
2
|ρ| 1 − | ρ |
|ρ| − 1
3.
∗
D’après ce qui a été expliqué en cours Xt+j
= ρj Xt pour j > 0. Pour l’exercice 2 (|ρ| > 1) la réponse
∗
est Xt+j
=
4.
1+
1
X
ρj t
(toujours pour j > 0).
Pour εt : z 7→ z t . Pour Xt : z 7→
1
2z
zt
1− 41 z12
. Pour Yt : z 7→ z t (1 −
11
1
2 z ) 1− 41
1
z2
= zt
1
1+ 12
1
z
. Le filtré de Y par
est donc ε. Donc Y est un AR(1) et ε est son bruit blanc d’innovation (car la racine −2 de 1 + 12 z
est en dehors du disque unité). Idem pour Z. X, Y , et Z ont donc tous ε comme bruit blanc d’innovation,
donc ont toutes le même passé. Connaître le passé de X est donc équivalent à connaître le passé de Y et
Université de Nice – Sophia Antipolis
J.-F. Burnol
32
c Jean-François Burnol, 2000.
Université de Nice – Sophia Antipolis
∗
ainsi Yt+j
=
1
(−2)j Yt
∗
et Zt+j
=
1
2j Zt .
∗
Pour j impair, cela donne 2Xt+j
=
5.
∗
∗
∗
∗
On a aussi 2Xt+j
= Yt+j
+ Zt+j
. Pour j pair cela donne Xt+j
=
1
2j (−Yt
+ Zt ) =
1
2j Xt−1
∗
d’où Xt+j
=
1
2j X t .
1
2j+1 Xt−1 .
Les auto-covariances de X sont
γjX =
Z
z −j
1
dθ
|1 − (λ1 + λ2 ) z1 + λ1 λ2 z12 |2 2π
Notons h(z) = 1 − (λ1 + λ2 )z + λ1 λ2 z 2 . Supposons |λ1 | < 1, |λ2 | < 1. Alors pour |z| = 1:
1
1
1
1
1
1
=
=
|1 − (λ1 + λ2 ) z1 + λ1 λ2 z12 |2
|1 − λ1 z1 |2 |1 − λ2 z1 |2
1 − λ1 z1 1 − λ1 z 1 − λ2 z1 1 − λ2 z
=
Aλ1
Cλ2
z
z
B
D
1
1
=
+
+
+
z − λ1 1 − λ1 z z − λ2 1 − λ2 z
z − λ1
z
−
λ
1 − λ1 z
1 − λ2 z
2
X
X
1
j
j
(Bλ1 + Dλ2 ) z j
=
(Aλj1 + Cλj2 )( )j +
z
j≥0
j≥1
pour certaines constantes A, B, C, D qui sont
A=
B=
λ1
1
1
λ1 − λ2 1 − |λ1 |2 1 − λ2 λ1
λ1
λ1
1
1
1
=
λ1 − λ2 1 − |λ1 |2 1 − λ1 λ2
λ1 − λ2 h(λ1 )
C=−
D=−
ce qui donne
γjX
(j ≥ 0)
λ2
1
1
λ1 − λ2 1 − |λ2 |2 1 − λ1 λ2
1
1
λ2
λ2
1
=−
2
λ1 − λ2 1 − |λ2 | 1 − λ2 λ1
λ1 − λ2 h(λ2 )
j
= Bλ1 + Dλ2
j
1
=
λ1 − λ2
j+1
j+1
λ1
λ2
−
h(λ1 )
h(λ2 )
!
X
γjX = Aλ1 |j| + Cλ2 |j| = γ−j
(j < 0)
Tout cela est un petit peu compliqué, désolé. Je laisse aux enthousiastes les cas |λ1 | > 1 ou |λ2 | > 1. Avec
h(z) = 1 + αz + βz 2 (α = −λ1 − λ2 , β = λ1 λ2 ) cela donne aussi
γjX
λ1
1
=
h(λ1 )h(λ2 )
j+1
− λ2
j+1
j
j
+ αλ1 λ2 (λ1 − λ2 ) + β(λ1 λ2 )2 (λ1
λ1 − λ2
j−1
− λ2
j−1
)
une expression qui permet de passer à la limite lorsque λ2 → λ1 ce dernier étant fixé, et avec à la limite
α = −2λ1 , β = λ21 , h(λ1 ) = (1 − |λ1 |2 )2 , on obtient:
γjX =
1 j
j+1
j+2
λ
+
α
j
λ
+
β
(j
−
1)
λ
(j
+
1)
1
1
1
h(λ1 )2
33
c Jean-François Burnol, 2000.
Université de Nice – Sophia Antipolis
γjX =
j
1 λ1
1 + |λ1 |2
j
j
4
jλ
h(λ
(1
−
|λ
|
)
=
)
+
λ
j
+
1
1
1
1
(1 − |λ1 |2 )2
1 − |λ1 |2
h(λ1 )2
toujours pour j ≥ 0. Encore une fois, c’est un petit peu compliqué, désolé.
6.
1−
Les εt : z 7→ z t , les Xt : z 7→
1
2 z,
zt
.
(1− 21 z1 )2
Les Yt : z 7→
zt
1− 21
1
z
et ainsi Y est un AR(1) de polynôme canonique
de bruit blanc d’innovation ε. Il a le même passé que X, et pour j > 0 les meilleures prédictions
∗
possibles sont Yt+j
= ( 21 )j Yt . L’équation Wt − 21 Wt−1 = −(t − 1) · εt se vérifie par un calcul direct. Il en
∗
∗
∗
∗
résulte Wt+j
= ( 12 )j Wt pour j > 0 car ε∗t+j = 0. Ainsi Xt+j
= Wt+j
+ (t + j) · Yt+j
= ( 12 )j (Wt + (t + j) · Yt ) =
( 21 )j ((j + 1)Xt − 2j Xt−1 ). Non W n’est pas stationnaire, sinon ((t − 1)εt )t∈Z le serait.
7.
Le polynôme canonique de X est h(z) = (1 − 13 z)(1 + 12 z)(1 − 21 z) et Y , Z, W sont des AR(1) de
polynômes respectifs 1− 13 z, 1+ 21 z, 1− 12 z, de bruit blanc d’innovation ε. On obtient Xt =
∗
∗
∗
∗
= (− 12 )j Zt , Wt+j
= ( 12 )j Wt , puis Xt+j
si l’on y tient.
et de plus Yt+j
= ( 13 )j Yt , Zt+j
34
−4
3
3
5 Yt + 10 Zt + 2 Wt
c Jean-François Burnol, 2000.
Université de Nice – Sophia Antipolis
Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles
Feuille d’exercices 4
1.
On se donne un AR(1) X d’équation
1
Xt − Xt−1 = εt
5
Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . . connaissant le passé linéaire de X
jusqu’à l’instant t ?
2. On reprend l’exercice précédent. On suppose que εt est de variance 1. Soient γj les autocovariances de
X. Ce sont des nombres réels et γ−j = γj . Écrire les équations de Yule-Walker, en déduire les valeurs de γ0
et γ1 puis des autres autocovariances.
3. On se donne un bruit blanc ε de variance 1 et X le MA(3) vérifiant
Xt = εt − εt−1 + 2εt−2 − 3εt−3
Que valent les autocovariances de X ?
4. Soit η un bruit blanc de variance 1 et X le MA(q) vérifiant
Xt = 5ηt+5 − 10ηt−5
Quelle est la valeur minimale de q pour laquelle X est un MA(q)? Quelles sont les autocovariances de X ?
5. On reprend l’exercice précédent. Quelle est la relation entre X et son bruit blanc d’innovation ε ? Quelle
est la variance de ε ?
6. Soit η un bruit blanc et X une SCCS telle que
3Xt+1 − 6Xt−1 = ηt
Quelle est la valeur minimale de p pour laquelle X est un AR(p)? Quelle est la relation entre X et son bruit
blanc d’innovation ε ?
7. On reprend l’exercice précédent, en supposant de plus que la variance γ0 de X est 1. Écrivez les équations
de Yule-Walker pour les autocovariances de X. Calculez les valeurs de γ1 , . . . γ5 , ainsi que la variance de ε.
8. On suppose que X est un AR(2) d’équation
1
1
Xt − Xt−1 − Xt−2 = εt
2
4
Université de Nice – Sophia Antipolis
J.-F. Burnol
35
c Jean-François Burnol, 2000.
Université de Nice – Sophia Antipolis
et que les valeurs suivantes successives ont été observées:
2, 1, 0, 1.25, 1.625, 0.125
la valeur 0 survenant à l’instant t = 0. Quelles sont vos prédictions pour les valeurs X4 , X5 , X6 ?
9. On continue avec l’exercice précédent. Un autre observateur ne s’est vu communiquer que X−2 = 2 et
X−1 = 1. Quelles sont ses prédictions pour X0 , X1 , X2 , X3 , X4 , X5 , X6 ? Commentez.
10. Quelles sont les équations de Yule-Walker pour le X des deux exercices précédents (en sachant que ε
est de variance 1)? Donnez les valeurs exactes de γ0 , . . . , γ5 . Par ailleurs quelles sont les valeurs empiriques
que l’on déduit des valeurs numériques? Comparez.
36
c Jean-François Burnol, 2000.
Université de Nice – Sophia Antipolis
Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles
Feuille d’exercices 4 – Solutions
∗
∗
1. Xt+1
= 51 Xt , Xt+2
=
1
25 Xt ,
∗
Xt+3
=
1
125 Xt ,
etc. . .
2. γ0 − 15 γ−1 = 1, γ1 − 51 γ0 = 0, γ2 − 15 γ1 = 0, γ3 − 15 γ2 = 0. . . Les deux premières équations (compte tenu
de γ1 = γ−1 ) donnent γ0 =
25
24 ,
γ1 =
5
24
puis γj = ( 15 )j γ0 .
3. γ0 = 1 + 1 + 4 + 9 = 15, γ1 = −1 − 2 − 6 = −9, γ2 = 2 + 3 = 5, γ3 = −3 et γj = 0 pour j > 3.
4. En posant κt = 5ηt+5 , on a Xt = κt − 2κt−10 (et κ est de variance 25). La valeur minimale de q est 10.
Les autocovariances de X sont γ0 = (1 + 4) ∗ 25 = 125, γ1 = 0, . . . ,γ9 = 0, γ10 = −2 ∗ 25 = −50, γj = 0 pour
j > 10.
5. κ n’est pas le bruit blanc d’innovation car le polynôme 1 − 2z 10 a ses racines a l’intérieur du disque unité.
Le polynôme canonique vaut h(z) = 1 − 12 z 10 . La relation entre X et son bruit blanc d’innovation est donc
Xt = εt − 21 εt−10 . La variance de X est donc 1 +
6. En posant κt =
1
3 ηt−1
1
4
celle de ε qui vaut donc 100.
on obtient Xt − 2Xt−2 = κt . Donc p= 2. Le polynôme 1 − 2z 2 a ses racines a
l’intérieur du disque unité. Le bon polynôme associé est 1 − 12 z 2 et la relation entre X et son bruit blanc
d’innovation est Xt − 12 Xt−2 = εt .
7. Pour obtenir les équations de Yule-Walker il est indispensable d’utiliser la représentation canonique de X
comme AR(2) qui le relie à son bruit blanc d’innovation: Xt − 12 Xt−2 = εt . Notons γ ε la variance de ε qui
est inconnue pour le moment. Compte tenu de γ0 = 1, γ−1 = γ1 , γ−2 = γ2 , les équations de Yule-Walker
donnent: γ0 − 21 γ2 = γ ε , γ1 − 21 γ1 = 0, γ2 − 12 γ0 = 0 donc γ2 = 12 , γ1 = 0, γ0 = 1, γ ε = 1 −
γ3 = 12 γ1 = 0, γ4 = 21 γ2 =
1
4
8. X4∗ = 12 X3 + 41 X2 =
= 0.46875, X5∗ = 12 X4∗ + 41 X3 =
15
32
=
1
2
= 0.5,
X4!
=
13
32
= 34 . Puis:
et γ5 = 21 γ3 = 0.
17
64
= 0.265625, X6∗ = 12 X5∗ + 41 X4∗ =
9. Notons Xj! les prédictions du deuxième observateur. X0! = 1, X1! =
X3!
1
4
= 0.40625,
X5!
=
21
64
= 0.328125,
X6!
=
17
64
3
4
= 0.75, X2! =
1
4
5
8
= 0.25.
= 0.625,
= 0.265625. Pour pouvoir faire des
prédictions significatives il faudrait que le bruit blanc d’innovation ait une variance sensiblement plus petite
que celle de X, puisque le principe de la prédiction est d’utiliser ε∗t+j = 0 pour j > 0, et cette estimation
est d’autant meilleure que la variance de εt+j est petite. Or ce n’est pas le cas ici (l’exercice suivant montre
que la variance de ε est à peu près la moitié de celle de X). Les deux observateurs sont affectés au même
titre par ce problème. Le fait que X6! et X6∗ soient proches est une coïncidence (d’ailleurs X2! et X3! sont
nettement distincts de X2 et X3 ).
Université de Nice – Sophia Antipolis
J.-F. Burnol
37
c Jean-François Burnol, 2000.
Université de Nice – Sophia Antipolis
10. γ0 − 12 γ1 − 41 γ2 = 1, γ1 − 21 γ0 − 41 γ1 = 0, γ2 − 12 γ1 − 41 γ0 = 0, γj+2 − 21 γj+1 − 14 γj = 0 pour j > 0.
Les trois premières équations donnent γ0 = 1 +
puis on obtient γ3 =
2
22
25
2
= 0.88, γ4 =
18
25
23
25
= 1.92, γ1 = 1 +
= 0.72, γ5 =
2
29
50
7
25
= 1.28, γ2 = 1 +
3
25
= 1.12,
= 0.58. Les valeurs empiriques sont γb0 =
(4 + 1 + 0 + 1.25 + 1.625 + 0.125 )/6 = 1.53649, γb1 = (2 + 0 + 0 + 1.25 ∗ 1.625 + 1.625 ∗ 0.125)/5 = 0.84688,
γb2 = (0 + 1.25 + 0 + 1.25 ∗ 0.125)/4 = 0.35157, γb3 = (2 ∗ 1.25 + 1 ∗ 1.625 + 0)/3 = 1.375, γb4 = (2 ∗ 1.625 + 1 ∗
0.125)/2 = 1.6875, γb5 = (2 ∗ 0.125) = 0.250. Les différences par rapport aux vraies valeurs sont importantes,
même pour γ0 et γ1 . Il faudrait au moins une bonne vingtaine de valeurs successives de X pour que le calcul
des covariances empiriques ait une réelle signification.
38
c Jean-François Burnol, 2000.
Université de Nice – Sophia Antipolis
Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles
Feuille d’exercices 5
NOTE: je vous encourage à modifier les données numériques (vous constaterez mon manque d’originalité) et
à résoudre de multiples fois ces exercices. Vous aurez besoin d’une calculette, et/ou de savoir inverser une
matrice 2×2 (3×3 dans le dernier problème). Dans chaque exercice on suppose que la variance de ε vaut 1, et
on veut la meilleure estimation de Xt pour certains instants (et la variance de l’erreur commise) compte-tenu
des valeurs observées en d’autres instants. Il faudra commencer par calculer certaines autocovariances de la
série cov–stationnaire X.
Problème 1.
Xt − 12 Xt−1 = εt
a. X0 = 1, estimer Xt pour t = −2, −1, 1, 2.
b. X0 = 1, X1 = −1, estimer Xt pour t = −2, −1, 2, 3.
c. X0 = 1, X2 = −1, estimer Xt pour t = −2, −1, 1, 3.
d. X0 = 1, X3 = −1, estimer Xt pour t = 1, 2.
Problème 2.
Xt = εt + 12 εt−1
a. X0 = 1, estimer Xt pour t = −2, −1, 1, 2.
b. X0 = 1, X1 = −1, estimer Xt pour t = −2, −1, 2, 3.
c. X0 = 1, X2 = −1, estimer Xt pour t = −2, −1, 1, 3.
d. X0 = 1, X3 = −1, estimer Xt pour t = 1, 2.
1
8
Xt−1 + 15
Xt−2 = εt
Problème 3.
Xt − 15
a. X0 = 1, estimer Xt pour t = −2, −1, 1, 2.
b. X0 = 1, X1 = −1, estimer Xt pour t = −2, −1, 2, 3.
c. X0 = 1, X2 = −1, estimer Xt pour t = −2, −1, 1, 3.
d. X0 = 1, X3 = −1, estimer Xt pour t = 1, 2.
Problème 4.
Xt − 13 Xt−1 = εt
a. X0 = 1, X1 = −1, X2 = 0, estimer Xt pour t = −2, −1, 3, 4.
b. X0 = 1, X2 = 0, X4 = −1, estimer Xt pour t = −1, 1, 3, 5.
c. X0 = 1, X12 = −1, X24 = 0, estimer X6 et X18 .
Université de Nice – Sophia Antipolis
J.-F. Burnol
39
c Jean-François Burnol, 2000.
Université de Nice – Sophia Antipolis
40
Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles
Examen blanc du 21 mars 2000
1. Soit ε un bruit blanc et X le MA(1) défini selon
1
Xt = εt − εt−1
7
Exprimez εt en fonction de Xt , Xt−1 , Xt−2 , etc. . .
2. Soit ε un bruit blanc et X le MA(1) défini selon
1
Xt = εt − εt−1
5
Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . . en fonction de Xt , Xt−1 , Xt−2 ,
etc. . . ?
3. Soit η un bruit blanc et X le MA(1) défini selon
Xt = ηt − 5ηt−1
Quelle est la relation entre X et son bruit blanc d’innovation? Quelle est la meilleure prédiction possible
pour Xt+1 en fonction de Xt , Xt−1 , Xt−2 , etc. . . ?
4. Soit η un BB de variance 1, soit k(z) = 1 + 5z + 6z 2 et X le MA(2) obtenu en filtrant η par le polynôme
k. Comment s’exprime X en fonction de η? Que valent les autocovariances de X? Quelle est la relation
entre X et son bruit blanc d’innovation?
5. On se donne un AR(1) X d’équation
1
Xt − Xt−1 = εt
3
Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . . connaissant le passé linéaire de X
jusqu’à l’instant t ?
6. On reprend l’exercice précédent. On suppose que εt est de variance 1. Soient γj les autocovariances de
X. Ce sont des nombres réels et γ−j = γj . Écrire les équations de Yule-Walker, en déduire les valeurs de γ0
et γ1 puis des autres autocovariances.
7. Soit ε un bruit blanc et X le AR(2) telle que
Xt −
9
1
Xt−1 + Xt−2 = εt
20
20
Université de Nice – Sophia Antipolis
J.-F. Burnol
41
Soient Y et Z définis selon
1
Yt = Xt − Xt−1
4
1
Zt = Xt − Xt−1
5
Montrez que Y et Z sont des AR(1) (calculez Yt − 51 Yt−1 et Zt − 14 Zt−1 ). Trouvez α et β de sorte que
Xt = αYt + βZt .
8. On reprend l’exercice précédent. Montrer que X, Y , Z ont toutes le même passé (à chaque instant).
Quelles sont les meilleures prédictions possibles pour Yt+1 , Yt+2 , etc. . . et Zt+1 , Zt+2 , etc. . . connaissant
H≤t (X) ? Et quelles sont les meilleures prédictions pour Xt+1 , Xt+2 , etc. . . ?
9. Soit ε un bruit blanc de variance 1 et X le AR(2) tel que
Xt −
1
7
Xt−1 + Xt−2 = εt
12
12
Écrivez les équations de Yule-Walker pour les autocovariances de X. Calculez les valeurs de γ0 , γ1 , γ2 puis
de γ3 . . . γ6 .
10. Soit η un bruit blanc et X un AR(2) de variance 1 tel que
Xt − 7 Xt−1 + 12 Xt−2 = ηt
Quelle est la relation entre X et son bruit blanc d’innovation ε? Quelle est la variance de ε?
11. Soit η un bruit blanc. Existe-t-il une série temporelle à covariances stationnaires telle que
∀t
Xt −
1
3
Xt−1 + Xt−2 = ηt
2
2
12. Un AR(p) peut-il être simultanément un MA(q) ? Justifiez.
42
?
Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles
Examen blanc du 21 mars 2000 – Solutions
1. Soit ε un bruit blanc et X le MA(1) défini selon
1
Xt = εt − εt−1
7
Exprimez εt en fonction de Xt , Xt−1 , Xt−2 , etc. . .
εt =
∞
X
1
( )j Xt
7
j=0
2. Soit ε un bruit blanc et X le MA(1) défini selon
1
Xt = εt − εt−1
5
Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . . en fonction de Xt , Xt−1 , Xt−2 ,
etc. . . ?
∞
1X 1 j
1
∗
( ) Xt
Xt+1
= − εt = −
5
5 j=0 5
∗
∗
∗
Xt+2
= Xt+3
= Xt+4
= ... = 0
3. Soit η un bruit blanc et X le MA(1) défini selon
Xt = ηt − 5ηt−1
Quelle est la relation entre X et son bruit blanc d’innovation? Quelle est la meilleure prédiction possible
pour Xt+1 en fonction de Xt , Xt−1 , Xt−2 , etc. . . ?
1
Xt = εt − εt−1
5
∞
1X 1 j
∗
Xt+1 = −
( ) Xt
5 j=0 5
4. Soit η un BB de variance 1, soit k(z) = 1 + 5z + 6z 2 et X le MA(2) obtenu en filtrant η par le polynôme
k. Comment s’exprime X en fonction de η? Que valent les autocovariances de X? Quelle est la relation
entre X et son bruit blanc d’innovation?
Université de Nice – Sophia Antipolis
J.-F. Burnol
43
Xt = ηt + 5 ηt−1 + 6 ηt−2
γ0 = 62
γ1 = 35
γ2 = 6
γj = 0 pour j > 2
Le polynôme filtrant est k(z) = 1 + 5 z + 6 z 2 = (1 + 2z)(1 + 3z). Le polynôme canonique associé est
h(z) = (1 + 21 z)(1 + 31 z) = 1 + 56 z + 61 z 2 et ainsi
X t = εt +
5
1
εt−1 + εt−2
6
6
5. On se donne un AR(1) X d’équation
1
Xt − Xt−1 = εt
3
Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . . connaissant le passé linéaire de X
jusqu’à l’instant t ?
1
∗
Xt+j
= ( )j Xt
3
6. On reprend l’exercice précédent. On suppose que εt est de variance 1. Soient γj les autocovariances de
X. Ce sont des nombres réels et γ−j = γj . Écrire les équations de Yule-Walker, en déduire les valeurs de γ0
et γ1 puis des autres autocovariances.
1
γ0 − γ−1 = 1
3
1
γ1 − γ0 = 0
3
1
γj+1 − γj = 0
3
9
γ0 =
8
9 1 j
γj = ( )
8 3
7. Soit ε un bruit blanc et X le AR(2) telle que
Xt −
1
9
Xt−1 + Xt−2 = εt
20
20
44
Soient Y et Z définis selon
1
Yt = Xt − Xt−1
4
1
Zt = Xt − Xt−1
5
Montrez que Y et Z sont des AR(1) (calculez Yt − 51 Yt−1 et Zt − 14 Zt−1 ). Trouvez α et β de sorte que
Xt = αYt + βZt .
1
9
1
Yt − Yt−1 = Xt − Xt−1 + Xt−2 = εt
5
20
20
9
1
1
Zt − Zt−1 = Xt − Xt−1 + Xt−2 = εt
4
20
20
Xt = −4 Yt + 5 Zt
8. On reprend l’exercice précédent. Montrer que X, Y , Z ont toutes le même passé (à chaque instant).
Quelles sont les meilleures prédictions possibles pour Yt+1 , Yt+2 , etc. . . et Zt+1 , Zt+2 , etc. . . connaissant
H≤t (X) ? Et quelles sont les meilleures prédictions pour Xt+1 , Xt+2 , etc. . . ?
X, Y , Z ont le même bruit blanc d’innovation, donc le même passé à chaque instant.
1
∗
Yt+j
= ( )j Yt
5
∗
∗
Xt+j
= −4 Yt+j
1
∗
Zt+j
= ( )j Zt
4
1
1
1
1
1
1
∗
+ 5 Zt+j
= −4 ( )j Yt + 5 ( )j Zt = −4 ( )j (Xt − Xt−1 ) + 5 ( )j (Xt − Xt−1 )
5
4
5
4
4
5
1
1
1
1
∗
Xt+j
= (−4 ( )j + 5 ( )j )Xt + (( )j − ( )j )Xt−1
5
4
5
4
9. Soit ε un bruit blanc de variance 1 et X le AR(2) tel que
Xt −
1
7
Xt−1 + Xt−2 = εt
12
12
Écrivez les équations de Yule-Walker pour les autocovariances de X. Calculez les valeurs de γ0 , γ1 , et γ2 .
7
1
γ−1 + γ−2 = 1
12
12
7
1
7
(Y W1 ) γ1 − γ0 + γ−1 = 0 ⇒ γ1 =
γ0
12
12
13
7
1
3
(Y W2 ) γ2 − γ1 + γ0 = 0 ⇒ γ2 =
γ0
12
12
13
55
78
Y W0 ⇒
γ0 = 1 ⇒ γ0 =
78
55
42
18
γ1 =
γ2 =
55
55
(Y W0 ) γ0 −
45
10. Soit η un bruit blanc et X un AR(2) de variance 1 tel que
Xt − 7 Xt−1 + 12 Xt−2 = ηt
Quelle est la relation entre X et son bruit blanc d’innovation ε? Quelle est la variance de ε?
Le polynôme filtrant est k(z) = 1 − 7 z + 12 z 2 = (1 − 3z)(1 − 4z). Le polynôme canonique associé est
h(z) = (1 − 31 z)(1 − 41 z) = 1 −
7
12 z
+
1 2
12 z
et ainsi
Xt −
7
1
Xt−1 + Xt−2 = εt
12
12
D’ après l’exercice précédent la variance de X est
de celui-ci vaut dont
78
55
fois celle de son bruit blanc d’innovation. La variance
55
78 .
11. Soit η un bruit blanc. Existe-t-il une série temporelle à covariances stationnaires telle que
∀t
Xt −
1
3
Xt−1 + Xt−2 = ηt
2
2
Non, car le polynôme filtrant k(z) = 1 − 32 z +
1
2
?
z 2 vérifie k(1) = 0 et a donc une racine sur le cercle unité,
ce qui est interdit pour un AR(p).
12. Un AR(p) peut-il être simultanément un MA(q) ? Justifiez.
Seul un bruit blanc est simultanément un AR(p) et un MA(q). On peut, par exemple, le montrer ainsi:
supposons que X soit un AR(p) et un MA(q). Il existe donc un polynôme h1 (z) de degré q1 ≤ q qui filtre
un bruit blanc ε1 en X, et un polynôme h2 (z) de degré p2 ≤ p qui filtre X en un deuxième bruit blanc ε2 .
P
Mais alors ε2 est le filtré de ε1 par le polynôme k(z) = h1 (z)h2 (z) = 0≤j≤d φj z j de degré exact d = q1 + p2
(et φ0 = 1). La dième autocovariance de ε2 vaut ainsi φd qui est non nul, et ceci impose d = 0 car ε2 est un
bruit blanc. Donc q1 = p2 = 0 et X = ε1 = ε2 .
46
NOM:
PRÉNOM:
né(e) le:
à:
REPLIEZ ET AGRAFEZ
Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles
Université de Nice – Sophia Antipolis
J.-F. Burnol
Partiel du 2 mai 2000
Tous documents autorisés. Il y a six problèmes pour un total de 24 points (toute note audessus de 20 sera arrondie à 20/20). Toutes les réponses numériques doivent être justifiées
par un calcul. Vous disposez de 90 minutes.
Problème 1:
points.
Problème 2:
points.
Problème 3:
points.
Problème 4:
points.
Problème 5:
points.
Problème 6:
points.
NOTE:
47
Problème 1. (5 points) Soit η un bruit blanc de variance 1 et X le MA(1) défini selon
Xt = ηt − 2ηt−1
1a. Quelles sont les autocovariances de X?
1b. Quelle est la relation MA(1) entre X et son bruit blanc d’innovation ε?
1c. Quelle est la variance de ε ?
1d. Exprimez εt en fonction des valeurs passées de X.
bt+1|t , X
bt+2|t , . . . en fonction de Xt , Xt−1 , . . ..
1e. Exprimez les prévisions optimales X
Problème 2. (5 points) Soit η un bruit blanc et X le AR(1) de variance 1 vérifiant
Xt − 3Xt−1 = ηt
2a. Comment s’exprime X en fonction des valeurs passées de son bruit blanc d’innovation ε?
2b. On suppose avoir observé X−5 , . . . , X0 = −1, 0.6, 1.2, −0.6, 0.75, 0.27. Quelles sont les valeurs numéb1|0 et X
b2|0 ?
riques des prédictions optimales X
2c. Quelle est la variance de ε ?
2d. Comment s’exprime X en fonction des valeurs futures de η ?
2e. Quelle est la variance de η ?
Problème 3. (5 points) Soit ε un bruit blanc de variance γ ε et X le AR(2) vérifiant
Xt −
1
8
Xt−1 + Xt−2 = εt
15
15
3a. On suppose que X est de variance 1. Quelles sont les équations de Yule-Walker reliant γ ε , γ0 (= 1), γ1 ,
γ2 ?
3b. Que valent γ ε , γ1 , γ2 ?
3c. Trouvez A et B de sorte que
1
(1− 13 z)(1− 51 z)
=
A
(1− 31 z)
+
B
.
(1− 15 z)
3d. Donnez les valeurs de c0 , c1 , c2 dans l’expression Xt = c0 εt + c1 εt−1 + c2 εt−2 + . . .
bt+1|t en fonction des εt+1 , εt , . . .? Même question pour Xt+2 − X
bt+2|t (en
3e. Comment s’exprime Xt+1 − X
fonction des εt+2 , εt+1 , . . .). Quelle est sa variance?
Problème 4. (3 points) Soit η un bruit blanc et X le ARMA(1,1) vérifiant
1
Xt − 2Xt−1 = ηt + ηt−1
2
4a. Quelle est la relation ARMA entre X et son bruit blanc d’innovation ε ?
4b. Exprimez Xt en fonction de εt , εt−1 , . . ..
4c. Exprimez εt en fonction de Xt , Xt−1 , . . .
Problème 5. (3 points) Soit X un ARMA(p,q). Soit Y la série cov-stationnaire définie par ∀t Yt = X−t .
Montrez que Y est aussi un ARMA(p,q).
Problème 6. (3 points) Soit X une série cov-stationnaire et Y son filtré par 1 − 12 z, c’est-à-dire ∀t Yt =
Xt − 12 Xt−1 . Montrez que X et Y ont le même bruit blanc d’innovation.
48
NOM:
PRÉNOM:
né(e) le:
à:
REPLIEZ ET AGRAFEZ
Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles
Université de Nice – Sophia Antipolis
J.-F. Burnol
Partiel du 2 mai 2000
Tous documents autorisés. Il y a six problèmes pour un total de 24 points (toute note audessus de 20 sera arrondie à 20/20). Toutes les réponses numériques doivent être justifiées
par un calcul. Vous disposez de 90 minutes.
CORRIGÉ
Problème 1. (5 points) Soit η un bruit blanc de variance 1 et X le MA(1) défini selon
Xt = ηt − 2ηt−1
1a. Quelles sont les autocovariances de X?
1b. Quelle est la relation MA(1) entre X et son bruit blanc d’innovation ε?
1c. Quelle est la variance de ε ?
1d. Exprimez εt en fonction des valeurs passées de X.
bt+1|t , X
bt+2|t , . . . en fonction de Xt , Xt−1 , . . ..
1e. Exprimez les prévisions optimales X
1a. γ0 = 5, γ±1 = −2, les autres sont nuls.
1b. Xt = εt − 12 εt−1
1c. 5 = (1 + 41 )γ ε ⇒ γ ε = 4.
1d. εt =
P
1
j≥0 2j Xt−j .
bt+1|t = − 1 εt = − P
1e. X
j≥0
2
1
2j+1 Xt−j .
bt+δ|t = 0 pour δ ≥ 2.
X
Problème 2. (5 points) Soit η un bruit blanc et X le AR(1) de variance 1 vérifiant
Xt − 3Xt−1 = ηt
49
2a. Comment s’exprime X en fonction des valeurs passées de son bruit blanc d’innovation ε?
2b. On suppose avoir observé X−5 , . . . , X0 = −1, 0.6, 1.2, −0.6, 0.75, 0.27. Quelles sont les valeurs numéb1|0 et X
b2|0 ?
riques des prédictions optimales X
2c. Quelle est la variance de ε ?
2d. Comment s’exprime X en fonction des valeurs futures de η ?
2e. Quelle est la variance de η ?
2a. Xt − 31 Xt−1 = εt ⇒ Xt =
P
1
j≥0 3j εt−j .
b1|0 = 0.27/3 = 0.09 et X
b2|0 = 0.09/3 = 0.03.
2b. X
2c. YW: 1 − 13 γ1 = γ ε , γ1 −
1
3
= 0 ⇒ γ1 =
2d. Xt = − 13 ηt+1 + 31 Xt+1 ⇒ Xt = −
2e. 1 = γ η ( 19 +
1
92
+
1
93
P
1
3
et donc γ ε = 89 .
1
j≥1 3j ηt+j .
+ . . .) ⇒ γ η = 8.
Problème 3. (5 points) Soit ε un bruit blanc de variance γ ε et X le AR(2) vérifiant
Xt −
1
8
Xt−1 + Xt−2 = εt
15
15
3a. On suppose que X est de variance 1. Quelles sont les équations de Yule-Walker reliant γ ε , γ0 (= 1), γ1 ,
γ2 ?
3b. Que valent γ ε , γ1 , γ2 ?
3c. Trouvez A et B de sorte que
1
(1− 13 z)(1− 51 z)
=
A
(1− 31 z)
+
B
.
(1− 15 z)
3d. Donnez les valeurs de c0 , c1 , c2 dans l’expression Xt = c0 εt + c1 εt−1 + c2 εt−2 + . . .
bt+1|t en fonction des εt+1 , εt , . . .? Même question pour Xt+2 − X
bt+2|t (en
3e. Comment s’exprime Xt+1 − X
fonction des εt+2 , εt+1 , . . .). Quelle est sa variance?
8
1
8
1
8
1
3a. et 3b. 1 − 15
γ1 + 15
γ2 = γ ε , γ1 − 15
+ 15
γ1 = 0 ⇒ γ1 = 12 , γ2 − 15
γ1 + 15
= 0 ⇒ γ2 = 51 , donc γ ε =
56
75 .
3c. A = 52 , B = − 23 .
3d.
1
(1− 31 z)(1− 15 z)
= 52 (1 + 31 z + 91 z 2 + . . .) − 23 (1 + 15 z +
1 2
25 z
+ . . .) = 1 +
8
15 z
+
49 2
225 z
+ ...
bt+1|t = εt+1 , Xt+2 − X
bt+2|t = εt+2 + c1 εt+1 . Sa variance est donc (1 + ( 8 )2 ) 56 =
3e. Xt+1 − X
15
75
0.959 . . .
Problème 4. (3 points) Soit η un bruit blanc et X le ARMA(1,1) vérifiant
1
Xt − 2Xt−1 = ηt + ηt−1
2
4a. Quelle est la relation ARMA entre X et son bruit blanc d’innovation ε ?
50
23 ·7·172
33 ·54
=
4b. Exprimez Xt en fonction de εt , εt−1 , . . ..
4c. Exprimez εt en fonction de Xt , Xt−1 , . . .
4a. Xt − 21 Xt−1 = εt + 12 εt−1 .
4b.
1+ 12 z
1− 12 z
= −1 +
4c. εt = Xt +
P
2
1− 21 z
= 1 + z + 12 z 2 + 41 z 3 + . . .. Donc Xt = εt +
1
j
j≥1 2j−1 (−1) Xt−j .
P
1
j≥1 2j−1 εt−j .
Problème 5. (3 points) Soit X un ARMA(p,q). Soit Y la série cov-stationnaire définie par ∀t Yt = X−t .
Montrez que Y est aussi un ARMA(p,q).
Supposons (avec ap 6= 0, bq 6= 0)
Xt + a1 Xt−1 + . . . + ap Xt−p = εt + b1 εt−1 + . . . + bq εt−q
Cela donne
Y−t + a1 Y−t+1 + . . . + ap Y−t+p = εt + b1 εt−1 + . . . + bq εt−q
En remplaçant t par −t cela donne
Yt + a1 Yt+1 + . . . + ap Yt+p = ε−t + b1 ε−t−1 + . . . + bq ε−t−q
Yt+p +
1
1
b1
bq
ap−1
Yt+p−1 + . . . + Yt =
ε−t + ε−t−1 + . . . + ε−t−q
ap
ap
ap
ap
ap
puis en remplaçant t par t − p:
Yt +
1
1
b1
bq
ap−1
Yt−1 + . . . + Yt−p =
ε−t+p + ε−t+p−1 + . . . + ε−t+p−q
ap
ap
ap
ap
ap
Pour conclure on pose ηt =
Yt +
bq
ap ε−t+p−q
qui est un bruit blanc, et on obtient:
ap−1
1
bq−1
1
Yt−1 + . . . + Yt−p = ηt +
ηt−1 + . . . + ηt−q
ap
ap
bq
bq
ce qui montre que Y est un ARMA(p,q).
Problème 6. (3 points) Soit X une série cov-stationnaire et Y son filtré par 1 − 12 z, c’est-à-dire ∀t Yt =
Xt − 12 Xt−1 . Montrez que X et Y ont le même bruit blanc d’innovation.
Comme ∀t Yt = Xt − 12 Xt−1 on a ∀t H≤t (Y ) ⊂ H≤t (X). Et comme Xt =
P
1
j≥0 2j Yt−j
on a aussi
∀t H≤t (X) ⊂ H≤t (Y ). Donc ∀t H≤t (Y ) = H≤t (X). Notons Pt la projection orthogonale sur H≤t (Y ) =
H≤t (X). On a εt = Xt − Pt−1 (Xt ) pour le bruit blanc d’innovation de X et pour le bruit blanc d’innovation
de Y : ηt = Yt − Pt−1 (Yt ) = Xt − 12 Xt−1 − Pt−1 (Xt − 21 Xt−1 ) = Xt − 21 Xt−1 − Pt−1 (Xt ) + 12 Xt−1 = εt . QED.
51
52
Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Séries temporelles
Université de Nice – Sophia-Antipolis
J.-F. Burnol
Examen du 31 mai 2000
Documents et calculatrices autorisés.
Il y a huit problèmes, comprenant vingt-quatre questions. Chacune rapporte 1 point.
Problème 1.
Soit ε un bruit blanc de variance 1 et X le AR(1) vérifiant
1
Xt − Xt−1 = εt
5
1a. Quelles sont les autocovariances de X ?
bt+1|t , X
bt+2|t , . . . en fonction de Xt , Xt−1 , . . ..
1b. Exprimez les prévisions optimales X
1c. Exprimez Xt en fonction des valeurs passées de ε.
bt+δ|t |2 ) ?
1d. Soit δ ≥ 1. Que vaut E(|Xt+δ − X
Problème 2.
Soit ε un bruit blanc de variance 66 et X le AR(2) vérifiant
Xt −
3
1
Xt−1 − Xt−2 = εt
10
10
2a. Que valent γ0X , γ1X , γ2X ?
2b. Soit Yt = Xt − 12 Xt−1 et Zt = Xt + 51 Xt−1 . Montrez que Y et Z sont des AR(1).
2c. Exprimez les prévisions optimales des valeurs futures de Y et de Z en fonction des valeurs passées de X
(jusqu’à l’instant t).
2d. On a observé X0 = 100 et X1 = −50. Quelle est la meilleure prévision pour X4 ?
53
Problème 3.
Soit η un bruit blanc et X le MA(2) vérifiant
Xt = ηt − 6ηt−1 + 8ηt−2
3a. Quelles sont les racines et co-racines de 1 − 6z + 8z 2 ?
3b. Quelle est la relation MA(2) entre X et son bruit blanc d’innovation ε ?
3c. Trouvez A et B de sorte que
1
(1− 12 z)(1− 41 z)
=
A
(1− 21 z)
+
B
.
(1− 14 z)
3d. Exprimez εt en fonction de Xt , Xt−1 , . . .
Problème 4.
Soit ε un bruit blanc et X le ARMA(1,1) vérifiant
1
1
Xt − Xt−1 = εt − εt−1
3
2
4a. Soit Y le AR(1) vérifiant Yt − 13 Yt−1 = εt . Montrez: Xt = Yt − 21 Yt−1 .
4b. Exprimez γ0X en fonction de γ0Y et γ1Y .
4c. On suppose que ε est de variance 1. Calculez γ0Y , γ1Y déduisez-en γ0X .
Problème 5.
Soit ε un bruit blanc et X le AR(1) de variance 90 vérifiant
1
Xt − Xt−1 = εt
3
4a. Que valent γ1X et γ2X ?
b1 et l’erreur E(|X1 − X
b1 |2 ) ?
4b. On a observé X0 et X2 . Quelle est la valeur optimale X
54
Problème 6.
Soit η un bruit blanc et X le MA(1) de variance 90 vérifiant
Xt = ηt + 3ηt−1
4a. Que valent les autocovariances de X ?
b1 et l’erreur E(|X1 − X
b1 |2 ) ?
4b. On a observé X0 et X2 . Quelle est la valeur optimale X
Problème 7.
Soit ε un bruit blanc de variance 1 et X le MA(1) vérifiant
1
Xt = εt − εt−1
2
Soit Y une série non-stationnaire vérifiant
Yt − Yt−1 = Xt
4a. Exprimez pour t > 0 Yt en fonction de Y0 , ε0 , . . . , εt .
4b. On supposera que εu pour u > 0 n’est pas corrélé avec Y0 . Soit Ybt|0 (pour t > 0) la meilleure estimation
possible de Yt sur la base des valeurs passées Y0 , Y−1 , . . . . Que vaut E(|Yt − Ybt|0 |2 ) ?
Problème 8.
On fait N mesures répétées d’une grandeur physique X. Cette grandeur ne change pas et on la représente
donc comme une variable aléatoire constante (de valeur x ∈ R; et on supposera x > 0). Chaque mesure
Yi vaut X + Wi avec des erreurs Wi mutuellement indépendantes, d’espérance nulle et toutes avec la même
variance γ = qx2 pour un certain q > 0.
4a. Montrez que l’inverse de la matrice N × N avec 1 + q sur la diagonale et 1 partout ailleurs est
1
q(N +q)
fois la matrice avec N − 1 + q sur la diagonale et −1 partout ailleurs.
bN de X comme combinaison linéaire de Y1 , Y2 , . . . , YN ? (on
4b. Quelle est la meilleure estimation X
admettra si besoin est le résultat de la question précédente). Quelle est l’erreur associée ?
4c. Soit ZN l’estimateur sans biais
Y1 +...+YN
N
bN |2 ) < E(|X − ZN |2 ).
. Vérifiez E(|X − X
FIN
55
Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Séries temporelles
Université de Nice – Sophia-Antipolis
J.-F. Burnol
CORRIGÈ – Examen du 31 mai 2000 – CORRIGÈ
Documents et calculatrices autorisés.
Il y a huit problèmes, comprenant vingt-quatre questions. Chacune rapporte 1 point.
Problème 1.
1a. Par YW on a γ0 − 51 γ1 = 1 et γ1 − 51 γ0 = 0, donc γ0 =
bt+δ|t =
1b. X
1c. Xt =
25
24 ,
γ1 =
5
24 ,
et γj =
25 1
24 5j
pour j > 1.
1
X.
5δ t
P
1
j≥0 5j εt−j .
1 2
bt+δ|t |2 ) = P
1d. E(|Xt+δ − X
0≤j<δ ( 5j ) =
2a.
25
24 (1
−
1
)
25δ
Problème 2.
3
γ1 −
10
3
γ1 − γ0 −
10
3
γ2 − γ1 −
10
γ0 −
1
γ2 = 66
10
1
γ1 = 0
10
1
γ0 = 0
10
donc γ1 = 31 γ0 et γ2 = 15 γ0 puis γ0 = 75, γ1 = 25, γ2 = 15.
2b. On calcule Yt + 15 Yt−1 = εt et Zt − 21 Zt−1 = εt . Bien sûr Y et Z sont cov–stationnaires, donc ce sont
des AR(1), de bruit blanc d’innovation ε.
δ
2c. Comme Y et Z ont le même bruit blanc d’innovation que X, elles ont le même passé. Ybt+δ|t = ( −1
5 ) Yt
bt+δ|t = ( 1 )δ Zt .
et Z
2
b2 = (3(−50) + 100)/10 = −5, X
b3 = (3(−5) + (−50))/10 = −6.5, X
b4 = (3(−6.5) + (−5))/10 = −2.45.
2d. X
b4 = 1 (2Yb4 + 5Zb4 ). On a Y1 = −100 et Z1 = −30, donc
Autre méthode: on a Xt = 1 (2Yt + 5Zt ) donc X
7
3
Yb4 = ( −1
5 ) (−100) =
4
5
7
b4 = ( 1 )3 (−30) = − 15 donc finalement X
b4 = 1 ( 8 −
et Z
2
4
7 5
56
75
4 )
49
= − 20
= −2.45.
Problème 3.
3a. 1 − 6z + 8z 2 = (1 − 2z)(1 − 4z) donc les racines sont
1
2
et
1
4
et les co-racines sont 2 et 4.
3b. Le polynôme canonique est h(z) = (1 − 21 z)(1 − 41 z) = 1 − 34 z + 81 z 2 donc Xt = εt − 43 εt−1 + 81 εt−2
3c.
1
(1− 21 z)(1− 14 z)
3d. εt =
P
=
2
j≥0 ( 2j
2
1− 21 z
−
−
1
.
1− 41 z
1
4j )Xt−j .
Problème 4.
4a. Posons: Zt = Yt − 12 Yt−1 , alors Z est cov-stationnaire et vérifie Zt − 31 Zt−1 = εt − 21 εt−1 . Elle est donc
identique avec X (par le théorème d’unicité).
4b. γ0X = (1 + 14 )γ0Y − γ1Y .
4c. γ0Y = 1/(1 − 91 ) = 98 , γ1Y =
3
8
donc γ0X =
59
48
−
3
8
=
33
32 .
Problème 5.
4a. γ1X =
90
3
= 30 et γ2X =
30
3
= 10.
b1 = αX0 + βX2 avec
4b. X
[α β] = [30 30]
b1 =
donc X
3
10 X0
+
3
10 X2 .
90
10
10
90
−1
= [30 30]
3 3
1 1
9 −1
=[
]
10 80 −1 9
10 10
De plus
b1 |2 ) = 90 − [α β] 30 = 90 − 18 = 72
E(|X1 − X
30
Problème 6.
5a. 90 = γ0X = 10γ0ε donc γ0ε = 9 et γ1X = 3γ0ε = 27. Comme X est un MA(1) γjX = 0 pour j > 1.
b1 = αX0 + βX2 avec
5b. X
90
[α β] = [27 27]
0
b1 =
donc X
3
10 X0
+
3
10 X2 .
0
90
−1
3 3
1 1 0
=[
= [27 27]
]
90 0 1
10 10
De plus
b1 |2 ) = 90 − [α β] 27 = 90 − 162 = 738
E(|X1 − X
27
10
10
57
Problème 7.
4a.
Yt = Y0 + X1 + . . . + Xt
1
1
1
Yt = Y0 + (− ε0 + ε1 ) + (− ε1 + ε2 ) + . . . + (− εt−1 + εt )
2
2
2
1
1
1
Yt = Y0 − ε0 + ε1 + . . . + εt−1 + εt
2
2
2
4b. On a
1
Ybt|0 = Y0 − ε0
2
car d’une part εu pour u > 0 n’est pas corrélé avec Y0 (et donc avec aucun des Yj , j < 0 car il n’est pas
corrélé avec les Xj , j ≤ 0) et d’autre part ε0 appartient au passé de X donc de Y aussi. Ainsi
1
t+3
E(|Yt − Ybt|0 |2 ) = (t − 1) + 1 =
4
4
Problème 8.
4a. On suppose N ≥ 2 bien sûr. Notons A la matrice N × N avec 1 + q sur la diagonale et 1 partout ailleurs
et B
1
q(N +q)
fois la matrice avec N − 1 + q sur la diagonale et −1 partout ailleurs. Le produit AB est une
matrice avec sur la diagonale
1
q(N +q) (−(1
1
q(N +q) ((1 + q)(N
− 1 + q) − (N − 1)) qui vaut simplement 1 et partout ailleurs
+ q) + (N − 1 + q) − (N − 2)) qui donne 0.
4b. On note que les produits scalaires (X, Yi ) valent tous x2 , que les produits scalaires (Yi , Yj ) valent
bN = P αj Yj avec
x2 (1 + q) lorsque i = j et x2 lorsque i 6= j. Par la formule du cours X
j
−1
[α1 . . . αN ] = [x2 . . . x2 ] [(Yi , Yj )] = [1 . . . 1]A−1 = [1 . . . 1]B
1
1
[α1 . . . αN ] =
[q . . . q] =
[1 . . . 1]
q(N + q)
N +q
bN =
donc X
Y1 +...+YN
N +q
. L’erreur associée vaut par la formule du cours
 2
x
q
1
N
.
2
2
b

[1 . . . 1] ..  = x2 (1 −
) = x2
E(|X − XN | ) = x −
N +q
N
+
q
N
+q
x2
4c. On a ZN = X +
grand que x2 Nq+q .
W1 +...+WN
N
donc E(|X − ZN |2 ) =
FIN
58
1
2
N 2 N qx
= x2 Nq ce qui est bien strictement plus
Maîtrise MASS 1999/2000 – 2„eme semestre – MM6 – Séries temporelles
Université de Nice Sophia– Antipolis
J.-F. Burnol
Deuxième session – jeudi 14 septembre 2000
Documents et calculatrices autorisés.
Il y a 5 problèmes, comprenant vingt-deux questions. Chacune rapporte 1
point. Toute réponse numérique non justifiée est invalide et sera notée 0.
Durée: deux heures.
Problème 1.
Soit η un bruit blanc et X le MA(1) de variance 50 vérifiant
Xt = ηt − ηt−1
(1) Quelle est la variance de η?
(2) Que valent les autocovariances de X ?
b1 et l’erreur E(|X1 − X
b1 |2 ) ?
(3) On a observé X0 et X3 . Quelle est la valeur optimale X
Problème 2.
Soit η un bruit blanc et X le MA(2) vérifiant
Xt = ηt − 2ηt−1 − 35ηt−2
(1) Quelles sont les racines et co-racines de 1 − 2z − 35z 2 ?
(2) Quelle est la relation MA(2) entre X et son bruit blanc d’innovation ε ?
(3) Exprimez εt en fonction de Xt , Xt−1 , . . .
Problème 3.
Soit ε un bruit blanc et Y le ARMA(1,1) vérifiant
1
1
Yt − Yt−1 = εt − εt−1
2
3
59
(1) Soit W le AR(1) vérifiant Wt − 21 Wt−1 = εt . Montrez: Yt = Wt − 13 Wt−1 .
(2) Exprimez γ0Y en fonction de γ0W et γ1W .
(3) On suppose que W est de variance 1. Quelle est la variance de ε?
(4) On suppose toujours que W est de variance 1. Que valent γ1W et γ2W ? Que vaut γ0Y ?
Problème 4.
Soit ε un bruit blanc de variance 1 et Z le AR(1) vérifiant
Zt −
1
Zt−1 = εt
10
(1) Quelles sont les autocovariances de Z ?
b1|0 , Zb2|0 , . . . en fonction de Z0 , Z−1 , . . ..
(2) Exprimez les prévisions optimales Z
(3) Exprimez Z0 en fonction de ε0 , ε−1 , . . ..
bδ|0 |2 ) ?
(4) Soit δ ≥ 1. Que vaut E(|Zδ − Z
Problème 5.
Soit ε un bruit blanc et X le AR(1) de variance 100 vérifiant
1
Xt − Xt−1 = εt
2
(1) Quelle est la variance de εt ?
(2) Comment s’exprime Xt comme combinaison de εt , εt−1 , . . . ?
(3) Que valent γ1X et γ2X ?
b3 et l’erreur E(|X3 − X
b3 |2 ) ?
(4) On a observé X1 et X2 . Quelle est la valeur optimale X
FIN
60
Séries Temporelles
Maîtrise MASS — Université de Nice
Jean-François Burnol avec la collaboration de Marc Diener
Année 2000–2001, 2ème semestre
Fiches d’exercices, partiel, examen, examen de rattrapage.
62
Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre
Université de Nice
Département de Mathématiques
Année 2000-2001
Maîtrise MASS
Séries Temporelles
Fiche TD 1 (13.02.01)
b (qui est également
On appelle régression linéaire de la v.a. X par les v.a. Y1 , . . ., Yn la v.a. notée X
b
notée E(X | Y1 , . . . , Yn )) qui est l’unique combinaison affine
b = α0 + α1 Y1 + . . . + αn Yn
X
2
rendant E (X − α0 − α1 Y1 − . . . − αn Yn ) minimale. On montre que (α0 , α1 , . . . , αn ) est une solution
du système des N + 1 équations à N + 1 inconnues :
N
X
pour i = 0..N.
αj E(Yi Yj ) = E(Yi X)
j=0
où l’on a posé Y0 = IΩ (v.a. déterministe égale a 1), ou, si l’on préfère :

α0




α0 E(Y1 )





+α1 E(Y1 )
+α1 E(Y12 )
α0 E(Yi ) +α1 E(Yi Y1 )









α0 E(YN ) +α1 E(YN Y1 )
···
+α2 E(Y1 Y2 )
..
.
···
···
..
.
···
..
.
+αj E(Yi Yj )
..
.
···
···
+αN E(YN )
= E(X)
+αN E(Y1 YN ) = E(Y1 X)
..
.
···
= E(Yi X)
..
.
+αN E(YN2 )
= E(YN X)
En général il y a une unique solution, mais il y aura plusieurs solutions si les variables aléatoires Yj ne
sont pas linéairement indépendantes. La combinaison résultante α0 + α1 Y1 + . . . + αn Yn est-elle unique,
indépendante du choix éventuel de la solution. On montre
b = E(X) +
X
N
X
k=1
avec β1 ,. . .,βN formant une solution du système :
βk (Yk − E(Yk )),
PN
j=1
βj Cov(Yi , Yj ) = Cov(Yi , X) , i = 1..N.
1. Déterminer la régression linéaire de X par Y1 , . . ., Yn dans les cas suivants : N = 2, EY1 = 0 = EY2 ,
VY1 = 1, VY2 = 2, E(Y1 Y2 ) = 1, et
1.
2.
3.
4.
EX
EX
EX
EX
= 0,
= 1,
= 0,
= 2,
E(XY1 ) = 1, E(XY2 ) = 0 ;
E(XY1 ) = 1, E(XY2 ) = 0 ;
E(XY1 ) = 0, E(XY2 ) = 0 ;
Cov(X, Y1 ) = 2, Cov(X, Y2 ) = 1.
2. On suppose que les T1 , T2 , T3 , et T4 sont tels que pour tous i 6= j dans {1, 2, 3, 4} on ait ETi = 0,
ETi2 = 1, E(Ti Tj ) = 0.
b
1. On pose Y1 = T1 + T2 + T3 , Y2 = T2 + T3 + T4 , et X = T1 + T2 + T3 + T4 . Que vaut E(X
| Y1 , Y2 ) ?
b
2. On pose Y3 = T1 + T3 + T4 . Que vaut E(X
| Y1 , Y2 , Y3 ) ?
b
3. On pose Y4 = T1 + T2 + T4 . Que vaut E(X
| Y1 , Y2 , Y3 , Y4 ) ?
Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre
63
64
Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre
Université de Nice
Département de Mathématiques
Année 2000-2001
Maîtrise MASS
Séries Temporelles
Fiche TD 2 (20.02.01)
1. Soit H l’ensemble des v.a. sur l’espace probabilisé Ω ; des deux applications bilinéaires suivantes,
laquelle est un produit scalaire et laquelle ne l’est pas ? (expliquez.)
(X, Y ) = E(XY ) ou (X, Y ) = Cov(X, Y ).
On choisit
q dorénavant celle des deux définitions qui est effectivement un produit scalaire, et l’on pose
kXk = (X, X).
2. On note U ⊥ V si et seulement si (U, V ) = 0 (et on dit que U et V sont perpendiculaires.) Montrer
le “théorème de Pythagore” :
U ⊥ V ⇔ kU + V k2 = kU k2 + kV k2 .
b sa régression
3. Soit Y0 la variable aléatoire constante Y0 := 1Ω . Soit X une variable aléatoire et soit X
b = α0 Y0 , avec α0 = EX. Deux méthodes : a. On considère la fonction
linéaire par Y0 . Montrer : X
α 7→ ϕ(α) := kX − αk2 . Expliciter cette fonction et déterminer pour quelle valeur de α elle est minimale.
b. Montrer (X − (EX)Y0 , Y0 ) = 0 et en déduire par le théorème de Pythagore pour tout α : kX − αY0 k ≥
kX − (EX)Y0 k.
4. Soient Y1 , . . ., YN des v.a. sur Ω ; on pose
FN =≪ Y0 , Y1 , . . . , YN ≫= {α0 Y0 + α1 Y1 + . . . + αN YN , αi ∈ R} où Y0 := 1Ω
b le régressé linéaire de X par Y1 , . . ., YN . Montrer que X − X
b ∈ F ⊥ , c’est-à-dire que pour
et on note X
N
tout Y ∈ FN on a :
b Y)=0
(X − X,
b est caractérisé comme étant l’unique vecteur dans FN tel que X − X
b ∈ F ⊥ soit vrai.
Montrer que X
N
b Vérifier les propriétés suivantes :
5. On pose Z := X − X.
b = EX.
1. La v.a. Z est centrée, et EX
b et Z ne sont pas corrélées.
2. Les v.a. X
b + VZ.
3. VX = VX
b = Cov(X,
b X).
4. VX
PN
b = PN αi Yi , avec Y0 = 1Ω .
5. VZ = VX − k=1 αk Cov(Yk , X), où X
i=0
Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre
65
66
Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre
Université de Nice
Département de Mathématiques
Année 2000-2001
Maîtrise MASS
Séries Temporelles
Fiche TD 3 (27.02.01) : Innovations pour un MA(1)
Soit ε = (εt )t∈Z un bruit blanc, centré, de variance σ 2 . Soit θ un nombre réel non nul, et soit X = (Xt )t∈Z
la série temporelle définie par Xt = εt − θεt−1 . On dit que X est un MA(1) (moyenne mobile d’ordre 1 ;
(K)
MA = “moving average”.) Le but de ce problème est de comprendre comment évolue la régression X0
de X0 sur X−1 , . . . , X−K lorsque la taille de la mémoire K tend vers +∞, et en particulier l’erreur de
(K)
prédiction V(X0 − X0 ).
1. montrer que les covariances cov(Xt , Xu ) valent (1 + θ2 )σ 2 pour t = u et −θσ 2 pour |t − u| = 1 et
sont nulles dans les autres cas.
θ
2. Soit ρ = − 1+θ
2 . Montrer que les coefficients a1 (K), . . . , aK (K) de la régression de X0 sur X−1 , . . . , X−K
forment la solution du système linéaire suivant :
  a (K)   

1 ρ
0 ··· 0
1
ρ
 0
..  
..
..



.
. 
ρ
ρ 1

.
 


.. 
..
 
..



.
=
  
. 0
.
1
0 ρ

  

. .

  .. 
.
.
.

.
.. .. .. ρ 
..

.
.
0
0 ··· 0
ρ 1
aK (K)
3. On suppose |θ| =
6 1. Il se trouve que la solution du système précédent est alors de la forme :
j
aj (K) = AK · θj + BK · θ1 pour des constantes AK et BK correctement choisies. Déterminer les
valeurs de AK et de BK : on les déduira des équations impliquant a1 (K), a2 (K), aK−1 (K) et aK (K).
Les relations suivantes sont utiles : ρ θ1 + 1 + ρθ = 0, θ + ρθ2 = −ρ.
(K)
2
4. On suppose toujours |θ| =
6 1. Soit σK
la variance de l’erreur X0 − X0
2
2
(1 + θ + θ a1 (K))σ , puis la formule explicite :
1 − θ2
2
σK
= σ2 · θ2 +
1 − θ2K+2
2
. Montrer que σK
vaut
2
Montrer que σK
décroît lorsque K augmente et converge vers une valeur limite que l’on déterminera en
fonction de θ. Distinguer soigneusement les cas |θ| < 1 et |θ| > 1.
5. En prenant la limite K → ∞ dans le cas |θ| < 1 montrer la representation AR(∞) suivante de X :
Xt + θ Xt−1 + θ2 Xt−2 + . . . = ηt , avec η le bruit blanc des innovations de X. En déduire que η = ε. Que
se passe-t-il si |θ| > 1 ?
2K+2
1
θ
2
Indications : dans 3 on trouve AK = − 1−θ2K+2
et BK = 1−θ
2K+2 . Dans 4 la valeur de limK→∞ σ (K)
2
2 2
est σ si |θ| < 1 et θ σ si |θ| > 1. Cette limite est la variance du bruit blanc des innovations de X. Les
innovations de X sont les εt uniquement lorsque |θ| ≤ 1. Dans 5, la représentation AR(∞) de X lorsque
|θ| > 1 existe aussi mais utilise θ1 en lieu et place de θ. Dans ce cas les innovations ηt ne sont pas égales
avec les εt . On montre par ailleurs que dans les cas spéciaux θ = ±1 il n’existe aucune représentation
AR(∞) de X (mais ses innovations sont bien les εt .)
jf b.
Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre
67
68
Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre
Université de Nice
Département de Mathématiques
Année 2000-2001
Maîtrise MASS
Séries Temporelles
Fiche TD 4 (13.03.01)
1. Soit ε un bruit blanc et X le MA(1) défini selon
1
Xt = εt − εt−1
7
Exprimez εt en fonction de Xt , Xt−1 , Xt−2 , etc. . .
2. Soit ε un bruit blanc et X le MA(1) défini selon
1
Xt = εt − εt−1
5
Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . .en fonction de Xt , Xt−1 , Xt−2 ,
etc. . . ?
3. On se donne un AR(1) X d’équation
1
Xt − Xt−1 = εt
3
Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . .connaissant le passé linéaire de
X jusqu’à l’instant t ?
4. On reprend l’exercice précédent. On suppose que εt est de variance 1. Soient γj les autocovariances
de X. Ce sont des nombres réels et γ−j = γj . Écrire les équations de Yule-Walker, en déduire les valeurs
de γ0 et γ1 puis des autres autocovariances.
5. Soit η un bruit blanc et X le MA(1) défini selon
Xt = ηt − 5ηt−1
Quelle est la relation entre X et son bruit blanc d’innovation ? Quelle est la meilleure prédiction possible
pour Xt+1 en fonction de Xt , Xt−1 , Xt−2 , etc. . . ?
Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre
69
1 (corr.) Soit ε un bruit blanc et X le MA(1) défini selon
1
Xt = εt − εt−1
7
Exprimez εt en fonction de Xt , Xt−1 , Xt−2 , etc. . .
εt =
∞
X
1
( )j Xt
7
j=0
2 (corr.) Soit ε un bruit blanc et X le MA(1) défini selon
1
Xt = εt − εt−1
5
Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . .en fonction de Xt , Xt−1 , Xt−2 ,
etc. . . ?
∞
1
1X 1 j
∗
Xt+1
= − εt = −
( ) Xt
5
5 j=0 5
∗
∗
∗
Xt+2
= Xt+3
= Xt+4
= ... = 0
3 (corr.) On se donne un AR(1) X d’équation
1
Xt − Xt−1 = εt
3
Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . .connaissant le passé linéaire de
X jusqu’à l’instant t ?
1
∗
Xt+j
= ( )j Xt
3
4 (corr.) On reprend l’exercice précédent. On suppose que εt est de variance 1. Soient γj les autocovariances de X. Ce sont des nombres réels et γ−j = γj . Écrire les équations de Yule-Walker, en déduire
les valeurs de γ0 et γ1 puis des autres autocovariances.
1
γ0 − γ−1 = 1
3
1
1
γ1 − γ0 = 0
γj+1 − γj = 0
3
3
9 1 j
9
γj = ( )
γ0 =
8
8 3
5 (corr.) Soit η un bruit blanc et X le MA(1) défini selon
Xt = ηt − 5ηt−1
Quelle est la relation entre X et son bruit blanc d’innovation ? Quelle est la meilleure prédiction possible
pour Xt+1 en fonction de Xt , Xt−1 , Xt−2 , etc. . . ?
1
Xt = εt − εt−1
5
∞
X
1
1
∗
Xt+1
=−
( )j Xt
5 j=0 5
70
Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre
Université de Nice
Département de Mathématiques
Année 2000-2001
Maîtrise MASS
Séries Temporelles
Fiche TD 5 (20.03.01)
1. Soit ε un bruit blanc centré et X le AR(2) tel que
Xt −
1
9
Xt−1 + Xt−2 = εt
20
20
Vérifiez que la “condition de stationnarité” est satisfaite. On suppose que ε est de variance 57 (sic. . .).
Écrivez les équations de Yule-Walker, et résolvez en γ0 , γ1 et γ2 .
2. (suite) Soient Y et Z définis selon
1
Yt = Xt − Xt−1
4
1
Zt = Xt − Xt−1
5
Montrez que Y et Z sont des AR(1) (calculez Yt − 15 Yt−1 et Zt − 41 Zt−1 ). Trouvez α et β de sorte que
Xt = αYt + βZt pour tous les t.
3. (suite) On reprend l’exercice précédent. Montrer que les trois séries chronologiques X, Y , Z ont toutes
les mêmes innovations fondamentales et le même passé à chaque instant. Quelles sont les meilleures
prédictions possibles pour Yt+1 , Yt+2 , etc. . .et Zt+1 , Zt+2 , etc. . .connaissant Xt , Xt−1 , Xt−2 , etc. . . ? Et
quelles sont les meilleures prédictions pour Xt+1 , Xt+2 , etc. . . ?
4. (suite) Exprimez Yt et Zt puis Xt en fonction de εt , εt−1 , εt−2 , etc. . .
5. Soit η un bruit blanc centré de variance 1, soit Q(z) le polynôme 1 − 9z + 20z 2 et Y le MA(2) obtenu
en filtrant η par Q(L). Que valent les autocovariances de Y ?
9
z+
6. (suite) Soit ε un bruit blanc centré de variance 400, soit R(z) le polynôme 1 − 20
MA(2) obtenu en filtrant ε par le polynôme R(L). Que valent les autocovariances de X ?
1 2
20 z
et X le
7. (suite) Dans les deux exercices précédents comparez les covariances de X avec celles de Y . Quelle
est la relation entre X et son bruit blanc d’innovation ? Quelle est la relation entre Y et son bruit blanc
d’innovation ? On suppose connus Yt , Yt−1 , Yt−2 , etc. . .Quelle est la meilleure prédiction possible pour
Yt+1 ?
Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre
71
Solutions :
Sauf erreur on trouve γ0 = 70, γ1 = 30, γ2 = 10.
On a Xt = −4Yt + 5Zt .
Les meilleures prédictions sont E(Yu | ≤ t) =
1 u−t
5
Yt , et E(Zu | ≤ t) =
E(Xu | ≤ t) = −4 E(Yu | ≤ t) + 5 E(Zu | ≤ t)
Yt =
P
j
1 j
5
εt−j , Zt =
P
j
1 j
4
1 u−t
4
Zt . De plus
εt−j , d’où Xt par combinaison linéaire.
Sauf erreur : 482, - 189, et 20.
Sauf erreur : 482, - 189, et 20.
Mêmes autocovariances pour Y et pour X. La relation entre Y et son bruit blanc d’innovation est celle
d’un MA(2) avec le même polynôme filtrant que X. Soient ε les innovations de Y . On a E(Yt+1 | ≤ t) =
9
1
− 20
εt + 20
εt−1 . Il faut exprimer εt et εt−1 en fonctions du passé de Y ce qui nécessite d’inverser le filtre
R(L). Pour cela il suffit de récuperer les données de l’exercice 4 où l’expression du AR(2) en fonction de
ses innovations correspond justement à l’inversion de ce polynôme. On conclut :
j !
j
X
1
1
εt =
+5
Yt−j
−4
5
4
j≥0
X
9
E(Yt+1 | ≤ t) = − Yt +
20
j≥1
72
4
5
j
j !
1
5 1
Yt−j
−
5
4 4
Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre
Université de Nice
Département de Mathématiques
Année 2000-2001
Maîtrise MASS
Séries Temporelles
Fiche TD 6 (15.05.01)
1. On dispose d’un indicateur bruité Y d’une variable aléatoire X : Y = X + ε avec ε ∼ N (0, τ 2 ). On
suppose que l’erreur ε est indépendante de X qui elle-même suit une loi N (µ, σ 2 ) dont les paramètres
sont supposés connus. Quelle est la meilleure estimation que l’on puisse faire de X sachant Y et quelle
est l’erreur quadratique associée. Discuter en fonction de τ 2 → ∞ et de τ 2 → 0.
2. Montrer pour ν > −1 :
T
1
1 1 X ν
t =
T →∞ T T ν
ν+1
t=1
lim
3. Soient εt des variables indépendantes,
centrées, identiquement distribuées, de variance commune σ 2 .
PT
Soit Y0 = 0 et pour T ≥ 1, YT = t=1 εt . Montrer :
T −3/2
T
X
Yt−1 = T −1/2
t=1
À la limite lorsque T → ∞ quelle est la loi de T −3/2
PT
T
X
t
(1 − )εt
T
t=1
t=1
Yt−1 ?
PT
4. (suite) Plus généralement quelle est la loi jointe à la limite lorsque T → ∞ du vecteur (T −1/2 t=1 εt ,
R
P
1
T
T −3/2 t=1 Yt−1 ) ? En déduire la loi jointe de (B(1), 0 B(r)dr) pour le mouvement Brownien standard.
5. On observe une série chronologique Yt que l’on cherche à modéliser du mieux possible avec une loi
autorégressive d’ordre 1 de la forme Yt = A + BYt−1 + ut . Quelles sont les formules (utilisant une matrice
2 × 2) donnant les meilleures estimations AT et BT possibles au sens
Pdes moindres carrés pour A et B
lorsque T + 1 observations Y0 , . . ., YT sont connues ? (on minimise (Yt − A − BYt−1 )2 ) Quelle est la
formule pour le vecteur des différences (AT − A, BT − B), lorsque l’on a réellement Yt = A + BYt−1 + ut ?
6. (suite, difficile) On suppose que la série chronologique Yt est en fait une marche aléatoire Yt = Yt−1 +εt
(la variance des εt valant σ 2 ), autrement dit que les vraies valeurs de A et de B sont respectivement 0
et 1. On pourra supposer Y0 = 0. En utilisant le théorème de la limite centrale fonctionnelle, exprimer
la loi limite du vecteur (T 1/2 AT , T (BT − 1)) en fonction d’un mouvement Brownien.
Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre
73
Université de Nice
Département de Mathématiques
Année 2000-2001
Maîtrise MASS
Séries Temporelles
Fiche TD 6 (15.05.01) – Corrigé des exercices 29 et 30
6 (corr.) On considère les trois vecteurs suivant dans RT : V1 = (1, . . . , 1), V2 = (Y0 , . . . , YT −1 ) et
W = (Y1 , . . . , YT ). Les valeurs AT et BT sont celles pour lesquelles la projection orthogonale de W sur
<< V1 , V2 >> est AV1 + BV2 . Elles sont donc données par
ce qui donne
AT
BT
AT
BT
=
=
PT
(V1 , V1 ) (V1 , V2 )
(V1 , V2 ) (V2 , V2 )
(W, V1 )
(W, V2 )
−1 PT
PT
Yt−1
Yt
PTt=1 2
PT t=1
t=1 Yt−1
t=1 Yt Yt−1
T
t=1
−1 Yt−1
Supposons que A et B soient tels que l’on ait pour tout t : Yt = A + BYt−1 + ut . Alors
T
X
t=1
T
T
X
X
ut
Yt−1 )B +
Yt = T A + (
t=1
t=1
T
X
t=1
T
T
T
X
X
X
2
ut Yt−1
Yt−1
)B +
Yt−1 )A + (
Yt Yt−1 = (
t=1
t=1
t=1
PT
PT
PT
T
A
t=1 Yt
t=1 Yt−1
t=1 ut
= PT
+ PT
PT
PT
2
B
t=1 Yt Yt−1
t=1 Yt−1
t=1 Yt−1
t=1 ut Yt−1
−1 PT
PT
T
AT
A
t=1 Yt−1
t=1 ut
=
+ PT
PT
PT
2
BT
B
t=1 Yt−1
t=1 Yt−1
t=1 ut Yt−1
7 (corr.) Par ce qui précède on a
AT
BT − 1
=
PT
T
t=1
Yt−1
−1 PT
PT
t=1 Yt−1
t=1 εt
PT
PT
2
t=1 Yt−1
t=1 εt Yt−1
Comme dans l’exercice 4 résolu en cours, si l’on définit la fonction en escalier XT (r) sur l’intervalle
√ [0, 1]
comme valant Yt−1 /T sur l’intervalle [(t − 1)/T, t/T [ pour 1 ≤ t ≤ T et YT /T en 1, on sait que T XT (·)
converge pour T → ∞ vers un Mouvement Brownien standard B(r) (de variance σ 2 ). Cela signifie par
R1
PT √
exemple que lorsque T est très grand la somme de Riemann T1 t=1 T XT ( t−1
T ) approxime 0 B(r)dr.
En fonction des Yt cela donne
Z 1
T
X
−3/2
T
B(r)dr
Yt−1 ∼
0
t=1
De même la somme de Riemann
1
T
PT
t=1
2
T (XT ( t−1
T )) approxime
T −2
T
X
t=1
2
Yt−1
∼
Notons de plus la petite astuce suivante :
1
1
PT
√
√
0
T
t=1 Yt−1
T
T
· PT
·
PT
1
2
0
0
Y
Y
t−1
t=1
t=1 t−1
T
74
Z
1
R1
0
B(r)2 dr, d’où
B(r)2 dr
0
0
1
T
=
T
1
PT
−3/2
t=1
Yt−1
PT
T −3/2 t=1 Yt−1
PT
2
T −2 t=1 Yt−1
Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre
et donc pour T → ∞ :
√
T
0
0
T
T
· PT
t=1
Yt−1
ce qui donne en fin de compte :
On notera que
utilisant
Yt2
=
√1
T
2
Yt−1
−1 √
PT
T
t=1 Yt−1
·
PT
2
0
t=1 Yt−1
√
1
T AT
∼ R1
T (BT − 1)
B(r)dr
0
PT
√
0
T
∼
R1
−1
B(r)dr
·
R 10
B(r)2 dr
0
1
R1
B(r)dr
0
√1
T
1
T
R1
−1
B(r)dr
0
R1
B(r)2 dr
0
PT
PT
t=1 εt
t=1 εt Yt−1
!
T XT (1) ∼ B(1) et que par ailleurs comme on l’avait vu en cours, en
PT
PT
+ 2εt Yt−1 + ε2t on obtient YT2 = 2 t=1 εt Yt−1 + t=1 ε2t soit encore
t=1 εt
=
T
T
T
1X
1 X 2
1 X 2
1 2
1
YT −
εt Yt−1 =
εt = T XT (1)2 −
ε
T t=1
2T
2T t=1
2
2T t=1 t
Le dernier terme tend avec probabilité 1 vers
lorsque T → ∞ :
1 2
2σ
√
1
T AT
∼ R1
T (BT − 1)
B(r)dr
0
tandis que le premier est ∼ 21 B(1)2 . En conclusion,
R1
−1 B(r)dr
B(1)
·
R 10
1
2
2
B(r)2 dr
2 (B(1) − σ )
0
ce qui répond à la question (on peut trouver l’expression finale un peu compliquée). En particulier la loi
de T (BT − 1) est approximativement celle de
1
2
2
2 (B(1) − σ )
R1
B(r)2 dr − ( 0 B(r)dr)2
0
R1
Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre
75
76
Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre
Université de Nice
Département de Mathématiques
Année 2000-2001
Maîtrise MASS
Séries Temporelles
Contrôle (02.04.01)
Problème 1.
Soit ε un bruit blanc centré de variance 8 et X le AR(1) vérifiant
1
Xt − Xt−1 = εt
3
(1) Quelles sont les autocovariances de X ?
c1 , X
c2 ,. . .de X1 , X2 , . . .connaissant toutes les valeurs passées
(2) Exprimer les prévisions optimales X
X0 , X−1 , . . ..
(3) Exprimer X0 en fonction de ε0 , ε−1 , . . ..
ch |2 ) ?
(4) Soit h ≥ 1. Que vaut E(|Xh − X
Problème 2.
Soit ε un bruit blanc centré et X le AR(1) de variance 25 vérifiant
1
Xt − Xt−1 = εt
5
(1) Quelle est la variance de εt ?
(2) Comment s’exprime Xt comme combinaison de toutes les innovations passées εt , εt−1 , . . . ?
(3) Que valent γ1X et γ2X ?
b3 sachant X1 et X2 et qu’elle est l’erreur E(|X3 − X
b3 |2 ) ?
(4) Quelle est la valeur optimale X
Problème 3.
Soit η un bruit blanc centré et X le MA(2) vérifiant
Xt = ηt − 2ηt−1 − 35ηt−2
(1) Quelle est la relation MA(2) entre X et son bruit blanc d’innovation ε ?
(2) On suppose que η est de variance 1. Quelle est la variance de ε ?
Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre
77
78
Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre
NOM :
PRÉNOM :
né(e) le :
à:
Replier et agrafer
Université de Nice
Département de Mathématiques
Année 2000-2001
Maîtrise MASS
Séries Temporelles
Examen (30.05.01)
Problème 1.
Soient Y1 , . . ., YN et Z1 , . . ., ZM des variables aléatoires (N, M ≥ 1). Soit X une autre variable aléatoire.
Soit X1 la régression linéaire de X par Y1 , . . ., YN , Z1 , . . ., ZM . Montrer que X et X1 ont les mêmes
régressions linéaires par Y1 , . . ., YN .
Problème 2.
Soit η un bruit blanc centré et soit X le MA(1) défini selon
Xt = ηt − 10ηt−1
(1) Quelle est la relation entre X et son bruit blanc d’innovation ?
(2) Quelle est la meilleure prédiction possible pour Xt+1 en fonction de Xt , Xt−1 , Xt−2 , etc. . . ?
(3) Quelle est l’erreur quadratique moyenne associée ?
Problème 3.
On se donne un AR(1) centré X d’équation
1
Xt − Xt−1 = εt
7
(1) Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . .connaissant le passé linéaire
de X jusqu’à l’instant t ?
(2) Quelles sont les erreurs quadratiques moyennes associées ?
Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre
79
Problème 4.
Soit ε un bruit blanc centré et soit X le AR(2) tel que
Xt −
1
2
Xt−1 − Xt−2 = εt
35
35
(1) Le bruit blanc ε est il le bruit blanc des innovations de X ? (justifier la réponse.)
(2) On note σ 2 la variance de ε et γ0 , γ1 et γ2 les premières autocovariances de X. Écrire les équations
de Yule-Walker et exprimer γ0 , γ1 et γ2 en fonction de σ 2 .
Problème 5.
On dispose de deux mesures Y1 et Y2 d’une variable aléatoire X : Y1 = X + ε1 et Y2 = X + ε2 avec
ε1 ∼ N (0, τ 2 ) et ε2 ∼ N (0, τ 2 ). On supposera que les erreurs ε1 et ε2 sont mutuellement indépendantes
et aussi sont indépendantes de X et que celle-ci suit elle-même une loi N (µ, σ 2 ) dont les paramètres sont
connus.
(1) Quelle est la meilleure estimation que l’on puisse faire de X sachant Y1 et Y2 ?
(2) Quelle est l’erreur quadratique associée ? Discuter en fonction de τ 2 → ∞ et de τ 2 → 0.
(3) Après la première mesure Y1 quelle est la meilleure prévision que l’on puisse faire pour le résultat
de la deuxième mesure Y2 ?
(4) Quelle est l’erreur quadratique associée ? Discuter en fonction de τ 2 .
Problème 6.
On observe une série chronologique Yt que l’on cherche à modéliser du mieux possible avec une loi
autorégressive d’ordre 1 de la forme Yt = BYt−1 + ut .
(1) Quelle est la formule donnant la meilleure estimation BT possible au sens des moindres carrés pour
P
B lorsque T + 1 observations Y0 , . . ., YT sont connues ? (on minimise (Yt − BYt−1 )2 )
(2) Donner une formule pour la différence BT − B, lorsque l’on a réellement Yt = BYt−1 + ut .
On suppose que la série chronologique Yt suit en réalité une quasi-marche aléatoire de la forme Yt =
Yt−1 + Zt avec Zt = εt + 21 εt−1 un MA(1) (les εt étant des variables gaussiennes centrées indépendantes
de variance commune σ 2 ). Donc la vraie valeur de B est 1. On supposera pour simplifier Y0 = 0, Z0 = 0.
√
+...+Zt−1
On définit une fonction en escalier XT (r) sur l’intervalle [0, 1] comme valant Yt−1 / T = Z0 +Z1 √
T
√
sur l’intervalle [(t − 1)/T, t/T [ pour 1 ≤ t ≤ T et valant YT / T en r = 1.
(3) Exprimer XT (r) en fonction des εt . En déduire que lorsque T → ∞ les fonctions aléatoires XT (r)
convergent vers un mouvement Brownien standard B(r) dont on donnera la variance.
PT
(4) En déduire la loi limite de T −3/2 t=1 Yt−1 .
PT
PT
PT
(5) Montrer YT2 = 2 t=1 Zt Yt−1 + t=1 Zt2 et en déduire la loi-limite de T1 t=1 Zt Yt−1 .
(6) Déterminer la loi-limite de T (BT − 1).
80
Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre
NOM:
PRÉNOM:
né(e) le:
à:
Replier et agrafer
Université de Nice
Département de Mathématiques
Année 2000-2001
Maîtrise MASS
Séries Temporelles
Examen (session de septembre, le 17.09.01)
Problème 1.
Soit X = (Xt ) une série chronologique stationnaire. Expliquer la notion de “bruit blanc des innovations”:
définition mathématique d’une part, commentaires que cela vous inspire d’autre part. En quoi cette
notion est-elle reliée au problème de la prédiction?
Problème 2.
On se donne une modélisation AR(p) pour une série chronologique stationnaire X = (Xt ).
(1) Qu’appelle-t-on condition de stationnarité?
(2) On suppose connu le passé jusqu’à l’instant t. Soit e1 l’erreur quadratique moyenne associée à la
meilleure prédiction de Xt+1 , et e2 pour la meilleure prédiction de Xt+2 . On a e2 ≥ e1 . Pourquoi?
Problème 3.
On se donne un AR(1) centré X d’équation
1
Xt − Xt−1 = εt
5
(1) Quelles sont les meilleures prédictions possibles pour Xt+1 , Xt+2 , etc. . .connaissant le passé linéaire
de X jusqu’à l’instant t ?
(2) Quelles sont les erreurs quadratiques moyennes associées ?
Cours: Jean-François Burnol. Travaux Dirigés: Marc Diener. Année 2000–2001, 2ème semestre
81
Problème 4.
On observe une série chronologique Yt que l’on cherche à modéliser du mieux possible avec une loi
autorégressive d’ordre 1 AR(1) de la forme Yt = A · Yt−1 + ut .
(1) Montrer que la formule donnant la meilleure estimation AT possible au sens des moindres carrés
pour A lorsque T + 1 observations Y0 , . . ., YT sont connues est:
P
1≤t≤T Yt · Yt−1
AT = P
2
1≤t≤T Yt−1
(on minimise
P
(Yt − AYt−1 )2 )
On suppose pour toutes les questions qui suivent que la série chronologique Yt suit en réalité, sans
qu’on le sache, un processus MA(1) de la forme Yt = εt + 21 εt−1 (les εt étant des variables gaussiennes
centrées indépendantes de variance commune σ 2 ). On rappelle le théorème suivant, la loi forte des grands
nombres:
Soient X1 , X2 , . . .des
Pnvariables aléatoires indépendantes, identiquement distribuées, d’espérance commune α. Soit Sn = k=1 Xk . Alors:
Sn
converge pour n → ∞ vers α avec probabilité 1
n
(2) En décomposant
P
1≤t≤T
2
Yt−1
en deux parties, d’une part la somme pour t pair, d’autre part la
somme pour t impair, montrer que avec probabilité 1 on a
1 X
5
2
Yt−1
= σ2
T →∞ T
4
lim
1≤t≤T
(3) En décomposant
P
1≤t≤T
Yt · Yt−1 en trois parties, la somme pour t = 1, 4, . . ., la somme pour
t = 2, 5, . . ., et la somme pour t = 3, 6, . . ., montrer par la loi forte des grands nombres que avec
probabilité 1 on a
1
1 X
Yt · Yt−1 = σ 2
lim
T →∞ T
2
1≤t≤T
(4) En déduire la valeur limite presque sûre de AT lorsque T → ∞.
(5) On a fait un grand nombre T + 1 d’observations (disons T = 1000), et calculée une valeur correspondante de AT (disons AT = 0.402). Comment peut-on s’apercevoir par des calculs sur les observations
Y0 , . . ., YT que Y n’est en fait certainement pas en réalité un AR(1) de paramètre approximativement
0.4, autrement dit quel estimateur peut-on utiliser qui amènera avec une grande probabilité à rejeter
l’hypothèse que Y est un AR(1) ?
82
Cours: Jean-François Burnol. Travaux Dirigés: Marc Diener. Année 2000–2001, 2ème semestre