Chapitre 4 : suites stationnaires - Jean-Yves Tourneret

Transcription

Chapitre 4 : suites stationnaires - Jean-Yves Tourneret
Processus Stochastiques
Jean-Yves Tourneret(1)
(1) Université of Toulouse, ENSEEIHT-IRIT-TéSA
Thème 1 : Analyse et Synthèse de l’Information
[email protected]
Cours Mastère, 2010 – p. 1/29
Plan du cours
Chapitre 1 : Chaînes de Markov à états discrets
Chapitre 2 : Chaînes de Markov à états continus
Chapitre 3 : Méthodes de Simulation
Chapitre 4 : Suites Stationnaires
Stationnarité, Autocorrélation, Densité Spectrale de
Puissance
Filtrage linéaire invariant dans le temps
Suites ARMA, AR et MA
Innovations, Théorème de Wold, Prédiction
Cours Mastère, 2010 – p. 2/29
Bibliographie
Peter J. Brockwell and Richard A. Davis, Time Series:
Theory and Methods, Springer Verlag, 2nd edition, 1998.
Athanasios Papoulis and S. Unnikrishna Pillai, Probability,
Random Variable and Stochastic Processes, McGraw Hill
Higher Education, 4th edition, 2002.
B. Porat, Digital Processing of Random Signal. Theory
and Methods, Prentice Hall, Englewood Cliffs, 1994.
Bernard Lacaze, Processus aléatoires pour
communications numériques, Hermes Sciences
Publications, 2000.
Cours Mastère, 2010 – p. 3/29
Stationnarité
Définition
E [xn ] = µ
∗
E xn xn−m = rx (m) , r(m)
Moyenne et fonction d’autocorrélation indépendantes
du temps.
Exemples
Bruit blanc
Echantillonnage périodique d’un processus aléatoire
stationnaire à temps continu
Cours Mastère, 2010 – p. 4/29
Propriétés de la fonction d’autocorrélation
Symétrie hermitienne
r∗ (−m) = r(m)
Valeur à l’origine
|r (m)| ≤ r (0)
Suite définie non négative
n
X
aj a∗k r(j − k) ≥ 0,
∀n, aj , ak
j,k=1
Cours Mastère, 2010 – p. 5/29
Propriétés de la densité spectrale de puissance
Théorème d’Erglotz
r (m) définie non négative si et ssi
r (m) =
Z
1/2
e2iπmf dS(f )
−1/2
où S(.) est une fonction continue à droite, non décroissante, bornée sur [−1/2, 1/2]
et telle que S(−1/2) = 0.
Densité spectrale de puissance s(f )
Rf
Si S(f ) = −1/2 s(u)du, on a
r (m) =
Z
1/2
e2iπmf s(f )df
et
s(f ) =
−1/2
∞
X
r (m) e−2iπmf
m=−∞
Preuve : voir polycopié ou livre de Brockwell and Davis.
Cours Mastère, 2010 – p. 6/29
Filtrage linéaire invariant dans le temps
Définition
xn =
∞
X
hk en−k = hn ∗ en
k=−∞
CNS de Stabilité BIBO
∞
X
|hk | < ∞
k=−∞
Transmittance
H(f ) =
∞
X
k=−∞
hk e
−j2πkf
= TFD [hk ] ,
1
1
− ≤f ≤
2
2
Cours Mastère, 2010 – p. 7/29
Relations de Wiener-Lee
Densité spectrale de puissance
sx (f ) = se (f ) |H (f )|2 avec H(f ) =
∞
X
hk e−j2πkf
k=−∞
Intercorrélation
∗
rxe (k) = E xn en−k = h(k) ∗ re (k)
Formule des Interférences
∗ ryz (k) = E yn zn−k
Z 1
2
=
H (f ) G∗ (f ) ej2πkf se (f ) df
− 12
Cours Mastère, 2010 – p. 8/29
Preuve
Autocorrélation

rx (k) = E 
=
X
i∈Z
XX
i∈Z j∈Z
=
hi en−i
XX
X
j∈Z
hi h∗j E

h∗j e∗n−k−j 
∗
en−i en−k−j
hi h∗j re (k + j − i)
i∈Z j∈Z
Cours Mastère, 2010 – p. 9/29
Preuve
Densité Spectrale de Puissance
X
sx (f ) =
rx (k) e−j2πkf
k∈Z
=
XX
hi h∗k
i∈Z k∈Z
=
XX
i∈Z k∈Z
=
XX
hi h∗k
(
X
(
re (l + k − i) e−j2πlf
l∈Z
X
)
re (m) e−j2π(m+i−k)f
m∈Z
)
hi h∗k se (f ) e−j2π(i−k)f
i∈Z k∈Z
= se (f ) |H (f )|2
Cours Mastère, 2010 – p. 10/29
Preuve
Intercorrélation
rxe (k) = E
=
=
"
∞
X
l=−∞
∞
X
∞
X
hl en−l
l=−∞
!
e∗n−k
#
∗
hl E en−l en−k
hl re (k − l)
l=−∞
= h(k) ∗ re (k)
Cours Mastère, 2010 – p. 11/29
Retour sur les chaînes de Markov
Le spectre d’une chaîne de Markov est une fraction
rationnelle en e−2iπf . En effet, pour k ≥ 0, on a
r(k) = E [xn xn+k ]
X
=
abP [xn = a, xn+k = b]
a,b
=
X
abP [xn+k = b| xn = a] P [xn = a]
a,b
=
X
(aP [xn =
(k)
a]) bpab
..
= [...]P [.]
k
a,b
=
l
X
|k|
ai λi
i=1
Cours Mastère, 2010 – p. 12/29
Exemple
Chaîne de Markov stationnaire de matrice de transition


1/3 2/3 0


P =  1/3 0
2/3 
2/3 0
1/3
associée à trois états {0, 1, −1} de probabilités initiales
3 2 2
égales aux probabilités limites 7 , 7 , 7 .
Cours Mastère, 2010 – p. 13/29
Suite ARMA
Définition
p
X
k=0
ak xn−k =
q
X
bk en−k
k=0
où ak et bk , k = 0, ..., n sont des nombres réels et où en
est un bruit blanc (E(en ) = 0 et E(e2n ) = σe2 ).
Remarques
a0 = b0 = 1
Suites AR et MA
On suppose que B(z) et A(z) n’ont pas de zéros
communs, ou alors on simplifie.
Approximation du spectre d’une suite stationnaire
Cours Mastère, 2010 – p. 14/29
Densité spectrale de puissance
Transmittance
Wiener-Lee
Pq
−k
b
z
X(z)
k
H(z) =
= Ppk=0
−k
E(z)
a
z
k
k=0
P
2
q b e−j2πkf k
sx (f ) = σe2 Ppk=0
k=0 ak e−j2πkf La densité spectrale de puissance d’une suite ARMA
est une fraction rationnelle en e−j2πf .
Cours Mastère, 2010 – p. 15/29
La solution
Expression de xn en fonction de en
AR(1)
xn = axn−1 + en avec |a| < 1
AR(1)
xn = axn−1 + en avec |a| > 1
Cas général
On montre qu’il existe P
une solution stationnaire
inversible, i.e., x(n) = ∞
k=0 hk e(n − k) si et ssi H(z)
a tous ses pôles à l’intérieur du cercle unité.
Lorsqu’il n’y a pas de pôle sur le cercle unité, il
existe une solution stationnaire de la forme
x(n) =
∞
X
k=−∞
hk e(n − k)
Cours Mastère, 2010 – p. 16/29
Autocorrélations dans le cas causal
Équations de Yule-Walker
p
X
ak r (i − k) =
k=0
q
X
bk E [xn−i en−k ] ,
k=0
P∞
avec xn = j=0 hj en−j .
i≥q+1
p
p
X
X
ak r (i − k) = 0 ⇔ r(i) =
ak r (i − k)
k=0
k=1
i ∈ {0, ..., q}
r(i) =
p
X
k=1
ak r (i − k) + σe2
q
X
bk hk−i
k=i
Cours Mastère, 2010 – p. 17/29
Autocorrélations d’une suite AR causale
i≥1
r(i) =
p
X
ak r (i − k)
p
X
ak r (−k) + σe2
k=1
i=0
r(0) =
=
k=1
p
X
ak r (k) + σe2
k=1
Cours Mastère, 2010 – p. 18/29
Autocorrélations d’une suite MA causale
i≥q+1
r(i) = 0
i ∈ {0, ..., q}
r(i) = σe2
q
X
bk bk−i = σe2 (b0 bi + b1 bi+1 + ... + bq−i bq )
k=i
On notera en particulier que r(q + 1) = 0 et que
r(q) = b0 bq = bq 6= 0
Ces deux dernières relations seront pratiques pour
déterminer l’ordre du modèle MA.
Cours Mastère, 2010 – p. 19/29
Résumé Suites Stationnaires
Autocorrélation-Densité spectrale
r (m) =
Z
1/2
e2iπmf s(f )df
et
s(f ) =
−1/2
∞
X
r (m) e−2iπmf
m=−∞
Filtrage Linéaire
Relation entrée-sortie X(f ) = H(f )E(f )
DSP sortie sx (f ) = se (f )|H(f )|2
Intercorrélation rxe (k) = h(k) ∗ re (k)
Autocorrélations d’une chaîne de Markov
l
X
|k|
r(k) =
ai λi
i=1
Cours Mastère, 2010 – p. 20/29
Résumé Suites ARMA
Définition
p
X
k=0
ak xn−k =
q
X
bk en−k
k=0
Transmittance
B(z)
H(z) =
A(z)
Densité spectrale de puissance
P
2
q
−j2πkf b
e
k
2 P k=0
sx (f ) = σe p
−j2πkf
k=0 ak e
Cours Mastère, 2010 – p. 21/29
Résumé Suites ARMA
Solution
pôles à l’intérieur du cercle unité ⇔ solution
stationnaire causale
pôles à l’extérieur du cercle unité ⇔ solution
stationnaire anti causale
Autocorrélations dans le cas causal
peuvent se déterminer à l’aide des équations de
Yule-Walker
permettent d’estimer les paramètres de la suite
ARMA
Cours Mastère, 2010 – p. 22/29
Innovations d’une suite stationnaire (E[xt] = 0)
Définition
Hn le sous espace engendré par {xt, t ≤ n} (le passé et
le présent de xn ). L’ innovation de xn est définie par
un = xn − PHn−1 (xn ) = xn − x
bn .
Propriétés
un ∈ Hn
La suite des innovations {un , n ∈ Z} est constituée
de variables aléatoires non-corrélées (orthogonales)
la suite {un , n ∈ Z} est une suite stationnaire de
moyenne nulle et de variance finie
Cours Mastère, 2010 – p. 23/29
Suites déterministes et régulières
Suites déterministes
h
i
σ 2 = E |xn − x
bn |2 = 0 ⇒ un = 0 p.s.
Suite parfaitement prédictible à partir de son passé
xn = x
bn = −
∞
X
αk xn−k
k=1
Ex. : xn = A cos(2πf0 n + θ) = 2 cos(2πf0 )xn−1 − xn−2 .
Suites régulières
h
i
σ 2 = E |xn − x
bn |2 6= 0.
Normalisation : E[u2 (n)] = 1, Exemple : suite ARMA.
Cours Mastère, 2010 – p. 24/29
Décomposition de Wold
Toute suite stationnaire de moyenne nulle s’écrit
xn = y n + v n =
∞
X
βs un−s + vn , où
s=0
(a) un et vn sont des suites décorrélées
E [vm un ] = 0,
∀n, m
(b) un est l’innovation appartenant à Hn
(c) vn est une variable aléatoire appartenant à H−∞ ,
(d) vn est une suite déterministe
(e) yn est une suite régulière
Cours Mastère, 2010 – p. 25/29
Cas particuliers
Suites déterministes (xn = vn )
xn = α ⇒ x
bn = E [ xn | xn−1 , xn−2 , ...] = α = xn , i.e.,
un = 0.
xn = A cos (2πf0 n + θ) = 2 cos (2πf0 ) xn−1 − xn−2 , i.e.,
un = 0.
Bruit blanc
x
bn = E [ xn | xn−1 , xn−2 , ...] = E [xn ] = 0 ⇒ un = xn −b
xn = xn
Cours Mastère, 2010 – p. 26/29
Décomposition de Wold d’une suite ARMA
Résultat fondamental
xn =
∞
X
βs un−s
s=0
i.e., filtrage causal des innovations (donc les pôles de
β(z) sont tous à l’intérieur du cercle unité).
Inversibilité
Si les pôles et zéros de β(z) ne sont pas sur le cercle
unité, alors
∞
X
un =
αs xn−s
s=0
avec pôles de α(z) (zéros de β(z)) à l’intérieur du cercle
unité.
Cours Mastère, 2010 – p. 27/29
Exemples de décompositions de Wold
Suites AR(1)
xn = axn−1 + en avec |a| < 1
xn = axn−1 + en avec |a| > 1
Suites MA(1)
xn = en − aen−1 avec |a| < 1
xn = en − aen−1 avec |a| > 1
Cours Mastère, 2010 – p. 28/29
Prédiction
On observe une suite stationnaire aux instants t ≤ 0 et on
cherche à estimer xn avec n > 0 à l’aide du meilleur
estimateur linéaire à partir des éléments {x0 , x−1 , ...}. La
solution de ce problème est immédiate dans le cas où
vn = 0 dans la décomposition de Wold (e.g., suites ARMA).
En effet, à partir de
∞
X
xn =
βs un−s
s=0
puisque les innovations sont orthogonales, on a
∞
X
x
en = PH0 (xn ) =
βs un−s .
s=n
Erreur de prédiction :
σn2
Pn−1 2
2
= E |xn − x
en | = s=0 βs .
Cours Mastère, 2010 – p. 29/29