formulaire pour la théorie du signal - GIPSA-Lab

Transcription

formulaire pour la théorie du signal - GIPSA-Lab
FORMULAIRE POUR LA THÉORIE DU SIGNAL
Christian JUTTEN
Laboratoire GIPSA, Département Signal et Images (CNRS, INPG, UJF), Grenoble, France
[email protected]
1. FORMULES TRIGONOMÉTRIQUES
1.1. Somme et différence d’angles
• sin(α + β) = sin α cos β + cos α sin β,
• sin(α − β) = sin α cos β − cos α sin β,
• cos(α + β) = cos α cos β − sin α sin β,
• cos(α − β) = cos α cos β + sin α sin β.
2. MODÈLES MATHÉMATIQUES DE SIGNAUX
2.1. Signaux simples
• rect[(t−τ )/T ] : fonction rectangle centrée sur τ , d’amplitude
1 et de largeur T (l’aire vaut T ),
• tri[(t−τ )/T ] : fonction triangle centrée sur τ , d’amplitude
1 et de largeur 2T (l’aire vaut T ),
• 2 sin2 α = 1 − cos 2α,
• δ(t) : distribution de Dirac, satisfaisant δ(t) = 0 pour
R +∞
t 6= 0, et −∞ δ(t)dt = 1,
• 2 cos2 α = 1 + cos 2α,
• sinc(u) =
1).
1.2. Expression en fonction des angles doubles
sin(πu)
πu
: sinus cardinal de u (son aire vaut
• 2 sin α cos α = sin 2α.
2.2. Opérateur de répétition
1.3. Produits de fonctions trigonométriques
• 2 sin α sin β = cos(α − β) − cos(α + β),
• repT (.) : répétition de . avec une période T ,
P+∞
• 2 cos α cos β = cos(α − β) + cos(α + β),
• repT (x(t)) =
• 2 sin α cos β = sin(α − β) + sin(α + β).
• repT (δ(t)) = δT (t) =
Dirac.
k=−∞
x(t − kT ),
P+∞
k=−∞
δ(t − kT ) : peigne de
1.4. Somme et différence de fonctions trigonométriques
• sin α + sin β = 2 sin[(α + β)/2] cos[(α − β)/2],
2.3. Opérateur de convolution
• sin α − sin β = 2 sin[(α − β)/2] cos[(α + β)/2],
Définition
• cos α + cos β = 2 cos[(α + β)/2] cos[(α − β)/2],
• cos α − cos β = −2 sin[(α + β)/2] sin[(α − β)/2].
1.5. Formes exponentielles
• exp(jα) = cos α + j sin α, avec j 2 = −1,
• sin α =
exp(jα)−exp(−jα)
,
2j
• cos α =
exp(jα)+exp(−jα)
.
2
1.6. Développements limités
• sin α = α − α3 /3! + α5 /5! . . . + (−1)p α2p+1 /(2p +
1)! + . . .,
• cos α = 1− α2 /2! + α4 /4! . . . + (−1)p α2p /(2p)! + . . .,
• exp α = 1 + α + α2 /2! + . . . + αk /k! + . . ..
• x(t) ∗ y(t) = (x ∗ y)(t) =
R +∞
x(t − v)y(v)dv,
−∞
R +∞
−∞
x(u)y(t − u)du =
• x(t) ∗ y(t − t0 ) =
y)(t − t0 ),
R +∞
x(u)y(t − u − t0 )du = (x ∗
• x(t) ∗ y(at + b) =
R +∞
x(u)y(a(t − u) + b)du
−∞
−∞
Propriétés
• Commutativité : x(t) ∗ y(t) = y(t) ∗ x(t),
• Associativité : [x(t)∗y(t)]∗z(t) = x(t)∗[y(t)∗z(t)] =
x(t) ∗ y(t) ∗ z(t),
• Distributivité par rapport à l’addition : x(t) ∗ [y(t) +
z(t)] = x(t) ∗ y(t) + x(t) ∗ z(t)
4.5. Développement en séries de Fourier (DSF) dans L2 (t1 , t1 +
T)
On utilise ψk (t) = exp j2π Tk t .
P+∞
• x(t) = k=1 αk exp j2π Tk t ,
R t +T
• λkk = t11 | exp j2π Tk t |2 dt = T ,
2.4. Propriétés de la distribution de Dirac δ(t)
R +∞
• x(t0 ) = −∞ x(t)δ(t − t0 )dt
• x(t) ∗ δ(t) = x(t),
• x(t) ∗ δ(t − t0 ) = x(t − t0 ),
• x(t − t1 ) ∗ δ(t − t2 ) = x(t − t1 − t2 ),
• δ(at) = |a|−1 δ(t).
3. VALEUR MOYENNE TEMPORELLE, ÉNERGIE
ET PUISSANCE
R +T /2
• x̄ = limT →+∞ T1 −T /2 x(t)dt : moyenne.
Signaux réels
R +∞
• Wx = −∞ x2 (t)dt : énergie,
• Px = limT →+∞
1
T
R +T /2
−T /2
1
T
R +T /2
−T /2
1
T
R t1 +T
t1
x(t) exp −
5. TRANSFORMÉES DE FOURIER
5.1. Transformée de fonctions sommables
Pour
R des fonctions x(t) bornées et absolument sommables
( |x(t)|dt < +∞), on définit la transformée de Fourier (TF),
notée X(f ) :
x2 (t)dt : puissance.
x(t) ⇋ X(f ) =
Signaux complexes
R +∞
• Wx = −∞ |x(t)|2 dt : énergie,
• Px = limT →+∞
• αk = λ1kk hx, exp j2π Tk t i =
j2π Tk t dt.
|x(t)|2 dt : puissance.
+∞
x(t) exp(−j2πf t)dt.
−∞
De même, étant donnée X(f ), on peut calculer x(t) par transformée de Fourier inverse :
Z +∞
X(f ) exp(+j2πf t)df.
X(f ) ⇌ x(t) =
−∞
4. REPRÉSENTATION VECTORIELLE
On considère des signaux x(t) et y(t) dans l’espace L2 (t1 , t2 ).
Z
5.2. Notations
On notera
4.1. Distance euclidienne
• d(x, y) = kx − yk =
• x(t) ⇋ X(f ),
hR
t2
t1
|x(t) − y(t)|2 dt
i1/2
• d(x, y)2 = kxk2 + kyk2 − 2ℜhx, yi
hR
i
t
• kxk2 = t12 |x(t)|2 dt ,
• hx, yi =
R t2
t1
x(t)y ∗ (t)dt.
• X(f ) = F{x(t)} : transformée de Fourier,
• x(t) = F −1 {X(f )} : transformée de Fourier inverse.
5.3. Propriétés
• La TF est linéaire : ax(t) + by(t) ⇋ aX(f ) + bY (f )
• La TF conserve la parité.
4.2. Inégalité de Schwartz
• |hx, yi|2 ≤ hx, xi.hy, yi,
R
2 R
Rt
t
t
• t12 x(t)y ∗ (t)dt ≤ t12 |x(t)|2 dt. t12 |y(t)|2 dt.
4.3. Orthogonalité de x(t) et y(t)
Rt
• hx, yi = t12 x(t)y ∗ (t)dt = 0.
4.4. Développement sur une base orthogonale {ψk (t)}
P+∞
• x(t) = k=1 αk ψk (t),
Rt
• αk = λ1kk hx, ψk i = λ1kk t12 x(t)ψk∗ (t)dt,
Rt
• λkk = hψk , ψk i = kψk k2 = t12 |ψk (t)|2 dt,
Rt
P+∞
• t12 |x(t)|2 dt = k=1 |αk |2 λkk .
• Si la fonction x(t) est réelle (imaginaire, resp.) impaire, X(f ) est imaginaire (réelle, resp.) impaire.
5.4. Règles de calculs
Soit une fonction x(t), telle que x(t) ⇋ X(f ).
• x(−t) ⇋ X(−f ) : retournement temporel,
• x∗ (t) ⇋ X ∗ (−f ) : complexe conjuguée,
• x(at) ⇋ |a|−1 X(f /a) : effet Doppler,
• x(t − t0 ) ⇋ X(f ) exp(−j2πf t0 ) : translation temporelle,
• x(t) exp(j2πf0 t) ⇋ X(f −f0 ) : translation en fréquence
ou modulation,
•
dn
dtn x(t)
⇋ (j2πf )n X(f ) : dérivation sur t.
Soient deux fonctions x(t) et y(t), telles que x(t) ⇋ X(f ) et
y(t) ⇋ Y (f ), on montre le Théorème de Plancherel :
• x(t) ∗ y(t) ⇋ X(f )Y (f ),
• x(t)y(t) ⇋ X(f ) ∗ Y (f ).
5.5. Transformées de Fourier de quelques signaux usuels
• rect(t/T ) ⇋ T sinc(f T ) : fonction rectangle,
• tri(t/T ) ⇋ T sinc2 (f T ) : fonction triangle,
• exp(−at)ǫ(t) ⇋
unilatérale,
1
a+j2πf
2a
• exp(−a|t|) ⇋
double,
a2 +(2πf )2
2
: impulsion exponentielle
: impulsion exponentielle
2
• exp(−πt ) ⇋ exp(−πf ) : impulsion gaussienne,
• exp(−at) sin(2πf0 t)ǫ(t) ⇋
soïde amortie,
2πf0
(a+j2πf )2 +(2πf0 )2
: sinu-
• exp(−at) cos(2πf0 t)ǫ(t) ⇋
nusoïde amortie.
a+j2πf0
(a+j2πf )2 +(2πf0 )2
: cosi-
5.6. Transformées de Fourier de distributions
• ǫ(t) ⇋
1
j2πf
• sgn(t) ⇋
+
1
jπf
δ(f )
2
: échelon unité,
: fonction signe,
5.8.2. Transformées de Fourier
Les transformées de Fourier de signaux périodiques sont des
spectres de raies, aux fréquences n/∆, dont l’enveloppe spectrale est la transformée de Fourier d’une période du signal divisée par la période ∆.
P+∞
• X(f ) = n=−∞ Xn δ(f − n/∆), avec Xn défini cidessus,
P+∞
• Y (f ) =
n=−∞ Yn δ(f − n/∆), avec Yn défini cidessus.
5.8.3. Transformées de signaux périodiques usuels
• cos(2πf0 t) ⇋ 21 [δ(f + f0 ) + δ(f − f0 )] : signal cosinusoïdal,
• sin(2πf0 t) ⇋ 2j [δ(f + f0 ) − δ(f − f0 )] : signal sinusoïdal,
• exp(j2πf0 t) ⇋ δ(f − f0 ) : phaseur à la fréquence f0 ,
P
P
1
•
k δ(t−k∆) ⇋ ∆
n δ(f −n/∆) : peigne de Dirac,
1
• δ∆ (t) ⇋ ∆
δ1/∆ (f ) : peigne de Dirac avec les notations abrégées,
P+∞
P+∞
•
n=−∞ Xn exp(j2πnt/∆) ⇋
n=−∞ Xn δ(f −n/∆):
signal x(t) périodique,
P+∞
• Arep∆ {rect(t/θ} ⇋ n=−∞ Xn δ(f −n/∆) avec Xn =
Aθ
∆ sinc(nθ/∆).
• δ(t) ⇋ 1 : impulsion de Dirac,
• k ⇋ kδ(f ) : constante.
6. CORRÉLATIONS ET DENSITÉS SPECTRALES
6.1. Signaux à énergie finie
5.7. Transformée de Fourier de signaux à moyenne non
nulle
• Soit x(t) = x̄ + x0 (t) où x̄ est la moyenne de x(t), on
F {x′0 (t)}
a F{x(t)} = j2πf
+ x̄δ(f ),
• ǫ(t) ⇋ 12 δ(f ) +
• sgn(t) ⇋
1
j2πf ,
1
jπf .
5.8. Transformées de Fourier de signaux périodiques
Soient deux signaux x(t) et y(t), périodiques de même période ∆.
5.8.1. Développement en séries de Fourier (DSF)
Les signaux étant périodiques, si les conditions de Diriclet
sont satisfaites, on peut calculer les DSF de x(t) et y(t) :
P+∞
• x(t) = n=−∞ Xn exp(j2πnt/∆),
R +∆/2
avec Xn = [ −∆/2 x(t) exp(−j2πnt/∆)dt]/∆,
• y(t) =
avec
P+∞
n=−∞ Yn exp(j2πnt/∆),
R +∆/2
Yn = [ −∆/2 y(t) exp(−j2πnt/∆)dt]/∆.
6.1.1. Auto- et inter-corrélation
• Auto-corrélation : Γxx (τ ) =
• Inter-corrélation : Γxy (τ ) =
R +∞
−∞
R +∞
−∞
x(t)x∗ (t − τ )dt,
x(t)y ∗ (t − τ )dt.
6.1.2. Relation entre corrélation et convolution
• Γxy (τ ) = x(τ ) ∗ y ∗ (−τ ).
6.1.3. Propriétés des fonctions de corrélation
• Symétrie hermitienne :
◦ Γxy (τ ) = Γ∗yx (−τ ),
◦ Γxx (τ ) = Γ∗xx (−τ ),
• Bornes
◦ Cas général : |Γxy (τ )|2 ≤ Γxx (0)Γyy (0),
◦ Pour x(t) = y(t) : |Γxx (τ )| ≤ Γxx (0),
◦ Γxx (0) ∈ R est l’énergie du signal.
• Dans le cas de signaux réels, la fonction d’autocorrélation
est paire et maximale en 0, où Γxx (0) est l’énergie du
signal.
6.1.4. Densité spectrale d’énergie
R +∞
• Γxx (τ ) ⇋ Sxx (f ) = −∞ Γxx (τ ) exp(−j2πf τ )dτ ,
• Sxx (f ) = |X(f )|2 : densité spectrale d’énergie,
R +∞
• Γxy (τ ) ⇋ Sxy (f ) = −∞ Γxy (τ ) exp(−j2πf τ )dτ :
densité inter-spectrale d’énergie,
• Sxy (f ) = X(f )Y (f )∗ ,
6.1.6. Dérivation de la fonction de corrélation
•
◦ Γxy (τ ) =
1
∆
◦ Γxy (τ ) =
1
∆
R +∆/2
−∆/2
R t0 +∆
t0
P+∞
n=−∞
x(t)y ∗ (t − τ )dt,
x(t)y ∗ (t − τ )dt,
Xn Yn∗ exp(j2πnτ /∆), en utilisant le DSF de x(t) et y(t).
◦ Γxy (τ ) =
6.3.2. Densités spectrale et inter-spectrale de puissance
6.1.5. Relations de Parseval
R +∞
R +∞
• −∞ x(t)y ∗ (t)dt = −∞ X(f )Y ∗ (f )df ,
R +∞
R +∞
• −∞ |x(t)|2 dt = −∞ |X(f )|2 df , ou, pour le cas τ =
0,
R +∞
Γxy (0) = −∞ Sxx (f )df : énergie du signal.
dΓxy (τ )
dτ
• Inter-corrélation
= Γx′ y (τ ) = −Γxy′ (τ )
Les densités spectrale et inter-spectrale de puissance sont les
transformées de Fourier de fonctions périodiques de périodes
∆. On obtient donc des spectres de raies, aux fréquences
k/∆, dont l’enveloppe spectrale est la transformée de Fourier
d’une période de la fonction de corrélation divisée par la période ∆.
• Densité spectrale
◦ Sxx (f ) =
6.2.1. Fonctions de corrélation
R +T /2
• Γxx (τ ) = limT →∞ T1 −T /2 x(t)x∗ (t − τ )dt : autocorrélation,
R +T /2
• Γxy (τ ) = limT →∞ T1 −T /2 x(t)y ∗ (t − τ )dt : intercorrélation.
n=−∞
|Xn |2 δ(f − n/∆), en util-
isant le DSF de x(t),
◦ Sxx (f ) =
6.2. Signaux à puissance moyenne finie
P+∞
1
2
∆2 |X(f, ∆)| δ1/∆ (f ),
avec
X(f, ∆) = F{x(t, ∆)} = F{rect((t)/∆)x(t)}.
• Densité inter-spectrale
P+∞
∗
◦ Sxy (f ) =
n=−∞ Xn Yn δ(f − n/∆), en utilisant le DSF de x(t),
◦ Sxy (f ) =
1
∗
∆2 X(f, ∆)Y (f, ∆)δ1/∆ (f ),
avec
X(f, ∆) = F{x(t, ∆)} = F{rect((t)/∆)x(t)}
et Y (f, ∆) = F{y(t, ∆)} = F{rect((t)/∆)y(t)}.
6.2.2. Densités spectrale et interspectrale de puissance
• Sxx (f ) = F{Γxx (τ )} : densité spectrale de puissance,
• Sxy (f ) = F{Γxy (τ )} : densité inter-spectrale de puissance,
• Sxx (f ) = limT →∞ T1 |X(f, T )|2 , avec
X(f, T ) = F{x(t, T )} = F{rect(t/T )x(t)}.
6.2.3. Relation de Parseval
R +∞
• Px = Γxx (0) = −∞ Sxx (f ).
6.3.3. Relations de Parseval
R +∞
P+∞
• Px = Γxx (0) = −∞ Sxx (f )df = n=−∞ |Xn |2 .
7. SIGNAUX ALÉATOIRES
7.1. Variables aléatoires
7.1.1. Densités de probabilité
On note pX (u) la densité d’une variable aléatoire (VA) X.
6.3. Signaux périodiques
• Si X et Y sont deux VA indépendantes, la densité de la
VA Z = X + Y est : pZ (u) = (pX ∗ py )(u),
Soient deux signaux x(t) et y(t), périodiques de même période ∆.
• Si Y = f (X), avec f inversible,
pY (u) = pX (f −1 (u))/|f ′ (f −1 (u))|
6.3.1. Fonctions de corrélation
7.1.2. Moments
Les auto et inter-corrélations sont périodiques de période ∆,
et on peut les calculer par intégration sur une période ∆.
Moyenne d’une VA continue ou discrète
R +∞
• µ1 = E[X] = −∞ upX (u)du,
P
• µ1 = E[X] = i ui Pr(X = ui ).
• Auto-corrélation
◦ Γxx (τ ) =
1
∆
◦ Γxx (τ ) =
1
∆
R +∆/2
−∆/2
R t0 +∆
t0
P+∞
x(t)x∗ (t − τ )dt,
x(t)x∗ (t − τ )dt,
|Xn |2 exp(j2πnτ /∆), en utilisant le DSF de x(t).
◦ Γxx (τ ) =
n=−∞
Moment d’ordre k d’une VA continue ou discrète
R +∞
• µk = E[X k ] = −∞ uk pX (u)du,
P
• µk = E[X k ] = i uki Pr(X = ui ).
Moment centré d’ordre k d’une VA continue ou discrète
R +∞
• µ′k = E[(X − µ1 )k ] = −∞ (u − µ1 )k pX (u)du,
• µ′k = E[(X − µ1 )k ] =
P
i (ui
P
i (ui −µ1 )
2
Pr(X = ui ).
Relation entre variance et moments d’ordre 1 et 2
• σ 2 = E[(X − µ1 )2 ] = E[X 2 ] − E[X]2 = µ2 − µ21 .
7.1.3. Distributions de quelques lois usuelles
• Pr(k) = Cnk pk (1 − p)n−k : loi Binomiale, de la VA
somme de n VA binaires, avec p = Pr(X = x1 ) et
1 − p = Pr(X = x0 ),
• Pr(n) =
a > 0,
an
n!
• p(u) =
√1
2πσ
exp(−a) : loi de Poisson de paramètre
exp
−
On note de façon générale Xi = x(ti ) la VA associée au
processus aléatoire x(t) pour t = ti .
− µ1 )k Pr(X = ui ).
Variance : c’est le moment centré d’ordre 2. On la note
fréquemment σ 2 plutôt que µ′2 .
R +∞
• σ 2 = µ′2 = E[(X − µ1 )2 ] = −∞ (u − µ1 )2 pX (u)du,
• σ 2 = µ′2 = E[(X −µ1 )2 ] =
7.3. Auto-corrélation
(u−m)2
2σ 2
2
: loi gaussienne de
moyenne m et de variance σ , notée N (m, σ 2 ).
7.2. Vecteurs aléatoires
7.2.1. Densités de probabilité
On note pX (u1 , . . . , un ) la densité d’un vecteur aléatoire (VcA)
X de dimension n.
Soit Y = f (X), avec f inversible. On note f −1 la transformation inverse, |Jf −1 | son jacobien et (f −1 )i la composante
i de la transformation f −1 :
• pY (u1 , . . . , un ) =
pX ((f −1 )1 (u1 ), . . . , (f −1 )n (un ))|Jf −1 |.
Dans le cas d’une transformation linéaire Y = AX où A est
une matrice régulière et u = (u1 , . . . , un )T :
• pY (u1 , . . . , un ) =
pX (A−1 u)| det A−1 |.
Dans le cas de la somme Z = X + Y de deux variables
aléatoires, la densité pZ (u) vaut :
R
• pZ (u) = pXY (x, u − x)dx,
R
• pZ (u) = pX (x)pY (u − x)dx = (pX ∗ pY )(u), si X
et Y sont des VA indépendantes.
7.3.1. Auto-corrélation statistique
Cas général
• RXX (t1 , t2 ) = E[X1 X2 ] =
RR
x1 x2 p(x1 , x2 )dx1 dx2 .
Cas d’un signal stationnaire, en notant τ = t1 − t2
RR
• RXX (τ ) = E[X(t)X(t−τ )] =
x1 x2 p(x1 , x2 )dx1 dx2 .
Les VA sont orthogonales ssi RXX (τ ) = 0.
7.3.2. Auto-covariance statistique
C’est l’auto-corrélation des processus aléatoires centrés. On
la note CXX (τ ).
Cas général
• CXX
R R(t1 , t2 ) = E[(X1 − E(X1 ))(X2 − E(X2 ))]
=
(x1 − E(X1 ))(x2 − E(X2 ))p(x1 , x2 )dx1 dx2
= RXX (t1 , t2 ) − E(X1 )E(X2 ).
Cas d’un signal stationnaire, en notant τ = t1 − t2
• CXX
R R(τ ) = E[(X(t) − E(X))(X(t − τ ) − E(X))]
=
x1 x2 p(x1 , x2 )dx1 dx2
= RXX (τ ) − E(X)2 .
Les VA sont non corrélées ssi CXX (τ ) = 0.
7.3.3. Cas de processus ergodiques et stationnaires
Dans ce cas, on peut remplacer les moyennes statistiques par
des moyennes temporelles, car on a asymptotiquement :
R T /2
• RXX (τ ) = limT →∞ T1 −T /2 x(t)x(t−τ )dt = ΓXX (τ ).
7.3.4. Coefficient de corrélation
Par définition, c’est l’auto-covariance normalisée, notée ρX (τ ) :
• ρX (τ ) =
CXX (τ )
CXX (0)
=
CXX (τ )
.
2
σX
7.3.5. Propriétés pour les signaux réels
Les fonction d’auto-corrélation et d’auto-covariance ont les
propriétés intéressantes pour des processus aléatoires réels.
De plus, en τ = 0, on a les relations énergétiques.
• elles sont paires,
• le maximum est atteint en τ = 0 :
7.2.2. Théorème de la limite centrale
Théorème 7.2.1 La distribution statistique d’une somme de
n variables aléatoires indépendantes, possédant la même loi
tend asymptotiquement vers une distribution gaussienne quelle
que soit la distribution des termes individuels.
◦ |CXX (τ )| ≤ CXX (0)
◦ |RXX (τ )| ≤ RXX (0)
2
◦ CXX (0) = σX
,
2
◦ RXX (0) = σX
+ µ2X .
7.4. Densité spectrale de puissance (DSP)
Pour un processus aléatoire x(t), on ne peut pas calculer directement la transformée de Fourier, puisque x(t) ne peut pas
être décrit. Par conséquent, on ne peut pas calculer directement sa DSP. On peut en revanche calculer sa fonction d’autocorrélation par une moyenne statistique ou temporelle, et en
déduire sa DSP en appliquant le théorème ci-dessous.
7.4.1. Théorème de Wiener-Kintchine
Le théorème de Wiener-Kintchine établit le lien entre la fonction d’auto-corrélation et la DSP pour des signaux aléatoires.
Théorème 7.4.1 La DSP d’un processus aléatoire stationnaire au sens large est le transformée de Fourier de sa fonction d’auto-corrélation :
Z +∞
RXX (τ ) exp(−j2πf τ )dτ.
SXX (f ) =
−∞
• RXY (τ ) = E[X(t)Y (t − τ )] (cas stationnaire).
et d’inter-covariance :
• CXY (t1 , t2 ) = E[(X(t1 ) − µX )(Y (t2 ) − µY )]
= RXY (t1 , t2 ) − E[X(t1 ))E(Y (t2 )] (cas général),
• CXY (τ ) = E[(X(t) − µX )(Y (t − τ ) − µY )]
= RXY (τ ) − µX µY (cas stationnaire).
7.5.2. Coefficient d’inter-corrélation
Le coefficient d’inter-corrélation est défini par :
• ρXY (τ ) =
CXY (τ )
σX σ Y .
7.5.3. Densité inter-spectrale
La densité inter-spectrale de puissance est la transformée de
Fourier de la fonction d’inter-corrélation :
• SXY (f ) = F{RXY (τ )}.
7.4.2. Conséquence
Si on connaît la DSP SXX (f ) d’un processus aléatoire x(t),
on peut déduire la fonction d’auto-corrélation par transformée
de Fourier inverse :
Z +∞
SXX (f ) exp(j2πf τ )df.
RXX (τ ) =
−∞
On peut aussi l’exprimer en fonction de l’auto-covariance, car
RXX (τ ) = CXX (τ ) + µ2X :
SXX (f ) = F{CXX (τ )} + µ2X δ(f ).
En τ = 0, on a :
• RXX (0) = PX =
R +∞
−∞
SXX (f )df .
Si le processus est aussi ergodique, on a
R T /2
• RXX (0) = limT →∞ T1 −T /2 |x(t)|2 dt
R +∞
= −∞ SXX (f )df .
7.4.3. Bruit blanc
Définition 7.4.2 On appelle bruit blanc un processus aléatoire b(t) dont la densité spectrale de puissance est constante,
∀f :
SBB (f ) = η/2.
Par transformée de Fourier inverse, on déduit la fonction d’autocorrélation d’un bruit blanc b(t) :
7.5.4. Cohérence
• γXY (f ) =
|SXY (f )|2
SXX (f )SY Y (f ) .
La cohérence est proche de 1 si les signaux x(t) et y(t) sont
liés par une relation linéaire (filtre). Dans le cas d’une relation
non linéaire ou en présence d’un bruit additif, la cohérence
devient très inférieure à 1.
8. FILTRES LINÉAIRES INVARIANTS
On considère un filtre de réponse impulsionnelle g(t) et en
fréquence G(f ), dont les signaux d’entrée et de sortie sont
x(t) et y(t), respectivement.
• Y (f ) = G(f )X(f ) = X(f )G(f ),
• y(t) = (g ∗ x)(t) = (x ∗ g)(t).
Pour une cascade de filtres, on a g(t) = (g1 ∗ g2 ∗ . . . ∗ gn )(t)
ou, en fréquence, G(f ) = G1 (f )G2 (f ) . . . Gn (f ).
8.1. Formule des interférences
On considère deux filtres de réponses impulsionnelles g1 (t) et
g2 (t) et de réponses en fréquence (TF) G1 (f ) et G2 (f ), dont
les signaux d’entrée sont x1 (t) et x2 (t), et de sortie y1 (t) et
y2 (t).
• SY1 Y2 (f ) = SX1 X2 (f )G1 (f )G∗2 (f ).
RBB (τ ) = F −1 {SXX (f )} = δ(τ )η/2.
8.2. Relation entrée-sortie des DSP
7.5. Inter-corrélation et densité inter-spectrale
7.5.1. Inter-corrélation et inter-covariance
On définit les fonctions d’inter-corrélation :
• RXY (t1 , t2 ) = E[X(t1 )Y (t2 )] (cas général)
En conséquence de la formule des interférences, on a pour les
DSP :
• SY Y (f ) = |G(f )|2 SXX (f ),
• SY X (f ) = G(f )SXX (f ).
8.3. Relation entrée-sortie entre corrélations
En conséquence des formules entre DSP, par transformée de
Fourier inverse, on a pour les auto-corrélations :
• RY Y (τ ) = Γgg (τ ) ∗ RXX (τ ) pour des signaux aléatoires, et
• ΓY Y (τ ) = Γgg (τ ) ∗ ΓXX (τ ) si les signaux sont ergodiques, ou certains à puissance moyenne finie ou à
énergie finie (attention aux définitions de Γ).
9.2. Opérateur de moyenne temporelle
• g(t) = rect((t − T /2)/T ),
• G(f ) = sinc(T f ) exp(−jπf T ),
• µy = G(0)µX = µX (moyenne),
• Γgg (τ ) = tri(τ /T )/T (auto-corrélation).
9.3. Opérateur de filtrage passe-bas idéal
Le filtre causal de largeur de bande B n’étant pas réalisable,
on décale g(t) de t0 .
et pour les inter-corrélations :
• RY X (τ ) = g(τ ) ∗ RXX (τ ), pour des signaux aléatoires, et
• G(f ) = rect[f /(2B)] exp(−j2πf t0 ),
avec |G(f )| = rect[f /(2B)] et φ(G(f )) = −2πf t0 ,
• ΓY X (τ ) = g(τ )∗ΓXX (τ ) si les signaux sont ergodiques,
ou certains à puissance moyenne finie ou à énergie finie
(attention aux définitions de Γ).
• g(t) = 2Bsinc[2B(t − t0 )],
8.4. Statistiques en sortie d’un opérateur de filtrage
On considère y(t) = (g ∗ x)(t). Les statistiques de y(t) supposé stationnaire et ergodique sont :
• µY = µX G(0) (moyenne),
• PYR = RY Y (0)
= R RXX (τ )Γgg (τ )dτ
= SXX (f )|G(f )|2 df (moment d’ordre 2),
•
σY2 R=
=
• Γgg (τ ) = 2Bsinc[2Bτ ] (auto-corrélation).
9.4. Opérateur de filtrage passe-bande idéal
Le filtre causal de largeur de bande B, centré sur les fréquences
±f0 n’étant pas réalisable, on décale g(t) de t0 .
• G(f ) =
rect[f /B] exp(−j2πf t0 ) ∗ [δ(f − f0 ) + δ(f + f0 )],
avec |G(f )| = rect[f /(2B)] et φ(G(f )) = −2πf t0 ,
• g(t) = 2Bsinc[2B(t − t0 )] cos(2πf0 t),
• Γgg (τ ) = 2Bsinc[Bτ ] cos(2πf0 τ ) (auto-corrélation).
µ2X
CY Y (0) = PY −
CXX (τ )Γgg (τ )dτ (variance)
• SY X (f ) = G(f )SXX (f ) (auto-corrélation).
8.4.1. Filtre passe-bas sans perte
G(0) = 1 et la moyenne en sortie : µY = µX .
10. FILTRE ADAPTÉ
Problème : concevoir un filtre h(t) qui détecte un signal x(t)
connu dans une observation bruitée, x(t) + n(t), où n(t) est
un bruit de DSP SN N (f ), avec le meilleur rapport signal/bruit
au temps t0 . On note y(t) = (x + n) ∗ h(t) la sortie du filtre
h(t).
Le filtre optimal est le filtre adapté (au signal x(t)) :
8.4.2. Filtre passe-haut
G(0) = 0 et la moyenne en sortie µY = 0.
8.4.3. Signal d’entrée blanc, centré et de DSP η/2
moyenne en sortie : µY = 0,
auto-corrélation de l’entrée : ΓXX (τ ) = δ(τ )η/2,
auto-corrélation en sortie : RY Y (τ ) = Γgg (τ )η/2,
variance : σY2 = Γgg (0)η/2.
9. AUTRES OPÉRATEURS
H(f ) = k
• G(f ) = exp(−j2πf t0 ), soit |G(f )| = 1
et φ(G(f )) = −2πf t0 (phase linéaire),
• Γgg (τ ) = δ(τ ) (auto-corrélation).
(1)
avec le rapport S/B :
S 2
B
=
Z
+∞
−∞
|X(f )|2
df.
SN N (f )
(2)
Dans le cas où le bruit n(t) est un bruit blanc de DSP égale à
N0 :
H(f ) = k ′ X ∗ (f ) exp(−j2πf t0 ),
(3)
ou, dans le domaine temporel :
h(t) = k ′ x∗ (t0 − t),
9.1. Opérateur de retard t0
• g(t) = δ(t − t0 ),
X ∗ (f )
exp(−j2πf t0 ),
SN N (f )
(4)
avec le rapport S/B :
S 2
B
=
1
N0
Z
+∞
|X(f )|2 df.
(5)
−∞
Pour un signal x(t) réel, on a simplement h(t) = k ′ x(t0 − t).