DISTRIBUTIONS TEMPS-FRÉQUENCE - Ovarlez Jean
Transcription
DISTRIBUTIONS TEMPS-FRÉQUENCE - Ovarlez Jean
DISTRIBUTIONS TEMPS-FRÉQUENCE J.P. Ovarlez ONERA DEMR/TSI, BP72, 92322 Châtillon, France Stage ELS 043 : Les Ondelettes : Theorie, Pratique et Applications Table des matières 1 INTRODUCTION 1.1 Introduction générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 La transformation de Fourier . . . . . . . . . . . . . . . . . . . . . . 1.2.2 Quelques définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.3 Limitations de la transformation de Fourier - Inégalités d’Heisenberg 1.3 La transformée de Fourier à court terme . . . . . . . . . . . . . . . . . . . . 1.3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.2 Interprétation avec les bancs de filtres . . . . . . . . . . . . . . . . . 1.3.3 Limitations de la transformation de Fourier à court terme . . . . . . 1.4 La transformée en ondelettes . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.2 Liens de l’échelle et de la fréquence . . . . . . . . . . . . . . . . . . . 1.4.3 Propriétés des ondelettes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 8 8 9 9 11 11 12 13 13 13 15 16 2 LES REPRÉSENTATIONS TEMPS-FRÉQUENCE 2.1 Bilinéarité des distributions temps-fréquence . . . . . . . . . . . . . . . . . 2.2 Principe de covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Covariance par le groupe des translations en temps et en fréquence 2.2.2 Covariance par le groupe affine . . . . . . . . . . . . . . . . . . . . 2.3 Propriétés attendues des distributions temps-fréquence ou temps-échelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 18 20 20 21 24 3 LES REPRÉSENTATIONS TEMPS-FRÉQUENCE DE LA CLASSE 3.1 La distribution de Wigner-Ville . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1 définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.2 Propriétés de la distribution de Wigner-Ville . . . . . . . . . . . . 3.1.3 Construction tomographique de la distribution de Wigner-Ville [9] 3.1.4 Exemples de résultats . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.5 Lissage des distributions de Wigner-Ville . . . . . . . . . . . . . . 3.1.6 La méthode de réallocation sur les Pseudo Wigner-Ville Lissées . . 3.2 Les autres distributions de la classe de Cohen . . . . . . . . . . . . . . . . 3.2.1 La ditribution de Choï-Williams . . . . . . . . . . . . . . . . . . . 3.2.2 La distribution de Born-Jordan . . . . . . . . . . . . . . . . . . . . DE COHEN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 29 29 30 32 32 33 34 35 36 37 4 LES REPRÉSENTATIONS TEMPS-FRÉQUENCE AFFINES 4.1 Approche temps-échelle introduite par P. Flandrin et O. Rioul . . 4.1.1 Sous-classe temps-échelle . . . . . . . . . . . . . . . . . . . 4.2 Approche temps-fréquence affine introduite par P. et J. Bertrand . 4.2.1 Forme diagonale du noyau K . . . . . . . . . . . . . . . . . 4.2.2 Covariance étendue . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 39 40 40 41 42 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.3 4.2.4 4.2.5 Approche tomographique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 La représentation temps-fréquence affine unitaire . . . . . . . . . . . . . . . . . . 44 Lissage de la représentation affine unitaire . . . . . . . . . . . . . . . . . . . . . . 45 5 EXEMPLES 48 6 Chapitre 1 INTRODUCTION 1.1 Introduction générale Dans beaucoup de domaines tels le radar, le sonar, la parole ou les télécommunications, les signaux ont des caractéristiques spectrales qui varient dans le temps. L’exemple le plus souvent cité est celui du morceau de musique [1] où chaque note est caractérisée par sa hauteur et son instant d’émission. Ces signaux, dits non stationnaires, ne peuvent être correctement traités par les méthodes usuelles d’analyse spectrale (transformation de Fourier) : en effet, la transformation de Fourier effectue une transposition de l’espace temps vers son espace dual des fréquences et perd de ce fait toutes les informations sur le séquencement temporel du signal. Ainsi, grâce à une analyse spectrale classique sur le signal de musique, on pourra déterminer si telle ou telle note a été jouée mais on ne saura, en aucun cas, préciser à quel moment celle-ci l’a été. Pour remédier à ces problèmes, sont apparus plusieurs outils d’analyse : le plus simple est sans doute la transformation de Fourier à court terme (Analyse de Fourier par fenêtre glissante h sur le signal) [2, 3] qui découpe le signal z(t) en tranches d’analyse (largeur de la fenêtre h(t)) sur lesquelles on fait l’hypothèse de stationnarité locale et sur lesquelles on effectue une analyse de Fourier classique : Z Pz (t, f ) = +∞ −2iπf u z(u) h(u − t) e −∞ 2 du (1.1) où la fonction h peut être choisie arbitrairement. On choisit généralement une fenêtre rectangulaire ou encore les fenêtres de pondération classiquement utilisées en analyse spectrale (Gauss, Hamming, Hanning, etc. . . ). L’inconvénient majeur de cette approche réside dans l’obligation préalable d’adopter un compromis entre la résolution temporelle σt et la résolution fréquentielle σf (paramètres libres liés à la largeur temporelle ou fréquentielle de la fenêtre) vérifiant conjointement l’inégalité de Heisenberg : 1 (1.2) 4π Pour éviter ce genre de problèmes liés à la résolution inhérent aux méthodes de Fourier, ll est également possible sur les tranches de signal ainsi découpées d’effectuer des analyses spectrales plus évoluées comme les méthodes spectrales paramétriques, encore appelées méthodes haute résolution (citons les modèles AR autorégressifs, ARMA autorégressifs à moyenne ajustée, Music, etc...[4, 5]) qui, théoriquement, possèdent une résolution quasi-illimitée. Hormis l’hypothèse de stationnarité locale dans chaque tranche de signal, il est pourtant nécessaire de choisir l’ordre du filtre lié au modèle. Il n’y a pas de difficultés si l’on connaît a priori le nombre de composantes spectrales monochromatiques apparaissant dans la fenêtre d’analyse mais le problème peut se compliquer si le signal n’est pas connu, auquel cas σt σf ≥ 7 il devient nécessaire de mettre en œuvre des méthodes d’estimation d’ordre du modèle (Akaike par exemple). Les représentations temps-fréquence des signaux fournissent une alternative qui n’exige pas l’introduction d’une analyse de traitement local. Leur but principal est de décrire les modulations du signal dans le plan temps-fréquence (fréquence instantanée, retard de groupe, etc..). De ce fait, ces distributions transforment un signal à une dimension en une représentation à deux dimensions et donnent à celle-ci une interprétation de la répartition énergétique du signal dans cet espace. Un grand nombre de distributions temps-fréquence a été proposé dans la littérature. La plus grande partie a été regroupée sous le nom de classe de Cohen [6, 7] qui est covariante par le groupe des translations en temps et en fréquence, mais d’autres distributions existent, comme les représentations temps-fréquence affines [8], covariantes par le groupe affine. 1.2 1.2.1 Définitions La transformation de Fourier Soit x(t), un signal généralement complexe et dépendant de la variable t ∈ R. Sa transformée de Fourier X(f ), dépendant de la variable duale f , peut être interprétée comme le coefficient de la décomposition de x(t) sur une base de signaux exponentielles complexes, notés φf (t) = exp (2iπf t) : Z +∞ x(t) = X(f ) φf (t) df −∞ Pour exprimer le coefficient de la décomposition X(f ) de x(t), il est nécessaire de définir un produit scalaire dans l’espace des signaux : Z +∞ (x1 (t), x2 (t)) = x1 (t) x∗2 (t) dt −∞ Ainsi, X(f ) n’est que le produit scalaire de x(t) avec le signal φf (t) de la base : Z +∞ x(t) = (x(t), φf (t)) φf (t) df −∞ soit : Z +∞ X(f ) = x(t) e−2iπf t dt −∞ car la base est orthogonale, c’est à dire : (φf1 (t), φf2 (t)) = δ(f1 − f2 ) où δ est la distribution de Dirac. En signal, on utilise beaucoup les notions de filtres linéaires invariants dans le temps (système répondant aux principes de superposition et d’invariance dans le temps). Ces filtres linéaires, de réponse impulsionnelle h(t) et de transformations de Fourier H(f ) possèdent comme fonctions propres les exponentielles complexes φf (t) (équivalents des vecteurs propres des matrices en algèbre linéaire) et relient l’entrée x(t) et la sortie y(t) du système par une équation de convolution : Z +∞ y(t) = x(u) h(t − u) du −∞ 8 Ainsi, si on injecte dans ces systèmes les fonctions propres x(t) = φf (t), on obtient : y(t) = H(f ) φf (t) La construction de Fourier permet donc de décomposer un signal sur une base de fonctions propres des systèmes linéaires invariants dans le temps : les exponentielles complexes ou encore les signaux monochromatiques, ondes éternelles non localisées dans le temps. 1.2.2 Quelques définitions Pour les signaux à énergie finie, on peut définir les grandeurs suivantes : – la puissance instantanée du signal : px (t) = |x(t)|2 – la densité spectrale de puissance : PX (f ) = |X(f )|2 – l’énergie totale du signal : Z +∞ Z +∞ Ex = |x(t)|2 dt = |X(ν)|2 dν −∞ −∞ – par analogie avec la théorie des probabilités, on peut associer aux densités de probabilité classiquement utilisées une notion de répartition d’énergie. Ainsi px (t) et PX (f ) correspondent à deux densités d’énergie qui vérifient toutes deux la conservation de l’énergie totale du signal. On peut alors définir les moments de ces distributions (avec l’analogie des espérances mathématiques en théorie des probabilités ou aux moments d’inertie en mécanique) : Z +∞ Z +∞ ∆t = t |x(t)|2 dt ∆f = f |X(f )|2 df −∞ −∞ Z +∞ Z +∞ 2 2 2 2 2 ∆t = (t − ∆t) |x(t)| dt ∆f = (f − ∆f ) |X(f )|2 df −∞ −∞ Les grandeurs ∆t et ∆f représentent respectivement l’époque moyenne du signal ainsi que la fréquence centrale ou moyenne du signal. On peut ainsi faire subir au signal une translation judicieuse √ en temps et en fréquence pour que ces deux grandeurs soient nulles. Les deux grandeurs ∆t2 et p ∆f 2 caractérisent, quant à elles, des étendues temporelles et fréquentielles équivalentes à une durée moyenne et à une largeur de bande du signal. Exemple : Soit le signal temporel gaussien non modulé : s x(t) = − 1 √ e σ 2π (t − t0 )2 4σ 2 En calculant les différents moments d’ordre un et deux sur |x(t)|2 , on obtient les résultats classiques donnant la valeur moyenne et l’écart-type d’une densité de probabilité gaussienne : √ ∆t = t0 ∆t2 = σ 1.2.3 Limitations de la transformation de Fourier - Inégalités d’Heisenberg Dualité temps-fréquence Le calcul de X(f ) nécessite la connaissance de toute l’histoire temporelle du signal x(t). Réciproquement, la relation : Z +∞ x(t) = X(f ) e2iπf t df −∞ 9 fait remarquer qu’à un instant t donné, la valeur du signal est caractérisée par une combinaison linéaire de signaux complètement délocalisés dans le temps (ondes éternelles). Cela peut être dans certains cas intéressants (analyse de signaux stationnaires, signaux monochromatiques, régime permanent. . . ) mais ne reflète pas le sens physique du phénomène. Ex : les signaux brefs ou transitoires nuls en dehors d’un intervalle temporel. La nullité des valeurs du signal en dehors de son intervalle est bien sûr mathématiquement rendu par la transformation de Fourier mais d’une manière artificielle : elle correspond au résultat de la superposition d’une infinité d’ondes virtuelles qui interféreraient entre elles pour se détruire ou s’annuler. Sur le support où le signal est nul, on aura donc, non pas une superposition de signaux nuls mais une superposition de signaux non nuls qui interfèrent pour s’annuler, ce qui est en contradiction avec le fait que le signal n’existe pas. Principe d’incertitude de Heisenberg Le principe d’incertitude de Heisenberg vient de la mécanique quantique et décrit l’impossibilité par exemple de connaître avec précision à la fois la position et la vitesse d’une particule. Du fait de la dualité des espaces temps et fréquence, il existe un principe d’incertitude qui exprime le fait que l’on ne peut connaître avec suffisamment de précision la localisation à la fois en temps et en fréquence d’un signal : un signal de très brève durée possède une densité spectrale très étendue et vice versa. Ce principe est énoncé par la relation : √ ∆t2 p ∆f 2 ≥ Ex 4π et montre p qu’aucun signal ne peut être caractérisé à la fois par une durée bande ∆f 2 = 0. √ ∆t2 = 0 et une largeur de Démonstration : On suppose que : – le signal est d’énergie finie, ce qui implique que soit le signal possède un support compact fini ou que la décroissance plus forte que 1/t de sa puissance instantanée à l’infini est garantie ( lim t|x(t)|2 = 0). |x|→∞ – le signal possède une époque moyenne nulle (∆t = 0) et une fréquence centrale nulle (∆f = 0). Ceci est possible par simple translation temporelle et fréquentielle sur le signal. et on applique l’inégalité de Cauchy-Schwartz : Z 2 +∞ −∞ g1 (u) g2∗ (u) du Z +∞ ≤ 2 Z +∞ |g1 (u)| du −∞ 2 |g2 (u)| du −∞ sur les fonctions : g1 (t) = t x(t) g2 (t) = dx (t) dt En intégrant par partie, il vient : Z +∞ +∞ dx∗ I= t x(t) (t) = t|x(t)|2 −∞ − Ex − I ∗ dt −∞ D’après les hypothèses ci-dessus, le premier membre est nul, et en notant que I + I ∗ = 2<(I), on obtient : <(I) = −Ex /2 Il vient donc : 10 2 2 Z +∞ 2 2 Z +∞ t |x(t)| dt (<(I)) ≤ |I | ≤ −∞ −∞ dx 2 (t) dt dt En utilisant la conservation d’énergie (Parseval) et la propriété de la transformation de Fourier d’une dérivée, on a : Z +∞ −∞ Z +∞ dx 2 2 (t) dt = 4πf 2 |X(f )| df dt −∞ En remplaçant dans l’inégalité, on obtient l’inégalité recherchée : Ex2 ≤ 4π 2 ∆t2 ∆f 2 4 L’égalité de Cauchy-Schwartz est donnée par la colinéarité entre les deux fonctions g1 et g2 , ce qui dx donne l’équation différentielle (t) = k t x(t) dont la solution est donnée par : dt 2 x(t) = C e−αt α ∈ R+ La gaussienne est donc le signal qui réalise le minimum d’étalement à la fois en temps et fréquence. C’est donc un signal qui est le plus localisé possible dans les deux espaces. On peut donner aussi les deux extrêmes : – le signal choc x(t) = δ(t − t0 ) qui possède une durée nulle et une largeur de bande infinie. – le signal monochromatique x(t) = exp (2iπf t) qui possède une durée infinie et une largeur de bande nulle. 1.3 La transformée de Fourier à court terme La limitation due au fait de décomposer un signal sur une base de signaux non localisables étant un handicap, la solution la plus simple a été d’effectuer une analyse de Fourier non pas sur la totalité du signal mais sur une portion du signal. Cette solution est très populaire et est connue sous le nom de transformation de Fourier à court terme. 1.3.1 Introduction L’expression mathématique de cette transformation est : Z +∞ Fx (t, f ) = x(u) h∗ (u − t) e−2iπf u du −∞ Le signal est caractérisé par x(t), h est une fonction de fenêtrage centrée en t. Pour obtenir la représentation spectrale autour de t, il suffit de déplacer par translation la fenêtre h et d’effectuer une transformation de Fourier sur le signal ainsi fenêtré. Cette fonction peut être de même vue comme le coefficient Fx (t, f ) de la décomposition du signal x sur une base de signaux ht,f , chaque signal se déduisant de la fenêtre mère h par une translation temporelle t et fréquentielle ν (action du groupe des translations en temps et en fréquence) : ht,f (u) = h(u − t) e2iπf u Sous réserve que la fenêtre mère h soit d’énergie unité (condition dite d’admissibilité), le signal x(u) s’exprime alors comme combinaison linéaire d’atomes élémentaires ht,f (u) pondérés par un coefficient Fx (t, f ) : 11 Z x(u) +∞ +∞ Z Fx (t, f ) ht,f (u) df dt = −∞ Z +∞ −∞ Z +∞ dt = Fx (t, f ) h(u − t) e2iπf u df −∞ −∞ Z +∞ Exercice : Démontrer la condition d’admissibilité |h(t)|2 dt = 1. −∞ Pour cela, on réinjecte la définition de Fx (t, f ) dans x(u). On obtient : Z +∞ Z +∞ Z +∞ x(s) h∗ (s − t) h(u − t) e−2iπf (s−u) ds df x(u) = dt −∞ −∞ −∞ En intégrant par rapport à f , puis par rapport à s, x(u) devient : Z +∞ x(u) = x(u) |h(u − t)|2 dt −∞ ce qui donne la condition cherchée. La fenêtre mère h peut être choisie arbitrairement, la plus simple étant la fonction créneau sur une durée T d’analyse mais il est également judicieux de choisir toute fonction possédant à la fois une bonne une bonne localisation temps-fréquence (Ex : la fenêtre de Hamming, Hanning, de Gauss . . . ) ainsi qu’une bonne régularité (décroissance rapide, fonction n fois dérivable, . . . ). On appelle généralement Spectrogramme le carré du module de la transformation de Fourier à court terme associé à une distribution d’énergie (carré du signal) et qui prend la forme : Sx (t, f ) 2 = |Fx (t, f )| 2 Z +∞ ∗ −2iπf u x(u) h (u − t) e du = (1.3) −∞ 1.3.2 Interprétation avec les bancs de filtres Il est possible d’exprimer Sx (t, f ) en utilisant l’égalité de parseval (unitarité de la transformation de Fourier) : Z +∞ Z +∞ ∗ x1 (t) x2 (t) dt = X1 (f ) X2∗ (f ) df −∞ −∞ Il vient : Z Sx (t, f ) = +∞ ∗ X(ν) H (ν − f ) e −∞ 2iπνt 2 dν On remarque dans ce cas que c’est la transformation de Fourier H(ν) de la fonction h qui joue le rôle d’une fenêtre glissante que l’on déplace en tout point f de l’espace des fréquences. Cette relation s’apparente de même à une analyse à banc continu de filtres uniformes, dont la largeur de bande est constante. Exercice : Montrer que le spectrogramme Sx (t, f ) tend vers la densité spectrale du signal |X(f )|2 lorsque la fenêtre spectrale H d’analyse tend à devenir de plus en plus sélective. 12 1.3.3 Limitations de la transformation de Fourier à court terme Prenons deux exemples : 1. Signal parfaitement localisés en temps : x(t) = δ(t − t0 ). On peut facilement calculer Sx (t, f ) = |h(t0 − t)|2 . La représentation de Fourier à court terme n’est que le module carré de la fenêtre déplacée autour du temps de localisation. La représentation sera alors d’autant plus adaptée au signal que la fenêtre sera étroite (bonne résolution temporelle = ∆t2 petit). 2. Signal parfaitement localisé en fréquence : x(t) = exp (2iπf0 t). On peut facilement calculer Sx (t, f ) = |H(f0 − f )|2 . La représentation de Fourier à court terme n’est que le module carré de la transformée de Fourier de la fenêtre déplacée autour de la fréquence f0 du signal. La représentation sera alors d’autant plus adaptée au signal que la fenêtre spectrale sera étroite (bonne résolution fréquentielle = ∆f 2 petit). On remarque ainsi que la largeur temporelle et fréquentielle de la transformée de Fourier à court terme conditionne la finesse de l’analyse (bonne résolution temporelle ou bonne résolution fréquentielle). À cause des relations d’incertitude (produit ∆t2 ∆f 2 borné inférieurement), il est impossible d’obtenir simultanément les deux. L’analyse temps-fréquence s’effectue en√décomposant le signal sur p des atomes qui pavent le plan temps-fréquence avec une fenêtre de surface ∆t2 ∆f 2 constante avec ∆t2 constant et ∆f 2 constant. La fenêtre qui minimise à la fois l’encombrement temporel et fréquentiel est la gaussienne. 1.4 La transformée en ondelettes Le besoin d’améliorer l’analyse classique des méthodes du type transformation de Fourier à court terme se fit alors assez vite sentir. L’idée principale fut de définir une analyse du même type mais en faisant dépendre la largeur de la fenêtre d’analyse de sa position. On pouvait ainsi régler la finesse de l’analyse en temps ou en fréquence indépendamment l’une de l’autre. Il faut cependant garder à l’esprit que si les relations p d’incertitude sont toujours présentes (pavage du plan temps-fréquence par √ atome de surface ∆t2 ∆f 2 constante), les résolutions obtenues, elles, peuvent changer (∆t2 non constant et ∆f 2 non constant). Une des solutions proposées dans les années 80 fut la transformation en ondelettes. 1.4.1 Définition Partant d’une fonction mère h dépendant de t et possédant de bonnes propriétés ("assez" localisable, "assez" régulière, . . . ), il est possible de générer, par l’action d’une déformation dite du groupe affine sur le signal, une famille de fonctions ht,a appelée famille d’ondelettes : 1 u−t ht,a (u) = √ h a a où a > 0 est un paramètre d’échelle de contraction (a < 1) ou de dilatation (a > 1) de la fenêtre et t une translation de la fenêtre. Une fois cette famille générée, on décompose classiquement le signal x(t) sur cette famille selon le produit scalaire usuel dans l’espace des signaux. On obtient ainsi des coefficients d’ondelettes Tx (t, a) qui caractérisent le coefficient de la décomposition du signal x(t) dans cette base : 13 +∞ Z Tx (t, a) x(u) h∗t,a (u) du = −∞ 1 √ a = Z +∞ x(u) h∗ −∞ u−t a du Moyennant une condition dite d’admissibilité sur l’ondelette mère h(t) et la détermination d’une mesure dµ(t, a) = dt d(1/a) = dt da/a2 (mesure de Haar invariante à gauche), le signal x(u) peut donc être reconstruit par combinaison linéaire d’ondelettes pondérées par leur coefficient Tx (t, a) : +∞ Z x(u) = −∞ 1 √ a = Z Z +∞ Tx (t, a) ht,a (u) dµ(t, a) −∞ +∞ Z +∞ u−t a Tx (t, a) h −∞ −∞ dt da a2 Exercice : Déterminer la condition d’admissibilité de l’ondelette mère. En remplaçant Tx (t, a) par sa valeur dans l’expression précédente, on a : Z +∞ Z +∞ Z da +∞ s−t u−t ∗ x(u) = dt x(s) h h ds 3 a a −∞ −∞ a −∞ Remplaçons h par sa transformée de Fourier inverse, il vient : Z x(u) +∞ = +∞ Z dt −∞ −∞ +∞ Z da a3 +∞ +∞ ∗ H (f1 ) exp −2iπf1 x(s) −∞ Z . Z −∞ H(f2 ) exp 2iπf2 −∞ u−t a s−t a df1 df2 ds En intégrant par rapport à t et en utilisant le fait que δ(f (u)) = δ(u − u0 )/|f 0 (u0 )|, u0 étant la seule racine d’ordre 1 de f , on a : Z x(u) +∞ = da a2 −∞ +∞ Z . −∞ Z +∞ Z +∞ H (f1 ) exp −2iπf1 x(s) −∞ ∗ −∞ s a df1 u H(f2 ) exp 2iπf2 df2 δ(f1 − f2 ) ds a En intégrant par rapport à f1 , pour f2 = f , on a : Z +∞ Z +∞ Z +∞ s u da x(u) = x(s) |H(f )|2 exp −2iπf − df ds 2 a a a −∞ −∞ −∞ En effectuant le changement de variable a0 = 1/a, et en intégrant par rapport à a0 , l’expression ci-dessus devient : Z +∞ Z +∞ df x(u) = x(s) |H(f )|2 δ(s − u) ds f −∞ −∞ On obtient enfin la condition d’admissibilité en intégrant par rapport à s : 14 Z +∞ −∞ |H(f )|2 df = 1 f Pour satisfaire la condition d’admissibilité, il faut s’assurer de la bonne décroissance de l’ondelette à l’infini ce qui est garanti si la décroissance de |H(ν)|2 , densité spectrale de l’ondelette mère, est plus "forte" que 1/ν. La deuxième condition est la convergence de l’intégrale en 0 qui impose l’annulation du spectre en ν = 0, ce qui revient à prendre une ondelette de valeur moyenne nulle : Z +∞ h(t) dt = 0 −∞ Exemples d’ondelette : 1. L’ondelette chapeau mexicain : h(t) = σ 1 √ 2π t2 1− 2 σ t2 exp − 2 2σ 2. L’ondelette de Morlet (gaussienne modulée) : h(t) = 1.4.2 σ 1 √ t2 exp − 2 exp (−2iπνt 2σ 2π Liens de l’échelle et de la fréquence En transposant la définition de la transformation en ondelette dans le domaine des fréquence (unitarité de la transformation de Fourier), on obtient : Z +∞ √ Tx (t, a) = a X(ν) H ∗ (aν) e2iπνt dν −∞ où H est la transformée de Fourier de l’ondelette mère h. Si cette ondelette est localisée autour de sa fréquence centrale f0 (moment d’ordre deux sur sa densité spectrale), on peut remarquer que le fait de parcourir l’axe des échelles a revient à explorer l’axe des fréquences f . En utilisant la correspondance entre l’échelle unité a = 1 et la fréquence f0 , il devient naturel de faire correspondre au paramètre d’échelle a une fréquence f = f0 /a. La transformation temps-échelle devient une transformation tempsfréquence au même titre que la transformation de Fourier à court terme : Z +∞ p X(ν) H ∗ (νf0 /f ) e2iπνt dν Tx (t, f ) = f0 /f −∞ En contraste avec la transformation de Fourier à court terme qui offre des résolutions temporelle et fréquentielle identiques en tout point du plan temps-fréquence, la transformée en ondelettes présente une résolution qui dépend du point (t, f ) d’analyse et varie en fonction de la fréquence. On a ainsi toujours le respect de l’inégalité de Heisenberg : q q 2 (f ) ≥ Ex ∆t2t,f (f ) ∆ft,f 4π mais les résolutions dépendantes de la fréquence ont maintenant la forme suivante : p √ q q ∆t2 ∆f 2 2 2 ∆tt,f (f ) = f0 ∆ft,f (f ) = f f f0 15 On dit encore que l’analyse en ondelette est une analyse à surtension constante (le coefficient de surtension d’un filtre étant le rapport de sa fréquence centrale sur sa largeur de bande) en opposition avec l’analyse de largeur constante dans le cas de la transformation de Fourier à court terme. 1.4.3 Propriétés des ondelettes La régularité des ondelettes La transformation en ondelette transforme un signal de dimension un, le temps par exemple, en un signal de dimension deux, le temps et l’échelle, ce qui a pour effet une redondance d’information. Pour réduire le nombre de coefficients de la transformation (codage et réduction de l’information par exemple), il devient nécessaire de choisir des ondelettes caractérisées par une décroissance rapide des ses coefficients. Limitons-nous au cas t = 0 et intéressons-nous à la vitesse de convergence des coefficients d’ondelette du signal avec la croissance de 1/a en décomposant le signal en série de Taylor autour de 0 à l’ordre n. Il vient : Tx (0, a) = = 1 √ a Z 1 √ a " +∞ u x(u) h∗ −∞ n X x (p) a Z +∞ (0) −∞ p=0 du up ∗ u h du + p! a Z +∞ ∗ R(u) h −∞ u a # du où le reste R(u) de la série de taylor à l’ordre n est défini par : Z u (u − t)n (n+1) x (t) dt R(u) = n! 0 et où x(n) sont les dérivée n-ième du signal. En notant Mn les moments d’ordre n de l’ondelette h : Z +∞ Mn = tn h(t) dt −∞ et en notant que la transformée en ondelette du reste R décroît en an+2 , on a : # " n 1 X (p) n+2 p+1 Mp + O(a ) x (0) a Tx (0, a) = √ p! a p=0 Selon la condition d’admissibilité de l’ondelette (le moment d’ordre un est nul), le premier terme de la série est nul. La vitesse de convergence vers zéro des coefficients de la transformation en ondelette avec la décroissance de a ou la croissance de 1/a est alors déterminée par le premier moment non nul de l’ondelette mère h. Si les n + 1 premiers moments de l’ondelette sont nuls, alors les coefficients d’ondelette décroîtront vers 0 aussi vite que an+2 . Ainsi la régularité de l’ondelette h(t) conduit à la rapidité de convergence des coefficients d’ondelette. Liens avec l’analyse temps-fréquence On définit le Scalogramme comme le carré du module de la transformation en ondelette du signal : Z 1 |Tx (t, a)| = √ a +∞ ∗ 2 x(u) h −∞ u−t a 2 du On peut dès lors, montrer que ce scalogramme définit une répartition d’énergie du signal dans le plan temps-échelle (ou temps-fréquence si on donne une interprétation de fréquence au paramètre d’échelle). Il suffit pour cela de calculer la quantité I suivante : 16 Z +∞ Z +∞ |Tx (t, a)|2 dt I= −∞ −∞ da a2 En remplaçant Tx (t, a) par sa définition, on obtient Z +∞ Z +∞ Z +∞ Z +∞ da X(ν1 ) X ∗ (ν2 ) H(aν1 ) H ∗ (aν2 ) e2iπ(ν1 −ν2 )t dν1 dν2 dt 2 I=a a −∞ −∞ −∞ −∞ Intégrer par rapport à t, puis à ν1 , renommer ν2 = ν conduisent à : Z +∞ Z +∞ da |X(ν)|2 |H(aν)|2 dν 2 I=a a −∞ −∞ En effectuant un changement de variable u = νa et en se rappelant la condition d’admissibilité de l’ondelette, on a : Z +∞ Z +∞ da |Tx (t, a)|2 dt 2 = Ex a −∞ −∞ ce qui donne au carré du module de la transformée en ondelette une interprétation de répartition d’énergie dans le plan temps-échelle ou temps-fréquence. 17 Chapitre 2 LES REPRÉSENTATIONS TEMPS-FRÉQUENCE 2.1 Bilinéarité des distributions temps-fréquence Bien que la linéarité des méthodes temps-fréquence soit une propriété souhaitable, il est difficile de concilier les notions de linéarité et d’énergie (carré du signal). Ces distributions temps-fréquence énergétiques Pz (t, f ) combinent le concept de puissance instantanée pz (t) = |z(t)|2 et le concept de densité spectrale d’énergie |Z(f )|2 . Idéalement, cette interprétation énergétique est exprimée par les relations marginales données par : Z +∞ Z +∞ 2 Pz (t, f ) df = |z(t)| Pz (t, f ) dt = |Z(f )|2 (2.1) −∞ −∞ qui peuvent être considérées comme l’équivalent des densités de probabilité conditionnelles conjointes classiquement utilisées en théorie des probabilités. La quantité P (t, f ) est vue comme une densité de probabilité régissant la distribution d’énergie dans les espaces temps et fréquence et on a bien sûr : Z +∞ Z +∞ Z +∞ Z +∞ 2 Pz (t, f ) df dt = |z(t)| dt = |Z(f )|2 df = Ez (2.2) −∞ −∞ −∞ −∞ où Ez est l’énergie totale du signal z(t). Pour garder la notion première de répartition d’énergie dans le plan temps-fréquence, ces distributions sont ainsi construites sur des formes quadratiques du signal (plus exactement des formes bilinéaires du signal) : Z Pz (t, f ) +∞ Z +∞ = −∞ Z +∞ −∞ Z +∞ −∞ −∞ = K(u, v; t, f ) z(u) z ∗ (v) du dv (2.3) K̂(u, v; t, f ) Z(u) Z ∗ (v) du dv (2.4) où z(t) (Z(f )) est le signal analytique analysé, z(u) z ∗ (v) (Z(u) Z ∗ (v)) est appelée la partie utile du signal et K(u, v; t, f ) (K̂(u, v; t, f )) est un noyau régissant le comportement du signal au point (t, f ). 18 Il existe une seconde raison expliquant l’importance de la bilinéarité. Tous les signaux physiques sont toujours mesurés ou analysés à une phase origine près. Pour pouvoir définir des classes de signaux indépendantes de cette phase origine, les représentations temps-fréquence construites à partir de la partie utile z(u) z ∗ (v) doivent être invariantes par la transformation qui agit sur les signaux par changement de phase constant, c’est à dire la transformation suivante : z(t) −→ z 0 (t) = z(t) eiφ (2.5) Un signal réel s(t) peut être caractérisé comme le passage d’un message utile à travers un canal de transmission non distordant (atténuation α0 et déphasage β0 constants). Pour garder le caractère réel du signal, cette transformation doit alors vérifier : s(t) −→ S(f ) −→ α0 e−iβ0 s(−) (t) + α0 eiβ0 s(+) (t) α0 e −iβ0 Y (−f ) S(f ) + α0 e iβ0 (2.6) Y (f ) S(f ) (2.7) où s(−) (t) et s(+) (t) représentent respectivement le signal à fréquence négative et positive du signal réel et Y (f ) l’échelon unité (distribution d’Heaviside). L’introduction de la notion de signal analytique d’un signal réel s(t) défini par la bijection s(t) −→ z(t) = 2s(+) (t) (2.8) permet alors de simplifier le diagramme (2.6) et (2.7) qui se transforme comme suit : α0 eiβ0 z(t) z(t) −→ iβ0 Z(f ) −→ α0 e (2.9) Z(f ) (2.10) La partie utile du signal réel s(t) doit être alors définie par la forme bilinéaire z(u) z ∗ (v) avec z(t) définissant le signal analytique associé au signal s(t). Il s’avère alors que la partie utile du signal est invariante sous les transformations (2.9) et (2.10). Mais, de ce fait, elle exclut la possibilité d’exploiter les informations de phases et d’amplitudes relatives entre les signaux porteurs d’un même message. Dès lors, toutes les représentations temps-fréquence construites sur des formes bilinéaires de signaux seront en correspondance bijective avec le signal analysé, mais à une phase et une amplitude près. Une forme immédiate particulière de forme bilinéaire connue est le carré de forme linéaire comme le carré de la transformée de Fourier à court terme ou le carré de la transformée en ondelette : Pz (t, f ) Z = |Fz (t, f )| = +∞ 2 z(u) h(u − t) e −∞ Pz (t, f ) = |Tz (t, f )|2 = −2iπf u 2 du Z 2 f f +∞ z(u) h (u − t) du f0 −∞ f0 (2.11) (2.12) Les formes bilinéaires, beaucoup plus générales, englobent ainsi ces deux distributions d’énergie du signal. De part leur forme bilinéaire, la représentation temps-fréquence Pz (t, f ) de la somme de deux signaux z(t) = z1 (t) + z2 (t) n’est pas la somme des deux représentations Pz1 (t, f ) + Pz2 (t, f ). Chaque distribution bilinéaire satisfait le principe de superposition quadratique : c1 z1 (t) + c2 z2 (t) −→ |c1 |2 Pz1 (t, f ) + |c2 |2 Pz2 (t, f ) + c1 c∗2 Pz1 ,z2 (t, f ) + c2 c∗1 Pz2 ,z1 (t, f ) 19 (2.13) où Pz1 ,z2 (t, f ) définit est la représentation temps-fréquence inter-signaux. De ce fait, si un signal possède plusieurs composantes, la représentation quadratique associée sera composée de la somme des représentations de chaque composantes mais aussi de la somme des représentations inter-composantes. Ainsi, un signal constitué de N composantes verra sa représentation temps-fréquence constituée de N termes dus à chaque composante et N (N −1)/2 termes dus aux intérférences entre chaque composantes. 2.2 Principe de covariance Le noyau K intervenant dans (2.3) peut prendre une forme tout à fait générale mais peut être parfaitement déterminé si l’on impose à la distribution des contraintes de comportements (covariance par un groupe de transformation, unitarité, localisation sur des signaux particuliers, respect des marginales, etc...). Parmi ces contraintes figurent en tout premier lieu celles relatives à des principes de covariance, tels que l’effet d’une transformation puisse indifféremment s’obtenir sur la représentation ou sur le signal dont elle est issue. Ainsi, si l’on désigne par T une transformation quelconque, imposer un principe de covariance relativement à T est équivalent à demander que le diagramme : → Pz z ↓ ↓ T z → PT z = T Pz (2.14) soit commutatif. 2.2.1 Covariance par le groupe des translations en temps et en fréquence Si on impose à la distribution P (t, f ) de vérifier le diagramme de covariance du groupe des translations en temps et fréquence donné par : z 0 (t) = e−2iπf0 t z(t − t0 ) z(t) −→ ↓ ↓ Pz (t, f ) −→ (2.15) Pz0 (t, f ) = Pz (t − t0 , f − f0 ) on peut montrer que le noyau K(u, v; t, f ) est nécessairement de la forme : K(u, v; t, f ) = K(u − t, v − t; 0, 0) e−2iπf (u−v) (2.16) ce qui impose au noyau K constitué de 4 variables dans sa forme initiale de ne plus dépendre que de deux variables indépendantes. Démonstration : En introduisant la paramétrisation (2.3) de la distribution par son noyau bilinéaire, il est facile de montrer que : Z +∞ Z +∞ Pz0 (t, f ) = K(u + t0 , v + t0 ; t, f ) e2iπf0 (u−v) z(u) z ∗ (v) du dv (2.17) −∞ −∞ et Z +∞ Z +∞ Pz (t − t0 , f − f0 ) = −∞ K(u, v; t − t0 , f − f0 ) z(u) z ∗ (v) du dv −∞ 20 (2.18) Par suite, l’égalité de ces deux dernières quantités devant être assurée pour tout signal, on en déduit que le noyau doit vérifier K(u + t0 , v + t0 ; t, f ) e2iπf0 (u−v) = K(u, v; t − t0 , f − f0 ) (2.19) soit encore, en fixant t0 = t et f0 = f et en réorganisant les variables, K(u, v; t, f ) = K(u − t, v − t; 0, 0) e−2iπf (u−v) (2.20) Si l’on reporte cette relation dans la forme initiale (2.3), on obtient après changement de variables u = s + τ /2 et v = s − τ /2 Z +∞ Z +∞ Pz (t, f ) = −∞ −∞ τ τ −2iπf τ τ τ ∗ K s + − t, s − − t; 0, 0 z s + z s− e ds dτ 2 2 2 2 (2.21) Il suffit alors de réécrire l’intégrale en τ dans sa représentation fréquentielle en introduisant les quantités Z +∞ τ τ (2.22) Π(t, f ) = K t + , t − ; 0, 0 e−2iπf τ dτ 2 2 −∞ Z +∞ τ ∗ τ −2iπf τ Wz (t, f ) = z t+ z t− e dτ (2.23) 2 2 −∞ pour obtenir le résultat final Z +∞ Z +∞ Π(s − t, ξ − f ) Wz (s, ξ) ds dξ Pz (t, f ) = −∞ (2.24) −∞ On reconnaît dans Wz (t, f ) la distribution de Wigner-Ville et il est facile de montrer que la forme générale des distributions temps-fréquence Pz (t, f ) respectant le diagramme de covariance du groupe des translations en temps et en fréquence est donnée par Z +∞ Z +∞ Z +∞ Pz (t, f ) = −∞ −∞ −∞ τ −2iπf τ τ ∗ z s− e dξ ds dτ e2iπξ(s−t) f (ξ, τ ) z s + 2 2 (2.25) en posant Z +∞ Z +∞ f (ξ, τ ) = −∞ Π(t, f ) e−2iπ(f τ +ξt) dt df (2.26) −∞ Cette forme générale a été introduite par Cohen [6] sous le nom de Classe de Cohen et englobe ainsi toute la famille de distribution temps-fréquence bilinéaire covariante par translation de temps et de fréquence. La classe de Cohen est ainsi paramétrisée par une fonction f (ξ, τ ) arbitraire lissant la distribution maîtresse de Wigner-Ville et devant vérifier au moins f (0, 0) = 1 si l’on veut que la distribution réalise la condition de conservation de l’énergie du signal (2.2) 2.2.2 Covariance par le groupe affine Approche Temps-Fréquence introduite par P. et J. Bertrand [8,15] Pour garder le caractère réel du signal lors d’un changement de phase, la logique impose au signal de vérifier le diagramme (2.6) ou (2.7). La classe de Cohen n’est alors invariante sous ces transformations que si la distribution est construite sur les signaux à fréquence positive (ou à fréquence négative). 21 Mais, l’espace des signaux analytiques ne se conserve pas par le groupe des translations en temps et en fréquence. Il y a donc une faille dans la formulation de l’invariance de phase pour la classe de Cohen. Dans l’étude des signaux large bande, le groupe physique à considérer est le groupe affine A(a, b) (a réel positif, b réel) dont la loi de composition est donnée par (a, b)(a0 , b0 ) = (aa0 , b + ab0 ) et qui agit sur les signaux analytiques (à fréquence positive) en les translatant en temps et en les comprimant (ou les dilatant) selon le schéma suivant : t t0 = at + b −→ ↓ ↓ z 0 (t) = ar z a−1 (t − b) z(t) −→ ↓ (2.27) ↓ Z 0 (f ) = ar+1 e−2iπf b Z(af ) Z(f ) −→ où r est un réel (r ∈ R), appelé paramètre de dimensionnement physique du signal. Ce paramètre est assez général dans un premier temps mais on peut lui donner pourtant un sens plus subtil associé à la notion de dimension physique du signal mesuré et au principe de localisation. Ce qui a été défini pour le signal peut l’être aussi pour sa représentation temps-fréquence associée. On introduit alors un paramètre de dimensionnement physique, noté q, de la distribution P (t, f ) qui doit alors vérifier le diagramme de commutativité suivant : Z(f ) −→ ↓ PZ (t, f ) Z 0 (f ) = ar+1 e−2iπbf Z(af ) ↓ = (2.28) q PZ 0 (t, f ) = a PZ (a −1 (t − b), af ) Si l’on impose, par exemple, de donner à PZ (t, f ) une signification probabiliste (densité de probabilité), le choix q = 0 (caractérisant la non dimensionalité de P ) est alors imposé. Il n’existe pas, à priori, de relations entre le paramètre r de dimension physique du signal et le paramètre q. Seule la signification physique associée à P détermine le paramètre q. En imagerie radar, des exemples physiques concrets permettent de choisir les paramètres r et q en fonction de la situation physique donnée. Si on impose à la distribution PZ (t, f ) de vérifier le diagramme de covariance du groupe affine donné par : Z(f ) −→ ↓ PZ (t, f ) Z 0 (f ) = ar+1 e−2iπbf Z(af ) ↓ = (2.29) PZ 0 (t, f ) = aq PZ (a−1 (t − b), af ) on peut montrer que le noyau K(u, v; t, f ) est nécessairement de la forme : u v 2r−q , ; 0, 1 e−2iπt(u−v) K(u, v; t, f ) = f K f f (2.30) ce qui impose au noyau K constitué de 4 variables dans sa forme initiale de ne plus dépendre que de deux variables indépendantes. Démonstration : 22 En introduisant la paramétrisation (2.4) de la distribution par son noyau bilinéaire, il est facile de montrer que : Z +∞ Z +∞ K(u, v; t, f ) e2iπb(u−v) Z(au) Z ∗ (av) du dv (2.31) PZ 0 (t, f ) = a2r+2 −∞ −∞ et aq PZ (a−1 (t − b), af ) = aq Z +∞ −∞ Z +∞ K(u, v; a−1 (t − b), af ) Z(u) Z ∗ (v) du dv (2.32) −∞ Par suite, l’égalité de ces deux dernières quantités devant être assurée pour tout signal, on en déduit que le noyau doit vérifier u v a2r K , ; t, f e2iπb(u−v)/a = aq K(u, v; a−1 (t − b), af ) (2.33) a a soit encore, en fixant b = t et a = 1/f (on se restreint ici alors aux fréquences positives si a est positif) et en réorganisant les variables, 0 0 0 0 u v K(u0 , v 0 ; t, f ) = f 2r−q K , ; 0, 1 e−2iπt(u −v ) (2.34) f f Si l’on reporte cette relation dans la forme initiale (2.4), on obtient après changement de variables u0 = u f et v 0 = v f Z +∞ Z +∞ PZ (t, f ) = f 2r+2−q K(u, v; 0, 1) Z(u f ) Z ∗ (v f ) e−2iπf t(u−v) du dv (2.35) −∞ −∞ On obtient alors le résultat suivant : Les représentations temps-fréquence, définies comme fonctionnelles de la partie utile et caractérisées par (2.3) ou (2.4), qui vérifient le diagramme de covariance (2.28) sont répertoriées dans une classe, appelée classe de Bertrand [8], et données par : Z +∞ Z +∞ PZ (t, f ) = f 2r+2−q K(u, v) Z(f u) Z ∗ (f v) e2iπf t(u−v) du dv (2.36) 0 0 où K(u, v) est un noyau symétrique et réel. Cette famille de distribution, qui respecte le diagramme de covariance du groupe affine A donné par (2.28), est la forme la plus générale qui soit. Le paramètre libre de ce type de représentation est le noyau K(u, v) et il existe donc une infinité de ces formes. Approche Temps-Échelle introduite par P. Flandrin et O. Rioul [9] La définition d’une classe générale de représentation temps-échelle bilinéaires peut s’obtenir de manière totalement équivalente à ce qui vient d’être fait dans le cas temps-fréquence. Cette approche part du respect de la covariance affine du noyau général temporel K introduit en (2.3). z(t) −→ ↓ Pz (t, a) = 1 zt0 ,a0 (t) = √ z a0 ↓ t − t0 a0 (2.37) 0−1 Pzt0 ,a0 (t, a) = Pz (a 23 a (t − t ), 0 ) a 0 Cette contrainte se traduit sur le noyau par l’égalité : |a0 | K(a0 u + t0 , a0 u0 + t0 ; t, a) = K(u, u0 ; a0−1 (t − t0 ), a0−1 a) (2.38) Cette relation devant être vérifiée quelles que soient les valeurs des variables, le choix t0 = t et a = a conduit à la forme simplifiée du noyau : 1 u − t u0 − t 0 K(u, u ; t, a) = K , ; 0, 1 (2.39) a a a 0 ce qui montre que seulement deux variables sont nécessaires à la paramétrisation de K. En reportant le noyau ainsi déterminé dans la forme générale, on obtient finalement : Z +∞ Z +∞ s−t Π P (t, a) = , aξ Wz (s, ξ) dξ ds (2.40) a −∞ −∞ en introduisant la quantité Π(t, f ) : Z +∞ Π(t, f ) = −∞ τ τ K t − , t + ; 0, 1 e2iπf τ dτ 2 2 (2.41) Ceci constitue la classe affine des représentations bilinéaires covariantes par l’action des translationsdilatations. En introduisant une notation équivalente à celle de la classe de Cohen, on obtient les paramétrisations suivantes : +∞ +∞ s−t , aξ Wz (s, ξ) dξ ds a −∞ −∞ Z +∞ Z +∞ τ = f aξ, Az (ξ, τ ) e−2iπξt dξ dτ a −∞ −∞ Z +∞ Z +∞ 1 ξ 1 ξ 1 ∗ ψ(ξ, ν) X (ν − ) X (ν + ) e−2iπξt/a dξ dν = |a| −∞ −∞ a 2 a 2 Z P (t, a) = Z Π où la fonction ψ(ξ, ν) est reliée à Π(t, f ) par : Z ψ(ξ, ν) = (2.42) (2.43) (2.44) +∞ Π(t, ν) e−2iπξt dt (2.45) −∞ où la fonction Az (ξ, τ ) est la fonction d’ambiguïté de z : Z +∞ τ ∗ τ 2iπξs Az (ξ, τ ) = z s+ z s− e ds 2 2 −∞ 2.3 (2.46) Propriétés attendues des distributions temps-fréquence ou temps-échelle Pour des raisons de clarté et de commodité, il est souhaitable (mais pas toujours réalisable) que la représentation temps fréquence, notée Pz (t, f ) (ou PZ (t, f )), ou temps-échelle, notée Pz (t, a) (ou PZ (t, a)), construites sur le signal analytique z(t) (ou Z(f )), vérifient certaines contraintes dont les plus générales sont données plus bas. Pour la classe temps-échelle, on fera la correspondance a = f0 /f . 24 – Énergie totale : Pz (t, f ) ou Pz (t, a) est une distribution d’énergie dans le plan temps-fréquence. Elle doit donc être réelle et positive et l’énergie totale de la distribution doit être égale à l’énergie totale du signal : Z +∞ Z +∞ Pz (t, f ) dt df = Ez (2.47) −∞ −∞ +∞ Z Z +∞ Pz (t, a) dt −∞ −∞ da = Ez a2 où Ez définit l’énergie du signal. – Marginale sur le temps : La propriété de marginalisation sur le temps impose : Z +∞ 2 Pz (t, f ) dt = |Z(f )| (2.48) (2.49) −∞ Z +∞ −∞ 2 f0 Pz (t, a) dt = Z a (2.50) L’intégration de la représentation temps-fréquence sur l’axe du temps donne la densité spectrale d’énergie. La distribution Pz (t, f ) joue le rôle d’une densité conditionnelle positive sur l’axe temporel. – Marginale sur la fréquence : La propriété de marginalisation sur la fréquence ou l’échelle impose : Z +∞ 2 Pz (t, f ) df = |z(t)| (2.51) −∞ L’intégration de la représentation temps-fréquence sur l’axe de la fréquence donne la puissance instantanée. Pz (t, f ) peut alors jouer le rôle d’une densité conditionnelle positive sur l’axe fréquentiel. Z +∞ Pz (t, a) −∞ da 2 = |z(t)| a2 (2.52) Il est à noter que si la distribution temps-fréquence satisfait les deux marginales en temps et en fréquence, elle satisait automatiquement la contrainte de conservation de l’énergie du signal mais la réciproque est fausse. Il est possible que la distribution temps-fréquence satisfasse la conservation de l’énergie sans satisfaire les marginales. Le spectrogramme et le scalogramme définis plus haut en sont deux exemples. – Moments de la distribution : Définition des principaux moments de la distribution Si le signal temporel z(t) analytique et sa transformée de Fourier Z(f ) sont définis par une enveloppe et une phase : z(t) = a(t) eiφ(t) −→ Z(f ) = A(f ) eiψ(f ) (2.53) alors, les moments du premier ordre de la distribution peuvent définir la fréquence instantanée fi (t) et le temps de propagation de groupe τg (f ) : 25 +∞ Z f Pz (t, f ) df fi (t) −∞ +∞ = = Z Pz (t, f ) df Z 1 dφ 2π dt −∞ +∞ t Pz (t, f ) dt τg (f ) −∞ Z +∞ = (2.54) =− Pz (t, f ) dt 1 dψ 2π df (2.55) −∞ Cette propriété est intéressante dans le sens où elle permet facilement d’accéder directement à la loi de fréquence du signal sans avoir à calculer de manière brute la phase et la dérivée de la phase à partir des informations des voies en quadrature du signal. Cette dernière méthode est très difficile à mettre en œuvre car très sensible au bruit additif. – Changement d’échelle : Si le signal subit un changement d’échelle, la représentation subit la transformation suivante : z(t) −→ ↓ 1 z 0 (t) = √ z a ↓ t−b a (2.56) Pz (t, f ) = Pz0 (t, f ) = Pz t−b , af a – Conservation des supports : Conservation du support du signal temporel ou fréquentiel. Si le signal occupe une bande de fréquence donnée B ou a une durée T , la distribution tempsfréquence doit alors possèder le même support temporel ou fréquentiel. – Conservation du produit scalaire : Propriété dite d’unitarité ou de Moyal. Z +∞ Z −∞ Z +∞ +∞ −∞ Z (2.57) Z 2 da +∞ ∗ = z (t) z (t) dt 1 2 2 a −∞ (2.58) +∞ −∞ +∞ Pz1 (t, a) Pz2 (t, a) dt −∞ 2 z1 (t) z2∗ (t) dt Z Pz1 (t, f ) Pz2 (t, f ) dt df = −∞ On peut remarquer que cette propriété est contradictoire avec la contrainte 1 qui exige la positivité de P (t, f ). En effet, si les deux signaux sont orthogonaux, le terme de droite de (2.57) est nul, ce qui entraîne que, soit Pz1 (t, f ), soit Pz2 (t, f ) sont négatifs à un endroit donné du plan tempsfréquence. – Réduction des interférences Le défaut majeur de ces distributions est d’introduire des termes d’interférences entre chaque composante élémentaire du signal. Ces termes d’interférences proviennent de leur structure bilinéaire. Ainsi, pour des signaux composés de plusieurs composantes élémentaires, la lisibilité de ce genre d’analyse devient très difficile, surtout en présence de bruit additif réparti dans tout le plan temps-fréquence. Pour éviter ce genre de problèmes tout en gardant l’analyse globale sur le signal, ces distributions peuvent être lissées en temps et en fréquence. Dans le cas du groupe des translations en temps et en fréquence, on peut utiliser la formule de Moyal et avoir : 26 +∞ Z Pl (t0 , f0 ) Z +∞ Pz (t, f ) Ph (t − t0 , f − f0 ) df dt = Z = (2.59) −∞ −∞ +∞ ∗ z(u) h (u − t0 ) e −2iπf0 u −∞ 2 du (2.60) où h représente la fenêtre d’analyse et Ph sa distribution temps-fréquence. Ainsi si on lisse, dans le plan temps-fréquence, la distribution P (t, f ) par une fenêtre Ph (distribution temps-fréquence de h) déplacée par le groupe des translations en temps et en fréquence, cela revient à effectuer une analyse spectrale classique de type Fourier à court terme par la fenêtre h. Connaissant les relations d’incertitudes entre l’espace temps et fréquence, le contrôle des résolutions liées en temps et fréquence devient impossible. Pour éviter cela, on peut introduire les distributions temps-fréquence pseudo-lissées Pl (t, f ) que l’on présente plus bas et qui sont de la forme : Z +∞ Z +∞ Pl (t0 , f0 ) = Pz (t, f ) g(t0 − t) H(f0 − f ) df dt (2.61) −∞ −∞ où les deux quantités g et H représentent respectivement deux fenêtres d’analyse contrôlant de manière indépendante les résolutions temporelle et fréquentielle. Si l’on s’intéresse au groupe affine des changements d’échelle, on a = = +∞ +∞ t−b , af a −∞ −∞ Z 2 1 +∞ u−b ∗ z(u) h du a −∞ a Z Pl (a, b) Z P (t, f ) Ph df dt (2.62) (2.63) où h représente la fenêtre d’analyse et Ph sa distribution temps-fréquence. Ainsi si on lisse, dans le plan temps-fréquence, la distribution P (t, f ) par une fenêtre Ph (distribution temps-fréquence de h) déplacée par le groupe affine, cela revient à effectuer une analyse de type transformée en ondelettes par l’ondelette mère h. Connaissant les relations d’incertitudes entre l’espace temps et fréquence, le contrôle des résolutions liées en temps et fréquence devient impossible. Pour éviter cela, on peut introduire de la même manière les distributions temps-fréquence affines pseudolissées Pl (t, f ) [20] Il a été montré qu’aucune distribution ne pouvait vérifier à la fois toutes ces propriétés [11, 12, 13, 14], la remarque faite dans le dernier cas en apportant la preuve. Néanmoins, on demande aux distributions de ne vérifier que les plus importantes. 27 Chapitre 3 LES REPRÉSENTATIONS TEMPS-FRÉQUENCE DE LA CLASSE DE COHEN Les représentations temps-fréquence caractérisées par (2.3) et vérifiant le diagramme de covariance du groupe des translations en temps et fréquence sont répertoriées dans une classe, appelée classe de Cohen [7, 15], et donnée par : Z +∞ Z +∞ Z +∞ Pz (t, f ) = −∞ −∞ −∞ τ −2iπf τ τ ∗ z s− e dξ ds dτ e2iπξ(s−t) f (ξ, τ ) z s + 2 2 (3.1) où f (ξ, τ ) est une fenêtre d’observation vérifiant f (ξ, τ ) = f ∗ (−ξ, −τ ) pour garantir le caractère réel de Pz (t, f ). Toutes les principales distributions ont été répertoriées dans [13, 14]. Elles sont caractérisées par différentes fonctions de pondération f (ξ, τ ). On retrouve ainsi les principales distributions connues de Wigner et Ville, Rihaczeck, Margenau et Hill, Page, ou encore Choi et Williams mais aussi la classique transformée de Fourier à court terme (spectrogramme, sonagramme, voir [18] pour une synthèse récente). Voici présentées ci-dessous les différentes contraintes imposées sur le noyau f (ξ, τ ) pour obtenir différentes propriétés sur Pz (t, f ) – Conservation d’énergie Z +∞ Z +∞ Pz (t, f ) dt df = Ez −→ f (0, 0) = 1 (3.2) −∞ −∞ – Marginales correctes Z +∞ Pz (t, f ) dt = |Z(f )|2 −∞ Z +∞ Pz (t, f ) df = |z(t)|2 −∞ 28 −→ f (0, τ ) = 1 (3.3) −→ f (ξ, 0) = 1 (3.4) – Invariance d’échelle z(t) −→ ↓ Pz (t, f ) = z 0 (t) = √1 a z ↓ Pz0 (t, f ) = Pz t−b a −→ f (ξ, τ ) = g(ξ τ ) (3.5) 2 z1 (t) z2∗ (t) dt −→ |f (ξ, τ )| = 1 (3.6) t−b a , af où g est une fonction arbitraire – Unitarité ou Moyal Z +∞ Z −∞ +∞ −∞ Z Pz1 (t, f ) Pz2 (t, f ) dt df = +∞ −∞ – Liens avec les fonctions d’ambiguïté La classe de Cohen peut se réecrire de la manière suivante en faisant apparaître la fonction d’ambiguïté : Z +∞ Z +∞ Pz (t, f ) = f (ξ, τ ) Az (ξ, τ ) e−2iπ(ξt+f τ ) dξ dτ (3.7) −∞ −∞ où Az (ξ, τ ) est la fonction d’ambiguïté symétrique de z(t) définie par : Z +∞ τ ∗ τ 2iπξt Az (ξ, τ ) = z t+ z t− e dt 2 2 −∞ (3.8) Cette fonction d’ambiguïté joue un rôle très important en théorie du radar car elle peut caractériser le pouvoir de discrimination et de séparation de cibles proches les unes les autres en distance (lié au retard) et en vitesse (lié à la fréquence Doppler) Il existe bien entendu d’autres contraintes liées à d’autres propriétés (positivité, conservation du support, etc). Celles-ci peuvent être consultées dans [26, 27]. Toutes ces propriétés ne peuvent être réalisées en même temps et on peut donner quelques règles : – Pour des distributions d’énergie, seulement deux de ces trois propriétés sont vérifiées mais jamais les trois ensemble : – forme quadratique du signal – marginales correctes – positivité Exemple : Le spectrogramme est une forme particulière de forme quadratique et est positive mais ne satisfait pas les contraintes des marginales. – Positivité et respect de l’unitarité sont incompatibles Exemple : Wigner-Ville n’est pas une densité d’énergie positive partout dans le plan tempsfréquence. 3.1 3.1.1 La distribution de Wigner-Ville définition Une distribution intéressante peut être obtenue si l’on impose à la fonction de pondération f (ξ, τ ) d’être indépendante des variables ξ et τ (par exemple f (ξ, τ ) = 1). Elle est connue sous le nom de distribution de Wigner-Ville : 29 Z Wz (t, f ) +∞ u −2iπf u u ∗ z t+ z t− e du 2 2 −∞ Z +∞ ν ∗ ν 2iπf ν Z f+ Z f− e dν 2 2 −∞ = = (3.9) (3.10) Cette distribution est la plus populaire et la plus utilisée en traitement du signal. Elle possède de nombreuses propriétés et est de plus très facile à calculer, dans la plupart des cas, analytiquement, voire numériquement par des techniques basées sur la transformation de Fourier [19]. On peut montrer qu’elle satisfait aux contraintes de marginalisation sur le temps et la fréquence, qu’elle n’est pas positive, qu’elle conserve le support temporel ou fréquentiel des signaux, qu’elle est unitaire et qu’elle permet d’accéder, grâce à ses moments du premier ordre, à la fréquence instantanée ou au retard de groupe des signaux. 3.1.2 Propriétés de la distribution de Wigner-Ville Voici les propriétés les plus couramment rencontrées : – Réelle et satisfaisant les marginales et la conservation de l’énergie. – Covariance par le groupe des translations en temps et fréquence – Conservation du produit scalaire (unitarité ou Moyal). – Non positivité – Conservation du support du signal temporel et fréquentiel z(t) = 0 |Z(f )| = 0 ∀t 6∈ (t1 , t2 ) −→ Wz (t, f ) = 0 ∀t 6∈ (t1 , t2 ) (3.11) ∀f 6∈ (f1 , f2 ) −→ WZ (t, f ) = 0 ∀t 6∈ (f1 , f2 ) (3.12) – Conservation des moments du signal Z +∞ Z +∞ Z n t Wz (t, f ) dt df Z −∞ +∞ −∞ Z −∞ +∞ f n Wz (t, f ) dt df +∞ = −∞ Z +∞ = −∞ tn |z(t)|2 dt (3.13) f n |Z(f )|2 df (3.14) −∞ – Accès à la fréquence instantanée fz (t) du signal z(t) par le moment d’ordre un de sa distribution temps-fréquence Z +∞ f Wz (t, f ) df 1 d −∞ arg z(t) = Z +∞ (3.15) fz (t) = 2π dt Wz (t, f ) df −∞ Démonstration : On pose z(t) = A(t) e iφ(t) . On a, après avoir réorganiser les variables : 30 Z +∞ = −∞ = = = Z Z +∞ u ∗ u z t+ f e−2iπf u df z t− du 2 2 −∞ −∞ Z +∞ 1 d u u z t+ z∗ t − δ(u) du 2 2 2iπ d u −∞ u i u ∗ 1 d h z t+ z t− |u=0 2iπ d u 2 2 d A2 (t) φ(t) dt Z f Wz (t, f ) df +∞ (3.16) (3.17) (3.18) (3.19) +∞ Comme Wz (t, f ) df = |z(t)|2 = A2 (t), la démonstration est terminée. La démonstration est −∞ duale pour le temps de propagation de groupe et on a : Z +∞ t Wz (t, f ) dt 1 d −∞ arg Z(f ) = Z +∞ T (f ) = − 2π df Wz (t, f ) dt (3.20) −∞ – Interactions entre composantes fréquentielles. De par sa structure bilinéaire, la distribution de Wigner-Ville crée des interactions entre les composantes fréquentielles du signal : Z +∞ Wz1 +z2 (t, f ) = Wz1 (t, f ) + Wz2 (t, f ) + 2Re z1 (t − u/2) z2∗ (t − u/2) e−2iπuf du (3.21) −∞ Deux points dans le plan temps-fréquence génèrent ainsi une interaction située en leur barycentre. – Localisation : Une dernière propriété très importante est la capacité de la distribution de Wigner-Ville à localiser parfaitement les signaux monochromatiques et les chirps, c’est à dire les signaux à loi de modulation linéaire. – Sur les signaux monochromatiques : z(t) = e2iπf0 t ou Z(f ) = δ(f − f0 ) −→ Wz (t, f ) = δ(f − f0 ) (3.22) – Sur les chirps : 2 z(t) = e−iπαt −→ Wz (t, f ) = δ(t − α f ) (3.23) – Sur les signaux chocs x(t) = δ(t − t0 ) soit X(f ) = e−2iπf t0 Ici, une polémique s’installe. En effet, soit le signal est analytique et il ne possède pas de fréquence négative (ce qui n’est pas le cas de x(t)), soit le signal est réel, auquel cas, à cause de la forme bilinéaire de sa construction, Wigner-Ville engendre des interférences entre composantes de fréquences positives et négatives. Exemple : Ainsi, si on utilise le signal réel x(t) = cos 2πf0 t, Wigner-Ville donne le résultat suivant : Wx (t, f ) = δ(f − f0 )/2 + δ(f + f0 )/2 + cos (2πf0 t) δ(f ). Si l’on utilise le signal analytique z(t) = e2iπf0 t , on obtient Wz (t, f ) = δ(f − f0 ). Pour le signal réel choc x(t) = δ(t − t0 ), la parfaite localisation de sa distribution n’est due qu’aux termes d’interférences entre partie à fréquence positive et partie à fréquence négative. 31 Si on utilise le signal choc z(t) construit à partir de sa forme analytique, c’est à dire δ+ (t − t0 ) (ou Z(f ) = 2Y (f ) e−2iπf t0 avec Y (f ) l’échellon d’Heaviside), la distribution de Wigner-Ville donne une localisation non parfaite autour de t0 surtout dans les basses fréquences : Wz (t, f ) = 4 Y (f ) sin 4πf (t − t0 ) π(t − t0 ) (3.24) Les représentations affines comblent ces lacunes en restant cohérent avec les hypothèses de départ : elles ne mélangent jamais fréquence positive et fréquence négative 3.1.3 Construction tomographique de la distribution de Wigner-Ville [9] Il a été montré que la distribution de Wigner-Ville n’est pas positive mais que, néanmoins, elle possédait des marginales positives sur l’espace temps et sur l’espace fréquence. Il est possible d’étendre cette notion de marginales ou encore de densité conjointe à d’autres courbes du plan temps-fréquence. On peut alors montrer que la distribution de Wigner-Ville peut être encore considérée comme une densité d’énergie positive sur des courbes bien déterminées du plan temps-fréquence : les droites. Ceci peut facilement se montrer en utilisant la propriétés d’unitarité : 2 Z +∞ ∗ Wz (t, f ) Wz1 (t, f ) dt df = z(t) z1 (t) dt −∞ −∞ −∞ 2 avec z1 (t) = exp iπ(at + 2bt + c) définissant un signal chirp général. Il vient : Z Z +∞ −∞ Z +∞ +∞ −∞ Z +∞ Z Wz (t, f ) δ(f − at − b) dt df = +∞ z(t) e −iπat2 e −2iπbt −∞ (3.25) 2 dt (3.26) Le membre de gauche n’est autre que la transformation de Radon [17] de la distribution tempsfréquence tandis que le membre de droite représente le produit scalaire du signal et du signal chirp général caractérisé par sa pente a et son ordonnée à l’origine b. Ainsi une transformation de Radon sur une distribution de Wigner-Ville d’un signal n’est autre qu’un filtrage adapté sur ce signal par une famille de chirps. La mise en place numérique de la transformation de Radon est une transformée de Hough, très utilisée en théorie de l’image pour détecter la présence de lignes droites dans une image. 3.1.4 Exemples de résultats Voici quelques exemples de résultats – Signal monochromatique z(t) = e2iπf0 t −→ Wz (t, f ) = δ(f − f0 ) (3.27) √ 2 2 2 2 2 2 1 z(t) = √ e−πt /σ −→ Wz (t, f ) = 2 e−2π(t /σ +σ f ) σ (3.28) – Signal gaussien – Signal monochromatique d’enveloppe gaussienne √ 2 2 2 2 2 2 1 z(t) = √ e−π(t−t0 ) /σ e2iπf0 t −→ Wz (t, f ) = 2 e−2πα(t−t0 ) /σ −2πσ (f −f0 ) σ (3.29) – Chirp idéal z(t) = eiπβt 2 +2iπf0 t −→ Wz (t, f ) = δ(f − βt − f0 ) 32 (3.30) – Chirp d’enveloppe gaussienne √ 2 2 2 2 2 2 2 1 z(t) = √ e−πt /σ eiπβt −→ Wz (t, f ) = 2 e−2π[t /σ +σ (f −βt) ] σ (3.31) – Somme de deux sinusoïdes z(t) = a1 e2iπf1 t + a2 e2iπf2 t −→ Wz (t, f ) = a21 δ(f − f1 ) + a22 δ(f − f2 ) +2a1 a2 δ(f − (f1 + f2 )/2) cos 2π(f2 − f1 )t 3.1.5 (3.32) Lissage des distributions de Wigner-Ville Pour réduire les interférences de nature oscillantes d’un spectre de Wigner-Ville, il est judicieux d’effectuer un lissage séparable en temps et fréquence contrôlé par deux fenêtres indépendantes temporelle et fréquentielle φ(t, f ) = g(t) H(f ). On obtient ainsi ce que l’on appelle les distributions de Pseudo Wigner-Ville Lissées : Z +∞ Z +∞ Pl (t, f ) = φ(t0 , f0 ) Wz (t − t0 , f − f0 ) dt0 df0 (3.33) −∞ −∞ où g et h sont deux fenêtres paires et réelles avec h(0) = G(0) = 1. L’expression précédente se réduit à: Z +∞ Z +∞ Pl (t, f ) = h(τ ) g(ν) z(t − ν + τ /2) z ∗ (t + ν + τ /2) e−2iπf τ dν dτ (3.34) −∞ −∞ La fenêtre d’analyse doit être adaptée au type de signal analysé mais il est évident que ces méthodes ont le défaut d’élargir les traces utiles temps-fréquence du signal (obtenues par exemple par Wigner-Ville) du fait du lissage temporel et fréquentiel. Ainsi, il n’est pas rare de devoir modifier à plusieurs reprises les paramètres de contrôle des fenêtres avant d’obtenir un résultat correct. Des méthodes ont alors été proposées et permettent de choisir, de manière optimale et automatique, la fenêtre d’analyse en fonction du type de signal analysé. Cette fenêtre est ainsi dépendante du signal. On trouve deux types d’approche : – une analyse adaptative [21] où la fenêtre est automatiquement ajustée en fonction du type de signal rencontré. Ainsi, si on choisit une fenêtre gaussienne, son écart-type se calculera adaptativement selon un critère énergétique. Cette méthode dispense l’utilisateur des réglages nécessaires pour obtenir une bonne lisibilité. – une analyse adaptative fondée sur le même principe mais gardant la résolution de Wigner-Ville pour le signal et rejetant ou annulant les interférences [22]. Pour cela, on choisit une fenêtre f (ξ, τ ) = 1 dans une région temps-fréquence où le signal est présent et une fenêtre f (ξ, τ ) = exp (2iπBτ ) pour rejeter les interférences au delà de la bande B d’analyse du signal si le signal n’est pas présent dans la région (t, f ) du plan temps-fréquence. On peut aussi choisir de ne pas garder ces interférences en les supprimant grâce à la fenêtre Ψ(t, f ) = 0 mais on détruit la propriété d’unitarité de la distribution. Cette méthode est adaptative et le critère de décision de la présence ou non des interférences se fait selon un critère de type énergétique. Cette méthode a l’avantage de garder la résolution donnée par une distribution de Wigner-Ville dans les régions d’intérêts (car f (ξ, τ ) = 1) tout en rejetant les interférences hors du domaine d’analyse. La figure 3.1 donne un exemple de ce genre d’analyse. 33 Fig. 3.1 – Distributions temps-fréquence d’un signal de chauve-souris. (a) Distribution de WignerVille faisant apparaître de grosses interférences. (b) Distribution optimale en supprimant les termes d’interférences (Ψ(t, f ) = 0 en dehors des régions d’intérêt). (c) Distribution optimale en translatant les interférences au delà de B = 70 Hz par la fenêtre Ψ(t, f ) = exp (2iπBt). Extrait de [22] 3.1.6 La méthode de réallocation sur les Pseudo Wigner-Ville Lissées Une méthode a récemment été proposée pour améliorer la lisibilité des méthodes temps-fréquence [23]. Cette méthode peut être appliquée aux distributions Pseudo Wigner-Ville Lissées et a pour but de reconcentrer à leurs vraies places l’énergie des termes monocomposantes du signal élargis par l’opération de lissage. Pour ce faire, il est nécessaire de calculer la position temps-fréquences des barycentres d’énergie de la distribution temps-fréquence et de réallouer l’énergie dispersée sur les traces élargies. Cette méthode originale n’a pour but que d’améliorer a posteriori la lisibilité d’une image tempsfréquence obtenue par des méthodes conventionnelles. En voici résumé le principe de base. Les centres de gravités des contributeurs d’énergie de la distribution temps-fréquence Wz (t, f ) lissées par le noyau φ(t, f ) sont donnés par : Z +∞ Z +∞ t0 φ(t0 , f0 ) Wz (t − t0 , f − f0 ) dt0 df0 t̂(t, f ) −∞ −∞ Z +∞ Z +∞ = t− (3.35) φ(t0 , f0 ) Wz (t − t0 , f − f0 ) dt0 df0 Z fˆ(t, f ) −∞ +∞ Z −∞ +∞ f0 φ(t0 , f0 ) Wz (t − t0 , f − f0 ) dt0 df0 −∞ −∞ = f− Z Z +∞ +∞ φ(t0 , f0 ) Wz (t − t0 , f − f0 ) dt0 df0 −∞ (3.36) −∞ Cette réallocation conduit à la construction d’une distribution modifiée Pm (t0 , f 0 ) dont la valeur des points (t0 , f 0 ) est la somme de toutes les valeurs de la distribution lissée Pl (t, f ) réallouées en ce point : Z +∞ Z +∞ 0 0 Pm (t , f ) = Pl (t, f ) δ(t0 − t̂(t, f )) δ(f 0 − fˆ(t, f )) dt df (3.37) −∞ −∞ 34 Wigner-Ville Temps T/2 0 -T/2 0 Fe/4 Fe/2 Pseudo Wigner-Ville Lissée Temps T/2 0 -T/2 0 Fe/4 Fe/2 Réallocation Temps T/2 0 -T/2 0 Fe/4 Fréquence Fe/2 Fig. 3.2 – Analyse temps-fréquence de signaux chirps par distribution de Wigner-Ville, Pseudo distribution de Wigner-Ville Lissée et réallocation de distribution où la distribution Pl (t, f ) est obtenue par lissage de Wz (t, f ) et du noyau φ(t, f ) : Z +∞ Z +∞ Pl (t, f ) = φ(t0 , f0 ) PV W (t − t0 , f − f0 ) dt0 df0 −∞ (3.38) −∞ Il est à noter que cette distribution est non-bilinéaire et qu’elle n’appartient pas à la classe de Cohen. Elle conserve néanmoins la propriété de covariance par le groupe des translations en temps et fréquence, conserve l’énergie et localise parfaitement les signaux du type chirps. On remarque de même qu’il est impossible de réallouer Wigner-Ville car les centres de gravité (t̂, fˆ) de cette distribution sont exactement les points (t, f ). Les trois figures (3.2 à 3.4) montrent les résultats obtenus sur trois types de signaux différents. On remarque que Wigner-Ville fait apparaître très rapidement une nonlisibilité due aux termes d’interférences et que sa distribution pseudo-lissée élargit les traces tout en faisant disparaître les interférences (réglages des paramètres des fenêtres d’analyse). Les résultats les plus surprenants concernent les méthodes de réallocation sur les Pseudo Wigner-Ville Lissées qui font pratiquement disparaître les termes d’interférences tout en améliorant les traces des fréquences instantanées des différentes composantes du signal : on arrive dans certains cas à obtenir une meilleure résolution qu’avec Wigner-Ville. 3.2 Les autres distributions de la classe de Cohen Le tableau (3.1) donne quelques exemples de définitions de distributions temps-fréquence de la classe de Cohen. Voici en détail les propriétés de ces distributions 35 Wigner-Ville Temps T/2 0 -T/2 0 Fe/4 Fe/2 Pseudo Wigner-Ville Lissée Temps T/2 0 -T/2 0 Fe/4 Fe/2 Réallocation Temps T/2 0 -T/2 0 Fe/4 Fréquence Fe/2 Fig. 3.3 – Analyse temps-fréquence de signaux monochromatiques par distribution de Wigner-Ville, Pseudo distribution de Wigner-Ville Lissée et réallocation de distribution 3.2.1 La ditribution de Choï-Williams Cette distribution a été introduite dans le but de réduire les interférences intervenant dans la lecture des distributions temp-fréquence. Le noyau f (ξ, τ ) choisi est de la forme : f (ξ, τ ) = e−(πξτ /σ) 2 /2 (3.39) où σ est un paramètre de contrôle de la fenêtre de lissage. Ce noyau est une forme produit des deux variables ξ et τ et satisfait donc les marginales (on rappelle que ceci est vérifié si f (ξ, 0) = f (0, τ ) = 1). Il garantit même l’accès à la fréquence instantanée et au retard de groupe. Si le paramètre σ tend vers l’infini, la distribution tend vers la distribution de Wigner-Ville. Dans le autres cas, cette distribution a pour but de réduire les interférences entre composantes et prend les deux formes équivalentes suivantes : r Z +∞ Z +∞ 2 σ −2σ2 (s−t)2 /τ 2 τ ∗ τ −2iπf τ P (t, f ) = e z s+ z s− e ds dτ (3.40) π −∞ −∞ |τ | 2 2 selon que l’on prenne le signal temporel z(t) ou le signal fréquentiel Z(f ). Pour mieux comprendre le comportement de cette distribution, on considère le signal constitué de deux fréquences pures, soit : z(t) = A1 e2iπf1 t + A2 e2iπf2 t (3.41) Z(f ) = A1 δ(f − f1 ) + A2 δ(f − f2 ) (3.42) La distribution associée prend la forme suivante : P (t, f ) = A21 δ(f − f1 ) + A22 δ(f − f2 ) + K(t, f ) 36 (3.43) Wigner-Ville Temps T/2 0 -T/2 0 Fe/4 Fe/2 Pseudo Wigner-Ville Lissée Temps T/2 0 -T/2 0 Fe/4 Fe/2 Réallocation Temps T/2 0 -T/2 0 Fe/4 Fréquence Fe/2 Fig. 3.4 – Analyse temps-fréquence de signal modulé sinusoïdalement en fréquence par distribution de Wigner-Ville, Pseudo distribution de Wigner-Ville Lissée et réallocation de distribution où K(t, f ) est le terme d’interférences. r K(t, f ) = 2 A1 A2 2 σ 2σ 2 2 exp − (f − (f + f )/2) cos 2π(f1 − f2 )t 1 2 π |f1 − f2 | (f1 − f2 )2 (3.44) La dernière quantité tend vers δ(f − (f1 + f2 )/2) quand σ tend vers l’infini ce qui montre que la distribution de Wigner-Ville est d’énergie infinie pour f = (f1 + f 2)/2. Quand σ est fini, on peut remarquer que les termes d’interférences ne sont plus localisés qu’en un seul point et qu’ils s’étalent avec une énergie maximale plus petite que celle de Wigner-Ville. 3.2.2 La distribution de Born-Jordan sin 2πaτ ξ où a est une constante, ceci permet encore de 2πaτ ξ réduire l’énergie des termes d’interférences. La distribution prend la forme : Z +∞ Z t+aτ τ ∗ τ 1 z s+ z s− ds e−2iπf τ dτ (3.45) P (t, f ) = 2a|τ | t−aτ 2 2 −∞ Si l’on choisit un noyau du type f (ξ, τ ) = Considérons de la même manière les termes d’interférences K(f ) des deux signaux monochromatiques engendrés par cette distribution. On obtient : 1 1 K(f ) = 2a f2 − f1 si (a + 1/2)f1 − (a − 1/2)f2 ≤ f ≤ −(a − 1/2)f1 + (a + 1/2)f2 0 sinon 37 (3.46) Le terme d’interférence ne dépend donc pas de f et on a ainsi une répartition uniforme de l’énergie dans la zone considérée. Le choix a = 1/2 permet donc de répartir de manière uniforme l’énergie des termes d’interférences entre f1 et f2 . Nom f (ξ, τ ) Wigner-Ville 1 Pz (t, f ) +∞ Z −∞ s-Wigner +∞ Z e2iπsξτ 1 1 z t− s− τ z∗ t − s + τ e−2iπf τ dτ 2 2 −∞ z(t) Z ∗ (f ) e−2iπf τ Rihaczek eiπξτ Born-Jordan sin πξτ πξτ Choï-Williams 2 e−(πξτ /σ) Z " +∞ −∞ /2 √ +∞ Z Z Z 1 |τ | +∞ 2π −∞ Spectrogramme τ −2iπf τ τ ∗ z t+ z t− e dτ 2 2 −∞ t+|τ |/2 t−|τ |/2 σ −2σ2 (s−t)2 /τ 2 τ ∗ τ −2iπf τ e z s+ z s− e ds dτ |τ | 2 2 Z Ah (ξ, τ ) +∞ −∞ Z Séparable +∞ Z +∞ G(ξ) h(τ ) −∞ −∞ # τ ∗ τ z s+ z s− ds e−2iπf τ dτ 2 2 ∗ z(s) h (s − t) e −2iπf s 2 ds τ ∗ τ −2iπf τ h(τ ) g(s − t) z s + z s− e ds dτ 2 2 Tab. 3.1 – Classe de Cohen : quelques exemples de fonctions de paramétrisation et leurs représentations temps-fréquence associées 38 Chapitre 4 LES REPRÉSENTATIONS TEMPS-FRÉQUENCE AFFINES Deux approches sont possibles : l’approche temps-echelle introduite par P. Flandrin et O. Rioul [9] et l’approche temps-frequence introduite par J. et P. Bertrand [8]. 4.1 Approche temps-échelle introduite par P. Flandrin et O. Rioul Les représentations temps-échelle bilinéaires qui vérifient le diagramme de covariance du groupe affine sont répertoriées dans une classe, appelée classe affine de Cohen et sont données par : +∞ +∞ s−t , aξ Wz (s, ξ) dξ ds a −∞ −∞ Z +∞ Z +∞ τ = Az (ξ, τ ) e−2iπξt dξ dτ f aξ, a −∞ −∞ Z +∞ Z +∞ 1 ξ ξ 1 1 ∗ (ν − ) X (ν + ) e−2iπξt/a dξ dν = ψ(ξ, ν) X |a| −∞ −∞ a 2 a 2 Z Pz (t, a) = Z Π où la fonction ψ(ξ, ν) est reliée à Π(t, f ) par : Z ψ(ξ, ν) = (4.1) (4.2) (4.3) +∞ Π(t, ν) e−2iπξt dt (4.4) −∞ Ces formes sont les plus générales qui soient. Un cas particulier est le scalogramme défini plus haut : Z 1 |Tz (t, a)| = √ a +∞ ∗ 2 z(u) h −∞ u−t a 2 du où la fenêtre h représente l’ondelette mère. Cette distribution d’énergie peut se mettre sous la forme plus générale : Z +∞ Z +∞ s−t 2 |Tz (t, a)| = Wh , aξ Wz (s, ξ) dξ ds (4.5) a −∞ −∞ Il apparaît que la classe affine est générée à partir de la distribution de Wigner-Ville par l’action d’un lissage affine. 39 4.1.1 Sous-classe temps-échelle De la même manière que nous avons définis des distributions pseudo Wigner-Ville lissées qui contrôlaient de manière indépendante le lissage en fréquence et en temps, on peut s’intéresser aux distributions pseudo Wigner-Ville lissées affines qui sont obtenues par l’action d’un noyau de lissage séparable. Le noyau f (ξ, τ ) doit être choisi séparable de la forme : f (ξ, τ ) = G(ξ) e2iπH(ξ)τ (4.6) où les deux fonctions G et H sont réelles. Cette nouvelle classe définit alors une sous-classe des distributions de Cohen affine et sont définies alors par : Z +∞ H(aξ) ξ H(aξ) ξ G(aξ) X − X∗ + e−2iπξt dξ (4.7) P (t, a) = a 2 a 2 −∞ Lorsqu’on impose à ces nouvelles distributions de satisfaire des contraintes d’unitarité ou de localisation parfaite sur des signaux particuliers, les deux fonctions G et H sont alors parfaitement définies. Par exemple, la contrainte d’unitarité sur la distribution, c’est à dire : Z +∞ −∞ Z +∞ −∞ Pz1 (t, a) Pz∗2 (t, a) 2 Z da +∞ ∗ z1 (t) z2 (t) dt = 2 a −∞ (4.8) conduit à la contrainte suivante sur G et H : G2 (ξ) = H(ξ) − ξ dH(ξ) dξ (4.9) La contrainte de localisation P (t, a) = |a| δ(t − t0 ) sur des courbes du type X(f ) = |f |−1/2 e2iπf t0 (notons ici que ce signal n’est en aucun cas analytique) conduit à : G2 (ξ) = H 2 (ξ) − 2 ξ 2 (4.10) Si l’on impose les deux dernières contraintes, il faut résoudre une équation différentielle qui donne l’expression des deux fonctions H et G : H(ξ) = G(ξ) = ξ ξ coth 2 2 ξ/2 sinh ξ/2 (4.11) (4.12) et on tombe sur la définition de la distribution de Bertrand dont la formulation temps-échelle est donnée par : Z +∞ ξ/2 ξ e−ξ/2 ξ eξ/2 1 X X∗ e−2iπξt/a dξ (4.13) P (t, a) = |a| −∞ sinh ξ/2 2a sinh ξ/2 2a sinh ξ/2 4.2 Approche temps-fréquence affine introduite par P. et J. Bertrand Les représentations temps-fréquence, définies comme fonctionnelles de la partie utile et caractérisées par (2.3) ou (2.4), qui vérifient le diagramme de covariance (2.28) sont répertoriées dans une classe, 40 appelée classe affine de Bertrand [8], et données par : Z +∞ Z +∞ K(u, v) Z(f u) Z ∗ (f v) e2iπf t(u−v) du dv PZ (t, f ) = f 2r+2−q (4.14) 0 0 où K(u, v) est un noyau symétrique et réel. Cette famille de distribution, qui respecte le diagramme de covariance du groupe affine A donné par (2.28), est la forme la plus générale qui soit. Le paramètre libre de ce type de représentation est le noyau K(u, v) et il existe donc une infinité de ces formes. Plusieurs modes de construction, aussi différents les uns que les autres, ont été proposés. Voici succinctement présenté le cheminement principal des trois grandes idées : 4.2.1 Forme diagonale du noyau K Une première solution consiste à se restreindre à des formes quasi-diagonales du noyau du type K(v, v 0 ) = K(v, g(v)) où g est une fonction bijective sur R, qui permettent de réduire la forme (4.14) à une intégrale simple plus exploitable. Ce noyau peut donc être paramétré par des formes du type : Z +∞ 0 K(v, v ) = µ(u) δ(v − λ(u)) δ(v 0 − λ(−u)) du (4.15) −∞ qui est de la forme générale K(v, g(v)), avec la fonction λ continue et bijective de R sur R+∗ et la fonction µ assurant le caractère réel et symétrique du noyau K, on obtient alors, par deux intégrations successives sur v et v 0 , les familles de distributions suivantes : Z +∞ P (t, f ) = f 2r+2−q µ(u) Z(f λ(u)) Z ∗ (f λ(−u)) e2iπf t(λ(u)−λ(−u)) du (4.16) −∞ Lorsqu’on impose à cette distribution de satisfaire : – une relation d’unitarité donnée par : Z +∞ Z +∞ P1 (t, f ) P2 (t, f ) f −∞ 2q Z dt df = +∞ ∗ Z1 (f ) Z (f ) f 2r+1 0 0 2 df (4.17) – la contrainte de localisation des signaux localisés en temps, Z(f ) = f −r−1 e−2iπf t0 −→ P (t, f ) = f −q−1 δ(t − t0 ) (4.18) – la contrainte de localisation des signaux localisés en fréquence, Z(f ) = f −r δ(f − f0 ) −→ P (t, f ) = f 1−q δ(f − f0 ) (4.19) on obtient une forme, appelée distribution affine unitaire, bien définie par les fonctions λ(u) et µ(u) et donnée par P (t, f ) = f 2r+2−q Z +∞ −∞ u 2 sinh(u/2) 2r+2 Z(f λ(u)) Z ∗ (f λ(−u)) e2iπf tu du (4.20) avec la fonction λ continue, croissante et bijective de R dans R+∗ : λ(u) = u 1 − e−u 41 (4.21) 4.2.2 Covariance étendue La deuxième solution est d’imposer aux distributions d’être covariantes par certains groupes à trois paramètres plus généraux contenant le groupe affine A [8]. Ces groupes Gk labélés par un réel k ont donc trois paramètres et agissent sur chaque élément du groupe g = (a, b, c) et g 0 = (a0 , b0 , c0 ) selon la loi de composition : g g 0 = (aa0 , b + ab0 , c + ak c0 ) 0 0 0 0 g g = (aa , b + ab + a(ln a), c + ac ) pour Gk , k 6= 1 (4.22) pour G1 (4.23) L’action de ces groupes Gk agissent sur les signaux analytiques Z(f ) selon : k Z g (f ) = ar+1 e−2iπ(bf +cf ) Z(af ) Z g (f ) = ar+1 e−2iπ(bf +c ln f ) Z(af ) pour k 6= 0, 1 pour k = 0 (4.25) Z g (f ) = ar+1 e−2iπ(bf +cf ln f ) Z(af ) pour k = 1 (4.26) (4.24) La covariance sur la distribution temps-fréquence se traduit par PZ g (t, f ) = aq P (g −1 .(t, f )) : P g (f, f ) = aq P a−1 (t − b − kcf k−1 ), af c g q −1 P (f, f ) = a P a t−b− , af f P g (f, f ) = aq P a−1 (t − b − c − c ln f ), af pourk 6= 0, 1 (4.27) pourk = 0 (4.28) pourk = 1 (4.29) Cette méthode conduit à une grande famille de distributions appelées fonctions affines de Wigner définies par : Z +∞ 2r+2−q P (t, f ) = f µk (u) Z(f λk (u)) Z ∗ (f λk (−u)) e2iπf t(λk (u)−λk (−u)) du (4.30) −∞ avec la fonction λk donnée par : −u 1 e − 1 k−1 λk (u) = k −ku e −1 (4.31) La fonction µk , arbitraire doit être réelle, positive et paire. Elle est néanmoins bien déterminée si on impose une fois de plus l’unitarité ou la localisation. Lorsqu’on impose et l’unitarité et la localisation, on retrouve bien sûr la forme (4.20). Ainsi, si on impose l’unitarité pour ces distributions, on tombe sur la condition suivante : r d r+1 µk (u) = (λk (u) λk (−u)) (λk (u) − λk (−u)) du (4.32) Ainsi pour k = 2, q = 0, r = −1/2, on retrouve la distribution de Wigner-Ville restreinte ici aux signaux analytiques. Si on impose les distributions soient localisables sur les signaux chocs, c’est à dire, Zt0 (f ) = f −r−1 e−2iπf t0 −→ P (t, f ) = f −q−1 δ(t − t0 ) il est nécessaire de satisfaire les conditions suivantes : 42 (4.33) – la correspondance u −→ (λk (u) − λk (−u)) est bijective de R dans R. Cette condition impose forcément k ≤ 0 ce qui, d’emblée, exclut totalement la distribution de Wigner-Ville comme distribution localisable sur les signaux chocs. r+1 d – µk (u) = (λk (u) λk (−u)) du (λk (u) − λk (−u)) Pour les k négatifs, la covariance étendue par le groupe Gk peut être appliquée aux signaux chocs. L’opération montre que : k Z(f ) = f −r−1 e−2iπc f e−2iπf t0 −→ Pk (t, f ) = f −q−1 δ t − t0 − k c f k−1 β Z(f ) = f −r−1 f −2iπβ e−2iπf t0 −→ P0 (t, f ) = f −q−1 δ t − t0 − f k<0 (4.34) k=0 (4.35) (4.36) Le cas k = 0 est un exemple de cas qui satisfait aux deux conditions : c’est la distribution affine unitaire rencontrée en (4.20) : P0 (t, f ) = f 2r+2−q +∞ Z −∞ u 2 sinh u/2 2r+2 Z uf e−u/2 2 sinh u/2 Z ∗ uf eu/2 2 sinh u/2 e−2iπf tu du (4.37) Cette distribution localise ainsi les signaux dits hyperboliques. Le cas k = −1 est appelée distribution active d’Unterberger et correspond au cas λ−1 (u) = eu/2 et µ−1 (u) = cosh u/2 et localise les signaux dont le temps de propagation de groupe décroit en 1/f 2 . 4.2.3 Approche tomographique Une troisième solution repose sur une méthode de construction par tomographie déjà proposée dans le cas de la distribution de Wigner-Ville [16]. La forme obtenue dans ce cas est la distribution affine unitaire (4.20). Il peut être montré que la distribution affine unitaire n’est pas positive mais que, néanmoins, elle possédait des marginales positives sur l’espace temps et sur l’espace fréquence. Il est possible d’étendre cette notion de marginales ou encore de densité conjointe à d’autres courbes du plan temps-fréquence. On peut alors montrer que la distribution affine unitaire peut être considérée comme une densité d’énergie positive sur des courbes bien déterminées du plan temps-fréquence : les hyperboles. Ceci peut facilement se montrer en utilisant la propriétés d’unitarité : Z +∞ Z +∞ P (t, f ) P1 (t, f ) f 2q −∞ 0 Z dt df = +∞ Z(f ) Z1∗ (f ) f 2r+1 0 2 df (4.38) avec f −r−1 f −2iπβ e−2iπf ξ définissant un signal hyperbolique. Il vient : Z 0 +∞ Z +∞ −∞ β P (t, f ) δ t − ξ − f Z f dt df = q 0 +∞ Z(f ) e 2iπξf f 2 2iπβ+r (4.39) Le membre de gauche n’est autre que la transformation de Radon généralisée de la distribution temps-fréquence affine tandis que le membre de droite représente le produit scalaire entre le signal Z(f ) et les signaux hyperboliques : cette transformation définit la transformation de Mellin [24, 25] du signal qui joue un rôle très important dans toute l’étude ou le calcul de ces distributions 43 4.2.4 La représentation temps-fréquence affine unitaire La forme la plus exploitable en analyse de signaux est la distribution affine unitaire qui permet de localiser en temps ou en fréquence des signaux localisés en temps (comme par exemple des chocs) ou en fréquence (comme des signaux monochromatiques). Cette distribution est donnée par : P (t, f ) = f 2r+2−q Z +∞ −∞ u 2sh(u/2) 2r+2 Z(f λ(u)) Z ∗ (f λ(−u)) e2iπf tu du (4.40) avec la fonction λ continue, croissante et bijective de R dans R+∗ définie par : λ(u) = u eu/2 u = −u 1−e 2 sinh u/2 (4.41) Cette distribution dépend du paramètre r de dimensionnement du signal, mais aussi de son propre paramètre q de dimensionnement. Propriétés de la représentation affine unitaire Voici quelques unes de ses propriétés les plus intéressantes : – La représentation affine peut être considérée comme une pseudo-densité dans le plan temps fréquence : Z +∞ Z +∞ Z +∞ 2 q P (t, f ) f dt df = |Z(f )| f 2r+1 df (4.42) −∞ 0 0 Le choix q = 0 confère à la distribution une signification probabiliste. – Covariance par le groupe affine étendu Z(f ) −→ ↓ P (t, f ) Z 0 (f ) = ar+1 e−2iπ(bf +c ln f ) Z(af ) ↓ = (4.43) 0 q −1 P (t, f ) = a P (a (t − b − c/f ), af ) – Conservation du support fréquentiel du signal En particulier P (t, f ) = 0 pour f < 0 (Signal analytique nul aux fréquences négatives) – Formule de Moyal ou unitarité Z +∞ −∞ Z 0 +∞ Z P1 (t, f ) P2 (t, f ) f 2q dt df = 0 +∞ 2 Z1 (f ) Z2∗ (f ) f 2r+1 df (4.44) Cette relation est l’analogue large bande de la formule de Moyal pour la classe de Cohen – Marginalisation sur le temps Z +∞ P (t, f ) dt = f 2r+1−q |Z(f )|2 (4.45) −∞ La marginalisation usuelle (telle qu’on la définit pour la distribution de Wigner-Ville) est ainsi obtenue pour un paramètre de dimensionnement q égal à 2r + 1. La propriété de marginalisation sur la fréquence n’est, elle, pas définie de manière simple, la forme intégrale étant alors difficile à calculer. Il n’est pourtant pas raisonnable d’espérer obtenir pour des signaux à grande largeur de bande relative, l’enveloppe du signal analytique (au sens bande étroite) qui ne reste qu’une notion bande étroite, mais plutôt une extension large bande de cette quantité. 44 – Le moment du premier ordre sur le temps de la distribution définit le retard de groupe du signal. Z +∞ t P (t, f ) dt −∞ = τg (f ) (4.46) Z +∞ P (t, f ) dt −∞ Le moment du premier ordre sur la fréquence est encore une grandeur très difficile à calculer de manière analytique. De le même façon que pour la marginalisation sur les fréquences, il n’est pourtant pas raisonnable d’espérer obtenir pour des signaux à grande largeur de bande relative, la fréquence instantanée du signal analytique (au sens bande étroite) qui ne reste qu’une notion bande étroite, mais plutôt une extension large bande de cette grandeur. – Parfaite localisation des signaux du type : – Signaux monochromatiques : Z(f ) = f −r δ(f − f0 ) −→ P (t, f ) = f 1−q δ(f − f0 ) (4.47) Z(f ) = f −r−1 e−2iπf ξ −→ P (t, f ) = f −q−1 δ(t − ξ) (4.48) – Signaux chocs : – Signaux hyperboliques à temps de propagation de groupe hyperbolique (Voir figures 4.1 et 4.2 : Z(f ) = f −2iπβ−r−1 e−2iπf ξ −→ P (t, f ) = f −q−1 δ(t − ξ − β/f ) (4.49) – A bande étroite, P (t, f ) tend vers la distribution de Wigner-Ville Wz (t, f ) Il suffit de remarquer que, lorsque le signal est à bande étroite autour de la fréquence centrale f0 , la contribution majeure de l’intégrale, définie par l’expression (4.40), est obtenue au voisinage de u = 0. En développant λ(u) et λ(−u) en série dans (4.40), en effectuant le changement de variable γ = f u, et en posant q = 2r + 1 (pour satisfaire à la propriété de marginalisation usuelle de la distribution de Wigner Ville), on obtient : Z P (t, f ) = f Z = +∞ Z(f (1 + u/2)), Z ∗ (f (1 − u/2)) e2iπf tu du (4.50) 0 +∞ Z(f + γ/2) Z ∗ (f − γ/2) e2iπγt dγ (4.51) 0 Le deuxième terme de (4.51) n’est autre que la définition de la distribution de Wigner-Ville. 4.2.5 Lissage de la représentation affine unitaire De la même manière que pour Wigner-Ville, il est possible de lisser la représentation affine unitaire pour réduire les interférences. Faisons l’hypothèse que le signal fenêtre H(0,f0 ) (f ) soit bien "localisé" en t = 0 autour de la fréquence f0 . Lorsqu’on fait subir à H une transformation du groupe affine (a, b) caractérisé par une translation de temps b = t et un changement d’échelle a = f0 /f , le signal transformé H(t,f ) (f ), localisé autour du temps t et autour de la fréquence f prend la forme H(t,f ) (f 0 ) = f f0 −r−1 0 e−2iπf t H(0,f0 ) 45 f0 0 f f (4.52) 0 120 −2 110 −4 100 −6 90 −8 80 −10 70 −12 60 −14 50 −16 40 −18 30 −20 −5 0 1 0.5 0 −0.5 −0.4 −0.3 −0.2 −0.1 0 0.1 0.2 0.3 0.4 Fig. 4.1 – Distribution temps-fréquence affine unitaire d’un signal hyperbolique Par le diagramme de commutativité du groupe affine, la distribution P(t,f ) associée à H(t,f ) prend la forme : 0 0 P(t,f ) (t , f ) = f f0 −q P(0,f0 ) f f0 (t − t0 ), f 0 f0 f (4.53) En remplaçant dans la formule d’unitarité Z1 = Z et Z2 = H(t,f ) , on obtient une distribution lissée qui a la forme : Z +∞ Z +∞ P̃ (t, f ) = f −q PZ (t0 , f 0 ) P(t,f ) (t0 , f 0 ) f 02q dt0 df 0 (4.54) −∞ 0 On obtient ainsi le résultat par la formule de Moyal : P̃ (t, f ) = f −q Z +∞ Z(f 0 0 ∗ 0 02r+1 ) H(t,f ) (f ) f 2 df 0 (4.55) qui n’est que la transformée en ondelette du signal Z par l’ondelette mère H. la figure 4.3 montre une transformée en ondelette d’un signal hyperbolique. 46 0 120 110 100 −5 90 80 70 −10 60 50 40 30 −15 −30 −20 −10 0 1 0.5 0 −0.5 −0.4 −0.3 −0.2 −0.1 0 0.1 0.2 0.3 0.4 Fig. 4.2 – Distribution temps-fréquence affine unitaire d’un signal composé de deux signaux hyperboliques croisés 0 120 110 100 −5 90 80 70 −10 60 50 40 30 −15 −5 0 1 0.5 0 −0.5 −0.4 −0.3 −0.2 −0.1 0 0.1 0.2 0.3 0.4 Fig. 4.3 – Transformation en ondelette d’un signal hyperbolique 47 Chapitre 5 EXEMPLES 48 Signal in time Real part 2 1 0 −1 |STFT|2, Lh=16, Nf=64, log. scale, imagesc, Thld=5% Linear scale 0.45 0.4 Frequency [Hz] Energy spectral density 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 908 454 0 20 40 60 Time [s] 80 100 120 Fig. 5.1 – Analyse temps-fréquence de signaux chirps par Spectrogramme Real part Signal in time 80 60 40 20 0 −20 −40 Linear scale SP, Lh=30, Nf=128, log. scale, imagesc, Threshold=5% 0.45 Energy spectral density 0.4 Frequency [Hz] 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 2.3519 1.176 0 50 100 6 x 10 150 200 Time [s] 250 300 Fig. 5.2 – Analyse temps-fréquence d’un signal de parole par Spectrogramme (’GABOR’) 49 Signal in time Real part 1 0.5 0 −0.5 Linear scale WV, log. scale, imagesc, Threshold=5% 0.45 Energy spectral density 0.4 Frequency [Hz] 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 365 182 0 20 40 60 Time [s] 80 100 120 Fig. 5.3 – Analyse temps-fréquence de deux logons de Gabor par Wigner-Ville Real part Signal in time 1 0 −1 Linear scale WV, log. scale, imagesc, Threshold=5% 0.45 Energy spectral density 0.4 Frequency [Hz] 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 1450 725 0 20 40 60 Time [s] 80 100 120 Fig. 5.4 – Analyse temps-fréquence d’un signal chirp par Wigner-Ville 50 Real part Signal in time 1 0 −1 Linear scale PWV, Lh=16, Nf=128, log. scale, imagesc, Threshold=5% 0.45 Energy spectral density 0.4 Frequency [Hz] 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 1450 725 0 20 40 60 Time [s] 80 100 120 Fig. 5.5 – Analyse temps-fréquence de quatre logons de Gabor par Wigner-Ville Real part Signal in time 0.5 0 −0.5 Linear scale WV, log. scale, imagesc, Threshold=5% 0.45 Energy spectral density 0.4 Frequency [Hz] 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 400 200 0 20 40 60 Time [s] 80 100 120 Fig. 5.6 – Analyse temps-fréquence de quatre logons de Gabor par Pseudo-Wigner-Ville 51 Signal in time Real part 2 1 0 −1 Linear scale WV, log. scale, imagesc, Threshold=5% 0.45 Energy spectral density 0.4 Frequency [Hz] 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 14338 7169 0 20 40 60 Time [s] 80 100 120 Fig. 5.7 – Analyse temps-fréquence d’une raie pure et d’un logon de Gabor par Wigner-Ville Signal in time Real part 2 1 0 −1 Linear scale PWV, Lh=16, Nf=128, log. scale, imagesc, Threshold=5% 0.45 Energy spectral density 0.4 Frequency [Hz] 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 14338 7169 0 20 40 60 Time [s] 80 100 120 Fig. 5.8 – Analyse temps-fréquence d’une raie pure et d’un logon de Gabor par Pseudo-Wigner-Ville 52 Signal in time Real part 2 1 0 −1 Linear scale SPWV, Lg=6, Lh=16, Nf=128, log. scale, imagesc, Threshold=5% 0.45 Energy spectral density 0.4 Frequency [Hz] 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 14338 7169 0 20 40 60 Time [s] 80 100 120 Fig. 5.9 – Analyse temps-fréquence d’une raie pure et d’un logon de Gabor par Pseudo-Wigner-VilleLissée Signal in time Real part 1 0.5 0 −0.5 Linear scale SCALO, Morlet wavelet, Nh0=11.3137, N=128, log. scale, pcolor, Thld=5% 0.4 0.35 Frequency [Hz] Energy spectral density 0.3 0.25 0.2 0.15 0.1 996 498 0 20 40 60 Time [s] 80 100 120 Fig. 5.10 – Analyse temps-fréquence de deux logons de Gabor par Scalogramme 53 Signal in time Real part 0.2 0 −0.2 Linear scale BERT, N=128, log. scale, pcolor, Threshold=5% 0.2 0.18 Frequency [Hz] Energy spectral density 0.16 0.14 0.12 0.1 0.08 0.06 0.04 0.02 11 5 0 20 40 60 Time [s] 80 100 120 Fig. 5.11 – Analyse temps-fréquence d’un signal hyperbolique par Distribution affine unitaire Real part Signal in time 1 0 −1 Linear scale RSP, Lh=13, Nf=128, log. scale, imagesc, Threshold=5% 0.45 Energy spectral density 0.4 Frequency [Hz] 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 9575 4787 0 20 40 60 Time [s] 80 100 120 Fig. 5.12 – Analyse temps-fréquence d’un signal académique par Distribution Spectrogramme Réallouée 54 Real part Signal in time 1 0 −1 Linear scale RSP, Lh=13, Nf=128, log. scale, imagesc, Threshold=5% 0.45 Energy spectral density 0.4 Frequency [Hz] 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 9575 4787 0 20 40 60 Time [s] 80 100 120 Fig. 5.13 – Analyse temps-fréquence d’un signal académique par Spectrogramme Signal in time Real part 2 1 0 −1 Linear scale WV, log. scale, imagesc, Threshold=5% 0.45 Energy spectral density 0.4 Frequency [Hz] 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 3583 1792 0 20 40 60 Time [s] 80 100 120 Fig. 5.14 – Analyse temps-fréquence d’un signal académique par Wigner-Ville 55 Signal in time Real part 2 1 0 −1 Linear scale SPWV, Lg=6, Lh=16, Nf=128, lin. scale, imagesc, Threshold=5% 0.45 Energy spectral density 0.4 Frequency [Hz] 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 3583 1792 0 20 40 60 Time [s] 80 100 120 Fig. 5.15 – Analyse temps-fréquence d’un signal académique par Pseudo-Wigner-Ville-Lissée 56 Signal in time Real part 2 1 0 −1 Linear scale RSPWV, Lg=6, Lh=16, Nf=128, log. scale, imagesc, Threshold=5% 0.45 Energy spectral density 0.4 Frequency [Hz] 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 3583 1792 0 20 40 60 Time [s] 80 100 120 Fig. 5.16 – Analyse temps-fréquence d’un signal académique par Pseudo-Wigner-Ville-Lissée Réallouée 57 Bibliographie [1] J. Ville, "Théorie et Applications de la Notion de Signal Analytique", Câbles et Transmission, No.1, pp.60-74, janvier 1948 [2] J.B. Allen L.R. Rabiner, "A Unified Approach to Short Time Fourier Analysis and Synthesis", Proc. of the IEEE, Vol.65, No.11, November 1977 [3] R.A. Altes, "Detection Estimation and Classification with Spectrograms", J. Acoust. Soc. Am., Vol.67, No.4, pp.1232-1246, 1980 [4] S.M. Kay, "Modern Spectral Estimation", Prentice Hall, Englewood Cliffs, New Jersey 07632, 1988 [5] S.L. Marple, Jr, "Digital Spectral Analysis With Applications", Prentice Hall, Englewood Cliffs, New Jersey 07632, 1987 [6] L. Cohen, "Generalized Phase-Space Distribution Functions", J. of Math. Physics, Vol.7, No.5, pp.781-786, May 1966 [7] L. Cohen, "Time Frequency Distributions - A Review", Proc. of the IEEE, Vol.77, No.7, July 1989 [8] J. Bertrand P. Bertrand, "Affine Time-Frequency Distributions" in "Time Frequency Signal Analysis. Methods and Applications", Editor B. Boashash, Longman Cheshire, 1991 [9] O. Rioul and P. Flandrin, "Time-Scale Energy Distributions : A General Class Extending Wavelet Transform", IEEE Trans. on Signal Proc., Vol. SP-40, No.7, pp. 1746-1757, 1992 [10] P. Bertrand, "Représentation des Signaux dans le Plan Temps-Fréquence", La Recherche Aérospatiale, No.1 (Janv.-Fév.), pp.1-12, 1983 [11] E.P. Wigner, "Perspectives in Quantum Theory", W. Yourgrau and A. Van der Merwe (Eds), Dover, New York, 1979 [12] J.G. Krüger A. Poffyn, "Quantum Mechanics in Phase Space. I- Unicity of the Wigner Distribution Function", Physica 85A, pp.84-100, 1976 [13] P. Flandrin, "Représentation des Signaux dans le Plan Temps-Fréquence", Thèse D. Ing. INPG, Grenoble 1982 [14] P. Flandrin, "Représentations Temps-Fréquence des Signaux Non Stationnaires", Thèse Etat INPG, Grenoble 1987 [15] L. Cohen, "Introduction to Time Frequency Distributions" in "Time-Frequency Signal Analysis. Methods and Applications", Editor B. Boashash, Longman Cheshire, 1991, [16] J. Bertrand P. Bertrand, "Représentation des Signaux à Large Bande", La Recherche Aérospatiale, No.5, pp.277-283, Sept.-Oct. 1985 [17] D. Ludwig, "The Radon Transform on Euclidean Space", Communication On Pure and Applied Mathematics, Vol.XIX, pp.49-81, 1966 [18] F. Auger, "Représentations Temps-Fréquence des Signaux Non-Stationnaires : Synthèse et Contribution", Thèse de Doctorat, Ecole Centrale de Nantes, 4 décembre 1991 58 [19] T.A. Claasen W.F. Mecklenbraüker, "The Wigner Distribution- A Tool for Time Frequency Signal Analysis", Part I-II-III, Philips J. Res., Vol.35, No.3-4-5-6, 1980 [20] P. Gonçalvès et R. Baraniuk, "Pseudo Affine Wigner Distributions and Kernel Formulation", IEEE Trans.SP, April 1996 [21] R.G. Baraniuk D.L. Jones, "A Signal-Dependant Time-Frequency Representations : Fast Algorithm for Optimal Kernel Design", IEEE Trans. on Signal Processing, Vol.42, pp.134-146, january 1994 [22] R.G. Baraniuk, "Optimal Phase Kernel for Time-Frequency Analysis", submitted to IEEE Trans. on Signal Processing, january 1996 [23] F. Auger P. Flandrin, "Improving the Readability of Time-Frequency and Time-Scale Representations Using the Reassigment Method", IEEE Trans. on Signal Processing, Vol. 43, No .5, May 1995 [24] J. Bertrand P. Bertrand and J.P. Ovarlez, "The Mellin transform", in : The Transforms and Applications Handbook, ed. A. D. Poularikas, CRC Press Inc., 1995, chapter 12 [25] J.P. Ovarlez, La Transformation de Mellin : un Outil pour l’Analyse des Signaux à Large-Bande, Thesis University Paris 6, Paris, April 1992. [26] P. Flandrin, Temps-Fréquence, Ed. Hermès, 1993 [27] F. Hlawatsch, G.F. Boudreaux-Bartels, Linear and Quadratic Time-Frequency Representations, IEEE Signal Proc. Magazine, pp.21-67, 1992 59