Stratégies de transmission vidéo sur un canal MIMO réaliste

Transcription

Stratégies de transmission vidéo sur un canal MIMO réaliste
THÈSE
pour l’obtention du Grade de
Docteur de l’Université de Poitiers
(Faculté des Sciences Fondamentales et Appliquées)
(Diplôme National - Arrêté du 7 août 2006)
École Doctorale ED 521 : Sciences et ingénierie pour l’information
Secteur de Recherche
: Image, Signal et Automatique
Présentée par :
Wassim Hamidouche
Stratégies de transmission vidéo sur
un canal MIMO réaliste
Directeur de Thèse : M. Christian Olivier
Co-directeur de Thèse : M. Yannis Pousset
Co-directeur de Thèse : M. Clency Perrine
Soutenue le 29/11/2010 devant la Commission d’Examen composée de :
M. Francois-Xavier Coudoux, Professeur, Université de Valenciennes . . . . . . . . . . . . . . . . . . . . . . . Rapporteur
Mme Béatrice Pesquet-Popescu, Professeur, Télécom Paris Tech . . . . . . . . . . . . . . . . . . . . . . . . . . . Rapporteur
M.
M.
M.
M.
M.
Gilles Burel, Professeur, Université de Bretagne Occidentale . . . . . . . . . . . . . . . . . . . . . . . . . . Examinateur
Didier Nicholson, Chef de projet, Thalès Communications . . . . . . . . . . . . . . . . . . . . . . . . . . . . Examinateur
Christian Olivier, Professeur, Université de Poitiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Examinateur
Clency Perrine, Maı̂tre de Conférence, Université de Poitiers . . . . . . . . . . . . . . . . . . . . . . . . . . Examinateur
Yannis Pousset, Maı̂tre de Conférence, Université de Poitiers . . . . . . . . . . . . . . . . . . . . . . . . . Examinateur
Table des matières
Introduction
1 Stratégies de transmission multimédia par réseaux sans fil
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Les réseaux sans fil ad hoc . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Définition des réseaux ad hoc . . . . . . . . . . . . . . . . . . . . .
1.2.2 Représentation graphique des réseaux ad hoc . . . . . . . . . . .
1.2.3 Le modèle en couches OSI . . . . . . . . . . . . . . . . . . . . . . .
1.3 Chaı̂ne de communication numérique . . . . . . . . . . . . . . . . . . . . .
1.3.1 Codage de source . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.2 Codage de canal et modulation numérique . . . . . . . . . . . . .
1.3.3 Canal de transmission . . . . . . . . . . . . . . . . . . . . . . . . .
1.4 Stratégies de transmission multimédia . . . . . . . . . . . . . . . . . . . .
1.4.1 Principe et limites du théorème de séparation . . . . . . . . . . .
1.4.2 Codage de source . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.3 Codage conjoint source-canal : techniques de protection inégale
1.4.4 Exploitation de la diversité . . . . . . . . . . . . . . . . . . . . . .
1.5 Synthèse et conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Couche physique réaliste : impact sur la transmission de vidéo par
réseaux mobiles ad hoc
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Modèles de la couche physique . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Modèles d’erreur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.2 Modèles de propagation . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.3 Inconvénients et limites . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Couche physique réaliste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.1 Modélisation du canal radio . . . . . . . . . . . . . . . . . . . . . . . .
2.3.2 Modèle d’erreur suivant la norme IEEE 802.11 . . . . . . . . . . . .
2.3.3 Implémentation et validation des couches physiques IEEE 802.11 .
2.4 Contexte de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.1 Scénario de la simulation . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.2 Métriques d’évaluations . . . . . . . . . . . . . . . . . . . . . . . . . .
5
6
6
6
7
7
9
10
17
18
26
27
27
31
34
38
41
42
42
43
44
45
46
47
51
52
55
55
57
i
TABLE DES MATIÈRES
2.5
2.6
Résultats et discussions . . . . . . . . . . . .
2.5.1 Étude de la couche physique réaliste
2.5.2 Impact sur la transmission de vidéo
Conclusion . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Adaptation de liens MIMO pour une transmission temps
vidéo H.264/SVC
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Codeur de vidéo H.264/SVC . . . . . . . . . . . . . . . . . .
3.2.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.2 Définition . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.3 Scalabilité temporelle . . . . . . . . . . . . . . . . . . .
3.2.4 Scalabilité spatiale . . . . . . . . . . . . . . . . . . . .
3.2.5 Scalabilité en qualité . . . . . . . . . . . . . . . . . . .
3.3 Codeur H.264/SVC dans un contexte de transmission . . . .
3.4 Précodeurs linéaires pour une transmission de vidéos . . . .
3.4.1 Système MIMO avec précodage . . . . . . . . . . . . .
3.4.2 Transformation en canal virtuel . . . . . . . . . . . .
3.4.3 Précodeurs diagonaux . . . . . . . . . . . . . . . . . .
3.4.4 Précodeurs non-diagonaux . . . . . . . . . . . . . . . .
3.5 Schéma de transmission . . . . . . . . . . . . . . . . . . . . . .
3.6 Stratégie de transmission : solution UEP . . . . . . . . . . . .
3.7 Contexte de simulation . . . . . . . . . . . . . . . . . . . . . .
3.7.1 Couche application . . . . . . . . . . . . . . . . . . . .
3.7.2 Couche physique . . . . . . . . . . . . . . . . . . . . . .
3.8 Résultats et discussions . . . . . . . . . . . . . . . . . . . . . .
3.8.1 Canal statistique . . . . . . . . . . . . . . . . . . . . .
3.8.2 Canal réaliste . . . . . . . . . . . . . . . . . . . . . . .
3.9 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
57
57
61
68
réel d’un flux
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
69
70
71
71
71
72
72
74
74
76
77
78
79
81
83
84
86
86
87
88
89
92
98
4 Solutions adaptatives pour la transmission de vidéo H.264/SVC sur un
canal MIMO
101
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.2 Solution algorithmique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.2.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.2.2 Algorithme 1 : calcul des coefficients de précodage . . . . . . . . . . 103
4.2.3 Algorithme 2 : prise en compte de l’efficacité spectrale de la modulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4.2.4 Système de transmission temps réel . . . . . . . . . . . . . . . . . . . 108
4.2.5 Contexte de transmission . . . . . . . . . . . . . . . . . . . . . . . . . 109
4.2.6 Résultats et discussions . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
4.3 Solution analytique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
4.3.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
ii
TABLE DES MATIÈRES
4.4
4.5
4.3.2 Modélisation mathématique du problème
4.3.3 Configuration de la transmission . . . . .
4.3.4 Résultats et discussions . . . . . . . . . .
4.3.5 Limites de la solution analytique . . . . .
Analyse débit-distorsion . . . . . . . . . . . . . . .
4.4.1 Contexte de l’étude . . . . . . . . . . . . .
4.4.2 Analyse des résultats . . . . . . . . . . . .
Conclusion . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
115
121
121
124
125
125
126
132
5 Conclusion et perspectives
135
Résumé
151
Abstract
153
iii
Table des figures
1
Application de vidéo conférence sur un réseau hétérogène . . . . . . . . . .
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
1.10
Réseau mobile ad hoc sous la forme d’un graphe non orienté . . . . . .
Structure en couches du modèle OSI . . . . . . . . . . . . . . . . . . . .
Schéma de la chaı̂ne de communication numérique . . . . . . . . . . .
Schéma fonctionnel d’un codeur/décodeur de source pour l’image . .
Structure d’un GOP constitué de 6 images . . . . . . . . . . . . . . . .
Illustration des entropies du canal . . . . . . . . . . . . . . . . . . . . .
Diagramme du canal binaire symétrique . . . . . . . . . . . . . . . . .
Variations de la puissance reçue dans un canal radio mobile . . . . . .
Phénomènes de propagation de l’onde dans un environnement urbain
Principe du codage par descripteurs multiples [51] . . . . . . . . . . . .
2.1
Mécanisme d’évaluation de la qualité des liens radios dans les plateformes
de simulation de réseaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Modèle d’erreur UDG (modèle de base à gauche et le modèle amélioré à
droite) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Atténuation des modèles de propagation à grande échelle à 5 GHz . . . . .
Propagation radio via des modèles déterministes . . . . . . . . . . . . . . . .
Synoptique du simulateur de canal à tracé de rayons 3D [113] . . . . . . . .
Illustration du phénomène de multi-trajets calculé par le logiciel de propagation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Modélisation d’un canal sélectif en fréquence : modèle LAR [34] . . . . . .
Couche physique réaliste SISO suivant la norme IEEE 802.11a . . . . . . .
Couche physique réaliste MIMO suivant la norme IEEE 802.11n . . . . . .
Performances des normes IEEE 802.11a et IEEE 802.11n sur un canal
réaliste sélectif en fréquence . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Positionnement des terminaux dans la scène de simulation : centre de Munich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Répartition des valeurs de TEB des liens radio dans Munich à 6 Mb/s . . .
Répartition des valeurs de TEB des liens radio dans Munich à 24 Mb/s . .
Répartition des valeurs de TEB des liens radio dans Munich à 54 Mb/s . .
Performances de transmission de vidéo H.264/AVC dans Munich à 6 Mb/s
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
2.10
2.11
2.12
2.13
2.14
2.15
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
7
8
10
11
13
19
20
21
22
29
43
44
45
46
47
48
50
52
53
54
56
59
60
60
63
v
TABLE DES FIGURES
2.16 Performances de transmission de vidéo H.264/AVC dans Munich à 6 Mb/s
2.17 Illustration des vidéos reçues sur des configurations de couche physique
réaliste SISO (à gauche) et MIMO (à droite) . . . . . . . . . . . . . . . . . .
2.18 Performances de transmission de vidéo H.264/AVC dans Munich à 24 Mb/s
2.19 Performances de transmission de vidéo H.264/AVC dans Munich à 24 Mb/s
2.20 Performances de transmission de vidéo H.264/AVC dans Munich à 54 Mb/s
2.21 Performances de transmission de vidéo H.264/AVC dans Munich à 54 Mb/s
3.1
3.2
3.3
3.4
3.5
3.6
3.7
3.8
3.9
3.10
3.11
3.12
3.13
3.14
3.15
3.16
3.17
3.18
3.19
3.20
3.21
vi
Codage hiérarchique dans le codeur H.264/SVC : scalabilité temporelle
[118] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Mécanisme du codage spatial dans le codeur H.264/SVC [118] . . . . . . . .
Performances des trois schémas de robustesse vis-à-vis des pertes d’images
Schéma bloc des précodeurs linéaires dans le canal virtuel . . . . . . . . . .
Schéma bloc des précodeurs diagonaux . . . . . . . . . . . . . . . . . . . . .
Schéma bloc des précodeurs non-diagonaux . . . . . . . . . . . . . . . . . . .
Schéma de transmission de vidéo H.264/SVC suivant la norme IEEE 802.11n
Stratégie de codage conjoint impliquant le codage de source, les précodeurs
et le canal de transmission . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Environnement de simulation : campus de l’université de Poitiers . . . . . .
TEB des quatre précodeurs sur un canal de Rayleigh MIMO (4 × 4) à 8
bits/s/Hz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Performances du schéma proposé sur un canal statistique MIMO (4 × 4)
avec µ = 0 dB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Performances du schéma proposé sur un canal statistique MIMO (4 × 4)
avec µ = 5 dB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Performances du schéma proposé sur un canal statistique MIMO (4 × 4)
avec µ = 10 dB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Comportement du canal réaliste MIMO (4 × 4) à 5 Ghz . . . . . . . . . . .
Performances du schéma proposé sur un canal MIMO (4 × 4) réaliste à 5 m/s
Performances du schéma proposé sur un canal MIMO (4 × 4) réaliste à 10
m/s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Illustration de la qualité visuelle des vidéos reçues par les précodeurs QdS
(à gauche) et WF (à droite) sur un canal MIMO réaliste (zone 1) . . . . .
Robustesse des précodeurs diagonaux vis-à-vis des erreurs d’EC sur un
canal réaliste MIMO (4 × 4) à 5 m/s . . . . . . . . . . . . . . . . . . . . . . .
Robustesse du précodeur E-dmin vis-à-vis des erreurs d’EC sur un canal
réaliste MIMO (4 × 4) à 5 m/s . . . . . . . . . . . . . . . . . . . . . . . . . . .
Robustesse des précodeurs diagonaux vis-à-vis des erreurs d’EC sur un
canal réaliste MIMO (4 × 4) à 10 m/s . . . . . . . . . . . . . . . . . . . . . .
Robustesse du précodeur E-dmin vis-à-vis des erreurs d’EC sur un canal
réaliste MIMO (4 × 4) à 10 m/s . . . . . . . . . . . . . . . . . . . . . . . . . .
63
64
66
66
67
68
73
73
76
79
79
82
84
85
88
89
90
91
92
93
94
95
96
96
97
97
98
TABLE DES FIGURES
4.1
4.2
4.3
4.4
4.5
4.6
4.7
4.8
4.9
4.10
4.11
4.12
4.13
4.14
4.15
4.16
4.17
4.18
Processus de configuration du précodeur QdS pour la transmission vidéo
H.264/SVC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
RSB des quatres voies en fonction de la distance . . . . . . . . . . . . . . . .
Performances des algorithmes proposés sur un canal réaliste MIMO (4 × 4)
zones 1 et 2, l’Utilisateur 1 (vidéo 1) . . . . . . . . . . . . . . . . . . . . . . .
Performances des algorithmes proposés sur un canal réaliste MIMO (4 × 4)
zone 2, l’Utilisateur 1 (vidéo 2) . . . . . . . . . . . . . . . . . . . . . . . . . .
Performances des algorithmes proposés sur un canal réaliste MIMO (4 × 4)
zone 3, l’Utilisateur 1 (vidéo 3) . . . . . . . . . . . . . . . . . . . . . . . . . .
Performances des algorithmes proposés sur un canal réaliste MIMO (4 × 4)
zones 2 et 1, l’Utilisateur 1 (vidéo 4) . . . . . . . . . . . . . . . . . . . . . . .
Variation du niveau (l) d’efficacité spectrale de la modulation QAM en
fonction du numéro de trame de l’Utilisateur 1 . . . . . . . . . . . . . . . . .
Performances de la méthode d’optimisation sur un canal réaliste MIMO
(4 × 4) : Utilisateur 1 (vidéo 1) . . . . . . . . . . . . . . . . . . . . . . . . . .
Performances de la méthode d’optimisation sur un canal réaliste MIMO
(4 × 4) : Utilisateur 1 (vidéo 2) . . . . . . . . . . . . . . . . . . . . . . . . . .
Performances de la méthode d’optimisation sur un canal réaliste MIMO
(4 × 4) : Utilisateur 1 (vidéo 3) . . . . . . . . . . . . . . . . . . . . . . . . . .
Performances de la méthode d’optimisation sur un canal réaliste MIMO
(4 × 4) : Utilisateur 1 (vidéo 4) . . . . . . . . . . . . . . . . . . . . . . . . . .
Impact du codage conjoint source-canal pour GOP = 4 . . . . . . . . . . . .
Impact du codage conjoint source-canal pour GOP = 8 . . . . . . . . . . . .
Impact du codage conjoint source-canal pour GOP = 16 . . . . . . . . . . .
Impact de la taille de GOP pour la configuration de codage (250, 1/2) . .
Impact de la taille de GOP pour la configuration de codage (333, 2/3) . .
Impact de la taille de GOP pour la configuration de codage (375, 3/4) . . .
Impact de la taille de GOP pour la configuration de codage (416, 5/6) . .
104
106
112
113
113
114
114
122
123
123
124
128
128
129
130
131
131
132
vii
Liste des tableaux
2.1
Répartition des valeurs de TEB des liens radio dans le centre ville de Munich 58
3.1
Configuration de codage du codeur H.264/SVC pour les vidéos Akiyo et
F oreman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Valeurs relatives des RSB utilisées par le précodeur QdS pour chaque état
du canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Comparaison des performances de quatre précodeurs . . . . . . . . . . . . .
PSNR et TEB du schéma proposé dans différentes conditions de transmission (vidéo Foreman) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2
3.3
3.4
4.1
4.2
0
86
88
89
92
Paramètres de codage de la vidéo Soccer (704 × 576) en huit résolutions de
qualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
Configurations de codage source-canal de la vidéo Soccer (704 × 576) . . . 126
Chapitre 0
Introduction
La dernière décennie a été marquée par l’expansion très rapide des systèmes de communications numériques. Ces derniers permettent d’offrir des solutions de transmission de
données multimédias sur des réseaux sans fil, telles que la vidéo conférence et la télévision
numérique. Considérons la figure 1 qui illustre un exemple d’une application de vidéo
conférence entre une salle de conférence et un utilisateur mobile via un réseau hétérogène
constitué d’un réseau filaire et d’un réseau sans fil. Les réseaux filaires peuvent atteindre
des débits très élevés associés à de très faibles taux d’erreur binaire via un support filaire
tel que la fibre optique. Cependant, le lien radio est caractérisé par une faible bande passante et un taux d’erreur binaire relativement élevé dû aux conditions de transmission. De
plus, le débit de la station de base est partagé entre tous ses utilisateurs, ce qui diminue
considérablement le débit alloué à chaque utilisateur. La qualité de la vidéo reçue entre
la salle de conférence et le mobile dépend principalement de la qualité du lien radio entre
la station de base et le mobile. Ainsi, assurer la qualité de service des applications de
transmission temps réel de vidéo est la préoccupation majeure des nouvelles normes de
transmission sans fil : téléphonie mobile 4G, réseaux sans fil locaux WLAN et télévision
numérique terrestre mobile DVB-H.
Figure 1: Application de vidéo conférence sur un réseau hétérogène
D’autre part, le développement de la technologie électronique a permis une visuali-
1
CHAPITRE 0. INTRODUCTION
sation en haute définition (HD) des séquences vidéo sur les terminaux mobiles. La compression de la vidéo avant sa transmission est alors nécessaire afin de réduire la quantité
d’information à transmettre et d’augmenter le débit réel de la transmission. Une tarification des communications par qualité de service et non pas par temps de communication
est l’une des perspectives envisagée à court terme par des opérateurs offrant ces services. Il
est ainsi important d’avoir une représentation scalable par qualité de la vidéo. Différentes
qualités de la vidéo sont transmises suivant l’état du canal, les capacités d’affichage et de
calcul du mobile ou encore la qualité de service désirée par l’utilisateur. Un défi est alors
lancé par les chercheurs de la communauté des communications numériques, qui consiste
à proposer des solutions permettant d’assurer la qualité de service des applications faisant intervenir la transmission temps réel de vidéo. C’est dans ce contexte que s’inscrit le
travail présenté dans ce manuscrit.
Dans cette thèse nous proposons des solutions à deux problématiques dans le domaine
des communications numériques. La première problématique concerne la modélisation
réaliste d’un canal radio mobile dans les réseaux sans fil. En effet, de nombreux schémas
ont été proposés pour améliorer la qualité de service des applications les plus variées dans
un contexte de transmission sans fil. Pour des raisons de coût très élevé des appareils
de mesure, les performances de ces schémas sont évaluées, dans un premier temps, par
simulation. Cependant, les modèles adoptés au niveau des simulateurs pour modéliser le
comportement du canal radio mobile sont très simplistes et ne représentent pas vraiment
les conditions de transmission dans un environnement réel, tel qu’un environnement urbain. Ainsi, dans un premier temps nous proposons une couche physique réaliste pour
modéliser le comportement d’un canal radio mobile. Notre intérêt portera plus particulièrement sur l’impact de la couche physique réaliste sur l’évaluation des performances
des schémas de transmission temps réel de vidéo.
Le second enjeu de cette thèse consiste à proposer des solutions efficaces pour améliorer et
garantir la qualité de service des applications de transmission temps réel de vidéo sur un
lien radio mobile. L’objectif de notre approche est d’assurer une qualité de service acceptable dans les conditions de transmission les plus défavorables, et d’améliorer la qualité
de service dans de meilleures conditions de transmission. Nous exploitons la dimension
spatiale du canal MIMO pour améliorer soit la robustesse ou le débit de la communication
suivant les conditions de transmission. Afin de prendre en compte le contenu du flux vidéo
et l’état du canal, nous considérons les systèmes MIMO à boucle fermée via des solutions
de précodage, c’est-à-dire des systèmes MIMO supposant la connaissance du canal au
niveau de l’émetteur et du récepteur.
Ce document s’articule en quatre chapitres :
Le premier chapitre
Dans le premier chapitre, nous présentons les réseaux mobiles ad hoc ainsi que quelques
protocoles utilisés au niveau des différentes couches du modèle OSI. Nous détaillons en-
2
CHAPITRE 0. INTRODUCTION
suite les blocs constituant la chaı̂ne de communication classique. Nous montrons que le
problème défini par Shannon sur les codages de source et de canal est différent du problème
de transmission temps réel de vidéo traité dans le cadre de cette thèse. Ainsi, pour assurer
une qualité de service dans ce type d’applications et atteindre les meilleures performances
de transmission, il est nécessaire de considérer conjointement ces deux blocs.
Nous effectuons par la suite une étude bibliographique sur les stratégies de transmission
de vidéo dans un contexte de transmission à erreurs binaires ou à pertes de paquets (effacement). Nous présentons ces stratégies en deux catégories suivant que l’optimisation
du codeur de canal se fait en fonction du codeur de source et du canal ou bien que l’optimisation du codeur de source est réalisée en fonction du canal. De plus, nous abordons
les travaux de transmission de vidéo exploitant la diversité spatiale via des systèmes de
transmission MIMO, et la diversité des routes dans les réseaux mobiles ad hoc.
Le deuxième chapitre
L’étude proposée dans la deuxième partie de cette thèse porte principalement sur l’impact d’une transmission réaliste sur réseau ad hoc en milieu urbain dense d’un flux vidéo
H.264/AVC. Nous allons, en premier lieu, proposer une couche physique réaliste permettant une évaluation fine de la qualité des liens radio mobiles SISO et MIMO suivant
respectivement la couche physique des normes de transmission IEEE 802.11a et IEEE
802.11n. Cette couche physique dite réaliste prend aussi en compte toutes les spécificités
liées à un environnement réel (géométrique et électrique) pour caractériser la qualité d’un
lien radio mobile à travers son TEB. Par la suite, nous évaluons l’impact de notre couche
physique réaliste sur la qualité de vidéo H.264/AVC reçue sur réseau ad hoc dans un
environnement urbain dense. Cette étude montre, via des critères de qualité propres à des
applications de transmission temps réel de vidéo, l’importance de considérer une couche
physique réaliste pour évaluer les performances des schémas proposés.
Le troisième chapitre
Dans le troisième chapitre nous considérons la transmission de flux vidéo H.264/SVC
dans un contexte de canaux MIMO réalistes tenant en compte de techniques de précodage.
D’une part, le standard de compression de vidéo H.264/SVC permet une représentation
du flux vidéo en plusieurs résolutions temporelle, spatiale et en qualité. D’autre part,
les précodeurs linéaires subdivisent le canal MIMO en sous canaux SISO décorrélés et
parallèles avec une faible complexité de décodage de maximum par vraisemblance. Dans
nos travaux, nous proposons un schéma de transmission exploitant à la fois la hiérarchie
intrinsèque du standard H.264/SVC et la qualité de quatre précodeurs (Max-RSB, WF,
QdS et E-dmin ). Nous exploitons par la suite la flexibilité du précodeur QdS dans l’allocation de puissance pour fixer les coefficients de précodage suivant l’importance des flux
vidéo H.264/SVC et l’état du canal MIMO. Nous effectuons une étude de performances
de ce schéma sur des canaux statistiques et réalistes. Enfin, nous évaluons sa robustesse
vis-à-vis des erreurs d’estimation de canal suivant la norme de transmission IEEE 802.11n
à différentes vitesses de déplacement des terminaux mobiles.
3
CHAPITRE 0. INTRODUCTION
Le quatrième chapitre
Nous proposons dans le chapitre 4 deux solutions au problème de minimisation de
débit distorsion dans le cadre d’une stratégie de codage conjoint. La première solution
permet à l’aide d’un algorithme de calculer les coefficients de précodage qui réalisent les
meilleures performances de transmission. Cet algorithme prend en compte l’importance
des flux vidéo H.264/SVC, l’état du canal MIMO et la modulation numérique. Par la
suite, cet algorithme est adapté pour le calcul de l’efficacité spectrale de la modulation
de chaque sous-canal SISO pour une meilleure exploitation du canal MIMO.
La seconde solution repose sur une modélisation analytique de la transmission du flux
vidéo H.264/SVC sur un canal MIMO. Nous exprimons dans un premier lieu la distorsion
totale (distorsions de la source et du canal) en fonction des coefficients de précodage. La
méthode d’optimisation de Lagrange associée aux conditions de Kuhn et Tucker permet
de calculer les coefficients de précodage qui minimisent la distorsion totale. Cette solution
analytique prend en compte la hiérarchie de codage du codeur de vidéo H.264/SVC avec
la modulation numérique pour assurer la meilleure qualité des vidéos reçues quel que soit
l’état du canal MIMO.
Enfin, nous effectuons une étude expérimentale sur l’impact des coefficients de quantification et la taille de GOP au niveau du codage de source, ainsi que les rendements du
code correcteur d’erreur au niveau du codage de canal sur la transmission de vidéo sur
un canal MIMO.
Nous terminons ce manuscrit par une conclusion et quelques perspectives.
4
Chapitre 1
Stratégies de transmission
multimédia par réseaux sans fil
Sommaire
1.1
1.2
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
Les réseaux sans fil ad hoc . . . . . . . . . . . . . . . . . . . . . .
6
1.2.1 Définition des réseaux ad hoc . . . . . . . . . . . . . . . . . . . . .
6
1.2.2 Représentation graphique des réseaux ad hoc . . . . . . . . . . .
7
1.2.3 Le modèle en couches OSI . . . . . . . . . . . . . . . . . . . . . . .
7
1.3 Chaı̂ne de communication numérique . . . . . . . . . . . . . . .
9
1.3.1 Codage de source . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.2 Codage de canal et modulation numérique . . . . . . . . . . . . . 17
1.3.3 Canal de transmission . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4 Stratégies de transmission multimédia . . . . . . . . . . . . . . . 26
1.4.1 Principe et limites du théorème de séparation . . . . . . . . . . . 27
1.4.2 Codage de source . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.4.3 Codage conjoint source-canal : techniques de protection inégale 31
1.4.4 Exploitation de la diversité . . . . . . . . . . . . . . . . . . . . . . 34
1.5 Synthèse et conclusion . . . . . . . . . . . . . . . . . . . . . . . . . 38
5
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
1.1
Introduction
L’objet de ce chapitre d’état de l’art est d’une part de présenter les notions de base des
communications numériques afin de faciliter la compréhension de la suite de ce document,
et d’autre part de faire une étude non exhaustive sur les stratégies de transmission de
vidéo de manière à positionner nos travaux par rapport à l’existant.
L’objectif de toute stratégie de transmission par réseaux est de garantir à l’utilisateur la
meilleure qualité de service possible quelles que soient les conditions et le contexte de la
transmission. Une stratégie de transmission est alors utile et nécessaire lorsque les deux
conditions suivantes sont simultanément vérifiées :
– Application à différents niveaux de qualité : cette contrainte est liée à la nature
de l’application, qui doit se présenter sous la forme de différents paliers de qualité.
La stratégie de transmission permet d’assurer un niveau de qualité supérieur à celui
obtenu sans stratégie de transmission, ce qui permet d’améliorer la qualité de service
de l’application.
– Contexte de transmission avec erreurs : une stratégie de transmission doit faire face
aux erreurs de transmission et aux pertes de paquets. Ces pertes sont généralement
causées par le canal de transmission et les problèmes de congestion dans le réseau.
Si la transmission est réalisée sans erreurs et sans perte de paquets, la stratégie de
transmission n’est pas nécessaire et n’apporte aucun gain de qualité.
Nous positionnons notre travail dans le cadre d’applications où ces deux conditions sont
vérifiées, à savoir la transmission temps réel de vidéo sur un réseau mobile ad hoc. Un
exemple réel de ce type d’applications consiste en une caméra mobile permettant à la
fois l’acquisition de vidéo et sa diffusion en temps réel vers un ou plusieurs utilisateurs à
travers le médium radio.
Nous allons tout d’abord présenter les réseaux mobiles ad hoc ainsi que les différentes
couches du modèle de réseau OSI 1 . Par la suite, nous présentons les différents blocs
constituant la chaı̂ne de communication classique, à savoir le codage de source, le codage
de canal, la modulation numérique et le canal de transmission. Un état de l’art sur les
stratégies de transmission de vidéo sur un canal avec pertes et erreurs sera exposé. Enfin, après une synthèse sur les différentes techniques et stratégies de transmission, nous
positionnons notre travail par rapport à l’état de l’art.
1.2
Les réseaux sans fil ad hoc
1.2.1
Définition des réseaux ad hoc
Les réseaux mobiles ad hoc (MANETs 2 ) [1] sont des réseaux locaux sans fil (WLAN 3 )
où les utilisateurs, appelés terminaux ou noeuds, peuvent communiquer sans aucune infra1. OSI : Open System Interconnection
2. MANETs : Mobile Ad Hoc NETworks
3. WLAN : Wireless Local Area Networks
6
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
structure fixe ou administration centralisée, d’où l’appellation réseaux auto-configurables.
L’information est alors véhiculée entre la source et la destination soit sur un lien direct
quand la source et la destination sont reliées par un lien radio direct, dits terminaux
voisins, soit à travers d’autres terminaux voisins dans le cas contraire. Ainsi, chaque terminal au sein du réseau peut avoir pour rôle celui d’une source, d’une destination et d’un
routeur. La nature dynamique et l’absence d’une infrastructure fixe pour une gestion centralisée du réseau exige une coopération continue entre les terminaux pour assurer une
communication fiable dans le réseau. Cependant, cette fiabilité est souvent très difficile
à maintenir à cause des contraintes liées à ce type de réseaux, telles que l’instabilité des
liens, l’énergie limitée et le taux d’erreur binaire relativement élevé des liens radio.
1.2.2
Représentation graphique des réseaux ad hoc
Un réseau ad hoc est généralement représenté sous la forme d’un graphe non orienté,
noté G = (S, A). L’ensemble des sommets du graphe S représente les terminaux du réseau,
et l’ensemble des arêtes A correspond aux liens directs bidirectionnels entre les terminaux. La Figure 1.1 illustre un réseau ad hoc sous la forme d’un graphe non orienté.
Vue la caractéristique dynamique du réseau, sa topologie et le graphe correspondant sont
susceptibles de varier au cours du temps.
Figure 1.1: Réseau mobile ad hoc sous la forme d’un graphe non orienté
L’hétérogénéité des réseaux informatiques exige la mise en place d’une interface d’accès
au réseau commune pour gérer l’interopérabilité entre les équipements des différents
constructeurs. L’organisme ISO 4 [2] a donc spécifié une structure commune décrivant
l’architecture d’un réseau, appelé le modèle OSI. La section suivante fera l’objet de la
présentation du modèle OSI dans un contexte de réseaux mobiles ad hoc.
1.2.3
Le modèle en couches OSI
Le modèle OSI définit l’interface réseau commune à tous les terminaux à l’aide d’une
architecture en pile composée de sept couches. Le synoptique du modèle OSI est représenté
4. ISO : International Organization for Standardization
7
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
sur la figure 1.2. Le modèle OSI ne décrit pas les protocoles et les systèmes à utiliser au
niveau de chaque couche, mais il définit plutôt les fonctions et le rôle de chacune de ces
couches.
Figure 1.2: Structure en couches du modèle OSI
La couche application offre à l’utilisateur l’accès aux différentes applications du réseau.
C’est au niveau de cette couche que l’information est traitée avant son acheminement par
les autres couches vers la destination. La couche présentation traduit l’information à
transmettre à travers le réseau en un langage commun. L’établissement des communications de bout en bout, c’est-à-dire entre une source et une destination, est géré par la
couche session. La couche transport assure la fiabilité et la régulation des échanges de
paquets entre la source et la destination. Les protocoles utilisés pour les réseaux ad hoc
sont similaires aux protocoles adoptés dans les réseaux filaires, à savoir les protocoles
UDP 5 , TCP/IP 6 et le protocole RTP 7 [3] pour les applications temps réel. La couche
réseau oriente et achemine les paquets de la source jusqu’à la destination. Les protocoles
de routage couramment utilisés dans les réseaux filaires et sans fil avec une infrastructure fixe (cellulaires) ne peuvent pas être directement appliqués aux réseaux ad hoc. Les
protocoles adoptés dans les réseaux ad hoc gèrent le routage, à travers des messages de
contrôle, équitablement à partir des différents terminaux. Quoique, il existe des protocoles de routage hiérarchiques, où le routage est géré par des terminaux chefs (en anglais
5. UDP : User Datagram Protocol
6. TCP/IP : Transmission Control Protocol/Internet Protocol
7. RTP : Real-time Transport Protocol
8
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
head) élus dans le réseau suivant des critères spécifiques, tels que la zone de couverture
et l’énergie des terminaux. Les protocoles AODV 8 [4], OLSR 9 [5], [6] et DSR 10 sont les
protocoles les plus utilisés dans les réseaux mobiles ad hoc. La couche liaison, composée
de deux sous couches de données : LLC 11 et MAC 12 , assure l’échange et la fiabilité de
réception des trames entre deux terminaux voisins (émetteur-récepteur) communiquant
à travers un lien direct. Cette couche envoie des messages d’acquittements (ARQ 13 ) à la
réception de chaque trame. Dans le cas ou l’émetteur ne reçoit pas l’acquittement d’une
trame émise, il retransmet cette trame jusqu’à ce qu’elle soit reçue correctement, ou que
le nombre de retransmissions autorisé soit atteint. Enfin, la couche physique à travers des
techniques de traitement du signal permet d’adapter l’information à transmettre au canal
radio.
Il est important de préciser que le modèle en couches OSI traite l’information à transmettre par les différentes couches d’une manière indépendante. L’objectif du modèle OSI
classique est d’assurer un transfert sans perte de paquets sans pour autant garantir une
qualité de service à une application donnée. Ce mode de fonctionnement, dit best-effort,
a l’inconvénient d’empêcher les couches non voisines de communiquer et d’agir conjointement pour assurer à l’utilisateur une qualité de service acceptable propre à l’application.
Dans cette philosophie ont été introduit des mécanismes, dits cross-layer, permettant aux
couches non voisines d’échanger l’information et d’agir conjointement pour assurer la qualité de service dans le réseau. Ce mode de fonctionnement autorise alors la mise en place
des stratégies de transmission entre deux couches non voisines dans le modèle OSI.
Bien que la notion de cross-layer semble à l’encontre du principe du modèle OSI qui cherche
à assurer l’inter-connectivité des nombreux services et applications les plus variées [7], il
existe des approches cross-layer transparentes qui permettent une communication entre
les couches sans mettre en péril l’ensemble du système [9]. Cette approche a été adoptée
dans [8] pour des applications de transmission hiérarchique de vidéo par réseau.
Dans le cadre de cette thèse nous nous intéressons plus particulièrement aux couches application et physique avec une prise en compte d’un canal de transmission réaliste. Ces
trois éléments constituent les blocs élémentaires de la chaı̂ne de communication numérique
classique présentée dans la section suivante.
1.3
Chaı̂ne de communication numérique
Une chaı̂ne de communication numérique permet de véhiculer l’information entre deux
terminaux dans le réseau, appelés la source et la destination, à travers un support phy8.
9.
10.
11.
12.
13.
AODV : On Demand Distance Vector
OLSR : Optimized Link State Routing Protocol
DSR : Dynamic Source Routing
LLC : Link Layer Control
MAC : Medium Access Control
ARQ : Automatic Repeat reQuest
9
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
sique. Une chaı̂ne de communication en générale, comme définie initialement par Claude
Shannon [10] et illustrée sur la figure 1.3, est constituée de plusieurs blocs à savoir : le
codage de source, le codage de canal, la modulation numérique et le canal de transmission.
Le bloc de codage de source est appliqué au niveau de la couche application du modèle
OSI, alors que les blocs de codage de canal et la modulation numérique se positionnent
au niveau de la couche physique. Tel qu’il a été mentionné précédemment, l’approche
cross-layer permet donc, dans le modèle OSI, une communication directe entre ces deux
couches positionnées aux deux extrémités de la pile.
Le signal original est séparément traité par les différents blocs de la chaı̂ne de communication afin de le restituer aussi fidèlement à la destination. Les opérations effectuées au niveau de chaque bloc seront décrites ci-après, bien que notre attention portera spécifiquement
sur les blocs de codage de source et du canal de transmission.
Figure 1.3: Schéma de la chaı̂ne de communication numérique
1.3.1
Codage de source
1.3.1.1
Définition
Le codage de source consiste à représenter l’information de la source sous forme binaire
pour qu’elle puisse être transmise par un système de transmission numérique [11]. De plus,
le codage de source cherche à représenter l’information de la source par le moins de bits
possibles, ce qui permet d’améliorer le débit utile de la transmission.
On peut distinguer deux types de codage de source selon qu’on encode avec ou sans
perte d’information, appelés respectivement codage avec perte (irréversible) et codage
sans perte (réversible). Ce dernier élimine uniquement la redondance dans l’information
originale. En conséquence le décodeur permettra de reconstituer une version identique à
l’information originale. Quant au codage irréversible, en plus d’éliminer la redondance, il
réduit l’information la moins significative dans l’information originale. Ainsi ce type de
codage introduit de la distorsion appelée distorsion de la source (DS ). Les performances
d’un codeur de source sont évaluées par le paramètre de taux de compression (TC ) qui
représente le rapport entre la taille de l’information avant et après codage de source. Nous
10
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
allons voir rapidement dans ce qui suit le principe du codage de source pour l’image fixe
et la vidéo, appelé couramment compression.
1.3.1.2
Compression d’image fixe
Un système de codage d’image fixe est généralement constitué de trois étapes principales : la transformée, la quantification et le codage entropique. La figure 1.4 illustre les
différents blocs d’un système de compression d’image.
Figure 1.4: Schéma fonctionnel d’un codeur/décodeur de source pour l’image
1.3.1.2.a
Transformée
La transformée permet de décorréler les pixels d’une image et de compacter l’énergie
dans un nombre restreint de coefficients. Le choix de la transformée est primordial lors de
la conception d’un nouveau codeur d’image, car les spécificités de la transformée adoptée
caractériseront les performances et les fonctionnalités du codeur. Plusieurs transformées
linéaires et réversibles sont utilisées dans le domaine de compression d’image, telles que
la transformée en cosinus discrète (DCT 14 ) [12] , la transformée de Hadamard (HT 15 ) et
la transformée en ondelette (DWT 16 ) [13].
1.3.1.2.b
Quantification
L’étape de quantification consiste à attribuer à l’ensemble des coefficients issus de la
transformée des valeurs prises d’un ensemble dénombrable fini. Contrairement à l’étape
précédente, la quantification est une étape irréversible et introduit de la distorsion, ainsi
cette étape est uniquement appliquée à un codage avec perte. Il existe plusieurs types
de quantification tels que la Quantification Scalaire (QS) uniforme et non uniforme et la
Quantification Vectorielle (QV) [11].
14. DCT : Discrete Cosine Transform
15. HT : Hadamard Transform
16. DWT : Discrete Wavelet Transform
11
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
1.3.1.2.c
Codage entropique
Le codage entropique exploite la statistique d’apparition des coefficients de la transformée quantifiée ou pas pour réduire la longueur du code binaire. Plus précisément, un
codeur entropique consiste à accorder un nombre de bits différents (VLC 17 ) aux coefficients à coder de façon à ce que les coefficients d’occurrences fréquentes soient représentés
par des mots binaires courts, et que des mots plus longs soient attribués aux coefficients
moins fréquents.
On considère une variable aléatoire discrète X avec des réalisations xi i = 1, 2, ..., n qui
correspondent aux coefficients de l’image transformée. On définit par P (xi ) la probabilité
d’apparition du coefficient xi . L’entropie de l’image transformée est définie par l’espérance
mathématique de la quantité d’information associée à chaque coefficient, connue par la
limite théorique de l’entropie de Shannon :
H(X) = − ∑ P (xi )log2 (P (xi ))
n
(1.1)
i=1
Il existe plusieurs codeurs entropiques qui permettent d’approcher au mieux la limite
théorique de l’entropie de Shannon. Nous citons à titre d’information le codage de Huffman
propre aux symboles [14], le codage arithmétique propre aux séquences de symboles [15]
et le codage LZW 18 proposé par Ziv et Lempel, qui ne fait pas partie des codes à longueur
variable [16]. Ces codes sont non adaptatifs ou adaptatifs selon que le calcul des P (xi )
est figé ou adaptatif suivant l’avancée dans la chaı̂ne de symboles.
1.3.1.3
Compression de vidéo
Le principe de la compression de vidéo est similaire à celui de la compression d’image
fixe, mais avec une dimension temporelle supplémentaire. En effet, en plus de la redondance spatiale entre les pixels d’une image, on retrouve une autre source de corrélation
entre les images adjacentes de la vidéo appelée redondance temporelle. Ainsi, plusieurs
codeurs de vidéo consistent à exploiter les corrélations spatiale et temporelle à travers
un codage hybride spatio-temporel. Ce type de codage réduit considérablement la redondance dans la vidéo et permet d’atteindre des taux de compression très élevés comparé à
la compression d’images fixes [17].
1.3.1.3.a
Codage spatial
Le codage spatial appelé codage Intra dans un contexte de compression de vidéo est
le même qu’un codage d’image fixe, dont les étapes ont été détaillées précédemment.
Les images compressées par un tel codage sont appelées des images Intra (I). Un groupe
d’images successives entre deux images Intra y compris la première image Intra constituent
17. VLC : Variable Length Code
18. LZW : Lempel Ziv Welch
12
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
un GOP 19 . Contrairement au codage temporel, le codage spatial permet un accès direct
aux images Intra dans la séquence vidéo.
1.3.1.3.b
Codage temporel
Le codage temporel permet quant à lui d’exploiter la redondance temporelle entre des
images successives en codant uniquement la différence entre les deux images. Le processus
du codage temporel, appelé codage prédictif, consiste en trois étapes principales : subdivision ou non de l’image en macroblocs, estimation de mouvement et compensation de
mouvement. En effet, les images peuvent être tout d’abord subdivisées en blocs de taille
variable en fonction de l’activité locale de l’image. Par la suite, l’étape d’estimation de
mouvement cherche dans l’image de référence le bloc le plus ressemblant à celui à coder
dans l’image en cours. Le déplacement appliqué à ce bloc est généralement codé sans perte
pour constituer le vecteur mouvement. Ce dernier est utilisé dans l’étape de compensation
de mouvement de l’image de référence. Au final, le codeur encode par un codage Intra
l’information résiduelle entre l’image à coder et l’image de référence. Il existe deux types
d’images issus d’un codage temporel : les images P (Prédite) et B (Prédiction bidirectionnelle). Ces dernières sont prédites par rapport à deux images de référence de type I ou
P. Quant aux images P, elles sont prédites uniquement par rapport à une seule image de
référence de type I ou P. La figure 1.5 illustre la structure de codage des images de type
I, P et B dans un GOP.
Figure 1.5: Structure d’un GOP constitué de 6 images
1.3.1.4
1.3.1.4.a
Quelques normes de codage multimédia
Codeurs d’image fixe
Codeur JPEG Le groupe JPEG 20 a été créé afin de concevoir une norme internationale
de compression d’image fixe portant le nom du groupe. Le standard JPEG [18], [19], [20]
est certainement l’algorithme le plus utilisé dans le domaine de la compression d’image. Le
19. GOP : Groupe Of Pictures
20. JPEG : Joint Photographic Expert Group
13
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
succès suscité par ce codeur dans le monde industriel peut être expliqué par ses capacités
en terme de compromis entre performances de compression et de complexité de codage.
Les étapes de codage de l’algorithme JPEG, pour une image scalaire, sont données cidessous :
– L’image est découpée séquentiellement en blocs de taille 8 × 8.
– La transformée en DCT bidimensionnelle est appliquée sur chacun des blocs.
– Les coefficients DCT de chaque bloc sont quantifiés par une quantification uniforme
à l’aide d’une table de quantification propre au codeur JPEG.
– Les coefficients quantifiés sont ordonnés suivant un balayage en zig-zag pour donner
une suite de symboles qui sera codée en binaire par un codeur entropique.
Codeur JPEG2000 Le projet JPEG2000 [21], [22] a débuté en 1996 dirigé par Martin
Boliek. L’idée était de proposer une méthode de compression innovante qui intègre diverses
fonctionnalités et objectifs, tels que : des performances en qualité visuelle supérieures à
l’état de l’art, une transmission scalable en qualité, résolution et par région spatiale, un
traitement dans le domaine compressé ainsi qu’une implémentation limitée en mémoire.
Contrairement à son prédécesseur JPEG basé sur la transformée en DCT, JPEG2000 est
basé sur la transformée en ondelettes discrète (DWT). Les principales étapes de fonctionnement du codeur JPEG2000 sont décrites ci-dessous :
– Une étape de prétraitement permet un sous échantillonnage des composantes couleurs et la division de l’image en un quadrillage régulier produisant des tuiles (tiles
en anglais).
– Sur chacune des tuiles, une décomposition en ondelettes est obtenue par application
de la DWT. Cette dernière peut être réversible ou irréversible selon que l’on applique
respectivement les filtres 5/3 de Gall ou les filtres de Daubechies 9/7[21].
– Une quantification scalaire uniforme avec zone morte est appliquée sur chacune des
sous bandes. Une quantification adaptée est généralement utilisée avec un pas de
quantification associé à chaque sous-bande.
– Un codage arithmétique adaptatif, réalisé au moyen d’un encodage par plans binaires
associé à un codeur arithmétique, est appliqué aux symboles issus de la quantification.
Dans le cadre du développement du codeur JPEG2000, plusieurs outils de robustesse aux
erreurs de transmission ont été intégrés au standard. Cependant, ces outils permettent
uniquement de détecter les erreurs, de dissimuler les flux erronés ou de resynchroniser le
décodeur. Ainsi, les méthodes adoptées se sont avérées inadaptées ou insuffisantes pour une
transmission des images JPEG2000 sur des canaux fortement bruités tels que des canaux
radio mobiles. Afin d’assurer une meilleure qualité de service lors de sa transmission sur des
liens caractérisés par un Taux d’Erreur Binaire (TEB) relativement élevé, la communauté
JPEG, dans ses récents travaux, a lancé un nouveau projet (Partie 11) baptisé JPWL
(Wireless JPEG2000).
14
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
Codeur JPWL L’objet de codeur JPWL [23], [24], [25] est de définir une syntaxe
de codage qui permet une transmission plus efficace du flux JPEG2000 sur des canaux
hertziens. La norme JPWL a préservé le schéma de compression de base JPEG2000,
auquel ont été intégrées diverses solutions pour protéger le flux transmis et le rendre plus
robuste aux erreurs de transmission. Ces solutions permettent de décrire la sensibilité
de chacun des flux de l’image vis-à-vis des erreurs, de protéger les entêtes et des flux
de données par des codes correcteurs d’erreurs et de distinguer les erreurs résiduelles
dans le flux reçu. Les nouvelles fonctionnalités adoptées dans le codeur JPWL peuvent
être conjointement utilisées afin de définir des stratégies de transmission intelligentes, telle
qu’une stratégie de transmission UEP 21 . En effet, la stratégie UEP spécifiée dans la norme
JPWL adapte le degré de protection à l’importance de l’information portée par chaque
portion des données compressées. Plus précisément, elle affecte plus de redondance aux
flux qui portent l’information la plus importante et moins pour l’information la moins
importante. L’autre objectif de la norme JPWL est de rester compatible avec le codeur
de base JPEG2000. En effet, ses nouvelles fonctionnalités ont été intégrées de façon à
ce que les propriétés intrinsèques du codeur JPEG2000 restent conservées : le décodeur
JPEG2000 suffit pour décoder un flux JPWL non erroné.
1.3.1.4.b
Codeur de vidéo
Codeur de vidéo H.264/AVC Le standard H.264/AVC 22 [26] a été développé dans le
cadre du projet Joint Video Team (JVT) mené conjointement par le groupe Video Coding
Experts Group (VCEG) de l’organisme ITU-T 23 et le groupe Moving Picture Experts
Group (MPEG) de l’organisme ISO/IEC 24 . L’objectif de cette norme de compression de
vidéo est d’améliorer les performances des codeurs existants en terme de Débit-Distorsion
(en anglais Rate-Distorsion) avec une structure adaptée au transport sur les réseaux.
Afin de répondre à ces besoins, le processus de codage a été conçu en deux couches : la
couche de codage de vidéo (VCL 25 ) et la couche encapsulation (NAL 26 ). Nous abordons
ci-dessous le principe de ces deux couches ainsi que les outils de robustesse aux erreurs
intégrés dans le standard.
1. Couche de codage VCL : la couche VCL permet d’encoder la vidéo avec une
représentation efficace de son contenu. Le principe de codage adopté dans le standard suit le schéma de codage prédictif présenté dans la section 1.3.1.3. Cependant,
plusieurs nouvelles fonctionnalités lui ont été intégrées telles que le traitement de
blocs de plus petite taille, une précision de l’estimation de mouvement de l’ordre 1/4
de pixel, une prédiction avec plusieurs images de référence, une prédiction pondérée
21.
22.
23.
24.
sion
25.
26.
UEP : Unequal Error Protection
H.264/AVC : H.264/Advanced Video Coding
ITU-T : International Telecommunication Union
ISO/IEC : International Organization for Standardization/ International Electrotechnical CommisVCL : Video Coding Layer
NAL : Network Abstraction Layer
15
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
et une prédiction spatiale des blocs des images I. De plus, les deux codeurs entropiques avancés dont dispose le standard H.264/AVC, à savoir le codage à longueur
variable avec adaptation de contexte (CAVLC 27 ) et le codage binaire arithmétique
avec adaptation de contexte (CABAC 28 ), permettent un gain de codage de l’ordre
de 10% à 15% par rapport à l’état de l’art. Ainsi, ces fonctionnalités et d’autres
détaillées dans [26], [27] ont permis au codeur H.264/AVC d’améliorer ses capacités
de compression et de surpasser les performances des codeurs de bases (MPEG-4 [62]
et H.263 [61]).
2. Couche d’encapsulation NAL : La couche NAL permet de formater la présentation du flux issu de la couche VCL et d’intégrer des informations d’entêtes pour un
meilleur traitement par la couche transport des différents systèmes de transmission
ou par les supports de stockage. Chaque entité NAL est composée d’une séquence de
bits correspondants aux données vidéo, encapsulées avec des renseignements relatifs
au contenu de l’unité NAL et de paramètres nécessaires au décodage.
3. Profiles : Le standard H.264/AVC définit trois profiles (base, principal et étendu)
afin de faciliter l’interopérabilité entre les différentes applications de mêmes spécificités.
Chacun de ces profiles supporte un ensemble spécifique de fonctions de codage et
spécifie la conformité d’un couple codeur/décodeur. Le profile étendu qui intègre
toutes les méthodes de robustesse aux erreurs de transmission est le profile le plus
adapté aux applications de transmissions sur des canaux radio.
4. Codeur robuste aux erreurs de transmission : le standard H.264/AVC étant
destiné pour des applications de transmission sur une variété de normes de communications sans fil, il intègre plusieurs outils et stratégies de robustesse aux erreurs
de transmission. Les entêtes transportent une information d’importance tout particulière, ainsi la perte de cette information intrinsèque entraine des dégradations
considérables sur la vidéo décodée. Afin d’améliorer la qualité des vidéos reçues,
les entêtes sont réparties dans le flux d’une manière particulière et flexible de telle
façon à ce que leur perte n’entraine pas des interruptions importantes au processus de décodage. Les images dans le codeur H.264/AVC sont divisées en plusieurs
parties (slices) de taille flexible indépendamment décodables. Ainsi, la perte d’un
paquet entraine uniquement la perte d’une partie de l’image et non pas sa totalité.
Le codeur H.264/AVC permet aussi de transmettre une copie d’une image ou une
région de l’image généralement codée à bas débit. Le décodeur exploite cette redondance en cas de perte de la version originale de l’image. Deux autres mécanismes de
robustesse sont intégrés dans le codeur appelés ordre de décodage flexible des macroblocs (FMO 29 ) et ordre de décodage flexible des slices (ASO 30 ). Ces deux solutions
permettent une grande flexibilité dans l’ordre de transmission et réception des slices
et des macroblocs, ce qui améliore considérablement les performances des systèmes
27.
28.
29.
30.
16
CAVLC :Context-Adaptive Variable-Length Coding
CABAC : Context-Adaptive Binary Arithmetic Coding
FMO : Flexible Macroblock Ordering
ASO : Arbitrary Slice Ordring
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
de vidéo temps réel. Pour plus de détails sur les outils de robustesse implémentés
dans le standard H.264/AVC le lecteur pourra se référer à [27], [28], [29].
1.3.2
Codage de canal et modulation numérique
L’objectif du codage de canal est de protéger l’information issue du codeur de source
contre les perturbations du canal. La protection est réalisée à l’aide des Codes Correcteurs
d’Erreurs (CCE) qui consistent à rajouter de la redondance à l’information d’une manière
contrôlée [36]. Cette redondance est exploitée par le décodeur pour détecter voire corriger
certaines erreurs de transmission. Un CCE est défini par son rendement Rc qui quantifie
le rajout d’information (redondance) qu’il introduit. Ainsi, si un CCE encode un bloc de
taille k en un bloc de taille n, avec n > k, le rendement sera Rc = k/n. Ainsi, plus R est
petit plus le CCE introduit de la redondance et plus sa capacité de corriger les erreurs est
grande, et vice-versa.
Les performances d’un CCE sont évaluées par son gain de codage calculé par rapport à un
système sans codage de canal. Le gain de codage mesure l’écart en dB entre les Rapport
Signal à Bruit (RSB) nécessaires à deux systèmes avec et sans codage pour atteindre la
même valeur de TEB. Cependant, afin de réaliser une comparaison équitable il faudrait
compenser la redondance introduite par le CCE. Par exemple, si un système de transmission sans CCE transmet à une énergie binaire Eb , le système avec codage transmet
les bits codés à une énergie plus faible de Ec = Rc Eb . La valeur du gain de codage est
souvent donnée sous la forme d’un gain de codage asymptotique γ, c’est-à-dire pour un
RSB infini[36].
Les CCE étaient initialement classés en deux grandes familles : les codes en blocs linéaires
[36] et les codes convolutifs [37]. Depuis l’apparition des Turbo-codes [40], une nouvelle
classification est apparue qui sépare les CCE selon leur capacité d’approcher la limite
théorique d’entropie de Shannon. Les turbocodes et les codes LDPC [41] constituent alors
la classe des codes approchant la limite théorique de Shannon, et les codes convolutifs et
les codes linéaires en bloc qualifiés des codes d’ancienne génération.
La modulation numérique permet d’adapter l’information codée au support de transmission. La modulation, quelle soit dite analogique ou numérique, consiste à faire varier un paramètre de l’onde porteuse en fonction du signal qui constitue l’information à
transmettre, appelé signal modulant. On distingue plusieurs types de modulations selon
que le signal modulant modifie l’amplitude, la phase ou la fréquence de l’onde porteuse
pour obtenir respectivement la modulation d’amplitude (PAM 31 ), de phase (PSK 32 ) et
de fréquence (FSK 33 ). Dans le cadre de cette thèse nous allons utiliser une modulation
combinée amplitude-phase (QAM 34 ). Pour cette modulation, le signal modulant modi31.
32.
33.
34.
PAM : Pulse Amplitude Modulation
PSK : Phase Shift Keying
FSK : frequency Shift Keying
QAM : Quadrature Amplitude Modulation
17
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
fie à la fois l’amplitude et la phase de la porteuse, ce qui lui offre un degré de codage
supplémentaire par rapport aux modulations de base d’amplitude ou de phase. Les performances de la modulation QAM en terme d’efficacité de codage et de résistance aux
erreurs de transmission lui ont permis d’être adoptée dans la couche physique de nombreuses normes de transmission récentes, telles que les normes IEEE802.11a/g/n [42],
802.16 (WiMax) [43] et LTE 35 [44], DVB 36 .
Dans le cas d’un canal de Rayleigh sélectif en fréquence [30], il est nécessaire de procéder
à des techniques d’égalisation [11] si l’on veut éviter les Interférences Entre Symboles
(IES). Cependant, ces techniques sont généralement lourdes et couteuses. La modulation
OFDM 37 [46] est une bonne alternative aux techniques d’égalisations puisque elle est
efficace face aux IES, très simple à implémenter et s’accommode avec les modulations
numériques évoquées précédemment. La modulation OFDM a aussi été adoptée dans de
nombreux standards de transmission offrant le haut débit [45], [43], [44].
1.3.3
Canal de transmission
Le canal de transmission est un support physique permettant de transmettre l’information entre un émetteur et un récepteur. Dans le cas d’une communication sans fil, c’est
l’onde électromagnétique qui assure l’acheminement de l’information vers le récepteur.
Dans cette section nous allons aborder les modèles les plus souvent adoptés pour caractériser un canal sans fil.
1.3.3.1
Modélisation théorique du canal
D’un point de vue de la théorie de l’information, le canal peut être modélisé par deux
variables aléatoires X et Y qui représentent respectivement la source et la destination. Ces
variables possèdent respectivement des réalisations xi et yj i = 1, 2, ..., n, j = 1, 2, ..., m avec
des probabilités d’apparition P (xi ) et P (yj ). En effet, la source transmet ses symboles xi
sur un canal introduisant des erreurs. La destination reçoit cette information perturbée à
travers la variable aléatoire Y. L’information mutuelle moyenne entre X et Y s’écrit sous
la forme suivante [11] :
I(X; Y ) = ∑ ∑ P (xi , yj )log2 (
n
m
i=1 j=1
P (xi ∣yj )
)
P (xi )
(1.2)
En appliquant le théorème de Bayes sur la formule (1.2), on peut aisément montrer que
I(X; Y ) = I(Y ; X), d’où le terme d’information mutuelle.
On peut constater que lorsque les variables aléatoires X et Y sont statistiquement indépendantes, l’information mutuelle moyenne est nulle ce qui signifie que l’information transmise
est totalement perdue. D’autre part, lorsque les occurrences de Y déterminent exactement
35. LTE : Long Term Evolution
36. DVB : Digital Video Broadcasting
37. OFDM : Orthogonal Frequency Division Multiplexing
18
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
les occurrences de X, l’information transmise est reçue sans erreur. Dans ce cas, l’information mutuelle moyenne est égale à l’entropie de X, soit H(X) donnée par l’équation (1.1).
On définit aussi l’entropie conjointe entre X et Y par [11] :
H(X∣Y ) = − ∑ ∑ P (xi , yj )log2 (P (xi ∣yj ))
n
m
(1.3)
i=1 j=1
L’entropie conjointe H(X∣Y ) représente la quantité d’information perdue sur X lors de
la transmission. On peut alors exprimer l’information mutuelle en fonction de l’entropie
de X et de l’entropie conjointe H(X∣Y ) :
I(X; Y ) = H(X) − H(X∣Y )
(1.4)
La figure 1.6 illustre la relation entre les différentes entropies du canal.
Figure 1.6: Illustration des entropies du canal
Les canaux les plus utilisés dans la théorie de l’information sont le Canal Binaire
Symétrique (CBS) et le canal à Bruit Blanc Additif Gaussien (BBAG).
Le CBS, dont les occurrences d’entrée et de sortie sont définies dans un alphabet binaire
X = {0, 1} et Y = {0, 1}, est entièrement modélisé par un jeu de probabilités appelé
probabilités de transition [11]
p
1−p
P (yi ∣xi ) = [
]
1−p
p
(1.5)
La première diagonale de la matrice de transition portant la probabilité p concerne les
cas de transmission sans erreur. Quant à la seconde diagonale portant la probabilité 1 − p,
elle concerne le cas de transmission avec erreurs. La figure 1.7 illustre le principe du CBS.
Le canal BBAG à entrée discrète et à sortie continue est défini quant à lui dans
l’alphabet d’entrée X = {x1 , ..., xn } et de sortie Y ∈ R .
La relation d’entrée-sortie s’écrit sous la forme suivante :
Y =X +G
(1.6)
19
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
Figure 1.7: Diagramme du canal binaire symétrique
où G est une variable aléatoire Gaussienne de moyenne nulle et de variance σ 2 . Ainsi, pour
G indépendante de X et X = xk , la variable aléatoire Y devient Gaussienne de moyenne
xk et de variance σ 2 et sa probabilité de transition est déterminée par l’équation suivante :
1.3.3.2
(y − xk )2
1
)
exp (−
P (y∣X = xk ) = √
2σ 2
2πσ
(1.7)
Canaux radio mobiles
La figure 1.8 est une bonne illustration pour représenter les différentes dégradations de
la puissance reçue dans un environnement radiomobile. On peut constater que la puissance
reçue subit des atténuations de différentes natures liées aux spécificités environnementales
et à la mobilité de l’émetteur et du récepteur dans l’environnement.
Les atténuations d’un canal radio mobile se présentent sous trois formes d’atténuations
différentes, à savoir les atténuations à grande échelle (Large-scale propagation effects), à
moyenne échelle (average-scale propagation effects) et à petite échelle (Small-scale propagation effects).
Une atténuation à grande échelle représente l’atténuation moyenne du signal reçu sur des
distances d’une centaine de longueurs d’onde. Ces atténuations dépendent principalement
de la distance entre l’émetteur et le récepteur et de l’atténuation des obstacles dans environnement.
L’atténuation à moyenne échelle se présente sous la forme de variations de la puissance
reçue sur des distances de l’ordre d’une dizaine de longueurs d’onde, entrainées principalement par le blocage du signal par les différents obstacles de l’environnement disposés
sur la trajectoire des ondes.
Enfin, l’atténuation à petite échelle se présentent sous la forme de fluctuations du signal reçu sur des distances de l’ordre de la longueur d’onde. Ces variations sont dues au
phénomène physique de trajets multiples [30].
Les trajets multiples sont causés par l’interaction de l’onde avec des diffuseurs (bâtiments,
arbres, personnes, etc.) situés sur sa trajectoire. Ainsi, le signal reçu au niveau du récepteur
consiste en une superposition d’ondes provenant de toutes les directions due aux phénomènes de réflection, diffraction et transmission. Dans le cas de transmission de signaux
numériques sous la forme d’impulsions nous observons l’apparition de répliques de ces
20
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
Figure 1.8: Variations de la puissance reçue dans un canal radio mobile
impulsions au niveau du récepteur. L’ensemble de ces répliques constitue la Réponse
Impulsionnelle (RI) du canal [30]. La figure 1.9 illustre le phénomène de propagation
multi-trajets dans un environnement urbain.
En plus de ces différents évanouissements du signal est associé l’effet Doppler. Celui-ci
est dû à la mobilité des terminaux et/ou de l’environnement, et provoque un décalage
fréquentiel de chacune des ondes qui compose le signal reçu. Cela se traduit par une
expansion fréquentielle du spectre du signal durant la transmission et, dans le domaine
temporel, par une variation de la RI en fonction du temps.
1.3.3.3
Modélisation de canaux radio mobiles
Il existe dans la littérature de nombreux modèles permettant de prédire le comportement des différents phénomènes du canal radio mobile. Ces modèles peuvent être classés
selon plusieurs critères. Ils peuvent par exemple être identifiés suivant le type de variations
qu’ils modélisent, c’est cette classification qui est généralement adoptée dans la plupart des
livres de communications numériques [30], [34]. Dans cette section nous allons présenter
les différentes modélisations du canal appartenant à deux familles : modèles statistiques
et déterministes.
21
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
Figure 1.9: Phénomènes de propagation de l’onde dans un environnement urbain
1.3.3.3.a
Modèles déterministes
Modèle en espace libre Ce modèle permet de modéliser les variations à grande échelle
en calculant la puissance reçue dans le cas d’une transmission idéale, soit l’émetteur et
le récepteur sont en visibilité directe et la communication se fait uniquement à travers le
trajet direct (LOS 38 ).
La puissance reçue est donnée par la loi de Friis [31] :
P Y = PX G X G Y (
λ 2
)
4πd
(1.8)
où PX et PY représentent respectivement les puissances d’émission et de réception en
Watt, GX et GY représentent respectivement le gain des antennes de transmission et de
réception, λ est la longueur d’onde en mètre et d est la distance parcourue par l’onde
transmise en mètre. A partir de cette formule nous pouvons constater que la puissance
reçue dépend uniquement de la longueur d’onde et de la distance (atténuation en d2 )
entre l’émetteur et le récepteur. Cependant, dans le cas des transmissions radio-mobiles
terrestres, où l’onde est atténuée par les différents obstacles de l’environnement, cette
relation n’est plus vérifiée [31].
Modèle à deux rayons Le modèle à deux rayons modélise aussi les variations à grande
échelle du canal. Ce modèle est plus réaliste que son prédécesseur, puisque le signal reçu
est le résultat du trajet direct (Path LOS) interféré avec le trajet réfléchi par le sol. Dans
38. LOS : Line Of Sight
22
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
de telles conditions de propagation, la puissance reçue s’écrit sous la forme suivante [31] :
PY = 4PX GX GY (
λ 2 2 2πhX hY
) sin (
)
4πd
λd
(1.9)
où hX et hY représentent respectivement la hauteur en mètre des antennes de l’émetteur
et du récepteur par rapport au sol. Si la condition d >> hX hY est vérifiée, l’expression
(1.9) peut alors être approximée par [31] :
PY = PX G X G Y (
hX hY 2
)
d2
(1.10)
Nous pouvons, par ailleurs, constater que la puissance reçue ne dépend plus de la fréquence,
mais elle subit une atténuation en d4 . Ce modèle, est de même, loin de représenter la propagation de l’onde dans un environnement urbain, mais il est toutefois un bon modèle
pour des environnements moins denses tels que les autoroutes ou les routes dans des zones
rurales [30].
Modèle à exposant (log-distance path-loss model) Le modèle à exposant [35]
modélise les variations à grande échelle du canal. Ce modèle est basé sur le modèle en
espace libre plus une atténuation supplémentaire liée à la nature de l’environnement de
propagation. La puissance reçue pour ce modèle est donnée par l’expression suivante [35] :
PY = P Y 0 (
d0 β
)
d
(1.11)
où PY 0 représente la puissance reçue obtenue par le modèle en espace libre à une distance
de référence d0 généralement fixée à 1 mètre, et β l’exposante d’atténuation. Ce modèle
considère l’environnement à travers la composante exponentielle β. La valeur de β est
évaluée empiriquement dans différents environnements de propagation. Par exemple, pour
un environnement en espace libre, β prend la valeur 2 alors que pour un environnement
urbain, β prend ses valeurs dans l’intervalle [2.5, 6] selon la densité de l’environnement
[35].
Modèles à rayons Les modèles à rayons entrent dans la famille des méthodes asymptotiques développées pour répondre à des problèmes d’électromagnétiques de grandes
envergures comme la simulation de la propagation d’ondes électromagnétiques en environnements réels [38]. Ces méthodes sont basées sur l’Optique Géométrique (OG) et la
Théorie Uniforme de la Diffraction (TUD), où l’onde électromagnétique est assimilée à des
rayons. Cette approche est largement adoptée à la conception de logiciels de simulation du
canal de propagation qui nécessitent, à leur tour, des méthodes pour identifier les trajets
se propageant entre un émetteur et un récepteur. Deux modèles découlent directement de
ces méthodes : les modèles à tracé et à lancer de rayons.
23
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
1. Modèle à lancer de rayons : le principe de la méthode à lancer de rayons consiste
dans un premier temps à inonder l’environnement de rayons partant de l’émetteur.
Suivant le parcours de chaque rayon, l’algorithme détermine les différentes interactions électromagnétiques entre les rayons et les obstacles constituant l’environnement étudié. L’algorithme considère la géométrie et les propriétés électriques des
matériaux rencontrés, et seul les trajets passants à proximité du récepteur sont retenus pour le calcul des trajets. La précision des résultats obtenus par la méthode
à lancer de rayons dépend du nombre de rayons à lancer et du pas angulaire choisi
pour couvrir l’environnement 3D. De plus, le nombre de rayons qui sont exploités
dépend du pas angulaire considéré.
2. Modèle à tracé de rayons : Le modèle à tracé de rayons [32],[33] détermine sans
aucune approximation les rayons qui peuvent se propager d’un émetteur vers un
récepteur. L’opération de recherche des rayons qui existent entre le couple émetteurrécepteur se fait soit par la méthode des images ou celle de pliage [39]. L’atténuation
de chacun des trajets reçus est alors déterminée par la somme de l’atténuation causée
par l’interaction de l’onde avec les obstacles en prenant en compte les propriétés
électriques des matériaux et l’atténuation liée à la partie de propagation de l’onde
en espace libre calculée par la loi de Friis. Le tracé de rayons est plus précis que
le lancer de rayon, puisque il calcule les trajets de manière déterministe entre un
émetteur et un récepteur. Cependant, contrairement au modèle à lancer de rayons,
il est nécessaire de recourir à une simulation pour chaque configuration d’émetteurrécepteur.
Le choix d’une méthode dépend alors d’un compromis entre le temps de simulation et
la précision souhaitée des résultats. Néanmoins, ces modèles présentent des inconvénients
communs. D’une part, la validité des résultats obtenus par des deux méthodes dépend du
degré de description de l’environnement, alors qu’il est difficile de modéliser avec précision
les environnements de propagation. D’autre part, ces deux méthodes nécessitent un temps
de calcul relativement long causé par la complexité des algorithmes utilisés.
1.3.3.3.b
Modèles statistiques
Les modèles statistiques [34] prédisent de manière stochastique le comportement du
canal sur de larges zones. Généralement ces modèles sont moins précis que les modèles
déterministes et associent une loi statistique à un ensemble d’environnements ou de configurations de transmission partageant les mêmes spécificités. Cependant, ils ont l’avantage
d’être simples, et nécessitent de faibles capacités et temps de calcul. Nous allons présenter
dans ce qui suit les modèles les plus utilisés pour modéliser canal radio mobile dans un
contexte de réseau sans fil.
Modèle log-normale Shadowing Le modèle log-normale Shadowing permet de modéliser les variations à moyenne échelle du canal radio mobile. Il a été montré empiriquement
24
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
dans des environnements Indoor et Outdoor que les variations entrainées par le Shadowing (bourrage) évoluent suivant une loi log-normale [30]. Ainsi, le modèle statistique
log-normale Shadowing a été largement adopté pour estimer le rapport entre la puissance
émise et reçue ψdB = 10log PPXY par la distribution log-normale :
(ψdB − µψdB )
1
exp (−
)
P (ψdB ) = √
2σψdB 2
2πσψdB
2
(1.12)
2
où µψdB est la moyenne de loi la log-normale en dB et σψdB
est sa variance. La valeur
de la moyenne µψdB correspond à l’atténuation moyenne du signal reçu qui peut être
2
calculée par les modèles d’atténuation à grande échelle. Quant à la variance σψdB
elle est
généralement fixée empiriquement dans l’intervalle [3, 13] dB selon l’environnement que
l’on souhaite modéliser [30].
Modèle de Rayleigh Le modèle de Rayleigh modélise à l’aide de la distribution de
Rayleigh les variations rapides de l’amplitude du signal reçu. Lorsque le signal reçu Y est
la somme d’un grand nombre de trajets (n >> 1) d’amplitudes ∣yi ∣ faibles et de même ordre
de grandeur, et que la valeur de la phase ϕi de chaque trajet est uniformément répartie sur
l’intervalle [−π, π], on peut alors considérer la densité de probabilité (ddp) de la somme
des trajets reçus comme une Gaussienne. En effet, les valeurs d’amplitude et de phase
représentent les réalisations de deux variables aléatoires Gaussiennes indépendantes. En
conséquence, d’après le théorème central limite, la ddp de la somme des variables yi est
aussi Gaussienne. Dans une transmission réelle, ces conditions sont souvent vérifiées lors
d’une communication NLOS 39 dans un environnement de propagation riche en multitrajets. Dans de telles conditions, l’amplitude Z du signal reçu Y est décrite par la ddp
de Rayleigh [34] :
z
z2
PZ (z) = 2 exp (− 2 )
(1.13)
σ
2σ
avec 2σ 2 la puissance moyenne efficace du signal reçu.
Modèle de Rice Le modèle de Rice modélise aussi les variations rapides de l’amplitude
du canal radio mobile par la distribution de Rice. Lorsque l’émetteur et le récepteur sont
en visibilité directe, les statistiques de l’amplitude et de la phase ne correspondent plus
au cas précédent. On peut alors montrer que dans de telles conditions que la ddp de
l’amplitude Z du signal Y suit la ddp de Rice [34] :
√
K(K + 1) ⎞
(K + 1)z 2 ⎛
2z(K + 1)
exp
(−K
−
)I
2z
(1.14)
PZ (z) =
0
⎝
⎠
z¯2
z¯2
z¯2
avec I0 (x) la fonction de Bessel modifiée de 1ére espèce, d’ordre 0.
Considérant A l’amplitude du trajet prédominant, z¯2 = 2σ 2 + A2 est la valeur efficace de
39. NLOS : Non Line Of Sight
25
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
2
A
z et K = 2σ
2.
On peut constater que quand K = 0 on retrouve la ddp de Rayleigh. D’autre part, on
remarque que lorsque K → +∞, la ddp de Rice devient Gaussienne.
Modèle de Nakagami En supplément aux distributions de Rayleigh et Rice, il existe
d’autres lois plus générales telles que la distribution de Nakagami qui peut être paramétrée
suivant les conditions et l’environnement de propagation. Les variations de l’amplitude Z
du signal reçu Y suivant la distribution de Nakagami est donnée par la formule suivante
[34] :
2mm z 2m−1
mz 2
PZ (z) =
exp
(−
), m > 0.5
(1.15)
Γ(m)Ωm
Ω
avec Ω = E[Z 2 ] est la puissance moyenne reçue et Γ(.) la fonction Gamma.
La distribution de Nakagami est donc paramétrée par Ω et le paramètre de fading m. Par
exemple pour m=1, la distribution de Nakagami est réduite à la distribution de Rayleigh,
alors que pour m = (K +1)2/(2K +1), elle approxime la distribution de Rice. Dans d’autres
configurations, la distribution de Nakagami peut aussi approximer d’autres lois telle que
la loi log-normal [34].
1.4
Stratégies de transmission multimédia
Rappelons que l’objectif d’une stratégie de transmission est de faire face aux inconvénients et limites des protocoles classiques proposés au niveau des différentes couches
du modèle OSI, et d’assurer la qualité de service des applications les plus variées. Le
protocole T CP implémenté au niveau de la couche transport permet d’assurer la fiabilité
d’une communication entre une source et une destination par des mécanismes basés sur
l’envoi d’acquittements et de retransmissions. Cependant, cette solution ne garantit pas
un délai de réception de paquets qui est une contrainte intrinsèque des applications temps
réel. De plus, lorsque la qualité du canal est dégradée, le nombre de retransmissions et
d’acquittements générés par ce protocole devient très important, ce qui contribue à accentuer davantage la congestion dans le réseau. Une stratégie de transmission est alors
nécessaire si l’on veut assurer la qualité de service des applications de transmission temps
réel de vidéo.
Les stratégies de transmission de données multimédias peuvent être classées en deux
classes principales. La première classe concerne les stratégies intervenant au niveau du
codage de source, alors que les stratégies appartenant à la seconde classe interviennent
conjointement entre le codeur de source et le codeur de canal.
Afin de montrer que le problème de transmission temps réel de vidéo est différent de
celui présenté dans le théorème de séparation de Shannon [10], nous allons tout d’abord
rappeler ce théorème et donner ces limites. Par la suite, nous présentons les stratégies de
transmissions proposées dans la littérature pour garantir la qualité de service des applications de transmission de vidéo. Dans la dernière partie de cette section, nous présentons
26
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
des travaux qui adoptent des stratégies de transmission de vidéo dans un contexte de
transmission offrant un niveau de diversité supplémentaire : la diversité spatiale et la
diversité des routes dans les réseaux ad hoc.
1.4.1
Principe et limites du théorème de séparation
On peut constater que dans la chaı̂ne de communication numérique classique présentée
par Shannon, le codage de source et le codage de canal sont représentés par deux blocs
séparés. Cela revient aux travaux de Shannon sur la capacité du canal [10], dans lesquels
il montre que le codage de source nécessite uniquement l’information sur le canal pour
atteindre les performances de transmission optimales. En effet, le canal de transmission
n’introduit aucune erreur voire très peu d’erreurs, à condition que l’information soit transmise à un débit inférieur à la capacité du canal. La distorsion totale de l’information reçue
correspondant à la somme des distorsions introduites par le codage de source et le canal
de transmission (DT = DS + DCh ) est alors réduite à la distorsion de la source, puisque
la distorsion du canal est très faible ou nulle (DCh ≈ 0). D’après ce théorème, il suffit de
minimiser la distorsion de la source indépendamment du codage de canal pour atteindre
les performances optimales. Cela implique qu’il n’est en aucun cas utile d’adopter des
stratégies de codage conjoint source-canal pour la transmission.
Cependant, ce théorème de séparation est vrai uniquement sous certaines hypothèses rarement vérifiées en pratique. En effet, le problème formulé par Shannon suppose que les
codeurs de source et de canal encodent des séquences d’information stationnaires et ergodiques de longueur infinie. De plus, il suppose que la capacité du canal est parfaitement
connue au niveau de la source. Ces hypothèses ne sont pas vérifiées en pratique, sachant
que les systèmes de codage et de transmission adoptés dans les standards récents [26], [42],
[43], [44] traitent l’information par blocs de taille relativement petite, sur lesquels le canal
radio introduit des erreurs significatives même en transmettant à un débit inférieur à la
capacité du canal. De plus, le canal radio mobile est difficile à caractériser d’une manière
précise, car il varie dans le temps d’une manière imprévisible. D’autres contraintes liées
à la nature de l’application et des équipements utilisés ne sont pas considérées dans le
théorème de Shannon, telles que la contrainte de délai des applications temps réel ainsi que
la capacité de calcul et l’énergie limitées des équipements mobiles. Toutes ces contraintes
font que le problème de transmission temps réel de vidéo traité en pratique soit différent
de celui qui est décri dans le théorème de Shannon. Il est alors primordiale d’adopter des
stratégies de codage conjoint source-canal si l’on veut atteindre de meilleures performances
de transmission et assurer une qualité de service propre à ce type d’applications.
1.4.2
Codage de source
1.4.2.1
Insertion de marqueurs
La plupart des standards de compression d’image fixe et vidéo adoptent un codeur
entropique ou arithmétique de codes à longueur variable pour éliminer la redondance
27
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
statistique des coefficients issus de la transformée. Cependant, un tel codage est très
sensible aux erreurs de transmission, car une seule erreur dans le flux peut provoquer
une désynchronisation du processus du décodage. Cette désynchronisation peut avoir une
conséquence drastique sur la qualité de l’image ou de la vidéo décodée. Afin de faire face à
ces dégradations et de limiter la propagation de l’erreur dans l’ensemble de l’image ou du
GOP pour la vidéo, une solution simple, appliquée au niveau du codeur de source, consiste
à introduire des marqueurs dans le flux. Ces marqueurs sont soit constitués de séquences
binaires qui ne font pas partie de l’alphabet de la source, appelées symboles interdits
(SI), soit insérés à des positions connues par le décodeur. Ainsi, cette technique permet
de détecter les erreurs de transmission et de resynchroniser le flux en cas de présence
d’erreurs. La fréquence et la longueur des marqueurs de synchronisation sont réglées selon
le niveau de redondance désiré et du taux de d’erreur binaire du canal de transmission.
Cette solution a été largement adoptée dans les standards de compression de données
multimédia. Il a été montré que cette solution est suffisante pour transmettre des images
JPEG-2000 sur un canal à faible TEB, sans faire appel à des techniques de correction
d’erreurs qui sont généralement plus complexes [48]. Les travaux effectués dans [47] illustrent le gain significatif apporté par l’utilisation des marqueurs de synchronisation pour
la transmission de vidéo H.263 [61] sur un canal introduisant des pertes de paquets.
1.4.2.2
Codage par descriptions multiples
Le codage par descriptions multiples (MDC 40 ) est une technique de codage de source
typiquement adaptée à la transmission de flux multimédia par réseaux avec pertes de
paquets. Le principe du codage par descriptions multiples consiste à coder l’information
en n flux corrélés transmis sur n canaux indépendants. Un exemple d’un MDC avec deux
canaux et trois récepteurs est illustré sur la figure 1.10. Le codeur encode l’information
en deux descriptions qui seront transmises sur deux canaux indépendants. Les décodeurs
un et deux reçoivent uniquement un des deux descripteurs, ce qui leur permet de reconstruire l’information avec une qualité de base, alors que le décodeur zéro exploite les deux
descripteurs pour une reconstruction de l’information avec une meilleure qualité.
On peut constater que le codage par descriptions multiples introduit de la redondance
entre les descripteurs. Les performances théoriques en terme de débit distorsion (R-D 41 )
d’un codage à deux descripteurs ont été évaluées par Ozarow [49], considérant une source
gaussienne sans mémoire et une mesure de distorsion quadratique. Les performances pour
une source non gaussienne étant non connues, les bornes interne et externe de la région
débit distorsion ont été étudiées par Zamir dans [50]. Une étude théorique et pratique
détaillée sur le codage par descriptions multiples est aussi effectuée dans les références
[51], [52].
40. MDC : Multiple Description coding
41. R-D : Rate Distortion
28
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
Figure 1.10: Principe du codage par descripteurs multiples [51]
Un codeur par descriptions multiples a donc un double objectif. Le premier est de
produire les descripteurs indépendamment décodables et équilibrés pour que tous les
récepteurs puissent reconstruire l’information avec une qualité acceptable (décodeurs
latéraux). D’autre part, les performances de codage en terme de débit-distorsion, lorsque
tous les descripteurs sont correctement reçus (décodeur central), doivent être aussi proches
que possible des performances d’un codeur classique (SDC 42 ).
Il existe plusieurs méthodes pour construire les descripteurs. Nous allons dans ce qui suit
présenter les méthodes les plus utilisées, tout en évoquant quelques exemples de leurs
applications sur le codage de vidéo.
1.4.2.2.a
Codage MDC par sous-échantillonnage
Le sous-échantillonnage de l’information représente la méthode la plus simple pour
générer les descripteurs multiples. Une étude théorique de performances d’un codage par
sous-échantillonnage en deux descripteurs, considérant une source corrélée générée par un
modèle auto-régressif d’ordre 1, est effectuée dans la référence [51]. Lorsque le nombre
de descripteurs est faible, le descripteur perdu peut être estimé avec une faible distorsion
à partir des descripteurs correctement reçus. L’inconvénient principal de cette méthode
réside dans la perte significative de codage en terme de débit-distorsion lorsque le nombre
de descripteurs devient important. Cela revient au principe qu’un codage indépendant
de n descripteurs corrélés est moins efficace que leur codage conjoint. La construction
des descripteurs par sous-échantillonnage a été largement adoptée dans le codage d’image
fixe [53] et de vidéo [54], [55], [56]. Le sous-échantillonnage peut être appliqué dans le
domaine temporel par entrelacement temporel des images de la séquence vidéo [54], dans
le domaine spatial par entrelacement des pixels [55] ou dans le domaine transformée par
entrelacement des vecteurs mouvements [56] et des coefficients de la transformée [53].
42. SDC : Single Description coding
29
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
1.4.2.2.b
Codage MDC par quantification
Les travaux sur le codage par descriptions multiples basé sur une quantification scalaire
(MDSQ 43 ) ont été introduits pour deux descripteurs par Vaishampayan dans [57], puis
généralisés dans [58] à n descripteurs. Le principe de ce codage consiste à affecter à chaque
coefficient de la source un symbole par description. La corrélation entre les symboles des
différents descripteurs permet d’estimer le coefficient codé, avec une distorsion donnée,
uniquement à travers les descripteurs reçus correctement. Ces méthodes de codage ont
été appliquées au codage de vidéo par descripteurs multiples dans [59], [60].
1.4.2.2.c
Codage MDC par transformée
Le codage par descriptions multiples basé sur une transformée est sans doute la
méthode la plus appliquée pour le codage de vidéo. On peut distinguer deux types de
codage basés sur une transformée selon que l’on utilise une transformée corrélante ou
progressive.
Le principe de codage par descriptions multiples basé sur une transformée corrélante a
été introduit par Wang [63] pour deux descripteurs. L’idée de base consiste à appliquer
une transformée linéaire non-orthogonale sur deux variables décorrélés. Cette transformée
introduit de la corrélation entre ces deux variables, constituant ainsi les deux descripteurs
à transmettre sur deux canaux indépendants. La corrélation introduite est contrôlée par
la transformée utilisée et la réception d’un seul descripteur permet d’estimer le descripteur perdu. Cependant, une faible redondance entre les variables d’entrée engendre une
grande perte de codage en terme de débit distorsion. Cette solution a été généralisée pour
n descripteurs dans [64].
Un codeur vidéo adoptant cette méthode pour générer deux descripteurs a été présenté
dans [65], [66]. Le codeur utilise trois boucles de prédiction (une centrale et deux latérales)
prenant en compte toutes les configurations du décodeur, avant d’appliquer la transformée
linéaire non-orthogonale sur l’erreur de prédiction centrale pour générer les deux descripteurs à transmettre sur deux canaux disjoints.
Le codage par descriptions multiples basé sur une transformée progressive exploite
la représentation de l’information après la transformée pour construire les descripteurs.
Dans [67], [68] cette technique est appliquée au codage de vidéo par la transformée en
ondelettes. En effet, les coefficients les plus importants qui permettent de reconstruire la
vidéo avec une basse qualité sont répétés dans tous les descripteurs, alors que l’information d’amélioration est répartie entre les descripteurs. La réception d’un des descripteurs
permet alors de construire une vidéo de qualité de base, et la réception de plus d’un descripteur permet d’améliorer la qualité de la vidéo en exploitant les flux de basse fréquence.
43. MDSQ : Multiple Description Scalar Quantization
30
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
1.4.2.3
Décodeur de source
Après codage par un codeur VLC, une redondance résiduelle est toujours présente dans
l’information. Dans [69] cette redondance a été classée en quatre différents types de redondances, à savoir la redondance liée à l’orthographe, la redondance liée à la paquétisation
pour la transmission, la redondance liée à la sémantique du code et la redondance liée à
la source Markovienne. L’idée consiste alors à exploiter ces redondances par le décodeur
pour corriger les erreurs de transmission et améliorer la fiabilité du décodage à moindre
coût. Les premiers travaux ont été proposés par Massey [70] pour le décodage souple des
données codées par un codeur de source faisant intervenir des codes à longueur variable.
Le décodeur souple utilise un critère de vraisemblance, ou un critère de probabilité a
posteriori, pour trouver parmi un ensemble de séquences possibles, celle qui correspond
le plus à la séquence des symboles bruités reçus. En effet, la recherche est effectuée d’une
manière exhaustive dans l’ensemble de mots de codes possibles. La redondance résiduelle
est alors exploitée pour réduire l’ensemble de recherche, en excluant de cet ensemble les
séquences de mots de code dont les contraintes liées au codage de source ne sont pas
satisfaites, permettant un décodage avec correction d’erreurs à faible complexité.
Ces stratégies de robustesse ont une importance toute particulière, car elles permettent
la détection et la correction d’erreurs de transmission sans introduire aucune redondance
ou complexité supplémentaire au niveau du codeur. Les travaux effectués dans le cadre
de la thèse de C.M. Lee [71] permettent d’exploiter la redondance résiduelle à travers un
décodage souple de la texture issue du codeur de vidéo H.263. Les techniques utilisées
dans ces travaux ont été étudiées précédemment [72] pour des sources markoviennes. Ces
techniques, basées sur un treillis de dimensions multiples, permettent de réduire la complexité de décodage avec un gain de 1.5 dB à 2 dB en terme de RSB pour les images Intra
et de 1 dB pour les images de type Inter [71]. Les performances des vidéos H.263 en terme
de Peak Signal to Noise Ratio (PSNR), présentées dans [71], montrent le gain significatif
apporté par un décodage souple exploitant la redondance résiduelle.
Le décodage séquentiel des codes à longueur variable peut aussi être exploité pour détecter
la présence d’erreurs dans le flux sans parcourir au décodage complet de la trame. Ainsi,
la demande de retransmission peut se faire dès la détection de la première erreur dans la
trame. De plus, le décodeur peut demander la retransmission uniquement de la portion
erronée du flux. Ces avantages de décodage permettent de réduire à la fois le délai entrainé
par les mécanismes de retransmission et la complexité du processus du décodage.
1.4.3
Codage conjoint source-canal : techniques de protection
inégale
La protection inégale contre les erreurs de transmission à l’aide de codes correcteurs
d’erreurs est effectuée conjointement entre les blocs de codage de source et de codage de
canal, d’où le terme de codage conjoint source-canal (JSCC 44 ). Une stratégie de codage
44. JSCC : Joint Source and Channel Coding
31
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
conjoint est généralement basée sur un codeur de source hiérarchique, permettant de
représenter le flux de sortie en plusieurs couches suivant la contribution de chacune des
couches dans la reconstruction de l’information. La scalabilité du codeur de source est
alors exploitée par le codeur de canal en protégeant les différentes couches par un code
correcteur d’erreur de rendement adapté à l’importance et la sensibilité aux erreurs de
chacune des couches. L’enjeu d’un codage conjoint source-canal est de trouver les débits
à allouer au codeur de source (RS ) et au codeur de canal (RCh ), permettant d’atteindre
les meilleures performances de transmission, sous contrainte que leur somme ne dépasse
pas la bande passante du canal, appelée Budget B, soit RS + RCh ≤ B. Ce problème
est couramment formulé sous la forme d’un programme d’optimisation composé d’une
fonction objectif f et d’une ou de plusieurs contraintes. La fonction objectif f représente
la fonction de distorsion totale de l’information reçue entrainée par le codage de source et
le canal de transmission (DT = DS +DCh ) , alors que les contraintes limitent l’ensemble des
solutions à un ensemble restreint de solutions réalisables. Le programme d’optimisation P
représentant le problème de codage conjoint source canal s’écrit sous la forme suivante :
P=
min DT
s.c. RS + RCh ≤ B
(1.16)
Il existe deux approches pour résoudre ce type de problème, à savoir l’approche expérimentale et l’approche analytique. L’approche expérimentale consiste à effectuer une étude exhaustive en testant toutes les configurations de transmission possibles, puis choisir celle
qui offre les meilleures performances. L’approche analytique permet de résoudre le programme d’optimisation 1.16 à l’aide de méthodes d’optimisation mathématiques, telles
que la méthode de Lagrange associée ou non aux conditions de Kuhn et Tucker suivant
la nature des contraintes [73].
La première étape commune aux solutions analytiques consiste à modéliser la distorsion
totale, en fonction des paramètres du codeur de source et du codeur de canal, par une
expression mathématique. Une étude théorique détaillée sur la problématique de codage
conjoint source-canal ainsi que leur application sur la transmission d’image fixe et de vidéo
a été effectuée dans la référence [74].
Dans [75] les auteurs proposent une solution optimale pour la transmission d’un flux
vidéo scalable sur un canal binaire symétrique puis un canal BBAG. Le problème formulé
prend en compte le codage de source, le codage de canal, le canal de transmission et la
hiérarchie du flux vidéo. La combinaison de deux méthodes d’optimisation est adoptée
pour minimiser la distorsion totale, exprimée par la somme des distorsions des différentes
couches de qualité de la vidéo.
Dans [76] le modèle de distorsion totale proposé prend en compte la méthode de robustesse adoptée au niveau du décodeur pour faire face aux pertes d’images de la séquence
vidéo reçue. Les auteurs considèrent un codage de vidéo prédictif basé sur l’estimation
et la compensation de mouvement. La solution proposée calcule à l’aide de la méthode
d’optimisation de Lagrange les rendements du CCE convolutif à appliquer aux différents
32
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
flux vidéo suivant leur importance et l’état du canal de transmission.
Les auteurs dans [77] ont proposé une méthode de protection inégale contre les erreurs de
transmission basée sur une adaptation fine du rendement du code convolutif à l’importance du flux vidéo H.263. Les rendements du codage de canal appliqués aux différentes
classes du flux vidéo sont calculés par un algorithme itératif classique, à savoir l’algorithme de Water Filling. Les résultats sont présentés dans un contexte de transmission
par réseaux sans fil et montrent le gain apporté par une stratégie de protection inégale
dans le réseau par rapport à une stratégie de protection égale (EEP 45 ).
Une erreur de transmission sur un flux vidéo, compressée par un codeur prédictif,
entraine la propagation de l’erreur au long des images successives dans un GOP. Afin de
diminuer la propagation des erreurs dans le GOP, les auteurs dans [78] ont proposé une
protection inégale contre les erreurs suivant la position d’une image dans le GOP. Cette
classification part du principe que l’influence de la propagation des erreurs ayant lieu,
dans une image P, sur le reste du GOP dépend de la position de cette image dans le GOP.
En effet, la distorsion, moyennée sur le GOP due aux erreurs dans l’image P est d’autant
plus importante que cette image est proche de l’image I et d’autant plus faible qu’elle se
rapproche de l’image I du GOP suivant. La stratégie proposée consiste alors à protéger le
flux des images de la vidéo suivant leur position dans le GOP. La répartition non uniforme
de la redondance est effectuée à l’aide d’un calcul analytique basé sur une modélisation
mathématique du phénomène de propagation des erreurs. En effet, les GOP sont répartis
en plusieurs sous-groupes d’images, sur lesquels un turbo-codeur de rendements visant à
minimisent la distorsion totale est appliqué sur les différents sous-groupes d’images. La
méthode d’optimisation de Lagrange est utilisée pour résoudre le problème d’optimisation.
Les résultats sont présentés dans le cadre de la chaı̂ne de transmission UMTS/TDD. Par
la suite, ces travaux ont été adaptés dans le cas du codeur Wyner-Ziv [79] pour coder les
images Intras, et un codeur prédictif classique est maintenu pour le codage des images
prédites. Ces travaux permettent de choisir la taille de GOP qui minimise la distorsion
des vidéos reçues. Pour plus de détails sur ces travaux le lecteur peut se référer à [80],
[81].
Les auteurs dans [82] proposent un modèle analytique général pour la transmission de
vidéo codée par un codeur prédictif sur un canal avec erreurs. La fonction de débitdistorsion du codeur de source est décrite par un modèle analytique constituée de six
paramètres. Ces derniers sont fixés expérimentalement suivant le standard de codage et la
nature de la vidéo utilisée. La distorsion du canal est décrite par un modèle analytique qui
prend en compte à la fois le codeur de canal (codes Reed-Solomon) et la propagation des
erreurs de transmission dans le GOP. Des résultats très intéressants montrent l’influence
de la taille de GOP sur la qualité des vidéos reçues sur un canal modélisé par une chaı̂ne
de Markov à deux états (bon et mauvais), ce qui permet aussi de trouver la taille de GOP
qui donne les performances optimales dans différentes conditions de transmission. D’autre
part, les performances en terme de débit distorsion des vidéos reçues sont exprimées en
45. EEP : Equal Error Protection
33
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
fonction du rendement du CCE. Cette étude permet ainsi de sélectionner le rendement
du CCE qui conduit aux performances optimales du système de transmission. Cependant,
l’importance du flux vidéo n’est pas considérée dans ces travaux.
Des travaux récents de codage conjoint source canal considérant la transmission du flux
vidéo H.264/SVC 46 sur un canal avec perte de paquets ont été proposés dans [83]. La
solution présentée utilise la méthode d’optimisation de Lagrange pour calculer, suivant la
qualité du canal de transmission, le rendement du code correcteur LDPC 47 à utiliser pour
protéger les différentes couches de représentation de la vidéo. Cette solution est adaptée
à toutes les représentations hiérarchiques du standard H.264/SVC : temporelle, spatiale
et en résolution. De plus, cette solution assure une bonne qualité des vidéos reçues avec
une faible complexité comparée aux travaux d’état de l’art.
1.4.4
Exploitation de la diversité
La diversité peut être exploitée par une stratégie de transmission afin d’améliorer la
qualité de service dans le réseau. La solution la plus simple pour exploiter la diversité
consiste à transmettre indépendamment n copies de l’information, ce qui augmente la
probabilité de recevoir correctement l’une de ces copies.
Il existe dans les réseaux sans fil plusieurs sources de diversité, telles que les diversités temporelle, fréquentielle, polarisation et spatiale liées à un lien radio ainsi que la diversité des
routes propre aux réseaux ad hoc. Les diversités temporelle, fréquentielle, polarisation et
spatiale sont généralement exploitées pour combattre les évanouissements à faible échelle
causés par un canal radio mobile, alors que la diversité des routes permet de faire face
à l’instabilité des routes entrainée par la mobilité des terminaux. Dans ce qui suit, nous
portons un intérêt particulier aux diversités spatiales et des routes pour la transmission
d’un flux vidéo.
1.4.4.1
Diversité spatiale
La diversité spatiale est obtenue par un système de transmission multi-antennaire :
plusieurs antennes à l’émission et à la réception (MIMO 48 ). Il a été montré dans [84],
[85], [86] qu’un système MIMO permet, dans un environnement de transmission riche en
multi-trajets, d’améliorer significativement la robustesse (diversité) et/ou le débit (multiplexage) comparé à un système de transmission mono-antennaire : une seule antenne à
l’émission et à la réception (SISO 49 ).
Un intérêt particulier est porté sur les schémas faisant intervenir les systèmes MIMO pour
la transmission de vidéos. Ces travaux peuvent être représentés suivant que le système
46. Codeur H.264/SVC : la version scalable du codeur H.264/AVC, pour plus de détails le lecteur peut
se référer à la section 3.2
47. LDPC : Low-Density Parity-Check
48. MIMO : Multiple Input Multiple Output
49. SISO : Single Input Single Output
34
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
MIMO exploite la connaissance de l’information du canal (CSI 50 ) à l’émission (Tx-SCI)
et à la réception (Rx-CSI), ou uniquement à la réception. Ces deux systèmes sont respectivement appelés système à boucle fermée (CL-MIMO 51 ) et système à boucle ouverte
(OL-MIMO 52 ).
1.4.4.1.a
Système MIMO à boucle ouverte
Les codes spatio-temporels orthogonaux, initiés par Alamouti [87] pour deux antennes
à l’émission et à la réception puis généralisés par Tarokh [88] pour plusieurs antennes à
l’émission et à la réception, sont les systèmes les plus adoptés pour la transmission de
vidéo sur un canal MIMO. Des schémas de transmission de vidéo sur un système MIMO
OFDM avec deux antennes à l’émission et à la réception ont été présentés dans [89] [90].
Ces schémas permettent d’améliorer significativement la qualité des vidéos reçues par
rapport à un système SISO.
Jubrane et al. ont effectué dans des travaux récents [91] une comparaison entre la transmission de vidéo H.264/SVC sur un canal MIMO exploité par deux codes spatio-temporels
orthogonaux, à savoir les codes d’Alamouti pour deux antennes à l’émission et à la
réception, et les codes de Tarokh pour quatre antennes à l’émission et une seule antenne à la réception. Les auteurs montrent que les codes d’Alamouti offrent de meilleures
performances en terme de débit distorsion, car ces codes permettent un codage à un
rendement 53 unitaire, alors que les codes de Tarokh sont caractérisés par un rendement
inférieur à un. Cependant, les codes de Tarohk permettent une meilleure flexibilité pour
adopter des stratégies UEP en utilisant une modulation d’efficacité spectrale adaptée à
l’importance des flux vidéo émis sur les quatre antennes.
L’étude théorique sur la transmission de vidéo impliquant la diversité spatiale a été
initiée par Laneman et al. dans [92]. Les auteurs effectuent une comparaison entre la
transmission de deux schémas de codage sur deux canaux parallèles et indépendants. Le
premier schéma adopte un codage conjoint source canal, alors que le second utilise un
codage MDC intervenant séparément sur le codage de source et le codage de canal. Des
résultats théoriques illustrent les performances de ces deux schémas sur deux canaux de
nature différente : un canal introduisant des erreurs (Rayleigh) et un canal à perte de
paquets. Ces résultats montrent que le premier schéma de codage conjoint source-canal
offre de meilleures performances sur un canal avec erreurs. D’autre part, le codage MDC
surpasse les performances du premier schéma dans un contexte de transmission avec perte
de paquets. Les auteurs ont alors proposé un nouveau schéma de codage hybride qui regroupe les avantages des deux schémas offrant de bonnes performances de transmission
dans ces deux types de canaux.
50. CSI : Channel State Information
51. CL-MIMO : Close Loop MIMO
52. OL-MIMO : Open Loop MIMO
53. Le rendement d’un code MIMO est le nombre de symboles émis sur le nombre de périodes symboles
nécessaires pour leur transmission
35
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
Une autre étude théorique a été effectuée dans [93]. Cette étude permet, suivant l’état
du canal de transmission, de définir la région optimale entre la robustesse (diversité)
et le débit (multiplexage) du canal MIMO dans laquelle les meilleures performances en
terme de débit distorsion sont obtenues. Par la suite, les auteurs intègrent une dimension supplémentaire de diversité à travers la transmission des messages d’acquittements
(ARQ) en prenant en compte la contrainte de délai pour les applications de vidéo temps
réel. La fonction de distorsion considère le codeur de source, le système MIMO à travers
les deux variables diversité et multiplexage, l’envoi d’acquittements et le délai. Ainsi, les
paramètres des différents blocs considérés qui minimisent la distorsion totale sont obtenus
à l’aide d’une méthode d’optimisation mathématique. Cette étude est la première à avoir
abordé conjointement ces quatre aspects dans le cadre de la transmission de vidéo sur un
canal MIMO. Les performances théoriques d’un système MIMO en terme de diversitémultiplexage utilisées dans ce papier ont été initialement proposées dans [94].
Enfin, dans [95] les auteurs proposent un schéma adaptatif pour la transmission de vidéo
sur un canal MIMO. La formule de la distorsion totale étant non convexe, les auteurs
utilisent les méthodes d’optimisations géométriques [73] pour transformer le programme
d’optimisation en un programme convexe, ce qui permet de trouver la configuration de
codage optimale. Les paramètres du codage de source (coefficients de quantification et
la taille du GOP) ainsi que la diversité et le multiplexage du système MIMO sont calculés quels que soient le nombre d’antennes et le RSB du canal, tout en considérant la
contrainte de délai.
On peut constater que les systèmes de transmission de vidéo sur un canal MIMO
connaissant l’information du canal uniquement à la réception ne prennent pas en compte
le contenu du flux vidéo. Ainsi, sans aucune connaissance a priori sur l’état du canal,
la répartition uniforme de la puissance émise sur les différentes antennes est la meilleure
configuration de transmission possible.
Sachant que le meilleur rendement des codes spatio-temporels est égal à 1 (obtenu par le
code d’Alamouti), ces codes entrainent une perte significative de débit. D’autre part, les
résultats théoriques permettent de travailler sur la région optimale de diversité-multiplexage, mais en aucun cas ces travaux ne considèrent l’importance et la sensibilité du flux vidéo
dans la formulation de la distorsion totale.
1.4.4.1.b
Système MIMO à boucle fermée
Ces systèmes supposent la connaissance parfaite de l’information du canal au niveau
de l’émetteur et du récepteur. Ainsi, la répartition de la puissance sur les différentes
antennes peut être effectuée suivant à la fois l’état du canal de transmission et l’importance du flux vidéo. Les auteurs dans [96] proposent une allocation de puissance optimale
minimisant la distorsion du flux scalable généré par le codeur MPEG-4. Cette solution
décompose le canal MIMO en plusieurs canaux SISO indépendants et parallèles à l’aide
36
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
de la décomposition en valeurs singulières (SVD 54 ) de la matrice du canal MIMO, et
suppose la connaissance parfaite à la fois de l’information du canal et de débit distorsion
du codeur de source.
Un autre schéma de sélection adaptative des sous canaux SISO 55 pour la transmission de
flux vidéo H.264/SVC à été proposé dans [97]. Cette solution, basée sur l’information partielle du canal (RSB), affecte chaque flux vidéo suivant son importance au sous canal SISO
correspondant. Ce schéma offre une stratégie de protection inégale aux flux vidéo sans
aucune redondance ou une stratégie d’allocation de puissance. Une stratégie d’allocation
de puissance et une modulation adaptative est introduite dans [98] pour la transmission
du flux vidéo H.264/SVC sur un canal MIMO avec deux antennes à l’émission et à la
réception. Cette solution a été généralisée par la suite dans [99] à plusieurs antennes à
l’émission et à la réception. Les mêmes auteurs ont proposé par la suite dans [100] un
nouveau schéma qui combine les travaux dans [97], le précodeur WF et une technique
de réallocation de puissance. Cette combinaison permet d’une part une transmission sans
erreur du flux vidéo de basse qualité, et d’autre part de transmettre les flux d’amélioration
de qualité à travers des modulations de plus haute efficacité spectrale.
1.4.4.2
Diversité de routes
Il existe plusieurs protocoles de routage qui permettent de trouver plusieurs routes
entre une source et une destination dans les réseaux mobiles ad hoc. Parmi ces protocoles
nous citons les protocoles MPOLSR 56 [101] et MDSR 57 qui sont une extension pour plusieurs routes respectivement des protocoles OLSR et DSR.
Plusieurs solutions exploitent la diversité des routes dans les réseaux ad hoc pour améliorer
la qualité des vidéos reçues à travers différentes stratégies de transmission. Une première
étude a été effectuée dans [102] sur trois stratégies qui exploitent la diversité des routes
dans les réseaux ad hoc. La première stratégie transmet les images de séquence paire et
impaire sur deux routes disjointes. Un acquittement des images Intra perdues permet un
rafraichissement du codage par une nouvelle image intra, ce qui permet de limiter la propagation des erreurs dans un GOP. La seconde stratégie repose sur un codage hiérarchique
en deux couches du codeur H.263. La couche de basse qualité est transmise sur la route
la plus fiable et la couche d’amélioration est transmise sur une autre route disjointe. La
réception des acquittements des paquets perdus permet l’étiquetage des routes : bonne
ou mauvaise. De plus, la réception des paquets du flux de basse qualité est assurée par un
mécanisme de retransmission. Enfin, la dernière stratégie repose sur un codage vidéo par
deux descripteurs. Ces deux descripteurs sont transmis sur deux routes disjointes. Ainsi,
la réception de l’un des descripteurs permet de construire une vidéo de basse qualité, et
la réception des deux descripteurs améliore davantage la qualité de la vidéo reçue. Les
résultats obtenus dans un contexte de transmission par réseau ad hoc montrent que les
54.
55.
56.
57.
SVD : Single Value Décomposition
SISO : Single Input Single Output
MPOLSR : Multi-Paths Optimized Link State Routing
MDSR : Multipath Dynamic Source Routing
37
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
trois stratégies ont des avantages et des inconvénients. En effet, suivant la fiabilité des
routes dans le réseau et le délai autorisé par l’application, ces stratégies sont plus au moins
efficaces.
D’autres travaux [103], [104], [105] ont été par la suite proposés pour améliorer les performances des trois schémas précédents en agissant sur différents paramètres. Par exemple
dans [105], les auteurs proposent une stratégie de transmission multi-points-à-point. Cette
stratégie utilise un codage par descripteurs multiples au niveau de plusieurs sources.
Différents descripteurs sont alors transmis à partir de différentes sources vers une destination. Cette stratégie augmente la probabilité d’avoir des routes totalement disjointes
dans le réseau, ce qui permet d’améliorer la qualité de service par rapport à une stratégie
de transmission point-à-point.
Une technique de protection inégale contre les pertes de paquets basée sur le nombre de
retransmissions simultanées suivant l’importance du flux vidéo a été adoptée dans [106].
Considérant que les retransmission ne sont pas autorisées, la source envoie simultanément
plusieurs copies de l’information afin d’augmenter la probabilité de recevoir au moins une
copie correctement. Le nombre de copies transmis dépend de l’importance du flux vidéo,
ce qui revient à une stratégie de protection inégale basée sur la répétition, adaptée à une
transmission temps réel de vidéo.
1.5
Synthèse et conclusion
Dans un premier temps, nous avons présenté le contexte de transmission adopté dans
cette thèse, à savoir la transmission de vidéo par réseau mobile ad hoc. Nous avons aussi
vu qu’il existe des solutions, appelées cross-layer, permettant la communication de deux
couches non voisines dans le modèle OSI sans mettre en péril son principe. Par la suite
nous avons présenté les différents blocs d’une chaı̂ne de communication classique. Nous
nous sommes plus particulièrement focalisés sur le codage de source et le canal de transmission, les deux blocs sur lesquels nous allons intervenir dans le suite de ce manuscrit.
Quelques normes de compression d’images fixes et de vidéo ont été aussi évoquées.
Dans un second temps, nous avons fait un état de l’art non exhaustif sur les stratégies
de transmission de vidéo sur un canal à erreurs et à perte de paquets. Les stratégies de
transmission ont été classées en deux classes suivant qu’une stratégie intervient au niveau
du codage de source ou conjointement entre le codage de source et le codage de canal.
Nous avons par la suite présenté des travaux intégrant ces stratégies dans un contexte de
transmission offrant un degré de diversité supplémentaire à la transmission, à savoir la
diversité spatiale et le diversité de routes.
Les auteurs dans [102] ont effectué une comparaison entre trois schémas, qui exploitent
la diversité de routes des réseaux ad hoc via un codage par descripteurs multiples et une
technique de retransmission UEP. Les résultats montrent que ces solutions sont plus au
moins efficaces suivant : le contexte de transmission (canal à perte de paquets ou à erreurs) et la contrainte de délai des applications temps réel. L’évaluation des performances
38
CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX
SANS FIL
de ces schémas a été effectuée sur des plateformes de simulations de réseaux. Cependant,
la couche physique implémentée au niveau de ces simulateurs ne prend pas en compte
les spécificités liées à un environnement de transmission réaliste. La première partie de
notre contribution, présentée dans le chapitre 2, porte sur la proposition d’une nouvelle
couche physique réaliste pour évaluer la qualité des liens radio SISO et MIMO dans les
réseaux ad hoc. De plus, nous allons montrer l’impact de cette couche physique réaliste
sur la transmission temps réel de vidéo H.264/AVC.
Les auteurs dans [92] ont fait une comparaison entre une stratégie MDC et une
stratégie utilisant un codage de canal pour une transmission sur deux canaux parallèles et
indépendants. Nous rappelons que les performances de ces deux stratégies dépendent aussi
de la nature du canal de transmission. Dans notre étude, nous nous sommes intéressés à la
seconde solution qui utilise un codage de canal. Cependant, dans cette solution ainsi que
tous les autres travaux qui considèrent un système MIMO à boucle ouverte ne considèrent
pas l’importance du flux vidéo. Nous avons vu aussi que plusieurs schémas considérant le
contenu du flux vidéo ont été proposés dans un contexte de transmission MIMO à boucle
fermée. Ces solutions présentent aussi plusieurs inconvénients : ils adoptent des stratégies
d’allocation de puissance standard, tel que le précodeur WF qui maximise la capacité du
canal et ne considère pas vraiment le contenu de la vidéo. De plus, ces solutions adoptent
des canaux statistiques, tels que le canal BBAG et un canal de Rayleigh. La deuxième
partie de notre contribution, présentée dans les chapitres 3 et 4, consiste à proposer une
solution d’allocation de puissance optimale qui considère à la fois un canal de transmission
réaliste et le contenu du flux vidéo.
39
Chapitre 2
Couche physique réaliste : impact
sur la transmission de vidéo par
réseaux mobiles ad hoc
Sommaire
2.1
2.2
2.3
2.4
2.5
2.6
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Modèles de la couche physique . . . . . . . . . . . . . . . . . . .
2.2.1 Modèles d’erreur . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.2 Modèles de propagation . . . . . . . . . . . . . . . . . . . . . . . .
2.2.3 Inconvénients et limites . . . . . . . . . . . . . . . . . . . . . . . .
Couche physique réaliste . . . . . . . . . . . . . . . . . . . . . . .
2.3.1 Modélisation du canal radio . . . . . . . . . . . . . . . . . . . . . .
2.3.2 Modèle d’erreur suivant la norme IEEE 802.11 . . . . . . . . . .
2.3.3 Implémentation et validation des couches physiques IEEE 802.11
Contexte de simulation . . . . . . . . . . . . . . . . . . . . . . . .
2.4.1 Scénario de la simulation . . . . . . . . . . . . . . . . . . . . . . . .
2.4.2 Métriques d’évaluations . . . . . . . . . . . . . . . . . . . . . . . .
Résultats et discussions . . . . . . . . . . . . . . . . . . . . . . . .
2.5.1 Étude de la couche physique réaliste . . . . . . . . . . . . . . . . .
2.5.2 Impact sur la transmission de vidéo . . . . . . . . . . . . . . . . .
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
42
42
43
44
45
46
47
51
52
55
55
57
57
57
61
68
41
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
2.1
Introduction
Les solutions proposées pour améliorer la qualité de service dans les réseaux informatiques sont évaluées et validées sur des plateformes de simulation de réseaux avant leur
intégration sur les normes et les systèmes de transmission réelles. Dans le cadre d’une
transmission temps réel de vidéos par réseaux mobiles ad hoc, de nombreux schémas ont
été proposés afin d’assurer et de maintenir la meilleure qualité de service possible, tout
en prenant en compte les contraintes liées à ce type d’applications [102]-[106]. Les performances de ces schémas sont évaluées sur des plateformes de simulation de réseaux, telles
que NS-2 1 [107], GTNetS 2 [108] ou encore GloMoSim 3 [109] . Ces outils modélisent le
comportement des protocoles des différentes couches de réseau du modèle OSI, et dans le
cas d’un réseau sans fil, ils modélisent la mobilité des terminaux et la propagation de l’onde
dans l’environnement de transmission. Cependant, les modèles adoptés pour simuler la
couche physique et le canal de transmission sont très loin de représenter respectivement
la couche physique des technologies de transmission récentes et la propagation de l’onde
dans un environnement de transmission réaliste. Ainsi, l’évaluation des performances des
schémas proposés sur ces plateformes de simulation ne tient pas vraiment en compte des
conditions réalistes dans lesquelles la transmission évolue, ce qui conduit à une étude de
performances limitée et imprécise, qui ne correspond pas aux performances obtenues dans
un environnement de transmission réaliste.
Dans ce chapitre nous proposons une couche physique qui tient en compte à la fois des
spécificités liées à l’environnement de transmission et du système de transmission adopté
au niveau de la couche physique des terminaux. Cette couche physique permet d’évaluer
la qualité d’un lien radio SISO et MIMO dans le réseau suivant les normes de transmission
IEEE 802.11a et IEEE802.11n. Par la suite, nous évaluons l’impact de cette couche physique réaliste sur la transmission de vidéo H.264/AVC à travers des métriques de qualité
de service propres à la transmission temps réel de vidéo. Cette étude permet de montrer
l’importance de considérer une couche physique réaliste pour évaluer les performances des
schémas proposés, notamment son impact sur la qualité visuelle des vidéos reçues par
réseau mobile ad hoc.
2.2
Modèles de la couche physique
La modélisation de la couche physique dans les simulateurs de réseaux ad hoc se fait
à l’aide du critère de Taux de Perte de Paquets (TPP) des liens radios dans le réseau.
Le TPP est calculé dans les plateformes de simulation de réseaux par un modèle d’erreur
combiné à un modèle de propagation qui lui fournit les informations sur la propagation
du signal entre un émetteur et un récepteur. Le schéma bloc de la figure 2.1 illustre le
mécanisme adopté dans les simulateurs de réseaux pour évaluer la qualité d’un lien radio
1. NS-2 : Network Simulator 2
2. GTNetS : Georgia Tech Network Simulator
3. GloMoSim : Global Mobile Simulator
42
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
au travers de son TPP. Dans ce qui suit nous présentons les modèles utilisés au niveau de
chaque bloc tout en spécifiant leurs avantages, inconvénients et limites.
Figure 2.1: Mécanisme d’évaluation de la qualité des liens radios dans les plateformes de
simulation de réseaux
2.2.1
Modèles d’erreur
Le modèle d’erreur le plus utilisé dans la littérature pour évaluer la qualité d’un lien
radio est le modèle tout ou rien. Ce dernier, connu par le modèle UDG 4 [110], est basé
sur un simple seuillage de la puissance reçue par rapport au seuil de communication du
récepteur. En effet, si la puissance reçue est au dessus du seuil de communication, le TPP
est égal à 0 et la communication sur ce lien se fait sans erreur. Dans le cas contraire,
le TPP est égal à 1, ainsi tous les paquets transitant sur ce lien seront perdus. On peut
constater que la zone de communication d’un terminal calculée par ce modèle peut être
représentée par un cercle de rayon R autour du terminal. Le rayon R dépend à la fois du
seuil de communication du terminal et du modèle de propagation adopté pour le calcul de
la puissance reçue. Une version améliorée de ce modèle définit un seuil supplémentaire de
puissance plus faible que celle du seuil de communication, à savoir le seuil de détection.
Le récepteur positionné dans la zone entre les seuils de communication et de détection est
susceptible de recevoir une activité sur le canal, mais tous les paquets reçus de l’émetteur
seront erronés et supprimés au niveau de la couche MAC. La figure 2.2 illustre les zones
de communication et de détection obtenues par ces deux modèles.
Il existe d’autres modèles d’erreurs appelées modèles à pertes. Ces derniers sont plus
précis que les modèles précédents puisqu’à partir de la puissance reçue, ils déterminent la
valeur exacte de TPP du lien radio. Dans [111] les auteurs utilisent les abaques de TEB
4. UDG : Unit Disk Graph
43
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
Figure 2.2: Modèle d’erreur UDG (modèle de base à gauche et le modèle amélioré à droite)
de la norme IEEE 802.11b sur un canal Gaussien pour déterminer la valeur du TEB qui
correspond à la puissance reçue entre l’émetteur et le récepteur. Le TPP est par la suite
calculé à partir du TEB et de la taille des paquets transmis n à l’aide la formule suivante
T P P = 1 − (1 − T EB) .
n
2.2.2
(2.1)
Modèles de propagation
Les modèles de propagation qui sont généralement adoptés dans les simulateurs de
réseaux pour évaluer la qualité d’un lien radio modélisent uniquement les variations à
grande échelle du canal radio mobile. En effet, les trois modèles d’atténuation à grande
échelle présentés dans le chapitre 1 (➜1.3.3.3), à savoir les modèles en espace libre, à
deux rayons et à exposant sont les plus utilisés pour modéliser la propagation de l’onde
dans l’environnement. Ces modèles ont l’avantage d’être très simples et permettent en
conséquence un calcul très rapide de la puissance reçue.
La puissance reçue calculée par le modèle à deux rayons ne dépend que de la distance
entre l’émetteur et le récepteur. En plus de la distance, le modèle en espace libre prend en
compte la fréquence de la porteuse. Le modèle à exposant quant à lui considère la densité
de l’environnement à travers la composante β. Cette dernière est fixée empiriquement
selon l’environnement de propagation. Dans nos travaux, on considère deux valeurs de la
composante β (2,5 et 2,7) dans l’intervalle des valeurs spécifiées pour un environnement
urbain [2, 5, 6] [31]. Ces deux valeurs ont été aussi utilisées dans [111] pour modéliser un
environnement urbain tel que le centre ville de Munich.
La figure 2.3 illustre l’atténuation calculée par ces trois modèles de propagation en fonction de la distance à une fréquence de 5 Ghz. On constate que l’atténuation en dB diminue linéairement avec la distance entre l’émetteur et le récepteur. Les courbes de la
figures 2.3 montrent que le modèle en espace libre est très pessimiste pour les faibles
distances, contrairement au modèle à deux rayons qui est optimiste. Le comportement de
ces deux modèles est inversé à partir de la distance dc pour laquelle les deux modèles sont
44
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
équivalents. La distance dc est donnée par la formule suivante
dc = 4πht hr /λ.
(2.2)
Pour le modèle à exposant, l’atténuation est plus faible que celle calculée par les modèles
en espace libre et à deux rayons, et la pente de la courbe d’atténuation augmente avec la
valeur de la composante β.
Figure 2.3: Atténuation des modèles de propagation à grande échelle à 5 GHz
2.2.3
Inconvénients et limites
La couche physique basée sur les modèles de propagation à grande échelle et les
modèles d’erreurs tout ou rien et à pertes souffrent de plusieurs inconvénients. D’une
part, les modèles de propagation utilisés ne considèrent pas les propriétés géographiques
et électriques de l’environnement de transmission. En effet, la puissance reçue calculée
par ces modèles ne dépend que de la distance entre l’émetteur et le récepteur, voire d’une
caractéristique statistique de la densité de l’environnement, alors qu’en réalité le signal
reçu est la somme des différentes répliques du signal émis causées par le phénomène de
multi-trajets. De plus, la puissance calculée par les modèles à grande échelle à une distance donnée est la même dans toutes les directions de l’émetteur, alors qu’en réalité
la puissance reçue dépend de la position de l’émetteur et du récepteur par rapport aux
différents obstacles dans l’environnement. La figure 2.4 illustre la propagation du signal
par un modèle à grande échelle et un modèle à tracé de rayons à une fréquence de 5 Ghz.
On peut constater que la propagation de la puissance pour le modèle en espace libre est
uniformément répartie dans toutes les directions du terminal. Cependant, pour le modèle
à tracé de rayons, qui considère la propagation par multi-trajets, l’atténuation dépend
45
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
principalement de la position des obstacles dans l’environnement par rapport au terminal. Afin de faire face aux inconvénients des modèles de propagation à grande échelle,
Stepanov et all. ont proposé dans [111] une couche physique réaliste basée sur un modèle
à tracé de rayons.
(a) Modèle en espace libre
(b) Modèle déterministe à tracé de rayons
Figure 2.4: Propagation radio via des modèles déterministes
D’autre part, les modèles d’erreurs adoptés se basent uniquement sur la puissance reçue
pour évaluer la qualité d’un lien radio. Le modèle tout ou rien par exemple ne prend pas
en compte le système de transmission utilisé au niveau de la couche physique, alors que
ce dernier à un grand impact sur la qualité des liens radio. Les modèles à pertes quant à
eux considèrent le système de transmission au travers des abaques de TEB sur un canal
BBAG. La couche physique réaliste adoptée dans [111] utilisent des abaques de la norme
IEEE 802.11b sur un canal BBAG pour évaluer le TPP correspondant à une puissance
de réception donnée. Cependant, ces modèles ne considèrent pas les dégradations causées
par un canal radio mobile : la sélectivité temporelle, la sélectivité fréquentielle et les
différentes sources de bruit environnemental. De plus, la puissance reçue ne peut à elle
seule évaluer la qualité d’un lien MIMO, où tel qu’il a été montré dans [112], la description
de l’environnement et la corrélation entre les antennes ont un impact important sur la
qualité d’un lien MIMO.
2.3
Couche physique réaliste
Dans cette section nous allons présenter la couche physique développée dans nos travaux, dont l’objet est de prendre en compte le comportement d’un canal radio mobile.
46
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
Nous utilisons un modèle de propagation à tracé de rayons pour modéliser la propagation de l’onde électromagnétique dans l’environnement. La mobilité des utilisateurs est
modélisée par un modèle de canal statistique. Ainsi, la combinaison de ces deux modèles
permet de modéliser la sélectivité fréquentielle du canal due au phénomène de propagation multi-trajets, et la sélectivité temporelle causée par la mobilité des utilisateurs dans
l’environnement. L’intégration de notre couche physique dans la plateforme de simulation NS-2 ainsi que d’autres méthodes adoptées pour diminuer le temps de calcul seront
évoquées dans cette section.
2.3.1
Modélisation du canal radio
Afin de modéliser la propagation de l’onde dans l’environnement, nous utilisons un
modèle de propagation déterministe basé sur la méthode à tracé de rayons (➜1.3.3.3.a).
Ce modèle de propagation a été totalement développé au laboratoire XLIM-SIC de l’Université de Poitiers [113]. Cet outil prend en entrée l’environnement de simulation, les
positions de l’émetteur et du récepteur dans l’environnement, la fréquence de la porteuse
et le nombre d’interactions électromagnétiques maximum à prendre en compte par le simulateur. En sortie, il fournit la RI complexe du couple émetteur-récepteur. Ce modèle de
propagation permet aussi le calcul de la zone de couverture d’un terminal positionné dans
l’environnement. Cet outil intègre toutes les spécificités (géométrique et électrique) liées
à l’environnement, et modélise toutes les variations d’un canal radio mobile : variations
à petite, à moyenne et à grande échelle. Le synoptique du simulateur est illustré par la
Figure 2.5.
Figure 2.5: Synoptique du simulateur de canal à tracé de rayons 3D [113]
La RI calculée par ce dernier donne l’information sur la phase, l’amplitude et le retard
de chaque trajet existant entre l’émetteur et le récepteur. La figure 2.6 représente l’interface du logiciel sur laquelle le phénomène de propagation par multi-trajets est illustré
entre un émetteur et un récepteur positionnés dans un environnement urbain.
47
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
Figure 2.6: Illustration du phénomène de multi-trajets calculé par le logiciel de propagation
2.3.1.1
Pré-traitement
Une étape de pré-traitement est effectuée sur la RI suivant les paramètres du standard
de transmission considéré : la sensibilité du récepteur, la bande passante et le temps
symbole. La première étape de pré-traitement consiste à supprimer tous les trajets non
significatifs de puissance inférieure à la puissance de bruit. Cette dernière est calculée à
partir du seuil de sensibilité du récepteur spécifié dans la norme. Par la suite, les trajets
résiduels seront ordonnés suivant leur temps d’arrivée, puis on soustrait à tous les trajets
le temps d’arrivée du premier trajet afin d’exprimer le temps d’arrivée des trajets par
leur retard par rapport au temps d’arrivée du premier trajet. La dernière étape consiste
à échantillonner la RI triée par un temps d’échantillonnage égale au temps symbole (Ts )
de la norme (inverse de la bande passante). En effet, tous les trajets dont le retard est
dans un intervalle de temps [iTs , (i + 1)Ts ] constitueront un seul trajet i représenté par
la somme complexe des trajets arrivant dans cet intervalle. Les trajets regroupés en un
seul trajet correspondent à un groupe de composants multi-trajets non résolvables par
le système de réception. Le coefficient complexe, le retard et la phase correspondant au
trajet i sont respectivement notés par c̃i , τi et ϕi .
48
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
2.3.1.2
Sélectivités fréquentielle et temporelle du canal
La sélectivité fréquentielle du canal est modélisée par le modèle Ligne à Retard (LAR)
[34]. En effet, sous certaines hypothèses liées au canal de transmission, telles que la stationnarité au sens large (WSS 5 ) et le fait que les éléments dispersifs de l’environnement
sont non corrélés US 6 [114], la sélectivité fréquentielle peut être modélisée par une LAR
où les coefficients qui multiplient chaque trajet varient en fonction du temps. Considérer
le canal comme WSS signifie que la fonction d’auto-corrélation du canal ne dépend pas
du temps mais uniquement de la différence ∆t. D’autre part, la propriété d’un canal
US implique que les contributions des trajets de retards différents sont non corrélées.
Ces deux hypothèses sont généralement vérifiées dans un environnement urbain riche en
multi-trajets. La RI du canal s’écrit alors dans ce cas sous la forme suivante :
h(t, τ ) = ∑ c̃i (t)δ(τ − τi )
N
(2.3)
i=1
où :
N est le nombre de trajets de la RI après l’étape de pré-traitement ;
c̃i (t) représente le coefficient complexe qui multiplie le trajet i ;
et τi le retard du ieme trajet.
Afin que l’évaluation de la qualité du lien radio soit représentative, le TEB correspondant
doit être calculé sur au moins un million de coefficients de canal. Sachant que la durée
d’un symbole dans les normes IEEE 802.11a et IEEE 802.11n est égale à 0, 05 µs, un
million de coefficients de canal correspond à une durée de transmission de 0,05 seconde.
D’autre part, le logiciel de propagation nécessitant environ 10 secondes pour effectuer
un calcul de RI. Pour des raisons de temps de calcul, il est impossible d’envisager de
lancer le logiciel un million de fois pour caractériser une seule configuration de canal
dans le réseau. Afin de modéliser les variations à petite échelle du canal radio, nous faisons alors appel aux modèles statistiques moins complexes, représentés dans le chapitre
d’état de l’art (➜1.3.3.3.b) : les modèles de Rice et de Rayeigh pour évaluer respectivement une configuration de transmission LOS et NLOS. En effet, pour chaque groupe de
trajets non résolvables réduit par l’étape d’échantillonnage à un seul trajet, on génère
indépendamment un million de coefficients de canal à l’aide de la distribution statistique
correspondante.
La variation temporelle du canal liée à la mobilité de l’émetteur et du récepteur est prise
en compte par la Densité Spectrale de Puissance (DSP) de Jakes, qui est un modèle de
spectre Doppler souvent utilisé en pratique. Cependant, ce modèle est valide que sous
certaines hypothèses que l’on considère vérifiées :
– L’antenne d’émission est omnidirectionnelle.
– Les angles d’arrivée des trajets sont uniformément distribués sur l’intervalle [−π, π].
– La propagation de l’onde se fait dans le plan horizontal.
5. WSS : Wide Sense Stationnarity
6. US : Uncorrelated Scattering
49
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
La DSP de Jakes s’écrit sous la forme suivante [34] :
⎧
2σ 2
⎪
⎪ πfDmax √1−(f /fDmax ) , ∣f ∣ ≤ fDmax
S(f ) = ⎨
⎪
⎪
∣f ∣ > fDmax
⎩0,
(2.4)
avec fDmax le décalage Doppler maximum qui est exprimé en fonction de la vitesse de
déplacement de l’émetteur et/ou du récepteur v, la célérité c et la fréquence de la porteuse
fc par l’expression suivante :
v
fDmax = fc .
(2.5)
c
La méthode utilisée dans nos travaux pour générer les coefficients du canal, et couramment
rencontrée en pratique est appelée la méthode du filtre [34] . Nous générons tout d’abord
des échantillons complexes αi (t) suivant la distribution de Rayleigh ou de Rice suivant la
présence ou non d’un trajet direct. Ces échantillons sont par la suite filtrés pour tenir en
compte de l’effet Doppler. Les réponses impulsionnelles des filtres s’obtiennent en prenant
la transformée de Fourrier inverse de la racine carrée de la DSP représentant le spectre
Doppler, le spectre de Jakes dans notre étude. Chaque séquence de symboles canal αi (t)
est multipliée par le coefficient calculé par le logiciel de propagation c̃i correspondant pour
prendre en compte les évanouissements à large et à moyenne échelle. Le résultat constitue
les coefficients du canal de transmission h(t, τ ). La figure 2.7 illustre le schéma LAR pour
générer la sélectivité fréquentielle du canal suivant une norme de transmission avec une
prise en compte d’un canal réaliste.
Figure 2.7: Modélisation d’un canal sélectif en fréquence : modèle LAR [34]
2.3.1.3
Bruit du canal radio mobile
Le bruit lié à l’environnement et aux composantes électroniques des systèmes de transmission provient généralement d’un grand nombre de sources indépendantes et identiquement distribuées. En conséquence, suivant le théorème central limite, l’ensemble de ces
perturbations peut être modélisé par une variable aléatoire Gaussienne de moyenne nulle.
Ainsi, le canal à BBAG de moyenne nulle est généralement utilisé pour modéliser ce type
50
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
de bruit. Dès lors, le canal radio mobile qui tient compte des sélectivités temporelle et
fréquentielle ainsi que du bruit lié aux différentes sources de perturbations s’écrit de la
forme suivante :
y(t) = x(t) ∗ h(t, τ ) + n(t)
(2.6)
où x(t) et y(t) représente respectivement les symboles d’entrée et de sortie du canal,
h(t, τ ) la RI du canal, n le canal BBAG et ∗ le produit de convolution.
2.3.2
Modèle d’erreur suivant la norme IEEE 802.11
2.3.2.1
Configuration SISO
Afin de caractériser la qualité d’un lien radio suivant la norme IEEE 802.11a via son
TEB et son TPP, nous avons implémenté les différents blocs de cette norme. Le train
binaire issu de la source est traité par les différents blocs de la chaı̂ne de transmission.
Tout d’abord, les bits émis sont codés par un CCE convolutif de rendement variable défini
dans la norme suivant le débit de la transmission. Afin d’éviter l’utilisation de plusieurs
codeurs/décodeurs pour un codage à différents rendements, la norme adopte la notion de
poinçonnage. Cette opération consiste à partir d’un codage convolutif à faible rendement,
d’éliminer des bits en sortie du codeur suivant un schéma matriciel déterminé. Le nombre
de bits non transmis dépend du rendement spécifié par la norme pour chaque débit. Un
entrelaceur est utilisé pour répartir les erreurs par paquets générées par un canal radio
mobile. Cela permet d’améliorer les performances des CCE convolutifs sur un canal radio,
qui sont plus adaptés aux configurations d’erreurs dispersées. La modulation numérique
M-QAM est ensuite utilisée pour adapter les bits émis au support de transmission radio. L’efficacité spectrale de la modulation est aussi fixée par la norme suivant le débit
considéré pour la transmission. Dans l’objet de faire face aux variations temporelles du
canal radio mobile, une séquence d’apprentissage et des pilotes sont insérés à des positions connues dans la trame. Ces deux informations sont exploitées par le récepteur pour
estimer respectivement le canal de transmission et ses variations dans le temps. Enfin,
les symboles seront modulés par la modulation OFDM afin de faire face à la sélectivité
fréquentielle du canal radio mobile, ce qui permet d’éliminer l’interférence entre symboles
causée par le phénomène de multi-trajets. La figure 2.8 illustre les différents blocs de la
chaı̂ne de transmission IEEE 802.11a. Pour plus de détails sur cette la norme le lecteur
peut se référer à [119].
2.3.2.2
Configuration MIMO
La spécification IEEE 802.11n adopte les systèmes MIMO pour augmenter le débit
et/ou la robustesse des liens radios dans le réseau. Le système de codage V-BLAST est
intégré dans la norme permettant d’atteindre un débit de 140 Mb/s au lieu de 54 Mb/s
de la norme IEEE 802.11a. D’autre part, la diversité spatiale peut être exploitée pour
la diversité (robustesse) afin de faire face aux évanouissements des canaux radio mobiles.
En effet, les codes patio-temporels d’Alamouti pour deux antennes à l’émission et deux
51
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
Figure 2.8: Couche physique réaliste SISO suivant la norme IEEE 802.11a
antennes à la réception sont intégrés aux niveau de la norme IEEE 802.11n pour faire face
aux évanouissements rapides du canal radio et améliorer son TEB. Rappelons que les codes
d’Alamouti nécessitent l’information sur le canal uniquement au niveau de récepteur (RxCSI) et permettent d’atteindre la diversité maximale de 2 pour un rendement de codage
unitaire. Le codeur d’Alamouti consiste en une opération de modulation d’un bloc de
symboles à la fois dans le temps et dans l’espace, créant ainsi des séquences orthogonales
transmises par deux antennes différentes. La structure du code d’Alamouti est donnée par
la matrice suivante :
1 x −x∗2
C=√ ( 1
(2.7)
∗ )
2 x2 x1
avec x1 et x2 deux symboles à transmettre et les colonnes et les lignes de la matrice
représentent respectivement le temps et les antennes.
Ce code a la particularité d’être orthogonal, soit :
CC ∗ = C ∗ C = (∣x1 ∣2 + ∣x2 ∣2 )I2
(2.8)
où I2 une matrice d’identité de taille 2 × 2.
On constate que chaque bloc constitué de deux symboles est codé à la fois dans le temps et
dans l’espace, d’où le nom des codes spatio-temporels en blocs. Généralement un récepteur
basé sur le critère de MV est utilisé pour détecter les symboles à la réception.
La figure 2.9 illustre le schéma en blocs de la chaı̂ne de transmission suivant la norme IEEE
802.11n. On retrouve les mêmes blocs de la chaı̂ne de transmission IEEE 802.11a avec une
dimension spatiale supplémentaire exploitée par les codes spatio-temporels d’Alamouti.
Ainsi, calculer le TEB et le TPP en considérant cette chaı̂ne de transmission, revient à
caractériser la qualité d’un lien radio MIMO suivant la norme IEEE 802.11n.
2.3.3
Implémentation et validation des couches physiques IEEE
802.11
Les deux couches physiques ont été totalement implémentées par le langage de programmation C + + et la bibliothèque IT P P [121], qui fournit toutes les fonctions de
52
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
Figure 2.9: Couche physique réaliste MIMO suivant la norme IEEE 802.11n
traitement de signal nécessaires. Nous avons aussi développé d’autres programmes qui
permettent l’exploitation et le traitement des RI du canal calculées par le logiciel de
propagation. Notons que ces couches physiques peuvent être intégrée comme ToolBox
indépendante dans n’importe quelle plateforme de simulation de réseaux sans fil.
En entrée, ces deux couches physiques nécessitent l’information sur la topologie de la
scène de simulation, les positions de l’émetteur et du récepteur dans la scène, le débit
de transmission et la vitesse moyenne de déplacement du couple émetteur-récepteur. Les
deux couches physiques fournissent en sortie toute l’information caractérisant la qualité
d’un lien radio mobile, à savoir la puissance reçue, le TEB et le TPP. Cette information
est remontrée à la couche MAC où les trames erronées sont supprimées ou remontrées
aux couches d’abstractions supérieures suivant la valeur du TPP du lien. La décision de
la perte ou bien la réception sans erreur d’une trame est effectuée à l’aide d’une variable
aléatoire U , dont les réalisations u prennent des valeurs dans l’intervalle [0, 1] suivant une
loi uniforme. Pour chaque trame reçue, une réalisation u de la variable aléatoire U est
générée. Si u est supérieure au TPP du lien, la trame est supposée reçue correctement, et
sera remontée vers les couches supérieures de la pile OSI. Dans le cas contraire, la trame
est considérée comme reçue avec erreurs et sera supprimée au niveau la couche MAC.
Les RI et les trois paramètres (TEB, TPP, puissance reçue) caractérisant la qualité d’un
couple émetteur-récepteur dans le réseau sont enregistrés dans deux fichiers appelés :
cache des RI et cache des TEB. Chaque couple émetteur-récepteur est identifié dans ces
caches par leurs cordonnées dans la scène. Ainsi, les informations de la couche physique
réaliste correspondantes à une position émetteur-récepteur sont calculées une seule fois.
Ces informations sont par la suite directement lues à partir des caches RI et TEB.
53
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
Lors de l’évaluation des performances des couches physiques réalistes SISO et MIMO,
nous avons constaté deux cas de figure suivant que le retard maximum de la RI du canal
(τmax ) est supérieur ou inférieur au temps de garde (TG ) de la modulation OFDM. Rappelons que le TG est le temps d’une séquence de symboles insérée entre deux symboles
OFDM pour faire face aux interférences entre symboles causées par le phénomène de
multi-trajets. Le temps de garde dans les normes IEEE 802.11a et IEEE 802.11n est égal
à 0, 8 µs. Afin d’illustrer les performances de ces couches physiques dans ces deux configurations de canal, nous avons tracé dans la figure 2.10 le TEB des deux couches physiques
en fonction de RSB pour ces deux configurations de canal. La première configuration de
canal est caractérisée par un τmax = 0, 5 µs < TG et la seconde par τmax = 1, 2 µs > TG .
Nous avons fixé le débit à 6 Mb/s la vitesse du déplacement à 2 m/s et la norme IEEE
802.11n utilise un canal MIMO (2 × 2).
On peut constater que lorsque τmax > TG , la courbe de TEB de la couche physique IEEE
802.11a sature à un TEB de 0,02 quelle que soit la valeur du RSB. Ce phénomène de
saturation est entrainé par l’interférence entre les symboles OFDM. On peut remarquer
aussi que la couche physique IEEE 802.11n permet non seulement d’améliorer le TEB
par rapport à une configuration SISO, mais permet aussi d’éliminer l’effet de saturation
constaté dans la configuration SISO. Ces deux cas de figure montrent clairement l’importance de considérer la sélectivité fréquentielle du canal dans l’évaluation de la qualité
d’un lien radio mobile, qui, tel que illustré sur la figure 2.10, dépend directement du retard
maximum du canal.
Figure 2.10: Performances des normes IEEE 802.11a et IEEE 802.11n sur un canal réaliste
sélectif en fréquence
54
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
2.4
2.4.1
Contexte de simulation
Scénario de la simulation
Les simulations sont effectuées sous la plateforme de simulation de réseaux NS-2, où
nous avons intégré les deux couches physiques réalistes SISO et MIMO. Le choix de NS-2
parmi les autres plateformes de simulation de réseaux est expliqué par son code source
libre et sa popularité dans l’évaluation des performances des schémas proposés pour la
transmission de vidéo.
Les terminaux sont aléatoirement positionnés dans l’environnement de simulation, qui
est dans notre étude le centre ville de Munich. La figure 2.11 illustre l’environnement de
simulation, où les blocs en rouge représentent les différents obstacles de l’environnement,
et les points numérotés de 0 à 99 représentent les terminaux mobiles. Nous considérons
dans notre étude quatre configurations de réseaux suivant le nombre de noeuds : 40, 60,
80 et 100 noeuds. Ces terminaux restent fixes pendant toute la durée de la simulation.
Nous transmettons un flux vidéo dans ces réseaux mobiles ad hoc en utilisant quatre
couches physiques différentes. La première est basée sur une combinaison de deux modèles
de propagations, à savoir le modèle en espace libre et le modèle à deux rayons. Lorsque
la distance entre l’émetteur et le récepteur d est inférieure à la distance de référence
dc (voir ➜2.2.2), calculée par la formule (2.1), nous utilisons le modèle de propagation en
espace libre, dans le cas inverse nous utilisons le modèle à deux-rayons. La seconde couche
physique utilise le modèle de propagation à exposant. Ces deux couches physiques natives
à NS-2 adoptent le modèle d’erreur tout ou rien avec deux seuils pour calculer le TPP.
Les couches physiques réalistes SISO et MIMO présentées dans ce chapitre représentent
les deux autres couches physiques.
Les paramètres utilisés au niveau des couches application, réseau et physique sont décris
ci-après :
2.4.1.1
Couche application
Au niveau de la couche application nous considérons la séquence vidéo Foreman
de résolution temporelle de 30 images/s et de résolution spatiale QCIF (144 × 176)
pixels/image. Les 300 images de la séquence vidéo sont codées par le codeur H.264/AVC
en utilisant le profile étendu, qui intègre toutes les méthodes de robustesses aux erreurs
de transmission et aux pertes de paquets. La taille du GOP est fixée à 16 images et le
PSNR moyen de la composante luminance de la vidéo avant sa transmission est égal à
36, 61 dB. Afin d’augmenter la robustesse de la vidéo transmise, chaque image de la vidéo
est codée en plusieurs parties, appelées slice, de taille fixe (100 octets) indépendamment
décodables. Les différents slices d’une image sont transmis indépendamment. Ainsi, la
perte d’un paquet n’entraine pas la perte totale de l’image mais uniquement une partie
de l’image.
55
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
Figure 2.11: Positionnement des terminaux dans la scène de simulation : centre de Munich
2.4.1.2
Couche réseau
Afin d’assurer l’acheminement des paquets du flux vidéo entre une source et une destination dans le réseau, nous utilisons le protocole de routage réactif AODV. Ce dernier
permet de trouver les routes d’une communication point-à-point à travers des liens directs, dont la qualité est caractérisée par les quatre couches physiques considérées dans
notre étude.
2.4.1.3
Couche physique
Les paramètres de transmission de la couche physique (puissance d’émission, paramètres de la modulation OFDM, sensibilité du récepteur) sont fixés suivant la norme
IEEE 802.11a. Ces paramètres restent les mêmes dans la norme IEEE 802.11n à la
différence que nous utilisons un canal MIMO (2 × 2) pour deux antennes à l’émission et
à la réception, en privilégiant la robustesse par un codage d’Alamouti. L’espace entre les
antennes est fixé à 0, 4λ, avec λ la longueur d’onde. Cet espacement entraine généralement
la plus faible corrélation entre les antennes [112].
Pour le modèle de propagation à exposant, le paramètre β prend deux valeurs 2.5 et
2.7, qui correspondent à un environnement urbain dense, tel que le centre ville de Mu-
56
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
nich. Nous considérons trois débits de transmission au niveau de la couche physique : 6,
24 et 54 Mb/s. Pour les couches physiques basées sur le modèle d’erreurs tout ou rien,
le seuil de communication est fixé suivant les seuils de sensibilité définis dans la norme
IEEE 802.11a pour les trois débits. Pour les couches physiques réalistes, le débit de la
transmission permet de configurer les paramètres de la couche physique des normes IEEE
802.11a et IEEE 802.11n, notamment le rendement du CCE et l’efficacité spectrale de la
modulation numérique.
2.4.2
Métriques d’évaluations
Nous utilisons les quatre métriques généralement adoptées pour évaluer la qualité de
service des applications de transmission temps réel de vidéo :
– Le PSNR moyen de la vidéo reçue : il représente la moyenne des PSNR (composante
luminance) des images de la séquence vidéo reçue. Ce paramètre permet d’évaluer
la qualité visuelle des vidéos reçues par un critère objectif. Dans la suite de ce
chapitre, nous considérons une vidéo reçue, une vidéo totalement décodée par le
décodeur H.264/AVC (quelle que soit sa qualité visuelle).
– Le pourcentage de vidéos reçues : ce paramètre représente le rapport entre le nombre
de vidéos reçues et le nombre de vidéos transmises dans le réseau.
– Le nombre moyen de sauts : ce paramètre donne une indication sur le nombre de
sauts moyen emprunté par les paquets vidéo pour atteindre leur destination.
– Le temps moyen de transmission : ce paramètre représente le temps moyen de recherche de la route par le protocole de routage plus le temps moyen nécessaire pour
délivrer les paquets vidéo.
Les résultats représentés ci-après représentent une moyenne sur 200 simulations.
2.5
2.5.1
Résultats et discussions
Étude de la couche physique réaliste
Avant d’évaluer l’impact de notre couche physique réaliste sur la transmission de
vidéo H.264/AVC, nous allons dans un premier temps analyser son comportement dans
le centre ville de Munich. La répartition des valeurs de TEB des liens radio entre 40
noeuds positionnés dans le centre de ville de Munich est donnée dans le tableau 2.1. Nous
répartissons les liens radio suivant leurs valeurs de TEB en trois différentes classes. La
première classe regroupe les liens radio de TEB nul. Les liens radio appartenant à cette
classe permettent une transmission sans perte de trames entre l’émetteur et le récepteur.
Les liens de valeurs de TEB dans l’intervalle ]0, 1e−3 ] constituent la seconde classe et
permettent une communication plus au moins dégradée suivant la valeur de TEB du lien.
La troisième classe regroupe les liens radio de valeurs de TEB supérieures à 1e−3 . Ces
liens ne sont pas fiables, ainsi la majorité des trames transitant sur ces liens comportent
57
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
des erreurs et seront supprimées au niveau de la couche MAC du récepteur.
Configurations de
la couche physique
T EB = 0
0 < T EB ≤ 1e−3
T EB > 1e−3
6 M b/s
SISO
MIMO
35, 26 % 80, 53 %
3, 86 % 5, 59 %
60, 86 % 13, 86 %
24 M b/s
SISO
MIMO
9, 17 % 58, 63 %
8, 21 % 6, 81 %
82, 6 % 34, 54 %
54 M b/s
SISO
MIMO
0%
31, 14 %
0, 24 % 6, 56 %
99, 75 % 62, 28 %
Table 2.1: Répartition des valeurs de TEB des liens radio dans le centre ville de Munich
A partir du tableau 2.1 on peut constater que les liens appartenant à la première classe
sont plus nombreux en adoptant une couche physique MIMO comparée à une configuration
SISO. Ceci montre que le canal MIMO (2×2) exploité par un codage d’Alamouti améliore
significativement la qualité des liens radio dans le réseau. De plus, ce gain de qualité
apporté par le canal MIMO est observé sur tous les débits considérés dans notre couche
physique réaliste (6, 24, 54 Mb/s). L’amélioration la plus significative apportée par le
canal MIMO est observée à un débit de 24 Mb/s.
Les figures 2.12, 2.13 et 2.14 illustrent plus précisément la répartition des liens radio
ainsi que leurs valeurs de TEB dans le centre ville de Munich pour respectivement les trois
débits considérés dans notre étude. La valeur de TEB de chaque lien est illustrée dans
ces figures par la couleur du lien correspondant. Les couleurs bleu et rouge correspondent
respectivement aux deux extrémités de l’intervalle des valeurs de TEB : 0 et 0, 5, alors
que les couleurs intermédiaires représentent les autres valeurs de TEB dans l’intervalle
]0, 0, 5[. La variation des couleurs sur la palette est représentée suivant une échelle logarithmique.
On peut constater que la qualité d’un lien radio ne dépend pas uniquement de la distance
entre l’émetteur et le récepteur, mais aussi de leurs positions par rapport aux obstacles
dans l’environnement.
Le TEB des configurations émetteur-récepteur LOS, c’est à dire des liens comportant
un trajet direct, dépend généralement de leur distance. De plus, lorsque l’émetteur et le
récepteur sont proches leur TEB est nul pour les deux configurations de la couche physique à un débit de 6 Mb/s. Un exemple de cette configuration est représenté par le lien
radio entre les noeuds 18 et 36. Cependant, pour les configurations NLOS (plus fréquentes
dans un environnement dense), la valeur de TEB dépend de la position des noeuds par
rapport aux obstacles dans l’environnement. Par exemple, la valeur de TEB du lien radio
formé par le couple (21, 9) est nul uniquement pour la configuration de la couche physique
la plus robuste (MIMO, 6Mb/s). Pour les autres configurations de la couche physique la
qualité de ce lien devient très dégradée.
On peut constater que la considération d’un environnement réel pour caractériser la couche
physique modifie complètement la topologie du réseau. De plus, le débit de la couche physique a un impact important sur la qualité des communications dans le réseau. Cela va
donc forcement influencer le choix du protocole de routage dans l’établissement des routes
58
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
dans le réseau entre une source et une destination. Par exemple, sur la figure 2.11 nous
illustrons les routes utilisées lors de la communication entre les noeuds 80 et 30 en vert
et bleu suivant respectivement la couche physique en espace libre et la couche physique
réaliste SISO (lEEE 802.11a). En utilisant une couche physique réaliste, le choix de la
route dépend des spécificités de l’environnement : la route est constituée de quatre sauts
permettant de contourner les bâtiments. Cependant, pour le modèle en espace libre, la
route est constituée d’un seul saut reliant directement la source à la destination.
En conséquence, la prise en compte d’une couche physique réaliste permettrait une étude
plus appropriée des performances de schémas proposés pour la transmission de vidéo,
tel que le codage MDC associé à la diversité des routes dans le réseau pour assurer une
transmission indépendante des différents descripteurs de la vidéo.
(a) Configuration SISO
(b) Configuration MIMO (2 × 2)
Figure 2.12: Répartition des valeurs de TEB des liens radio dans Munich à 6 Mb/s
59
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
(a) Configuration SISO
(b) Configuration MIMO (2 × 2)
Figure 2.13: Répartition des valeurs de TEB des liens radio dans Munich à 24 Mb/s
(a) Configuration SISO
(b) Configuration MIMO (2 × 2)
Figure 2.14: Répartition des valeurs de TEB des liens radio dans Munich à 54 Mb/s
60
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
2.5.2
Impact sur la transmission de vidéo
Dans cette section nous allons évaluer l’impact des quatre couches physiques considérées
dans notre étude sur les performances des vidéos reçues. Les résultats sont présentés suivant le débit de la couche physique.
2.5.2.1
Configuration à 6 Mb/s
Les figures 2.15(a) 2.15(b) illustrent respectivement le pourcentage de vidéos reçues
et leur PSNR moyen en fonction du nombre de noeuds dans le réseau. Ces résultats
représentent une moyenne sur 200 couples source-destination choisis aléatoirement parmi
les noeuds du réseau. La figure 2.15(a) montre que le pourcentage de vidéos reçues est toujours plus important pour les deux couches physiques de NS-2 (modèles en espace libre et
à exposant) que celui des deux couches physiques réalistes. Ce comportement est expliqué
par la prise en compte de la couche physique réaliste des obstacles dans l’environnement
ainsi que les dégradations d’un canal radio mobile, notamment la sélectivité fréquentielle
dans notre cas. D’autre part, l’amélioration de la qualité des liens radio MIMO par rapport à une configuration de couche physique SISO permet non seulement d’augmenter le
nombre de vidéos reçues, mais aussi d’améliorer la qualité visuelle de ces vidéos. En effet,
on remarque sur la figure 2.15(b) une différence de 1 dB entre les vidéos reçues par des
configurations de couche physique réaliste SISO et MIMO.
Les figures 2.16(a) 2.16(b) illustrent respectivement le nombre de sauts moyen et le
temps moyen nécessaires aux paquets vidéo pour atteindre la destination. On constate que
le modèle en espace libre utilise uniquement un seul saut pour atteindre la destination. La
puissance reçue calculée par ce modèle est toujours supérieure au seuil de communication
du récepteur à 6 Mb/s. De plus, lorsque la source et la destination sont éloignées dans
le réseau, une perte de paquets est constatée. Ces pertes sont causées par le temps de
propagation qui ralentit considérablement le processus d’accès au canal pour transmettre
les paquets vidéo suivants. Ce comportement explique aussi la diminution du pourcentage
de vidéos reçues ainsi que la dégradation de leur qualité constatées dans les deux figures
précédentes.
Pour le modèle à exposant le nombre de sauts moyen augmente avec la composante
d’atténuation β, qui passe en moyenne de 2,5 sauts pour β = 2, 5 à 3,5 sauts pour β = 2, 7.
Cette augmentation est causée par la réduction de la zone de communication des noeuds,
qui est inversement proportionnelle à la composante d’atténuation β.
D’autre part, à un débit de 6 Mb/s la configuration MIMO de la couche physique réaliste
permet d’acheminer les vidéos de la source vers la destination via moins de sauts comparée
à la configuration SISO.
Concernant le temps de recherche des routes et d’acheminement des paquets vidéos, il
reste très faible pour les deux couches physiques natives de N S − 2. Cependant, ce temps
devient très important pour la couche physique réaliste, notamment pour la configuration
SISO. Le nombre de routes entre la source et la destination étant réduit en considérant les
61
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
obstacles de l’environnement, le protocole de routage réactif AODV nécessite un temps
plus important pour trouver les routes existantes. De plus, la route trouvée n’est pas toujours exploitable, notamment lorsque l’un de ses liens directs a un TEB dégradé. Dans ce
cas, le protocole de routage cherche une route alternative plus fiable pour acheminer les
paquets vidéo.
La figure 2.17 illustre quatre images des vidéos reçues entre les noeuds 44 et 86 (figure
2.11) en utilisant des configurations SISO et MIMO de la couche physique réaliste. La
qualité visuelle de ces images montre clairement le gain de qualité apporté par une couche
physique MIMO. En effet, la perte de paquets causée par des liens de TEB différents de
0 (plus nombreux pour une configuration SISO) diminue considérablement la qualité de
la vidéo reçue sur un canal SISO.
62
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
(a) Pourcentage de vidéos reçues
(b) PSNR moyen des vidéos reçues
Figure 2.15: Performances de transmission de vidéo H.264/AVC dans Munich à 6 Mb/s
(a) Nombre moyen de sauts
(b) Temps moyen de transmission
Figure 2.16: Performances de transmission de vidéo H.264/AVC dans Munich à 6 Mb/s
63
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
(a) Image 139, PSNR = 26,48 dB (b) Image 139, PSNR = 36,81 dB
(c) Image 140, PSNR = 23,06 dB (d) Image 140, PSNR = 36,90 dB
(e) Image 141, PSNR = 23,48 dB (f) Image 141, PSNR = 36,94 dB
(g) Image 142, PSNR = 23,49 dB (h) Image 142, PSNR = 36,93 dB
Figure 2.17: Illustration des vidéos reçues sur des configurations de couche physique réaliste
64
SISO (à gauche) et MIMO (à droite)
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
2.5.2.2
Configuration à 24 Mb/s
Le pourcentage de vidéos reçues ainsi que leur PSNR sont respectivement illustrés à
un débit de 24 Mb/s sur les figures 2.18(a) 2.18(b). Dans cette configuration de la couche
physique, le modèle en espace libre permet de recevoir toutes les vidéos quel que soit le
nombre de noeuds dans le réseau. Les deux modèles à exposant reçoivent moins de vidéos
comparé à une configuration de couche physique à 6 Mb/s, car le seuil de communication
est plus important à 24 Mb/s ce qui diminue considérablement la zone de couverture des
noeuds.
La configuration MIMO de la couche physique réaliste permet de recevoir plus de vidéos
par rapport à la configuration SISO. De plus, la qualité visuelle de ses vidéos est de
meilleure qualité comparée à celle des vidéos reçues par la configuration SISO.
On peut alors constater qu’à 24 Mb/s, le nombre de vidéos reçues et leur qualité sont
totalement différents suivant le modèle adopté au niveau de la couche physique.
Le nombre moyen de sauts et le temps moyen nécessaire pour délivrer les paquets vidéo
sont illustrés en fonction du nombre de noeuds sur respectivement les figures 2.19(a) et
2.19(b). Le nombre moyen de sauts pour le modèle en espace libre passe de 1 à 1,4
sauts pour respectivement des débits de 6 Mb/s et de 24 Mb/s. Le nombre moyen de
sauts supérieur à 1 pour des couples source-destination éloignés a permis de diminuer le
nombre de paquets vidéo perdus par rapport à une configuration de couche physique à 6
Mb/s.
Le nombre moyen de sauts augmente aussi considérablement pour les modèles à exposant
en dépassant celui des couches physiques réalistes. Cette augmentation du nombre moyen
de sauts des modèles à exposant est causée par la diminution de la zone de couverture
dans toutes les directions des noeuds. Cependant, pour les couches physiques réalistes,
la zone de couverture dépend de la position des noeuds par rapport aux obstacles dans
l’environnement.
Tel que constaté à un débit de 6 Mb/s, le temps moyen le plus important pour recevoir
les paquets vidéo est celui des couches physiques réalistes SISO et MIMO.
65
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
(a) Pourcentage de vidéos reçues
(b) PSNR moyen des vidéos reçues
Figure 2.18: Performances de transmission de vidéo H.264/AVC dans Munich à 24 Mb/s
(a) Nombre moyen de sauts
(b) Temps moyen de transmission
Figure 2.19: Performances de transmission de vidéo H.264/AVC dans Munich à 24 Mb/s
66
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
2.5.2.3
Configuration à 54 Mb/s
Pour un débit de 54 Mb/s, on illustre uniquement les performances de deux couches
physiques : configuration MIMO de la couche physique réaliste et le modèle en espace
libre. En adoptant les autres couches physiques aucune vidéo n’est reçue correctement à
ce débit.
Le figure 2.20(a) illustre le pourcentage de vidéos reçues en fonction du nombre de noeuds
à 54 Mb/s. En utilisant le modèle en espace libre, le pourcentage de vidéos reçues est
toujours supérieur à 90%. Cependant, uniquement 20% des vidéos transmises sont correctement reçues via la configuration MIMO de la couche physique réaliste.
Sur la figure 2.20(b), la qualité des vidéos reçues par la couche physique réaliste sont plus
dégradées par rapport aux vidéo reçues via le modèle en espace libre. Un écart de PSNR
moyen de 3 dB est constaté entre les vidéos reçues par ces deux couches physiques. Cette
perte de PSNR est causée par la perte de paquets vidéo transitant sur des liens de TEB
différent de 0.
(a) Pourcentage de vidéos reçues
(b) PSNR moyen des vidéos reçues
Figure 2.20: Performances de transmission de vidéo H.264/AVC dans Munich à 54 Mb/s
La figure 2.21(a) illustre le nombre moyen de sauts utilisé par les deux couches physiques (MIMO réaliste et espace libre) pour délivrer les paquets vidéo. Le modèle en
espace libre arrive à délivrer toutes les vidéo en utilisant des routes de 3 et 4,5 sauts
suivant le nombre de noeuds dans le réseaux. Le nombre moyen de sauts de la couche
physique réaliste reste toujours inférieur à celui du modèle en espace libre. Dans de telles
conditions de transmission, le nombre de liens successifs de faible TEB reste faible dans le
cas d’une couche physique réaliste. Cependant, comme l’illustre la figure 2.21(b), le temps
de recherche de routes est plus important dans le cas d’une couche physique réaliste.
67
CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA
TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC
(a) Nombre moyen de sauts
(b) Temps moyen de transmission
Figure 2.21: Performances de transmission de vidéo H.264/AVC dans Munich à 54 Mb/s
2.6
Conclusion
Dans ce chapitre nous avons proposé une couche physique réaliste SISO et MIMO
suivant respectivement les normes de transmission IEEE 802.11a et IEEE 802.11n. Cette
couche physique caractérise la qualité d’un lien radio via son TEB. Ainsi, ce critère tient
compte de toutes les dégradations d’un canal radio mobile : sélectivités fréquentielle et
temporelle ainsi que les différentes sources de bruits. De plus, la corrélation entre les antennes pour une configuration d’un canal MIMO est considérée.
En second lieu, nous avons évalué l’impact de quatre couches physiques sur la transmission temps réel du flux vidéo H.264/AVC. Cette étude montre, à travers des critères
d’évaluation d’applications de transmission temps réel de vidéo, l’importance de considérer
une couche physique réaliste. De plus, un canal MIMO (2×2) exploité par les codes d’Alamouti permet d’améliorer considérablement la qualité de service dans le réseau comparé
à un canal SISO.
Les résultats de simulation montrent que les performances de transmission de vidéo
(nombre et qualité des vidéos reçues, temps de réception) H.264/AVC dépendent principalement de la qualité des liens constituant la route de la source vers la destination. Ainsi,
l’optimisation de la qualité de ces liens en fonction des conditions de transmission ainsi
que le contenu du flux vidéo permettrait d’améliorer la qualité de la vidéo reçue entre
la source et la destination. Dans la suite de ce manuscrit, nous allons dans un premier
temps nous intéresser à la transmission de vidéo sur un lien radio direct, c’est-à-dire un
seul saut dans le réseau ad hoc. L’objectif de notre démarche est de considérer à la fois
le contenu du flux vidéo et la qualité du canal de transmission pour assurer la qualité de
service des vidéos reçues quelles que soient les conditions de transmission.
68
Chapitre 3
Adaptation de liens MIMO pour une
transmission temps réel d’un flux
vidéo H.264/SVC
Sommaire
3.1
3.2
3.3
3.4
3.5
3.6
3.7
3.8
3.9
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Codeur de vidéo H.264/SVC . . . . . . . . . . . . . . . . . . . .
3.2.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.2 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.3 Scalabilité temporelle . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.4 Scalabilité spatiale . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.5 Scalabilité en qualité . . . . . . . . . . . . . . . . . . . . . . . . . .
Codeur H.264/SVC dans un contexte de transmission . . . .
Précodeurs linéaires pour une transmission de vidéos . . . . .
3.4.1 Système MIMO avec précodage . . . . . . . . . . . . . . . . . . . .
3.4.2 Transformation en canal virtuel . . . . . . . . . . . . . . . . . . .
3.4.3 Précodeurs diagonaux . . . . . . . . . . . . . . . . . . . . . . . . .
3.4.4 Précodeurs non-diagonaux . . . . . . . . . . . . . . . . . . . . . . .
Schéma de transmission . . . . . . . . . . . . . . . . . . . . . . . .
Stratégie de transmission : solution UEP . . . . . . . . . . . . .
Contexte de simulation . . . . . . . . . . . . . . . . . . . . . . . .
3.7.1 Couche application . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.7.2 Couche physique . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Résultats et discussions . . . . . . . . . . . . . . . . . . . . . . . .
3.8.1 Canal statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.8.2 Canal réaliste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
70
71
71
71
72
72
74
74
76
77
78
79
81
83
84
86
86
87
88
89
92
98
69
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
3.1
Introduction
Dans ce chapitre nous allons proposer un nouveau schéma de transmission temps réel
de vidéo sur un système de communication MIMO-OFDM. Ce schéma implique le codeur
de vidéo H.264/SVC, quatre pré-codeurs linéaires et le canal de transmission MIMO. La
transmission est réalisée dans le cadre de la norme de transmission IEEE 802.11n. L’objectif visé par ce schéma est d’assurer la meilleure qualité de service supportée par les
conditions de transmission. En effet, l’idée est de garantir une qualité de base (minimum)
de la vidéo dans de mauvaises conditions de transmission, et d’atteindre la meilleure qualité de la vidéo dans de meilleures conditions de transmission.
D’une part, le codeur de vidéo H.264/SVC [117] permet de réduire la quantité d’information nécessaire pour représenter la vidéo en plusieurs résolutions spatiales, temporelles
et en qualités. D’autre part, les précodeurs linéaires exploitent l’information du canal à
l’émission et à la réception pour décomposer le canal MIMO en plusieurs sous-canaux
SISO (ou voies) parallèles et indépendants associés de faibles valeurs de TEB. De plus, les
précodeurs réduisent considérablement la complexité de décodage de Maximum par Vraisemblance (MV). Ainsi, la hiérarchie intrinsèque du codeur H.264/SVC est efficacement
exploitée par quatre précodeurs linéaires, appelés Max-RSB [124], WF (Water Filing)
[126], QdS (Qualité de Service) [126] et E-dmin (Equal-dmin ) [129], à l’aide d’une stratégie
de transmission UEP qui n’introduit aucune redondance.
Par la suite nous allons accorder une importance toute particulière au précodeur QdS, qui
contrairement aux autres précodeurs, permet une grande flexibilité dans l’allocation de la
puissance aux sous-canaux SISO. La question à laquelle nous essayons de répondre dans
ce chapitre est la suivante : quels sont les coefficients de précodage QdS, qui considèrent
le contenu de la vidéo et le canal de transmission pour offrir la meilleure qualité de service
pour la transmission du flux vidéo H.264/SVC. Afin de répondre à cette question, nous
avons opté dans un premier temps pour une étude expérimentale. Les résultats de simulation montrent les performances du schéma proposé sur un canal statistique puis sur un
canal réaliste.
Les performances du schéma proposé dépendent principalement de la précision de l’estimation du canal au niveau de l’émetteur et du récepteur. Dans la norme IEEE 802.11n,
le canal est estimé au niveau du récepteur grâce à l’envoi d’une séquence d’apprentissage
et de pilotes. Au niveau de l’émetteur, le canal est estimé de la même façon à l’aide d’une
voie de retour exploitée par le mode d’accès TDD 1 . Ainsi, une étude sur la robustesse
de ce schéma face aux erreurs d’estimation du canal est effectuée suivant la norme IEEE
802.11n à différentes vitesses de mobilité.
Ce chapitre est organisé de la façon suivante : Nous allons tout d’abord présenter le
standard de codage de vidéo H.264/SVC. Par la suite nous présentons trois schémas de
robustesse proposés puis intégrés au niveau du décodeur H.264/SVC pour faire face aux
pertes d’images. Dans la section 3, nous évoquons les quatre précodeurs utilisés pour
la transmission du flux vidéo. Le schéma de transmission proposé sera présenté dans la
1. TDD : Time Division Duplex
70
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
section 4. Dans la section 5 nous détaillerons l’approche expérimentale adoptée pour paramétrer le précodeur QdS. Le contexte de simulation sera défini dans la section 6. La
section 7 sera consacrée à la présentation et l’analyse des résultats. Nous terminons ce
chapitre par une conclusion.
3.2
3.2.1
Codeur de vidéo H.264/SVC
Motivations
L’objectif du chapitre précédent consiste à montrer l’impact d’une couche physique
réaliste sur la transmission de vidéo dans les réseaux mobiles ad hoc. Ainsi, aucune prise
en compte du contenu n’a été considérée dans la transmission. Il existe plusieurs manières
pour hiérarchiser le flux vidéo H.264/AVC, suivant la position des images dans le GOP
[80], la nature des données dans le flux (entêtes, vecteurs mouvements, résidus) ou encore
le type des images dans le GOP (I, P et B). La prise en compte de ces hiérarchies de
représentation du flux vidéo par une stratégie de transmission UEP permet forcement
d’améliorer la qualité de la vidéo reçue par rapport à une stratégie de transmission EEP.
Cependant, cette hiérarchisation du flux vidéo ne garantit pas une qualité de service à
l’utilisateur quelles que soient les conditions de transmission. Par exemple, en recevant
uniquement l’information la plus importante de la vidéo, tels que les entêtes et les vecteurs
de mouvement ne suffit pas pour décoder la vidéo, car pour assurer une vidéo de qualité
de base, une partie des résidus est aussi nécessaire.
L’objectif de notre démarche dans ce chapitre est d’assurer à l’utilisateur une qualité de
base de la vidéo lorsque les conditions du canal sont très dégradées. Ainsi, nous avons jugé
intéressant d’utiliser le codeur vidéo H.264/SVC qui permet la hiérarchisation souhaitée
du flux vidéo, c’est-à-dire le premier flux le plus important permet une représentation de
la vidéo avec une basse qualité et les autres flux sont exploités pour améliorer la qualité
de la vidéo reçue. Dans ce qui suit, nous allons présenter le codeur de vidéo H.264/SVC.
3.2.2
Définition
Le codeur de vidéo H.264/SVC [26] [117] est l’extension du codeur H.264/AVC permettant de coder la vidéo en plusieurs niveaux de qualité. Les groupes VCEG et MPEG
qui ont standardisé le codeur de base H.264/AVC ont par la suite standardisé sa version
scalable H.264/SVC. Les attentes du standard H.264/SVC sont les suivantes :
– Assurer un codage par scalabilités temporelle, spatiale et en résolution.
– Atteindre des performances de codage en terme de débit-distorsion et de complexité
de décodage similaires à celles du codeur de base H.264/AVC.
– Fournir un flux vidéo de la qualité de base compatible avec le codeur H.264/AVC,
c’est à dire que le codeur H.264/AVC suffit pour décoder le flux de qualité de base
du codeur H.264/SVC.
71
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
Afin d’atteindre ces objectifs, le codeur H.264/SVC garde la structure de codage du codeur
H.264/AVC, à savoir un codage en deux couches : couche VLC et couche NAL. Ces deux
couches ont été détaillées pour le standard H.264/AVC dans le premier chapitre d’état de
l’art (➜1.3.1.4.b). Dans cette section nous allons plus particulièrement nous intéresser aux
nouvelles fonctionnalités intégrées dans la couche VLC du codeur H.264/SVC, permettant
à ce codeur de réaliser les différents types de scalabilités : temporelle, résolution et qualité.
3.2.3
Scalabilité temporelle
La scalabilité temporelle est réalisée dans le codeur H.264/SVC à l’aide d’une structure de codage hiérarchique des images bidirectionnelles (voir figure 3.1). Chaque niveau
(couche) de résolution temporelle est représenté par un identifiant temporel T. Le niveau de résolution temporelle de base correspond à l’identifiant temporel T = 0, et les
niveaux d’amélioration de la qualité temporelle correspondent à des identifiants T = i,
i = 1, ..., (NT − 1), où NT est le nombre de niveaux de résolution temporelle.
Les images de résolution temporelle de base (T = 0) sont codées soit par un codage intra,
soit par un codage prédictif afin de constituer respectivement des images I et P. Ces images
sont appelées dans le standard H.264/SVC des images clés (Key pictures en anglais). Il
est important de noter que la notion du GOP dans le codeur H.264/SVC est différente
à celle définie précédemment dans le chapitre de l’état de l’art. Le GOP dans le codeur
H.264/SVC, tel qu’il est illustré dans la figure 3.1, regroupe toutes les images entre deux
images clé successives, y compris la première image clé. Ainsi, contrairement à la notion
de base du GOP, dans le codeur H.264/SVC, la première image du GOP peut être codée
par un codage prédictif.
Les images bidirectionnelles représentent les différentes couches d’amélioration de la qualité temporelle suivant la hiérarchie de codage utilisée et la position de l’image dans le
GOP. Les images d’identifiant temporel T = i, i = 1, ..., (NT −1) ne peuvent être codées par
prédiction que par rapport à des images de références d’identifiant temporel T = k inférieur
ou égal, soit k = 1, ..., i. Ainsi, le décodage à une résolution temporelle d’identifiant T = i
nécessite uniquement les flux correspondant aux images de résolution temporelle inférieure
ou égale, soit d’identifiant temporel T = k avec k ≤ i.
3.2.4
Scalabilité spatiale
La scalabilité spatiale est réalisée grâce à un mécanisme de prédiction spatiale entre
les images de la vidéo de différentes résolutions spatiales. La prédiction spatiale peut être
appliquée au niveau macrobloc, sur le vecteur de mouvement et/ou sur le signal résiduel
dans les domaines spatial ou transformé suivant que le macrobloc est respectivement codé
par codage Intra ou Inter. Dans certains cas, notamment lorsque la séquence de vidéo est
de faible mouvement et de grands détails spatiaux, le codage par prédiction temporelle
offre de meilleures performances en terme de débit-distorsion comparé à un codage spatial. Ainsi, le codage SVC choisit entre une prédiction temporelle ou spatiale suivant les
72
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
Figure 3.1: Codage hiérarchique dans le codeur H.264/SVC : scalabilité temporelle [118]
caractéristiques de la séquence vidéo, permettant ainsi d’atteindre les meilleures performances de codage. La figure 3.2 illustre le mécanisme de prédiction spatiale combinée à
la prédiction temporelle. On peut constater que la prédiction spatiale est appliquée uniquement sur certains points d’accès avec la couche de résolution spatiale de base, ce qui
permet d’améliorer davantage les performances de codage en terme de débit-distorsion et
de diminuer la complexité de décodage [118] .
Figure 3.2: Mécanisme du codage spatial dans le codeur H.264/SVC [118]
73
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
3.2.5
Scalabilité en qualité
La scalabilité en qualité est un cas particulier de la scalabilité spatiale avec des images
des différents niveaux de résolution en qualité de taille identique. Suivant la qualité désirée
par chaque couche de résolution en qualité, un coefficient de quantification spécifique lui
est associé. Ce type de codage, appelé Coarse-Grain quality Scalable coding (CGS), utilise
l’image de meilleure résolution en qualité comme image de référence pour la prédiction des
autres images dans le GOP. Ce type de codage offre de bonnes performances de codage en
terme de débit-distorsion. Cependant, lorsque l’image de meilleure résolution en qualité
est perdue, le décodage utilise l’image de meilleure résolution en qualité disponible comme
image de référence pour le décodage. Cela entraine une distorsion significative de la vidéo
décodée (appelée en anglais drift 2 ). Afin de faire face à cet inconvénient, une variante
du codage CGS, appelée Medium-Grain quality Scalable coding (MGS), est utilisée dans
le codeur H.264/SVC. Le codage MGS encode les images clé en utilisant une image de
référence de qualité de base, et pour les autres images, il maintient le codage CGS. Ce
qui permet d’avoir un bon compromis entre l’efficacité de codage et la robustesse face aux
pertes de paquets.
3.3
Codeur H.264/SVC dans un contexte de transmission
Nous utilisons le logiciel de référence du codec H.264/SVC disponible à l’adresse indiquée en [131]. Nous configurons le codeur pour un codage de la vidéo originale en
NT couches de résolution temporelle. Afin d’améliorer l’efficacité de codage en terme
de débit-distorsion, nous affectons à chaque niveau de résolution temporelle un coefficient de quantification suivant son importance [118]. A partir du coefficient de quantification de la résolution temporelle de base QP, les coefficients correspondant aux couches
d’amélioration de la résolution temporelle sont donnés par cette équation :
QPT = QP + T,
T = 1, ..., NT − 1
(3.1)
Le codage de scalabilité en qualité est appliqué sur chacune des NT couches de résolution
temporelle afin de fournir les différentes couches d’amélioration de la qualité de la vidéo.
Le coefficient de quantification, associé à chaque couche d’amélioration de qualité QPQ
avec 0 < Q < NQ − 1, est fixé suivant la qualité ou le débit désiré par cette couche. Dans
nos travaux, nous utilisons uniquement les scalabilités temporelle et en qualité du codeur
H.264/SVC. Cependant, ces travaux peuvent être directement étendus pour considérer la
scalabilité spatiale.
Contrairement au code source du codeur H.264/AVC JM.14 [132], le code source du codeur
H.264/SVC n’intègre aucune méthode de robustesse face aux pertes de paquets. Ainsi,
la perte d’un paquet causée par le canal radio mobile, entraine soit la dégradation de la
2. drift : désynchronisation entre les processus de codage et de décodage
74
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
qualité de la vidéo reçue due à la perte des couches d’amélioration de qualité, soit la perte
totale d’une image due à la perte de la résolution de qualité de base de la vidéo. Sachant
que la qualité des vidéos reçues est évaluée par un critère d’erreur quadratique calculée
entre la vidéo originale et la vidéo reçue. La perte d’une image entraine un décalage dans la
séquence vidéo décodée, ce qui ne permet pas une évaluation équitable des vidéos reçues.
Afin de faire face à ce problème, nous avons implémenté trois schémas de robustesse aux
pertes d’images des vidéos H.264/SVC. Ces trois schémas remplacent l’image perdue par
une image correctement reçue dans le GOP. L’image de remplacement est choisie parmi
les autres images du GOP suivant un critère particulier :
– Schémas 1 : L’image perdue est remplacée par l’image précédente dans le GOP
correctement reçue. Si l’image numéro n est perdue, elle sera remplacée par l’image
de numéro n − 1, puis l’image n − 2 si l’image n − 1 est aussi perdue.
– Schémas 2 : L’image perdue est remplacée par la plus proche image dans le GOP
correctement reçue. La recherche de la plus proche image est effectuée dans le sens
le plus proche d’une image clé. Dans la figure 3.1, si l’image numéro 4 est perdue,
elle sera replacée par l’image numéro 3, puis par l’image numéro 5 si l’image numéro
3 est aussi perdue.
– Schémas 3 : L’image perdue est remplacée par l’image de résolution temporelle la
plus proche en utilisant uniquement les images de résolution temporelle inférieure ou
égale. Par exemple si l’image numéro 7 est perdue, elle sera remplacée par l’image
numéro 5, puis par l’image numéro 9 si l’image numéro 5 n’est pas correctement
reçue.
Les deux premiers schémas remplacent l’image perdue par l’image la plus proche dans
le GOP. Ainsi, la corrélation temporelle entre l’image perdue et l’image utilisée pour la
remplacer est grande. Cependant, l’image perdue peut affecter le décodage de l’image
utilisée pour la remplacer. D’autre part, pour le schéma 3, l’image perdue ne peut jamais
affecter le décodage de l’image utilisée pour la remplacer, puisque elle est de résolution
temporelle inférieure. Contrairement aux schémas 1 et 2, dans le schéma 3 l’image perdue
et l’image utilisée pour la remplacée peuvent être éloignées dans le GOP (faible corrélation
temporelle).
Les figures 3.13(a) et 3.13(b) illustrent les performances de ces trois schémas pour respectivement les vidéos Akiyo et Foreman de format QCIF. Les deux vidéos sont codées à 4
résolutions temporelles et 4 résolutions en qualité. Le taux de perte de paquets est fixé
pour chaque résolution temporelle à PT =0 = 0%, PT =1 = 10%, PT =2 = 20%, PT =3 = 30%. Le
taux de perte reste le même pour toutes les résolutions en qualité PQ=1=2=3 = 30%.
On peut constater que le schéma 3 est le moins performant, car l’image sélectionnée pour
remplacer l’image perdue est généralement loin de l’image perdue dans le GOP, ainsi
la corrélation temporelle entre les deux images est relativement faible. Les performances
du schéma 2 surpassent légèrement celles du schéma 1. Cela est expliqué par la dimension supplémentaire dans la recherche (images précédentes et suivantes) exploitée par le
schéma 2, alors que le schéma 1 effectue le recherche uniquement dans une seule direction
(images précédentes). En conséquence, dans la suite de ce manuscrit, nous allons adopter
75
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
le schéma 2 pour faire face à la perte d’images dans les vidéos reçues.
(a) Akiyo
(b) Foreman
Figure 3.3: Performances des trois schémas de robustesse vis-à-vis des pertes d’images
3.4
Précodeurs linéaires pour une transmission de
vidéos
Les pré-codeurs linéaires appartiennent à l’ensemble des systèmes MIMO à boucle
fermée (CL-MIMO). Ainsi, les précodeurs exploitent l’information du canal au niveau
de l’émetteur et du récepteur afin d’optimiser un critère de qualité tel que le RSB, la
capacité du canal et la distance minimale de la constellation de réception. Les précodeurs
ont plusieurs avantages par rapport aux systèmes MIMO à boucle ouverte, connaissant
l’information du canal uniquement à la réception :
– Ils permettent une meilleure exploitation de la diversité spatiale comparé aux codes
spatio-temporels, tels que les codes d’Alamouti [127].
– Ils améliorent soit le TEB du lien radio (diversité), soit le débit (multiplexage) de
la communication pour offrir un bon compromis entre la robustesse et le débit.
– Ils décomposent le canal MIMO en plusieurs sous-canaux SISO indépendants et
parallèles.
De plus, contrairement aux précodeurs non-diagonaux, les précodeurs diagonaux permettent de réduire significativement la complexité du décodage de MV. Ces avantages
sont adaptés à une transmission temps réel de vidéo sur un canal radio, qui nécessite à la
fois une bande passante importante et la fiabilité des liens radios pour assurer une bonne
qualité de service. De plus, sachant que la complexité de décodage à une importance toute
particulière pour les applications temps réel, les précodeurs qui réduisent la complexité de
décodage de MV représentent une solution adéquate à ce type d’applications appliquées
76
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
à la transmission de vidéo.
Dans ce qui suit nous allons présenter les quatre précodeurs adoptés dans nos travaux
pour la transmission temps réel du flux vidéo H.264/SVC, à savoir les précodeurs MaxRSB, WF, QdS et E-dmin . Nous avons choisi les précodeurs Max-RSB et WF, car ces
précodeurs sont intégrés dans la norme IEEE 802.11n. Le précodeur QdS nous offre une
liberté dans l’allocation de la puissance. Enfin, le précodeur E-dmin est l’un des précodeurs
récents les plus performante en terme de TEB. De plus, le precodeur E-dmin fournit un
TEB similaire pour les différents flux, ainsi il servira comme une solution efficace pour
une stratégie de transmission EEP.
Nous voulons tout d’abord notifier que le schéma proposé dans cette section pour la transmission de vidéo H.264/SVC utilise une modulation OFDM pour une transmission sur
un canal à bande large (sélectif en fréquence). Il a été montré dans [126] qu’un système
MIMO multi-porteuses sur un canal à bande large est équivalent à un système MIMO
mono-porteuse sur un canal à bande étroite. Ainsi, pour des raisons de complexité, nous
allons présenter ces quatre précodeurs sur un canal MIMO à bande étroite.
3.4.1
Système MIMO avec précodage
On considère un canal MIMO à bande étroite avec NT antennes à l’émission et NR
antennes à la réception, noté système MIMO (NT × NR ). Le signal reçu Y sur ce canal
est donné par l’équation suivante :
(3.2)
Y = GHF X + GN
où X est le vecteur émis de taille b × 1, Y le vecteur reçu de taille b × 1, H la matrice
du canal de taille NR × NT définie par les coefficients bande étroite des différents liens du
canal MIMO, F la matrice de précodage de taille NT × b, G la matrice de décodage de
taille b×NR , N le vecteur de bruit additif de moyenne nulle de taille 1×b et b ≤ trace(H) ≤
min(NT , NR ).
Nous considérons dans ce qui suit que
E[XX T ] = Ib
E[XN T ] = 0
et
E[N N T ] = R
(3.3)
avec AT la matrice transposée conjuguée de la matrice A et Ib la matrice identité de taille
b.
Ces contraintes signifient que les symboles émis sur les différentes antennes sont décorrélés
et normalisés à une puissance unitaire, le signal émis est décorrélé du bruit et que R est
la matrice de corrélation du bruit.
La première étape commune à tous les précodeurs consiste à représenter le canal MIMO
sous la forme d’un canal virtuel constitué de b sous canaux SISO décorrélés et parallèles.
Cette étape de transformation en canal virtuel est détaillée dans la section suivante.
77
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
3.4.2
Transformation en canal virtuel
La transformation en canal virtuel est effectuée en trois étapes principales : traitement
du bruit afin de le rendre indépendant et identiquement distribué (iid) de variance unitaire
(blanchiment du bruit), diagonalisation la matrice du canal H puis réduire sa dimension à
b × b, qui correspond au nombre de sous canaux SISO indépendants et parallèles. Ces trois
étapes sont réalisées par des opérations matricielles. L’opération de SVD est couramment
utilisée pour diagonaliser la matrice du canal H en une matrice diagonale Hv du canal
virtuel MIMO. Pour plus d’information sur les opérations appliquées pour la transformation en canal virtuel, le lecteur peut se référer à [123]. Après la transformation en canal
virtuel, le système MIMO s’écrit sous la forme suivante, d’après l’équation (3.2) :
Y = G d H v F d X + G d Nv
(3.4)
avec Hv = Gv HFv est la matrice diagonale du canal, les matrices Gv et Fv sont des matrices
unitaires qui permettent la transformation en canal virtuel, Fd est la matrice de précodage
de taille b × NT , Gd est la matrice de décodage de taille NR × b et nv = Gd N est le vecteur
de bruit de covariance RN v = Ib .
La puissance émise sur toutes les antennes doit être limitée à la puissance totale de
transmission ET . Sachant que la matrice Fv est unitaire, on peut écrire :
∥F ∥F = ∥Fd ∥F = ET
2
2
(3.5)
où ∥.∥F est la norme de Fobenuis.
Le canal virtuel Hv du système MIMO s’écrit en fonction des valeurs singulières σi de
matrice du canal H sous la forme suivante :
Hv = diag(σ1 , σ2 , ..., σb )
(3.6)
où σi2 représente le RSB du sous-canal SISO i.
On définit le gain total σ du canal MIMO par la racine carrée de la somme des RSB des
sous-canaux SISO, soit
!
"b
#∑ σ 2
σ="
(3.7)
i
i=1
Le précodage linéaire est réalisé à l’aide des matrices de précodage et de décodage Fd et
Gd . Selon que ces matrices sont diagonales ou non diagonales on peut distinguer deux
familles de précodeurs, appelés respectivement les précodeurs diagonaux et les précodeurs
non-diagonaux.
Dans ce qui suit, nous allons considérer un décodage basé sur le critère de MV. Ainsi, tel
qu’il a été montré dans [123], la matrice de décodage Gd n’aura aucune influence sur les
résultats. Dans ce qui suit, les quatre précodeurs seront représentés uniquement à travers
leur matrice de précodage Fd . La figure 3.4 résume à travers un schéma bloc les différentes
étapes du précodage linéaire.
78
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
Figure 3.4: Schéma bloc des précodeurs linéaires dans le canal virtuel
3.4.3
Précodeurs diagonaux
Le schéma bloc de la figure 3.5 représente le précodage diagonal. A partir de ce schéma,
on peut constater que les précodeurs diagonaux ont l’avantage de réduire la complexité
de décodage par MV de M b à b × M , avec b le nombre de sous-canaux SISO sélectionnés
par le précodeur et M le nombre de points de la constellation de la modulation. Selon le critère optimisé par le précodeur, on peut distinguer plusieurs précodeurs diagonaux. Parmi ces précodeurs, nous utilisons trois pour la transmission du flux vidéo
H.264/SVC : le précodeurs Max-RSB, WF et QdS. Dans ce qui suit nous allons définir
ces trois précodeurs et donner les coefficients fi de la diagonale de la matrice précodage
Fd .
Figure 3.5: Schéma bloc des précodeurs diagonaux
3.4.3.1
Précodeur Max-RSB
Le précodeur Max-RSB [124], aussi connu sous le nom de beamforming, maximise
le critère RSB à la réception. Ce précodeur utilise uniquement la voie la plus favorable
79
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
correspondante à la plus grande valeur singulière du canal virtuel. Ainsi, le précodeur MaxRSB concentre toute la puissance d’émission (ET ) sur le sous-canal SISO de la plus grande
valeur singulière. Le signal reçu Y est exprimé dans le domaine virtuel par l’expression
suivante :
√
(3.8)
Y = E T σ1 X + N
où ET représente la puissance totale d’émission.
La structure de ce précodeur est très simple est permet d’atteindre le maximum de diversité de NT × NR sur un canal de Rayleigh [125].
3.4.3.2
Précodeur WF
Le précodeur WF [126] a une importance toute particulière dans le domaine des communications numériques, car il permet de maximiser la capacité du canal MIMO. Le canal
étant connu à l’émission, l’algorithme WF calcule la répartition de la puissance sur l’ensemble des antennes permettant de maximiser la capacité du canal MIMO. Les coefficients
de la matrice de précodage Fd représentent la solution d’un problème d’optimisation, défini
par la maximisation de la capacité, sous contrainte que la puissance d’émission soit égale
à la puissance totale autorisée ET . La méthode de Lagrange permet de résoudre ce type
de programmes d’optimisation. Les coefficients de la matrice de précodage Fd sont donnés
par l’expression suivante :
fi2
⎧
1
⎪
⎪Ψ − σi2
=⎨
⎪
⎪
⎩0
si Ψ >
1
σi2
avec i = 1, 2, ..., b
sinon
(3.9)
où Ψ est un seuil qui dépend du canal virtuel, et est défini par :
ET + γΨ
Ψ=
bΨ
bΨ
avec
1
2
i=1 σi
γΨ = ∑
(3.10)
soit :
ET + γΨ
(3.11)
Ψ
Le précodeur WF choisit alors le nombre de voies bΨ calculé par (3.10) suivant l’état
du canal. Ainsi, il peut sacrifier des voies qu’il considère très mauvaises et concentrer la
puissance d’émission uniquement sur les bΨ voies sélectionnées.
bΨ =
3.4.3.3
Précodeur QdS
Le précodeur QdS n’optimise aucun critère de qualité, mais offre une grande flexibilité
dans la répartition de la puissance sur les différentes voies [126]. En effet, c’est à l’utilisateur de définir le rapport de RSB souhaité sur chacune des voies.
Le RSB de chaque voie en fonction d’une constante positive γ est donné par l’expression
suivante :
fi2 σi2 = γρi
(3.12)
80
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
où γ est le RSB total qui peut être alloué à toutes les voies et ρi la portion de γ désirée
sur la voie i avec ∑bi=1 ρi = 1.
En utilisant la contrainte sur la puissance totale ET , on peut écrire :
b
b
ρi
= ET
2
i=1 σi
∑ fi2 = γ ∑
i=1
(3.13)
L’expression du RSB total sur toutes les voies γ est donnée par
γ=
ET
ρ
b
∑i=1 σ2i
(3.14)
i
Ainsi, en remplaçant (3.14) dans (3.12), on peut aisément montrer que :
fi2 =
E T ρi
σi2 ∑bk=1 σρk2
(3.15)
k
Il suffit alors de fixer la portion du RSB souhaitée sur chaque voie (ρi ) et le précodeur
QdS calcule les coefficients de précodage correspondants.
3.4.4
Précodeurs non-diagonaux
La figure 3.6 illustre la structure du précodage non diagonal. Contrairement au précodage
diagonal, le précodage non-diagonal ne réduit pas la complexité du décodage de MV, qui
reste égale à M b . Dans cette section, nous allons présenter le précodeur M ax−dmin inhérent
à la modulation 4-QAM 3 et à un système MIMO (2 × 2). Dans nos travaux nous utilisons
le précodeur E − dmin , qui est l’extension du précodeur Max-dmin pour un système MIMO
(NT × NR ).
3.4.4.1
Précodeur Max-dmin
Le principe du précodeur Max-dmin [123] est de maximiser la distance minimale de
la constellation de réception. La solution Max-dmin consiste à trouver les coefficients de
la matrice Fd qui maximisent la distance minimale de la constellation de réception. La
résolution de ce problème est particulièrement difficile, car l’expression de la distance,
exprimée dans [123], prend en compte plusieurs paramètres : le canal de transmission Hv ,
la modulation numérique et le nombre de voies b. La solution est obtenue grâce à un
changement de variable des deux valeurs propres du canal : changement de coordonnées
cartésiennes en coordonnées polaires. La matrice de précodage est donnée ici pour une
modulation 4-QAM et un canal MIMO (2 × 2) sous deux formes de précodeur, d’après
[123] :
√
√ √
π
√ ⎛ 3+√3
3− 3 i 12
⎞
3
3 e
(3.16)
Si 0 ≤ ρ ≤ ρ0 Fd = Fd1 = ET
⎠
⎝ 0
0
3. QAM : Quadrature Amplitude Modulation
81
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
Figure 3.6: Schéma bloc des précodeurs non-diagonaux
π
Si ρ0 ≤ ρ ≤
4
où
Fd = Fd2 =
√
π
ET cos ψ
0
1 ei 4
π )
(
)(
0
sin ψ −1 ei 12
2
⎧
ρ = arctan σσ12
⎪
⎪
⎪
⎪
⎨ρ0 = 17, 28○
√
⎪
⎪
2−1
⎪
⎪
ψ
=
arctan
⎩
cos ρ
(3.17)
(3.18)
Le précodeur Max-dmin prend la matrice Fd1 qui favorise une seule voie pour des valeurs
de ρ inférieures à 17, 28○ . Le précodeur choisit alors de mélanger les deux symboles et
de les transmettre uniquement sur la meilleure voie. Ce cas de figure se présente lorsque
l’écart entre les deux valeurs propres est grand. Dans le cas contraire, c’est à dire pour des
valeurs de ρ supérieures à 17, 28, le précodeur Max-dmin utilise les deux voies à travers
la matrice de précodage Fd2 pour transmettre les deux symboles. Pour plus de détails
sur le précodeur Max-dmin ainsi que sa solution pour la modulation 16-QAM, le lecteur
peut se référer respectivement aux références [123] [128]. Dans le schéma proposé dans ce
chapitre, nous considérons un système MIMO (NT × NR ), ainsi nous nous intéressons plus
particulièrement à l’extension du précodeur E-dmin pour un système MIMO (NT × NR ).
Le précodeur E-dmin est présenté ci-après.
3.4.4.2
Précodeur E-dmin
L’inconvénient principal du précodeur Max-dmin est sa complexité de décodage de MV
qui croı̂t exponentiellement avec le nombre de voies considérées : M b . Afin de généraliser
cette solution pour un système MIMO avec plusieurs antennes à l’émission et à la réception,
Vrigneau et al. ont proposé dans [129] une solution non optimale, mais qui permet d’avoir
un bon compromis entre les performances en terme de TEB et de complexité de décodage
de MV. Cette solution, appelée E-dmin , est appliquée sur un canal MIMO de b voies avec
82
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
b = min(NT , NR ) ≥ 4 et b un nombre pair. Les étapes de la solution E-dmin sont résumées
ci-après :
– Décomposer le système MIMO en b > 2 sous-canaux SISO parallèles et décorrélés en
appliquant la transformation en canal virtuel.
– Séparer le système MIMO en b/2 sous systèmes MIMO virtuels de deux voies, notés
sous système MIMO χi avec i = 1, ..., b/2.
– Appliquer le précodeur Max-dmin sur chacun de ces sous systèmes MIMO χi
– Répartir la puissance totale ET sur les différents sous systèmes MIMO : affecter à
chaque sous système MIMO χi une puissance Υi qui maximise la distance minimale
b/2
de la constellation sous la contrainte ∑i=1 Υ2i = ET .
3.5
Schéma de transmission
Le schéma de transmission proposé dans nos travaux implique deux couches principales : la couche application et la couche physique. La couche application utilise le
codeur H.264/SVC pour compresser la vidéo originale avec une représentation en plusieurs couches de résolutions temporelle et en qualité. Dans nos travaux, les paquets NAL
correspondant aux NT couches de résolution temporelle et aux NQ couches de résolution
en qualité sont regroupés suivant une stratégie de transmission pour constituer les N flux
vidéo à transmettre sur le canal MIMO. Ces flux, notés ρ1 , ρ2 , ..., ρN , sont triés dans un
ordre décroissant suivant leur importance dans la reconstruction de la vidéo reçue. Ainsi,
la réception sans erreur du flux ρ1 permet de reconstruire une qualité de base de la vidéo
reçue. Les autres flux ρ2 , ..., ρN permettent quant à eux d’améliorer la qualité de la vidéo.
Ces différents flux vidéo alimentent la couche physique qui traite indépendamment chaque
flux suivant son niveau d’importance.
La couche physique adoptée dans notre schéma suit la structure générale de la couche
physique IEEE 802.11n. L’information du canal à l’émission (CSI-Tx) ainsi que l’algorithme de décomposition en valeurs singulières (SVD) sont accessibles dans la norme
IEEE 802.11n. Ils ont été prévus pour implémenter le précodeur Max-RSB qui a été
intégré dans les versions récentes de la norme. Ainsi, nous avons implémenté les trois
autres précodeurs : WF, QdS et E-dmin en C++ à l’aide de la librairie IT++. Les performances des ces précodeurs en terme de TEB sur un canal de Rayleigh ont été validées en
les comparant avec les résultats des papiers de référence. Ces précodeurs sont par la suite
intégrés dans la couche physique de la norme IEEE 802.11n. Le schéma proposé entre les
couches application et physique pour la transmission de vidéo H.264/SVC sur un canal
MIMO exploité par quatre précodeurs est illustré sur la figure 3.7.
Les différents flux vidéo issus de la couche application sont protégés par un code correcteur d’erreurs LDPC. La modulation M-QAM est utilisée pour adapter les flux binaire
vidéo au support de transmission radio. Les paramètres du CCE et de la modulation
numérique, notamment le rendement du CCE LDPC et l’efficacité spectrale de la modulation sont fixés par la stratégie de transmission. Les précodeurs diagonalisent le canal
83
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
Figure 3.7: Schéma de transmission de vidéo H.264/SVC suivant la norme IEEE 802.11n
MIMO en plusieurs sous canaux SISO, permettant une transmission indépendante des
différents flux vidéo. La modulation multi-porteuses OFDM est utilisée avant la transmission des symboles pour faire face à la sélectivité fréquentielle du canal radio mobile.
Enfin, à la sortie de la couche physique les différents paquets NAL de la vidéo constituent
des trames de longueur fixe suivant la norme IEEE 802.11n prêtes à la transmission sur
le canal radio.
Au niveau du récepteur, un décodeur de MV est utilisé pour détecter les symboles reçus.
Les symboles reçus seront par la suite démodulés, dé-entrelacés puis décodés par le code
correcteur d’erreur LDPC. Ces codes LDPC permettent aussi de détecter la présence
d’erreurs résiduelles dans les trames reçues. Les trames erronées, c’est à dire les trames
contenant au moins une erreur de transmission, seront perdues et éliminées au niveau de la
couche physique. Quant aux trames reçues sans erreurs, elles sont directement acheminées
vers la couche application. Le décodeur H.264/SVC associé au schéma de robustesse aux
pertes d’images décodent les paquets vidéo NAL correctement reçus pour construire la
vidéo reçue avec une taille identique à la taille de la vidéo originale.
La qualité de vidéo est évaluée par le critère objectif couramment utilisé dans la littérature,
à savoir le PSNR. Le PSNR utilisé dans ce chapitre représente le PSNR moyen des trois
composantes des images de la vidéo : composante luminance (Y) et les composantes chrominances (UV).
3.6
Stratégie de transmission : solution UEP
Le principe de la stratégie de transmission proposée dans nos travaux consiste à affecter
les flux vidéo ρ1 , ρ2 , ..., ρN aux sous-canaux SISO de RSB σ12 , σ22 , ..., σb2 . En effet, le flux
vidéo ρi sera transmis sur le sous canal SISO de RSB σi2 avec i = 1, ..., min(N, b). Sachant
que les flux vidéo et les sous-canaux SISO sont triés dans un ordre décroissant suivant
84
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
respectivement l’importance des flux vidéo et le RSB des canaux SISO, cette stratégie de
transmission permet une protection inégale aux erreurs (UEP) sans aucune redondance.
Figure 3.8: Stratégie de codage conjoint impliquant le codage de source, les précodeurs et le
canal de transmission
En utilisant les précodeurs, le RSB d’un sous-canal SISO i après l’étape de précodage
n’est plus σi2 , mais fi2 σi2 . On a vu que les précodeurs calculent les coefficients de précodage fi suivant l’état du canal et le critère de qualité à optimiser. Ainsi, cette stratégie
de transmission sera adaptative suivant l’état du canal de transmission, et ses résultats
vont bien évidemment dépendre du critère de qualité optimisé. La figure 3.8 illustre la
stratégie de codage conjoint adoptée entre la couche application et la couche physique,
impliquant le codeur de source, les précodeurs et le canal MIMO.
D’une part, on peut constater que les précodeurs Max-RSB, WF, E-dmin , qui optimisent
respectivement le RSB à la réception, la capacité du canal et la distance minimale de la
constellation de réception, ne considèrent pas vraiment l’importance des différents flux
vidéo. D’autre part, le précodeur QdS nous offre une flexibilité totale dans l’allocation de
puissance entre les sous-canaux SISO. Ainsi, le précodeur QdS semble le plus approprié
pour adapter finement les puissances allouées aux sous canaux SISO à la fois à l’importance du flux vidéo transmis sur chacun des sous canaux SISO et à l’état du canal de
transmission.
Dans ce chapitre nous adoptons une approche empirique pour fixer les coefficients du
précodeur QdS qui offrent les meilleures performances de transmission. Cette approche
considère à la fois le canal de transmission et l’importance des flux vidéo du codeur
85
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
H.264/SVC. Plus de détails sur cette approche ainsi que les configurations du précodeur
QdS considérées seront données dans la section suivante.
3.7
3.7.1
Contexte de simulation
Couche application
Nous transmettons deux séquences vidéo F oreman et Akiyo en format QCIF 4 (175 ×
144 pixels/image). Nous avons choisi ces deux vidéos car elles sont de nature différente.
En effet, la vidéo Akiyo est caractérisée par un faible mouvement, alors que la séquence
de vidéo F oreman contient des variations temporelles importantes.
Les 288 images de chaque vidéo sont codées par le codeur H.264/SVC à 30 images/seconde.
Nous avons configuré le codeur H.264/SVC pour fournir quatre couches de résolution
temporelle (NT = 4 et la taille du GOP est égale à 8), et quatre couches de résolution
en qualité NQ = 4. Le coefficient de quantification de la résolution temporelle de base est
fixé à 46 (QP = 46). A partir de QP, les coefficients de quantification des autres couches
d’amélioration de la résolution temporelle sont calculés par l’équation 3.1. Dans ce travail, les 4 couches de résolution en qualité constituent les N = 4 flux vidéo (ρ1 , ρ2 , ρ3 , ρ4 ) à
transmettre sur le canal MIMO. Ainsi, le flux vidéo ρi est exploitable uniquement lorsque
les flux vidéo ρk avec k < i sont correctement reçus.
La contrainte temps réel impose la réception simultanée des flux vidéo transmis parallèlement sur les différents sous canaux SISO. Cette contrainte implique que les différents
flux vidéo doivent être de taille identique, afin de pouvoir les exploiter par le décodeur
pour reconstruire les images de la séquence vidéo. Ainsi les coefficients de quantification
correspondant aux couches d’amélioration de qualité sont fixés de telle sorte que les flux
vidéo d’amélioration de qualité aient la même taille que celle du flux vidéo de qualité
de base. Les coefficients de quantification des différentes couches de résolution en qualité
ainsi que le PSNR et la taille associés sont donnés dans le tableau 3.1 pour les vidéos
F oreman et Akiyo.
Flux vidéo
Flux
Flux
Flux
Flux
ρ1
ρ1+2
ρ1+2+3
ρ1+2+3+4
QPQ
46
39
36
33
Vidéo Akiyo
PSNR(dB) Débit (Kb/s)
33.53
108
36.24
219
37.72
331.8
39.56
456.9
QPQ
46
39
36
31
Vidéo F oreman
PSNR(dB) Débit (Kb/s)
33.74
135
36.04
285
37.46
449
38.54
619
Table 3.1: Configuration de codage du codeur H.264/SVC pour les vidéos Akiyo et F oreman
4. QCIF : Quarter Common Intermediate Format
86
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
3.7.2
Couche physique
3.7.2.1
Paramètres de la couche physique
Les paramètres de la chaı̂ne de transmission (fréquence de la porteuse, modulation
OFDM, puissance d’émission et le seuil de sensibilité) sont fixés suivant la norme IEEE
802.11n. On considère un canal MIMO (4 × 4). L’espace entre les antennes est fixé à 0, 4λ,
avec λ la longueur de l’onde. Rappelons que cet espacement correspond généralement à
la plus faible corrélation entre les antennes [112]. Les flux vidéo sont protégés par le code
correcteur correcteur LDPC avec une stratégie EEP en utilisant un seul rendement de 1/2.
Les flux vidéo codés sont modulés par la modulation 4-QAM. Avec une telle configuration
de la couche physique, le débit de transmission est égal à 12 × b M b/s, avec b le nombre
de sous-voies sélectionnées par le précodeur.
3.7.2.2
Modélisation du canal
Nous utilisons deux types de canaux, à savoir un canal statistique et un canal réaliste.
Dans le cas d’un canal statistique, les coefficients de la matrice H sont générés suivant
la distribution de Rayleigh. Ces coefficients sont générés par un processus Gaussien complexe de moyenne nulle et de variance unitaire, modélisant les variations à petite échelle
du canal radio mobile. Quant aux variations à moyenne échelle, elles sont modélisées par
un processus de Markov [130]. La matrice de transition de la chaı̂ne de Markov est paramétrée par une loi log-normale qui est couramment utilisée pour modéliser ce type de
variations. Une loi log normale est caractérisée par sa moyenne µ et sa variance σ 2 . La
variance σ 2 est fixée à 3,6 pour modéliser un environnement urbain [30], et la moyenne
µ prend les valeurs 0, 5 et 10 dB pour modéliser respectivement un canal de mauvaise,
moyenne et bonne qualité.
Pour le canal réaliste, nous utilisons le modèle de propagation 3D, présenté dans le
chapitre précédent (section 2.3.1). Ce modèle de propagation nous fournit les RI d’une
trajectoire de 180 mètres dans le campus de l’université de Poitiers. La figure 3.9 illustre
l’environnement de simulation, dans lequel l’émetteur reste fixe et le récepteur se déplace
sur la trajectoire avec deux vitesses : 5 et 10 m/s.
3.7.2.3
Configuration du précodeur QdS
Afin de fixer les coefficients de précodage du précodeur QdS, nous avons transmis les
deux vidéos Akiyo et Foreman sur le canal statistique avec plusieurs configurations du
précodeur QdS. Parmi toutes les configurations utilisées, nous en avons choisi trois associées aux trois états du canal de transmission. Les RSB relatifs entre les quatre voies
du canal MIMO sont donnés suivant l’état du canal dans le tableau 3.2. On constate
que l’état du canal est pris en compte en sélectionnant uniquement un sous ensemble des
quatre voies. Le sous ensemble sélectionné correspond aux sous-canaux SISO de puissance
significative, et les autres canaux de faible puissance ne sont pas utilisés. D’autre part,
87
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
(a) Campus de l’Université de Poitiers
(b) Zoom sur la trajectoire
Figure 3.9: Environnement de simulation : campus de l’université de Poitiers
l’importance des flux vidéo est considérée par une stratégie d’allocation de puissance UEP
entre les voies sélectionnées pour la transmission. Nous voulons clarifier que ces configurations sont choisies expérimentalement parmi d’autres configurations moins performantes,
et qu’elles ne représentent en aucun cas la solution optimale.
Configurations QdS
État du canal
RSB Relatifs
Configuration 1
Mauvais
(0.7, 0.3, 0, 0)
Configuration 2
Moyen
(0.4, 0.3, 0.3, 0)
Configuration 3
Bon
(0.3, 0.3, 0.25, 0.15)
Table 3.2: Valeurs relatives des RSB utilisées par le précodeur QdS pour chaque état du canal
3.8
Résultats et discussions
Nous allons tout d’abord évaluer les performances des quatre précodeurs utilisés.
Dans le tableau 3.3, nous avons fait une comparaison entre les performances des quatre
précodeurs en terme de multiplexage (débit), complexité de décodage de MV et diversité.
Quant aux performances de ces précodeurs en terme de TEB sur un canal de Rayleigh, elles
sont illustrées sur la figure 3.10. On peut constater que le précodeur Max-RSB est le plus
simple et permet d’atteindre la diversité maximale (NT × NR ). Cependant, ce précodeur
utilise uniquement une seule voie, ce qui correspond aussi à un multiplexage spatial minimum. De plus, il n’offre pas les meilleures performances en terme de TEB comparé
aux autres précodeurs. Les performances des précodeurs WF, QdS et E-dmin dépendent
principalement de l’état du canal de transmission (nombre de voies utilisées). Toutefois, le
précodeur E-dmin offre les meilleures performances en terme de TEB, au détriment d’une
complexité de décodage à MV supplémentaire. Enfin, en plus de sa grande flexibilité dans
l’allocation de puissance, le précodeur QdS offre le meilleur compromis entre la complexité
de décodage, le multiplexage spatial et la robustesse aux erreurs (TEB).
88
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
Precoders
Max-RSB
WF
QdS
E − dmin
Multiplexage Complexité
1
M
b
b×M
b
b×M
b
b/2 × M 2
Ordre de diversité
N T × NR
(NT − b + 1) × (NR − b + 1)
(NT − b + 1) × (NR − b + 1)
(NT − b/2 + 1) × (NR − b/2 + 1)
Table 3.3: Comparaison des performances de quatre précodeurs
Cette étude des précodeurs va nous permettre de faire une meilleure analyse des performances du schéma proposé, notament sur la qualité visuelle des vidéos reçues. Les résultats
de transmission sur un canal statistique et un canal réaliste sont donnés ci-après.
Figure 3.10: TEB des quatre précodeurs sur un canal de Rayleigh MIMO (4 × 4) à 8 bits/s/Hz
3.8.1
Canal statistique
Les figures 3.11, 3.12 et 3.13 illustrent les performances, en terme de PSNR moyen, du
schéma proposé sur un canal statistique MIMO (4 × 4) dans respectivement de mauvaises,
moyennes et de bonnes conditions de transmission. Chaque courbe représente le PSNR
moyen sur 300 simulations en fonction des images de la séquence vidéo : Akiyo et Foreman.
Dans de mauvaises conditions de transmission (figure 3.11, µ = 0 dB), le précodeur QdS
qui exploite uniquement deux voies avec une stratégie UEP (configuration 1), offre les
89
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
meilleures performances. Le précodeur Max-RSB considérant une seule voie garantit la
réception sans erreur du flux correspondant à la qualité de base de la vidéo, alors que le
précodeur WF qui maximise la capacité du canal surpasse les performances du précodeur
Max-RSB. On peut remarquer aussi que les courbes du précodeur E-dmin ne sont pas
représentées, car dans de telles conditions de transmission le précodeur E-dmin n’arrive
même pas à assurer la réception sans erreur du flux vidéo de qualité de base (ρ1 ).
(a) Akiyo
(b) Foreman
Figure 3.11: Performances du schéma proposé sur un canal statistique MIMO (4×4) avec µ = 0
dB
Avec 5 dB d’amélioration sur la puissance moyenne reçue par rapport au canal précédent,
on constate à partir de la figure 3.12 une amélioration appréciable des performances des
précodeurs QdS et WF, alors que le précodeur Max-RSB garantit les mêmes performances
que celles obtenues dans le cas d’un canal de mauvaise qualité. Contrairement à la figure
précédente, le précodeur E-dmin arrive cette fois à recevoir sans erreur le flux vidéo de
qualité de base (ρ1 ) et surpasse les performances du précodeur Max-RSB.
Dans de bonnes conditions de transmission (figure 3.13, µ = 10 dB), les précodeurs E −
dmin et QdS offrent les meilleures performances. En effet, ces précodeurs arrivent à recevoir
sans erreur presque tous les flux vidéo, approchant la qualité de la vidéo transmise. Le
précodeur E-dmin réalise les meilleures performances suivi par le précodeur QdS. Ce dernier
exploite les quatre voies du canal MIMO avec une stratégie d’allocation de puissance UEP
permettant de surpasser les performances du précodeur WF. D’autre part, le précodeur
Max-RSB qui exploite une seule voie, assure uniquement la réception sans erreur du flux
vidéo de qualité de base.
A partir des trois figures précédentes (figures 3.11, 3.12 et 3.13) de nombreuses observations peuvent être tirées. Tout d’abord, on remarque que le précodeur Max-RSB qui
90
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
(a) Akiyo
(b) Foreman
Figure 3.12: Performances du schéma proposé sur un canal statistique MIMO (4×4) avec µ = 5
dB
maximise le RSB à la réception assure une vidéo de qualité de base quelles soient les
conditions de transmission, alors que les précodeurs WF, QdS et E-dmin s’adaptent aux
conditions de transmission. De plus, les précodeurs adoptant une stratégie d’allocation de
puissance UEP, à savoir les précodeur WF et QdS, assurent les meilleures performances
dans de mauvaises et moyennes conditions de transmission.
D’autre part, le précodeur qui offre les meilleures performances en terme de TEB avec
une stratégie d’allocation de puissance EEP permet d’assurer la meilleure qualité de service dans de bonnes conditions de transmission. C’est pour cela que le précodeur QdS
qui adoptent une stratégie d’allocation de puissance UEP tout en maintenant de bonnes
performances en terme de TEB permet d’assurer une bonne qualité de service quelles que
soient les conditions de la transmission.
Le tableau 3.4 donne le PSNR moyen de la vidéo Foreman reçue ainsi que le TEB qui
lui est associé dans les trois conditions de canal considérées. Dans de bonnes et moyennes
conditions de transmission, les précodeurs offrant le meilleur TEB n’assurent pas forcement la meilleure qualité des vidéos reçues. Les valeurs de TEB et PSNR en couleur
rouge représentent des exemples sur une telle configuration. Cependant, dans de bonnes
conditions de transmission le TEB et le PSNR évoluent toujours dans le même sens. Les
mêmes constatations sont observées pour la vidéo Akiyo.
On peut remarquer aussi que la nature de la vidéo influence la qualité de service.
En effet, le schéma de robustesse adopté qui remplace l’image perdue par l’image la plus
proche correctement reçue est plus adapté à la vidéo Akio, caractérisée par un faible
mouvement. Dans les figures 3.11, 3.12, on constate une dégradation considérable sur la
qualité de la vidéo Foreman. De plus, cette dégradation devient plus accentuée dans la
partie de la vidéo à fort mouvement (images 170-220), où l’écart de PSNR dans la figure
91
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
(a) Akiyo
(b) Foreman
Figure 3.13: Performances du schéma proposé sur un canal statistique MIMO (4 × 4) avec
µ = 10 dB
Precodeurs
Max-RSB
WF
QdS
E-dmin
µ = 0dB
PSNR(dB)
TEB
33.74
2.43 × 10−1
34.36
2.48 × 10−1
35.23
1.96 × 10−1
2.14 × 10−1
µ = 5dB
PSNR(dB)
TEB
33.74
1.63 × 10−1
35.89
1.44 × 10−1
36.74
9.97 × 10−2
34.43
1.13 × 10−1
µ = 10dB
PSNR(dB)
TEB
33.74
7.2 × 10−2
37.07
6.43 × 10−2
37.7
1.38 × 10−2
38.32
9.51 × 10−3
Table 3.4: PSNR et TEB du schéma proposé dans différentes conditions de transmission (vidéo
Foreman)
3.11 entre les trois précodeurs devient très faible. Ce phénomène ne se présente pas sur un
canal de bonne qualité de transmission, car tous les précodeurs assurent la réception sans
erreur du flux vidéo de base, ainsi aucune image n’est perdue et le schéma de robustesse
aux pertes d’images n’est pas utilisé.
3.8.2
Canal réaliste
Le comportement du canal réaliste MIMO (4×4) est illustré sur la figure 3.14 à travers
son gain total σ en fonction de la position du récepteur sur la trajectoire. Suivant la valeur
du gain total du canal, on peut classer la trajectoire du récepteur en trois zones d’études.
La première zone représente un canal de mauvaise qualité et couvre les parties 1 et 5 de
la trajectoire. La zone 2 représente un canal de qualité moyenne et couvre les parties 2 et
4 de la trajectoire. Quant à la partie 3 de la trajectoire, elle représente un canal de bonne
qualité et constitue la zone d’étude 3. Tel qu’elles sont illustrées sur les figures 3.9 et 3.14
, les zones 1 et 2 correspondent à une configuration du canal NLOS, alors que la zone 3
92
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
correspond à une configuration du canal LOS.
Nous allons dans ce qui suit étudier les performances du schéma proposé le long de cette
trajectoire. Dans un premier temps, nous supposons la connaissance parfaite du canal de
transmission au niveau de l’émetteur et du récepteur, puis nous évaluons la robustesse du
schéma face aux erreurs d’estimation du canal à deux vitesses de mobilité 5 et 10 m/s.
Figure 3.14: Comportement du canal réaliste MIMO (4 × 4) à 5 Ghz
3.8.2.1
Connaissance parfaite du canal
Les figures 3.15 et 3.16 illustrent les performances du schéma proposé le long de la
trajectoire du récepteur pour respectivement des vitesses de mobilité du récepteur de
l’ordre de 5 et 10 m/s. Ces courbes montrent plus précisément la variation du PSNR des
vidéos reçues en fonction du déplacement du récepteur sur la trajectoire pour les quatre
précodeurs utilisés. En supposant la connaissance parfaite du canal de transmission, la
vitesse de déplacement du récepteur n’a aucun effet sur la qualité des vidéos reçues. Ainsi,
les deux figures 3.15 et 3.16 donnent la même information, sauf que, sur l’ensemble de la
trajectoire, le récepteur qui se déplace à 10 m/s reçoit la moitié des vidéos reçues par le
récepteur qui se déplace à 5 m/s.
On remarque les bonnes performances du précodeur QdS en utilisant la configuration
appropriée à chaque zone du canal. Le précodeur Max-RSB assure une réception sans
erreur du flux vidéo de basse qualité et cela quelles que soient les conditions du canal. On
remarque aussi l’adaptation des précodeurs WF et QdS aux variations du canal de transmission. En effet, la qualité des vidéos reçues en utilisant ces deux précodeurs est améliorée
93
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
suivant l’augmentation de la puissance du signal reçu. Dans de mauvaises conditions du
canal (zone 1), le précodeur E-ddmin n’arrive même pas à assurer une bonne réception du
flux vidéo de basse qualité , alors que sur la zone 3, ce précodeur offre les meilleures performances en recevant correctement les quatre flux vidéo. On remarque que dans le cas du
canal réaliste nous retrouvons les trois qualités du canal statistique réparties le long de la
trajectoire. Nous constatons aussi qu’une considération plus fine du contenu (quatre flux
vidéo) par le précodeur QdS paramétré suivant l’état du canal améliore considérablement
la qualité de service par rapport aux autres précodeurs et cela quelles que soient les conditions de transmission. Le gain en terme de qualité visuelle apporté par le précodeur QdS
par rapport au précodeur WF est illustré sur la Figure 3.17. Cette figure montre clairement que la qualité visuelle d’une image de la vidéo reçue par le précodeur QdS sur la
partie 1 de la trajectoire est nettement meilleure à celle reçue par le précodeur WF. Un
écart de 1.5 dB en terme de PSNR entre les deux images vient confirmer objectivement
le gain de qualité visuelle apporté par le précodeur QdS.
(a) Akiyo
(b) Foreman
Figure 3.15: Performances du schéma proposé sur un canal MIMO (4 × 4) réaliste à 5 m/s
3.8.2.2
Robustesse face aux erreurs d’estimation du canal
Dans cette section nous allons étudier la robustesse du schéma proposé vi-à-vis des
erreurs d’estimation du canal suivant la norme IEEE 802.11n, à deux vitesses de mobilité 5 et 10 m/s. De plus les figures qui seront présentées dans cette section permettent
d’évaluer les performances moyennes du schéma proposé le long de la trajectoire.
On peut constater que sur les Figures 3.15 et 3.16 les performances du précodeur E-dmin
ne sont pas calculées dans la zone 1. Pour cette raison, ses performances moyennes sur
toute la trajectoire ne peuvent être objectivement comparées avec les autres précodeurs
(diagonaux). Ainsi, dans les figures 3.18, 3.19, 3.20 et 3.21, nous illustrons séparément les
performances moyennes sur toute la trajectoire ainsi que la robustesse vis-à-vis des erreurs
94
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
(a) Akiyo
(b) Foreman
Figure 3.16: Performances du schéma proposé sur un canal MIMO (4 × 4) réaliste à 10 m/s
d’EC (Estimation du Canal) des trois precodeurs diagonaux et du précodeur E-dmin .
A une vitesse du récepteur de 5 m/s, les figures 3.18, 3.19 montrent respectivement que
les précodeurs diagonaux et le précodeur non diagonal E-dmin offrent les mêmes performances avec et sans erreurs d’estimation du canal. Ainsi, nous pouvons déduire que le
schéma proposé à une vitesse de 5 m/s reste très robuste vis-à-vis des erreurs d’estimation du canal. D’autre part, la figure 3.18 compare les performances moyennes sur toute la
trajectoire des précodeurs diagonaux. En moyenne le précodeur QdS donne les meilleures
performances surpassant les performances des deux autres précodeurs diagonaux WF et
QdS.
La figure 3.20 montre qu’à une vitesse de déplacement du récepteur de 10 m/s, les
précodeurs diagonaux offrent les mêmes performances avec et sans les erreurs d’estimation
du canal. Ainsi, nous pouvons dire que ces précodeurs restent très robustes aux erreurs
d’estimation de canal même à de grandes vitesses de mobilité (de l’ordre de 10 m/s). Cependant, tel qu’il est illustré dans la figure 3.21, le précodeur non diagonal E-dmin devient
très sensible aux erreurs d’estimation du canal. En effet, le précodeur E-dmin perd en
moyenne entre 1.5 et 1 dB en terme de PSNR pour respectivement les vidéos Foreman et
Akiyo. La structure non diagonale de ce précodeur ainsi que le décodage à MV réalisé sur
des matrices de dimension 2 rendent ce précodeur très sensible aux erreurs d’estimation
du canal, ce qui introduit de la distorsion sur la vidéo reçue. De plus, l’écart de perte
entre la vidéo Foreman et Akiyo revient à la nature de la vidéo et le schéma de robustesse
aux pertes d’images adopté.
95
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
(a) PSNR=35, 67 dB
(b) PSNR=34, 11 dB
Figure 3.17: Illustration de la qualité visuelle des vidéos reçues par les précodeurs QdS (à
gauche) et WF (à droite) sur un canal MIMO réaliste (zone 1)
(a) Akiyo
(b) Foreman
Figure 3.18: Robustesse des précodeurs diagonaux vis-à-vis des erreurs d’EC sur un canal
réaliste MIMO (4 × 4) à 5 m/s
96
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
(a) Akiyo
(b) Foreman
Figure 3.19: Robustesse du précodeur E-dmin vis-à-vis des erreurs d’EC sur un canal réaliste
MIMO (4 × 4) à 5 m/s
(a) Akiyo
(b) Foreman
Figure 3.20: Robustesse des précodeurs diagonaux vis-à-vis des erreurs d’EC sur un canal
réaliste MIMO (4 × 4) à 10 m/s
97
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
(a) Akiyo
(b) Foreman
Figure 3.21: Robustesse du précodeur E-dmin vis-à-vis des erreurs d’EC sur un canal réaliste
MIMO (4 × 4) à 10 m/s
3.9
Conclusion
Dans ce chapitre nous avons proposé une solution prometteuse pour la transmission
temps réel de vidéo sur un canal radio mobile. Le but de ce schéma est de garantir
à l’utilisateur une qualité de service acceptable dans les conditions de transmission les
plus défavorables, et d’améliorer cette qualité suivant l’évolution des conditions de transmission. Le schéma proposé implique le codeur de vidéo scalable H.264/SVC, quatre
précodeurs linéaires et un canal de transmission MIMO. Nous avons étudié les performances de ce schéma à la fois sur un canal statistique et un canal réaliste. De plus, nous
avons évalué sa robustesse vis-à-vis des erreurs d’estimation du canal suivant la norme
IEEE 802.11n à différentes vitesses de mobilité.
Nous avons exploité la flexibilité du précodeur QdS dans l’allocation de puissance aux
différentes voies du canal MIMO afin de l’adapter à l’importance des flux vidéo H.264/SVC
et de l’état du canal. Nous avons montré qu’une adaptation fine de l’allocation de puissance en considérant à la fois l’état du canal de transmission et l’importance des flux vidéo
permet d’améliorer significativement la qualité des vidéos reçues comparée à la qualité
obtenue par les trois autres précodeurs : Max-RSB, WF et E-dmin . De plus, contrairement
au précodeur E-dmin qui est très sensible aux erreurs d’EC, le précodeur QdS reste très
robuste aux erreurs d’EC même à des vitesses de mobilité relativement élevées de l’ordre
de 10 m/s.
Nous avons montré aussi que les performances d’un précodeur en terme de TEB et la
qualité de la vidéo reçue n’évoluent pas toujours dans le même sens. Ce comportement
signifie que les précodeurs qui offrent le meilleur TEB, tel que le précodeur E-dmin , ne
sont pas forcement les solutions les plus appropriées à une transmission de vidéo, alors
98
CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION
TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC
qu’une stratégie de transmission UEP offre de meilleures performances et cela quelles que
soient les conditions de transmission.
Finalement, dans le domaine de la transmission temps réel de vidéo sur un système MIMO
à boucle fermée, ce travail offre une étude de performances sur : la diversité, le multiplexage, la complexité de décodage de MV ainsi que la qualité des vidéos reçues en terme
de PSNR et de qualité visuelle. Nous pouvons espérer que cela permettra aux concepteurs des nouvelles normes de transmission d’évaluer le besoin d’intégrer ces solutions de
précodage dans les prochaines versions de ces normes.
Le schéma présenté dans ce chapitre présente évidemment de nombreux inconvénients
et limites. Tout d’abord, la solution proposée pour déterminer les coefficients du précodeur
QdS est essentiellement basée sur une étude expérimentale. Ainsi, chaque configuration
de la couche physique (modulation, rendement du CCE, etc.) nécessiterait une nouvelle
étude expérimentale pour trouver les coefficients de précodage appropriés. De plus, cette
solution n’est pas adaptative en fonction des conditions de transmission dans la mesure
où nous gérons manuellement le choix de la configuration à appliquer parmi les trois configurations proposées.
Enfin, les trois configurations adoptées pour le précodeur QdS représentent des configurations qui offrent les meilleures performances parmi plusieurs autres configurations, mais
en aucun cas ces configurations représentent la solution de transmission optimale. Dans
le chapitre suivant nous allons proposer deux solutions adaptatives permettant le calcul
de la configuration de précodage qui offre les meilleures performances de transmission du
flux vidéo H.264/SVC sur un canal MIMO diagonalisé.
99
Chapitre 4
Solutions adaptatives pour la
transmission de vidéo H.264/SVC
sur un canal MIMO
Sommaire
4.1
4.2
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Solution algorithmique . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.2 Algorithme 1 : calcul des coefficients de précodage . . . . . . . .
4.2.3 Algorithme 2 : prise en compte de l’efficacité spectrale de la
modulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.4 Système de transmission temps réel . . . . . . . . . . . . . . . . .
4.2.5 Contexte de transmission . . . . . . . . . . . . . . . . . . . . . . .
4.2.6 Résultats et discussions . . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Solution analytique . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.2 Modélisation mathématique du problème . . . . . . . . . . . . .
4.3.3 Configuration de la transmission . . . . . . . . . . . . . . . . . . .
4.3.4 Résultats et discussions . . . . . . . . . . . . . . . . . . . . . . . .
4.3.5 Limites de la solution analytique . . . . . . . . . . . . . . . . . . .
4.4 Analyse débit-distorsion . . . . . . . . . . . . . . . . . . . . . . . .
4.4.1 Contexte de l’étude . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.2 Analyse des résultats . . . . . . . . . . . . . . . . . . . . . . . . . .
4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
102
102
102
103
105
108
109
110
115
115
115
121
121
124
125
125
126
132
101
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
4.1
Introduction
Ce chapitre vient compléter les limites de la solution proposée dans le chapitre précédent
pour le calcul des coefficients du précodeur QdS. L’objectif de ce chapitre est de proposer
une solution adaptative permettant le calcul des coefficients de précodage suivant l’importance des flux vidéo H.264/SVC et l’état du canal de transmission. Cette solution
permettra ainsi de trouver la configuration de précodage qui offre les meilleures performances de transmission quel que soit l’état du canal MIMO.
La première solution que nous proposons est basée sur un algorithme pour configurer le
précodeur QdS. Cet algorithme considère à la fois la hiérarchie de codage H.264/SVC et
l’état du canal de transmission pour assurer une qualité de service des vidéos reçues. Cette
solution est par la suite adaptée pour prendre en compte l’efficacité spectrale de la modulation numérique permettant une meilleure exploitation du canal MIMO. Ce deuxième
algorithme permet non seulement d’assurer une qualité de service, mais aussi d’améliorer
davantage la qualité des vidéos reçues.
Dans un second temps, nous proposons une nouvelle solution théorique. Cette solution
permet à l’aide d’une méthode d’optimisation mathématique de calculer la configuration
de précodage optimale qui minimise la distorsion totale de la vidéo reçue (distorsion de la
source et du canal). En effet, nous allons tout d’abord écrire le modèle d’erreur correspondant à la transmission du flux vidéo H.264/SVC sur un canal MIMO diagonalisé. Ainsi,
la minimisation de ce modèle d’erreur permet de calculer plus précisément les coefficients
de précodage optimaux qui minimisent la distorsion de la vidéo reçue.
Ce chapitre est structuré en trois parties principales. Dans la première partie nous
présentons l’algorithme proposé pour le calcul des coefficients du précodeur QdS. Nous
abordons aussi l’extension de cet algorithme pour calculer l’efficacité spectrale de la modulation numérique. La seconde partie concerne l’écriture analytique du modèle de transmission hiérarchique du flux vidéo H.264/SVC sur un canal MIMO diagonalisé. Dans la
troisième et dernière partie, nous étudions l’impact d’autres paramètres, tels que la taille
du GOP, les coefficients de quantification et le codage de canal sur la transmission du flux
vidéo H.264/SVC. Cette étude expérimentale nous permettra d’évaluer l’importance de
ces critères dans la transmission du flux vidéo H.264/SVC sur un canal MIMO, afin de
les intégrer par la suite dans le modèle analytique. Une conclusion terminera ce chapitre.
4.2
4.2.1
Solution algorithmique
Principe
Dans ce qui suit, nous considérons que le canal MIMO est décomposé en plusieurs
voies à l’aide de l’étape de transformation en canal virtuel (➜3.4.2).
L’algorithme proposé pour le calcul des coefficients de précodage implique deux étapes
principales, à savoir la sélection des voies de puissances significatives et le calcul des
102
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
coefficients de précodage des voies choisies par la première étape.
La première étape de sélection des voies permet de choisir parmi les b voies du canal MIMO
(NT , NR ) avec b = min(NT , NR ), celles qui sont susceptibles de transporter un flux vidéo
avec une faible probabilité d’erreurs. Cette étape a une importance tout particulière, car
elle permet d’éviter l’allocation de la puissance d’émission à des voies de faible RSB.
En effet, même en allouant la totalité de la puissance d’émission à ces voies dégradées,
celles-ci ne permettent pas de recevoir correctement les flux vidéo. Ainsi, il n’est pas utile
de perdre de la puissance sur ces voies, de très faible puissance, pour la réception sans
erreur des flux vidéo. La sélection des voies de puissances significatives est réalisée à l’aide
d’un simple seuillage de la puissance de chaque voie (σj2 ) avec j = 1, 2, ..., b par rapport
à un seuil de réception, noté T h. Ce seuil est fixé à un niveau de puissance permettant
une transmission sans erreur ou à très faible erreur. Ainsi, nous pouvons constater que
ce seuil (T h) dépend des paramètres de la chaı̂ne de transmission : le codage de canal,
la modulation numérique et son efficacité spectrale ainsi que le type du canal considéré
(Gaussien, Rayleigh, etc.). Le nombre de voies choisies par cette étape est noté par b′ ,
avec b′ ≤ b.
La seconde étape permet de calculer les coefficients de précodage uniquement des b′ voies
sélectionnées par la première étape. Nous supposons que le nombre de flux vidéo (N) fourni
par le codeur H.264/SVC est supérieur ou égal au nombre de voies (b′ ) sélectionnées par
la première étape, soit N ≥ b′ . Le calcul des coefficients de précodage est basé sur le
principe du codage hiérarchique du codeur H.264/SVC, qui stipule qu’un flux vidéo ρk
avec k = 1, 2, ..., N est exploitable uniquement dans le cas où tous les flux vidéo ρl avec
l < k sont reçus correctement. Ainsi, l’algorithme d’allocation de puissance cherche tout
d’abord à allouer suffisamment de puissance à la première voie pour assurer la réception
du premier flux vidéo (ρ1 ) et garantir à l’utilisateur une qualité de base de la vidéo. Ce
processus est réitéré sur les (b′ −1) voies suivantes dans l’ordre de puissance décroissant des
voies jusqu’à ce que, ou bien la puissance totale d’émission (ET ) soit totalement allouée,
ou bien les b′ voies soient toutes traitées.
Le principe de l’algorithme proposé en deux étapes de sélection des voies puis le calcul
des coefficients de précodage est illustré sur la figure 4.1. L’ordre d’exécution entre les
différents blocs est précisé entre cotes ([]) au niveau de chaque bloc.
4.2.2
Algorithme 1 : calcul des coefficients de précodage
L’algorithme adopté pour paramétrer le précodeur QdS en fonction de l’importance
des flux vidéo H.264/SVC et de l’état du canal de transmission est détaillé dans cette
section.
L’objectif de cet algorithme est de calculer les coefficients de la matrice diagonale de
précodage Fd (voir équation 3.4), toute en s’assurant que la somme au carré de ces coefficients reste inférieure ou égale à la puissance d’émission, soit ∑bj=1 fj2 ≤ ET . Ainsi, la sortie
de cet algorithme est un vecteur de taille b constitué des b coefficients de précodage fj ,
avec j = 1, ..., b. En entrée, l’Algorithme 1 nécessite les b valeurs singulières de la matrice
103
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
Figure 4.1: Processus de configuration du précodeur QdS pour la transmission vidéo
H.264/SVC
du canal H obtenue par l’étape de transformation du canal MIMO en un canal virtuel
Hv (voir ➜3.4.2), ainsi que le seuil de communication (T h). Rappelons que les valeurs
singulières de la matrice du canal (H) sont triées dans l’ordre de puissance décroissante.
Cet algorithme est décri dans l’Algorithme 1, dont les étapes sont détaillées ci-après :
– Initialisation : l’étape d’initialisation permet d’initialiser les b coefficients de précodage
(fj ), avec j = 1, ..., b et le nombre de voies sélectionnées (b′ ) à zéro.
– Calcul du nombre de voies de puissances significatives (b′ ) : le calcul de b′ est effectué
par une boucle qui parcours les b valeurs singulières du canal. Le nombre de voies
sélectionnées est incrémenté pour chaque voie de puissance supérieure ou égale à
la puissance du seuil de communication (T h). La sortie de cette boucle est causée
soit par le traitement de la première voie de puissance inférieure à T h, soit par le
parcoure des b voies du canal. Ainsi, cette étape permet de calculer le nombre de
voies de puissances significatives (b′ ).
– Calcul des coefficients de précodage (fi ) : les coefficients fi sont calculés à l’aide d’une
seconde boucle permettant le parcoure des b′ voies. L’allocation de la puissance est
effectuée de telle sorte que la puissance de chaque voie est ramenée à la puissance
du seuil T h, ce qui permet de transporter le flux vidéo correspondant à une faible
probabilité d’erreur. Pour chaque voie, nous calculons la puissance résiduelle (PR ).
Si PR permet de ramener la puissance de la voie traitée à la puissance du seuil
(T h), la puissance nécessaire est allouée à cette voie. Dans le cas contraire toute la
puissance résiduelle est allouée à cette voie. La sortie de la boucle est alors causée
par l’allocation de toute la puissance d’émission (ET ) ou par le parcoure des b′ voies.
– Lorsqu’aucune voie n’est sélectionnée par la première étape, la puissance d’émission
est allouée à la première voie. Suivant la valeur de puissance (σ12 ) de la première
voie, quelques trames du premier flux vidéo (ρ1 ) peuvent être reçues correctement.
Cependant, dans de telles conditions de transmission, notre algorithme ne garantit
pas la qualité de service à l’utilisateur.
104
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
Entrées : Coefficients du canal virtuelle Hv : σj , j = 0, ..., b et seuil de réception T h;
Sorties : Calcul des coefficients de précodage fj , j = 0, ..., b
Initialisation : b′ ← 0 , fj ← 0, j = 0, ..., b;
pour j ← 1 a b faire
si σj2 ≥ T h alors
b′ ← b′ + 1 ;
sinon
Sortir de la boucle;
fin
fin
pour j ← 1 a b′ faire
′
PR ← ET − ∑bi←1 fi2 ;
si PR > (T h/σj2 ) alors
√
fj ← T h/σj2 ;
sinon √
f j ← PR ;
Sortir de la boucle;
fin
fin
si b′ = 0 √
alors
f1 = E T ;
fin
Algorithme 1: Calcul des coefficients du précodeur QdS pour la transmission de vidéo
H.264/SVC
4.2.3
Algorithme 2 : prise en compte de l’efficacité spectrale de
la modulation
On peut constater que l’Algorithme 1 utilise une modulation d’efficacité spectrale fixe,
puisque cet algorithme ne calcule pas l’efficacité spectrale de la modulation considérée.
De plus, l’efficacité spectrale de la modulation adoptée représente l’un des paramètres
sur lesquels se base le choix du seuil de communication (T h). Dans cette section nous
considérons L efficacités spectrales de la modulation ; ainsi nous définissons un seuil de
communication pour chaque niveau d’efficacité spectrale (l) de la modulation, notés T hl ,
avec l = 1, ..., L.
La figure 4.2 illustre la variation du RSB des quatre voies d’un canal MIMO (4×4) réaliste
en fonction de la position du récepteur sur la trajectoire. Nous considérons la configuration de transmission utilisée dans le chapitre 4 pour évaluer les performances du schéma
proposé, où l’émetteur reste fixe et le récepteur se déplace sur la trajectoire composée de
quatre parties et de trois zones d’études suivant l’état du canal (voir ➜3.7.2.2). À partir de
la figure 4.2, on peut constater que la puissance n’est pas uniformément répartie sur les
105
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
Figure 4.2: RSB des quatres voies en fonction de la distance
quatre voies. Plus précisément, la puissance de la première voie est largement supérieure
à celle des trois autres. Nous pouvons alors constater que l’Algorithme 1 n’exploite pas
parfaitement le canal MIMO, car la puissance d’émission est uniformément répartie sur
les quatre voies, dont les valeurs de puissance ne sont pas équivalentes. Par exemple
lorsque le canal est de bonne qualité (Partie 3), la puissance des deux premières voies est
nettement supérieure à celle des deux dernières. Cependant, en répartissant la puissance
d’émission sur les quatre voies, une perte considérable au niveau des deux premières voies
est constatée, car uniquement une faible partie de leur puissance est exploitée. L’Algorithme 1 concentre la puissance d’émission sur les deux dernières voies afin de les ramener
à la puissance du seuil (T h). Ainsi, cette solution est sous optimale et n’exploite pas parfaitement le canal de transmission MIMO. L’objectif de l’Algorithme 2 est d’exploiter
la puissance des premières voies via une modulation numérique de plus grande efficacité
spectrale.
Les principales étapes de l’Algorithme 2 (voir Algorithme 2 ) pour calculer le coefficient de
précodage ainsi que l’efficacité spectrale de la modulation à utiliser au niveau de chaque
voie sont décrites ci-après :
– Initialisation : L’étape d’initialisation est similaire à celle de l’Algorithme 1, sauf que
pour l’Algorithme 2 nous initialisons aussi l’efficacité spectrale des b voies à zéro.
– La sélection des voies de puissance significative par rapport à la modulation de base
(l = 1) reste aussi similaire à celle décrite dans l’Algorithme 1. Ainsi, uniquement
les voies qui sont susceptibles de recevoir le flux vidéo avec la modulation d’efficacité spectrale minimum à une faible probabilité d’erreur sont considérées dans cet
106
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
algorithme.
– Calcul des coefficients de précodage et l’efficacité spectrale de la modulation : tel
qu’il est illustré dans l’Algorithme 2, deux boucles imbriquées sont utilisées. La
première permet de parcourir les b′ voies, et la seconde parcours les L efficacités
spectrales de la modulation. En effet, pour chaque voie (première boucle), le coefficient de précodage est calculé pour les L efficacités spectrales dans l’ordre croissant.
La sortie de la seconde boucle est causée soit par le test des L efficacités spectrales
de la modulation, soit par l’allocation de la totalité de la puissance d’émission (ET ).
Ainsi, cette boucle permet, pour chaque voie, de calculer le coefficient de précodage
correspondant à la modulation de la plus haute efficacité spectrale possible. L’efficacité spectrale de la modulation est aussi sauvegardée au niveau de cette boucle.
Ce processus est répété à l’aide de la première boucle sur les b′ premières voies tant
que la puissance d’émission n’est pas totalement allouée.
– Lorsqu’aucune voie n’est sélectionnée par la première étape, soit b′ = 0, la puissance
d’émission est allouée à la première voie associée à la modulation d’efficacité spectrale minimum (l = 1). Dans de telles conditions de transmission (très dégradées),
l’Algorithme 2 ne garantit pas la qualité de service à l’utilisateur.
107
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
Entrées : Coefficients du canal virtuelle Hv : σj , j = 1, ..., b et T hl avec l=1, ..., L ;
Sorties : Calcul des coefficients de précodage fj et l’efficacité spectrale de la
modulation M odj avec j = 1, ..., b
Initialisation : b′ ← 0 , fj ← 0, M odj ← 0 pour j = 1, ..., b;
pour j ← 1 a b faire
si σj2 ≥ T h1 alors
b′ ← b′ + 1 ;
sinon
Sortir de la boucle;
fin
fin
pour j ← 1 a b′ faire
pour l ← 1 a L faire
′
PR ← ET − (∑bi←1 fi2 ) ;
si PR > T hl /σj2 alors
√
fj ← T hl /σj2 ;
M odj ← l;
sinon √
f j ← PR ;
si l = 1 alors
M odj ← 1 ;
fin
Sortir de la boucle;
fin
fin
fin
si b′ = 0 √
alors
f1 = ET ;
M od1 ← 1 ;
fin
Algorithme 2: Calcul des coefficients de précodage QdS et l’efficacité spectrale de la
modulation
4.2.4
Système de transmission temps réel
Après avoir détailler nos deux algorithmes, nous allons présenter dans cette section
le système de transmission temps réel sur lequel nous évoluons leurs performances. Sachant que le débit de la couche physique est largement supérieur au débit de transmission
temps réel de la vidéo, nous avons transmis dans le chapitre précédent (voir ➜3.7) plusieurs copies (plus de 50 copies) des vidéos F oreman et Akiyo pendant le déplacement du
récepteur sur la trajectoire à une vitesse de 5 m/s. Cependant, le système de transmission
adopté ne correspond pas vraiment à un système de transmission temps réel de vidéo, où
108
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
le récepteur doit recevoir uniquement 30 images de la séquence vidéo par seconde. Dans
ce chapitre, nous allons utiliser un système de transmission temps réel de vidéo, où seul
le débit nécessaire à la transmission de la vidéo est attribué à notre récepteur.
Nous supposons dans la suite de nos travaux que le débit de la couche physique est partagé entre plusieurs utilisateurs dans le réseau. L’émetteur transmet alors 30 images de
la vidéo par seconde à tous les utilisateurs dans le réseau au travers d’un système TDD 1
pour l’accès au canal de chaque utilisateur. Le nombre d’utilisateurs maximum auxquels
notre émetteur peut simultanément transmettre la vidéo est calculé à partir du débit
de la couche physique (pour une seule voie et une modulation d’efficacité spectrale minimum l = 1) divisé par le débit de la couche basse qualité de la vidéo (flux ρ1 ). Nous
considérons le débit de base des couches application et physique, car l’amélioration du
débit, apportée par l’augmentation de l’efficacité spectrale de la modulation et du nombre
de voies, est utilisé pour transporter les flux d’amélioration de qualité de la vidéo (ρj avec
j = 2, ..., N ). Ainsi, nous pouvons constater que les débits des différents flux de la vidéo
ρj avec j = 1, ..., N doivent être équivalents et constants tout au long de la transmission.
Il existe dans la littérature plusieurs mécanismes qui permettent le contrôle de débit
dans le codage de la vidéo, appelés mécanismes de de régulation de débit. Ces mécanismes
ont été implémentés dans le codeur vidéo H.264/AVC [133] [134] [136]. Par la suite,
ces solutions ont été adaptées au codeur scalable H.264/SVC, notamment l’approche ρdomaine [137] validée pour toutes les scalabilités du codeur H.264/SVC dans le cadre
de la thèse de Y. Pitrey [138]. La régulation de débit représente alors un domaine de
recherche à part entière, qui ne fait pas l’objet de notre thèse. De plus, l’implémentation
de ces mécanismes est relativement complexe et nécessite un temps de développement
considérable. Afin d’assurer un débit constant et équivalent pour tous les flux vidéo, nous
utilisons le programme itératif f ixedQpEncoder, qui est un outil présent dans le logiciel
de référence du codec H.264/SVC [131]. Cet outil permet à l’aide de plusieurs itérations
de calculer les coefficients de quantification permettant d’atteindre le débit ou la qualité
de la vidéo souhaité.
4.2.5
Contexte de transmission
Dans ce paragraphe nous décrivons les configurations de codage des couches physique
et application adoptées pour évaluer les performances des deux algorithmes proposés :
Algorithme 1 et Algorithme 2.
4.2.5.1
Couche physique
Nous évaluons les performances des deux algorithmes sur un canal MIMO (4 × 4)
réaliste. La configuration du canal adoptée reste similaire à celle décrite dans le paragraphe 3.7, où l’émetteur reste fixe et le récepteur se déplace sur la trajectoire dans le
1. TDD : Time Division Multiplexing
109
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
campus de l’Université de Poitiers à une vitesse de 5 m/s. Rappelons que la trajectoire est
composé de cinq parties qui correspondant à cinq changements brusques de la puissance
reçue. Ces cinq parties appartiennent à trois zones d’étude suivant l’état du canal. Les
parties 1 et 5 représentent la zone 1 pour un canal de mauvaises conditions. La zone 2
représente un canal de moyennes conditions et regroupe les parties 2 et 4. Enfin, la zone
3 représente un canal de bonne qualité qui est située au niveau de la partie 3 de la trajectoire. Notre récepteur est noté dans ce qui suit Utilisateur 1.
Nous adoptons la modulation numérique de la norme IEEE 802.11n, à savoir la modulation M-QAM, avec M= {4, 16, 128, 256}. Ces efficacités spectrales correspondent
alors aux L niveaux d’efficacité spectrale définis dans l’Algorithme 2, soit l = 1, ..., L, avec
L = 4 pour la modulation 256-QAM. Pour l′ Algorithme1, nous utilisons la modulation
d’efficacité spectrale minimum (l = 1), à savoir la modulation 4-QAM. Les seuils de communication (T hl , avec l = 1, ..., L) à faible TEB sont fixés à partir des courbes théoriques
de TEB de la modulation M-QAM associée à un canal de Rayleigh. Ainsi, le CCE et son
rendement ne sont pas considérés dans la puissance des seuils. Afin de minimiser la perte,
nous adoptons le CCE LDPC de rendement maximum : Rc = 5/6.
4.2.5.2
Couche application
Au niveau du codage de source, nous utilisons la vidéo Soccer de résolution spatiale
704 × 576 pixels/image. Les 288 premières images de la séquence vidéo sont codées par
le codeur de référence H.264/SVC [131] à 30 images/s en quatre résolutions temporelles
(GOP = 8). Sachant que le nombre de flux vidéo transmis par l’Algorithme 2 peut dépasser
le nombre de voies maximum du canal MIMO, nous avons configuré le codeur H.264/SVC
pour fournir le nombre maximum de résolutions en qualité qui est limité à 8. Une image
intra est insérée chaque 16 images. Nous utilisons l’outil f ixedQpEncoder pour le calcul
des coefficients de quantifications des huit couches de résolution en qualité à un débit
identique de 250 Kb/s. Néanmoins, nous tolérons une variation de 4% autour du débit
souhaité. Les paramètres du codage de source pour chacune des huit couches de résolution
en qualité sont donnés dans le tableau 4.1.
Enfin, la qualité des vidéos reçues est évaluée au travers du PSNR de la composante
luminance (Y) de la vidéo, noté PSNR Y.
4.2.6
Résultats et discussions
Dans cette section nous allons présenter les performances des deux algorithmes proposés en les comparant aux résultats obtenues par le précodeur WF. Nous utilisons le
précodeur WF pour la comparaison, car c’est le précodeur qui offre en moyenne les performances les plus proches du précodeur QdS paramétré par trois configurations suivant
l’état du canal (voir ➜3.8).
En utilisant le système de transmission temps réel, l’Utilisateur 1 reçoit 4 copies de la
vidéos Soccer pendant son déplacement sur la trajectoire. Le PSNR des images de ces
quatre vidéos est représentés respectivement sur les figures 4.3, 4.4, 4.5 et 4.6 suivant les
110
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
Flux
Flux
Flux
Flux
Flux
Flux
Flux
Flux
Flux
vidéo
(ρ1 )
(ρ1+2 )
(ρ1+2+3 )
(ρ1+2+3+4 )
(ρ1+2+3+4+5 )
(ρ1+2+3+4+5+6 )
(ρ1+2+3+4+5+6+7 )
(ρ1+2+3+4+5+6+8 )
QP
48,2
43,8
41,7
40,3
39,4
38,8
38,5
37,6
Débit (Kb/s)
236,40
483,60
729,70
1032,40
1278,10
1558,30
1864
1975
PSNR Y (dB)
35,32
36,28
36,96
37,65
38,15
38,56
38,79
38,82
Table 4.1: Paramètres de codage de la vidéo Soccer (704 × 576) en huit résolutions de qualité
zones.
Pendant le réception de la première vidéo, l’Utilisateur 1 parcours les parties 1 et 2 de
la trajectoire. On peut constater que pendant la première partie de la trajectoire (mauvaises conditions de transmission), les deux algorithmes arrivent à recevoir le premier flux
(ρ1 ) des 255 premières images pour assurer une vidéo de basse qualité. Dans ces conditions de transmission, les performances du précodeur WF ne sont pas représentées, car ce
précodeur n’assure pas la basse qualité de la vidéo. Les images 255 à 288 sont reçues au
début de la partie 2 de la trajectoire, qui représente un canal de moyenne qualité (zone 2).
On remarque que sur cette partie, les deux algorithmes offrent les mêmes performances, et
surpassent légèrement celles du précodeur WF. De plus, l’écart de PSNR entre les images
reçues et celles de la vidéo transmise devient moins important comparé à l’écart constaté
sur les 255 premières images. Cela montre que les deux algorithmes et le précodeur WF
reçoivent plus qu’un flux vidéo.
On constate aussi que lorsque le canal est très dégradé (images 45-55), même si les deux
algorithmes allouent toute la puissance d’émission à la première voie, la puissance de cette
voie reste faible pour recevoir correctement le flux vidéo de basse qualité.
Le PSNR des images de la seconde vidéo est représenté sur la figure 4.4. Toutes les images
de cette vidéo sont reçues sur la partie 2 de la trajectoire (canal de moyenne qualité). On
constate que dans de moyennes conditions de transmission les algorithmes 1 et 2 réalisent
les mêmes performances, et surpassent les performances du précodeur WF.
Les images de la troisième vidéo sont reçues sur la partie 3 de la trajectoire, qui représente
un canal de bonnes conditions de transmission (zone 3). Dans de telles conditions de transmission, l’Algorithme 2 surpasse les performances de l’Algorithme 1 et celles du précodeur
WF. On remarque aussi que l’Algorithme 2 reçoit correctement les huit flux vidéo pour
atteindre la qualité de la vidéo transmise.
Tel que illustrée sur la figure 4.6, la quatrième vidéo est reçue entre les parties 3 (zone 2)
et 4 (zone 1) de la trajectoire. Ainsi, on retrouve sur ces deux parties le même comportement observé respectivement sur les figures 4.3 et 4.4.
Afin de comprendre le comportement de l’Algorithme 2, nous avons représenté sur la figure 4.7 le niveau (l) de l’efficacité spectrale de la modulation M-QAM en fonction du
111
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
numéro de trame transmise à l′ U tilisateur1. Si l’Algorithme 1 reçoit dans de moyennes
conditions de transmission deux flux (ρ1 et ρ2 ) via respectivement les deux premières
voies, l’algorithme 2 reçoit ces deux flux par la première voie avec une modulation d’efficacité spectrale double (l = 2). La figure 4.7 montre aussi que dans de bonnes conditions
de transmission (partie 3), plus de huit flux vidéo peuvent être transmis par l’Algorithme
2 : 4 flux sur la première voie, 3 flux sur la seconde voie et 2 flux sur la troisième voie.
Ainsi, si le logiciel référence du codeur H.264/SVC permettait un codage en plus de huit
résolutions, on pourrait améliorer davantage la qualité de la vidéo reçue par l’Algorithme
2.
Figure 4.3: Performances des algorithmes proposés sur un canal réaliste MIMO (4 × 4) zones
1 et 2, l’Utilisateur 1 (vidéo 1)
112
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
Figure 4.4: Performances des algorithmes proposés sur un canal réaliste MIMO (4 × 4) zone 2,
l’Utilisateur 1 (vidéo 2)
Figure 4.5: Performances des algorithmes proposés sur un canal réaliste MIMO (4 × 4) zone 3,
l’Utilisateur 1 (vidéo 3)
113
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
Figure 4.6: Performances des algorithmes proposés sur un canal réaliste MIMO (4 × 4) zones
2 et 1, l’Utilisateur 1 (vidéo 4)
Figure 4.7: Variation du niveau (l) d’efficacité spectrale de la modulation QAM en fonction du
numéro de trame de l’Utilisateur 1
114
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
4.3
4.3.1
Solution analytique
Motivations
Nous avons vu dans la section précédente qu’à l’aide d’une solution algorithmique
nous pouvions calculer les coefficients du précodeur QdS en fonction de l’état du canal
tout en prenant en compte l’importance du flux vidéo. Ces solutions algorithmiques ont
l’avantage d’être simples à implémenter, mais il n’est pas certain qu’elles fournissent la
configuration de transmission optimale quel soit l’état du canal MIMO. En effet, on peut
proposer d’autres algorithmes qui offrent de meilleurs résultats dans certaines conditions
de transmissions. Les performances de ces algorithmes vont principalement dépendre de
l’état du canal et plus particulièrement de la répartition de la puissance sur les différentes
voies. Par exemple, dans le cas de l’Algorithme 2, on peut privilégier l’allocation de la
puissance à un ensemble de voies parmi les b′ voies sélectionnées, puis allouer la puissance
résiduelle pour augmenter l’efficacité spectrale de leur modulation. Ainsi, le problème qui
se pose est le suivant : est-il préférable d’allouer de la puissance à une nouvelle voie (pas
encore traité) ou plutôt augmenter l’efficacité spectrale de la modulation à une voie déjà
traitée ? Ces solutions peuvent être plus ou moins performantes suivant l’état du canal de
transmission et la répartition de la puissance sur les différentes voies.
L’algorithme proposé par Hughes-Hartogs en 1987 [135] permet une allocation optimale
de puissances et de bits. Cependant, cet algorithme ne considère pas l’importance du flux
binaire à transmettre et la répartition de puissances et de bits est obtenues par itération.
Ainsi, lorsque le nombre de sous canaux SISO est important, la complexité de ce type
d’algorithmes devient conséquente.
Cette problématique nous a orientée vers un modèle analytique plus général pour modéliser
la transmission du flux vidéo H.264/SVC sur un canal MIMO. Ainsi, la solution de ce
modèle de transmission devrait permettre de trouver la configuration de transmission optimale quelles que soient les conditions de transmission.
On entend par la configuration de transmission optimale les paramètres de codage de
source et de codage de canal qui offrent la meilleure qualité des vidéos reçues. Dans le
cas de notre étude, on s’intéresse à la taille du GOP et aux coefficients de quantifications
des N flux vidéo (QPi , avec Q = 1, ..., N ) au niveau de la couche application, ainsi que le
ou les rendements du CCE (Rc ), les niveaux d’efficacité spectrale de la modulation (lj ,
avec j = 1, ..., b) et les coefficients du précodeur QdS (fj , avec j = 1, ..., b) au niveau de la
couche physique.
4.3.2
Modélisation mathématique du problème
Le modèle théorique proposé dans cette section considère l’importance des flux vidéo
H.264/SVC au niveau de la couche application ainsi que la modulation numérique QAM
et les coefficients du précodeur QdS au niveau de la couche physique. Dans un premier
temps, la solution de ce modèle va se restreindre à calculer les coefficients de précodage
qui offrent les performances de transmission optimales, soit les paramètres du codage de
115
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
source et l’efficacité spectrale de la modulation QAM restent fixes.
4.3.2.1
Expression de la distorsion totale
L’objectif de cette section est d’écrire la distorsion de la source et du canal en fonction
des coefficients de précodage. En supposant que les distorsions de la source (DS ) et du
canal (DCh ) sont indépendantes entre elles, la distorsion totale (D) est la somme des deux
distorsions :
D = DS + DCh .
(4.1)
Le codeur de source encode la vidéo originale en plusieurs résolutions temporelle, spatiale
ou en qualité. Ainsi, chaque niveau de résolution est associé à une distorsion particulière.
En effet, la qualité de base et la meilleure qualité de la vidéo correspondent respectivement
aux distorsions maximale et minimale du codage source. Dans nos travaux, nous supposons
que le codeur de source fournit N flux vidéo (ρi , avec i = 1..., N ) correspondant à N
différents niveaux de distorsion qui restent fixes, c’est-à-dire que nous n’intervenons pas
au niveau des paramètres de codage de source. En conséquence, la distorsion totale peut
être exprimée uniquement en fonction de la distorsion du canal. Minimiser la distorsion
totale revient alors à minimiser la distorsion du canal :
min{D} = min{DCh },
avec DS fixée.
(4.2)
Nous adoptons le modèle d’erreur proposé dans [91] pour la transmission de vidéo H.264/SVC sur un canal MIMO exploité par un codage spatio-temporel. Ce modèle d’erreur
revient à une transmission de vidéo H.264/SVC sur un canal SISO, puisque le canal
MIMO est exploité par un codage spatio-temporel 2 . La distorsion du canal est égale à la
somme des distorsions sur les N pixels de l’image :
N pixels
DCh = ∑ E{(fi − f̂i ) }
2
(4.3)
i=1
avec fi et fˆi le niveau de gris du pixel i de respectivement les images transmise et reçue.
On peut écrire l’équation (4.3), pour le pixel i, sous la forme suivante :
DCh,i = E{(fi − f̂i ) } = fi2 − 2fi E{f̂i } + E{f̂i }.
2
2
(4.4)
Nous avons adapté ce modèle d’erreur (4.4) à une transmission sur un canal MIMO
diagonalisé en quatre voies. Le premier terme de cette formule étant connu au niveau
de l’émetteur, nous calculons le second et le troisième terme pour la transmission de
quatre flux vidéo H.264/SVC : ρ1 , ρ2 , ρ3 et ρ4 sur respectivement les quatre voies d’un
canal MIMO(4 × 4) virtuel. Nous nous restreignons à quatre flux vidéo pour faciliter la
compréhension du développement.
2. Codage spatio-temporel : le canal MIMO est exploité par une seule voie pour améliorer la robustesse
de lien radio
116
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
i. Par un calcul simple de probabilité, l’espérance mathématique du niveau de gris du
pixel fi reçu est donnée par la formule suivante :
E{f̂i } = (1 − P1 )P2 P3 P4 fi,ρ1 + (1 − P1 )(1 − P2 )P3 P4 fi,ρ1+2 +
(1 − P1 )(1 − P2 )(1 − P3 )P4 fi,ρ1+2+3 +
(1 − P1 )(1 − P2 )(1 − P3 )(1 − P4 )fi,ρ1+2+3+4
(4.5)
avec Pj la probabilité d’erreur de la voie j du canal MIMO et fi,ρ1+2+...+k le niveau
de gris du pixel i de l’image de la vidéo reconstruite avec les k premiers flux vidéo.
Cette formule (4.5) énonce que le niveau de gris du pixel reçu est égal au niveau
de gris du pixel reconstruit par la première résolution si uniquement la première
voie est de faible probabilité d’erreur. Il est égal au niveau de gris de la seconde
résolution si les deux premières voies ont simultanément une faible probabilité d’erreur, et il sera égal à le résolution maximale si les toutes les voies ont simultanément
une faible probabilité d’erreur. Cette hiérarchie de transmission des flux correspond
exactement à la hiérarchie de décodage du codeur H.264/SVC.
ii. Le troisième terme de la formule 4.4 est donné de la même façon que (4.5) par la
formule suivante :
2
2
+
+ (1 − P1 )(1 − P2 )P3 P4 fi,ρ
E{f̂i } = (1 − P1 )P2 P3 P4 fi,ρ
1+2
1
2
(1 − P1 )(1 − P2 )(1 − P3 )P4 fi,ρ1+2+3 +
2
.
(1 − P1 )(1 − P2 )(1 − P3 )(1 − P4 )fi,ρ
1+2+3+4
2
(4.6)
Sachant que les différentes voies sont issues de la diagonalisation du canal, nous pouvons
exprimer la probabilité d’erreur de chaque voie pour la modulation M-QAM et un canal
Gaussien par la formule suivante [30] :
√
√
4( Mj − 1) ⎛ 3RSBj ⎞
√
, j = 1, ..., 4
(4.7)
Q
Pj ≈
⎝ Mj − 1 ⎠
Mj
avec RSBj le rapport signal à bruit de la voie j et Q(z) la fonction définie par la probabilité
qu’une variable aléatoire Gaussienne X de moyenne nulle et de variance unitaire soit
supérieure à z :
+∞ 1
y2
exp − dy.
(4.8)
Q(z) = PX (x > z) = ∫
2π
2
z
La fonction Q peut aussi être exprimée en fonction de la fonction d’erreur complémentaire
erf c, sous la forme suivante :
1
z
Q(z) = erf c ( √ ) .
2
2
(4.9)
Dans ce qui suit afin d’éviter toute confusion entre les notations des niveaux de gris des
pixels et les coefficients de précodage, ces derniers seront notés par wj , avec j = 1, ..., 4.
117
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
On peut exprimer le rapport signal à bruit de chaque voie (RSBj ) en fonction de son
coefficient de précodage (wj ) et de sa valeur singulière (σj ) :
RSBj = wj2 σj2 .
(4.10)
En remplaçant (4.10) dans (4.7), on obtient la probabilité d’erreur de chaque voie en
fonction de son coefficient de pré-codage wi :
√
√
4( Mj − 1)
3
√
)
(4.11)
Pj (wj ) ≈
Q (wj σj
Mj − 1
Mj
Ainsi, on peut écrire la distorsion totale relative au pixel i en fonction des coefficients de
précodage. Les facteurs communs dans la fonction de distorsion permettraient de simplifier
son écriture (voir ➜4.3.2.3 , équation (4.20)) :
2
2
DCh,i (w1 , w2 , w3 , w4 ) = fi,ρ
− (1 − P1 (w1 ))[P2 (w2 )fi,ρ1 (2fi,ρ
− fi,ρ1 )+
1+2+3+4
1+2+3+4
2
(1 − P2 (w2 ))[P3 (w3 )fi,ρ1+2 (2fi,ρ
− fi,ρ1+2 )+
1+2+3+4
2
(1 − P3 (w3 ))[P4 (w4 )fi,ρ1+2+3 (2fi,ρ
− fi,ρ1+2+3 )+
1+2+3+4
(4.12)
2
(1 − P4 (w4 )) (fi,ρ1+2+3+4 (2fi,ρ
− fi,ρ1+2+3+4 ))]]]
1+2+3+4
La distorsion du canal sur une image en fonction des coefficients de précodage s’écrit donc
sous la forme suivante :
N pixels
DCh (w1 , w2 , w3 , w4 ) = ∑ DCh,i (w1 , w2 , w3 , w4 )
(4.13)
i=1
4.3.2.2
Programme d’optimisation multi-variables avec contrainte
Dans la section précédente nous avons exprimé la distorsion des vidéos H.264/SVC
reçues sur un canal MIMO diagonalisé (canal virtuel). Notre objectif est de calculer les
coefficients de précodage qui offrent la configuration de transmission optimale, ce qui
revient à trouver les coefficients de précodage qui minimisent la distorsion totale. Ce
problème est un programme d’optimisation multi-variable, noté P :
min
P=
(w1 ,w2 ,...,wb )∈R+b
s.c.
D(w1 , w2 , ..., wb )
g(w1 , w2 , ..., wb ) = ∑bj=1 wj2 ≤ ET
(4.14)
où D(w1 , w2 , ..., wb ) représente la fonction objective du programme d’optimisation sous la
contrainte que la somme des coefficients de précodage au carré reste inférieure à la puissance de transmission (ET ), soit ∑bj=1 wj2 ≤ ET . La résolution de ce programme permettra
de trouver les coefficients de précodage optimaux qui minimisent la distorsion de la vidéo
reçue. La solution de ce programme est donnée dans la section suivante.
118
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
4.3.2.3
Résolution du problème
Ce type de programme d’optimisation entre dans la catégorie des programmes d’optimisation sous contraintes prenant la forme d’inéquation. Cette catégorie de programme
d’optimisation est généralement résolue à l’aide du Lagrangien associé aux conditions de
Kuhn et Tuker [73]. Nous définissons le Lagrangien comme la fonction L suivante :
L (w, λ) = D (w) − λ (g(w) − ET )
(4.15)
avec λ le paramètre de Lagrange.
Cependant, pour pouvoir utiliser cette solution, les conditions sur la contrainte doivent
être vérifiées. Généralement, la fonction de contrainte g(w) est linéaire (ou encore g(w)
est une fonction affine). Or, on peut constater que la fonction de la contrainte de notre
programme d’optimisation n’est pas linéaire.
Dans ce cas, nous devons calculer la matrice Jacobienne JG (w1 , w2 , ..., wb ) de la fonction
de contrainte, qui doit être de rang égal au nombre de fonctions de contraintes. La matrice
Jacobienne ligne de la contrainte g(w) est donnée ici par l’équation suivante :
JG (w1 , w2 , ..., wb ) = ( ∂g(w)
∂w1
∂g(w)
∂w2
⋯
∂g(w)
)
∂wb
= (2w1 2w2 ⋯ 2wb )
(4.16)
On peut constater que la matrice Jocobienne est de rang 1 quel que soit les wj avec
j = 1, ..., b, puisqu’elle est composée d’une seule ligne. Ainsi les conditions de Kuhn et
Tuker sont nécessaires et suffisantes pour garantir l’optimalité de notre problème, soit
[73] :
∂L(w,λ)
⎧
= 0, ∀j = 1, ..., b
⎪
⎪
∂wj
⎪
⎪
∂L(w,λ)
⎪
⎪
⎪ ∂λ ≥ 0
⎨
⎪
λ≥0
⎪
⎪
⎪
⎪
⎪
⎪
⎩λ (g(w) − ET ) = 0
⇔
∂g(w)
∂D(w)
⎧
⎪
⎪
∂wj − λ ∂wj = 0,
⎪
⎪
⎪
⎪
⎪g(w) ≤ ET
⎨
⎪
λ≥0
⎪
⎪
⎪
⎪
⎪
⎪
⎩λ = 0 ou g(w) = ET
∀j = 1, ..., b
(4.17)
Généralement, la résolution des conditions de Kuhn et Tuker est compliquée par le
fait qu’il faut envisager successivement toutes les configurations possibles. De plus, dans
notre cas, la complexité de la fonction objective qui s’écrit en fonction de la fonction erf c
rend ce programme difficilement résolvable via cette approche.
Afin de résoudre ce problème nous optons pour une autre approche implémentée dans
la plupart des outils d’optimisation, telles que la T oolBox des méthodes d’optimisations
de Matlab [141] et le logiciel d’optimisation Mosek [140]. Cette approche est basée sur la
méthode connue par le nom de méthode du point intérieur (en anglais interior-point) [139].
Cette méthode prend en entrée plusieurs paramètres : la fonction objective, la fonction de
la contrainte, la matrice Hessienne de la fonction objective, le gradient de la contrainte,
le nombre d’itérations maximum et le point initial. Dans ce qui suit nous allons exprimer
la matrice Hessienne de la fonction objective pour un canal MIMO (4 × 4).
Rappelons que la matrice Hessienne est composée des dérivées partielles secondes de la
119
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
fonction de distorsion en fonction des coefficients de précodage wj , j = 1, ..., b. La matrice
Hessienne de la fonction de distorsion est ainsi égale à :
⎛ ∂∂wD1
⎜ ∂2D
⎜ 2 w1
H̄(w1 , w2 , w3 , w4 ) = ⎜ ∂w
⎜ ∂2D
⎜ ∂w23 w1
∂ D
⎝ ∂w
4 w1
2
∂2D
∂w1 w2
∂2D
∂w2
∂2D
∂w3 w2
∂2D
∂w4 w2
∂2D
∂w1 w3
∂2D
∂w2 w3
∂2D
∂w3
∂2D
∂w4 w3
∂2D
∂w1 w4 ⎞
∂2D ⎟
∂w2 w4 ⎟
∂2D ⎟
⎟
∂w3 w4 ⎟
2
∂ D ⎠
∂w4
(4.18)
Sachant que la matrice Hessienne est une matrice symétrique, nous allons dans ce qui suit
∂2D
, avec i ≥ j.
calculer seulement les dérivés partielles d’ordre 2 ∂w
i wj
i. Calcul des drivées partielles d’ordre 1 de la fonction objective D.
Sans perte d’information, nous supposons que les différentes voies du canal MIMO
issues de l’étape de transformation en canal virtuel sont décorrélées. Ainsi, les dérivés
partielles premières de la probabilité d’erreur de chaque voie sont données par :
avec τj = σj
√
3
Mj −1 ,
⎧
⎪
∂Pj (wj )
⎪τj mj Q′ (wj τj ), si j = k
′
= Pj,wk = ⎨
⎪
∂wk
sinon
⎪
⎩0,
mj =
√
4( Mj −1)
√
Mj
et Q′ (wj τj ) =
1
2π
exp (−
(4.19)
wj2 τj2
2 )
Les dérivés premières de la fonction de distorsion D(w1 , w2 , w3 , w4 ) s’écrivent alors
sous la forme suivante :
⎧ ′
j=1
∂D(w1 , ..., w4 ) ⎪
⎪P 1 c1 ,
(4.20)
= ⎨ 1,wj−1
2
′
⎪− ∏k=1 (1 − Pk )Pj,wj [2fi,ρj (fi,ρ3 − fi,ρj ) − cj ] j = 2, ..., 4
∂wj
⎪
⎩
en notant cj le facteur de (1 − Pj (wj )), j=1, ..., 4 donné dans l’équation (4.12).
ii. Calcul des dérivées partielles d’ordre 2 de la fonction objective D.
Nous calculons tout d’abord les dérivées partielles secondes des probabilités Pj (wj ) :
⎧
⎪τ 2 mj Q′′ (wj τj ), si k = l = j
∂ 2 Pj (wj )
⎪
′′
= Pj,wk ,wl = ⎨ j
⎪
∂wk wl
sinon
⎪
⎩0,
avec Q′′ (wj τj ) = −
wj τj3
2π
exp (−
(4.21)
wj2 τj2
2 )
Les dérivées partielles secondes de la fonction de distorsion sont finalement données
par la formule suivante :
⎧
P ′′ 1 c1 ,
si j = k = 1
⎪
⎪
⎪ 1,w
∂ 2D
⎪
k−1
′′
2
′′
= ⎨∏l=1 et l≠j (1 − Pl )Pj,wj Pk,wk [fi,ρk−1 (2fi,ρ
− fi,ρk−1 ) − ck ],
3
∂wj wk ⎪
⎪
⎪
⎪
si j, k = 2, ..., 4 et k > j
⎩
120
(4.22)
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
4.3.3
Configuration de la transmission
Afin d’évaluer les performances du précodeur QdS paramétré par la solution analytique, nous adoptons la configuration de transmission considérée en (➜4.2.5) pour évaluer
les performances des deux algorithmes.
On fournit à la méthode d’optimisation tout les paramètres nécessaires, à savoir la fonction de distorsion (fonction objectif), la fonction de contrainte, la matrice Hessienne de la
fonction objective, le gradien de la contrainte, le nombre d’itérations maximum et le point
initial. Le point initial a une importance toute particulière dans la rapidité de convergence
vers la solution optimale. En effet, si ce point de départ est bien choisi, c’est à dire qu’il
est proche de la solutions optimale, l’algorithme itératif converge très rapidement, ce qui
diminue considérablement la complexité et le temps de calcul de cette approche.
4.3.4
Résultats et discussions
Dans cette section nous allons présenter les performances de notre schéma en utilisant
la méthode d’optimisation pour calculer les coefficients du précodeur QdS. Les PSNR
des quatre vidéos reçues par l’Utilisateur 1 pendant son déplacement sur la trajectoire
sont illustrés respectivement sur les figures 4.8, 4.9, 4.10 et 4.11. Les performances du
schéma d’optimisation sont comparées avec celles de l’Algorithme 1. Nous avons choisi
l’Algorithme 1, car c’est le schéma qui offre les meilleures performances en utilisant une
modulation d’efficacité spectrale fixe égale à 4, en l’occurrence la modulation 4-QAM.
Dans de mauvaises conditions de transmission (les 255 premières images de la figure 4.8,
partie 1 et zone 1 de la trajectoire), la courbe de la méthode d’optimisation et celle de
l’Algorithme 1 sont superposées. On peut alors constater que l’Algorithme 1 réalise les
performances de transmission optimales et calcule les coefficients de précodage qui minimisent la distorsion totale de la vidéo reçue.
Dans des conditions de transmission moyennes, c’est à dire lorsque l’Uilisateur 1 se déplace
sur la partie 2 de la trajectoire (figure 4.9), les performances des deux solutions sont très
proches. Néanmoins sur certaines images de la vidéo, les performances de l’Algorithme
1 sont au dessus de celles de la méthode d’optimisation. Ce faible écart entre les deux
courbes peut être expliqué par quatre raisons principales. Premièrement, la courbe de
TEB de notre chaı̂ne de transmission, qui adopte un CCE de rendement 5/6, ne correspond pas exactement à la courbe de TEB considérée dans le modèle de distorsion, qui
ne considère pas de CCE. De plus, le canal de transmission réaliste a un comportement
d’une canal de Rayleigh variable dans le temps, alors que dans le modèle d’erreur nous
considérons un canal Gaussien. Troisièmement, la méthode d’optimisation adoptée pour
résoudre ce programme d’optimisation, à savoir la méthode du point-intérieur, est une
méthode numérique basée sur un calcul itératif. Ainsi, cette méthode approche la solution
optimale avec une très faible erreur, mais ne fournit pas exactement la solution optimale.
Enfin, ces résultats sont obtenus sur une seule simulation, où la position des erreurs du
bruit Gaussien peut légèrement influencer les résultats.
Dans de bonnes conditions de transmission (figure 4.10, partie 3 et zone 3), les perfor-
121
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
mances de la méthode d’optimisation sont aussi très proches de celles de l’Algorithme
1. Contrairement à la courbe précédente, dans de telles conditions de transmission la
méthode d’optimisation surpasse les performances de l’Algorithme 1 sur certaines images
de la vidéo.
Sur la figure 4.11, qui illustre les performances des deux schémas dans de moyennes et de
mauvaises conditions de transmission, nous retrouvons le même comportement que ceux
analysés sur figures 4.8 et 4.9.
Figure 4.8: Performances de la méthode d’optimisation sur un canal réaliste MIMO (4 × 4) :
Utilisateur 1 (vidéo 1)
122
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
Figure 4.9: Performances de la méthode d’optimisation sur un canal réaliste MIMO (4 × 4) :
Utilisateur 1 (vidéo 2)
Figure 4.10: Performances de la méthode d’optimisation sur un canal réaliste MIMO (4 × 4) :
Utilisateur 1 (vidéo 3)
123
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
Figure 4.11: Performances de la méthode d’optimisation sur un canal réaliste MIMO (4 × 4) :
Utilisateur 1 (vidéo 4)
4.3.5
Limites de la solution analytique
La solution analytique proposée pour le calcul des coefficients de précodage présente
aussi quelques limites. Cette solution se restreint aux seuls paramètres continus de la
chaı̂ne de transmission. Ainsi, l’ensemble des paramètres discrets de la chaı̂ne de transmission ne peut pas être calculé par cette méthode. Par exemple, l’efficacité spectrale de
la modulation M-QAM qui est définie dans un ensemble discret M ∈ {4, 16, 128, 256}, et
la taille de GOP qui prend ces valeurs dans l’ensemble GOP ∈ {4, 8, 16, 32} ne peuvent
pas être estimées par cette approche. D’autre part, on ne dispose pas, pour le moment,
de modèles analytiques décrivant la distorsion de la vidéo H.264/SVC reçue sur un canal
MIMO en fonction des rendements du CCE, de la taille du GOP et des paramètres de
quantification. Ainsi, afin d’envisager l’intégration de la taille du GOP, des paramètres de
quantification et les rendements du CCE dans le modèle de distorsion, il faut tout d’abord
songer à exprimer analytiquement la distorsion de la vidéo H.264/SVC reçue en fonction
de ces paramètres.
On a vu dans le chapitre d’état de l’art (section 1.4) qu’il existe plusieurs travaux qui
considèrent la taille du GOP et les paramètres de quantification dans l’optimisation des
paramètres de transmission de vidéo sur un système SISO [81] [80] [82] [83], puis sur un
système MIMO à boucle ouverte dans [93] [95].
Concernant la taille du GOP deux solutions sont proposées. La première [81] [80] fait appel à une approche algorithmique pour trouver la taille de GOP qui minimise la distorsion
totale dans un ensemble discret. La seconde solution [82] [93] [95] considère le paramètre
124
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
de la taille de GOP comme un paramètre continu. Ainsi, cette solution ne considère pas
vraiment un codeur de source réel, où la taille de GOP est un paramètre discret.
À notre connaissance, il n’existe pas de travaux de transmission de vidéo sur un système
MIMO à boucle fermée qui considèrent les paramètres de taille de GOP et le rendement
du CCE. Afin de répondre à ce besoin, nous allons faire dans la section suivante une étude
expérimentale sur l’influence des paramètres de codage de source (taille de GOP et coefficients de quantification) et de codage de canal (rendement du CCE) sur la transmission
de vidéo H.264/SVC sur un système MIMO à boucle fermée.
4.4
Analyse débit-distorsion
Dans cette section nous allons faire une étude de débit-distorsion pour la transmission
du flux vidéo H.264/SVC sur un canal MIMO. L’objectif est d’une part, d’évaluer les
performances de plusieurs configurations de codage source-canal dans différentes conditions de transmission de vidéo H.264/SVC sur un canal MIMO réaliste, et d’autre part,
d’évaluer l’impact de la taille de GOP sur la qualité des vidéos reçues.
4.4.1
Contexte de l’étude
Dans cette étude on considère que le débit de la couche physique alloué à notre utilisateur (U tilisateur1) reste fixe et sera égal à 500 Kb/s. Ainsi, le débit total de la transmission de la couche basse qualité de la vidéo plus la redondance ajoutée par le CCE
ne doit pas dépasser 500 Kb/s, soit RS + RCh ≤ 500 Kb/s avec RS et RCh représentent
respectivement les débits des codeurs de source et de canal.
Nous réalisons cette étude de débit-distorsion via la transmission des flux vidéo codés par
quatre différentes configurations EEP de codage source-canal (RS , Rc ) avec Rc le rendement du CCE, à savoir (250, 1/2), (333, 2/3), (375, 3/4) et (416, 5/6). Ces quatre configurations de codage sont testées pour trois tailles de GOP différentes, GOP = {4, 8, 16}. Les
144 premières images de la vidéo Soccer sont utilisées pour réaliser cette étude et codées
par le logiciel de référence du codeur H.264/SVC en quatre résolutions de qualité. Les
paramètres de codage des quatre configurations considérées dans notre étude sont donnés
dans le tableau 4.2.
Les coefficients du précodeur QdS sont calculés par l’Algorithme 1, dont le seuil de communication T h est fixé par rapport à la modulation 4-QAM. Chaque vidéo est transmise
sur le canal réaliste représenté par une trajectoire composée de cinq parties correspondantes à des changements brusques de la puissance reçue. Le PSNR des vidéos reçues sur
les différentes parties de la trajectoire représente les distorsions des vidéos reçues dans
différentes conditions de transmission. Enfin, les résultats présentés ci-après correspondent
à une moyenne sur 100 simulations.
125
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
ρ1
267,6
261,7
250,9
332,2
337,90
336,2
366,80
374,5
373
403,4
415,90
414
Débit
ρ1+2
468
500,50
500,10
646,2
661,40
678,6
798,9
743,7
742,80
803,90
846,20
847,8
(Kb/s)
ρ1+2+3
786
764,6
751,1
989,6
1008,30
991,2
1095,9
1124,8
1121
1218,6
1259,10
1232,6
QP
ρ1+2+3+4
1010,70
1074,20
1056,2
1281
1306
1320,20
1581
1450,3
1535,80
1623,8
1645
1614,8
ρ1
51
50,5
50,5
48,2
47,4
47
47,1
46
45,9
46,1
45
44,9
ρ2
47,7
46
46
41,1
43,5
42,8
43,05
42,1
41,7
42,1
41,2
40,5
ρ3
44,9
43,8
43,8
42,1
41,5
40,9
41,4
40,2
39,6
40,1
39,1
38,8
ρ4
44
42
42
41,1
39,8
39,3
49,02
39,1
38,19
39,1
37,7
37,3
Rc
GOP
1/2
1/2
1/2
2/3
2/3
2/3
3/4
3/4
3/4
5/6
5/6
5/6
4
8
16
4
8
16
4
8
16
4
8
16
Table 4.2: Configurations de codage source-canal de la vidéo Soccer (704 × 576)
4.4.2
Analyse des résultats
4.4.2.1
Impact du codage conjoint source-canal
Les figures 4.12, 4.13 et 4.14 comparent les quatre configurations de codage sourcecanal pour respectivement les trois tailles de GOP considérées. Ces figures représentent
la distorsion (PSNR) en fonction du débit des vidéos avant et après transmission, par
respectivement, des courbes en lignes continues et en pointillées.
La figue 4.12 montre que lorsque la taille du GOP est égale à 4, les performances des vidéos
reçues dépendent des performances du codeur de source H.264/SVC. Ce qui signifie que les
erreurs introduites par le canal de transmission n’engendrent pas une grande distorsion
sur les vidéos reçues, même sur celles codées par la configuration de codage la moins
robuste (416, 5/6). Ce comportement peut évidemment être expliqué par la robustesse du
codage de source lorsque la taille de GOP est faible, où la propagation des erreurs dans
le GOP est limitée à 4 images.
De plus, on peut constater que lorsque la réception du premier flux vidéo est assuré sans
erreur par l’Algorithme 1, les paramètres de quantification n’ont aucune ou une très faible
influence sur la qualité des vidéos reçues. Cette faible distorsion est due au codage MGS
adopté dans les paramètres de codage du codeur H.264/SVC. En effet, lorsque la qualité
de vidéo de base est correctement reçue, il n’ y a plus de propagation des erreurs dans le
GOP. Cependant, l’image de meilleure qualité reçue est utilisée pour la prédiction, alors
que dans le codage MGS les images utilisent la résolution maximum pour la prédiction.
Cela peut créer une désynchronisation entre le codage et le décodage (Drift) lorsque tous
les flux de la video ne sont pas correctement reçus. Ce problème ne se pose pas pour les
126
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
images clés 3 , car ces images utilisent dans le codage MGS l’image de référence de qualité
de base lors de la prédiction.
Pour la taille de GOP égale à 8 (4.13), les performances des vidéos reçues ne suit plus
les performances du codage de source dans de mauvaises conditions de transmission,
où la réception sans erreur du premier flux vidéo n’est pas assurée par l’Algorithme 1.
La propagation des erreurs dans le GOP dégrade la qualité des vidéos reçues dans de
mauvaises conditions de transmission. Cette dégradation dépend de la configuration de
codage source-canal. On remarque que la distorsion engendrée sur ces vidéos augmente
avec le rendement du CCE adopté. Ainsi, les performances de la configuration de codage
(416, 5/6) passent au dessous des performances des deux configuration moins performantes
avant la transmission : les configurations (375, 3/4) et (333, 2/3).
La figure 4.14 montre que lorsque la taille de GOP est relativement importante (GOP =
16), la propagation des erreurs dans le GOP dégrade encore davantage la qualité des
vidéos reçues dans de mauvaises conditions de transmission. Cette dégradation est plus
ou moins importante suivant la configuration de codage source-canal adoptée. On constate
une dégradation importante sur les vidéos reçues par des configurations de codage sourcecanal les moins robustes, à savoir les configuration (416, 5/6) et (375, 3/4). La qualité des
vidéos reçues par la configuration de codage source-canal (416, 5/6) passe au dessous de
la qualité des vidéos reçues par les deux autres configurations de codage, alors que c’était
la configuration qui offrait la plus faible distorsion avant la transmission.
Ces trois figures nous ont permis de comparer les quatre configurations de codage sourcecanal pour trois tailles de GOP différentes sur un canal MIMO réaliste. Dans la section
suivante nous présentons ces résultats en comparant les performances de transmission des
vidéos codées par trois tailles de GOP dans les quatre configurations de codage sourcecanal.
3. voir la définition des images clés dans le paragraphe ➜3.2.5
127
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
Figure 4.12: Impact du codage conjoint source-canal pour GOP = 4
Figure 4.13: Impact du codage conjoint source-canal pour GOP = 8
128
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
Figure 4.14: Impact du codage conjoint source-canal pour GOP = 16
4.4.2.2
Impact de la taille des GOP
Les figures 4.15, 4.16, 4.17 et 4.18 comparent les performances des trois tailles de GOP
dans respectivement les quatre configurations de codage débit-distorsion adoptées.
En plus aux remarques précédentes sur l’influence de la taille de de GOP sur la qualité
des vidéo reçues, la figure 4.15 montre que lorsque on utilise une configuration de codage
source-canal robuste (255, 1/2), la taille de GOP n’a pas un impact sur la qualité des
vidéos reçues même dans de conditions de transmission les plus dégradées. Cependant,
plus le rendement du CCE est important, plus l’impact de la taille de GOP devient plus
important sur les vidéos reçues dans de mauvaises conditions de transmission.
La courbe 4.18 confirme la grande distorsion entrainée par une taille de GOP importante
lorsque on utilise une configuration de codage source-canal non robuste dans de mauvaise
conditions de transmission, car la courbe correspondante à la taille de GOP = 16 passe
largement en dessous des autres courbes dans de telles conditions de transmission.
Finalement, à partir des sept figures précédentes on peut conclure que la taille de GOP
a un impact sur la transmission sur un canal MIMO uniquement dans de mauvaises
conditions de transmission, ou plus précisément lorsque l’Algorithme 1 n’arrive pas à
assurer une réception sans erreur du premier flux de la vidéo (ρ1 ). Car même si l’état du
canal est dégradé mais qu’on utilise une configuration de codage source-canal robuste, la
taille des GOP n’a pas vraiment d’impact sur la qualité des vidéos reçues.
Dans le cas contraire, c’est à dire dans de meilleures conditions de transmission, où le
premier flux vidéo est correctement reçu, les paramètres du codage de source (taille de
129
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
GOP et coefficients de quantification) qui réalisent les meilleurs performances au niveau
du codage de source doivent être adoptés pour la transmission indépendamment du codage
de canal. Dans de mauvaises conditions de transmission associées à une configuration de
codage source-canal robuste, la taille de GOP peut être aussi choisie indépendamment du
codage de canal, car elle n’a pas d’impact sur la qualité des vidéos reçues. Ainsi, lorsque
l’Algorithme 1 assure la réception sans erreur du premier flux vidéo, les codeurs de source
et de canal peuvent être optimisés séparément.
Figure 4.15: Impact de la taille de GOP pour la configuration de codage (250, 1/2)
130
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
Figure 4.16: Impact de la taille de GOP pour la configuration de codage (333, 2/3)
Figure 4.17: Impact de la taille de GOP pour la configuration de codage (375, 3/4)
131
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
Figure 4.18: Impact de la taille de GOP pour la configuration de codage (416, 5/6)
4.5
Conclusion
Dans ce chapitre nous avons proposé deux algorithmes pour calculer les coefficients du
précodeur QdS. Ces algorithmes considèrent l’état du canal MIMO et l’importance des
flux vidéo H.264/SVC pour améliorer la qualité des vidéos reçues. Nous avons vu que sur
un canal MIMO (4×4) diagonalisé, la puissance des deux premières voies sont plus importantes que celles des deux dernières voies. L’Algorithme 2 permet d’exploiter la puissance
des ces deux voies en augmentant l’efficacité spectrale de la modulation numérique. Ainsi,
cet algorithme permet une meilleure exploitation du canal MIMO et améliore significativement la qualité des vidéos reçues, notamment dans de bonnes conditions de transmission.
Dans un second temps, nous avons écrit un modèle analytique de distorsion correspondant à la transmission du flux vidéo H.264/SVC sur un canal MIMO virtuel. Nous avons
exprimé la distorsion de la vidéo reçue en fonction des coefficients de précodage. Ainsi,
la minimisation de la distorsion totale à l’aide d’une méthode d’optimisation permet de
calculer précisément les coefficients de précodage qui minimisent la distorsion de la vidéo
reçue. Ces coefficients de précodage réalisent alors les performances de transmission optimales. Cette étude théorique nous a permis aussi de valider les résultats obtenus par
l’approche algorithmique, notamment l’Algorithme 1.
Pour compléter cette étude en intégrant d’autres paramètres que les coefficients de précodage, nous avons effectué une analyse pertinente de débit-distorsion. Cette analyse nous a
132
CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE
VIDÉO H.264/SVC SUR UN CANAL MIMO
permis de montrer l’impact d’autres paramètres de codage, tels que la taille du GOP et
les coefficients de quantifications, au niveau du codage de source, ainsi que le rendement
du CCE, au niveau du codage de canal. Les résultats expérimentaux montrent que ces
trois paramètres ont un grand impact sur la qualité des vidéos reçues sur un canal MIMO
réaliste lorsque la méthode adoptée pour le calcul des coefficients du précodeur QdS n’assure pas la réception sans erreur du premier flux vidéo. De plus, nous avons constaté que
lorsque le premier flux de la vidéo est correctement reçu, les paramètres des codeurs de
source et de canal peuvent être séparément optimisés. Cependant, une prise en compte de
l’importance du flux vidéo par le CCE, c’est à dire une stratégie de codage source-canal
UEP n’a pas encore été considérée dans nos travaux.
Cette étude ouvre alors les portes à des perspectives intéressantes à ce travail, dont
l’objet est de proposer cette fois un modèle analytique qui prenne en compte tous les
paramètres des codeurs de source et de canal. Ainsi, la résolution du programme d’optimisation permettrait de trouver, suivant de la nature de la vidéo et l’état du canal, la
configuration de transmission optimale du flux H.264/SVC sur un canal MIMO, à savoir la
taille de GOP, les coefficients de quantification, les rendements du CCE par une stratégie
de codage UEP, l’efficacité spectrale de modulation QAM et les coefficients de précodage.
133
Chapitre 5
Conclusion et perspectives
Dans le cadre de cette thèse nous avons considéré deux points d’étude s’intéressant à
deux aspects différents de la transmission de vidéo sur des liens radio mobiles :
1. La modélisation d’une couche physique réaliste et son impact sur la transmission
temps réel de vidéo H.264/AVC dans un environnement urbain.
2. La transmission hiérarchique du flux vidéo H.264/SVC sur des systèmes MIMO à
boucle fermée (CL-MIMO).
Concernant le premier point, nous avons proposé une couche physique réaliste pour des
configurations de canal SISO et MIMO suivant respectivement les normes de transmission
IEEE 802.11a et IEEE 802.11n. En plus de considérer les spécificités d’un environnement
réaliste, cette couche physique prend en compte toutes les perturbations d’un canal radio
mobile : sélectivités fréquentielle et temporelle ainsi que le bruit des différentes perturbations du canal. Nous avons par la suite montré qu’une couche physique réaliste influence
grandement sur les performances de transmission temps réel de vidéo, notamment sur
la qualité visuelle des vidéos reçues. Pour une meilleure évaluation des performances des
schémas de transmission temps réel de vidéo par réseaux sans fil, les concepteurs de ces
nouvelles solutions doivent considérer une telle couche physique réaliste dans les simulateurs de réseaux.
D’autre part, cette couche physique réaliste suscite un grand intérêt dans d’autres domaines de recherche, tels que les communications véhicule à véhicule (Vehicular communication systems). Dans cette communauté de recherche la modélisation réaliste de la
couche physique est l’un des points majeurs à considérer pour évaluer les performances
des protocoles proposés.
Le deuxième point d’étude traite la transmission scalable du flux vidéo H.264/SVC
sur des canaux MIMO. Nous avons proposé un schéma de transmission impliquant le
codeur de vidéo H.264/SVC et quatre précodeurs linéaires : trois précodeurs diagonaux
(Max-RSB, WF, QdS) et un précodeur non-diagonal (E-dmin ). Les performances de ce
schéma ont été évaluées à la fois sur un canal statistique et un canal réaliste. De plus,
nous avons mesuré la robustesse de ce schéma vis-à-vis des erreurs d’estimation du canal.
Les résultats de simulation montrent que les précodeurs (E-dmin ) les plus performants en
135
CHAPITRE 5. CONCLUSION ET PERSPECTIVES
terme de TEB ne sont pas forcément les plus appropriés à une transmission de vidéo. Cependant, une prise en compte par le précodeur QdS de la scalabilité du codeur H.264/SVC
ainsi que de l’état du canal MIMO permet non seulement d’améliorer la qualité de la vidéo
reçue, mais aussi d’assurer la qualité de service à l’utilisateur quelles que soient les conditions de transmission. Contrairement au précodeur non diagonal E-dmin , les précodeurs
diagonaux restent très robustes aux erreurs d’estimation de canal même à des vitesses de
mobilité relativement élevées de l’ordre de 10 m/s.
Nous avons par la suite proposé deux solutions adaptatives pour le calcul des coefficients du précodeur QdS en considérant à la fois l’importance du flux vidéo H.264/SVC
et l’état du canal MIMO. La première solution est algorithmique et permet d’atteindre les
meilleures performances de transmission comparée aux autres solutions de précodage. Cet
algorithme a été adapté pour le calcul de l’efficacité spectrale de la modulation de chaque
sous canal SISO pour une meilleure exploitation du canal MIMO. Ainsi, cette solution
permet d’améliorer davantage la qualité des vidéos reçues, notamment dans de bonnes
conditions de transmission.
Le seconde solution est analytique et permet à l’aide de la méthode de Lagrange associée
aux conditions de Kuhn et Tucker de trouver les coefficients de précodage qui réalisent
les meilleures performances de transmission. Après avoir exprimé la distorsion totale de
la vidéo reçue en fonction des coefficients de précodage et de la modulation numérique,
cette solution consiste à trouver les coefficients de précodage qui minimisent la distorsion
totale. La configuration de précodage calculée par cette méthode représente alors la configuration de transmission optimale.
Enfin, nous avons fait une analyse expérimentale de débit-distorsion pour la transmission
de vidéo H.264/SVC sur un canal MIMO. Cette première étude a permis de montrer
l’importance des coefficients de quantification et de la taille des GOP au niveau de la
couche application, ainsi que des rendements des codes correcteurs d’erreurs au niveau de
la couche physique sur la qualité des vidéos H.264/SVC reçues sur un canal MIMO. Dans
de mauvaises conditions de transmission, les paramètres de codage source et de codage
canal doivent être considérés conjointement. Cependant, dès que le précodeur assure la
réception sans erreur du premier flux vidéo de basse qualité, une optimisation séparée
entre le codage de source et le codage de canal est suffisante pour réaliser les meilleures
performances de transmission.
Plusieurs travaux pourront être menés à partir des deux axes de recherche considérés
dans ce manuscrit.
Premièrement, il est intéressant de voir le comportement de la couche physique réaliste
dans des configurations de réseaux mobiles avec des terminaux qui se déplacent à différentes
vitesses. L’inconvénient de cette couche physique est le temps de calcul du logiciel de
propagation et celui de la recherche des RI et TEB de chaque lien dans les caches (fichiers) correspondants. Nous avons déjà proposé dans le cadre d’un stage de M aster des
136
CHAPITRE 5. CONCLUSION ET PERSPECTIVES
méthodes permettant de réduire le temps de recherche pour atteindre un temps de simulation comparable à celui du simulateur N S − 2. Cependant, le temps de calcul du logiciel
de propagation réalisé uniquement lors de la première simulation reste important, notamment pour des scénarios avec mobilité. Une des perspectives de la thèse est de proposer
d’autres modèles statistiques permettant une caractérisation du canal similaire à celle du
logiciel de propagation, mais avec un temps et une complexité de calcul réduits.
D’autre part, l’intégration d’autres paramètres comme les coefficients de quantification, la taille de GOP et les rendements du CCE dans le fonction de distorsion totale est
aussi une perspective importante de ce travail. La prise en compte de ces paramètres permettrait de trouver la configuration de transmission offrant les performances de transmission optimales quelles que soient les conditions de transmission. Par exemple, l’intégration
de la taille des GOP dans la fonction de distorsion permettrait de choisir la taille de GOP
suivant la qualité du canal et la nature de la vidéo transmise. Considérer les rendements du
CCE dans la fonction de distorsion permet d’exploiter la hiérarchie du codeur H.264/SVC
par une stratégie de protection UEP.
Enfin, il est évident que l’étude de performances des solutions proposées dans les chapitre 4, effectuée uniquement sur une seule séquence vidéo (Soccer), est insuffisante. Ces
résultats doivent être validés sur un ensemble de séquences vidéo plus large.
137
Bibliographie
[1] I. Chlamtac, M. Conti, J. J. N. Liu, Mobile ad hoc networking : imperatives and
challenges, Ad Hoc Networks Journal, Elsevier, vol. 1, no. 1, pp. 13-64, Jul. 2003.
[2] OSI (International Standardization Organization). http ://www.iso.org
[3] RTP : A Transport Protocol for Real-Time Applications, Request For Comment (RFC)
3550, Jul. 2003.
[4] C. Perkins and E. Royer. Ad-hoc On-demand Distance Vector (AODV) routing. Workshop on Mobile Computing Systems and Applications, pp. 90-100, Feb. 1999.
[5] T. Clausen and P. Jacquet. Optimized Link State Routing protocol. Technical report,
IETF (Internet Engineering Task Force), Request For Comment (RFC) 3626, Sep.
2003.
[6] P. Jacquet, P. M uhlethaler, A. Qayyum, A. Laouiti, T. Clausen, and L. Viennot.
Optimized link state routing protocol. IEEE INMIC, Dec. 2001.
[7] V. Kawadia and P. R. Kumar, A cautionary perspective on cross-layer design. IEEE
Wireless Communications, vol. 12, no. 1, pp. 3-11, Feb. 2005.
[8] J. Huuskoa, J. Vehkaperaa, P. Amon, C. Lamy-Bergot, G. Panzad, J. Peltolaa,
M. G. Martini, Cross-layer architecture for scalable video transmission in wireless
network, Signal Processing : Image Communication, no. 22, pp. 317-330, 2007.
[9] M. G. Martini, M. Mazzotti, C. Lamy-Bergot, J. Huusko, and P. Amon Content adaptive network aware joint optimization of wireless video transmission. IEEE Communications Magazine, vol. 45, no. 1, pp. 84-90, Jan. 2007.
[10] C. E. Shannon, A Mathematical Theory of Communication, Bell System Technical
Journal, vol. 27, pp. 379-423, 623-656, Jul., Oct., 1948.
[11] J. G. Proakis, Digital Communications. McGraw Hill International edition, second
edition, 1989.
[12] S. C. Chan and K. L. Ho, A new two-dimensional cosine transform algorithm, IEEE
Transactions on Signal Processing, vol. 39, no. 2, pp. 481-485, 1993.
[13] S. Mallat, A theory for multiresolution signal decomposition : The wavelet representation, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 11, no.
2, pp. 674-693, 1989.
[14] D. A. Huffman, A method for the construction of minimum-redundancy codes, Proceedings of the Institute of audio Engineers, vol. 40, no. 9, pp. 1098-1101, 1952.
139
BIBLIOGRAPHIE
[15] R. C. Pasco, Source coding algorithms for fast data compression, Ph.D. dissertation,
Stanford University, CA, USA, 1976.
[16] T. A. Welch, A technique for high-performance data compression, IEEE Computer,
vol. 17, no. 26, 1984.
[17] Y. Q. Shi and H. Sun. Image and video compression for multimedia engineering :
fundamentals, algorithms, and standards. CRC press, Boca raton, U.S.A, 2000.
[18] G. K. Wallace, The JPEG still picture compression standard, Communications of the
Association for Computing Machinery (ACM), vol. 34 no. 4 pp. 30-44, Apr. 1991.
[19] W. B. Pennebaker and J. L. Mitchell, JPEG Still Image Data Compression Standard,
Van Nostrand Reinhold, New York, NY, USA, 1993.
[20] ISO/IEC DIS 10918-1. Digital Compression and Coding of Continuous-Tone Still
Image (JPEG). Technical report, CCITT Recommendation T.81, 1992.
[21] A. N. Skodras, C. A. Christopoulos, and T. Ebrahimi, The JPEG2000 Still Image
Compression Standard, IEEE Signal Processing, vol. 18, pp. 36-58, Sep. 2001.
[22] M. P. Boliek, An Overview of JPEG-2000, in Data Compression Conference, pp.
523-544, 2000.
[23] JPEG 2000 image coding system, Part 11 : Wireless JPEG 2000 - Final Draft International Standard, ISO/IEC, Nov. 2005
[24] F. Dufaux and D. Nicholson, JPWL : JPEG 2000 for wireless applications, in SPIE
Proceeding Applications of Digital Image Processing XXVII, vol. 5558, pp. 309-318
Denver, Colo. , Aug. 2004.
[25] F. Dufaux, G. Baruffa, F. Frescura, D. Nicholson, JPWL - an extension of JPEG
2000 for wireless imaging, IEEE Proceedings International Symposium on Circuits
and Systems (ISCAS) pp. 3869-3873, Sep. 2006.
[26] Joint Video Team of ITU-T and ISO/IEC JTC 1, Draft ITU-T Recommendation and
Final Draft International Standard of Joint Video Specification (ITU-T Rec. H.264 —
ISO/IEC 14496-10 AVC), Joint Video Team (JVT) of ISO/IEC MPEG and ITU-T
VCEG, JVT-G050, March 2003.
[27] T. Wiegand, G. J. Sullivan, G. Bjontegaar, and A. Luthra, Overview of the
H.264/ACV video coding standard], IEEE Transactions on Circuits and Systems Video
Technology, vol. 13, no. 7, pp. 560-576, Jul. 2003.
[28] S. Wenger, H264/AVC over IP, IEEE Transactions on Circuits Systems Video Technology, vol. 13, no. 7, pp. 645-656, Jul. 2003.
[29] T. Stockhammer, M. H. Hannuksela, and T. Wiegand, H.264/AVC in wireless environments, IEEE Transactions on Circuits and Systems Video Technol., vol. 13, no. 7,
pp. 657-673, Jul. 2003.
[30] A. Goldsmith, Wireless Communications, Cambridge University Press, 2005.
[31] J. D. Parson, The mobile radio propagation channel, Wiley, 2000.
140
BIBLIOGRAPHIE
[32] M. F. Iskander and Z. Yun, Propagation prediction models for wireless communication
systems, IEEE Transactions on microwave theory and techniques, vol. 50, no. 3, p.
662-673, 2002.
[33] M. F. Catedra, J. Perez, F. S. Adana, and O. Gutierrez, Efficient ray-tracing techniques for three-dimensional analyses of propagation in mobile communications, Application to picocell an microcell scenarios, IEEE Antennas Propagation Magazine,
vol. 40, no. 2, pp. 15-28, Apr. 1998.
[34] M. Paetzold, Mobile fading channels, Wiley, 2002.
[35] J. Gibson, The Communications Handbook. CRC Press, 1997.
[36] S. Lin, D. J. Costello, Jr., Error Control Coding : Fundamentals and Applications,
second edition, Prentice Hall : Englewood Cliffs, NJ, 2004.
[37] P. Elias, Coding for noisy channels, In Proceedings of the IRE National Convention
Record, vol. 3, no. 4, pp. 37-46, Mar. 1955.
[38] R. G. Kouyoumjian, Asymptotic high-frequency methods, Proceedings of the IEEE,
no. 53, pp. 864-876, Aug. 1965.
[39] L. Aveneau , Y. Pousset , R. Vauzelle , M. Mériaux, Development and Evaluations of
Physicial and Computer Optimizations for the UTD 3D Model, IEEE Antennas and
Propagation , Davos, Suisse, Apr. 2000.
[40] C. Berrou, A. Glavieux, and P. Thitimajhima, Near shannon limit error correcting
coding and decoding : Turbo-codes. In Proceedings of International Conference on Communications (ICC 93), pp. 1067-1070, Geneva, Switzerland, May 1993
[41] R. G. Gallager, Low-density parity-check codes. Ph.d. report, M.I.T. Press, Cambridge, U.S.A., 1963
[42] IEEE Standard for Information Technology-Part 11 : Wireless LAN Medium Access
Control (MAC) and Physical Layer (PHY) specification Amendment : Enhancements
for Higher Throughput (802.11n), 2009.
[43] IEEE Standard for Local and metropolitan area networks Part 16 : Amendment for
Physical and Medium Access Control Layers for Combined Fixed and Mobile Operation
(802.11e), 2005.
[44] S. Sesia, I Toufik and M Baker : LTE - The UMTS Long Term Evolution From
Theory to Practice, John Wiley and Sons, 2009.
[45] S. Hara and R. Parasad OFDM for wireless communications systems, Artech House,
2003.
[46] R. Parasad Multicarrier techniques for 4G mobile communications , Artech House,
2004.
[47] F. Le Lannec, Codage vidéo robuste et hiérarchique pour la transmission sur réseaux
hétérogènes. Ph.d. report, IRISA, Rennes, France, 2001.
141
BIBLIOGRAPHIE
[48] S. Zezza, M. Martina, G. Masera, S. Nooshabadi, Error resilient JPEG2000 decoding
for wireless applications , IEEE International Conference on Image Processing (ICIP),
San Diego, CA, 2008.
[49] L. Ozarow, On a source-coding problem with two channels and three receivers, Bell
Syst. Tech. J., vol. 59, no. 10, pp. 1909-1921, Dec. 1980.
[50] R. Zamir, Gaussian codes and Shannon bounds for multiple descriptions, IEEE Trans.
Inform. Theory, vol. 45, pp. 2629-2636, Nov. 1999.
[51] V. K. Goyal, Multiple description coding : compression meets the network, IEEE
Signal Processing Magazine, vol. 18, no. 5, pp. 74-93, Sep. 2001.
[52] V. K. Goyal, Theoretical foundations of transform coding, IEEE Signal Processing
Mag., vol. 18, pp. 9-21, Sept. 2001.
[53] D. M. Chung and Y. Wang, Lapped orthogonal transforms designed for error resilient
image coding, IEEE Transactions on Circuits and Systems for Video Technology, vol.
12, no. 9, pp. 752-764, Sep. 2002.
[54] S. Wenger, Video redundancy coding in h.263+, In Workshop on Audio-Visual Services for packet networks (Packet Video 97), Aberdeen, U.K., 1997.
[55] N. Franchi, M. Fumagalli, R. Lancini, and S. Tubaro, Multiple description video
coding for scalable and robust transmission over ip, IEEE Transactions on Circuits
and Systems for Video Technology, vol. 15, no. 3, 321-334, Mar. 2005
[56] C. S. Kim and S. U. Lee. Multiple description coding of motion fields for robust video
transmission, IEEE Transactions on Circuits Systems for Video Technology, vol. 11,
no. 9, pp. 999-1010, Sep., 2001.
[57] V. A. Vaishampayan, Design of multiple description scalar quantizers, IEEE Trans.
Inform. Theory, vol. 39, pp. 821-834, May 1993.
[58] T. Y. Berger-Wolf and E. M. Reingold, Index assignment for multi channel communication under failure, IEEE Trans. Inform. Theory, vol. 48, pp. 2656-2668, Oct.2002.
[59] V. A. Vaishampayan and S. John, Balanced interframe multiple description video
compression, In Proceedings of IEEE International Conference on Image Processing
(ICIP 99), pp. 812-816, Kobe, Japan, Oct. 1999.
[60] Y. C. Lee, Y. Altunbasak, and R. M. Mersereau, A drift-free motion-compensated
predictive encoding technique for multiple description coding, In Proceedings of IEEE
International Conference on Multimedia and Expo (ICME03), pp. 581-584, Baltimore,
U.S.A., Jul. 2003.
[61] ITU Telecommunications Standardizations Sector of ITU, Video coding for Low Bitrate Communication, ITU-T Recommensation H.263.
[62] MPEG-4 Committee, Generic Coding of Moving Pictures and Associated Audio Information : Video, ISO/IEC, 2000, May 2000.
[63] Y. Wang, M. T. Orchard, and A. R. Reibman, Multiple description image coding for
noisy channels by pairing transform coefficients, in Proc. IEEEWorkshop on Multimedia Signal Processing, Princeton, pp. 419-424, NJ, Jun. 1997.
142
BIBLIOGRAPHIE
[64] V. K. Goyal and J. Kovacevic, Generalized multiple description coding with correlating
transforms, IEEE Trans. Inform. Theory, vol. 47, Sep. 2001.
[65] A. Reibman, H. Jafarkhani, Y. Wang, M. Orchard, and R. Puri, Multiple-description
video coding using motion-compensated temporal prediction, IEEE Trans. on Circuits
and Systems for Video Technology, vol. 12, no. 3, pp. 193-204, Mar. 2002.
[66] Y.-C. Lee, Y. Altunbasak, and R. M. Mersereau, A two-stage multiple description
video coder with drift-preventing motion compensated prediction, In Proceedings of
IEEE International Conference on Image Processing (ICIP 02), vol. 2, pp. 557-560,
Rochester, U.S.A., Jun. 2002.
[67] T. Nguyen and A. Zakhor, Matching pursuits based multiple description video coding
for lossy environments, In Proceedings of IEEE International Conference on Image
Processing (ICIP 03), pp. 57-60, Barcelona, Spain, Sep. 2003.
[68] X. Tang and A. Zakhor, Matching pursuits multiple description coding for wireless
video, IEEE Transactions on Circuits and Systems for Video Technology, vol. 12 no.
6, pp. 566-575, Jun. 2002.
[69] C. Lamy-Bergot, A. Mokraoui-Zergainoh, T. André and B. Pesquet-Popescu, Panorama des techniques de codage/dcodage conjoint et techniques de diversit adaptes
la transmission de flux video et HTML sur lien IP sans fil point/multipoint, Revue
Traitement du Signal, vol. 25, n. 5, Oct. 2008.
[70] J. L. Massey, Joint source and channel coding, NATO Advanced Studies Institutes
Series E25, Commun. Systems and Random Process Theory, 1978. J.K. Skwirzynski
editor.
[71] C .M. Lee,Outils de codage source-canal conjoint pour la transmission robuste de
vidos, Ph.d. report, Université de Paris-Sud, Orsay, France, 2004.
[72] R. Thobanen and J. Kliewer, Robust decoding of variable-length encoded Markov
sources using a three-dimensional trellis, IEEE Communications Letters, vol. 7, no. 7,
pp. 320-322, Jul. 2003.
[73] S. Boyd, L. Vandenberghe, Convex Optimization, Cambridge University Press 2004.
[74] A. Ortega and K. Ramchandran, Rate-distortion methods for image and video compression, IEEE Signal Process. Mag., Nov. 1998.
[75] G. Cheung , A. Zakhor, Bit Allocation for Joint Source/Channel Coding of Scalable
Video, IEEE Trans. Image Process. vol. 9, no. 3, pp. 340-356, Mar. 2000.
[76] M. Gallant and F. Kossentini, Rate-distortion optimized layered coding with unequal
error protection for robust Internet video, IEEE Trans. Circuits and Systems for Video
Technology, vol. 11, no. 3 pp. 357-372, 2001.
[77] C. Lamy-Bergot, N. Chautru, and C. Bergeron. Unequal error protection for h.263+
bitstreams over a wireless ip network, In Proceedings of IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP06), pp. 377-380, Toulouse,
France, May 2006.
143
BIBLIOGRAPHIE
[78] F. Marx, J. Farah, A novel approach to achieve unequal error protection for video
transmission over 3G wireless networks, Signal Processing : Image and communication,
Elsevier Nov. 2003.
[79] D. Wyner and J. Ziv, The rate-distortion function for source coding with side information at the decoder, IEEE Transactions on Information Theory, vol. 22, no. 1, pp.
1-10, 1976.
[80] C. Yaacoub J. Farah, and B. Pesquet-Popescu, New Adaptive Algorithms for GOP
Size Control with Return Channel Suppression inWyner-Ziv Video Coding, International Journal of Digital Multimedia Broadcasting, vol. pp. 2008.
[81] J. Farah, C. Yaacoub, B. Pesquet-Popescu, Nouvelle technique d’adaptation dynamique de la taille du GOP dans le codage Wyner-Ziv des séquences vidéo, GRETSI,
Sep. 2009.
[82] K. Stuhlmller, N. Frber, M. Link, and B. Girod, Analysis of Video Transmission
over Lossy Channels, Journal of Selected Area in Communications, vol. 18, no. 6, pp.
1012-1032 Jun 2000.
[83] M. Stoufs, A. Munteanu, J. Comelis, P. Schelkens, Scalable Joint Source-Channel
Coding for the Scalable Extension of H.264/AVC, IEEE Transactions of circuits and
systems for video technology, vol. 18, no. 12, pp. 1657-1670, 2008.
[84] G. Foschini, Layered space-time architecture for wireless communication in fading environment when using multi-element antennas, Bell Labs. Tech. J., pp. 41-59, Autumn
1996.
[85] I. Telatar, Capacity of multi-antennas Gaussian channels, Eur, Trans. Telecomm.
(ETT), vol. 10, no. 6, pp. 585-595, Nov. 1999.
[86] C. Oestges, B. Clerckx MIMO Wireless Communications, Mar. 2007.
[87] S. M. Alamouti, A Simple Transmit Diversity Technique for Wireless Communications, IEEE J. Sel. Areas Commun., vol. 16, no. 8 pp. 1451-1458, Oct. 1998.
[88] V. Tarokh, N. Seshadri and A. Calderbank, Space-time block codes from orthogonal
design, IEEE Trans. Inf. Theory, vol. 45, no. 5, pp. 1456-1467, Jul. 1999.
[89] M. Farshchian, W. A. Pearlman, Real time video transmission over MIMO OFDM
channels using space-time block codes, in 40th Annual Conference of Information
Science and Systems, pp. 1140-1145, Mar. 2006.
[90] S. Zhao, Z. Xiong, X. Wang and J. Hua, Progressive video delivery over wideband
wireless channels using space-time differebtially coded OFDM systems, IEEE Trans.
Mobile Comput., vol. 5, no. 4, pp. 303-316, Apr. 2006.
[91] M. K. Jubran, M. Bansal, L. P. Kondi and R. Grover, Accurate Distortion Estimation
and Optimal Bandwidth Allocation for Scalable H.264 video transmission Over MIMO
systems, IEEE Trans. Image Processing, vol. 10, no. 1 pp. 106-116, Jan. 2009.
[92] J. N. Laneman, E. Martinian, G. W. Wornell, J. G. Apostolopoulos, Source-Channel
Diversity for Parallel Channels, IEEE Transactions on Information Theory, vol. 51
no. 10, pp. 3518-3539, 2005.
144
BIBLIOGRAPHIE
[93] T. Holliday, A. J. Goldsmith, and H. Vincent Poor , Joint source and channel coding for MIMO systems : Is it better to be robust or quick ?, IEEE Transactions on
Information theory, vol. 54, no. 4, pp. 1393-1405, 2008.
[94] I. Zheng, D. N. C. Tse, Diversity and Multiplexing : A Fundamental Tradeoff in
Multiple-Antenna Channels, IEEE Transactions on Information Theory, vol. 49, no.
5, May 2003.
[95] R. Hormis, E. Linzer, and X. Wang, Adaptive Mode- and Diversity-Control for Video
Transmission on MIMO Wireless Channels, IEEE Transactions on Signal Processing,
vol. 57, no. 9, Sep. 2009.
[96] Z. Ji, Q. Zhang, W. Zhu, Z. Guo, J. Lu, Power efficient MPEG-4 FGS video transmission over MIMO-OFDM systems, Proc. IEEE ICC, pp.3398-3402, May 2003.
[97] D. Song, C. W. Chen, Scalable H.264/AVC Video Transmission over MIMO Wireless
Systems with adaptive channel selection based on partial channel information, IEEE
Trans. Circuits Syst. Video Technol., vol. 17, no. 9, Sep. 2007.
[98] D. Song, C. W. Chen, QoS-guaranteed SVC-based video transmission over MIMO
wireless systems with channel state information, Proc. IEEE ICIP, pp. 3057-3060,
Oct. 2006.
[99] D. Song, C. W. Chen, QoS-guaranteed scalable video transmission over time-varying
MIMO channel capacity, Proc. IEEE ICME pp. 1215-1218, jul. 2007.
[100] D. Song, C. W. Chen, Maximum-throughput delivery of SVC-based video over MIMO
systems with times-varying channel capacity, Journal of Visual Commun. Image Repr.
(Elsevier) vol. 19, no 8, pp. 520-528, Dec.2008.
[101] J. Yi, E. Cizeron, S. Hamma and B. Parrein, Simulation and Performance Analysis
of MP-OLSR for Mobile Ad hoc Networks, IEEE WCNC 2008, Las Vegas : États-Unis
d’Amérique (2008).
[102] S. Mao, S. Lin, S. S. Panwar, Y. Wang and E. Celebi, Video transport over ad
hoc networks : Multistream coding with multipath transport, IEEE Journal on Selected
Areas in Communications, pp. 1721-1737, Jun. 2003.
[103] S. Mao, X. Cheng, Y. T. Hou, and H. D. Sherali. Multiple description video multicast
in wireless ad hoc networks, In Proceedings of International Conference on Broadband
Networks (BROADNETS 04), pp. 671-680, San Jose, U.S.A., October 2004.
[104] S. Mao, X. Cheng, Y. T. Hou, and H. D. Sherali. Multiple description video multicast
in wireless ad hoc networks, ACM/Kluwer Mobile Networks and Applications Journal
(MONET), vol. 11, no. 1, pp. 63-73, February 2006.
[105] C. O. Chow, H. Ishii, A Novel Approach to Supporting Multipoint-to-Point Video
Transmission over Wireless Ad Hoc Networks, IEICE Transactions vol. 90 no. 8, pp.
2046-2055, 2007.
[106] A. Abdelal, T. Saadawi, M. Lee, Unequal Error Protection for Real-time Video
in Mobile Ad Hoc Networks via Multi-Path Transport, Computer Communications
145
BIBLIOGRAPHIE
Journal, special issue on Concurrent Multipath Transfer, vol. 30, no. 17, pp. 32933306, Nov. 2007.
[107] L. Breslau, D. Estrin, K. Fall, S. Floyd, J. Heidemann, A. Helmy, P. Huang, S. McCanne, K. Varadhan, Y. Xu, H. Yu, Advances in network simulation, IEEE Computer,
vol. 33, no. 5, pp. 59-67, May 2000.
[108] G. Riley, The Georgia Tech Network Simulator, Proceedings of the ACM SIGCOMM
workshop on Models, methods and tools for reproducible network research (MoMeTools
03), Germany, pp. 5-12, Aug. 2003.
[109] X. Zeng, R. Bagrodia, M. Gerla, GloMoSim : a library for parallel simulation of
large-scale wireless networks, Proceedings of the 12th Workshop on Parallel and Distributed Simulations (PADS 98), Banff, Canada, pp. 154-161, May 1998.
[110] F. Kuhn and A. Zollinger, Ad-Hoc Networks beyond Unit Disk Graphs, ACM
DIALM-POMC, pp. 69-78, San Diego, USA 2003.
[111] I. Stepanov, K. Rothermel, On the impact of a more realistic physical layer on
MANET simulations results , Elsevier Ad Hoc Networks Journal, vol. 6, no. 1 , pp.
61-78, Sept. 2006.
[112] C. Pereira, Y. Pousset, R. Vauzelle, P. Combeau, Sensitivity of the MIMO Channel
Characterization to the Modeling of the Environment,IEEE Transactions on Antennas
and Propagation, vol. 57, pp. 1218-1227, no. 4, Avp. 2009.
[113] F. Mora, L. Aveneau, Optimized scanning of a visibility graph data structure for
efficient ray-tracing, in ECWT2005, Paris, Oct. 2005.
[114] P. Bello, Characterization of randomly time-variant linear channels, IEEE Transactions on Communications, vol. 11, no. 4, p. 360-393, 1963.
[115] C. Oestges and B. Clerckx, MIMO Wireless Communications, From Real-World
Propagation to Space-Time Code Design, Academic Press : Oxford, 2007
[116] C. Ke, C. Shieh, W. Hwang, Ar. Ziviani, An Evaluation Framework for More Realistic Simulations of MPEG Video Transmission, Journal of Information Science and
Engineering vol. 24, no. 2, pp. 425-440, 2008.
[117] T. Wiegand, G. Sullivan, J. Reichel, H. Schwarz, M. Wien, Joint Draft of SVC
Amendment, Joint Video Team (JVT), Doc. JVT-W201, San Jose, CA, 2007
[118] T. Wiegand, G. J. Sullivan, G. Bjontegaar, and A. Luthra,Overview of the
H.264/AVC video coding standard, IEEE Trans. Circuits Syst. Video Technol., vol.
13, no. 7, pp. 560-576, Jul. 2003.
[119] IEEE Standard for Information Technology-Part 11 : Wireless LAN Medium Access Control (MAC) and Physical Layer (PHY) specification Amendment : High-speed
Physical Layer in the 5 GHz Band (802.11a), 2009.
[120] P. W. Wolniansky, G. J. Foshini, G. D. Golden, R. A. Valenzuela, V-BLAST An
architecture for realizing very high data rates over the richscattering wireless channel,
Proc. IEEE ISSSE, 1998.
146
BIBLIOGRAPHIE
[121] TTPP : Library of mathematical, signal processing and communication routines,
available on http ://sourceforge.net/apps/wordpress/itpp/.
[122] H. Schwarz, D. Marpe, T. Wiegand, Overview of the scalable video coding extension
of the H.264/AVC standard, IEEE Trans. Circuits Syst. Video Technol., vol. 17, no.
9, pp. 1103-1120, Sep. 2007.
[123] L. Collin, O. Berder, P. Rostaing, and G. Burel, Optimal minimum distance-based
precoder for MIMO spatial multiplexing systems, IEEE Transactions on Signal Processing, vol. 52, no. 3, pp. 617-627, Mar. 2004.
[124] P. Stoica and G. Ganesan, Maximum-SNR spatial-temporal for matting designs for
MIMO channels, IEEE Transactions on Signal Processing, vol. 50, no. 12, pp. 30363042, Dec. 2002.
[125] T. K. Lo, Maximum ratio transmission, IEEE Transactions on Communications,
vol. 47, no. 10, pp. 3036-3042, 1999.
[126] H. Sampath, P. Stoica, and A. Paulraj, Generalized Linear Precoder and Decoder
Design for MIMO Channels Using the Weighted MMSE Criterion, IEEE Trans. Commun. vol. 49, no. 12, pp. 2198-2206, Dec. 2001.
[127] B. Vrigneau, Systèmes MIMO précodés optimisant la distance minimale : étude des
performances et extension du nombre de voies, Thèse de doctorat, Nov. 2006.
[128] Q. T. Ngo, O. Berder, B. Vrigneau and O. Sentieys, Minimum distance based precoder for MIMO-OFDM systems using a 16-QAM modulation, IEEE International
Conférence on Communications (ICC), no. 14, pp. 1-5, Dresden, Jun. 2009.
[129] B. Vrigneau, J. Letessier, P. Rostaing L. Collin and G. Burel, Extension of the
MIMO Precoder based on the Minimum Euclidean Distance : a cross-form matrix,
IEEE Signal Processing, vol. 2, no. 2, pp. 135-146, May. 2008.
[130] V. Bhaskar Finite-state Markov Model for Lognormal, Chi-square (Central), Chisquare (Non-central), and K-distributions, International Journal of Wireless Inf. Networks, vol. 4, no. 4, pp. 237-250, Dec. 2007.
[131] http
://ip.hhi.de/imagecom G1/savce/downloads/SVC-Reference-Software.htm,
version JSVM 9.16.
[132] http ://iphome.hhi.de/suehring/tml/download/, version JM 1.4.
[133] L. Xu, W. Gao and X. Ji and D Zhao. Rate Control for Hierarchical B-picture
Coding with Scaling-factors. IEEE International Symposium on Circuits and Systems
(ISCAS), pp. 49-52, 2007.
[134] I. H. Shin, Y. L. Lee and H. W. Park Rate control using linear rate-rho model for
H.264, Elsevier Signal Processing - Image Communication, vol. 4, pp. 341-352, 2004.
[135] D. Hughes-Hartogs, Ensemble modem structure for imperfect transmission media,
U.S.Patent no. 4, pp. 679, 227, Jul. 1987.
[136] M. Siwei, G. Wen, G. Peng and L. Yan, Rate control for advance video coding (AVC)
standard, International Symposium on Circuits and Systems (ISCAS), vol. 2, pp. 892895, 2003.
147
BIBLIOGRAPHIE
[137] Z. He and S. K. Mitra, Rho-domain bit allocation and rate control for real time
video coding, IEEE International Conference on Image Processing (ICIP), vol. 3, pp.
546-549, 2001.
[138] Y. Pitrey, Stratègies d’encodage pour codeur vidéo scalable, thèse de doctorat, IETR,
INSA de Rennes, Sep. 2010.
[139] S. J. Wright, Primal-Dual Interior-Point Methods, Philadelphia, PA :SIAM, 2004,
19104.
[140]
The MOSEK Optimization Tools Manual,
Version
4.0
(Revision 42). MOSEK ApS, Copenhagen, Denmark [Online]. Available :
http ://www.mosek.com/products/4 0/tools/doc/html/tools/tools.html
[141] MATLAB Optimization Toolbox 5, User’s Guide
148
Bibliographie personnelle
[1] W. Hamidouche, C. Perrine, Y. Pousset, C. Olivier. A solution to efficient power
allocation for scalable video transmission over a realistic MIMO channel. Journal of
visual communication and image representation, Elsevier. Under revision.
[2] W. Hamidouche, C. Perrine, Y. Pousset, C. Olivier. Solution d’allocation de puissance efficace pour de la transmission vidéo scalable en environnement Outdoor
réaliste. CORESA 2010 (Lyon, France). Oct. 2010.
[3] W. Hamidouche, C. Perrine, Y. Pousset, C. Olivier. Optimal solution for SVCBased video transmission over a realistic MIMO channel using precoder designs. 35th
IEEE conference of ICASSP, (Dallas, USA). March 2010.
[4] W. Hamidouche, R. Vauzelle, C. Olivier, Y. Pousset, C. Perrine. Impact of realistic
MIMO physical layer on video transmission over mobile Ad Hoc network. COST
2100, (Athens, Greece) . February 2010.
[5] A.-M Poussard, W. Hamidouche, R. Vauzelle et Y. Pousset. Realistic SISO and
MIMO physical layer implemented into two routing protocols for vehicular Ad Hoc
network. Electronic Proceeding of IEEE 9th ITST, (Lille, France). October 2009.
[6] P. Combeau, J.-M. Paillot, R. Vauzelle, D. Cordeau, Y. Pousset, W. Hamidouche.
Conception and application of smart antennas for transport applications. Electronic
Proceeding of IEEE 9th ITST, (Lille, France). October 2009.
[7] W. Hamidouche, R. Vauzelle, C. Olivier, Y. Pousset, C. Perrine. Impact of realistic
MIMO physical layer on video transmission over mobile Ad Hoc network. IEEE 20st
PIMRC, (Japan, Tokyo). September 2009.
[8] W. Hamidouche, R. Vauzelle, C. Olivier, Y. Pousset, C. Perrine. Impact d’un
système de communication réaliste en environnement urbain sur une transmission
vidéo H.264/AVC par réseaux Ad Hoc. 22eme édition GRETSI, (Dijon, France) .
[9] W. Hamidouche, C. Olivier, M. Babel, O. Deforges. LAR image transmission
over fading channel : a hierarchical protection solution. IEEE 2nd International
Conference on CTRQ, (Colmar, France) . July 2009.
[10] R. Vauzelle, W. Hamidouche , A.-M. Poussard, Y. Pousset. Impact des conditions de transmission sur la qualité des échanges d’information entre véhicules en
environnement urbain réel. 1ere édition CoGIST (Bretagne, France) . July 2009.
149
Résumé
Ce travail de thèse concerne la transmission de vidéo dans les réseaux ad hoc. Plusieurs
schémas et solutions ont été proposés afin d’améliorer voire assurer la qualité de service
des applications intégrant la transmission temps réel de vidéo dans les réseaux ad hoc.
Les performances de ces solutions sont évaluées par simulation à l’aide de plateformes de
simulation de réseaux tels que NS-2 et GLOMOSIM, etc. Cependant, la couche physique
de ces simulateurs manque de réalisme et ne modélise pas proprement le comportement
d’un canal radio dans un environnement urbain.
Nous avons proposé une couche physique réaliste qui prend en compte toutes les spécificités
d’un canal radio mobile. Cette couche physique est basée sur un modèle de propagation à
tracé de rayons et permet d’évaluer la qualité des liens SISO et MIMO suivant respectivement les normes de transmission IEEE 802.11a et IEEE 802.11n. Cette étude montre qu’il
est important de considérer une couche physique réaliste dans les simulateurs de réseaux
pour évaluer les performances des solutions de transmission vidéo. Dans un deuxième
temps, nous avons proposé une solution originale de codage conjoint source-canal pour la
transmission hiérarchique du flux vidéo H.264/SVC. Cette solution exploite la diversité
spatiale du canal MIMO conjointement avec la hiérarchie du codeur vidéo H.264/SVC
afin d’assurer la meilleure qualité de service quelques soient les conditions de transmission. Cette solution utilise la notion de précodage MIMO pour une allocation de puissance
optimale entre les antennes visant à minimiser la distorsion de la vidéo reçue.
Mots clés : Codage conjoint source-canal, canal MIMO réaliste, codeurs de vidéo
H.264/AVC et H.264/SVC, Réseaux ad hoc.
151
Abstract
This work focus on video tranmission over mobile a hoc networks. Several schemes
have been proposed in order to improve and guarantee a high quality of service of applications integrating video transmission over ad hoc networks. The performance of these
schemes is assessed by using network simulator tools such as NS-2 and GLOMOSIM. However, the physical layer usually used in network simulators does not properly model the
propagation phenomenon as in a real urban environment.
We have proposed a realistic physical layer which considers all specificities of mobile wireless channel. This physical layer uses a ray tracer propagation model and allows assessing
a SISO and MIMO wireless links following the IEEE 802.11a and IEEE 802.11n standards, respectively. This work clearly shows that we should consider a realistic physical
layer in network simulator to assess the performance of video transmission schemes. On
the other hand, we have proposed an original joint source-channel coding solution for
a hierarchical transmission of scalable video coder, known as H.264/SVC. This solution
exploits a spatial diversity of a MIMO channel jointly with a hierarchy provided by the
H.264/SVC coder in order to guarantee the best quality of the received video regardless the
channel conditions. The proposed solution uses a precoder designs for an optimal power
allocation toward transmitted antennae in order to minimize the received video distortion.
Key words : Joint source-channel coding, realistic MIMO channel, video codecs
H.264/AVC and H.264/SVC, ah doc networks.
153