Stratégies de transmission vidéo sur un canal MIMO réaliste
Transcription
Stratégies de transmission vidéo sur un canal MIMO réaliste
THÈSE pour l’obtention du Grade de Docteur de l’Université de Poitiers (Faculté des Sciences Fondamentales et Appliquées) (Diplôme National - Arrêté du 7 août 2006) École Doctorale ED 521 : Sciences et ingénierie pour l’information Secteur de Recherche : Image, Signal et Automatique Présentée par : Wassim Hamidouche Stratégies de transmission vidéo sur un canal MIMO réaliste Directeur de Thèse : M. Christian Olivier Co-directeur de Thèse : M. Yannis Pousset Co-directeur de Thèse : M. Clency Perrine Soutenue le 29/11/2010 devant la Commission d’Examen composée de : M. Francois-Xavier Coudoux, Professeur, Université de Valenciennes . . . . . . . . . . . . . . . . . . . . . . . Rapporteur Mme Béatrice Pesquet-Popescu, Professeur, Télécom Paris Tech . . . . . . . . . . . . . . . . . . . . . . . . . . . Rapporteur M. M. M. M. M. Gilles Burel, Professeur, Université de Bretagne Occidentale . . . . . . . . . . . . . . . . . . . . . . . . . . Examinateur Didier Nicholson, Chef de projet, Thalès Communications . . . . . . . . . . . . . . . . . . . . . . . . . . . . Examinateur Christian Olivier, Professeur, Université de Poitiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Examinateur Clency Perrine, Maı̂tre de Conférence, Université de Poitiers . . . . . . . . . . . . . . . . . . . . . . . . . . Examinateur Yannis Pousset, Maı̂tre de Conférence, Université de Poitiers . . . . . . . . . . . . . . . . . . . . . . . . . Examinateur Table des matières Introduction 1 Stratégies de transmission multimédia par réseaux sans fil 1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Les réseaux sans fil ad hoc . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Définition des réseaux ad hoc . . . . . . . . . . . . . . . . . . . . . 1.2.2 Représentation graphique des réseaux ad hoc . . . . . . . . . . . 1.2.3 Le modèle en couches OSI . . . . . . . . . . . . . . . . . . . . . . . 1.3 Chaı̂ne de communication numérique . . . . . . . . . . . . . . . . . . . . . 1.3.1 Codage de source . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.2 Codage de canal et modulation numérique . . . . . . . . . . . . . 1.3.3 Canal de transmission . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Stratégies de transmission multimédia . . . . . . . . . . . . . . . . . . . . 1.4.1 Principe et limites du théorème de séparation . . . . . . . . . . . 1.4.2 Codage de source . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.3 Codage conjoint source-canal : techniques de protection inégale 1.4.4 Exploitation de la diversité . . . . . . . . . . . . . . . . . . . . . . 1.5 Synthèse et conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Couche physique réaliste : impact sur la transmission de vidéo par réseaux mobiles ad hoc 2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Modèles de la couche physique . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Modèles d’erreur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.2 Modèles de propagation . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.3 Inconvénients et limites . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Couche physique réaliste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Modélisation du canal radio . . . . . . . . . . . . . . . . . . . . . . . . 2.3.2 Modèle d’erreur suivant la norme IEEE 802.11 . . . . . . . . . . . . 2.3.3 Implémentation et validation des couches physiques IEEE 802.11 . 2.4 Contexte de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.1 Scénario de la simulation . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.2 Métriques d’évaluations . . . . . . . . . . . . . . . . . . . . . . . . . . 5 6 6 6 7 7 9 10 17 18 26 27 27 31 34 38 41 42 42 43 44 45 46 47 51 52 55 55 57 i TABLE DES MATIÈRES 2.5 2.6 Résultats et discussions . . . . . . . . . . . . 2.5.1 Étude de la couche physique réaliste 2.5.2 Impact sur la transmission de vidéo Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Adaptation de liens MIMO pour une transmission temps vidéo H.264/SVC 3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Codeur de vidéo H.264/SVC . . . . . . . . . . . . . . . . . . 3.2.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.2 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.3 Scalabilité temporelle . . . . . . . . . . . . . . . . . . . 3.2.4 Scalabilité spatiale . . . . . . . . . . . . . . . . . . . . 3.2.5 Scalabilité en qualité . . . . . . . . . . . . . . . . . . . 3.3 Codeur H.264/SVC dans un contexte de transmission . . . . 3.4 Précodeurs linéaires pour une transmission de vidéos . . . . 3.4.1 Système MIMO avec précodage . . . . . . . . . . . . . 3.4.2 Transformation en canal virtuel . . . . . . . . . . . . 3.4.3 Précodeurs diagonaux . . . . . . . . . . . . . . . . . . 3.4.4 Précodeurs non-diagonaux . . . . . . . . . . . . . . . . 3.5 Schéma de transmission . . . . . . . . . . . . . . . . . . . . . . 3.6 Stratégie de transmission : solution UEP . . . . . . . . . . . . 3.7 Contexte de simulation . . . . . . . . . . . . . . . . . . . . . . 3.7.1 Couche application . . . . . . . . . . . . . . . . . . . . 3.7.2 Couche physique . . . . . . . . . . . . . . . . . . . . . . 3.8 Résultats et discussions . . . . . . . . . . . . . . . . . . . . . . 3.8.1 Canal statistique . . . . . . . . . . . . . . . . . . . . . 3.8.2 Canal réaliste . . . . . . . . . . . . . . . . . . . . . . . 3.9 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 57 61 68 réel d’un flux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 70 71 71 71 72 72 74 74 76 77 78 79 81 83 84 86 86 87 88 89 92 98 4 Solutions adaptatives pour la transmission de vidéo H.264/SVC sur un canal MIMO 101 4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 4.2 Solution algorithmique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 4.2.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 4.2.2 Algorithme 1 : calcul des coefficients de précodage . . . . . . . . . . 103 4.2.3 Algorithme 2 : prise en compte de l’efficacité spectrale de la modulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 4.2.4 Système de transmission temps réel . . . . . . . . . . . . . . . . . . . 108 4.2.5 Contexte de transmission . . . . . . . . . . . . . . . . . . . . . . . . . 109 4.2.6 Résultats et discussions . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 4.3 Solution analytique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 4.3.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 ii TABLE DES MATIÈRES 4.4 4.5 4.3.2 Modélisation mathématique du problème 4.3.3 Configuration de la transmission . . . . . 4.3.4 Résultats et discussions . . . . . . . . . . 4.3.5 Limites de la solution analytique . . . . . Analyse débit-distorsion . . . . . . . . . . . . . . . 4.4.1 Contexte de l’étude . . . . . . . . . . . . . 4.4.2 Analyse des résultats . . . . . . . . . . . . Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 121 121 124 125 125 126 132 5 Conclusion et perspectives 135 Résumé 151 Abstract 153 iii Table des figures 1 Application de vidéo conférence sur un réseau hétérogène . . . . . . . . . . 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 1.10 Réseau mobile ad hoc sous la forme d’un graphe non orienté . . . . . . Structure en couches du modèle OSI . . . . . . . . . . . . . . . . . . . . Schéma de la chaı̂ne de communication numérique . . . . . . . . . . . Schéma fonctionnel d’un codeur/décodeur de source pour l’image . . Structure d’un GOP constitué de 6 images . . . . . . . . . . . . . . . . Illustration des entropies du canal . . . . . . . . . . . . . . . . . . . . . Diagramme du canal binaire symétrique . . . . . . . . . . . . . . . . . Variations de la puissance reçue dans un canal radio mobile . . . . . . Phénomènes de propagation de l’onde dans un environnement urbain Principe du codage par descripteurs multiples [51] . . . . . . . . . . . . 2.1 Mécanisme d’évaluation de la qualité des liens radios dans les plateformes de simulation de réseaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Modèle d’erreur UDG (modèle de base à gauche et le modèle amélioré à droite) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Atténuation des modèles de propagation à grande échelle à 5 GHz . . . . . Propagation radio via des modèles déterministes . . . . . . . . . . . . . . . . Synoptique du simulateur de canal à tracé de rayons 3D [113] . . . . . . . . Illustration du phénomène de multi-trajets calculé par le logiciel de propagation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Modélisation d’un canal sélectif en fréquence : modèle LAR [34] . . . . . . Couche physique réaliste SISO suivant la norme IEEE 802.11a . . . . . . . Couche physique réaliste MIMO suivant la norme IEEE 802.11n . . . . . . Performances des normes IEEE 802.11a et IEEE 802.11n sur un canal réaliste sélectif en fréquence . . . . . . . . . . . . . . . . . . . . . . . . . . . . Positionnement des terminaux dans la scène de simulation : centre de Munich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Répartition des valeurs de TEB des liens radio dans Munich à 6 Mb/s . . . Répartition des valeurs de TEB des liens radio dans Munich à 24 Mb/s . . Répartition des valeurs de TEB des liens radio dans Munich à 54 Mb/s . . Performances de transmission de vidéo H.264/AVC dans Munich à 6 Mb/s 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 2.10 2.11 2.12 2.13 2.14 2.15 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 7 8 10 11 13 19 20 21 22 29 43 44 45 46 47 48 50 52 53 54 56 59 60 60 63 v TABLE DES FIGURES 2.16 Performances de transmission de vidéo H.264/AVC dans Munich à 6 Mb/s 2.17 Illustration des vidéos reçues sur des configurations de couche physique réaliste SISO (à gauche) et MIMO (à droite) . . . . . . . . . . . . . . . . . . 2.18 Performances de transmission de vidéo H.264/AVC dans Munich à 24 Mb/s 2.19 Performances de transmission de vidéo H.264/AVC dans Munich à 24 Mb/s 2.20 Performances de transmission de vidéo H.264/AVC dans Munich à 54 Mb/s 2.21 Performances de transmission de vidéo H.264/AVC dans Munich à 54 Mb/s 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9 3.10 3.11 3.12 3.13 3.14 3.15 3.16 3.17 3.18 3.19 3.20 3.21 vi Codage hiérarchique dans le codeur H.264/SVC : scalabilité temporelle [118] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mécanisme du codage spatial dans le codeur H.264/SVC [118] . . . . . . . . Performances des trois schémas de robustesse vis-à-vis des pertes d’images Schéma bloc des précodeurs linéaires dans le canal virtuel . . . . . . . . . . Schéma bloc des précodeurs diagonaux . . . . . . . . . . . . . . . . . . . . . Schéma bloc des précodeurs non-diagonaux . . . . . . . . . . . . . . . . . . . Schéma de transmission de vidéo H.264/SVC suivant la norme IEEE 802.11n Stratégie de codage conjoint impliquant le codage de source, les précodeurs et le canal de transmission . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Environnement de simulation : campus de l’université de Poitiers . . . . . . TEB des quatre précodeurs sur un canal de Rayleigh MIMO (4 × 4) à 8 bits/s/Hz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Performances du schéma proposé sur un canal statistique MIMO (4 × 4) avec µ = 0 dB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Performances du schéma proposé sur un canal statistique MIMO (4 × 4) avec µ = 5 dB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Performances du schéma proposé sur un canal statistique MIMO (4 × 4) avec µ = 10 dB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Comportement du canal réaliste MIMO (4 × 4) à 5 Ghz . . . . . . . . . . . Performances du schéma proposé sur un canal MIMO (4 × 4) réaliste à 5 m/s Performances du schéma proposé sur un canal MIMO (4 × 4) réaliste à 10 m/s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Illustration de la qualité visuelle des vidéos reçues par les précodeurs QdS (à gauche) et WF (à droite) sur un canal MIMO réaliste (zone 1) . . . . . Robustesse des précodeurs diagonaux vis-à-vis des erreurs d’EC sur un canal réaliste MIMO (4 × 4) à 5 m/s . . . . . . . . . . . . . . . . . . . . . . . Robustesse du précodeur E-dmin vis-à-vis des erreurs d’EC sur un canal réaliste MIMO (4 × 4) à 5 m/s . . . . . . . . . . . . . . . . . . . . . . . . . . . Robustesse des précodeurs diagonaux vis-à-vis des erreurs d’EC sur un canal réaliste MIMO (4 × 4) à 10 m/s . . . . . . . . . . . . . . . . . . . . . . Robustesse du précodeur E-dmin vis-à-vis des erreurs d’EC sur un canal réaliste MIMO (4 × 4) à 10 m/s . . . . . . . . . . . . . . . . . . . . . . . . . . 63 64 66 66 67 68 73 73 76 79 79 82 84 85 88 89 90 91 92 93 94 95 96 96 97 97 98 TABLE DES FIGURES 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8 4.9 4.10 4.11 4.12 4.13 4.14 4.15 4.16 4.17 4.18 Processus de configuration du précodeur QdS pour la transmission vidéo H.264/SVC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . RSB des quatres voies en fonction de la distance . . . . . . . . . . . . . . . . Performances des algorithmes proposés sur un canal réaliste MIMO (4 × 4) zones 1 et 2, l’Utilisateur 1 (vidéo 1) . . . . . . . . . . . . . . . . . . . . . . . Performances des algorithmes proposés sur un canal réaliste MIMO (4 × 4) zone 2, l’Utilisateur 1 (vidéo 2) . . . . . . . . . . . . . . . . . . . . . . . . . . Performances des algorithmes proposés sur un canal réaliste MIMO (4 × 4) zone 3, l’Utilisateur 1 (vidéo 3) . . . . . . . . . . . . . . . . . . . . . . . . . . Performances des algorithmes proposés sur un canal réaliste MIMO (4 × 4) zones 2 et 1, l’Utilisateur 1 (vidéo 4) . . . . . . . . . . . . . . . . . . . . . . . Variation du niveau (l) d’efficacité spectrale de la modulation QAM en fonction du numéro de trame de l’Utilisateur 1 . . . . . . . . . . . . . . . . . Performances de la méthode d’optimisation sur un canal réaliste MIMO (4 × 4) : Utilisateur 1 (vidéo 1) . . . . . . . . . . . . . . . . . . . . . . . . . . Performances de la méthode d’optimisation sur un canal réaliste MIMO (4 × 4) : Utilisateur 1 (vidéo 2) . . . . . . . . . . . . . . . . . . . . . . . . . . Performances de la méthode d’optimisation sur un canal réaliste MIMO (4 × 4) : Utilisateur 1 (vidéo 3) . . . . . . . . . . . . . . . . . . . . . . . . . . Performances de la méthode d’optimisation sur un canal réaliste MIMO (4 × 4) : Utilisateur 1 (vidéo 4) . . . . . . . . . . . . . . . . . . . . . . . . . . Impact du codage conjoint source-canal pour GOP = 4 . . . . . . . . . . . . Impact du codage conjoint source-canal pour GOP = 8 . . . . . . . . . . . . Impact du codage conjoint source-canal pour GOP = 16 . . . . . . . . . . . Impact de la taille de GOP pour la configuration de codage (250, 1/2) . . Impact de la taille de GOP pour la configuration de codage (333, 2/3) . . Impact de la taille de GOP pour la configuration de codage (375, 3/4) . . . Impact de la taille de GOP pour la configuration de codage (416, 5/6) . . 104 106 112 113 113 114 114 122 123 123 124 128 128 129 130 131 131 132 vii Liste des tableaux 2.1 Répartition des valeurs de TEB des liens radio dans le centre ville de Munich 58 3.1 Configuration de codage du codeur H.264/SVC pour les vidéos Akiyo et F oreman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Valeurs relatives des RSB utilisées par le précodeur QdS pour chaque état du canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Comparaison des performances de quatre précodeurs . . . . . . . . . . . . . PSNR et TEB du schéma proposé dans différentes conditions de transmission (vidéo Foreman) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 3.3 3.4 4.1 4.2 0 86 88 89 92 Paramètres de codage de la vidéo Soccer (704 × 576) en huit résolutions de qualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 Configurations de codage source-canal de la vidéo Soccer (704 × 576) . . . 126 Chapitre 0 Introduction La dernière décennie a été marquée par l’expansion très rapide des systèmes de communications numériques. Ces derniers permettent d’offrir des solutions de transmission de données multimédias sur des réseaux sans fil, telles que la vidéo conférence et la télévision numérique. Considérons la figure 1 qui illustre un exemple d’une application de vidéo conférence entre une salle de conférence et un utilisateur mobile via un réseau hétérogène constitué d’un réseau filaire et d’un réseau sans fil. Les réseaux filaires peuvent atteindre des débits très élevés associés à de très faibles taux d’erreur binaire via un support filaire tel que la fibre optique. Cependant, le lien radio est caractérisé par une faible bande passante et un taux d’erreur binaire relativement élevé dû aux conditions de transmission. De plus, le débit de la station de base est partagé entre tous ses utilisateurs, ce qui diminue considérablement le débit alloué à chaque utilisateur. La qualité de la vidéo reçue entre la salle de conférence et le mobile dépend principalement de la qualité du lien radio entre la station de base et le mobile. Ainsi, assurer la qualité de service des applications de transmission temps réel de vidéo est la préoccupation majeure des nouvelles normes de transmission sans fil : téléphonie mobile 4G, réseaux sans fil locaux WLAN et télévision numérique terrestre mobile DVB-H. Figure 1: Application de vidéo conférence sur un réseau hétérogène D’autre part, le développement de la technologie électronique a permis une visuali- 1 CHAPITRE 0. INTRODUCTION sation en haute définition (HD) des séquences vidéo sur les terminaux mobiles. La compression de la vidéo avant sa transmission est alors nécessaire afin de réduire la quantité d’information à transmettre et d’augmenter le débit réel de la transmission. Une tarification des communications par qualité de service et non pas par temps de communication est l’une des perspectives envisagée à court terme par des opérateurs offrant ces services. Il est ainsi important d’avoir une représentation scalable par qualité de la vidéo. Différentes qualités de la vidéo sont transmises suivant l’état du canal, les capacités d’affichage et de calcul du mobile ou encore la qualité de service désirée par l’utilisateur. Un défi est alors lancé par les chercheurs de la communauté des communications numériques, qui consiste à proposer des solutions permettant d’assurer la qualité de service des applications faisant intervenir la transmission temps réel de vidéo. C’est dans ce contexte que s’inscrit le travail présenté dans ce manuscrit. Dans cette thèse nous proposons des solutions à deux problématiques dans le domaine des communications numériques. La première problématique concerne la modélisation réaliste d’un canal radio mobile dans les réseaux sans fil. En effet, de nombreux schémas ont été proposés pour améliorer la qualité de service des applications les plus variées dans un contexte de transmission sans fil. Pour des raisons de coût très élevé des appareils de mesure, les performances de ces schémas sont évaluées, dans un premier temps, par simulation. Cependant, les modèles adoptés au niveau des simulateurs pour modéliser le comportement du canal radio mobile sont très simplistes et ne représentent pas vraiment les conditions de transmission dans un environnement réel, tel qu’un environnement urbain. Ainsi, dans un premier temps nous proposons une couche physique réaliste pour modéliser le comportement d’un canal radio mobile. Notre intérêt portera plus particulièrement sur l’impact de la couche physique réaliste sur l’évaluation des performances des schémas de transmission temps réel de vidéo. Le second enjeu de cette thèse consiste à proposer des solutions efficaces pour améliorer et garantir la qualité de service des applications de transmission temps réel de vidéo sur un lien radio mobile. L’objectif de notre approche est d’assurer une qualité de service acceptable dans les conditions de transmission les plus défavorables, et d’améliorer la qualité de service dans de meilleures conditions de transmission. Nous exploitons la dimension spatiale du canal MIMO pour améliorer soit la robustesse ou le débit de la communication suivant les conditions de transmission. Afin de prendre en compte le contenu du flux vidéo et l’état du canal, nous considérons les systèmes MIMO à boucle fermée via des solutions de précodage, c’est-à-dire des systèmes MIMO supposant la connaissance du canal au niveau de l’émetteur et du récepteur. Ce document s’articule en quatre chapitres : Le premier chapitre Dans le premier chapitre, nous présentons les réseaux mobiles ad hoc ainsi que quelques protocoles utilisés au niveau des différentes couches du modèle OSI. Nous détaillons en- 2 CHAPITRE 0. INTRODUCTION suite les blocs constituant la chaı̂ne de communication classique. Nous montrons que le problème défini par Shannon sur les codages de source et de canal est différent du problème de transmission temps réel de vidéo traité dans le cadre de cette thèse. Ainsi, pour assurer une qualité de service dans ce type d’applications et atteindre les meilleures performances de transmission, il est nécessaire de considérer conjointement ces deux blocs. Nous effectuons par la suite une étude bibliographique sur les stratégies de transmission de vidéo dans un contexte de transmission à erreurs binaires ou à pertes de paquets (effacement). Nous présentons ces stratégies en deux catégories suivant que l’optimisation du codeur de canal se fait en fonction du codeur de source et du canal ou bien que l’optimisation du codeur de source est réalisée en fonction du canal. De plus, nous abordons les travaux de transmission de vidéo exploitant la diversité spatiale via des systèmes de transmission MIMO, et la diversité des routes dans les réseaux mobiles ad hoc. Le deuxième chapitre L’étude proposée dans la deuxième partie de cette thèse porte principalement sur l’impact d’une transmission réaliste sur réseau ad hoc en milieu urbain dense d’un flux vidéo H.264/AVC. Nous allons, en premier lieu, proposer une couche physique réaliste permettant une évaluation fine de la qualité des liens radio mobiles SISO et MIMO suivant respectivement la couche physique des normes de transmission IEEE 802.11a et IEEE 802.11n. Cette couche physique dite réaliste prend aussi en compte toutes les spécificités liées à un environnement réel (géométrique et électrique) pour caractériser la qualité d’un lien radio mobile à travers son TEB. Par la suite, nous évaluons l’impact de notre couche physique réaliste sur la qualité de vidéo H.264/AVC reçue sur réseau ad hoc dans un environnement urbain dense. Cette étude montre, via des critères de qualité propres à des applications de transmission temps réel de vidéo, l’importance de considérer une couche physique réaliste pour évaluer les performances des schémas proposés. Le troisième chapitre Dans le troisième chapitre nous considérons la transmission de flux vidéo H.264/SVC dans un contexte de canaux MIMO réalistes tenant en compte de techniques de précodage. D’une part, le standard de compression de vidéo H.264/SVC permet une représentation du flux vidéo en plusieurs résolutions temporelle, spatiale et en qualité. D’autre part, les précodeurs linéaires subdivisent le canal MIMO en sous canaux SISO décorrélés et parallèles avec une faible complexité de décodage de maximum par vraisemblance. Dans nos travaux, nous proposons un schéma de transmission exploitant à la fois la hiérarchie intrinsèque du standard H.264/SVC et la qualité de quatre précodeurs (Max-RSB, WF, QdS et E-dmin ). Nous exploitons par la suite la flexibilité du précodeur QdS dans l’allocation de puissance pour fixer les coefficients de précodage suivant l’importance des flux vidéo H.264/SVC et l’état du canal MIMO. Nous effectuons une étude de performances de ce schéma sur des canaux statistiques et réalistes. Enfin, nous évaluons sa robustesse vis-à-vis des erreurs d’estimation de canal suivant la norme de transmission IEEE 802.11n à différentes vitesses de déplacement des terminaux mobiles. 3 CHAPITRE 0. INTRODUCTION Le quatrième chapitre Nous proposons dans le chapitre 4 deux solutions au problème de minimisation de débit distorsion dans le cadre d’une stratégie de codage conjoint. La première solution permet à l’aide d’un algorithme de calculer les coefficients de précodage qui réalisent les meilleures performances de transmission. Cet algorithme prend en compte l’importance des flux vidéo H.264/SVC, l’état du canal MIMO et la modulation numérique. Par la suite, cet algorithme est adapté pour le calcul de l’efficacité spectrale de la modulation de chaque sous-canal SISO pour une meilleure exploitation du canal MIMO. La seconde solution repose sur une modélisation analytique de la transmission du flux vidéo H.264/SVC sur un canal MIMO. Nous exprimons dans un premier lieu la distorsion totale (distorsions de la source et du canal) en fonction des coefficients de précodage. La méthode d’optimisation de Lagrange associée aux conditions de Kuhn et Tucker permet de calculer les coefficients de précodage qui minimisent la distorsion totale. Cette solution analytique prend en compte la hiérarchie de codage du codeur de vidéo H.264/SVC avec la modulation numérique pour assurer la meilleure qualité des vidéos reçues quel que soit l’état du canal MIMO. Enfin, nous effectuons une étude expérimentale sur l’impact des coefficients de quantification et la taille de GOP au niveau du codage de source, ainsi que les rendements du code correcteur d’erreur au niveau du codage de canal sur la transmission de vidéo sur un canal MIMO. Nous terminons ce manuscrit par une conclusion et quelques perspectives. 4 Chapitre 1 Stratégies de transmission multimédia par réseaux sans fil Sommaire 1.1 1.2 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Les réseaux sans fil ad hoc . . . . . . . . . . . . . . . . . . . . . . 6 1.2.1 Définition des réseaux ad hoc . . . . . . . . . . . . . . . . . . . . . 6 1.2.2 Représentation graphique des réseaux ad hoc . . . . . . . . . . . 7 1.2.3 Le modèle en couches OSI . . . . . . . . . . . . . . . . . . . . . . . 7 1.3 Chaı̂ne de communication numérique . . . . . . . . . . . . . . . 9 1.3.1 Codage de source . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.3.2 Codage de canal et modulation numérique . . . . . . . . . . . . . 17 1.3.3 Canal de transmission . . . . . . . . . . . . . . . . . . . . . . . . . 18 1.4 Stratégies de transmission multimédia . . . . . . . . . . . . . . . 26 1.4.1 Principe et limites du théorème de séparation . . . . . . . . . . . 27 1.4.2 Codage de source . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 1.4.3 Codage conjoint source-canal : techniques de protection inégale 31 1.4.4 Exploitation de la diversité . . . . . . . . . . . . . . . . . . . . . . 34 1.5 Synthèse et conclusion . . . . . . . . . . . . . . . . . . . . . . . . . 38 5 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL 1.1 Introduction L’objet de ce chapitre d’état de l’art est d’une part de présenter les notions de base des communications numériques afin de faciliter la compréhension de la suite de ce document, et d’autre part de faire une étude non exhaustive sur les stratégies de transmission de vidéo de manière à positionner nos travaux par rapport à l’existant. L’objectif de toute stratégie de transmission par réseaux est de garantir à l’utilisateur la meilleure qualité de service possible quelles que soient les conditions et le contexte de la transmission. Une stratégie de transmission est alors utile et nécessaire lorsque les deux conditions suivantes sont simultanément vérifiées : – Application à différents niveaux de qualité : cette contrainte est liée à la nature de l’application, qui doit se présenter sous la forme de différents paliers de qualité. La stratégie de transmission permet d’assurer un niveau de qualité supérieur à celui obtenu sans stratégie de transmission, ce qui permet d’améliorer la qualité de service de l’application. – Contexte de transmission avec erreurs : une stratégie de transmission doit faire face aux erreurs de transmission et aux pertes de paquets. Ces pertes sont généralement causées par le canal de transmission et les problèmes de congestion dans le réseau. Si la transmission est réalisée sans erreurs et sans perte de paquets, la stratégie de transmission n’est pas nécessaire et n’apporte aucun gain de qualité. Nous positionnons notre travail dans le cadre d’applications où ces deux conditions sont vérifiées, à savoir la transmission temps réel de vidéo sur un réseau mobile ad hoc. Un exemple réel de ce type d’applications consiste en une caméra mobile permettant à la fois l’acquisition de vidéo et sa diffusion en temps réel vers un ou plusieurs utilisateurs à travers le médium radio. Nous allons tout d’abord présenter les réseaux mobiles ad hoc ainsi que les différentes couches du modèle de réseau OSI 1 . Par la suite, nous présentons les différents blocs constituant la chaı̂ne de communication classique, à savoir le codage de source, le codage de canal, la modulation numérique et le canal de transmission. Un état de l’art sur les stratégies de transmission de vidéo sur un canal avec pertes et erreurs sera exposé. Enfin, après une synthèse sur les différentes techniques et stratégies de transmission, nous positionnons notre travail par rapport à l’état de l’art. 1.2 Les réseaux sans fil ad hoc 1.2.1 Définition des réseaux ad hoc Les réseaux mobiles ad hoc (MANETs 2 ) [1] sont des réseaux locaux sans fil (WLAN 3 ) où les utilisateurs, appelés terminaux ou noeuds, peuvent communiquer sans aucune infra1. OSI : Open System Interconnection 2. MANETs : Mobile Ad Hoc NETworks 3. WLAN : Wireless Local Area Networks 6 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL structure fixe ou administration centralisée, d’où l’appellation réseaux auto-configurables. L’information est alors véhiculée entre la source et la destination soit sur un lien direct quand la source et la destination sont reliées par un lien radio direct, dits terminaux voisins, soit à travers d’autres terminaux voisins dans le cas contraire. Ainsi, chaque terminal au sein du réseau peut avoir pour rôle celui d’une source, d’une destination et d’un routeur. La nature dynamique et l’absence d’une infrastructure fixe pour une gestion centralisée du réseau exige une coopération continue entre les terminaux pour assurer une communication fiable dans le réseau. Cependant, cette fiabilité est souvent très difficile à maintenir à cause des contraintes liées à ce type de réseaux, telles que l’instabilité des liens, l’énergie limitée et le taux d’erreur binaire relativement élevé des liens radio. 1.2.2 Représentation graphique des réseaux ad hoc Un réseau ad hoc est généralement représenté sous la forme d’un graphe non orienté, noté G = (S, A). L’ensemble des sommets du graphe S représente les terminaux du réseau, et l’ensemble des arêtes A correspond aux liens directs bidirectionnels entre les terminaux. La Figure 1.1 illustre un réseau ad hoc sous la forme d’un graphe non orienté. Vue la caractéristique dynamique du réseau, sa topologie et le graphe correspondant sont susceptibles de varier au cours du temps. Figure 1.1: Réseau mobile ad hoc sous la forme d’un graphe non orienté L’hétérogénéité des réseaux informatiques exige la mise en place d’une interface d’accès au réseau commune pour gérer l’interopérabilité entre les équipements des différents constructeurs. L’organisme ISO 4 [2] a donc spécifié une structure commune décrivant l’architecture d’un réseau, appelé le modèle OSI. La section suivante fera l’objet de la présentation du modèle OSI dans un contexte de réseaux mobiles ad hoc. 1.2.3 Le modèle en couches OSI Le modèle OSI définit l’interface réseau commune à tous les terminaux à l’aide d’une architecture en pile composée de sept couches. Le synoptique du modèle OSI est représenté 4. ISO : International Organization for Standardization 7 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL sur la figure 1.2. Le modèle OSI ne décrit pas les protocoles et les systèmes à utiliser au niveau de chaque couche, mais il définit plutôt les fonctions et le rôle de chacune de ces couches. Figure 1.2: Structure en couches du modèle OSI La couche application offre à l’utilisateur l’accès aux différentes applications du réseau. C’est au niveau de cette couche que l’information est traitée avant son acheminement par les autres couches vers la destination. La couche présentation traduit l’information à transmettre à travers le réseau en un langage commun. L’établissement des communications de bout en bout, c’est-à-dire entre une source et une destination, est géré par la couche session. La couche transport assure la fiabilité et la régulation des échanges de paquets entre la source et la destination. Les protocoles utilisés pour les réseaux ad hoc sont similaires aux protocoles adoptés dans les réseaux filaires, à savoir les protocoles UDP 5 , TCP/IP 6 et le protocole RTP 7 [3] pour les applications temps réel. La couche réseau oriente et achemine les paquets de la source jusqu’à la destination. Les protocoles de routage couramment utilisés dans les réseaux filaires et sans fil avec une infrastructure fixe (cellulaires) ne peuvent pas être directement appliqués aux réseaux ad hoc. Les protocoles adoptés dans les réseaux ad hoc gèrent le routage, à travers des messages de contrôle, équitablement à partir des différents terminaux. Quoique, il existe des protocoles de routage hiérarchiques, où le routage est géré par des terminaux chefs (en anglais 5. UDP : User Datagram Protocol 6. TCP/IP : Transmission Control Protocol/Internet Protocol 7. RTP : Real-time Transport Protocol 8 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL head) élus dans le réseau suivant des critères spécifiques, tels que la zone de couverture et l’énergie des terminaux. Les protocoles AODV 8 [4], OLSR 9 [5], [6] et DSR 10 sont les protocoles les plus utilisés dans les réseaux mobiles ad hoc. La couche liaison, composée de deux sous couches de données : LLC 11 et MAC 12 , assure l’échange et la fiabilité de réception des trames entre deux terminaux voisins (émetteur-récepteur) communiquant à travers un lien direct. Cette couche envoie des messages d’acquittements (ARQ 13 ) à la réception de chaque trame. Dans le cas ou l’émetteur ne reçoit pas l’acquittement d’une trame émise, il retransmet cette trame jusqu’à ce qu’elle soit reçue correctement, ou que le nombre de retransmissions autorisé soit atteint. Enfin, la couche physique à travers des techniques de traitement du signal permet d’adapter l’information à transmettre au canal radio. Il est important de préciser que le modèle en couches OSI traite l’information à transmettre par les différentes couches d’une manière indépendante. L’objectif du modèle OSI classique est d’assurer un transfert sans perte de paquets sans pour autant garantir une qualité de service à une application donnée. Ce mode de fonctionnement, dit best-effort, a l’inconvénient d’empêcher les couches non voisines de communiquer et d’agir conjointement pour assurer à l’utilisateur une qualité de service acceptable propre à l’application. Dans cette philosophie ont été introduit des mécanismes, dits cross-layer, permettant aux couches non voisines d’échanger l’information et d’agir conjointement pour assurer la qualité de service dans le réseau. Ce mode de fonctionnement autorise alors la mise en place des stratégies de transmission entre deux couches non voisines dans le modèle OSI. Bien que la notion de cross-layer semble à l’encontre du principe du modèle OSI qui cherche à assurer l’inter-connectivité des nombreux services et applications les plus variées [7], il existe des approches cross-layer transparentes qui permettent une communication entre les couches sans mettre en péril l’ensemble du système [9]. Cette approche a été adoptée dans [8] pour des applications de transmission hiérarchique de vidéo par réseau. Dans le cadre de cette thèse nous nous intéressons plus particulièrement aux couches application et physique avec une prise en compte d’un canal de transmission réaliste. Ces trois éléments constituent les blocs élémentaires de la chaı̂ne de communication numérique classique présentée dans la section suivante. 1.3 Chaı̂ne de communication numérique Une chaı̂ne de communication numérique permet de véhiculer l’information entre deux terminaux dans le réseau, appelés la source et la destination, à travers un support phy8. 9. 10. 11. 12. 13. AODV : On Demand Distance Vector OLSR : Optimized Link State Routing Protocol DSR : Dynamic Source Routing LLC : Link Layer Control MAC : Medium Access Control ARQ : Automatic Repeat reQuest 9 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL sique. Une chaı̂ne de communication en générale, comme définie initialement par Claude Shannon [10] et illustrée sur la figure 1.3, est constituée de plusieurs blocs à savoir : le codage de source, le codage de canal, la modulation numérique et le canal de transmission. Le bloc de codage de source est appliqué au niveau de la couche application du modèle OSI, alors que les blocs de codage de canal et la modulation numérique se positionnent au niveau de la couche physique. Tel qu’il a été mentionné précédemment, l’approche cross-layer permet donc, dans le modèle OSI, une communication directe entre ces deux couches positionnées aux deux extrémités de la pile. Le signal original est séparément traité par les différents blocs de la chaı̂ne de communication afin de le restituer aussi fidèlement à la destination. Les opérations effectuées au niveau de chaque bloc seront décrites ci-après, bien que notre attention portera spécifiquement sur les blocs de codage de source et du canal de transmission. Figure 1.3: Schéma de la chaı̂ne de communication numérique 1.3.1 Codage de source 1.3.1.1 Définition Le codage de source consiste à représenter l’information de la source sous forme binaire pour qu’elle puisse être transmise par un système de transmission numérique [11]. De plus, le codage de source cherche à représenter l’information de la source par le moins de bits possibles, ce qui permet d’améliorer le débit utile de la transmission. On peut distinguer deux types de codage de source selon qu’on encode avec ou sans perte d’information, appelés respectivement codage avec perte (irréversible) et codage sans perte (réversible). Ce dernier élimine uniquement la redondance dans l’information originale. En conséquence le décodeur permettra de reconstituer une version identique à l’information originale. Quant au codage irréversible, en plus d’éliminer la redondance, il réduit l’information la moins significative dans l’information originale. Ainsi ce type de codage introduit de la distorsion appelée distorsion de la source (DS ). Les performances d’un codeur de source sont évaluées par le paramètre de taux de compression (TC ) qui représente le rapport entre la taille de l’information avant et après codage de source. Nous 10 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL allons voir rapidement dans ce qui suit le principe du codage de source pour l’image fixe et la vidéo, appelé couramment compression. 1.3.1.2 Compression d’image fixe Un système de codage d’image fixe est généralement constitué de trois étapes principales : la transformée, la quantification et le codage entropique. La figure 1.4 illustre les différents blocs d’un système de compression d’image. Figure 1.4: Schéma fonctionnel d’un codeur/décodeur de source pour l’image 1.3.1.2.a Transformée La transformée permet de décorréler les pixels d’une image et de compacter l’énergie dans un nombre restreint de coefficients. Le choix de la transformée est primordial lors de la conception d’un nouveau codeur d’image, car les spécificités de la transformée adoptée caractériseront les performances et les fonctionnalités du codeur. Plusieurs transformées linéaires et réversibles sont utilisées dans le domaine de compression d’image, telles que la transformée en cosinus discrète (DCT 14 ) [12] , la transformée de Hadamard (HT 15 ) et la transformée en ondelette (DWT 16 ) [13]. 1.3.1.2.b Quantification L’étape de quantification consiste à attribuer à l’ensemble des coefficients issus de la transformée des valeurs prises d’un ensemble dénombrable fini. Contrairement à l’étape précédente, la quantification est une étape irréversible et introduit de la distorsion, ainsi cette étape est uniquement appliquée à un codage avec perte. Il existe plusieurs types de quantification tels que la Quantification Scalaire (QS) uniforme et non uniforme et la Quantification Vectorielle (QV) [11]. 14. DCT : Discrete Cosine Transform 15. HT : Hadamard Transform 16. DWT : Discrete Wavelet Transform 11 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL 1.3.1.2.c Codage entropique Le codage entropique exploite la statistique d’apparition des coefficients de la transformée quantifiée ou pas pour réduire la longueur du code binaire. Plus précisément, un codeur entropique consiste à accorder un nombre de bits différents (VLC 17 ) aux coefficients à coder de façon à ce que les coefficients d’occurrences fréquentes soient représentés par des mots binaires courts, et que des mots plus longs soient attribués aux coefficients moins fréquents. On considère une variable aléatoire discrète X avec des réalisations xi i = 1, 2, ..., n qui correspondent aux coefficients de l’image transformée. On définit par P (xi ) la probabilité d’apparition du coefficient xi . L’entropie de l’image transformée est définie par l’espérance mathématique de la quantité d’information associée à chaque coefficient, connue par la limite théorique de l’entropie de Shannon : H(X) = − ∑ P (xi )log2 (P (xi )) n (1.1) i=1 Il existe plusieurs codeurs entropiques qui permettent d’approcher au mieux la limite théorique de l’entropie de Shannon. Nous citons à titre d’information le codage de Huffman propre aux symboles [14], le codage arithmétique propre aux séquences de symboles [15] et le codage LZW 18 proposé par Ziv et Lempel, qui ne fait pas partie des codes à longueur variable [16]. Ces codes sont non adaptatifs ou adaptatifs selon que le calcul des P (xi ) est figé ou adaptatif suivant l’avancée dans la chaı̂ne de symboles. 1.3.1.3 Compression de vidéo Le principe de la compression de vidéo est similaire à celui de la compression d’image fixe, mais avec une dimension temporelle supplémentaire. En effet, en plus de la redondance spatiale entre les pixels d’une image, on retrouve une autre source de corrélation entre les images adjacentes de la vidéo appelée redondance temporelle. Ainsi, plusieurs codeurs de vidéo consistent à exploiter les corrélations spatiale et temporelle à travers un codage hybride spatio-temporel. Ce type de codage réduit considérablement la redondance dans la vidéo et permet d’atteindre des taux de compression très élevés comparé à la compression d’images fixes [17]. 1.3.1.3.a Codage spatial Le codage spatial appelé codage Intra dans un contexte de compression de vidéo est le même qu’un codage d’image fixe, dont les étapes ont été détaillées précédemment. Les images compressées par un tel codage sont appelées des images Intra (I). Un groupe d’images successives entre deux images Intra y compris la première image Intra constituent 17. VLC : Variable Length Code 18. LZW : Lempel Ziv Welch 12 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL un GOP 19 . Contrairement au codage temporel, le codage spatial permet un accès direct aux images Intra dans la séquence vidéo. 1.3.1.3.b Codage temporel Le codage temporel permet quant à lui d’exploiter la redondance temporelle entre des images successives en codant uniquement la différence entre les deux images. Le processus du codage temporel, appelé codage prédictif, consiste en trois étapes principales : subdivision ou non de l’image en macroblocs, estimation de mouvement et compensation de mouvement. En effet, les images peuvent être tout d’abord subdivisées en blocs de taille variable en fonction de l’activité locale de l’image. Par la suite, l’étape d’estimation de mouvement cherche dans l’image de référence le bloc le plus ressemblant à celui à coder dans l’image en cours. Le déplacement appliqué à ce bloc est généralement codé sans perte pour constituer le vecteur mouvement. Ce dernier est utilisé dans l’étape de compensation de mouvement de l’image de référence. Au final, le codeur encode par un codage Intra l’information résiduelle entre l’image à coder et l’image de référence. Il existe deux types d’images issus d’un codage temporel : les images P (Prédite) et B (Prédiction bidirectionnelle). Ces dernières sont prédites par rapport à deux images de référence de type I ou P. Quant aux images P, elles sont prédites uniquement par rapport à une seule image de référence de type I ou P. La figure 1.5 illustre la structure de codage des images de type I, P et B dans un GOP. Figure 1.5: Structure d’un GOP constitué de 6 images 1.3.1.4 1.3.1.4.a Quelques normes de codage multimédia Codeurs d’image fixe Codeur JPEG Le groupe JPEG 20 a été créé afin de concevoir une norme internationale de compression d’image fixe portant le nom du groupe. Le standard JPEG [18], [19], [20] est certainement l’algorithme le plus utilisé dans le domaine de la compression d’image. Le 19. GOP : Groupe Of Pictures 20. JPEG : Joint Photographic Expert Group 13 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL succès suscité par ce codeur dans le monde industriel peut être expliqué par ses capacités en terme de compromis entre performances de compression et de complexité de codage. Les étapes de codage de l’algorithme JPEG, pour une image scalaire, sont données cidessous : – L’image est découpée séquentiellement en blocs de taille 8 × 8. – La transformée en DCT bidimensionnelle est appliquée sur chacun des blocs. – Les coefficients DCT de chaque bloc sont quantifiés par une quantification uniforme à l’aide d’une table de quantification propre au codeur JPEG. – Les coefficients quantifiés sont ordonnés suivant un balayage en zig-zag pour donner une suite de symboles qui sera codée en binaire par un codeur entropique. Codeur JPEG2000 Le projet JPEG2000 [21], [22] a débuté en 1996 dirigé par Martin Boliek. L’idée était de proposer une méthode de compression innovante qui intègre diverses fonctionnalités et objectifs, tels que : des performances en qualité visuelle supérieures à l’état de l’art, une transmission scalable en qualité, résolution et par région spatiale, un traitement dans le domaine compressé ainsi qu’une implémentation limitée en mémoire. Contrairement à son prédécesseur JPEG basé sur la transformée en DCT, JPEG2000 est basé sur la transformée en ondelettes discrète (DWT). Les principales étapes de fonctionnement du codeur JPEG2000 sont décrites ci-dessous : – Une étape de prétraitement permet un sous échantillonnage des composantes couleurs et la division de l’image en un quadrillage régulier produisant des tuiles (tiles en anglais). – Sur chacune des tuiles, une décomposition en ondelettes est obtenue par application de la DWT. Cette dernière peut être réversible ou irréversible selon que l’on applique respectivement les filtres 5/3 de Gall ou les filtres de Daubechies 9/7[21]. – Une quantification scalaire uniforme avec zone morte est appliquée sur chacune des sous bandes. Une quantification adaptée est généralement utilisée avec un pas de quantification associé à chaque sous-bande. – Un codage arithmétique adaptatif, réalisé au moyen d’un encodage par plans binaires associé à un codeur arithmétique, est appliqué aux symboles issus de la quantification. Dans le cadre du développement du codeur JPEG2000, plusieurs outils de robustesse aux erreurs de transmission ont été intégrés au standard. Cependant, ces outils permettent uniquement de détecter les erreurs, de dissimuler les flux erronés ou de resynchroniser le décodeur. Ainsi, les méthodes adoptées se sont avérées inadaptées ou insuffisantes pour une transmission des images JPEG2000 sur des canaux fortement bruités tels que des canaux radio mobiles. Afin d’assurer une meilleure qualité de service lors de sa transmission sur des liens caractérisés par un Taux d’Erreur Binaire (TEB) relativement élevé, la communauté JPEG, dans ses récents travaux, a lancé un nouveau projet (Partie 11) baptisé JPWL (Wireless JPEG2000). 14 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL Codeur JPWL L’objet de codeur JPWL [23], [24], [25] est de définir une syntaxe de codage qui permet une transmission plus efficace du flux JPEG2000 sur des canaux hertziens. La norme JPWL a préservé le schéma de compression de base JPEG2000, auquel ont été intégrées diverses solutions pour protéger le flux transmis et le rendre plus robuste aux erreurs de transmission. Ces solutions permettent de décrire la sensibilité de chacun des flux de l’image vis-à-vis des erreurs, de protéger les entêtes et des flux de données par des codes correcteurs d’erreurs et de distinguer les erreurs résiduelles dans le flux reçu. Les nouvelles fonctionnalités adoptées dans le codeur JPWL peuvent être conjointement utilisées afin de définir des stratégies de transmission intelligentes, telle qu’une stratégie de transmission UEP 21 . En effet, la stratégie UEP spécifiée dans la norme JPWL adapte le degré de protection à l’importance de l’information portée par chaque portion des données compressées. Plus précisément, elle affecte plus de redondance aux flux qui portent l’information la plus importante et moins pour l’information la moins importante. L’autre objectif de la norme JPWL est de rester compatible avec le codeur de base JPEG2000. En effet, ses nouvelles fonctionnalités ont été intégrées de façon à ce que les propriétés intrinsèques du codeur JPEG2000 restent conservées : le décodeur JPEG2000 suffit pour décoder un flux JPWL non erroné. 1.3.1.4.b Codeur de vidéo Codeur de vidéo H.264/AVC Le standard H.264/AVC 22 [26] a été développé dans le cadre du projet Joint Video Team (JVT) mené conjointement par le groupe Video Coding Experts Group (VCEG) de l’organisme ITU-T 23 et le groupe Moving Picture Experts Group (MPEG) de l’organisme ISO/IEC 24 . L’objectif de cette norme de compression de vidéo est d’améliorer les performances des codeurs existants en terme de Débit-Distorsion (en anglais Rate-Distorsion) avec une structure adaptée au transport sur les réseaux. Afin de répondre à ces besoins, le processus de codage a été conçu en deux couches : la couche de codage de vidéo (VCL 25 ) et la couche encapsulation (NAL 26 ). Nous abordons ci-dessous le principe de ces deux couches ainsi que les outils de robustesse aux erreurs intégrés dans le standard. 1. Couche de codage VCL : la couche VCL permet d’encoder la vidéo avec une représentation efficace de son contenu. Le principe de codage adopté dans le standard suit le schéma de codage prédictif présenté dans la section 1.3.1.3. Cependant, plusieurs nouvelles fonctionnalités lui ont été intégrées telles que le traitement de blocs de plus petite taille, une précision de l’estimation de mouvement de l’ordre 1/4 de pixel, une prédiction avec plusieurs images de référence, une prédiction pondérée 21. 22. 23. 24. sion 25. 26. UEP : Unequal Error Protection H.264/AVC : H.264/Advanced Video Coding ITU-T : International Telecommunication Union ISO/IEC : International Organization for Standardization/ International Electrotechnical CommisVCL : Video Coding Layer NAL : Network Abstraction Layer 15 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL et une prédiction spatiale des blocs des images I. De plus, les deux codeurs entropiques avancés dont dispose le standard H.264/AVC, à savoir le codage à longueur variable avec adaptation de contexte (CAVLC 27 ) et le codage binaire arithmétique avec adaptation de contexte (CABAC 28 ), permettent un gain de codage de l’ordre de 10% à 15% par rapport à l’état de l’art. Ainsi, ces fonctionnalités et d’autres détaillées dans [26], [27] ont permis au codeur H.264/AVC d’améliorer ses capacités de compression et de surpasser les performances des codeurs de bases (MPEG-4 [62] et H.263 [61]). 2. Couche d’encapsulation NAL : La couche NAL permet de formater la présentation du flux issu de la couche VCL et d’intégrer des informations d’entêtes pour un meilleur traitement par la couche transport des différents systèmes de transmission ou par les supports de stockage. Chaque entité NAL est composée d’une séquence de bits correspondants aux données vidéo, encapsulées avec des renseignements relatifs au contenu de l’unité NAL et de paramètres nécessaires au décodage. 3. Profiles : Le standard H.264/AVC définit trois profiles (base, principal et étendu) afin de faciliter l’interopérabilité entre les différentes applications de mêmes spécificités. Chacun de ces profiles supporte un ensemble spécifique de fonctions de codage et spécifie la conformité d’un couple codeur/décodeur. Le profile étendu qui intègre toutes les méthodes de robustesse aux erreurs de transmission est le profile le plus adapté aux applications de transmissions sur des canaux radio. 4. Codeur robuste aux erreurs de transmission : le standard H.264/AVC étant destiné pour des applications de transmission sur une variété de normes de communications sans fil, il intègre plusieurs outils et stratégies de robustesse aux erreurs de transmission. Les entêtes transportent une information d’importance tout particulière, ainsi la perte de cette information intrinsèque entraine des dégradations considérables sur la vidéo décodée. Afin d’améliorer la qualité des vidéos reçues, les entêtes sont réparties dans le flux d’une manière particulière et flexible de telle façon à ce que leur perte n’entraine pas des interruptions importantes au processus de décodage. Les images dans le codeur H.264/AVC sont divisées en plusieurs parties (slices) de taille flexible indépendamment décodables. Ainsi, la perte d’un paquet entraine uniquement la perte d’une partie de l’image et non pas sa totalité. Le codeur H.264/AVC permet aussi de transmettre une copie d’une image ou une région de l’image généralement codée à bas débit. Le décodeur exploite cette redondance en cas de perte de la version originale de l’image. Deux autres mécanismes de robustesse sont intégrés dans le codeur appelés ordre de décodage flexible des macroblocs (FMO 29 ) et ordre de décodage flexible des slices (ASO 30 ). Ces deux solutions permettent une grande flexibilité dans l’ordre de transmission et réception des slices et des macroblocs, ce qui améliore considérablement les performances des systèmes 27. 28. 29. 30. 16 CAVLC :Context-Adaptive Variable-Length Coding CABAC : Context-Adaptive Binary Arithmetic Coding FMO : Flexible Macroblock Ordering ASO : Arbitrary Slice Ordring CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL de vidéo temps réel. Pour plus de détails sur les outils de robustesse implémentés dans le standard H.264/AVC le lecteur pourra se référer à [27], [28], [29]. 1.3.2 Codage de canal et modulation numérique L’objectif du codage de canal est de protéger l’information issue du codeur de source contre les perturbations du canal. La protection est réalisée à l’aide des Codes Correcteurs d’Erreurs (CCE) qui consistent à rajouter de la redondance à l’information d’une manière contrôlée [36]. Cette redondance est exploitée par le décodeur pour détecter voire corriger certaines erreurs de transmission. Un CCE est défini par son rendement Rc qui quantifie le rajout d’information (redondance) qu’il introduit. Ainsi, si un CCE encode un bloc de taille k en un bloc de taille n, avec n > k, le rendement sera Rc = k/n. Ainsi, plus R est petit plus le CCE introduit de la redondance et plus sa capacité de corriger les erreurs est grande, et vice-versa. Les performances d’un CCE sont évaluées par son gain de codage calculé par rapport à un système sans codage de canal. Le gain de codage mesure l’écart en dB entre les Rapport Signal à Bruit (RSB) nécessaires à deux systèmes avec et sans codage pour atteindre la même valeur de TEB. Cependant, afin de réaliser une comparaison équitable il faudrait compenser la redondance introduite par le CCE. Par exemple, si un système de transmission sans CCE transmet à une énergie binaire Eb , le système avec codage transmet les bits codés à une énergie plus faible de Ec = Rc Eb . La valeur du gain de codage est souvent donnée sous la forme d’un gain de codage asymptotique γ, c’est-à-dire pour un RSB infini[36]. Les CCE étaient initialement classés en deux grandes familles : les codes en blocs linéaires [36] et les codes convolutifs [37]. Depuis l’apparition des Turbo-codes [40], une nouvelle classification est apparue qui sépare les CCE selon leur capacité d’approcher la limite théorique d’entropie de Shannon. Les turbocodes et les codes LDPC [41] constituent alors la classe des codes approchant la limite théorique de Shannon, et les codes convolutifs et les codes linéaires en bloc qualifiés des codes d’ancienne génération. La modulation numérique permet d’adapter l’information codée au support de transmission. La modulation, quelle soit dite analogique ou numérique, consiste à faire varier un paramètre de l’onde porteuse en fonction du signal qui constitue l’information à transmettre, appelé signal modulant. On distingue plusieurs types de modulations selon que le signal modulant modifie l’amplitude, la phase ou la fréquence de l’onde porteuse pour obtenir respectivement la modulation d’amplitude (PAM 31 ), de phase (PSK 32 ) et de fréquence (FSK 33 ). Dans le cadre de cette thèse nous allons utiliser une modulation combinée amplitude-phase (QAM 34 ). Pour cette modulation, le signal modulant modi31. 32. 33. 34. PAM : Pulse Amplitude Modulation PSK : Phase Shift Keying FSK : frequency Shift Keying QAM : Quadrature Amplitude Modulation 17 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL fie à la fois l’amplitude et la phase de la porteuse, ce qui lui offre un degré de codage supplémentaire par rapport aux modulations de base d’amplitude ou de phase. Les performances de la modulation QAM en terme d’efficacité de codage et de résistance aux erreurs de transmission lui ont permis d’être adoptée dans la couche physique de nombreuses normes de transmission récentes, telles que les normes IEEE802.11a/g/n [42], 802.16 (WiMax) [43] et LTE 35 [44], DVB 36 . Dans le cas d’un canal de Rayleigh sélectif en fréquence [30], il est nécessaire de procéder à des techniques d’égalisation [11] si l’on veut éviter les Interférences Entre Symboles (IES). Cependant, ces techniques sont généralement lourdes et couteuses. La modulation OFDM 37 [46] est une bonne alternative aux techniques d’égalisations puisque elle est efficace face aux IES, très simple à implémenter et s’accommode avec les modulations numériques évoquées précédemment. La modulation OFDM a aussi été adoptée dans de nombreux standards de transmission offrant le haut débit [45], [43], [44]. 1.3.3 Canal de transmission Le canal de transmission est un support physique permettant de transmettre l’information entre un émetteur et un récepteur. Dans le cas d’une communication sans fil, c’est l’onde électromagnétique qui assure l’acheminement de l’information vers le récepteur. Dans cette section nous allons aborder les modèles les plus souvent adoptés pour caractériser un canal sans fil. 1.3.3.1 Modélisation théorique du canal D’un point de vue de la théorie de l’information, le canal peut être modélisé par deux variables aléatoires X et Y qui représentent respectivement la source et la destination. Ces variables possèdent respectivement des réalisations xi et yj i = 1, 2, ..., n, j = 1, 2, ..., m avec des probabilités d’apparition P (xi ) et P (yj ). En effet, la source transmet ses symboles xi sur un canal introduisant des erreurs. La destination reçoit cette information perturbée à travers la variable aléatoire Y. L’information mutuelle moyenne entre X et Y s’écrit sous la forme suivante [11] : I(X; Y ) = ∑ ∑ P (xi , yj )log2 ( n m i=1 j=1 P (xi ∣yj ) ) P (xi ) (1.2) En appliquant le théorème de Bayes sur la formule (1.2), on peut aisément montrer que I(X; Y ) = I(Y ; X), d’où le terme d’information mutuelle. On peut constater que lorsque les variables aléatoires X et Y sont statistiquement indépendantes, l’information mutuelle moyenne est nulle ce qui signifie que l’information transmise est totalement perdue. D’autre part, lorsque les occurrences de Y déterminent exactement 35. LTE : Long Term Evolution 36. DVB : Digital Video Broadcasting 37. OFDM : Orthogonal Frequency Division Multiplexing 18 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL les occurrences de X, l’information transmise est reçue sans erreur. Dans ce cas, l’information mutuelle moyenne est égale à l’entropie de X, soit H(X) donnée par l’équation (1.1). On définit aussi l’entropie conjointe entre X et Y par [11] : H(X∣Y ) = − ∑ ∑ P (xi , yj )log2 (P (xi ∣yj )) n m (1.3) i=1 j=1 L’entropie conjointe H(X∣Y ) représente la quantité d’information perdue sur X lors de la transmission. On peut alors exprimer l’information mutuelle en fonction de l’entropie de X et de l’entropie conjointe H(X∣Y ) : I(X; Y ) = H(X) − H(X∣Y ) (1.4) La figure 1.6 illustre la relation entre les différentes entropies du canal. Figure 1.6: Illustration des entropies du canal Les canaux les plus utilisés dans la théorie de l’information sont le Canal Binaire Symétrique (CBS) et le canal à Bruit Blanc Additif Gaussien (BBAG). Le CBS, dont les occurrences d’entrée et de sortie sont définies dans un alphabet binaire X = {0, 1} et Y = {0, 1}, est entièrement modélisé par un jeu de probabilités appelé probabilités de transition [11] p 1−p P (yi ∣xi ) = [ ] 1−p p (1.5) La première diagonale de la matrice de transition portant la probabilité p concerne les cas de transmission sans erreur. Quant à la seconde diagonale portant la probabilité 1 − p, elle concerne le cas de transmission avec erreurs. La figure 1.7 illustre le principe du CBS. Le canal BBAG à entrée discrète et à sortie continue est défini quant à lui dans l’alphabet d’entrée X = {x1 , ..., xn } et de sortie Y ∈ R . La relation d’entrée-sortie s’écrit sous la forme suivante : Y =X +G (1.6) 19 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL Figure 1.7: Diagramme du canal binaire symétrique où G est une variable aléatoire Gaussienne de moyenne nulle et de variance σ 2 . Ainsi, pour G indépendante de X et X = xk , la variable aléatoire Y devient Gaussienne de moyenne xk et de variance σ 2 et sa probabilité de transition est déterminée par l’équation suivante : 1.3.3.2 (y − xk )2 1 ) exp (− P (y∣X = xk ) = √ 2σ 2 2πσ (1.7) Canaux radio mobiles La figure 1.8 est une bonne illustration pour représenter les différentes dégradations de la puissance reçue dans un environnement radiomobile. On peut constater que la puissance reçue subit des atténuations de différentes natures liées aux spécificités environnementales et à la mobilité de l’émetteur et du récepteur dans l’environnement. Les atténuations d’un canal radio mobile se présentent sous trois formes d’atténuations différentes, à savoir les atténuations à grande échelle (Large-scale propagation effects), à moyenne échelle (average-scale propagation effects) et à petite échelle (Small-scale propagation effects). Une atténuation à grande échelle représente l’atténuation moyenne du signal reçu sur des distances d’une centaine de longueurs d’onde. Ces atténuations dépendent principalement de la distance entre l’émetteur et le récepteur et de l’atténuation des obstacles dans environnement. L’atténuation à moyenne échelle se présente sous la forme de variations de la puissance reçue sur des distances de l’ordre d’une dizaine de longueurs d’onde, entrainées principalement par le blocage du signal par les différents obstacles de l’environnement disposés sur la trajectoire des ondes. Enfin, l’atténuation à petite échelle se présentent sous la forme de fluctuations du signal reçu sur des distances de l’ordre de la longueur d’onde. Ces variations sont dues au phénomène physique de trajets multiples [30]. Les trajets multiples sont causés par l’interaction de l’onde avec des diffuseurs (bâtiments, arbres, personnes, etc.) situés sur sa trajectoire. Ainsi, le signal reçu au niveau du récepteur consiste en une superposition d’ondes provenant de toutes les directions due aux phénomènes de réflection, diffraction et transmission. Dans le cas de transmission de signaux numériques sous la forme d’impulsions nous observons l’apparition de répliques de ces 20 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL Figure 1.8: Variations de la puissance reçue dans un canal radio mobile impulsions au niveau du récepteur. L’ensemble de ces répliques constitue la Réponse Impulsionnelle (RI) du canal [30]. La figure 1.9 illustre le phénomène de propagation multi-trajets dans un environnement urbain. En plus de ces différents évanouissements du signal est associé l’effet Doppler. Celui-ci est dû à la mobilité des terminaux et/ou de l’environnement, et provoque un décalage fréquentiel de chacune des ondes qui compose le signal reçu. Cela se traduit par une expansion fréquentielle du spectre du signal durant la transmission et, dans le domaine temporel, par une variation de la RI en fonction du temps. 1.3.3.3 Modélisation de canaux radio mobiles Il existe dans la littérature de nombreux modèles permettant de prédire le comportement des différents phénomènes du canal radio mobile. Ces modèles peuvent être classés selon plusieurs critères. Ils peuvent par exemple être identifiés suivant le type de variations qu’ils modélisent, c’est cette classification qui est généralement adoptée dans la plupart des livres de communications numériques [30], [34]. Dans cette section nous allons présenter les différentes modélisations du canal appartenant à deux familles : modèles statistiques et déterministes. 21 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL Figure 1.9: Phénomènes de propagation de l’onde dans un environnement urbain 1.3.3.3.a Modèles déterministes Modèle en espace libre Ce modèle permet de modéliser les variations à grande échelle en calculant la puissance reçue dans le cas d’une transmission idéale, soit l’émetteur et le récepteur sont en visibilité directe et la communication se fait uniquement à travers le trajet direct (LOS 38 ). La puissance reçue est donnée par la loi de Friis [31] : P Y = PX G X G Y ( λ 2 ) 4πd (1.8) où PX et PY représentent respectivement les puissances d’émission et de réception en Watt, GX et GY représentent respectivement le gain des antennes de transmission et de réception, λ est la longueur d’onde en mètre et d est la distance parcourue par l’onde transmise en mètre. A partir de cette formule nous pouvons constater que la puissance reçue dépend uniquement de la longueur d’onde et de la distance (atténuation en d2 ) entre l’émetteur et le récepteur. Cependant, dans le cas des transmissions radio-mobiles terrestres, où l’onde est atténuée par les différents obstacles de l’environnement, cette relation n’est plus vérifiée [31]. Modèle à deux rayons Le modèle à deux rayons modélise aussi les variations à grande échelle du canal. Ce modèle est plus réaliste que son prédécesseur, puisque le signal reçu est le résultat du trajet direct (Path LOS) interféré avec le trajet réfléchi par le sol. Dans 38. LOS : Line Of Sight 22 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL de telles conditions de propagation, la puissance reçue s’écrit sous la forme suivante [31] : PY = 4PX GX GY ( λ 2 2 2πhX hY ) sin ( ) 4πd λd (1.9) où hX et hY représentent respectivement la hauteur en mètre des antennes de l’émetteur et du récepteur par rapport au sol. Si la condition d >> hX hY est vérifiée, l’expression (1.9) peut alors être approximée par [31] : PY = PX G X G Y ( hX hY 2 ) d2 (1.10) Nous pouvons, par ailleurs, constater que la puissance reçue ne dépend plus de la fréquence, mais elle subit une atténuation en d4 . Ce modèle, est de même, loin de représenter la propagation de l’onde dans un environnement urbain, mais il est toutefois un bon modèle pour des environnements moins denses tels que les autoroutes ou les routes dans des zones rurales [30]. Modèle à exposant (log-distance path-loss model) Le modèle à exposant [35] modélise les variations à grande échelle du canal. Ce modèle est basé sur le modèle en espace libre plus une atténuation supplémentaire liée à la nature de l’environnement de propagation. La puissance reçue pour ce modèle est donnée par l’expression suivante [35] : PY = P Y 0 ( d0 β ) d (1.11) où PY 0 représente la puissance reçue obtenue par le modèle en espace libre à une distance de référence d0 généralement fixée à 1 mètre, et β l’exposante d’atténuation. Ce modèle considère l’environnement à travers la composante exponentielle β. La valeur de β est évaluée empiriquement dans différents environnements de propagation. Par exemple, pour un environnement en espace libre, β prend la valeur 2 alors que pour un environnement urbain, β prend ses valeurs dans l’intervalle [2.5, 6] selon la densité de l’environnement [35]. Modèles à rayons Les modèles à rayons entrent dans la famille des méthodes asymptotiques développées pour répondre à des problèmes d’électromagnétiques de grandes envergures comme la simulation de la propagation d’ondes électromagnétiques en environnements réels [38]. Ces méthodes sont basées sur l’Optique Géométrique (OG) et la Théorie Uniforme de la Diffraction (TUD), où l’onde électromagnétique est assimilée à des rayons. Cette approche est largement adoptée à la conception de logiciels de simulation du canal de propagation qui nécessitent, à leur tour, des méthodes pour identifier les trajets se propageant entre un émetteur et un récepteur. Deux modèles découlent directement de ces méthodes : les modèles à tracé et à lancer de rayons. 23 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL 1. Modèle à lancer de rayons : le principe de la méthode à lancer de rayons consiste dans un premier temps à inonder l’environnement de rayons partant de l’émetteur. Suivant le parcours de chaque rayon, l’algorithme détermine les différentes interactions électromagnétiques entre les rayons et les obstacles constituant l’environnement étudié. L’algorithme considère la géométrie et les propriétés électriques des matériaux rencontrés, et seul les trajets passants à proximité du récepteur sont retenus pour le calcul des trajets. La précision des résultats obtenus par la méthode à lancer de rayons dépend du nombre de rayons à lancer et du pas angulaire choisi pour couvrir l’environnement 3D. De plus, le nombre de rayons qui sont exploités dépend du pas angulaire considéré. 2. Modèle à tracé de rayons : Le modèle à tracé de rayons [32],[33] détermine sans aucune approximation les rayons qui peuvent se propager d’un émetteur vers un récepteur. L’opération de recherche des rayons qui existent entre le couple émetteurrécepteur se fait soit par la méthode des images ou celle de pliage [39]. L’atténuation de chacun des trajets reçus est alors déterminée par la somme de l’atténuation causée par l’interaction de l’onde avec les obstacles en prenant en compte les propriétés électriques des matériaux et l’atténuation liée à la partie de propagation de l’onde en espace libre calculée par la loi de Friis. Le tracé de rayons est plus précis que le lancer de rayon, puisque il calcule les trajets de manière déterministe entre un émetteur et un récepteur. Cependant, contrairement au modèle à lancer de rayons, il est nécessaire de recourir à une simulation pour chaque configuration d’émetteurrécepteur. Le choix d’une méthode dépend alors d’un compromis entre le temps de simulation et la précision souhaitée des résultats. Néanmoins, ces modèles présentent des inconvénients communs. D’une part, la validité des résultats obtenus par des deux méthodes dépend du degré de description de l’environnement, alors qu’il est difficile de modéliser avec précision les environnements de propagation. D’autre part, ces deux méthodes nécessitent un temps de calcul relativement long causé par la complexité des algorithmes utilisés. 1.3.3.3.b Modèles statistiques Les modèles statistiques [34] prédisent de manière stochastique le comportement du canal sur de larges zones. Généralement ces modèles sont moins précis que les modèles déterministes et associent une loi statistique à un ensemble d’environnements ou de configurations de transmission partageant les mêmes spécificités. Cependant, ils ont l’avantage d’être simples, et nécessitent de faibles capacités et temps de calcul. Nous allons présenter dans ce qui suit les modèles les plus utilisés pour modéliser canal radio mobile dans un contexte de réseau sans fil. Modèle log-normale Shadowing Le modèle log-normale Shadowing permet de modéliser les variations à moyenne échelle du canal radio mobile. Il a été montré empiriquement 24 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL dans des environnements Indoor et Outdoor que les variations entrainées par le Shadowing (bourrage) évoluent suivant une loi log-normale [30]. Ainsi, le modèle statistique log-normale Shadowing a été largement adopté pour estimer le rapport entre la puissance émise et reçue ψdB = 10log PPXY par la distribution log-normale : (ψdB − µψdB ) 1 exp (− ) P (ψdB ) = √ 2σψdB 2 2πσψdB 2 (1.12) 2 où µψdB est la moyenne de loi la log-normale en dB et σψdB est sa variance. La valeur de la moyenne µψdB correspond à l’atténuation moyenne du signal reçu qui peut être 2 calculée par les modèles d’atténuation à grande échelle. Quant à la variance σψdB elle est généralement fixée empiriquement dans l’intervalle [3, 13] dB selon l’environnement que l’on souhaite modéliser [30]. Modèle de Rayleigh Le modèle de Rayleigh modélise à l’aide de la distribution de Rayleigh les variations rapides de l’amplitude du signal reçu. Lorsque le signal reçu Y est la somme d’un grand nombre de trajets (n >> 1) d’amplitudes ∣yi ∣ faibles et de même ordre de grandeur, et que la valeur de la phase ϕi de chaque trajet est uniformément répartie sur l’intervalle [−π, π], on peut alors considérer la densité de probabilité (ddp) de la somme des trajets reçus comme une Gaussienne. En effet, les valeurs d’amplitude et de phase représentent les réalisations de deux variables aléatoires Gaussiennes indépendantes. En conséquence, d’après le théorème central limite, la ddp de la somme des variables yi est aussi Gaussienne. Dans une transmission réelle, ces conditions sont souvent vérifiées lors d’une communication NLOS 39 dans un environnement de propagation riche en multitrajets. Dans de telles conditions, l’amplitude Z du signal reçu Y est décrite par la ddp de Rayleigh [34] : z z2 PZ (z) = 2 exp (− 2 ) (1.13) σ 2σ avec 2σ 2 la puissance moyenne efficace du signal reçu. Modèle de Rice Le modèle de Rice modélise aussi les variations rapides de l’amplitude du canal radio mobile par la distribution de Rice. Lorsque l’émetteur et le récepteur sont en visibilité directe, les statistiques de l’amplitude et de la phase ne correspondent plus au cas précédent. On peut alors montrer que dans de telles conditions que la ddp de l’amplitude Z du signal Y suit la ddp de Rice [34] : √ K(K + 1) ⎞ (K + 1)z 2 ⎛ 2z(K + 1) exp (−K − )I 2z (1.14) PZ (z) = 0 ⎝ ⎠ z¯2 z¯2 z¯2 avec I0 (x) la fonction de Bessel modifiée de 1ére espèce, d’ordre 0. Considérant A l’amplitude du trajet prédominant, z¯2 = 2σ 2 + A2 est la valeur efficace de 39. NLOS : Non Line Of Sight 25 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL 2 A z et K = 2σ 2. On peut constater que quand K = 0 on retrouve la ddp de Rayleigh. D’autre part, on remarque que lorsque K → +∞, la ddp de Rice devient Gaussienne. Modèle de Nakagami En supplément aux distributions de Rayleigh et Rice, il existe d’autres lois plus générales telles que la distribution de Nakagami qui peut être paramétrée suivant les conditions et l’environnement de propagation. Les variations de l’amplitude Z du signal reçu Y suivant la distribution de Nakagami est donnée par la formule suivante [34] : 2mm z 2m−1 mz 2 PZ (z) = exp (− ), m > 0.5 (1.15) Γ(m)Ωm Ω avec Ω = E[Z 2 ] est la puissance moyenne reçue et Γ(.) la fonction Gamma. La distribution de Nakagami est donc paramétrée par Ω et le paramètre de fading m. Par exemple pour m=1, la distribution de Nakagami est réduite à la distribution de Rayleigh, alors que pour m = (K +1)2/(2K +1), elle approxime la distribution de Rice. Dans d’autres configurations, la distribution de Nakagami peut aussi approximer d’autres lois telle que la loi log-normal [34]. 1.4 Stratégies de transmission multimédia Rappelons que l’objectif d’une stratégie de transmission est de faire face aux inconvénients et limites des protocoles classiques proposés au niveau des différentes couches du modèle OSI, et d’assurer la qualité de service des applications les plus variées. Le protocole T CP implémenté au niveau de la couche transport permet d’assurer la fiabilité d’une communication entre une source et une destination par des mécanismes basés sur l’envoi d’acquittements et de retransmissions. Cependant, cette solution ne garantit pas un délai de réception de paquets qui est une contrainte intrinsèque des applications temps réel. De plus, lorsque la qualité du canal est dégradée, le nombre de retransmissions et d’acquittements générés par ce protocole devient très important, ce qui contribue à accentuer davantage la congestion dans le réseau. Une stratégie de transmission est alors nécessaire si l’on veut assurer la qualité de service des applications de transmission temps réel de vidéo. Les stratégies de transmission de données multimédias peuvent être classées en deux classes principales. La première classe concerne les stratégies intervenant au niveau du codage de source, alors que les stratégies appartenant à la seconde classe interviennent conjointement entre le codeur de source et le codeur de canal. Afin de montrer que le problème de transmission temps réel de vidéo est différent de celui présenté dans le théorème de séparation de Shannon [10], nous allons tout d’abord rappeler ce théorème et donner ces limites. Par la suite, nous présentons les stratégies de transmissions proposées dans la littérature pour garantir la qualité de service des applications de transmission de vidéo. Dans la dernière partie de cette section, nous présentons 26 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL des travaux qui adoptent des stratégies de transmission de vidéo dans un contexte de transmission offrant un niveau de diversité supplémentaire : la diversité spatiale et la diversité des routes dans les réseaux ad hoc. 1.4.1 Principe et limites du théorème de séparation On peut constater que dans la chaı̂ne de communication numérique classique présentée par Shannon, le codage de source et le codage de canal sont représentés par deux blocs séparés. Cela revient aux travaux de Shannon sur la capacité du canal [10], dans lesquels il montre que le codage de source nécessite uniquement l’information sur le canal pour atteindre les performances de transmission optimales. En effet, le canal de transmission n’introduit aucune erreur voire très peu d’erreurs, à condition que l’information soit transmise à un débit inférieur à la capacité du canal. La distorsion totale de l’information reçue correspondant à la somme des distorsions introduites par le codage de source et le canal de transmission (DT = DS + DCh ) est alors réduite à la distorsion de la source, puisque la distorsion du canal est très faible ou nulle (DCh ≈ 0). D’après ce théorème, il suffit de minimiser la distorsion de la source indépendamment du codage de canal pour atteindre les performances optimales. Cela implique qu’il n’est en aucun cas utile d’adopter des stratégies de codage conjoint source-canal pour la transmission. Cependant, ce théorème de séparation est vrai uniquement sous certaines hypothèses rarement vérifiées en pratique. En effet, le problème formulé par Shannon suppose que les codeurs de source et de canal encodent des séquences d’information stationnaires et ergodiques de longueur infinie. De plus, il suppose que la capacité du canal est parfaitement connue au niveau de la source. Ces hypothèses ne sont pas vérifiées en pratique, sachant que les systèmes de codage et de transmission adoptés dans les standards récents [26], [42], [43], [44] traitent l’information par blocs de taille relativement petite, sur lesquels le canal radio introduit des erreurs significatives même en transmettant à un débit inférieur à la capacité du canal. De plus, le canal radio mobile est difficile à caractériser d’une manière précise, car il varie dans le temps d’une manière imprévisible. D’autres contraintes liées à la nature de l’application et des équipements utilisés ne sont pas considérées dans le théorème de Shannon, telles que la contrainte de délai des applications temps réel ainsi que la capacité de calcul et l’énergie limitées des équipements mobiles. Toutes ces contraintes font que le problème de transmission temps réel de vidéo traité en pratique soit différent de celui qui est décri dans le théorème de Shannon. Il est alors primordiale d’adopter des stratégies de codage conjoint source-canal si l’on veut atteindre de meilleures performances de transmission et assurer une qualité de service propre à ce type d’applications. 1.4.2 Codage de source 1.4.2.1 Insertion de marqueurs La plupart des standards de compression d’image fixe et vidéo adoptent un codeur entropique ou arithmétique de codes à longueur variable pour éliminer la redondance 27 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL statistique des coefficients issus de la transformée. Cependant, un tel codage est très sensible aux erreurs de transmission, car une seule erreur dans le flux peut provoquer une désynchronisation du processus du décodage. Cette désynchronisation peut avoir une conséquence drastique sur la qualité de l’image ou de la vidéo décodée. Afin de faire face à ces dégradations et de limiter la propagation de l’erreur dans l’ensemble de l’image ou du GOP pour la vidéo, une solution simple, appliquée au niveau du codeur de source, consiste à introduire des marqueurs dans le flux. Ces marqueurs sont soit constitués de séquences binaires qui ne font pas partie de l’alphabet de la source, appelées symboles interdits (SI), soit insérés à des positions connues par le décodeur. Ainsi, cette technique permet de détecter les erreurs de transmission et de resynchroniser le flux en cas de présence d’erreurs. La fréquence et la longueur des marqueurs de synchronisation sont réglées selon le niveau de redondance désiré et du taux de d’erreur binaire du canal de transmission. Cette solution a été largement adoptée dans les standards de compression de données multimédia. Il a été montré que cette solution est suffisante pour transmettre des images JPEG-2000 sur un canal à faible TEB, sans faire appel à des techniques de correction d’erreurs qui sont généralement plus complexes [48]. Les travaux effectués dans [47] illustrent le gain significatif apporté par l’utilisation des marqueurs de synchronisation pour la transmission de vidéo H.263 [61] sur un canal introduisant des pertes de paquets. 1.4.2.2 Codage par descriptions multiples Le codage par descriptions multiples (MDC 40 ) est une technique de codage de source typiquement adaptée à la transmission de flux multimédia par réseaux avec pertes de paquets. Le principe du codage par descriptions multiples consiste à coder l’information en n flux corrélés transmis sur n canaux indépendants. Un exemple d’un MDC avec deux canaux et trois récepteurs est illustré sur la figure 1.10. Le codeur encode l’information en deux descriptions qui seront transmises sur deux canaux indépendants. Les décodeurs un et deux reçoivent uniquement un des deux descripteurs, ce qui leur permet de reconstruire l’information avec une qualité de base, alors que le décodeur zéro exploite les deux descripteurs pour une reconstruction de l’information avec une meilleure qualité. On peut constater que le codage par descriptions multiples introduit de la redondance entre les descripteurs. Les performances théoriques en terme de débit distorsion (R-D 41 ) d’un codage à deux descripteurs ont été évaluées par Ozarow [49], considérant une source gaussienne sans mémoire et une mesure de distorsion quadratique. Les performances pour une source non gaussienne étant non connues, les bornes interne et externe de la région débit distorsion ont été étudiées par Zamir dans [50]. Une étude théorique et pratique détaillée sur le codage par descriptions multiples est aussi effectuée dans les références [51], [52]. 40. MDC : Multiple Description coding 41. R-D : Rate Distortion 28 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL Figure 1.10: Principe du codage par descripteurs multiples [51] Un codeur par descriptions multiples a donc un double objectif. Le premier est de produire les descripteurs indépendamment décodables et équilibrés pour que tous les récepteurs puissent reconstruire l’information avec une qualité acceptable (décodeurs latéraux). D’autre part, les performances de codage en terme de débit-distorsion, lorsque tous les descripteurs sont correctement reçus (décodeur central), doivent être aussi proches que possible des performances d’un codeur classique (SDC 42 ). Il existe plusieurs méthodes pour construire les descripteurs. Nous allons dans ce qui suit présenter les méthodes les plus utilisées, tout en évoquant quelques exemples de leurs applications sur le codage de vidéo. 1.4.2.2.a Codage MDC par sous-échantillonnage Le sous-échantillonnage de l’information représente la méthode la plus simple pour générer les descripteurs multiples. Une étude théorique de performances d’un codage par sous-échantillonnage en deux descripteurs, considérant une source corrélée générée par un modèle auto-régressif d’ordre 1, est effectuée dans la référence [51]. Lorsque le nombre de descripteurs est faible, le descripteur perdu peut être estimé avec une faible distorsion à partir des descripteurs correctement reçus. L’inconvénient principal de cette méthode réside dans la perte significative de codage en terme de débit-distorsion lorsque le nombre de descripteurs devient important. Cela revient au principe qu’un codage indépendant de n descripteurs corrélés est moins efficace que leur codage conjoint. La construction des descripteurs par sous-échantillonnage a été largement adoptée dans le codage d’image fixe [53] et de vidéo [54], [55], [56]. Le sous-échantillonnage peut être appliqué dans le domaine temporel par entrelacement temporel des images de la séquence vidéo [54], dans le domaine spatial par entrelacement des pixels [55] ou dans le domaine transformée par entrelacement des vecteurs mouvements [56] et des coefficients de la transformée [53]. 42. SDC : Single Description coding 29 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL 1.4.2.2.b Codage MDC par quantification Les travaux sur le codage par descriptions multiples basé sur une quantification scalaire (MDSQ 43 ) ont été introduits pour deux descripteurs par Vaishampayan dans [57], puis généralisés dans [58] à n descripteurs. Le principe de ce codage consiste à affecter à chaque coefficient de la source un symbole par description. La corrélation entre les symboles des différents descripteurs permet d’estimer le coefficient codé, avec une distorsion donnée, uniquement à travers les descripteurs reçus correctement. Ces méthodes de codage ont été appliquées au codage de vidéo par descripteurs multiples dans [59], [60]. 1.4.2.2.c Codage MDC par transformée Le codage par descriptions multiples basé sur une transformée est sans doute la méthode la plus appliquée pour le codage de vidéo. On peut distinguer deux types de codage basés sur une transformée selon que l’on utilise une transformée corrélante ou progressive. Le principe de codage par descriptions multiples basé sur une transformée corrélante a été introduit par Wang [63] pour deux descripteurs. L’idée de base consiste à appliquer une transformée linéaire non-orthogonale sur deux variables décorrélés. Cette transformée introduit de la corrélation entre ces deux variables, constituant ainsi les deux descripteurs à transmettre sur deux canaux indépendants. La corrélation introduite est contrôlée par la transformée utilisée et la réception d’un seul descripteur permet d’estimer le descripteur perdu. Cependant, une faible redondance entre les variables d’entrée engendre une grande perte de codage en terme de débit distorsion. Cette solution a été généralisée pour n descripteurs dans [64]. Un codeur vidéo adoptant cette méthode pour générer deux descripteurs a été présenté dans [65], [66]. Le codeur utilise trois boucles de prédiction (une centrale et deux latérales) prenant en compte toutes les configurations du décodeur, avant d’appliquer la transformée linéaire non-orthogonale sur l’erreur de prédiction centrale pour générer les deux descripteurs à transmettre sur deux canaux disjoints. Le codage par descriptions multiples basé sur une transformée progressive exploite la représentation de l’information après la transformée pour construire les descripteurs. Dans [67], [68] cette technique est appliquée au codage de vidéo par la transformée en ondelettes. En effet, les coefficients les plus importants qui permettent de reconstruire la vidéo avec une basse qualité sont répétés dans tous les descripteurs, alors que l’information d’amélioration est répartie entre les descripteurs. La réception d’un des descripteurs permet alors de construire une vidéo de qualité de base, et la réception de plus d’un descripteur permet d’améliorer la qualité de la vidéo en exploitant les flux de basse fréquence. 43. MDSQ : Multiple Description Scalar Quantization 30 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL 1.4.2.3 Décodeur de source Après codage par un codeur VLC, une redondance résiduelle est toujours présente dans l’information. Dans [69] cette redondance a été classée en quatre différents types de redondances, à savoir la redondance liée à l’orthographe, la redondance liée à la paquétisation pour la transmission, la redondance liée à la sémantique du code et la redondance liée à la source Markovienne. L’idée consiste alors à exploiter ces redondances par le décodeur pour corriger les erreurs de transmission et améliorer la fiabilité du décodage à moindre coût. Les premiers travaux ont été proposés par Massey [70] pour le décodage souple des données codées par un codeur de source faisant intervenir des codes à longueur variable. Le décodeur souple utilise un critère de vraisemblance, ou un critère de probabilité a posteriori, pour trouver parmi un ensemble de séquences possibles, celle qui correspond le plus à la séquence des symboles bruités reçus. En effet, la recherche est effectuée d’une manière exhaustive dans l’ensemble de mots de codes possibles. La redondance résiduelle est alors exploitée pour réduire l’ensemble de recherche, en excluant de cet ensemble les séquences de mots de code dont les contraintes liées au codage de source ne sont pas satisfaites, permettant un décodage avec correction d’erreurs à faible complexité. Ces stratégies de robustesse ont une importance toute particulière, car elles permettent la détection et la correction d’erreurs de transmission sans introduire aucune redondance ou complexité supplémentaire au niveau du codeur. Les travaux effectués dans le cadre de la thèse de C.M. Lee [71] permettent d’exploiter la redondance résiduelle à travers un décodage souple de la texture issue du codeur de vidéo H.263. Les techniques utilisées dans ces travaux ont été étudiées précédemment [72] pour des sources markoviennes. Ces techniques, basées sur un treillis de dimensions multiples, permettent de réduire la complexité de décodage avec un gain de 1.5 dB à 2 dB en terme de RSB pour les images Intra et de 1 dB pour les images de type Inter [71]. Les performances des vidéos H.263 en terme de Peak Signal to Noise Ratio (PSNR), présentées dans [71], montrent le gain significatif apporté par un décodage souple exploitant la redondance résiduelle. Le décodage séquentiel des codes à longueur variable peut aussi être exploité pour détecter la présence d’erreurs dans le flux sans parcourir au décodage complet de la trame. Ainsi, la demande de retransmission peut se faire dès la détection de la première erreur dans la trame. De plus, le décodeur peut demander la retransmission uniquement de la portion erronée du flux. Ces avantages de décodage permettent de réduire à la fois le délai entrainé par les mécanismes de retransmission et la complexité du processus du décodage. 1.4.3 Codage conjoint source-canal : techniques de protection inégale La protection inégale contre les erreurs de transmission à l’aide de codes correcteurs d’erreurs est effectuée conjointement entre les blocs de codage de source et de codage de canal, d’où le terme de codage conjoint source-canal (JSCC 44 ). Une stratégie de codage 44. JSCC : Joint Source and Channel Coding 31 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL conjoint est généralement basée sur un codeur de source hiérarchique, permettant de représenter le flux de sortie en plusieurs couches suivant la contribution de chacune des couches dans la reconstruction de l’information. La scalabilité du codeur de source est alors exploitée par le codeur de canal en protégeant les différentes couches par un code correcteur d’erreur de rendement adapté à l’importance et la sensibilité aux erreurs de chacune des couches. L’enjeu d’un codage conjoint source-canal est de trouver les débits à allouer au codeur de source (RS ) et au codeur de canal (RCh ), permettant d’atteindre les meilleures performances de transmission, sous contrainte que leur somme ne dépasse pas la bande passante du canal, appelée Budget B, soit RS + RCh ≤ B. Ce problème est couramment formulé sous la forme d’un programme d’optimisation composé d’une fonction objectif f et d’une ou de plusieurs contraintes. La fonction objectif f représente la fonction de distorsion totale de l’information reçue entrainée par le codage de source et le canal de transmission (DT = DS +DCh ) , alors que les contraintes limitent l’ensemble des solutions à un ensemble restreint de solutions réalisables. Le programme d’optimisation P représentant le problème de codage conjoint source canal s’écrit sous la forme suivante : P= min DT s.c. RS + RCh ≤ B (1.16) Il existe deux approches pour résoudre ce type de problème, à savoir l’approche expérimentale et l’approche analytique. L’approche expérimentale consiste à effectuer une étude exhaustive en testant toutes les configurations de transmission possibles, puis choisir celle qui offre les meilleures performances. L’approche analytique permet de résoudre le programme d’optimisation 1.16 à l’aide de méthodes d’optimisation mathématiques, telles que la méthode de Lagrange associée ou non aux conditions de Kuhn et Tucker suivant la nature des contraintes [73]. La première étape commune aux solutions analytiques consiste à modéliser la distorsion totale, en fonction des paramètres du codeur de source et du codeur de canal, par une expression mathématique. Une étude théorique détaillée sur la problématique de codage conjoint source-canal ainsi que leur application sur la transmission d’image fixe et de vidéo a été effectuée dans la référence [74]. Dans [75] les auteurs proposent une solution optimale pour la transmission d’un flux vidéo scalable sur un canal binaire symétrique puis un canal BBAG. Le problème formulé prend en compte le codage de source, le codage de canal, le canal de transmission et la hiérarchie du flux vidéo. La combinaison de deux méthodes d’optimisation est adoptée pour minimiser la distorsion totale, exprimée par la somme des distorsions des différentes couches de qualité de la vidéo. Dans [76] le modèle de distorsion totale proposé prend en compte la méthode de robustesse adoptée au niveau du décodeur pour faire face aux pertes d’images de la séquence vidéo reçue. Les auteurs considèrent un codage de vidéo prédictif basé sur l’estimation et la compensation de mouvement. La solution proposée calcule à l’aide de la méthode d’optimisation de Lagrange les rendements du CCE convolutif à appliquer aux différents 32 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL flux vidéo suivant leur importance et l’état du canal de transmission. Les auteurs dans [77] ont proposé une méthode de protection inégale contre les erreurs de transmission basée sur une adaptation fine du rendement du code convolutif à l’importance du flux vidéo H.263. Les rendements du codage de canal appliqués aux différentes classes du flux vidéo sont calculés par un algorithme itératif classique, à savoir l’algorithme de Water Filling. Les résultats sont présentés dans un contexte de transmission par réseaux sans fil et montrent le gain apporté par une stratégie de protection inégale dans le réseau par rapport à une stratégie de protection égale (EEP 45 ). Une erreur de transmission sur un flux vidéo, compressée par un codeur prédictif, entraine la propagation de l’erreur au long des images successives dans un GOP. Afin de diminuer la propagation des erreurs dans le GOP, les auteurs dans [78] ont proposé une protection inégale contre les erreurs suivant la position d’une image dans le GOP. Cette classification part du principe que l’influence de la propagation des erreurs ayant lieu, dans une image P, sur le reste du GOP dépend de la position de cette image dans le GOP. En effet, la distorsion, moyennée sur le GOP due aux erreurs dans l’image P est d’autant plus importante que cette image est proche de l’image I et d’autant plus faible qu’elle se rapproche de l’image I du GOP suivant. La stratégie proposée consiste alors à protéger le flux des images de la vidéo suivant leur position dans le GOP. La répartition non uniforme de la redondance est effectuée à l’aide d’un calcul analytique basé sur une modélisation mathématique du phénomène de propagation des erreurs. En effet, les GOP sont répartis en plusieurs sous-groupes d’images, sur lesquels un turbo-codeur de rendements visant à minimisent la distorsion totale est appliqué sur les différents sous-groupes d’images. La méthode d’optimisation de Lagrange est utilisée pour résoudre le problème d’optimisation. Les résultats sont présentés dans le cadre de la chaı̂ne de transmission UMTS/TDD. Par la suite, ces travaux ont été adaptés dans le cas du codeur Wyner-Ziv [79] pour coder les images Intras, et un codeur prédictif classique est maintenu pour le codage des images prédites. Ces travaux permettent de choisir la taille de GOP qui minimise la distorsion des vidéos reçues. Pour plus de détails sur ces travaux le lecteur peut se référer à [80], [81]. Les auteurs dans [82] proposent un modèle analytique général pour la transmission de vidéo codée par un codeur prédictif sur un canal avec erreurs. La fonction de débitdistorsion du codeur de source est décrite par un modèle analytique constituée de six paramètres. Ces derniers sont fixés expérimentalement suivant le standard de codage et la nature de la vidéo utilisée. La distorsion du canal est décrite par un modèle analytique qui prend en compte à la fois le codeur de canal (codes Reed-Solomon) et la propagation des erreurs de transmission dans le GOP. Des résultats très intéressants montrent l’influence de la taille de GOP sur la qualité des vidéos reçues sur un canal modélisé par une chaı̂ne de Markov à deux états (bon et mauvais), ce qui permet aussi de trouver la taille de GOP qui donne les performances optimales dans différentes conditions de transmission. D’autre part, les performances en terme de débit distorsion des vidéos reçues sont exprimées en 45. EEP : Equal Error Protection 33 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL fonction du rendement du CCE. Cette étude permet ainsi de sélectionner le rendement du CCE qui conduit aux performances optimales du système de transmission. Cependant, l’importance du flux vidéo n’est pas considérée dans ces travaux. Des travaux récents de codage conjoint source canal considérant la transmission du flux vidéo H.264/SVC 46 sur un canal avec perte de paquets ont été proposés dans [83]. La solution présentée utilise la méthode d’optimisation de Lagrange pour calculer, suivant la qualité du canal de transmission, le rendement du code correcteur LDPC 47 à utiliser pour protéger les différentes couches de représentation de la vidéo. Cette solution est adaptée à toutes les représentations hiérarchiques du standard H.264/SVC : temporelle, spatiale et en résolution. De plus, cette solution assure une bonne qualité des vidéos reçues avec une faible complexité comparée aux travaux d’état de l’art. 1.4.4 Exploitation de la diversité La diversité peut être exploitée par une stratégie de transmission afin d’améliorer la qualité de service dans le réseau. La solution la plus simple pour exploiter la diversité consiste à transmettre indépendamment n copies de l’information, ce qui augmente la probabilité de recevoir correctement l’une de ces copies. Il existe dans les réseaux sans fil plusieurs sources de diversité, telles que les diversités temporelle, fréquentielle, polarisation et spatiale liées à un lien radio ainsi que la diversité des routes propre aux réseaux ad hoc. Les diversités temporelle, fréquentielle, polarisation et spatiale sont généralement exploitées pour combattre les évanouissements à faible échelle causés par un canal radio mobile, alors que la diversité des routes permet de faire face à l’instabilité des routes entrainée par la mobilité des terminaux. Dans ce qui suit, nous portons un intérêt particulier aux diversités spatiales et des routes pour la transmission d’un flux vidéo. 1.4.4.1 Diversité spatiale La diversité spatiale est obtenue par un système de transmission multi-antennaire : plusieurs antennes à l’émission et à la réception (MIMO 48 ). Il a été montré dans [84], [85], [86] qu’un système MIMO permet, dans un environnement de transmission riche en multi-trajets, d’améliorer significativement la robustesse (diversité) et/ou le débit (multiplexage) comparé à un système de transmission mono-antennaire : une seule antenne à l’émission et à la réception (SISO 49 ). Un intérêt particulier est porté sur les schémas faisant intervenir les systèmes MIMO pour la transmission de vidéos. Ces travaux peuvent être représentés suivant que le système 46. Codeur H.264/SVC : la version scalable du codeur H.264/AVC, pour plus de détails le lecteur peut se référer à la section 3.2 47. LDPC : Low-Density Parity-Check 48. MIMO : Multiple Input Multiple Output 49. SISO : Single Input Single Output 34 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL MIMO exploite la connaissance de l’information du canal (CSI 50 ) à l’émission (Tx-SCI) et à la réception (Rx-CSI), ou uniquement à la réception. Ces deux systèmes sont respectivement appelés système à boucle fermée (CL-MIMO 51 ) et système à boucle ouverte (OL-MIMO 52 ). 1.4.4.1.a Système MIMO à boucle ouverte Les codes spatio-temporels orthogonaux, initiés par Alamouti [87] pour deux antennes à l’émission et à la réception puis généralisés par Tarokh [88] pour plusieurs antennes à l’émission et à la réception, sont les systèmes les plus adoptés pour la transmission de vidéo sur un canal MIMO. Des schémas de transmission de vidéo sur un système MIMO OFDM avec deux antennes à l’émission et à la réception ont été présentés dans [89] [90]. Ces schémas permettent d’améliorer significativement la qualité des vidéos reçues par rapport à un système SISO. Jubrane et al. ont effectué dans des travaux récents [91] une comparaison entre la transmission de vidéo H.264/SVC sur un canal MIMO exploité par deux codes spatio-temporels orthogonaux, à savoir les codes d’Alamouti pour deux antennes à l’émission et à la réception, et les codes de Tarokh pour quatre antennes à l’émission et une seule antenne à la réception. Les auteurs montrent que les codes d’Alamouti offrent de meilleures performances en terme de débit distorsion, car ces codes permettent un codage à un rendement 53 unitaire, alors que les codes de Tarokh sont caractérisés par un rendement inférieur à un. Cependant, les codes de Tarohk permettent une meilleure flexibilité pour adopter des stratégies UEP en utilisant une modulation d’efficacité spectrale adaptée à l’importance des flux vidéo émis sur les quatre antennes. L’étude théorique sur la transmission de vidéo impliquant la diversité spatiale a été initiée par Laneman et al. dans [92]. Les auteurs effectuent une comparaison entre la transmission de deux schémas de codage sur deux canaux parallèles et indépendants. Le premier schéma adopte un codage conjoint source canal, alors que le second utilise un codage MDC intervenant séparément sur le codage de source et le codage de canal. Des résultats théoriques illustrent les performances de ces deux schémas sur deux canaux de nature différente : un canal introduisant des erreurs (Rayleigh) et un canal à perte de paquets. Ces résultats montrent que le premier schéma de codage conjoint source-canal offre de meilleures performances sur un canal avec erreurs. D’autre part, le codage MDC surpasse les performances du premier schéma dans un contexte de transmission avec perte de paquets. Les auteurs ont alors proposé un nouveau schéma de codage hybride qui regroupe les avantages des deux schémas offrant de bonnes performances de transmission dans ces deux types de canaux. 50. CSI : Channel State Information 51. CL-MIMO : Close Loop MIMO 52. OL-MIMO : Open Loop MIMO 53. Le rendement d’un code MIMO est le nombre de symboles émis sur le nombre de périodes symboles nécessaires pour leur transmission 35 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL Une autre étude théorique a été effectuée dans [93]. Cette étude permet, suivant l’état du canal de transmission, de définir la région optimale entre la robustesse (diversité) et le débit (multiplexage) du canal MIMO dans laquelle les meilleures performances en terme de débit distorsion sont obtenues. Par la suite, les auteurs intègrent une dimension supplémentaire de diversité à travers la transmission des messages d’acquittements (ARQ) en prenant en compte la contrainte de délai pour les applications de vidéo temps réel. La fonction de distorsion considère le codeur de source, le système MIMO à travers les deux variables diversité et multiplexage, l’envoi d’acquittements et le délai. Ainsi, les paramètres des différents blocs considérés qui minimisent la distorsion totale sont obtenus à l’aide d’une méthode d’optimisation mathématique. Cette étude est la première à avoir abordé conjointement ces quatre aspects dans le cadre de la transmission de vidéo sur un canal MIMO. Les performances théoriques d’un système MIMO en terme de diversitémultiplexage utilisées dans ce papier ont été initialement proposées dans [94]. Enfin, dans [95] les auteurs proposent un schéma adaptatif pour la transmission de vidéo sur un canal MIMO. La formule de la distorsion totale étant non convexe, les auteurs utilisent les méthodes d’optimisations géométriques [73] pour transformer le programme d’optimisation en un programme convexe, ce qui permet de trouver la configuration de codage optimale. Les paramètres du codage de source (coefficients de quantification et la taille du GOP) ainsi que la diversité et le multiplexage du système MIMO sont calculés quels que soient le nombre d’antennes et le RSB du canal, tout en considérant la contrainte de délai. On peut constater que les systèmes de transmission de vidéo sur un canal MIMO connaissant l’information du canal uniquement à la réception ne prennent pas en compte le contenu du flux vidéo. Ainsi, sans aucune connaissance a priori sur l’état du canal, la répartition uniforme de la puissance émise sur les différentes antennes est la meilleure configuration de transmission possible. Sachant que le meilleur rendement des codes spatio-temporels est égal à 1 (obtenu par le code d’Alamouti), ces codes entrainent une perte significative de débit. D’autre part, les résultats théoriques permettent de travailler sur la région optimale de diversité-multiplexage, mais en aucun cas ces travaux ne considèrent l’importance et la sensibilité du flux vidéo dans la formulation de la distorsion totale. 1.4.4.1.b Système MIMO à boucle fermée Ces systèmes supposent la connaissance parfaite de l’information du canal au niveau de l’émetteur et du récepteur. Ainsi, la répartition de la puissance sur les différentes antennes peut être effectuée suivant à la fois l’état du canal de transmission et l’importance du flux vidéo. Les auteurs dans [96] proposent une allocation de puissance optimale minimisant la distorsion du flux scalable généré par le codeur MPEG-4. Cette solution décompose le canal MIMO en plusieurs canaux SISO indépendants et parallèles à l’aide 36 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL de la décomposition en valeurs singulières (SVD 54 ) de la matrice du canal MIMO, et suppose la connaissance parfaite à la fois de l’information du canal et de débit distorsion du codeur de source. Un autre schéma de sélection adaptative des sous canaux SISO 55 pour la transmission de flux vidéo H.264/SVC à été proposé dans [97]. Cette solution, basée sur l’information partielle du canal (RSB), affecte chaque flux vidéo suivant son importance au sous canal SISO correspondant. Ce schéma offre une stratégie de protection inégale aux flux vidéo sans aucune redondance ou une stratégie d’allocation de puissance. Une stratégie d’allocation de puissance et une modulation adaptative est introduite dans [98] pour la transmission du flux vidéo H.264/SVC sur un canal MIMO avec deux antennes à l’émission et à la réception. Cette solution a été généralisée par la suite dans [99] à plusieurs antennes à l’émission et à la réception. Les mêmes auteurs ont proposé par la suite dans [100] un nouveau schéma qui combine les travaux dans [97], le précodeur WF et une technique de réallocation de puissance. Cette combinaison permet d’une part une transmission sans erreur du flux vidéo de basse qualité, et d’autre part de transmettre les flux d’amélioration de qualité à travers des modulations de plus haute efficacité spectrale. 1.4.4.2 Diversité de routes Il existe plusieurs protocoles de routage qui permettent de trouver plusieurs routes entre une source et une destination dans les réseaux mobiles ad hoc. Parmi ces protocoles nous citons les protocoles MPOLSR 56 [101] et MDSR 57 qui sont une extension pour plusieurs routes respectivement des protocoles OLSR et DSR. Plusieurs solutions exploitent la diversité des routes dans les réseaux ad hoc pour améliorer la qualité des vidéos reçues à travers différentes stratégies de transmission. Une première étude a été effectuée dans [102] sur trois stratégies qui exploitent la diversité des routes dans les réseaux ad hoc. La première stratégie transmet les images de séquence paire et impaire sur deux routes disjointes. Un acquittement des images Intra perdues permet un rafraichissement du codage par une nouvelle image intra, ce qui permet de limiter la propagation des erreurs dans un GOP. La seconde stratégie repose sur un codage hiérarchique en deux couches du codeur H.263. La couche de basse qualité est transmise sur la route la plus fiable et la couche d’amélioration est transmise sur une autre route disjointe. La réception des acquittements des paquets perdus permet l’étiquetage des routes : bonne ou mauvaise. De plus, la réception des paquets du flux de basse qualité est assurée par un mécanisme de retransmission. Enfin, la dernière stratégie repose sur un codage vidéo par deux descripteurs. Ces deux descripteurs sont transmis sur deux routes disjointes. Ainsi, la réception de l’un des descripteurs permet de construire une vidéo de basse qualité, et la réception des deux descripteurs améliore davantage la qualité de la vidéo reçue. Les résultats obtenus dans un contexte de transmission par réseau ad hoc montrent que les 54. 55. 56. 57. SVD : Single Value Décomposition SISO : Single Input Single Output MPOLSR : Multi-Paths Optimized Link State Routing MDSR : Multipath Dynamic Source Routing 37 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL trois stratégies ont des avantages et des inconvénients. En effet, suivant la fiabilité des routes dans le réseau et le délai autorisé par l’application, ces stratégies sont plus au moins efficaces. D’autres travaux [103], [104], [105] ont été par la suite proposés pour améliorer les performances des trois schémas précédents en agissant sur différents paramètres. Par exemple dans [105], les auteurs proposent une stratégie de transmission multi-points-à-point. Cette stratégie utilise un codage par descripteurs multiples au niveau de plusieurs sources. Différents descripteurs sont alors transmis à partir de différentes sources vers une destination. Cette stratégie augmente la probabilité d’avoir des routes totalement disjointes dans le réseau, ce qui permet d’améliorer la qualité de service par rapport à une stratégie de transmission point-à-point. Une technique de protection inégale contre les pertes de paquets basée sur le nombre de retransmissions simultanées suivant l’importance du flux vidéo a été adoptée dans [106]. Considérant que les retransmission ne sont pas autorisées, la source envoie simultanément plusieurs copies de l’information afin d’augmenter la probabilité de recevoir au moins une copie correctement. Le nombre de copies transmis dépend de l’importance du flux vidéo, ce qui revient à une stratégie de protection inégale basée sur la répétition, adaptée à une transmission temps réel de vidéo. 1.5 Synthèse et conclusion Dans un premier temps, nous avons présenté le contexte de transmission adopté dans cette thèse, à savoir la transmission de vidéo par réseau mobile ad hoc. Nous avons aussi vu qu’il existe des solutions, appelées cross-layer, permettant la communication de deux couches non voisines dans le modèle OSI sans mettre en péril son principe. Par la suite nous avons présenté les différents blocs d’une chaı̂ne de communication classique. Nous nous sommes plus particulièrement focalisés sur le codage de source et le canal de transmission, les deux blocs sur lesquels nous allons intervenir dans le suite de ce manuscrit. Quelques normes de compression d’images fixes et de vidéo ont été aussi évoquées. Dans un second temps, nous avons fait un état de l’art non exhaustif sur les stratégies de transmission de vidéo sur un canal à erreurs et à perte de paquets. Les stratégies de transmission ont été classées en deux classes suivant qu’une stratégie intervient au niveau du codage de source ou conjointement entre le codage de source et le codage de canal. Nous avons par la suite présenté des travaux intégrant ces stratégies dans un contexte de transmission offrant un degré de diversité supplémentaire à la transmission, à savoir la diversité spatiale et le diversité de routes. Les auteurs dans [102] ont effectué une comparaison entre trois schémas, qui exploitent la diversité de routes des réseaux ad hoc via un codage par descripteurs multiples et une technique de retransmission UEP. Les résultats montrent que ces solutions sont plus au moins efficaces suivant : le contexte de transmission (canal à perte de paquets ou à erreurs) et la contrainte de délai des applications temps réel. L’évaluation des performances 38 CHAPITRE 1. STRATÉGIES DE TRANSMISSION MULTIMÉDIA PAR RÉSEAUX SANS FIL de ces schémas a été effectuée sur des plateformes de simulations de réseaux. Cependant, la couche physique implémentée au niveau de ces simulateurs ne prend pas en compte les spécificités liées à un environnement de transmission réaliste. La première partie de notre contribution, présentée dans le chapitre 2, porte sur la proposition d’une nouvelle couche physique réaliste pour évaluer la qualité des liens radio SISO et MIMO dans les réseaux ad hoc. De plus, nous allons montrer l’impact de cette couche physique réaliste sur la transmission temps réel de vidéo H.264/AVC. Les auteurs dans [92] ont fait une comparaison entre une stratégie MDC et une stratégie utilisant un codage de canal pour une transmission sur deux canaux parallèles et indépendants. Nous rappelons que les performances de ces deux stratégies dépendent aussi de la nature du canal de transmission. Dans notre étude, nous nous sommes intéressés à la seconde solution qui utilise un codage de canal. Cependant, dans cette solution ainsi que tous les autres travaux qui considèrent un système MIMO à boucle ouverte ne considèrent pas l’importance du flux vidéo. Nous avons vu aussi que plusieurs schémas considérant le contenu du flux vidéo ont été proposés dans un contexte de transmission MIMO à boucle fermée. Ces solutions présentent aussi plusieurs inconvénients : ils adoptent des stratégies d’allocation de puissance standard, tel que le précodeur WF qui maximise la capacité du canal et ne considère pas vraiment le contenu de la vidéo. De plus, ces solutions adoptent des canaux statistiques, tels que le canal BBAG et un canal de Rayleigh. La deuxième partie de notre contribution, présentée dans les chapitres 3 et 4, consiste à proposer une solution d’allocation de puissance optimale qui considère à la fois un canal de transmission réaliste et le contenu du flux vidéo. 39 Chapitre 2 Couche physique réaliste : impact sur la transmission de vidéo par réseaux mobiles ad hoc Sommaire 2.1 2.2 2.3 2.4 2.5 2.6 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Modèles de la couche physique . . . . . . . . . . . . . . . . . . . 2.2.1 Modèles d’erreur . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.2 Modèles de propagation . . . . . . . . . . . . . . . . . . . . . . . . 2.2.3 Inconvénients et limites . . . . . . . . . . . . . . . . . . . . . . . . Couche physique réaliste . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Modélisation du canal radio . . . . . . . . . . . . . . . . . . . . . . 2.3.2 Modèle d’erreur suivant la norme IEEE 802.11 . . . . . . . . . . 2.3.3 Implémentation et validation des couches physiques IEEE 802.11 Contexte de simulation . . . . . . . . . . . . . . . . . . . . . . . . 2.4.1 Scénario de la simulation . . . . . . . . . . . . . . . . . . . . . . . . 2.4.2 Métriques d’évaluations . . . . . . . . . . . . . . . . . . . . . . . . Résultats et discussions . . . . . . . . . . . . . . . . . . . . . . . . 2.5.1 Étude de la couche physique réaliste . . . . . . . . . . . . . . . . . 2.5.2 Impact sur la transmission de vidéo . . . . . . . . . . . . . . . . . Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 42 43 44 45 46 47 51 52 55 55 57 57 57 61 68 41 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC 2.1 Introduction Les solutions proposées pour améliorer la qualité de service dans les réseaux informatiques sont évaluées et validées sur des plateformes de simulation de réseaux avant leur intégration sur les normes et les systèmes de transmission réelles. Dans le cadre d’une transmission temps réel de vidéos par réseaux mobiles ad hoc, de nombreux schémas ont été proposés afin d’assurer et de maintenir la meilleure qualité de service possible, tout en prenant en compte les contraintes liées à ce type d’applications [102]-[106]. Les performances de ces schémas sont évaluées sur des plateformes de simulation de réseaux, telles que NS-2 1 [107], GTNetS 2 [108] ou encore GloMoSim 3 [109] . Ces outils modélisent le comportement des protocoles des différentes couches de réseau du modèle OSI, et dans le cas d’un réseau sans fil, ils modélisent la mobilité des terminaux et la propagation de l’onde dans l’environnement de transmission. Cependant, les modèles adoptés pour simuler la couche physique et le canal de transmission sont très loin de représenter respectivement la couche physique des technologies de transmission récentes et la propagation de l’onde dans un environnement de transmission réaliste. Ainsi, l’évaluation des performances des schémas proposés sur ces plateformes de simulation ne tient pas vraiment en compte des conditions réalistes dans lesquelles la transmission évolue, ce qui conduit à une étude de performances limitée et imprécise, qui ne correspond pas aux performances obtenues dans un environnement de transmission réaliste. Dans ce chapitre nous proposons une couche physique qui tient en compte à la fois des spécificités liées à l’environnement de transmission et du système de transmission adopté au niveau de la couche physique des terminaux. Cette couche physique permet d’évaluer la qualité d’un lien radio SISO et MIMO dans le réseau suivant les normes de transmission IEEE 802.11a et IEEE802.11n. Par la suite, nous évaluons l’impact de cette couche physique réaliste sur la transmission de vidéo H.264/AVC à travers des métriques de qualité de service propres à la transmission temps réel de vidéo. Cette étude permet de montrer l’importance de considérer une couche physique réaliste pour évaluer les performances des schémas proposés, notamment son impact sur la qualité visuelle des vidéos reçues par réseau mobile ad hoc. 2.2 Modèles de la couche physique La modélisation de la couche physique dans les simulateurs de réseaux ad hoc se fait à l’aide du critère de Taux de Perte de Paquets (TPP) des liens radios dans le réseau. Le TPP est calculé dans les plateformes de simulation de réseaux par un modèle d’erreur combiné à un modèle de propagation qui lui fournit les informations sur la propagation du signal entre un émetteur et un récepteur. Le schéma bloc de la figure 2.1 illustre le mécanisme adopté dans les simulateurs de réseaux pour évaluer la qualité d’un lien radio 1. NS-2 : Network Simulator 2 2. GTNetS : Georgia Tech Network Simulator 3. GloMoSim : Global Mobile Simulator 42 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC au travers de son TPP. Dans ce qui suit nous présentons les modèles utilisés au niveau de chaque bloc tout en spécifiant leurs avantages, inconvénients et limites. Figure 2.1: Mécanisme d’évaluation de la qualité des liens radios dans les plateformes de simulation de réseaux 2.2.1 Modèles d’erreur Le modèle d’erreur le plus utilisé dans la littérature pour évaluer la qualité d’un lien radio est le modèle tout ou rien. Ce dernier, connu par le modèle UDG 4 [110], est basé sur un simple seuillage de la puissance reçue par rapport au seuil de communication du récepteur. En effet, si la puissance reçue est au dessus du seuil de communication, le TPP est égal à 0 et la communication sur ce lien se fait sans erreur. Dans le cas contraire, le TPP est égal à 1, ainsi tous les paquets transitant sur ce lien seront perdus. On peut constater que la zone de communication d’un terminal calculée par ce modèle peut être représentée par un cercle de rayon R autour du terminal. Le rayon R dépend à la fois du seuil de communication du terminal et du modèle de propagation adopté pour le calcul de la puissance reçue. Une version améliorée de ce modèle définit un seuil supplémentaire de puissance plus faible que celle du seuil de communication, à savoir le seuil de détection. Le récepteur positionné dans la zone entre les seuils de communication et de détection est susceptible de recevoir une activité sur le canal, mais tous les paquets reçus de l’émetteur seront erronés et supprimés au niveau de la couche MAC. La figure 2.2 illustre les zones de communication et de détection obtenues par ces deux modèles. Il existe d’autres modèles d’erreurs appelées modèles à pertes. Ces derniers sont plus précis que les modèles précédents puisqu’à partir de la puissance reçue, ils déterminent la valeur exacte de TPP du lien radio. Dans [111] les auteurs utilisent les abaques de TEB 4. UDG : Unit Disk Graph 43 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC Figure 2.2: Modèle d’erreur UDG (modèle de base à gauche et le modèle amélioré à droite) de la norme IEEE 802.11b sur un canal Gaussien pour déterminer la valeur du TEB qui correspond à la puissance reçue entre l’émetteur et le récepteur. Le TPP est par la suite calculé à partir du TEB et de la taille des paquets transmis n à l’aide la formule suivante T P P = 1 − (1 − T EB) . n 2.2.2 (2.1) Modèles de propagation Les modèles de propagation qui sont généralement adoptés dans les simulateurs de réseaux pour évaluer la qualité d’un lien radio modélisent uniquement les variations à grande échelle du canal radio mobile. En effet, les trois modèles d’atténuation à grande échelle présentés dans le chapitre 1 (➜1.3.3.3), à savoir les modèles en espace libre, à deux rayons et à exposant sont les plus utilisés pour modéliser la propagation de l’onde dans l’environnement. Ces modèles ont l’avantage d’être très simples et permettent en conséquence un calcul très rapide de la puissance reçue. La puissance reçue calculée par le modèle à deux rayons ne dépend que de la distance entre l’émetteur et le récepteur. En plus de la distance, le modèle en espace libre prend en compte la fréquence de la porteuse. Le modèle à exposant quant à lui considère la densité de l’environnement à travers la composante β. Cette dernière est fixée empiriquement selon l’environnement de propagation. Dans nos travaux, on considère deux valeurs de la composante β (2,5 et 2,7) dans l’intervalle des valeurs spécifiées pour un environnement urbain [2, 5, 6] [31]. Ces deux valeurs ont été aussi utilisées dans [111] pour modéliser un environnement urbain tel que le centre ville de Munich. La figure 2.3 illustre l’atténuation calculée par ces trois modèles de propagation en fonction de la distance à une fréquence de 5 Ghz. On constate que l’atténuation en dB diminue linéairement avec la distance entre l’émetteur et le récepteur. Les courbes de la figures 2.3 montrent que le modèle en espace libre est très pessimiste pour les faibles distances, contrairement au modèle à deux rayons qui est optimiste. Le comportement de ces deux modèles est inversé à partir de la distance dc pour laquelle les deux modèles sont 44 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC équivalents. La distance dc est donnée par la formule suivante dc = 4πht hr /λ. (2.2) Pour le modèle à exposant, l’atténuation est plus faible que celle calculée par les modèles en espace libre et à deux rayons, et la pente de la courbe d’atténuation augmente avec la valeur de la composante β. Figure 2.3: Atténuation des modèles de propagation à grande échelle à 5 GHz 2.2.3 Inconvénients et limites La couche physique basée sur les modèles de propagation à grande échelle et les modèles d’erreurs tout ou rien et à pertes souffrent de plusieurs inconvénients. D’une part, les modèles de propagation utilisés ne considèrent pas les propriétés géographiques et électriques de l’environnement de transmission. En effet, la puissance reçue calculée par ces modèles ne dépend que de la distance entre l’émetteur et le récepteur, voire d’une caractéristique statistique de la densité de l’environnement, alors qu’en réalité le signal reçu est la somme des différentes répliques du signal émis causées par le phénomène de multi-trajets. De plus, la puissance calculée par les modèles à grande échelle à une distance donnée est la même dans toutes les directions de l’émetteur, alors qu’en réalité la puissance reçue dépend de la position de l’émetteur et du récepteur par rapport aux différents obstacles dans l’environnement. La figure 2.4 illustre la propagation du signal par un modèle à grande échelle et un modèle à tracé de rayons à une fréquence de 5 Ghz. On peut constater que la propagation de la puissance pour le modèle en espace libre est uniformément répartie dans toutes les directions du terminal. Cependant, pour le modèle à tracé de rayons, qui considère la propagation par multi-trajets, l’atténuation dépend 45 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC principalement de la position des obstacles dans l’environnement par rapport au terminal. Afin de faire face aux inconvénients des modèles de propagation à grande échelle, Stepanov et all. ont proposé dans [111] une couche physique réaliste basée sur un modèle à tracé de rayons. (a) Modèle en espace libre (b) Modèle déterministe à tracé de rayons Figure 2.4: Propagation radio via des modèles déterministes D’autre part, les modèles d’erreurs adoptés se basent uniquement sur la puissance reçue pour évaluer la qualité d’un lien radio. Le modèle tout ou rien par exemple ne prend pas en compte le système de transmission utilisé au niveau de la couche physique, alors que ce dernier à un grand impact sur la qualité des liens radio. Les modèles à pertes quant à eux considèrent le système de transmission au travers des abaques de TEB sur un canal BBAG. La couche physique réaliste adoptée dans [111] utilisent des abaques de la norme IEEE 802.11b sur un canal BBAG pour évaluer le TPP correspondant à une puissance de réception donnée. Cependant, ces modèles ne considèrent pas les dégradations causées par un canal radio mobile : la sélectivité temporelle, la sélectivité fréquentielle et les différentes sources de bruit environnemental. De plus, la puissance reçue ne peut à elle seule évaluer la qualité d’un lien MIMO, où tel qu’il a été montré dans [112], la description de l’environnement et la corrélation entre les antennes ont un impact important sur la qualité d’un lien MIMO. 2.3 Couche physique réaliste Dans cette section nous allons présenter la couche physique développée dans nos travaux, dont l’objet est de prendre en compte le comportement d’un canal radio mobile. 46 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC Nous utilisons un modèle de propagation à tracé de rayons pour modéliser la propagation de l’onde électromagnétique dans l’environnement. La mobilité des utilisateurs est modélisée par un modèle de canal statistique. Ainsi, la combinaison de ces deux modèles permet de modéliser la sélectivité fréquentielle du canal due au phénomène de propagation multi-trajets, et la sélectivité temporelle causée par la mobilité des utilisateurs dans l’environnement. L’intégration de notre couche physique dans la plateforme de simulation NS-2 ainsi que d’autres méthodes adoptées pour diminuer le temps de calcul seront évoquées dans cette section. 2.3.1 Modélisation du canal radio Afin de modéliser la propagation de l’onde dans l’environnement, nous utilisons un modèle de propagation déterministe basé sur la méthode à tracé de rayons (➜1.3.3.3.a). Ce modèle de propagation a été totalement développé au laboratoire XLIM-SIC de l’Université de Poitiers [113]. Cet outil prend en entrée l’environnement de simulation, les positions de l’émetteur et du récepteur dans l’environnement, la fréquence de la porteuse et le nombre d’interactions électromagnétiques maximum à prendre en compte par le simulateur. En sortie, il fournit la RI complexe du couple émetteur-récepteur. Ce modèle de propagation permet aussi le calcul de la zone de couverture d’un terminal positionné dans l’environnement. Cet outil intègre toutes les spécificités (géométrique et électrique) liées à l’environnement, et modélise toutes les variations d’un canal radio mobile : variations à petite, à moyenne et à grande échelle. Le synoptique du simulateur est illustré par la Figure 2.5. Figure 2.5: Synoptique du simulateur de canal à tracé de rayons 3D [113] La RI calculée par ce dernier donne l’information sur la phase, l’amplitude et le retard de chaque trajet existant entre l’émetteur et le récepteur. La figure 2.6 représente l’interface du logiciel sur laquelle le phénomène de propagation par multi-trajets est illustré entre un émetteur et un récepteur positionnés dans un environnement urbain. 47 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC Figure 2.6: Illustration du phénomène de multi-trajets calculé par le logiciel de propagation 2.3.1.1 Pré-traitement Une étape de pré-traitement est effectuée sur la RI suivant les paramètres du standard de transmission considéré : la sensibilité du récepteur, la bande passante et le temps symbole. La première étape de pré-traitement consiste à supprimer tous les trajets non significatifs de puissance inférieure à la puissance de bruit. Cette dernière est calculée à partir du seuil de sensibilité du récepteur spécifié dans la norme. Par la suite, les trajets résiduels seront ordonnés suivant leur temps d’arrivée, puis on soustrait à tous les trajets le temps d’arrivée du premier trajet afin d’exprimer le temps d’arrivée des trajets par leur retard par rapport au temps d’arrivée du premier trajet. La dernière étape consiste à échantillonner la RI triée par un temps d’échantillonnage égale au temps symbole (Ts ) de la norme (inverse de la bande passante). En effet, tous les trajets dont le retard est dans un intervalle de temps [iTs , (i + 1)Ts ] constitueront un seul trajet i représenté par la somme complexe des trajets arrivant dans cet intervalle. Les trajets regroupés en un seul trajet correspondent à un groupe de composants multi-trajets non résolvables par le système de réception. Le coefficient complexe, le retard et la phase correspondant au trajet i sont respectivement notés par c̃i , τi et ϕi . 48 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC 2.3.1.2 Sélectivités fréquentielle et temporelle du canal La sélectivité fréquentielle du canal est modélisée par le modèle Ligne à Retard (LAR) [34]. En effet, sous certaines hypothèses liées au canal de transmission, telles que la stationnarité au sens large (WSS 5 ) et le fait que les éléments dispersifs de l’environnement sont non corrélés US 6 [114], la sélectivité fréquentielle peut être modélisée par une LAR où les coefficients qui multiplient chaque trajet varient en fonction du temps. Considérer le canal comme WSS signifie que la fonction d’auto-corrélation du canal ne dépend pas du temps mais uniquement de la différence ∆t. D’autre part, la propriété d’un canal US implique que les contributions des trajets de retards différents sont non corrélées. Ces deux hypothèses sont généralement vérifiées dans un environnement urbain riche en multi-trajets. La RI du canal s’écrit alors dans ce cas sous la forme suivante : h(t, τ ) = ∑ c̃i (t)δ(τ − τi ) N (2.3) i=1 où : N est le nombre de trajets de la RI après l’étape de pré-traitement ; c̃i (t) représente le coefficient complexe qui multiplie le trajet i ; et τi le retard du ieme trajet. Afin que l’évaluation de la qualité du lien radio soit représentative, le TEB correspondant doit être calculé sur au moins un million de coefficients de canal. Sachant que la durée d’un symbole dans les normes IEEE 802.11a et IEEE 802.11n est égale à 0, 05 µs, un million de coefficients de canal correspond à une durée de transmission de 0,05 seconde. D’autre part, le logiciel de propagation nécessitant environ 10 secondes pour effectuer un calcul de RI. Pour des raisons de temps de calcul, il est impossible d’envisager de lancer le logiciel un million de fois pour caractériser une seule configuration de canal dans le réseau. Afin de modéliser les variations à petite échelle du canal radio, nous faisons alors appel aux modèles statistiques moins complexes, représentés dans le chapitre d’état de l’art (➜1.3.3.3.b) : les modèles de Rice et de Rayeigh pour évaluer respectivement une configuration de transmission LOS et NLOS. En effet, pour chaque groupe de trajets non résolvables réduit par l’étape d’échantillonnage à un seul trajet, on génère indépendamment un million de coefficients de canal à l’aide de la distribution statistique correspondante. La variation temporelle du canal liée à la mobilité de l’émetteur et du récepteur est prise en compte par la Densité Spectrale de Puissance (DSP) de Jakes, qui est un modèle de spectre Doppler souvent utilisé en pratique. Cependant, ce modèle est valide que sous certaines hypothèses que l’on considère vérifiées : – L’antenne d’émission est omnidirectionnelle. – Les angles d’arrivée des trajets sont uniformément distribués sur l’intervalle [−π, π]. – La propagation de l’onde se fait dans le plan horizontal. 5. WSS : Wide Sense Stationnarity 6. US : Uncorrelated Scattering 49 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC La DSP de Jakes s’écrit sous la forme suivante [34] : ⎧ 2σ 2 ⎪ ⎪ πfDmax √1−(f /fDmax ) , ∣f ∣ ≤ fDmax S(f ) = ⎨ ⎪ ⎪ ∣f ∣ > fDmax ⎩0, (2.4) avec fDmax le décalage Doppler maximum qui est exprimé en fonction de la vitesse de déplacement de l’émetteur et/ou du récepteur v, la célérité c et la fréquence de la porteuse fc par l’expression suivante : v fDmax = fc . (2.5) c La méthode utilisée dans nos travaux pour générer les coefficients du canal, et couramment rencontrée en pratique est appelée la méthode du filtre [34] . Nous générons tout d’abord des échantillons complexes αi (t) suivant la distribution de Rayleigh ou de Rice suivant la présence ou non d’un trajet direct. Ces échantillons sont par la suite filtrés pour tenir en compte de l’effet Doppler. Les réponses impulsionnelles des filtres s’obtiennent en prenant la transformée de Fourrier inverse de la racine carrée de la DSP représentant le spectre Doppler, le spectre de Jakes dans notre étude. Chaque séquence de symboles canal αi (t) est multipliée par le coefficient calculé par le logiciel de propagation c̃i correspondant pour prendre en compte les évanouissements à large et à moyenne échelle. Le résultat constitue les coefficients du canal de transmission h(t, τ ). La figure 2.7 illustre le schéma LAR pour générer la sélectivité fréquentielle du canal suivant une norme de transmission avec une prise en compte d’un canal réaliste. Figure 2.7: Modélisation d’un canal sélectif en fréquence : modèle LAR [34] 2.3.1.3 Bruit du canal radio mobile Le bruit lié à l’environnement et aux composantes électroniques des systèmes de transmission provient généralement d’un grand nombre de sources indépendantes et identiquement distribuées. En conséquence, suivant le théorème central limite, l’ensemble de ces perturbations peut être modélisé par une variable aléatoire Gaussienne de moyenne nulle. Ainsi, le canal à BBAG de moyenne nulle est généralement utilisé pour modéliser ce type 50 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC de bruit. Dès lors, le canal radio mobile qui tient compte des sélectivités temporelle et fréquentielle ainsi que du bruit lié aux différentes sources de perturbations s’écrit de la forme suivante : y(t) = x(t) ∗ h(t, τ ) + n(t) (2.6) où x(t) et y(t) représente respectivement les symboles d’entrée et de sortie du canal, h(t, τ ) la RI du canal, n le canal BBAG et ∗ le produit de convolution. 2.3.2 Modèle d’erreur suivant la norme IEEE 802.11 2.3.2.1 Configuration SISO Afin de caractériser la qualité d’un lien radio suivant la norme IEEE 802.11a via son TEB et son TPP, nous avons implémenté les différents blocs de cette norme. Le train binaire issu de la source est traité par les différents blocs de la chaı̂ne de transmission. Tout d’abord, les bits émis sont codés par un CCE convolutif de rendement variable défini dans la norme suivant le débit de la transmission. Afin d’éviter l’utilisation de plusieurs codeurs/décodeurs pour un codage à différents rendements, la norme adopte la notion de poinçonnage. Cette opération consiste à partir d’un codage convolutif à faible rendement, d’éliminer des bits en sortie du codeur suivant un schéma matriciel déterminé. Le nombre de bits non transmis dépend du rendement spécifié par la norme pour chaque débit. Un entrelaceur est utilisé pour répartir les erreurs par paquets générées par un canal radio mobile. Cela permet d’améliorer les performances des CCE convolutifs sur un canal radio, qui sont plus adaptés aux configurations d’erreurs dispersées. La modulation numérique M-QAM est ensuite utilisée pour adapter les bits émis au support de transmission radio. L’efficacité spectrale de la modulation est aussi fixée par la norme suivant le débit considéré pour la transmission. Dans l’objet de faire face aux variations temporelles du canal radio mobile, une séquence d’apprentissage et des pilotes sont insérés à des positions connues dans la trame. Ces deux informations sont exploitées par le récepteur pour estimer respectivement le canal de transmission et ses variations dans le temps. Enfin, les symboles seront modulés par la modulation OFDM afin de faire face à la sélectivité fréquentielle du canal radio mobile, ce qui permet d’éliminer l’interférence entre symboles causée par le phénomène de multi-trajets. La figure 2.8 illustre les différents blocs de la chaı̂ne de transmission IEEE 802.11a. Pour plus de détails sur cette la norme le lecteur peut se référer à [119]. 2.3.2.2 Configuration MIMO La spécification IEEE 802.11n adopte les systèmes MIMO pour augmenter le débit et/ou la robustesse des liens radios dans le réseau. Le système de codage V-BLAST est intégré dans la norme permettant d’atteindre un débit de 140 Mb/s au lieu de 54 Mb/s de la norme IEEE 802.11a. D’autre part, la diversité spatiale peut être exploitée pour la diversité (robustesse) afin de faire face aux évanouissements des canaux radio mobiles. En effet, les codes patio-temporels d’Alamouti pour deux antennes à l’émission et deux 51 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC Figure 2.8: Couche physique réaliste SISO suivant la norme IEEE 802.11a antennes à la réception sont intégrés aux niveau de la norme IEEE 802.11n pour faire face aux évanouissements rapides du canal radio et améliorer son TEB. Rappelons que les codes d’Alamouti nécessitent l’information sur le canal uniquement au niveau de récepteur (RxCSI) et permettent d’atteindre la diversité maximale de 2 pour un rendement de codage unitaire. Le codeur d’Alamouti consiste en une opération de modulation d’un bloc de symboles à la fois dans le temps et dans l’espace, créant ainsi des séquences orthogonales transmises par deux antennes différentes. La structure du code d’Alamouti est donnée par la matrice suivante : 1 x −x∗2 C=√ ( 1 (2.7) ∗ ) 2 x2 x1 avec x1 et x2 deux symboles à transmettre et les colonnes et les lignes de la matrice représentent respectivement le temps et les antennes. Ce code a la particularité d’être orthogonal, soit : CC ∗ = C ∗ C = (∣x1 ∣2 + ∣x2 ∣2 )I2 (2.8) où I2 une matrice d’identité de taille 2 × 2. On constate que chaque bloc constitué de deux symboles est codé à la fois dans le temps et dans l’espace, d’où le nom des codes spatio-temporels en blocs. Généralement un récepteur basé sur le critère de MV est utilisé pour détecter les symboles à la réception. La figure 2.9 illustre le schéma en blocs de la chaı̂ne de transmission suivant la norme IEEE 802.11n. On retrouve les mêmes blocs de la chaı̂ne de transmission IEEE 802.11a avec une dimension spatiale supplémentaire exploitée par les codes spatio-temporels d’Alamouti. Ainsi, calculer le TEB et le TPP en considérant cette chaı̂ne de transmission, revient à caractériser la qualité d’un lien radio MIMO suivant la norme IEEE 802.11n. 2.3.3 Implémentation et validation des couches physiques IEEE 802.11 Les deux couches physiques ont été totalement implémentées par le langage de programmation C + + et la bibliothèque IT P P [121], qui fournit toutes les fonctions de 52 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC Figure 2.9: Couche physique réaliste MIMO suivant la norme IEEE 802.11n traitement de signal nécessaires. Nous avons aussi développé d’autres programmes qui permettent l’exploitation et le traitement des RI du canal calculées par le logiciel de propagation. Notons que ces couches physiques peuvent être intégrée comme ToolBox indépendante dans n’importe quelle plateforme de simulation de réseaux sans fil. En entrée, ces deux couches physiques nécessitent l’information sur la topologie de la scène de simulation, les positions de l’émetteur et du récepteur dans la scène, le débit de transmission et la vitesse moyenne de déplacement du couple émetteur-récepteur. Les deux couches physiques fournissent en sortie toute l’information caractérisant la qualité d’un lien radio mobile, à savoir la puissance reçue, le TEB et le TPP. Cette information est remontrée à la couche MAC où les trames erronées sont supprimées ou remontrées aux couches d’abstractions supérieures suivant la valeur du TPP du lien. La décision de la perte ou bien la réception sans erreur d’une trame est effectuée à l’aide d’une variable aléatoire U , dont les réalisations u prennent des valeurs dans l’intervalle [0, 1] suivant une loi uniforme. Pour chaque trame reçue, une réalisation u de la variable aléatoire U est générée. Si u est supérieure au TPP du lien, la trame est supposée reçue correctement, et sera remontée vers les couches supérieures de la pile OSI. Dans le cas contraire, la trame est considérée comme reçue avec erreurs et sera supprimée au niveau la couche MAC. Les RI et les trois paramètres (TEB, TPP, puissance reçue) caractérisant la qualité d’un couple émetteur-récepteur dans le réseau sont enregistrés dans deux fichiers appelés : cache des RI et cache des TEB. Chaque couple émetteur-récepteur est identifié dans ces caches par leurs cordonnées dans la scène. Ainsi, les informations de la couche physique réaliste correspondantes à une position émetteur-récepteur sont calculées une seule fois. Ces informations sont par la suite directement lues à partir des caches RI et TEB. 53 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC Lors de l’évaluation des performances des couches physiques réalistes SISO et MIMO, nous avons constaté deux cas de figure suivant que le retard maximum de la RI du canal (τmax ) est supérieur ou inférieur au temps de garde (TG ) de la modulation OFDM. Rappelons que le TG est le temps d’une séquence de symboles insérée entre deux symboles OFDM pour faire face aux interférences entre symboles causées par le phénomène de multi-trajets. Le temps de garde dans les normes IEEE 802.11a et IEEE 802.11n est égal à 0, 8 µs. Afin d’illustrer les performances de ces couches physiques dans ces deux configurations de canal, nous avons tracé dans la figure 2.10 le TEB des deux couches physiques en fonction de RSB pour ces deux configurations de canal. La première configuration de canal est caractérisée par un τmax = 0, 5 µs < TG et la seconde par τmax = 1, 2 µs > TG . Nous avons fixé le débit à 6 Mb/s la vitesse du déplacement à 2 m/s et la norme IEEE 802.11n utilise un canal MIMO (2 × 2). On peut constater que lorsque τmax > TG , la courbe de TEB de la couche physique IEEE 802.11a sature à un TEB de 0,02 quelle que soit la valeur du RSB. Ce phénomène de saturation est entrainé par l’interférence entre les symboles OFDM. On peut remarquer aussi que la couche physique IEEE 802.11n permet non seulement d’améliorer le TEB par rapport à une configuration SISO, mais permet aussi d’éliminer l’effet de saturation constaté dans la configuration SISO. Ces deux cas de figure montrent clairement l’importance de considérer la sélectivité fréquentielle du canal dans l’évaluation de la qualité d’un lien radio mobile, qui, tel que illustré sur la figure 2.10, dépend directement du retard maximum du canal. Figure 2.10: Performances des normes IEEE 802.11a et IEEE 802.11n sur un canal réaliste sélectif en fréquence 54 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC 2.4 2.4.1 Contexte de simulation Scénario de la simulation Les simulations sont effectuées sous la plateforme de simulation de réseaux NS-2, où nous avons intégré les deux couches physiques réalistes SISO et MIMO. Le choix de NS-2 parmi les autres plateformes de simulation de réseaux est expliqué par son code source libre et sa popularité dans l’évaluation des performances des schémas proposés pour la transmission de vidéo. Les terminaux sont aléatoirement positionnés dans l’environnement de simulation, qui est dans notre étude le centre ville de Munich. La figure 2.11 illustre l’environnement de simulation, où les blocs en rouge représentent les différents obstacles de l’environnement, et les points numérotés de 0 à 99 représentent les terminaux mobiles. Nous considérons dans notre étude quatre configurations de réseaux suivant le nombre de noeuds : 40, 60, 80 et 100 noeuds. Ces terminaux restent fixes pendant toute la durée de la simulation. Nous transmettons un flux vidéo dans ces réseaux mobiles ad hoc en utilisant quatre couches physiques différentes. La première est basée sur une combinaison de deux modèles de propagations, à savoir le modèle en espace libre et le modèle à deux rayons. Lorsque la distance entre l’émetteur et le récepteur d est inférieure à la distance de référence dc (voir ➜2.2.2), calculée par la formule (2.1), nous utilisons le modèle de propagation en espace libre, dans le cas inverse nous utilisons le modèle à deux-rayons. La seconde couche physique utilise le modèle de propagation à exposant. Ces deux couches physiques natives à NS-2 adoptent le modèle d’erreur tout ou rien avec deux seuils pour calculer le TPP. Les couches physiques réalistes SISO et MIMO présentées dans ce chapitre représentent les deux autres couches physiques. Les paramètres utilisés au niveau des couches application, réseau et physique sont décris ci-après : 2.4.1.1 Couche application Au niveau de la couche application nous considérons la séquence vidéo Foreman de résolution temporelle de 30 images/s et de résolution spatiale QCIF (144 × 176) pixels/image. Les 300 images de la séquence vidéo sont codées par le codeur H.264/AVC en utilisant le profile étendu, qui intègre toutes les méthodes de robustesses aux erreurs de transmission et aux pertes de paquets. La taille du GOP est fixée à 16 images et le PSNR moyen de la composante luminance de la vidéo avant sa transmission est égal à 36, 61 dB. Afin d’augmenter la robustesse de la vidéo transmise, chaque image de la vidéo est codée en plusieurs parties, appelées slice, de taille fixe (100 octets) indépendamment décodables. Les différents slices d’une image sont transmis indépendamment. Ainsi, la perte d’un paquet n’entraine pas la perte totale de l’image mais uniquement une partie de l’image. 55 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC Figure 2.11: Positionnement des terminaux dans la scène de simulation : centre de Munich 2.4.1.2 Couche réseau Afin d’assurer l’acheminement des paquets du flux vidéo entre une source et une destination dans le réseau, nous utilisons le protocole de routage réactif AODV. Ce dernier permet de trouver les routes d’une communication point-à-point à travers des liens directs, dont la qualité est caractérisée par les quatre couches physiques considérées dans notre étude. 2.4.1.3 Couche physique Les paramètres de transmission de la couche physique (puissance d’émission, paramètres de la modulation OFDM, sensibilité du récepteur) sont fixés suivant la norme IEEE 802.11a. Ces paramètres restent les mêmes dans la norme IEEE 802.11n à la différence que nous utilisons un canal MIMO (2 × 2) pour deux antennes à l’émission et à la réception, en privilégiant la robustesse par un codage d’Alamouti. L’espace entre les antennes est fixé à 0, 4λ, avec λ la longueur d’onde. Cet espacement entraine généralement la plus faible corrélation entre les antennes [112]. Pour le modèle de propagation à exposant, le paramètre β prend deux valeurs 2.5 et 2.7, qui correspondent à un environnement urbain dense, tel que le centre ville de Mu- 56 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC nich. Nous considérons trois débits de transmission au niveau de la couche physique : 6, 24 et 54 Mb/s. Pour les couches physiques basées sur le modèle d’erreurs tout ou rien, le seuil de communication est fixé suivant les seuils de sensibilité définis dans la norme IEEE 802.11a pour les trois débits. Pour les couches physiques réalistes, le débit de la transmission permet de configurer les paramètres de la couche physique des normes IEEE 802.11a et IEEE 802.11n, notamment le rendement du CCE et l’efficacité spectrale de la modulation numérique. 2.4.2 Métriques d’évaluations Nous utilisons les quatre métriques généralement adoptées pour évaluer la qualité de service des applications de transmission temps réel de vidéo : – Le PSNR moyen de la vidéo reçue : il représente la moyenne des PSNR (composante luminance) des images de la séquence vidéo reçue. Ce paramètre permet d’évaluer la qualité visuelle des vidéos reçues par un critère objectif. Dans la suite de ce chapitre, nous considérons une vidéo reçue, une vidéo totalement décodée par le décodeur H.264/AVC (quelle que soit sa qualité visuelle). – Le pourcentage de vidéos reçues : ce paramètre représente le rapport entre le nombre de vidéos reçues et le nombre de vidéos transmises dans le réseau. – Le nombre moyen de sauts : ce paramètre donne une indication sur le nombre de sauts moyen emprunté par les paquets vidéo pour atteindre leur destination. – Le temps moyen de transmission : ce paramètre représente le temps moyen de recherche de la route par le protocole de routage plus le temps moyen nécessaire pour délivrer les paquets vidéo. Les résultats représentés ci-après représentent une moyenne sur 200 simulations. 2.5 2.5.1 Résultats et discussions Étude de la couche physique réaliste Avant d’évaluer l’impact de notre couche physique réaliste sur la transmission de vidéo H.264/AVC, nous allons dans un premier temps analyser son comportement dans le centre ville de Munich. La répartition des valeurs de TEB des liens radio entre 40 noeuds positionnés dans le centre de ville de Munich est donnée dans le tableau 2.1. Nous répartissons les liens radio suivant leurs valeurs de TEB en trois différentes classes. La première classe regroupe les liens radio de TEB nul. Les liens radio appartenant à cette classe permettent une transmission sans perte de trames entre l’émetteur et le récepteur. Les liens de valeurs de TEB dans l’intervalle ]0, 1e−3 ] constituent la seconde classe et permettent une communication plus au moins dégradée suivant la valeur de TEB du lien. La troisième classe regroupe les liens radio de valeurs de TEB supérieures à 1e−3 . Ces liens ne sont pas fiables, ainsi la majorité des trames transitant sur ces liens comportent 57 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC des erreurs et seront supprimées au niveau de la couche MAC du récepteur. Configurations de la couche physique T EB = 0 0 < T EB ≤ 1e−3 T EB > 1e−3 6 M b/s SISO MIMO 35, 26 % 80, 53 % 3, 86 % 5, 59 % 60, 86 % 13, 86 % 24 M b/s SISO MIMO 9, 17 % 58, 63 % 8, 21 % 6, 81 % 82, 6 % 34, 54 % 54 M b/s SISO MIMO 0% 31, 14 % 0, 24 % 6, 56 % 99, 75 % 62, 28 % Table 2.1: Répartition des valeurs de TEB des liens radio dans le centre ville de Munich A partir du tableau 2.1 on peut constater que les liens appartenant à la première classe sont plus nombreux en adoptant une couche physique MIMO comparée à une configuration SISO. Ceci montre que le canal MIMO (2×2) exploité par un codage d’Alamouti améliore significativement la qualité des liens radio dans le réseau. De plus, ce gain de qualité apporté par le canal MIMO est observé sur tous les débits considérés dans notre couche physique réaliste (6, 24, 54 Mb/s). L’amélioration la plus significative apportée par le canal MIMO est observée à un débit de 24 Mb/s. Les figures 2.12, 2.13 et 2.14 illustrent plus précisément la répartition des liens radio ainsi que leurs valeurs de TEB dans le centre ville de Munich pour respectivement les trois débits considérés dans notre étude. La valeur de TEB de chaque lien est illustrée dans ces figures par la couleur du lien correspondant. Les couleurs bleu et rouge correspondent respectivement aux deux extrémités de l’intervalle des valeurs de TEB : 0 et 0, 5, alors que les couleurs intermédiaires représentent les autres valeurs de TEB dans l’intervalle ]0, 0, 5[. La variation des couleurs sur la palette est représentée suivant une échelle logarithmique. On peut constater que la qualité d’un lien radio ne dépend pas uniquement de la distance entre l’émetteur et le récepteur, mais aussi de leurs positions par rapport aux obstacles dans l’environnement. Le TEB des configurations émetteur-récepteur LOS, c’est à dire des liens comportant un trajet direct, dépend généralement de leur distance. De plus, lorsque l’émetteur et le récepteur sont proches leur TEB est nul pour les deux configurations de la couche physique à un débit de 6 Mb/s. Un exemple de cette configuration est représenté par le lien radio entre les noeuds 18 et 36. Cependant, pour les configurations NLOS (plus fréquentes dans un environnement dense), la valeur de TEB dépend de la position des noeuds par rapport aux obstacles dans l’environnement. Par exemple, la valeur de TEB du lien radio formé par le couple (21, 9) est nul uniquement pour la configuration de la couche physique la plus robuste (MIMO, 6Mb/s). Pour les autres configurations de la couche physique la qualité de ce lien devient très dégradée. On peut constater que la considération d’un environnement réel pour caractériser la couche physique modifie complètement la topologie du réseau. De plus, le débit de la couche physique a un impact important sur la qualité des communications dans le réseau. Cela va donc forcement influencer le choix du protocole de routage dans l’établissement des routes 58 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC dans le réseau entre une source et une destination. Par exemple, sur la figure 2.11 nous illustrons les routes utilisées lors de la communication entre les noeuds 80 et 30 en vert et bleu suivant respectivement la couche physique en espace libre et la couche physique réaliste SISO (lEEE 802.11a). En utilisant une couche physique réaliste, le choix de la route dépend des spécificités de l’environnement : la route est constituée de quatre sauts permettant de contourner les bâtiments. Cependant, pour le modèle en espace libre, la route est constituée d’un seul saut reliant directement la source à la destination. En conséquence, la prise en compte d’une couche physique réaliste permettrait une étude plus appropriée des performances de schémas proposés pour la transmission de vidéo, tel que le codage MDC associé à la diversité des routes dans le réseau pour assurer une transmission indépendante des différents descripteurs de la vidéo. (a) Configuration SISO (b) Configuration MIMO (2 × 2) Figure 2.12: Répartition des valeurs de TEB des liens radio dans Munich à 6 Mb/s 59 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC (a) Configuration SISO (b) Configuration MIMO (2 × 2) Figure 2.13: Répartition des valeurs de TEB des liens radio dans Munich à 24 Mb/s (a) Configuration SISO (b) Configuration MIMO (2 × 2) Figure 2.14: Répartition des valeurs de TEB des liens radio dans Munich à 54 Mb/s 60 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC 2.5.2 Impact sur la transmission de vidéo Dans cette section nous allons évaluer l’impact des quatre couches physiques considérées dans notre étude sur les performances des vidéos reçues. Les résultats sont présentés suivant le débit de la couche physique. 2.5.2.1 Configuration à 6 Mb/s Les figures 2.15(a) 2.15(b) illustrent respectivement le pourcentage de vidéos reçues et leur PSNR moyen en fonction du nombre de noeuds dans le réseau. Ces résultats représentent une moyenne sur 200 couples source-destination choisis aléatoirement parmi les noeuds du réseau. La figure 2.15(a) montre que le pourcentage de vidéos reçues est toujours plus important pour les deux couches physiques de NS-2 (modèles en espace libre et à exposant) que celui des deux couches physiques réalistes. Ce comportement est expliqué par la prise en compte de la couche physique réaliste des obstacles dans l’environnement ainsi que les dégradations d’un canal radio mobile, notamment la sélectivité fréquentielle dans notre cas. D’autre part, l’amélioration de la qualité des liens radio MIMO par rapport à une configuration de couche physique SISO permet non seulement d’augmenter le nombre de vidéos reçues, mais aussi d’améliorer la qualité visuelle de ces vidéos. En effet, on remarque sur la figure 2.15(b) une différence de 1 dB entre les vidéos reçues par des configurations de couche physique réaliste SISO et MIMO. Les figures 2.16(a) 2.16(b) illustrent respectivement le nombre de sauts moyen et le temps moyen nécessaires aux paquets vidéo pour atteindre la destination. On constate que le modèle en espace libre utilise uniquement un seul saut pour atteindre la destination. La puissance reçue calculée par ce modèle est toujours supérieure au seuil de communication du récepteur à 6 Mb/s. De plus, lorsque la source et la destination sont éloignées dans le réseau, une perte de paquets est constatée. Ces pertes sont causées par le temps de propagation qui ralentit considérablement le processus d’accès au canal pour transmettre les paquets vidéo suivants. Ce comportement explique aussi la diminution du pourcentage de vidéos reçues ainsi que la dégradation de leur qualité constatées dans les deux figures précédentes. Pour le modèle à exposant le nombre de sauts moyen augmente avec la composante d’atténuation β, qui passe en moyenne de 2,5 sauts pour β = 2, 5 à 3,5 sauts pour β = 2, 7. Cette augmentation est causée par la réduction de la zone de communication des noeuds, qui est inversement proportionnelle à la composante d’atténuation β. D’autre part, à un débit de 6 Mb/s la configuration MIMO de la couche physique réaliste permet d’acheminer les vidéos de la source vers la destination via moins de sauts comparée à la configuration SISO. Concernant le temps de recherche des routes et d’acheminement des paquets vidéos, il reste très faible pour les deux couches physiques natives de N S − 2. Cependant, ce temps devient très important pour la couche physique réaliste, notamment pour la configuration SISO. Le nombre de routes entre la source et la destination étant réduit en considérant les 61 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC obstacles de l’environnement, le protocole de routage réactif AODV nécessite un temps plus important pour trouver les routes existantes. De plus, la route trouvée n’est pas toujours exploitable, notamment lorsque l’un de ses liens directs a un TEB dégradé. Dans ce cas, le protocole de routage cherche une route alternative plus fiable pour acheminer les paquets vidéo. La figure 2.17 illustre quatre images des vidéos reçues entre les noeuds 44 et 86 (figure 2.11) en utilisant des configurations SISO et MIMO de la couche physique réaliste. La qualité visuelle de ces images montre clairement le gain de qualité apporté par une couche physique MIMO. En effet, la perte de paquets causée par des liens de TEB différents de 0 (plus nombreux pour une configuration SISO) diminue considérablement la qualité de la vidéo reçue sur un canal SISO. 62 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC (a) Pourcentage de vidéos reçues (b) PSNR moyen des vidéos reçues Figure 2.15: Performances de transmission de vidéo H.264/AVC dans Munich à 6 Mb/s (a) Nombre moyen de sauts (b) Temps moyen de transmission Figure 2.16: Performances de transmission de vidéo H.264/AVC dans Munich à 6 Mb/s 63 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC (a) Image 139, PSNR = 26,48 dB (b) Image 139, PSNR = 36,81 dB (c) Image 140, PSNR = 23,06 dB (d) Image 140, PSNR = 36,90 dB (e) Image 141, PSNR = 23,48 dB (f) Image 141, PSNR = 36,94 dB (g) Image 142, PSNR = 23,49 dB (h) Image 142, PSNR = 36,93 dB Figure 2.17: Illustration des vidéos reçues sur des configurations de couche physique réaliste 64 SISO (à gauche) et MIMO (à droite) CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC 2.5.2.2 Configuration à 24 Mb/s Le pourcentage de vidéos reçues ainsi que leur PSNR sont respectivement illustrés à un débit de 24 Mb/s sur les figures 2.18(a) 2.18(b). Dans cette configuration de la couche physique, le modèle en espace libre permet de recevoir toutes les vidéos quel que soit le nombre de noeuds dans le réseau. Les deux modèles à exposant reçoivent moins de vidéos comparé à une configuration de couche physique à 6 Mb/s, car le seuil de communication est plus important à 24 Mb/s ce qui diminue considérablement la zone de couverture des noeuds. La configuration MIMO de la couche physique réaliste permet de recevoir plus de vidéos par rapport à la configuration SISO. De plus, la qualité visuelle de ses vidéos est de meilleure qualité comparée à celle des vidéos reçues par la configuration SISO. On peut alors constater qu’à 24 Mb/s, le nombre de vidéos reçues et leur qualité sont totalement différents suivant le modèle adopté au niveau de la couche physique. Le nombre moyen de sauts et le temps moyen nécessaire pour délivrer les paquets vidéo sont illustrés en fonction du nombre de noeuds sur respectivement les figures 2.19(a) et 2.19(b). Le nombre moyen de sauts pour le modèle en espace libre passe de 1 à 1,4 sauts pour respectivement des débits de 6 Mb/s et de 24 Mb/s. Le nombre moyen de sauts supérieur à 1 pour des couples source-destination éloignés a permis de diminuer le nombre de paquets vidéo perdus par rapport à une configuration de couche physique à 6 Mb/s. Le nombre moyen de sauts augmente aussi considérablement pour les modèles à exposant en dépassant celui des couches physiques réalistes. Cette augmentation du nombre moyen de sauts des modèles à exposant est causée par la diminution de la zone de couverture dans toutes les directions des noeuds. Cependant, pour les couches physiques réalistes, la zone de couverture dépend de la position des noeuds par rapport aux obstacles dans l’environnement. Tel que constaté à un débit de 6 Mb/s, le temps moyen le plus important pour recevoir les paquets vidéo est celui des couches physiques réalistes SISO et MIMO. 65 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC (a) Pourcentage de vidéos reçues (b) PSNR moyen des vidéos reçues Figure 2.18: Performances de transmission de vidéo H.264/AVC dans Munich à 24 Mb/s (a) Nombre moyen de sauts (b) Temps moyen de transmission Figure 2.19: Performances de transmission de vidéo H.264/AVC dans Munich à 24 Mb/s 66 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC 2.5.2.3 Configuration à 54 Mb/s Pour un débit de 54 Mb/s, on illustre uniquement les performances de deux couches physiques : configuration MIMO de la couche physique réaliste et le modèle en espace libre. En adoptant les autres couches physiques aucune vidéo n’est reçue correctement à ce débit. Le figure 2.20(a) illustre le pourcentage de vidéos reçues en fonction du nombre de noeuds à 54 Mb/s. En utilisant le modèle en espace libre, le pourcentage de vidéos reçues est toujours supérieur à 90%. Cependant, uniquement 20% des vidéos transmises sont correctement reçues via la configuration MIMO de la couche physique réaliste. Sur la figure 2.20(b), la qualité des vidéos reçues par la couche physique réaliste sont plus dégradées par rapport aux vidéo reçues via le modèle en espace libre. Un écart de PSNR moyen de 3 dB est constaté entre les vidéos reçues par ces deux couches physiques. Cette perte de PSNR est causée par la perte de paquets vidéo transitant sur des liens de TEB différent de 0. (a) Pourcentage de vidéos reçues (b) PSNR moyen des vidéos reçues Figure 2.20: Performances de transmission de vidéo H.264/AVC dans Munich à 54 Mb/s La figure 2.21(a) illustre le nombre moyen de sauts utilisé par les deux couches physiques (MIMO réaliste et espace libre) pour délivrer les paquets vidéo. Le modèle en espace libre arrive à délivrer toutes les vidéo en utilisant des routes de 3 et 4,5 sauts suivant le nombre de noeuds dans le réseaux. Le nombre moyen de sauts de la couche physique réaliste reste toujours inférieur à celui du modèle en espace libre. Dans de telles conditions de transmission, le nombre de liens successifs de faible TEB reste faible dans le cas d’une couche physique réaliste. Cependant, comme l’illustre la figure 2.21(b), le temps de recherche de routes est plus important dans le cas d’une couche physique réaliste. 67 CHAPITRE 2. COUCHE PHYSIQUE RÉALISTE : IMPACT SUR LA TRANSMISSION DE VIDÉO PAR RÉSEAUX MOBILES AD HOC (a) Nombre moyen de sauts (b) Temps moyen de transmission Figure 2.21: Performances de transmission de vidéo H.264/AVC dans Munich à 54 Mb/s 2.6 Conclusion Dans ce chapitre nous avons proposé une couche physique réaliste SISO et MIMO suivant respectivement les normes de transmission IEEE 802.11a et IEEE 802.11n. Cette couche physique caractérise la qualité d’un lien radio via son TEB. Ainsi, ce critère tient compte de toutes les dégradations d’un canal radio mobile : sélectivités fréquentielle et temporelle ainsi que les différentes sources de bruits. De plus, la corrélation entre les antennes pour une configuration d’un canal MIMO est considérée. En second lieu, nous avons évalué l’impact de quatre couches physiques sur la transmission temps réel du flux vidéo H.264/AVC. Cette étude montre, à travers des critères d’évaluation d’applications de transmission temps réel de vidéo, l’importance de considérer une couche physique réaliste. De plus, un canal MIMO (2×2) exploité par les codes d’Alamouti permet d’améliorer considérablement la qualité de service dans le réseau comparé à un canal SISO. Les résultats de simulation montrent que les performances de transmission de vidéo (nombre et qualité des vidéos reçues, temps de réception) H.264/AVC dépendent principalement de la qualité des liens constituant la route de la source vers la destination. Ainsi, l’optimisation de la qualité de ces liens en fonction des conditions de transmission ainsi que le contenu du flux vidéo permettrait d’améliorer la qualité de la vidéo reçue entre la source et la destination. Dans la suite de ce manuscrit, nous allons dans un premier temps nous intéresser à la transmission de vidéo sur un lien radio direct, c’est-à-dire un seul saut dans le réseau ad hoc. L’objectif de notre démarche est de considérer à la fois le contenu du flux vidéo et la qualité du canal de transmission pour assurer la qualité de service des vidéos reçues quelles que soient les conditions de transmission. 68 Chapitre 3 Adaptation de liens MIMO pour une transmission temps réel d’un flux vidéo H.264/SVC Sommaire 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Codeur de vidéo H.264/SVC . . . . . . . . . . . . . . . . . . . . 3.2.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.2 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.3 Scalabilité temporelle . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.4 Scalabilité spatiale . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.5 Scalabilité en qualité . . . . . . . . . . . . . . . . . . . . . . . . . . Codeur H.264/SVC dans un contexte de transmission . . . . Précodeurs linéaires pour une transmission de vidéos . . . . . 3.4.1 Système MIMO avec précodage . . . . . . . . . . . . . . . . . . . . 3.4.2 Transformation en canal virtuel . . . . . . . . . . . . . . . . . . . 3.4.3 Précodeurs diagonaux . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.4 Précodeurs non-diagonaux . . . . . . . . . . . . . . . . . . . . . . . Schéma de transmission . . . . . . . . . . . . . . . . . . . . . . . . Stratégie de transmission : solution UEP . . . . . . . . . . . . . Contexte de simulation . . . . . . . . . . . . . . . . . . . . . . . . 3.7.1 Couche application . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.2 Couche physique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Résultats et discussions . . . . . . . . . . . . . . . . . . . . . . . . 3.8.1 Canal statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.8.2 Canal réaliste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 71 71 71 72 72 74 74 76 77 78 79 81 83 84 86 86 87 88 89 92 98 69 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC 3.1 Introduction Dans ce chapitre nous allons proposer un nouveau schéma de transmission temps réel de vidéo sur un système de communication MIMO-OFDM. Ce schéma implique le codeur de vidéo H.264/SVC, quatre pré-codeurs linéaires et le canal de transmission MIMO. La transmission est réalisée dans le cadre de la norme de transmission IEEE 802.11n. L’objectif visé par ce schéma est d’assurer la meilleure qualité de service supportée par les conditions de transmission. En effet, l’idée est de garantir une qualité de base (minimum) de la vidéo dans de mauvaises conditions de transmission, et d’atteindre la meilleure qualité de la vidéo dans de meilleures conditions de transmission. D’une part, le codeur de vidéo H.264/SVC [117] permet de réduire la quantité d’information nécessaire pour représenter la vidéo en plusieurs résolutions spatiales, temporelles et en qualités. D’autre part, les précodeurs linéaires exploitent l’information du canal à l’émission et à la réception pour décomposer le canal MIMO en plusieurs sous-canaux SISO (ou voies) parallèles et indépendants associés de faibles valeurs de TEB. De plus, les précodeurs réduisent considérablement la complexité de décodage de Maximum par Vraisemblance (MV). Ainsi, la hiérarchie intrinsèque du codeur H.264/SVC est efficacement exploitée par quatre précodeurs linéaires, appelés Max-RSB [124], WF (Water Filing) [126], QdS (Qualité de Service) [126] et E-dmin (Equal-dmin ) [129], à l’aide d’une stratégie de transmission UEP qui n’introduit aucune redondance. Par la suite nous allons accorder une importance toute particulière au précodeur QdS, qui contrairement aux autres précodeurs, permet une grande flexibilité dans l’allocation de la puissance aux sous-canaux SISO. La question à laquelle nous essayons de répondre dans ce chapitre est la suivante : quels sont les coefficients de précodage QdS, qui considèrent le contenu de la vidéo et le canal de transmission pour offrir la meilleure qualité de service pour la transmission du flux vidéo H.264/SVC. Afin de répondre à cette question, nous avons opté dans un premier temps pour une étude expérimentale. Les résultats de simulation montrent les performances du schéma proposé sur un canal statistique puis sur un canal réaliste. Les performances du schéma proposé dépendent principalement de la précision de l’estimation du canal au niveau de l’émetteur et du récepteur. Dans la norme IEEE 802.11n, le canal est estimé au niveau du récepteur grâce à l’envoi d’une séquence d’apprentissage et de pilotes. Au niveau de l’émetteur, le canal est estimé de la même façon à l’aide d’une voie de retour exploitée par le mode d’accès TDD 1 . Ainsi, une étude sur la robustesse de ce schéma face aux erreurs d’estimation du canal est effectuée suivant la norme IEEE 802.11n à différentes vitesses de mobilité. Ce chapitre est organisé de la façon suivante : Nous allons tout d’abord présenter le standard de codage de vidéo H.264/SVC. Par la suite nous présentons trois schémas de robustesse proposés puis intégrés au niveau du décodeur H.264/SVC pour faire face aux pertes d’images. Dans la section 3, nous évoquons les quatre précodeurs utilisés pour la transmission du flux vidéo. Le schéma de transmission proposé sera présenté dans la 1. TDD : Time Division Duplex 70 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC section 4. Dans la section 5 nous détaillerons l’approche expérimentale adoptée pour paramétrer le précodeur QdS. Le contexte de simulation sera défini dans la section 6. La section 7 sera consacrée à la présentation et l’analyse des résultats. Nous terminons ce chapitre par une conclusion. 3.2 3.2.1 Codeur de vidéo H.264/SVC Motivations L’objectif du chapitre précédent consiste à montrer l’impact d’une couche physique réaliste sur la transmission de vidéo dans les réseaux mobiles ad hoc. Ainsi, aucune prise en compte du contenu n’a été considérée dans la transmission. Il existe plusieurs manières pour hiérarchiser le flux vidéo H.264/AVC, suivant la position des images dans le GOP [80], la nature des données dans le flux (entêtes, vecteurs mouvements, résidus) ou encore le type des images dans le GOP (I, P et B). La prise en compte de ces hiérarchies de représentation du flux vidéo par une stratégie de transmission UEP permet forcement d’améliorer la qualité de la vidéo reçue par rapport à une stratégie de transmission EEP. Cependant, cette hiérarchisation du flux vidéo ne garantit pas une qualité de service à l’utilisateur quelles que soient les conditions de transmission. Par exemple, en recevant uniquement l’information la plus importante de la vidéo, tels que les entêtes et les vecteurs de mouvement ne suffit pas pour décoder la vidéo, car pour assurer une vidéo de qualité de base, une partie des résidus est aussi nécessaire. L’objectif de notre démarche dans ce chapitre est d’assurer à l’utilisateur une qualité de base de la vidéo lorsque les conditions du canal sont très dégradées. Ainsi, nous avons jugé intéressant d’utiliser le codeur vidéo H.264/SVC qui permet la hiérarchisation souhaitée du flux vidéo, c’est-à-dire le premier flux le plus important permet une représentation de la vidéo avec une basse qualité et les autres flux sont exploités pour améliorer la qualité de la vidéo reçue. Dans ce qui suit, nous allons présenter le codeur de vidéo H.264/SVC. 3.2.2 Définition Le codeur de vidéo H.264/SVC [26] [117] est l’extension du codeur H.264/AVC permettant de coder la vidéo en plusieurs niveaux de qualité. Les groupes VCEG et MPEG qui ont standardisé le codeur de base H.264/AVC ont par la suite standardisé sa version scalable H.264/SVC. Les attentes du standard H.264/SVC sont les suivantes : – Assurer un codage par scalabilités temporelle, spatiale et en résolution. – Atteindre des performances de codage en terme de débit-distorsion et de complexité de décodage similaires à celles du codeur de base H.264/AVC. – Fournir un flux vidéo de la qualité de base compatible avec le codeur H.264/AVC, c’est à dire que le codeur H.264/AVC suffit pour décoder le flux de qualité de base du codeur H.264/SVC. 71 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC Afin d’atteindre ces objectifs, le codeur H.264/SVC garde la structure de codage du codeur H.264/AVC, à savoir un codage en deux couches : couche VLC et couche NAL. Ces deux couches ont été détaillées pour le standard H.264/AVC dans le premier chapitre d’état de l’art (➜1.3.1.4.b). Dans cette section nous allons plus particulièrement nous intéresser aux nouvelles fonctionnalités intégrées dans la couche VLC du codeur H.264/SVC, permettant à ce codeur de réaliser les différents types de scalabilités : temporelle, résolution et qualité. 3.2.3 Scalabilité temporelle La scalabilité temporelle est réalisée dans le codeur H.264/SVC à l’aide d’une structure de codage hiérarchique des images bidirectionnelles (voir figure 3.1). Chaque niveau (couche) de résolution temporelle est représenté par un identifiant temporel T. Le niveau de résolution temporelle de base correspond à l’identifiant temporel T = 0, et les niveaux d’amélioration de la qualité temporelle correspondent à des identifiants T = i, i = 1, ..., (NT − 1), où NT est le nombre de niveaux de résolution temporelle. Les images de résolution temporelle de base (T = 0) sont codées soit par un codage intra, soit par un codage prédictif afin de constituer respectivement des images I et P. Ces images sont appelées dans le standard H.264/SVC des images clés (Key pictures en anglais). Il est important de noter que la notion du GOP dans le codeur H.264/SVC est différente à celle définie précédemment dans le chapitre de l’état de l’art. Le GOP dans le codeur H.264/SVC, tel qu’il est illustré dans la figure 3.1, regroupe toutes les images entre deux images clé successives, y compris la première image clé. Ainsi, contrairement à la notion de base du GOP, dans le codeur H.264/SVC, la première image du GOP peut être codée par un codage prédictif. Les images bidirectionnelles représentent les différentes couches d’amélioration de la qualité temporelle suivant la hiérarchie de codage utilisée et la position de l’image dans le GOP. Les images d’identifiant temporel T = i, i = 1, ..., (NT −1) ne peuvent être codées par prédiction que par rapport à des images de références d’identifiant temporel T = k inférieur ou égal, soit k = 1, ..., i. Ainsi, le décodage à une résolution temporelle d’identifiant T = i nécessite uniquement les flux correspondant aux images de résolution temporelle inférieure ou égale, soit d’identifiant temporel T = k avec k ≤ i. 3.2.4 Scalabilité spatiale La scalabilité spatiale est réalisée grâce à un mécanisme de prédiction spatiale entre les images de la vidéo de différentes résolutions spatiales. La prédiction spatiale peut être appliquée au niveau macrobloc, sur le vecteur de mouvement et/ou sur le signal résiduel dans les domaines spatial ou transformé suivant que le macrobloc est respectivement codé par codage Intra ou Inter. Dans certains cas, notamment lorsque la séquence de vidéo est de faible mouvement et de grands détails spatiaux, le codage par prédiction temporelle offre de meilleures performances en terme de débit-distorsion comparé à un codage spatial. Ainsi, le codage SVC choisit entre une prédiction temporelle ou spatiale suivant les 72 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC Figure 3.1: Codage hiérarchique dans le codeur H.264/SVC : scalabilité temporelle [118] caractéristiques de la séquence vidéo, permettant ainsi d’atteindre les meilleures performances de codage. La figure 3.2 illustre le mécanisme de prédiction spatiale combinée à la prédiction temporelle. On peut constater que la prédiction spatiale est appliquée uniquement sur certains points d’accès avec la couche de résolution spatiale de base, ce qui permet d’améliorer davantage les performances de codage en terme de débit-distorsion et de diminuer la complexité de décodage [118] . Figure 3.2: Mécanisme du codage spatial dans le codeur H.264/SVC [118] 73 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC 3.2.5 Scalabilité en qualité La scalabilité en qualité est un cas particulier de la scalabilité spatiale avec des images des différents niveaux de résolution en qualité de taille identique. Suivant la qualité désirée par chaque couche de résolution en qualité, un coefficient de quantification spécifique lui est associé. Ce type de codage, appelé Coarse-Grain quality Scalable coding (CGS), utilise l’image de meilleure résolution en qualité comme image de référence pour la prédiction des autres images dans le GOP. Ce type de codage offre de bonnes performances de codage en terme de débit-distorsion. Cependant, lorsque l’image de meilleure résolution en qualité est perdue, le décodage utilise l’image de meilleure résolution en qualité disponible comme image de référence pour le décodage. Cela entraine une distorsion significative de la vidéo décodée (appelée en anglais drift 2 ). Afin de faire face à cet inconvénient, une variante du codage CGS, appelée Medium-Grain quality Scalable coding (MGS), est utilisée dans le codeur H.264/SVC. Le codage MGS encode les images clé en utilisant une image de référence de qualité de base, et pour les autres images, il maintient le codage CGS. Ce qui permet d’avoir un bon compromis entre l’efficacité de codage et la robustesse face aux pertes de paquets. 3.3 Codeur H.264/SVC dans un contexte de transmission Nous utilisons le logiciel de référence du codec H.264/SVC disponible à l’adresse indiquée en [131]. Nous configurons le codeur pour un codage de la vidéo originale en NT couches de résolution temporelle. Afin d’améliorer l’efficacité de codage en terme de débit-distorsion, nous affectons à chaque niveau de résolution temporelle un coefficient de quantification suivant son importance [118]. A partir du coefficient de quantification de la résolution temporelle de base QP, les coefficients correspondant aux couches d’amélioration de la résolution temporelle sont donnés par cette équation : QPT = QP + T, T = 1, ..., NT − 1 (3.1) Le codage de scalabilité en qualité est appliqué sur chacune des NT couches de résolution temporelle afin de fournir les différentes couches d’amélioration de la qualité de la vidéo. Le coefficient de quantification, associé à chaque couche d’amélioration de qualité QPQ avec 0 < Q < NQ − 1, est fixé suivant la qualité ou le débit désiré par cette couche. Dans nos travaux, nous utilisons uniquement les scalabilités temporelle et en qualité du codeur H.264/SVC. Cependant, ces travaux peuvent être directement étendus pour considérer la scalabilité spatiale. Contrairement au code source du codeur H.264/AVC JM.14 [132], le code source du codeur H.264/SVC n’intègre aucune méthode de robustesse face aux pertes de paquets. Ainsi, la perte d’un paquet causée par le canal radio mobile, entraine soit la dégradation de la 2. drift : désynchronisation entre les processus de codage et de décodage 74 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC qualité de la vidéo reçue due à la perte des couches d’amélioration de qualité, soit la perte totale d’une image due à la perte de la résolution de qualité de base de la vidéo. Sachant que la qualité des vidéos reçues est évaluée par un critère d’erreur quadratique calculée entre la vidéo originale et la vidéo reçue. La perte d’une image entraine un décalage dans la séquence vidéo décodée, ce qui ne permet pas une évaluation équitable des vidéos reçues. Afin de faire face à ce problème, nous avons implémenté trois schémas de robustesse aux pertes d’images des vidéos H.264/SVC. Ces trois schémas remplacent l’image perdue par une image correctement reçue dans le GOP. L’image de remplacement est choisie parmi les autres images du GOP suivant un critère particulier : – Schémas 1 : L’image perdue est remplacée par l’image précédente dans le GOP correctement reçue. Si l’image numéro n est perdue, elle sera remplacée par l’image de numéro n − 1, puis l’image n − 2 si l’image n − 1 est aussi perdue. – Schémas 2 : L’image perdue est remplacée par la plus proche image dans le GOP correctement reçue. La recherche de la plus proche image est effectuée dans le sens le plus proche d’une image clé. Dans la figure 3.1, si l’image numéro 4 est perdue, elle sera replacée par l’image numéro 3, puis par l’image numéro 5 si l’image numéro 3 est aussi perdue. – Schémas 3 : L’image perdue est remplacée par l’image de résolution temporelle la plus proche en utilisant uniquement les images de résolution temporelle inférieure ou égale. Par exemple si l’image numéro 7 est perdue, elle sera remplacée par l’image numéro 5, puis par l’image numéro 9 si l’image numéro 5 n’est pas correctement reçue. Les deux premiers schémas remplacent l’image perdue par l’image la plus proche dans le GOP. Ainsi, la corrélation temporelle entre l’image perdue et l’image utilisée pour la remplacer est grande. Cependant, l’image perdue peut affecter le décodage de l’image utilisée pour la remplacer. D’autre part, pour le schéma 3, l’image perdue ne peut jamais affecter le décodage de l’image utilisée pour la remplacer, puisque elle est de résolution temporelle inférieure. Contrairement aux schémas 1 et 2, dans le schéma 3 l’image perdue et l’image utilisée pour la remplacée peuvent être éloignées dans le GOP (faible corrélation temporelle). Les figures 3.13(a) et 3.13(b) illustrent les performances de ces trois schémas pour respectivement les vidéos Akiyo et Foreman de format QCIF. Les deux vidéos sont codées à 4 résolutions temporelles et 4 résolutions en qualité. Le taux de perte de paquets est fixé pour chaque résolution temporelle à PT =0 = 0%, PT =1 = 10%, PT =2 = 20%, PT =3 = 30%. Le taux de perte reste le même pour toutes les résolutions en qualité PQ=1=2=3 = 30%. On peut constater que le schéma 3 est le moins performant, car l’image sélectionnée pour remplacer l’image perdue est généralement loin de l’image perdue dans le GOP, ainsi la corrélation temporelle entre les deux images est relativement faible. Les performances du schéma 2 surpassent légèrement celles du schéma 1. Cela est expliqué par la dimension supplémentaire dans la recherche (images précédentes et suivantes) exploitée par le schéma 2, alors que le schéma 1 effectue le recherche uniquement dans une seule direction (images précédentes). En conséquence, dans la suite de ce manuscrit, nous allons adopter 75 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC le schéma 2 pour faire face à la perte d’images dans les vidéos reçues. (a) Akiyo (b) Foreman Figure 3.3: Performances des trois schémas de robustesse vis-à-vis des pertes d’images 3.4 Précodeurs linéaires pour une transmission de vidéos Les pré-codeurs linéaires appartiennent à l’ensemble des systèmes MIMO à boucle fermée (CL-MIMO). Ainsi, les précodeurs exploitent l’information du canal au niveau de l’émetteur et du récepteur afin d’optimiser un critère de qualité tel que le RSB, la capacité du canal et la distance minimale de la constellation de réception. Les précodeurs ont plusieurs avantages par rapport aux systèmes MIMO à boucle ouverte, connaissant l’information du canal uniquement à la réception : – Ils permettent une meilleure exploitation de la diversité spatiale comparé aux codes spatio-temporels, tels que les codes d’Alamouti [127]. – Ils améliorent soit le TEB du lien radio (diversité), soit le débit (multiplexage) de la communication pour offrir un bon compromis entre la robustesse et le débit. – Ils décomposent le canal MIMO en plusieurs sous-canaux SISO indépendants et parallèles. De plus, contrairement aux précodeurs non-diagonaux, les précodeurs diagonaux permettent de réduire significativement la complexité du décodage de MV. Ces avantages sont adaptés à une transmission temps réel de vidéo sur un canal radio, qui nécessite à la fois une bande passante importante et la fiabilité des liens radios pour assurer une bonne qualité de service. De plus, sachant que la complexité de décodage à une importance toute particulière pour les applications temps réel, les précodeurs qui réduisent la complexité de décodage de MV représentent une solution adéquate à ce type d’applications appliquées 76 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC à la transmission de vidéo. Dans ce qui suit nous allons présenter les quatre précodeurs adoptés dans nos travaux pour la transmission temps réel du flux vidéo H.264/SVC, à savoir les précodeurs MaxRSB, WF, QdS et E-dmin . Nous avons choisi les précodeurs Max-RSB et WF, car ces précodeurs sont intégrés dans la norme IEEE 802.11n. Le précodeur QdS nous offre une liberté dans l’allocation de la puissance. Enfin, le précodeur E-dmin est l’un des précodeurs récents les plus performante en terme de TEB. De plus, le precodeur E-dmin fournit un TEB similaire pour les différents flux, ainsi il servira comme une solution efficace pour une stratégie de transmission EEP. Nous voulons tout d’abord notifier que le schéma proposé dans cette section pour la transmission de vidéo H.264/SVC utilise une modulation OFDM pour une transmission sur un canal à bande large (sélectif en fréquence). Il a été montré dans [126] qu’un système MIMO multi-porteuses sur un canal à bande large est équivalent à un système MIMO mono-porteuse sur un canal à bande étroite. Ainsi, pour des raisons de complexité, nous allons présenter ces quatre précodeurs sur un canal MIMO à bande étroite. 3.4.1 Système MIMO avec précodage On considère un canal MIMO à bande étroite avec NT antennes à l’émission et NR antennes à la réception, noté système MIMO (NT × NR ). Le signal reçu Y sur ce canal est donné par l’équation suivante : (3.2) Y = GHF X + GN où X est le vecteur émis de taille b × 1, Y le vecteur reçu de taille b × 1, H la matrice du canal de taille NR × NT définie par les coefficients bande étroite des différents liens du canal MIMO, F la matrice de précodage de taille NT × b, G la matrice de décodage de taille b×NR , N le vecteur de bruit additif de moyenne nulle de taille 1×b et b ≤ trace(H) ≤ min(NT , NR ). Nous considérons dans ce qui suit que E[XX T ] = Ib E[XN T ] = 0 et E[N N T ] = R (3.3) avec AT la matrice transposée conjuguée de la matrice A et Ib la matrice identité de taille b. Ces contraintes signifient que les symboles émis sur les différentes antennes sont décorrélés et normalisés à une puissance unitaire, le signal émis est décorrélé du bruit et que R est la matrice de corrélation du bruit. La première étape commune à tous les précodeurs consiste à représenter le canal MIMO sous la forme d’un canal virtuel constitué de b sous canaux SISO décorrélés et parallèles. Cette étape de transformation en canal virtuel est détaillée dans la section suivante. 77 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC 3.4.2 Transformation en canal virtuel La transformation en canal virtuel est effectuée en trois étapes principales : traitement du bruit afin de le rendre indépendant et identiquement distribué (iid) de variance unitaire (blanchiment du bruit), diagonalisation la matrice du canal H puis réduire sa dimension à b × b, qui correspond au nombre de sous canaux SISO indépendants et parallèles. Ces trois étapes sont réalisées par des opérations matricielles. L’opération de SVD est couramment utilisée pour diagonaliser la matrice du canal H en une matrice diagonale Hv du canal virtuel MIMO. Pour plus d’information sur les opérations appliquées pour la transformation en canal virtuel, le lecteur peut se référer à [123]. Après la transformation en canal virtuel, le système MIMO s’écrit sous la forme suivante, d’après l’équation (3.2) : Y = G d H v F d X + G d Nv (3.4) avec Hv = Gv HFv est la matrice diagonale du canal, les matrices Gv et Fv sont des matrices unitaires qui permettent la transformation en canal virtuel, Fd est la matrice de précodage de taille b × NT , Gd est la matrice de décodage de taille NR × b et nv = Gd N est le vecteur de bruit de covariance RN v = Ib . La puissance émise sur toutes les antennes doit être limitée à la puissance totale de transmission ET . Sachant que la matrice Fv est unitaire, on peut écrire : ∥F ∥F = ∥Fd ∥F = ET 2 2 (3.5) où ∥.∥F est la norme de Fobenuis. Le canal virtuel Hv du système MIMO s’écrit en fonction des valeurs singulières σi de matrice du canal H sous la forme suivante : Hv = diag(σ1 , σ2 , ..., σb ) (3.6) où σi2 représente le RSB du sous-canal SISO i. On définit le gain total σ du canal MIMO par la racine carrée de la somme des RSB des sous-canaux SISO, soit ! "b #∑ σ 2 σ=" (3.7) i i=1 Le précodage linéaire est réalisé à l’aide des matrices de précodage et de décodage Fd et Gd . Selon que ces matrices sont diagonales ou non diagonales on peut distinguer deux familles de précodeurs, appelés respectivement les précodeurs diagonaux et les précodeurs non-diagonaux. Dans ce qui suit, nous allons considérer un décodage basé sur le critère de MV. Ainsi, tel qu’il a été montré dans [123], la matrice de décodage Gd n’aura aucune influence sur les résultats. Dans ce qui suit, les quatre précodeurs seront représentés uniquement à travers leur matrice de précodage Fd . La figure 3.4 résume à travers un schéma bloc les différentes étapes du précodage linéaire. 78 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC Figure 3.4: Schéma bloc des précodeurs linéaires dans le canal virtuel 3.4.3 Précodeurs diagonaux Le schéma bloc de la figure 3.5 représente le précodage diagonal. A partir de ce schéma, on peut constater que les précodeurs diagonaux ont l’avantage de réduire la complexité de décodage par MV de M b à b × M , avec b le nombre de sous-canaux SISO sélectionnés par le précodeur et M le nombre de points de la constellation de la modulation. Selon le critère optimisé par le précodeur, on peut distinguer plusieurs précodeurs diagonaux. Parmi ces précodeurs, nous utilisons trois pour la transmission du flux vidéo H.264/SVC : le précodeurs Max-RSB, WF et QdS. Dans ce qui suit nous allons définir ces trois précodeurs et donner les coefficients fi de la diagonale de la matrice précodage Fd . Figure 3.5: Schéma bloc des précodeurs diagonaux 3.4.3.1 Précodeur Max-RSB Le précodeur Max-RSB [124], aussi connu sous le nom de beamforming, maximise le critère RSB à la réception. Ce précodeur utilise uniquement la voie la plus favorable 79 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC correspondante à la plus grande valeur singulière du canal virtuel. Ainsi, le précodeur MaxRSB concentre toute la puissance d’émission (ET ) sur le sous-canal SISO de la plus grande valeur singulière. Le signal reçu Y est exprimé dans le domaine virtuel par l’expression suivante : √ (3.8) Y = E T σ1 X + N où ET représente la puissance totale d’émission. La structure de ce précodeur est très simple est permet d’atteindre le maximum de diversité de NT × NR sur un canal de Rayleigh [125]. 3.4.3.2 Précodeur WF Le précodeur WF [126] a une importance toute particulière dans le domaine des communications numériques, car il permet de maximiser la capacité du canal MIMO. Le canal étant connu à l’émission, l’algorithme WF calcule la répartition de la puissance sur l’ensemble des antennes permettant de maximiser la capacité du canal MIMO. Les coefficients de la matrice de précodage Fd représentent la solution d’un problème d’optimisation, défini par la maximisation de la capacité, sous contrainte que la puissance d’émission soit égale à la puissance totale autorisée ET . La méthode de Lagrange permet de résoudre ce type de programmes d’optimisation. Les coefficients de la matrice de précodage Fd sont donnés par l’expression suivante : fi2 ⎧ 1 ⎪ ⎪Ψ − σi2 =⎨ ⎪ ⎪ ⎩0 si Ψ > 1 σi2 avec i = 1, 2, ..., b sinon (3.9) où Ψ est un seuil qui dépend du canal virtuel, et est défini par : ET + γΨ Ψ= bΨ bΨ avec 1 2 i=1 σi γΨ = ∑ (3.10) soit : ET + γΨ (3.11) Ψ Le précodeur WF choisit alors le nombre de voies bΨ calculé par (3.10) suivant l’état du canal. Ainsi, il peut sacrifier des voies qu’il considère très mauvaises et concentrer la puissance d’émission uniquement sur les bΨ voies sélectionnées. bΨ = 3.4.3.3 Précodeur QdS Le précodeur QdS n’optimise aucun critère de qualité, mais offre une grande flexibilité dans la répartition de la puissance sur les différentes voies [126]. En effet, c’est à l’utilisateur de définir le rapport de RSB souhaité sur chacune des voies. Le RSB de chaque voie en fonction d’une constante positive γ est donné par l’expression suivante : fi2 σi2 = γρi (3.12) 80 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC où γ est le RSB total qui peut être alloué à toutes les voies et ρi la portion de γ désirée sur la voie i avec ∑bi=1 ρi = 1. En utilisant la contrainte sur la puissance totale ET , on peut écrire : b b ρi = ET 2 i=1 σi ∑ fi2 = γ ∑ i=1 (3.13) L’expression du RSB total sur toutes les voies γ est donnée par γ= ET ρ b ∑i=1 σ2i (3.14) i Ainsi, en remplaçant (3.14) dans (3.12), on peut aisément montrer que : fi2 = E T ρi σi2 ∑bk=1 σρk2 (3.15) k Il suffit alors de fixer la portion du RSB souhaitée sur chaque voie (ρi ) et le précodeur QdS calcule les coefficients de précodage correspondants. 3.4.4 Précodeurs non-diagonaux La figure 3.6 illustre la structure du précodage non diagonal. Contrairement au précodage diagonal, le précodage non-diagonal ne réduit pas la complexité du décodage de MV, qui reste égale à M b . Dans cette section, nous allons présenter le précodeur M ax−dmin inhérent à la modulation 4-QAM 3 et à un système MIMO (2 × 2). Dans nos travaux nous utilisons le précodeur E − dmin , qui est l’extension du précodeur Max-dmin pour un système MIMO (NT × NR ). 3.4.4.1 Précodeur Max-dmin Le principe du précodeur Max-dmin [123] est de maximiser la distance minimale de la constellation de réception. La solution Max-dmin consiste à trouver les coefficients de la matrice Fd qui maximisent la distance minimale de la constellation de réception. La résolution de ce problème est particulièrement difficile, car l’expression de la distance, exprimée dans [123], prend en compte plusieurs paramètres : le canal de transmission Hv , la modulation numérique et le nombre de voies b. La solution est obtenue grâce à un changement de variable des deux valeurs propres du canal : changement de coordonnées cartésiennes en coordonnées polaires. La matrice de précodage est donnée ici pour une modulation 4-QAM et un canal MIMO (2 × 2) sous deux formes de précodeur, d’après [123] : √ √ √ π √ ⎛ 3+√3 3− 3 i 12 ⎞ 3 3 e (3.16) Si 0 ≤ ρ ≤ ρ0 Fd = Fd1 = ET ⎠ ⎝ 0 0 3. QAM : Quadrature Amplitude Modulation 81 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC Figure 3.6: Schéma bloc des précodeurs non-diagonaux π Si ρ0 ≤ ρ ≤ 4 où Fd = Fd2 = √ π ET cos ψ 0 1 ei 4 π ) ( )( 0 sin ψ −1 ei 12 2 ⎧ ρ = arctan σσ12 ⎪ ⎪ ⎪ ⎪ ⎨ρ0 = 17, 28○ √ ⎪ ⎪ 2−1 ⎪ ⎪ ψ = arctan ⎩ cos ρ (3.17) (3.18) Le précodeur Max-dmin prend la matrice Fd1 qui favorise une seule voie pour des valeurs de ρ inférieures à 17, 28○ . Le précodeur choisit alors de mélanger les deux symboles et de les transmettre uniquement sur la meilleure voie. Ce cas de figure se présente lorsque l’écart entre les deux valeurs propres est grand. Dans le cas contraire, c’est à dire pour des valeurs de ρ supérieures à 17, 28, le précodeur Max-dmin utilise les deux voies à travers la matrice de précodage Fd2 pour transmettre les deux symboles. Pour plus de détails sur le précodeur Max-dmin ainsi que sa solution pour la modulation 16-QAM, le lecteur peut se référer respectivement aux références [123] [128]. Dans le schéma proposé dans ce chapitre, nous considérons un système MIMO (NT × NR ), ainsi nous nous intéressons plus particulièrement à l’extension du précodeur E-dmin pour un système MIMO (NT × NR ). Le précodeur E-dmin est présenté ci-après. 3.4.4.2 Précodeur E-dmin L’inconvénient principal du précodeur Max-dmin est sa complexité de décodage de MV qui croı̂t exponentiellement avec le nombre de voies considérées : M b . Afin de généraliser cette solution pour un système MIMO avec plusieurs antennes à l’émission et à la réception, Vrigneau et al. ont proposé dans [129] une solution non optimale, mais qui permet d’avoir un bon compromis entre les performances en terme de TEB et de complexité de décodage de MV. Cette solution, appelée E-dmin , est appliquée sur un canal MIMO de b voies avec 82 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC b = min(NT , NR ) ≥ 4 et b un nombre pair. Les étapes de la solution E-dmin sont résumées ci-après : – Décomposer le système MIMO en b > 2 sous-canaux SISO parallèles et décorrélés en appliquant la transformation en canal virtuel. – Séparer le système MIMO en b/2 sous systèmes MIMO virtuels de deux voies, notés sous système MIMO χi avec i = 1, ..., b/2. – Appliquer le précodeur Max-dmin sur chacun de ces sous systèmes MIMO χi – Répartir la puissance totale ET sur les différents sous systèmes MIMO : affecter à chaque sous système MIMO χi une puissance Υi qui maximise la distance minimale b/2 de la constellation sous la contrainte ∑i=1 Υ2i = ET . 3.5 Schéma de transmission Le schéma de transmission proposé dans nos travaux implique deux couches principales : la couche application et la couche physique. La couche application utilise le codeur H.264/SVC pour compresser la vidéo originale avec une représentation en plusieurs couches de résolutions temporelle et en qualité. Dans nos travaux, les paquets NAL correspondant aux NT couches de résolution temporelle et aux NQ couches de résolution en qualité sont regroupés suivant une stratégie de transmission pour constituer les N flux vidéo à transmettre sur le canal MIMO. Ces flux, notés ρ1 , ρ2 , ..., ρN , sont triés dans un ordre décroissant suivant leur importance dans la reconstruction de la vidéo reçue. Ainsi, la réception sans erreur du flux ρ1 permet de reconstruire une qualité de base de la vidéo reçue. Les autres flux ρ2 , ..., ρN permettent quant à eux d’améliorer la qualité de la vidéo. Ces différents flux vidéo alimentent la couche physique qui traite indépendamment chaque flux suivant son niveau d’importance. La couche physique adoptée dans notre schéma suit la structure générale de la couche physique IEEE 802.11n. L’information du canal à l’émission (CSI-Tx) ainsi que l’algorithme de décomposition en valeurs singulières (SVD) sont accessibles dans la norme IEEE 802.11n. Ils ont été prévus pour implémenter le précodeur Max-RSB qui a été intégré dans les versions récentes de la norme. Ainsi, nous avons implémenté les trois autres précodeurs : WF, QdS et E-dmin en C++ à l’aide de la librairie IT++. Les performances des ces précodeurs en terme de TEB sur un canal de Rayleigh ont été validées en les comparant avec les résultats des papiers de référence. Ces précodeurs sont par la suite intégrés dans la couche physique de la norme IEEE 802.11n. Le schéma proposé entre les couches application et physique pour la transmission de vidéo H.264/SVC sur un canal MIMO exploité par quatre précodeurs est illustré sur la figure 3.7. Les différents flux vidéo issus de la couche application sont protégés par un code correcteur d’erreurs LDPC. La modulation M-QAM est utilisée pour adapter les flux binaire vidéo au support de transmission radio. Les paramètres du CCE et de la modulation numérique, notamment le rendement du CCE LDPC et l’efficacité spectrale de la modulation sont fixés par la stratégie de transmission. Les précodeurs diagonalisent le canal 83 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC Figure 3.7: Schéma de transmission de vidéo H.264/SVC suivant la norme IEEE 802.11n MIMO en plusieurs sous canaux SISO, permettant une transmission indépendante des différents flux vidéo. La modulation multi-porteuses OFDM est utilisée avant la transmission des symboles pour faire face à la sélectivité fréquentielle du canal radio mobile. Enfin, à la sortie de la couche physique les différents paquets NAL de la vidéo constituent des trames de longueur fixe suivant la norme IEEE 802.11n prêtes à la transmission sur le canal radio. Au niveau du récepteur, un décodeur de MV est utilisé pour détecter les symboles reçus. Les symboles reçus seront par la suite démodulés, dé-entrelacés puis décodés par le code correcteur d’erreur LDPC. Ces codes LDPC permettent aussi de détecter la présence d’erreurs résiduelles dans les trames reçues. Les trames erronées, c’est à dire les trames contenant au moins une erreur de transmission, seront perdues et éliminées au niveau de la couche physique. Quant aux trames reçues sans erreurs, elles sont directement acheminées vers la couche application. Le décodeur H.264/SVC associé au schéma de robustesse aux pertes d’images décodent les paquets vidéo NAL correctement reçus pour construire la vidéo reçue avec une taille identique à la taille de la vidéo originale. La qualité de vidéo est évaluée par le critère objectif couramment utilisé dans la littérature, à savoir le PSNR. Le PSNR utilisé dans ce chapitre représente le PSNR moyen des trois composantes des images de la vidéo : composante luminance (Y) et les composantes chrominances (UV). 3.6 Stratégie de transmission : solution UEP Le principe de la stratégie de transmission proposée dans nos travaux consiste à affecter les flux vidéo ρ1 , ρ2 , ..., ρN aux sous-canaux SISO de RSB σ12 , σ22 , ..., σb2 . En effet, le flux vidéo ρi sera transmis sur le sous canal SISO de RSB σi2 avec i = 1, ..., min(N, b). Sachant que les flux vidéo et les sous-canaux SISO sont triés dans un ordre décroissant suivant 84 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC respectivement l’importance des flux vidéo et le RSB des canaux SISO, cette stratégie de transmission permet une protection inégale aux erreurs (UEP) sans aucune redondance. Figure 3.8: Stratégie de codage conjoint impliquant le codage de source, les précodeurs et le canal de transmission En utilisant les précodeurs, le RSB d’un sous-canal SISO i après l’étape de précodage n’est plus σi2 , mais fi2 σi2 . On a vu que les précodeurs calculent les coefficients de précodage fi suivant l’état du canal et le critère de qualité à optimiser. Ainsi, cette stratégie de transmission sera adaptative suivant l’état du canal de transmission, et ses résultats vont bien évidemment dépendre du critère de qualité optimisé. La figure 3.8 illustre la stratégie de codage conjoint adoptée entre la couche application et la couche physique, impliquant le codeur de source, les précodeurs et le canal MIMO. D’une part, on peut constater que les précodeurs Max-RSB, WF, E-dmin , qui optimisent respectivement le RSB à la réception, la capacité du canal et la distance minimale de la constellation de réception, ne considèrent pas vraiment l’importance des différents flux vidéo. D’autre part, le précodeur QdS nous offre une flexibilité totale dans l’allocation de puissance entre les sous-canaux SISO. Ainsi, le précodeur QdS semble le plus approprié pour adapter finement les puissances allouées aux sous canaux SISO à la fois à l’importance du flux vidéo transmis sur chacun des sous canaux SISO et à l’état du canal de transmission. Dans ce chapitre nous adoptons une approche empirique pour fixer les coefficients du précodeur QdS qui offrent les meilleures performances de transmission. Cette approche considère à la fois le canal de transmission et l’importance des flux vidéo du codeur 85 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC H.264/SVC. Plus de détails sur cette approche ainsi que les configurations du précodeur QdS considérées seront données dans la section suivante. 3.7 3.7.1 Contexte de simulation Couche application Nous transmettons deux séquences vidéo F oreman et Akiyo en format QCIF 4 (175 × 144 pixels/image). Nous avons choisi ces deux vidéos car elles sont de nature différente. En effet, la vidéo Akiyo est caractérisée par un faible mouvement, alors que la séquence de vidéo F oreman contient des variations temporelles importantes. Les 288 images de chaque vidéo sont codées par le codeur H.264/SVC à 30 images/seconde. Nous avons configuré le codeur H.264/SVC pour fournir quatre couches de résolution temporelle (NT = 4 et la taille du GOP est égale à 8), et quatre couches de résolution en qualité NQ = 4. Le coefficient de quantification de la résolution temporelle de base est fixé à 46 (QP = 46). A partir de QP, les coefficients de quantification des autres couches d’amélioration de la résolution temporelle sont calculés par l’équation 3.1. Dans ce travail, les 4 couches de résolution en qualité constituent les N = 4 flux vidéo (ρ1 , ρ2 , ρ3 , ρ4 ) à transmettre sur le canal MIMO. Ainsi, le flux vidéo ρi est exploitable uniquement lorsque les flux vidéo ρk avec k < i sont correctement reçus. La contrainte temps réel impose la réception simultanée des flux vidéo transmis parallèlement sur les différents sous canaux SISO. Cette contrainte implique que les différents flux vidéo doivent être de taille identique, afin de pouvoir les exploiter par le décodeur pour reconstruire les images de la séquence vidéo. Ainsi les coefficients de quantification correspondant aux couches d’amélioration de qualité sont fixés de telle sorte que les flux vidéo d’amélioration de qualité aient la même taille que celle du flux vidéo de qualité de base. Les coefficients de quantification des différentes couches de résolution en qualité ainsi que le PSNR et la taille associés sont donnés dans le tableau 3.1 pour les vidéos F oreman et Akiyo. Flux vidéo Flux Flux Flux Flux ρ1 ρ1+2 ρ1+2+3 ρ1+2+3+4 QPQ 46 39 36 33 Vidéo Akiyo PSNR(dB) Débit (Kb/s) 33.53 108 36.24 219 37.72 331.8 39.56 456.9 QPQ 46 39 36 31 Vidéo F oreman PSNR(dB) Débit (Kb/s) 33.74 135 36.04 285 37.46 449 38.54 619 Table 3.1: Configuration de codage du codeur H.264/SVC pour les vidéos Akiyo et F oreman 4. QCIF : Quarter Common Intermediate Format 86 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC 3.7.2 Couche physique 3.7.2.1 Paramètres de la couche physique Les paramètres de la chaı̂ne de transmission (fréquence de la porteuse, modulation OFDM, puissance d’émission et le seuil de sensibilité) sont fixés suivant la norme IEEE 802.11n. On considère un canal MIMO (4 × 4). L’espace entre les antennes est fixé à 0, 4λ, avec λ la longueur de l’onde. Rappelons que cet espacement correspond généralement à la plus faible corrélation entre les antennes [112]. Les flux vidéo sont protégés par le code correcteur correcteur LDPC avec une stratégie EEP en utilisant un seul rendement de 1/2. Les flux vidéo codés sont modulés par la modulation 4-QAM. Avec une telle configuration de la couche physique, le débit de transmission est égal à 12 × b M b/s, avec b le nombre de sous-voies sélectionnées par le précodeur. 3.7.2.2 Modélisation du canal Nous utilisons deux types de canaux, à savoir un canal statistique et un canal réaliste. Dans le cas d’un canal statistique, les coefficients de la matrice H sont générés suivant la distribution de Rayleigh. Ces coefficients sont générés par un processus Gaussien complexe de moyenne nulle et de variance unitaire, modélisant les variations à petite échelle du canal radio mobile. Quant aux variations à moyenne échelle, elles sont modélisées par un processus de Markov [130]. La matrice de transition de la chaı̂ne de Markov est paramétrée par une loi log-normale qui est couramment utilisée pour modéliser ce type de variations. Une loi log normale est caractérisée par sa moyenne µ et sa variance σ 2 . La variance σ 2 est fixée à 3,6 pour modéliser un environnement urbain [30], et la moyenne µ prend les valeurs 0, 5 et 10 dB pour modéliser respectivement un canal de mauvaise, moyenne et bonne qualité. Pour le canal réaliste, nous utilisons le modèle de propagation 3D, présenté dans le chapitre précédent (section 2.3.1). Ce modèle de propagation nous fournit les RI d’une trajectoire de 180 mètres dans le campus de l’université de Poitiers. La figure 3.9 illustre l’environnement de simulation, dans lequel l’émetteur reste fixe et le récepteur se déplace sur la trajectoire avec deux vitesses : 5 et 10 m/s. 3.7.2.3 Configuration du précodeur QdS Afin de fixer les coefficients de précodage du précodeur QdS, nous avons transmis les deux vidéos Akiyo et Foreman sur le canal statistique avec plusieurs configurations du précodeur QdS. Parmi toutes les configurations utilisées, nous en avons choisi trois associées aux trois états du canal de transmission. Les RSB relatifs entre les quatre voies du canal MIMO sont donnés suivant l’état du canal dans le tableau 3.2. On constate que l’état du canal est pris en compte en sélectionnant uniquement un sous ensemble des quatre voies. Le sous ensemble sélectionné correspond aux sous-canaux SISO de puissance significative, et les autres canaux de faible puissance ne sont pas utilisés. D’autre part, 87 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC (a) Campus de l’Université de Poitiers (b) Zoom sur la trajectoire Figure 3.9: Environnement de simulation : campus de l’université de Poitiers l’importance des flux vidéo est considérée par une stratégie d’allocation de puissance UEP entre les voies sélectionnées pour la transmission. Nous voulons clarifier que ces configurations sont choisies expérimentalement parmi d’autres configurations moins performantes, et qu’elles ne représentent en aucun cas la solution optimale. Configurations QdS État du canal RSB Relatifs Configuration 1 Mauvais (0.7, 0.3, 0, 0) Configuration 2 Moyen (0.4, 0.3, 0.3, 0) Configuration 3 Bon (0.3, 0.3, 0.25, 0.15) Table 3.2: Valeurs relatives des RSB utilisées par le précodeur QdS pour chaque état du canal 3.8 Résultats et discussions Nous allons tout d’abord évaluer les performances des quatre précodeurs utilisés. Dans le tableau 3.3, nous avons fait une comparaison entre les performances des quatre précodeurs en terme de multiplexage (débit), complexité de décodage de MV et diversité. Quant aux performances de ces précodeurs en terme de TEB sur un canal de Rayleigh, elles sont illustrées sur la figure 3.10. On peut constater que le précodeur Max-RSB est le plus simple et permet d’atteindre la diversité maximale (NT × NR ). Cependant, ce précodeur utilise uniquement une seule voie, ce qui correspond aussi à un multiplexage spatial minimum. De plus, il n’offre pas les meilleures performances en terme de TEB comparé aux autres précodeurs. Les performances des précodeurs WF, QdS et E-dmin dépendent principalement de l’état du canal de transmission (nombre de voies utilisées). Toutefois, le précodeur E-dmin offre les meilleures performances en terme de TEB, au détriment d’une complexité de décodage à MV supplémentaire. Enfin, en plus de sa grande flexibilité dans l’allocation de puissance, le précodeur QdS offre le meilleur compromis entre la complexité de décodage, le multiplexage spatial et la robustesse aux erreurs (TEB). 88 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC Precoders Max-RSB WF QdS E − dmin Multiplexage Complexité 1 M b b×M b b×M b b/2 × M 2 Ordre de diversité N T × NR (NT − b + 1) × (NR − b + 1) (NT − b + 1) × (NR − b + 1) (NT − b/2 + 1) × (NR − b/2 + 1) Table 3.3: Comparaison des performances de quatre précodeurs Cette étude des précodeurs va nous permettre de faire une meilleure analyse des performances du schéma proposé, notament sur la qualité visuelle des vidéos reçues. Les résultats de transmission sur un canal statistique et un canal réaliste sont donnés ci-après. Figure 3.10: TEB des quatre précodeurs sur un canal de Rayleigh MIMO (4 × 4) à 8 bits/s/Hz 3.8.1 Canal statistique Les figures 3.11, 3.12 et 3.13 illustrent les performances, en terme de PSNR moyen, du schéma proposé sur un canal statistique MIMO (4 × 4) dans respectivement de mauvaises, moyennes et de bonnes conditions de transmission. Chaque courbe représente le PSNR moyen sur 300 simulations en fonction des images de la séquence vidéo : Akiyo et Foreman. Dans de mauvaises conditions de transmission (figure 3.11, µ = 0 dB), le précodeur QdS qui exploite uniquement deux voies avec une stratégie UEP (configuration 1), offre les 89 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC meilleures performances. Le précodeur Max-RSB considérant une seule voie garantit la réception sans erreur du flux correspondant à la qualité de base de la vidéo, alors que le précodeur WF qui maximise la capacité du canal surpasse les performances du précodeur Max-RSB. On peut remarquer aussi que les courbes du précodeur E-dmin ne sont pas représentées, car dans de telles conditions de transmission le précodeur E-dmin n’arrive même pas à assurer la réception sans erreur du flux vidéo de qualité de base (ρ1 ). (a) Akiyo (b) Foreman Figure 3.11: Performances du schéma proposé sur un canal statistique MIMO (4×4) avec µ = 0 dB Avec 5 dB d’amélioration sur la puissance moyenne reçue par rapport au canal précédent, on constate à partir de la figure 3.12 une amélioration appréciable des performances des précodeurs QdS et WF, alors que le précodeur Max-RSB garantit les mêmes performances que celles obtenues dans le cas d’un canal de mauvaise qualité. Contrairement à la figure précédente, le précodeur E-dmin arrive cette fois à recevoir sans erreur le flux vidéo de qualité de base (ρ1 ) et surpasse les performances du précodeur Max-RSB. Dans de bonnes conditions de transmission (figure 3.13, µ = 10 dB), les précodeurs E − dmin et QdS offrent les meilleures performances. En effet, ces précodeurs arrivent à recevoir sans erreur presque tous les flux vidéo, approchant la qualité de la vidéo transmise. Le précodeur E-dmin réalise les meilleures performances suivi par le précodeur QdS. Ce dernier exploite les quatre voies du canal MIMO avec une stratégie d’allocation de puissance UEP permettant de surpasser les performances du précodeur WF. D’autre part, le précodeur Max-RSB qui exploite une seule voie, assure uniquement la réception sans erreur du flux vidéo de qualité de base. A partir des trois figures précédentes (figures 3.11, 3.12 et 3.13) de nombreuses observations peuvent être tirées. Tout d’abord, on remarque que le précodeur Max-RSB qui 90 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC (a) Akiyo (b) Foreman Figure 3.12: Performances du schéma proposé sur un canal statistique MIMO (4×4) avec µ = 5 dB maximise le RSB à la réception assure une vidéo de qualité de base quelles soient les conditions de transmission, alors que les précodeurs WF, QdS et E-dmin s’adaptent aux conditions de transmission. De plus, les précodeurs adoptant une stratégie d’allocation de puissance UEP, à savoir les précodeur WF et QdS, assurent les meilleures performances dans de mauvaises et moyennes conditions de transmission. D’autre part, le précodeur qui offre les meilleures performances en terme de TEB avec une stratégie d’allocation de puissance EEP permet d’assurer la meilleure qualité de service dans de bonnes conditions de transmission. C’est pour cela que le précodeur QdS qui adoptent une stratégie d’allocation de puissance UEP tout en maintenant de bonnes performances en terme de TEB permet d’assurer une bonne qualité de service quelles que soient les conditions de la transmission. Le tableau 3.4 donne le PSNR moyen de la vidéo Foreman reçue ainsi que le TEB qui lui est associé dans les trois conditions de canal considérées. Dans de bonnes et moyennes conditions de transmission, les précodeurs offrant le meilleur TEB n’assurent pas forcement la meilleure qualité des vidéos reçues. Les valeurs de TEB et PSNR en couleur rouge représentent des exemples sur une telle configuration. Cependant, dans de bonnes conditions de transmission le TEB et le PSNR évoluent toujours dans le même sens. Les mêmes constatations sont observées pour la vidéo Akiyo. On peut remarquer aussi que la nature de la vidéo influence la qualité de service. En effet, le schéma de robustesse adopté qui remplace l’image perdue par l’image la plus proche correctement reçue est plus adapté à la vidéo Akio, caractérisée par un faible mouvement. Dans les figures 3.11, 3.12, on constate une dégradation considérable sur la qualité de la vidéo Foreman. De plus, cette dégradation devient plus accentuée dans la partie de la vidéo à fort mouvement (images 170-220), où l’écart de PSNR dans la figure 91 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC (a) Akiyo (b) Foreman Figure 3.13: Performances du schéma proposé sur un canal statistique MIMO (4 × 4) avec µ = 10 dB Precodeurs Max-RSB WF QdS E-dmin µ = 0dB PSNR(dB) TEB 33.74 2.43 × 10−1 34.36 2.48 × 10−1 35.23 1.96 × 10−1 2.14 × 10−1 µ = 5dB PSNR(dB) TEB 33.74 1.63 × 10−1 35.89 1.44 × 10−1 36.74 9.97 × 10−2 34.43 1.13 × 10−1 µ = 10dB PSNR(dB) TEB 33.74 7.2 × 10−2 37.07 6.43 × 10−2 37.7 1.38 × 10−2 38.32 9.51 × 10−3 Table 3.4: PSNR et TEB du schéma proposé dans différentes conditions de transmission (vidéo Foreman) 3.11 entre les trois précodeurs devient très faible. Ce phénomène ne se présente pas sur un canal de bonne qualité de transmission, car tous les précodeurs assurent la réception sans erreur du flux vidéo de base, ainsi aucune image n’est perdue et le schéma de robustesse aux pertes d’images n’est pas utilisé. 3.8.2 Canal réaliste Le comportement du canal réaliste MIMO (4×4) est illustré sur la figure 3.14 à travers son gain total σ en fonction de la position du récepteur sur la trajectoire. Suivant la valeur du gain total du canal, on peut classer la trajectoire du récepteur en trois zones d’études. La première zone représente un canal de mauvaise qualité et couvre les parties 1 et 5 de la trajectoire. La zone 2 représente un canal de qualité moyenne et couvre les parties 2 et 4 de la trajectoire. Quant à la partie 3 de la trajectoire, elle représente un canal de bonne qualité et constitue la zone d’étude 3. Tel qu’elles sont illustrées sur les figures 3.9 et 3.14 , les zones 1 et 2 correspondent à une configuration du canal NLOS, alors que la zone 3 92 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC correspond à une configuration du canal LOS. Nous allons dans ce qui suit étudier les performances du schéma proposé le long de cette trajectoire. Dans un premier temps, nous supposons la connaissance parfaite du canal de transmission au niveau de l’émetteur et du récepteur, puis nous évaluons la robustesse du schéma face aux erreurs d’estimation du canal à deux vitesses de mobilité 5 et 10 m/s. Figure 3.14: Comportement du canal réaliste MIMO (4 × 4) à 5 Ghz 3.8.2.1 Connaissance parfaite du canal Les figures 3.15 et 3.16 illustrent les performances du schéma proposé le long de la trajectoire du récepteur pour respectivement des vitesses de mobilité du récepteur de l’ordre de 5 et 10 m/s. Ces courbes montrent plus précisément la variation du PSNR des vidéos reçues en fonction du déplacement du récepteur sur la trajectoire pour les quatre précodeurs utilisés. En supposant la connaissance parfaite du canal de transmission, la vitesse de déplacement du récepteur n’a aucun effet sur la qualité des vidéos reçues. Ainsi, les deux figures 3.15 et 3.16 donnent la même information, sauf que, sur l’ensemble de la trajectoire, le récepteur qui se déplace à 10 m/s reçoit la moitié des vidéos reçues par le récepteur qui se déplace à 5 m/s. On remarque les bonnes performances du précodeur QdS en utilisant la configuration appropriée à chaque zone du canal. Le précodeur Max-RSB assure une réception sans erreur du flux vidéo de basse qualité et cela quelles que soient les conditions du canal. On remarque aussi l’adaptation des précodeurs WF et QdS aux variations du canal de transmission. En effet, la qualité des vidéos reçues en utilisant ces deux précodeurs est améliorée 93 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC suivant l’augmentation de la puissance du signal reçu. Dans de mauvaises conditions du canal (zone 1), le précodeur E-ddmin n’arrive même pas à assurer une bonne réception du flux vidéo de basse qualité , alors que sur la zone 3, ce précodeur offre les meilleures performances en recevant correctement les quatre flux vidéo. On remarque que dans le cas du canal réaliste nous retrouvons les trois qualités du canal statistique réparties le long de la trajectoire. Nous constatons aussi qu’une considération plus fine du contenu (quatre flux vidéo) par le précodeur QdS paramétré suivant l’état du canal améliore considérablement la qualité de service par rapport aux autres précodeurs et cela quelles que soient les conditions de transmission. Le gain en terme de qualité visuelle apporté par le précodeur QdS par rapport au précodeur WF est illustré sur la Figure 3.17. Cette figure montre clairement que la qualité visuelle d’une image de la vidéo reçue par le précodeur QdS sur la partie 1 de la trajectoire est nettement meilleure à celle reçue par le précodeur WF. Un écart de 1.5 dB en terme de PSNR entre les deux images vient confirmer objectivement le gain de qualité visuelle apporté par le précodeur QdS. (a) Akiyo (b) Foreman Figure 3.15: Performances du schéma proposé sur un canal MIMO (4 × 4) réaliste à 5 m/s 3.8.2.2 Robustesse face aux erreurs d’estimation du canal Dans cette section nous allons étudier la robustesse du schéma proposé vi-à-vis des erreurs d’estimation du canal suivant la norme IEEE 802.11n, à deux vitesses de mobilité 5 et 10 m/s. De plus les figures qui seront présentées dans cette section permettent d’évaluer les performances moyennes du schéma proposé le long de la trajectoire. On peut constater que sur les Figures 3.15 et 3.16 les performances du précodeur E-dmin ne sont pas calculées dans la zone 1. Pour cette raison, ses performances moyennes sur toute la trajectoire ne peuvent être objectivement comparées avec les autres précodeurs (diagonaux). Ainsi, dans les figures 3.18, 3.19, 3.20 et 3.21, nous illustrons séparément les performances moyennes sur toute la trajectoire ainsi que la robustesse vis-à-vis des erreurs 94 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC (a) Akiyo (b) Foreman Figure 3.16: Performances du schéma proposé sur un canal MIMO (4 × 4) réaliste à 10 m/s d’EC (Estimation du Canal) des trois precodeurs diagonaux et du précodeur E-dmin . A une vitesse du récepteur de 5 m/s, les figures 3.18, 3.19 montrent respectivement que les précodeurs diagonaux et le précodeur non diagonal E-dmin offrent les mêmes performances avec et sans erreurs d’estimation du canal. Ainsi, nous pouvons déduire que le schéma proposé à une vitesse de 5 m/s reste très robuste vis-à-vis des erreurs d’estimation du canal. D’autre part, la figure 3.18 compare les performances moyennes sur toute la trajectoire des précodeurs diagonaux. En moyenne le précodeur QdS donne les meilleures performances surpassant les performances des deux autres précodeurs diagonaux WF et QdS. La figure 3.20 montre qu’à une vitesse de déplacement du récepteur de 10 m/s, les précodeurs diagonaux offrent les mêmes performances avec et sans les erreurs d’estimation du canal. Ainsi, nous pouvons dire que ces précodeurs restent très robustes aux erreurs d’estimation de canal même à de grandes vitesses de mobilité (de l’ordre de 10 m/s). Cependant, tel qu’il est illustré dans la figure 3.21, le précodeur non diagonal E-dmin devient très sensible aux erreurs d’estimation du canal. En effet, le précodeur E-dmin perd en moyenne entre 1.5 et 1 dB en terme de PSNR pour respectivement les vidéos Foreman et Akiyo. La structure non diagonale de ce précodeur ainsi que le décodage à MV réalisé sur des matrices de dimension 2 rendent ce précodeur très sensible aux erreurs d’estimation du canal, ce qui introduit de la distorsion sur la vidéo reçue. De plus, l’écart de perte entre la vidéo Foreman et Akiyo revient à la nature de la vidéo et le schéma de robustesse aux pertes d’images adopté. 95 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC (a) PSNR=35, 67 dB (b) PSNR=34, 11 dB Figure 3.17: Illustration de la qualité visuelle des vidéos reçues par les précodeurs QdS (à gauche) et WF (à droite) sur un canal MIMO réaliste (zone 1) (a) Akiyo (b) Foreman Figure 3.18: Robustesse des précodeurs diagonaux vis-à-vis des erreurs d’EC sur un canal réaliste MIMO (4 × 4) à 5 m/s 96 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC (a) Akiyo (b) Foreman Figure 3.19: Robustesse du précodeur E-dmin vis-à-vis des erreurs d’EC sur un canal réaliste MIMO (4 × 4) à 5 m/s (a) Akiyo (b) Foreman Figure 3.20: Robustesse des précodeurs diagonaux vis-à-vis des erreurs d’EC sur un canal réaliste MIMO (4 × 4) à 10 m/s 97 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC (a) Akiyo (b) Foreman Figure 3.21: Robustesse du précodeur E-dmin vis-à-vis des erreurs d’EC sur un canal réaliste MIMO (4 × 4) à 10 m/s 3.9 Conclusion Dans ce chapitre nous avons proposé une solution prometteuse pour la transmission temps réel de vidéo sur un canal radio mobile. Le but de ce schéma est de garantir à l’utilisateur une qualité de service acceptable dans les conditions de transmission les plus défavorables, et d’améliorer cette qualité suivant l’évolution des conditions de transmission. Le schéma proposé implique le codeur de vidéo scalable H.264/SVC, quatre précodeurs linéaires et un canal de transmission MIMO. Nous avons étudié les performances de ce schéma à la fois sur un canal statistique et un canal réaliste. De plus, nous avons évalué sa robustesse vis-à-vis des erreurs d’estimation du canal suivant la norme IEEE 802.11n à différentes vitesses de mobilité. Nous avons exploité la flexibilité du précodeur QdS dans l’allocation de puissance aux différentes voies du canal MIMO afin de l’adapter à l’importance des flux vidéo H.264/SVC et de l’état du canal. Nous avons montré qu’une adaptation fine de l’allocation de puissance en considérant à la fois l’état du canal de transmission et l’importance des flux vidéo permet d’améliorer significativement la qualité des vidéos reçues comparée à la qualité obtenue par les trois autres précodeurs : Max-RSB, WF et E-dmin . De plus, contrairement au précodeur E-dmin qui est très sensible aux erreurs d’EC, le précodeur QdS reste très robuste aux erreurs d’EC même à des vitesses de mobilité relativement élevées de l’ordre de 10 m/s. Nous avons montré aussi que les performances d’un précodeur en terme de TEB et la qualité de la vidéo reçue n’évoluent pas toujours dans le même sens. Ce comportement signifie que les précodeurs qui offrent le meilleur TEB, tel que le précodeur E-dmin , ne sont pas forcement les solutions les plus appropriées à une transmission de vidéo, alors 98 CHAPITRE 3. ADAPTATION DE LIENS MIMO POUR UNE TRANSMISSION TEMPS RÉEL D’UN FLUX VIDÉO H.264/SVC qu’une stratégie de transmission UEP offre de meilleures performances et cela quelles que soient les conditions de transmission. Finalement, dans le domaine de la transmission temps réel de vidéo sur un système MIMO à boucle fermée, ce travail offre une étude de performances sur : la diversité, le multiplexage, la complexité de décodage de MV ainsi que la qualité des vidéos reçues en terme de PSNR et de qualité visuelle. Nous pouvons espérer que cela permettra aux concepteurs des nouvelles normes de transmission d’évaluer le besoin d’intégrer ces solutions de précodage dans les prochaines versions de ces normes. Le schéma présenté dans ce chapitre présente évidemment de nombreux inconvénients et limites. Tout d’abord, la solution proposée pour déterminer les coefficients du précodeur QdS est essentiellement basée sur une étude expérimentale. Ainsi, chaque configuration de la couche physique (modulation, rendement du CCE, etc.) nécessiterait une nouvelle étude expérimentale pour trouver les coefficients de précodage appropriés. De plus, cette solution n’est pas adaptative en fonction des conditions de transmission dans la mesure où nous gérons manuellement le choix de la configuration à appliquer parmi les trois configurations proposées. Enfin, les trois configurations adoptées pour le précodeur QdS représentent des configurations qui offrent les meilleures performances parmi plusieurs autres configurations, mais en aucun cas ces configurations représentent la solution de transmission optimale. Dans le chapitre suivant nous allons proposer deux solutions adaptatives permettant le calcul de la configuration de précodage qui offre les meilleures performances de transmission du flux vidéo H.264/SVC sur un canal MIMO diagonalisé. 99 Chapitre 4 Solutions adaptatives pour la transmission de vidéo H.264/SVC sur un canal MIMO Sommaire 4.1 4.2 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Solution algorithmique . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.2 Algorithme 1 : calcul des coefficients de précodage . . . . . . . . 4.2.3 Algorithme 2 : prise en compte de l’efficacité spectrale de la modulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.4 Système de transmission temps réel . . . . . . . . . . . . . . . . . 4.2.5 Contexte de transmission . . . . . . . . . . . . . . . . . . . . . . . 4.2.6 Résultats et discussions . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Solution analytique . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.2 Modélisation mathématique du problème . . . . . . . . . . . . . 4.3.3 Configuration de la transmission . . . . . . . . . . . . . . . . . . . 4.3.4 Résultats et discussions . . . . . . . . . . . . . . . . . . . . . . . . 4.3.5 Limites de la solution analytique . . . . . . . . . . . . . . . . . . . 4.4 Analyse débit-distorsion . . . . . . . . . . . . . . . . . . . . . . . . 4.4.1 Contexte de l’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.2 Analyse des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 102 102 103 105 108 109 110 115 115 115 121 121 124 125 125 126 132 101 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO 4.1 Introduction Ce chapitre vient compléter les limites de la solution proposée dans le chapitre précédent pour le calcul des coefficients du précodeur QdS. L’objectif de ce chapitre est de proposer une solution adaptative permettant le calcul des coefficients de précodage suivant l’importance des flux vidéo H.264/SVC et l’état du canal de transmission. Cette solution permettra ainsi de trouver la configuration de précodage qui offre les meilleures performances de transmission quel que soit l’état du canal MIMO. La première solution que nous proposons est basée sur un algorithme pour configurer le précodeur QdS. Cet algorithme considère à la fois la hiérarchie de codage H.264/SVC et l’état du canal de transmission pour assurer une qualité de service des vidéos reçues. Cette solution est par la suite adaptée pour prendre en compte l’efficacité spectrale de la modulation numérique permettant une meilleure exploitation du canal MIMO. Ce deuxième algorithme permet non seulement d’assurer une qualité de service, mais aussi d’améliorer davantage la qualité des vidéos reçues. Dans un second temps, nous proposons une nouvelle solution théorique. Cette solution permet à l’aide d’une méthode d’optimisation mathématique de calculer la configuration de précodage optimale qui minimise la distorsion totale de la vidéo reçue (distorsion de la source et du canal). En effet, nous allons tout d’abord écrire le modèle d’erreur correspondant à la transmission du flux vidéo H.264/SVC sur un canal MIMO diagonalisé. Ainsi, la minimisation de ce modèle d’erreur permet de calculer plus précisément les coefficients de précodage optimaux qui minimisent la distorsion de la vidéo reçue. Ce chapitre est structuré en trois parties principales. Dans la première partie nous présentons l’algorithme proposé pour le calcul des coefficients du précodeur QdS. Nous abordons aussi l’extension de cet algorithme pour calculer l’efficacité spectrale de la modulation numérique. La seconde partie concerne l’écriture analytique du modèle de transmission hiérarchique du flux vidéo H.264/SVC sur un canal MIMO diagonalisé. Dans la troisième et dernière partie, nous étudions l’impact d’autres paramètres, tels que la taille du GOP, les coefficients de quantification et le codage de canal sur la transmission du flux vidéo H.264/SVC. Cette étude expérimentale nous permettra d’évaluer l’importance de ces critères dans la transmission du flux vidéo H.264/SVC sur un canal MIMO, afin de les intégrer par la suite dans le modèle analytique. Une conclusion terminera ce chapitre. 4.2 4.2.1 Solution algorithmique Principe Dans ce qui suit, nous considérons que le canal MIMO est décomposé en plusieurs voies à l’aide de l’étape de transformation en canal virtuel (➜3.4.2). L’algorithme proposé pour le calcul des coefficients de précodage implique deux étapes principales, à savoir la sélection des voies de puissances significatives et le calcul des 102 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO coefficients de précodage des voies choisies par la première étape. La première étape de sélection des voies permet de choisir parmi les b voies du canal MIMO (NT , NR ) avec b = min(NT , NR ), celles qui sont susceptibles de transporter un flux vidéo avec une faible probabilité d’erreurs. Cette étape a une importance tout particulière, car elle permet d’éviter l’allocation de la puissance d’émission à des voies de faible RSB. En effet, même en allouant la totalité de la puissance d’émission à ces voies dégradées, celles-ci ne permettent pas de recevoir correctement les flux vidéo. Ainsi, il n’est pas utile de perdre de la puissance sur ces voies, de très faible puissance, pour la réception sans erreur des flux vidéo. La sélection des voies de puissances significatives est réalisée à l’aide d’un simple seuillage de la puissance de chaque voie (σj2 ) avec j = 1, 2, ..., b par rapport à un seuil de réception, noté T h. Ce seuil est fixé à un niveau de puissance permettant une transmission sans erreur ou à très faible erreur. Ainsi, nous pouvons constater que ce seuil (T h) dépend des paramètres de la chaı̂ne de transmission : le codage de canal, la modulation numérique et son efficacité spectrale ainsi que le type du canal considéré (Gaussien, Rayleigh, etc.). Le nombre de voies choisies par cette étape est noté par b′ , avec b′ ≤ b. La seconde étape permet de calculer les coefficients de précodage uniquement des b′ voies sélectionnées par la première étape. Nous supposons que le nombre de flux vidéo (N) fourni par le codeur H.264/SVC est supérieur ou égal au nombre de voies (b′ ) sélectionnées par la première étape, soit N ≥ b′ . Le calcul des coefficients de précodage est basé sur le principe du codage hiérarchique du codeur H.264/SVC, qui stipule qu’un flux vidéo ρk avec k = 1, 2, ..., N est exploitable uniquement dans le cas où tous les flux vidéo ρl avec l < k sont reçus correctement. Ainsi, l’algorithme d’allocation de puissance cherche tout d’abord à allouer suffisamment de puissance à la première voie pour assurer la réception du premier flux vidéo (ρ1 ) et garantir à l’utilisateur une qualité de base de la vidéo. Ce processus est réitéré sur les (b′ −1) voies suivantes dans l’ordre de puissance décroissant des voies jusqu’à ce que, ou bien la puissance totale d’émission (ET ) soit totalement allouée, ou bien les b′ voies soient toutes traitées. Le principe de l’algorithme proposé en deux étapes de sélection des voies puis le calcul des coefficients de précodage est illustré sur la figure 4.1. L’ordre d’exécution entre les différents blocs est précisé entre cotes ([]) au niveau de chaque bloc. 4.2.2 Algorithme 1 : calcul des coefficients de précodage L’algorithme adopté pour paramétrer le précodeur QdS en fonction de l’importance des flux vidéo H.264/SVC et de l’état du canal de transmission est détaillé dans cette section. L’objectif de cet algorithme est de calculer les coefficients de la matrice diagonale de précodage Fd (voir équation 3.4), toute en s’assurant que la somme au carré de ces coefficients reste inférieure ou égale à la puissance d’émission, soit ∑bj=1 fj2 ≤ ET . Ainsi, la sortie de cet algorithme est un vecteur de taille b constitué des b coefficients de précodage fj , avec j = 1, ..., b. En entrée, l’Algorithme 1 nécessite les b valeurs singulières de la matrice 103 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO Figure 4.1: Processus de configuration du précodeur QdS pour la transmission vidéo H.264/SVC du canal H obtenue par l’étape de transformation du canal MIMO en un canal virtuel Hv (voir ➜3.4.2), ainsi que le seuil de communication (T h). Rappelons que les valeurs singulières de la matrice du canal (H) sont triées dans l’ordre de puissance décroissante. Cet algorithme est décri dans l’Algorithme 1, dont les étapes sont détaillées ci-après : – Initialisation : l’étape d’initialisation permet d’initialiser les b coefficients de précodage (fj ), avec j = 1, ..., b et le nombre de voies sélectionnées (b′ ) à zéro. – Calcul du nombre de voies de puissances significatives (b′ ) : le calcul de b′ est effectué par une boucle qui parcours les b valeurs singulières du canal. Le nombre de voies sélectionnées est incrémenté pour chaque voie de puissance supérieure ou égale à la puissance du seuil de communication (T h). La sortie de cette boucle est causée soit par le traitement de la première voie de puissance inférieure à T h, soit par le parcoure des b voies du canal. Ainsi, cette étape permet de calculer le nombre de voies de puissances significatives (b′ ). – Calcul des coefficients de précodage (fi ) : les coefficients fi sont calculés à l’aide d’une seconde boucle permettant le parcoure des b′ voies. L’allocation de la puissance est effectuée de telle sorte que la puissance de chaque voie est ramenée à la puissance du seuil T h, ce qui permet de transporter le flux vidéo correspondant à une faible probabilité d’erreur. Pour chaque voie, nous calculons la puissance résiduelle (PR ). Si PR permet de ramener la puissance de la voie traitée à la puissance du seuil (T h), la puissance nécessaire est allouée à cette voie. Dans le cas contraire toute la puissance résiduelle est allouée à cette voie. La sortie de la boucle est alors causée par l’allocation de toute la puissance d’émission (ET ) ou par le parcoure des b′ voies. – Lorsqu’aucune voie n’est sélectionnée par la première étape, la puissance d’émission est allouée à la première voie. Suivant la valeur de puissance (σ12 ) de la première voie, quelques trames du premier flux vidéo (ρ1 ) peuvent être reçues correctement. Cependant, dans de telles conditions de transmission, notre algorithme ne garantit pas la qualité de service à l’utilisateur. 104 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO Entrées : Coefficients du canal virtuelle Hv : σj , j = 0, ..., b et seuil de réception T h; Sorties : Calcul des coefficients de précodage fj , j = 0, ..., b Initialisation : b′ ← 0 , fj ← 0, j = 0, ..., b; pour j ← 1 a b faire si σj2 ≥ T h alors b′ ← b′ + 1 ; sinon Sortir de la boucle; fin fin pour j ← 1 a b′ faire ′ PR ← ET − ∑bi←1 fi2 ; si PR > (T h/σj2 ) alors √ fj ← T h/σj2 ; sinon √ f j ← PR ; Sortir de la boucle; fin fin si b′ = 0 √ alors f1 = E T ; fin Algorithme 1: Calcul des coefficients du précodeur QdS pour la transmission de vidéo H.264/SVC 4.2.3 Algorithme 2 : prise en compte de l’efficacité spectrale de la modulation On peut constater que l’Algorithme 1 utilise une modulation d’efficacité spectrale fixe, puisque cet algorithme ne calcule pas l’efficacité spectrale de la modulation considérée. De plus, l’efficacité spectrale de la modulation adoptée représente l’un des paramètres sur lesquels se base le choix du seuil de communication (T h). Dans cette section nous considérons L efficacités spectrales de la modulation ; ainsi nous définissons un seuil de communication pour chaque niveau d’efficacité spectrale (l) de la modulation, notés T hl , avec l = 1, ..., L. La figure 4.2 illustre la variation du RSB des quatre voies d’un canal MIMO (4×4) réaliste en fonction de la position du récepteur sur la trajectoire. Nous considérons la configuration de transmission utilisée dans le chapitre 4 pour évaluer les performances du schéma proposé, où l’émetteur reste fixe et le récepteur se déplace sur la trajectoire composée de quatre parties et de trois zones d’études suivant l’état du canal (voir ➜3.7.2.2). À partir de la figure 4.2, on peut constater que la puissance n’est pas uniformément répartie sur les 105 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO Figure 4.2: RSB des quatres voies en fonction de la distance quatre voies. Plus précisément, la puissance de la première voie est largement supérieure à celle des trois autres. Nous pouvons alors constater que l’Algorithme 1 n’exploite pas parfaitement le canal MIMO, car la puissance d’émission est uniformément répartie sur les quatre voies, dont les valeurs de puissance ne sont pas équivalentes. Par exemple lorsque le canal est de bonne qualité (Partie 3), la puissance des deux premières voies est nettement supérieure à celle des deux dernières. Cependant, en répartissant la puissance d’émission sur les quatre voies, une perte considérable au niveau des deux premières voies est constatée, car uniquement une faible partie de leur puissance est exploitée. L’Algorithme 1 concentre la puissance d’émission sur les deux dernières voies afin de les ramener à la puissance du seuil (T h). Ainsi, cette solution est sous optimale et n’exploite pas parfaitement le canal de transmission MIMO. L’objectif de l’Algorithme 2 est d’exploiter la puissance des premières voies via une modulation numérique de plus grande efficacité spectrale. Les principales étapes de l’Algorithme 2 (voir Algorithme 2 ) pour calculer le coefficient de précodage ainsi que l’efficacité spectrale de la modulation à utiliser au niveau de chaque voie sont décrites ci-après : – Initialisation : L’étape d’initialisation est similaire à celle de l’Algorithme 1, sauf que pour l’Algorithme 2 nous initialisons aussi l’efficacité spectrale des b voies à zéro. – La sélection des voies de puissance significative par rapport à la modulation de base (l = 1) reste aussi similaire à celle décrite dans l’Algorithme 1. Ainsi, uniquement les voies qui sont susceptibles de recevoir le flux vidéo avec la modulation d’efficacité spectrale minimum à une faible probabilité d’erreur sont considérées dans cet 106 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO algorithme. – Calcul des coefficients de précodage et l’efficacité spectrale de la modulation : tel qu’il est illustré dans l’Algorithme 2, deux boucles imbriquées sont utilisées. La première permet de parcourir les b′ voies, et la seconde parcours les L efficacités spectrales de la modulation. En effet, pour chaque voie (première boucle), le coefficient de précodage est calculé pour les L efficacités spectrales dans l’ordre croissant. La sortie de la seconde boucle est causée soit par le test des L efficacités spectrales de la modulation, soit par l’allocation de la totalité de la puissance d’émission (ET ). Ainsi, cette boucle permet, pour chaque voie, de calculer le coefficient de précodage correspondant à la modulation de la plus haute efficacité spectrale possible. L’efficacité spectrale de la modulation est aussi sauvegardée au niveau de cette boucle. Ce processus est répété à l’aide de la première boucle sur les b′ premières voies tant que la puissance d’émission n’est pas totalement allouée. – Lorsqu’aucune voie n’est sélectionnée par la première étape, soit b′ = 0, la puissance d’émission est allouée à la première voie associée à la modulation d’efficacité spectrale minimum (l = 1). Dans de telles conditions de transmission (très dégradées), l’Algorithme 2 ne garantit pas la qualité de service à l’utilisateur. 107 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO Entrées : Coefficients du canal virtuelle Hv : σj , j = 1, ..., b et T hl avec l=1, ..., L ; Sorties : Calcul des coefficients de précodage fj et l’efficacité spectrale de la modulation M odj avec j = 1, ..., b Initialisation : b′ ← 0 , fj ← 0, M odj ← 0 pour j = 1, ..., b; pour j ← 1 a b faire si σj2 ≥ T h1 alors b′ ← b′ + 1 ; sinon Sortir de la boucle; fin fin pour j ← 1 a b′ faire pour l ← 1 a L faire ′ PR ← ET − (∑bi←1 fi2 ) ; si PR > T hl /σj2 alors √ fj ← T hl /σj2 ; M odj ← l; sinon √ f j ← PR ; si l = 1 alors M odj ← 1 ; fin Sortir de la boucle; fin fin fin si b′ = 0 √ alors f1 = ET ; M od1 ← 1 ; fin Algorithme 2: Calcul des coefficients de précodage QdS et l’efficacité spectrale de la modulation 4.2.4 Système de transmission temps réel Après avoir détailler nos deux algorithmes, nous allons présenter dans cette section le système de transmission temps réel sur lequel nous évoluons leurs performances. Sachant que le débit de la couche physique est largement supérieur au débit de transmission temps réel de la vidéo, nous avons transmis dans le chapitre précédent (voir ➜3.7) plusieurs copies (plus de 50 copies) des vidéos F oreman et Akiyo pendant le déplacement du récepteur sur la trajectoire à une vitesse de 5 m/s. Cependant, le système de transmission adopté ne correspond pas vraiment à un système de transmission temps réel de vidéo, où 108 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO le récepteur doit recevoir uniquement 30 images de la séquence vidéo par seconde. Dans ce chapitre, nous allons utiliser un système de transmission temps réel de vidéo, où seul le débit nécessaire à la transmission de la vidéo est attribué à notre récepteur. Nous supposons dans la suite de nos travaux que le débit de la couche physique est partagé entre plusieurs utilisateurs dans le réseau. L’émetteur transmet alors 30 images de la vidéo par seconde à tous les utilisateurs dans le réseau au travers d’un système TDD 1 pour l’accès au canal de chaque utilisateur. Le nombre d’utilisateurs maximum auxquels notre émetteur peut simultanément transmettre la vidéo est calculé à partir du débit de la couche physique (pour une seule voie et une modulation d’efficacité spectrale minimum l = 1) divisé par le débit de la couche basse qualité de la vidéo (flux ρ1 ). Nous considérons le débit de base des couches application et physique, car l’amélioration du débit, apportée par l’augmentation de l’efficacité spectrale de la modulation et du nombre de voies, est utilisé pour transporter les flux d’amélioration de qualité de la vidéo (ρj avec j = 2, ..., N ). Ainsi, nous pouvons constater que les débits des différents flux de la vidéo ρj avec j = 1, ..., N doivent être équivalents et constants tout au long de la transmission. Il existe dans la littérature plusieurs mécanismes qui permettent le contrôle de débit dans le codage de la vidéo, appelés mécanismes de de régulation de débit. Ces mécanismes ont été implémentés dans le codeur vidéo H.264/AVC [133] [134] [136]. Par la suite, ces solutions ont été adaptées au codeur scalable H.264/SVC, notamment l’approche ρdomaine [137] validée pour toutes les scalabilités du codeur H.264/SVC dans le cadre de la thèse de Y. Pitrey [138]. La régulation de débit représente alors un domaine de recherche à part entière, qui ne fait pas l’objet de notre thèse. De plus, l’implémentation de ces mécanismes est relativement complexe et nécessite un temps de développement considérable. Afin d’assurer un débit constant et équivalent pour tous les flux vidéo, nous utilisons le programme itératif f ixedQpEncoder, qui est un outil présent dans le logiciel de référence du codec H.264/SVC [131]. Cet outil permet à l’aide de plusieurs itérations de calculer les coefficients de quantification permettant d’atteindre le débit ou la qualité de la vidéo souhaité. 4.2.5 Contexte de transmission Dans ce paragraphe nous décrivons les configurations de codage des couches physique et application adoptées pour évaluer les performances des deux algorithmes proposés : Algorithme 1 et Algorithme 2. 4.2.5.1 Couche physique Nous évaluons les performances des deux algorithmes sur un canal MIMO (4 × 4) réaliste. La configuration du canal adoptée reste similaire à celle décrite dans le paragraphe 3.7, où l’émetteur reste fixe et le récepteur se déplace sur la trajectoire dans le 1. TDD : Time Division Multiplexing 109 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO campus de l’Université de Poitiers à une vitesse de 5 m/s. Rappelons que la trajectoire est composé de cinq parties qui correspondant à cinq changements brusques de la puissance reçue. Ces cinq parties appartiennent à trois zones d’étude suivant l’état du canal. Les parties 1 et 5 représentent la zone 1 pour un canal de mauvaises conditions. La zone 2 représente un canal de moyennes conditions et regroupe les parties 2 et 4. Enfin, la zone 3 représente un canal de bonne qualité qui est située au niveau de la partie 3 de la trajectoire. Notre récepteur est noté dans ce qui suit Utilisateur 1. Nous adoptons la modulation numérique de la norme IEEE 802.11n, à savoir la modulation M-QAM, avec M= {4, 16, 128, 256}. Ces efficacités spectrales correspondent alors aux L niveaux d’efficacité spectrale définis dans l’Algorithme 2, soit l = 1, ..., L, avec L = 4 pour la modulation 256-QAM. Pour l′ Algorithme1, nous utilisons la modulation d’efficacité spectrale minimum (l = 1), à savoir la modulation 4-QAM. Les seuils de communication (T hl , avec l = 1, ..., L) à faible TEB sont fixés à partir des courbes théoriques de TEB de la modulation M-QAM associée à un canal de Rayleigh. Ainsi, le CCE et son rendement ne sont pas considérés dans la puissance des seuils. Afin de minimiser la perte, nous adoptons le CCE LDPC de rendement maximum : Rc = 5/6. 4.2.5.2 Couche application Au niveau du codage de source, nous utilisons la vidéo Soccer de résolution spatiale 704 × 576 pixels/image. Les 288 premières images de la séquence vidéo sont codées par le codeur de référence H.264/SVC [131] à 30 images/s en quatre résolutions temporelles (GOP = 8). Sachant que le nombre de flux vidéo transmis par l’Algorithme 2 peut dépasser le nombre de voies maximum du canal MIMO, nous avons configuré le codeur H.264/SVC pour fournir le nombre maximum de résolutions en qualité qui est limité à 8. Une image intra est insérée chaque 16 images. Nous utilisons l’outil f ixedQpEncoder pour le calcul des coefficients de quantifications des huit couches de résolution en qualité à un débit identique de 250 Kb/s. Néanmoins, nous tolérons une variation de 4% autour du débit souhaité. Les paramètres du codage de source pour chacune des huit couches de résolution en qualité sont donnés dans le tableau 4.1. Enfin, la qualité des vidéos reçues est évaluée au travers du PSNR de la composante luminance (Y) de la vidéo, noté PSNR Y. 4.2.6 Résultats et discussions Dans cette section nous allons présenter les performances des deux algorithmes proposés en les comparant aux résultats obtenues par le précodeur WF. Nous utilisons le précodeur WF pour la comparaison, car c’est le précodeur qui offre en moyenne les performances les plus proches du précodeur QdS paramétré par trois configurations suivant l’état du canal (voir ➜3.8). En utilisant le système de transmission temps réel, l’Utilisateur 1 reçoit 4 copies de la vidéos Soccer pendant son déplacement sur la trajectoire. Le PSNR des images de ces quatre vidéos est représentés respectivement sur les figures 4.3, 4.4, 4.5 et 4.6 suivant les 110 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO Flux Flux Flux Flux Flux Flux Flux Flux Flux vidéo (ρ1 ) (ρ1+2 ) (ρ1+2+3 ) (ρ1+2+3+4 ) (ρ1+2+3+4+5 ) (ρ1+2+3+4+5+6 ) (ρ1+2+3+4+5+6+7 ) (ρ1+2+3+4+5+6+8 ) QP 48,2 43,8 41,7 40,3 39,4 38,8 38,5 37,6 Débit (Kb/s) 236,40 483,60 729,70 1032,40 1278,10 1558,30 1864 1975 PSNR Y (dB) 35,32 36,28 36,96 37,65 38,15 38,56 38,79 38,82 Table 4.1: Paramètres de codage de la vidéo Soccer (704 × 576) en huit résolutions de qualité zones. Pendant le réception de la première vidéo, l’Utilisateur 1 parcours les parties 1 et 2 de la trajectoire. On peut constater que pendant la première partie de la trajectoire (mauvaises conditions de transmission), les deux algorithmes arrivent à recevoir le premier flux (ρ1 ) des 255 premières images pour assurer une vidéo de basse qualité. Dans ces conditions de transmission, les performances du précodeur WF ne sont pas représentées, car ce précodeur n’assure pas la basse qualité de la vidéo. Les images 255 à 288 sont reçues au début de la partie 2 de la trajectoire, qui représente un canal de moyenne qualité (zone 2). On remarque que sur cette partie, les deux algorithmes offrent les mêmes performances, et surpassent légèrement celles du précodeur WF. De plus, l’écart de PSNR entre les images reçues et celles de la vidéo transmise devient moins important comparé à l’écart constaté sur les 255 premières images. Cela montre que les deux algorithmes et le précodeur WF reçoivent plus qu’un flux vidéo. On constate aussi que lorsque le canal est très dégradé (images 45-55), même si les deux algorithmes allouent toute la puissance d’émission à la première voie, la puissance de cette voie reste faible pour recevoir correctement le flux vidéo de basse qualité. Le PSNR des images de la seconde vidéo est représenté sur la figure 4.4. Toutes les images de cette vidéo sont reçues sur la partie 2 de la trajectoire (canal de moyenne qualité). On constate que dans de moyennes conditions de transmission les algorithmes 1 et 2 réalisent les mêmes performances, et surpassent les performances du précodeur WF. Les images de la troisième vidéo sont reçues sur la partie 3 de la trajectoire, qui représente un canal de bonnes conditions de transmission (zone 3). Dans de telles conditions de transmission, l’Algorithme 2 surpasse les performances de l’Algorithme 1 et celles du précodeur WF. On remarque aussi que l’Algorithme 2 reçoit correctement les huit flux vidéo pour atteindre la qualité de la vidéo transmise. Tel que illustrée sur la figure 4.6, la quatrième vidéo est reçue entre les parties 3 (zone 2) et 4 (zone 1) de la trajectoire. Ainsi, on retrouve sur ces deux parties le même comportement observé respectivement sur les figures 4.3 et 4.4. Afin de comprendre le comportement de l’Algorithme 2, nous avons représenté sur la figure 4.7 le niveau (l) de l’efficacité spectrale de la modulation M-QAM en fonction du 111 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO numéro de trame transmise à l′ U tilisateur1. Si l’Algorithme 1 reçoit dans de moyennes conditions de transmission deux flux (ρ1 et ρ2 ) via respectivement les deux premières voies, l’algorithme 2 reçoit ces deux flux par la première voie avec une modulation d’efficacité spectrale double (l = 2). La figure 4.7 montre aussi que dans de bonnes conditions de transmission (partie 3), plus de huit flux vidéo peuvent être transmis par l’Algorithme 2 : 4 flux sur la première voie, 3 flux sur la seconde voie et 2 flux sur la troisième voie. Ainsi, si le logiciel référence du codeur H.264/SVC permettait un codage en plus de huit résolutions, on pourrait améliorer davantage la qualité de la vidéo reçue par l’Algorithme 2. Figure 4.3: Performances des algorithmes proposés sur un canal réaliste MIMO (4 × 4) zones 1 et 2, l’Utilisateur 1 (vidéo 1) 112 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO Figure 4.4: Performances des algorithmes proposés sur un canal réaliste MIMO (4 × 4) zone 2, l’Utilisateur 1 (vidéo 2) Figure 4.5: Performances des algorithmes proposés sur un canal réaliste MIMO (4 × 4) zone 3, l’Utilisateur 1 (vidéo 3) 113 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO Figure 4.6: Performances des algorithmes proposés sur un canal réaliste MIMO (4 × 4) zones 2 et 1, l’Utilisateur 1 (vidéo 4) Figure 4.7: Variation du niveau (l) d’efficacité spectrale de la modulation QAM en fonction du numéro de trame de l’Utilisateur 1 114 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO 4.3 4.3.1 Solution analytique Motivations Nous avons vu dans la section précédente qu’à l’aide d’une solution algorithmique nous pouvions calculer les coefficients du précodeur QdS en fonction de l’état du canal tout en prenant en compte l’importance du flux vidéo. Ces solutions algorithmiques ont l’avantage d’être simples à implémenter, mais il n’est pas certain qu’elles fournissent la configuration de transmission optimale quel soit l’état du canal MIMO. En effet, on peut proposer d’autres algorithmes qui offrent de meilleurs résultats dans certaines conditions de transmissions. Les performances de ces algorithmes vont principalement dépendre de l’état du canal et plus particulièrement de la répartition de la puissance sur les différentes voies. Par exemple, dans le cas de l’Algorithme 2, on peut privilégier l’allocation de la puissance à un ensemble de voies parmi les b′ voies sélectionnées, puis allouer la puissance résiduelle pour augmenter l’efficacité spectrale de leur modulation. Ainsi, le problème qui se pose est le suivant : est-il préférable d’allouer de la puissance à une nouvelle voie (pas encore traité) ou plutôt augmenter l’efficacité spectrale de la modulation à une voie déjà traitée ? Ces solutions peuvent être plus ou moins performantes suivant l’état du canal de transmission et la répartition de la puissance sur les différentes voies. L’algorithme proposé par Hughes-Hartogs en 1987 [135] permet une allocation optimale de puissances et de bits. Cependant, cet algorithme ne considère pas l’importance du flux binaire à transmettre et la répartition de puissances et de bits est obtenues par itération. Ainsi, lorsque le nombre de sous canaux SISO est important, la complexité de ce type d’algorithmes devient conséquente. Cette problématique nous a orientée vers un modèle analytique plus général pour modéliser la transmission du flux vidéo H.264/SVC sur un canal MIMO. Ainsi, la solution de ce modèle de transmission devrait permettre de trouver la configuration de transmission optimale quelles que soient les conditions de transmission. On entend par la configuration de transmission optimale les paramètres de codage de source et de codage de canal qui offrent la meilleure qualité des vidéos reçues. Dans le cas de notre étude, on s’intéresse à la taille du GOP et aux coefficients de quantifications des N flux vidéo (QPi , avec Q = 1, ..., N ) au niveau de la couche application, ainsi que le ou les rendements du CCE (Rc ), les niveaux d’efficacité spectrale de la modulation (lj , avec j = 1, ..., b) et les coefficients du précodeur QdS (fj , avec j = 1, ..., b) au niveau de la couche physique. 4.3.2 Modélisation mathématique du problème Le modèle théorique proposé dans cette section considère l’importance des flux vidéo H.264/SVC au niveau de la couche application ainsi que la modulation numérique QAM et les coefficients du précodeur QdS au niveau de la couche physique. Dans un premier temps, la solution de ce modèle va se restreindre à calculer les coefficients de précodage qui offrent les performances de transmission optimales, soit les paramètres du codage de 115 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO source et l’efficacité spectrale de la modulation QAM restent fixes. 4.3.2.1 Expression de la distorsion totale L’objectif de cette section est d’écrire la distorsion de la source et du canal en fonction des coefficients de précodage. En supposant que les distorsions de la source (DS ) et du canal (DCh ) sont indépendantes entre elles, la distorsion totale (D) est la somme des deux distorsions : D = DS + DCh . (4.1) Le codeur de source encode la vidéo originale en plusieurs résolutions temporelle, spatiale ou en qualité. Ainsi, chaque niveau de résolution est associé à une distorsion particulière. En effet, la qualité de base et la meilleure qualité de la vidéo correspondent respectivement aux distorsions maximale et minimale du codage source. Dans nos travaux, nous supposons que le codeur de source fournit N flux vidéo (ρi , avec i = 1..., N ) correspondant à N différents niveaux de distorsion qui restent fixes, c’est-à-dire que nous n’intervenons pas au niveau des paramètres de codage de source. En conséquence, la distorsion totale peut être exprimée uniquement en fonction de la distorsion du canal. Minimiser la distorsion totale revient alors à minimiser la distorsion du canal : min{D} = min{DCh }, avec DS fixée. (4.2) Nous adoptons le modèle d’erreur proposé dans [91] pour la transmission de vidéo H.264/SVC sur un canal MIMO exploité par un codage spatio-temporel. Ce modèle d’erreur revient à une transmission de vidéo H.264/SVC sur un canal SISO, puisque le canal MIMO est exploité par un codage spatio-temporel 2 . La distorsion du canal est égale à la somme des distorsions sur les N pixels de l’image : N pixels DCh = ∑ E{(fi − f̂i ) } 2 (4.3) i=1 avec fi et fˆi le niveau de gris du pixel i de respectivement les images transmise et reçue. On peut écrire l’équation (4.3), pour le pixel i, sous la forme suivante : DCh,i = E{(fi − f̂i ) } = fi2 − 2fi E{f̂i } + E{f̂i }. 2 2 (4.4) Nous avons adapté ce modèle d’erreur (4.4) à une transmission sur un canal MIMO diagonalisé en quatre voies. Le premier terme de cette formule étant connu au niveau de l’émetteur, nous calculons le second et le troisième terme pour la transmission de quatre flux vidéo H.264/SVC : ρ1 , ρ2 , ρ3 et ρ4 sur respectivement les quatre voies d’un canal MIMO(4 × 4) virtuel. Nous nous restreignons à quatre flux vidéo pour faciliter la compréhension du développement. 2. Codage spatio-temporel : le canal MIMO est exploité par une seule voie pour améliorer la robustesse de lien radio 116 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO i. Par un calcul simple de probabilité, l’espérance mathématique du niveau de gris du pixel fi reçu est donnée par la formule suivante : E{f̂i } = (1 − P1 )P2 P3 P4 fi,ρ1 + (1 − P1 )(1 − P2 )P3 P4 fi,ρ1+2 + (1 − P1 )(1 − P2 )(1 − P3 )P4 fi,ρ1+2+3 + (1 − P1 )(1 − P2 )(1 − P3 )(1 − P4 )fi,ρ1+2+3+4 (4.5) avec Pj la probabilité d’erreur de la voie j du canal MIMO et fi,ρ1+2+...+k le niveau de gris du pixel i de l’image de la vidéo reconstruite avec les k premiers flux vidéo. Cette formule (4.5) énonce que le niveau de gris du pixel reçu est égal au niveau de gris du pixel reconstruit par la première résolution si uniquement la première voie est de faible probabilité d’erreur. Il est égal au niveau de gris de la seconde résolution si les deux premières voies ont simultanément une faible probabilité d’erreur, et il sera égal à le résolution maximale si les toutes les voies ont simultanément une faible probabilité d’erreur. Cette hiérarchie de transmission des flux correspond exactement à la hiérarchie de décodage du codeur H.264/SVC. ii. Le troisième terme de la formule 4.4 est donné de la même façon que (4.5) par la formule suivante : 2 2 + + (1 − P1 )(1 − P2 )P3 P4 fi,ρ E{f̂i } = (1 − P1 )P2 P3 P4 fi,ρ 1+2 1 2 (1 − P1 )(1 − P2 )(1 − P3 )P4 fi,ρ1+2+3 + 2 . (1 − P1 )(1 − P2 )(1 − P3 )(1 − P4 )fi,ρ 1+2+3+4 2 (4.6) Sachant que les différentes voies sont issues de la diagonalisation du canal, nous pouvons exprimer la probabilité d’erreur de chaque voie pour la modulation M-QAM et un canal Gaussien par la formule suivante [30] : √ √ 4( Mj − 1) ⎛ 3RSBj ⎞ √ , j = 1, ..., 4 (4.7) Q Pj ≈ ⎝ Mj − 1 ⎠ Mj avec RSBj le rapport signal à bruit de la voie j et Q(z) la fonction définie par la probabilité qu’une variable aléatoire Gaussienne X de moyenne nulle et de variance unitaire soit supérieure à z : +∞ 1 y2 exp − dy. (4.8) Q(z) = PX (x > z) = ∫ 2π 2 z La fonction Q peut aussi être exprimée en fonction de la fonction d’erreur complémentaire erf c, sous la forme suivante : 1 z Q(z) = erf c ( √ ) . 2 2 (4.9) Dans ce qui suit afin d’éviter toute confusion entre les notations des niveaux de gris des pixels et les coefficients de précodage, ces derniers seront notés par wj , avec j = 1, ..., 4. 117 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO On peut exprimer le rapport signal à bruit de chaque voie (RSBj ) en fonction de son coefficient de précodage (wj ) et de sa valeur singulière (σj ) : RSBj = wj2 σj2 . (4.10) En remplaçant (4.10) dans (4.7), on obtient la probabilité d’erreur de chaque voie en fonction de son coefficient de pré-codage wi : √ √ 4( Mj − 1) 3 √ ) (4.11) Pj (wj ) ≈ Q (wj σj Mj − 1 Mj Ainsi, on peut écrire la distorsion totale relative au pixel i en fonction des coefficients de précodage. Les facteurs communs dans la fonction de distorsion permettraient de simplifier son écriture (voir ➜4.3.2.3 , équation (4.20)) : 2 2 DCh,i (w1 , w2 , w3 , w4 ) = fi,ρ − (1 − P1 (w1 ))[P2 (w2 )fi,ρ1 (2fi,ρ − fi,ρ1 )+ 1+2+3+4 1+2+3+4 2 (1 − P2 (w2 ))[P3 (w3 )fi,ρ1+2 (2fi,ρ − fi,ρ1+2 )+ 1+2+3+4 2 (1 − P3 (w3 ))[P4 (w4 )fi,ρ1+2+3 (2fi,ρ − fi,ρ1+2+3 )+ 1+2+3+4 (4.12) 2 (1 − P4 (w4 )) (fi,ρ1+2+3+4 (2fi,ρ − fi,ρ1+2+3+4 ))]]] 1+2+3+4 La distorsion du canal sur une image en fonction des coefficients de précodage s’écrit donc sous la forme suivante : N pixels DCh (w1 , w2 , w3 , w4 ) = ∑ DCh,i (w1 , w2 , w3 , w4 ) (4.13) i=1 4.3.2.2 Programme d’optimisation multi-variables avec contrainte Dans la section précédente nous avons exprimé la distorsion des vidéos H.264/SVC reçues sur un canal MIMO diagonalisé (canal virtuel). Notre objectif est de calculer les coefficients de précodage qui offrent la configuration de transmission optimale, ce qui revient à trouver les coefficients de précodage qui minimisent la distorsion totale. Ce problème est un programme d’optimisation multi-variable, noté P : min P= (w1 ,w2 ,...,wb )∈R+b s.c. D(w1 , w2 , ..., wb ) g(w1 , w2 , ..., wb ) = ∑bj=1 wj2 ≤ ET (4.14) où D(w1 , w2 , ..., wb ) représente la fonction objective du programme d’optimisation sous la contrainte que la somme des coefficients de précodage au carré reste inférieure à la puissance de transmission (ET ), soit ∑bj=1 wj2 ≤ ET . La résolution de ce programme permettra de trouver les coefficients de précodage optimaux qui minimisent la distorsion de la vidéo reçue. La solution de ce programme est donnée dans la section suivante. 118 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO 4.3.2.3 Résolution du problème Ce type de programme d’optimisation entre dans la catégorie des programmes d’optimisation sous contraintes prenant la forme d’inéquation. Cette catégorie de programme d’optimisation est généralement résolue à l’aide du Lagrangien associé aux conditions de Kuhn et Tuker [73]. Nous définissons le Lagrangien comme la fonction L suivante : L (w, λ) = D (w) − λ (g(w) − ET ) (4.15) avec λ le paramètre de Lagrange. Cependant, pour pouvoir utiliser cette solution, les conditions sur la contrainte doivent être vérifiées. Généralement, la fonction de contrainte g(w) est linéaire (ou encore g(w) est une fonction affine). Or, on peut constater que la fonction de la contrainte de notre programme d’optimisation n’est pas linéaire. Dans ce cas, nous devons calculer la matrice Jacobienne JG (w1 , w2 , ..., wb ) de la fonction de contrainte, qui doit être de rang égal au nombre de fonctions de contraintes. La matrice Jacobienne ligne de la contrainte g(w) est donnée ici par l’équation suivante : JG (w1 , w2 , ..., wb ) = ( ∂g(w) ∂w1 ∂g(w) ∂w2 ⋯ ∂g(w) ) ∂wb = (2w1 2w2 ⋯ 2wb ) (4.16) On peut constater que la matrice Jocobienne est de rang 1 quel que soit les wj avec j = 1, ..., b, puisqu’elle est composée d’une seule ligne. Ainsi les conditions de Kuhn et Tuker sont nécessaires et suffisantes pour garantir l’optimalité de notre problème, soit [73] : ∂L(w,λ) ⎧ = 0, ∀j = 1, ..., b ⎪ ⎪ ∂wj ⎪ ⎪ ∂L(w,λ) ⎪ ⎪ ⎪ ∂λ ≥ 0 ⎨ ⎪ λ≥0 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎩λ (g(w) − ET ) = 0 ⇔ ∂g(w) ∂D(w) ⎧ ⎪ ⎪ ∂wj − λ ∂wj = 0, ⎪ ⎪ ⎪ ⎪ ⎪g(w) ≤ ET ⎨ ⎪ λ≥0 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎩λ = 0 ou g(w) = ET ∀j = 1, ..., b (4.17) Généralement, la résolution des conditions de Kuhn et Tuker est compliquée par le fait qu’il faut envisager successivement toutes les configurations possibles. De plus, dans notre cas, la complexité de la fonction objective qui s’écrit en fonction de la fonction erf c rend ce programme difficilement résolvable via cette approche. Afin de résoudre ce problème nous optons pour une autre approche implémentée dans la plupart des outils d’optimisation, telles que la T oolBox des méthodes d’optimisations de Matlab [141] et le logiciel d’optimisation Mosek [140]. Cette approche est basée sur la méthode connue par le nom de méthode du point intérieur (en anglais interior-point) [139]. Cette méthode prend en entrée plusieurs paramètres : la fonction objective, la fonction de la contrainte, la matrice Hessienne de la fonction objective, le gradient de la contrainte, le nombre d’itérations maximum et le point initial. Dans ce qui suit nous allons exprimer la matrice Hessienne de la fonction objective pour un canal MIMO (4 × 4). Rappelons que la matrice Hessienne est composée des dérivées partielles secondes de la 119 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO fonction de distorsion en fonction des coefficients de précodage wj , j = 1, ..., b. La matrice Hessienne de la fonction de distorsion est ainsi égale à : ⎛ ∂∂wD1 ⎜ ∂2D ⎜ 2 w1 H̄(w1 , w2 , w3 , w4 ) = ⎜ ∂w ⎜ ∂2D ⎜ ∂w23 w1 ∂ D ⎝ ∂w 4 w1 2 ∂2D ∂w1 w2 ∂2D ∂w2 ∂2D ∂w3 w2 ∂2D ∂w4 w2 ∂2D ∂w1 w3 ∂2D ∂w2 w3 ∂2D ∂w3 ∂2D ∂w4 w3 ∂2D ∂w1 w4 ⎞ ∂2D ⎟ ∂w2 w4 ⎟ ∂2D ⎟ ⎟ ∂w3 w4 ⎟ 2 ∂ D ⎠ ∂w4 (4.18) Sachant que la matrice Hessienne est une matrice symétrique, nous allons dans ce qui suit ∂2D , avec i ≥ j. calculer seulement les dérivés partielles d’ordre 2 ∂w i wj i. Calcul des drivées partielles d’ordre 1 de la fonction objective D. Sans perte d’information, nous supposons que les différentes voies du canal MIMO issues de l’étape de transformation en canal virtuel sont décorrélées. Ainsi, les dérivés partielles premières de la probabilité d’erreur de chaque voie sont données par : avec τj = σj √ 3 Mj −1 , ⎧ ⎪ ∂Pj (wj ) ⎪τj mj Q′ (wj τj ), si j = k ′ = Pj,wk = ⎨ ⎪ ∂wk sinon ⎪ ⎩0, mj = √ 4( Mj −1) √ Mj et Q′ (wj τj ) = 1 2π exp (− (4.19) wj2 τj2 2 ) Les dérivés premières de la fonction de distorsion D(w1 , w2 , w3 , w4 ) s’écrivent alors sous la forme suivante : ⎧ ′ j=1 ∂D(w1 , ..., w4 ) ⎪ ⎪P 1 c1 , (4.20) = ⎨ 1,wj−1 2 ′ ⎪− ∏k=1 (1 − Pk )Pj,wj [2fi,ρj (fi,ρ3 − fi,ρj ) − cj ] j = 2, ..., 4 ∂wj ⎪ ⎩ en notant cj le facteur de (1 − Pj (wj )), j=1, ..., 4 donné dans l’équation (4.12). ii. Calcul des dérivées partielles d’ordre 2 de la fonction objective D. Nous calculons tout d’abord les dérivées partielles secondes des probabilités Pj (wj ) : ⎧ ⎪τ 2 mj Q′′ (wj τj ), si k = l = j ∂ 2 Pj (wj ) ⎪ ′′ = Pj,wk ,wl = ⎨ j ⎪ ∂wk wl sinon ⎪ ⎩0, avec Q′′ (wj τj ) = − wj τj3 2π exp (− (4.21) wj2 τj2 2 ) Les dérivées partielles secondes de la fonction de distorsion sont finalement données par la formule suivante : ⎧ P ′′ 1 c1 , si j = k = 1 ⎪ ⎪ ⎪ 1,w ∂ 2D ⎪ k−1 ′′ 2 ′′ = ⎨∏l=1 et l≠j (1 − Pl )Pj,wj Pk,wk [fi,ρk−1 (2fi,ρ − fi,ρk−1 ) − ck ], 3 ∂wj wk ⎪ ⎪ ⎪ ⎪ si j, k = 2, ..., 4 et k > j ⎩ 120 (4.22) CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO 4.3.3 Configuration de la transmission Afin d’évaluer les performances du précodeur QdS paramétré par la solution analytique, nous adoptons la configuration de transmission considérée en (➜4.2.5) pour évaluer les performances des deux algorithmes. On fournit à la méthode d’optimisation tout les paramètres nécessaires, à savoir la fonction de distorsion (fonction objectif), la fonction de contrainte, la matrice Hessienne de la fonction objective, le gradien de la contrainte, le nombre d’itérations maximum et le point initial. Le point initial a une importance toute particulière dans la rapidité de convergence vers la solution optimale. En effet, si ce point de départ est bien choisi, c’est à dire qu’il est proche de la solutions optimale, l’algorithme itératif converge très rapidement, ce qui diminue considérablement la complexité et le temps de calcul de cette approche. 4.3.4 Résultats et discussions Dans cette section nous allons présenter les performances de notre schéma en utilisant la méthode d’optimisation pour calculer les coefficients du précodeur QdS. Les PSNR des quatre vidéos reçues par l’Utilisateur 1 pendant son déplacement sur la trajectoire sont illustrés respectivement sur les figures 4.8, 4.9, 4.10 et 4.11. Les performances du schéma d’optimisation sont comparées avec celles de l’Algorithme 1. Nous avons choisi l’Algorithme 1, car c’est le schéma qui offre les meilleures performances en utilisant une modulation d’efficacité spectrale fixe égale à 4, en l’occurrence la modulation 4-QAM. Dans de mauvaises conditions de transmission (les 255 premières images de la figure 4.8, partie 1 et zone 1 de la trajectoire), la courbe de la méthode d’optimisation et celle de l’Algorithme 1 sont superposées. On peut alors constater que l’Algorithme 1 réalise les performances de transmission optimales et calcule les coefficients de précodage qui minimisent la distorsion totale de la vidéo reçue. Dans des conditions de transmission moyennes, c’est à dire lorsque l’Uilisateur 1 se déplace sur la partie 2 de la trajectoire (figure 4.9), les performances des deux solutions sont très proches. Néanmoins sur certaines images de la vidéo, les performances de l’Algorithme 1 sont au dessus de celles de la méthode d’optimisation. Ce faible écart entre les deux courbes peut être expliqué par quatre raisons principales. Premièrement, la courbe de TEB de notre chaı̂ne de transmission, qui adopte un CCE de rendement 5/6, ne correspond pas exactement à la courbe de TEB considérée dans le modèle de distorsion, qui ne considère pas de CCE. De plus, le canal de transmission réaliste a un comportement d’une canal de Rayleigh variable dans le temps, alors que dans le modèle d’erreur nous considérons un canal Gaussien. Troisièmement, la méthode d’optimisation adoptée pour résoudre ce programme d’optimisation, à savoir la méthode du point-intérieur, est une méthode numérique basée sur un calcul itératif. Ainsi, cette méthode approche la solution optimale avec une très faible erreur, mais ne fournit pas exactement la solution optimale. Enfin, ces résultats sont obtenus sur une seule simulation, où la position des erreurs du bruit Gaussien peut légèrement influencer les résultats. Dans de bonnes conditions de transmission (figure 4.10, partie 3 et zone 3), les perfor- 121 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO mances de la méthode d’optimisation sont aussi très proches de celles de l’Algorithme 1. Contrairement à la courbe précédente, dans de telles conditions de transmission la méthode d’optimisation surpasse les performances de l’Algorithme 1 sur certaines images de la vidéo. Sur la figure 4.11, qui illustre les performances des deux schémas dans de moyennes et de mauvaises conditions de transmission, nous retrouvons le même comportement que ceux analysés sur figures 4.8 et 4.9. Figure 4.8: Performances de la méthode d’optimisation sur un canal réaliste MIMO (4 × 4) : Utilisateur 1 (vidéo 1) 122 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO Figure 4.9: Performances de la méthode d’optimisation sur un canal réaliste MIMO (4 × 4) : Utilisateur 1 (vidéo 2) Figure 4.10: Performances de la méthode d’optimisation sur un canal réaliste MIMO (4 × 4) : Utilisateur 1 (vidéo 3) 123 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO Figure 4.11: Performances de la méthode d’optimisation sur un canal réaliste MIMO (4 × 4) : Utilisateur 1 (vidéo 4) 4.3.5 Limites de la solution analytique La solution analytique proposée pour le calcul des coefficients de précodage présente aussi quelques limites. Cette solution se restreint aux seuls paramètres continus de la chaı̂ne de transmission. Ainsi, l’ensemble des paramètres discrets de la chaı̂ne de transmission ne peut pas être calculé par cette méthode. Par exemple, l’efficacité spectrale de la modulation M-QAM qui est définie dans un ensemble discret M ∈ {4, 16, 128, 256}, et la taille de GOP qui prend ces valeurs dans l’ensemble GOP ∈ {4, 8, 16, 32} ne peuvent pas être estimées par cette approche. D’autre part, on ne dispose pas, pour le moment, de modèles analytiques décrivant la distorsion de la vidéo H.264/SVC reçue sur un canal MIMO en fonction des rendements du CCE, de la taille du GOP et des paramètres de quantification. Ainsi, afin d’envisager l’intégration de la taille du GOP, des paramètres de quantification et les rendements du CCE dans le modèle de distorsion, il faut tout d’abord songer à exprimer analytiquement la distorsion de la vidéo H.264/SVC reçue en fonction de ces paramètres. On a vu dans le chapitre d’état de l’art (section 1.4) qu’il existe plusieurs travaux qui considèrent la taille du GOP et les paramètres de quantification dans l’optimisation des paramètres de transmission de vidéo sur un système SISO [81] [80] [82] [83], puis sur un système MIMO à boucle ouverte dans [93] [95]. Concernant la taille du GOP deux solutions sont proposées. La première [81] [80] fait appel à une approche algorithmique pour trouver la taille de GOP qui minimise la distorsion totale dans un ensemble discret. La seconde solution [82] [93] [95] considère le paramètre 124 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO de la taille de GOP comme un paramètre continu. Ainsi, cette solution ne considère pas vraiment un codeur de source réel, où la taille de GOP est un paramètre discret. À notre connaissance, il n’existe pas de travaux de transmission de vidéo sur un système MIMO à boucle fermée qui considèrent les paramètres de taille de GOP et le rendement du CCE. Afin de répondre à ce besoin, nous allons faire dans la section suivante une étude expérimentale sur l’influence des paramètres de codage de source (taille de GOP et coefficients de quantification) et de codage de canal (rendement du CCE) sur la transmission de vidéo H.264/SVC sur un système MIMO à boucle fermée. 4.4 Analyse débit-distorsion Dans cette section nous allons faire une étude de débit-distorsion pour la transmission du flux vidéo H.264/SVC sur un canal MIMO. L’objectif est d’une part, d’évaluer les performances de plusieurs configurations de codage source-canal dans différentes conditions de transmission de vidéo H.264/SVC sur un canal MIMO réaliste, et d’autre part, d’évaluer l’impact de la taille de GOP sur la qualité des vidéos reçues. 4.4.1 Contexte de l’étude Dans cette étude on considère que le débit de la couche physique alloué à notre utilisateur (U tilisateur1) reste fixe et sera égal à 500 Kb/s. Ainsi, le débit total de la transmission de la couche basse qualité de la vidéo plus la redondance ajoutée par le CCE ne doit pas dépasser 500 Kb/s, soit RS + RCh ≤ 500 Kb/s avec RS et RCh représentent respectivement les débits des codeurs de source et de canal. Nous réalisons cette étude de débit-distorsion via la transmission des flux vidéo codés par quatre différentes configurations EEP de codage source-canal (RS , Rc ) avec Rc le rendement du CCE, à savoir (250, 1/2), (333, 2/3), (375, 3/4) et (416, 5/6). Ces quatre configurations de codage sont testées pour trois tailles de GOP différentes, GOP = {4, 8, 16}. Les 144 premières images de la vidéo Soccer sont utilisées pour réaliser cette étude et codées par le logiciel de référence du codeur H.264/SVC en quatre résolutions de qualité. Les paramètres de codage des quatre configurations considérées dans notre étude sont donnés dans le tableau 4.2. Les coefficients du précodeur QdS sont calculés par l’Algorithme 1, dont le seuil de communication T h est fixé par rapport à la modulation 4-QAM. Chaque vidéo est transmise sur le canal réaliste représenté par une trajectoire composée de cinq parties correspondantes à des changements brusques de la puissance reçue. Le PSNR des vidéos reçues sur les différentes parties de la trajectoire représente les distorsions des vidéos reçues dans différentes conditions de transmission. Enfin, les résultats présentés ci-après correspondent à une moyenne sur 100 simulations. 125 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO ρ1 267,6 261,7 250,9 332,2 337,90 336,2 366,80 374,5 373 403,4 415,90 414 Débit ρ1+2 468 500,50 500,10 646,2 661,40 678,6 798,9 743,7 742,80 803,90 846,20 847,8 (Kb/s) ρ1+2+3 786 764,6 751,1 989,6 1008,30 991,2 1095,9 1124,8 1121 1218,6 1259,10 1232,6 QP ρ1+2+3+4 1010,70 1074,20 1056,2 1281 1306 1320,20 1581 1450,3 1535,80 1623,8 1645 1614,8 ρ1 51 50,5 50,5 48,2 47,4 47 47,1 46 45,9 46,1 45 44,9 ρ2 47,7 46 46 41,1 43,5 42,8 43,05 42,1 41,7 42,1 41,2 40,5 ρ3 44,9 43,8 43,8 42,1 41,5 40,9 41,4 40,2 39,6 40,1 39,1 38,8 ρ4 44 42 42 41,1 39,8 39,3 49,02 39,1 38,19 39,1 37,7 37,3 Rc GOP 1/2 1/2 1/2 2/3 2/3 2/3 3/4 3/4 3/4 5/6 5/6 5/6 4 8 16 4 8 16 4 8 16 4 8 16 Table 4.2: Configurations de codage source-canal de la vidéo Soccer (704 × 576) 4.4.2 Analyse des résultats 4.4.2.1 Impact du codage conjoint source-canal Les figures 4.12, 4.13 et 4.14 comparent les quatre configurations de codage sourcecanal pour respectivement les trois tailles de GOP considérées. Ces figures représentent la distorsion (PSNR) en fonction du débit des vidéos avant et après transmission, par respectivement, des courbes en lignes continues et en pointillées. La figue 4.12 montre que lorsque la taille du GOP est égale à 4, les performances des vidéos reçues dépendent des performances du codeur de source H.264/SVC. Ce qui signifie que les erreurs introduites par le canal de transmission n’engendrent pas une grande distorsion sur les vidéos reçues, même sur celles codées par la configuration de codage la moins robuste (416, 5/6). Ce comportement peut évidemment être expliqué par la robustesse du codage de source lorsque la taille de GOP est faible, où la propagation des erreurs dans le GOP est limitée à 4 images. De plus, on peut constater que lorsque la réception du premier flux vidéo est assuré sans erreur par l’Algorithme 1, les paramètres de quantification n’ont aucune ou une très faible influence sur la qualité des vidéos reçues. Cette faible distorsion est due au codage MGS adopté dans les paramètres de codage du codeur H.264/SVC. En effet, lorsque la qualité de vidéo de base est correctement reçue, il n’ y a plus de propagation des erreurs dans le GOP. Cependant, l’image de meilleure qualité reçue est utilisée pour la prédiction, alors que dans le codage MGS les images utilisent la résolution maximum pour la prédiction. Cela peut créer une désynchronisation entre le codage et le décodage (Drift) lorsque tous les flux de la video ne sont pas correctement reçus. Ce problème ne se pose pas pour les 126 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO images clés 3 , car ces images utilisent dans le codage MGS l’image de référence de qualité de base lors de la prédiction. Pour la taille de GOP égale à 8 (4.13), les performances des vidéos reçues ne suit plus les performances du codage de source dans de mauvaises conditions de transmission, où la réception sans erreur du premier flux vidéo n’est pas assurée par l’Algorithme 1. La propagation des erreurs dans le GOP dégrade la qualité des vidéos reçues dans de mauvaises conditions de transmission. Cette dégradation dépend de la configuration de codage source-canal. On remarque que la distorsion engendrée sur ces vidéos augmente avec le rendement du CCE adopté. Ainsi, les performances de la configuration de codage (416, 5/6) passent au dessous des performances des deux configuration moins performantes avant la transmission : les configurations (375, 3/4) et (333, 2/3). La figure 4.14 montre que lorsque la taille de GOP est relativement importante (GOP = 16), la propagation des erreurs dans le GOP dégrade encore davantage la qualité des vidéos reçues dans de mauvaises conditions de transmission. Cette dégradation est plus ou moins importante suivant la configuration de codage source-canal adoptée. On constate une dégradation importante sur les vidéos reçues par des configurations de codage sourcecanal les moins robustes, à savoir les configuration (416, 5/6) et (375, 3/4). La qualité des vidéos reçues par la configuration de codage source-canal (416, 5/6) passe au dessous de la qualité des vidéos reçues par les deux autres configurations de codage, alors que c’était la configuration qui offrait la plus faible distorsion avant la transmission. Ces trois figures nous ont permis de comparer les quatre configurations de codage sourcecanal pour trois tailles de GOP différentes sur un canal MIMO réaliste. Dans la section suivante nous présentons ces résultats en comparant les performances de transmission des vidéos codées par trois tailles de GOP dans les quatre configurations de codage sourcecanal. 3. voir la définition des images clés dans le paragraphe ➜3.2.5 127 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO Figure 4.12: Impact du codage conjoint source-canal pour GOP = 4 Figure 4.13: Impact du codage conjoint source-canal pour GOP = 8 128 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO Figure 4.14: Impact du codage conjoint source-canal pour GOP = 16 4.4.2.2 Impact de la taille des GOP Les figures 4.15, 4.16, 4.17 et 4.18 comparent les performances des trois tailles de GOP dans respectivement les quatre configurations de codage débit-distorsion adoptées. En plus aux remarques précédentes sur l’influence de la taille de de GOP sur la qualité des vidéo reçues, la figure 4.15 montre que lorsque on utilise une configuration de codage source-canal robuste (255, 1/2), la taille de GOP n’a pas un impact sur la qualité des vidéos reçues même dans de conditions de transmission les plus dégradées. Cependant, plus le rendement du CCE est important, plus l’impact de la taille de GOP devient plus important sur les vidéos reçues dans de mauvaises conditions de transmission. La courbe 4.18 confirme la grande distorsion entrainée par une taille de GOP importante lorsque on utilise une configuration de codage source-canal non robuste dans de mauvaise conditions de transmission, car la courbe correspondante à la taille de GOP = 16 passe largement en dessous des autres courbes dans de telles conditions de transmission. Finalement, à partir des sept figures précédentes on peut conclure que la taille de GOP a un impact sur la transmission sur un canal MIMO uniquement dans de mauvaises conditions de transmission, ou plus précisément lorsque l’Algorithme 1 n’arrive pas à assurer une réception sans erreur du premier flux de la vidéo (ρ1 ). Car même si l’état du canal est dégradé mais qu’on utilise une configuration de codage source-canal robuste, la taille des GOP n’a pas vraiment d’impact sur la qualité des vidéos reçues. Dans le cas contraire, c’est à dire dans de meilleures conditions de transmission, où le premier flux vidéo est correctement reçu, les paramètres du codage de source (taille de 129 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO GOP et coefficients de quantification) qui réalisent les meilleurs performances au niveau du codage de source doivent être adoptés pour la transmission indépendamment du codage de canal. Dans de mauvaises conditions de transmission associées à une configuration de codage source-canal robuste, la taille de GOP peut être aussi choisie indépendamment du codage de canal, car elle n’a pas d’impact sur la qualité des vidéos reçues. Ainsi, lorsque l’Algorithme 1 assure la réception sans erreur du premier flux vidéo, les codeurs de source et de canal peuvent être optimisés séparément. Figure 4.15: Impact de la taille de GOP pour la configuration de codage (250, 1/2) 130 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO Figure 4.16: Impact de la taille de GOP pour la configuration de codage (333, 2/3) Figure 4.17: Impact de la taille de GOP pour la configuration de codage (375, 3/4) 131 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO Figure 4.18: Impact de la taille de GOP pour la configuration de codage (416, 5/6) 4.5 Conclusion Dans ce chapitre nous avons proposé deux algorithmes pour calculer les coefficients du précodeur QdS. Ces algorithmes considèrent l’état du canal MIMO et l’importance des flux vidéo H.264/SVC pour améliorer la qualité des vidéos reçues. Nous avons vu que sur un canal MIMO (4×4) diagonalisé, la puissance des deux premières voies sont plus importantes que celles des deux dernières voies. L’Algorithme 2 permet d’exploiter la puissance des ces deux voies en augmentant l’efficacité spectrale de la modulation numérique. Ainsi, cet algorithme permet une meilleure exploitation du canal MIMO et améliore significativement la qualité des vidéos reçues, notamment dans de bonnes conditions de transmission. Dans un second temps, nous avons écrit un modèle analytique de distorsion correspondant à la transmission du flux vidéo H.264/SVC sur un canal MIMO virtuel. Nous avons exprimé la distorsion de la vidéo reçue en fonction des coefficients de précodage. Ainsi, la minimisation de la distorsion totale à l’aide d’une méthode d’optimisation permet de calculer précisément les coefficients de précodage qui minimisent la distorsion de la vidéo reçue. Ces coefficients de précodage réalisent alors les performances de transmission optimales. Cette étude théorique nous a permis aussi de valider les résultats obtenus par l’approche algorithmique, notamment l’Algorithme 1. Pour compléter cette étude en intégrant d’autres paramètres que les coefficients de précodage, nous avons effectué une analyse pertinente de débit-distorsion. Cette analyse nous a 132 CHAPITRE 4. SOLUTIONS ADAPTATIVES POUR LA TRANSMISSION DE VIDÉO H.264/SVC SUR UN CANAL MIMO permis de montrer l’impact d’autres paramètres de codage, tels que la taille du GOP et les coefficients de quantifications, au niveau du codage de source, ainsi que le rendement du CCE, au niveau du codage de canal. Les résultats expérimentaux montrent que ces trois paramètres ont un grand impact sur la qualité des vidéos reçues sur un canal MIMO réaliste lorsque la méthode adoptée pour le calcul des coefficients du précodeur QdS n’assure pas la réception sans erreur du premier flux vidéo. De plus, nous avons constaté que lorsque le premier flux de la vidéo est correctement reçu, les paramètres des codeurs de source et de canal peuvent être séparément optimisés. Cependant, une prise en compte de l’importance du flux vidéo par le CCE, c’est à dire une stratégie de codage source-canal UEP n’a pas encore été considérée dans nos travaux. Cette étude ouvre alors les portes à des perspectives intéressantes à ce travail, dont l’objet est de proposer cette fois un modèle analytique qui prenne en compte tous les paramètres des codeurs de source et de canal. Ainsi, la résolution du programme d’optimisation permettrait de trouver, suivant de la nature de la vidéo et l’état du canal, la configuration de transmission optimale du flux H.264/SVC sur un canal MIMO, à savoir la taille de GOP, les coefficients de quantification, les rendements du CCE par une stratégie de codage UEP, l’efficacité spectrale de modulation QAM et les coefficients de précodage. 133 Chapitre 5 Conclusion et perspectives Dans le cadre de cette thèse nous avons considéré deux points d’étude s’intéressant à deux aspects différents de la transmission de vidéo sur des liens radio mobiles : 1. La modélisation d’une couche physique réaliste et son impact sur la transmission temps réel de vidéo H.264/AVC dans un environnement urbain. 2. La transmission hiérarchique du flux vidéo H.264/SVC sur des systèmes MIMO à boucle fermée (CL-MIMO). Concernant le premier point, nous avons proposé une couche physique réaliste pour des configurations de canal SISO et MIMO suivant respectivement les normes de transmission IEEE 802.11a et IEEE 802.11n. En plus de considérer les spécificités d’un environnement réaliste, cette couche physique prend en compte toutes les perturbations d’un canal radio mobile : sélectivités fréquentielle et temporelle ainsi que le bruit des différentes perturbations du canal. Nous avons par la suite montré qu’une couche physique réaliste influence grandement sur les performances de transmission temps réel de vidéo, notamment sur la qualité visuelle des vidéos reçues. Pour une meilleure évaluation des performances des schémas de transmission temps réel de vidéo par réseaux sans fil, les concepteurs de ces nouvelles solutions doivent considérer une telle couche physique réaliste dans les simulateurs de réseaux. D’autre part, cette couche physique réaliste suscite un grand intérêt dans d’autres domaines de recherche, tels que les communications véhicule à véhicule (Vehicular communication systems). Dans cette communauté de recherche la modélisation réaliste de la couche physique est l’un des points majeurs à considérer pour évaluer les performances des protocoles proposés. Le deuxième point d’étude traite la transmission scalable du flux vidéo H.264/SVC sur des canaux MIMO. Nous avons proposé un schéma de transmission impliquant le codeur de vidéo H.264/SVC et quatre précodeurs linéaires : trois précodeurs diagonaux (Max-RSB, WF, QdS) et un précodeur non-diagonal (E-dmin ). Les performances de ce schéma ont été évaluées à la fois sur un canal statistique et un canal réaliste. De plus, nous avons mesuré la robustesse de ce schéma vis-à-vis des erreurs d’estimation du canal. Les résultats de simulation montrent que les précodeurs (E-dmin ) les plus performants en 135 CHAPITRE 5. CONCLUSION ET PERSPECTIVES terme de TEB ne sont pas forcément les plus appropriés à une transmission de vidéo. Cependant, une prise en compte par le précodeur QdS de la scalabilité du codeur H.264/SVC ainsi que de l’état du canal MIMO permet non seulement d’améliorer la qualité de la vidéo reçue, mais aussi d’assurer la qualité de service à l’utilisateur quelles que soient les conditions de transmission. Contrairement au précodeur non diagonal E-dmin , les précodeurs diagonaux restent très robustes aux erreurs d’estimation de canal même à des vitesses de mobilité relativement élevées de l’ordre de 10 m/s. Nous avons par la suite proposé deux solutions adaptatives pour le calcul des coefficients du précodeur QdS en considérant à la fois l’importance du flux vidéo H.264/SVC et l’état du canal MIMO. La première solution est algorithmique et permet d’atteindre les meilleures performances de transmission comparée aux autres solutions de précodage. Cet algorithme a été adapté pour le calcul de l’efficacité spectrale de la modulation de chaque sous canal SISO pour une meilleure exploitation du canal MIMO. Ainsi, cette solution permet d’améliorer davantage la qualité des vidéos reçues, notamment dans de bonnes conditions de transmission. Le seconde solution est analytique et permet à l’aide de la méthode de Lagrange associée aux conditions de Kuhn et Tucker de trouver les coefficients de précodage qui réalisent les meilleures performances de transmission. Après avoir exprimé la distorsion totale de la vidéo reçue en fonction des coefficients de précodage et de la modulation numérique, cette solution consiste à trouver les coefficients de précodage qui minimisent la distorsion totale. La configuration de précodage calculée par cette méthode représente alors la configuration de transmission optimale. Enfin, nous avons fait une analyse expérimentale de débit-distorsion pour la transmission de vidéo H.264/SVC sur un canal MIMO. Cette première étude a permis de montrer l’importance des coefficients de quantification et de la taille des GOP au niveau de la couche application, ainsi que des rendements des codes correcteurs d’erreurs au niveau de la couche physique sur la qualité des vidéos H.264/SVC reçues sur un canal MIMO. Dans de mauvaises conditions de transmission, les paramètres de codage source et de codage canal doivent être considérés conjointement. Cependant, dès que le précodeur assure la réception sans erreur du premier flux vidéo de basse qualité, une optimisation séparée entre le codage de source et le codage de canal est suffisante pour réaliser les meilleures performances de transmission. Plusieurs travaux pourront être menés à partir des deux axes de recherche considérés dans ce manuscrit. Premièrement, il est intéressant de voir le comportement de la couche physique réaliste dans des configurations de réseaux mobiles avec des terminaux qui se déplacent à différentes vitesses. L’inconvénient de cette couche physique est le temps de calcul du logiciel de propagation et celui de la recherche des RI et TEB de chaque lien dans les caches (fichiers) correspondants. Nous avons déjà proposé dans le cadre d’un stage de M aster des 136 CHAPITRE 5. CONCLUSION ET PERSPECTIVES méthodes permettant de réduire le temps de recherche pour atteindre un temps de simulation comparable à celui du simulateur N S − 2. Cependant, le temps de calcul du logiciel de propagation réalisé uniquement lors de la première simulation reste important, notamment pour des scénarios avec mobilité. Une des perspectives de la thèse est de proposer d’autres modèles statistiques permettant une caractérisation du canal similaire à celle du logiciel de propagation, mais avec un temps et une complexité de calcul réduits. D’autre part, l’intégration d’autres paramètres comme les coefficients de quantification, la taille de GOP et les rendements du CCE dans le fonction de distorsion totale est aussi une perspective importante de ce travail. La prise en compte de ces paramètres permettrait de trouver la configuration de transmission offrant les performances de transmission optimales quelles que soient les conditions de transmission. Par exemple, l’intégration de la taille des GOP dans la fonction de distorsion permettrait de choisir la taille de GOP suivant la qualité du canal et la nature de la vidéo transmise. Considérer les rendements du CCE dans la fonction de distorsion permet d’exploiter la hiérarchie du codeur H.264/SVC par une stratégie de protection UEP. Enfin, il est évident que l’étude de performances des solutions proposées dans les chapitre 4, effectuée uniquement sur une seule séquence vidéo (Soccer), est insuffisante. Ces résultats doivent être validés sur un ensemble de séquences vidéo plus large. 137 Bibliographie [1] I. Chlamtac, M. Conti, J. J. N. Liu, Mobile ad hoc networking : imperatives and challenges, Ad Hoc Networks Journal, Elsevier, vol. 1, no. 1, pp. 13-64, Jul. 2003. [2] OSI (International Standardization Organization). http ://www.iso.org [3] RTP : A Transport Protocol for Real-Time Applications, Request For Comment (RFC) 3550, Jul. 2003. [4] C. Perkins and E. Royer. Ad-hoc On-demand Distance Vector (AODV) routing. Workshop on Mobile Computing Systems and Applications, pp. 90-100, Feb. 1999. [5] T. Clausen and P. Jacquet. Optimized Link State Routing protocol. Technical report, IETF (Internet Engineering Task Force), Request For Comment (RFC) 3626, Sep. 2003. [6] P. Jacquet, P. M uhlethaler, A. Qayyum, A. Laouiti, T. Clausen, and L. Viennot. Optimized link state routing protocol. IEEE INMIC, Dec. 2001. [7] V. Kawadia and P. R. Kumar, A cautionary perspective on cross-layer design. IEEE Wireless Communications, vol. 12, no. 1, pp. 3-11, Feb. 2005. [8] J. Huuskoa, J. Vehkaperaa, P. Amon, C. Lamy-Bergot, G. Panzad, J. Peltolaa, M. G. Martini, Cross-layer architecture for scalable video transmission in wireless network, Signal Processing : Image Communication, no. 22, pp. 317-330, 2007. [9] M. G. Martini, M. Mazzotti, C. Lamy-Bergot, J. Huusko, and P. Amon Content adaptive network aware joint optimization of wireless video transmission. IEEE Communications Magazine, vol. 45, no. 1, pp. 84-90, Jan. 2007. [10] C. E. Shannon, A Mathematical Theory of Communication, Bell System Technical Journal, vol. 27, pp. 379-423, 623-656, Jul., Oct., 1948. [11] J. G. Proakis, Digital Communications. McGraw Hill International edition, second edition, 1989. [12] S. C. Chan and K. L. Ho, A new two-dimensional cosine transform algorithm, IEEE Transactions on Signal Processing, vol. 39, no. 2, pp. 481-485, 1993. [13] S. Mallat, A theory for multiresolution signal decomposition : The wavelet representation, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 11, no. 2, pp. 674-693, 1989. [14] D. A. Huffman, A method for the construction of minimum-redundancy codes, Proceedings of the Institute of audio Engineers, vol. 40, no. 9, pp. 1098-1101, 1952. 139 BIBLIOGRAPHIE [15] R. C. Pasco, Source coding algorithms for fast data compression, Ph.D. dissertation, Stanford University, CA, USA, 1976. [16] T. A. Welch, A technique for high-performance data compression, IEEE Computer, vol. 17, no. 26, 1984. [17] Y. Q. Shi and H. Sun. Image and video compression for multimedia engineering : fundamentals, algorithms, and standards. CRC press, Boca raton, U.S.A, 2000. [18] G. K. Wallace, The JPEG still picture compression standard, Communications of the Association for Computing Machinery (ACM), vol. 34 no. 4 pp. 30-44, Apr. 1991. [19] W. B. Pennebaker and J. L. Mitchell, JPEG Still Image Data Compression Standard, Van Nostrand Reinhold, New York, NY, USA, 1993. [20] ISO/IEC DIS 10918-1. Digital Compression and Coding of Continuous-Tone Still Image (JPEG). Technical report, CCITT Recommendation T.81, 1992. [21] A. N. Skodras, C. A. Christopoulos, and T. Ebrahimi, The JPEG2000 Still Image Compression Standard, IEEE Signal Processing, vol. 18, pp. 36-58, Sep. 2001. [22] M. P. Boliek, An Overview of JPEG-2000, in Data Compression Conference, pp. 523-544, 2000. [23] JPEG 2000 image coding system, Part 11 : Wireless JPEG 2000 - Final Draft International Standard, ISO/IEC, Nov. 2005 [24] F. Dufaux and D. Nicholson, JPWL : JPEG 2000 for wireless applications, in SPIE Proceeding Applications of Digital Image Processing XXVII, vol. 5558, pp. 309-318 Denver, Colo. , Aug. 2004. [25] F. Dufaux, G. Baruffa, F. Frescura, D. Nicholson, JPWL - an extension of JPEG 2000 for wireless imaging, IEEE Proceedings International Symposium on Circuits and Systems (ISCAS) pp. 3869-3873, Sep. 2006. [26] Joint Video Team of ITU-T and ISO/IEC JTC 1, Draft ITU-T Recommendation and Final Draft International Standard of Joint Video Specification (ITU-T Rec. H.264 — ISO/IEC 14496-10 AVC), Joint Video Team (JVT) of ISO/IEC MPEG and ITU-T VCEG, JVT-G050, March 2003. [27] T. Wiegand, G. J. Sullivan, G. Bjontegaar, and A. Luthra, Overview of the H.264/ACV video coding standard], IEEE Transactions on Circuits and Systems Video Technology, vol. 13, no. 7, pp. 560-576, Jul. 2003. [28] S. Wenger, H264/AVC over IP, IEEE Transactions on Circuits Systems Video Technology, vol. 13, no. 7, pp. 645-656, Jul. 2003. [29] T. Stockhammer, M. H. Hannuksela, and T. Wiegand, H.264/AVC in wireless environments, IEEE Transactions on Circuits and Systems Video Technol., vol. 13, no. 7, pp. 657-673, Jul. 2003. [30] A. Goldsmith, Wireless Communications, Cambridge University Press, 2005. [31] J. D. Parson, The mobile radio propagation channel, Wiley, 2000. 140 BIBLIOGRAPHIE [32] M. F. Iskander and Z. Yun, Propagation prediction models for wireless communication systems, IEEE Transactions on microwave theory and techniques, vol. 50, no. 3, p. 662-673, 2002. [33] M. F. Catedra, J. Perez, F. S. Adana, and O. Gutierrez, Efficient ray-tracing techniques for three-dimensional analyses of propagation in mobile communications, Application to picocell an microcell scenarios, IEEE Antennas Propagation Magazine, vol. 40, no. 2, pp. 15-28, Apr. 1998. [34] M. Paetzold, Mobile fading channels, Wiley, 2002. [35] J. Gibson, The Communications Handbook. CRC Press, 1997. [36] S. Lin, D. J. Costello, Jr., Error Control Coding : Fundamentals and Applications, second edition, Prentice Hall : Englewood Cliffs, NJ, 2004. [37] P. Elias, Coding for noisy channels, In Proceedings of the IRE National Convention Record, vol. 3, no. 4, pp. 37-46, Mar. 1955. [38] R. G. Kouyoumjian, Asymptotic high-frequency methods, Proceedings of the IEEE, no. 53, pp. 864-876, Aug. 1965. [39] L. Aveneau , Y. Pousset , R. Vauzelle , M. Mériaux, Development and Evaluations of Physicial and Computer Optimizations for the UTD 3D Model, IEEE Antennas and Propagation , Davos, Suisse, Apr. 2000. [40] C. Berrou, A. Glavieux, and P. Thitimajhima, Near shannon limit error correcting coding and decoding : Turbo-codes. In Proceedings of International Conference on Communications (ICC 93), pp. 1067-1070, Geneva, Switzerland, May 1993 [41] R. G. Gallager, Low-density parity-check codes. Ph.d. report, M.I.T. Press, Cambridge, U.S.A., 1963 [42] IEEE Standard for Information Technology-Part 11 : Wireless LAN Medium Access Control (MAC) and Physical Layer (PHY) specification Amendment : Enhancements for Higher Throughput (802.11n), 2009. [43] IEEE Standard for Local and metropolitan area networks Part 16 : Amendment for Physical and Medium Access Control Layers for Combined Fixed and Mobile Operation (802.11e), 2005. [44] S. Sesia, I Toufik and M Baker : LTE - The UMTS Long Term Evolution From Theory to Practice, John Wiley and Sons, 2009. [45] S. Hara and R. Parasad OFDM for wireless communications systems, Artech House, 2003. [46] R. Parasad Multicarrier techniques for 4G mobile communications , Artech House, 2004. [47] F. Le Lannec, Codage vidéo robuste et hiérarchique pour la transmission sur réseaux hétérogènes. Ph.d. report, IRISA, Rennes, France, 2001. 141 BIBLIOGRAPHIE [48] S. Zezza, M. Martina, G. Masera, S. Nooshabadi, Error resilient JPEG2000 decoding for wireless applications , IEEE International Conference on Image Processing (ICIP), San Diego, CA, 2008. [49] L. Ozarow, On a source-coding problem with two channels and three receivers, Bell Syst. Tech. J., vol. 59, no. 10, pp. 1909-1921, Dec. 1980. [50] R. Zamir, Gaussian codes and Shannon bounds for multiple descriptions, IEEE Trans. Inform. Theory, vol. 45, pp. 2629-2636, Nov. 1999. [51] V. K. Goyal, Multiple description coding : compression meets the network, IEEE Signal Processing Magazine, vol. 18, no. 5, pp. 74-93, Sep. 2001. [52] V. K. Goyal, Theoretical foundations of transform coding, IEEE Signal Processing Mag., vol. 18, pp. 9-21, Sept. 2001. [53] D. M. Chung and Y. Wang, Lapped orthogonal transforms designed for error resilient image coding, IEEE Transactions on Circuits and Systems for Video Technology, vol. 12, no. 9, pp. 752-764, Sep. 2002. [54] S. Wenger, Video redundancy coding in h.263+, In Workshop on Audio-Visual Services for packet networks (Packet Video 97), Aberdeen, U.K., 1997. [55] N. Franchi, M. Fumagalli, R. Lancini, and S. Tubaro, Multiple description video coding for scalable and robust transmission over ip, IEEE Transactions on Circuits and Systems for Video Technology, vol. 15, no. 3, 321-334, Mar. 2005 [56] C. S. Kim and S. U. Lee. Multiple description coding of motion fields for robust video transmission, IEEE Transactions on Circuits Systems for Video Technology, vol. 11, no. 9, pp. 999-1010, Sep., 2001. [57] V. A. Vaishampayan, Design of multiple description scalar quantizers, IEEE Trans. Inform. Theory, vol. 39, pp. 821-834, May 1993. [58] T. Y. Berger-Wolf and E. M. Reingold, Index assignment for multi channel communication under failure, IEEE Trans. Inform. Theory, vol. 48, pp. 2656-2668, Oct.2002. [59] V. A. Vaishampayan and S. John, Balanced interframe multiple description video compression, In Proceedings of IEEE International Conference on Image Processing (ICIP 99), pp. 812-816, Kobe, Japan, Oct. 1999. [60] Y. C. Lee, Y. Altunbasak, and R. M. Mersereau, A drift-free motion-compensated predictive encoding technique for multiple description coding, In Proceedings of IEEE International Conference on Multimedia and Expo (ICME03), pp. 581-584, Baltimore, U.S.A., Jul. 2003. [61] ITU Telecommunications Standardizations Sector of ITU, Video coding for Low Bitrate Communication, ITU-T Recommensation H.263. [62] MPEG-4 Committee, Generic Coding of Moving Pictures and Associated Audio Information : Video, ISO/IEC, 2000, May 2000. [63] Y. Wang, M. T. Orchard, and A. R. Reibman, Multiple description image coding for noisy channels by pairing transform coefficients, in Proc. IEEEWorkshop on Multimedia Signal Processing, Princeton, pp. 419-424, NJ, Jun. 1997. 142 BIBLIOGRAPHIE [64] V. K. Goyal and J. Kovacevic, Generalized multiple description coding with correlating transforms, IEEE Trans. Inform. Theory, vol. 47, Sep. 2001. [65] A. Reibman, H. Jafarkhani, Y. Wang, M. Orchard, and R. Puri, Multiple-description video coding using motion-compensated temporal prediction, IEEE Trans. on Circuits and Systems for Video Technology, vol. 12, no. 3, pp. 193-204, Mar. 2002. [66] Y.-C. Lee, Y. Altunbasak, and R. M. Mersereau, A two-stage multiple description video coder with drift-preventing motion compensated prediction, In Proceedings of IEEE International Conference on Image Processing (ICIP 02), vol. 2, pp. 557-560, Rochester, U.S.A., Jun. 2002. [67] T. Nguyen and A. Zakhor, Matching pursuits based multiple description video coding for lossy environments, In Proceedings of IEEE International Conference on Image Processing (ICIP 03), pp. 57-60, Barcelona, Spain, Sep. 2003. [68] X. Tang and A. Zakhor, Matching pursuits multiple description coding for wireless video, IEEE Transactions on Circuits and Systems for Video Technology, vol. 12 no. 6, pp. 566-575, Jun. 2002. [69] C. Lamy-Bergot, A. Mokraoui-Zergainoh, T. André and B. Pesquet-Popescu, Panorama des techniques de codage/dcodage conjoint et techniques de diversit adaptes la transmission de flux video et HTML sur lien IP sans fil point/multipoint, Revue Traitement du Signal, vol. 25, n. 5, Oct. 2008. [70] J. L. Massey, Joint source and channel coding, NATO Advanced Studies Institutes Series E25, Commun. Systems and Random Process Theory, 1978. J.K. Skwirzynski editor. [71] C .M. Lee,Outils de codage source-canal conjoint pour la transmission robuste de vidos, Ph.d. report, Université de Paris-Sud, Orsay, France, 2004. [72] R. Thobanen and J. Kliewer, Robust decoding of variable-length encoded Markov sources using a three-dimensional trellis, IEEE Communications Letters, vol. 7, no. 7, pp. 320-322, Jul. 2003. [73] S. Boyd, L. Vandenberghe, Convex Optimization, Cambridge University Press 2004. [74] A. Ortega and K. Ramchandran, Rate-distortion methods for image and video compression, IEEE Signal Process. Mag., Nov. 1998. [75] G. Cheung , A. Zakhor, Bit Allocation for Joint Source/Channel Coding of Scalable Video, IEEE Trans. Image Process. vol. 9, no. 3, pp. 340-356, Mar. 2000. [76] M. Gallant and F. Kossentini, Rate-distortion optimized layered coding with unequal error protection for robust Internet video, IEEE Trans. Circuits and Systems for Video Technology, vol. 11, no. 3 pp. 357-372, 2001. [77] C. Lamy-Bergot, N. Chautru, and C. Bergeron. Unequal error protection for h.263+ bitstreams over a wireless ip network, In Proceedings of IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP06), pp. 377-380, Toulouse, France, May 2006. 143 BIBLIOGRAPHIE [78] F. Marx, J. Farah, A novel approach to achieve unequal error protection for video transmission over 3G wireless networks, Signal Processing : Image and communication, Elsevier Nov. 2003. [79] D. Wyner and J. Ziv, The rate-distortion function for source coding with side information at the decoder, IEEE Transactions on Information Theory, vol. 22, no. 1, pp. 1-10, 1976. [80] C. Yaacoub J. Farah, and B. Pesquet-Popescu, New Adaptive Algorithms for GOP Size Control with Return Channel Suppression inWyner-Ziv Video Coding, International Journal of Digital Multimedia Broadcasting, vol. pp. 2008. [81] J. Farah, C. Yaacoub, B. Pesquet-Popescu, Nouvelle technique d’adaptation dynamique de la taille du GOP dans le codage Wyner-Ziv des séquences vidéo, GRETSI, Sep. 2009. [82] K. Stuhlmller, N. Frber, M. Link, and B. Girod, Analysis of Video Transmission over Lossy Channels, Journal of Selected Area in Communications, vol. 18, no. 6, pp. 1012-1032 Jun 2000. [83] M. Stoufs, A. Munteanu, J. Comelis, P. Schelkens, Scalable Joint Source-Channel Coding for the Scalable Extension of H.264/AVC, IEEE Transactions of circuits and systems for video technology, vol. 18, no. 12, pp. 1657-1670, 2008. [84] G. Foschini, Layered space-time architecture for wireless communication in fading environment when using multi-element antennas, Bell Labs. Tech. J., pp. 41-59, Autumn 1996. [85] I. Telatar, Capacity of multi-antennas Gaussian channels, Eur, Trans. Telecomm. (ETT), vol. 10, no. 6, pp. 585-595, Nov. 1999. [86] C. Oestges, B. Clerckx MIMO Wireless Communications, Mar. 2007. [87] S. M. Alamouti, A Simple Transmit Diversity Technique for Wireless Communications, IEEE J. Sel. Areas Commun., vol. 16, no. 8 pp. 1451-1458, Oct. 1998. [88] V. Tarokh, N. Seshadri and A. Calderbank, Space-time block codes from orthogonal design, IEEE Trans. Inf. Theory, vol. 45, no. 5, pp. 1456-1467, Jul. 1999. [89] M. Farshchian, W. A. Pearlman, Real time video transmission over MIMO OFDM channels using space-time block codes, in 40th Annual Conference of Information Science and Systems, pp. 1140-1145, Mar. 2006. [90] S. Zhao, Z. Xiong, X. Wang and J. Hua, Progressive video delivery over wideband wireless channels using space-time differebtially coded OFDM systems, IEEE Trans. Mobile Comput., vol. 5, no. 4, pp. 303-316, Apr. 2006. [91] M. K. Jubran, M. Bansal, L. P. Kondi and R. Grover, Accurate Distortion Estimation and Optimal Bandwidth Allocation for Scalable H.264 video transmission Over MIMO systems, IEEE Trans. Image Processing, vol. 10, no. 1 pp. 106-116, Jan. 2009. [92] J. N. Laneman, E. Martinian, G. W. Wornell, J. G. Apostolopoulos, Source-Channel Diversity for Parallel Channels, IEEE Transactions on Information Theory, vol. 51 no. 10, pp. 3518-3539, 2005. 144 BIBLIOGRAPHIE [93] T. Holliday, A. J. Goldsmith, and H. Vincent Poor , Joint source and channel coding for MIMO systems : Is it better to be robust or quick ?, IEEE Transactions on Information theory, vol. 54, no. 4, pp. 1393-1405, 2008. [94] I. Zheng, D. N. C. Tse, Diversity and Multiplexing : A Fundamental Tradeoff in Multiple-Antenna Channels, IEEE Transactions on Information Theory, vol. 49, no. 5, May 2003. [95] R. Hormis, E. Linzer, and X. Wang, Adaptive Mode- and Diversity-Control for Video Transmission on MIMO Wireless Channels, IEEE Transactions on Signal Processing, vol. 57, no. 9, Sep. 2009. [96] Z. Ji, Q. Zhang, W. Zhu, Z. Guo, J. Lu, Power efficient MPEG-4 FGS video transmission over MIMO-OFDM systems, Proc. IEEE ICC, pp.3398-3402, May 2003. [97] D. Song, C. W. Chen, Scalable H.264/AVC Video Transmission over MIMO Wireless Systems with adaptive channel selection based on partial channel information, IEEE Trans. Circuits Syst. Video Technol., vol. 17, no. 9, Sep. 2007. [98] D. Song, C. W. Chen, QoS-guaranteed SVC-based video transmission over MIMO wireless systems with channel state information, Proc. IEEE ICIP, pp. 3057-3060, Oct. 2006. [99] D. Song, C. W. Chen, QoS-guaranteed scalable video transmission over time-varying MIMO channel capacity, Proc. IEEE ICME pp. 1215-1218, jul. 2007. [100] D. Song, C. W. Chen, Maximum-throughput delivery of SVC-based video over MIMO systems with times-varying channel capacity, Journal of Visual Commun. Image Repr. (Elsevier) vol. 19, no 8, pp. 520-528, Dec.2008. [101] J. Yi, E. Cizeron, S. Hamma and B. Parrein, Simulation and Performance Analysis of MP-OLSR for Mobile Ad hoc Networks, IEEE WCNC 2008, Las Vegas : États-Unis d’Amérique (2008). [102] S. Mao, S. Lin, S. S. Panwar, Y. Wang and E. Celebi, Video transport over ad hoc networks : Multistream coding with multipath transport, IEEE Journal on Selected Areas in Communications, pp. 1721-1737, Jun. 2003. [103] S. Mao, X. Cheng, Y. T. Hou, and H. D. Sherali. Multiple description video multicast in wireless ad hoc networks, In Proceedings of International Conference on Broadband Networks (BROADNETS 04), pp. 671-680, San Jose, U.S.A., October 2004. [104] S. Mao, X. Cheng, Y. T. Hou, and H. D. Sherali. Multiple description video multicast in wireless ad hoc networks, ACM/Kluwer Mobile Networks and Applications Journal (MONET), vol. 11, no. 1, pp. 63-73, February 2006. [105] C. O. Chow, H. Ishii, A Novel Approach to Supporting Multipoint-to-Point Video Transmission over Wireless Ad Hoc Networks, IEICE Transactions vol. 90 no. 8, pp. 2046-2055, 2007. [106] A. Abdelal, T. Saadawi, M. Lee, Unequal Error Protection for Real-time Video in Mobile Ad Hoc Networks via Multi-Path Transport, Computer Communications 145 BIBLIOGRAPHIE Journal, special issue on Concurrent Multipath Transfer, vol. 30, no. 17, pp. 32933306, Nov. 2007. [107] L. Breslau, D. Estrin, K. Fall, S. Floyd, J. Heidemann, A. Helmy, P. Huang, S. McCanne, K. Varadhan, Y. Xu, H. Yu, Advances in network simulation, IEEE Computer, vol. 33, no. 5, pp. 59-67, May 2000. [108] G. Riley, The Georgia Tech Network Simulator, Proceedings of the ACM SIGCOMM workshop on Models, methods and tools for reproducible network research (MoMeTools 03), Germany, pp. 5-12, Aug. 2003. [109] X. Zeng, R. Bagrodia, M. Gerla, GloMoSim : a library for parallel simulation of large-scale wireless networks, Proceedings of the 12th Workshop on Parallel and Distributed Simulations (PADS 98), Banff, Canada, pp. 154-161, May 1998. [110] F. Kuhn and A. Zollinger, Ad-Hoc Networks beyond Unit Disk Graphs, ACM DIALM-POMC, pp. 69-78, San Diego, USA 2003. [111] I. Stepanov, K. Rothermel, On the impact of a more realistic physical layer on MANET simulations results , Elsevier Ad Hoc Networks Journal, vol. 6, no. 1 , pp. 61-78, Sept. 2006. [112] C. Pereira, Y. Pousset, R. Vauzelle, P. Combeau, Sensitivity of the MIMO Channel Characterization to the Modeling of the Environment,IEEE Transactions on Antennas and Propagation, vol. 57, pp. 1218-1227, no. 4, Avp. 2009. [113] F. Mora, L. Aveneau, Optimized scanning of a visibility graph data structure for efficient ray-tracing, in ECWT2005, Paris, Oct. 2005. [114] P. Bello, Characterization of randomly time-variant linear channels, IEEE Transactions on Communications, vol. 11, no. 4, p. 360-393, 1963. [115] C. Oestges and B. Clerckx, MIMO Wireless Communications, From Real-World Propagation to Space-Time Code Design, Academic Press : Oxford, 2007 [116] C. Ke, C. Shieh, W. Hwang, Ar. Ziviani, An Evaluation Framework for More Realistic Simulations of MPEG Video Transmission, Journal of Information Science and Engineering vol. 24, no. 2, pp. 425-440, 2008. [117] T. Wiegand, G. Sullivan, J. Reichel, H. Schwarz, M. Wien, Joint Draft of SVC Amendment, Joint Video Team (JVT), Doc. JVT-W201, San Jose, CA, 2007 [118] T. Wiegand, G. J. Sullivan, G. Bjontegaar, and A. Luthra,Overview of the H.264/AVC video coding standard, IEEE Trans. Circuits Syst. Video Technol., vol. 13, no. 7, pp. 560-576, Jul. 2003. [119] IEEE Standard for Information Technology-Part 11 : Wireless LAN Medium Access Control (MAC) and Physical Layer (PHY) specification Amendment : High-speed Physical Layer in the 5 GHz Band (802.11a), 2009. [120] P. W. Wolniansky, G. J. Foshini, G. D. Golden, R. A. Valenzuela, V-BLAST An architecture for realizing very high data rates over the richscattering wireless channel, Proc. IEEE ISSSE, 1998. 146 BIBLIOGRAPHIE [121] TTPP : Library of mathematical, signal processing and communication routines, available on http ://sourceforge.net/apps/wordpress/itpp/. [122] H. Schwarz, D. Marpe, T. Wiegand, Overview of the scalable video coding extension of the H.264/AVC standard, IEEE Trans. Circuits Syst. Video Technol., vol. 17, no. 9, pp. 1103-1120, Sep. 2007. [123] L. Collin, O. Berder, P. Rostaing, and G. Burel, Optimal minimum distance-based precoder for MIMO spatial multiplexing systems, IEEE Transactions on Signal Processing, vol. 52, no. 3, pp. 617-627, Mar. 2004. [124] P. Stoica and G. Ganesan, Maximum-SNR spatial-temporal for matting designs for MIMO channels, IEEE Transactions on Signal Processing, vol. 50, no. 12, pp. 30363042, Dec. 2002. [125] T. K. Lo, Maximum ratio transmission, IEEE Transactions on Communications, vol. 47, no. 10, pp. 3036-3042, 1999. [126] H. Sampath, P. Stoica, and A. Paulraj, Generalized Linear Precoder and Decoder Design for MIMO Channels Using the Weighted MMSE Criterion, IEEE Trans. Commun. vol. 49, no. 12, pp. 2198-2206, Dec. 2001. [127] B. Vrigneau, Systèmes MIMO précodés optimisant la distance minimale : étude des performances et extension du nombre de voies, Thèse de doctorat, Nov. 2006. [128] Q. T. Ngo, O. Berder, B. Vrigneau and O. Sentieys, Minimum distance based precoder for MIMO-OFDM systems using a 16-QAM modulation, IEEE International Conférence on Communications (ICC), no. 14, pp. 1-5, Dresden, Jun. 2009. [129] B. Vrigneau, J. Letessier, P. Rostaing L. Collin and G. Burel, Extension of the MIMO Precoder based on the Minimum Euclidean Distance : a cross-form matrix, IEEE Signal Processing, vol. 2, no. 2, pp. 135-146, May. 2008. [130] V. Bhaskar Finite-state Markov Model for Lognormal, Chi-square (Central), Chisquare (Non-central), and K-distributions, International Journal of Wireless Inf. Networks, vol. 4, no. 4, pp. 237-250, Dec. 2007. [131] http ://ip.hhi.de/imagecom G1/savce/downloads/SVC-Reference-Software.htm, version JSVM 9.16. [132] http ://iphome.hhi.de/suehring/tml/download/, version JM 1.4. [133] L. Xu, W. Gao and X. Ji and D Zhao. Rate Control for Hierarchical B-picture Coding with Scaling-factors. IEEE International Symposium on Circuits and Systems (ISCAS), pp. 49-52, 2007. [134] I. H. Shin, Y. L. Lee and H. W. Park Rate control using linear rate-rho model for H.264, Elsevier Signal Processing - Image Communication, vol. 4, pp. 341-352, 2004. [135] D. Hughes-Hartogs, Ensemble modem structure for imperfect transmission media, U.S.Patent no. 4, pp. 679, 227, Jul. 1987. [136] M. Siwei, G. Wen, G. Peng and L. Yan, Rate control for advance video coding (AVC) standard, International Symposium on Circuits and Systems (ISCAS), vol. 2, pp. 892895, 2003. 147 BIBLIOGRAPHIE [137] Z. He and S. K. Mitra, Rho-domain bit allocation and rate control for real time video coding, IEEE International Conference on Image Processing (ICIP), vol. 3, pp. 546-549, 2001. [138] Y. Pitrey, Stratègies d’encodage pour codeur vidéo scalable, thèse de doctorat, IETR, INSA de Rennes, Sep. 2010. [139] S. J. Wright, Primal-Dual Interior-Point Methods, Philadelphia, PA :SIAM, 2004, 19104. [140] The MOSEK Optimization Tools Manual, Version 4.0 (Revision 42). MOSEK ApS, Copenhagen, Denmark [Online]. Available : http ://www.mosek.com/products/4 0/tools/doc/html/tools/tools.html [141] MATLAB Optimization Toolbox 5, User’s Guide 148 Bibliographie personnelle [1] W. Hamidouche, C. Perrine, Y. Pousset, C. Olivier. A solution to efficient power allocation for scalable video transmission over a realistic MIMO channel. Journal of visual communication and image representation, Elsevier. Under revision. [2] W. Hamidouche, C. Perrine, Y. Pousset, C. Olivier. Solution d’allocation de puissance efficace pour de la transmission vidéo scalable en environnement Outdoor réaliste. CORESA 2010 (Lyon, France). Oct. 2010. [3] W. Hamidouche, C. Perrine, Y. Pousset, C. Olivier. Optimal solution for SVCBased video transmission over a realistic MIMO channel using precoder designs. 35th IEEE conference of ICASSP, (Dallas, USA). March 2010. [4] W. Hamidouche, R. Vauzelle, C. Olivier, Y. Pousset, C. Perrine. Impact of realistic MIMO physical layer on video transmission over mobile Ad Hoc network. COST 2100, (Athens, Greece) . February 2010. [5] A.-M Poussard, W. Hamidouche, R. Vauzelle et Y. Pousset. Realistic SISO and MIMO physical layer implemented into two routing protocols for vehicular Ad Hoc network. Electronic Proceeding of IEEE 9th ITST, (Lille, France). October 2009. [6] P. Combeau, J.-M. Paillot, R. Vauzelle, D. Cordeau, Y. Pousset, W. Hamidouche. Conception and application of smart antennas for transport applications. Electronic Proceeding of IEEE 9th ITST, (Lille, France). October 2009. [7] W. Hamidouche, R. Vauzelle, C. Olivier, Y. Pousset, C. Perrine. Impact of realistic MIMO physical layer on video transmission over mobile Ad Hoc network. IEEE 20st PIMRC, (Japan, Tokyo). September 2009. [8] W. Hamidouche, R. Vauzelle, C. Olivier, Y. Pousset, C. Perrine. Impact d’un système de communication réaliste en environnement urbain sur une transmission vidéo H.264/AVC par réseaux Ad Hoc. 22eme édition GRETSI, (Dijon, France) . [9] W. Hamidouche, C. Olivier, M. Babel, O. Deforges. LAR image transmission over fading channel : a hierarchical protection solution. IEEE 2nd International Conference on CTRQ, (Colmar, France) . July 2009. [10] R. Vauzelle, W. Hamidouche , A.-M. Poussard, Y. Pousset. Impact des conditions de transmission sur la qualité des échanges d’information entre véhicules en environnement urbain réel. 1ere édition CoGIST (Bretagne, France) . July 2009. 149 Résumé Ce travail de thèse concerne la transmission de vidéo dans les réseaux ad hoc. Plusieurs schémas et solutions ont été proposés afin d’améliorer voire assurer la qualité de service des applications intégrant la transmission temps réel de vidéo dans les réseaux ad hoc. Les performances de ces solutions sont évaluées par simulation à l’aide de plateformes de simulation de réseaux tels que NS-2 et GLOMOSIM, etc. Cependant, la couche physique de ces simulateurs manque de réalisme et ne modélise pas proprement le comportement d’un canal radio dans un environnement urbain. Nous avons proposé une couche physique réaliste qui prend en compte toutes les spécificités d’un canal radio mobile. Cette couche physique est basée sur un modèle de propagation à tracé de rayons et permet d’évaluer la qualité des liens SISO et MIMO suivant respectivement les normes de transmission IEEE 802.11a et IEEE 802.11n. Cette étude montre qu’il est important de considérer une couche physique réaliste dans les simulateurs de réseaux pour évaluer les performances des solutions de transmission vidéo. Dans un deuxième temps, nous avons proposé une solution originale de codage conjoint source-canal pour la transmission hiérarchique du flux vidéo H.264/SVC. Cette solution exploite la diversité spatiale du canal MIMO conjointement avec la hiérarchie du codeur vidéo H.264/SVC afin d’assurer la meilleure qualité de service quelques soient les conditions de transmission. Cette solution utilise la notion de précodage MIMO pour une allocation de puissance optimale entre les antennes visant à minimiser la distorsion de la vidéo reçue. Mots clés : Codage conjoint source-canal, canal MIMO réaliste, codeurs de vidéo H.264/AVC et H.264/SVC, Réseaux ad hoc. 151 Abstract This work focus on video tranmission over mobile a hoc networks. Several schemes have been proposed in order to improve and guarantee a high quality of service of applications integrating video transmission over ad hoc networks. The performance of these schemes is assessed by using network simulator tools such as NS-2 and GLOMOSIM. However, the physical layer usually used in network simulators does not properly model the propagation phenomenon as in a real urban environment. We have proposed a realistic physical layer which considers all specificities of mobile wireless channel. This physical layer uses a ray tracer propagation model and allows assessing a SISO and MIMO wireless links following the IEEE 802.11a and IEEE 802.11n standards, respectively. This work clearly shows that we should consider a realistic physical layer in network simulator to assess the performance of video transmission schemes. On the other hand, we have proposed an original joint source-channel coding solution for a hierarchical transmission of scalable video coder, known as H.264/SVC. This solution exploits a spatial diversity of a MIMO channel jointly with a hierarchy provided by the H.264/SVC coder in order to guarantee the best quality of the received video regardless the channel conditions. The proposed solution uses a precoder designs for an optimal power allocation toward transmitted antennae in order to minimize the received video distortion. Key words : Joint source-channel coding, realistic MIMO channel, video codecs H.264/AVC and H.264/SVC, ah doc networks. 153