De l`apport d`une évaluation précise des ressources pour la Qualité
Transcription
De l`apport d`une évaluation précise des ressources pour la Qualité
N d’ordre Année 2007 Thèse De l’apport d’une évaluation précise des ressources pour la Qualité de Service des réseaux ad hoc basés sur IEEE 802.11 Présentée devant L’Institut National des Sciences Appliquées de Lyon pour obtenir Le grade de docteur Par Cheikh SARR À soutenir le 17 Juillet 2007 devant la Commission d’examen Composition du Jury K. Al Agha - Professeur (Université Paris-Sud)- Rapporteur C. Chaudet - Maı̂tre de conférence (ENST Paris) G. Chelius - Chargé de recherche (INRIA) - Co-Directeur de thèse B. Ducourthial - Maı̂tre de conférence (UTC) E. Fleury - Professeur (INSA Lyon) I. Guérin Lasous - Professeur (UCBL/LIP) - Co-Directrice de thèse T. Noël - Professeur (Université Louis Pasteur)- Rapporteur Table des matières 1 Présentation de 802.11 1.1 Le protocole IEEE 802.11 . . . . . . . . . . . . . . . . 1.1.1 Fonctionnement général . . . . . . . . . . . . . 1.1.2 Description du protocole d’accès au médium . . 1.1.2.1 Mécanisme d’accès CSMA/CA . . . . 1.1.2.2 Retransmissions et backoff exponentiel 1.1.2.3 Mécanisme du RTS/CTS . . . . . . . 1.1.2.4 Zones de communication . . . . . . . . 1.2 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 10 10 11 13 14 14 15 17 2 Routage ad hoc et qualité de service 2.1 Généralités sur les réseaux ad hoc . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Le routage dans les réseaux ad hoc . . . . . . . . . . . . . . . . . . . . . . . 2.3 La qualité de service dans les réseaux ad hoc . . . . . . . . . . . . . . . . . . 18 18 19 22 3 Etat de l’art sur les techniques d’évaluation de la bande passante résiduelle 3.1 La bande passante résiduelle ou disponible . . . . . . . . . . . . . . . . . . . 3.2 Evaluation de la bande passante résiduelle dans les réseaux filaires . . . . . . 3.3 Evaluation de la bande passante résiduelle dans les réseaux sans fil . . . . . . 3.3.1 Les techniques intrusives . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2 Les techniques passives . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 25 26 28 28 29 31 4 Une technique d’évaluation de la bande passante résiduelle : ABE 4.1 Une estimation précise de la bande passante résiduelle . . . . . . . . . . . . . 4.1.1 Estimation de la bande passante résiduelle d’un nœud . . . . . . . . 4.1.2 Estimation de la bande passante résiduelle d’un lien : une première approche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.2.1 Prise en compte de la synchronisation des périodes d’inactivité 4.1.2.2 Prise en compte des collisions . . . . . . . . . . . . . . . . . 4.1.2.3 Prise en compte du backoff . . . . . . . . . . . . . . . . . . 4.1.2.4 Formule d’évaluation de la bande passante résiduelle . . . . 4.1.2.5 Comparaison avec QOLSR . . . . . . . . . . . . . . . . . . . 34 34 35 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 36 41 45 47 48 4.2 4.3 4.4 4.1.3 Estimation de la bande passante Version protocolaire d’ABE . . . . . . Contrôle d’admission dans ABE . . . . 4.3.1 Découverte de route . . . . . . 4.3.2 Maintenance de route . . . . . . 4.3.3 Contention intra flux . . . . . . Limitations du protocole ABE . . . . . résiduelle d’un lien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Evaluation des performances d’ABE 5.1 Environnement de travail : le simulateur NS-2 5.2 Résultats de simulation . . . . . . . . . . . . . 5.2.1 Un premier scénario simple . . . . . . 5.2.2 Topologies aléatoires . . . . . . . . . . 5.2.3 Evaluation du coût du mécanisme . . . 5.2.4 Précision de l’évaluation . . . . . . . . 5.3 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . : compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Co-existence de trafics privilégiés et Best Effort 6.1 Etat de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.1 Approches existantes . . . . . . . . . . . . . . . . . . 6.1.2 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Présentation du protocole DRBT . . . . . . . . . . . . . . . 6.2.1 Idées utilisées dans DRBT . . . . . . . . . . . . . . . 6.2.2 Estimation de la bande passante résiduelle . . . . . . 6.2.3 Régulation du débit des flux Best Effort . . . . . . . 6.2.3.1 Réduction du débit des flux Best Effort . . 6.2.3.2 Augmentation du débit des flux Best Effort 6.2.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Evaluation des performances de DRBT . . . . . . . . . . . . 6.3.1 Un premier scénario simple : les 2 paires . . . . . . . 6.3.2 Topologies aléatoires . . . . . . . . . . . . . . . . . . 6.3.3 Taux d’acceptation des flux QoS . . . . . . . . . . . . 7 Estimation du délai moyen 7.1 Etat de l’art sur les techniques d’évaluation du délai . . . 7.2 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Estimation du délai moyen dans les réseaux ad hoc . . . 7.3.1 Hypothèses . . . . . . . . . . . . . . . . . . . . . 7.3.2 Délai dans la file d’attente des nœuds . . . . . . . 7.3.3 Délai sur le médium radio . . . . . . . . . . . . . 7.4 Implémentation . . . . . . . . . . . . . . . . . . . . . . . 7.5 Simulations . . . . . . . . . . . . . . . . . . . . . . . . . 7.5.1 Précision de l’estimation du délai de bout-en-bout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 51 52 52 54 54 55 . . . . . . . 57 57 58 58 60 69 70 72 . . . . . . . . . . . . . . 74 75 75 77 78 78 80 80 81 84 85 85 85 86 89 . . . . . . . . . 92 92 94 95 95 96 98 99 101 102 7.6 7.5.1.1 Stations cachées . . . . . . 7.5.1.2 Chaı̂ne de transmission . . . 7.5.2 Topologies aléatoires . . . . . . . . . 7.5.3 Taux d’acceptation des paquets QoS Conclusion . . . . . . . . . . . . . . . . . . . 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 103 104 104 110 Introduction générale Sujet de Thèse L’essor des technologies sans fil offre aujourd’hui de nouvelles perspectives dans le domaine des télécommunications. L’évolution récente des moyens de communication sans fil permet la manipulation de l’information par des unités de calculs portables accédant au réseau via une interface de communication sans fil. Ces environnements mobiles offrent une grande flexibilité d’emploi, en particulier ils permettent la mise en réseau de sites pour lesquels le câblage serait trop onéreux ou complexe à déployer, voire même impossible. On peut distinguer plusieurs types de réseaux sans fil parmi lesquels les réseaux cellulaires destinés à la téléphonie mobile tel que le GSM [1] et l’IS95 [2] dits de deuxième génération qui firent leur apparition dans les années 90. Au début des années 2000, cet essor des réseaux sans fil s’est poursuivi avec l’apparition des réseaux locaux sans fil ainsi que l’arrivée de nouvelles technologies. Les équipements sans fil se dotent alors d’interface radio pouvant communiquer sur des distances de l’ordre de quelques mètres (Bluetooth [3]), ou sur des distances pouvant aller de quelques dizaines à quelques centaines de mètres (IEEE 802.11 [4]), offrant une couverture radio plus conséquente. Les débits de ces nouvelle technologies peuvent désormais atteindre des dizaines de mégabits par seconde, favorisant l’émergence d’applications multimédia dans ces réseaux. Dans un réseau local sans fil basé sur la norme IEEE 802.11, on distingue principalement deux modes de communication. Dans le premier cas, les transmissions de données passent par un point fixe appelé point d’accès et ce même si deux mobiles communicants sont à portée de communication. Cette entité particulière joue le rôle de pont à l’intérieur du réseau sans fil et souvent de passerelle vers un réseau filaire externe. Chaque point d’accès administre une zone géographique et assure éventuellement la liaison vers d’autres réseaux. Dans le second mode de communication, chaque mobile ou nœud du réseau a la possibilité de communiquer directement avec ses voisins sans intermédiaire. Un nœud peut se connecter, se déplacer ou se déconnecter du réseau à tout moment. Il n’y a donc aucune infrastructure fixe a priori et les mobiles n’ont aucune connaissance de leur environnement. Si chaque nœud d’un tel réseau a la possibilité de router des paquets émis par d’autres nœuds, il devient possible de communiquer au-delà de sa distance d’émission. On parle alors de réseau ad hoc. Le caractère fortement dynamique des réseaux ad hoc nécessite l’implémentation de protocoles de routage plus complexes que ceux des réseaux fixes ou avec point d’accès. Les 5 recherches sur les réseaux ad hoc ont suscité un tel engouement qu’un groupe de travail à l’IETF1 , le groupe MANET [5] (Mobile Ad hoc NETworks), a été créé en 1996 afin de standardiser des protocoles de routage. Dans les réseaux filaires, un bon nombre de protocoles actuellement utilisés fonctionnent correctement et les débits obtenus sur ces réseaux permettent de réaliser des opérations complexes sous réserve du respect de certaines contraintes. En effet, une application de diffusion vidéo par exemple nécessite l’assurance d’obtenir et de conserver tout au long de la transmission une bande passante minimale tandis qu’une application audio a besoin de garanties sur le délai de transmission et la gigue. Pour les réseaux ad hoc, certains travaux ont récemment été menés dans le but d’optimiser le processus de routage en instaurant une certaine Qualité de Service. Les protocoles proposés dans ce cas prennent principalement en compte les problèmes liés à la fiabilité de la transmission ou à la dynamicité de l’environnement, occultant très souvent une évaluation précise des ressources restantes à travers le réseau. Le médium radio par exemple est soumis à des contraintes. En particulier, un signal radio doit, pour être décodé, être perçu avec suffisamment de puissance au niveau du récepteur. Il faut d’autre part qu’il ne soit pas brouillé par d’autres transmissions simultanées. Ceci se traduit par un seuil du rapport signal sur bruit en-deçà duquel il n’est pas possible de décoder un paquet de façon fiable. L’effet de plusieurs signaux parasites s’ajoutant, une transmission de données peut contribuer à en gêner une autre bien au-delà de la portée d’un simple émetteur. Ce phénomène de brouillage pose un problème lorsqu’il s’agit d’offrir des garanties à un flux de données. En effet, le débit d’émission d’un nœud, et donc sa capacité à router les paquets dans le cas d’un réseau ad hoc, est directement fonction de son environnement et varie au cours du temps. Compte tenu de cette contrainte, il est difficile d’assurer une garantie de bande passante ou de délai sans connaı̂tre précisément le volume de données que les nœuds auront à transmettre. Dès lors, il semble indispensable de pouvoir estimer correctement les ressources disponibles dans son environnement radio avant d’accepter une requête de qualité de service, sous peine de ne pouvoir assurer le service promis. La plupart des protocoles de qualité de service proposés pour les réseaux ad hoc supposent que cette quantité de ressources disponibles est connue ou facile à estimer. Or, les contraintes précitées complexifient cette estimation. Cette thèse étudie les mécanismes nécessaires pour évaluer la quantité de ressources disponibles dans un réseau ad hoc et faciliter ainsi le support de la qualité de service pour ces réseaux. Il s’agit plus précisément d’offrir aux applications des garanties sur la qualité des flux en tenant compte des contraintes liées à la nature des réseaux ad hoc (ressources limitées, interférences radio, médium partagé, etc.). Ces garanties passent au préalable par une estimation précise des ressources résiduelles (bande passante résiduelle, délai moyen), longtemps négligée ou supposée connue par bon nombre de publications. Nous nous intéressons principalement à deux métriques qui nous semblent primordiales : la bande passante disponible et le délai moyen de bout-en-bout. 1 Internet Engineering Task Force 6 Organisation du document et contributions L’objectif de cette thèse est de proposer des mécanismes permettant d’évaluer les ressources disponibles dans un réseau ad hoc multi-saut. Le premier chapitre présente brièvement les mécanismes de fonctionnement du protocole de niveau MAC que nous avons considéré : la norme IEEE 802.11. Cette norme s’est imposée comme la technologie sans fil de facto pour les réseaux locaux sans fil. Notre approche se base donc sur celle-ci. De plus, il nous semble difficile de proposer une estimation des ressources indépendante du protocole sans fil sous-jacent. Par conséquent, pour mettre au point un protocole d’évaluation des ressources précis, il est nécessaire de bien connaı̂tre la technologie sans fil sur laquelle le protocole proposé va se reposer. L’étude de cette norme dans ce chapitre va permettre la mise en place de protocoles de qualité de service fortement adaptés à la méthode d’accès au médium. Le deuxième chapitre présente les réseaux ad hoc ainsi que les principaux problèmes généralement rencontrés dans ce type de réseau. Nous discutons également des différentes classifications des solutions de qualité de service jusqu’alors rencontrées dans la littérature. Nous expliquons pourquoi nous nous concentrons sur le routage avec qualité de service. Le troisième chapitre présente un état de l’art sur les différentes techniques d’évaluation de la bande passante disponible utilisés dans les protocoles de qualité de service pour les réseaux ad hoc. Nous finissons ce chapitre en expliquant pourquoi il est encore nécessaire de travailler sur ce sujet. Le quatrième chapitre présente ABE (Available Bandwidth Estimation), un protocole de réservation de bande passante pour les réseaux ad hoc. La principale contribution d’ABE est de proposer des mécanismes qui permettent d’estimer de façon fiable la bande passante résiduelle de l’ensemble des liens radio d’un réseau ad hoc. Ces mécanismes concernent la prise en compte de la synchronisation nécessaire des périodes de silence d’un émetteur et d’un récepteur à portée radio sur un lien, l’amélioration de l’estimation des collisions dans le réseau et une meilleure intégration du scénario des stations cachées dans l’évaluation. Tous ces mécanismes participent à la consommation de la bande passante et il est important de bien les quantifier lors de l’estimation. Ainsi, à chaque instant, la bande passante résiduelle de tous les liens radio du réseau est connue. Cette connaissance facilite la phase de contrôle d’admission des flux. Le processus de routage, utilisé dans ABE, est fortement inspiré d’AODV. Il permet de trouver des routes à la demande en fonction des spécifications des couches applicatives. Le chapitre suivant est consacré à l’évaluation des performances d’ABE. Dans un réseau ad hoc, nous pouvons être en présence de trafics au mieux ou Best Effort qui consomment une part non négligeable de la bande passante. Par conséquent, les flux de qualité de service ne peuvent établir des routes offrant la bande passante désirée, une partie de celle-ci étant occupée par ces transmissions Best Effort. Dans le sixième chapitre, nous proposons un protocole appelé DRBT (Dynamic Regulation of Best Effort Traffic) capable de dégrader le débit des flux non privilégiés afin d’augmenter le taux d’acceptation des flux 7 avec qualité de service. Cette dégradation nécessite au préalable une estimation de la bande passante résiduelle spécifique aux flux QoS. Pour ce faire nous partons du protocole ABE auquel nous rajoutons un mécanisme de différenciation des flux dans l’évaluation de la bande passante résiduelle. Le septième chapitre présente un protocole de réservation de délai pour les réseaux ad hoc. La principale contribution est d’estimer le délai moyen de bout-en-bout des flux. Ce délai peut se décomposer en deux composantes principales : – Le délai de buffering dans la file d’attente des nœuds . – Le délai de transmission sur le médium radio. Les principaux mécanismes développés dans ABE ont été étendus afin d’estimer le délai de bout-en-bout des flux QoS. Le protocole DEAN (Delay Estimation in Ad Hoc Network) ainsi mis en place repose sur une corrélation entre délai et bande passante résiduelle. Enfin, le huitième et dernier chapitre conclut cette thèse. Avant de rentrer dans le cœur du document, il est important de noter que toutes les solutions proposées dans cette thèse reposent sur une version de 802.11 non modifiée. 8 CHAPITRE 1 Présentation de 802.11 La mise en place de réseaux sans fil multi-sauts nécessite l’utilisation d’une technologie sans fil qui permet aux mobiles à portée de communication de dialoguer. Le rôle de cette technologie est de permettre aux mobiles d’accéder au canal radio, de gérer cet accès concurrentiel afin d’éviter le monopole du canal radio par certaines stations et de communiquer. Dans la seconde moitié des années 90, plusieurs technologies sans fil on vu le jour, laissant entrevoir des nouvelles perspectives pour l’utilisation des ces réseaux. Elaborée sous la tutelle de l’E.T.S.I. (European Telecommunications Standards Institute), Hiperlan1 est une norme européenne. Elle offre à l’origine un débit de 20 Mbps, mais la version la plus récente (Hiperlan2) permet d’atteindre des débits de l’ordre de 54 Mbps. Son originalité réside dans le fait qu’Hiperlan (versions 1 et 2) exploite la gamme de fréquence autour des 5 GHz utilisable sans aucune autorisation spécifique. Cela permet aujourd’hui son exploitation pour un usage local, sous certaines conditions de limitation de puissance des émetteurs. Néanmoins, peu d’équipements Hiperlan ont pénétré le marché commercial. Bluetooth a comme objectif de faire disparaı̂tre les câbles entre divers équipements numériques (périphériques d’ordinateurs tels que claviers, souris, imprimantes, modems,...). Les réseaux Bluetooth ont été développés pour permettre la réalisation de réseaux personnels (PAN : Personnal Area Network). Les réseaux Bluetooth sont construits de manière centralisée. Un maı̂tre élu contrôle toutes les transmissions des autres stations appelées esclaves formant ainsi un piconet. Les esclaves ne peuvent émettre des paquets que s’ils y ont été invités par le maı̂tre. Ce dernier doit donc les interroger régulièrement pour savoir s’ils ont des données à envoyer. Les équipements bluetooth ont une portée limitée, de l’ordre du mètre et des débits assez modestes combinés à une faible consommation d’énergie. Plus récemment, la technologie WIMAX pour Worldwide Interoperability for Microwave Access a vu le jour bien qu’elle soit encore en phase de tests. Egalement connue sous la désignation d’IEEE 802.16, le WIMAX est un standard de transmission sans fil à haut débit. Fonctionnant à 70 Mbps, il est prévu pour connecter les points d’accès WIFI à un réseau de fibres optiques, ou pour relayer une connexion partagée à haut débit vers de multiples utilisateurs. Avec une portée théorique de 50 km, il devrait permettre, à terme, le développement de réseaux métropolitains reposant sur un unique point d’accès, contrairement aux architectures basées sur de nombreux points d’accès WIFI. Cependant, la norme qui semble actuellement s’imposer au niveau mondial est la norme IEEE 802.11 [6]. Elle a connu un tel succès que son appellation commerciale est devenue 9 CHAPITRE 1. PRÉSENTATION DE 802.11 le WIFI pour Wireless Fidelity. Le WIFI est promulgué par un consortium appelé le Wi-Fi alliance, chargé de maintenir l’interopérabilité entre les équipements répondant à la norme 802.11. Dans ce chapitre nous allons détailler la norme IEEE 802.11 et plus spécifiquement le protocole d’accès au médium. Nous nous intéressons plus particulièrement à cette norme car c’est la technologie que nous utilisons dans la suite de nos travaux. De plus, nous nous concentrons sur le protocole d’accès au médium car comme nous le verrons, ce protocole a un impact important sur les techniques d’évaluation de ressources que nous cherchons à mettre en place. 1.1 1.1.1 Le protocole IEEE 802.11 Fonctionnement général Le protocole 802.11 est une norme établie par l’IEEE qui décrit plusieurs couches physiques ainsi qu’une couche LLC et MAC pour les réseaux locaux sans fil. L’architecture en couche de 802.11 (figure 1.1) rappelle celle de 802.3, le célèbre Ethernet [7] Fig. 1.1 – Architecture en couche de 802.11 Les quatre couches physiques constituant la norme définissent différents codages afin de transmettre de manière fiable les données en multiplexant plusieurs canaux de transmission. – La technique FHSS (Frequency Hopping Spread Spectrum) ou étalement de spectre par saut de fréquence consiste à diviser la bande de fréquence en 75 canaux d’une largeur de 1Mhz chacune, puis de transmettre en utilisant une combinaison de canaux connue de toutes les stations de la cellule. La transmission se fait ainsi en émettant successivement sur un canal puis sur un autre pendant une courte période de temps (d’environ 400 ms). – La technique DSSS (Direct Sequence Spread Spectrum) ou étalement de spectre à séquence directe transmet chaque bit en utilisant 11 changements d’état du signal. 10 CHAPITRE 1. PRÉSENTATION DE 802.11 Ainsi, l’émission de chaque bit correspond à la transmission d’une séquence de 11 bits appelée séquence de Barker. La bande de fréquence est alors divisée en 14 canaux d’une largeur de bande de 22Mhz. – La technique OFDM (Orthogonal Frequency Division Multiplexing ) divise sur un grand nombre de porteuses le signal numérique à transmettre. Pour que les fréquences des porteuses soient les plus proches possibles et ainsi transmettre le maximum d’information, l’OFDM utilise des porteuses orthogonales entre elles. Par conséquent, dans un canal de transmission avec des chemins multiples où certaines fréquences seront détruites, le système sera en mesure de récupérer l’information perdue sur d’autres fréquences porteuses. Ce principe permet de limiter l’interférence entre symboles. – La norme IEEE 802.11 propose également une alternative à l’utilisation des ondes radio par le biais de la lumière infrarouge. Les transmissions se font de manière unidirectionnelle ou par réflexion. Dans la première version de 802.11, la bande de fréquences utilisées était celle des 900 MHz. Avec les différentes extensions, d’autres bandes de fréquences ont commencé à être exploitées. C’est ainsi que les bandes de fréquences dédiées au monde industriel, médical et scientifique, plus communément appelé bande ISM située autour des 2,4 GHz (de 2,4 à 2,495 GHz) sont utilisées pour les versions de 802.11 (1999), 802.11b et 802.11g. Les bandes de fréquences autour des 5 GHz sont également utilisées pour les versions 802.11a et 802.11n (802.11n peut aussi bien fonctionner avec la bande des 2,4 GHz qu’avec celle des 5 GHz). Les débits possibles varient entre 1 et 54 Mbps suivant les techniques de modulation et les éventuelles extensions de la norme. Cependant la nouvelle norme 802.11n, en cours de standardisation, permet d’entrevoir des débits de l’ordre de 100 Mbps. Les portées prévues varient de quelques dizaines à quelques centaines de mètres en fonction des débits et de l’environnement. Les techniques de codage de ces différentes couches physiques utilisent plusieurs canaux de transmission. Cependant, la plupart des protocoles pour réseaux ad hoc n’utilisent qu’un unique canal pour communiquer. Même si cette solution pose essentiellement des problèmes d’interférences, elle facilite tout de même la conception des protocoles pour ces réseaux. Cette norme cible deux contextes d’utilisation : – Le mode infrastructure (figure 1.2(a)) où les stations de base assurent la couverture d’une certaine zone et prennent en charge les communications entre mobiles dans cette zone. – Le mode ad hoc (figure 1.2(b)) qui permet les communications entre mobiles sans intervention d’une station de base ou d’autres mobiles extérieurs. Ce mode ne permet que les transmissions entre mobiles à portée de communication. 1.1.2 Description du protocole d’accès au médium Au-dessus de la couche physique, la couche MAC de la norme IEEE 802.11 définit deux modes d’accès au médium : 11 CHAPITRE 1. PRÉSENTATION DE 802.11 (a) Mode infrastructure (b) Mode ad hoc Fig. 1.2 – Mode ad hoc et infrastructure de la norme IEEE 802.11 – Le mode PCF (Point Coordination Function) où la station de base gère les communications entre les mobiles se trouvant dans sa zone de couverture. Une station ne peut émettre que si elle est autorisée par cette dernière. – Le mode DCF (Distributed Coordination Function) est basé sur une écoute permanente du médium par les stations désirant émettre. La plupart des cartes 802.11 proposées sur le marché utilisent ce mode d’accès au canal radio, lequel s’inspire très fortement du protocole d’accès au médium MACAW [8]. Nous allons décrire son fonctionnement dans la suite de ce chapitre car c’est le mode d’accès que nous considérons dans tout ce travail. Dans le mode DCF, les transmissions s’effectuent en mode diffusion ou broadcast, d’une station vers plusieurs récepteurs ou en mode point à point ou unicast, d’une station vers un unique récepteur. Dans ce dernier cas, en cas de transmission réussie, le récepteur renvoie à l’émetteur une trame d’acquittement (ACK) afin d’indiquer à ce dernier que la trame de données a été reçue correctement. Les trames envoyées en mode diffusion ne sont pas acquittés, du fait de la génération de plusieurs acquittements simultanés, ce qui entraineraı̂t des collisions potentielles sur les acquittements ainsi qu’une surcharge du réseau. La norme définit également trois variables temporelles ou IFS (Inter Frame Space) qui caractérisent le temps s’écoulant entre l’envoi des trames. – Le SIFS pour Short Inter Frame Space est utilisé pour séparer l’instant de réception des données et l’envoi d’un acquittement correspondant. C’est le plus petit écart entre deux trames et il y a toujours, au plus, une seule station pour transmettre à cet instant. Cette valeur est fixée par la couche physique et est calculée de façon à laisser le temps à la station émettrice de commuter en mode réception pour pouvoir décoder le paquet entrant. Sa valeur est de 10 µs dans 802.11b. 12 CHAPITRE 1. PRÉSENTATION DE 802.11 – Le DIFS (DCF Inter Frame Space) est le temps d’attente d’une station voulant commencer une nouvelle transmission. Sa valeur est de 50 µs. – Enfin, l’EIFS (Extended Inter Frame Space) est défini par la norme de la manière suivante : ”L’EIFS doit être utilisé par la DCF à chaque fois que la couche physique indique à la couche MAC qu’une transmission a commencé et qu’elle ne résulte pas en une réception correcte de la trame MAC avec une valeur FCS correcte”. Il n’est actuellement pas clair si cette partie de la norme est correctement implantée dans les cartes sans fil du marché et très souvent, la communauté considère que l’EIFS est utilisé quand une station perçoit un signal qu’elle ne peut décoder. Elle diffère alors sa transmission d’un temps égal à EIFS, afin de ne pas provoquer de collision avec cette communication en cours. Sa valeur est de 364 µs. 1.1.2.1 Mécanisme d’accès CSMA/CA Le mécanisme d’accès DCF implémente un algorithme CSMA/CA pour Carrier Sense Multiple Acces with Collision Avoidance dont le but est d’éviter les collisions. Un mécanisme de type CSMA fonctionne comme suit : une station voulant émettre écoute le support de transmission, et si ce dernier est occupé (une autre station est en train d’émettre), alors la station diffère sa transmission. Si le support redevient libre, la station est autorisée à transmettre. Ces types de protocoles sont très efficaces quand le support n’est pas surchargé, puisqu’il autorise les stations à émettre avec un minimum de délai. Cependant il y a toujours un risque pour que des stations émettent en même temps et engendrent des collisions. Il est donc nécessaire de pouvoir éviter au maximum ces collisions. Le mécanisme du backoff est utilisé dans ce but. Il repose sur le tirage aléatoire, dans un intervalle appelé fenêtre de contention, d’un nombre appelé backoff, par une station désirant accéder au médium. Ce nombre est compris entre 0 et une valeur maximale correspondant à la taille de la fenêtre de contention et notée initialement CWmin . La station devra ainsi attendre en plus du DIFS, une durée supplémentaire équivalente au backoff multiplié par la durée d’un slot, le slot correspondant à l’unité de temps du standard. Dans le mode DSSS de 802.11b, le slot correspond à une durée de 20µs. Lorsque le support est libre, les nœuds décrémentent leur backoff d’une unité à chaque slot. La première station atteignant la valeur 0 émet ses informations sur le canal radio. Si pendant la décrémentation du backoff une nouvelle transmission est détectée, la décrémentation du backoff est interrompue et ne pourra reprendre qu’en cas de libération du canal radio. La figure 1.3 décrit un exemple d’accès concurrentiel au canal radio lors d’une transmission par deux stations A et B à portée de communication radio. Les stations A et B souhaitent émettre chacune une trame à la même date. Après une durée d’attente commune DIFS, la station A qui choisit le plus petit backoff accède au canal et transmet sa trame. Pendant cette durée d’émission, le nœud B ne peut accéder au canal qu’il voit occupé. Après la réception de l’acquittement correspondant au niveau du nœud A, indiquant que la transmission s’est déroulée correctement, le nœud B peut alors effectuer sa transmission après avoir décrémenté son backoff restant. 13 CHAPITRE 1. PRÉSENTATION DE 802.11 Fig. 1.3 – Exemple d’accès au canal par deux stations concurrentes 1.1.2.2 Retransmissions et backoff exponentiel Dans l’exemple précédent, les transmissions se déroulent sans collision et chaque trame est correctement acquittée. Ce n’est pas toujours le cas et il peut y avoir des collisions qui doivent être détectées, pour que la couche MAC puisse retransmettre le paquet sans avoir à repasser par les couches supérieures, engendrant alors des délais significatifs. La détection des collisions est indiquée par l’absence de réception d’un acquittement au bout d’un timeout et provoque la retransmission de la trame jusqu’au succès ou jusqu’à atteindre un nombre maximal de retransmissions autorisées. Dans ce dernier cas, la trame est détruite. A chaque nouvelle retransmission, le protocole 802.11 double la valeur de la taille de la fenêtre de contention afin de réduire le risque de collision. Cette progression est bornée par une valeur maximale CWmax . Lorsqu’une trame est reçue correctement, ou rejetée, la fenêtre de contention est ramenée à sa valeur initiale. 1.1.2.3 Mécanisme du RTS/CTS Nous avons vu que le mécanisme CSMA/CA cherche à éviter au maximum les collisions par l’écoute du canal et en introduisant un délai aléatoire supplémentaire avant une émission. Cependant, il existe une famille de configurations pour lesquelles ce mécanisme est inadapté : il s’agit du problème des nœuds cachés [9] où deux émetteurs qui ne peuvent pas s’entendre veulent atteindre un même récepteur comme représenté au niveau de la figure 1.4 Les stations émettrices A et B étant totalement désynchronisées, aucun de ces deux émetteurs ne détectent l’activité de l’autre et chaque station croit que le canal est libre. Dans ce cas, les émissions des stations A et B provoquent des collisions au niveau du récepteur B. Afin de remédier à ce problème, 802.11 propose un mécanisme utilisant des paquets de contrôle appelés RTS (Requet To Send) et CTS (Clear To Send). Un mobile voulant émettre envoie au préalable au récepteur une requête d’émission RTS. A ce paquet RTS, le récepteur, 14 CHAPITRE 1. PRÉSENTATION DE 802.11 Fig. 1.4 – Une situation de stations cachées si le canal radio est disponible, va répondre par un paquet CTS qu’il diffuse à son voisinage, autorisant l’émetteur à transmettre. L’intervalle de temps séparant la réception du RTS et l’émission du CTS correspondant est égal à SIFS afin d’empêcher l’interruption de cet échange par une autre trame. Ces deux types de paquets contiennent des informations qui permettent la réservation du canal pour la durée de la transmission de données correspondante. Un mobile qui reçoit un CTS sait qu’une station va émettre et doit donc attendre. Le mobile qui a envoyé le RTS et recevant le CTS correspondant sait que le canal lui a été réservé et qu’il peut émettre. Ce principe de réservation du canal par l’envoi de petits paquets de contrôle est appelé détection de porteuse virtuelle ou Virtual Carrier Sense. La période de réservation est stockée dans le vecteur d’allocation du réseau (NAV - Network Allocation Vector). Ce mécanisme permet de réduire l’impact des collisions sans toutefois les supprimer entièrement. Il peut arriver que des paquets RTS émis en même temps par les nœuds A et B entrent en collision au niveau du récepteur C ou que le paquet CTS subisse une collision. 1.1.2.4 Zones de communication La qualité du signal radio en réception va directement caractériser la précision du décodage des informations reçues. La transmission du signal radio dans l’air est un mécanisme complexe affecté par divers phénomènes : – Plus la puissance d’émission est grande, plus la zone de couverture radio l’est aussi. Cependant comme nous l’avons vu précédemment la puissance des équipements est réglementée. En France, l’ART1 limite la puissance d’émission des mobiles WIFI à 100mW. 1 Autorité de régulation des télécommunications 15 CHAPITRE 1. PRÉSENTATION DE 802.11 – Les signaux radio subissent un affaiblissement en fonction de la distance et du milieu traversé. Pour une bonne compréhension des signaux reçus, ces signaux doivent être reçus avec une puissance supérieure à une puissance minimale, cette dernière étant fonction du débit d’émission. – D’autres perturbations du signal en réception proviennent des signaux environnants émis simultanément dans la même bande de fréquence, empêchant un décodage des informations. Ainsi le SINR (Signal to Interference and Noise Ratio) représentant le rapport entre la puissance du signal reçu et la somme des puissances des communications interférentes est donné par la formule : Pr SIN R = P Psignauxinterf erents Ce SINR, qui donne une indication sur la qualité du signal, doit être supérieur à une valeur seuil pour que les cartes 802.11 puissent décoder proprement le signal reçu. Par exemple, selon les données du constructeur Orinoco [10], il faut un SINR ≥ 7 dB pour un débit de 2 M b/s. Fig. 1.5 – Zones de communication et de détection de porteuse La norme 802.11 définit pour tout mobile deux zones radio. Une zone dite de communication dans laquelle tout nœud récepteur est capable de décoder proprement le signal envoyé par la source. Une zone dite de détection de porteuse (figure 1.5) dans laquelle le récepteur ne peut décoder proprement le signal envoyé par la source bien que le mécanisme de détection de porteuse détecte une activité sur le médium. Ceci signifie que tout nœud non à porté de communication d’une source mais se trouvant dans la zone de détection de porteuse de cette source ne pourra émettre en même temps que celle-ci. Le partage du médium radio se fait donc aussi bien dans la zone de communication que dans la zone de détection de porteuse. Cette dernière remarque est importante dès lors que l’on s’intéresse à l’évaluation des ressources disponibles. 16 CHAPITRE 1. PRÉSENTATION DE 802.11 1.2 Synthèse L’utilisation d’un protocole tel que IEEE 802.11, initialement prévu pour des réseaux avec station de base, pose certains problèmes lors d’une migration vers un environnement ad hoc. Par exemple, dans [11], les auteurs mettent en exergue le fait que les paquets utilisés afin de découvrir les mobiles voisins sont émis à un débit de 2 Mb/s. Par conséquent, ils sont reçus à des distances plus grandes que celles des paquets de données émis à 11 Mb/s, ce qui peut générer des informations erronées sur le voisinage effectif des mobiles. De plus, les collisions sur les paquets de diffusion, qui véhiculent généralement des informations importantes sur la topologie, ne sont pas détectées lorsque le réseau devient dense. Il existe aussi des topologies pour lesquelles on constate une inéquité d’accès engendrée par le mécanisme CSMA/CA de 802.11. Les auteurs de [12] présentent les performances du protocole 802.11b pour des topologies simples présentant des inégalités d’accès au médium radio. En dépit de toutes ces contraintes, les protocoles ad hoc proposés doivent pouvoir s’adapter aux spécificités de 802.11 car la migration vers une autre technologie de niveau MAC ne semble pas être la voie envisagée dans un futur proche. Dans ce chapitre, nous avons exposé les principaux mécanismes utilisés par la norme IEEE 802.11. La compréhension de ces mécanismes est importante pour faciliter l’évaluation des ressources dans un contexte ad hoc. En effet, cette estimation est très fortement dépendante de la méthode d’accès au canal radio. Il paraı̂t donc primordial lorsqu’on veut assurer des garanties à une application de pouvoir identifier les trafics susceptibles d’être en concurrence avec les émetteurs de ces flux privilégiés. Les mécanismes à mettre en place doivent être en mesure de collecter et de maintenir des informations fiables qui reflètent l’état du réseau. Dans toute la suite de nos travaux, 802.11 en mode DCF est utilisé comme protocole d’accès au médium. Aucune modification de ce protocole n’est effectuée par la suite. 17 CHAPITRE 2 Routage ad hoc et qualité de service La recherche dans le domaine des réseaux ad hoc s’est d’abord concentrée sur la conception de protocoles de routage. Les réseaux ad hoc introduisent de nombreuses contraintes liées essentiellement au médium radio et à la mobilité inhérente des utilisateurs. Ainsi, le processus de routage vers des destinataires mobiles devient une tâche ardue et d’autant plus complexe dans le cas où l’expression de certaines contraintes qualité de service sont rajoutées au niveau des transmissions. Dans ce chapitre, nous exposons quelques généralités sur les réseaux ad hoc afin de comprendre les phénomènes susceptibles de perturber le processus de routage avec QoS. Nous présentons ensuite les mécanismes et les problèmes liés au routage et enfin nous discutons brièvement des approches proposées pour mettre en place de la qualité de service dans un contexte ad hoc. 2.1 Généralités sur les réseaux ad hoc Les réseaux ad hoc sont des réseaux sans fil et sans infrastructure fixe, où chaque nœud peut aussi bien jouer le rôle d’émetteur (initiateur de la communication), de routeur (relayage des informations vers d’autres mobiles) que de destinataire (réception et traitement des informations). Les réseaux ad hoc sont auto-organisés ce qui implique que la connectivité doit être préservée autant que possible en cas de changement de topologie (suite à l’apparition, la disparition ou aux mouvements de certains nœuds) sans intervention humaine. Ainsi, la seule présence des terminaux équipés d’une carte d’interface sans fil suffit à créer et maintenir un réseau ad hoc. Vers le début des années 1970, les réseaux ad hoc ont été conçus principalement pour des applications militaires. Cependant, avec le développement de l’Internet et la démocratisation des équipements sans fil, les possibilités d’utilisation de ces réseaux semblent beaucoup plus étendues. Les applications que l’on entrevoit actuellement vont des réseaux de capteurs souvent dédiés à la surveillance de l’environnement aux réseaux véhiculaires en passant par les réseaux maillés, réseaux sans fil fixes qui permettent par exemple d’étendre un accès Internet sans cablâge. Le médium ou canal radio, partagé par tous les nœuds, est une ressource rare qui constitue un des points critiques des réseaux ad hoc. La nature même du canal radio pose un certain nombre de problèmes : 18 CHAPITRE 2. ROUTAGE AD HOC ET QUALITÉ DE SERVICE – Une atténuation rapide du signal en fonction de la distance qui induit l’impossibilité pour l’émetteur de détecter une collision au moment de l’émission. L’environnement peut aussi détériorer un signal à cause des phénomènes d’atténuation et de réflexion ou de chemins multiples. – Les interférences : les liens radio n’étant pas isolés, une communication entre deux mobiles peut interférer sur d’autres communications rendant le décodage des informations parfois impossible. – Liens bidirectionnels : les liens radio ne sont pas toujours bidirectionnels. Ainsi un mobile peut recevoir des données de la part d’un autre mobile sans que la réciproque soit vraie. Ce phénomène pose un problème dans le processus de découverte de route car lorsqu’un chemin est créé, les informations de réponse ne peuvent pas toujours emprunter le chemin inverse, nécessitant la construction d’une nouvelle route. Ce phénomène pose aussi un problème dès lors qu’on utilise des échanges point-à-point avec 802.11 puisque ces échanges ne peuvent fonctionner que sur des liens bidirectionnels. – La puissance du signal est réglementée par l’ART et donc limitée. – Un faible débit par rapport à un équivalent filaire. – L’énergie : les applications relatives aux réseaux sans fil tirent leur autonomie des batteries et les différentes opérations (émettre, recevoir des données, écouter le support radio) consomment de l’énergie non négligeable. – Une faible sécurité : le canal radio n’étant pas isolé, il est très facile à l’aide d’une antenne espionne d’écouter les informations qui circulent sur le canal d’autant plus qu’il est partagé. Les solutions se trouvent donc au niveau d’un cryptage par l’émetteur. – La mobilité des utilisateurs inhérente à ces réseaux peut se révéler un facteur contraignant car générant des modifications de topologies. – La versatilité du médium physique qui change rapidement entraı̂ne une instabilité des transmissions radio. 2.2 Le routage dans les réseaux ad hoc Une des grandes problématiques des réseaux ad hoc est la mise en place de politiques de routage. La législation en vigueur impose une limitation de la puissance des transmissions radio, ce qui réduit la portée des mobiles. De ce fait, dans un réseau ad hoc, il est fréquent que deux mobiles désirant communiquer soient hors de portée l’un de l’autre. Afin de permettre ces communications, les mobiles d’un réseau ad hoc doivent être capable d’acheminer les informations vers leur destinataire, relayé par des mobiles intermédiaires, c’est à dire d’effectuer un routage des données. Cette thèse n’est pas consacrée aux protocoles de routage ad hoc, mais pour tester les techniques d’évaluation de ressources proposées ici, il nous a semblé pertinent de les intégrer dans des protocoles de routage avec qualité de service, comme nous le verrons par la suite. C’est pourquoi, une courte section de ce chapitre est consacrée aux protocoles de routage ad hoc. La gestion de l’acheminement de données ou le routage consiste à assurer une stratégie qui doit permettre à n’importe quel moment, la connexion entre n’importe quelle paire 19 CHAPITRE 2. ROUTAGE AD HOC ET QUALITÉ DE SERVICE de nœuds appartenant à un réseau. La diffusion est utilisée afin d’inonder le réseau et les informations sont alors relayées de proche en proche par les mobiles intermédiaires. Evidemment, ce mode de fonctionnement consomme une quantité non négligeable de bande passante. La plupart des protocoles de routage utilisés ont été conçus afin d’optimiser cette diffusion. Dans [13], les auteurs mettent en relief certaines contraintes introduites par les réseaux ad hoc et qui perturbent ce processus de routage. La prise en compte des contraintes spécifiques précitées rend cette conception plus complexe que dans le monde filaire. Les protocoles de routage dans les réseaux ad hoc sont généralement classés en quatre grandes catégories : 1. Les protocoles de routage proactifs maintiennent à jour une table de routage, de sorte que lorsqu’une application désire envoyer des données, la route est immédiatement connue. Ces protocoles ont l’avantage de la disponibilité immédiate des routes vers tous les nœuds du réseau. Au niveau de la table de routage, chaque nœud stocke pour chaque destination, l’identité du mobile à contacter. La mise à jour de cette table de routage nécessite l’échange régulier de messages de contrôle, consommant une part non négligeable des ressources radio même en l’absence de trafic. Comme dans les réseaux filaires, deux principales méthodes sont utilisées : le routage par vecteur de distance et le routage par état de lien. – Le routage par état de lien consiste à diffuser périodiquement aux mobiles voisins l’état de la liaison qui les sépare. De cette façon, chaque mobile est capable de dresser une carte de l’état du réseau et par conséquent de choisir la route la plus appropriée pour un message donné. Un des avantages de ce type de protocole est sa capacité à pouvoir facilement trouver des routes alternatives en cas de rupture de lien. – Le routage par vecteur de distance permet à chaque nœud de diffuser à ses voisins la distance qui les sépare (en nombre de sauts). Les seules informations conservées sont la liste des nœuds du réseau et l’identité du prochain mobile par lequel passer pour atteindre la destination. Le mobile émetteur choisit la route la plus courte en nombre de sauts vers le destinataire. L’inconvénient des protocoles proactifs réside dans le coût du maintien des informations de topologie et de routage même en absence de trafic de données ce qui implique une consommation continue de la bande passante. Comme exemple de protocoles de routage proactifs, nous pouvons citer OLSR [14] et DSDV [15] qui constituent respectivement les versions sans fil des protocoles OSPF [16, 17] et RIP [18]. Nous pouvons également citer TBRPF [19]. 2. Les protocoles de routage réactifs restent inactifs tant qu’aucune application ne sollicite l’envoi de données. Ceci permet d’économiser de la bande passante et de l’énergie. La procédure de découverte de route n’est enclenchée que lorsqu’un nœud souhaite envoyer des paquets vers un destinataire pour lequel aucune route n’est connue. Une demande de route explicite vers ce destinataire est alors propagée à travers le réseau. Cette inondation surcharge localement le réseau puisque tous les nœuds atteints doivent répéter la requête. Si le réseau est mobile, le processus de reconstruction 20 CHAPITRE 2. ROUTAGE AD HOC ET QUALITÉ DE SERVICE de route engendre de nouvelles inondations. En conséquence, le délai des paquets peut augmenter très rapidement. Le principal avantage est de ne générer du trafic que si nécessaire mais cela implique une inondation du réseau coûteuse en ressources. Source rreq (1) rreq (1) rrep (4) B rreq (2) A rrep (3) rreq (2) D rreq (3) E rreq (2) rreq (3) rrep (2) rreq (4) C F rreq (4) rrep (1) Dest. Fig. 2.1 – Recherche de route dans AODV AODV [20] fait partie de la famille des protocoles réactifs. Lorsqu’une application désire trouver une route vers un destinataire, AODV inonde le réseau avec des paquets Route Request (RREQ). Chaque nœud traversé par un paquet de RREQ stocke des informations sur le numéro de séquence du paquet, l’adresse des nœuds source et destination ainsi que l’adresse du nœud précédent. Lorsque ces paquets de RREQ arrivent à la destination, un paquet de réponse Route Reply (RREP) est envoyé suivant le chemin inverse vers le nœud émetteur (voir figure 2.1). Ce paquet permet, au niveau de chaque nœud, de mettre à jour le saut suivant pour la route construite. On parle de routage par sauts. Nous pouvons également citer DSR [21] comme protocole de routage réactif. 3. Les protocoles de routage hybrides combinent les approches réactive et proactive. Le principe est de connaı̂tre le voisinage de manière proactive jusqu’à une certaine distance (deux ou trois sauts par exemple), et lorsqu’une application cherche à envoyer des données à un nœud hors de cette zone, une recherche réactive est enclenchée. Une zone de routage est définie pour chaque nœud et inclut l’ensemble des mobiles qui sont à une distance (en terme de sauts) inférieure à une valeur fixée représentant le rayon de routage. Grâce à cette combinaison, le réseau est partagé en plusieurs zones et la recherche de route en mode réactif est améliorée. A la réception d’une requête de recherche réactive, un nœud a la possibilité d’indiquer immédiatement si la destination est dans son voisinage ou non. ZRP [22] est le protocole hybride le plus connu, mais nous pouvons également citer comme exemple CEDAR [23] et CBRP [24]. 4. Les protocoles de routage géographiques se basent sur des informations concernant la position des mobiles afin d’améliorer le processus de routage. Un système de 21 CHAPITRE 2. ROUTAGE AD HOC ET QUALITÉ DE SERVICE localisation est donc mis en place afin de connaı̂tre à un instant donné la position des mobiles. Le GPS est actuellement le système de localisation le plus utilisé même si d’autres algorithmes proposent de calculer la position des mobiles à l’aide d’autres paramètres comme par exemple la puissance du signal. Une fois que la position du mobile destinataire est évaluée, la diffusion des messages de recherche de route peut être orientée vers une direction précise, réduisant considérablement le trafic de découverte de route. Un exemple de protocole géographique est le protocole LAR (Location-Aided Routing) [25]. Tous ces protocoles cités précédemment sont sans qualité de service, c’est-à-dire que leur objectif est de trouver une route vers un mobile destinataire sans tenir compte de l’état des ressources à travers le réseau. Pour certaines applications qui voient le jour, comme par exemple la diffusion de vidéo ou la téléphonie sur IP, les protocoles de routage précédents ne sont pas toujours en mesure d’assurer les contraintes demandées par ces applications. Il semble donc nécessaire de s’orienter vers d’autres approches, comme par exemple la mise en place de qualité de service. 2.3 La qualité de service dans les réseaux ad hoc Le terme Qualité de Service ou QoS a largement été utilisé pour définir de nombreux concepts sans toutefois converger vers un consensus. La RFC 2386 [26] définit la QoS comme un ensemble de garanties à assurer, par le réseau, pour le transport d’un trafic d’une source vers une destination. Nous retiendrons cette définition et plus formellement nous définissons la Qualité de Service comme l’ensemble des mécanismes mis en œuvre dans un réseau afin de satisfaire les besoins explicites des applications lors de l’acheminement des flux de données. Les mécanismes classiques de qualité de service dans les réseaux filaires sont totalement ou partiellement inadaptés dans un environnement ad hoc. En effet, la plupart des ces méthodes reposent sur la connaissance d’informations précises quant à l’état du réseau (la bande passante utilisée, le délai, la gigue de phase, etc.). Dans un contexte sans fil, ces informations sont difficiles à évaluer notamment à cause des phénomènes propres aux transmissions sans fil (versatilité du lien radio, interférences, atténuation du signal, etc.) et peuvent être amenées à varier très rapidement, en fonction de la mobilité. Un état de l’art sur la QoS dans les réseaux ad hoc, a été proposé dans [27], classifiant les solutions de QoS en quatre grandes catégories : – Les modèles de QoS définissent des architectures globales dans lesquelles des garanties peuvent être fournies. – Les protocoles d’accès au médium cherchent à ajouter des fonctionnalités aux couches basses du modèle OSI1 afin de pouvoir offrir des garanties. – Les protocoles de routage avec qualité de service recherchent les routes ayant suffisamment de ressources disponibles pour satisfaire une requête. 1 Open Systems Interconnection 22 CHAPITRE 2. ROUTAGE AD HOC ET QUALITÉ DE SERVICE – Les protocoles de signalisation cherchent à offrir des mécanismes de réservation de ressources indépendants du protocole de routage sous-jacent. Cette classification très souvent utilisée, permet d’identifier les différentes briques à mettre en œuvre pour assurer une certaine qualité de service. Dans [28], les auteurs proposent une classification différente : ils distinguent les approches de qualité de service statistique des approches avec garanties quantitatives. Dans les approches de qualité de service statistiques, l’idée est d’offrir plus de ressources aux trafics prioritaires comparés aux trafics moins prioritaires, sans néanmoins assurer de garanties quantitatives. La norme IEEE 802.11e [29], fait partie de cette approche. Dans un contexte ad hoc, l’ordre des priorités reste néanmoins difficile à respecter de part la difficulté de reporter des politiques locales de voisinage en voisinage. Pour des applications strictes comme la diffusion de vidéo, les approches avec garanties quantitatives nous semblent plus appropriées. Parmi les approches avec garanties quantitatives, les auteurs de [28] distinguent les approches a posteriori des approches a priori. Les approches a posteriori peuvent être basées sur n’importe quel protocole de routage et ne cherchent qu’à réguler l’environnement afin d’offrir des garanties aux applications le nécessitant. A l’opposé, les approches a priori vont se baser sur un routage avec qualité de service. Le principe du routage avec qualité de service est de rechercher un chemin entre deux nœuds satisfaisant certaines contraintes. Plusieurs métriques peuvent être utilisées telles que le délai, la bande passante, la gigue ou encore le taux de perte. Il m’a semblé que l’approche du routage avec qualité de service permettait d’offir un contrôle plus fin que celui offert par les approches a posteriori. Par conséquent, je me suis concentré sur cette approche. Un très grand nombre de protocoles de routage de QoS ont été proposés. On retrouve la dichotomie classique entre protocoles réactifs et proactifs. Ainsi, le routage avec qualité de service ajoute en général à ces protocoles de routage usuels un contrôle d’admission afin de sélectionner parmi les routes disponibles celles qui satisfont les contraintes spécifiées par l’application. Le contrôle d’admission est une étape très importante dans le routage QoS : il s’agit plus précisément de déterminer si les conditions du réseau permettent de transmettre les flux avec les garanties requises. L’admissibilité des flux est faite en fonction de deux paramètres : – La quantité de ressources exigée par l’application : les applications doivent être en mesure de quantifier leur besoin en terme de ressources, comme par exemple la quantité de bande passante dont elles ont besoin. Ceci fait apparaı̂tre une spécificité du routage avec QoS : l’éligibilité d’une route doit être déterminée flux par flux et non plus destination par destination. Il est tout à fait envisageable d’utiliser des routes différentes pour des flux ayant des contraintes différentes. Le routage par flux permet par ailleurs d’assurer un contrôle plus fin des ressources du réseau. On peut par exemple imaginer décomposer un flux en plusieurs petits sous-flux, chacun empruntant une route différente. 23 CHAPITRE 2. ROUTAGE AD HOC ET QUALITÉ DE SERVICE – L’estimation des ressources résiduelles ou disponibles le long des chemins qui doit être connue a priori avant l’envoi des flux QoS. C’est un point critique et beaucoup de protocoles de routage QoS se concentrent davantage sur la partie routage que sur la partie estimation des ressources résiduelle. Cette estimation des ressources est rendue plus complexe dans un contexte ad hoc où contrairement aux réseaux filaires, les liens entre mobiles sont versatiles, peu fiables, et partagés inéquitablement. Pour résumer, le routage avec QoS est un processus d’établissement et de maintenance des routes satisfaisant un ensemble de critères quant à la qualité de la transmission des données. Nous pensons que le point critique de ce processus reste l’estimation des ressources disponibles à travers le réseau car la précision du contrôle d’admission dépend fortement de cette estimation. Certains protocoles de routage supposent que cette estimation est connue et ne repose pas sur une technique d’évaluation des ressources spécifiques. C’est le cas par exemple du protocole CEDAR [23]. D’autres protocoles en revanche proposent leur propre technique d’évaluation des ressources. Ces différentes techniques font l’objet du chapitre suivant. 24 CHAPITRE 3 Etat de l’art sur les techniques d’évaluation de la bande passante résiduelle De nombreux protocoles de routage ad hoc avec QoS utilisent leur propre technique d’évaluation des ressources disponibles. La majorité de protocoles se concentrent sur le paramètre de bande passante qui est une métrique très importante dans les réseaux ad hoc. En effet, la bande passante est très limitée dans les réseaux sans fil et son partage est très compliqué, plus particulièrement dans les réseaux ad hoc. De plus, ce paramètre a un impact sur les autres paramètres du réseau comme par exemple le délai ou le taux de perte. Maı̂triser les débits dans le réseau permet de limiter la congestion et par conséquent d’améliorer les délais de transmission et les taux de pertes. Par conséquent, les techniques d’évaluation de la bande passante résiduelle sont fondamentales et ont constitué le cœur de mon travail. Les techniques d’évaluation de la bande passante disponible peuvent se subdiviser en deux grandes catégories : – Les techniques dites intrusives basées sur l’envoi de paquets de contrôle afin d’estimer la bande passante résiduelle le long d’un chemin. – Les techniques dites passives qui utilisent des informations locales (comme par exemple le taux d’utilisation du canal). Les messages Hello que l’on retrouve dans la plupart des protocoles de routage classiques et qui permettent la mise à jour des informations de voisinage sont généralement utilisés afin d’échanger les informations de bande passante. Avant de dresser un état de l’art sur les principales techniques d’évaluation de la bande passante résiduelle dans les réseaux filaires et sans fil, nous définissons la notion de bande passante résiduelle ainsi que les problèmes liés à l’estimation de cette métrique dans les réseaux ad hoc. 3.1 La bande passante résiduelle ou disponible La bande passante résiduelle ou disponible entre deux mobiles peut se définir comme le débit maximal qui peut être émis entre deux nœuds sans dégrader aucun des flux déjà présents dans le réseau. Cette notion est différente de la capacité qui représente juste le débit maximal d’émission entre deux mobiles. Lors de la mise en place d’un protocole de réservation de bande passante, l’estimation de cette bande passante disponible doit être la plus précise possible quels que soient les trafics 25 CHAPITRE 3. ETAT DE L’ART SUR LES TECHNIQUES D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE existants et de la topologie, afin de choisir les routes susceptibles d’offrir aux applications QoS les garanties désirées. Néanmoins, la bande passante résiduelle est une métrique difficilement quantifiable dans un environnement ad hoc multi-saut pour les raisons suivantes : – Lorsque n émetteurs à portée de communication sont en compétition pour l’accès au médium, la bande passante utilisable au niveau application par chaque émetteur n’est pas égal à la bande passante qu’obtiendrait un seul émetteur divisée par n. En effet, avant d’émettre, chaque nœud doit s’assurer que le canal radio a été libre pendant un certain temps aléatoire. Lorsque plusieurs émetteurs sont en concurrence, ces attentes ont lieu en parallèle, ce qui permet de réduire globalement le surcoût du protocole d’accès au médium. Toutefois, on ne peut augmenter indéfiniment le nombre d’émetteurs sans risquer de collisions. Dans ce cas, les délais sont à nouveau allongés car le protocole 802.11 retransmet les paquets perdus. – Le médium étant partagé et la topologie multi-saut, la perception de la bande passante utilisée et disponible est différente d’un mobile à un autre. Par conséquent, en plus de la bande passante qu’il consomme, un mobile doit avoir une estimation de la bande passante consommée par les mobiles voisins avec lesquels il partage le médium. Cela suppose une connaissance exacte du voisinage, ce qui n’est pas toujours le cas. – Dans un réseau ad hoc, il y a également un partage de la bande passante dans la zone de détection de porteuse de 802.11 comme nous l’avons décrit dans le chapitre 1. – Le phénomène des stations cachées tend aussi à diminuer le débit des communications. Cette situation provoque des collisions au niveau du récepteur qui voit son débit chuter. Par conséquent, la bande passante résiduelle est une métrique complexe à évaluer car elle doit prendre en compte aussi bien les caractéristiques des transmissions voisines, que les phénomènes physiques dûs au médium radio sous-jacent et à la technologie d’accès au médium (802.11 dans notre cas). 3.2 Evaluation de la bande passante résiduelle dans les réseaux filaires Les techniques utilisées pour évaluer la bande passante résiduelle dans les réseaux filaires sont essentiellement intrusives. Jain et Dovrolis dans [30] ont mis au point une technique appelée Pathload afin d’estimer la bande passante résiduelle le long d’un chemin. Périodiquement des paquets de contrôle sont envoyés par les stations sources vers les stations destinataires afin d’évaluer la bande passante disponible le long de ces chemins. Pour chaque paquet de contrôle envoyé de bout en bout, le délai de transmission est mesuré. L’observation effectuée est que le délai de ces paquets de contrôle augmente lorsque le débit (R) du flux est supérieur à la valeur de la bande 26 CHAPITRE 3. ETAT DE L’ART SUR LES TECHNIQUES D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE passante résiduelle notée A. En faisant varier la valeur de R, et en procédant de manière itérative et dichotomique, on peut estimer la valeur de A. La difficulté est de déterminer à partir de quelle valeur le délai augmente de manière assez significative pour en déduire une approximation de la bande passante résiduelle. Les itérations se poursuivent jusqu’à une valeur qui mesure la précision définie à l’avance par l’utilisateur et telle que : R(n) < A < R(n + 1) et |R(n + 1) − R(n)| < avec R(n) étant le débit du nieme paquet Les auteurs comparent par la suite la précision de l’estimation de la bande passante résiduelle obtenue avec Pathload, avec celle obtenue grâce à MRTG [31] (Multi Router Traffic Grapher), un outil permettant de surveiller la charge de la circulation des données qui transitent sur un réseau filaire. Les expérimentations aboutissent à une estimation de Pathload présentant un taux d’erreur moyen de l’ordre de 2% sur plusieurs simulations. Carter et Crovella [32] expérimentent une technique appelée cprobe. Les paquets de contrôle utilisés sont constitués de paquets ICMP (Internet Control Message Protocol) véhiculant généralement des messages de contrôle et d’erreur dans un réseau filaire. La source envoie un train de paquets ICMP echo vers la destination. Lorsque la machine destinataire ou serveur reçoit ces paquets ICMP echo, elle répond en envoyant des paquets de réponse ICMP reply. Les temps d’inter-arrivée de ces paquets ICMP sont mesurés pour en déduire la valeur de la bande passante résiduelle le long du chemin. Dans [33] les auteurs proposent un modèle théorique appelé TOPP (Train of Packet Pair) qui introduit deux nouveaux concepts : le concept de Proportionnal Share qui représente la proportion de bande passante que le lien va pouvoir offrir à un nouveau flux entrant en ne dégradant que légèrement les flux déjà présents et celui de Surplus Bandwith qui est une borne inférieure de la bande passante résiduelle. Cette technique TOPP est basée sur le même principe que Pathload. Cependant, la fonction d’augmentation du débit de la source est linéaire. Parallèlement, les auteurs prennent en compte un autre facteur important : le nombre de liens congestionnés. Les expérimentations montrent qu’au-delà de deux liens congestionnés, les mesures de bande passante résiduelle ne sont plus assez précises. Dans [34], les auteurs proposent un résumé détaillé des différentes techniques d’évaluation de la bande passante résiduelle dans le monde filaire. Ils mettent en relief trois grandes catégories : – Les techniques VPS (Variable Packet Size) mesurent le RTT (Round Trip Time) entre la source et la destination en fonction de la taille du paquet de contrôle envoyé. Ce RTT est calculé en fonction de la valeur contenue dans le champ TTL du datagramme IP. Cette technique peut sous-estimer la bande passante résiduelle car elle ne tient pas compte du temps passé dans les couches basses. – Les techniques PPP (Packet Pair Probing) mesurent la dispersion entre paires de paquets de même taille envoyés de la source vers la destination et de la destination vers la source. La valeur mesurée correspond davantage à la capacité qu’à la bande passante résiduelle. – Les techniques SLoPS (Self-Loading Periodic Streams) mesurent le bande passante résiduelle de bout en bout en monitorant le délai de paquets de contrôle de taille 27 CHAPITRE 3. ETAT DE L’ART SUR LES TECHNIQUES D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE identique. 3.3 Evaluation de la bande passante résiduelle dans les réseaux sans fil Dans le monde filaire, les méthodes utilisées pour estimer la bande passante résiduelle se sont révélées efficaces en partie. Par contre, elles ne sont pas directement adaptables à un environnement ad hoc dans lequel la problématique devient beaucoup plus complexe. Certains travaux ont vu le jour dans le monde sans fil, présentant aussi bien des techniques intrusives que passives. 3.3.1 Les techniques intrusives DietTOPP [35] est basée sur le même principe que TOPP [33], mais a été conçu pour des environnements sans fil. Un train de paquets de contrôle est envoyé du nœud source vers le nœud destinataire avec un débit initial dmin et du nœud destinataire vers le nœud source. Lorsque ce train de paquets de contrôle a été totalement acheminée, le débit d’émission est progressivement augmenté d’une valeur δi jusqu’à atteindre une valeur maximale dmax pour laquelle on observe une égalité entre le débit du nœud source et du nœud récepteur. Cette valeur dmax représente la bande passante résiduelle. Cette technique, faisant partie de la famille des Packet Pair Probing, l’inconvénient est que la valeur mesurée correspond davantage à la capacité qu’à la bande passante résiduelle comme expliqué précédemment. Afin d’estimer la bande passante résiduelle d’un nœud vers ses voisins, les auteurs de [36] proposent de considérer une taille de paquet standard et de saturer le médium avec cette taille de paquet afin de calculer la capacité de chaque lien. Cette capacité mesurée est considérée comme la bande passante disponible, ce qui ne correspond pas à la notion définie précédemment. Dans [37], les auteurs mettent en relief le fait que le délai des paquets, supérieur à une valeur théorique maximale, permet d’estimer une utilisation du médium et d’en déduire la bande passante résiduelle. L’inconvénient majeur de cette technique est que la valeur théorique maximale ne prend pas en compte les éventuelles retransmissions imposées par la norme IEEE 802.11 en cas de collision et la période de contention qui peut être très élevée dans des topologies présentant des inéquités d’accès. Toutes ces techniques sont intrusives car elles utilisent des paquets de contrôle envoyés de bout en bout pour estimer la bande passante résiduelle le long d’un chemin. Une consommation importante de la bande passante et un impact non négligeable sur les trafics de données sont les deux inconvénients majeurs de ces techniques. 28 CHAPITRE 3. ETAT DE L’ART SUR LES TECHNIQUES D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE 3.3.2 Les techniques passives Chaudet et Guérin Lassous ont proposé BRuIT [38, 39] (Bandwith Reservation under InTerferences) qui prend en compte la notion de zone de détection de porteuse dans l’évaluation de la bande passante disponible. En effet, avec les protocoles de type CSMA/CA, deux nœuds qui sont en zone de détection de porteuse partagent l’accès au médium et donc la bande passante même s’ils ne sont pas capable de communiquer directement. Par conséquent, chaque mobile doit être en mesure d’estimer l’occupation du médium due aux mobiles dans sa zone de détection de porteuse. BRuIT approxime cette zone de détection de porteuse par le voisinage à deux sauts. Périodiquement, chaque nœud fournit des informations sur la quantité de bande passante qu’il utilise pour router un flux, ainsi que sur celle utilisée par ses voisins, en envoyant des messages Hello. Chaque mobile peut donc estimer la bande passante consommée dans son voisinage à deux sauts et en déduire sa bande passante résiduelle. Le principal inconvénient de cette méthode est que l’approximation de la zone de détection de porteuse par le voisinage à deux sauts n’est pas toujours vrai. Fig. 3.1 – Voisinage dans la zone de détection de porteuse Considérons l’exemple de la Figure 3.1. Le nœud B qui se trouve dans la zone de détection de porteuse du nœud A ne peut être atteint par le voisinage à deux sauts, car il n’y a pas de nœuds intermédiaires pour router ses informations de bande passante vers le nœud A : c’est le phénomène des nœuds brouilleurs. Identifier l’ensemble de ses brouilleurs potentiels est indispensable pour une bonne estimation de la bande passante résiduelle. Dans [40], Chaudet a montré que pour une distribution géométrique aléatoire et une connaissance du voisinage à un, deux ou trois sauts, on manque respectivement dans le pire des cas jusqu’à 70, 50 et 45% des ses brouilleurs. De plus, BRuIT peut parfois sous-estimer la bande passante résiduelle car il ne tient pas compte de la synchronisation possible des flux voisins. Dans [41], Yang et Kravets ont proposé CACP (Contention Aware Control Protocol). Le but est, comme dans BRuIT, d’estimer la bande passante résiduelle des nœuds dans la zone de détection de porteuse. Dans un premier temps, la bande passante résiduelle locale est calculée en utilisant les périodes de temps libre au niveau du médium. Dans un second temps, pour estimer la bande passante dans la zone de détection de porteuse, trois méthodes différentes sont proposées : l’utilisation des messages Hello dans un voisinage à deux sauts 29 CHAPITRE 3. ETAT DE L’ART SUR LES TECHNIQUES D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE comme dans BRuIT ; l’augmentation de la puissance d’émission des émetteurs de telle sorte que le signal puisse être décodé par l’ensemble des nœuds dans la zone de détection de porteuse ; enfin la réduction du seuil de sensibilité des récepteurs. Les auteurs mettent en relief le problème de la contention intra flux déjà étudié dans [42]. En effet, l’émission des données par un mobile va consommer de la bande passante au niveau d’un certain nombre de liens en amont et en aval. Par conséquent il est important d’identifier, de manière précise, le nombre de mobiles qui seront en contention lors de l’émission d’un même flux QoS. QoS-AODV [43] utilise une métrique appelée BWER (Bandwidth Efficicency Ratio) afin d’estimer la bande passante résiduelle au niveau de chaque nœud. Cette métrique exprime le ratio entre le nombre de paquets transmis et reçus. QoS-AODV utilise les messages Hello pour collecter les informations de bande passante des mobiles dans son voisinage à un saut. Finalement, la bande passante résiduelle d’un mobile est égale au minimum de la bande passante résiduelle estimée par ce mobile et de celle des mobiles dans son voisinage à un saut. Dans AAC [44], chaque mobile estime sa bande passante utilisée en additionnant la taille des paquets perçus durant une période fixe. Cette taille des paquets est déduite de l’occupation du médium, ce qui permet de prendre en compte les mobiles dans la zone de détection de porteuse. La bande passante résiduelle est le minimum de la bande passante résiduelle des mobiles se trouvant dans la zone de détection de porteuse de l’émetteur et du récepteur. De la même manière que CACP, AAC propose aussi la prise en compte de la contention intra-flux. Dans QOLSR [45], la bande passante résiduelle est fonction du taux d’utilisation du canal radio noté u. Ainsi, pour un lien i −→ j, la bande passante résiduelle sur ce lien notée B(i−→j) , est donnée par la formule : B(i−→j) = u × BpE(i,j) BpE(i,j) étant le ratio entre la taille du paquet considéré, et son temps de service incluant d’éventuels retransmissions en cas de collision. L’inconvénient de cette méthode est que l’occupation du médium perçue n’est pas forcément la même entre l’émetteur et le récepteur et que par conséquent l’occupation du médium sur le lien i −→ j ne correspond pas à l’occupation du médium sur une des extrémités de ce lien. Un des auteurs de QOS-OLSR [46] évalue la bande passante résiduelle en présence du phénomène des interférences. Cette évaluation se déroule en trois étapes : – Dans la première étape, l’auteur évalue la bande passante consommée par un flux f pris isolément, sur un nœud se trouvant dans la zone de communication de f . – Dans la deuxième étape, la bande passante consommée par le flux f au niveau d’un nœud se trouvant dans la zone de détection de porteuse est évaluée. – Enfin, dans la troisième et dernière étape, l’auteur évalue la proportion de bande passante perdue à cause de collisions en présence de stations cachées. L’auteur spécifie que la probabilité qu’un paquet entre en collision une deuxième fois avec le même nœud caché est négligeable car cela suppose que les deux nœuds tirent des backoffs proches dans une fenêtre de contention plus grande. Ceci est vrai dans le cas du scénario 30 CHAPITRE 3. ETAT DE L’ART SUR LES TECHNIQUES D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE classique des stations cachées (figure 1.4), mais dans des scénarios de stations cachées plus généraux (que nous verrons dans la suite de cette thèse), cette assertion est erronée car les deux émetteurs cachés n’ont pas nécessairement un récepteur commun. 3.4 Motivations Comme nous l’avons vu précédemment, les techniques intrusives ne sont pas totalement satisfaisantes car elles consomment une quantité non négligeable de bande passante qui peut affecter le débit des flux de données. Dans [47], les auteurs mettent en relief le fait que la bande passante consommée par les paquets de contrôle peut occuper une part significative du trafic total dans le réseau. La majorité des techniques passives fournissent davantage une estimation par nœud que par lien et l’approximation de la zone de détection de porteuse au voisinage à deux sauts peut parfois entraı̂ner des évaluations erronées. Cependant, il est indispensable d’avoir une estimation précise de la bande passante résiduelle sur un lien afin de router les flux QoS dans de bonnes conditions. Pour fournir une estimation précise, certaines considérations doivent être prises en compte. Premièrement, pour qu’une communication puisse s’effectuer, le médium doit être libre aussi bien au niveau de l’émetteur que du récepteur. Par conséquent, la bande passante résiduelle sur un lien dépend de la synchronisation des périodes de temps libres de l’émetteur et du récepteur. La connaissance du recouvrement de ces périodes de temps libre augmente la précision de l’estimation. Cette notion de synchronisation n’est pas prise en compte dans les techniques passives présentées dans la section précédente. Deuxièmement, la présence de collisions dégrade de manière significative le débit des communications. Or, dans les techniques précédentes, soit les collisions ne sont pas prises en compte dans l’évaluation soit les hypothèses utilisées dans le calcul des probabilité de collision sont approximatives. Fig. 3.2 – Inéquité d’accès au médium Considérons l’exemple décrit au niveau de la figure 3.2. Cette configuration présentée dans [8] est une situation qui entraı̂ne une inégalité en termes de débit. En effet, les émetteurs 31 CHAPITRE 3. ETAT DE L’ART SUR LES TECHNIQUES D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE A et C étant totalement désynchronisés, les émissions du nœud C provoquent des collisions au niveau du récepteur B. Ainsi, la bande passante résiduelle sur le lien (A, B) est d’autant plus faible que le nombre de collisions au niveau du récepteur B augmente. Supposons que nous ayons un flux sur le lien (C,D), et que nous voulons estimer la bande passante résiduelle sur le lien (A,B). Les simulations sont réalisées sous le simulateur NS2. La courbe représentée par ”Bande passante résiduelle réelle” du lien (A,B) correspond au débit maximum que l’on peut faire passer sur ce lien (obtenue par simulation). Les estimations faites par BRuIT, CACP ou AAC sont identiques car elles correspondent simplement à la différence entre la capacité du médium radio et la bande passante consommée par le lien (C,D) (nous sommes respectivement dans des environnements à 2 et 11 Mb/s soit des débits maximum réels d’environ 1,6 et 5 Mb/s). Elles sont représentées au niveau des figures 3.3(a) et 3.3(b) par la courbe étiquetée par ”Bande passante résiduelle estimée” en fonction du débit d’émission du lien (C,D). 1600 5000 Bande passante résiduelle du lien A−>B Bande passante résiduelle estimée du lien A−>B Bande passante résiduelle estimée du lien A−>B avec QOLSR Bande passante résiduelle du lien A−>B Bande passante résiduelle estimée du lien A−>B Bande passante résiduelle estimée du lien A−>B avec QOLSR 4500 1400 4000 1200 3500 Débit en (kb/s) Débit en (kb/s) 1000 800 600 3000 2500 2000 1500 400 1000 200 500 0 0 0 200 400 600 800 1000 Débit du lien C−>D (kb/s) 1200 1400 1600 (a) Capacité de 2 Mb/s 0 500 1000 1500 2000 2500 3000 Débit du lien C−>D (kb/s) 3500 4000 4500 5000 (b) Capacité de 11 Mb/s Fig. 3.3 – Bande passante résiduelle du lien (A,B) en fonction du débit sur le lien (C,D) La courbe représentée par ”Bande passante résiduelle estimée avec QOLSR” donne une meilleure évaluation que BRuIT, CACP ou AAC mais néanmoins surestime toujours la bande passante résiduelle réelle. On remarque donc que plus le débit du lien (C,D) augmente, plus la bande passante résiduelle réelle devient plus petite que la bande passante résiduelle estimée avec les différentes méthodes. L’explication de cette différence se trouve au niveau des collisions qui apparaissent au niveau du récepteur en B. Ces collisions dégradent de manière significative le débit du lien (A,B) et doivent être prises en compte pour raffiner l’estimation. BRuIT, CACP ou AAC ne les prennent pas en compte tandis que QOLSR les estime de manière imprécise. Par conséquent il est indispensable de mettre au point un mécanisme de prédiction plus précis du nombre moyen de collisions au niveau du récepteur. On peut noter que nous n’avons pas testé ici QOS-OLSR. Ceci est lié au fait que le code n’est pas disponible en ligne d’une part et que d’autre part la méthode d’estimation ne se base pas sur une 32 CHAPITRE 3. ETAT DE L’ART SUR LES TECHNIQUES D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE écoute du médium et est relativement compliquée à implémenter. Néanmoins, l’hypothèse réalisée pour calculer la probabilité de collision est très simplifiée (plus simplifiée que dans QOLSR) et nous pensons qu’elle ne peut mener qu’à une surestimation de la bande passante résiduelle réelle. En plus des collisions, il est aussi important de considérer des temps d’accès supplémentaires tels que le DIFS, l’EIFS et le backoff, rajoutés par le protocole 802.11, consommant ainsi une proportion de la bande passante résiduelle. En résumé, des solutions ont été proposées afin d’estimer la bande passante résiduelle dans des environnements sans fil ad hoc. Cependant, le point faible demeure encore l’estimation de la bande passante résiduelle qui est fortement dépendante des spécificités des réseaux ad hoc. Proposer un protocole de routage avec QoS revient à prendre en compte l’ensemble des contraintes (collisions, backoff, etc.) limitant cette bande passante disponible, dans le but de rendre l’estimation plus précise. Dans le chapitre suivant, nous présentons pour notre solution, les mécanismes mis en place pour estimer la bande passante résiduelle d’un lien tout en tenant compte des aspects précités afin de rendre cette estimation la plus précise possible. 33 CHAPITRE 4 Une technique d’évaluation de la bande passante résiduelle : ABE Dans ce chapitre nous présentons ABE pour Available Bandwdith Estimation, un protocole de réservation de bande passante basé sur le standard IEEE 802.11. L’apport majeur du protocole ABE réside dans l’estimation de la bande passante résiduelle des liens radio. Cette estimation permanente et distribuée facilite aux applications le choix des routes pouvant satisfaire leurs contraintes en terme de bande passante. ABE adopte une approche proactive pour l’estimation des ressources qui est mise à jour périodiquement et une approche réactive pour la recherche de route. Ainsi à partir des informations collectées le long d’une route, ABE est en mesure de prédire si une route est capable de fournir assez de bande passante pour une application donnée. La validation du fonctionnement de notre protocole a été effectuée par simulation. 4.1 Une estimation précise de la bande passante résiduelle Le but de cette section est de présenter en détail la méthode mise en place pour estimer la bande passante résiduelle d’un lien en tenant compte des préconisations faites dans les paragraphes précédents. A partir de ces préconisations et du fonctionnement du protocole IEEE 802.11, nous avons identifié quatre phénomènes pouvant avoir un impact sur l’estimation de la bande passante résiduelle. – Le mécanisme de détection de porteuse empêche à deux mobiles, se trouvant dans cette zone, d’émettre simultanément. Par conséquent, un mobile partage de la bande passante avec l’ensemble des émetteurs se trouvant dans sa zone de détection de porteuse. – Pour qu’une transmission s’établisse correctement, le canal doit être libre aux alentours des mobiles émetteur et récepteur. La valeur de la bande passante résiduelle dépend donc de la synchronisation des périodes de temps libre entre ces deux entités. – A chaque collision, les paquets de données concernés sont retransmis, réduisant ainsi la bande passante de disponible. – Finalement, en cas de collision, le mécanisme du backoff exponentiel double la taille de la fenêtre de contention. Ce surplus de temps a un impact sur la valeur de la bande passante résiduelle. 34 CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE Un lien radio est composé de deux nœuds à portée de communication. Dans notre proposition nous combinons trois approches : – Une approche d’écoute temporelle afin d’estimer localement la bande passante résiduelle en monitorant l’activité du canal radio. Cette approche ne permet d’estimer que la bande passante résiduelle des nœuds, mais permet de prendre en compte la bande passante consommée dans la zone de détection de porteuse. – Une évaluation probabiliste de la synchronisation des périodes de temps libres des mobiles aux extrémités du lien. L’approche probabiliste semble la plus à même d’approximer la synchronisation réelle d’un lien qui est difficile à prévoir. – Une estimation de la probabilité de collision sur le lien considéré ainsi que le mécanisme du backoff exponentiel. Les deux derniers points nécessitent l’échange d’informations de bande passante entre les mobiles. Cet échange est réalisé, non à l’aide des paquets de contrôle envoyés de bout en bout, mais grâce aux paquets Hello que l’on retrouve habituellement dans la plupart des protocoles de routage. Par conséquent, leur utilisation n’entraı̂nera pas un surplus de trafic au niveau du réseau. Ainsi, nous considérons notre méthode d’estimation de la bande passante résiduelle comme passive et non intrusive. 4.1.1 Estimation de la bande passante résiduelle d’un nœud Lorsqu’un nœud désire émettre des données, il rentre en phase de contention avec les autres émetteurs se trouvant dans son voisinage. Ainsi, un émetteur potentiel doit évaluer la proportion de temps d’inactivité du médium pour déterminer ses chances d’accès au canal. Considérons un nœud s quelconque du réseau durant une période de mesure composée de ∆ unités de temps. Nous utilisons les notations suivantes : – Tidle (s) est la durée totale pendant laquelle le mobile s n’émet pas de données et perçoit le canal comme libre. Cela signifie que les mécanismes de détection de porteuse et de virtual carrier sensing indique que le canal est dans le mode libre. – τs est pourcentage d’inactivité du canal perçue par s. – Bs est la bande passante résiduelle au niveau du nœud s. – Cmax est la capacité du médium. Pendant une période d’observation composée de ∆ unités de temps, le nœud s écoute l’activité du médium et en déduit sa période globale d’inactivité du médium. (figure 4.1). Les nœuds ne considèrent que les périodes d’inactivité du canal supérieures à un DIFS, qui représente la durée d’attente minimale pour qu’une communication puisse démarrer. Par définition, nous avons : τs = Tidle (s) ∆ Il est important de noter que cette écoute permanente du médium permet de prendre en compte la bande passante utilisée par les mobiles dans la zone de détection de porteuse. Estimer la bande passante consommée par un mobile se trouvant dans la zone de détection 35 CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE Fig. 4.1 – Occupation médium perçue par le nœud s de porteuse sera d’autant plus difficile que le signal ne pouvant être décodé proprement, certaines informations sur cette communication (comme par exemple, l’identité de l’émetteur du paquet, la taille du paquet), utiles au calcul de la bande passante résiduelle, ne pourront être exploitées de prime abord. Cependant, il est intéressant de remarquer que tout signal dont la valeur de la puissance est supérieure au seuil de détection de porteuse, bloque l’émission du nœud qui écoute. Par conséquent, le mobile est en mesure d’estimer la durée d’occupation du médium provenant d’un signal en zone de détection de porteuse. Or, c’est la seule information nécessaire afin d’estimer la bande passante résiduelle d’un nœud. On en déduit donc que la bande passante résiduelle du nœud s est bornée : Bs ≤ τs × Cmax A ce stade, on constate encore une surestimation de la bande passante résiduelle car cette première méthode ne prend pas en compte le backoff et les collisions qui peuvent survenir à la réception. Pour être plus précis, il faut donc considérer l’état des liens dans le réseau. 4.1.2 Estimation de la bande passante résiduelle d’un lien : une première approche La seule connaissance de la distribution de l’occupation du médium au niveau des mobiles émetteur et récepteur est insuffisante afin de prédire la bande passante résiduelle du lien considéré. Notre méthode doit prendre en compte la synchronisation de ces périodes d’inactivité du médium au niveau de l’émetteur et du récepteur. Pour cela, on effectue une estimation probabiliste du recouvrement de ces périodes de temps libre à partir de l’occupation médium au niveau de l’émetteur et du récepteur. 4.1.2.1 Prise en compte de la synchronisation des périodes d’inactivité Considérons un lien radio composé de deux nœuds voisins (dans la même zone de communication) s et r. Nous utilisons les notations suivantes : – δ représente une unité de temps. – τm = ∆δ est le nombre d’unités de temps pendant une période de mesure. 36 CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE – τs (resp. τr ) est le ratio entre le nombre d’unités de temps pendant lequel le médium est libre au niveau de s (resp. r) et de ∆, comme décrit dans le paragraphe précédent. – Bs (resp. Br ) est la bande passante résiduelle estimée au niveau du nœud s (resp. r). – B(s,r) est la bande passante résiduelle réelle du lien (s, r), c’est à dire le débit maximum d’émission pour lequel, le débit des communications voisines n’est pas dégradé. Notre estimation doit donc être la plus proche possible de cette valeur. – b(s,r) est la bande passante résiduelle estimée du lien (s, r) lorsque le mécanisme des RTS/CTS est désactivé. Lorsque la bande passante résiduelle du nœud s est nulle (Bs = 0), ce dernier ne peut accéder au canal qu’il voit toujours occupé. De manière analogue, lorsque le médium est saturé au niveau du récepteur (Br = 0), les émissions de s vont systématiquement provoquer des collisions au niveau du récepteur r et la communication ne pourra s’établir. De manière triviale, nous pouvons établir que : B(s,r) ≤ min (Bs , Br ). Introduire dans le réseau un flux dont le débit est supérieur à min (Bs , Br ), va nécessairement saturer le médium aux alentours de s et/ou r. Dans les réseaux sans fil, la perception de l’état du médium (occupé ou inoccupé) est relative à la position notamment à cause de l’atténuation des signaux dans l’air. Pour qu’une communication puisse s’établir correctement, le médium doit être perçu comme libre simultanément aussi bien au niveau de l’émetteur que du récepteur. En conclusion, la bande passante d’un lien dépend de la synchronisation des périodes de temps libre entre l’émetteur et le récepteur. Bande passante inutilisable pour le lien Fenêtres de communication Émetteur occupé libre δ t Δ occupé libre Récepteur Fig. 4.2 – Pire cas : désynchronisation totale entre émetteur et récepteur Au niveau de la figure 4.2, les périodes de temps libre des nœuds émetteur et récepteur son totalement désynchronisées. Lorsque le médium est libre au niveau du récepteur, alors il est perçu comme occupé au niveau de l’émetteur et vice-versa. Comme conséquence, la bande passante résiduelle du lien (s, r) est donc nulle, tandis qu’on obtient l’égalité B(s,r) = min (Bs , Br ) dans le meilleur des cas comme représenté au niveau de la figure 4.3. 37 CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE Bande passante inutilisable pour le lien Fenêtres de communication Émetteur occupé libre δ t Δ occupé libre Récepteur Fig. 4.3 – Meilleur cas : synchronisation totale entre émetteur et récepteur Dans un réseau ad hoc, la gestion des communications n’étant pas centralisée, il est peut probable que les communications soient synchronisées. Dans le cas général, il est nécessaire d’estimer la probabilité de recouvrement des périodes d’inactivité du médium pour pouvoir en déduire la bande passante résiduelle du lien (s, r). Bande passante inutilisable pour le lien Fenêtres de communication Émetteur occupé libre δ t Δ occupé libre Récepteur Fig. 4.4 – Cas général : synchronisation partielle entre émetteur et récepteur Pour qu’une communication puisse s’établir le médium radio doit être libre au moins pendant la durée d’un DIFS, pour que l’émetteur puisse accéder au canal. Le médium doit être libre le temps de transmettre l’intégralité du paquet de donnée (TDAT A ), plus la réception de l’acquittement correspondant. Si l’on considère une distribution uniforme de l’occupation du médium durant la période de mesure ∆, il est possible de calculer la durée E(l(r,s) ) avant que les nœuds s et r ne soient synchronisés et par conséquent, avant que la communication ne puisse s’établir. Connaissant τs , τr et τm , nous notons par p(i, j, k) la probabilité que : – la première synchronisation arrive à l’unité de temps i 38 CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE – le médium autour de l’émetteur est resté libre pendant j unités de temps avant la synchronisation – le médium autour du récepteur est resté libre pendant k unités de temps avant la synchronisation i−j τm −i−1 τm −i−1 i . τs −j−1 . τr −k−1 j . k . Ainsi, p(i, j, k) = τm . τm τs τr A partir de cette expression, nous pouvons déduire la probabilité P(l(s,r) = i) que la première synchronisation arrive à une unité de temps donnée en examinant toutes les valeurs possibles de j et k. min(τs −1,i−1) min(τr −1,i−1−j) X X P(l(s,r) = i) = p(i, j, k) j=max(0,τs −(τm −i)) k=max(0,τr −(τm −i)) D’où la valeur E(l(r,s) ) avant que la première synchronisation ne s’établisse : min(τm ,2.τm −(τs +τr )) E(l(s,r) ) = X i.P (l(s,r) = i) i=0 La communication ne peut s’établir que si le médium est physiquement libre au niveau des émetteur et récepteur. L’exemple d’une telle situation est représenté sur la figure 4.4. Toujours en considérant une distribution uniforme de l’occupation du médium, la bande passante résiduelle estimée du lien (s, r) peut être évaluée par les formules suivantes : P(b(s,r) −τs (τi s ).(ττm ) r −i = i) = (ττm ) r min(τs ,τr ) =⇒ b(s,r) = Cmax × X i.P (b(s,r) = i) i=0 b(s,r) = Cmax × τs × τr (4.1) Il faut noter que cette estimation peut être raffinée dès lors que les nœuds extrémités d’un lien sont en mesure de déterminer leur voisinage commun. En effet, si deux nœuds ont des voisins communs qui émettent alors le médium va être occupé en même temps pour ces deux nœuds et il n’y a plus indépendance des distributions des temps d’occupation de ces deux nœuds. Lorsque cela est possible (i.e. lorsque nous sommes en mesure de déterminer les voisins communs qui ont émis), nous prenons alors en compte la dépendance des distributions dans l’estimation. 39 CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE Pour illustrer l’importance de l’estimation de la synchronisation des périodes de temps libres entre l’émetteur et le récepteur, considérons le scénario de la figure 4.5. Les communications sont représentées par les flèches et les nœuds en zone de détection de porteuse sont reliés par des tirets. Les simulations réalisées sous le simulateur NS-2 à 2 et 11 Mb/s, impliquent des débits applicatifs réels de 1,6 et 5 Mb/s. Nous cherchons donc à évaluer la bande passante résiduelle sur le lien (C, D), à partir de la synchronisation des périodes d’inactivité du médium entre ces nœuds C et D. Cette valeur évolue en fonction du débit du lien (E, F ), le débit du lien (A, B) étant constant et utilisant 50% de la capacité du médium (i.e 800 kb/s à 2 Mb/s et 2500 kb/s à 11 Mb/s). Fig. 4.5 – Estimation de la synchronisation du lien (C, D) Les figures 4.6(a) et 4.6(b) représentent la bande passante résiduelle réelle du lien (C, D), mesurée en ajoutant un flux entre ces deux nœuds et en monitorant le débit effectif. Cette valeur est comparée à la valeur de la bande passante résiduelle estimée par le protocole AAC décrit précédemment et par synchronisation. Le but ici est de voir l’apport de la synchronisation des périodes de silence entre l’émetteur et le récepteur sans se préoccuper des collision éventuelles. C’est pourquoi nous avons retenu AAC comme solution de comparaison, car cette approche est basée sur une écoute active du médium et considère la bande passante résiduelle du lien comme le minimum des bandes passantes résiduelles des nœuds aux extrémités. La technique AAC ne considère aucune synchronisation entre l’émetteur et le récepteur. Par conséquent elle surestime la bande passante résiduelle réelle au niveau de ce lien. Avec notre méthode prenant en compte la synchronisation entre l’émetteur et le récepteur, cette surestimation est plus faible qu’avec AAC, mais reste toujours présente. Nous pouvons donc conclure que la synchronisation des périodes de temps libres entre l’émetteur et le récepteur favorise une estimation plus précise de la bande passante résiduelle, principalement lorsque le médium est libre aux alentours du récepteur (entre 80 et 100% de période d’inactivité aux alentours du récepteur). Néanmoins, elle n’est pas suffisante à cause de la présence des collisions qui dégradent le débit des communications. Nous devons donc mettre en place un mécanisme permettant de prédire la proportion de collision au niveau du récepteur. 40 CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE 3000 1000 Bande passante résiduelle réelle Bande passante résiduelle estimée par synchronisation Bande passante résiduelle estimée par AAC Bande passante résiduelle du lien (C,D) (kb/s) Bande passante résiduelle du lien (C,D) (kb/s) Bande passante résiduelle réelle Bande passante résiduelle estimée par synchronisation Bande passante résiduelle estimée par AAC 800 600 400 200 2500 2000 1500 1000 500 0 0 0 20 40 60 80 Pourcentage d’occupation médium autour du récepteur D (%) 100 (a) Capacité de 2 Mb/s 0 20 40 60 80 Pourcentage d’occupation médium autour du récepteur D (%) 100 (b) Capacité de 11 Mb/s Fig. 4.6 – Bande passante résiduelle du lien (C, D) obtenue par synchronisation 4.1.2.2 Prise en compte des collisions Le phénomène des collisions dégrade plus ou moins fortement le débit des communications dans un réseau ad hoc. En présence de plusieurs flux émis par des sources différentes dans le réseau, les émissions peuvent entrer en collision, empêchant du même coup une réception correcte par les nœuds destinataires. Ainsi la seule connaissance de la distribution des périodes de temps libre au niveau de l’émetteur et du récepteur n’est pas toujours suffisante pour prévoir une collision. En effet, lorsqu’un paquet est émis au niveau de la source, il est possible que le médium au niveau du nœud récepteur soit occupé ce qui va engendrer une collision au niveau de ce dernier. La présence de collision engendre des retransmissions de paquets et augmente la taille de la fenêtre de contention, ce qui tend à réduire la bande passante résiduelle. Dans le scénario présenté au niveau de la figure 3.2, des protocoles tels que BRuIT, CACP et AAC faussent l’évaluation de la bande passante résiduelle sur le lien (A, B) car toutes ces méthodes ne prennent pas en compte les collisions qui surviennent au niveau du nœud B. Par conséquent, pour que l’estimation de la bande passante résiduelle soit précise, nous devons estimer une probabilité de collision au niveau du nœud récepteur. Périodiquement, des paquets Hello sont envoyés en diffusion pour que les mobiles puissent s’échanger les informations de bande passante et de voisinage. Ainsi nous pouvons estimer sur ces messages Hello une probabilité de collision notée par pHello selon la formule : pHello = Nombre de paquets Hello entrés en collision Nombre de paquets Hello que l’on devrait recevoir (4.2) Pour estimer cette probabilité de collision, les messages Hello sont envoyés périodiquement en mode diffusion par tous les nœuds à une fréquence supposée connue. Ainsi, dès qu’un mobile reçoit un message Hello d’un de ses voisins, il peut en déduire le nombre de messages Hello qu’il devrait recevoir de ce voisin durant une période de mesure. 41 CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE Cette valeur correspond au dénominateur ”Nombre de paquets Hello qu’on devrait recevoir”. Le numérateur correspond à cette dernière valeur moins le nombre de paquets Hello effectivement reçus durant cette même période de mesure. Il est important de remarquer que la probabilité de collision sur le lien (i, j), n’est pas forcément la même que celle sur le lien (j, i). Ceci est principalement dû aux interférences qui n’exercent pas ses effets de façon symétrique et des collisions qui peuvent survenir aussi bien à l’émission qu’à la réception de données. Une telle estimation n’est toujours pas assez précise. En effet, le nombre de paquets Hello reçus dans un intervalle de temps donné, peut être influencé aussi bien par une congestion que par des collisions. Cependant, il est intéressant de noter que si l’émetteur n’émet pas un nombre important de paquets Hello, cela implique que le médium est chargé dans son voisinage. Par conséquent tous les liens associés à ce nœud n’auront pas une bande passante résiduelle élevée et l’erreur sur la valeur de pHello n’aura pas un impact important sur l’estimation. De plus, cette erreur va générer une sous-estimation de la bande passante résiduelle, ce qui est préférable (il est préférable de diminuer le nombre de flux QoS que de dégrader le débit des flux voisins) à une surestimation qui entraı̂nerait une dégradation des flux QoS. Les paquets Hello ont une taille petite et constante. En conséquence la probabilité de collision que l’on observe sur des paquets de données de plus grandes tailles ne sera pas identique à la probabilité de collision sur ces paquets Hello. Pour résoudre ce problème nous utilisons une interpolation à l’aide des polynômes de Lagrange dont le but est de trouver un unique polynôme P (m) dépendant de la taille m du paquet telle que : p(m) = P (m) × pHello (4.3) p(m) étant la probabilité de collision sur un paquet de taille m octets. Taille des paquets = 1000 octets Taille des paquets = 500 octets Taille des paquets = 250 octets Taille d’un paquet Hello 120 100 Probabilité de collision 100 Probabilité de collision Probabilité de collision obtenue par simulation pour m=1000 octets Probabilité de collision obtenue par simulation pour m=500 octets Probabilité de collision obtenue par estimation pour m=1000 octets Probabilité de collision obtenue par estimation pour m=500 octets 120 80 60 80 60 40 40 20 20 0 0 0 500 1000 Débit du lien C−>D (kb/s) 1500 2000 0 500 1000 Débit du lien C−>D (kb/s) 1500 2000 (a) Probabilité de collision en B, obtenue par simu- (b) Probabilité de collision en B, obtenue par estimalation et pour différentes tailles de paquets tion et pour différentes tailles de paquets Fig. 4.7 – Probabilité de collision au niveau du nœud B Considérons le scénario de la figure 3.2. Nous estimons la probabilité de collision au niveau du nœud B en fonction du débit sur le lien (C, D). La figure 4.7(a) représente cette 42 CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE probabilité de collision obtenue par simulation avec NS-2 pour différentes tailles de paquets, en présence de paquets Hello. A partir de ces mesures, nous pouvons déduire analytiquement le polynôme d’interpolation correspondant à cette situation : P (m) = −5, 65 · 10−9 m3 + 11, 27 · 10−6 m2 − 5, 58 · 10−3 m + 2, 19. La figure 4.7(b) représente la probabilité de collision estimée au niveau du nœud B, p(m), en utilisant le polynôme d’interpolation P (m), pour différentes tailles de paquets. Cette figure montre que la probabilité de collision estimée est une bonne approximation de la probabilité de collision obtenue par simulation pour des tailles de paquets de 1000 et 500 octets. Afin d’obtenir une idée sur le degré de précision de l’interpolation, nous estimons l’erreur relative commise par le biais de l’interpolation. Elle estime l’écart séparant la courbe de la probabilité de collision obtenue par simulation de celle interpolée. L’erreur relative notée , est un vecteur ligne où chaque composante i représente l’erreur relative au point d’abscisse xi : i) = (1 , 2 , . . . , n ) avec i = | f (xfi )−g(x | ∀i ∈ [1; n] (xi ) f (xi ) et g(xi ) étant respectivement les valeurs des probabilités de collision obtenues au point d’abscisse xi par simulation et par interpolation. Nous pouvons aussi calculer l’erreur relative moyenne notée à l’aide de la formule ci-dessous : n 1 X f (xi ) − g(xi ) = n i=1 f (xi ) Le tableau 4.1 représente l’erreur d’interpolation faite dans notre cas. Ainsi le vecteur d’erreur obtenu en pourcentage est = (9, 3; 1, 5; 4, 7; 1) ce qui représente une erreur moyenne de = 4% environ. Ceci demeure relativement faible et traduit de la précision de l’interpolation à l’aide des polynômes de Lagrange. (xi ) (g(xi )) (f (xi )) i (%) 0 0 0 - 250 29 32 9,3 500 62 63 1,5 750 89 85 4,7 1000 100 99 1 Tab. 4.1 – Erreur relative due à l’ interpolation Afin de s’intéresser à la précision de cette probabilité de collision interpolée dans d’autres configurations, nous générons une topologie aléatoire de dix nœuds et cinq flux CBR (sources, destinations et débits aléatoires). Les paquets de données ont une taille de 1000 octets. Un lien spécifique entre les nœuds 0 et 1 est placé au centre de la topologie. Sur ce lien, nous estimons trois paramètres : – La probabilité de collision sans le mécanisme d’interpolation : pHello . 43 CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE 0.5 Probabilité de collision sans interpolation Probabilité de collision avec interpolation Probabilité de collision réelle 0.45 0.4 Probabilité de collision 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 0 5 10 15 20 25 30 Date de la simulation (s) 35 40 45 50 Fig. 4.8 – Précision de la probabilité de collision interpolée sur un scénario aléatoire – La probabilité de collision lorsque le mécanisme d’interpolation est activé et pour des paquets de taille m =1000 octets : pm . – La probabilité de collision réelle, obtenue de manière offline en analysant les traces de la simulation. La figure 4.8 représente l’évolution temporelle des trois probabilités de collision décrites précédemment. Comme nous pouvons le constater, lorsque le mécanisme d’interpolation n’est pas activé, il y a une sous estimation de la probabilité de collision réelle. Lorsque ce mécanisme est activé, la probabilité de collision obtenue par interpolation devient alors très proche de la probabilité de collision réelle. Il est important de noter que la probabilité de collision ne dépend que de la taille des paquets envoyés par la source et de la distribution de l’occupation du médium au niveau du récepteur. Nous avons donc présenté une méthode permettant d’évaluer la probabilité de collision qui combine deux approches : – Une approche on-line permettant d’évaluer l’impact de la distribution de l’occupation du médium au niveau du récepteur par le biais de la probabilité de collision sur les paquets Hello. – Une approche off-line qui prend en compte la taille des paquets envoyés par la source par le biais d’une interpolation. Dans la norme IEEE 802.11, à chaque collision la taille de la fenêtre de contention augmente jusqu’à une valeur limite. Nous devons donc modéliser le backoff exponentiel pour raffiner davantage l’estimation de la bande passante résiduelle. 44 CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE 4.1.2.3 Prise en compte du backoff Lorsqu’un mobile subit une collision, il double la taille de sa fenêtre de contention. Jusqu’à présent, nous n’avons considéré que la proportion de bande passante consommée par les collisions sans tenir compte du mécanisme du backoff de la norme IEEE 802.11. Dans le paragraphe précédent nous avons pu estimer la probabilité de collision au niveau d’un nœud récepteur. Parallèlement, nous devons également estimer la proportion de bande passante perdue lors de la phase du backoff exponentiel. Le temps passé dans la procédure du backoff exponentiel dépend de la version du protocole et du taux de collisions sur le lien. Ce temps ne dépend pas de la taille du paquet. Par conséquent, ignorer l’influence du backoff pour des paquets de petites tailles, peut introduire une imprécision dans l’estimation de la bande passante résiduelle. Dans un premier temps, lorsqu’il n’y a pas de collision, le backoff suit une loi uniforme −1 . dans l’intervalle [0 ;CWmin − 1] et peut donc être approximé par sa valeur moyenne CWmin 2 Nous utiliserons les notations suivantes : – K représente la proportion de bande passante perdue à cause du backoff. −1 – backof f est la valeur moyenne du backoff sans collision qui équivaut à CWmin . 2 – DIF S (SIF S resp.) est la durée d’un DIFS (SIFS resp.) défini par la norme IEEE 802.11. – T (m) est le délai séparant l’émission de deux paquets consécutifs. Cette valeur dépend du débit d’émission et de la taille m du paquet. La proportion de bande passante perdue à cause du backoff et notée K est donnée par la formule : DIF S + backof f (4.4) K= T (m) On constate que la valeur de K diminue lorsque la taille des paquets augmente. Dans certains cas (avec des paquets de très petites tailles), le fait de ne pas prendre en compte la valeur de K peut entraı̂ner une estimation imprécise de la bande passante résiduelle. En cas de collision, le mécanisme du backoff exponentiel est activé. Après chaque paquet ayant subi une collision, la taille de la fenêtre de backoff est doublée jusqu’à une valeur maximale CWmax définie par la norme. Par conséquent la valeur du backoff augmente audelà de la valeur moyenne obtenue lorsqu’il n’y a pas de collision. Considérons un lien radio pour lequel la probabilité de collision vaut p. La variable n représente le nombre de retransmissions associé à cette probabilité de collision p. Avec une probabilité équivalente à (1 − p), la première transmission est réussie et le backoff −1 moyen est équivalent à CWmin . 2 Avec une probabilité p.(1 − p), le premier paquet subit une collision et le deuxième paquet −1 est transmis correctement en utilisant un backoff moyen équivalent à 2 × CWmin . 2 Après C retransmissions sans succès, C dépendant de la taille du paquet, la norme IEEE 802.11 spécifie que le paquet correspond doit être détruit. Nous pouvons donc représenter cette progression par une chaı̂ne de Markov à temps discret dont les états représentent le nombre de retransmissions et les transitions sont les probabilités de subir une nouvelle collision où une émission avec succès (retour à l’état ini45 CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE Fig. 4.9 – Retransmissions d’un paquet ayant subit des collisions tial) comme indiqué sur la figure 4.9. Soit X la variable aléatoire représentant le nombre primée à l’aide des probabilités suivantes : k p · (1 − p) pk P (X = k) = 0 de retransmissions. Elle peut être exsi k ≤ C si k = C + 1 si k ≥ C + 1 Les deux dernières probabilités indiquent le fait que, comme spécifié par la norme IEEE 802.11, le nombre maximum de retransmissions est fixé à C. Au-delà de cette valeur limite, le paquet est détruit et le backoff est ramené dans l’intervalle initial [0 ;CWmin − 1]. Ainsi, pour un lien dont la probabilité de collision est p, le nombre moyen de retransmissions n associé à cette probabilité de collision est égal à l’espérance de la variable aléatoire X. D’où : n= +∞ X k · P (X = k) = C+1 X k=1 k=1 C X n= k · P (X = k) k.pk (1 − p) + (C + 1)p(C+1) k=1 Le nombre de slots de backoff décrémentés depuis le début de la transmission est donc : backof f = +∞ X P (X = k) · k=1 min(CWmax ; 2k−1 · CWmin ) − 1 2 Pour simplifier cette expression, supposons que CWmax = 2c · CWmin avec c ≤ C : backof f = c X k=1 k−1 P (X = k) · 2 · (CWmin − 1) 2 46 ! + C X k=c+1 P (X = k) · (CWmax − 1) 2 ! CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE c X k=1 k−1 pk−1 · (1 − p) · 2 backof ! f= C ! X · (CWmin − 1) (CW − 1) max + pk−1 · (1 − p) · 2 2 k=c+1 1−p · =⇒ backof f = 2 1 − (2p)c pc − pC · CWmin + 1 − 2p 1−p Dans cette évaluation, nous considérons la probabilité de collision indépendante du débit d’émission du nœud émetteur. Cette approximation est juste dans la plupart des cas. En effet, la probabilité de collision reflète le fait qu’un paquet, une fois émis, subit une collision parce que le médium dans le voisinage du récepteur est occupé par d’autres transmissions. Ainsi l’instant d’émission du paquet par l’émetteur influe très peu sur cette probabilité de collision. Cependant, pour des topologies où plusieurs émetteurs génèrent des transmissions vers un récepteur commun, les collisions au niveau du récepteur vont entraı̂ner une augmentation de la fenêtre de contention de tous les nœuds ayant subi une collision et modifier la charge autour du récepteur et par conséquent la probabilité de collision. En fin de compte, dans notre approche, à chaque envoi périodique de paquet Hello, la probabilité de collision est recalculée ce qui tend à améliorer la précision de l’estimation de la bande passante résiduelle. Finalement, la proportion de bande passante perdue à cause du mécanisme du backoff en cas de collision est donnée par la formule : K= 4.1.2.4 DIF S + backof f T (m) (4.5) Formule d’évaluation de la bande passante résiduelle Les différents points abordés précédemment peuvent être combinés pour estimer la bande passante résiduelle d’un lien radio, i.e. entre un émetteur et un récepteur à portée radio. Le mécanisme d’estimation repose essentiellement sur la perception qu’ont les nœuds émetteur et récepteur de leur environnement. En conclusion, pour estimer la bande passante résiduelle d’un lien composé de deux nœuds s et r à portée de communication, trois paramètres sont nécessaires : – b(s,r) qui représente une estimation de la synchronisation des périodes de temps libre entre les nœuds source s et destinataire r à portée de communication et calculée à l’aide de l’équation 4.1. – La valeur K qui représente la proportion de bande passante perdue sous forme de backoff. – La valeur pm qui représente la probabilité de collision sur des paquets de taille m octets. Pour estimer de manière fine la bande passante résiduelle sur le lien (s, r), il faut donc retrancher les proportions de bande passante perdues par le backoff et les collisions. 47 CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE D’où la formule : Ef inal b(s,r) = (1 − K) · (1 − pm ) · b(s,r) 4.1.2.5 (4.6) Comparaison avec QOLSR Nous reprenons le scénario de la figure 4.5 et simulons QOLSR. Dans cette simulation, l’occupation du médium autour du nœud émetteur C est de 50% tandis qu’elle varie de 0 à 100% autour du récepteur D. Le protocole QOLSR [45] propose une estimation de la bande passante résiduelle qui se base sur une évaluation de l’occupation du médium et une prise en compte des collisions par le biais des paquets Hello. Cependant, les auteurs ne précisent pas si cette occupation du médium correspond à l’occupation du médium du lien ou de l’une des extrémités. Nous allons donc considérer deux cas : – L’occupation du médium correspond à celle autour du nœud récepteur, étiquetée par la courbe ”Bande résiduelle estimée par QOLSR sans synchronisation”. Par conséquent, il n’y a aucune synchronisation prise en compte. – L’occupation du médium considérée est celle du lien (C, D), impliquant une prise en compte de la synchronisation des périodes de temps libre entre C et D, comme nous venons de le présenter1 . La courbe correspondante est étiquetée par ”Bande passante résiduelle estimée par QOLSR avec synchronisation”. Bande passante résiduelle réelle Bande passante résiduelle estimée par QOLSR avec synchronisation Bande passante résiduelle estimée par QOLSR sans synchronisation Bande passante résiduelle estimée par l’équation (4.6) Bande passante résiduelle réelle Bande passante résiduelle estimée par QOLSR avec synchronisation Bande passante résiduelle estimée par QOLSR sans synchronisation Bande passante résiduelle estimée par l’équation (4.6) 5000 1400 Bande passante résiduelle du lien (C,D) (kb/s) Bande passante résiduelle du lien (C,D) (kb/s) 1600 1200 1000 800 600 400 4000 3000 2000 1000 200 0 0 0 20 40 60 80 Pourcentage d’occupation médium autour du récepteur D (%) 100 0 (a) Capacité 2 Mb/s 20 40 60 80 Pourcentage d’occupation médium autour du récepteur D (%) 100 (b) Capacité 11 Mb/s Fig. 4.10 – Influence de la synchronisation pour QOLSR Les figures 4.10(a) et 4.10(b) représentent la bande passante résiduelle réelle obtenue par simulation et celle estimée par QOLSR avec ou sans synchronisation à des débits respectifs de 2 et 11 Mb/s. Lorsqu’aucune synchronisation n’est prise en compte, la bande passante résiduelle estimée par QOLSR est largement supérieure à la bande passante résiduelle réelle. Par exemple pour 1 Cette estimation n’est pas proposée dans QOLSR 48 CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE une occupation médium de 20% autour de D, la bande passante résiduelle réelle est de 600 kb/s tandis qu’avec QOLSR sans synchronisation cette valeur passe à 1225 kb/s pour une capacité de 2 Mb/s. Lorsqu’une synchronisation est prise en compte, la bande passante résiduelle estimée par QOLSR surestime toujours la bande passante résiduelle réelle du lien (C, D). Toutefois, cette surestimation est moins importante que dans le cas précédent car la charge autour du nœud émetteur est prise en compte dans l’évaluation. De plus, l’estimation de la probabilité de collision proposée par le protocole QOLSR ne prend pas en compte la taille des paquets. En effet, les paquets Hello étant plus petits que les paquets de données utilisés au niveau de cette simulation, les probabilités de collision en D sont plus faibles et par conséquent la bande passante résiduelle réelle est une fois de plus surestimée. Cette simulation montre qu’il est indispensable de considérer à la fois une synchronisation des mobiles émetteur et récepteur et une prise en compte de la taille des paquets dans l’estimation de la probabilité de collision comme c’est le cas dans la méthode d’estimation que nous proposons. 4.1.3 Estimation de la bande passante résiduelle d’un lien : compléments Reprenons l’exemple de la figure 3.2 que nous représentons une nouvelle fois dans la figure 4.11. La méthode proposée dans la section 4.1.2.3 permet de calculer la probabilité de collision au niveau du récepteur B en fonction du débit du Flux 2. Nous sommes donc en mesure d’évaluer la bande passante résiduelle du lien (A, B). Fig. 4.11 – Stations cachées Considérons maintenant le problème dans le sens inverse. La nouvelle question devient : quelle est la bande passante résiduelle du lien (C, D), s’il existe un flux sur le lien (A, B) ? 49 CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE Autrement dit, quelle est la proportion de collision que va créer une émission de C vers D au niveau du récepteur B. Cette estimation est cruciale car si un flux est émis sur le lien (A, B), nous devons connaı̂tre le débit maximum de transmission sur le lien (C, D) afin de ne pas dégrader le flux entre A et B. Ceci revient à évaluer les collisions qui vont être générées sur le flux existant s’il y a acheminement de ce nouveau flux. Il est donc nécessaire d’estimer proprement la bande passante résiduelle du lien (C, D) pour évaluer son impact sur le Flux 1. Pour cela, nous mettons en place une simulation au niveau de laquelle le débit du Flux 1 noté par d1 est égal à la capacité du médium radio Dmax . Nous augmentons progressivement le débit du Flux 2 de 0 à Dmax . Cette augmentation va donc provoquer des collisions au niveau du récepteur B et dégrader le débit du Flux 1. En analysant les traces de la simulation, nous pouvons récupérer le débit effectif du Flux 1 noté par d1ef pour chaque valeur du débit du Flux 2. Ainsi, la dégradation du débit du Flux 1 de la valeur Dmax à la valeur d1ef est provoquée par les collisions en B dues aux émissions de C vers D. Notons p cette probabilité de collision qui dépend du débit du Flux 2, impact qui ne peut pas être déterminé par la méthode donnée dans la section 4.1.2. Nous avons donc la relation : d1ef (4.7) Dmax En pratique, la seule inconnue pour le nœud C est donc la variable d1ef . Cependant, tous les paquets émis de A vers B et qui n’ont pas subi de collision sont acquittés. A partir des paquets d’acquittements que C reçoit, C est en mesure : – de déterminer s’il se trouve dans la situation de la figure 4.11 en recevant des acquittements dont le destinataire ne fait pas partie de son voisinage ; – d’estimer le débit d1ef à partir de la fréquence d’émission des acquittements associés à ce flux. En effet, la fréquence d’émission des acquittements correspond à celle des paquets de données. En mesurant le nombre de paquets d’acquittement reçus sur un intervalle de temps et en supposant une taille de paquet pour les données, d1ef peut alors être estimé. Ce n’est qu’une estimation car la taille des données envoyées par A n’est pas connue de C 2 . Une solution aurait été de modifier les paquets d’acquittement de 802.11 afin d’inclure cette information. Cependant, nous n’avons pas retenu cette approche qui nécessite de modifier 802.11 ; – d’en déduire la probabilité p pour calculer le débit avec lequel il pourra envoyer ses données à D sans dégrader le Flux 1 existant. Cette déduction se fait grâce aux courbes de la figure 4.7(a). d1ef = Dmax × (1 − p) =⇒ p = 1 − Cette approche nécessite de pouvoir décoder correctement les paquets d’acquittements. Si C et B ne sont pas en zone de communication mais que l’émission de C provoque néanmoins 2 La taille des données retenue est de 1000 octets comme nous le verrons dans la partie évaluation 50 CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE des collisions en B, C ne sera pas en mesure de prendre en compte le Flux 1 dans son évaluation. Nous expliquons par la suite comment intégrer les estimations des sections 4.1.2 et 4.1.3 dans une version protocolaire. 4.2 Version protocolaire d’ABE Pour mettre en place une version protocolaire de notre estimation de bande passante résiduelle, tous les nœuds s’échangent périodiquement par le biais de paquet Hello, leur information de bande passante. Ainsi, toutes les ∆ secondes, un nœud estime localement son occupation du médium et inclut cette information dans un paquet Hello légèrement modifié. La précision de l’estimation de la bande passante résiduelle est conditionnée par le choix de la période de mesure ∆. Plus la valeur de ∆ est grande, plus stables seront les mesures. Cependant, ∆ ne doit pas être trop grand afin de pouvoir s’adapter à la mobilité des nœuds. Nous avons choisi ∆ = 1 s, i.e. une fréquence deux fois plus élevée que dans OLSR. Ainsi, un nœud r qui reçoit un message Hello d’un nœud voisin s, peut estimer la bande passante résiduelle du lien (s, r) en utilisant l’équation 4.6 comme indiqué au niveau de la figure 4.12. Il est important de remarquer que c’est toujours le nœud récepteur r qui estime la bande passante résiduelle du lien (s, r), afin de faciliter le contrôle d’admission et le processus de routage. Fig. 4.12 – Fonctionnement du protocole ABE 51 CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE La figure 4.12 résume le fonctionnement protocolaire d’ABE. On constate donc qu’une communication inter-couches plus communément appelé cross layer facilite la conception protocolaire d’ABE. En effet, les informations nécessaires à l’estimation de la bande passante résiduelle vont transiter entre les différentes couches du modèle OSI et faciliter ainsi le contrôle d’admission. De façon plus générale, les auteurs de [48] ont montré que dans les réseaux IEEE 802.11, il est indispensable qu’une communication entre les différentes couches du modèle OSI s’établisse afin de faciliter la gestion de la bande passante. 4.3 Contrôle d’admission dans ABE Tout mécanisme visant à garantir un certain niveau de qualité de service pour un trafic donné repose sur un contrôle d’admission qui se doit d’être le plus fiable possible. Dans la section 4.1.2, nous nous sommes attachés à décrire une méthode permettant d’estimer de manière précise la bande passante résiduelle d’un lien. Une estimation erronée de la bande passante résiduelle conduirait inéluctablement vers un contrôle d’admission faussé. ABE combine une approche aussi bien réactive que proactive : – L’approche réactive concerne le mécanisme de routage QoS où une route est calculée lorsque l’application désire envoyer ses données. Le routage QoS que nous avons implémenté constitue essentiellement une extension du protocole AODV. Nous avons privilégié l’approche réactive pour le routage car elle nous semble plus simple d’utilisation qu’une approche proactive. De plus, le but recherché est de trouver des routes qui satisfont les contraintes demandées par les applications et non les routes optimales en terme de bande passante disponible comme le ferait un protocole de routage proactif. – L’approche proactive concerne l’estimation distribuée de la bande passante résiduelle de tous les liens du réseau, recalculée périodiquement à chaque réception d’un nouveau paquet HELLO. Nous cherchons à offrir des chemins pouvant garantir une certaine bande passante aux applications. Ainsi plusieurs applications ayant la même source et la même destination pourront emprunter des chemins différents en fonction de la disponibilité des ressources du réseau. 4.3.1 Découverte de route Nous utilisons les paquets de requête de route (RREQ) auxquels nous rajoutons l’information de bande passante désirée par l’application. Pour pouvoir fournir de la QoS au protocole AODV, des extensions sur les paquets de découverte de route RREQ ont été proposées dans [49]. Lorsque la source veut établir une route pour un flux QoS, elle diffuse un paquet de RREQ à ses voisins. Cet envoi est soumis à un premier contrôle d’admission qui indique si le débit désiré par l’application ne va pas dégrader les flux existants et se trouvant en configuration de stations cachées avec l’émetteur. Cette vérification se fait grâce à l’estimation donnée dans la section 4.1.2. Pour éviter les cycles lors de la phase de routage, un numéro de séquence unique 52 CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE associé à l’adresse de l’émetteur, est affecté à chaque paquet émis. Lorsqu’une demande dupliquée est détectée, le paquet de RREQ correspondant est supprimé. (a) Recherche de route (b) Réponse de route Fig. 4.13 – Etablissement d’une route QoS Chaque nœud intermédiaire qui reçoit la requête effectue deux contrôles d’admission. Le premier vérifie si la bande passante demandée par l’application est inférieure à la bande passante résiduelle du lien par lequel le paquet de RREQ a été reçu. Cette vérification permet de s’assurer que le flux à émettre ne sera pas dégradé par les flux existants et que l’émission de ce flux ne dégradera pas les flux existants se trouvant dans les voisinages des mobiles aux extrémités du lien (estimation donnée de la section ??. Une telle vérification ne permet pas 53 CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE de dire si l’émission du flux par ce nœud intermédaire dégradera les flux existants se trouvant en configuration de stations cachées avec ce nœud. C’est pour cela qu’un deuxième contrôle d’admission fonction de l’estimation donnée dans la section 4.1.3 est effectué. Si ces deux contrôles sont réussis, le mobile ajoute son adresse sur la route et renvoie le paquet de RREQ ; sinon il le détruit. Lorsque le destinataire le reçoit, il vérifie aussi si son contrôle d’admission a réussi. Finalement, le destinataire renvoie à la source un paquet de réponse (RREP) en mode unicast par le chemin inverse pour s’assurer que la route réservée est toujours utilisable. Lorsque ce paquet revient au nœud source, alors les ressources sont réservées et le nouveau flux QoS est envoyé sur cette route comme indiqué sur les figures 4.13(a) et 4.13(b). 4.3.2 Maintenance de route ABE détecte une route cassée en monitorant les paquets Hello. Lorsqu’un mobile ne reçoit aucun message Hello pendant une certaine durée prédéterminée, il renvoie un message de route erreur (RERR) à la source qui va se charger de trouver une route de secours. Le même processus est répété lorsqu’un mobile intermédiaire se rend compte que les conditions du réseau ne lui permettent plus d’acheminer son flux QoS au débit désiré. Une autre solution pourrait être de conserver localement pour tous les mobiles des routes de secours, afin de ne pas informer la source à chaque fois qu’il se produit une cassure de route. 4.3.3 Contention intra flux Lorsque l’émetteur et le récepteur sont à plus d’un saut radio, nécessitant un routage multi-saut, la propagation des paquets le long de cette même route génère des interférences au-delà de la zone de communication. Une transmission sans fil consomme de la bande passante sur un ensemble de liens en aval, bloquant par la même occasion l’accès au médium à l’ensemble des nœuds se trouvant dans cette zone : c’est le phénomène de la contention intra flux. Par conséquent, une simple comparaison entre le débit demandé par l’application et la bande passante résiduelle sur le lien n’est pas suffisante. En effet, elle ne prend pas en compte le fait que le flux QoS sera routé par des mobiles voisins, bloquant toutes les transmissions dans un rayon supérieur à la zone de communication du mobile. Afin d’accepter un nouveau flux dans le réseau sans dégrader le débit des flux existants, le contrôle d’admission doit être en mesure d’évaluer avec précision l’impact de l’introduction de ce nouveau flux sur tous les nœuds dans le voisinage. Dans [42], les auteurs calculent un paramètre d’un même flux appelé le contention count (CC) à travers un chemin et qui caractérise le nombre de nœuds se trouvant dans la zone de détection de porteuse du mobile considéré. La valeur du CC de chaque nœud est estimé en analysant la distribution de la puissance du signal. Cependant, l’inconvénient de cette méthode est que pour pouvoir estimer le CC de chaque nœud, il faut être en mesure de localiser tous les mobiles dans la zone de détection de porteuse ce qui n’est pas toujours possible. 54 CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE Les expérimentations menées dans [50] montrent qu’avec 802.11b (pour un débit de 2 Mb/s), la zone de détection de porteuse est approximativement égale au double de la zone de communication. Sous cette hypothèse, les auteurs de [51] démontrent aisément que la propagation d’un flux QoS le long d’un chemin, ne perturbe que les liens situés dans un rayon maximum de quatre sauts. En d’autres termes, réserver X kb/s de bande passante le long d’une chemin à n sauts, revient à réserver (k × X) kb/s avec k étant le minimum entre n et 4. 4.4 Limitations du protocole ABE Le protocole tel que décrit ci-dessus possède quelques limitations qui sont essentiellement liées à la précision de l’estimation de la bande passante résiduelle. Il existe de nombreuses situations imprévisibles, liées à des topologies particulières pouvant conduire à une estimation erronée de la bande passante résiduelle. La mise en place d’un mécanisme extrêmement précis, véhiculant toutes les informations nécessaires pour apporter une précision très fine à l’estimation, nécessiterait un volume d’informations trop coûteux au détriment des données et n’est peut-être pas toujours réalisable. Plusieurs sources d’erreurs peuvent être identifiées parmi lesquelles nous pouvons citer : – Les mobiles qui écoutent le support radio ne peuvent décoder les transmissions des mobiles qui se trouvent dans la zone de détection de porteuse. Dans ABE, l’identité du nœud émetteur permet un calcul de la bande passante résiduelle plus précis. L’impossibilité d’exploiter cette information pour les émissions se trouvant dans la zone de détection de porteuse peut entraı̂ner une estimation imprécise de la bande passante résiduelle sur un lien dans le cas où l’émetteur et le récepteur peuvent détecter en même temps ces émissions. Toutefois, l’écoute du support est préférable à la transmission des paquets Hello à deux sauts afin de découvrir les mobiles se trouvant dans la zone de détection de porteuse, car elle permet dans le pire des cas de quantifier l’occupation médium de ces mobiles interférents. – Les mobiles récepteurs estiment la probabilité de collision avec un émetteur se trouvant dans son voisinage, en comptabilisant le nombre de paquets Hello non reçus. Il est clair que pour que cette probabilité converge vers une valeur significative, il faut que les mesures s’effectuent sur un nombre de paquets Hello significatifs. Il faut donc décaler l’estimation de la bande passante résiduelle, le temps de permettre aux mobiles de découvrir localement la topologie du réseau. – Les collisions sur les paquets de RREQ empêchent la découverte de routes pouvant acheminer les données avec la qualité de service désirée. Cependant, cet inconvénient est propre à tous les protocoles de routage avec QoS. – L’estimation de la section 4.1.3 repose sur une estimation de la taille des paquets de données qui ne correspond pas nécessairement à la taille rélle de ces paquets. Un contrôle d’admission erroné peut se traduire par l’acceptation d’un flux qu’on ne pourra router ou bien le routage de ce flux va dégrader considérablement tous les flux QoS en conten- 55 CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE RÉSIDUELLE : ABE tion, pouvant même générer une congestion dans le réseau. La mobilité est un autre facteur important à prendre en compte, engendrant des pertes de paquets et des retransmissions. 56 CHAPITRE 5 Evaluation des mances d’ABE perfor- Nous présentons dans ce chapitre les performances de notre protocole de réservation de bande passante ABE, dans un contexte ad hoc multi-saut. L’implémentation a été réalisée sous le simulateur NS-21 sans modification de la couche MAC IEEE 802.11 fournie avec le simulateur. Ce simulateur offre des outils et des structures hiérarchiques afin de simuler et analyser des configurations réseau en toute simplicité et efficacité. Les simulations que nous avons réalisées sont constituées dans un premier temps par des topologies simples dont le but est de s’assurer que le mécanisme de réservation des ressources est fiable. Nous avons par la suite évalué des scénarios plus complexes pour lesquels nous générons de manière totalement aléatoire la position des nœuds, les connexions, le débit des flux et la mobilité. Nous comparons également les performances d’ABE avec d’autres approches passives décrites dans la section 3. Le but de ce travail n’est donc pas de mettre au point un nouveau protocole de routage, mais plus d’utiliser les techniques de routage proposées par les autres protocoles tout en comparant la précision des techniques mises au point pour évaluer la bande passante résiduelle. Nous avons donc comparé nos résultats avec trois protocoles réactifs disponibles sur Internet2 : BRuIT, AAC et QoS-AODV. Une comparaison avec QOLSR, protocole proactif, aurait été intéressante mais n’a pas été réalisée dans cette thèse. Il faut noter qu’une telle comparaison implique une évaluation plus complexe que le seul mécanisme d’estimation des ressources disponibles puisque le routage proactif introduit un autre niveau de complexité. 5.1 Environnement de travail : le simulateur NS-2 NS ou Network Simulator (http ://www.isi.edu/nsnam/ns) est un simulateur à évènements discrets développé dans un but de recherche. Il utilise le langage OTCL (Object Tools Command Language) dérivé de TCL. Par l’intermédiaire de ce dernier, l’utilisateur décrit les conditions de la simulation et fixe la valeur de certains paramètres : la position des nœuds, les caractéristiques des liens physiques, les protocoles utilisés, les communications qui ont lieu, etc. La simulation doit d’abord être saisie sous forme de fichier texte que NS va utiliser pour 1 Network Simulator 2 BRuIT :http://citi.insa-lyon.fr/∼iguerinl/QoS.html – QoS-AODV et AAC :http://www.ctr. kcl.ac.uk/members/ronan/default.asp 2 57 CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE produire un fichier trace contenant les évènements qui se sont déroulés durant la simulation. Le langage C++ est utilisé pour pouvoir définir les objets à utiliser. Les paramètres d’une simulation réseau sous NS sont les suivants : la topologie avec la création des nœuds et des liens, les couches protocolaires à implémenter et la structure des messages (Flux CBR, Datagramme IP, Segments TCP). Par le biais de ce simulateur, nous avons évalué les performances d’ABE. 5.2 Résultats de simulation Le but de l’évaluation est de vérifier que lorsque nous utilisons ABE, les flux QoS sont routés de la source vers la destination sans subir de dégradation au niveau de leur débit. Les flux dont on ne peut garantir la bande passante sont tout simplement rejetés par la phase de contrôle d’admission. Les paramètres pour les différentes simulations sont résumés au niveau du tableau 5.1. Le paramètre taille de la grille est définie pour les topologies aléatoires. Paramètres Protocole de routage Protocole MAC Intervalle Hello Taille des paquets Modèle de propagation Capacité du médium Zone de communication Zone de détection de porteuse Taille de la grille Durée des simulations Valeurs ABE IEEE 802.11b 1s 1000 octets TwoRayGround 2 ou 11 Mb/s 250 m 550 m 1000 m×1000 m Entre 50 et 100 secondes Tab. 5.1 – Paramètres généraux pour les simulations 5.2.1 Un premier scénario simple Afin de valider le mécanisme de réservation, la première topologie présentée est constituée de deux chaı̂nes de six nœuds comme indiqué au niveau de la figure 5.1. Pour cette simulation, le mobile A souhaite envoyer à destination de B un flux audio à un débit constant de 160 Kb/s. Vingt secondes plus tard, le mobile C cherche à envoyer un autre flux audio de débit équivalent à destination de D. Plusieurs simulations de ce scénario ont été réalisées et les mêmes résultats ont été obtenues. Au niveau de la figure 5.2(a) lorsqu’aucun mécanisme de réservation des flux n’est mis en place, la présence du second flux va engendrer un partage des ressources du réseau, ce qui 58 CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE Fig. 5.1 – Un premier scénario simple va se traduire par une instabilité des débits au niveau des deux flux. De plus, des paquets de RREQ vont être perdus ce qui va engendrer des reconstructions fréquentes de route. Dans notre simulation, le mobile A va reconstruire sa route 10 fois tandis que C va la reconstruire 9 fois. En activant le mécanisme de réservation de flux par le biais du protocole ABE, les débits obtenus sont représentés au niveau de la figure 5.2(b). Le premier flux de A vers B effectue une requête de réservation qui est acceptée et émet son flux au débit de 160 Kb/s sans dégradation. Lorsque le second flux émet une requête, celle-ci est rejetée car la bande passante résiduelle est insuffisante. Aucune route n’est établie entre les nœuds C et D qui ne pourront envoyer leurs données. Lorsqu’une requête est rejetée, le flux QoS ne peut accéder au médium. Il est envisageable de mettre en place des politiques de dégradation afin de diminuer sensiblement le débit du premier flux de telle sorte que les requêtes des autres flux QoS puissent être acceptées. L’idée sous-jacente serait de pouvoir développer un protocole avec QoS qui s’adapterait en fonction des conditions de l’environnement. Nous n’avons pas abordé cette approche dans cette thèse. 200 200 AODV − flux1 AODV − flux2 ABE − flux1 ABE − flux2 150 Débit (kb/s) Débit (kb/s) 150 100 100 50 50 0 0 0 5 10 15 20 25 30 Date de la simulation (s) 35 40 45 50 0 (a) AODV 5 10 15 20 25 30 Date de la simulation (s) 35 40 (b) ABE Fig. 5.2 – Débits obtenus par les deux flux concurrents avec AODV et ABE 59 45 50 CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE 5.2.2 Topologies aléatoires Afin d’être moins dépendant des topologies pour lesquelles nous pouvons à l’avance prévoir les cas pathologiques, nous avons testé notre protocole sur des scénarios aléatoires. Nous avons généré des topologies pour lesquelles les nœuds sont placés aléatoirement. Les débits des flux ainsi que les connexions (choix du nœud source et du nœud destination) sont aussi choisis de manière aléatoire. Pour chacun des protocoles évalués, nous simulons le même scénario avec des graines aléatoires différentes et et les résultats présentés représentent la moyenne de 30 simulations. Communications à un saut radio : la première topologie étudiée est constituée de dix nœuds placés aléatoirement dans un carré de 1000 m × 1000 m. La capacité du canal radio est de 2 Mb/s. Cinq flux CBR sont démarrés, pour chacun d’entre eux le mobile initiateur de la communication choisit aléatoirement un mobile voisin (à 1 saut radio) comme destinataire. Par conséquent, il n’y a donc ni mécanisme de routage, ni prise en compte de la contention intra flux, le destinataire se trouvant directement dans le voisinage à un saut radio de l’émetteur. La simulation dure 50 secondes, le démarrage de chaque flux QoS est espacé de 5 secondes. Les débits de ces flux CBR sont représentés au niveau du tableau 5.2. Identité du flux Flux 1 Flux 2 Flux 3 Flux 4 Flux 5 Débit en kb/s 108 452 796 585 347 Tab. 5.2 – Débits des flux CBR En effectuant aucun contrôle d’admission, l’utilisation du protocole AODV au niveau de la figure 5.3(a) engendre un partage du canal entre les différents flux, ce qui entraı̂ne une congestion du réseau. Le protocole AAC surestime la valeur de la bande passante résiduelle du flux 4. Par conséquent, dès que ce flux est accepté, il dégrade le débit des flux existants. Le cinquième flux qui est aussi accepté dégrade son débit initial de 65% et celui des flux existants jusqu’à 30% comme indiqué sur la figure 5.3(b). Le protocole BRuIT (figure 5.3(c)) sous-estime la bande passante résiduelle et seuls deux flux sur cinq sont admis avec le débit désiré. Avec le protocole ABE, tous les flux excepté le quatrième sont admis sans aucune dégradation du débit demandé par les applications. Contrairement au protocole AAC, le contrôle d’admission du quatrième flux a échoué et ce dernier a été rejeté. Dans cette configuration, il est clair que les communications étant à 1 saut, l’estimation de la bande passante résiduelle est relativement précise favorisant du même coup des résultats adéquats. Nous présentons par la suite un scénario pour lequel la source et la 60 CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE 1000 1000 AAC − flux1 AAC − flux2 AAC − flux3 AAC − flux4 AAC − flux5 AODV − flux1 AODV − flux2 AODV − flux3 AODV − flux4 AODV − flux5 800 600 600 Débit (kb/s) Débit (kb/s) 800 400 400 200 200 0 0 0 5 10 15 20 25 30 Date de la simulation (s) 35 40 45 0 50 5 10 15 (a) AODV 20 25 30 Date de la simulation (s) 35 40 45 50 (b) AAC 1000 1000 BRuIT − flux1 BRuIT − flux2 BRuIT − flux3 BRuIT − flux4 BRuIT − flux5 ABE − flux1 ABE − flux2 ABE − flux3 ABE − flux4 ABE − flux5 600 600 Débit (kb/s) 800 Débit (kb/s) 800 400 400 200 200 0 0 0 5 10 15 20 25 30 Date de la simulation (s) 35 40 45 50 0 (c) BRuIT 5 10 15 20 25 30 Date de la simulation (s) 35 40 45 50 (d) ABE Fig. 5.3 – Scénarios aléatoires - Débits obtenus avec AODV, AAC, BRuIT et ABE pour des communications à un saut radio 61 CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE destination ne sont pas voisins, nécessitant la mise en place d’un routage des données. Communications multi-sauts : pour cette deuxième topologie aléatoire nous reprenons les mêmes caractéristiques que dans le scénario précédent avec quatre principales modifications : – La source et la destination ne sont pas à portée radio, ce qui va nécessiter le routage des données et complexifier l’estimation de la bande passante résiduelle notamment à cause du phénomène de la contention intra-flux. – La capacité du médium est fixée à 11 Mb/s. – Nous augmentons la charge du réseau avec sept flux CBR et vingt nœuds dans le réseau. – Les débits sont représentés au niveau du tableau 5.3. Identité du flux Flux 1 Flux 2 Flux 3 Flux 4 Flux 5 Flux 6 Flux 7 Débit en kb/s 243 124 134 485 536 892 91 Tab. 5.3 – Débits des flux CBR Au niveau de la figure 5.4(a), lorsqu’AODV est utilisé, le réseau tend à être dans un état de congestion car aucun contrôle d’admission n’est effectué afin de limiter le débit des flux. On observe aussi de fréquentes cassures de routes ce qui réduit très fortement les performances globales du réseau. Les figures 5.4(b) et 5.4(c) représentent les débits obtenus respectivement avec AAC et QoS-AODV. Ces deux protocoles admettent plus de flux QoS qu’ils ne devraient ce qui tend aussi vers une congestion du réseau. AAC ne prend pas en compte les collisions tandis que QoS-AODV ne prend ni en compte les collisions à la réception, ni le phénomène de la contention intra-flux. Par conséquent, ces deux protocoles surestiment la bande passante résiduelle. Ce qui se traduit par l’acceptation de flux QoS qui dégrade automatiquement le débit des flux existants. Ce scénario met donc en relief l’importance crucial de la prise en compte des collisions et de la contention intra-flux pour une bonne estimation de la bande passante résiduelle. Sur la figure 5.4(e), ABE effectue un contrôle d’admission plus fin qu’avec AAC et AODV, car seuls trois flux sur sept ont pu trouver une route au débit désiré. Ce scénario montre que notre estimation de la bande passante résiduelle ne surestime pas la bande passante résiduelle. Finalement, lorsqu’on utilise BRuIT (figure 5.4(d)), seul un flux sur sept est admis, ce qui implique que BRuIT sous-estime la bande passante résiduelle. La raison est principalement 62 CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE dûe au fait que BRuIT ne prend pas en compte la synchronisation possible de flux distants. La figure 5.5 représente la quantité de trafic agrégé à travers tout le réseau en fonction du protocole de QoS utilisé sur cette deuxième topologie aléatoire générée. Ainsi lorsqu’ABE est utilisé, les chemins choisis garantissent la bande passante désirée par l’application et les taux de perte sont relativement faibles favorisant un débit agrégé plus élevé par rapport aux autres protocoles de QoS (voir tableau 5.4 pour les taux de perte). Il faut aussi noter que le routage au mieux du protocole AODV permet d’explorer un grand nombre de routes. La quantité de trafic convoyée par AODV peut donc être plus importante que celle des autres protocoles de QoS pour lesquels, lorsqu’un flux n’est pas admis, il n’y a aucun trafic de données qui est envoyé sur le réseau. Toutefois, l’exploration d’un plus grand nombre de routes par AODV génère plus d’interférences et de collisions d’où un taux de perte global dans le réseau de l’ordre de 58,4%. Protocoles AODV AAC QoS-AODV BRuIT ABE Taux de perte (en %) 58,4 38,3 45,8 2,6 5,8 Tab. 5.4 – Taux de perte global dans le réseau Nous avons représenté l’ensemble des chemins QoS réservés (après réception d’un paquet de RREP et établissement de la route) par les applications en fonction du protocole utilisé et pour les scénarios aléatoires définis ci-dessus. On constate qu’avec AODV (figure 5.6(a)) beaucoup de routes sont créées provoquant une congestion du réseau. Avec le protocole ABE, seuls trois routes ont été réservées pour les flux QoS (figure 5.6(c)) ayant réussi leur contrôle d’admission alors que la sous-estimation faite par le protocole BRuIT, ne lui permet de trouver qu’une seule route QoS comme indiqué au niveau de la figure 5.6(d). Le protocole AAC, qui surestime la bande passante résiduelle va emprunter un plus grand nombre de routes par rapport à BRuIT et ABE. Cependant ce nombre de routes créées est beaucoup plus faible que celui d’AODV, la phase de contrôle d’admission réduisant la probabilité de trouver des nouvelles routes (figure 5.6(b)). Influence de la mobilité : il est difficile de fournir de la qualité de service en cas de mobilité des nœuds. Ainsi des violations fréquentes de la QoS apparaissent dûes à la mobilité des nœuds, aux cassures de routes ou à des chutes de débit des flux QoS. Par conséquent il est rarement possible d’acheminer un flux de bout en bout avec le débit désiré sans aucune dégradation dans un environnement mobile. Avec ABE, dès qu’une des situations précitées 63 CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE 600 600 AODV − flux1 AODV − flux2 AODV − flux3 AODV − flux4 AODV − flux5 AODV − flux6 AODV − flux7 500 500 400 Débit (kb/s) 400 Débit en (kb/s) AAC − flux1 AAC − flux2 AAC − flux3 AAC − flux4 AAC − flux5 AAC − flux6 AAC − flux7 300 300 200 200 100 100 0 0 0 5 10 15 20 25 30 Date de la simulation 35 40 45 0 50 5 10 15 (a) AODV 35 40 45 50 (b) AAC 600 600 QoS−AODV − flux1 QoS−AODV − flux2 QoS−AODV − flux3 QoS−AODV − flux4 QoS−AODV − flux5 QoS−AODV − flux6 QoS−AODV − flux7 500 BRuIT − flux1 BRuIT − flux2 BRuIT − flux3 BRuIT − flux4 BRuIT − flux5 BRuIT − flux6 BRuIT − flux7 500 400 Débit (kb/s) 400 Débit (kb/s) 20 25 30 Date de la simulation 300 300 200 200 100 100 0 0 0 5 10 15 20 25 30 Date de la simulation 35 40 45 50 0 5 10 15 (c) QoS-AODV 20 25 30 Date de la simulation 35 40 45 50 (d) BRuIT 600 ABE − flux1 ABE − flux2 ABE − flux3 ABE − flux4 ABE − flux5 ABE − flux6 ABE − flux7 500 Débit en (kb/s) 400 300 200 100 0 0 5 10 15 20 25 30 Date de la simulation 35 40 45 50 (e) ABE Fig. 5.4 – Scénarios aléatoires - Débits obtenus avec AODV, AAC, QoS AODV, BRuIT et ABE pour des communications multi-sauts 64 CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE 2500 2131 Mo 2037 Mo 1986 Mo 2000 Quantité de données reçues en Mo 1860 Mo 1500 1340 Mo 1000 500 0 ABE AODV QoS−AODV Protocoles de QoS AAC BRuIT Fig. 5.5 – Quantité de trafic agrégé en Mo à travers le réseau apparaı̂t, un message d’erreur est envoyé à la source, qui reconstruit sa route. La phase de reconstruction peut être plus ou moins longue et générera un surplus de messages de contrôle. Pour évaluer les effets de la mobilité sur les flux QoS, nous avons mis en place un scénario constitué de 10 nœuds placés aléatoirement et cinq flux CBR de débit aléatoire (voir tableau 5.5) et dont les dates d’émission sont espacées de 2 secondes. La simulation dure 100 s. Le modèle de mobilité est le Random Way Point avec une vitesse maximale de 20 m/s et des temps de pause de 10 s. Identité du flux Flux 1 Flux 2 Flux 3 Flux 4 Flux 5 Débit en kb/s 627 72 80 470 493 Tab. 5.5 – Débits des flux CBR en cas de mobilité Le modèle de mobilité Random Way Point (RWP) [52] est caractérisé par une vitesse maximale Vmax et un temps de pause Tp . Un nœud se dirige vers un point choisi aléatoirement avec une vitesse constante comprise entre 0 et Vmax . Lorsque le nœud arrive à ce point, il s’arrête pendant une durée Tp avant de recommencer les mêmes mouvements en choisissant un autre point. 65 CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE (a) AODV (b) AAC (c) ABE (d) BRuIT Fig. 5.6 – Graphe des chemins réservés pour les flux QoS 66 CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE 1000 1000 AAC − flux1 AAC − flux2 AAC − flux3 AAC − flux4 AAC − flux5 800 800 600 600 Débit en (kb/s) Débit en (kb/s) AODV − flux1 AODV − flux2 AODV − flux3 AODV − flux4 AODV − flux5 400 400 200 200 0 0 0 20 40 60 Date de la simulation 80 0 100 20 (a) AODV 40 60 Date de la simulation 100 (b) AAC 1000 1000 ABE − flux1 ABE − flux2 ABE − flux3 ABE − flux4 ABE − flux5 BRuIT − flux1 BRuIT − flux2 BRuIT − flux3 BRuIT − flux4 BRuIT − flux5 800 800 600 600 Débit (kb/s) Débit en (kb/s) 80 400 400 200 200 0 0 0 20 40 60 Date de la simulation 80 100 0 (c) ABE 20 40 60 Date de la simulation 80 (d) BRuIT Fig. 5.7 – Débits obtenus avec AODV, AAC, ABE et BRuIT en cas de mobilité 67 100 CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE Les figures 5.7(a) et 5.7(b) montrent qu’en cas de mobilité aussi bien AODV qu’AAC génèrent une congestion du réseau et des dégradations des flux QoS. Avec BRuIT (figure 5.7(d)), la sous-estimation est toujours présente et seuls deux flux QoS ont trouvé une route. De plus, BRuIT n’a pas pu reconstruire les routes des flux 4 et 5 tandis qu’ABE (figure 5.7(c)) a pu acheminer trois flux QoS au débit désiré tout en reconstruisant au bout de 5 secondes la route du flux 4 à la date T = 40 s. L’introduction des temps de pause par le modèle Randow Way Point permet aux mobiles de reconstruire leur route. Ainsi même en cas de mobilité, le débit des flux QoS n’est pas dégradé, mais la transmission est décalée, le temps de reconstruire des routes intermédiaires pouvant garantir le débit requis. Protocoles AODV AAC BRuIT ABE Quantité de trafic agrégé (en Mo) 7760 6321 3817 7544 Taux de perte (en %) 42 27 3,2 4,3 Tab. 5.6 – Quantité de trafic agrégé et taux de perte en cas de mobilité Les résultats au niveau du tableau 5.6 montrent que le protocole BRuIT possède le taux de perte le plus faible (3,2%) car le nombre de paquets envoyés sur le réseau est faible à cause de la sous-estimation de la bande passante résiduelle qui réduit le nombre de flux QoS acheminés. Toutefois, l’inconvénient principal est que le protocole BRuIT achemine à peine 50% de la quantité de trafic agrégé dans tout le réseau par rapport aux autres protocoles de QoS et à AODV. Le protocole ABE semble effectuer le meilleur compromis car il possède un taux de perte relativement faible (4,3%), tout en acheminant une quantité de trafic conséquente. En résumé, les résultats des simulations précédentes pour des topologies aléatoires, indiquent un comportement similaire pour les protocoles AAC et QoS-AODV. En effet, ces deux protocoles surestiment la bande passante résiduelle ce qui provoque une dégradation des flux existants. Le protocole BRuIT sous-estime cette bande passante résiduelle, cependant cette sous-estimation est préférable car les flux QoS admis ne subissent pas de dégradation de leur débit. Enfin, avec ABE une estimation plus fine permet par rapport à AAC de ne pas dégrader les flux voisins et par rapport à BRuIT d’accepter plus de flux QoS. Le mécanisme de garantie des ressources dans un réseau ad hoc est très fortement lié à la précision de l’estimation de la bande passante résiduelle ou des ressources disponibles en général, commr noud pouvons le voir avec cette évaluation. 68 CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE 5.2.3 Evaluation du coût du mécanisme L’établissement et la maintenance des routes nécessitent des échanges de messages (RREQ, RREP, RERR). Nous évaluons le surcoût de notre protocole ABE en additionnant le nombre total de tous ces messages à travers un réseau dont le nombre de nœuds croı̂t de 10 à 50 avec 10 flux CBR dont les débits sont distribués aléatoirement entre 10 et 80 kb/s. Tous les résultats présentés ci-dessous sont la moyenne de 30 simulations pour un nombre de nœuds défini avec un intervalle de confiance à 95%. 35000 ABE AODV AAC/QoS−AODV Nombre total de messages de contrôle 30000 25000 20000 15000 10000 5000 0 10 15 20 25 30 35 Nombre de noeuds 40 45 50 Fig. 5.8 – Nombre total de messages de contrôle nécessaires pour l’établissement et la maintenance des routes La figure 5.8 représente le nombre total de messages de contrôle nécessaires pour l’établissement et la maintenance des routes en fonction du nombre de nœuds. AAC et QoS-AODV génèrent le même nombre de messages de contrôle car ces deux protocoles sont basés sur un protocole de routage similaire avec seulement quelques différences. Nous n’avons pas présenté les résultats pour le protocole BRuIT car il n’intègre pas de mécanisme de reconstruction de routes et donc les résultats ne sont pas comparables. AAC et ABE génèrent moins de messages de contrôle qu’AODV car la phase de contrôle d’admission élimine les routes ne possédant pas assez de bande passante résiduelle pour router les flux QoS. De plus, lorsque le réseau devient congestionné, AODV essaie de reconstruire ses routes, ce qui augmente encore plus le nombre de messages de contrôle. Cependant, ABE génère moins de messages de contrôle qu’AAC, car AAC surestime la bande passante résiduelle et explore donc un plus grand nombre de chemins durant la phase de découverte de route. 69 CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE 5.2.4 Précision de l’évaluation La précision de l’estimation de la bande passante résiduelle et de la phase de contrôle d’admission peuvent être évaluées par le biais d’une nouvelle métrique. Cette métrique indique le nombre de flux corrects. Un flux correct est un flux QoS qui a été admis et pour lequel on observe au maximum 5% de dégradation du débit de bout en bout par rapport à la valeur désirée par l’application. Nous définissons donc cette métrique notée β par : β= Nombre de flux corrects Nombre total de flux dans le réseau Le numérateur indique le nombre de flux corrects tel que définit précédemment tandis que le dénominateur indique le nombre total de flux que l’on veut faire transiter dans le réseau. Cette métrique caractérise aussi bien une surestimation qu’une sous-estimation de la bande passante résiduelle. Dans le cas d’une surestimation, le contrôle d’admission acceptera un flux qui dégradera automatiquement le débit des flux voisins et la valeur du numérateur diminue. En cas de sous-estimation, le nombre de flux correct admis est faible par conséquent la valeur de β également. Nous avons procédé à des simulations pour estimer la valeur de la métrique β. Le nombre de nœuds dans le réseau considéré varie de 10 à 40 et sont positionnés aléatoirement. Cinq connexions CBR sont établies entre des nœuds source et destination choisis aléatoirement. Les débits sont distribués uniformément dans l’intervalle [0-500] Kb/s. Chaque simulation dure 100 secondes. 0.9 0.9 ABE AAC QoS−AODV BRuIT ABE AAC QoS−AODV BRuIT 0.8 0.7 0.7 0.6 0.6 Valeur du paramètre beta Valeur du paramètre beta 0.8 0.5 0.4 0.3 0.5 0.4 0.3 0.2 0.2 0.1 0.1 0 0 10 20 30 40 10 Nombre de mobiles 20 30 40 Nombre de mobiles (a) Zone de détection de porteuse = 2 × Zone de com- (b) Zone de détection de porteuse = Zone de communication munication Fig. 5.9 – Evaluation de la métrique β avec les protocoles AAC, QoS-AODV, BRuIT et ABE Influence de l’évaluation : La figure 5.9(a) représente la valeur moyenne de β en fonction du protocole de routage 70 CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE QoS utilisé avec un intervalle de confiance. Comme l’on pouvait s’y attendre, plus le réseau devient dense, plus la valeur de β diminue car la bande passante résiduelle des liens devient plus faible et moins de routes sont établies. Lorsque le réseau n’est pas dense (entre 10 et 20 nœuds), le taux d’acceptation β est plus faible pour les protocoles AAC et QoS-AODV par rapport à BRuIT et ABE. Ainsi ces deux protocoles provoquent, en surestimant la bande passante résiduelle, un dépassement local de la capacité du médium qui dégrade aussitôt les flux voisins et diminue la valeur de la métrique β. Cependant, lorsque le réseau est moyennement dense (entre 20 et 30 nœuds), le taux d’acceptation de BRuIT diminue très fortement car très peu de chemins sont établis à cause de la sous-estimation de la bande passante résiduelle. Lorsque le réseau est très dense (40 nœuds), le taux d’acceptation des flux QoS est presque nul pour les protocoles AAC, QoS-AODV et BRuIT tandis qu’avec ABE il reste aux alentours de 8%. L’utilisation d’ABE permet dans tous les cas d’obtenir un taux d’acceptation des flux QoS plus élevé que celui des autres protocoles, même lorsque le réseau est dense. Influence de la taille de la zone de détection de porteuse : En rendant la zone de détection de porteuse égale à la zone de communication (figure ??), le taux de précision β des protocoles AAC, QoS-AODV et BRuIT diminue pour un même nombre de nœuds par rapport à la figure 5.9(a). En effet, réduire la zone de détection de porteuse revient à créer un plus grand nombre de scénarios de stations cachées. Or, les protocoles AAC, QoS-AODV et BRuIT ne prennent pas en compte ces types de scénarios dans leur évaluation de la bande passante résiduelle, entraı̂nant une dégradation des flux voisins et une diminution du paramètre β. Avec ABE, les scénarios de stations cachées sont pris en compte dans l’évaluation (section 4.1.3) et par conséquent aucune dégradation des flux voisins n’est effectuée. De plus, en réduisant la zone de détection de porteuse, tous les paquets envoyés par les nœuds brouilleurs deviennent décodables. Ceci permet donc d’obtenir plus d’informations sur le réseau, comme par exemple les identités des voisins communs ou les identités des stations cachées. Cet apport d’informations permet d’augmenter le taux de précision β pour le protocole ABE. De tels résultats montrent que réduire la zone de détection de porteuse à la zone de communication a un véritable intérêt dès que l’on est en mesure d’évaluer correctement les ressources du réseau et d’apporter un contrôle dans ce réseau. Influence de la taille des paquets : Nous reprenons le scénario précédent avec la zone de détection de porteuse égale à la zone de communication. Cette situation va donc créer un nombre plus important de configurations de stations cachées. Dans la section 4.1.3, pour évaluer le débit des mobiles en stations cachées, la taille des paquets est une information nécessaire. Cependant, dans les paquets d’acquittement de 802.11, cette information n’est pas indiquée. Ainsi, considérer une taille de paquets fixes peut introduire des erreurs dans la précision de l’évaluation de la bande passante disponible. Dans les simulations, nous avons pris comme hypothèse une taille de 71 CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE 1000 octets. Lorsque des paquets de plus petites tailles sont envoyés, l’évaluation réalisée au niveau des stations cachées conduit à une sous-estimation de la bande passante libre. Ceci implique que nous accepterons peut-être moins de flux QoS mais nous ne dégraderons pas les flux existant si le nouveau flux QoS est accepté. En revanche, si la taille des paquets est plus grande que 1000 octets, alors l’évaluation conduit à une surestimation de la bande passante libre dans le cas des stations cachées. Nous nous proposons donc de quantifier cette erreur au niveau de la précision de l’évaluation pour des tailles de paquets de 1000 (comme précédemment) et de 1500 octets. Nous avons choisi une taille de 1500 octets, comme taille maximale, car généralement, la couche IP des cartes sans fil croit avoir à faire à une carte Ethernet et fragmente tous les paquets de taille supérieurs à 1500 octets. Ce phénomène a été mis en relief dans [53]. Avec une taille maximale de 1500 octets, le débit des émetteurs en configuration de stations cachées est maximal et par conséquent la bande passante résiduelle est plus faible à travers le réseau. Taille / Nombre de nœuds 1000 octets 1500 octets 10 42% 37% 20 67% 61% 30 38% 35% 40 7% 5% Tab. 5.7 – Valeur de β pour des tailles de paquets de 1000 et 1500 octets La tableau 5.7 représente la valeur du paramètre β pour des tailles de paquets de 1000 et 1500 octets en fonction du nombre de nœuds présents dans le réseau. On remarque que lorsque la taille des paquets dans le réseau passe de 1000 à 1500 octets, la valeur du taux de précision β diminue au maximum de 6%. Par exemple, pour 30 nœuds dans le réseau, β passe de 38 à 35% lorsque la taille des paquets augmente de 1000 à 1500 octets. Ainsi, la différence entre ces tailles de paquets influe peu sur la valeur du paramètre β. L’approximation faite dans l’estimation de la bande passante des émetteurs en stations cachées avec un taille de paquets constante et égale 1000 octets dans les simulations introduit une erreur faible au niveau de β. 5.3 Synthèse Dans ce chapitre nous avons évalué les performances de notre protocole. ABE combine une approche réactive pour la recherche de route et une approche proactive pour l’estimation de la bande passante résiduelle. Les informations de bande passante sont périodiquement mises à jour grâce aux paquets Hello facilitant la phase de contrôle d’admission. Les simulations présentées ont permis de valider les mécanismes d’ABE. Notamment, elles montrent que les flux QoS sont routés vers leur destinataire avec le débit désiré, sans subir de dégradation et tout en réduisant globalement le taux de perte des paquets dans le réseau. De plus, même en cas de mobilité, ABE est en mesure de garantir le débit des flux QoS par intervalles en reconstruisant des nouvelles routes pouvant garantir les conditions initialement requises par les couches applicatives. Comme tout mécanisme utilisant des paquets de contrôle, notre 72 CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE protocole présente un coût en terme de trafic de contrôle qui reste cependant relativement faible par rapport aux autre approches QoS. L’apport du protocole ABE réside dans l’estimation de la bande passante résiduelle des liens du réseau. Cette estimation peut aussi s’avérer utile en présence de flux privilégiés et au mieux comme nous allons le voir par la suite. Dans le chapitre suivant, nous réutilisons l’estimation de la bande passante résiduelle d’ABE en y rajoutant quelques nouveaux mécanismes afin d’augmenter le taux d’acceptation des flux privilégiés. 73 CHAPITRE 6 Co-existence de trafics privilégiés et Best Effort L’absence d’une gestion centralisée des communications dans un contexte ad hoc rend difficile le partage des ressource entre flux de classes différentes. Dans un réseau ad hoc multi-saut, nous sommes généralement en présence de deux types d’applications : celles qui exigent des garanties en terme de délai ou de bande passante ou d’une métrique quelconque qui sont communément appelés flux QoS, et d’autres qui sont beaucoup plus tolérantes à la dégradation de leurs ressources appelées applications Best Effort. Beaucoup de travaux se sont intéressés à la garantie de ressources pour les applications QoS sans se soucier de la présence des flux Best Effort. Par exemple dans notre protocole ABE présenté dans les chapitres précédents, on considère qu’il n’y a que des flux QoS. Que se passe-t-il si on autorise maintenant l’émission de flux Best Effort ? Il faut alors être en mesure de réguler le débit des flux Best Effort afin qu’ils ne dégradent pas les flux QoS. Une solution serait de réserver une partie fixe de la bande passante pour les flux Best Effort. Une telle approche est néanmoins peu efficace si peu de flux QoS sont présents dans le réseau. L’idéal est de proposer une solution dynamique où les flux Best Effort pourraient augmenter leur débit lorsqu’il n’y a pas ou peu de flux QoS. Mais il faut aussi être en mesure de diminuer le débit des flux Best Effort si de nouveaux flux QoS cherchent à être émis. Ne pas pouvoir réaliser ce pas arrière pourrait conduire rapidement à des configurations où la majeure partie des ressources disponibles serait occupée par des flux Best Effort et où aucun nouveau flux QoS ne pourrait être accepté. La solution que nous proposons consiste à mettre en place un protocole distribué appelé DRBT pour Dynamic Regulation of Best Effort Traffic. L’idée principale de cette approche consiste à estimer de manière différenciée la bande passante résiduelle des liens afin de diminuer si nécessaire le débit des flux Best Effort. L’estimation de la bande passante résiduelle utilise les mécanismes définis dans ABE en y rajoutant quelques extensions. Cette diminution du débit des flux Best Effort permet d’augmenter le taux d’acceptation des flux QoS existants ou à venir. Ainsi, les deux principaux objectifs à remplir sont les suivants : – Diminuer si nécessaire le débit des flux Best Effort afin de maximiser le taux d’acceptation des flux QoS. – Obtenir une utilisation efficace des liens radio, i.e. permettre aux flux Best Effort d’utiliser le maximum de bande passante lorsque cela est possible. 74 CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT Dans ce chapitre, nous dressons dans un premier temps un état de l’art sur les techniques de régulation des flux Best Effort avant de présenter dans le détail le fonctionnement de notre solution et les résultats de simulations. 6.1 Etat de l’art Pour garantir les débits des applications QoS, la plupart des approches se basent sur une estimation de la bande passante libre afin de réguler le débit des applications. Les mécanismes de régulation consistent généralement à accepter ou refuser les flux QoS ou/et à adapter le débit des flux Best Effort. Les approches étudiées précédemment (ABE, BRuIT, AAC, CACP, etc.) se concentrent essentiellement sur les flux QoS et ne s’intéressent pas à la cohabitation entre flux QoS et Best Effort. 6.1.1 Approches existantes Dans [54], une solution proposée consiste à séparer les trafics en utilisant deux canaux de transmissions distincts. La difficulté de conception de cette technique est un obstacle majeur et rend son utilisation peu probable surtout dans un contexte ad hoc. SWAN [55] est un protocole distribué qui n’utilise aucun messages de contrôle pour garantir dynamiquement la bande passante des flux QoS. Pour atteindre cet objectif SWAN met en place trois mécanismes. Un mécanisme de contrôle d’admission à la source des flux QoS et deux mécanismes de régulation dynamique de trafic, l’un pour les flux QoS et l’autre pour les flux Best Effort. Le contrôle d’admission à la source utilise une approche intrusive pour estimer la bande passante résiduelle. Avant chaque transmission d’un flux QoS, une sonde est envoyée de la source vers la destination pour évaluer la bande passante résiduelle le long de ce chemin. En fonction de cette valeur, le contrôle d’admission à la source décide de l’envoi ou non du flux QoS concerné. Il n’y a pas de routage car le chemin entre la source et la destination est supposé connu. Lorsque le protocole SWAN estime que le réseau est dans un état de congestion, alors les mécanismes de régulations sont déclenchés. Le premier mécanisme de régulation dynamique de trafic QoS se base sur une approche passive d’estimation de la bande passante résiduelle. La modélisation de la DCF de 802.11 faite par Bianchi permet d’estimer la bande passante résiduelle sur un lien moyennant le taux d’utilisation du canal radio. Ainsi, lorsqu’une congestion est détectée, la source du flux QoS est informée et diminue dans un premier temps le débit du flux QoS. Le deuxième mécanisme de régulation dynamique du trafic Best Effort se base sur une autre méthode d’estimation de la bande passante résiduelle : le délai des paquets d’acquittements (ACK) sur un lien est mesuré. Si ce délai est supérieur à un seuil (dépendant de la bande passante désirée par les flux QoS [56]), alors le protocole SWAN considère le réseau dans un état de congestion et par conséquent diminue le débit des flux Best Effort. 75 CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT L’estimation de la bande passante résiduelle à l’aide d’une sonde envoyée de bout en bout consomme une part non négligeable de la bande passante comme présenté dans la section 3. Pour le premier mécanisme de régulation, la bande passante résiduelle est obtenue à partir de la modélisation de la DCF de 802.11 faite par Bianchi. Cependant, les travaux de Bianchi ne sont applicables que dans une cellule où tous les mobiles sont à portée de communication et dans un environnement à saturation ce qui n’est pas toujours le cas. Par conséquent, le protocole SWAN est très imprécis dans l’évaluation de bande passante restante sur un lien ce qui rend plus complexe la décision de réguler le débit des trafics Best Effort. De plus le protocole SWAN s’intéresse aussi à la métrique délai. Cependant, déterminer la valeur du délai désiré pour les applications Best Effort est une tâche difficile. Le protocole QPART [57] se base sur une estimation passive de la bande passante et un mécanisme de régulation dynamique du débit des flux Best Effort. Il classifie les trafics avec qualité de service en fonction de deux métriques : le délai et la bande passante. Toutefois, nous nous intéresserons ici qu’à la bande passante résiduelle comme métrique, puisque c’est celle que nous avons considérée dans cette section. L’estimation de la bande passante restante effectuée dans QPART se base sur la théorie des files d’attente et plus précisément sur le protocole RED [58]. L’algorithme RED démontre que pour maintenir un débit constant sur un chemin multi-saut, la taille des files d’attentes doit être maintenue en dessous d’un certain seuil prédéterminé. Si ce seuil est dépassé alors les mécanismes de régulation sont automatiquement démarrés afin de résorber le surplus de trafic. En cas de congestion, la taille de la fenêtre de contention des flux QoS et Best Effort est mise à jour de manière à rendre la transmission des flux QoS prioritaire. Parallèlement, l’algorithme de QPART sélectionne des flux susceptibles d’être rejetés en se basant sur une priorité des flux. Cependant, QPART souffre des mêmes limitations que le protocole SWAN. Premièrement, il se base sur un mécanisme d’estimation de la bande passante utilisé dans les réseaux filaires et qui est inadapté dans un contexte ad hoc. En effet l’estimation utilisée dans QPART se base sur la théorie de file d’attente. L’algorithme RED utilisé stipule que pour maintenir un débit constant sur un chemin multi-saut, on doit maintenir la taille des files d’attentes au niveau de chaque émetteur en dessous d’un seuil déterminé. Cependant, dans un contexte ad hoc sans fil, cette assertion n’est pas toujours vérifiée. En effet, il existe de nombreuses topologies, notamment celle des stations cachées où les files d’attente des nœuds restent en dessous d’un seuil mais les collisions à la réception engendrent des retransmissions fréquentes. Deuxièmement, le mécanisme de régulation dynamique du trafic Best Effort dans le protocole QPART, consistant à faire varier la taille de la fenêtre de contention, ne permet d’augmenter ou de diminuer le débit des ces flux Best Effort qu’en moyenne. Une variation de la taille de la fenêtre de contention ne permet pas de prédire avec précision quelle sera la variation la bande passante associée. Cela s’explique simplement par le fait qu’au niveau du protocole IEEE 802.11, la transmission sur le canal radio dépend aussi bien de la taille de la fenêtre de contention mais également de l’état 76 CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT du canal (occupé ou libre) et des collisions qui surviennent à la réception. C’est pourquoi QPART ne peut garantir avec précision la bande passante des flux QoS ni garantir une utilisation au mieux du médium pour les flux Best Effort. Le protocole présenté dans [59] utilise également un mécanisme d’estimation de la bande passante résiduelle proche de celui utilisé dans QPART en y apportant quelques modifications. Il compare au niveau du premier saut d’un flux QoS (nœud appelé H-Node), le nombre de paquets qu’il peut recevoir et transmettre avec le nombre de paquets effectivement reçus et transmis. En fonction du résultat de cette comparaison, le protocole est en mesure de conclure si le flux QoS a été dégradé ou pas et déclencher si nécessaire une régulation du débit des flux Best Effort. Durant le processus de régulation, un paquet appelé Squelech Packet est envoyé à partir du H-Node vers tous les nœuds de la zone de communication qui font transiter au moins un flux Best Effort. Ces nœuds sont appelés DRI. Tous les nœuds DRI qui interceptent un Squelech Packet arrêtent leur transmission pendant un intervalle de temps de 5 s. Les nœuds sources des flux Best Effort arrêtent également leur transmission durant un intervalle prédéterminé correspondant en moyenne au temps de transmission d’un flux QoS et seront réactivés au-delà de ce délai d’attente. Un tel protocole permet certes de garantir partiellement le débit des flux QoS, mais ne garantit en aucune manière une utilisation au mieux de la bande passante des flux Best Effort. En effet, aucune estimation de la bande passante restante n’est effectuée et seule une estimation des débits des flux QoS est mise en place, grâce à une supervision continue, des nœuds H-Node. Cette absence d’informations sur la bande passante restante des liens ne permet pas aux flux Best Effort de savoir exactement à quel débit ils devront ré-émettre de telle sorte qu’ils puissent utiliser toute la bande passante restante sans pour autant dégrader les flux QoS. L’utilisation de la bande passante restante n’est pas optimale car ce protocole oblige un grand nombre de flux Best Effort à stopper leur transmission pendant un intervalle de temps relativement élevé. En plus, les seuls nœuds H-Node considérés sont ceux qui se trouvent dans la zone de communication. Cela implique que ce protocole ne prend en compte ni les flux Best Effort qui se trouvent dans la zone de détection de porteuse, ni ceux qui dégradent les flux QoS et qui sont éloignés à plus d’un saut. Enfin, ce protocole utilise des paquets de contrôle supplémentaires à diffuser sur le réseau (Squelech paquet). Aucun mécanisme de ré-émission de ces paquets de contrôle en cas d’échec n’est prévu bien que l’on soit dans un contexte ad hoc où les collisions sont fréquentes. 6.1.2 Synthèse D’après les protocoles étudiés ci-dessus, il apparaı̂t clairement que les mécanismes de régulation du débit des flux Best Effort doivent être combinés à une estimation très précise de la bande passante résiduelle, sous peine de ne pouvoir assurer des garanties strictes aux flux QoS. Les protocoles tels que SWAN et QPART sont des protocoles de type passifs, ils ne conservent localement aucunes informations sur l’état du réseau. Une congestion est détectée lorsque des seuils prédéfinis sont dépassés et la décision de réguler les flux Best Effort ne 77 CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT s’effectue que dans ce cas précis. Le principal avantage de ce type d’approche est le passage à l’échelle car aucune information n’est véhiculée à travers le réseau. Cependant, il est difficile de fixer au préalable des valeurs de seuils qui puissent s’adapter à toutes les topologies multisauts. Ainsi, il arrive très souvent que les mécanismes de régulation soient activés alors que le réseau n’est pas congestionné ou dans le cas contraire qu’il ne soient pas activés en cas de congestion. Dans la solution proposée, nous réutilisons l’estimation de la bande passante résiduelle déjà mise en place par le protocole ABE présenté dans la section 4.1. L’avantage de ce protocole est qu’il propose une estimation fiable de la bande passante résiduelle comme nous l’avons vu précédemment. Ici, nous rajoutons une estimation différenciée de la bande passante résiduelle en fonction du type de trafic (QoS ou Best Effort), ce qui permet d’instaurer une bonne cohabitation entre les flux QoS et les flux Best Effort. 6.2 Présentation du protocole DRBT Dans cette section nous présentons en détail les mécanismes mis en place afin de réguler si nécessaire et de manière totalement distribuée le débit des flux Best Effort. Une telle approche permet de maximiser le taux d’acceptation des flux QoS. Nous présentons d’abord les différentes idées utilisées au niveau de la solution avant de décrire l’estimation différenciée de la bande passante résiduelle et le mécanisme de régulation dynamique du débit des flux Best Effort. 6.2.1 Idées utilisées dans DRBT Les idées présentées dans cette partie représentent plus des concepts à définir au préalable pour garantir la QoS dans un environnement ad hoc multi-saut en présence de trafic QoS et Best Effort. Diminution du débit des flux Best Effort : il est parfois nécessaire de diminuer le débit des flux Best Effort pour pouvoir accepter plus de flux QoS. Cette réduction doit être la meilleure possible : lorsque la bande passante disponible est importante, les flux Best Effort doivent pouvoir augmenter leur débit. La solution que nous avons retenue s’inspire du protocole RED. Ainsi, la régulation du débit des flux Best Effort est engendrée par une modification de la taille de la file d’attente des mobiles. Nous pensons que les méthodes telles que la variation de la taille de la fenêtre de contention et du délai inter paquets, présentées dans QPART et SWAN, ne permettent pas d’avoir un contrôle fiable sur le débit des flux. Collaboration entre les nœuds : tous les protocoles garantissant de façon dynamique la bande passante dans les réseaux ad hoc proposent un mécanisme de communication entre les nœuds. Ce mécanisme permet aux nœuds d’estimer la bande passante résiduelle des liens et d’alerter les émetteurs des flux Best Effort si nécessaire. Des paquets contenant des 78 CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT informations nécessaires à la régulation des débits des flux Best Effort vont donc transiter à travers les nœuds du réseau. Cependant, pour que cette collaboration inter-nœuds soit efficace, il faut rajouter un mécanisme de collaboration inter-couches plus communément appelé, cross-layer. Communication inter-couches : la communication entre les couches est un des points clés du protocole DRBT. Les informations étant disponibles à des niveaux différents de la pile protocolaire, les couches doivent par conséquent collaborer entre elles pour exploiter ces données. L’estimation de la bande passante résiduelle est effectuée au niveau de la couche MAC. Toutefois, la notion de flux n’est gérée qu’au niveau réseau. Il y a donc une nécessité de communiquer entre les couches MAC et IP. De plus, d’après l’algorithme RED, réduire le débit des flux Best Effort nécessite de contrôler la taille de la file d’attente des nœuds. Cette opération s’effectue au niveau de la couche LL. Enfin, le niveau applicatif spécifie les contraintes QoS désirées sur les flux. Tout ceci est résumé au niveau de la figure 6.1. Dans ce paragraphe et dans celui qui précède nous avons expliqué l’utilité de faire collaborer les nœuds entre eux puis les couches entre elles. Pour réaliser ces deux objectifs, nous utilisons des paquets de contrôle, sans pourtant rajouter un surplus de signalisation. Fig. 6.1 – Communication inter-couches Paquets de communication : utiliser de nouveaux paquets de contrôle consomme une part de la bande passante résiduelle. Dans notre solution retenue, nous utilisons les paquets de contrôle classiques que l’on retrouve généralement dans la plupart des protocoles 79 CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT de routage : HELLO, RREQ et RREP. Ces paquets de contrôle, au-delà de la mise à jour des informations de voisinage, serviront également à véhiculer les informations nécessaires à la QoS que nous voulons mettre en place et qui viennent d’être rapidement décrites. 6.2.2 Estimation de la bande passante résiduelle La première étape pour garantir le débit des flux QoS, consiste à estimer la bande passante résiduelle sur l’ensemble de liens du réseau. Cette estimation va nous permettre de quantifier la proportion de bande passante libre pour les flux QoS, et qui est occupée par les flux Best Effort. L’estimation doit être distribuée et prendre en compte les différents phénomènes propres aux réseaux ad hoc (interférences, collisions, etc.). Ainsi, nous réutilisons l’estimation de la bande passante résiduelle effectuée par le protocole ABE présenté dans le chapitre 4, auquel nous rajoutons un nouveau mécanisme correspondant à la différenciation entre les paquets QoS et les paquets Best Effort. Une différenciation entre les flux QoS et Best Effort doit permettre une meilleure utilisation de la bande passante pour les flux QoS. Cette différenciation s’effectue au niveau MAC et consiste à ne mesurer que l’occupation médium des paquets QoS durant la phase d’écoute du support radio et à ne pas prendre en compte les flux Best Effort dans cette occupation. Elle n’est donc possible que si les mobiles peuvent décoder les informations sur les paquets. En effet, lorsqu’un paquet est transmis sur le médium radio, les nœuds qui écoutent le support ne pourront identifier la nature du paquet (QoS ou Best Effort) en analysant les champs ToS de l’en-tête IP, que s’ils sont en mesure de décoder le paquet. Les paquets émis dans la zone de détection de porteuse ne peuvent être décodés parce que la puissance du signal perçue est faible. En conséquence, le protocole DRBT considère ces paquets comme des paquets QoS. En d’autres mots, les flux Best Effort se trouvant dans la zone de détection de porteuse sont considérés comme des flux QoS dans l’évaluation de l’occupation du médium. Considérons l’exemple de la figure 6.2 pour lequel tous les nœuds sont dans la même zone de communication. La capacité est de 1600 Kb/s. Un flux QoS de débit 500 Kb/s et un autre flux Best Effort de débit 1000 Kb/s sont transmis. Un troisième flux QoS désire accéder au médium avec un débit de 1000 Kb/s. Si nous estimons la bande passante résiduelle avec le protocole ABE, cette valeur est presque nulle et le troisième flux QoS ne peut être transmis. Cependant, si nous effectuons une estimation différenciée de cette bande passante résiduelle (qui ne prend en compte que les transmissions QoS) nous obtenons une bande passante résiduelle de 1100 Kb/s pour le troisième flux QoS qui peut alors accéder au réseau. Par conséquent, le nouveau flux QoS pourra être transmis sans dégrader le premier flux QoS si le débit du flux Best Effort est diminué. 6.2.3 Régulation du débit des flux Best Effort Comme expliqué précédemment, le contrôle d’admission de certains flux QoS peut échouer car une partie de la bande passante est consommée par des flux Best Effort. Par conséquent, 80 CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT Fig. 6.2 – Exemple de différenciation de flux il nécessaire de réguler leur débit en fonction de l’estimation de la bande passante résiduelle présentée ci-dessus. Dans DRBT, cette régulation ne concerne que les flux Best Effort et se déroule en deux étapes : 1. Réduire le débit des flux Best Effort lorsqu’un nouveau flux QoS désire transmettre et ne trouve pas assez de bande passante résiduelle car une partie de celle-ci est occupée par ces flux Best Effort. 2. Augmenter le débit de ces flux Best Effort lorsqu’un flux QoS libère de la bande passante ou se déplace dans une autre zone de transmission. 6.2.3.1 Réduction du débit des flux Best Effort Dans cette partie, nous expliquons la méthode utilisée pour réduire le débit des flux Best Effort si nécessaire. Le protocole DRBT n’utilise que les paquets classiques tels que les RREQ et RREP que l’on retrouve dans la plupart des protocoles de routage réactifs. Ainsi, pour chaque nouvelle transmission d’un flux QoS, un paquet de RREQ est envoyé au préalable afin de réserver les ressources ainsi que le paquet de réponse RREP correspondant. Les informations stockées dans ces paquets sont : – L’adresse du nœud émetteur. – L’adresse du nœud récepteur. – Un numéro de séquence unique. – Le débit désiré par le nouveau flux QoS (T hroughputQoS). – Le nombre total de flux Best Effort se trouvant dans le voisinage du flux QoS concerné (nbBE). En effet, chaque flux Best Effort possède un identifiant unique propagé à travers les paquets Hello. En conséquence, chaque nœud peut estimer le nombre total de flux Best Effort dans son voisinage et analysant ces identifiants. 81 CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT – La bande passante résiduelle différenciée (qui ne prend en compte que les transmissions QoS et notée Dif f Bandwith). Si la bande passante résiduelle différenciée indiquée par le paquet de RREQ est inférieure à la valeur stockée sur le lien par lequel le paquet de RREQ a été reçu, alors elle est mise à jour au niveau de ce paquet de RREQ. La précision de notre protocole DRBT passe aussi bien par une estimation précise de la bande passante résiduelle que par un processus de routage efficace. Nous utilisons un routage réactif proche de celui d’AODV. La source d’un flux QoS envoie un paquet de RREQ à l’ensemble de ses voisins. Tout nœud recevant ce paquet de RREQ effectue un simple contrôle d’admission en vérifiant si la bande passante désirée et transportée par le paquet de RREQ est inférieure à la valeur de la bande passante résiduelle différenciée sur ce lien. Si c’est le cas, le nœud ajoute son adresse dans la route et retransmet ce paquet de RREQ. Ce processus continue jusqu’au nœud destinataire qui après avoir effectué le dernier contrôle d’admission, envoie le paquet de RREP en unicast, par le chemin inverse afin de réserver les ressources si le contrôle d’admission a été positif sur tout le chemin. A chaque réception d’un paquet de RREQ ou de RREP par un émetteur d’un flux Best Effort, ce dernier estime s’il y a assez de bande passante résiduelle pour transporter ce flux QoS sans dégrader son débit. Si ce n’est pas le cas, il réduit son débit en envoyant un paquet appelé DRP pour Dynamic Regulation Packet. Ce paquet, envoyé depuis la couche IP vers la couche LL du même nœud, ne circule pas à travers le réseau. Les informations stockées dans ce paquet DRP sont : – La valeur de la bande passante désirée par le nouveau flux QoS (T hroughputQoS) et extraite du paquet de RREQ ou RREP. – La valeur actuelle de débit du flux Best Effort (T hroughputBE). – Le nombre total de flux Best Effort rencontrés le long du chemin (nbBE). – La valeur de la bande passante résiduelle différenciée stockée le long du chemin dans la variable Dif f Bandwith. – Un numéro de séquence unique permettant d’identifier le paquet RREQ et RREP. Il est important de remarquer que seule la source du flux Best Effort est en mesure de dégrader son débit Pour des topologies où la source du flux Best Effort n’est pas dans le voisinage du flux QoS qu’il gêne, une solution aurait pu être d’informer la source à l’aide de nouveaux paquets de contrôle. Cependant nous n’avons pas retenu cette solution notamment à cause de la part non négligeable de ressources qu’elle consommerait. Un exemple d’une telle situation est présenté au niveau de la figure 6.3. Le nœud émetteur du flux Best Effort D est en mesure de décoder le paquet de RREQ émis par A et de récupérer la valeur de la bande passante désirée par cette transmission QoS (équivalente à X Kb/s). A la réception d’un tel paquet, le nœud D envoie un paquet DRP. Lorsque la couche LL réceptionne ce paquet DRP, elle enclenche le mécanisme de réduction du débit des flux Best Effort. En pratique, deux files d’attentes virtuelles sont utilisées. La première sert à transporter les paquets QoS et la seconde les paquets Best Effort. Nous pouvons donc contrôler dy- 82 CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT Fig. 6.3 – Réception d’un paquet RREQ namiquement la taille de chacune des files. La figure 6.4 représente le schéma général de l’architecture d’un nœud DRBT. Pour diminuer de manière précise le débit du trafic Best Effort, nous réduisons la taille de la file Best Effort jusqu’à une valeur seuil. Cette valeur seuil, noté T hreshold varie à chaque réception d’un nouveau paquet DRP. Elle est obtenue grâce à la formule : T hreshold = T hroughputBE AvailableBandwidth (6.1) avec : Dif f Bandwidth − T hroughputQoS (6.2) nbBE L’équation 6.2 représente la nouvelle bande passante résiduelle que l’on pourra allouer au flux Best Effort, si le nouveau flux QoS est accepté. D’après l’équation 6.1, si la valeur du seuil est supérieure à un, alors le débit du trafic Best Effort doit être diminué. Une fois que le seuil est déterminé, la taille de la file d’attente sizeBE est donnée par la formule : AvailableBandwidth = N bpacketsBE (6.3) T hreshold La variable N bpacketsBE représente le nombre de paquets Best Effort entrés dans la file d’attente durant une période de mesure d’une seconde. Nous avons choisi de fixer cette sizeBE = 83 CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT Fig. 6.4 – Architecture interne d’un nœud DRBT période de temps à une seconde car au niveau du protocole ABE, les débits de l’ensemble des liens du réseau sont mis à jour toutes les secondes. 6.2.3.2 Augmentation du débit des flux Best Effort Lorsqu’un flux QoS arrête sa transmission ou se déplace dans une autre zone de communication, tous les flux Best Effort ayant réduit leur débit, à cause de la présence de ce flux QoS, peuvent augmenter leur débit jusqu’à la valeur initiale. Cette augmentation permet d’utiliser de manière optimale et dynamique les ressources disponibles qui se libèrent dans le réseau. Pour atteindre cet objectif nous réutilisons les paquets Hello. Chaque nœud transportant un flux QoS stocke, dans ces paquets Hello, des informations sur l’identité de ce flux et la valeur de la bande passante résiduelle différenciée. Quand un flux QoS arrête de transmettre ou libère de la bande passante, ce changement d’état est indiqué au niveau des paquets Hello. L’émetteur du flux Best Effort qui se trouve dans le voisinage du flux QoS est en mesure d’intercepter ces paquets Hello indiquant qu’un flux QoS a libéré de la bande passante. Finalement, le flux Best Effort peut augmenter son débit en fonction de la nouvelle valeur de la bande passante disponible. En cas de mobilité d’un ou des nœuds du flux QoS hors de leur ancienne zone de communication, les nœuds Best Effort ne reçoivent plus de paquets Hello de ces derniers. En conséquence, ils augmentent leur débit jusqu’à la dernière valeur du débit qui avait été conservée. 84 CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT 6.2.4 Synthèse Nous avons présenté dans cette partie, DRBT un protocole de régulation dynamique du débit des flux Best Effort. Cette régulation se base sur une estimation différenciée de la bande passante résiduelle prenant en compte le type des paquets (QoS ou Best Effort). En s’inspirant du protocole RED, la régulation du débit des flux Best Effort s’effectue en adaptant dynamiquement la taille de la file d’attente des nœuds émetteurs Best Effort. Comme nous allons le voir, contrairement aux méthodes consistant à réduire la taille de la fenêtre de contention, cette approche permet de mieux contrôler le débit des flux Best Effort. 6.3 Evaluation des performances de DRBT Nous présentons dans ce chapitre les performances de notre protocole de régulation dynamique du débit des flux Best Effort, DRBT. Nous nous plaçons dans un contexte ad hoc multi-saut. Nous avons utilisé le simulateur NS-2 afin d’étudier les performances de notre approche. Nous comparons les résultats obtenus avec trois autres protocoles : – Le protocole au mieux AODV qui fournit un routage basique sans contrôle d’admission. – Le protocole ABE dont la comparaison va nous permettre de voir quel est l’apport d’une différentiation de flux lorsqu’on régule le débit des communications Best Effort. – Le protocole QPART que nous avons implémenté et qui servira de base pour la comparaison avec DRBT, puisque c’est un des rares protocoles de QoS qui s’intéressent à la cohabitation des flux QoS et Best Effort. La première topologie étudiée permet de comprendre le fonctionnement de base de notre protocole, puis nous générons par la suite des scénarios aléatoires plus complexes. 6.3.1 Un premier scénario simple : les 2 paires Ce premier scénario basique est constitué de deux paires de nœuds se trouvant dans la même zone de communication. Il nous permet de valider le mécanisme de différenciation et de régulation des flux. Ainsi, à la date t = 1 s, le nœud A émet vers B un flux Best Effort de débit 1000 Kb/s. Quatre secondes plus tard, le mobile C cherche à envoyer un flux QoS de débit équivalent à destination de D, comme indiqué sur la figure 6.5. A la date t = 30 s, le flux QoS s’arrête tandis que la simulation dure 50 s. La capacité du médium est de 2Mb/s. Lorsque le protocole AODV est utilisé, aucune différenciation des flux n’est établie. Par conséquent l’introduction du second flux QoS va engendrer un partage des ressources avec le premier flux Best Effort introduit dans le réseau. A partir de la date t = 30 s, l’arrêt du flux QoS permet au flux Best Effort de retrouver son débit initial (figure 6.6(a)). Lorsque le protocole ABE est activé, le contrôle d’admission du flux QoS échoue car 70% de la bande passante est consommée par les émissions du flux Best Effort. Le flux QoS n’est donc pas introduit dans le réseau et seul le flux Best Effort est émis comme indiqué sur la figure 6.6(b). L’apport du protocole DRBT au niveau de la figure 6.6(c) se déroule en deux grandes phases. Durant la première phase, de t = 5 s à t = 30 s, le débit du flux Best Effort est dégradé 85 CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT Fig. 6.5 – Les 2 paires jusqu’à un débit d’environ 500 Kb/s. Cette dégradation permet au flux QoS d’émettre au débit désiré de 1000 Kb/s. Durant la seconde phase, lorsque le flux QoS est arrêté (à partir de t = 30 s), le débit du flux Best Effort est rétabli jusqu’à sa valeur initiale de 1000 Kb/s. Le protocole QPART, comme DRBT diminue le débit du flux Best Effort durant la première phase correspondant à l’introduction du flux QoS, et réinitialise sa valeur à 1000 Kb/s lorsque le flux QoS arrête sa transmission. Cependant, par rapport à DRBT, on remarque au niveau de la figure 6.6(d), que la diminution du débit du flux Best Effort n’est pas assez importante. Cette situation engendre automatiquement une légère dégradation du débit du flux QoS qui peut parfois atteindre 800 Kb/s au lieu des 1000 Kb/s demandé par l’application. Le protocole QPART, qui ne conserve aucun état du réseau, n’effectue aucune estimation de la bande passante résiduelle. Ainsi, le débit du flux Best Effort est diminué, mais aucune estimation ne permet de fixer sa valeur exacte. La conséquence immédiate est une légère dégradation du débit du flux QoS. Ce premier scénario montre que pour offrir aux flux QoS des garanties, il peut être utile d’estimer la proportion de bande passante maximale qui pourra être allouée aux flux Best Effort. Il apparaı̂t clairement que la différenciation de flux permet au protocole DRBT, par rapport à ABE, de privilégier l’émission des flux QoS sur les flux Best Effort. Par rapport à QPART, l’estimation de la bande passante résiduelle permet quant à elle de déterminer avec précision le débit maximum d’émission des flux Best Effort, afin d’éviter une dégradation des flux QoS. 6.3.2 Topologies aléatoires L’évaluation des performances d’un protocole sur des topologies aléatoires permet de mieux caractériser le comportement du protocole dans des situations totale86 CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT AODV−flux1 AODV−flux2 ABE−flux1 ABE−flux2 1200 1000 1000 800 800 Débit (Kb/s) Débit (Kb/s) 1200 600 600 400 400 200 200 0 0 0 5 10 15 20 25 30 Date de la simulation (s) 35 40 45 0 50 5 10 15 (a) AODV 35 40 45 50 (b) ABE DRBT−flux1 DRBT−flux2 1200 QPART−flux1 QPART−flux2 1200 1000 1000 800 800 Débit (Kb/s) Débit (Kb/s) 20 25 30 Date de la simulation (s) 600 600 400 400 200 200 0 0 0 5 10 15 20 25 30 Date de la simulation (s) 35 40 45 50 0 (c) DRBT 5 10 15 20 25 30 Date de la simulation (s) 35 40 45 (d) QPART Fig. 6.6 – Débits obtenus par les deux flux avec AODV, ABE, DRBT et QPART 87 50 CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT ment imprévisibles. Ainsi, nous disposons aléatoirement 10 nœuds dans un carré de 1000m × 1000m. Nous démarrons cinq connexions CBR, dont trois connexions de type Best Effort et deux connexions de type QoS. Le tableau 6.1 représente les débits désirés par chacune des connexions. Pour chacune des ces transmissions, une source choisit aléatoirement une destination vers laquelle elle route ses informations. La destination peut ne pas être dans la zone de communication de l’émetteur, nécessitant dans ce cas un routage multi-saut. Le démarrage des flux est espacé de 5 s et la simulation dure 50 s. 700 700 BE−flux1 (319 Kb/s) BE−flux2 (164 Kb/s) BE−flux3 (386 Kb/s) QoS−flux4 (129 Kb/s) QoS−flux5 (281KB/s) 600 500 500 400 400 Débit (Kb/s) Débit (Kb/s) 600 BE−flux1 (319 Kb/s) BE−flux2 (164 Kb/s) BE−flux3 (386 Kb/s) QoS−flux4 (129 Kb/s) QoS−flux5 (281KB/s) 300 300 200 200 100 100 0 0 0 5 10 15 20 25 30 Date de la simulation (s) 35 40 45 50 0 5 10 15 (a) AODV 35 40 45 50 (b) ABE 700 700 BE−flux1 (319 Kb/s) BE−flux2 (164 Kb/s) BE−flux3 (386 Kb/s) QoS−flux4 (129 Kb/s) QoS−flux5 (281KB/s) 600 BE−flux1 (319 Kb/s) BE−flux2 (164 Kb/s) BE−flux3 (386 Kb/s) QoS−flux4 (129 Kb/s) QoS−flux5 (281KB/s) 600 500 500 400 400 Débit (Kb/s) Débit (Kb/s) 20 25 30 Date de la simulation (s) 300 300 200 200 100 100 0 0 0 5 10 15 20 25 30 Date de la simulation (s) 35 40 45 50 0 (c) DRBT 5 10 15 20 25 30 Date de la simulation (s) 35 40 45 50 (d) QPART Fig. 6.7 – Débits obtenus avec AODV, ABE, DRBT et QPART Au niveau de la figure 6.7(a), les résultats présentés montrent qu’avec le protocole AODV, un partage des ressources dans le réseau est effectué ce qui empêche les flux QoS d’atteindre le débit désiré. Cette situation conduit rapidement à une congestion du réseau entraı̂nant parallèlement des cassures de routes et des reconstructions fréquentes. Avec le protocole ABE (figure 6.7(b)), les trois premiers flux Best Effort se partagent les ressources au niveau du médium radio. Par la suite, la phase de contrôle d’admission des 88 CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT Flux CBR1 CBR2 CBR3 CBR4 CBR5 Type Best Effort Best Effort Best Effort QoS QoS Débit désiré (Kb/s) 319 164 386 129 281 Date d’émission (s) 5 10 15 20 25 Tab. 6.1 – Débits désirés et type de flux deux flux QoS estime qu’il n’y a pas assez de bande passante pour pouvoir les acheminer au débit désiré. Par conséquent, seuls les trois flu x Best Effort sont émis à travers le réseau. L’inconvénient du protocole ABE provient du fait qu’aucune différenciation n’est effectuée entre les flux Best Effort et QoS. L’utilisation du protocole QPART au niveau de la figure 6.7(d) permet de diminuer le débit des flux Best Effort. Cependant, le débit des flux QoS introduits n’est pas stable et subit parfois des dégradations. La cause principale est que la diminution du débit de flux Best Effort n’est pas assez importante car aucune estimation des ressources disponibles n’est mise en place. Avec le protocole DRBT, on estime la bande passante maximale à allouer au flux Best Effort, ce qui permet de garantir aux flux QoS une transmission stable sans dégradation de leur débit comme indiqué au niveau de la figure 6.7(c). Les deux scénarios présentés montrent qu’une estimation de la bande passante résiduelle est efficace pour limiter correctement le débit des flux Best Effort. Beaucoup d’autres scénarios de ce type ont été effectués et dans tous les cas, les conclusions sont identiques. 6.3.3 Taux d’acceptation des flux QoS De par la nature des flux QoS, la fiabilité de leur transmission permet d’estimer la précision des protocoles de qualité de service utilisées. La but de notre protocole DRBT est de réduire efficacement le débit des flux Best Effort afin d’augmenter le taux d’acceptation des flux QoS. Pour évaluer le taux d’acceptation de DRBT nous réutilisons la métrique β défini dans le chapitre 5. Ici nous avons : Nombre de flux QoS admis correctement (6.4) Nombre total de flux QoS à émettre dans le réseau Un flux QoS admis correctement est un flux QoS n’ayant pas subi plus de 5% de dégradation de son débit lors de sa transmission. Cette situation implique donc que l’estimation de la bande passante résiduelle différenciée et la phase de contrôle d’admission sont fiables. Cette métrique va nous permettre d’estimer la fiabilité de l’estimation différenciée de la bande passante résiduelle. En effet, une estimation erronée entraı̂nerait irrémédiablement une dégradation du débit des flux QoS et par conséquent une diminution de la valeur de la variable β. β= 89 CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT Nous avons procédé à des simulations pour estimer la valeur du paramètre β. Le nombre de nœuds dans le réseau considéré varie de 10 à 50 et sont positionnés aléatoirement. Dix connexions CBR, dont cinq Best Effort et cinq QoS sont établies entre des nœuds source et destination choisis aléatoirement. Les débits sont distribués uniformément dans l’intervalle [0-200] Kb/s. Chaque simulation dure 100 secondes et les résultats présentés constituent la moyenne de 30 simulations pour un nombre de nœuds défini. 90 90 AODV ABE QPART DRBT AODV ABE QPART DRBT 80 70 70 60 60 Valeur du paramètre beta Valeur du paramètre beta 80 50 40 30 50 40 30 20 20 10 10 0 0 10 20 30 Nombre de mobiles 40 50 10 20 30 Nombre de mobiles 40 50 (a) Zone de détection de porteuse = 2 × Zone de com- (b) Zone de détection de porteuse = Zone de communication munication Fig. 6.8 – Taux d’acceptation des flux QoS avec les protocoles AODV, ABE, QPART et DRBT Influence de l’évaluation : La figure 6.8(a) représente la valeur du paramètre β en fonction du protocole utilisé. De manière évidente, plus le réseau devient dense, plus le taux d’acceptation β des flux QoS diminue car la bande passante résiduelle des liens devient plus faible. Lorsque le réseau est peu dense (entre 10 et 20 nœuds), le taux d’acceptation est relativement élevé pour notre protocole (70%) tandis que le protocole QPART achemine environ 51% des flux QoS. Ainsi, les deux mécanismes de différenciation de flux et d’estimation différenciée de la bande passante résiduelle permettent d’augmenter le taux d’acceptation des flux QoS. Cependant, lorsque le réseau est moyennement dense (entre 20 et 30 nœuds), le taux d’acceptation des flux QoS de tous les protocoles commencent à diminuer. Toutefois le protocole DRBT arrive encore à acheminer jusqu’à 61% des flux QoS présents. Enfin, lorsque le réseau est très dense (entre 40 et 50 nœuds), la bande passante résiduelle des liens devenant très faible, une diminution du débit des flux Best Effort est insuffisante pour garantir les ressources au flux QoS. Cependant avec DRBT, 10% des flux QoS sont encore acheminés avec les conditions requises alors que les autres protocoles acheminent dans le meilleur des cas 3.5% de ces flux. 90 CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT Influence de la taille de la zone de détection de porteuse : Lorsque la zone de détection de porteuse est égale à la zone de communication (voir figure 6.8(b)), le taux d’acceptation des flux pour les protocoles QPART et ABE est légèrement plus élevé qu’au niveau de la figure 6.8(a) pour un même nombre de mobiles. En revanche, les protocoles QPART et AODV voient une diminution de la valeur de β. En effet, réduire la zone de détection de porteuse permet de décoder un plus grand nombre de paquets émis dans le voisinage d’un nœud. Ceci facilite le mécanisme de différenciation des paquets pour DRBT. L’inconvénient majeur de cette réduction est l’apparition d’un plus grand nombre de topologies de stations cachées, ce qui pose des problèmes à QPART et AODV qui ne savent pas gérer ces situations. Toutefois, cet inconvénient est négligeable pour DRBT et ABE car les estimations de la bande passante résiduelle proposées dans ces protocoles prennent en compte les phénomènes de stations cachées. 91 CHAPITRE 7 Estimation du délai moyen Dans ce chapitre nous nous intéressons à l’étude du délai de transmission dans un contexte ad hoc multi-saut afin de proposer un protocole de qualité de service basé sur cette métrique. Le délai est un critère aussi important que la bande passante pour les applications multimédia qui nécessitent des garanties pour ces deux métriques. Dans ce chapitre, nous présentons DEAN (Delay Estimation in Ad hoc Networks) un protocole de réservation de ressources basé sur le délai moyen comme métrique. La métrique délai désigne le temps que met un paquet pour être acheminé d’une source vers une destination. Contrairement à la bande passante, le délai est une métrique additive. Ainsi, le délai le long d’un chemin est égal à la somme des délais des liens qui constituent ce chemin. Ce temps prend en compte principalement deux étapes : le délai dans la file d’attente des nœuds le long du chemin et le délai de propagation du paquet sur le médium physique. Pour ce travail, nous allons supposer que toutes les horloges des mobiles sont parfaitement synchronisées. Cette hypothèse permet d’avoir une évaluation correcte du délai. Il est clair que dans la réalité, cette synchronisation peut être difficile à obtenir dans un contexte ad hoc. Ce problème a néanmoins été laissé de côté pour ce travail. Nous proposons donc, après avoir dressé un état de l’art sur les techniques d’évaluation du délai moyen, une modélisation permettant d’estimer ce délai moyen sur un chemin à partir des mécanismes mis en place dans ABE. 7.1 Etat de l’art sur les techniques d’évaluation du délai Les auteurs de [60] se sont intéressés à la modélisation du délai de transmission à un saut radio à l’aide de chaı̂nes de Markov à temps discret. Largement basé sur la modélisation de la DCF de 802.11 faite par Bianchi dans [61], ils ont modélisé dans un premier temps la probabilité de collision et la probabilité de transmission en fonction de l’état initial du système. Dans un second temps, grâce au calcul de ces probabilités, ils ont pu en déduire la distribution moyenne du backoff et le temps de service associé en modélisant la file d’attente de l’émetteur par une file M/MMGI/1/K. Cependant, les auteurs stipulent qu’une simple transformation permet d’étendre leurs résultats à des réseaux multi-sauts, mais la problématique devient plus complexe car les 92 CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN hypothèses permettant d’estimer les probabilités de collision ne sont plus valables dans un environnement multi-saut, notamment à cause des interférences et du phénomène des stations cachées. Dans [62], un mécanisme d’estimation du délai à 1 saut radio pour les réseaux ad hoc 802.11 est présenté. Ce mécanisme repose sur une estimation du taux d’occupation du canal radio. Le délai est par la suite pondéré par ce taux d’occupation. Si l’on considère U comme le taux d’occupation du canal et L comme le temps moyen de transmission d’un paquet sur 0 ce canal alors le délai noté d s’écrit : d = U × d + (1 − U ) × L. Lorsque U = 0 correspondant à un canal libre, il n’y a pas de collision et le délai est égal au temps moyen de transmission du paquet. Lorsque le canal n’est pas libre (U 6= 0), alors les auteurs évaluent la valeur 0 du paramètre d qui correspond au temps total des retransmissions incluant les différentes valeurs de backoff choisies à chaque étage de backoff. Cependant, pour des configurations de stations cachées, le canal peut être perçu comme libre par le nœud émetteur (U = 0) alors que des collisions peuvent survenir à la réception. Le principe de [63, 64] est de modéliser un nœud 802.11 par une file M/G/1/K afin d’estimer le temps moyen de service d’un paquet dans la file d’attente des nœuds. Une fois ce paramètre déterminé, les auteurs utilisent une fonction génératrice du temps de service au niveau de la couche MAC qui dépend de la taille du paquet, de la probabilité de collision, et de la taille de la fenêtre de contention. Finalement on obtient le temps moyen de service d’un nœud en estimant la moyenne des temps de service sur la longueur des paquets et leur probabilité de collision. Dans [65, 66] les auteurs estiment le délai d’un lien en calculant la différence de temps s’écoulant entre la création d’un paquet Hello et la réception de ce dernier par le destinataire. Cette approche semble assez simpliste car elle ne prend pas en compte la taille d’un paquet qui peut varier alors que les paquets Hello ont une taille constante. De plus ces paquets Hello n’étant pas acquittés car envoyés en broadcast, en cas de collision il n’y a pas de réémission, tandis que les paquets de données sont retransmis, ce qui tend à augmenter de manière non négligeable le délai de transmission. Dans [67] Tickoo et Sikdar, proposent un modèle analytique basé sur une file G/G/1 afin d’estimer le délai d’un paquet. L’analyse en moyenne présentée dans cet article permet d’obtenir une expression du backoff moyen en fonction de la probabilité de collision. Pour un réseau de n stations, Bianchi donne une formule permettant d’estimer la probabilité de collision en fonction de n. A partir de cette formule les auteurs proposent une résolution numérique afin de déterminer la valeur de la probabilité de collision. Le délai ou temps de service du mobile est alors représenté par le temps mis pour traverser la file d’attente obtenue par la loi de Little et le temps s’écoulant entre l’instant d’arrivée à la couche MAC et l’instant où le canal est libre. Cette dernière valeur n’est pas triviale et nécessite de modéliser le nombre de slots de backoff que le mobile devra attendre entre deux émissions 93 CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN réussies avant de pouvoir émettre sur le canal radio. Finalement on ajoute le temps de propagation sur la canal radio avec les éventuelles retransmissions en cas de collision. Une étude analogue du délai, déduite à partir des probabilités de collision obtenues à l’aide de la modélisation de la DCF faite par Bianchi, est proposée dans [68]. 7.2 Synthèse L’estimation du délai dans un contexte ad hoc multi-saut est un problème complexe. Certaines approches considèrent la métrique délai comme connue ou effectue simplement une différence entre l’instant de départ d’un paquet de découverte de route et l’instant d’arrivée. D’autres travaux plus pertinents, se basent sur une modélisation de la DCF de 802.11, largement inspirée du modèle proposé par Bianchi dans [61]. Cette modélisation permet d’estimer les probabilités du canal radio (probabilité d’accès, de collision, etc.). Par la suite, les auteurs peuvent en déduire une expression du délai de bout en bout. L’inconvénient principal est que les hypothèses effectuées au niveau de ces modèles sont appliquées à une cellule où tous les mobiles sont à portée de communication. De manière plus générale ces hypothèses sont : – Le nombre n de stations en compétition est connu par tous les mobiles et constant. – La probabilité de collision est constante. – Cette probabilité de collision est la même pour tous les nœuds. – Les nœuds sont tous dans la même zone de communication. Il n’y a donc pas de phénomène de stations cachées, ni d’interférences. Les collisions ne proviennent que de l’accès concurrentiel au médium radio. – Le débit est à saturation, c’est-à-dire qu’il y a toujours un paquet à émettre dans la file d’attente des nœuds. L’approximation principale du modèle de Bianchi est que la probabilité de collision est constante et ne provient que de l’accès concurrentiel au médium radio, ce qui permet de l’exprimer en fonction du nombre de stations en compétition. Toutes ces hypothèses fondamentales permettent de simplifier les chaı̂nes de Markov obtenues et de les résoudre, ce qui semble beaucoup plus difficile pour des réseaux multi-sauts. Certaines informations, difficilement récupérables de manière analytique, pourraient être plus facilement obtenues via des mesures réalisées dans un protocole. Nous proposons par la suite, une méthode afin d’estimer le délai de bout en bout dans un environnement ad hoc multi-saut tirant parti de certains mécanismes déjà mis en place au niveau de notre protocole ABE (voir chapitre 4). 94 CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN 7.3 7.3.1 Estimation du délai moyen dans les réseaux ad hoc Hypothèses Comme nous l’avons vu précédemment, le délai désigne le temps que met un paquet pour être acheminé d’une source s vers une destination d. Effectuer la différence entre l’instant de réception d’un paquet et sa date d’émission permet de connaı̂tre le délai d’un seul paquet. Cependant, un protocole de QoS doit être en mesure, lors de la phase de découverte de route, de quantifier un délai moyen en estimant les ressources disponibles à travers le réseau. La méthode d’accès influe fortement sur le délai des paquets. Dans notre étude, le protocole de niveau MAC est la norme IEEE 802.11. Un mobile 802.11 se comporte comme un buffer qui se remplit par des paquets de données et se vide en fonction de la vitesse de traitement de ces paquets de données. Nous modélisons comme dans [69, 70] ce système par une file d’attente M/M/1/K (voir figure 7.1) dont les propriétés sont les suivantes : Fig. 7.1 – Modélisation d’un nœud 802.11 par une file M/M/1/K – L’arrivée des paquets suit une loi exponentielle de paramètre λ. – Le traitement des paquets suit également une loi exponentielle de paramètre µ. – The size of the queue is limited by the value K. When a new packet arrives and there is already K packet in the queue, – La taille de la file est bornée par la valeur K. Lorsqu’un paquet arrive et qu’il y a déjà K paquets dans le système alors celui-ci est perdu. Le paramètre λ qui est le taux d’arrivée des paquets dans la file d’attente du nœud peut être représenté par le débit d’émission désiré par l’application et qui est explicitement fourni lors de la phase de requête de route avec QoS. Le paramètre µ qui est le taux de service du nœud peut être représenté par la bande passante résiduelle autour du mobile considéré. Intuitivement, lorsque µ ≥ λ, la bande passante résiduelle autour du nœud est assez élevée pour la transmission du flux considéré au débit désiré sans congestion du réseau. Dans le cas contraire, la file d’attente du nœud va se remplir progressivement et des pertes de paquets vont survenir entraı̂nant une augmentation du délai. Dans ABE, nous avions déjà proposé un mécanisme pour estimer la bande passante résiduelle autour d’un nœud à partir de l’écoute du support afin de déterminer les périodes de temps libre du canal. Par conséquent, nous sommes en mesure de quantifier la valeur de ce paramètre selon la formule : µ = τi × Cmax avec τi qui est le pourcentage de temps libre 95 CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN du canal autour du nœud i et Cmax la capacité du médium. Nous avons choisi de modéliser le taux de service µ par la bande passante résiduelle d’un nœud car cela permet de prendre en compte deux facteurs : – Le temps s’écoulant entre l’instant où le mobile rentre dans la file d’attente et l’instant où il la quitte. – Le temps que le mobile doit attendre au niveau MAC avant de pouvoir émettre ses paquets, le médium étant occupé par des transmissions voisines. Dans un contexte ad hoc multi-saut, la modélisation de certains paramètres s’avère extrêmement difficile à mettre en œuvre, c’est pourquoi nous récupérons certains paramètres par le biais de mesures. Nous supposons donc que la probabilité de collisions des liens p est connue, car nous avions déjà proposé dans ABE un mécanisme pour l’évaluer grâce aux paquets Hello et d’une interpolation à l’aide des polynômes de Lagrange. 7.3.2 Délai dans la file d’attente des nœuds Nous évaluons dans cette partie le délai moyen dans la file d’attente des nœuds traversés. Ce délai représente la durée qui s’écoule entre l’instant où le paquet rentre dans la file d’attente du nœud et l’instant où il est émis sur le médium radio. Les nœuds 802.11 étant modélisés par des files d’attente M/M/1/K, le délai moyen dans la file d’attente n’est autre que le temps moyen de séjour. Nous représentons l’évolution du nombre moyen de paquets N dans la file par un processus de Markov à temps continu dont les états représentent le nombre de paquets dans la file et les transitions sont les taux d’arrivées λ et les taux de services µ, comme indiqué sur la figure 7.2. Fig. 7.2 – Processus de Markov représentant le nombre de paquets dans la file Soit p(n) la probabilité d’avoir n paquets dans la file avec la contrainte que 0 ≤ n ≤ K. Tout nouveau paquet arrive avec un taux λ ou quitte la file avec un taux µ, d’où les équations suivantes : λ p(0) = µ p(1) λ p(1) = µ p(2) 96 CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN . . . λ p(K − 1) = µ p(K) On pose ρ = µλ . On peut donc exprimer de manière simple p(n) en fonction de p(0) et ρ : p(n) = ρn p(0) pour 0 ≤ n ≤ K K X La somme des probabilités étant égale à 1 ( p(i) = 1), on obtient une expression de i=0 p(0) puis de p(n) : =⇒ 1−ρ si ρ 6= 1 p(n) = ρn 1 − ρK+1 1 si ρ = 1 K +1 D’après la loi de Little, le temps moyen de séjour noté Ts est égal à : p(n) = Ts = N λ K X Ts = i p(i) i=0 λ D’où l’expression finale du temps moyen de séjour dans la file d’attente des nœuds : ρ 1 − (K + 1)ρK + KρK+1 1 si ρ 6= 1 1−ρ 1 − ρK λ Ts = 1 (K + 1) 1 si ρ = 1 2 λ 97 CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN 7.3.3 Délai sur le médium radio Le délai sur le médium radio correspond au délai qui s’écoule depuis l’émission d’un paquet sur le canal radio jusqu’à la réception du paquet d’acquittement correspondant. En cas de collision, ce délai est rallongé à cause des éventuelles retransmissions et de l’augmentation de la taille de la fenêtre de contention. Dans la section 4.1.2.2, nous avions déjà proposé un mécanisme permettant d’évaluer la probabilité de collision p d’un lien radio. Cette méthode estime dans un premier temps la probabilité de collision sur un lien en comptabilisant au niveau du nœud récepteur et sur une période prédéfinie, le ratio entre le nombre de paquets Hello non reçus et le nombre total de paquets Hello que l’on devrait recevoir sur cette même période de mesure. Dans un second temps, une interpolation à l’aide des polynômes de Lagrange permet de prendre en compte la taille des paquets de données. Soit X la variable aléatoire représentant le nombre moyen de retransmissions d’un paquet ayant subi une collision. On a donc les égalités suivantes en terme de probabilité (la norme IEEE 802.11 impose un maximum de C retransmissions) : k p · (1 − p) si k ≤ C pk si k = C + 1 P (X = k) = 0 si k ≥ C + 1 Le nombre moyen de retransmissions n associé a cette probabilité de collision p est égale à l’espérance de la variable aléatoire X : n = E(X) = +∞ X k.P (X = k) = C X k.pk (1 − p) + (C + 1)p(C+1) k=1 k=0 La figure 7.3 représente le nombre moyen de retransmissions en fonction de la probabilité de collision, arrondi à l’entier naturel le plus proche. On remarque que ce nombre moyen de retransmissions croı̂t très lentement lorsque la probabilité de collision est inférieur à 0.5 (une retransmission au maximum lorsque p ≤ 0.5). A partir de cette valeur, la croissance de ce nombre moyen de retransmissions devient exponentielle jusqu’à la valeur maximale de sept retransmissions obtenue pour p = 1. Soit TDIF S la durée d’un DIFS défini par la norme, CWmin la valeur initiale de la taille de la fenêtre de contention et Ttrans le temps de propagation avec succès d’un paquet sur le médium incluant les en-têtes physique, MAC, les données, le SIFS et l’acquittement. Dans ABE, nous avions proposé un mécanisme permettant d’évaluer le nombre de slots de backoff (backof f ) décrémentés depuis le début de la transmission en présence des collisions (c est tel que CWmax = 2c .CWmin avec c ≤ C) :‘ 1−p backof f = · 2 1 − (2p)c pc − pC · CWmin + 1 − 2p 1−p 98 CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN 8 Nombre moyen de retransmissions Nombre moyen de retransmissions 7 6 5 4 3 2 1 0 0 0.2 0.4 0.6 Probabilité de collision 0.8 1 Fig. 7.3 – Nombre moyens de retransmissions en fonction de la probabilité de collision pour C=6 Nous pouvons donc estimer le temps total Tp sur le médium radio : Tp = backof f + n X (TDIF S + Ttrans ) k=0 Tp = backof f + (n + 1) (TDIF S + Ttrans ) Finalement, le délai à un saut radio correspondant au temps de service noté Tserv , est la somme du délai passé dans la file d’attente et du temps passé sur le médium radio : Tserv = Tp + Ts 7.4 (7.1) Implémentation Le délai moyen de l’ensemble des liens radio va être calculé proactivement toutes les secondes afin de faciliter la phase de contrôle d’admission. Cette valeur sera ainsi connue avant l’envoi des paquets de données. La solution passe par l’utilisation des paquets Hello afin de déterminer la probabilité de collision p des liens et le délai moyen vers chacun des mobiles à portée de communication. 99 CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN Dans notre protocole DEAN, chaque seconde, tous les nœuds du réseau envoient des messages Hello vers leurs voisins. Ces messages Hello contiennent deux informations : – Le pourcentage d’utilisation du médium perçu par le nœud émetteur afin de calculer le délai passé dans sa file d’attente. – L’identité du nœud émetteur pour différencier les liens. A la réception de ces messages Hello, les nœuds récepteurs sont en mesure d’estimer le délai avec les nœuds sources selon l’équation 7.1. On obtient ainsi le délai moyen sur chaque lien. Le protocole DEAN est une extension du protocole AODV. Nous cherchons à offrir des chemins pour lesquels le délai de bout-en-bout spécifié par l’application est supérieur à la valeur moyenne estimée le long du chemin. Par exemple, si l’on considère un nœud source 0 désirant communiquer avec un nœud K et que les nœuds i et i + 1 sont à portée de communication (0 ≤ i ≤ K − 1), à portée de communication, alors la contrainte de recherche de routes peut s’exprimer sous forme d’une inégalité : K−1 X di⇒i+1 ≤ Dappli (7.2) i=0 Le paramètre Dappli représente le délai de bout-en-bout désiré par l’application Découverte et maintenance de route : Le mécanisme de recherche de route est semblable à celui adopté dans ABE. Un paquet de RREQ contenant des informations sur le délai désiré, l’identité de l’émetteur et le débit de l’application est envoyé en mode diffusion. Plusieurs contrôles d’admission sont réalisés. Un premier contrôle est effectué par chaque émetteur d’un paquet RREQ. Le but de ce contrôle est de vérifier qu’on ne gêne pas de flux se trouvant en situation de stations cachées. Ce contrôle vérifie qu’on ne crée pas de congestion au niveau de la bande passante via l’estimation de la section 4.1.3. En effet, créer une congestion reviendrait à augmenter le délai des flux existants. Les deuxième et troisième contrôles sont réalisés par chaque nœud intermédiaire qui reçoit la requête. Le deuxième vérifie si l’inégalité de l’équation 7.2 est toujours vérifiée. Cela permet de s’assurer que la route recherchée vérifie bien la contrainte imposée sur le délai par l’application. Le troisième contrôle est un contrôle sur la bande passante afin de vérifier que l’on ne va pas dégrader et donc éventuellement retarder les flux se trouvant dans le voisinage des extrémités du lien. Si tous les contrôles sont positifs, le mobile ajoute son adresse sur la route et additionne son délai avec celui contenu dans le paquet de RREQ, puis transmet le paquet, sinon il le détruit. Lorsque le contrôle d’admission a réussi au niveau du destinataire, ce dernier envoie un paquet de RREP pour indiquer à la source la validité de ce chemin. 100 CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN Lorsqu’aucun message Hello n’est reçu pendant une certaine durée ou que les conditions du réseau ne permettent plus d’acheminer le flux QoS au délai désiré, un message d’erreur (RRER) est envoyé à la source qui reconstruit une nouvelle route. 7.5 Simulations Nous présentons dans ce chapitre les performances de notre protocole de réservation de flux QoS basé sur le délai dans un contexte ad hoc multi-saut. L’implémentation a été réalisée sous le simulateur NS-2 afin de valider les mécanismes mis en place. Notre protocole possède une approche proactive pour l’estimation du délai de l’ensemble des liens radio et une approche réactive pour la recherche de route. L’objectif principal des simulations est de montrer que les routes choisies permettent aux flux QoS d’acheminer leurs paquets de données avec un délai maximum spécifié par l’application. Nous nous sommes intéressés dans un premier temps à un scénario présentant des inégalités d’accès au canal ainsi qu’à une chaı̂ne de transmission. Le but de ces deux scénarios est de comparer la précision de l’estimation du délai obtenue par simulation et par le biais de notre estimation. Par la suite, nous avons effectué des simulations sur des scénarios plus complexes telles que des topologies aléatoires afin de valider le mécanisme de réservation des ressources. Nous comparons également les performances de notre protocole DEAN avec le protocole de routage au mieux AODV. Les paramètres généraux des différentes simulations sont résumés au niveau du tableau 7.1. Paramètres Protocole de routage Protocole MAC Intervalle Hello Taille des paquets Modèle de propagation Capacité du médium Zone de communication Zone de détection de porteuse Taille de la grille Durée des simulations Valeurs DEAN IEEE 802.11b 1s 1000 octets TwoRayGround 2 Mb/s 250 m 550 m 1000 m×1000 m Entre 50 et 100 secondes Tab. 7.1 – Paramètres généraux pour les simulations 101 CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN 7.5.1 Précision de l’estimation du délai de bout-en-bout 7.5.1.1 Stations cachées Afin de mesurer la précision de l’estimation du délai, nous allons nous intéresser au scénario de la figure 3.2 présenté dans le chapitre 3. Le but de ce scénario est d’évaluer la précision de l’estimation du délai à un saut radio en présence de collisions. Nous cherchons à évaluer le délai au niveau du lien A =⇒ B en fonction de la charge du lien C =⇒ D. Nous utilisons deux mesures du délai : – Le délai moyen théorique mesuré avec notre protocole DEAN par le biais des paquets Hello. – Le délai moyen réel obtenu de manière ”offline” en analysant les traces de la simulation. Dans ce cas précis, pour chaque paquet émis, on mesure le délai comme la différence entre la date d’émission et de réception du paquet. Le problème de la synchronisation des horloges énoncé précédemment ne se pose pas car dans la simulation, tous les nœuds ont la même horloge. Le délai réel est obtenu est faisant la moyenne sur le délai de l’ensemble des paquets émis lors de cette simulation. Les résultats obtenus sont présentés au niveau de la figure 7.4 avec un intervalle de confiance. 30 Délai moyen théorique Délai moyen réel Délai de propagation en ms 25 20 15 10 5 0 0 100 200 300 400 500 Débit du lien (C−>D) en kb/s 600 700 800 Fig. 7.4 – Comparaison entre délai moyen théorique et délai moyen réel Pour des débits faibles au niveau du lien C =⇒ D, le délai estimé correspond au temps de transmission avec succès d’un paquet de 1000 octets à 2 Mb/s soit environ 5 ms. Cependant, lorsque ce débit augmente, les émissions du nœud A vont provoquer des collisions au niveau du nœud récepteur B, entraı̂nant des retransmissions de plus en plus fréquentes. Cela se 102 CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN traduit sur la courbe par l’augmentation du délai. Par exemple pour une charge de 500 Kb/s sur le lien C =⇒ D, le délai estimé est d’environ 12 ms. Lorsque la charge est importante (≥ 900Kb/s) tous les paquets émis sur le lien A =⇒ B entrent en collision, le délai devient alors infini. On remarque que quel que soit le débit sur le lien C =⇒ D, le délai théorique obtenu avec le protocole DEAN est proche du délai réel, ce qui traduit la précision de l’estimation du délai moyen pour ce scénario. 7.5.1.2 Chaı̂ne de transmission Nous considérons la topologie décrite au niveau de la figure 7.5, consistant en une chaı̂ne de transmissions à quatre sauts maximum. Le nœud source A transmet ses données vers le nœud destinataire E qui se trouve à quatre sauts. Fig. 7.5 – Chaı̂ne de transmission à 4 sauts A chaque saut, nous estimons le délai moyen obtenu à l’aide de notre estimation et le délai moyen réel afin de comparer les résultats. 160 Délai moyen théorique Délai moyen réel 140 Délai de propagation en ms 120 100 80 60 40 20 0 1 2 3 4 Nombre de saut Fig. 7.6 – Délai moyen théorique et délai moyen réel pour une chaı̂ne à 4 sauts 103 CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN Comme précédemment, nous remarquons au niveau de la figure 7.6 que la valeur théorique du délai moyen de transmission est très proche de la valeur réelle obtenue par simulation, quel que soit le nombre de sauts. Ainsi, pour un saut radio, le délai moyen est égal au temps d’un paquet de 1000 octets à 2Mb/s qui est d’environ 5ms. A deux sauts, les nœuds A et B sont en contention mais il n’y a pas de collision. Le délai est par conséquent rallongé, car le temps de séjour dans la file d’attente du nœud B n’est plus négligeable. A partir de quatre sauts, on est en présence de stations cachées et par conséquent les collisions augmentent de manière significative le délai de bout en bout qui passe de 35 ms pour 3 sauts à 120 ms pour 4 sauts. Dans cette simulation, l’augmentation du délai de transmission est dûe aux collisions mais aussi au temps de séjour des paquets dans la file d’attente des nœuds intermédiaires B, C et D. Les deux scénarios présentés ci-dessus traduisent la précision de l’estimation du délai moyen de bout en bout de notre protocole. 7.5.2 Topologies aléatoires Afin de valider le mécanisme de réservation, nous avons généré un scénario aléatoire constituée de 10 nœuds placés aléatoirement dans un carré de 1000 m×1000 m. Pour chaque flux QoS, nous recherchons une route vers le destinataire dont le délai est inférieur à 100 ms. Cinq flux CBR sont initiés et pour chacun d’entre eux le mobile initiateur de la communication choisit aléatoirement un mobile comme destinataire (celui-ci peut être hors de sa zone de communication nécessitant un routage pour l’atteindre). La simulation dure 50 secondes, le démarrage de chaque flux est espacé de 5 secondes. Au niveau de la figure 7.7(a), lorsqu’AODV est utilisé comme protocole de routage, chaque émetteur recherche une route vers son destinataire sans aucune contrainte en terme de délai. Ainsi la première route stockée est utilisée pour acheminer les données sans tenir compte de l’état de cette dernière. Cette situation entraı̂ne le choix de routes pour lesquelles le délai est supérieur à la valeur maximale de 100 ms. D’après les résultats présentés au niveau du tableau 7.2, le flux 5 a un délai moyen d’environ 1966 ms, ce qui est largement supérieur à la valeur maximale de 100 ms. Lorsque le protocole DEAN est activé (figure 7.7(b)), un contrôle d’admission permet de se rendre compte que les conditions du réseau ne permettent pas d’acheminer les flux numéro 4 et 5 au délai désiré. Par conséquent ces deux flux sont rejetés et tous les autres flux admis sont convoyés avec un délai moyen inférieur à 100 ms. 7.5.3 Taux d’acceptation des paquets QoS La précision de l’estimation du délai moyen de bout-en-bout et de la phase de contrôle d’admission peuvent être évaluées par le biais d’une nouvelle métrique noté α, caractérisant le taux d’acceptation des paquets QoS. En effet lorsqu’un flux QoS est admis, le délai moyen de tous les paquets doit être inférieur à la borne maximale spécifiée par l’utilisateur. Toutefois, il arrive que certains paquets QoS soient acheminés avec un délai moyen légèrement supérieur 104 CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN Délai AODV flux1 Délai AODV flux2 Délai AODV flux3 Délai AODV flux4 Délai AODV flux5 Délai maximal 100 ms 140 Délai des paquets secondes 120 100 80 60 40 20 0 0 5 10 15 20 25 30 35 Date de la simulation en secondes 40 45 50 (a) AODV Délai QoS flux1 Délai QoS flux2 Délai QoS flux3 Délai QoS flux4 Délai QoS flux5 Délai maximal 100 ms 140 Délai des paquets secondes 120 100 80 60 40 20 0 0 5 10 15 20 25 30 35 Date de la simulation en secondes 40 45 50 (b) DEAN Fig. 7.7 – Délai moyen des flux avec les protocoles AODV et DEAN 105 CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN Identifiant du flux Flux Flux Flux Flux Flux 1 2 3 4 5 DEAN (ms) Délai moyen Int. conf (95%) 50.15 [49.17, 51.13] 28.26 [26.31, 30.21] 16.09 [15.65, 16.52] pas admis pas admis pas admis pas admis AODV (ms) Délai moyen Int. conf (95%) 102.52 [97.6, 107.45] 28.88 [25.75, 32.01] 19.92 [19.14, 20.70] pas de route pas de route 1966.39 [1907.30, 2025.49] Tab. 7.2 – Délais moyens obtenus avec DEAN et AODV à cette valeur maximale. Ainsi, nous préconisons une marge de 5% afin de prendre en compte ces situations. Nous pouvons donc estimer pour chaque flux QoS admis, le nombre de paquets dont le délai est inférieur à la valeur maximale spécifiée par l’application plus 5% de marge d’erreur. Soit n le nombre de paquets dont le délai est inférieur à la valeur maximale avec une marge de 5%, et N le nombre total de paquet émis dans le réseau. Nous obtenons la relation suivante : α= n N Plus l’estimation est précise, plus le nombre de paquets dont le délai est inférieur à la valeur spécifiée par l’application est grand et la valeur de α augmente. Dans le cas contraire, cette valeur diminue. Ainsi, le paramètre α permet de caractériser aussi bien la précision de l’estimation que la phase de contrôle d’admission. Toutefois, le délai moyen caractérise le comportement moyen de tous les paquets. Il peut arriver qu’un ou plusieurs paquets QoS possède un délai largement supérieur à la valeur spécifiée par l’application, les raisons pouvant être multiples. Nous avons par la suite procédé à des simulations pour estimer la valeur de la métrique α en fonction du nombre de nœuds dans le réseau. Nous générons des topologies dont le nombre de nœuds considéré varie de 10 à 40 et sont positionnés aléatoirement. Cinq connexions CBR sont établies entre des nœuds source et destination choisis aléatoirement. Les débits sont distribués uniformément dans l’intervalle [0-500] Kb/s et le délai maximal pour chaque flux QoS est de 50 ms. De plus, chaque simulation dure 100 secondes et les résultats présentés constituent la moyenne de 30 simulations. Il est important de remarquer que durant les simulations, nous générons des topologies connexes (il existe toujours un chemin entre n’importe quelle paire de nœuds du réseau) afin que les pertes de paquets ne soient pas causés par des routes non établies. La figure 7.8 représente la valeur de α en fonction du nombre de nœuds présents dans le réseau. Comme l’on pouvait s’y attendre, plus le réseau devient dense, plus la valeur du paramètre α diminue car le délai moyen des liens devient plus faible. 106 CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN 100 DEAN AODV Valeur du paramètre alpha (%) 90 80 70 60 50 40 30 10 20 30 40 Nombre de mobiles Fig. 7.8 – Evaluation de la métrique α avec les protocoles DEAN et AODV Avec le protocole AODV, le taux d’acceptation avoisine 60% pour 10 nœuds et tombe à 40% pour 40 nœuds. Lorsque notre protocole DEAN est activé, le taux d’acceptation passe de 85% pour 10 nœuds à 71% pour 40 nœuds. On constate donc que contrairement à la bande passante résiduelle (voir figure 5.9(a)), augmenter le nombre de nœuds ne diminue pas de manière très importante le délai moyen des paquets. Cela s’explique par le fait que l’augmentation du nombre de nœuds n’entraı̂ne pas systématiquement une augmentation du nombre de sauts entre une source s et une destination d. En moyenne, la longueur des chemins choisis reste identique lorsque le nombre de nœuds augmente dans le réseau, d’où une variation très faible du délai moyen des paquets et par conséquent du taux d’acceptation α. Nous nous sommes par la suite intéressés à l’influence du protocole applicatif au niveau du protocole DEAN. Nous évaluons une fois de plus la valeur du paramètre α en fonction du protocole de niveau applicatif mis en place. Les deux protocoles que nous comparons sont : – CBR : Le flux CBR ou Constant Bit Rate envoie des paquets de données de même taille à une fréquence connue et fixe : le débit reste donc constant tout au long de la simulation. De plus, ce protocole fonctionne en mode non connecté et utilise UDP comme protocole de niveau transport. – FTP : Le protocole FTP ou File Transfer Protocol fonctionne en mode connecté et nécessite des acquittements supplémentaires par rapport aux paquets de données envoyés sur le réseau. Le débit des applications est géré par le protocole FTP et ne peut être spécifié par l’utilisateur. 107 CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN DEAN Délai (ms) 25 50 75 100 90 92 94 95 CBR ([86 ;94]) ([88 ;96]) ([90 ;98]) ([92 ;98]) AODV FTP 66 ([59 ;73]) 74 ([69, 79]) 81 ([77 ;85]) 87 ([82 ;92]) CBR 68 ([62 ;74]) 77 ([73 ;81]) 83 ([79 ;87]) 86([83 ;89]) 59 69 74 77 FTP ([52 ;66]) ([64 ;74]) ([70 ;78]) ([74 ;80]) Tab. 7.3 – Valeur de α avec les protocoles CBR et FTP Le schéma des piles protocolaires mises en place pour cette série de simulation est résumée au niveau de la figure 7.9. Fig. 7.9 – Pile protocolaire mises en place Les simulations mises en place sont constituées de topologies connexes de 20 nœuds positionnées aléatoirement et de 5 flux CBR ou FTP selon le protocole de niveau applicatif utilisé. Les débits des flux CBR sont distribués uniformément dans l’intervalle [0-500] Kb/s et le délai maximal pour chaque flux QoS varie entre 25 et 100 ms. Enfin, chaque simulation dure 100 secondes et les résultats présentés au niveau du tableau 7.3 constituent la moyenne de 30 simulations. Les valeurs se trouvant entre parenthèses représentent l’intervalle de confiance à 95%. L’analyse des résultats du tableau 7.3 permet de dégager trois principales remarques. Premièrement, comme l’on pouvait s’y attendre, l’utilisation du protocole DEAN par rapport à AODV permet d’augmenter le taux d’acceptation de flux QoS. La phase de contrôle 108 CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN Délai (ms) 25 50 75 100 DEAN CBR FTP 8 26 6 20 5 14 4 11 AODV CBR FTP 26 33 16 24 13 22 11 19 Tab. 7.4 – Taux de perte en % avec les protocoles CBR et FTP d’admission élimine les paquets dont le délai moyen est susceptible de dépasser le délai maximal spécifié par l’utilisateur et limite la dégradation des flux existants. Deuxièmement, l’utilisation de CBR permet d’obtenir un taux d’acceptation des flux QoS meilleur qu’avec TCP et ceci quel que soit le protocole de routage utilisé. Par exemple, pour un délai de 25 ms, les valeurs de α sont de 90% avec des flux CBR et de 66% avec des flux FTP, le protocole de routage étant DEAN. Lorsqu’on utilise AODV comme protocole de routage, ces valeurs passent respectivement à 68% et 59%. Ces résultats peuvent s’expliquer par la nature du protocole TCP. Ce protocole fonctionne en mode connecté et nécessite donc l’envoi d’un paquet d’acquittement pour chaque paquet de données envoyé. Ce mécanisme augmente donc le délai des paquets réduisant ainsi le taux d’acceptation par rapport aux flux CBR. De plus, nous n’avons aucun contrôle sur le débit de ces flux ce qui pose un problème pour le contrôle d’admission sur la bande passante résiduelle. Troisièmement, le choix du délai par l’application influe sur le taux d’acceptation. Lorsque ce délai maximum est faible (25 ms), le protocole DEAN arrive à acheminer un taux d’acceptation assez élevé 90% pour des flux CBR tandis qu’AODV achemine environ 68%. Lorsque le délai maximum spécifié par l’utilisateur augmente, le délai des paquets devient plus faible que ce délai maximal et par conséquent le taux d’acceptation de flux QoS peut augmenter quelle que soit la pile protocolaire mise en place. Par exemple, pour un délai de 100 ms, les taux d’acceptation sont respectivement de 95, 87, 86 et 77% pour CBR sur DEAN, FTP sur DEAN, CBR sur AODV et FTP sur AODV. Le tableau 7.4 représente le taux de perte global dans le réseau. Nous définissons ce taux de perte comme le taux de paquets dont le délai est supérieur au double du délai désiré par l’application. On remarque que l’utilisation du protocole DEAN permet de réduire ce taux de perte par rapport à AODV grâce à la phase du contrôle d’admission. Pour les flux CBR, un contrôle sur le débit d’émission que ne nous permet pas le protocole FTP, entraı̂ne une réduction de ce taux de perte. Enfin, plus le délai est grand, plus le nombre de paquets pouvant être acheminés au délai moyen désiré est grand. Par conséquent, le taux de perte est réduit à travers le réseau. Notre protocole DEAN est adapté pour des applications audio qui exigent généralement un taux de perte de paquets inférieur à 20% pour un fonctionnement correct. 109 CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN 7.6 Conclusion Dans ce chapitre, nous avons proposé une méthode permettant d’estimer le délai moyen de bout en bout dans un réseau ad hoc multi-saut. L’estimation du délai moyen de bout en bout proposée peut se décomposer en deux grandes parties : – Le délai moyen dans la file d’attente des nœuds intermédiaires constituant le chemin. Ce paramètre est obtenu en modélisant le nœud 802.11 par une file d’attente M/M/1/K. Les résultats classiques sur la théorie des files d’attente permettent par la suite de dériver une expression du temps moyen de séjour. – Le délai moyen sur le canal radio est obtenu en modélisant le nombre moyen de retransmissions par une variable aléatoire. Nous avons par la suite implémenté une version protocolaire appelée DEAN dont le but est de déterminer des routes dont le délai moyen est inférieur à la valeur demandée par l’application. La précision de l’estimation du délai moyen et du contrôle d’admission permettent de s’assurer que les routes choisies respectent les contraintes applicatives. Les simulations montrent qu’avec des flux CBR, les routes choisies garantissent l’acheminement des données en tenant compte des contraintes applicatives spécifiées. 110 Conclusion et perspectives La facilité de déploiement et l’absence d’une gestion centralisée des communications des réseaux ad hoc en font une solution présentant de nombreux avantages aussi bien dans les domaines civil que militaire. Ces dernières années, de nombreuses recherches ont été menées sur ces types de réseaux et plus récemment, la problématique de la Qualité de Service à été étudiée. Cependant, comme nous l’avons vu dans tout au long de ce document, les caractéristiques propres aux réseaux ad hoc rendent difficile la garantie des ressources. Dans la première partie de cette thèse, nous nous nous sommes intéressés à la problématique de réservation de bande passante dans les réseaux ad hoc multi sauts. Le protocole ABE ainsi développé propose une estimation de la bande passante résiduelle de l’ensemble des liens radio du réseau. Cette estimation se base sur une synchronisation des périodes de temps libre entre les mobiles émetteur et récepteur, combinée à une estimation de la probabilité de collision des liens. ABE adopte un fonctionnement réactif pour la recherche des routes admissibles qui garantissent la transmission des flux QoS avec la bande passante désirée et spécifiée explicitement par l’application. Un contrôle d’admission effectué par chacun des nœuds du réseau permet d’éliminer les routes considérés comme ”non conformes aux exigences”. Les résultats de simulation montrent que le point crucial et difficile lors de la mise en place de protocoles de réservation de bande passante reste l’estimation de la bande passante résiduelle des liens radio. Avec ABE, les routes réservées garantissent le débit des applications. Dans la deuxième partie, nous avons mis en relief le fait que la réservation de bande passante ne peut se faire sans tenir compte de la nature des flux. Nous nous sommes placés dans le cas où deux classes de trafic sont présents : les flux QoS et les flux Best Effort dont la dégradation des ressources est moins importante. Il est possible qu’une grande partie de la bande passante résiduelle soit occupée par ces flux Best Effort, empêchant ainsi aux flux QoS d’effectuer leurs transmissions avec les garanties requises. Pour pallier cette situation, nous avons donc mis en place DRBT, un protocole qui régule le débit des flux Best Effort afin d’augmenter le taux d’acceptation des flux QoS à venir ou existants. La décision de régulation se base sur une estimation différenciée de la bande passante résiduelle prenant en compte la nature des paquets transmis sur le médium radio. L’étude des performances permet d’augmenter de manière non négligeable le taux d’acceptation des flux QoS, tout en 111 CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN utilisant de manière optimisée les ressources du réseau. Enfin, dans la troisième partie le problème de la réservation est une fois de plus abordé. Cependant la métrique considérée est le délai moyen. Moins souvent étudié que la bande passante, le délai est une métrique aussi importante surtout pour les applications multimédia. L’estimation du délai moyen est réalisée grâce à une modélisation des nœuds IEEE 802.11 par une file d’attente M/M/1/K. Les résultats de simulation obtenus montrent que les routes choisies permettent d’acheminer les données avec un délai borné, inférieur à la valeur spécifiée par l’application. Pour conclure, nous pensons que l’estimation de la bande passante résiduelle proposée dans ABE constitue un socle important pour les protocoles de qualité de service dans les réseaux ad hoc. En effet, cette thèse a montré qu’il était possible de dériver, à partir de ce socle, des solutions de qualité de service efficaces avec des objectifs différents. Cependant, ABE ne fournit pas une estimation fiable à 100% pour différentes raisons : – La norme 802.11 dans l’état actuel ne permet pas de récupérer la taille des paquets de données à partir des acquittements associés à ces paquets. Ceci ne nous permet pas de déterminer avec précision le débit des flux qui sont en configuration de stations cachées. – La connaissance des configurations de stations cachées se fait dans ABE grâce au décodage des paquets d’acquittements. Or, il est possible d’avoir deux stations cachées avec un des émetteurs à portée de communication de son récepteur associé tandis que l’autre émetteur n’est pas à portée de communication de ce dernier. Cependant, le deuxième émetteur peut générer de collisions sur ce récepteur. ABE n’est pas en mesure de détecter ces configurations particulières. Améliorer ABE nécessite de s’attaquer aux problèmes précédents. On voit bien que ces deux problèmes nécessitent de comprendre un maximum d’informations dans le réseau, ce qui implique de décoder le maximum de paquets circulant dans le voisinage. On retrouve ce problème dans le protocole DRBT, pour lequel la différenciation des paquets ne peut se faire que grâce à un décodage correct de ceux-ci. Comme nous l’avons vu dans cette thèse, rendre le seuil de détection de porteuse de 802.11 équivalent au seuil de communication est une première solution qui permet un meilleur décodage des paquets. Cet ajustement du seuil de détection de porteuse ne doit pas être utilisé avec n’importe quel protocole, sous peine d’augmenter le nombre de collisions. En revanche, s’il est utilisé avec un protocole capable de quantifier et de contrôler ces collisions, alors il est bénéfique pour le réseau, comme c’est le cas pour ABE ou DRBT. Modifier le seuil de détection de porteuse constitue un premier par vers plus d’informations utiles mais ne permet pas de détecter tous les scénarios de stations cachées. Des améliorations sont encore à apporter et constituent clairement les perspectives à court terme. 112 CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN Au niveau des perspectives à moyen terme, plusieurs pistes me semblent intéressantes. La première serait de comparer le protocole DEAN avec d’autres protocoles de routage basés sur le délai et non seulement avec AODV. Ceci permettrait de comparer la technique d’évaluation du délai moyen. La deuxième piste concerne la simulation de scénarios plus réalistes. L’évaluation des scénarios aléatoires est un premier pas pour l’évaluation des performances des protocoles mais ne reflète peut-être pas des topologies réalistes. Les premiers scénarios plus réalistes envisagés concerneraient les réseaux maillés avec des schémas de communication comme la voix sur IP ou la diffusion de vidéo. A plus long terme, j’aimerais pouvoir comparer les approches de qualité de service proactives des approches réactives. Un premier travail pourrait être de comparer ABE et DEAN avec QOLSR. Un deuxième axe de recherche serait d’étudier l’impact des protocoles proposés sur des profils de trafics différents des trafics CBR utilisés principalement dans toutes les simulations. Les résultats obtenus avec DEAN et TCP dans le chapitre 7 semblent montrer qu’il est difficile de s’affranchir des caractéristiques de TCP dans l’évaluation des ressources disponibles. Si TCP devient un protocole de transport utilisé dans les réseaux ad hoc, ce qui n’est pas si sûr, il faudra alors intégrer son fonctionnement dans l’évaluation des ressources comme nous l’avons fait avec 802.11. Enfin, un dernier point concerne l’implantation réelle de ces protocoles. Ce travail n’est pas aisé car il nécessite de récupérer des informations de la couche MAC, qui ne sont pas fournies par les cartes sans fil actuel. Néanmoins cette étape est fondamentale, car seule une évaluation réelle pourra effectivement valider le fonctionnement des solutions présentées. 113 Liste de publications Journaux internationaux avec comité de lecture [1] Cheikh SARR, Claude Chaudet, Guillaume Chelius and Isabelle Guérin-Lassous - A node-based available bandwith evaluation in IEEE 802.11 ad hoc network - International Journal of Parallel Emergent and Distributed Systems (Taylor Francis) - Volume 21, Issue 6, 2006. Conférences internationales avec comité de lecture [2] Cheikh SARR, Claude Chaudet, Guillaume Chelius and Isabelle Guérin-Lassous - A node-based available bandwith evaluation in IEEE 802.11 ad hoc network - In First International Workshop on System and Networking for Smart Objects (SANSO 2005) - Fukuoka, Japan, July 2005 [3] Cheikh SARR, Claude Chaudet, Guillaume Chelius and Isabelle Guérin-Lassous Improving Accuracy in Available Bandwidth Estimation for IEEE 802.11-based Ad hoc Network - In Proceedings of the The Third IEEE International Conference on Mobile Ad-hoc and Sensor Systems (MASS) - Vancouver, Canada, October 2006 [3] Sofiane Khalfallah, Cheikh SARR and Isabelle Guérin-Lassous - Dynamic bandwidth management for multihop wireless ad hoc networks - In Proceedings of the IEEE 65th Vehicular Technology Conference VTC2007-Spring - Dublin, Ireland, April 2007 Conférences nationales avec comité de lecture [5] Cheikh SARR, Claude Chaudet, Guillaume Chelius and Isabelle Guérin-Lassous - ABE : Un protocole de réservation de bande passante pour les réseaux ad hoc basés sur IEEE 802.11 - In Proceedings of CFIP (Colloque Francophone sur l’Ingénierie des Protocoles) - Tozeur, Tunisie, October 2006 114 CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN [6] Cheikh SARR, Claude Chaudet, Guillaume Chelius and Isabelle Guérin-Lassous Amélioration de la précision pour l’estimation de la bande passante résiduelle dans les réseaux ad hoc basés sur IEEE 802.11 - In Proceedings of JDIR (Journées Doctorales en Informatique et Réseaux ) - Marne la Vallée, France, Janvier 2007 [7] Cheikh SARR and Isabelle Guérin-Lassous - Gestion dynamique de la bande passante dans les réseaux ad hoc - In 9ème rencontre francophones sur les aspects algorithmiques des télécommunications (ALGOTEL 2007) - Ile d’oléron, France, Juin 2007 En attente [8] Cheikh SARR, Claude Chaudet, Guillaume Chelius and Isabelle Guérin-Lassous Bandwidth Estimation for IEEE 802.11-based Ad Hoc networks - In IEEE Transactions on Mobile Computing (IEEE TMC) - 2007 Rapport de Recherche [9] Cheikh SARR, Claude Chaudet, Guillaume Chelius and Isabelle Guérin-Lassous Improving Accuracy in Available Bandwidth Estimation for 802.11-based Ad hoc Networks - Technical Report INRIA number RR-5935 - April 2006 115 Bibliographie [1] Guy Pujolle. Pujolle les réseaux. 6ème Edition. Paris : Eyrolles, 2005. pp. 547 - 549. [2] Guy Pujolle. Pujolle les réseaux. 6ème Edition. Paris : Eyrolles, 2005. pp. 549 - 550. [3] Bluetooth Special Interest Group. En ligne, disponible sur http ://www.bluetooth.org, consulté le 10-12-2006. [4] IEEE Standard for Information Technology - Telecommunications and information exchange between systems - Local and metropolitan area networks. Specific requirements - Part 11 : Wireless LAN Medium Access Control (MAC) and Physical Layer (PHY) Specifications, 1997. [5] Mobile Ad hoc Network (MANET), IETF. En ligne, disponible http ://www.ietf.org/html.charters/manetcharter.html, consulté le 05-10-2006. sur [6] Mühlethaler Paul. 802.11 et les réseaux sans fil. Paris : Eyrolles, 2002. page 281. [7] IEEE 802.3 CSMA/CD (Ethernet) . http ://www.ieee802.org/3/, consulté le 01-01-2007. En ligne, disponible sur [8] Vaduvur Bharghavan, Alan J. Demers, Scott Shenke and Lixia Zhang. MACAW : A media access protocol for wireless LAN’s. In Special Interest Group on Data Communications (SIGCOMM), pages p. 212–225, 1994. [9] Tahiry Razafindralambo and Fabrice Valois. Stochastic behavior study of backoff algorithms in case of hidden terminals. In IEEE Symposium on Personal, Indoor and Mobile Radio Communications (PIMRC), 2006. [10] Hardware specification of http ://www.orinocowireless.com. lucent orinoco wireless pc card, [11] Henrik Lundgren, Erik Nordström and Christian Tschudin. Coping with communication gray zones in IEEE 802.11b based ad hoc networks. Technical report, Uppsala University, Sweden, June 2002. [12] Claude Chaudet, Dominique Dhoutaut and Isabelle Guérin Lassous. Performance issues with IEEE 802.11 in ad hoc networking. IEEE Communications magazine, 43(7), July 2005. [13] Claude Chaudet et Isabelle Guérin-Lassous. Routage QoS et réseaux ad hoc : de l’état des liens à l’état de noeud. Technical report, INSA Lyon (CITI), Janvier 2003. 116 BIBLIOGRAPHIE [14] Philippe Jacquet and Thomas Clausen. Optimized Link State Routing Protocol (OLSR). Internet Request For Comments RFC 3626. Internet Engineering Task Force (IETF), October 2003. [15] C. E. Perkins, P. Bhagwat . Highly Dynamic Destination-Sequenced Distance Vector routing protocol (DSDV). In Proc. of the SIGCOMM 1994 Conference on Communications Architectures, Protocols and Applications, pages 234 – 244, August 1994. [16] J. Moy. Open Shortest Path First Specification (OSPF). IETF RFC 1131, October 1989. [17] J. Moy. Open Shortest Path First v2 (OSPF). IETF RFC 2328, April 1998. [18] J. Malkin. Routing Information Protocol (RIP) Version 2. IETF RFC 1338, January 1993. [19] Richard G. Ogier, Fred L. Templin and Lewis Mark G. Topology Dissemination Based on Reverse-Path Forwarding (TBRPF), Internet Request For Comments RFC 3684. Internet Engineering Task Force (IETF), February 2004. [20] Charles E. Perkins, Elizabeth M. Belding-Royer and Samir Das. Ad hoc On-Demand Distance Vector (AODV) Routing. Internet Request For Comments RFC 3561. Internet Engineering Task Force IETF, July 2003. [21] Yih-Chun Hu, David B. Johnson and David A. Maltz. The Dynamic Source Routing Protocol for Mobile Ad Hoc Networks (DSR), Internet Draft. draft-ietf-manet-dsr-09.txt, April 2003. [22] Zygmunt J. Haas, Marc R. Pearlman and Prince Samar. The Zone Routing Protocol (ZRP) for Ad Hoc Networks - Internet Draft. Internet Engineering Task Force (IETF), July 2002. [23] Raghupathy Sivakumar, Prasun Sinha and Vaduvur Bharghavan. CEDAR (Core Extraction Distributed Ad hoc Routing). The 18th Annual Joint Conference of the IEEE Computer and Communications Societies - IEEE Infocom, pages 202–209, March 1999. [24] M. Jiang, J. Li and Y.C. Tay. Cluster Based Routing Protocol (CBRP). draft-ietfmanetcbrp-spec-01.txt, July 1999. [25] Young-Bae Ko and Nitin H. Vaidya . Location-aided routing (LAR) in mobile ad hoc networks. In Proceedings of the 4th annual ACM/IEEE international conference on Mobile computing and networking, pages p. 66–75, Dallas, Texas, United States, 1999. [26] E. Crawley, R. Nair, B. Rajagopalan and H. Sandick and. A Framework for QoS-based Routing in the Internet. IETF RFC 2386, August 1998. [27] Kui Wu And Janelle Harms. QoS Support in Mobile Ad Hoc Networks. Crossing Boundaries - the GSA Journal of University of Alberta, 1(1) :92–106, November 2001. [28] Claude Chaudet and Isabelle Guérin-Lassous. Etat des lieux sur la qualité de service dans les réseaux ad hoc. In Proceedings of Colloque Francophone sur l’Ingénierie des Protocoles (CFIP’06), pages p. 229–251, Tozeur, Tunisie, 2006. 117 BIBLIOGRAPHIE [29] Stefan Mangold, Sunghyun Choi, Peter May, Ole Klein, Guido Hiertz and Lothar Stibor. IEEE 802.11e Wireless LAN for Quality of Service. In Proceedings of European Wireless 2002 (EW2002), pages 32–39, Florence, Italy, February 2002. [30] M.Jain and C. Dovrolis. Pathload : A measurement tool for end-to-end available bandwidth. In Proceedings of Passive and Active Measurement (PAM), 2002. [31] T. Oetiker. MRTG : Multi Router Traffic Grapher - http ://eestaff.ethz.ch/oetiker/mrtg/mrtg.html. [32] Robert L. Carter and Mark E. Crovella. Measuring bottleneck Link Speed in Packet Switched Network. Technical report, Computer Science Department, Boston University, March 1996. [33] Bob Melander, Mats Bjorkman, and Gunningberg. A new end-to-end probing analysis method for estimating bandwith bottlenecks. In Proceedings of the Fifth Global Internet Symposiumin held in conjunction with Globecom 2000, San Francisco, USA, November 2000. [34] Ravi Prasad, Margaret Murray, Constantinos Dovrolis, and K. Claffy. Bandwidth estimation : metrics, measurement techniques, and tools. IEEE Network, 17(6) :27–35, November 2003. [35] Andreas Johnsson, Bob Melander, and Mats Björkman. Bandwidth Measurement in Wireless Network. Technical report, Mälardalen University, Sweden, March 2005. [36] Samarth H Shah, Kai Chen and Klara Nahrstedt. Available Bandwidth Estimation in IEEE 802.11-based Wireless Networks. In Proceedings of The first ISMA/CAIDA Bandwidth Estimation Workshop (BEST 2003), San Diego, Californie, USA, December 2003. [37] Frank Y. Li, Mariann Haugea, Andreas Hafslund, Oivind Kure and Pal Spilling. Estimating Residual Bandwidth in 802.11-based Ad Hoc Networks : An empirical Approach. In Proceedings of The Seventh International Symposium on Wireless Personal Multimedia Communications (WPMC 2004), Abano Terme, Italy, September 2004. [38] Claude Chaudet, Isabelle Guérin Lassous. BRuIT - Bandwidth Reservation under InTerferences influence. In Proceedings of European Wireless 2002 (EW2002), Florence, Italy, Feb 2002. [39] Claude Chaudet and Isabelle Guérin-Lassous. Evaluation of the BRuIT protocol. In Proceedings of the IEEE 61st Semiannual Vehicular Technology Conference (VTC Spring 2005), Stockholm, Sweden, May 2005. [40] Claude Chaudet. Autour de la réservation de bande passante dans les réseaux ad hoc. PhD thesis, Institut National des Sciences Appliquées de Lyon (INSA), 2004. [41] Yaling Yang and Robin Kravets. Contention Aware Admission Control for Ad Hoc Networks. IEEE Transactions on Mobile Computing, 4 :363–377, 2005. [42] K. Sanzgiri, I. D. Chakeres, and E. M. Belding-Royer. Determining Intra-Flow Contention Along Multihop Paths in Wireless Networks. In Proceedings of BroadNet, San Jose, California (USA), October 2004. 118 BIBLIOGRAPHIE [43] Ronan de Renesse, Mona Ghassemian, Vasilis Friderikos, A. Hamid Aghvami. QoS Enabled Routing in Mobile Ad Hoc Networks. In IEEE 3G 2004, 2004. [44] R. de Renesse, M. Ghassemian, V. Friderikos and A.H Aghvami. Adaptive Admission Control for Ad Hoc and Sensor Networks Providing Quality of Service (AAC). Technical report, King College, London, May 2005. [45] Hakim Badis. Etude et conception d’algorithmes pour les réseaux mobiles et ad hoc. PhD thesis, Université Paris-Sud, Orsay, 2006. [46] Dang Quang Nguyen. Support de la qualité de service dans les réseaux ad hoc. PhD thesis, Université Paris 6 - Pierre et Marie Curie, Septembre 2006. [47] Srinivasan Seshan, Mark Steem and Randy H Katz. SPAND : Shared Passive Network Performance Discovery. In Proceedings of USITS - Usenix Symposium on Internet Technologies and Systems, Monterey, December 1997. [48] K. Nahrstedt, S. H. Shah, and K. Chen. Cross-layer architectures for bandwidth management in wireless networks. In Resource Management in Wireless Networking, New-York (USA), 2005. [49] C. Perkins, E. Royer and SR. Das. Quality of Service for Ad Hoc On-Demand Distance Vector (AODV) Routing. Internet-Draft, July 2000. [50] Dominique Dhoutaut and Isabelle Guérin-Lassous. Experiments with 802.11b in ad hoc configurations. In Proceedings of the fourteenth IEEE International Symposium on Personal, Indoor and Mobile Radio Communications (PIMRC 2003), pages 1618–1622, Beijing, China, September 2003. [51] L. Chen and W. Heinzelman. QoS-aware Routing Based on Bandwidth Estimation for Mobile Ad Hoc Networks. IEEE Journal on Selected Areas of Communication, 3, 2005. [52] J. Yoon, M. Liu and B. Noble. Random waypoint considered harmful. In Proceedings of Infocom 2003, pages 1312–1321, San Fransisco, California, USA, April 2003. [53] Dominique Dhoutaut. Etude du standard IEEE 802.11 dans le cadre des réseaux ad hoc : de la simulation à l’expérimentation. PhD thesis, INSA de Lyon, Laboratoire CITI, Décembre 2003. [54] Fethi Filali. Towards a fully distributed QoS-aware MAC protocol for multihop wireless networks. In IWWAN 2005, International Workshop on Wireless Ad-hoc Networks, May 23rd - 26th 2005, London, UK, May 2005. [55] Gahng-Seop Ahn, Andrew T. Campbell, Andreas Veres and Li-HsiangSun. SWAN : Service Differentiation in Wireless Ad Hoc Networks. In IEEE INFOCOM, 2002. [56] A. Veres, A. Campbell, M. Barry and L-h. Sun. Supporting Service Differentation in Wireless Packet Networks Using Distributed Control. IEEE Journal on Selected Areas in Communications (JSAC), 19 :(10), October 2001. [57] Yaling Yang and Robin Kravets. Distributed QoS Guarantees for Realtime Traffic in Ad Hoc Networks. In IEEE International Conference on Sensor and Ad Hoc Communications and Networks (SECON), pages 118– 127, Oct 2004. 119 BIBLIOGRAPHIE [58] Sally Floyd and Van Jacobson. Random Early Detection Gateways for Congestion Avoidance . IEEE/ACM Transaction on Networking, 1 :397–413, 1993. [59] H. Arora and L. Greenwald. Toward the use of local monitoring and network-wide correction to achieve QoS guarantees in mobile ad hoc networks. In Society Conference on Sensor, Mesh and Ad Hoc Communications and Networks IEEE SECON, 2004. [60] Mustafa Ozdemir and A. Bruce McDonald. An M/MMGI/1/K Queing Model for IEEE 802.11 Ad hoc Networks. In Proceedings of Performance Evaluation of Wireless Ad Hoc, Sensor, and Ubiquitous Networks (PE-WASUN), Italy, October 2004. [61] Giuseppe Bianchi. Performance Analysis of the IEEE 802.11 Distributed Coordination Function. IEEE Journal on Selected Areas in Communications, Volume 18(3) :pages 535–547, March 2000. [62] A. Veres, A. Campbell, M. Barry and L-H SUN. Supporting Service Differentation in Wireless Packet Networks Using Distributed Control. IEEE Journal on Selected Areas in Communications, 19 :10, October 2000. [63] Amina Meraihi Niami and Philippe Jacquet. One-Hop Delay Estimation in 802.11 Ad Hoc Networks Using the OLSR Protocol. Technical Report RR-5327, INRIA, October 2004. [64] Amina Meraihi Naimi. Délai et Routage dans les réseaux ad hoc 802.11. PhD thesis, Université de Versaille Saint-Quentin-En-Yvelines, 2005. [65] H. Badis, A. Munaretto, K. Al Agha and G. Pujolle. Qos for Ad Hoc Networking Based on Multiple Metrics : Bandwith and Delay. In IEEE international conferenceon Mobile and Wireless CommunicationsNetworks (MWCN 2003), 2003. [66] A. Munaretto, H. Badis, K . AL agha and G. Pujolle. A Link-state QoS Routing Protocol for Ad Hoc Networks. In IEEE MWCN’02 : International Workshop On Mobile and Wireless Communications Networks, Sweden, September 2002. [67] Omesh Tickoo and Biplab Sikdar. Queueing Analysis and Delay Mitigation in IEEE 802.11 Random Access MAC based Wireless Networks. In IEEE Infocom, 2004. [68] P. Chatzimisios, A.C. Boucouvalas and V. Vitsas. IEEE 802.11 packet delay - A finite retry limit analysis. In Proceedings of Global Telecommunications Conference, 2003. GLOBECOM’03. IEEE, volume 2, pages 950–954, December 2003. [69] R.S. Wong, S. Shankar, N. Van der Schaar. Integrated application MAC modeling for cross-layer optimized wireless video. In IEEE International Conference on Communications (ICC 2005), volume 2, pages 1271–1275, 2005. [70] Ibrahima Niang and Dominique Seret. Dimensionnement de DiffServ et métriques de performances. In Colloque africain sur la recherche en Informatique - CARI02, Yaoundé, October 2002. 120 Table des figures 1.1 1.2 1.3 1.4 1.5 Architecture en couche de 802.11 . . . . . . . . . . . . . Mode ad hoc et infrastructure de la norme IEEE 802.11 . Exemple d’accès au canal par deux stations concurrentes Une situation de stations cachées . . . . . . . . . . . . . Zones de communication et de détection de porteuse . . . . . . . 10 12 14 15 16 2.1 Recherche de route dans AODV . . . . . . . . . . . . . . . . . . . . . . . . . 21 3.1 3.2 3.3 Voisinage dans la zone de détection de porteuse . . . . . . . . . . . . . . . . Inéquité d’accès au médium . . . . . . . . . . . . . . . . . . . . . . . . . . . Bande passante résiduelle du lien (A,B) en fonction du débit sur le lien (C,D) 29 31 32 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8 4.9 4.10 4.11 4.12 4.13 Occupation médium perçue par le nœud s . . . . . . . . . . . . . . . . . Pire cas : désynchronisation totale entre émetteur et récepteur . . . . . . Meilleur cas : synchronisation totale entre émetteur et récepteur . . . . . Cas général : synchronisation partielle entre émetteur et récepteur . . . . Estimation de la synchronisation du lien (C, D) . . . . . . . . . . . . . . Bande passante résiduelle du lien (C, D) obtenue par synchronisation . . Probabilité de collision au niveau du nœud B . . . . . . . . . . . . . . . . Précision de la probabilité de collision interpolée sur un scénario aléatoire Retransmissions d’un paquet ayant subit des collisions . . . . . . . . . . Influence de la synchronisation pour QOLSR . . . . . . . . . . . . . . . . Stations cachées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fonctionnement du protocole ABE . . . . . . . . . . . . . . . . . . . . . Etablissement d’une route QoS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 37 38 38 40 41 42 44 46 48 49 51 53 5.1 5.2 5.3 Un premier scénario simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . Débits obtenus par les deux flux concurrents avec AODV et ABE . . . . . . Scénarios aléatoires - Débits obtenus avec AODV, AAC, BRuIT et ABE pour des communications à un saut radio . . . . . . . . . . . . . . . . . . . . . . . Scénarios aléatoires - Débits obtenus avec AODV, AAC, QoS AODV, BRuIT et ABE pour des communications multi-sauts . . . . . . . . . . . . . . . . . Quantité de trafic agrégé en Mo à travers le réseau . . . . . . . . . . . . . . Graphe des chemins réservés pour les flux QoS . . . . . . . . . . . . . . . . . 59 59 5.4 5.5 5.6 121 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 64 65 66 TABLE DES FIGURES 5.7 5.8 5.9 6.1 6.2 6.3 6.4 6.5 6.6 6.7 6.8 7.1 7.2 7.3 7.4 7.5 7.6 7.7 7.8 7.9 Débits obtenus avec AODV, AAC, ABE et BRuIT en cas de mobilité . . . . Nombre total de messages de contrôle nécessaires pour l’établissement et la maintenance des routes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Evaluation de la métrique β avec les protocoles AAC, QoS-AODV, BRuIT et ABE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 Communication inter-couches . . . . . . . . . . . . . . . . . . . . . . . . . . Exemple de différenciation de flux . . . . . . . . . . . . . . . . . . . . . . . . Réception d’un paquet RREQ . . . . . . . . . . . . . . . . . . . . . . . . . . Architecture interne d’un nœud DRBT . . . . . . . . . . . . . . . . . . . . . Les 2 paires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Débits obtenus par les deux flux avec AODV, ABE, DRBT et QPART . . . Débits obtenus avec AODV, ABE, DRBT et QPART . . . . . . . . . . . . . Taux d’acceptation des flux QoS avec les protocoles AODV, ABE, QPART et DRBT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 81 83 84 86 87 88 Modélisation d’un nœud 802.11 par une file M/M/1/K . . . . . . . . . . . . Processus de Markov représentant le nombre de paquets dans la file . . . . . Nombre moyens de retransmissions en fonction de la probabilité de collision pour C = 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Comparaison entre délai moyen théorique et délai moyen réel . . . . . . . . . Chaı̂ne de transmission à 4 sauts . . . . . . . . . . . . . . . . . . . . . . . . Délai moyen théorique et délai moyen réel pour une chaı̂ne à 4 sauts . . . . . Délai moyen des flux avec les protocoles AODV et DEAN . . . . . . . . . . . Evaluation de la métrique α avec les protocoles DEAN et AODV . . . . . . . Pile protocolaire mises en place . . . . . . . . . . . . . . . . . . . . . . . . . 95 96 122 69 70 90 99 102 103 103 105 107 108 Liste des tableaux 4.1 Erreur relative due à l’ interpolation . . . . . . . . . . . . . . . . . . . . . . 43 5.1 5.2 5.3 5.4 5.5 5.6 5.7 Paramètres généraux pour les simulations . . . . . . . . . . . . Débits des flux CBR . . . . . . . . . . . . . . . . . . . . . . . Débits des flux CBR . . . . . . . . . . . . . . . . . . . . . . . Taux de perte global dans le réseau . . . . . . . . . . . . . . . Débits des flux CBR en cas de mobilité . . . . . . . . . . . . . Quantité de trafic agrégé et taux de perte en cas de mobilité . Valeur de β pour des tailles de paquets de 1000 et 1500 octets . . . . . . . 58 60 62 63 65 68 72 6.1 Débits désirés et type de flux . . . . . . . . . . . . . . . . . . . . . . . . . . 89 7.1 7.2 7.3 7.4 Paramètres généraux pour les simulations . . . . . . . Délais moyens obtenus avec DEAN et AODV . . . . . Valeur de α avec les protocoles CBR et FTP . . . . . Taux de perte en % avec les protocoles CBR et FTP 123 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 106 108 109