De l`apport d`une évaluation précise des ressources pour la Qualité

Transcription

De l`apport d`une évaluation précise des ressources pour la Qualité
N d’ordre
Année 2007
Thèse
De l’apport d’une évaluation précise
des ressources pour la Qualité de Service
des réseaux ad hoc basés sur IEEE 802.11
Présentée devant
L’Institut National des Sciences Appliquées de Lyon
pour obtenir
Le grade de docteur
Par
Cheikh SARR
À soutenir le 17 Juillet 2007 devant la Commission d’examen
Composition du Jury
K. Al Agha - Professeur (Université Paris-Sud)- Rapporteur
C. Chaudet - Maı̂tre de conférence (ENST Paris)
G. Chelius - Chargé de recherche (INRIA) - Co-Directeur de thèse
B. Ducourthial - Maı̂tre de conférence (UTC)
E. Fleury - Professeur (INSA Lyon)
I. Guérin Lasous - Professeur (UCBL/LIP) - Co-Directrice de thèse
T. Noël - Professeur (Université Louis Pasteur)- Rapporteur
Table des matières
1 Présentation de 802.11
1.1 Le protocole IEEE 802.11 . . . . . . . . . . . . . . . .
1.1.1 Fonctionnement général . . . . . . . . . . . . .
1.1.2 Description du protocole d’accès au médium . .
1.1.2.1 Mécanisme d’accès CSMA/CA . . . .
1.1.2.2 Retransmissions et backoff exponentiel
1.1.2.3 Mécanisme du RTS/CTS . . . . . . .
1.1.2.4 Zones de communication . . . . . . . .
1.2 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
9
10
10
11
13
14
14
15
17
2 Routage ad hoc et qualité de service
2.1 Généralités sur les réseaux ad hoc . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Le routage dans les réseaux ad hoc . . . . . . . . . . . . . . . . . . . . . . .
2.3 La qualité de service dans les réseaux ad hoc . . . . . . . . . . . . . . . . . .
18
18
19
22
3 Etat de l’art sur les techniques d’évaluation de la bande passante résiduelle
3.1 La bande passante résiduelle ou disponible . . . . . . . . . . . . . . . . . . .
3.2 Evaluation de la bande passante résiduelle dans les réseaux filaires . . . . . .
3.3 Evaluation de la bande passante résiduelle dans les réseaux sans fil . . . . . .
3.3.1 Les techniques intrusives . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.2 Les techniques passives . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
25
26
28
28
29
31
4 Une technique d’évaluation de la bande passante résiduelle : ABE
4.1 Une estimation précise de la bande passante résiduelle . . . . . . . . . . . . .
4.1.1 Estimation de la bande passante résiduelle d’un nœud . . . . . . . .
4.1.2 Estimation de la bande passante résiduelle d’un lien : une première
approche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.2.1 Prise en compte de la synchronisation des périodes d’inactivité
4.1.2.2 Prise en compte des collisions . . . . . . . . . . . . . . . . .
4.1.2.3 Prise en compte du backoff . . . . . . . . . . . . . . . . . .
4.1.2.4 Formule d’évaluation de la bande passante résiduelle . . . .
4.1.2.5 Comparaison avec QOLSR . . . . . . . . . . . . . . . . . . .
34
34
35
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
36
36
41
45
47
48
4.2
4.3
4.4
4.1.3 Estimation de la bande passante
Version protocolaire d’ABE . . . . . .
Contrôle d’admission dans ABE . . . .
4.3.1 Découverte de route . . . . . .
4.3.2 Maintenance de route . . . . . .
4.3.3 Contention intra flux . . . . . .
Limitations du protocole ABE . . . . .
résiduelle d’un lien
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
5 Evaluation des performances d’ABE
5.1 Environnement de travail : le simulateur NS-2
5.2 Résultats de simulation . . . . . . . . . . . . .
5.2.1 Un premier scénario simple . . . . . .
5.2.2 Topologies aléatoires . . . . . . . . . .
5.2.3 Evaluation du coût du mécanisme . . .
5.2.4 Précision de l’évaluation . . . . . . . .
5.3 Synthèse . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
: compléments
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
.
.
.
.
.
.
.
6 Co-existence de trafics privilégiés et Best Effort
6.1 Etat de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.1.1 Approches existantes . . . . . . . . . . . . . . . . . .
6.1.2 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . .
6.2 Présentation du protocole DRBT . . . . . . . . . . . . . . .
6.2.1 Idées utilisées dans DRBT . . . . . . . . . . . . . . .
6.2.2 Estimation de la bande passante résiduelle . . . . . .
6.2.3 Régulation du débit des flux Best Effort . . . . . . .
6.2.3.1 Réduction du débit des flux Best Effort . .
6.2.3.2 Augmentation du débit des flux Best Effort
6.2.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . .
6.3 Evaluation des performances de DRBT . . . . . . . . . . . .
6.3.1 Un premier scénario simple : les 2 paires . . . . . . .
6.3.2 Topologies aléatoires . . . . . . . . . . . . . . . . . .
6.3.3 Taux d’acceptation des flux QoS . . . . . . . . . . . .
7 Estimation du délai moyen
7.1 Etat de l’art sur les techniques d’évaluation du délai . . .
7.2 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.3 Estimation du délai moyen dans les réseaux ad hoc . . .
7.3.1 Hypothèses . . . . . . . . . . . . . . . . . . . . .
7.3.2 Délai dans la file d’attente des nœuds . . . . . . .
7.3.3 Délai sur le médium radio . . . . . . . . . . . . .
7.4 Implémentation . . . . . . . . . . . . . . . . . . . . . . .
7.5 Simulations . . . . . . . . . . . . . . . . . . . . . . . . .
7.5.1 Précision de l’estimation du délai de bout-en-bout
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
49
51
52
52
54
54
55
.
.
.
.
.
.
.
57
57
58
58
60
69
70
72
.
.
.
.
.
.
.
.
.
.
.
.
.
.
74
75
75
77
78
78
80
80
81
84
85
85
85
86
89
.
.
.
.
.
.
.
.
.
92
92
94
95
95
96
98
99
101
102
7.6
7.5.1.1 Stations cachées . . . . . .
7.5.1.2 Chaı̂ne de transmission . . .
7.5.2 Topologies aléatoires . . . . . . . . .
7.5.3 Taux d’acceptation des paquets QoS
Conclusion . . . . . . . . . . . . . . . . . . .
4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
102
103
104
104
110
Introduction générale
Sujet de Thèse
L’essor des technologies sans fil offre aujourd’hui de nouvelles perspectives dans le domaine des télécommunications. L’évolution récente des moyens de communication sans fil
permet la manipulation de l’information par des unités de calculs portables accédant au
réseau via une interface de communication sans fil. Ces environnements mobiles offrent une
grande flexibilité d’emploi, en particulier ils permettent la mise en réseau de sites pour lesquels le câblage serait trop onéreux ou complexe à déployer, voire même impossible.
On peut distinguer plusieurs types de réseaux sans fil parmi lesquels les réseaux cellulaires
destinés à la téléphonie mobile tel que le GSM [1] et l’IS95 [2] dits de deuxième génération qui
firent leur apparition dans les années 90. Au début des années 2000, cet essor des réseaux sans
fil s’est poursuivi avec l’apparition des réseaux locaux sans fil ainsi que l’arrivée de nouvelles
technologies. Les équipements sans fil se dotent alors d’interface radio pouvant communiquer
sur des distances de l’ordre de quelques mètres (Bluetooth [3]), ou sur des distances pouvant
aller de quelques dizaines à quelques centaines de mètres (IEEE 802.11 [4]), offrant une couverture radio plus conséquente. Les débits de ces nouvelle technologies peuvent désormais
atteindre des dizaines de mégabits par seconde, favorisant l’émergence d’applications multimédia dans ces réseaux.
Dans un réseau local sans fil basé sur la norme IEEE 802.11, on distingue principalement
deux modes de communication. Dans le premier cas, les transmissions de données passent par
un point fixe appelé point d’accès et ce même si deux mobiles communicants sont à portée de
communication. Cette entité particulière joue le rôle de pont à l’intérieur du réseau sans fil
et souvent de passerelle vers un réseau filaire externe. Chaque point d’accès administre une
zone géographique et assure éventuellement la liaison vers d’autres réseaux. Dans le second
mode de communication, chaque mobile ou nœud du réseau a la possibilité de communiquer
directement avec ses voisins sans intermédiaire. Un nœud peut se connecter, se déplacer ou
se déconnecter du réseau à tout moment. Il n’y a donc aucune infrastructure fixe a priori
et les mobiles n’ont aucune connaissance de leur environnement. Si chaque nœud d’un tel
réseau a la possibilité de router des paquets émis par d’autres nœuds, il devient possible de
communiquer au-delà de sa distance d’émission. On parle alors de réseau ad hoc.
Le caractère fortement dynamique des réseaux ad hoc nécessite l’implémentation de protocoles de routage plus complexes que ceux des réseaux fixes ou avec point d’accès. Les
5
recherches sur les réseaux ad hoc ont suscité un tel engouement qu’un groupe de travail à
l’IETF1 , le groupe MANET [5] (Mobile Ad hoc NETworks), a été créé en 1996 afin de
standardiser des protocoles de routage.
Dans les réseaux filaires, un bon nombre de protocoles actuellement utilisés fonctionnent
correctement et les débits obtenus sur ces réseaux permettent de réaliser des opérations
complexes sous réserve du respect de certaines contraintes. En effet, une application de
diffusion vidéo par exemple nécessite l’assurance d’obtenir et de conserver tout au long de
la transmission une bande passante minimale tandis qu’une application audio a besoin de
garanties sur le délai de transmission et la gigue.
Pour les réseaux ad hoc, certains travaux ont récemment été menés dans le but
d’optimiser le processus de routage en instaurant une certaine Qualité de Service. Les
protocoles proposés dans ce cas prennent principalement en compte les problèmes liés à la
fiabilité de la transmission ou à la dynamicité de l’environnement, occultant très souvent
une évaluation précise des ressources restantes à travers le réseau. Le médium radio par
exemple est soumis à des contraintes. En particulier, un signal radio doit, pour être décodé,
être perçu avec suffisamment de puissance au niveau du récepteur. Il faut d’autre part qu’il
ne soit pas brouillé par d’autres transmissions simultanées. Ceci se traduit par un seuil
du rapport signal sur bruit en-deçà duquel il n’est pas possible de décoder un paquet de
façon fiable. L’effet de plusieurs signaux parasites s’ajoutant, une transmission de données
peut contribuer à en gêner une autre bien au-delà de la portée d’un simple émetteur. Ce
phénomène de brouillage pose un problème lorsqu’il s’agit d’offrir des garanties à un flux de
données. En effet, le débit d’émission d’un nœud, et donc sa capacité à router les paquets
dans le cas d’un réseau ad hoc, est directement fonction de son environnement et varie au
cours du temps. Compte tenu de cette contrainte, il est difficile d’assurer une garantie de
bande passante ou de délai sans connaı̂tre précisément le volume de données que les nœuds
auront à transmettre. Dès lors, il semble indispensable de pouvoir estimer correctement
les ressources disponibles dans son environnement radio avant d’accepter une requête de
qualité de service, sous peine de ne pouvoir assurer le service promis.
La plupart des protocoles de qualité de service proposés pour les réseaux ad hoc supposent
que cette quantité de ressources disponibles est connue ou facile à estimer. Or, les contraintes
précitées complexifient cette estimation. Cette thèse étudie les mécanismes nécessaires pour
évaluer la quantité de ressources disponibles dans un réseau ad hoc et faciliter ainsi le support
de la qualité de service pour ces réseaux. Il s’agit plus précisément d’offrir aux applications des
garanties sur la qualité des flux en tenant compte des contraintes liées à la nature des réseaux
ad hoc (ressources limitées, interférences radio, médium partagé, etc.). Ces garanties passent
au préalable par une estimation précise des ressources résiduelles (bande passante résiduelle,
délai moyen), longtemps négligée ou supposée connue par bon nombre de publications. Nous
nous intéressons principalement à deux métriques qui nous semblent primordiales : la bande
passante disponible et le délai moyen de bout-en-bout.
1
Internet Engineering Task Force
6
Organisation du document et contributions
L’objectif de cette thèse est de proposer des mécanismes permettant d’évaluer les ressources disponibles dans un réseau ad hoc multi-saut.
Le premier chapitre présente brièvement les mécanismes de fonctionnement du protocole
de niveau MAC que nous avons considéré : la norme IEEE 802.11. Cette norme s’est imposée
comme la technologie sans fil de facto pour les réseaux locaux sans fil. Notre approche se base
donc sur celle-ci. De plus, il nous semble difficile de proposer une estimation des ressources
indépendante du protocole sans fil sous-jacent. Par conséquent, pour mettre au point un
protocole d’évaluation des ressources précis, il est nécessaire de bien connaı̂tre la technologie
sans fil sur laquelle le protocole proposé va se reposer. L’étude de cette norme dans ce
chapitre va permettre la mise en place de protocoles de qualité de service fortement adaptés
à la méthode d’accès au médium.
Le deuxième chapitre présente les réseaux ad hoc ainsi que les principaux problèmes
généralement rencontrés dans ce type de réseau. Nous discutons également des différentes
classifications des solutions de qualité de service jusqu’alors rencontrées dans la littérature.
Nous expliquons pourquoi nous nous concentrons sur le routage avec qualité de service.
Le troisième chapitre présente un état de l’art sur les différentes techniques d’évaluation
de la bande passante disponible utilisés dans les protocoles de qualité de service pour les
réseaux ad hoc. Nous finissons ce chapitre en expliquant pourquoi il est encore nécessaire de
travailler sur ce sujet.
Le quatrième chapitre présente ABE (Available Bandwidth Estimation), un protocole de
réservation de bande passante pour les réseaux ad hoc. La principale contribution d’ABE
est de proposer des mécanismes qui permettent d’estimer de façon fiable la bande passante
résiduelle de l’ensemble des liens radio d’un réseau ad hoc. Ces mécanismes concernent la
prise en compte de la synchronisation nécessaire des périodes de silence d’un émetteur et d’un
récepteur à portée radio sur un lien, l’amélioration de l’estimation des collisions dans le réseau
et une meilleure intégration du scénario des stations cachées dans l’évaluation. Tous ces
mécanismes participent à la consommation de la bande passante et il est important de bien les
quantifier lors de l’estimation. Ainsi, à chaque instant, la bande passante résiduelle de tous les
liens radio du réseau est connue. Cette connaissance facilite la phase de contrôle d’admission
des flux. Le processus de routage, utilisé dans ABE, est fortement inspiré d’AODV. Il permet
de trouver des routes à la demande en fonction des spécifications des couches applicatives.
Le chapitre suivant est consacré à l’évaluation des performances d’ABE.
Dans un réseau ad hoc, nous pouvons être en présence de trafics au mieux ou Best Effort
qui consomment une part non négligeable de la bande passante. Par conséquent, les flux de
qualité de service ne peuvent établir des routes offrant la bande passante désirée, une partie
de celle-ci étant occupée par ces transmissions Best Effort. Dans le sixième chapitre, nous
proposons un protocole appelé DRBT (Dynamic Regulation of Best Effort Traffic) capable
de dégrader le débit des flux non privilégiés afin d’augmenter le taux d’acceptation des flux
7
avec qualité de service. Cette dégradation nécessite au préalable une estimation de la bande
passante résiduelle spécifique aux flux QoS. Pour ce faire nous partons du protocole ABE
auquel nous rajoutons un mécanisme de différenciation des flux dans l’évaluation de la bande
passante résiduelle.
Le septième chapitre présente un protocole de réservation de délai pour les réseaux ad
hoc. La principale contribution est d’estimer le délai moyen de bout-en-bout des flux. Ce
délai peut se décomposer en deux composantes principales :
– Le délai de buffering dans la file d’attente des nœuds .
– Le délai de transmission sur le médium radio.
Les principaux mécanismes développés dans ABE ont été étendus afin d’estimer le délai de
bout-en-bout des flux QoS. Le protocole DEAN (Delay Estimation in Ad Hoc Network) ainsi
mis en place repose sur une corrélation entre délai et bande passante résiduelle.
Enfin, le huitième et dernier chapitre conclut cette thèse. Avant de rentrer dans le cœur
du document, il est important de noter que toutes les solutions proposées dans cette thèse
reposent sur une version de 802.11 non modifiée.
8
CHAPITRE
1
Présentation de 802.11
La mise en place de réseaux sans fil multi-sauts nécessite l’utilisation d’une technologie
sans fil qui permet aux mobiles à portée de communication de dialoguer. Le rôle de cette
technologie est de permettre aux mobiles d’accéder au canal radio, de gérer cet accès concurrentiel afin d’éviter le monopole du canal radio par certaines stations et de communiquer.
Dans la seconde moitié des années 90, plusieurs technologies sans fil on vu le jour, laissant
entrevoir des nouvelles perspectives pour l’utilisation des ces réseaux.
Elaborée sous la tutelle de l’E.T.S.I. (European Telecommunications Standards Institute),
Hiperlan1 est une norme européenne. Elle offre à l’origine un débit de 20 Mbps, mais la
version la plus récente (Hiperlan2) permet d’atteindre des débits de l’ordre de 54 Mbps. Son
originalité réside dans le fait qu’Hiperlan (versions 1 et 2) exploite la gamme de fréquence
autour des 5 GHz utilisable sans aucune autorisation spécifique. Cela permet aujourd’hui
son exploitation pour un usage local, sous certaines conditions de limitation de puissance
des émetteurs. Néanmoins, peu d’équipements Hiperlan ont pénétré le marché commercial.
Bluetooth a comme objectif de faire disparaı̂tre les câbles entre divers équipements
numériques (périphériques d’ordinateurs tels que claviers, souris, imprimantes, modems,...).
Les réseaux Bluetooth ont été développés pour permettre la réalisation de réseaux personnels
(PAN : Personnal Area Network). Les réseaux Bluetooth sont construits de manière centralisée. Un maı̂tre élu contrôle toutes les transmissions des autres stations appelées esclaves
formant ainsi un piconet. Les esclaves ne peuvent émettre des paquets que s’ils y ont été
invités par le maı̂tre. Ce dernier doit donc les interroger régulièrement pour savoir s’ils ont
des données à envoyer. Les équipements bluetooth ont une portée limitée, de l’ordre du mètre
et des débits assez modestes combinés à une faible consommation d’énergie.
Plus récemment, la technologie WIMAX pour Worldwide Interoperability for Microwave
Access a vu le jour bien qu’elle soit encore en phase de tests. Egalement connue sous la
désignation d’IEEE 802.16, le WIMAX est un standard de transmission sans fil à haut débit.
Fonctionnant à 70 Mbps, il est prévu pour connecter les points d’accès WIFI à un réseau de
fibres optiques, ou pour relayer une connexion partagée à haut débit vers de multiples utilisateurs. Avec une portée théorique de 50 km, il devrait permettre, à terme, le développement de
réseaux métropolitains reposant sur un unique point d’accès, contrairement aux architectures
basées sur de nombreux points d’accès WIFI.
Cependant, la norme qui semble actuellement s’imposer au niveau mondial est la norme
IEEE 802.11 [6]. Elle a connu un tel succès que son appellation commerciale est devenue
9
CHAPITRE 1. PRÉSENTATION DE 802.11
le WIFI pour Wireless Fidelity. Le WIFI est promulgué par un consortium appelé le Wi-Fi
alliance, chargé de maintenir l’interopérabilité entre les équipements répondant à la norme
802.11.
Dans ce chapitre nous allons détailler la norme IEEE 802.11 et plus spécifiquement le
protocole d’accès au médium. Nous nous intéressons plus particulièrement à cette norme
car c’est la technologie que nous utilisons dans la suite de nos travaux. De plus, nous nous
concentrons sur le protocole d’accès au médium car comme nous le verrons, ce protocole a un
impact important sur les techniques d’évaluation de ressources que nous cherchons à mettre
en place.
1.1
1.1.1
Le protocole IEEE 802.11
Fonctionnement général
Le protocole 802.11 est une norme établie par l’IEEE qui décrit plusieurs couches physiques ainsi qu’une couche LLC et MAC pour les réseaux locaux sans fil. L’architecture en
couche de 802.11 (figure 1.1) rappelle celle de 802.3, le célèbre Ethernet [7]
Fig. 1.1 – Architecture en couche de 802.11
Les quatre couches physiques constituant la norme définissent différents codages afin de
transmettre de manière fiable les données en multiplexant plusieurs canaux de transmission.
– La technique FHSS (Frequency Hopping Spread Spectrum) ou étalement de spectre
par saut de fréquence consiste à diviser la bande de fréquence en 75 canaux d’une
largeur de 1Mhz chacune, puis de transmettre en utilisant une combinaison de canaux
connue de toutes les stations de la cellule. La transmission se fait ainsi en émettant
successivement sur un canal puis sur un autre pendant une courte période de temps
(d’environ 400 ms).
– La technique DSSS (Direct Sequence Spread Spectrum) ou étalement de spectre à
séquence directe transmet chaque bit en utilisant 11 changements d’état du signal.
10
CHAPITRE 1. PRÉSENTATION DE 802.11
Ainsi, l’émission de chaque bit correspond à la transmission d’une séquence de 11 bits
appelée séquence de Barker. La bande de fréquence est alors divisée en 14 canaux d’une
largeur de bande de 22Mhz.
– La technique OFDM (Orthogonal Frequency Division Multiplexing ) divise sur un grand
nombre de porteuses le signal numérique à transmettre. Pour que les fréquences des
porteuses soient les plus proches possibles et ainsi transmettre le maximum d’information, l’OFDM utilise des porteuses orthogonales entre elles. Par conséquent, dans
un canal de transmission avec des chemins multiples où certaines fréquences seront
détruites, le système sera en mesure de récupérer l’information perdue sur d’autres
fréquences porteuses. Ce principe permet de limiter l’interférence entre symboles.
– La norme IEEE 802.11 propose également une alternative à l’utilisation des ondes
radio par le biais de la lumière infrarouge. Les transmissions se font de manière
unidirectionnelle ou par réflexion.
Dans la première version de 802.11, la bande de fréquences utilisées était celle des
900 MHz. Avec les différentes extensions, d’autres bandes de fréquences ont commencé à être
exploitées. C’est ainsi que les bandes de fréquences dédiées au monde industriel, médical
et scientifique, plus communément appelé bande ISM située autour des 2,4 GHz (de 2,4 à
2,495 GHz) sont utilisées pour les versions de 802.11 (1999), 802.11b et 802.11g. Les bandes
de fréquences autour des 5 GHz sont également utilisées pour les versions 802.11a et 802.11n
(802.11n peut aussi bien fonctionner avec la bande des 2,4 GHz qu’avec celle des 5 GHz).
Les débits possibles varient entre 1 et 54 Mbps suivant les techniques de modulation et
les éventuelles extensions de la norme. Cependant la nouvelle norme 802.11n, en cours de
standardisation, permet d’entrevoir des débits de l’ordre de 100 Mbps. Les portées prévues
varient de quelques dizaines à quelques centaines de mètres en fonction des débits et de
l’environnement.
Les techniques de codage de ces différentes couches physiques utilisent plusieurs canaux
de transmission. Cependant, la plupart des protocoles pour réseaux ad hoc n’utilisent qu’un
unique canal pour communiquer. Même si cette solution pose essentiellement des problèmes
d’interférences, elle facilite tout de même la conception des protocoles pour ces réseaux.
Cette norme cible deux contextes d’utilisation :
– Le mode infrastructure (figure 1.2(a)) où les stations de base assurent la couverture
d’une certaine zone et prennent en charge les communications entre mobiles dans cette
zone.
– Le mode ad hoc (figure 1.2(b)) qui permet les communications entre mobiles sans
intervention d’une station de base ou d’autres mobiles extérieurs. Ce mode ne permet
que les transmissions entre mobiles à portée de communication.
1.1.2
Description du protocole d’accès au médium
Au-dessus de la couche physique, la couche MAC de la norme IEEE 802.11 définit deux
modes d’accès au médium :
11
CHAPITRE 1. PRÉSENTATION DE 802.11
(a) Mode infrastructure
(b) Mode ad hoc
Fig. 1.2 – Mode ad hoc et infrastructure de la norme IEEE 802.11
– Le mode PCF (Point Coordination Function) où la station de base gère les communications entre les mobiles se trouvant dans sa zone de couverture. Une station ne peut
émettre que si elle est autorisée par cette dernière.
– Le mode DCF (Distributed Coordination Function) est basé sur une écoute permanente
du médium par les stations désirant émettre. La plupart des cartes 802.11 proposées
sur le marché utilisent ce mode d’accès au canal radio, lequel s’inspire très fortement
du protocole d’accès au médium MACAW [8]. Nous allons décrire son fonctionnement
dans la suite de ce chapitre car c’est le mode d’accès que nous considérons dans tout
ce travail.
Dans le mode DCF, les transmissions s’effectuent en mode diffusion ou broadcast, d’une
station vers plusieurs récepteurs ou en mode point à point ou unicast, d’une station vers un
unique récepteur. Dans ce dernier cas, en cas de transmission réussie, le récepteur renvoie
à l’émetteur une trame d’acquittement (ACK) afin d’indiquer à ce dernier que la trame
de données a été reçue correctement. Les trames envoyées en mode diffusion ne sont pas
acquittés, du fait de la génération de plusieurs acquittements simultanés, ce qui entraineraı̂t
des collisions potentielles sur les acquittements ainsi qu’une surcharge du réseau.
La norme définit également trois variables temporelles ou IFS (Inter Frame Space) qui
caractérisent le temps s’écoulant entre l’envoi des trames.
– Le SIFS pour Short Inter Frame Space est utilisé pour séparer l’instant de réception
des données et l’envoi d’un acquittement correspondant. C’est le plus petit écart entre
deux trames et il y a toujours, au plus, une seule station pour transmettre à cet instant.
Cette valeur est fixée par la couche physique et est calculée de façon à laisser le temps
à la station émettrice de commuter en mode réception pour pouvoir décoder le paquet
entrant. Sa valeur est de 10 µs dans 802.11b.
12
CHAPITRE 1. PRÉSENTATION DE 802.11
– Le DIFS (DCF Inter Frame Space) est le temps d’attente d’une station voulant commencer une nouvelle transmission. Sa valeur est de 50 µs.
– Enfin, l’EIFS (Extended Inter Frame Space) est défini par la norme de la manière
suivante : ”L’EIFS doit être utilisé par la DCF à chaque fois que la couche physique
indique à la couche MAC qu’une transmission a commencé et qu’elle ne résulte pas
en une réception correcte de la trame MAC avec une valeur FCS correcte”. Il n’est
actuellement pas clair si cette partie de la norme est correctement implantée dans les
cartes sans fil du marché et très souvent, la communauté considère que l’EIFS est
utilisé quand une station perçoit un signal qu’elle ne peut décoder. Elle diffère alors sa
transmission d’un temps égal à EIFS, afin de ne pas provoquer de collision avec cette
communication en cours. Sa valeur est de 364 µs.
1.1.2.1
Mécanisme d’accès CSMA/CA
Le mécanisme d’accès DCF implémente un algorithme CSMA/CA pour Carrier Sense
Multiple Acces with Collision Avoidance dont le but est d’éviter les collisions. Un mécanisme
de type CSMA fonctionne comme suit : une station voulant émettre écoute le support de
transmission, et si ce dernier est occupé (une autre station est en train d’émettre), alors
la station diffère sa transmission. Si le support redevient libre, la station est autorisée à
transmettre. Ces types de protocoles sont très efficaces quand le support n’est pas surchargé,
puisqu’il autorise les stations à émettre avec un minimum de délai. Cependant il y a toujours
un risque pour que des stations émettent en même temps et engendrent des collisions.
Il est donc nécessaire de pouvoir éviter au maximum ces collisions. Le mécanisme du backoff est utilisé dans ce but. Il repose sur le tirage aléatoire, dans un intervalle appelé fenêtre
de contention, d’un nombre appelé backoff, par une station désirant accéder au médium. Ce
nombre est compris entre 0 et une valeur maximale correspondant à la taille de la fenêtre de
contention et notée initialement CWmin . La station devra ainsi attendre en plus du DIFS,
une durée supplémentaire équivalente au backoff multiplié par la durée d’un slot, le slot
correspondant à l’unité de temps du standard. Dans le mode DSSS de 802.11b, le slot correspond à une durée de 20µs. Lorsque le support est libre, les nœuds décrémentent leur backoff
d’une unité à chaque slot. La première station atteignant la valeur 0 émet ses informations
sur le canal radio.
Si pendant la décrémentation du backoff une nouvelle transmission est détectée, la
décrémentation du backoff est interrompue et ne pourra reprendre qu’en cas de libération
du canal radio.
La figure 1.3 décrit un exemple d’accès concurrentiel au canal radio lors d’une transmission par deux stations A et B à portée de communication radio. Les stations A et B
souhaitent émettre chacune une trame à la même date. Après une durée d’attente commune
DIFS, la station A qui choisit le plus petit backoff accède au canal et transmet sa trame.
Pendant cette durée d’émission, le nœud B ne peut accéder au canal qu’il voit occupé. Après
la réception de l’acquittement correspondant au niveau du nœud A, indiquant que la transmission s’est déroulée correctement, le nœud B peut alors effectuer sa transmission après
avoir décrémenté son backoff restant.
13
CHAPITRE 1. PRÉSENTATION DE 802.11
Fig. 1.3 – Exemple d’accès au canal par deux stations concurrentes
1.1.2.2
Retransmissions et backoff exponentiel
Dans l’exemple précédent, les transmissions se déroulent sans collision et chaque trame
est correctement acquittée. Ce n’est pas toujours le cas et il peut y avoir des collisions qui
doivent être détectées, pour que la couche MAC puisse retransmettre le paquet sans avoir
à repasser par les couches supérieures, engendrant alors des délais significatifs. La détection
des collisions est indiquée par l’absence de réception d’un acquittement au bout d’un timeout
et provoque la retransmission de la trame jusqu’au succès ou jusqu’à atteindre un nombre
maximal de retransmissions autorisées. Dans ce dernier cas, la trame est détruite.
A chaque nouvelle retransmission, le protocole 802.11 double la valeur de la taille de la
fenêtre de contention afin de réduire le risque de collision. Cette progression est bornée par
une valeur maximale CWmax . Lorsqu’une trame est reçue correctement, ou rejetée, la fenêtre
de contention est ramenée à sa valeur initiale.
1.1.2.3
Mécanisme du RTS/CTS
Nous avons vu que le mécanisme CSMA/CA cherche à éviter au maximum les collisions
par l’écoute du canal et en introduisant un délai aléatoire supplémentaire avant une émission.
Cependant, il existe une famille de configurations pour lesquelles ce mécanisme est inadapté :
il s’agit du problème des nœuds cachés [9] où deux émetteurs qui ne peuvent pas s’entendre
veulent atteindre un même récepteur comme représenté au niveau de la figure 1.4
Les stations émettrices A et B étant totalement désynchronisées, aucun de ces deux
émetteurs ne détectent l’activité de l’autre et chaque station croit que le canal est libre. Dans
ce cas, les émissions des stations A et B provoquent des collisions au niveau du récepteur B.
Afin de remédier à ce problème, 802.11 propose un mécanisme utilisant des paquets de
contrôle appelés RTS (Requet To Send) et CTS (Clear To Send). Un mobile voulant émettre
envoie au préalable au récepteur une requête d’émission RTS. A ce paquet RTS, le récepteur,
14
CHAPITRE 1. PRÉSENTATION DE 802.11
Fig. 1.4 – Une situation de stations cachées
si le canal radio est disponible, va répondre par un paquet CTS qu’il diffuse à son voisinage,
autorisant l’émetteur à transmettre. L’intervalle de temps séparant la réception du RTS
et l’émission du CTS correspondant est égal à SIFS afin d’empêcher l’interruption de cet
échange par une autre trame. Ces deux types de paquets contiennent des informations qui
permettent la réservation du canal pour la durée de la transmission de données correspondante. Un mobile qui reçoit un CTS sait qu’une station va émettre et doit donc attendre.
Le mobile qui a envoyé le RTS et recevant le CTS correspondant sait que le canal lui a
été réservé et qu’il peut émettre. Ce principe de réservation du canal par l’envoi de petits
paquets de contrôle est appelé détection de porteuse virtuelle ou Virtual Carrier Sense. La
période de réservation est stockée dans le vecteur d’allocation du réseau (NAV - Network
Allocation Vector).
Ce mécanisme permet de réduire l’impact des collisions sans toutefois les supprimer
entièrement. Il peut arriver que des paquets RTS émis en même temps par les nœuds A et
B entrent en collision au niveau du récepteur C ou que le paquet CTS subisse une collision.
1.1.2.4
Zones de communication
La qualité du signal radio en réception va directement caractériser la précision du
décodage des informations reçues. La transmission du signal radio dans l’air est un mécanisme
complexe affecté par divers phénomènes :
– Plus la puissance d’émission est grande, plus la zone de couverture radio l’est aussi.
Cependant comme nous l’avons vu précédemment la puissance des équipements est
réglementée. En France, l’ART1 limite la puissance d’émission des mobiles WIFI à
100mW.
1
Autorité de régulation des télécommunications
15
CHAPITRE 1. PRÉSENTATION DE 802.11
– Les signaux radio subissent un affaiblissement en fonction de la distance et du milieu
traversé. Pour une bonne compréhension des signaux reçus, ces signaux doivent être
reçus avec une puissance supérieure à une puissance minimale, cette dernière étant
fonction du débit d’émission.
– D’autres perturbations du signal en réception proviennent des signaux environnants
émis simultanément dans la même bande de fréquence, empêchant un décodage des
informations. Ainsi le SINR (Signal to Interference and Noise Ratio) représentant le
rapport entre la puissance du signal reçu et la somme des puissances des communications interférentes est donné par la formule :
Pr
SIN R = P
Psignauxinterf erents
Ce SINR, qui donne une indication sur la qualité du signal, doit être supérieur à une
valeur seuil pour que les cartes 802.11 puissent décoder proprement le signal reçu. Par
exemple, selon les données du constructeur Orinoco [10], il faut un SINR ≥ 7 dB pour
un débit de 2 M b/s.
Fig. 1.5 – Zones de communication et de détection de porteuse
La norme 802.11 définit pour tout mobile deux zones radio. Une zone dite de communication dans laquelle tout nœud récepteur est capable de décoder proprement le signal envoyé
par la source. Une zone dite de détection de porteuse (figure 1.5) dans laquelle le récepteur ne
peut décoder proprement le signal envoyé par la source bien que le mécanisme de détection
de porteuse détecte une activité sur le médium. Ceci signifie que tout nœud non à porté
de communication d’une source mais se trouvant dans la zone de détection de porteuse de
cette source ne pourra émettre en même temps que celle-ci. Le partage du médium radio
se fait donc aussi bien dans la zone de communication que dans la zone de détection de
porteuse. Cette dernière remarque est importante dès lors que l’on s’intéresse à l’évaluation
des ressources disponibles.
16
CHAPITRE 1. PRÉSENTATION DE 802.11
1.2
Synthèse
L’utilisation d’un protocole tel que IEEE 802.11, initialement prévu pour des réseaux avec
station de base, pose certains problèmes lors d’une migration vers un environnement ad hoc.
Par exemple, dans [11], les auteurs mettent en exergue le fait que les paquets utilisés afin de
découvrir les mobiles voisins sont émis à un débit de 2 Mb/s. Par conséquent, ils sont reçus
à des distances plus grandes que celles des paquets de données émis à 11 Mb/s, ce qui peut
générer des informations erronées sur le voisinage effectif des mobiles. De plus, les collisions
sur les paquets de diffusion, qui véhiculent généralement des informations importantes sur la
topologie, ne sont pas détectées lorsque le réseau devient dense. Il existe aussi des topologies
pour lesquelles on constate une inéquité d’accès engendrée par le mécanisme CSMA/CA
de 802.11. Les auteurs de [12] présentent les performances du protocole 802.11b pour des
topologies simples présentant des inégalités d’accès au médium radio. En dépit de toutes
ces contraintes, les protocoles ad hoc proposés doivent pouvoir s’adapter aux spécificités de
802.11 car la migration vers une autre technologie de niveau MAC ne semble pas être la voie
envisagée dans un futur proche.
Dans ce chapitre, nous avons exposé les principaux mécanismes utilisés par la norme IEEE
802.11. La compréhension de ces mécanismes est importante pour faciliter l’évaluation des
ressources dans un contexte ad hoc. En effet, cette estimation est très fortement dépendante
de la méthode d’accès au canal radio. Il paraı̂t donc primordial lorsqu’on veut assurer des
garanties à une application de pouvoir identifier les trafics susceptibles d’être en concurrence
avec les émetteurs de ces flux privilégiés. Les mécanismes à mettre en place doivent être en
mesure de collecter et de maintenir des informations fiables qui reflètent l’état du réseau.
Dans toute la suite de nos travaux, 802.11 en mode DCF est utilisé comme protocole d’accès
au médium. Aucune modification de ce protocole n’est effectuée par la suite.
17
CHAPITRE
2
Routage ad hoc et qualité de
service
La recherche dans le domaine des réseaux ad hoc s’est d’abord concentrée sur la conception de protocoles de routage. Les réseaux ad hoc introduisent de nombreuses contraintes
liées essentiellement au médium radio et à la mobilité inhérente des utilisateurs. Ainsi, le
processus de routage vers des destinataires mobiles devient une tâche ardue et d’autant plus
complexe dans le cas où l’expression de certaines contraintes qualité de service sont rajoutées
au niveau des transmissions.
Dans ce chapitre, nous exposons quelques généralités sur les réseaux ad hoc afin de
comprendre les phénomènes susceptibles de perturber le processus de routage avec QoS. Nous
présentons ensuite les mécanismes et les problèmes liés au routage et enfin nous discutons
brièvement des approches proposées pour mettre en place de la qualité de service dans un
contexte ad hoc.
2.1
Généralités sur les réseaux ad hoc
Les réseaux ad hoc sont des réseaux sans fil et sans infrastructure fixe, où chaque nœud
peut aussi bien jouer le rôle d’émetteur (initiateur de la communication), de routeur (relayage
des informations vers d’autres mobiles) que de destinataire (réception et traitement des
informations). Les réseaux ad hoc sont auto-organisés ce qui implique que la connectivité doit
être préservée autant que possible en cas de changement de topologie (suite à l’apparition, la
disparition ou aux mouvements de certains nœuds) sans intervention humaine. Ainsi, la seule
présence des terminaux équipés d’une carte d’interface sans fil suffit à créer et maintenir un
réseau ad hoc.
Vers le début des années 1970, les réseaux ad hoc ont été conçus principalement pour des
applications militaires. Cependant, avec le développement de l’Internet et la démocratisation
des équipements sans fil, les possibilités d’utilisation de ces réseaux semblent beaucoup plus
étendues. Les applications que l’on entrevoit actuellement vont des réseaux de capteurs
souvent dédiés à la surveillance de l’environnement aux réseaux véhiculaires en passant par
les réseaux maillés, réseaux sans fil fixes qui permettent par exemple d’étendre un accès
Internet sans cablâge.
Le médium ou canal radio, partagé par tous les nœuds, est une ressource rare qui constitue
un des points critiques des réseaux ad hoc. La nature même du canal radio pose un certain
nombre de problèmes :
18
CHAPITRE 2. ROUTAGE AD HOC ET QUALITÉ DE SERVICE
– Une atténuation rapide du signal en fonction de la distance qui induit l’impossibilité
pour l’émetteur de détecter une collision au moment de l’émission. L’environnement
peut aussi détériorer un signal à cause des phénomènes d’atténuation et de réflexion
ou de chemins multiples.
– Les interférences : les liens radio n’étant pas isolés, une communication entre deux
mobiles peut interférer sur d’autres communications rendant le décodage des informations parfois impossible.
– Liens bidirectionnels : les liens radio ne sont pas toujours bidirectionnels. Ainsi un
mobile peut recevoir des données de la part d’un autre mobile sans que la réciproque
soit vraie. Ce phénomène pose un problème dans le processus de découverte de route car
lorsqu’un chemin est créé, les informations de réponse ne peuvent pas toujours emprunter le chemin inverse, nécessitant la construction d’une nouvelle route. Ce phénomène
pose aussi un problème dès lors qu’on utilise des échanges point-à-point avec 802.11
puisque ces échanges ne peuvent fonctionner que sur des liens bidirectionnels.
– La puissance du signal est réglementée par l’ART et donc limitée.
– Un faible débit par rapport à un équivalent filaire.
– L’énergie : les applications relatives aux réseaux sans fil tirent leur autonomie des
batteries et les différentes opérations (émettre, recevoir des données, écouter le support
radio) consomment de l’énergie non négligeable.
– Une faible sécurité : le canal radio n’étant pas isolé, il est très facile à l’aide d’une
antenne espionne d’écouter les informations qui circulent sur le canal d’autant plus qu’il
est partagé. Les solutions se trouvent donc au niveau d’un cryptage par l’émetteur.
– La mobilité des utilisateurs inhérente à ces réseaux peut se révéler un facteur contraignant car générant des modifications de topologies.
– La versatilité du médium physique qui change rapidement entraı̂ne une instabilité
des transmissions radio.
2.2
Le routage dans les réseaux ad hoc
Une des grandes problématiques des réseaux ad hoc est la mise en place de politiques de
routage. La législation en vigueur impose une limitation de la puissance des transmissions
radio, ce qui réduit la portée des mobiles. De ce fait, dans un réseau ad hoc, il est fréquent
que deux mobiles désirant communiquer soient hors de portée l’un de l’autre. Afin de permettre ces communications, les mobiles d’un réseau ad hoc doivent être capable d’acheminer
les informations vers leur destinataire, relayé par des mobiles intermédiaires, c’est à dire d’effectuer un routage des données. Cette thèse n’est pas consacrée aux protocoles de routage ad
hoc, mais pour tester les techniques d’évaluation de ressources proposées ici, il nous a semblé
pertinent de les intégrer dans des protocoles de routage avec qualité de service, comme nous
le verrons par la suite. C’est pourquoi, une courte section de ce chapitre est consacrée aux
protocoles de routage ad hoc.
La gestion de l’acheminement de données ou le routage consiste à assurer une stratégie
qui doit permettre à n’importe quel moment, la connexion entre n’importe quelle paire
19
CHAPITRE 2. ROUTAGE AD HOC ET QUALITÉ DE SERVICE
de nœuds appartenant à un réseau. La diffusion est utilisée afin d’inonder le réseau et
les informations sont alors relayées de proche en proche par les mobiles intermédiaires.
Evidemment, ce mode de fonctionnement consomme une quantité non négligeable de bande
passante. La plupart des protocoles de routage utilisés ont été conçus afin d’optimiser cette
diffusion. Dans [13], les auteurs mettent en relief certaines contraintes introduites par les
réseaux ad hoc et qui perturbent ce processus de routage. La prise en compte des contraintes
spécifiques précitées rend cette conception plus complexe que dans le monde filaire.
Les protocoles de routage dans les réseaux ad hoc sont généralement classés en quatre
grandes catégories :
1. Les protocoles de routage proactifs maintiennent à jour une table de routage, de
sorte que lorsqu’une application désire envoyer des données, la route est immédiatement
connue. Ces protocoles ont l’avantage de la disponibilité immédiate des routes vers
tous les nœuds du réseau. Au niveau de la table de routage, chaque nœud stocke pour
chaque destination, l’identité du mobile à contacter. La mise à jour de cette table de
routage nécessite l’échange régulier de messages de contrôle, consommant une part non
négligeable des ressources radio même en l’absence de trafic. Comme dans les réseaux
filaires, deux principales méthodes sont utilisées : le routage par vecteur de distance et
le routage par état de lien.
– Le routage par état de lien consiste à diffuser périodiquement aux mobiles voisins
l’état de la liaison qui les sépare. De cette façon, chaque mobile est capable de dresser
une carte de l’état du réseau et par conséquent de choisir la route la plus appropriée
pour un message donné. Un des avantages de ce type de protocole est sa capacité à
pouvoir facilement trouver des routes alternatives en cas de rupture de lien.
– Le routage par vecteur de distance permet à chaque nœud de diffuser à ses voisins
la distance qui les sépare (en nombre de sauts). Les seules informations conservées
sont la liste des nœuds du réseau et l’identité du prochain mobile par lequel passer
pour atteindre la destination. Le mobile émetteur choisit la route la plus courte en
nombre de sauts vers le destinataire.
L’inconvénient des protocoles proactifs réside dans le coût du maintien des informations
de topologie et de routage même en absence de trafic de données ce qui implique une
consommation continue de la bande passante. Comme exemple de protocoles de routage
proactifs, nous pouvons citer OLSR [14] et DSDV [15] qui constituent respectivement
les versions sans fil des protocoles OSPF [16, 17] et RIP [18]. Nous pouvons également
citer TBRPF [19].
2. Les protocoles de routage réactifs restent inactifs tant qu’aucune application ne
sollicite l’envoi de données. Ceci permet d’économiser de la bande passante et de
l’énergie. La procédure de découverte de route n’est enclenchée que lorsqu’un nœud souhaite envoyer des paquets vers un destinataire pour lequel aucune route n’est connue.
Une demande de route explicite vers ce destinataire est alors propagée à travers le
réseau. Cette inondation surcharge localement le réseau puisque tous les nœuds atteints doivent répéter la requête. Si le réseau est mobile, le processus de reconstruction
20
CHAPITRE 2. ROUTAGE AD HOC ET QUALITÉ DE SERVICE
de route engendre de nouvelles inondations. En conséquence, le délai des paquets peut
augmenter très rapidement. Le principal avantage est de ne générer du trafic que si
nécessaire mais cela implique une inondation du réseau coûteuse en ressources.
Source
rreq (1)
rreq (1)
rrep (4)
B
rreq (2)
A
rrep (3)
rreq (2)
D
rreq (3)
E
rreq (2)
rreq (3)
rrep (2)
rreq (4)
C
F
rreq (4)
rrep (1)
Dest.
Fig. 2.1 – Recherche de route dans AODV
AODV [20] fait partie de la famille des protocoles réactifs. Lorsqu’une application désire
trouver une route vers un destinataire, AODV inonde le réseau avec des paquets Route
Request (RREQ). Chaque nœud traversé par un paquet de RREQ stocke des informations sur le numéro de séquence du paquet, l’adresse des nœuds source et destination
ainsi que l’adresse du nœud précédent. Lorsque ces paquets de RREQ arrivent à la
destination, un paquet de réponse Route Reply (RREP) est envoyé suivant le chemin
inverse vers le nœud émetteur (voir figure 2.1). Ce paquet permet, au niveau de chaque
nœud, de mettre à jour le saut suivant pour la route construite. On parle de routage
par sauts. Nous pouvons également citer DSR [21] comme protocole de routage réactif.
3. Les protocoles de routage hybrides combinent les approches réactive et proactive.
Le principe est de connaı̂tre le voisinage de manière proactive jusqu’à une certaine
distance (deux ou trois sauts par exemple), et lorsqu’une application cherche à envoyer
des données à un nœud hors de cette zone, une recherche réactive est enclenchée. Une
zone de routage est définie pour chaque nœud et inclut l’ensemble des mobiles qui
sont à une distance (en terme de sauts) inférieure à une valeur fixée représentant le
rayon de routage. Grâce à cette combinaison, le réseau est partagé en plusieurs zones
et la recherche de route en mode réactif est améliorée. A la réception d’une requête de
recherche réactive, un nœud a la possibilité d’indiquer immédiatement si la destination
est dans son voisinage ou non. ZRP [22] est le protocole hybride le plus connu, mais
nous pouvons également citer comme exemple CEDAR [23] et CBRP [24].
4. Les protocoles de routage géographiques se basent sur des informations concernant la position des mobiles afin d’améliorer le processus de routage. Un système de
21
CHAPITRE 2. ROUTAGE AD HOC ET QUALITÉ DE SERVICE
localisation est donc mis en place afin de connaı̂tre à un instant donné la position
des mobiles. Le GPS est actuellement le système de localisation le plus utilisé même
si d’autres algorithmes proposent de calculer la position des mobiles à l’aide d’autres
paramètres comme par exemple la puissance du signal. Une fois que la position du mobile destinataire est évaluée, la diffusion des messages de recherche de route peut être
orientée vers une direction précise, réduisant considérablement le trafic de découverte
de route. Un exemple de protocole géographique est le protocole LAR (Location-Aided
Routing) [25].
Tous ces protocoles cités précédemment sont sans qualité de service, c’est-à-dire que leur
objectif est de trouver une route vers un mobile destinataire sans tenir compte de l’état
des ressources à travers le réseau. Pour certaines applications qui voient le jour, comme par
exemple la diffusion de vidéo ou la téléphonie sur IP, les protocoles de routage précédents
ne sont pas toujours en mesure d’assurer les contraintes demandées par ces applications. Il
semble donc nécessaire de s’orienter vers d’autres approches, comme par exemple la mise en
place de qualité de service.
2.3
La qualité de service dans les réseaux ad hoc
Le terme Qualité de Service ou QoS a largement été utilisé pour définir de nombreux
concepts sans toutefois converger vers un consensus. La RFC 2386 [26] définit la QoS comme
un ensemble de garanties à assurer, par le réseau, pour le transport d’un trafic d’une source
vers une destination. Nous retiendrons cette définition et plus formellement nous définissons
la Qualité de Service comme l’ensemble des mécanismes mis en œuvre dans un réseau afin de
satisfaire les besoins explicites des applications lors de l’acheminement des flux de données.
Les mécanismes classiques de qualité de service dans les réseaux filaires sont totalement ou
partiellement inadaptés dans un environnement ad hoc. En effet, la plupart des ces méthodes
reposent sur la connaissance d’informations précises quant à l’état du réseau (la bande passante utilisée, le délai, la gigue de phase, etc.). Dans un contexte sans fil, ces informations
sont difficiles à évaluer notamment à cause des phénomènes propres aux transmissions sans fil
(versatilité du lien radio, interférences, atténuation du signal, etc.) et peuvent être amenées
à varier très rapidement, en fonction de la mobilité.
Un état de l’art sur la QoS dans les réseaux ad hoc, a été proposé dans [27], classifiant
les solutions de QoS en quatre grandes catégories :
– Les modèles de QoS définissent des architectures globales dans lesquelles des garanties
peuvent être fournies.
– Les protocoles d’accès au médium cherchent à ajouter des fonctionnalités aux couches
basses du modèle OSI1 afin de pouvoir offrir des garanties.
– Les protocoles de routage avec qualité de service recherchent les routes ayant suffisamment de ressources disponibles pour satisfaire une requête.
1
Open Systems Interconnection
22
CHAPITRE 2. ROUTAGE AD HOC ET QUALITÉ DE SERVICE
– Les protocoles de signalisation cherchent à offrir des mécanismes de réservation de
ressources indépendants du protocole de routage sous-jacent.
Cette classification très souvent utilisée, permet d’identifier les différentes briques à
mettre en œuvre pour assurer une certaine qualité de service. Dans [28], les auteurs proposent
une classification différente : ils distinguent les approches de qualité de service statistique
des approches avec garanties quantitatives. Dans les approches de qualité de service statistiques, l’idée est d’offrir plus de ressources aux trafics prioritaires comparés aux trafics moins
prioritaires, sans néanmoins assurer de garanties quantitatives. La norme IEEE 802.11e [29],
fait partie de cette approche. Dans un contexte ad hoc, l’ordre des priorités reste néanmoins
difficile à respecter de part la difficulté de reporter des politiques locales de voisinage en
voisinage. Pour des applications strictes comme la diffusion de vidéo, les approches avec
garanties quantitatives nous semblent plus appropriées.
Parmi les approches avec garanties quantitatives, les auteurs de [28] distinguent les approches a posteriori des approches a priori. Les approches a posteriori peuvent être basées
sur n’importe quel protocole de routage et ne cherchent qu’à réguler l’environnement afin
d’offrir des garanties aux applications le nécessitant. A l’opposé, les approches a priori vont
se baser sur un routage avec qualité de service. Le principe du routage avec qualité de service
est de rechercher un chemin entre deux nœuds satisfaisant certaines contraintes. Plusieurs
métriques peuvent être utilisées telles que le délai, la bande passante, la gigue ou encore le
taux de perte.
Il m’a semblé que l’approche du routage avec qualité de service permettait d’offir un
contrôle plus fin que celui offert par les approches a posteriori. Par conséquent, je me suis
concentré sur cette approche.
Un très grand nombre de protocoles de routage de QoS ont été proposés. On retrouve
la dichotomie classique entre protocoles réactifs et proactifs. Ainsi, le routage avec qualité
de service ajoute en général à ces protocoles de routage usuels un contrôle d’admission afin
de sélectionner parmi les routes disponibles celles qui satisfont les contraintes spécifiées par
l’application. Le contrôle d’admission est une étape très importante dans le routage QoS : il
s’agit plus précisément de déterminer si les conditions du réseau permettent de transmettre
les flux avec les garanties requises. L’admissibilité des flux est faite en fonction de deux
paramètres :
– La quantité de ressources exigée par l’application : les applications doivent être en mesure de quantifier leur besoin en terme de ressources, comme par exemple la quantité
de bande passante dont elles ont besoin. Ceci fait apparaı̂tre une spécificité du routage
avec QoS : l’éligibilité d’une route doit être déterminée flux par flux et non plus destination par destination. Il est tout à fait envisageable d’utiliser des routes différentes
pour des flux ayant des contraintes différentes. Le routage par flux permet par ailleurs
d’assurer un contrôle plus fin des ressources du réseau. On peut par exemple imaginer décomposer un flux en plusieurs petits sous-flux, chacun empruntant une route
différente.
23
CHAPITRE 2. ROUTAGE AD HOC ET QUALITÉ DE SERVICE
– L’estimation des ressources résiduelles ou disponibles le long des chemins qui doit être
connue a priori avant l’envoi des flux QoS. C’est un point critique et beaucoup de
protocoles de routage QoS se concentrent davantage sur la partie routage que sur la
partie estimation des ressources résiduelle. Cette estimation des ressources est rendue
plus complexe dans un contexte ad hoc où contrairement aux réseaux filaires, les liens
entre mobiles sont versatiles, peu fiables, et partagés inéquitablement.
Pour résumer, le routage avec QoS est un processus d’établissement et de maintenance
des routes satisfaisant un ensemble de critères quant à la qualité de la transmission des
données. Nous pensons que le point critique de ce processus reste l’estimation des ressources
disponibles à travers le réseau car la précision du contrôle d’admission dépend fortement de
cette estimation.
Certains protocoles de routage supposent que cette estimation est connue et ne repose
pas sur une technique d’évaluation des ressources spécifiques. C’est le cas par exemple du
protocole CEDAR [23]. D’autres protocoles en revanche proposent leur propre technique
d’évaluation des ressources. Ces différentes techniques font l’objet du chapitre suivant.
24
CHAPITRE
3
Etat de l’art sur les techniques d’évaluation de la
bande passante résiduelle
De nombreux protocoles de routage ad hoc avec QoS utilisent leur propre technique
d’évaluation des ressources disponibles. La majorité de protocoles se concentrent sur le paramètre de bande passante qui est une métrique très importante dans les réseaux ad hoc.
En effet, la bande passante est très limitée dans les réseaux sans fil et son partage est très
compliqué, plus particulièrement dans les réseaux ad hoc. De plus, ce paramètre a un impact
sur les autres paramètres du réseau comme par exemple le délai ou le taux de perte. Maı̂triser
les débits dans le réseau permet de limiter la congestion et par conséquent d’améliorer les
délais de transmission et les taux de pertes. Par conséquent, les techniques d’évaluation de
la bande passante résiduelle sont fondamentales et ont constitué le cœur de mon travail.
Les techniques d’évaluation de la bande passante disponible peuvent se subdiviser en
deux grandes catégories :
– Les techniques dites intrusives basées sur l’envoi de paquets de contrôle afin d’estimer
la bande passante résiduelle le long d’un chemin.
– Les techniques dites passives qui utilisent des informations locales (comme par exemple
le taux d’utilisation du canal). Les messages Hello que l’on retrouve dans la plupart des
protocoles de routage classiques et qui permettent la mise à jour des informations de
voisinage sont généralement utilisés afin d’échanger les informations de bande passante.
Avant de dresser un état de l’art sur les principales techniques d’évaluation de la bande
passante résiduelle dans les réseaux filaires et sans fil, nous définissons la notion de bande
passante résiduelle ainsi que les problèmes liés à l’estimation de cette métrique dans les
réseaux ad hoc.
3.1
La bande passante résiduelle ou disponible
La bande passante résiduelle ou disponible entre deux mobiles peut se définir comme le
débit maximal qui peut être émis entre deux nœuds sans dégrader aucun des flux déjà
présents dans le réseau. Cette notion est différente de la capacité qui représente juste le
débit maximal d’émission entre deux mobiles.
Lors de la mise en place d’un protocole de réservation de bande passante, l’estimation de
cette bande passante disponible doit être la plus précise possible quels que soient les trafics
25
CHAPITRE 3. ETAT DE L’ART SUR LES TECHNIQUES D’ÉVALUATION DE LA
BANDE PASSANTE RÉSIDUELLE
existants et de la topologie, afin de choisir les routes susceptibles d’offrir aux applications QoS
les garanties désirées. Néanmoins, la bande passante résiduelle est une métrique difficilement
quantifiable dans un environnement ad hoc multi-saut pour les raisons suivantes :
– Lorsque n émetteurs à portée de communication sont en compétition pour l’accès
au médium, la bande passante utilisable au niveau application par chaque émetteur
n’est pas égal à la bande passante qu’obtiendrait un seul émetteur divisée par n.
En effet, avant d’émettre, chaque nœud doit s’assurer que le canal radio a été libre
pendant un certain temps aléatoire. Lorsque plusieurs émetteurs sont en concurrence,
ces attentes ont lieu en parallèle, ce qui permet de réduire globalement le surcoût du
protocole d’accès au médium. Toutefois, on ne peut augmenter indéfiniment le nombre
d’émetteurs sans risquer de collisions. Dans ce cas, les délais sont à nouveau allongés
car le protocole 802.11 retransmet les paquets perdus.
– Le médium étant partagé et la topologie multi-saut, la perception de la bande passante
utilisée et disponible est différente d’un mobile à un autre. Par conséquent, en plus de
la bande passante qu’il consomme, un mobile doit avoir une estimation de la bande
passante consommée par les mobiles voisins avec lesquels il partage le médium. Cela
suppose une connaissance exacte du voisinage, ce qui n’est pas toujours le cas.
– Dans un réseau ad hoc, il y a également un partage de la bande passante dans la zone
de détection de porteuse de 802.11 comme nous l’avons décrit dans le chapitre 1.
– Le phénomène des stations cachées tend aussi à diminuer le débit des communications.
Cette situation provoque des collisions au niveau du récepteur qui voit son débit chuter.
Par conséquent, la bande passante résiduelle est une métrique complexe à évaluer car
elle doit prendre en compte aussi bien les caractéristiques des transmissions voisines, que
les phénomènes physiques dûs au médium radio sous-jacent et à la technologie d’accès au
médium (802.11 dans notre cas).
3.2
Evaluation de la bande passante résiduelle dans les
réseaux filaires
Les techniques utilisées pour évaluer la bande passante résiduelle dans les réseaux filaires
sont essentiellement intrusives.
Jain et Dovrolis dans [30] ont mis au point une technique appelée Pathload afin d’estimer
la bande passante résiduelle le long d’un chemin. Périodiquement des paquets de contrôle
sont envoyés par les stations sources vers les stations destinataires afin d’évaluer la bande
passante disponible le long de ces chemins. Pour chaque paquet de contrôle envoyé de bout
en bout, le délai de transmission est mesuré. L’observation effectuée est que le délai de ces
paquets de contrôle augmente lorsque le débit (R) du flux est supérieur à la valeur de la bande
26
CHAPITRE 3. ETAT DE L’ART SUR LES TECHNIQUES D’ÉVALUATION DE LA
BANDE PASSANTE RÉSIDUELLE
passante résiduelle notée A. En faisant varier la valeur de R, et en procédant de manière
itérative et dichotomique, on peut estimer la valeur de A. La difficulté est de déterminer
à partir de quelle valeur le délai augmente de manière assez significative pour en déduire
une approximation de la bande passante résiduelle. Les itérations se poursuivent jusqu’à une
valeur qui mesure la précision définie à l’avance par l’utilisateur et telle que :
R(n) < A < R(n + 1) et |R(n + 1) − R(n)| < avec R(n) étant le débit du nieme paquet
Les auteurs comparent par la suite la précision de l’estimation de la bande passante résiduelle
obtenue avec Pathload, avec celle obtenue grâce à MRTG [31] (Multi Router Traffic Grapher),
un outil permettant de surveiller la charge de la circulation des données qui transitent sur
un réseau filaire. Les expérimentations aboutissent à une estimation de Pathload présentant
un taux d’erreur moyen de l’ordre de 2% sur plusieurs simulations.
Carter et Crovella [32] expérimentent une technique appelée cprobe. Les paquets de
contrôle utilisés sont constitués de paquets ICMP (Internet Control Message Protocol)
véhiculant généralement des messages de contrôle et d’erreur dans un réseau filaire. La source
envoie un train de paquets ICMP echo vers la destination. Lorsque la machine destinataire
ou serveur reçoit ces paquets ICMP echo, elle répond en envoyant des paquets de réponse
ICMP reply. Les temps d’inter-arrivée de ces paquets ICMP sont mesurés pour en déduire
la valeur de la bande passante résiduelle le long du chemin.
Dans [33] les auteurs proposent un modèle théorique appelé TOPP (Train of Packet Pair)
qui introduit deux nouveaux concepts : le concept de Proportionnal Share qui représente la
proportion de bande passante que le lien va pouvoir offrir à un nouveau flux entrant en ne
dégradant que légèrement les flux déjà présents et celui de Surplus Bandwith qui est une
borne inférieure de la bande passante résiduelle. Cette technique TOPP est basée sur le
même principe que Pathload. Cependant, la fonction d’augmentation du débit de la source
est linéaire. Parallèlement, les auteurs prennent en compte un autre facteur important :
le nombre de liens congestionnés. Les expérimentations montrent qu’au-delà de deux liens
congestionnés, les mesures de bande passante résiduelle ne sont plus assez précises.
Dans [34], les auteurs proposent un résumé détaillé des différentes techniques d’évaluation
de la bande passante résiduelle dans le monde filaire. Ils mettent en relief trois grandes
catégories :
– Les techniques VPS (Variable Packet Size) mesurent le RTT (Round Trip Time) entre
la source et la destination en fonction de la taille du paquet de contrôle envoyé. Ce
RTT est calculé en fonction de la valeur contenue dans le champ TTL du datagramme
IP. Cette technique peut sous-estimer la bande passante résiduelle car elle ne tient pas
compte du temps passé dans les couches basses.
– Les techniques PPP (Packet Pair Probing) mesurent la dispersion entre paires de paquets de même taille envoyés de la source vers la destination et de la destination vers
la source. La valeur mesurée correspond davantage à la capacité qu’à la bande passante
résiduelle.
– Les techniques SLoPS (Self-Loading Periodic Streams) mesurent le bande passante
résiduelle de bout en bout en monitorant le délai de paquets de contrôle de taille
27
CHAPITRE 3. ETAT DE L’ART SUR LES TECHNIQUES D’ÉVALUATION DE LA
BANDE PASSANTE RÉSIDUELLE
identique.
3.3
Evaluation de la bande passante résiduelle dans les
réseaux sans fil
Dans le monde filaire, les méthodes utilisées pour estimer la bande passante résiduelle
se sont révélées efficaces en partie. Par contre, elles ne sont pas directement adaptables à
un environnement ad hoc dans lequel la problématique devient beaucoup plus complexe.
Certains travaux ont vu le jour dans le monde sans fil, présentant aussi bien des techniques
intrusives que passives.
3.3.1
Les techniques intrusives
DietTOPP [35] est basée sur le même principe que TOPP [33], mais a été conçu pour
des environnements sans fil. Un train de paquets de contrôle est envoyé du nœud source vers
le nœud destinataire avec un débit initial dmin et du nœud destinataire vers le nœud source.
Lorsque ce train de paquets de contrôle a été totalement acheminée, le débit d’émission
est progressivement augmenté d’une valeur δi jusqu’à atteindre une valeur maximale dmax
pour laquelle on observe une égalité entre le débit du nœud source et du nœud récepteur.
Cette valeur dmax représente la bande passante résiduelle. Cette technique, faisant partie
de la famille des Packet Pair Probing, l’inconvénient est que la valeur mesurée correspond
davantage à la capacité qu’à la bande passante résiduelle comme expliqué précédemment.
Afin d’estimer la bande passante résiduelle d’un nœud vers ses voisins, les auteurs de [36]
proposent de considérer une taille de paquet standard et de saturer le médium avec cette
taille de paquet afin de calculer la capacité de chaque lien. Cette capacité mesurée est
considérée comme la bande passante disponible, ce qui ne correspond pas à la notion définie
précédemment.
Dans [37], les auteurs mettent en relief le fait que le délai des paquets, supérieur à une
valeur théorique maximale, permet d’estimer une utilisation du médium et d’en déduire
la bande passante résiduelle. L’inconvénient majeur de cette technique est que la valeur
théorique maximale ne prend pas en compte les éventuelles retransmissions imposées par la
norme IEEE 802.11 en cas de collision et la période de contention qui peut être très élevée
dans des topologies présentant des inéquités d’accès.
Toutes ces techniques sont intrusives car elles utilisent des paquets de contrôle envoyés de
bout en bout pour estimer la bande passante résiduelle le long d’un chemin. Une consommation importante de la bande passante et un impact non négligeable sur les trafics de données
sont les deux inconvénients majeurs de ces techniques.
28
CHAPITRE 3. ETAT DE L’ART SUR LES TECHNIQUES D’ÉVALUATION DE LA
BANDE PASSANTE RÉSIDUELLE
3.3.2
Les techniques passives
Chaudet et Guérin Lassous ont proposé BRuIT [38, 39] (Bandwith Reservation under InTerferences) qui prend en compte la notion de zone de détection de porteuse dans l’évaluation
de la bande passante disponible. En effet, avec les protocoles de type CSMA/CA, deux nœuds
qui sont en zone de détection de porteuse partagent l’accès au médium et donc la bande passante même s’ils ne sont pas capable de communiquer directement. Par conséquent, chaque
mobile doit être en mesure d’estimer l’occupation du médium due aux mobiles dans sa zone
de détection de porteuse. BRuIT approxime cette zone de détection de porteuse par le voisinage à deux sauts. Périodiquement, chaque nœud fournit des informations sur la quantité
de bande passante qu’il utilise pour router un flux, ainsi que sur celle utilisée par ses voisins, en envoyant des messages Hello. Chaque mobile peut donc estimer la bande passante
consommée dans son voisinage à deux sauts et en déduire sa bande passante résiduelle. Le
principal inconvénient de cette méthode est que l’approximation de la zone de détection de
porteuse par le voisinage à deux sauts n’est pas toujours vrai.
Fig. 3.1 – Voisinage dans la zone de détection de porteuse
Considérons l’exemple de la Figure 3.1. Le nœud B qui se trouve dans la zone de détection
de porteuse du nœud A ne peut être atteint par le voisinage à deux sauts, car il n’y a pas de
nœuds intermédiaires pour router ses informations de bande passante vers le nœud A : c’est
le phénomène des nœuds brouilleurs. Identifier l’ensemble de ses brouilleurs potentiels est
indispensable pour une bonne estimation de la bande passante résiduelle. Dans [40], Chaudet
a montré que pour une distribution géométrique aléatoire et une connaissance du voisinage à
un, deux ou trois sauts, on manque respectivement dans le pire des cas jusqu’à 70, 50 et 45%
des ses brouilleurs. De plus, BRuIT peut parfois sous-estimer la bande passante résiduelle
car il ne tient pas compte de la synchronisation possible des flux voisins.
Dans [41], Yang et Kravets ont proposé CACP (Contention Aware Control Protocol).
Le but est, comme dans BRuIT, d’estimer la bande passante résiduelle des nœuds dans la
zone de détection de porteuse. Dans un premier temps, la bande passante résiduelle locale
est calculée en utilisant les périodes de temps libre au niveau du médium. Dans un second
temps, pour estimer la bande passante dans la zone de détection de porteuse, trois méthodes
différentes sont proposées : l’utilisation des messages Hello dans un voisinage à deux sauts
29
CHAPITRE 3. ETAT DE L’ART SUR LES TECHNIQUES D’ÉVALUATION DE LA
BANDE PASSANTE RÉSIDUELLE
comme dans BRuIT ; l’augmentation de la puissance d’émission des émetteurs de telle sorte
que le signal puisse être décodé par l’ensemble des nœuds dans la zone de détection de
porteuse ; enfin la réduction du seuil de sensibilité des récepteurs. Les auteurs mettent en
relief le problème de la contention intra flux déjà étudié dans [42]. En effet, l’émission des
données par un mobile va consommer de la bande passante au niveau d’un certain nombre
de liens en amont et en aval. Par conséquent il est important d’identifier, de manière précise,
le nombre de mobiles qui seront en contention lors de l’émission d’un même flux QoS.
QoS-AODV [43] utilise une métrique appelée BWER (Bandwidth Efficicency Ratio) afin
d’estimer la bande passante résiduelle au niveau de chaque nœud. Cette métrique exprime
le ratio entre le nombre de paquets transmis et reçus. QoS-AODV utilise les messages Hello
pour collecter les informations de bande passante des mobiles dans son voisinage à un saut.
Finalement, la bande passante résiduelle d’un mobile est égale au minimum de la bande
passante résiduelle estimée par ce mobile et de celle des mobiles dans son voisinage à un
saut.
Dans AAC [44], chaque mobile estime sa bande passante utilisée en additionnant la
taille des paquets perçus durant une période fixe. Cette taille des paquets est déduite de
l’occupation du médium, ce qui permet de prendre en compte les mobiles dans la zone de
détection de porteuse. La bande passante résiduelle est le minimum de la bande passante
résiduelle des mobiles se trouvant dans la zone de détection de porteuse de l’émetteur et
du récepteur. De la même manière que CACP, AAC propose aussi la prise en compte de la
contention intra-flux.
Dans QOLSR [45], la bande passante résiduelle est fonction du taux d’utilisation du canal
radio noté u. Ainsi, pour un lien i −→ j, la bande passante résiduelle sur ce lien notée B(i−→j) ,
est donnée par la formule :
B(i−→j) = u × BpE(i,j)
BpE(i,j) étant le ratio entre la taille du paquet considéré, et son temps de service incluant
d’éventuels retransmissions en cas de collision. L’inconvénient de cette méthode est que
l’occupation du médium perçue n’est pas forcément la même entre l’émetteur et le récepteur
et que par conséquent l’occupation du médium sur le lien i −→ j ne correspond pas à
l’occupation du médium sur une des extrémités de ce lien.
Un des auteurs de QOS-OLSR [46] évalue la bande passante résiduelle en présence du
phénomène des interférences. Cette évaluation se déroule en trois étapes :
– Dans la première étape, l’auteur évalue la bande passante consommée par un flux f
pris isolément, sur un nœud se trouvant dans la zone de communication de f .
– Dans la deuxième étape, la bande passante consommée par le flux f au niveau d’un
nœud se trouvant dans la zone de détection de porteuse est évaluée.
– Enfin, dans la troisième et dernière étape, l’auteur évalue la proportion de bande passante perdue à cause de collisions en présence de stations cachées.
L’auteur spécifie que la probabilité qu’un paquet entre en collision une deuxième fois avec
le même nœud caché est négligeable car cela suppose que les deux nœuds tirent des backoffs
proches dans une fenêtre de contention plus grande. Ceci est vrai dans le cas du scénario
30
CHAPITRE 3. ETAT DE L’ART SUR LES TECHNIQUES D’ÉVALUATION DE LA
BANDE PASSANTE RÉSIDUELLE
classique des stations cachées (figure 1.4), mais dans des scénarios de stations cachées plus
généraux (que nous verrons dans la suite de cette thèse), cette assertion est erronée car les
deux émetteurs cachés n’ont pas nécessairement un récepteur commun.
3.4
Motivations
Comme nous l’avons vu précédemment, les techniques intrusives ne sont pas totalement
satisfaisantes car elles consomment une quantité non négligeable de bande passante qui peut
affecter le débit des flux de données. Dans [47], les auteurs mettent en relief le fait que la
bande passante consommée par les paquets de contrôle peut occuper une part significative
du trafic total dans le réseau.
La majorité des techniques passives fournissent davantage une estimation par nœud que par
lien et l’approximation de la zone de détection de porteuse au voisinage à deux sauts peut
parfois entraı̂ner des évaluations erronées. Cependant, il est indispensable d’avoir une estimation précise de la bande passante résiduelle sur un lien afin de router les flux QoS dans de
bonnes conditions. Pour fournir une estimation précise, certaines considérations doivent être
prises en compte. Premièrement, pour qu’une communication puisse s’effectuer, le médium
doit être libre aussi bien au niveau de l’émetteur que du récepteur. Par conséquent, la bande
passante résiduelle sur un lien dépend de la synchronisation des périodes de temps libres
de l’émetteur et du récepteur. La connaissance du recouvrement de ces périodes de temps
libre augmente la précision de l’estimation. Cette notion de synchronisation n’est pas prise en
compte dans les techniques passives présentées dans la section précédente. Deuxièmement, la
présence de collisions dégrade de manière significative le débit des communications. Or, dans
les techniques précédentes, soit les collisions ne sont pas prises en compte dans l’évaluation
soit les hypothèses utilisées dans le calcul des probabilité de collision sont approximatives.
Fig. 3.2 – Inéquité d’accès au médium
Considérons l’exemple décrit au niveau de la figure 3.2. Cette configuration présentée dans
[8] est une situation qui entraı̂ne une inégalité en termes de débit. En effet, les émetteurs
31
CHAPITRE 3. ETAT DE L’ART SUR LES TECHNIQUES D’ÉVALUATION DE LA
BANDE PASSANTE RÉSIDUELLE
A et C étant totalement désynchronisés, les émissions du nœud C provoquent des collisions
au niveau du récepteur B. Ainsi, la bande passante résiduelle sur le lien (A, B) est d’autant
plus faible que le nombre de collisions au niveau du récepteur B augmente.
Supposons que nous ayons un flux sur le lien (C,D), et que nous voulons estimer la bande
passante résiduelle sur le lien (A,B). Les simulations sont réalisées sous le simulateur NS2. La
courbe représentée par ”Bande passante résiduelle réelle” du lien (A,B) correspond au débit
maximum que l’on peut faire passer sur ce lien (obtenue par simulation). Les estimations
faites par BRuIT, CACP ou AAC sont identiques car elles correspondent simplement à la
différence entre la capacité du médium radio et la bande passante consommée par le lien
(C,D) (nous sommes respectivement dans des environnements à 2 et 11 Mb/s soit des débits
maximum réels d’environ 1,6 et 5 Mb/s). Elles sont représentées au niveau des figures 3.3(a)
et 3.3(b) par la courbe étiquetée par ”Bande passante résiduelle estimée” en fonction du
débit d’émission du lien (C,D).
1600
5000
Bande passante résiduelle du lien A−>B
Bande passante résiduelle estimée du lien A−>B
Bande passante résiduelle estimée du lien A−>B avec QOLSR
Bande passante résiduelle du lien A−>B
Bande passante résiduelle estimée du lien A−>B
Bande passante résiduelle estimée du lien A−>B avec QOLSR
4500
1400
4000
1200
3500
Débit en (kb/s)
Débit en (kb/s)
1000
800
600
3000
2500
2000
1500
400
1000
200
500
0
0
0
200
400
600
800
1000
Débit du lien C−>D (kb/s)
1200
1400
1600
(a) Capacité de 2 Mb/s
0
500
1000
1500
2000
2500
3000
Débit du lien C−>D (kb/s)
3500
4000
4500
5000
(b) Capacité de 11 Mb/s
Fig. 3.3 – Bande passante résiduelle du lien (A,B) en fonction du débit sur le lien (C,D)
La courbe représentée par ”Bande passante résiduelle estimée avec QOLSR” donne une
meilleure évaluation que BRuIT, CACP ou AAC mais néanmoins surestime toujours la bande
passante résiduelle réelle.
On remarque donc que plus le débit du lien (C,D) augmente, plus la bande passante
résiduelle réelle devient plus petite que la bande passante résiduelle estimée avec les
différentes méthodes. L’explication de cette différence se trouve au niveau des collisions qui
apparaissent au niveau du récepteur en B. Ces collisions dégradent de manière significative
le débit du lien (A,B) et doivent être prises en compte pour raffiner l’estimation. BRuIT,
CACP ou AAC ne les prennent pas en compte tandis que QOLSR les estime de manière
imprécise. Par conséquent il est indispensable de mettre au point un mécanisme de prédiction
plus précis du nombre moyen de collisions au niveau du récepteur. On peut noter que
nous n’avons pas testé ici QOS-OLSR. Ceci est lié au fait que le code n’est pas disponible
en ligne d’une part et que d’autre part la méthode d’estimation ne se base pas sur une
32
CHAPITRE 3. ETAT DE L’ART SUR LES TECHNIQUES D’ÉVALUATION DE LA
BANDE PASSANTE RÉSIDUELLE
écoute du médium et est relativement compliquée à implémenter. Néanmoins, l’hypothèse
réalisée pour calculer la probabilité de collision est très simplifiée (plus simplifiée que dans
QOLSR) et nous pensons qu’elle ne peut mener qu’à une surestimation de la bande passante
résiduelle réelle.
En plus des collisions, il est aussi important de considérer des temps d’accès
supplémentaires tels que le DIFS, l’EIFS et le backoff, rajoutés par le protocole 802.11,
consommant ainsi une proportion de la bande passante résiduelle.
En résumé, des solutions ont été proposées afin d’estimer la bande passante résiduelle dans
des environnements sans fil ad hoc. Cependant, le point faible demeure encore l’estimation
de la bande passante résiduelle qui est fortement dépendante des spécificités des réseaux ad
hoc. Proposer un protocole de routage avec QoS revient à prendre en compte l’ensemble des
contraintes (collisions, backoff, etc.) limitant cette bande passante disponible, dans le but de
rendre l’estimation plus précise.
Dans le chapitre suivant, nous présentons pour notre solution, les mécanismes mis en
place pour estimer la bande passante résiduelle d’un lien tout en tenant compte des aspects
précités afin de rendre cette estimation la plus précise possible.
33
CHAPITRE
4
Une technique d’évaluation
de
la
bande
passante
résiduelle : ABE
Dans ce chapitre nous présentons ABE pour Available Bandwdith Estimation, un protocole de réservation de bande passante basé sur le standard IEEE 802.11. L’apport majeur du
protocole ABE réside dans l’estimation de la bande passante résiduelle des liens radio. Cette
estimation permanente et distribuée facilite aux applications le choix des routes pouvant
satisfaire leurs contraintes en terme de bande passante. ABE adopte une approche proactive
pour l’estimation des ressources qui est mise à jour périodiquement et une approche réactive
pour la recherche de route. Ainsi à partir des informations collectées le long d’une route, ABE
est en mesure de prédire si une route est capable de fournir assez de bande passante pour
une application donnée. La validation du fonctionnement de notre protocole a été effectuée
par simulation.
4.1
Une estimation précise de la bande passante
résiduelle
Le but de cette section est de présenter en détail la méthode mise en place pour estimer la
bande passante résiduelle d’un lien en tenant compte des préconisations faites dans les paragraphes précédents. A partir de ces préconisations et du fonctionnement du protocole IEEE
802.11, nous avons identifié quatre phénomènes pouvant avoir un impact sur l’estimation de
la bande passante résiduelle.
– Le mécanisme de détection de porteuse empêche à deux mobiles, se trouvant dans cette
zone, d’émettre simultanément. Par conséquent, un mobile partage de la bande passante avec l’ensemble des émetteurs se trouvant dans sa zone de détection de porteuse.
– Pour qu’une transmission s’établisse correctement, le canal doit être libre aux alentours
des mobiles émetteur et récepteur. La valeur de la bande passante résiduelle dépend
donc de la synchronisation des périodes de temps libre entre ces deux entités.
– A chaque collision, les paquets de données concernés sont retransmis, réduisant ainsi
la bande passante de disponible.
– Finalement, en cas de collision, le mécanisme du backoff exponentiel double la taille
de la fenêtre de contention. Ce surplus de temps a un impact sur la valeur de la bande
passante résiduelle.
34
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
Un lien radio est composé de deux nœuds à portée de communication. Dans notre proposition nous combinons trois approches :
– Une approche d’écoute temporelle afin d’estimer localement la bande passante
résiduelle en monitorant l’activité du canal radio. Cette approche ne permet d’estimer que la bande passante résiduelle des nœuds, mais permet de prendre en compte la
bande passante consommée dans la zone de détection de porteuse.
– Une évaluation probabiliste de la synchronisation des périodes de temps libres des
mobiles aux extrémités du lien. L’approche probabiliste semble la plus à même d’approximer la synchronisation réelle d’un lien qui est difficile à prévoir.
– Une estimation de la probabilité de collision sur le lien considéré ainsi que le mécanisme
du backoff exponentiel.
Les deux derniers points nécessitent l’échange d’informations de bande passante entre
les mobiles. Cet échange est réalisé, non à l’aide des paquets de contrôle envoyés de bout
en bout, mais grâce aux paquets Hello que l’on retrouve habituellement dans la plupart
des protocoles de routage. Par conséquent, leur utilisation n’entraı̂nera pas un surplus de
trafic au niveau du réseau. Ainsi, nous considérons notre méthode d’estimation de la bande
passante résiduelle comme passive et non intrusive.
4.1.1
Estimation de la bande passante résiduelle d’un nœud
Lorsqu’un nœud désire émettre des données, il rentre en phase de contention avec les
autres émetteurs se trouvant dans son voisinage. Ainsi, un émetteur potentiel doit évaluer la
proportion de temps d’inactivité du médium pour déterminer ses chances d’accès au canal.
Considérons un nœud s quelconque du réseau durant une période de mesure composée
de ∆ unités de temps. Nous utilisons les notations suivantes :
– Tidle (s) est la durée totale pendant laquelle le mobile s n’émet pas de données et perçoit
le canal comme libre. Cela signifie que les mécanismes de détection de porteuse et de
virtual carrier sensing indique que le canal est dans le mode libre.
– τs est pourcentage d’inactivité du canal perçue par s.
– Bs est la bande passante résiduelle au niveau du nœud s.
– Cmax est la capacité du médium.
Pendant une période d’observation composée de ∆ unités de temps, le nœud s écoute
l’activité du médium et en déduit sa période globale d’inactivité du médium. (figure 4.1).
Les nœuds ne considèrent que les périodes d’inactivité du canal supérieures à un DIFS,
qui représente la durée d’attente minimale pour qu’une communication puisse démarrer.
Par définition, nous avons :
τs =
Tidle (s)
∆
Il est important de noter que cette écoute permanente du médium permet de prendre
en compte la bande passante utilisée par les mobiles dans la zone de détection de porteuse.
Estimer la bande passante consommée par un mobile se trouvant dans la zone de détection
35
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
Fig. 4.1 – Occupation médium perçue par le nœud s
de porteuse sera d’autant plus difficile que le signal ne pouvant être décodé proprement, certaines informations sur cette communication (comme par exemple, l’identité de l’émetteur
du paquet, la taille du paquet), utiles au calcul de la bande passante résiduelle, ne pourront être exploitées de prime abord. Cependant, il est intéressant de remarquer que tout
signal dont la valeur de la puissance est supérieure au seuil de détection de porteuse, bloque
l’émission du nœud qui écoute. Par conséquent, le mobile est en mesure d’estimer la durée
d’occupation du médium provenant d’un signal en zone de détection de porteuse. Or, c’est
la seule information nécessaire afin d’estimer la bande passante résiduelle d’un nœud. On en
déduit donc que la bande passante résiduelle du nœud s est bornée :
Bs ≤ τs × Cmax
A ce stade, on constate encore une surestimation de la bande passante résiduelle car cette
première méthode ne prend pas en compte le backoff et les collisions qui peuvent survenir à
la réception. Pour être plus précis, il faut donc considérer l’état des liens dans le réseau.
4.1.2
Estimation de la bande passante résiduelle d’un lien : une
première approche
La seule connaissance de la distribution de l’occupation du médium au niveau des mobiles émetteur et récepteur est insuffisante afin de prédire la bande passante résiduelle du
lien considéré. Notre méthode doit prendre en compte la synchronisation de ces périodes
d’inactivité du médium au niveau de l’émetteur et du récepteur. Pour cela, on effectue une
estimation probabiliste du recouvrement de ces périodes de temps libre à partir de l’occupation médium au niveau de l’émetteur et du récepteur.
4.1.2.1
Prise en compte de la synchronisation des périodes d’inactivité
Considérons un lien radio composé de deux nœuds voisins (dans la même zone de communication) s et r. Nous utilisons les notations suivantes :
– δ représente une unité de temps.
– τm = ∆δ est le nombre d’unités de temps pendant une période de mesure.
36
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
– τs (resp. τr ) est le ratio entre le nombre d’unités de temps pendant lequel le médium
est libre au niveau de s (resp. r) et de ∆, comme décrit dans le paragraphe précédent.
– Bs (resp. Br ) est la bande passante résiduelle estimée au niveau du nœud s (resp. r).
– B(s,r) est la bande passante résiduelle réelle du lien (s, r), c’est à dire le débit maximum
d’émission pour lequel, le débit des communications voisines n’est pas dégradé. Notre
estimation doit donc être la plus proche possible de cette valeur.
– b(s,r) est la bande passante résiduelle estimée du lien (s, r) lorsque le mécanisme des
RTS/CTS est désactivé.
Lorsque la bande passante résiduelle du nœud s est nulle (Bs = 0), ce dernier ne peut
accéder au canal qu’il voit toujours occupé. De manière analogue, lorsque le médium est
saturé au niveau du récepteur (Br = 0), les émissions de s vont systématiquement provoquer
des collisions au niveau du récepteur r et la communication ne pourra s’établir. De manière
triviale, nous pouvons établir que :
B(s,r) ≤ min (Bs , Br ).
Introduire dans le réseau un flux dont le débit est supérieur à min (Bs , Br ), va nécessairement
saturer le médium aux alentours de s et/ou r. Dans les réseaux sans fil, la perception de
l’état du médium (occupé ou inoccupé) est relative à la position notamment à cause de
l’atténuation des signaux dans l’air. Pour qu’une communication puisse s’établir correctement, le médium doit être perçu comme libre simultanément aussi bien au niveau de
l’émetteur que du récepteur. En conclusion, la bande passante d’un lien dépend de la synchronisation des périodes de temps libre entre l’émetteur et le récepteur.
Bande passante inutilisable
pour le lien
Fenêtres de communication
Émetteur
occupé
libre
δ
t
Δ
occupé
libre
Récepteur
Fig. 4.2 – Pire cas : désynchronisation totale entre émetteur et récepteur
Au niveau de la figure 4.2, les périodes de temps libre des nœuds émetteur et récepteur
son totalement désynchronisées. Lorsque le médium est libre au niveau du récepteur, alors
il est perçu comme occupé au niveau de l’émetteur et vice-versa. Comme conséquence, la
bande passante résiduelle du lien (s, r) est donc nulle, tandis qu’on obtient l’égalité B(s,r) =
min (Bs , Br ) dans le meilleur des cas comme représenté au niveau de la figure 4.3.
37
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
Bande passante inutilisable
pour le lien
Fenêtres de communication
Émetteur
occupé
libre
δ
t
Δ
occupé
libre
Récepteur
Fig. 4.3 – Meilleur cas : synchronisation totale entre émetteur et récepteur
Dans un réseau ad hoc, la gestion des communications n’étant pas centralisée, il est peut
probable que les communications soient synchronisées. Dans le cas général, il est nécessaire
d’estimer la probabilité de recouvrement des périodes d’inactivité du médium pour pouvoir
en déduire la bande passante résiduelle du lien (s, r).
Bande passante inutilisable
pour le lien
Fenêtres de communication
Émetteur
occupé
libre
δ
t
Δ
occupé
libre
Récepteur
Fig. 4.4 – Cas général : synchronisation partielle entre émetteur et récepteur
Pour qu’une communication puisse s’établir le médium radio doit être libre au moins
pendant la durée d’un DIFS, pour que l’émetteur puisse accéder au canal. Le médium doit
être libre le temps de transmettre l’intégralité du paquet de donnée (TDAT A ), plus la réception
de l’acquittement correspondant.
Si l’on considère une distribution uniforme de l’occupation du médium durant la période
de mesure ∆, il est possible de calculer la durée E(l(r,s) ) avant que les nœuds s et r ne soient
synchronisés et par conséquent, avant que la communication ne puisse s’établir. Connaissant
τs , τr et τm , nous notons par p(i, j, k) la probabilité que :
– la première synchronisation arrive à l’unité de temps i
38
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
– le médium autour de l’émetteur est resté libre pendant j unités de temps avant la
synchronisation
– le médium autour du récepteur est resté libre pendant k unités de temps avant la
synchronisation
i−j τm −i−1 τm −i−1 i
. τs −j−1 . τr −k−1
j . k
.
Ainsi, p(i, j, k) =
τm . τm
τs
τr
A partir de cette expression, nous pouvons déduire la probabilité P(l(s,r) = i) que la
première synchronisation arrive à une unité de temps donnée en examinant toutes les valeurs
possibles de j et k.


min(τs −1,i−1)
min(τr −1,i−1−j)
X
X

P(l(s,r) = i) =
p(i, j, k)
j=max(0,τs −(τm −i))
k=max(0,τr −(τm −i))
D’où la valeur E(l(r,s) ) avant que la première synchronisation ne s’établisse :
min(τm ,2.τm −(τs +τr ))
E(l(s,r) ) =
X
i.P (l(s,r) = i)
i=0
La communication ne peut s’établir que si le médium est physiquement libre au niveau
des émetteur et récepteur. L’exemple d’une telle situation est représenté sur la figure 4.4.
Toujours en considérant une distribution uniforme de l’occupation du médium, la bande
passante résiduelle estimée du lien (s, r) peut être évaluée par les formules suivantes :
P(b(s,r)
−τs
(τi s ).(ττm
)
r −i
= i) =
(ττm
)
r
min(τs ,τr )
=⇒ b(s,r) = Cmax ×
X
i.P (b(s,r) = i)
i=0
b(s,r) = Cmax × τs × τr
(4.1)
Il faut noter que cette estimation peut être raffinée dès lors que les nœuds extrémités
d’un lien sont en mesure de déterminer leur voisinage commun. En effet, si deux nœuds ont
des voisins communs qui émettent alors le médium va être occupé en même temps pour ces
deux nœuds et il n’y a plus indépendance des distributions des temps d’occupation de ces
deux nœuds. Lorsque cela est possible (i.e. lorsque nous sommes en mesure de déterminer les
voisins communs qui ont émis), nous prenons alors en compte la dépendance des distributions
dans l’estimation.
39
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
Pour illustrer l’importance de l’estimation de la synchronisation des périodes de temps
libres entre l’émetteur et le récepteur, considérons le scénario de la figure 4.5. Les communications sont représentées par les flèches et les nœuds en zone de détection de porteuse
sont reliés par des tirets. Les simulations réalisées sous le simulateur NS-2 à 2 et 11 Mb/s,
impliquent des débits applicatifs réels de 1,6 et 5 Mb/s.
Nous cherchons donc à évaluer la bande passante résiduelle sur le lien (C, D), à partir
de la synchronisation des périodes d’inactivité du médium entre ces nœuds C et D. Cette
valeur évolue en fonction du débit du lien (E, F ), le débit du lien (A, B) étant constant et
utilisant 50% de la capacité du médium (i.e 800 kb/s à 2 Mb/s et 2500 kb/s à 11 Mb/s).
Fig. 4.5 – Estimation de la synchronisation du lien (C, D)
Les figures 4.6(a) et 4.6(b) représentent la bande passante résiduelle réelle du lien (C, D),
mesurée en ajoutant un flux entre ces deux nœuds et en monitorant le débit effectif. Cette
valeur est comparée à la valeur de la bande passante résiduelle estimée par le protocole
AAC décrit précédemment et par synchronisation. Le but ici est de voir l’apport de la synchronisation des périodes de silence entre l’émetteur et le récepteur sans se préoccuper des
collision éventuelles. C’est pourquoi nous avons retenu AAC comme solution de comparaison, car cette approche est basée sur une écoute active du médium et considère la bande
passante résiduelle du lien comme le minimum des bandes passantes résiduelles des nœuds
aux extrémités.
La technique AAC ne considère aucune synchronisation entre l’émetteur et le récepteur.
Par conséquent elle surestime la bande passante résiduelle réelle au niveau de ce lien. Avec
notre méthode prenant en compte la synchronisation entre l’émetteur et le récepteur, cette
surestimation est plus faible qu’avec AAC, mais reste toujours présente. Nous pouvons donc
conclure que la synchronisation des périodes de temps libres entre l’émetteur et le récepteur
favorise une estimation plus précise de la bande passante résiduelle, principalement lorsque
le médium est libre aux alentours du récepteur (entre 80 et 100% de période d’inactivité
aux alentours du récepteur). Néanmoins, elle n’est pas suffisante à cause de la présence des
collisions qui dégradent le débit des communications. Nous devons donc mettre en place un
mécanisme permettant de prédire la proportion de collision au niveau du récepteur.
40
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
3000
1000
Bande passante résiduelle réelle
Bande passante résiduelle estimée par synchronisation
Bande passante résiduelle estimée par AAC
Bande passante résiduelle du lien (C,D) (kb/s)
Bande passante résiduelle du lien (C,D) (kb/s)
Bande passante résiduelle réelle
Bande passante résiduelle estimée par synchronisation
Bande passante résiduelle estimée par AAC
800
600
400
200
2500
2000
1500
1000
500
0
0
0
20
40
60
80
Pourcentage d’occupation médium autour du récepteur D (%)
100
(a) Capacité de 2 Mb/s
0
20
40
60
80
Pourcentage d’occupation médium autour du récepteur D (%)
100
(b) Capacité de 11 Mb/s
Fig. 4.6 – Bande passante résiduelle du lien (C, D) obtenue par synchronisation
4.1.2.2
Prise en compte des collisions
Le phénomène des collisions dégrade plus ou moins fortement le débit des communications dans un réseau ad hoc. En présence de plusieurs flux émis par des sources différentes
dans le réseau, les émissions peuvent entrer en collision, empêchant du même coup une
réception correcte par les nœuds destinataires. Ainsi la seule connaissance de la distribution
des périodes de temps libre au niveau de l’émetteur et du récepteur n’est pas toujours suffisante pour prévoir une collision. En effet, lorsqu’un paquet est émis au niveau de la source,
il est possible que le médium au niveau du nœud récepteur soit occupé ce qui va engendrer
une collision au niveau de ce dernier. La présence de collision engendre des retransmissions
de paquets et augmente la taille de la fenêtre de contention, ce qui tend à réduire la bande
passante résiduelle.
Dans le scénario présenté au niveau de la figure 3.2, des protocoles tels que BRuIT, CACP
et AAC faussent l’évaluation de la bande passante résiduelle sur le lien (A, B) car toutes ces
méthodes ne prennent pas en compte les collisions qui surviennent au niveau du nœud B. Par
conséquent, pour que l’estimation de la bande passante résiduelle soit précise, nous devons
estimer une probabilité de collision au niveau du nœud récepteur.
Périodiquement, des paquets Hello sont envoyés en diffusion pour que les mobiles puissent
s’échanger les informations de bande passante et de voisinage. Ainsi nous pouvons estimer
sur ces messages Hello une probabilité de collision notée par pHello selon la formule :
pHello =
Nombre de paquets Hello entrés en collision
Nombre de paquets Hello que l’on devrait recevoir
(4.2)
Pour estimer cette probabilité de collision, les messages Hello sont envoyés
périodiquement en mode diffusion par tous les nœuds à une fréquence supposée connue.
Ainsi, dès qu’un mobile reçoit un message Hello d’un de ses voisins, il peut en déduire le
nombre de messages Hello qu’il devrait recevoir de ce voisin durant une période de mesure.
41
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
Cette valeur correspond au dénominateur ”Nombre de paquets Hello qu’on devrait recevoir”.
Le numérateur correspond à cette dernière valeur moins le nombre de paquets Hello effectivement reçus durant cette même période de mesure. Il est important de remarquer que la
probabilité de collision sur le lien (i, j), n’est pas forcément la même que celle sur le lien (j, i).
Ceci est principalement dû aux interférences qui n’exercent pas ses effets de façon symétrique
et des collisions qui peuvent survenir aussi bien à l’émission qu’à la réception de données.
Une telle estimation n’est toujours pas assez précise. En effet, le nombre de paquets Hello
reçus dans un intervalle de temps donné, peut être influencé aussi bien par une congestion
que par des collisions. Cependant, il est intéressant de noter que si l’émetteur n’émet pas
un nombre important de paquets Hello, cela implique que le médium est chargé dans son
voisinage. Par conséquent tous les liens associés à ce nœud n’auront pas une bande passante
résiduelle élevée et l’erreur sur la valeur de pHello n’aura pas un impact important sur l’estimation. De plus, cette erreur va générer une sous-estimation de la bande passante résiduelle,
ce qui est préférable (il est préférable de diminuer le nombre de flux QoS que de dégrader le
débit des flux voisins) à une surestimation qui entraı̂nerait une dégradation des flux QoS.
Les paquets Hello ont une taille petite et constante. En conséquence la probabilité de
collision que l’on observe sur des paquets de données de plus grandes tailles ne sera pas
identique à la probabilité de collision sur ces paquets Hello. Pour résoudre ce problème nous
utilisons une interpolation à l’aide des polynômes de Lagrange dont le but est de trouver un
unique polynôme P (m) dépendant de la taille m du paquet telle que :
p(m) = P (m) × pHello
(4.3)
p(m) étant la probabilité de collision sur un paquet de taille m octets.
Taille des paquets = 1000 octets
Taille des paquets = 500 octets
Taille des paquets = 250 octets
Taille d’un paquet Hello
120
100
Probabilité de collision
100
Probabilité de collision
Probabilité de collision obtenue par simulation pour m=1000 octets
Probabilité de collision obtenue par simulation pour m=500 octets
Probabilité de collision obtenue par estimation pour m=1000 octets
Probabilité de collision obtenue par estimation pour m=500 octets
120
80
60
80
60
40
40
20
20
0
0
0
500
1000
Débit du lien C−>D (kb/s)
1500
2000
0
500
1000
Débit du lien C−>D (kb/s)
1500
2000
(a) Probabilité de collision en B, obtenue par simu- (b) Probabilité de collision en B, obtenue par estimalation et pour différentes tailles de paquets
tion et pour différentes tailles de paquets
Fig. 4.7 – Probabilité de collision au niveau du nœud B
Considérons le scénario de la figure 3.2. Nous estimons la probabilité de collision au
niveau du nœud B en fonction du débit sur le lien (C, D). La figure 4.7(a) représente cette
42
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
probabilité de collision obtenue par simulation avec NS-2 pour différentes tailles de paquets,
en présence de paquets Hello. A partir de ces mesures, nous pouvons déduire analytiquement
le polynôme d’interpolation correspondant à cette situation :
P (m) = −5, 65 · 10−9 m3 + 11, 27 · 10−6 m2 − 5, 58 · 10−3 m + 2, 19.
La figure 4.7(b) représente la probabilité de collision estimée au niveau du nœud B, p(m),
en utilisant le polynôme d’interpolation P (m), pour différentes tailles de paquets. Cette figure
montre que la probabilité de collision estimée est une bonne approximation de la probabilité
de collision obtenue par simulation pour des tailles de paquets de 1000 et 500 octets.
Afin d’obtenir une idée sur le degré de précision de l’interpolation, nous estimons l’erreur
relative commise par le biais de l’interpolation. Elle estime l’écart séparant la courbe de la
probabilité de collision obtenue par simulation de celle interpolée. L’erreur relative notée ,
est un vecteur ligne où chaque composante i représente l’erreur relative au point d’abscisse
xi :
i)
= (1 , 2 , . . . , n ) avec i = | f (xfi )−g(x
| ∀i ∈ [1; n]
(xi )
f (xi ) et g(xi ) étant respectivement les valeurs des probabilités de collision obtenues au point
d’abscisse xi par simulation et par interpolation.
Nous pouvons aussi calculer l’erreur relative moyenne notée à l’aide de la formule ci-dessous :
n 1 X f (xi ) − g(xi ) =
n i=1 f (xi )
Le tableau 4.1 représente l’erreur d’interpolation faite dans notre cas. Ainsi le vecteur
d’erreur obtenu en pourcentage est = (9, 3; 1, 5; 4, 7; 1) ce qui représente une erreur moyenne
de = 4% environ. Ceci demeure relativement faible et traduit de la précision de l’interpolation à l’aide des polynômes de Lagrange.
(xi )
(g(xi ))
(f (xi ))
i (%)
0
0
0
-
250
29
32
9,3
500
62
63
1,5
750
89
85
4,7
1000
100
99
1
Tab. 4.1 – Erreur relative due à l’ interpolation
Afin de s’intéresser à la précision de cette probabilité de collision interpolée dans d’autres
configurations, nous générons une topologie aléatoire de dix nœuds et cinq flux CBR (sources,
destinations et débits aléatoires). Les paquets de données ont une taille de 1000 octets. Un
lien spécifique entre les nœuds 0 et 1 est placé au centre de la topologie. Sur ce lien, nous
estimons trois paramètres :
– La probabilité de collision sans le mécanisme d’interpolation : pHello .
43
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
0.5
Probabilité de collision sans interpolation
Probabilité de collision avec interpolation
Probabilité de collision réelle
0.45
0.4
Probabilité de collision
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
0
5
10
15
20
25
30
Date de la simulation (s)
35
40
45
50
Fig. 4.8 – Précision de la probabilité de collision interpolée sur un scénario aléatoire
– La probabilité de collision lorsque le mécanisme d’interpolation est activé et pour des
paquets de taille m =1000 octets : pm .
– La probabilité de collision réelle, obtenue de manière offline en analysant les traces de
la simulation.
La figure 4.8 représente l’évolution temporelle des trois probabilités de collision décrites
précédemment. Comme nous pouvons le constater, lorsque le mécanisme d’interpolation
n’est pas activé, il y a une sous estimation de la probabilité de collision réelle. Lorsque ce
mécanisme est activé, la probabilité de collision obtenue par interpolation devient alors très
proche de la probabilité de collision réelle.
Il est important de noter que la probabilité de collision ne dépend que de la taille des
paquets envoyés par la source et de la distribution de l’occupation du médium au niveau
du récepteur. Nous avons donc présenté une méthode permettant d’évaluer la probabilité de
collision qui combine deux approches :
– Une approche on-line permettant d’évaluer l’impact de la distribution de l’occupation
du médium au niveau du récepteur par le biais de la probabilité de collision sur les
paquets Hello.
– Une approche off-line qui prend en compte la taille des paquets envoyés par la source
par le biais d’une interpolation.
Dans la norme IEEE 802.11, à chaque collision la taille de la fenêtre de contention augmente jusqu’à une valeur limite. Nous devons donc modéliser le backoff exponentiel pour
raffiner davantage l’estimation de la bande passante résiduelle.
44
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
4.1.2.3
Prise en compte du backoff
Lorsqu’un mobile subit une collision, il double la taille de sa fenêtre de contention. Jusqu’à
présent, nous n’avons considéré que la proportion de bande passante consommée par les
collisions sans tenir compte du mécanisme du backoff de la norme IEEE 802.11. Dans le
paragraphe précédent nous avons pu estimer la probabilité de collision au niveau d’un nœud
récepteur. Parallèlement, nous devons également estimer la proportion de bande passante
perdue lors de la phase du backoff exponentiel.
Le temps passé dans la procédure du backoff exponentiel dépend de la version du protocole
et du taux de collisions sur le lien. Ce temps ne dépend pas de la taille du paquet. Par
conséquent, ignorer l’influence du backoff pour des paquets de petites tailles, peut introduire
une imprécision dans l’estimation de la bande passante résiduelle.
Dans un premier temps, lorsqu’il n’y a pas de collision, le backoff suit une loi uniforme
−1
.
dans l’intervalle [0 ;CWmin − 1] et peut donc être approximé par sa valeur moyenne CWmin
2
Nous utiliserons les notations suivantes :
– K représente la proportion de bande passante perdue à cause du backoff.
−1
– backof f est la valeur moyenne du backoff sans collision qui équivaut à CWmin
.
2
– DIF S (SIF S resp.) est la durée d’un DIFS (SIFS resp.) défini par la norme IEEE
802.11.
– T (m) est le délai séparant l’émission de deux paquets consécutifs. Cette valeur dépend
du débit d’émission et de la taille m du paquet.
La proportion de bande passante perdue à cause du backoff et notée K est donnée par
la formule :
DIF S + backof f
(4.4)
K=
T (m)
On constate que la valeur de K diminue lorsque la taille des paquets augmente. Dans
certains cas (avec des paquets de très petites tailles), le fait de ne pas prendre en compte la
valeur de K peut entraı̂ner une estimation imprécise de la bande passante résiduelle.
En cas de collision, le mécanisme du backoff exponentiel est activé. Après chaque paquet
ayant subi une collision, la taille de la fenêtre de backoff est doublée jusqu’à une valeur
maximale CWmax définie par la norme. Par conséquent la valeur du backoff augmente audelà de la valeur moyenne obtenue lorsqu’il n’y a pas de collision.
Considérons un lien radio pour lequel la probabilité de collision vaut p. La variable n
représente le nombre de retransmissions associé à cette probabilité de collision p.
Avec une probabilité équivalente à (1 − p), la première transmission est réussie et le backoff
−1
moyen est équivalent à CWmin
.
2
Avec une probabilité p.(1 − p), le premier paquet subit une collision et le deuxième paquet
−1
est transmis correctement en utilisant un backoff moyen équivalent à 2 × CWmin
.
2
Après C retransmissions sans succès, C dépendant de la taille du paquet, la norme IEEE
802.11 spécifie que le paquet correspond doit être détruit.
Nous pouvons donc représenter cette progression par une chaı̂ne de Markov à temps
discret dont les états représentent le nombre de retransmissions et les transitions sont les
probabilités de subir une nouvelle collision où une émission avec succès (retour à l’état ini45
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
Fig. 4.9 – Retransmissions d’un paquet ayant subit des collisions
tial) comme indiqué sur la figure 4.9.
Soit X la variable aléatoire représentant le nombre
primée à l’aide des probabilités suivantes :
 k
 p · (1 − p)
pk
P (X = k) =

0
de retransmissions. Elle peut être exsi k ≤ C
si k = C + 1
si k ≥ C + 1
Les deux dernières probabilités indiquent le fait que, comme spécifié par la norme IEEE
802.11, le nombre maximum de retransmissions est fixé à C. Au-delà de cette valeur limite,
le paquet est détruit et le backoff est ramené dans l’intervalle initial [0 ;CWmin − 1].
Ainsi, pour un lien dont la probabilité de collision est p, le nombre moyen de retransmissions n associé à cette probabilité de collision est égal à l’espérance de la variable aléatoire
X. D’où :
n=
+∞
X
k · P (X = k) =
C+1
X
k=1
k=1
C
X
n=
k · P (X = k)
k.pk (1 − p) + (C + 1)p(C+1)
k=1
Le nombre de slots de backoff décrémentés depuis le début de la transmission est donc :
backof f =
+∞
X
P (X = k) ·
k=1
min(CWmax ; 2k−1 · CWmin ) − 1
2
Pour simplifier cette expression, supposons que CWmax = 2c · CWmin avec c ≤ C :
backof f =
c
X
k=1
k−1
P (X = k) ·
2
· (CWmin − 1)
2
46
!
+
C
X
k=c+1
P (X = k) ·
(CWmax − 1)
2
!
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
c
X
k=1
k−1
pk−1 · (1 − p) ·
2
backof
! f= C
!
X
· (CWmin − 1)
(CW
−
1)
max
+
pk−1 · (1 − p) ·
2
2
k=c+1
1−p
·
=⇒ backof f =
2
1 − (2p)c
pc − pC
· CWmin +
1 − 2p
1−p
Dans cette évaluation, nous considérons la probabilité de collision indépendante du débit
d’émission du nœud émetteur. Cette approximation est juste dans la plupart des cas. En
effet, la probabilité de collision reflète le fait qu’un paquet, une fois émis, subit une collision
parce que le médium dans le voisinage du récepteur est occupé par d’autres transmissions.
Ainsi l’instant d’émission du paquet par l’émetteur influe très peu sur cette probabilité de
collision. Cependant, pour des topologies où plusieurs émetteurs génèrent des transmissions
vers un récepteur commun, les collisions au niveau du récepteur vont entraı̂ner une augmentation de la fenêtre de contention de tous les nœuds ayant subi une collision et modifier la
charge autour du récepteur et par conséquent la probabilité de collision. En fin de compte,
dans notre approche, à chaque envoi périodique de paquet Hello, la probabilité de collision est
recalculée ce qui tend à améliorer la précision de l’estimation de la bande passante résiduelle.
Finalement, la proportion de bande passante perdue à cause du mécanisme du backoff
en cas de collision est donnée par la formule :
K=
4.1.2.4
DIF S + backof f
T (m)
(4.5)
Formule d’évaluation de la bande passante résiduelle
Les différents points abordés précédemment peuvent être combinés pour estimer la bande
passante résiduelle d’un lien radio, i.e. entre un émetteur et un récepteur à portée radio. Le
mécanisme d’estimation repose essentiellement sur la perception qu’ont les nœuds émetteur
et récepteur de leur environnement. En conclusion, pour estimer la bande passante résiduelle
d’un lien composé de deux nœuds s et r à portée de communication, trois paramètres sont
nécessaires :
– b(s,r) qui représente une estimation de la synchronisation des périodes de temps libre
entre les nœuds source s et destinataire r à portée de communication et calculée à
l’aide de l’équation 4.1.
– La valeur K qui représente la proportion de bande passante perdue sous forme de
backoff.
– La valeur pm qui représente la probabilité de collision sur des paquets de taille m octets.
Pour estimer de manière fine la bande passante résiduelle sur le lien (s, r), il faut donc
retrancher les proportions de bande passante perdues par le backoff et les collisions.
47
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
D’où la formule :
Ef inal b(s,r) = (1 − K) · (1 − pm ) · b(s,r)
4.1.2.5
(4.6)
Comparaison avec QOLSR
Nous reprenons le scénario de la figure 4.5 et simulons QOLSR. Dans cette simulation,
l’occupation du médium autour du nœud émetteur C est de 50% tandis qu’elle varie de 0 à
100% autour du récepteur D. Le protocole QOLSR [45] propose une estimation de la bande
passante résiduelle qui se base sur une évaluation de l’occupation du médium et une prise
en compte des collisions par le biais des paquets Hello. Cependant, les auteurs ne précisent
pas si cette occupation du médium correspond à l’occupation du médium du lien ou de l’une
des extrémités. Nous allons donc considérer deux cas :
– L’occupation du médium correspond à celle autour du nœud récepteur, étiquetée par la
courbe ”Bande résiduelle estimée par QOLSR sans synchronisation”. Par conséquent,
il n’y a aucune synchronisation prise en compte.
– L’occupation du médium considérée est celle du lien (C, D), impliquant une prise en
compte de la synchronisation des périodes de temps libre entre C et D, comme nous
venons de le présenter1 . La courbe correspondante est étiquetée par ”Bande passante
résiduelle estimée par QOLSR avec synchronisation”.
Bande passante résiduelle réelle
Bande passante résiduelle estimée par QOLSR avec synchronisation
Bande passante résiduelle estimée par QOLSR sans synchronisation
Bande passante résiduelle estimée par l’équation (4.6)
Bande passante résiduelle réelle
Bande passante résiduelle estimée par QOLSR avec synchronisation
Bande passante résiduelle estimée par QOLSR sans synchronisation
Bande passante résiduelle estimée par l’équation (4.6)
5000
1400
Bande passante résiduelle du lien (C,D) (kb/s)
Bande passante résiduelle du lien (C,D) (kb/s)
1600
1200
1000
800
600
400
4000
3000
2000
1000
200
0
0
0
20
40
60
80
Pourcentage d’occupation médium autour du récepteur D (%)
100
0
(a) Capacité 2 Mb/s
20
40
60
80
Pourcentage d’occupation médium autour du récepteur D (%)
100
(b) Capacité 11 Mb/s
Fig. 4.10 – Influence de la synchronisation pour QOLSR
Les figures 4.10(a) et 4.10(b) représentent la bande passante résiduelle réelle obtenue par
simulation et celle estimée par QOLSR avec ou sans synchronisation à des débits respectifs
de 2 et 11 Mb/s.
Lorsqu’aucune synchronisation n’est prise en compte, la bande passante résiduelle estimée
par QOLSR est largement supérieure à la bande passante résiduelle réelle. Par exemple pour
1
Cette estimation n’est pas proposée dans QOLSR
48
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
une occupation médium de 20% autour de D, la bande passante résiduelle réelle est de
600 kb/s tandis qu’avec QOLSR sans synchronisation cette valeur passe à 1225 kb/s pour
une capacité de 2 Mb/s.
Lorsqu’une synchronisation est prise en compte, la bande passante résiduelle estimée par
QOLSR surestime toujours la bande passante résiduelle réelle du lien (C, D). Toutefois, cette
surestimation est moins importante que dans le cas précédent car la charge autour du nœud
émetteur est prise en compte dans l’évaluation.
De plus, l’estimation de la probabilité de collision proposée par le protocole QOLSR ne
prend pas en compte la taille des paquets. En effet, les paquets Hello étant plus petits que
les paquets de données utilisés au niveau de cette simulation, les probabilités de collision en
D sont plus faibles et par conséquent la bande passante résiduelle réelle est une fois de plus
surestimée.
Cette simulation montre qu’il est indispensable de considérer à la fois une synchronisation
des mobiles émetteur et récepteur et une prise en compte de la taille des paquets dans
l’estimation de la probabilité de collision comme c’est le cas dans la méthode d’estimation
que nous proposons.
4.1.3
Estimation de la bande passante résiduelle d’un lien :
compléments
Reprenons l’exemple de la figure 3.2 que nous représentons une nouvelle fois dans la
figure 4.11. La méthode proposée dans la section 4.1.2.3 permet de calculer la probabilité de
collision au niveau du récepteur B en fonction du débit du Flux 2. Nous sommes donc en
mesure d’évaluer la bande passante résiduelle du lien (A, B).
Fig. 4.11 – Stations cachées
Considérons maintenant le problème dans le sens inverse. La nouvelle question devient :
quelle est la bande passante résiduelle du lien (C, D), s’il existe un flux sur le lien (A, B) ?
49
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
Autrement dit, quelle est la proportion de collision que va créer une émission de C vers D
au niveau du récepteur B.
Cette estimation est cruciale car si un flux est émis sur le lien (A, B), nous devons
connaı̂tre le débit maximum de transmission sur le lien (C, D) afin de ne pas dégrader
le flux entre A et B. Ceci revient à évaluer les collisions qui vont être générées sur le
flux existant s’il y a acheminement de ce nouveau flux. Il est donc nécessaire d’estimer
proprement la bande passante résiduelle du lien (C, D) pour évaluer son impact sur le Flux 1.
Pour cela, nous mettons en place une simulation au niveau de laquelle le débit du Flux 1
noté par d1 est égal à la capacité du médium radio Dmax . Nous augmentons progressivement
le débit du Flux 2 de 0 à Dmax . Cette augmentation va donc provoquer des collisions au
niveau du récepteur B et dégrader le débit du Flux 1.
En analysant les traces de la simulation, nous pouvons récupérer le débit effectif du Flux
1 noté par d1ef pour chaque valeur du débit du Flux 2. Ainsi, la dégradation du débit du Flux
1 de la valeur Dmax à la valeur d1ef est provoquée par les collisions en B dues aux émissions
de C vers D. Notons p cette probabilité de collision qui dépend du débit du Flux 2, impact
qui ne peut pas être déterminé par la méthode donnée dans la section 4.1.2.
Nous avons donc la relation :
d1ef
(4.7)
Dmax
En pratique, la seule inconnue pour le nœud C est donc la variable d1ef . Cependant, tous
les paquets émis de A vers B et qui n’ont pas subi de collision sont acquittés. A partir des
paquets d’acquittements que C reçoit, C est en mesure :
– de déterminer s’il se trouve dans la situation de la figure 4.11 en recevant des acquittements dont le destinataire ne fait pas partie de son voisinage ;
– d’estimer le débit d1ef à partir de la fréquence d’émission des acquittements associés
à ce flux. En effet, la fréquence d’émission des acquittements correspond à celle des
paquets de données. En mesurant le nombre de paquets d’acquittement reçus sur un
intervalle de temps et en supposant une taille de paquet pour les données, d1ef peut
alors être estimé. Ce n’est qu’une estimation car la taille des données envoyées par A
n’est pas connue de C 2 . Une solution aurait été de modifier les paquets d’acquittement
de 802.11 afin d’inclure cette information. Cependant, nous n’avons pas retenu cette
approche qui nécessite de modifier 802.11 ;
– d’en déduire la probabilité p pour calculer le débit avec lequel il pourra envoyer ses
données à D sans dégrader le Flux 1 existant. Cette déduction se fait grâce aux
courbes de la figure 4.7(a).
d1ef = Dmax × (1 − p) =⇒ p = 1 −
Cette approche nécessite de pouvoir décoder correctement les paquets d’acquittements. Si
C et B ne sont pas en zone de communication mais que l’émission de C provoque néanmoins
2
La taille des données retenue est de 1000 octets comme nous le verrons dans la partie évaluation
50
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
des collisions en B, C ne sera pas en mesure de prendre en compte le Flux 1 dans son
évaluation.
Nous expliquons par la suite comment intégrer les estimations des sections 4.1.2 et 4.1.3
dans une version protocolaire.
4.2
Version protocolaire d’ABE
Pour mettre en place une version protocolaire de notre estimation de bande passante
résiduelle, tous les nœuds s’échangent périodiquement par le biais de paquet Hello, leur
information de bande passante. Ainsi, toutes les ∆ secondes, un nœud estime localement son
occupation du médium et inclut cette information dans un paquet Hello légèrement modifié.
La précision de l’estimation de la bande passante résiduelle est conditionnée par le choix
de la période de mesure ∆. Plus la valeur de ∆ est grande, plus stables seront les mesures.
Cependant, ∆ ne doit pas être trop grand afin de pouvoir s’adapter à la mobilité des nœuds.
Nous avons choisi ∆ = 1 s, i.e. une fréquence deux fois plus élevée que dans OLSR.
Ainsi, un nœud r qui reçoit un message Hello d’un nœud voisin s, peut estimer la bande
passante résiduelle du lien (s, r) en utilisant l’équation 4.6 comme indiqué au niveau de la
figure 4.12. Il est important de remarquer que c’est toujours le nœud récepteur r qui estime la
bande passante résiduelle du lien (s, r), afin de faciliter le contrôle d’admission et le processus
de routage.
Fig. 4.12 – Fonctionnement du protocole ABE
51
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
La figure 4.12 résume le fonctionnement protocolaire d’ABE. On constate donc qu’une
communication inter-couches plus communément appelé cross layer facilite la conception
protocolaire d’ABE. En effet, les informations nécessaires à l’estimation de la bande passante
résiduelle vont transiter entre les différentes couches du modèle OSI et faciliter ainsi le
contrôle d’admission. De façon plus générale, les auteurs de [48] ont montré que dans les
réseaux IEEE 802.11, il est indispensable qu’une communication entre les différentes couches
du modèle OSI s’établisse afin de faciliter la gestion de la bande passante.
4.3
Contrôle d’admission dans ABE
Tout mécanisme visant à garantir un certain niveau de qualité de service pour un trafic
donné repose sur un contrôle d’admission qui se doit d’être le plus fiable possible. Dans la
section 4.1.2, nous nous sommes attachés à décrire une méthode permettant d’estimer de
manière précise la bande passante résiduelle d’un lien. Une estimation erronée de la bande
passante résiduelle conduirait inéluctablement vers un contrôle d’admission faussé.
ABE combine une approche aussi bien réactive que proactive :
– L’approche réactive concerne le mécanisme de routage QoS où une route est calculée lorsque l’application désire envoyer ses données. Le routage QoS que nous avons
implémenté constitue essentiellement une extension du protocole AODV. Nous avons
privilégié l’approche réactive pour le routage car elle nous semble plus simple d’utilisation qu’une approche proactive. De plus, le but recherché est de trouver des routes qui
satisfont les contraintes demandées par les applications et non les routes optimales en
terme de bande passante disponible comme le ferait un protocole de routage proactif.
– L’approche proactive concerne l’estimation distribuée de la bande passante résiduelle
de tous les liens du réseau, recalculée périodiquement à chaque réception d’un nouveau
paquet HELLO.
Nous cherchons à offrir des chemins pouvant garantir une certaine bande passante aux applications. Ainsi plusieurs applications ayant la même source et la même destination pourront
emprunter des chemins différents en fonction de la disponibilité des ressources du réseau.
4.3.1
Découverte de route
Nous utilisons les paquets de requête de route (RREQ) auxquels nous rajoutons l’information de bande passante désirée par l’application. Pour pouvoir fournir de la QoS au
protocole AODV, des extensions sur les paquets de découverte de route RREQ ont été proposées dans [49].
Lorsque la source veut établir une route pour un flux QoS, elle diffuse un paquet de RREQ
à ses voisins. Cet envoi est soumis à un premier contrôle d’admission qui indique si le débit
désiré par l’application ne va pas dégrader les flux existants et se trouvant en configuration de
stations cachées avec l’émetteur. Cette vérification se fait grâce à l’estimation donnée dans la
section 4.1.2. Pour éviter les cycles lors de la phase de routage, un numéro de séquence unique
52
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
associé à l’adresse de l’émetteur, est affecté à chaque paquet émis. Lorsqu’une demande
dupliquée est détectée, le paquet de RREQ correspondant est supprimé.
(a) Recherche de route
(b) Réponse de route
Fig. 4.13 – Etablissement d’une route QoS
Chaque nœud intermédiaire qui reçoit la requête effectue deux contrôles d’admission.
Le premier vérifie si la bande passante demandée par l’application est inférieure à la bande
passante résiduelle du lien par lequel le paquet de RREQ a été reçu. Cette vérification permet
de s’assurer que le flux à émettre ne sera pas dégradé par les flux existants et que l’émission
de ce flux ne dégradera pas les flux existants se trouvant dans les voisinages des mobiles aux
extrémités du lien (estimation donnée de la section ??. Une telle vérification ne permet pas
53
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
de dire si l’émission du flux par ce nœud intermédaire dégradera les flux existants se trouvant
en configuration de stations cachées avec ce nœud. C’est pour cela qu’un deuxième contrôle
d’admission fonction de l’estimation donnée dans la section 4.1.3 est effectué.
Si ces deux contrôles sont réussis, le mobile ajoute son adresse sur la route et renvoie le
paquet de RREQ ; sinon il le détruit. Lorsque le destinataire le reçoit, il vérifie aussi si son
contrôle d’admission a réussi. Finalement, le destinataire renvoie à la source un paquet
de réponse (RREP) en mode unicast par le chemin inverse pour s’assurer que la route
réservée est toujours utilisable. Lorsque ce paquet revient au nœud source, alors les ressources
sont réservées et le nouveau flux QoS est envoyé sur cette route comme indiqué sur les
figures 4.13(a) et 4.13(b).
4.3.2
Maintenance de route
ABE détecte une route cassée en monitorant les paquets Hello. Lorsqu’un mobile ne reçoit
aucun message Hello pendant une certaine durée prédéterminée, il renvoie un message de
route erreur (RERR) à la source qui va se charger de trouver une route de secours. Le même
processus est répété lorsqu’un mobile intermédiaire se rend compte que les conditions du
réseau ne lui permettent plus d’acheminer son flux QoS au débit désiré. Une autre solution
pourrait être de conserver localement pour tous les mobiles des routes de secours, afin de ne
pas informer la source à chaque fois qu’il se produit une cassure de route.
4.3.3
Contention intra flux
Lorsque l’émetteur et le récepteur sont à plus d’un saut radio, nécessitant un routage
multi-saut, la propagation des paquets le long de cette même route génère des interférences
au-delà de la zone de communication. Une transmission sans fil consomme de la bande
passante sur un ensemble de liens en aval, bloquant par la même occasion l’accès au médium
à l’ensemble des nœuds se trouvant dans cette zone : c’est le phénomène de la contention intra
flux. Par conséquent, une simple comparaison entre le débit demandé par l’application et la
bande passante résiduelle sur le lien n’est pas suffisante. En effet, elle ne prend pas en compte
le fait que le flux QoS sera routé par des mobiles voisins, bloquant toutes les transmissions
dans un rayon supérieur à la zone de communication du mobile. Afin d’accepter un nouveau
flux dans le réseau sans dégrader le débit des flux existants, le contrôle d’admission doit être
en mesure d’évaluer avec précision l’impact de l’introduction de ce nouveau flux sur tous les
nœuds dans le voisinage.
Dans [42], les auteurs calculent un paramètre d’un même flux appelé le contention count
(CC) à travers un chemin et qui caractérise le nombre de nœuds se trouvant dans la zone
de détection de porteuse du mobile considéré. La valeur du CC de chaque nœud est estimé
en analysant la distribution de la puissance du signal. Cependant, l’inconvénient de cette
méthode est que pour pouvoir estimer le CC de chaque nœud, il faut être en mesure de
localiser tous les mobiles dans la zone de détection de porteuse ce qui n’est pas toujours
possible.
54
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
Les expérimentations menées dans [50] montrent qu’avec 802.11b (pour un débit de
2 Mb/s), la zone de détection de porteuse est approximativement égale au double de la
zone de communication. Sous cette hypothèse, les auteurs de [51] démontrent aisément que
la propagation d’un flux QoS le long d’un chemin, ne perturbe que les liens situés dans un
rayon maximum de quatre sauts. En d’autres termes, réserver X kb/s de bande passante le
long d’une chemin à n sauts, revient à réserver (k × X) kb/s avec k étant le minimum entre
n et 4.
4.4
Limitations du protocole ABE
Le protocole tel que décrit ci-dessus possède quelques limitations qui sont essentiellement
liées à la précision de l’estimation de la bande passante résiduelle. Il existe de nombreuses
situations imprévisibles, liées à des topologies particulières pouvant conduire à une estimation
erronée de la bande passante résiduelle. La mise en place d’un mécanisme extrêmement
précis, véhiculant toutes les informations nécessaires pour apporter une précision très fine à
l’estimation, nécessiterait un volume d’informations trop coûteux au détriment des données
et n’est peut-être pas toujours réalisable. Plusieurs sources d’erreurs peuvent être identifiées
parmi lesquelles nous pouvons citer :
– Les mobiles qui écoutent le support radio ne peuvent décoder les transmissions des
mobiles qui se trouvent dans la zone de détection de porteuse. Dans ABE, l’identité
du nœud émetteur permet un calcul de la bande passante résiduelle plus précis. L’impossibilité d’exploiter cette information pour les émissions se trouvant dans la zone
de détection de porteuse peut entraı̂ner une estimation imprécise de la bande passante
résiduelle sur un lien dans le cas où l’émetteur et le récepteur peuvent détecter en même
temps ces émissions. Toutefois, l’écoute du support est préférable à la transmission des
paquets Hello à deux sauts afin de découvrir les mobiles se trouvant dans la zone de
détection de porteuse, car elle permet dans le pire des cas de quantifier l’occupation
médium de ces mobiles interférents.
– Les mobiles récepteurs estiment la probabilité de collision avec un émetteur se trouvant
dans son voisinage, en comptabilisant le nombre de paquets Hello non reçus. Il est clair
que pour que cette probabilité converge vers une valeur significative, il faut que les
mesures s’effectuent sur un nombre de paquets Hello significatifs. Il faut donc décaler
l’estimation de la bande passante résiduelle, le temps de permettre aux mobiles de
découvrir localement la topologie du réseau.
– Les collisions sur les paquets de RREQ empêchent la découverte de routes pouvant
acheminer les données avec la qualité de service désirée. Cependant, cet inconvénient
est propre à tous les protocoles de routage avec QoS.
– L’estimation de la section 4.1.3 repose sur une estimation de la taille des paquets de
données qui ne correspond pas nécessairement à la taille rélle de ces paquets.
Un contrôle d’admission erroné peut se traduire par l’acceptation d’un flux qu’on ne pourra
router ou bien le routage de ce flux va dégrader considérablement tous les flux QoS en conten-
55
CHAPITRE 4. UNE TECHNIQUE D’ÉVALUATION DE LA BANDE PASSANTE
RÉSIDUELLE : ABE
tion, pouvant même générer une congestion dans le réseau. La mobilité est un autre facteur
important à prendre en compte, engendrant des pertes de paquets et des retransmissions.
56
CHAPITRE
5
Evaluation
des
mances d’ABE
perfor-
Nous présentons dans ce chapitre les performances de notre protocole de réservation de
bande passante ABE, dans un contexte ad hoc multi-saut. L’implémentation a été réalisée
sous le simulateur NS-21 sans modification de la couche MAC IEEE 802.11 fournie avec le
simulateur. Ce simulateur offre des outils et des structures hiérarchiques afin de simuler et
analyser des configurations réseau en toute simplicité et efficacité.
Les simulations que nous avons réalisées sont constituées dans un premier temps par des
topologies simples dont le but est de s’assurer que le mécanisme de réservation des ressources
est fiable. Nous avons par la suite évalué des scénarios plus complexes pour lesquels nous
générons de manière totalement aléatoire la position des nœuds, les connexions, le débit
des flux et la mobilité. Nous comparons également les performances d’ABE avec d’autres
approches passives décrites dans la section 3. Le but de ce travail n’est donc pas de mettre
au point un nouveau protocole de routage, mais plus d’utiliser les techniques de routage
proposées par les autres protocoles tout en comparant la précision des techniques mises au
point pour évaluer la bande passante résiduelle. Nous avons donc comparé nos résultats
avec trois protocoles réactifs disponibles sur Internet2 : BRuIT, AAC et QoS-AODV. Une
comparaison avec QOLSR, protocole proactif, aurait été intéressante mais n’a pas été réalisée
dans cette thèse. Il faut noter qu’une telle comparaison implique une évaluation plus complexe
que le seul mécanisme d’estimation des ressources disponibles puisque le routage proactif
introduit un autre niveau de complexité.
5.1
Environnement de travail : le simulateur NS-2
NS ou Network Simulator (http ://www.isi.edu/nsnam/ns) est un simulateur à
évènements discrets développé dans un but de recherche. Il utilise le langage OTCL (Object
Tools Command Language) dérivé de TCL. Par l’intermédiaire de ce dernier, l’utilisateur
décrit les conditions de la simulation et fixe la valeur de certains paramètres : la position des
nœuds, les caractéristiques des liens physiques, les protocoles utilisés, les communications
qui ont lieu, etc.
La simulation doit d’abord être saisie sous forme de fichier texte que NS va utiliser pour
1
Network Simulator 2
BRuIT :http://citi.insa-lyon.fr/∼iguerinl/QoS.html – QoS-AODV et AAC :http://www.ctr.
kcl.ac.uk/members/ronan/default.asp
2
57
CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE
produire un fichier trace contenant les évènements qui se sont déroulés durant la simulation.
Le langage C++ est utilisé pour pouvoir définir les objets à utiliser. Les paramètres d’une
simulation réseau sous NS sont les suivants : la topologie avec la création des nœuds et des
liens, les couches protocolaires à implémenter et la structure des messages (Flux CBR, Datagramme IP, Segments TCP). Par le biais de ce simulateur, nous avons évalué les performances
d’ABE.
5.2
Résultats de simulation
Le but de l’évaluation est de vérifier que lorsque nous utilisons ABE, les flux QoS sont
routés de la source vers la destination sans subir de dégradation au niveau de leur débit.
Les flux dont on ne peut garantir la bande passante sont tout simplement rejetés par la phase
de contrôle d’admission.
Les paramètres pour les différentes simulations sont résumés au niveau du tableau 5.1.
Le paramètre taille de la grille est définie pour les topologies aléatoires.
Paramètres
Protocole de routage
Protocole MAC
Intervalle Hello
Taille des paquets
Modèle de propagation
Capacité du médium
Zone de communication
Zone de détection de porteuse
Taille de la grille
Durée des simulations
Valeurs
ABE
IEEE 802.11b
1s
1000 octets
TwoRayGround
2 ou 11 Mb/s
250 m
550 m
1000 m×1000 m
Entre 50 et 100 secondes
Tab. 5.1 – Paramètres généraux pour les simulations
5.2.1
Un premier scénario simple
Afin de valider le mécanisme de réservation, la première topologie présentée est
constituée de deux chaı̂nes de six nœuds comme indiqué au niveau de la figure 5.1. Pour
cette simulation, le mobile A souhaite envoyer à destination de B un flux audio à un débit
constant de 160 Kb/s. Vingt secondes plus tard, le mobile C cherche à envoyer un autre flux
audio de débit équivalent à destination de D. Plusieurs simulations de ce scénario ont été
réalisées et les mêmes résultats ont été obtenues.
Au niveau de la figure 5.2(a) lorsqu’aucun mécanisme de réservation des flux n’est mis en
place, la présence du second flux va engendrer un partage des ressources du réseau, ce qui
58
CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE
Fig. 5.1 – Un premier scénario simple
va se traduire par une instabilité des débits au niveau des deux flux. De plus, des paquets de
RREQ vont être perdus ce qui va engendrer des reconstructions fréquentes de route. Dans
notre simulation, le mobile A va reconstruire sa route 10 fois tandis que C va la reconstruire
9 fois.
En activant le mécanisme de réservation de flux par le biais du protocole ABE, les débits
obtenus sont représentés au niveau de la figure 5.2(b). Le premier flux de A vers B effectue
une requête de réservation qui est acceptée et émet son flux au débit de 160 Kb/s sans
dégradation. Lorsque le second flux émet une requête, celle-ci est rejetée car la bande passante
résiduelle est insuffisante. Aucune route n’est établie entre les nœuds C et D qui ne pourront
envoyer leurs données.
Lorsqu’une requête est rejetée, le flux QoS ne peut accéder au médium. Il est envisageable
de mettre en place des politiques de dégradation afin de diminuer sensiblement le débit du
premier flux de telle sorte que les requêtes des autres flux QoS puissent être acceptées. L’idée
sous-jacente serait de pouvoir développer un protocole avec QoS qui s’adapterait en fonction
des conditions de l’environnement. Nous n’avons pas abordé cette approche dans cette thèse.
200
200
AODV − flux1
AODV − flux2
ABE − flux1
ABE − flux2
150
Débit (kb/s)
Débit (kb/s)
150
100
100
50
50
0
0
0
5
10
15
20
25
30
Date de la simulation (s)
35
40
45
50
0
(a) AODV
5
10
15
20
25
30
Date de la simulation (s)
35
40
(b) ABE
Fig. 5.2 – Débits obtenus par les deux flux concurrents avec AODV et ABE
59
45
50
CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE
5.2.2
Topologies aléatoires
Afin d’être moins dépendant des topologies pour lesquelles nous pouvons à l’avance
prévoir les cas pathologiques, nous avons testé notre protocole sur des scénarios aléatoires.
Nous avons généré des topologies pour lesquelles les nœuds sont placés aléatoirement. Les
débits des flux ainsi que les connexions (choix du nœud source et du nœud destination)
sont aussi choisis de manière aléatoire. Pour chacun des protocoles évalués, nous simulons le
même scénario avec des graines aléatoires différentes et et les résultats présentés représentent
la moyenne de 30 simulations.
Communications à un saut radio : la première topologie étudiée est constituée de dix
nœuds placés aléatoirement dans un carré de 1000 m × 1000 m. La capacité du canal radio
est de 2 Mb/s. Cinq flux CBR sont démarrés, pour chacun d’entre eux le mobile initiateur
de la communication choisit aléatoirement un mobile voisin (à 1 saut radio) comme
destinataire. Par conséquent, il n’y a donc ni mécanisme de routage, ni prise en compte
de la contention intra flux, le destinataire se trouvant directement dans le voisinage à un
saut radio de l’émetteur. La simulation dure 50 secondes, le démarrage de chaque flux QoS
est espacé de 5 secondes. Les débits de ces flux CBR sont représentés au niveau du tableau 5.2.
Identité du flux
Flux 1
Flux 2
Flux 3
Flux 4
Flux 5
Débit en kb/s
108
452
796
585
347
Tab. 5.2 – Débits des flux CBR
En effectuant aucun contrôle d’admission, l’utilisation du protocole AODV au niveau de
la figure 5.3(a) engendre un partage du canal entre les différents flux, ce qui entraı̂ne une
congestion du réseau.
Le protocole AAC surestime la valeur de la bande passante résiduelle du flux 4. Par
conséquent, dès que ce flux est accepté, il dégrade le débit des flux existants. Le cinquième
flux qui est aussi accepté dégrade son débit initial de 65% et celui des flux existants jusqu’à
30% comme indiqué sur la figure 5.3(b).
Le protocole BRuIT (figure 5.3(c)) sous-estime la bande passante résiduelle et seuls deux
flux sur cinq sont admis avec le débit désiré.
Avec le protocole ABE, tous les flux excepté le quatrième sont admis sans aucune
dégradation du débit demandé par les applications. Contrairement au protocole AAC, le
contrôle d’admission du quatrième flux a échoué et ce dernier a été rejeté.
Dans cette configuration, il est clair que les communications étant à 1 saut, l’estimation
de la bande passante résiduelle est relativement précise favorisant du même coup des
résultats adéquats. Nous présentons par la suite un scénario pour lequel la source et la
60
CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE
1000
1000
AAC − flux1
AAC − flux2
AAC − flux3
AAC − flux4
AAC − flux5
AODV − flux1
AODV − flux2
AODV − flux3
AODV − flux4
AODV − flux5
800
600
600
Débit (kb/s)
Débit (kb/s)
800
400
400
200
200
0
0
0
5
10
15
20
25
30
Date de la simulation (s)
35
40
45
0
50
5
10
15
(a) AODV
20
25
30
Date de la simulation (s)
35
40
45
50
(b) AAC
1000
1000
BRuIT − flux1
BRuIT − flux2
BRuIT − flux3
BRuIT − flux4
BRuIT − flux5
ABE − flux1
ABE − flux2
ABE − flux3
ABE − flux4
ABE − flux5
600
600
Débit (kb/s)
800
Débit (kb/s)
800
400
400
200
200
0
0
0
5
10
15
20
25
30
Date de la simulation (s)
35
40
45
50
0
(c) BRuIT
5
10
15
20
25
30
Date de la simulation (s)
35
40
45
50
(d) ABE
Fig. 5.3 – Scénarios aléatoires - Débits obtenus avec AODV, AAC, BRuIT et ABE pour des
communications à un saut radio
61
CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE
destination ne sont pas voisins, nécessitant la mise en place d’un routage des données.
Communications multi-sauts : pour cette deuxième topologie aléatoire nous reprenons les
mêmes caractéristiques que dans le scénario précédent avec quatre principales modifications :
– La source et la destination ne sont pas à portée radio, ce qui va nécessiter le routage
des données et complexifier l’estimation de la bande passante résiduelle notamment à
cause du phénomène de la contention intra-flux.
– La capacité du médium est fixée à 11 Mb/s.
– Nous augmentons la charge du réseau avec sept flux CBR et vingt nœuds dans le
réseau.
– Les débits sont représentés au niveau du tableau 5.3.
Identité du flux
Flux 1
Flux 2
Flux 3
Flux 4
Flux 5
Flux 6
Flux 7
Débit en kb/s
243
124
134
485
536
892
91
Tab. 5.3 – Débits des flux CBR
Au niveau de la figure 5.4(a), lorsqu’AODV est utilisé, le réseau tend à être dans un état
de congestion car aucun contrôle d’admission n’est effectué afin de limiter le débit des flux. On
observe aussi de fréquentes cassures de routes ce qui réduit très fortement les performances
globales du réseau.
Les figures 5.4(b) et 5.4(c) représentent les débits obtenus respectivement avec AAC et
QoS-AODV. Ces deux protocoles admettent plus de flux QoS qu’ils ne devraient ce qui
tend aussi vers une congestion du réseau. AAC ne prend pas en compte les collisions tandis
que QoS-AODV ne prend ni en compte les collisions à la réception, ni le phénomène de
la contention intra-flux. Par conséquent, ces deux protocoles surestiment la bande passante
résiduelle. Ce qui se traduit par l’acceptation de flux QoS qui dégrade automatiquement le
débit des flux existants. Ce scénario met donc en relief l’importance crucial de la prise en
compte des collisions et de la contention intra-flux pour une bonne estimation de la bande
passante résiduelle.
Sur la figure 5.4(e), ABE effectue un contrôle d’admission plus fin qu’avec AAC et AODV,
car seuls trois flux sur sept ont pu trouver une route au débit désiré. Ce scénario montre
que notre estimation de la bande passante résiduelle ne surestime pas la bande passante
résiduelle.
Finalement, lorsqu’on utilise BRuIT (figure 5.4(d)), seul un flux sur sept est admis, ce qui
implique que BRuIT sous-estime la bande passante résiduelle. La raison est principalement
62
CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE
dûe au fait que BRuIT ne prend pas en compte la synchronisation possible de flux distants.
La figure 5.5 représente la quantité de trafic agrégé à travers tout le réseau en fonction
du protocole de QoS utilisé sur cette deuxième topologie aléatoire générée. Ainsi lorsqu’ABE
est utilisé, les chemins choisis garantissent la bande passante désirée par l’application et les
taux de perte sont relativement faibles favorisant un débit agrégé plus élevé par rapport
aux autres protocoles de QoS (voir tableau 5.4 pour les taux de perte). Il faut aussi noter
que le routage au mieux du protocole AODV permet d’explorer un grand nombre de routes.
La quantité de trafic convoyée par AODV peut donc être plus importante que celle des
autres protocoles de QoS pour lesquels, lorsqu’un flux n’est pas admis, il n’y a aucun trafic
de données qui est envoyé sur le réseau. Toutefois, l’exploration d’un plus grand nombre de
routes par AODV génère plus d’interférences et de collisions d’où un taux de perte global
dans le réseau de l’ordre de 58,4%.
Protocoles
AODV
AAC
QoS-AODV
BRuIT
ABE
Taux de perte (en %)
58,4
38,3
45,8
2,6
5,8
Tab. 5.4 – Taux de perte global dans le réseau
Nous avons représenté l’ensemble des chemins QoS réservés (après réception d’un paquet
de RREP et établissement de la route) par les applications en fonction du protocole utilisé
et pour les scénarios aléatoires définis ci-dessus. On constate qu’avec AODV (figure 5.6(a))
beaucoup de routes sont créées provoquant une congestion du réseau. Avec le protocole
ABE, seuls trois routes ont été réservées pour les flux QoS (figure 5.6(c)) ayant réussi
leur contrôle d’admission alors que la sous-estimation faite par le protocole BRuIT, ne lui
permet de trouver qu’une seule route QoS comme indiqué au niveau de la figure 5.6(d).
Le protocole AAC, qui surestime la bande passante résiduelle va emprunter un plus grand
nombre de routes par rapport à BRuIT et ABE. Cependant ce nombre de routes créées
est beaucoup plus faible que celui d’AODV, la phase de contrôle d’admission réduisant la
probabilité de trouver des nouvelles routes (figure 5.6(b)).
Influence de la mobilité : il est difficile de fournir de la qualité de service en cas de
mobilité des nœuds. Ainsi des violations fréquentes de la QoS apparaissent dûes à la mobilité
des nœuds, aux cassures de routes ou à des chutes de débit des flux QoS. Par conséquent il
est rarement possible d’acheminer un flux de bout en bout avec le débit désiré sans aucune
dégradation dans un environnement mobile. Avec ABE, dès qu’une des situations précitées
63
CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE
600
600
AODV − flux1
AODV − flux2
AODV − flux3
AODV − flux4
AODV − flux5
AODV − flux6
AODV − flux7
500
500
400
Débit (kb/s)
400
Débit en (kb/s)
AAC − flux1
AAC − flux2
AAC − flux3
AAC − flux4
AAC − flux5
AAC − flux6
AAC − flux7
300
300
200
200
100
100
0
0
0
5
10
15
20
25
30
Date de la simulation
35
40
45
0
50
5
10
15
(a) AODV
35
40
45
50
(b) AAC
600
600
QoS−AODV − flux1
QoS−AODV − flux2
QoS−AODV − flux3
QoS−AODV − flux4
QoS−AODV − flux5
QoS−AODV − flux6
QoS−AODV − flux7
500
BRuIT − flux1
BRuIT − flux2
BRuIT − flux3
BRuIT − flux4
BRuIT − flux5
BRuIT − flux6
BRuIT − flux7
500
400
Débit (kb/s)
400
Débit (kb/s)
20
25
30
Date de la simulation
300
300
200
200
100
100
0
0
0
5
10
15
20
25
30
Date de la simulation
35
40
45
50
0
5
10
15
(c) QoS-AODV
20
25
30
Date de la simulation
35
40
45
50
(d) BRuIT
600
ABE − flux1
ABE − flux2
ABE − flux3
ABE − flux4
ABE − flux5
ABE − flux6
ABE − flux7
500
Débit en (kb/s)
400
300
200
100
0
0
5
10
15
20
25
30
Date de la simulation
35
40
45
50
(e) ABE
Fig. 5.4 – Scénarios aléatoires - Débits obtenus avec AODV, AAC, QoS AODV, BRuIT et
ABE pour des communications multi-sauts
64
CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE
2500
2131 Mo
2037 Mo
1986 Mo
2000
Quantité de données reçues en Mo
1860 Mo
1500
1340 Mo
1000
500
0
ABE
AODV
QoS−AODV
Protocoles de QoS
AAC
BRuIT
Fig. 5.5 – Quantité de trafic agrégé en Mo à travers le réseau
apparaı̂t, un message d’erreur est envoyé à la source, qui reconstruit sa route. La phase de
reconstruction peut être plus ou moins longue et générera un surplus de messages de contrôle.
Pour évaluer les effets de la mobilité sur les flux QoS, nous avons mis en place un scénario
constitué de 10 nœuds placés aléatoirement et cinq flux CBR de débit aléatoire (voir tableau 5.5) et dont les dates d’émission sont espacées de 2 secondes. La simulation dure 100 s.
Le modèle de mobilité est le Random Way Point avec une vitesse maximale de 20 m/s et des
temps de pause de 10 s.
Identité du flux
Flux 1
Flux 2
Flux 3
Flux 4
Flux 5
Débit en kb/s
627
72
80
470
493
Tab. 5.5 – Débits des flux CBR en cas de mobilité
Le modèle de mobilité Random Way Point (RWP) [52] est caractérisé par une vitesse
maximale Vmax et un temps de pause Tp . Un nœud se dirige vers un point choisi aléatoirement
avec une vitesse constante comprise entre 0 et Vmax . Lorsque le nœud arrive à ce point, il
s’arrête pendant une durée Tp avant de recommencer les mêmes mouvements en choisissant
un autre point.
65
CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE
(a) AODV
(b) AAC
(c) ABE
(d) BRuIT
Fig. 5.6 – Graphe des chemins réservés pour les flux QoS
66
CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE
1000
1000
AAC − flux1
AAC − flux2
AAC − flux3
AAC − flux4
AAC − flux5
800
800
600
600
Débit en (kb/s)
Débit en (kb/s)
AODV − flux1
AODV − flux2
AODV − flux3
AODV − flux4
AODV − flux5
400
400
200
200
0
0
0
20
40
60
Date de la simulation
80
0
100
20
(a) AODV
40
60
Date de la simulation
100
(b) AAC
1000
1000
ABE − flux1
ABE − flux2
ABE − flux3
ABE − flux4
ABE − flux5
BRuIT − flux1
BRuIT − flux2
BRuIT − flux3
BRuIT − flux4
BRuIT − flux5
800
800
600
600
Débit (kb/s)
Débit en (kb/s)
80
400
400
200
200
0
0
0
20
40
60
Date de la simulation
80
100
0
(c) ABE
20
40
60
Date de la simulation
80
(d) BRuIT
Fig. 5.7 – Débits obtenus avec AODV, AAC, ABE et BRuIT en cas de mobilité
67
100
CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE
Les figures 5.7(a) et 5.7(b) montrent qu’en cas de mobilité aussi bien AODV qu’AAC
génèrent une congestion du réseau et des dégradations des flux QoS. Avec BRuIT (figure 5.7(d)), la sous-estimation est toujours présente et seuls deux flux QoS ont trouvé une
route. De plus, BRuIT n’a pas pu reconstruire les routes des flux 4 et 5 tandis qu’ABE
(figure 5.7(c)) a pu acheminer trois flux QoS au débit désiré tout en reconstruisant au bout
de 5 secondes la route du flux 4 à la date T = 40 s. L’introduction des temps de pause par
le modèle Randow Way Point permet aux mobiles de reconstruire leur route. Ainsi même
en cas de mobilité, le débit des flux QoS n’est pas dégradé, mais la transmission est décalée,
le temps de reconstruire des routes intermédiaires pouvant garantir le débit requis.
Protocoles
AODV
AAC
BRuIT
ABE
Quantité de trafic agrégé (en Mo)
7760
6321
3817
7544
Taux de perte (en %)
42
27
3,2
4,3
Tab. 5.6 – Quantité de trafic agrégé et taux de perte en cas de mobilité
Les résultats au niveau du tableau 5.6 montrent que le protocole BRuIT possède le taux
de perte le plus faible (3,2%) car le nombre de paquets envoyés sur le réseau est faible à
cause de la sous-estimation de la bande passante résiduelle qui réduit le nombre de flux QoS
acheminés. Toutefois, l’inconvénient principal est que le protocole BRuIT achemine à peine
50% de la quantité de trafic agrégé dans tout le réseau par rapport aux autres protocoles de
QoS et à AODV. Le protocole ABE semble effectuer le meilleur compromis car il possède
un taux de perte relativement faible (4,3%), tout en acheminant une quantité de trafic
conséquente.
En résumé, les résultats des simulations précédentes pour des topologies aléatoires, indiquent un comportement similaire pour les protocoles AAC et QoS-AODV. En effet, ces
deux protocoles surestiment la bande passante résiduelle ce qui provoque une dégradation des
flux existants. Le protocole BRuIT sous-estime cette bande passante résiduelle, cependant
cette sous-estimation est préférable car les flux QoS admis ne subissent pas de dégradation
de leur débit. Enfin, avec ABE une estimation plus fine permet par rapport à AAC de ne pas
dégrader les flux voisins et par rapport à BRuIT d’accepter plus de flux QoS. Le mécanisme
de garantie des ressources dans un réseau ad hoc est très fortement lié à la précision de
l’estimation de la bande passante résiduelle ou des ressources disponibles en général, commr
noud pouvons le voir avec cette évaluation.
68
CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE
5.2.3
Evaluation du coût du mécanisme
L’établissement et la maintenance des routes nécessitent des échanges de messages
(RREQ, RREP, RERR). Nous évaluons le surcoût de notre protocole ABE en additionnant le nombre total de tous ces messages à travers un réseau dont le nombre de nœuds
croı̂t de 10 à 50 avec 10 flux CBR dont les débits sont distribués aléatoirement entre 10 et
80 kb/s. Tous les résultats présentés ci-dessous sont la moyenne de 30 simulations pour un
nombre de nœuds défini avec un intervalle de confiance à 95%.
35000
ABE
AODV
AAC/QoS−AODV
Nombre total de messages de contrôle
30000
25000
20000
15000
10000
5000
0
10
15
20
25
30
35
Nombre de noeuds
40
45
50
Fig. 5.8 – Nombre total de messages de contrôle nécessaires pour l’établissement et la maintenance des routes
La figure 5.8 représente le nombre total de messages de contrôle nécessaires pour
l’établissement et la maintenance des routes en fonction du nombre de nœuds. AAC et
QoS-AODV génèrent le même nombre de messages de contrôle car ces deux protocoles sont
basés sur un protocole de routage similaire avec seulement quelques différences. Nous n’avons
pas présenté les résultats pour le protocole BRuIT car il n’intègre pas de mécanisme de reconstruction de routes et donc les résultats ne sont pas comparables.
AAC et ABE génèrent moins de messages de contrôle qu’AODV car la phase de contrôle
d’admission élimine les routes ne possédant pas assez de bande passante résiduelle pour router
les flux QoS. De plus, lorsque le réseau devient congestionné, AODV essaie de reconstruire
ses routes, ce qui augmente encore plus le nombre de messages de contrôle. Cependant,
ABE génère moins de messages de contrôle qu’AAC, car AAC surestime la bande passante
résiduelle et explore donc un plus grand nombre de chemins durant la phase de découverte
de route.
69
CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE
5.2.4
Précision de l’évaluation
La précision de l’estimation de la bande passante résiduelle et de la phase de contrôle
d’admission peuvent être évaluées par le biais d’une nouvelle métrique. Cette métrique indique le nombre de flux corrects. Un flux correct est un flux QoS qui a été admis et pour
lequel on observe au maximum 5% de dégradation du débit de bout en bout par rapport à
la valeur désirée par l’application. Nous définissons donc cette métrique notée β par :
β=
Nombre de flux corrects
Nombre total de flux dans le réseau
Le numérateur indique le nombre de flux corrects tel que définit précédemment tandis
que le dénominateur indique le nombre total de flux que l’on veut faire transiter dans le
réseau. Cette métrique caractérise aussi bien une surestimation qu’une sous-estimation de la
bande passante résiduelle. Dans le cas d’une surestimation, le contrôle d’admission acceptera
un flux qui dégradera automatiquement le débit des flux voisins et la valeur du numérateur
diminue. En cas de sous-estimation, le nombre de flux correct admis est faible par conséquent
la valeur de β également.
Nous avons procédé à des simulations pour estimer la valeur de la métrique β. Le nombre
de nœuds dans le réseau considéré varie de 10 à 40 et sont positionnés aléatoirement. Cinq
connexions CBR sont établies entre des nœuds source et destination choisis aléatoirement.
Les débits sont distribués uniformément dans l’intervalle [0-500] Kb/s. Chaque simulation
dure 100 secondes.
0.9
0.9
ABE
AAC
QoS−AODV
BRuIT
ABE
AAC
QoS−AODV
BRuIT
0.8
0.7
0.7
0.6
0.6
Valeur du paramètre beta
Valeur du paramètre beta
0.8
0.5
0.4
0.3
0.5
0.4
0.3
0.2
0.2
0.1
0.1
0
0
10
20
30
40
10
Nombre de mobiles
20
30
40
Nombre de mobiles
(a) Zone de détection de porteuse = 2 × Zone de com- (b) Zone de détection de porteuse = Zone de communication
munication
Fig. 5.9 – Evaluation de la métrique β avec les protocoles AAC, QoS-AODV, BRuIT et
ABE
Influence de l’évaluation :
La figure 5.9(a) représente la valeur moyenne de β en fonction du protocole de routage
70
CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE
QoS utilisé avec un intervalle de confiance. Comme l’on pouvait s’y attendre, plus le réseau
devient dense, plus la valeur de β diminue car la bande passante résiduelle des liens devient
plus faible et moins de routes sont établies.
Lorsque le réseau n’est pas dense (entre 10 et 20 nœuds), le taux d’acceptation β est
plus faible pour les protocoles AAC et QoS-AODV par rapport à BRuIT et ABE. Ainsi ces
deux protocoles provoquent, en surestimant la bande passante résiduelle, un dépassement
local de la capacité du médium qui dégrade aussitôt les flux voisins et diminue la valeur de
la métrique β.
Cependant, lorsque le réseau est moyennement dense (entre 20 et 30 nœuds), le taux
d’acceptation de BRuIT diminue très fortement car très peu de chemins sont établis à cause
de la sous-estimation de la bande passante résiduelle.
Lorsque le réseau est très dense (40 nœuds), le taux d’acceptation des flux QoS est
presque nul pour les protocoles AAC, QoS-AODV et BRuIT tandis qu’avec ABE il reste aux
alentours de 8%. L’utilisation d’ABE permet dans tous les cas d’obtenir un taux d’acceptation des flux QoS plus élevé que celui des autres protocoles, même lorsque le réseau est dense.
Influence de la taille de la zone de détection de porteuse :
En rendant la zone de détection de porteuse égale à la zone de communication (figure ??),
le taux de précision β des protocoles AAC, QoS-AODV et BRuIT diminue pour un même
nombre de nœuds par rapport à la figure 5.9(a). En effet, réduire la zone de détection de
porteuse revient à créer un plus grand nombre de scénarios de stations cachées. Or, les
protocoles AAC, QoS-AODV et BRuIT ne prennent pas en compte ces types de scénarios
dans leur évaluation de la bande passante résiduelle, entraı̂nant une dégradation des flux
voisins et une diminution du paramètre β.
Avec ABE, les scénarios de stations cachées sont pris en compte dans l’évaluation
(section 4.1.3) et par conséquent aucune dégradation des flux voisins n’est effectuée. De
plus, en réduisant la zone de détection de porteuse, tous les paquets envoyés par les
nœuds brouilleurs deviennent décodables. Ceci permet donc d’obtenir plus d’informations
sur le réseau, comme par exemple les identités des voisins communs ou les identités des
stations cachées. Cet apport d’informations permet d’augmenter le taux de précision
β pour le protocole ABE. De tels résultats montrent que réduire la zone de détection
de porteuse à la zone de communication a un véritable intérêt dès que l’on est en mesure d’évaluer correctement les ressources du réseau et d’apporter un contrôle dans ce réseau.
Influence de la taille des paquets :
Nous reprenons le scénario précédent avec la zone de détection de porteuse égale à la zone de
communication. Cette situation va donc créer un nombre plus important de configurations
de stations cachées. Dans la section 4.1.3, pour évaluer le débit des mobiles en stations
cachées, la taille des paquets est une information nécessaire. Cependant, dans les paquets
d’acquittement de 802.11, cette information n’est pas indiquée. Ainsi, considérer une taille
de paquets fixes peut introduire des erreurs dans la précision de l’évaluation de la bande
passante disponible. Dans les simulations, nous avons pris comme hypothèse une taille de
71
CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE
1000 octets. Lorsque des paquets de plus petites tailles sont envoyés, l’évaluation réalisée au
niveau des stations cachées conduit à une sous-estimation de la bande passante libre. Ceci
implique que nous accepterons peut-être moins de flux QoS mais nous ne dégraderons pas
les flux existant si le nouveau flux QoS est accepté. En revanche, si la taille des paquets
est plus grande que 1000 octets, alors l’évaluation conduit à une surestimation de la bande
passante libre dans le cas des stations cachées. Nous nous proposons donc de quantifier cette
erreur au niveau de la précision de l’évaluation pour des tailles de paquets de 1000 (comme
précédemment) et de 1500 octets. Nous avons choisi une taille de 1500 octets, comme taille
maximale, car généralement, la couche IP des cartes sans fil croit avoir à faire à une carte
Ethernet et fragmente tous les paquets de taille supérieurs à 1500 octets. Ce phénomène a
été mis en relief dans [53]. Avec une taille maximale de 1500 octets, le débit des émetteurs en
configuration de stations cachées est maximal et par conséquent la bande passante résiduelle
est plus faible à travers le réseau.
Taille / Nombre de nœuds
1000 octets
1500 octets
10
42%
37%
20
67%
61%
30
38%
35%
40
7%
5%
Tab. 5.7 – Valeur de β pour des tailles de paquets de 1000 et 1500 octets
La tableau 5.7 représente la valeur du paramètre β pour des tailles de paquets de 1000
et 1500 octets en fonction du nombre de nœuds présents dans le réseau. On remarque que
lorsque la taille des paquets dans le réseau passe de 1000 à 1500 octets, la valeur du taux de
précision β diminue au maximum de 6%. Par exemple, pour 30 nœuds dans le réseau, β passe
de 38 à 35% lorsque la taille des paquets augmente de 1000 à 1500 octets. Ainsi, la différence
entre ces tailles de paquets influe peu sur la valeur du paramètre β. L’approximation faite
dans l’estimation de la bande passante des émetteurs en stations cachées avec un taille de
paquets constante et égale 1000 octets dans les simulations introduit une erreur faible au
niveau de β.
5.3
Synthèse
Dans ce chapitre nous avons évalué les performances de notre protocole. ABE combine une
approche réactive pour la recherche de route et une approche proactive pour l’estimation de
la bande passante résiduelle. Les informations de bande passante sont périodiquement mises
à jour grâce aux paquets Hello facilitant la phase de contrôle d’admission. Les simulations
présentées ont permis de valider les mécanismes d’ABE. Notamment, elles montrent que les
flux QoS sont routés vers leur destinataire avec le débit désiré, sans subir de dégradation et
tout en réduisant globalement le taux de perte des paquets dans le réseau. De plus, même
en cas de mobilité, ABE est en mesure de garantir le débit des flux QoS par intervalles en
reconstruisant des nouvelles routes pouvant garantir les conditions initialement requises par
les couches applicatives. Comme tout mécanisme utilisant des paquets de contrôle, notre
72
CHAPITRE 5. EVALUATION DES PERFORMANCES D’ABE
protocole présente un coût en terme de trafic de contrôle qui reste cependant relativement
faible par rapport aux autre approches QoS.
L’apport du protocole ABE réside dans l’estimation de la bande passante résiduelle des
liens du réseau. Cette estimation peut aussi s’avérer utile en présence de flux privilégiés et au
mieux comme nous allons le voir par la suite. Dans le chapitre suivant, nous réutilisons l’estimation de la bande passante résiduelle d’ABE en y rajoutant quelques nouveaux mécanismes
afin d’augmenter le taux d’acceptation des flux privilégiés.
73
CHAPITRE
6
Co-existence de trafics privilégiés et Best Effort
L’absence d’une gestion centralisée des communications dans un contexte ad hoc rend
difficile le partage des ressource entre flux de classes différentes. Dans un réseau ad hoc
multi-saut, nous sommes généralement en présence de deux types d’applications : celles qui
exigent des garanties en terme de délai ou de bande passante ou d’une métrique quelconque
qui sont communément appelés flux QoS, et d’autres qui sont beaucoup plus tolérantes à
la dégradation de leurs ressources appelées applications Best Effort. Beaucoup de travaux
se sont intéressés à la garantie de ressources pour les applications QoS sans se soucier de
la présence des flux Best Effort. Par exemple dans notre protocole ABE présenté dans les
chapitres précédents, on considère qu’il n’y a que des flux QoS. Que se passe-t-il si on autorise
maintenant l’émission de flux Best Effort ? Il faut alors être en mesure de réguler le débit des
flux Best Effort afin qu’ils ne dégradent pas les flux QoS. Une solution serait de réserver une
partie fixe de la bande passante pour les flux Best Effort. Une telle approche est néanmoins
peu efficace si peu de flux QoS sont présents dans le réseau. L’idéal est de proposer une
solution dynamique où les flux Best Effort pourraient augmenter leur débit lorsqu’il n’y a
pas ou peu de flux QoS. Mais il faut aussi être en mesure de diminuer le débit des flux
Best Effort si de nouveaux flux QoS cherchent à être émis. Ne pas pouvoir réaliser ce pas
arrière pourrait conduire rapidement à des configurations où la majeure partie des ressources
disponibles serait occupée par des flux Best Effort et où aucun nouveau flux QoS ne pourrait
être accepté.
La solution que nous proposons consiste à mettre en place un protocole distribué appelé
DRBT pour Dynamic Regulation of Best Effort Traffic. L’idée principale de cette approche
consiste à estimer de manière différenciée la bande passante résiduelle des liens afin de diminuer si nécessaire le débit des flux Best Effort. L’estimation de la bande passante résiduelle
utilise les mécanismes définis dans ABE en y rajoutant quelques extensions. Cette diminution du débit des flux Best Effort permet d’augmenter le taux d’acceptation des flux QoS
existants ou à venir. Ainsi, les deux principaux objectifs à remplir sont les suivants :
– Diminuer si nécessaire le débit des flux Best Effort afin de maximiser le taux d’acceptation des flux QoS.
– Obtenir une utilisation efficace des liens radio, i.e. permettre aux flux Best Effort
d’utiliser le maximum de bande passante lorsque cela est possible.
74
CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT
Dans ce chapitre, nous dressons dans un premier temps un état de l’art sur les techniques
de régulation des flux Best Effort avant de présenter dans le détail le fonctionnement de
notre solution et les résultats de simulations.
6.1
Etat de l’art
Pour garantir les débits des applications QoS, la plupart des approches se basent sur
une estimation de la bande passante libre afin de réguler le débit des applications. Les
mécanismes de régulation consistent généralement à accepter ou refuser les flux QoS ou/et à
adapter le débit des flux Best Effort. Les approches étudiées précédemment (ABE, BRuIT,
AAC, CACP, etc.) se concentrent essentiellement sur les flux QoS et ne s’intéressent pas à
la cohabitation entre flux QoS et Best Effort.
6.1.1
Approches existantes
Dans [54], une solution proposée consiste à séparer les trafics en utilisant deux canaux
de transmissions distincts. La difficulté de conception de cette technique est un obstacle
majeur et rend son utilisation peu probable surtout dans un contexte ad hoc.
SWAN [55] est un protocole distribué qui n’utilise aucun messages de contrôle pour
garantir dynamiquement la bande passante des flux QoS. Pour atteindre cet objectif SWAN
met en place trois mécanismes. Un mécanisme de contrôle d’admission à la source des flux
QoS et deux mécanismes de régulation dynamique de trafic, l’un pour les flux QoS et l’autre
pour les flux Best Effort.
Le contrôle d’admission à la source utilise une approche intrusive pour estimer la bande
passante résiduelle. Avant chaque transmission d’un flux QoS, une sonde est envoyée de la
source vers la destination pour évaluer la bande passante résiduelle le long de ce chemin.
En fonction de cette valeur, le contrôle d’admission à la source décide de l’envoi ou non du
flux QoS concerné. Il n’y a pas de routage car le chemin entre la source et la destination est
supposé connu.
Lorsque le protocole SWAN estime que le réseau est dans un état de congestion, alors les
mécanismes de régulations sont déclenchés.
Le premier mécanisme de régulation dynamique de trafic QoS se base sur une approche
passive d’estimation de la bande passante résiduelle. La modélisation de la DCF de 802.11
faite par Bianchi permet d’estimer la bande passante résiduelle sur un lien moyennant le
taux d’utilisation du canal radio. Ainsi, lorsqu’une congestion est détectée, la source du flux
QoS est informée et diminue dans un premier temps le débit du flux QoS.
Le deuxième mécanisme de régulation dynamique du trafic Best Effort se base sur une
autre méthode d’estimation de la bande passante résiduelle : le délai des paquets d’acquittements (ACK) sur un lien est mesuré. Si ce délai est supérieur à un seuil (dépendant de la
bande passante désirée par les flux QoS [56]), alors le protocole SWAN considère le réseau
dans un état de congestion et par conséquent diminue le débit des flux Best Effort.
75
CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT
L’estimation de la bande passante résiduelle à l’aide d’une sonde envoyée de bout en
bout consomme une part non négligeable de la bande passante comme présenté dans la
section 3. Pour le premier mécanisme de régulation, la bande passante résiduelle est obtenue
à partir de la modélisation de la DCF de 802.11 faite par Bianchi. Cependant, les travaux
de Bianchi ne sont applicables que dans une cellule où tous les mobiles sont à portée de
communication et dans un environnement à saturation ce qui n’est pas toujours le cas.
Par conséquent, le protocole SWAN est très imprécis dans l’évaluation de bande passante
restante sur un lien ce qui rend plus complexe la décision de réguler le débit des trafics
Best Effort. De plus le protocole SWAN s’intéresse aussi à la métrique délai. Cependant,
déterminer la valeur du délai désiré pour les applications Best Effort est une tâche difficile.
Le protocole QPART [57] se base sur une estimation passive de la bande passante et un
mécanisme de régulation dynamique du débit des flux Best Effort. Il classifie les trafics avec
qualité de service en fonction de deux métriques : le délai et la bande passante. Toutefois,
nous nous intéresserons ici qu’à la bande passante résiduelle comme métrique, puisque c’est
celle que nous avons considérée dans cette section.
L’estimation de la bande passante restante effectuée dans QPART se base sur la théorie
des files d’attente et plus précisément sur le protocole RED [58]. L’algorithme RED démontre
que pour maintenir un débit constant sur un chemin multi-saut, la taille des files d’attentes
doit être maintenue en dessous d’un certain seuil prédéterminé. Si ce seuil est dépassé alors
les mécanismes de régulation sont automatiquement démarrés afin de résorber le surplus de
trafic.
En cas de congestion, la taille de la fenêtre de contention des flux QoS et Best Effort
est mise à jour de manière à rendre la transmission des flux QoS prioritaire. Parallèlement,
l’algorithme de QPART sélectionne des flux susceptibles d’être rejetés en se basant sur une
priorité des flux.
Cependant, QPART souffre des mêmes limitations que le protocole SWAN.
Premièrement, il se base sur un mécanisme d’estimation de la bande passante utilisé
dans les réseaux filaires et qui est inadapté dans un contexte ad hoc. En effet l’estimation
utilisée dans QPART se base sur la théorie de file d’attente. L’algorithme RED utilisé
stipule que pour maintenir un débit constant sur un chemin multi-saut, on doit maintenir
la taille des files d’attentes au niveau de chaque émetteur en dessous d’un seuil déterminé.
Cependant, dans un contexte ad hoc sans fil, cette assertion n’est pas toujours vérifiée.
En effet, il existe de nombreuses topologies, notamment celle des stations cachées où les
files d’attente des nœuds restent en dessous d’un seuil mais les collisions à la réception
engendrent des retransmissions fréquentes. Deuxièmement, le mécanisme de régulation
dynamique du trafic Best Effort dans le protocole QPART, consistant à faire varier la taille
de la fenêtre de contention, ne permet d’augmenter ou de diminuer le débit des ces flux Best
Effort qu’en moyenne. Une variation de la taille de la fenêtre de contention ne permet pas
de prédire avec précision quelle sera la variation la bande passante associée. Cela s’explique
simplement par le fait qu’au niveau du protocole IEEE 802.11, la transmission sur le canal
radio dépend aussi bien de la taille de la fenêtre de contention mais également de l’état
76
CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT
du canal (occupé ou libre) et des collisions qui surviennent à la réception. C’est pourquoi
QPART ne peut garantir avec précision la bande passante des flux QoS ni garantir une
utilisation au mieux du médium pour les flux Best Effort.
Le protocole présenté dans [59] utilise également un mécanisme d’estimation de la bande
passante résiduelle proche de celui utilisé dans QPART en y apportant quelques modifications. Il compare au niveau du premier saut d’un flux QoS (nœud appelé H-Node), le nombre
de paquets qu’il peut recevoir et transmettre avec le nombre de paquets effectivement reçus
et transmis. En fonction du résultat de cette comparaison, le protocole est en mesure de
conclure si le flux QoS a été dégradé ou pas et déclencher si nécessaire une régulation du
débit des flux Best Effort. Durant le processus de régulation, un paquet appelé Squelech
Packet est envoyé à partir du H-Node vers tous les nœuds de la zone de communication qui
font transiter au moins un flux Best Effort. Ces nœuds sont appelés DRI. Tous les nœuds
DRI qui interceptent un Squelech Packet arrêtent leur transmission pendant un intervalle de
temps de 5 s. Les nœuds sources des flux Best Effort arrêtent également leur transmission
durant un intervalle prédéterminé correspondant en moyenne au temps de transmission d’un
flux QoS et seront réactivés au-delà de ce délai d’attente.
Un tel protocole permet certes de garantir partiellement le débit des flux QoS, mais ne
garantit en aucune manière une utilisation au mieux de la bande passante des flux Best
Effort. En effet, aucune estimation de la bande passante restante n’est effectuée et seule une
estimation des débits des flux QoS est mise en place, grâce à une supervision continue, des
nœuds H-Node. Cette absence d’informations sur la bande passante restante des liens ne
permet pas aux flux Best Effort de savoir exactement à quel débit ils devront ré-émettre de
telle sorte qu’ils puissent utiliser toute la bande passante restante sans pour autant dégrader
les flux QoS. L’utilisation de la bande passante restante n’est pas optimale car ce protocole
oblige un grand nombre de flux Best Effort à stopper leur transmission pendant un intervalle
de temps relativement élevé. En plus, les seuls nœuds H-Node considérés sont ceux qui
se trouvent dans la zone de communication. Cela implique que ce protocole ne prend en
compte ni les flux Best Effort qui se trouvent dans la zone de détection de porteuse, ni ceux
qui dégradent les flux QoS et qui sont éloignés à plus d’un saut. Enfin, ce protocole utilise
des paquets de contrôle supplémentaires à diffuser sur le réseau (Squelech paquet). Aucun
mécanisme de ré-émission de ces paquets de contrôle en cas d’échec n’est prévu bien que l’on
soit dans un contexte ad hoc où les collisions sont fréquentes.
6.1.2
Synthèse
D’après les protocoles étudiés ci-dessus, il apparaı̂t clairement que les mécanismes de
régulation du débit des flux Best Effort doivent être combinés à une estimation très précise
de la bande passante résiduelle, sous peine de ne pouvoir assurer des garanties strictes aux
flux QoS.
Les protocoles tels que SWAN et QPART sont des protocoles de type passifs, ils ne
conservent localement aucunes informations sur l’état du réseau. Une congestion est détectée
lorsque des seuils prédéfinis sont dépassés et la décision de réguler les flux Best Effort ne
77
CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT
s’effectue que dans ce cas précis. Le principal avantage de ce type d’approche est le passage à
l’échelle car aucune information n’est véhiculée à travers le réseau. Cependant, il est difficile
de fixer au préalable des valeurs de seuils qui puissent s’adapter à toutes les topologies multisauts. Ainsi, il arrive très souvent que les mécanismes de régulation soient activés alors que
le réseau n’est pas congestionné ou dans le cas contraire qu’il ne soient pas activés en cas de
congestion.
Dans la solution proposée, nous réutilisons l’estimation de la bande passante résiduelle
déjà mise en place par le protocole ABE présenté dans la section 4.1. L’avantage de ce
protocole est qu’il propose une estimation fiable de la bande passante résiduelle comme nous
l’avons vu précédemment. Ici, nous rajoutons une estimation différenciée de la bande passante
résiduelle en fonction du type de trafic (QoS ou Best Effort), ce qui permet d’instaurer une
bonne cohabitation entre les flux QoS et les flux Best Effort.
6.2
Présentation du protocole DRBT
Dans cette section nous présentons en détail les mécanismes mis en place afin de réguler
si nécessaire et de manière totalement distribuée le débit des flux Best Effort. Une telle
approche permet de maximiser le taux d’acceptation des flux QoS.
Nous présentons d’abord les différentes idées utilisées au niveau de la solution avant de
décrire l’estimation différenciée de la bande passante résiduelle et le mécanisme de régulation
dynamique du débit des flux Best Effort.
6.2.1
Idées utilisées dans DRBT
Les idées présentées dans cette partie représentent plus des concepts à définir au
préalable pour garantir la QoS dans un environnement ad hoc multi-saut en présence de
trafic QoS et Best Effort.
Diminution du débit des flux Best Effort : il est parfois nécessaire de diminuer le
débit des flux Best Effort pour pouvoir accepter plus de flux QoS. Cette réduction doit être
la meilleure possible : lorsque la bande passante disponible est importante, les flux Best
Effort doivent pouvoir augmenter leur débit. La solution que nous avons retenue s’inspire
du protocole RED. Ainsi, la régulation du débit des flux Best Effort est engendrée par une
modification de la taille de la file d’attente des mobiles. Nous pensons que les méthodes
telles que la variation de la taille de la fenêtre de contention et du délai inter paquets,
présentées dans QPART et SWAN, ne permettent pas d’avoir un contrôle fiable sur le débit
des flux.
Collaboration entre les nœuds : tous les protocoles garantissant de façon dynamique
la bande passante dans les réseaux ad hoc proposent un mécanisme de communication entre
les nœuds. Ce mécanisme permet aux nœuds d’estimer la bande passante résiduelle des
liens et d’alerter les émetteurs des flux Best Effort si nécessaire. Des paquets contenant des
78
CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT
informations nécessaires à la régulation des débits des flux Best Effort vont donc transiter
à travers les nœuds du réseau. Cependant, pour que cette collaboration inter-nœuds soit
efficace, il faut rajouter un mécanisme de collaboration inter-couches plus communément
appelé, cross-layer.
Communication inter-couches : la communication entre les couches est un des points
clés du protocole DRBT. Les informations étant disponibles à des niveaux différents de la
pile protocolaire, les couches doivent par conséquent collaborer entre elles pour exploiter ces
données. L’estimation de la bande passante résiduelle est effectuée au niveau de la couche
MAC. Toutefois, la notion de flux n’est gérée qu’au niveau réseau. Il y a donc une nécessité
de communiquer entre les couches MAC et IP. De plus, d’après l’algorithme RED, réduire
le débit des flux Best Effort nécessite de contrôler la taille de la file d’attente des nœuds.
Cette opération s’effectue au niveau de la couche LL. Enfin, le niveau applicatif spécifie les
contraintes QoS désirées sur les flux. Tout ceci est résumé au niveau de la figure 6.1.
Dans ce paragraphe et dans celui qui précède nous avons expliqué l’utilité de faire collaborer les nœuds entre eux puis les couches entre elles. Pour réaliser ces deux objectifs, nous
utilisons des paquets de contrôle, sans pourtant rajouter un surplus de signalisation.
Fig. 6.1 – Communication inter-couches
Paquets de communication : utiliser de nouveaux paquets de contrôle consomme
une part de la bande passante résiduelle. Dans notre solution retenue, nous utilisons les
paquets de contrôle classiques que l’on retrouve généralement dans la plupart des protocoles
79
CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT
de routage : HELLO, RREQ et RREP. Ces paquets de contrôle, au-delà de la mise à jour
des informations de voisinage, serviront également à véhiculer les informations nécessaires à
la QoS que nous voulons mettre en place et qui viennent d’être rapidement décrites.
6.2.2
Estimation de la bande passante résiduelle
La première étape pour garantir le débit des flux QoS, consiste à estimer la bande passante
résiduelle sur l’ensemble de liens du réseau. Cette estimation va nous permettre de quantifier
la proportion de bande passante libre pour les flux QoS, et qui est occupée par les flux Best
Effort.
L’estimation doit être distribuée et prendre en compte les différents phénomènes propres
aux réseaux ad hoc (interférences, collisions, etc.). Ainsi, nous réutilisons l’estimation de
la bande passante résiduelle effectuée par le protocole ABE présenté dans le chapitre 4,
auquel nous rajoutons un nouveau mécanisme correspondant à la différenciation entre
les paquets QoS et les paquets Best Effort.
Une différenciation entre les flux QoS et Best Effort doit permettre une meilleure utilisation de la bande passante pour les flux QoS. Cette différenciation s’effectue au niveau MAC et
consiste à ne mesurer que l’occupation médium des paquets QoS durant la phase d’écoute du
support radio et à ne pas prendre en compte les flux Best Effort dans cette occupation. Elle
n’est donc possible que si les mobiles peuvent décoder les informations sur les paquets. En
effet, lorsqu’un paquet est transmis sur le médium radio, les nœuds qui écoutent le support
ne pourront identifier la nature du paquet (QoS ou Best Effort) en analysant les champs ToS
de l’en-tête IP, que s’ils sont en mesure de décoder le paquet. Les paquets émis dans la zone
de détection de porteuse ne peuvent être décodés parce que la puissance du signal perçue est
faible. En conséquence, le protocole DRBT considère ces paquets comme des paquets QoS.
En d’autres mots, les flux Best Effort se trouvant dans la zone de détection de porteuse sont
considérés comme des flux QoS dans l’évaluation de l’occupation du médium.
Considérons l’exemple de la figure 6.2 pour lequel tous les nœuds sont dans la même zone
de communication. La capacité est de 1600 Kb/s. Un flux QoS de débit 500 Kb/s et un autre
flux Best Effort de débit 1000 Kb/s sont transmis. Un troisième flux QoS désire accéder au
médium avec un débit de 1000 Kb/s. Si nous estimons la bande passante résiduelle avec le
protocole ABE, cette valeur est presque nulle et le troisième flux QoS ne peut être transmis.
Cependant, si nous effectuons une estimation différenciée de cette bande passante résiduelle
(qui ne prend en compte que les transmissions QoS) nous obtenons une bande passante
résiduelle de 1100 Kb/s pour le troisième flux QoS qui peut alors accéder au réseau. Par
conséquent, le nouveau flux QoS pourra être transmis sans dégrader le premier flux QoS si
le débit du flux Best Effort est diminué.
6.2.3
Régulation du débit des flux Best Effort
Comme expliqué précédemment, le contrôle d’admission de certains flux QoS peut échouer
car une partie de la bande passante est consommée par des flux Best Effort. Par conséquent,
80
CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT
Fig. 6.2 – Exemple de différenciation de flux
il nécessaire de réguler leur débit en fonction de l’estimation de la bande passante résiduelle
présentée ci-dessus. Dans DRBT, cette régulation ne concerne que les flux Best Effort et se
déroule en deux étapes :
1. Réduire le débit des flux Best Effort lorsqu’un nouveau flux QoS désire transmettre et
ne trouve pas assez de bande passante résiduelle car une partie de celle-ci est occupée
par ces flux Best Effort.
2. Augmenter le débit de ces flux Best Effort lorsqu’un flux QoS libère de la bande passante ou se déplace dans une autre zone de transmission.
6.2.3.1
Réduction du débit des flux Best Effort
Dans cette partie, nous expliquons la méthode utilisée pour réduire le débit des flux
Best Effort si nécessaire. Le protocole DRBT n’utilise que les paquets classiques tels que les
RREQ et RREP que l’on retrouve dans la plupart des protocoles de routage réactifs.
Ainsi, pour chaque nouvelle transmission d’un flux QoS, un paquet de RREQ est envoyé
au préalable afin de réserver les ressources ainsi que le paquet de réponse RREP correspondant. Les informations stockées dans ces paquets sont :
– L’adresse du nœud émetteur.
– L’adresse du nœud récepteur.
– Un numéro de séquence unique.
– Le débit désiré par le nouveau flux QoS (T hroughputQoS).
– Le nombre total de flux Best Effort se trouvant dans le voisinage du flux QoS concerné
(nbBE). En effet, chaque flux Best Effort possède un identifiant unique propagé à
travers les paquets Hello. En conséquence, chaque nœud peut estimer le nombre total
de flux Best Effort dans son voisinage et analysant ces identifiants.
81
CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT
– La bande passante résiduelle différenciée (qui ne prend en compte que les transmissions
QoS et notée Dif f Bandwith). Si la bande passante résiduelle différenciée indiquée par
le paquet de RREQ est inférieure à la valeur stockée sur le lien par lequel le paquet de
RREQ a été reçu, alors elle est mise à jour au niveau de ce paquet de RREQ.
La précision de notre protocole DRBT passe aussi bien par une estimation précise de
la bande passante résiduelle que par un processus de routage efficace. Nous utilisons un
routage réactif proche de celui d’AODV. La source d’un flux QoS envoie un paquet de
RREQ à l’ensemble de ses voisins. Tout nœud recevant ce paquet de RREQ effectue un
simple contrôle d’admission en vérifiant si la bande passante désirée et transportée par
le paquet de RREQ est inférieure à la valeur de la bande passante résiduelle différenciée
sur ce lien. Si c’est le cas, le nœud ajoute son adresse dans la route et retransmet ce
paquet de RREQ. Ce processus continue jusqu’au nœud destinataire qui après avoir
effectué le dernier contrôle d’admission, envoie le paquet de RREP en unicast, par le chemin
inverse afin de réserver les ressources si le contrôle d’admission a été positif sur tout le chemin.
A chaque réception d’un paquet de RREQ ou de RREP par un émetteur d’un flux Best
Effort, ce dernier estime s’il y a assez de bande passante résiduelle pour transporter ce flux
QoS sans dégrader son débit. Si ce n’est pas le cas, il réduit son débit en envoyant un paquet
appelé DRP pour Dynamic Regulation Packet. Ce paquet, envoyé depuis la couche IP vers
la couche LL du même nœud, ne circule pas à travers le réseau. Les informations stockées
dans ce paquet DRP sont :
– La valeur de la bande passante désirée par le nouveau flux QoS (T hroughputQoS) et
extraite du paquet de RREQ ou RREP.
– La valeur actuelle de débit du flux Best Effort (T hroughputBE).
– Le nombre total de flux Best Effort rencontrés le long du chemin (nbBE).
– La valeur de la bande passante résiduelle différenciée stockée le long du chemin dans
la variable Dif f Bandwith.
– Un numéro de séquence unique permettant d’identifier le paquet RREQ et RREP.
Il est important de remarquer que seule la source du flux Best Effort est en mesure de
dégrader son débit Pour des topologies où la source du flux Best Effort n’est pas dans le
voisinage du flux QoS qu’il gêne, une solution aurait pu être d’informer la source à l’aide de
nouveaux paquets de contrôle. Cependant nous n’avons pas retenu cette solution notamment
à cause de la part non négligeable de ressources qu’elle consommerait.
Un exemple d’une telle situation est présenté au niveau de la figure 6.3. Le nœud émetteur
du flux Best Effort D est en mesure de décoder le paquet de RREQ émis par A et de récupérer
la valeur de la bande passante désirée par cette transmission QoS (équivalente à X Kb/s).
A la réception d’un tel paquet, le nœud D envoie un paquet DRP. Lorsque la couche LL
réceptionne ce paquet DRP, elle enclenche le mécanisme de réduction du débit des flux Best
Effort.
En pratique, deux files d’attentes virtuelles sont utilisées. La première sert à transporter
les paquets QoS et la seconde les paquets Best Effort. Nous pouvons donc contrôler dy-
82
CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT
Fig. 6.3 – Réception d’un paquet RREQ
namiquement la taille de chacune des files. La figure 6.4 représente le schéma général de
l’architecture d’un nœud DRBT.
Pour diminuer de manière précise le débit du trafic Best Effort, nous réduisons la taille de
la file Best Effort jusqu’à une valeur seuil. Cette valeur seuil, noté T hreshold varie à chaque
réception d’un nouveau paquet DRP. Elle est obtenue grâce à la formule :
T hreshold =
T hroughputBE
AvailableBandwidth
(6.1)
avec :
Dif f Bandwidth − T hroughputQoS
(6.2)
nbBE
L’équation 6.2 représente la nouvelle bande passante résiduelle que l’on pourra allouer
au flux Best Effort, si le nouveau flux QoS est accepté. D’après l’équation 6.1, si la valeur
du seuil est supérieure à un, alors le débit du trafic Best Effort doit être diminué.
Une fois que le seuil est déterminé, la taille de la file d’attente sizeBE est donnée par la
formule :
AvailableBandwidth =
N bpacketsBE
(6.3)
T hreshold
La variable N bpacketsBE représente le nombre de paquets Best Effort entrés dans la
file d’attente durant une période de mesure d’une seconde. Nous avons choisi de fixer cette
sizeBE =
83
CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT
Fig. 6.4 – Architecture interne d’un nœud DRBT
période de temps à une seconde car au niveau du protocole ABE, les débits de l’ensemble
des liens du réseau sont mis à jour toutes les secondes.
6.2.3.2
Augmentation du débit des flux Best Effort
Lorsqu’un flux QoS arrête sa transmission ou se déplace dans une autre zone de communication, tous les flux Best Effort ayant réduit leur débit, à cause de la présence de ce
flux QoS, peuvent augmenter leur débit jusqu’à la valeur initiale. Cette augmentation permet d’utiliser de manière optimale et dynamique les ressources disponibles qui se libèrent
dans le réseau. Pour atteindre cet objectif nous réutilisons les paquets Hello. Chaque nœud
transportant un flux QoS stocke, dans ces paquets Hello, des informations sur l’identité de
ce flux et la valeur de la bande passante résiduelle différenciée.
Quand un flux QoS arrête de transmettre ou libère de la bande passante, ce changement
d’état est indiqué au niveau des paquets Hello. L’émetteur du flux Best Effort qui se trouve
dans le voisinage du flux QoS est en mesure d’intercepter ces paquets Hello indiquant qu’un
flux QoS a libéré de la bande passante. Finalement, le flux Best Effort peut augmenter son
débit en fonction de la nouvelle valeur de la bande passante disponible. En cas de mobilité
d’un ou des nœuds du flux QoS hors de leur ancienne zone de communication, les nœuds Best
Effort ne reçoivent plus de paquets Hello de ces derniers. En conséquence, ils augmentent
leur débit jusqu’à la dernière valeur du débit qui avait été conservée.
84
CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT
6.2.4
Synthèse
Nous avons présenté dans cette partie, DRBT un protocole de régulation dynamique
du débit des flux Best Effort. Cette régulation se base sur une estimation différenciée de
la bande passante résiduelle prenant en compte le type des paquets (QoS ou Best Effort).
En s’inspirant du protocole RED, la régulation du débit des flux Best Effort s’effectue en
adaptant dynamiquement la taille de la file d’attente des nœuds émetteurs Best Effort.
Comme nous allons le voir, contrairement aux méthodes consistant à réduire la taille de la
fenêtre de contention, cette approche permet de mieux contrôler le débit des flux Best Effort.
6.3
Evaluation des performances de DRBT
Nous présentons dans ce chapitre les performances de notre protocole de régulation dynamique du débit des flux Best Effort, DRBT. Nous nous plaçons dans un contexte ad hoc
multi-saut. Nous avons utilisé le simulateur NS-2 afin d’étudier les performances de notre
approche. Nous comparons les résultats obtenus avec trois autres protocoles :
– Le protocole au mieux AODV qui fournit un routage basique sans contrôle d’admission.
– Le protocole ABE dont la comparaison va nous permettre de voir quel est l’apport
d’une différentiation de flux lorsqu’on régule le débit des communications Best Effort.
– Le protocole QPART que nous avons implémenté et qui servira de base pour la comparaison avec DRBT, puisque c’est un des rares protocoles de QoS qui s’intéressent à
la cohabitation des flux QoS et Best Effort.
La première topologie étudiée permet de comprendre le fonctionnement de base de notre
protocole, puis nous générons par la suite des scénarios aléatoires plus complexes.
6.3.1
Un premier scénario simple : les 2 paires
Ce premier scénario basique est constitué de deux paires de nœuds se trouvant dans la
même zone de communication. Il nous permet de valider le mécanisme de différenciation et
de régulation des flux. Ainsi, à la date t = 1 s, le nœud A émet vers B un flux Best Effort de
débit 1000 Kb/s. Quatre secondes plus tard, le mobile C cherche à envoyer un flux QoS de
débit équivalent à destination de D, comme indiqué sur la figure 6.5. A la date t = 30 s, le
flux QoS s’arrête tandis que la simulation dure 50 s. La capacité du médium est de 2Mb/s.
Lorsque le protocole AODV est utilisé, aucune différenciation des flux n’est établie. Par
conséquent l’introduction du second flux QoS va engendrer un partage des ressources avec
le premier flux Best Effort introduit dans le réseau. A partir de la date t = 30 s, l’arrêt du
flux QoS permet au flux Best Effort de retrouver son débit initial (figure 6.6(a)).
Lorsque le protocole ABE est activé, le contrôle d’admission du flux QoS échoue car 70%
de la bande passante est consommée par les émissions du flux Best Effort. Le flux QoS n’est
donc pas introduit dans le réseau et seul le flux Best Effort est émis comme indiqué sur la
figure 6.6(b).
L’apport du protocole DRBT au niveau de la figure 6.6(c) se déroule en deux grandes
phases. Durant la première phase, de t = 5 s à t = 30 s, le débit du flux Best Effort est dégradé
85
CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT
Fig. 6.5 – Les 2 paires
jusqu’à un débit d’environ 500 Kb/s. Cette dégradation permet au flux QoS d’émettre au
débit désiré de 1000 Kb/s. Durant la seconde phase, lorsque le flux QoS est arrêté (à partir
de t = 30 s), le débit du flux Best Effort est rétabli jusqu’à sa valeur initiale de 1000 Kb/s.
Le protocole QPART, comme DRBT diminue le débit du flux Best Effort durant la
première phase correspondant à l’introduction du flux QoS, et réinitialise sa valeur à
1000 Kb/s lorsque le flux QoS arrête sa transmission. Cependant, par rapport à DRBT, on
remarque au niveau de la figure 6.6(d), que la diminution du débit du flux Best Effort n’est
pas assez importante. Cette situation engendre automatiquement une légère dégradation du
débit du flux QoS qui peut parfois atteindre 800 Kb/s au lieu des 1000 Kb/s demandé par
l’application.
Le protocole QPART, qui ne conserve aucun état du réseau, n’effectue aucune estimation
de la bande passante résiduelle. Ainsi, le débit du flux Best Effort est diminué, mais aucune
estimation ne permet de fixer sa valeur exacte. La conséquence immédiate est une légère
dégradation du débit du flux QoS. Ce premier scénario montre que pour offrir aux flux QoS
des garanties, il peut être utile d’estimer la proportion de bande passante maximale qui
pourra être allouée aux flux Best Effort.
Il apparaı̂t clairement que la différenciation de flux permet au protocole DRBT, par
rapport à ABE, de privilégier l’émission des flux QoS sur les flux Best Effort. Par rapport à
QPART, l’estimation de la bande passante résiduelle permet quant à elle de déterminer avec
précision le débit maximum d’émission des flux Best Effort, afin d’éviter une dégradation
des flux QoS.
6.3.2
Topologies aléatoires
L’évaluation des performances d’un protocole sur des topologies aléatoires permet de mieux caractériser le comportement du protocole dans des situations totale86
CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT
AODV−flux1
AODV−flux2
ABE−flux1
ABE−flux2
1200
1000
1000
800
800
Débit (Kb/s)
Débit (Kb/s)
1200
600
600
400
400
200
200
0
0
0
5
10
15
20
25
30
Date de la simulation (s)
35
40
45
0
50
5
10
15
(a) AODV
35
40
45
50
(b) ABE
DRBT−flux1
DRBT−flux2
1200
QPART−flux1
QPART−flux2
1200
1000
1000
800
800
Débit (Kb/s)
Débit (Kb/s)
20
25
30
Date de la simulation (s)
600
600
400
400
200
200
0
0
0
5
10
15
20
25
30
Date de la simulation (s)
35
40
45
50
0
(c) DRBT
5
10
15
20
25
30
Date de la simulation (s)
35
40
45
(d) QPART
Fig. 6.6 – Débits obtenus par les deux flux avec AODV, ABE, DRBT et QPART
87
50
CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT
ment imprévisibles. Ainsi, nous disposons aléatoirement 10 nœuds dans un carré de
1000m × 1000m. Nous démarrons cinq connexions CBR, dont trois connexions de type Best
Effort et deux connexions de type QoS. Le tableau 6.1 représente les débits désirés par chacune des connexions. Pour chacune des ces transmissions, une source choisit aléatoirement
une destination vers laquelle elle route ses informations. La destination peut ne pas être dans
la zone de communication de l’émetteur, nécessitant dans ce cas un routage multi-saut. Le
démarrage des flux est espacé de 5 s et la simulation dure 50 s.
700
700
BE−flux1 (319 Kb/s)
BE−flux2 (164 Kb/s)
BE−flux3 (386 Kb/s)
QoS−flux4 (129 Kb/s)
QoS−flux5 (281KB/s)
600
500
500
400
400
Débit (Kb/s)
Débit (Kb/s)
600
BE−flux1 (319 Kb/s)
BE−flux2 (164 Kb/s)
BE−flux3 (386 Kb/s)
QoS−flux4 (129 Kb/s)
QoS−flux5 (281KB/s)
300
300
200
200
100
100
0
0
0
5
10
15
20
25
30
Date de la simulation (s)
35
40
45
50
0
5
10
15
(a) AODV
35
40
45
50
(b) ABE
700
700
BE−flux1 (319 Kb/s)
BE−flux2 (164 Kb/s)
BE−flux3 (386 Kb/s)
QoS−flux4 (129 Kb/s)
QoS−flux5 (281KB/s)
600
BE−flux1 (319 Kb/s)
BE−flux2 (164 Kb/s)
BE−flux3 (386 Kb/s)
QoS−flux4 (129 Kb/s)
QoS−flux5 (281KB/s)
600
500
500
400
400
Débit (Kb/s)
Débit (Kb/s)
20
25
30
Date de la simulation (s)
300
300
200
200
100
100
0
0
0
5
10
15
20
25
30
Date de la simulation (s)
35
40
45
50
0
(c) DRBT
5
10
15
20
25
30
Date de la simulation (s)
35
40
45
50
(d) QPART
Fig. 6.7 – Débits obtenus avec AODV, ABE, DRBT et QPART
Au niveau de la figure 6.7(a), les résultats présentés montrent qu’avec le protocole AODV,
un partage des ressources dans le réseau est effectué ce qui empêche les flux QoS d’atteindre
le débit désiré. Cette situation conduit rapidement à une congestion du réseau entraı̂nant
parallèlement des cassures de routes et des reconstructions fréquentes.
Avec le protocole ABE (figure 6.7(b)), les trois premiers flux Best Effort se partagent les
ressources au niveau du médium radio. Par la suite, la phase de contrôle d’admission des
88
CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT
Flux
CBR1
CBR2
CBR3
CBR4
CBR5
Type
Best Effort
Best Effort
Best Effort
QoS
QoS
Débit désiré (Kb/s)
319
164
386
129
281
Date d’émission (s)
5
10
15
20
25
Tab. 6.1 – Débits désirés et type de flux
deux flux QoS estime qu’il n’y a pas assez de bande passante pour pouvoir les acheminer au
débit désiré. Par conséquent, seuls les trois flu
x Best Effort sont émis à travers le réseau. L’inconvénient du protocole ABE provient du
fait qu’aucune différenciation n’est effectuée entre les flux Best Effort et QoS.
L’utilisation du protocole QPART au niveau de la figure 6.7(d) permet de diminuer le
débit des flux Best Effort. Cependant, le débit des flux QoS introduits n’est pas stable et
subit parfois des dégradations. La cause principale est que la diminution du débit de flux
Best Effort n’est pas assez importante car aucune estimation des ressources disponibles n’est
mise en place.
Avec le protocole DRBT, on estime la bande passante maximale à allouer au flux Best
Effort, ce qui permet de garantir aux flux QoS une transmission stable sans dégradation de
leur débit comme indiqué au niveau de la figure 6.7(c).
Les deux scénarios présentés montrent qu’une estimation de la bande passante résiduelle
est efficace pour limiter correctement le débit des flux Best Effort. Beaucoup d’autres
scénarios de ce type ont été effectués et dans tous les cas, les conclusions sont identiques.
6.3.3
Taux d’acceptation des flux QoS
De par la nature des flux QoS, la fiabilité de leur transmission permet d’estimer la
précision des protocoles de qualité de service utilisées. La but de notre protocole DRBT
est de réduire efficacement le débit des flux Best Effort afin d’augmenter le taux d’acceptation des flux QoS. Pour évaluer le taux d’acceptation de DRBT nous réutilisons la métrique
β défini dans le chapitre 5. Ici nous avons :
Nombre de flux QoS admis correctement
(6.4)
Nombre total de flux QoS à émettre dans le réseau
Un flux QoS admis correctement est un flux QoS n’ayant pas subi plus de 5% de
dégradation de son débit lors de sa transmission. Cette situation implique donc que l’estimation de la bande passante résiduelle différenciée et la phase de contrôle d’admission sont
fiables.
Cette métrique va nous permettre d’estimer la fiabilité de l’estimation différenciée de la
bande passante résiduelle. En effet, une estimation erronée entraı̂nerait irrémédiablement
une dégradation du débit des flux QoS et par conséquent une diminution de la valeur de la
variable β.
β=
89
CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT
Nous avons procédé à des simulations pour estimer la valeur du paramètre β. Le nombre
de nœuds dans le réseau considéré varie de 10 à 50 et sont positionnés aléatoirement. Dix
connexions CBR, dont cinq Best Effort et cinq QoS sont établies entre des nœuds source et
destination choisis aléatoirement. Les débits sont distribués uniformément dans l’intervalle
[0-200] Kb/s. Chaque simulation dure 100 secondes et les résultats présentés constituent la
moyenne de 30 simulations pour un nombre de nœuds défini.
90
90
AODV
ABE
QPART
DRBT
AODV
ABE
QPART
DRBT
80
70
70
60
60
Valeur du paramètre beta
Valeur du paramètre beta
80
50
40
30
50
40
30
20
20
10
10
0
0
10
20
30
Nombre de mobiles
40
50
10
20
30
Nombre de mobiles
40
50
(a) Zone de détection de porteuse = 2 × Zone de com- (b) Zone de détection de porteuse = Zone de communication
munication
Fig. 6.8 – Taux d’acceptation des flux QoS avec les protocoles AODV, ABE, QPART et
DRBT
Influence de l’évaluation :
La figure 6.8(a) représente la valeur du paramètre β en fonction du protocole utilisé. De
manière évidente, plus le réseau devient dense, plus le taux d’acceptation β des flux QoS
diminue car la bande passante résiduelle des liens devient plus faible.
Lorsque le réseau est peu dense (entre 10 et 20 nœuds), le taux d’acceptation est relativement élevé pour notre protocole (70%) tandis que le protocole QPART achemine environ
51% des flux QoS. Ainsi, les deux mécanismes de différenciation de flux et d’estimation
différenciée de la bande passante résiduelle permettent d’augmenter le taux d’acceptation
des flux QoS.
Cependant, lorsque le réseau est moyennement dense (entre 20 et 30 nœuds), le taux d’acceptation des flux QoS de tous les protocoles commencent à diminuer. Toutefois le protocole
DRBT arrive encore à acheminer jusqu’à 61% des flux QoS présents.
Enfin, lorsque le réseau est très dense (entre 40 et 50 nœuds), la bande passante résiduelle
des liens devenant très faible, une diminution du débit des flux Best Effort est insuffisante
pour garantir les ressources au flux QoS. Cependant avec DRBT, 10% des flux QoS sont
encore acheminés avec les conditions requises alors que les autres protocoles acheminent
dans le meilleur des cas 3.5% de ces flux.
90
CHAPITRE 6. CO-EXISTENCE DE TRAFICS PRIVILÉGIÉS ET BEST EFFORT
Influence de la taille de la zone de détection de porteuse :
Lorsque la zone de détection de porteuse est égale à la zone de communication (voir figure 6.8(b)), le taux d’acceptation des flux pour les protocoles QPART et ABE est légèrement
plus élevé qu’au niveau de la figure 6.8(a) pour un même nombre de mobiles. En revanche,
les protocoles QPART et AODV voient une diminution de la valeur de β.
En effet, réduire la zone de détection de porteuse permet de décoder un plus grand nombre
de paquets émis dans le voisinage d’un nœud. Ceci facilite le mécanisme de différenciation
des paquets pour DRBT. L’inconvénient majeur de cette réduction est l’apparition d’un
plus grand nombre de topologies de stations cachées, ce qui pose des problèmes à QPART
et AODV qui ne savent pas gérer ces situations. Toutefois, cet inconvénient est négligeable
pour DRBT et ABE car les estimations de la bande passante résiduelle proposées dans ces
protocoles prennent en compte les phénomènes de stations cachées.
91
CHAPITRE
7
Estimation du délai moyen
Dans ce chapitre nous nous intéressons à l’étude du délai de transmission dans un contexte
ad hoc multi-saut afin de proposer un protocole de qualité de service basé sur cette métrique.
Le délai est un critère aussi important que la bande passante pour les applications multimédia
qui nécessitent des garanties pour ces deux métriques.
Dans ce chapitre, nous présentons DEAN (Delay Estimation in Ad hoc Networks) un
protocole de réservation de ressources basé sur le délai moyen comme métrique. La métrique
délai désigne le temps que met un paquet pour être acheminé d’une source vers une destination. Contrairement à la bande passante, le délai est une métrique additive. Ainsi, le délai
le long d’un chemin est égal à la somme des délais des liens qui constituent ce chemin. Ce
temps prend en compte principalement deux étapes : le délai dans la file d’attente des nœuds
le long du chemin et le délai de propagation du paquet sur le médium physique.
Pour ce travail, nous allons supposer que toutes les horloges des mobiles sont parfaitement
synchronisées. Cette hypothèse permet d’avoir une évaluation correcte du délai. Il est clair
que dans la réalité, cette synchronisation peut être difficile à obtenir dans un contexte ad
hoc. Ce problème a néanmoins été laissé de côté pour ce travail.
Nous proposons donc, après avoir dressé un état de l’art sur les techniques d’évaluation
du délai moyen, une modélisation permettant d’estimer ce délai moyen sur un chemin à
partir des mécanismes mis en place dans ABE.
7.1
Etat de l’art sur les techniques d’évaluation du
délai
Les auteurs de [60] se sont intéressés à la modélisation du délai de transmission à un saut
radio à l’aide de chaı̂nes de Markov à temps discret. Largement basé sur la modélisation
de la DCF de 802.11 faite par Bianchi dans [61], ils ont modélisé dans un premier temps
la probabilité de collision et la probabilité de transmission en fonction de l’état initial du
système. Dans un second temps, grâce au calcul de ces probabilités, ils ont pu en déduire la
distribution moyenne du backoff et le temps de service associé en modélisant la file d’attente
de l’émetteur par une file M/MMGI/1/K.
Cependant, les auteurs stipulent qu’une simple transformation permet d’étendre leurs
résultats à des réseaux multi-sauts, mais la problématique devient plus complexe car les
92
CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN
hypothèses permettant d’estimer les probabilités de collision ne sont plus valables dans
un environnement multi-saut, notamment à cause des interférences et du phénomène des
stations cachées.
Dans [62], un mécanisme d’estimation du délai à 1 saut radio pour les réseaux ad hoc
802.11 est présenté. Ce mécanisme repose sur une estimation du taux d’occupation du canal
radio. Le délai est par la suite pondéré par ce taux d’occupation. Si l’on considère U comme
le taux d’occupation du canal et L comme le temps moyen de transmission d’un paquet sur
0
ce canal alors le délai noté d s’écrit : d = U × d + (1 − U ) × L. Lorsque U = 0 correspondant
à un canal libre, il n’y a pas de collision et le délai est égal au temps moyen de transmission
du paquet. Lorsque le canal n’est pas libre (U 6= 0), alors les auteurs évaluent la valeur
0
du paramètre d qui correspond au temps total des retransmissions incluant les différentes
valeurs de backoff choisies à chaque étage de backoff. Cependant, pour des configurations de
stations cachées, le canal peut être perçu comme libre par le nœud émetteur (U = 0) alors
que des collisions peuvent survenir à la réception.
Le principe de [63, 64] est de modéliser un nœud 802.11 par une file M/G/1/K afin
d’estimer le temps moyen de service d’un paquet dans la file d’attente des nœuds. Une fois
ce paramètre déterminé, les auteurs utilisent une fonction génératrice du temps de service
au niveau de la couche MAC qui dépend de la taille du paquet, de la probabilité de collision,
et de la taille de la fenêtre de contention. Finalement on obtient le temps moyen de service
d’un nœud en estimant la moyenne des temps de service sur la longueur des paquets et leur
probabilité de collision.
Dans [65, 66] les auteurs estiment le délai d’un lien en calculant la différence de temps
s’écoulant entre la création d’un paquet Hello et la réception de ce dernier par le destinataire.
Cette approche semble assez simpliste car elle ne prend pas en compte la taille d’un paquet
qui peut varier alors que les paquets Hello ont une taille constante. De plus ces paquets
Hello n’étant pas acquittés car envoyés en broadcast, en cas de collision il n’y a pas de
réémission, tandis que les paquets de données sont retransmis, ce qui tend à augmenter de
manière non négligeable le délai de transmission.
Dans [67] Tickoo et Sikdar, proposent un modèle analytique basé sur une file G/G/1
afin d’estimer le délai d’un paquet. L’analyse en moyenne présentée dans cet article permet
d’obtenir une expression du backoff moyen en fonction de la probabilité de collision. Pour
un réseau de n stations, Bianchi donne une formule permettant d’estimer la probabilité de
collision en fonction de n. A partir de cette formule les auteurs proposent une résolution
numérique afin de déterminer la valeur de la probabilité de collision. Le délai ou temps
de service du mobile est alors représenté par le temps mis pour traverser la file d’attente
obtenue par la loi de Little et le temps s’écoulant entre l’instant d’arrivée à la couche MAC
et l’instant où le canal est libre. Cette dernière valeur n’est pas triviale et nécessite de
modéliser le nombre de slots de backoff que le mobile devra attendre entre deux émissions
93
CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN
réussies avant de pouvoir émettre sur le canal radio. Finalement on ajoute le temps de
propagation sur la canal radio avec les éventuelles retransmissions en cas de collision. Une
étude analogue du délai, déduite à partir des probabilités de collision obtenues à l’aide de
la modélisation de la DCF faite par Bianchi, est proposée dans [68].
7.2
Synthèse
L’estimation du délai dans un contexte ad hoc multi-saut est un problème complexe.
Certaines approches considèrent la métrique délai comme connue ou effectue simplement
une différence entre l’instant de départ d’un paquet de découverte de route et l’instant
d’arrivée.
D’autres travaux plus pertinents, se basent sur une modélisation de la DCF de 802.11,
largement inspirée du modèle proposé par Bianchi dans [61]. Cette modélisation permet
d’estimer les probabilités du canal radio (probabilité d’accès, de collision, etc.). Par la suite,
les auteurs peuvent en déduire une expression du délai de bout en bout. L’inconvénient
principal est que les hypothèses effectuées au niveau de ces modèles sont appliquées à une
cellule où tous les mobiles sont à portée de communication. De manière plus générale ces
hypothèses sont :
– Le nombre n de stations en compétition est connu par tous les mobiles et constant.
– La probabilité de collision est constante.
– Cette probabilité de collision est la même pour tous les nœuds.
– Les nœuds sont tous dans la même zone de communication. Il n’y a donc pas de
phénomène de stations cachées, ni d’interférences. Les collisions ne proviennent que de
l’accès concurrentiel au médium radio.
– Le débit est à saturation, c’est-à-dire qu’il y a toujours un paquet à émettre dans la
file d’attente des nœuds.
L’approximation principale du modèle de Bianchi est que la probabilité de collision est
constante et ne provient que de l’accès concurrentiel au médium radio, ce qui permet de
l’exprimer en fonction du nombre de stations en compétition. Toutes ces hypothèses fondamentales permettent de simplifier les chaı̂nes de Markov obtenues et de les résoudre, ce qui
semble beaucoup plus difficile pour des réseaux multi-sauts.
Certaines informations, difficilement récupérables de manière analytique, pourraient être
plus facilement obtenues via des mesures réalisées dans un protocole. Nous proposons par la
suite, une méthode afin d’estimer le délai de bout en bout dans un environnement ad hoc
multi-saut tirant parti de certains mécanismes déjà mis en place au niveau de notre protocole
ABE (voir chapitre 4).
94
CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN
7.3
7.3.1
Estimation du délai moyen dans les réseaux ad hoc
Hypothèses
Comme nous l’avons vu précédemment, le délai désigne le temps que met un paquet pour
être acheminé d’une source s vers une destination d. Effectuer la différence entre l’instant de
réception d’un paquet et sa date d’émission permet de connaı̂tre le délai d’un seul paquet.
Cependant, un protocole de QoS doit être en mesure, lors de la phase de découverte de route,
de quantifier un délai moyen en estimant les ressources disponibles à travers le réseau. La
méthode d’accès influe fortement sur le délai des paquets. Dans notre étude, le protocole de
niveau MAC est la norme IEEE 802.11.
Un mobile 802.11 se comporte comme un buffer qui se remplit par des paquets de données
et se vide en fonction de la vitesse de traitement de ces paquets de données. Nous modélisons
comme dans [69, 70] ce système par une file d’attente M/M/1/K (voir figure 7.1) dont les
propriétés sont les suivantes :
Fig. 7.1 – Modélisation d’un nœud 802.11 par une file M/M/1/K
– L’arrivée des paquets suit une loi exponentielle de paramètre λ.
– Le traitement des paquets suit également une loi exponentielle de paramètre µ.
– The size of the queue is limited by the value K. When a new packet arrives and there
is already K packet in the queue,
– La taille de la file est bornée par la valeur K. Lorsqu’un paquet arrive et qu’il y a déjà
K paquets dans le système alors celui-ci est perdu.
Le paramètre λ qui est le taux d’arrivée des paquets dans la file d’attente du nœud peut
être représenté par le débit d’émission désiré par l’application et qui est explicitement fourni
lors de la phase de requête de route avec QoS.
Le paramètre µ qui est le taux de service du nœud peut être représenté par la bande
passante résiduelle autour du mobile considéré.
Intuitivement, lorsque µ ≥ λ, la bande passante résiduelle autour du nœud est assez élevée
pour la transmission du flux considéré au débit désiré sans congestion du réseau. Dans le cas
contraire, la file d’attente du nœud va se remplir progressivement et des pertes de paquets
vont survenir entraı̂nant une augmentation du délai.
Dans ABE, nous avions déjà proposé un mécanisme pour estimer la bande passante
résiduelle autour d’un nœud à partir de l’écoute du support afin de déterminer les périodes
de temps libre du canal. Par conséquent, nous sommes en mesure de quantifier la valeur de
ce paramètre selon la formule : µ = τi × Cmax avec τi qui est le pourcentage de temps libre
95
CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN
du canal autour du nœud i et Cmax la capacité du médium.
Nous avons choisi de modéliser le taux de service µ par la bande passante résiduelle d’un
nœud car cela permet de prendre en compte deux facteurs :
– Le temps s’écoulant entre l’instant où le mobile rentre dans la file d’attente et l’instant
où il la quitte.
– Le temps que le mobile doit attendre au niveau MAC avant de pouvoir émettre ses
paquets, le médium étant occupé par des transmissions voisines.
Dans un contexte ad hoc multi-saut, la modélisation de certains paramètres s’avère
extrêmement difficile à mettre en œuvre, c’est pourquoi nous récupérons certains paramètres
par le biais de mesures. Nous supposons donc que la probabilité de collisions des liens p
est connue, car nous avions déjà proposé dans ABE un mécanisme pour l’évaluer grâce aux
paquets Hello et d’une interpolation à l’aide des polynômes de Lagrange.
7.3.2
Délai dans la file d’attente des nœuds
Nous évaluons dans cette partie le délai moyen dans la file d’attente des nœuds traversés.
Ce délai représente la durée qui s’écoule entre l’instant où le paquet rentre dans la file
d’attente du nœud et l’instant où il est émis sur le médium radio. Les nœuds 802.11 étant
modélisés par des files d’attente M/M/1/K, le délai moyen dans la file d’attente n’est autre
que le temps moyen de séjour.
Nous représentons l’évolution du nombre moyen de paquets N dans la file par un processus
de Markov à temps continu dont les états représentent le nombre de paquets dans la file
et les transitions sont les taux d’arrivées λ et les taux de services µ, comme indiqué sur la
figure 7.2.
Fig. 7.2 – Processus de Markov représentant le nombre de paquets dans la file
Soit p(n) la probabilité d’avoir n paquets dans la file avec la contrainte que 0 ≤ n ≤ K.
Tout nouveau paquet arrive avec un taux λ ou quitte la file avec un taux µ, d’où les équations
suivantes :
λ p(0) = µ p(1)
λ p(1) = µ p(2)
96
CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN
.
.
.
λ p(K − 1) = µ p(K)
On pose ρ = µλ . On peut donc exprimer de manière simple p(n) en fonction de p(0) et ρ :
p(n) = ρn p(0) pour 0 ≤ n ≤ K
K
X
La somme des probabilités étant égale à 1 (
p(i) = 1), on obtient une expression de
i=0
p(0) puis de p(n) :
=⇒

1−ρ


si ρ 6= 1
p(n) = ρn


1 − ρK+1
1
si ρ = 1
K +1
D’après la loi de Little, le temps moyen de séjour noté Ts est égal à :



 p(n) =
Ts =
N
λ
K
X
Ts =
i p(i)
i=0
λ
D’où l’expression finale du temps moyen de séjour dans la file d’attente des nœuds :

ρ 1 − (K + 1)ρK + KρK+1 1


si ρ 6= 1

 1−ρ
1 − ρK
λ
Ts =



 1 (K + 1) 1
si ρ = 1
2
λ
97
CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN
7.3.3
Délai sur le médium radio
Le délai sur le médium radio correspond au délai qui s’écoule depuis l’émission d’un paquet sur le canal radio jusqu’à la réception du paquet d’acquittement correspondant. En cas
de collision, ce délai est rallongé à cause des éventuelles retransmissions et de l’augmentation
de la taille de la fenêtre de contention.
Dans la section 4.1.2.2, nous avions déjà proposé un mécanisme permettant d’évaluer la
probabilité de collision p d’un lien radio. Cette méthode estime dans un premier temps la
probabilité de collision sur un lien en comptabilisant au niveau du nœud récepteur et sur une
période prédéfinie, le ratio entre le nombre de paquets Hello non reçus et le nombre total de
paquets Hello que l’on devrait recevoir sur cette même période de mesure. Dans un second
temps, une interpolation à l’aide des polynômes de Lagrange permet de prendre en compte
la taille des paquets de données.
Soit X la variable aléatoire représentant le nombre moyen de retransmissions d’un paquet
ayant subi une collision. On a donc les égalités suivantes en terme de probabilité (la norme
IEEE 802.11 impose un maximum de C retransmissions) :
 k
 p · (1 − p) si k ≤ C
pk
si k = C + 1
P (X = k) =

0
si k ≥ C + 1
Le nombre moyen de retransmissions n associé a cette probabilité de collision p est égale
à l’espérance de la variable aléatoire X :
n = E(X) =
+∞
X
k.P (X = k) =
C
X
k.pk (1 − p) + (C + 1)p(C+1)
k=1
k=0
La figure 7.3 représente le nombre moyen de retransmissions en fonction de la probabilité
de collision, arrondi à l’entier naturel le plus proche. On remarque que ce nombre moyen
de retransmissions croı̂t très lentement lorsque la probabilité de collision est inférieur à 0.5
(une retransmission au maximum lorsque p ≤ 0.5). A partir de cette valeur, la croissance de
ce nombre moyen de retransmissions devient exponentielle jusqu’à la valeur maximale de
sept retransmissions obtenue pour p = 1.
Soit TDIF S la durée d’un DIFS défini par la norme, CWmin la valeur initiale de la taille
de la fenêtre de contention et Ttrans le temps de propagation avec succès d’un paquet sur le
médium incluant les en-têtes physique, MAC, les données, le SIFS et l’acquittement.
Dans ABE, nous avions proposé un mécanisme permettant d’évaluer le nombre de slots de
backoff (backof f ) décrémentés depuis le début de la transmission en présence des collisions
(c est tel que CWmax = 2c .CWmin avec c ≤ C) :‘
1−p
backof f =
·
2
1 − (2p)c
pc − pC
· CWmin +
1 − 2p
1−p
98
CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN
8
Nombre moyen de retransmissions
Nombre moyen de retransmissions
7
6
5
4
3
2
1
0
0
0.2
0.4
0.6
Probabilité de collision
0.8
1
Fig. 7.3 – Nombre moyens de retransmissions en fonction de la probabilité de collision pour
C=6
Nous pouvons donc estimer le temps total Tp sur le médium radio :
Tp = backof f +
n
X
(TDIF S + Ttrans )
k=0
Tp = backof f + (n + 1) (TDIF S + Ttrans )
Finalement, le délai à un saut radio correspondant au temps de service noté Tserv , est la
somme du délai passé dans la file d’attente et du temps passé sur le médium radio :
Tserv = Tp + Ts
7.4
(7.1)
Implémentation
Le délai moyen de l’ensemble des liens radio va être calculé proactivement toutes les
secondes afin de faciliter la phase de contrôle d’admission. Cette valeur sera ainsi connue
avant l’envoi des paquets de données. La solution passe par l’utilisation des paquets Hello
afin de déterminer la probabilité de collision p des liens et le délai moyen vers chacun des
mobiles à portée de communication.
99
CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN
Dans notre protocole DEAN, chaque seconde, tous les nœuds du réseau envoient des messages
Hello vers leurs voisins. Ces messages Hello contiennent deux informations :
– Le pourcentage d’utilisation du médium perçu par le nœud émetteur afin de calculer
le délai passé dans sa file d’attente.
– L’identité du nœud émetteur pour différencier les liens.
A la réception de ces messages Hello, les nœuds récepteurs sont en mesure d’estimer le
délai avec les nœuds sources selon l’équation 7.1. On obtient ainsi le délai moyen sur chaque
lien.
Le protocole DEAN est une extension du protocole AODV. Nous cherchons à offrir des
chemins pour lesquels le délai de bout-en-bout spécifié par l’application est supérieur à la
valeur moyenne estimée le long du chemin.
Par exemple, si l’on considère un nœud source 0 désirant communiquer avec un nœud K
et que les nœuds i et i + 1 sont à portée de communication (0 ≤ i ≤ K − 1), à portée de
communication, alors la contrainte de recherche de routes peut s’exprimer sous forme d’une
inégalité :
K−1
X
di⇒i+1 ≤ Dappli
(7.2)
i=0
Le paramètre Dappli représente le délai de bout-en-bout désiré par l’application
Découverte et maintenance de route : Le mécanisme de recherche de route est
semblable à celui adopté dans ABE. Un paquet de RREQ contenant des informations sur le
délai désiré, l’identité de l’émetteur et le débit de l’application est envoyé en mode diffusion.
Plusieurs contrôles d’admission sont réalisés. Un premier contrôle est effectué par chaque
émetteur d’un paquet RREQ. Le but de ce contrôle est de vérifier qu’on ne gêne pas de
flux se trouvant en situation de stations cachées. Ce contrôle vérifie qu’on ne crée pas de
congestion au niveau de la bande passante via l’estimation de la section 4.1.3. En effet, créer
une congestion reviendrait à augmenter le délai des flux existants.
Les deuxième et troisième contrôles sont réalisés par chaque nœud intermédiaire qui reçoit
la requête.
Le deuxième vérifie si l’inégalité de l’équation 7.2 est toujours vérifiée. Cela permet de
s’assurer que la route recherchée vérifie bien la contrainte imposée sur le délai par l’application.
Le troisième contrôle est un contrôle sur la bande passante afin de vérifier que l’on ne
va pas dégrader et donc éventuellement retarder les flux se trouvant dans le voisinage des
extrémités du lien.
Si tous les contrôles sont positifs, le mobile ajoute son adresse sur la route et additionne
son délai avec celui contenu dans le paquet de RREQ, puis transmet le paquet, sinon il le
détruit. Lorsque le contrôle d’admission a réussi au niveau du destinataire, ce dernier envoie
un paquet de RREP pour indiquer à la source la validité de ce chemin.
100
CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN
Lorsqu’aucun message Hello n’est reçu pendant une certaine durée ou que les conditions
du réseau ne permettent plus d’acheminer le flux QoS au délai désiré, un message d’erreur
(RRER) est envoyé à la source qui reconstruit une nouvelle route.
7.5
Simulations
Nous présentons dans ce chapitre les performances de notre protocole de réservation
de flux QoS basé sur le délai dans un contexte ad hoc multi-saut. L’implémentation a été
réalisée sous le simulateur NS-2 afin de valider les mécanismes mis en place. Notre protocole
possède une approche proactive pour l’estimation du délai de l’ensemble des liens radio et
une approche réactive pour la recherche de route. L’objectif principal des simulations est
de montrer que les routes choisies permettent aux flux QoS d’acheminer leurs paquets de
données avec un délai maximum spécifié par l’application.
Nous nous sommes intéressés dans un premier temps à un scénario présentant des
inégalités d’accès au canal ainsi qu’à une chaı̂ne de transmission. Le but de ces deux scénarios
est de comparer la précision de l’estimation du délai obtenue par simulation et par le biais
de notre estimation. Par la suite, nous avons effectué des simulations sur des scénarios plus
complexes telles que des topologies aléatoires afin de valider le mécanisme de réservation des
ressources. Nous comparons également les performances de notre protocole DEAN avec le
protocole de routage au mieux AODV.
Les paramètres généraux des différentes simulations sont résumés au niveau du tableau 7.1.
Paramètres
Protocole de routage
Protocole MAC
Intervalle Hello
Taille des paquets
Modèle de propagation
Capacité du médium
Zone de communication
Zone de détection de porteuse
Taille de la grille
Durée des simulations
Valeurs
DEAN
IEEE 802.11b
1s
1000 octets
TwoRayGround
2 Mb/s
250 m
550 m
1000 m×1000 m
Entre 50 et 100 secondes
Tab. 7.1 – Paramètres généraux pour les simulations
101
CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN
7.5.1
Précision de l’estimation du délai de bout-en-bout
7.5.1.1
Stations cachées
Afin de mesurer la précision de l’estimation du délai, nous allons nous intéresser au
scénario de la figure 3.2 présenté dans le chapitre 3. Le but de ce scénario est d’évaluer la
précision de l’estimation du délai à un saut radio en présence de collisions. Nous cherchons
à évaluer le délai au niveau du lien A =⇒ B en fonction de la charge du lien C =⇒ D.
Nous utilisons deux mesures du délai :
– Le délai moyen théorique mesuré avec notre protocole DEAN par le biais des
paquets Hello.
– Le délai moyen réel obtenu de manière ”offline” en analysant les traces de la simulation. Dans ce cas précis, pour chaque paquet émis, on mesure le délai comme la
différence entre la date d’émission et de réception du paquet. Le problème de la synchronisation des horloges énoncé précédemment ne se pose pas car dans la simulation,
tous les nœuds ont la même horloge. Le délai réel est obtenu est faisant la moyenne
sur le délai de l’ensemble des paquets émis lors de cette simulation.
Les résultats obtenus sont présentés au niveau de la figure 7.4 avec un intervalle de
confiance.
30
Délai moyen théorique
Délai moyen réel
Délai de propagation en ms
25
20
15
10
5
0
0
100
200
300
400
500
Débit du lien (C−>D) en kb/s
600
700
800
Fig. 7.4 – Comparaison entre délai moyen théorique et délai moyen réel
Pour des débits faibles au niveau du lien C =⇒ D, le délai estimé correspond au temps de
transmission avec succès d’un paquet de 1000 octets à 2 Mb/s soit environ 5 ms. Cependant,
lorsque ce débit augmente, les émissions du nœud A vont provoquer des collisions au niveau
du nœud récepteur B, entraı̂nant des retransmissions de plus en plus fréquentes. Cela se
102
CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN
traduit sur la courbe par l’augmentation du délai. Par exemple pour une charge de 500 Kb/s
sur le lien C =⇒ D, le délai estimé est d’environ 12 ms. Lorsque la charge est importante
(≥ 900Kb/s) tous les paquets émis sur le lien A =⇒ B entrent en collision, le délai devient
alors infini.
On remarque que quel que soit le débit sur le lien C =⇒ D, le délai théorique obtenu
avec le protocole DEAN est proche du délai réel, ce qui traduit la précision de l’estimation
du délai moyen pour ce scénario.
7.5.1.2
Chaı̂ne de transmission
Nous considérons la topologie décrite au niveau de la figure 7.5, consistant en une chaı̂ne
de transmissions à quatre sauts maximum. Le nœud source A transmet ses données vers le
nœud destinataire E qui se trouve à quatre sauts.
Fig. 7.5 – Chaı̂ne de transmission à 4 sauts
A chaque saut, nous estimons le délai moyen obtenu à l’aide de notre estimation et le
délai moyen réel afin de comparer les résultats.
160
Délai moyen théorique
Délai moyen réel
140
Délai de propagation en ms
120
100
80
60
40
20
0
1
2
3
4
Nombre de saut
Fig. 7.6 – Délai moyen théorique et délai moyen réel pour une chaı̂ne à 4 sauts
103
CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN
Comme précédemment, nous remarquons au niveau de la figure 7.6 que la valeur théorique
du délai moyen de transmission est très proche de la valeur réelle obtenue par simulation,
quel que soit le nombre de sauts. Ainsi, pour un saut radio, le délai moyen est égal au temps
d’un paquet de 1000 octets à 2Mb/s qui est d’environ 5ms. A deux sauts, les nœuds A et B
sont en contention mais il n’y a pas de collision. Le délai est par conséquent rallongé, car le
temps de séjour dans la file d’attente du nœud B n’est plus négligeable. A partir de quatre
sauts, on est en présence de stations cachées et par conséquent les collisions augmentent de
manière significative le délai de bout en bout qui passe de 35 ms pour 3 sauts à 120 ms pour
4 sauts.
Dans cette simulation, l’augmentation du délai de transmission est dûe aux collisions
mais aussi au temps de séjour des paquets dans la file d’attente des nœuds intermédiaires
B, C et D.
Les deux scénarios présentés ci-dessus traduisent la précision de l’estimation du délai moyen
de bout en bout de notre protocole.
7.5.2
Topologies aléatoires
Afin de valider le mécanisme de réservation, nous avons généré un scénario aléatoire
constituée de 10 nœuds placés aléatoirement dans un carré de 1000 m×1000 m. Pour chaque
flux QoS, nous recherchons une route vers le destinataire dont le délai est inférieur à 100 ms.
Cinq flux CBR sont initiés et pour chacun d’entre eux le mobile initiateur de la communication choisit aléatoirement un mobile comme destinataire (celui-ci peut être hors de sa zone
de communication nécessitant un routage pour l’atteindre). La simulation dure 50 secondes,
le démarrage de chaque flux est espacé de 5 secondes.
Au niveau de la figure 7.7(a), lorsqu’AODV est utilisé comme protocole de routage, chaque
émetteur recherche une route vers son destinataire sans aucune contrainte en terme de délai.
Ainsi la première route stockée est utilisée pour acheminer les données sans tenir compte de
l’état de cette dernière. Cette situation entraı̂ne le choix de routes pour lesquelles le délai
est supérieur à la valeur maximale de 100 ms. D’après les résultats présentés au niveau du
tableau 7.2, le flux 5 a un délai moyen d’environ 1966 ms, ce qui est largement supérieur à
la valeur maximale de 100 ms.
Lorsque le protocole DEAN est activé (figure 7.7(b)), un contrôle d’admission permet de
se rendre compte que les conditions du réseau ne permettent pas d’acheminer les flux numéro
4 et 5 au délai désiré. Par conséquent ces deux flux sont rejetés et tous les autres flux admis
sont convoyés avec un délai moyen inférieur à 100 ms.
7.5.3
Taux d’acceptation des paquets QoS
La précision de l’estimation du délai moyen de bout-en-bout et de la phase de contrôle
d’admission peuvent être évaluées par le biais d’une nouvelle métrique noté α, caractérisant le
taux d’acceptation des paquets QoS. En effet lorsqu’un flux QoS est admis, le délai moyen de
tous les paquets doit être inférieur à la borne maximale spécifiée par l’utilisateur. Toutefois,
il arrive que certains paquets QoS soient acheminés avec un délai moyen légèrement supérieur
104
CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN
Délai AODV flux1
Délai AODV flux2
Délai AODV flux3
Délai AODV flux4
Délai AODV flux5
Délai maximal 100 ms
140
Délai des paquets secondes
120
100
80
60
40
20
0
0
5
10
15
20
25
30
35
Date de la simulation en secondes
40
45
50
(a) AODV
Délai QoS flux1
Délai QoS flux2
Délai QoS flux3
Délai QoS flux4
Délai QoS flux5
Délai maximal 100 ms
140
Délai des paquets secondes
120
100
80
60
40
20
0
0
5
10
15
20
25
30
35
Date de la simulation en secondes
40
45
50
(b) DEAN
Fig. 7.7 – Délai moyen des flux avec les protocoles AODV et DEAN
105
CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN
Identifiant du flux
Flux
Flux
Flux
Flux
Flux
1
2
3
4
5
DEAN (ms)
Délai moyen Int. conf (95%)
50.15
[49.17, 51.13]
28.26
[26.31, 30.21]
16.09
[15.65, 16.52]
pas admis
pas admis
pas admis
pas admis
AODV (ms)
Délai moyen
Int. conf (95%)
102.52
[97.6, 107.45]
28.88
[25.75, 32.01]
19.92
[19.14, 20.70]
pas de route
pas de route
1966.39
[1907.30, 2025.49]
Tab. 7.2 – Délais moyens obtenus avec DEAN et AODV
à cette valeur maximale. Ainsi, nous préconisons une marge de 5% afin de prendre en compte
ces situations.
Nous pouvons donc estimer pour chaque flux QoS admis, le nombre de paquets dont
le délai est inférieur à la valeur maximale spécifiée par l’application plus 5% de marge
d’erreur. Soit n le nombre de paquets dont le délai est inférieur à la valeur maximale avec
une marge de 5%, et N le nombre total de paquet émis dans le réseau. Nous obtenons la
relation suivante :
α=
n
N
Plus l’estimation est précise, plus le nombre de paquets dont le délai est inférieur à la
valeur spécifiée par l’application est grand et la valeur de α augmente. Dans le cas contraire,
cette valeur diminue. Ainsi, le paramètre α permet de caractériser aussi bien la précision
de l’estimation que la phase de contrôle d’admission. Toutefois, le délai moyen caractérise
le comportement moyen de tous les paquets. Il peut arriver qu’un ou plusieurs paquets
QoS possède un délai largement supérieur à la valeur spécifiée par l’application, les raisons
pouvant être multiples.
Nous avons par la suite procédé à des simulations pour estimer la valeur de la métrique α
en fonction du nombre de nœuds dans le réseau. Nous générons des topologies dont le nombre
de nœuds considéré varie de 10 à 40 et sont positionnés aléatoirement. Cinq connexions CBR
sont établies entre des nœuds source et destination choisis aléatoirement. Les débits sont
distribués uniformément dans l’intervalle [0-500] Kb/s et le délai maximal pour chaque flux
QoS est de 50 ms. De plus, chaque simulation dure 100 secondes et les résultats présentés
constituent la moyenne de 30 simulations.
Il est important de remarquer que durant les simulations, nous générons des topologies
connexes (il existe toujours un chemin entre n’importe quelle paire de nœuds du réseau)
afin que les pertes de paquets ne soient pas causés par des routes non établies.
La figure 7.8 représente la valeur de α en fonction du nombre de nœuds présents dans
le réseau. Comme l’on pouvait s’y attendre, plus le réseau devient dense, plus la valeur du
paramètre α diminue car le délai moyen des liens devient plus faible.
106
CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN
100
DEAN
AODV
Valeur du paramètre alpha (%)
90
80
70
60
50
40
30
10
20
30
40
Nombre de mobiles
Fig. 7.8 – Evaluation de la métrique α avec les protocoles DEAN et AODV
Avec le protocole AODV, le taux d’acceptation avoisine 60% pour 10 nœuds et tombe à
40% pour 40 nœuds. Lorsque notre protocole DEAN est activé, le taux d’acceptation passe
de 85% pour 10 nœuds à 71% pour 40 nœuds. On constate donc que contrairement à la
bande passante résiduelle (voir figure 5.9(a)), augmenter le nombre de nœuds ne diminue
pas de manière très importante le délai moyen des paquets. Cela s’explique par le fait que
l’augmentation du nombre de nœuds n’entraı̂ne pas systématiquement une augmentation
du nombre de sauts entre une source s et une destination d. En moyenne, la longueur des
chemins choisis reste identique lorsque le nombre de nœuds augmente dans le réseau, d’où
une variation très faible du délai moyen des paquets et par conséquent du taux d’acceptation
α.
Nous nous sommes par la suite intéressés à l’influence du protocole applicatif au niveau
du protocole DEAN. Nous évaluons une fois de plus la valeur du paramètre α en fonction du
protocole de niveau applicatif mis en place. Les deux protocoles que nous comparons sont :
– CBR : Le flux CBR ou Constant Bit Rate envoie des paquets de données de même
taille à une fréquence connue et fixe : le débit reste donc constant tout au long de
la simulation. De plus, ce protocole fonctionne en mode non connecté et utilise UDP
comme protocole de niveau transport.
– FTP : Le protocole FTP ou File Transfer Protocol fonctionne en mode connecté et
nécessite des acquittements supplémentaires par rapport aux paquets de données envoyés sur le réseau. Le débit des applications est géré par le protocole FTP et ne peut
être spécifié par l’utilisateur.
107
CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN
DEAN
Délai (ms)
25
50
75
100
90
92
94
95
CBR
([86 ;94])
([88 ;96])
([90 ;98])
([92 ;98])
AODV
FTP
66 ([59 ;73])
74 ([69, 79])
81 ([77 ;85])
87 ([82 ;92])
CBR
68 ([62 ;74])
77 ([73 ;81])
83 ([79 ;87])
86([83 ;89])
59
69
74
77
FTP
([52 ;66])
([64 ;74])
([70 ;78])
([74 ;80])
Tab. 7.3 – Valeur de α avec les protocoles CBR et FTP
Le schéma des piles protocolaires mises en place pour cette série de simulation est résumée
au niveau de la figure 7.9.
Fig. 7.9 – Pile protocolaire mises en place
Les simulations mises en place sont constituées de topologies connexes de 20 nœuds
positionnées aléatoirement et de 5 flux CBR ou FTP selon le protocole de niveau applicatif
utilisé. Les débits des flux CBR sont distribués uniformément dans l’intervalle [0-500] Kb/s
et le délai maximal pour chaque flux QoS varie entre 25 et 100 ms. Enfin, chaque simulation
dure 100 secondes et les résultats présentés au niveau du tableau 7.3 constituent la moyenne
de 30 simulations. Les valeurs se trouvant entre parenthèses représentent l’intervalle de
confiance à 95%.
L’analyse des résultats du tableau 7.3 permet de dégager trois principales remarques.
Premièrement, comme l’on pouvait s’y attendre, l’utilisation du protocole DEAN par
rapport à AODV permet d’augmenter le taux d’acceptation de flux QoS. La phase de contrôle
108
CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN
Délai (ms)
25
50
75
100
DEAN
CBR FTP
8
26
6
20
5
14
4
11
AODV
CBR FTP
26
33
16
24
13
22
11
19
Tab. 7.4 – Taux de perte en % avec les protocoles CBR et FTP
d’admission élimine les paquets dont le délai moyen est susceptible de dépasser le délai
maximal spécifié par l’utilisateur et limite la dégradation des flux existants.
Deuxièmement, l’utilisation de CBR permet d’obtenir un taux d’acceptation des flux QoS
meilleur qu’avec TCP et ceci quel que soit le protocole de routage utilisé. Par exemple, pour
un délai de 25 ms, les valeurs de α sont de 90% avec des flux CBR et de 66% avec des flux
FTP, le protocole de routage étant DEAN. Lorsqu’on utilise AODV comme protocole de
routage, ces valeurs passent respectivement à 68% et 59%. Ces résultats peuvent s’expliquer
par la nature du protocole TCP. Ce protocole fonctionne en mode connecté et nécessite donc
l’envoi d’un paquet d’acquittement pour chaque paquet de données envoyé. Ce mécanisme
augmente donc le délai des paquets réduisant ainsi le taux d’acceptation par rapport aux flux
CBR. De plus, nous n’avons aucun contrôle sur le débit de ces flux ce qui pose un problème
pour le contrôle d’admission sur la bande passante résiduelle.
Troisièmement, le choix du délai par l’application influe sur le taux d’acceptation. Lorsque
ce délai maximum est faible (25 ms), le protocole DEAN arrive à acheminer un taux d’acceptation assez élevé 90% pour des flux CBR tandis qu’AODV achemine environ 68%. Lorsque
le délai maximum spécifié par l’utilisateur augmente, le délai des paquets devient plus faible
que ce délai maximal et par conséquent le taux d’acceptation de flux QoS peut augmenter
quelle que soit la pile protocolaire mise en place. Par exemple, pour un délai de 100 ms, les
taux d’acceptation sont respectivement de 95, 87, 86 et 77% pour CBR sur DEAN, FTP sur
DEAN, CBR sur AODV et FTP sur AODV.
Le tableau 7.4 représente le taux de perte global dans le réseau. Nous définissons ce taux
de perte comme le taux de paquets dont le délai est supérieur au double du délai désiré par
l’application.
On remarque que l’utilisation du protocole DEAN permet de réduire ce taux de perte par
rapport à AODV grâce à la phase du contrôle d’admission. Pour les flux CBR, un contrôle
sur le débit d’émission que ne nous permet pas le protocole FTP, entraı̂ne une réduction
de ce taux de perte. Enfin, plus le délai est grand, plus le nombre de paquets pouvant être
acheminés au délai moyen désiré est grand. Par conséquent, le taux de perte est réduit à
travers le réseau. Notre protocole DEAN est adapté pour des applications audio qui exigent
généralement un taux de perte de paquets inférieur à 20% pour un fonctionnement correct.
109
CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN
7.6
Conclusion
Dans ce chapitre, nous avons proposé une méthode permettant d’estimer le délai moyen
de bout en bout dans un réseau ad hoc multi-saut. L’estimation du délai moyen de bout en
bout proposée peut se décomposer en deux grandes parties :
– Le délai moyen dans la file d’attente des nœuds intermédiaires constituant le chemin. Ce
paramètre est obtenu en modélisant le nœud 802.11 par une file d’attente M/M/1/K.
Les résultats classiques sur la théorie des files d’attente permettent par la suite de
dériver une expression du temps moyen de séjour.
– Le délai moyen sur le canal radio est obtenu en modélisant le nombre moyen de retransmissions par une variable aléatoire.
Nous avons par la suite implémenté une version protocolaire appelée DEAN dont le
but est de déterminer des routes dont le délai moyen est inférieur à la valeur demandée
par l’application. La précision de l’estimation du délai moyen et du contrôle d’admission
permettent de s’assurer que les routes choisies respectent les contraintes applicatives. Les
simulations montrent qu’avec des flux CBR, les routes choisies garantissent l’acheminement
des données en tenant compte des contraintes applicatives spécifiées.
110
Conclusion et perspectives
La facilité de déploiement et l’absence d’une gestion centralisée des communications des
réseaux ad hoc en font une solution présentant de nombreux avantages aussi bien dans les
domaines civil que militaire. Ces dernières années, de nombreuses recherches ont été menées
sur ces types de réseaux et plus récemment, la problématique de la Qualité de Service à
été étudiée. Cependant, comme nous l’avons vu dans tout au long de ce document, les
caractéristiques propres aux réseaux ad hoc rendent difficile la garantie des ressources.
Dans la première partie de cette thèse, nous nous nous sommes intéressés à la
problématique de réservation de bande passante dans les réseaux ad hoc multi sauts. Le
protocole ABE ainsi développé propose une estimation de la bande passante résiduelle de
l’ensemble des liens radio du réseau. Cette estimation se base sur une synchronisation des
périodes de temps libre entre les mobiles émetteur et récepteur, combinée à une estimation
de la probabilité de collision des liens. ABE adopte un fonctionnement réactif pour la
recherche des routes admissibles qui garantissent la transmission des flux QoS avec la
bande passante désirée et spécifiée explicitement par l’application. Un contrôle d’admission
effectué par chacun des nœuds du réseau permet d’éliminer les routes considérés comme
”non conformes aux exigences”. Les résultats de simulation montrent que le point crucial
et difficile lors de la mise en place de protocoles de réservation de bande passante reste
l’estimation de la bande passante résiduelle des liens radio. Avec ABE, les routes réservées
garantissent le débit des applications.
Dans la deuxième partie, nous avons mis en relief le fait que la réservation de bande
passante ne peut se faire sans tenir compte de la nature des flux. Nous nous sommes placés
dans le cas où deux classes de trafic sont présents : les flux QoS et les flux Best Effort dont
la dégradation des ressources est moins importante. Il est possible qu’une grande partie de
la bande passante résiduelle soit occupée par ces flux Best Effort, empêchant ainsi aux flux
QoS d’effectuer leurs transmissions avec les garanties requises. Pour pallier cette situation,
nous avons donc mis en place DRBT, un protocole qui régule le débit des flux Best Effort
afin d’augmenter le taux d’acceptation des flux QoS à venir ou existants. La décision de
régulation se base sur une estimation différenciée de la bande passante résiduelle prenant
en compte la nature des paquets transmis sur le médium radio. L’étude des performances
permet d’augmenter de manière non négligeable le taux d’acceptation des flux QoS, tout en
111
CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN
utilisant de manière optimisée les ressources du réseau.
Enfin, dans la troisième partie le problème de la réservation est une fois de plus
abordé. Cependant la métrique considérée est le délai moyen. Moins souvent étudié que la
bande passante, le délai est une métrique aussi importante surtout pour les applications
multimédia. L’estimation du délai moyen est réalisée grâce à une modélisation des nœuds
IEEE 802.11 par une file d’attente M/M/1/K. Les résultats de simulation obtenus montrent
que les routes choisies permettent d’acheminer les données avec un délai borné, inférieur à
la valeur spécifiée par l’application.
Pour conclure, nous pensons que l’estimation de la bande passante résiduelle proposée
dans ABE constitue un socle important pour les protocoles de qualité de service dans les
réseaux ad hoc. En effet, cette thèse a montré qu’il était possible de dériver, à partir de ce
socle, des solutions de qualité de service efficaces avec des objectifs différents. Cependant,
ABE ne fournit pas une estimation fiable à 100% pour différentes raisons :
– La norme 802.11 dans l’état actuel ne permet pas de récupérer la taille des paquets
de données à partir des acquittements associés à ces paquets. Ceci ne nous permet
pas de déterminer avec précision le débit des flux qui sont en configuration de stations
cachées.
– La connaissance des configurations de stations cachées se fait dans ABE grâce au
décodage des paquets d’acquittements. Or, il est possible d’avoir deux stations cachées
avec un des émetteurs à portée de communication de son récepteur associé tandis
que l’autre émetteur n’est pas à portée de communication de ce dernier. Cependant,
le deuxième émetteur peut générer de collisions sur ce récepteur. ABE n’est pas en
mesure de détecter ces configurations particulières.
Améliorer ABE nécessite de s’attaquer aux problèmes précédents. On voit bien que ces
deux problèmes nécessitent de comprendre un maximum d’informations dans le réseau, ce
qui implique de décoder le maximum de paquets circulant dans le voisinage. On retrouve
ce problème dans le protocole DRBT, pour lequel la différenciation des paquets ne peut se
faire que grâce à un décodage correct de ceux-ci. Comme nous l’avons vu dans cette thèse,
rendre le seuil de détection de porteuse de 802.11 équivalent au seuil de communication est
une première solution qui permet un meilleur décodage des paquets. Cet ajustement du seuil
de détection de porteuse ne doit pas être utilisé avec n’importe quel protocole, sous peine
d’augmenter le nombre de collisions. En revanche, s’il est utilisé avec un protocole capable
de quantifier et de contrôler ces collisions, alors il est bénéfique pour le réseau, comme c’est
le cas pour ABE ou DRBT. Modifier le seuil de détection de porteuse constitue un premier
par vers plus d’informations utiles mais ne permet pas de détecter tous les scénarios de
stations cachées. Des améliorations sont encore à apporter et constituent clairement les
perspectives à court terme.
112
CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN
Au niveau des perspectives à moyen terme, plusieurs pistes me semblent intéressantes.
La première serait de comparer le protocole DEAN avec d’autres protocoles de routage
basés sur le délai et non seulement avec AODV. Ceci permettrait de comparer la technique
d’évaluation du délai moyen. La deuxième piste concerne la simulation de scénarios plus
réalistes. L’évaluation des scénarios aléatoires est un premier pas pour l’évaluation des
performances des protocoles mais ne reflète peut-être pas des topologies réalistes. Les
premiers scénarios plus réalistes envisagés concerneraient les réseaux maillés avec des
schémas de communication comme la voix sur IP ou la diffusion de vidéo.
A plus long terme, j’aimerais pouvoir comparer les approches de qualité de service proactives des approches réactives. Un premier travail pourrait être de comparer ABE et DEAN
avec QOLSR. Un deuxième axe de recherche serait d’étudier l’impact des protocoles proposés
sur des profils de trafics différents des trafics CBR utilisés principalement dans toutes les
simulations. Les résultats obtenus avec DEAN et TCP dans le chapitre 7 semblent montrer
qu’il est difficile de s’affranchir des caractéristiques de TCP dans l’évaluation des ressources
disponibles. Si TCP devient un protocole de transport utilisé dans les réseaux ad hoc, ce qui
n’est pas si sûr, il faudra alors intégrer son fonctionnement dans l’évaluation des ressources
comme nous l’avons fait avec 802.11. Enfin, un dernier point concerne l’implantation réelle
de ces protocoles. Ce travail n’est pas aisé car il nécessite de récupérer des informations de la
couche MAC, qui ne sont pas fournies par les cartes sans fil actuel. Néanmoins cette étape est
fondamentale, car seule une évaluation réelle pourra effectivement valider le fonctionnement
des solutions présentées.
113
Liste de publications
Journaux internationaux avec comité de lecture
[1] Cheikh SARR, Claude Chaudet, Guillaume Chelius and Isabelle Guérin-Lassous - A
node-based available bandwith evaluation in IEEE 802.11 ad hoc network - International Journal of Parallel Emergent and Distributed Systems (Taylor Francis) - Volume
21, Issue 6, 2006.
Conférences internationales avec comité de lecture
[2] Cheikh SARR, Claude Chaudet, Guillaume Chelius and Isabelle Guérin-Lassous - A
node-based available bandwith evaluation in IEEE 802.11 ad hoc network - In
First International Workshop on System and Networking for Smart Objects (SANSO 2005)
- Fukuoka, Japan, July 2005
[3] Cheikh SARR, Claude Chaudet, Guillaume Chelius and Isabelle Guérin-Lassous Improving Accuracy in Available Bandwidth Estimation for IEEE 802.11-based
Ad hoc Network - In Proceedings of the The Third IEEE International Conference on
Mobile Ad-hoc and Sensor Systems (MASS) - Vancouver, Canada, October 2006
[3] Sofiane Khalfallah, Cheikh SARR and Isabelle Guérin-Lassous - Dynamic bandwidth
management for multihop wireless ad hoc networks - In Proceedings of the IEEE
65th Vehicular Technology Conference VTC2007-Spring - Dublin, Ireland, April 2007
Conférences nationales avec comité de lecture
[5] Cheikh SARR, Claude Chaudet, Guillaume Chelius and Isabelle Guérin-Lassous - ABE :
Un protocole de réservation de bande passante pour les réseaux ad hoc basés
sur IEEE 802.11 - In Proceedings of CFIP (Colloque Francophone sur l’Ingénierie des
Protocoles) - Tozeur, Tunisie, October 2006
114
CHAPITRE 7. ESTIMATION DU DÉLAI MOYEN
[6] Cheikh SARR, Claude Chaudet, Guillaume Chelius and Isabelle Guérin-Lassous Amélioration de la précision pour l’estimation de la bande passante résiduelle
dans les réseaux ad hoc basés sur IEEE 802.11 - In Proceedings of JDIR (Journées
Doctorales en Informatique et Réseaux ) - Marne la Vallée, France, Janvier 2007
[7] Cheikh SARR and Isabelle Guérin-Lassous - Gestion dynamique de la bande
passante dans les réseaux ad hoc - In 9ème rencontre francophones sur les aspects
algorithmiques des télécommunications (ALGOTEL 2007) - Ile d’oléron, France, Juin 2007
En attente
[8] Cheikh SARR, Claude Chaudet, Guillaume Chelius and Isabelle Guérin-Lassous Bandwidth Estimation for IEEE 802.11-based Ad Hoc networks - In IEEE
Transactions on Mobile Computing (IEEE TMC) - 2007
Rapport de Recherche
[9] Cheikh SARR, Claude Chaudet, Guillaume Chelius and Isabelle Guérin-Lassous Improving Accuracy in Available Bandwidth Estimation for 802.11-based Ad
hoc Networks - Technical Report INRIA number RR-5935 - April 2006
115
Bibliographie
[1] Guy Pujolle. Pujolle les réseaux. 6ème Edition. Paris : Eyrolles, 2005. pp. 547 - 549.
[2] Guy Pujolle. Pujolle les réseaux. 6ème Edition. Paris : Eyrolles, 2005. pp. 549 - 550.
[3] Bluetooth Special Interest Group. En ligne, disponible sur http ://www.bluetooth.org,
consulté le 10-12-2006.
[4] IEEE Standard for Information Technology - Telecommunications and information exchange between systems - Local and metropolitan area networks. Specific requirements
- Part 11 : Wireless LAN Medium Access Control (MAC) and Physical Layer (PHY)
Specifications, 1997.
[5] Mobile Ad hoc Network (MANET), IETF.
En ligne, disponible
http ://www.ietf.org/html.charters/manetcharter.html, consulté le 05-10-2006.
sur
[6] Mühlethaler Paul. 802.11 et les réseaux sans fil. Paris : Eyrolles, 2002. page 281.
[7] IEEE 802.3 CSMA/CD (Ethernet) .
http ://www.ieee802.org/3/, consulté le 01-01-2007.
En
ligne,
disponible
sur
[8] Vaduvur Bharghavan, Alan J. Demers, Scott Shenke and Lixia Zhang. MACAW : A
media access protocol for wireless LAN’s. In Special Interest Group on Data Communications (SIGCOMM), pages p. 212–225, 1994.
[9] Tahiry Razafindralambo and Fabrice Valois. Stochastic behavior study of backoff algorithms in case of hidden terminals. In IEEE Symposium on Personal, Indoor and
Mobile Radio Communications (PIMRC), 2006.
[10] Hardware
specification
of
http ://www.orinocowireless.com.
lucent
orinoco
wireless
pc
card,
[11] Henrik Lundgren, Erik Nordström and Christian Tschudin. Coping with communication gray zones in IEEE 802.11b based ad hoc networks. Technical report, Uppsala
University, Sweden, June 2002.
[12] Claude Chaudet, Dominique Dhoutaut and Isabelle Guérin Lassous. Performance issues
with IEEE 802.11 in ad hoc networking. IEEE Communications magazine, 43(7), July
2005.
[13] Claude Chaudet et Isabelle Guérin-Lassous. Routage QoS et réseaux ad hoc : de l’état
des liens à l’état de noeud. Technical report, INSA Lyon (CITI), Janvier 2003.
116
BIBLIOGRAPHIE
[14] Philippe Jacquet and Thomas Clausen. Optimized Link State Routing Protocol (OLSR).
Internet Request For Comments RFC 3626. Internet Engineering Task Force (IETF),
October 2003.
[15] C. E. Perkins, P. Bhagwat . Highly Dynamic Destination-Sequenced Distance Vector
routing protocol (DSDV). In Proc. of the SIGCOMM 1994 Conference on Communications Architectures, Protocols and Applications, pages 234 – 244, August 1994.
[16] J. Moy. Open Shortest Path First Specification (OSPF). IETF RFC 1131, October
1989.
[17] J. Moy. Open Shortest Path First v2 (OSPF). IETF RFC 2328, April 1998.
[18] J. Malkin. Routing Information Protocol (RIP) Version 2. IETF RFC 1338, January
1993.
[19] Richard G. Ogier, Fred L. Templin and Lewis Mark G. Topology Dissemination Based
on Reverse-Path Forwarding (TBRPF), Internet Request For Comments RFC 3684.
Internet Engineering Task Force (IETF), February 2004.
[20] Charles E. Perkins, Elizabeth M. Belding-Royer and Samir Das. Ad hoc On-Demand
Distance Vector (AODV) Routing. Internet Request For Comments RFC 3561. Internet
Engineering Task Force IETF, July 2003.
[21] Yih-Chun Hu, David B. Johnson and David A. Maltz. The Dynamic Source Routing
Protocol for Mobile Ad Hoc Networks (DSR), Internet Draft. draft-ietf-manet-dsr-09.txt,
April 2003.
[22] Zygmunt J. Haas, Marc R. Pearlman and Prince Samar. The Zone Routing Protocol
(ZRP) for Ad Hoc Networks - Internet Draft. Internet Engineering Task Force (IETF),
July 2002.
[23] Raghupathy Sivakumar, Prasun Sinha and Vaduvur Bharghavan. CEDAR (Core Extraction Distributed Ad hoc Routing). The 18th Annual Joint Conference of the IEEE
Computer and Communications Societies - IEEE Infocom, pages 202–209, March 1999.
[24] M. Jiang, J. Li and Y.C. Tay. Cluster Based Routing Protocol (CBRP). draft-ietfmanetcbrp-spec-01.txt, July 1999.
[25] Young-Bae Ko and Nitin H. Vaidya . Location-aided routing (LAR) in mobile ad hoc
networks. In Proceedings of the 4th annual ACM/IEEE international conference on
Mobile computing and networking, pages p. 66–75, Dallas, Texas, United States, 1999.
[26] E. Crawley, R. Nair, B. Rajagopalan and H. Sandick and. A Framework for QoS-based
Routing in the Internet. IETF RFC 2386, August 1998.
[27] Kui Wu And Janelle Harms. QoS Support in Mobile Ad Hoc Networks. Crossing
Boundaries - the GSA Journal of University of Alberta, 1(1) :92–106, November 2001.
[28] Claude Chaudet and Isabelle Guérin-Lassous. Etat des lieux sur la qualité de service
dans les réseaux ad hoc. In Proceedings of Colloque Francophone sur l’Ingénierie des
Protocoles (CFIP’06), pages p. 229–251, Tozeur, Tunisie, 2006.
117
BIBLIOGRAPHIE
[29] Stefan Mangold, Sunghyun Choi, Peter May, Ole Klein, Guido Hiertz and Lothar Stibor.
IEEE 802.11e Wireless LAN for Quality of Service. In Proceedings of European Wireless
2002 (EW2002), pages 32–39, Florence, Italy, February 2002.
[30] M.Jain and C. Dovrolis. Pathload : A measurement tool for end-to-end available bandwidth. In Proceedings of Passive and Active Measurement (PAM), 2002.
[31] T. Oetiker.
MRTG : Multi Router Traffic Grapher - http ://eestaff.ethz.ch/oetiker/mrtg/mrtg.html.
[32] Robert L. Carter and Mark E. Crovella. Measuring bottleneck Link Speed in Packet
Switched Network. Technical report, Computer Science Department, Boston University,
March 1996.
[33] Bob Melander, Mats Bjorkman, and Gunningberg. A new end-to-end probing analysis
method for estimating bandwith bottlenecks. In Proceedings of the Fifth Global Internet
Symposiumin held in conjunction with Globecom 2000, San Francisco, USA, November
2000.
[34] Ravi Prasad, Margaret Murray, Constantinos Dovrolis, and K. Claffy. Bandwidth estimation : metrics, measurement techniques, and tools. IEEE Network, 17(6) :27–35,
November 2003.
[35] Andreas Johnsson, Bob Melander, and Mats Björkman. Bandwidth Measurement in
Wireless Network. Technical report, Mälardalen University, Sweden, March 2005.
[36] Samarth H Shah, Kai Chen and Klara Nahrstedt. Available Bandwidth Estimation
in IEEE 802.11-based Wireless Networks. In Proceedings of The first ISMA/CAIDA
Bandwidth Estimation Workshop (BEST 2003), San Diego, Californie, USA, December
2003.
[37] Frank Y. Li, Mariann Haugea, Andreas Hafslund, Oivind Kure and Pal Spilling. Estimating Residual Bandwidth in 802.11-based Ad Hoc Networks : An empirical Approach. In
Proceedings of The Seventh International Symposium on Wireless Personal Multimedia
Communications (WPMC 2004), Abano Terme, Italy, September 2004.
[38] Claude Chaudet, Isabelle Guérin Lassous. BRuIT - Bandwidth Reservation under InTerferences influence. In Proceedings of European Wireless 2002 (EW2002), Florence,
Italy, Feb 2002.
[39] Claude Chaudet and Isabelle Guérin-Lassous. Evaluation of the BRuIT protocol. In Proceedings of the IEEE 61st Semiannual Vehicular Technology Conference (VTC Spring
2005), Stockholm, Sweden, May 2005.
[40] Claude Chaudet. Autour de la réservation de bande passante dans les réseaux ad hoc.
PhD thesis, Institut National des Sciences Appliquées de Lyon (INSA), 2004.
[41] Yaling Yang and Robin Kravets. Contention Aware Admission Control for Ad Hoc
Networks. IEEE Transactions on Mobile Computing, 4 :363–377, 2005.
[42] K. Sanzgiri, I. D. Chakeres, and E. M. Belding-Royer. Determining Intra-Flow Contention Along Multihop Paths in Wireless Networks. In Proceedings of BroadNet, San Jose,
California (USA), October 2004.
118
BIBLIOGRAPHIE
[43] Ronan de Renesse, Mona Ghassemian, Vasilis Friderikos, A. Hamid Aghvami. QoS
Enabled Routing in Mobile Ad Hoc Networks. In IEEE 3G 2004, 2004.
[44] R. de Renesse, M. Ghassemian, V. Friderikos and A.H Aghvami. Adaptive Admission
Control for Ad Hoc and Sensor Networks Providing Quality of Service (AAC). Technical
report, King College, London, May 2005.
[45] Hakim Badis. Etude et conception d’algorithmes pour les réseaux mobiles et ad hoc.
PhD thesis, Université Paris-Sud, Orsay, 2006.
[46] Dang Quang Nguyen. Support de la qualité de service dans les réseaux ad hoc. PhD
thesis, Université Paris 6 - Pierre et Marie Curie, Septembre 2006.
[47] Srinivasan Seshan, Mark Steem and Randy H Katz. SPAND : Shared Passive Network
Performance Discovery. In Proceedings of USITS - Usenix Symposium on Internet
Technologies and Systems, Monterey, December 1997.
[48] K. Nahrstedt, S. H. Shah, and K. Chen. Cross-layer architectures for bandwidth management in wireless networks. In Resource Management in Wireless Networking, New-York
(USA), 2005.
[49] C. Perkins, E. Royer and SR. Das. Quality of Service for Ad Hoc On-Demand Distance
Vector (AODV) Routing. Internet-Draft, July 2000.
[50] Dominique Dhoutaut and Isabelle Guérin-Lassous. Experiments with 802.11b in ad
hoc configurations. In Proceedings of the fourteenth IEEE International Symposium on
Personal, Indoor and Mobile Radio Communications (PIMRC 2003), pages 1618–1622,
Beijing, China, September 2003.
[51] L. Chen and W. Heinzelman. QoS-aware Routing Based on Bandwidth Estimation for
Mobile Ad Hoc Networks. IEEE Journal on Selected Areas of Communication, 3, 2005.
[52] J. Yoon, M. Liu and B. Noble. Random waypoint considered harmful. In Proceedings
of Infocom 2003, pages 1312–1321, San Fransisco, California, USA, April 2003.
[53] Dominique Dhoutaut. Etude du standard IEEE 802.11 dans le cadre des réseaux ad
hoc : de la simulation à l’expérimentation. PhD thesis, INSA de Lyon, Laboratoire
CITI, Décembre 2003.
[54] Fethi Filali. Towards a fully distributed QoS-aware MAC protocol for multihop wireless
networks. In IWWAN 2005, International Workshop on Wireless Ad-hoc Networks,
May 23rd - 26th 2005, London, UK, May 2005.
[55] Gahng-Seop Ahn, Andrew T. Campbell, Andreas Veres and Li-HsiangSun. SWAN :
Service Differentiation in Wireless Ad Hoc Networks. In IEEE INFOCOM, 2002.
[56] A. Veres, A. Campbell, M. Barry and L-h. Sun. Supporting Service Differentation in
Wireless Packet Networks Using Distributed Control. IEEE Journal on Selected Areas
in Communications (JSAC), 19 :(10), October 2001.
[57] Yaling Yang and Robin Kravets. Distributed QoS Guarantees for Realtime Traffic in
Ad Hoc Networks. In IEEE International Conference on Sensor and Ad Hoc Communications and Networks (SECON), pages 118– 127, Oct 2004.
119
BIBLIOGRAPHIE
[58] Sally Floyd and Van Jacobson. Random Early Detection Gateways for Congestion
Avoidance . IEEE/ACM Transaction on Networking, 1 :397–413, 1993.
[59] H. Arora and L. Greenwald. Toward the use of local monitoring and network-wide
correction to achieve QoS guarantees in mobile ad hoc networks. In Society Conference
on Sensor, Mesh and Ad Hoc Communications and Networks IEEE SECON, 2004.
[60] Mustafa Ozdemir and A. Bruce McDonald. An M/MMGI/1/K Queing Model for IEEE
802.11 Ad hoc Networks. In Proceedings of Performance Evaluation of Wireless Ad Hoc,
Sensor, and Ubiquitous Networks (PE-WASUN), Italy, October 2004.
[61] Giuseppe Bianchi. Performance Analysis of the IEEE 802.11 Distributed Coordination
Function. IEEE Journal on Selected Areas in Communications, Volume 18(3) :pages
535–547, March 2000.
[62] A. Veres, A. Campbell, M. Barry and L-H SUN. Supporting Service Differentation in
Wireless Packet Networks Using Distributed Control. IEEE Journal on Selected Areas
in Communications, 19 :10, October 2000.
[63] Amina Meraihi Niami and Philippe Jacquet. One-Hop Delay Estimation in 802.11 Ad
Hoc Networks Using the OLSR Protocol. Technical Report RR-5327, INRIA, October
2004.
[64] Amina Meraihi Naimi. Délai et Routage dans les réseaux ad hoc 802.11. PhD thesis,
Université de Versaille Saint-Quentin-En-Yvelines, 2005.
[65] H. Badis, A. Munaretto, K. Al Agha and G. Pujolle. Qos for Ad Hoc Networking Based
on Multiple Metrics : Bandwith and Delay. In IEEE international conferenceon Mobile
and Wireless CommunicationsNetworks (MWCN 2003), 2003.
[66] A. Munaretto, H. Badis, K . AL agha and G. Pujolle. A Link-state QoS Routing Protocol
for Ad Hoc Networks. In IEEE MWCN’02 : International Workshop On Mobile and
Wireless Communications Networks, Sweden, September 2002.
[67] Omesh Tickoo and Biplab Sikdar. Queueing Analysis and Delay Mitigation in IEEE
802.11 Random Access MAC based Wireless Networks. In IEEE Infocom, 2004.
[68] P. Chatzimisios, A.C. Boucouvalas and V. Vitsas. IEEE 802.11 packet delay - A finite
retry limit analysis. In Proceedings of Global Telecommunications Conference, 2003.
GLOBECOM’03. IEEE, volume 2, pages 950–954, December 2003.
[69] R.S. Wong, S. Shankar, N. Van der Schaar. Integrated application MAC modeling for
cross-layer optimized wireless video. In IEEE International Conference on Communications (ICC 2005), volume 2, pages 1271–1275, 2005.
[70] Ibrahima Niang and Dominique Seret. Dimensionnement de DiffServ et métriques de
performances. In Colloque africain sur la recherche en Informatique - CARI02, Yaoundé,
October 2002.
120
Table des figures
1.1
1.2
1.3
1.4
1.5
Architecture en couche de 802.11 . . . . . . . . . . . . .
Mode ad hoc et infrastructure de la norme IEEE 802.11 .
Exemple d’accès au canal par deux stations concurrentes
Une situation de stations cachées . . . . . . . . . . . . .
Zones de communication et de détection de porteuse . .
.
.
.
.
.
10
12
14
15
16
2.1
Recherche de route dans AODV . . . . . . . . . . . . . . . . . . . . . . . . .
21
3.1
3.2
3.3
Voisinage dans la zone de détection de porteuse . . . . . . . . . . . . . . . .
Inéquité d’accès au médium . . . . . . . . . . . . . . . . . . . . . . . . . . .
Bande passante résiduelle du lien (A,B) en fonction du débit sur le lien (C,D)
29
31
32
4.1
4.2
4.3
4.4
4.5
4.6
4.7
4.8
4.9
4.10
4.11
4.12
4.13
Occupation médium perçue par le nœud s . . . . . . . . . . . . . . . . .
Pire cas : désynchronisation totale entre émetteur et récepteur . . . . . .
Meilleur cas : synchronisation totale entre émetteur et récepteur . . . . .
Cas général : synchronisation partielle entre émetteur et récepteur . . . .
Estimation de la synchronisation du lien (C, D) . . . . . . . . . . . . . .
Bande passante résiduelle du lien (C, D) obtenue par synchronisation . .
Probabilité de collision au niveau du nœud B . . . . . . . . . . . . . . . .
Précision de la probabilité de collision interpolée sur un scénario aléatoire
Retransmissions d’un paquet ayant subit des collisions . . . . . . . . . .
Influence de la synchronisation pour QOLSR . . . . . . . . . . . . . . . .
Stations cachées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Fonctionnement du protocole ABE . . . . . . . . . . . . . . . . . . . . .
Etablissement d’une route QoS . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
36
37
38
38
40
41
42
44
46
48
49
51
53
5.1
5.2
5.3
Un premier scénario simple . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Débits obtenus par les deux flux concurrents avec AODV et ABE . . . . . .
Scénarios aléatoires - Débits obtenus avec AODV, AAC, BRuIT et ABE pour
des communications à un saut radio . . . . . . . . . . . . . . . . . . . . . . .
Scénarios aléatoires - Débits obtenus avec AODV, AAC, QoS AODV, BRuIT
et ABE pour des communications multi-sauts . . . . . . . . . . . . . . . . .
Quantité de trafic agrégé en Mo à travers le réseau . . . . . . . . . . . . . .
Graphe des chemins réservés pour les flux QoS . . . . . . . . . . . . . . . . .
59
59
5.4
5.5
5.6
121
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
61
64
65
66
TABLE DES FIGURES
5.7
5.8
5.9
6.1
6.2
6.3
6.4
6.5
6.6
6.7
6.8
7.1
7.2
7.3
7.4
7.5
7.6
7.7
7.8
7.9
Débits obtenus avec AODV, AAC, ABE et BRuIT en cas de mobilité . . . .
Nombre total de messages de contrôle nécessaires pour l’établissement et la
maintenance des routes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Evaluation de la métrique β avec les protocoles AAC, QoS-AODV, BRuIT et
ABE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
67
Communication inter-couches . . . . . . . . . . . . . . . . . . . . . . . . . .
Exemple de différenciation de flux . . . . . . . . . . . . . . . . . . . . . . . .
Réception d’un paquet RREQ . . . . . . . . . . . . . . . . . . . . . . . . . .
Architecture interne d’un nœud DRBT . . . . . . . . . . . . . . . . . . . . .
Les 2 paires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Débits obtenus par les deux flux avec AODV, ABE, DRBT et QPART . . .
Débits obtenus avec AODV, ABE, DRBT et QPART . . . . . . . . . . . . .
Taux d’acceptation des flux QoS avec les protocoles AODV, ABE, QPART et
DRBT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
79
81
83
84
86
87
88
Modélisation d’un nœud 802.11 par une file M/M/1/K . . . . . . . . . . . .
Processus de Markov représentant le nombre de paquets dans la file . . . . .
Nombre moyens de retransmissions en fonction de la probabilité de collision
pour C = 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Comparaison entre délai moyen théorique et délai moyen réel . . . . . . . . .
Chaı̂ne de transmission à 4 sauts . . . . . . . . . . . . . . . . . . . . . . . .
Délai moyen théorique et délai moyen réel pour une chaı̂ne à 4 sauts . . . . .
Délai moyen des flux avec les protocoles AODV et DEAN . . . . . . . . . . .
Evaluation de la métrique α avec les protocoles DEAN et AODV . . . . . . .
Pile protocolaire mises en place . . . . . . . . . . . . . . . . . . . . . . . . .
95
96
122
69
70
90
99
102
103
103
105
107
108
Liste des tableaux
4.1
Erreur relative due à l’ interpolation . . . . . . . . . . . . . . . . . . . . . .
43
5.1
5.2
5.3
5.4
5.5
5.6
5.7
Paramètres généraux pour les simulations . . . . . . . . . . . .
Débits des flux CBR . . . . . . . . . . . . . . . . . . . . . . .
Débits des flux CBR . . . . . . . . . . . . . . . . . . . . . . .
Taux de perte global dans le réseau . . . . . . . . . . . . . . .
Débits des flux CBR en cas de mobilité . . . . . . . . . . . . .
Quantité de trafic agrégé et taux de perte en cas de mobilité .
Valeur de β pour des tailles de paquets de 1000 et 1500 octets
.
.
.
.
.
.
.
58
60
62
63
65
68
72
6.1
Débits désirés et type de flux . . . . . . . . . . . . . . . . . . . . . . . . . .
89
7.1
7.2
7.3
7.4
Paramètres généraux pour les simulations . . . . . . .
Délais moyens obtenus avec DEAN et AODV . . . . .
Valeur de α avec les protocoles CBR et FTP . . . . .
Taux de perte en % avec les protocoles CBR et FTP
123
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
101
106
108
109