DVMA : Un Algorithme de Marquage pour les Flux MPEG4 dans un

Transcription

DVMA : Un Algorithme de Marquage pour les Flux MPEG4 dans un
DVMA : Un Algorithme de Marquage pour
les Flux MPEG4 dans un Réseau DiffServ
Toufik AHMED
Laboratoire CNRS-PRiSM., Université de Versailles
45, av. des Etats Unis 78035 – Versailles - France
[email protected]
Guillaume BURIDANT1, Ahmed MEHAOUA1 et Jean-Pierre
CLAUDÉ1,2
Laboratoire CNRS-PRiSM.,
Université de Versailles
45, av. des Etats Unis 78035 –
Versailles - France
{bug,mea}@prism.uvsq.fr
Institut des Sciences et Techniques des
Yvelines- ISTY
45, av. des Etats Unis 78035 –
Versailles - France
[email protected]
Le réseau IP traditionnel offre aux utilisateurs un service best-effort. Dans ce
modèle, tous les paquets de l’utilisateur se partagent les ressources du réseau équitablement.
La plus grande attention est donnée au développement de mécanismes de QoS (Quality of
Service) dans IP, qui permettent aux opérateurs réseau d’offrir différents niveaux de
traitement des paquets de l’utilisateur. Dans cet article, nous nous intéresserons aux
interactions de QoS entre les applications vidéo MPEG-4 et les réseaux IP DiffServ. Les
interactions de QoS se traduisent par l’association d’un flux élémentaire MPEG-4 (vidéo,
audio, indication, ODs) et d’un PHB (Per Hop Behavior) de DiffServ, AF/EF. Notre dans ce
domaine porte sur deux points : Premièrement, un protocole d’encapsulation pour les
paquets MPEG-4 à travers RTP/IP est mis en place, et ensuite, un mécanisme de marquage
pour les routeurs Diffserv est proposé : l’algorithme DVMA. Un réseau DiffServ tournant
sous Linux 2.4 sera utilisé pour l’analyse des performances de notre algorithme de
marquage.
RÉSUMÉ
MOTS-CLÉS :
KEYWORDS:
Qualité de Service, Service différentié, Vidéo, PHB.
QoS, Diffserv, video, PHB
2
GRES, Décembre 2001, Marrakech.
1. Introduction
Le standard MPEG-4 cible un très large rayon d’applications : de la
vidéoconférence classique et de la télédiffusion aux applications nécessitant un très
haut niveau d’interaction avec les scènes audiovisuelles. Afin d’atteindre ce but
final, des outils très avancés ont été définis dans les différentes parties du standard
(Audio, Visuel, Système), qui peuvent être configurés suivant les différents profiles
pour répondre aux demandes des applications.
D’un autre coté, de récentes recherches sur le support de la QoS sur Internet a
conduit à deux approches distinctes : l’architecture Intserv (Integrated Services)
(Wroclawski, 1997) accompagné de son protocole de signalisation RSVP (Resource
Reservation Protocol) (Braden et al., 1997), et l’architecture Diffserv
(Differentiated Services) (Blake et al., 1998).
Le développement de Diffserv a été motivé par les besoins du marché dans le
déploiement immédiat d’une solution de QoS dans le réseau Internet. Contrairement
à la gestion flux par flux de RSVP, les réseaux Diffserv classent les paquets dans
l’une des classes agrégées identifiées par le champs DSCP (DiffServ CodePoint)
dans l’entête du paquet IP (Blake et al., 1998). Dans chaque routeur Diffserv, on
définit un PHB (Per-Hop Behavior), qui est déterminé par le DSCP. Un PHB
permet de fournir un comportement d’acheminement spécifique à chaque routeur
dans le domaine Diffserv considéré.
Deux schémas de PHB, EF (Expedited Forwarding) (Jacobson et al., 1999) et
AF (Assured Forwarding) (Heinanen et al., 1999) ont été proposés pour offrir des
traitements différentiels du trafic. Le PHB EF peut être utilisé pour avoir un faible
taux de perte, une faible latence, une faible gigue, une bande-passante assurée et un
service de bout en bout à travers les domaines DS (Jacobson et al., 1999), alors que
le PHB AF fournit différents niveaux pour assurer l’acheminement des paquets IP
en jetant les paquets de plus faible priorité lors de congestion du réseau plutôt que
les paquets de plus forte priorité. Le PHB AF offre 4 classes pour acheminer les
paquets IP. Dans chaque classe AF, un paquet IP est associé à un des trois niveau de
priorité de rejet (drop precedence) (Heinanen et al., 1999).
Le groupe qui travaille sur Diffserv a discuté des fonctionnalités nécessaires aux
extrémités du domaine DS pour sélectionner (classifier) et conditionner (e.g.,
policer et shapper) le trafic suivant différentes politiques (Blake et al., 1998).
Plusieurs algorithmes sont proposés, parmi lesquels, TSWTCM (Time Sliding
Window Three Color Marker) (Fang et al., 2000) et TRTCM (A Two Rate Three
Color Marker) (Heinanen et al., 1999).
Dans cet article, nous nous intéresserons aux interactions de QoS entre les
applications vidéo MPEG-4 et les réseaux IP DiffServ. Deux fonctions de gestion
de QoS sont discutées dans cet article: l’encapsulation des flux vidéos et le
marquage de flux. Notre contribution est ciblée sur deux points : Premièrement, un
protocole d’encapsulation pour les paquets MPEG-4 à travers RTP/IP est mis en
DVMA: Un algorithme de marquage pour les flux MPEG-4 dans un réseau Diffserv
3
place, et ensuite, un mécanisme de marquage pour les routeurs Diffserv est proposé.
L’intégration de ces deux composants est essentielle pour fournir une QoS de bout
en bout. Les performances sont évaluées à l’aide d’un réseau de routeurs DiffServ.
Ce réseau est constitué de PC fonctionnant sous Linux avec le noyau 2.4. Ce dernier
permet d’implémenter DiffServ de manière logicielle.
Le plan de cet article est le suivant : le chapitre 2 donnent une vue générale sur
l’architecture du système MPEG-4. Le chapitre 3 explique notre algorithme de
marquage des flux vidéo MPEG-4. Le chapitre 4 décrit la configuration du noyau
Linux DiffServ et la topologie de notre réseau. Les analyses de performance sont
décrites dans les chapitres 5. Enfin, nous conclurons dans les chapitres 6 et 7.
2. Vue d’ensemble du MPEG-4
Le MPEG-4 est un standard ISO/IEC qui spéficie les outils d’encodage naturels
et synthétiques des flux audio-vidéo. La vidéo est représentée par des objets
élémentaires audio-visuels qui sont combinés afin de former une scène complète.
MPEG-4 cible un large rayon d’applications multimédia telles que la
vidéoconférence classique et la télédiffusion. L’intérêt principal de ce standard est
de fournir un langage commun de description pour l’encodage 2D et 3D des objets
audio-visuels (ISO/IEC 14496-1/14496-2/14496-3, 1998).
2.1 Architecture de MPEG-4
L’architecture de MPEG-4 est composée de trois couches : La Compression
Layer, la Sync Layer et la Delivery Layer(ISO/IEC 14496-1, 1998). La
Compression layer génère la représentation des données audiovisuelles dans des
flux appelés ES (Elementary Streams). Les relations hiérarchiques, l’emplacement
et les propriétés des ES sont décrits par l’ensemble des ODs (Object Descriptors).
Les ODs sont eux-mêmes transportés dans un ou plusieurs ESs. Une scène MPEG-4
est décrite par un SD (Scene Description) qui contient les informations sur l’adresse
et l’organisation des objets audiovisuels de la scène, en terme d’emplacement aussi
bien spatial que temporel. La description de scène utilise un langage basé sur le
VRML appelé BIFS (Binary Format for Scene). Les ESs sont fractionnés en un ou
plusieurs AUs (Access Units). Un flux élémentaire MPEG-4 valide peut être une
vidéo MPEG-1, étiquetée avec le système d’information MPEG-4 dans son entête.
Un AU serait alors une trame vidéo I, B ou P. Ces AUs seront étiquetés avec des
informations de priorité, de timing et autres. Un AU est la plus petite entité de
donnée à laquelle on peut assigner une information de timing.
Sur le Sync layer, les AUs sont transportés en une séquence de paquets appelés
SL-PDUs. Un SL-PDU est composé d’une entête de paquet SL et de données dans
le paquet SL. L’entête permet de contrôler en continuité les pertes de données, le
cas échéant, et contient les informations de temps de contrôle.
4
GRES, Décembre 2001, Marrakech.
Les SL-PDUs sont transmis au Delivery Layer pour être multiplexés en un flux
FlexMux. L’outil FlexMux est un des composants de DMIF (Delivery Multimedia
Integrated Framework) MPEG-4. FlexMux est un multiplexeur simple et flexible
qui facilite l’imbrication des SL-PDUs. Deux différents modes d’opération de
FlexMux sont définis. Le premier mode est appelé Simple Mode dans lequel un SLPDU est encapsulé dans un paquet FlexMux, et le second mode est appelé
MuxCode Mode dans lequel un ou plusieurs SL-PDU sont encapsulés dans un seul
paquet FlexMux. L’interface entre le Sync layer et le Delivery layer est connue sous
le nom de DAI (DMIF Application Interface) (ISO/IEC 14496-6, 1998). Il offre des
procédures indépendantes qui permettent d’établir des sessions MPEG-4 et
d’accéder à des canaux de transport comme RTP/UDP/IP.
3. PROPOSITION D’UN ALGORITHME DE MARQUAGE DIFFSERV
POUR LES FLUX VIDEOS MPEG-4
Une scène MPEG-4 est caractérisée par un nombre important de flux
élémentaires dont leurs débits varient en fonction des outils de compression utilisés
au niveau du codeur MPEG-4. Par exemple, les codeurs audio HVXC et CELP
réalisent une compression de 2 kb/s à 24 kb/s. La compression vidéo H.261 et
H.263 permet d’atteindre des taux de 15 kb/s jusqu'à 30 kb/s. En conséquence, les
flux vidéo sont plus gourmands en ressources que les flux audio. Dans notre
marquage, il faut tenir compte de cette propriété qui nous permet, en cas de
congestion, de soulager le réseau en éliminant des paquets vidéo par rapport aux
paquets audio. Une autre solution est de dégrader la priorité d’un paquet.
Il est clair que les solutions proposées par DiffServ permettent de privilégier des
sous-flux MPEG-4 jugés indispensables pour une bonne représentation de la scène
du coté du lecteur. Ces sous-flux sont considérés comme essentiels pour avoir un
rendu acceptable de la scène (QoS minimale).
De plus, nous avons identifié quelques problèmes que nous résumions dans ce
qui suit : quel est le PHB approprié qui garantie la meilleure QoS ?, quel marquage
de paquet IP utiliser ?, est-il souhaitable de modifier le marquage des paquets IP
suivant l ‘état du réseau ? Quelle est l’architecture réseau la plus appropriée pour
répondre à toute exigence?
3.1 Un marquage DiffServ pour la vidéo MPEG-4
Nous proposons ici un algorithme de marquage des paquets issus d’un codeur
MPEG-4 et qui seront encapsulés sur RTP/UDP/IP, pour plus d’information sur le
marquage voir (Ahmed et al. Juillet 2001), pour garantir la QoS en utilisant diffserv.
Notons que cet algorithme est statique et dépend largement des choix (les
propriétés) que nous allons détailler plus loin. Toutefois, l’application (end-user)
DVMA: Un algorithme de marquage pour les flux MPEG-4 dans un réseau Diffserv
5
peut spécifier ses besoins en terme de QoS puisque le terminal de réception connaît
bien ses performances et ses capacités de traitement. Il est clair que dans le cas des
applications temps réel comme la vidéoconférence et la VoD (Video on Demand ),
que l’audio est plus important que la vidéo (propriété 1). Cette propriété nous mène
à distinguer le marquage de l’audio de celui de la vidéo dans diffserv.
En ce qui concerne le choix des PHB, il est clair que les flux acceptant de la
perte (comme l’audio ou la vidéo) seront transmis avec un PHB AF. En outre, le
PHB EF sera plus cher que le PHB AF, car il gère des contraintes supplémentaires
par rapport au PHB AF (latence minimale, gigue minimale, perte minimale). Une
fois que ce choix est fait, il nous reste à identifier la classe de service AF utilisée et
le niveau de rejet de nos paquets. Rappelons que AF définit actuellement 4 classes
composées de 3 niveaux de rejet selon l’importance du flux.
Si nous prenons le codage de l’audio (figure 1) nous pensons que la parole a une
plus grande importance par rapport à la musique ou d’autres bruits de fond dans une
scène. Nous préférons privilégier l’audio de type parole par rapport à l’audio de
type musique de fond. D’après cette figure, la parole a un débit entre 2 et 24 Kbps,
ce qui veut dire que les débits faibles sont plus importants (propriété 2) que les
débits élevés.
Pour le codage vidéo, MPEG-4 utilise le codage hiérarchique (la scalabilité).
Plusieurs modes existent : La scalabilité spatiale : permet à un décodeur de traiter un
sous-ensemble de flux produit par le codeur pour reconstruire et afficher des
Figure 1: outils de codage audio
textures, des images et des objets vidéo avec une résolution spatiale réduite. Pour
des textures, un maximum de 11 niveaux de scalabilité spatiale est supporté. Pour
les séquences visuelles, un maximum de 3 niveaux est supporté (Koenen, 2000). La
scalabilité temporelle : permet à un décodeur de traiter un sous-ensemble de flux
produit par le codeur pour reconstruire et afficher la vidéo avec résolution
temporelle réduite. Un maximum de 3 niveaux est supporté (Koenen, 2000). La
scalabilité SNR (Signal to Noise Ratio ) : permet d’améliorer la qualité subjective
de l’image finale. Dans le schéma de codage, on transmet la différence entre l’image
originale et l’image précédente (déjà codée) La scalabilité nous permet de bien
distinguer entre les flux principaux (indispensables au décodeur) et les flux
optionnels qui permettent d’améliorer la qualité des images (propriété 3).
6
GRES, Décembre 2001, Marrakech.
En plus, dans MPEG-4, il y a des flux tels que : la description de scène et la
description des objets médias. Ces flux sont très importants pour reconstruire la
scène initiale (propriété 4).
Pour conclure, durant les congestions de réseau, le codage hiérarchique associé à
un marquage intelligent, permet de mieux contrôler la QoS pour privilégier les flux
vidéos indispensables qui offrent une qualité visuelle minimale par rapport aux flux
vidéos complémentaires permettant l’amélioration de la qualité visuelle.
3.2 Algorithme
Dans ce qui suit, nous proposons à titre indicatif un algorithme de gestion de
qualité de service sur diffserv (figure 2), que nous validerons plus tard dans par des
tests.
Remarque: (1) Si le PHB EF n’est pas implémenté, les flux de description de
scène passent dans un PHB AF avec un degré d’élimination le plus faible. Par
exemple, la classe 3 avec le degré de précédence suivant : 011010. (2) Le débit est
contrôlé par un token bucket.
3.3 Commentaires
Notre proposition tient compte du fait que les flux vidéo et les flux audio passent
dans deux classes AF distinctes. Ce qui nous permet de privilégier le transport d’un
type de flux par rapport à l’autre. Le problème qui résulte du transport des flux
audio et des flux vidéo dans deux classes séparées est la synchronisation entre
l’audio et la vidéo. Deux classes AF distinctes sous-entendent deux files d’attentes
séparées dans le routeur IP. Si une file est plus congestionnée que l’autre, alors le
routeur risque de laisser passer des paquets d’une file beaucoup plus vite que les
paquets dans l’autre file. La solution à ce problème est de synchroniser au niveau du
récepteur (le player). Ce type de mécanisme a été déjà proposé dans le chapitre
précédent avec une encapsulation sur RTP (le numéro de séquence sert à
synchroniser les paquets entre eux).
En plus du problème lié à la synchronisation des flux, nous identifions les
contraintes suivantes :
l’algorithme précédent étant statique, c’est à dire que le choix du marquage des
flux est connu à l’avance, il n’est pas adaptable en fonction de l'état du réseau
(congestion ou pas, taux de charge du routeur, une classe AF est sous chargée alors
qu’une autre classe est surchargée, etc).
l’application MPEG-4 ne peut pas exprimer ses besoins en terme de traitement
particulier à certains types de flux i.e. manque de dialogue entre l’application
MPEG-4 et le réseau de transport
DVMA: Un algorithme de marquage pour les flux MPEG-4 dans un réseau Diffserv
7
4. Mise en oeuvre Diffserv Linux
Les noyaux actuels Linux (2.4) offrent une large variété de fonctions de contrôle
de trafic et un appui du modèle Diffserv décrit par le groupe de travail Diffserv
(Almesberger, 1999). La classification de base et la manipulation des champs DS
exigée par les nœuds de Diffserv sont toujours au stade expérimental dans le noyau
Linux.
if stre am is “a u d io s tre a m ” th en (a p plicatio n of p rop erty 2 )
if cod er rate is “low ra te ”
th en D S C P = A F L ow D ro p P re c
//exa m p le A F 1 1
if co de r rate is “m e dium ra te ”
th en D S C P = A F M e dium D rop P re c
//exa m p le A F 1 2
if co de r rate is “h ig h rate”
th en D S C P = A F H ig h D ro p P re c
//exa m p le A F 1 3
if stre am is “v id e o strea m ” (a pp licatio n of pro p erty 3)
if “b ase la yer vid eo stre am ”
(le vel 1 = m im im u m Q oS )
th en D S C P = A F lo w D rop P rec
//exa m p le A F 2 1
if “ e nh a nce d la ye r vide o strea m 1 ”
(le vel 2 = m e dium Q oS )
th en D S C P = A F M ed iu m D ro p P rec
//exa m p le A F 2 2
if “e nh an ced laye r vid eo strea m 2 ”
(le vel 3 = m axim u m Q o S )
th en D S C P = A F M ed iu m D ro p P rec
//exa m p le A F 2 3
if stre am is “o b je cts d es c rip to r, sc en e d e sc rip to r” (a pp lication o f pro pe rty 4 )
th en D S C P = E F
//de scrip tio ns strea m s a re sig nifica n t, n o lo ss
//it’s n ecessa ry th at th ese stre am s w ill be a va ila ble
//as so on a s po ssib le in M P E G -4 p la yer to in te rp ret
//co rre ctly the scen e
Figure 2: DVMA: L’algorithme de marquage Diffserv
Quand le noyau Linux reçoit des paquets du dispositif d'entrée qui doit précéder
le dispositif de sortie, le contrôle du trafic décide si les paquets sont traités ou s’ils
sont rejetés - par exemple, si la file d'attente a atteint une certaine limite de longueur
ou si le trafic excède un certain taux limite. Il décide dans quel ordre les paquets
sont envoyés, pour pouvoir, par exemple, donner la priorité à certains flux.
Finalement, il peut retarder l'envoi de paquets, afin de limiter le trafic en partance
par exemple. Le PC Linux peut fonctionner en tant que routeur de bordure ou
routeur de cœur. Le routeur de bordure peut classifier, faire le policing, marquer des
groupes de paquets et réorganiser le trafic. Les routeurs de cœur fournissent le
service d'expédition de paquet de transit entre d'autres routeurs de bordure et
routeurs de cœur. Il gère le trafic afin de limiter la congestion et d’y faire face le cas
échéant.
Les mécanismes de contrôle du trafic dans le noyau Linux sont constitués des
composants suivants : gestionnaires de file d’attente, classes (au sein d’un
8
GRES, Décembre 2001, Marrakech.
gestionnaire de file d’attente), filtres et policing. La figure 3 montre les composants
du contrôle de trafic Linux.
La file d'attente détermine l'ordre dans lequel les données sont envoyées. Le
trafic peut être divisé en classes selon certaines règles. Chaque classe respecte une
discipline de file d’attente pour gérer les paquets et elle peut être prioritaire. En
réalité, il y a 11 outils de gestionnaires de file d’attente dans le noyau Linux
(Almesberger, 1999).
Les filtres sont employés pour insérer le trafic dans des classes et faire la
distinction parmi les différentes classes de paquets. La classification repose sur
certaines propriétés du paquet. Dans le service différencié, la classification est basée
sur le champ IP DSCP.
Filter
Queuing
discipline
Class
Input
Filter
Queuing
discipline
Output
Filter
Class
Queuing Discipline
Figure 3: Composants du TC Linux
Le policing est utilisé pour contrôler le trafic correspondant à une classe. Il
s’assure qu’un trafic spécifique n'excède pas une certaine limite.
La Configuration des routeur de bordures et de cœurs est présentée dans l’article
(Ahmed et al. Novembre 2001)
5. Analyse de Fonctionnement
5.1 banc d'essai d'expérimentation
Notre banc d'essai expérimental est composé d’un serveur vidéo qui génère le
flux MPEG-4 vidéo pour une multitude de clients hétérogènes. Le serveur et les
clients sont connectés par le réseau TCP/IP et communicant en utilisant l'API DMIF
(Ahmed, 2000). On crée quelques scénarios d'essai pour le processus de
transmission. On détermine les paramètres de QoS et on fait la comparaison entre le
processus de transmission dans le service Best Effort et dans le Service DiffServ.
Nous avons mis en œuvre un système de flux vidéo MPEG-4 pour évaluer
l'algorithme de marqueur et un client vidéo simple pour recevoir les paquets
DVMA: Un algorithme de marquage pour les flux MPEG-4 dans un réseau Diffserv
9
envoyés par le client voir (Ahmed et al. Octobre 2001). Les mesures de QoS sont
faites pour évaluer l'algorithme de marquage. Notre banc d'essai physique est décrit
dans la figure 4. Le banc d'essai est composé de routeurs de bordure et d’un routeur
de cœur faisant tourner l’implémentation Diffserv du noyau Linux. Toutes les
liaisons sont des connexions Ethernet avec chacune 10Mb/s de bande passante.
Figure 4 : topologie de réseau pour le banc d'essai.
Les figures 5 décrit la vidéo MPEG-4 envoyée par le serveur au client. Le réseau
est chargé par un trafic de fond. Dans notre banc d'essai, le trafic de fond est marqué
comme étant un trafic Best effort.
La première mesure que nous avons faite est l’évaluation des pertes de paquet à
la fois dans le scénario Best Effort et dans le scénario Diffserv. En second lieu, nous
mesurons le retard sur une transmission de bout en bout du serveur au client. Dans
chaque scénario, nous chargeons le réseau différemment pour pouvoir obtenir des
informations supplémentaires.
5.2 Pertes de Paquets
La figure 6 montre le pourcentage de pertes de paquets quand la quantité de
trafic de fond est d’environ 80 % (6.5 Mbit/s) de la largeur de la bande. Cela
engendre quelques pertes essentiellement au temps t=30s, c'est-à-dire quand le
serveur envoie son taux maximal (figure 5). La majorité des pertes provient du flux
de couche de base. Cela donne une mauvaise QoS au client. Celui-ci ne peut pas
décoder les autres flux sans la réception du flux de couche de base. Les pertes
augmentent de manière spectaculaire quand le réseau devient trop chargé (figure 7).
Les grandes pertes de la couche de base sont dues à sa plus grande exigence de
largeur de bande. Nous pouvons le comparer avec un flux vidéo MPEG-2 dans
lequel des images I sont plus grandes que des images P et B. Cependant ils sont
beaucoup plus importants. Dans ce cas, les pertes de paquet I doivent être
inférieures aux autres types de pertes de paquet. Lorsqu’il s’agit de MPEG-4, le flux
10
GRES, Décembre 2001, Marrakech.
de couche de base doit avoir une perte de paquet faible quand les flux de couches
améliorés 1 et 2 doivent avoir une probabilité de chute respectivement croissante.
Dans le scénario de Diffserv, nous pouvons voir que les pertes de paquets vidéo
sont presque égales à 0 et nous nous sommes assurés que la couche de base n'a
aucune perte. Les figures 8 et 9 illustrent ce fait.
Nous pouvons aussi voir que dans ce scénario, les pertes de paquets vidéos sont
les mêmes lorsque la charge de réseau est 80 % de la largeur de bande et lorsque
celle-ci est de 95 %. Cela prouve bien que l'augmentation du trafic n'a aucun effet
sur le trafic vidéo, ceci étant dû à son mécanisme de priorité statistique. Il est utile
de noter que le trafic Best Effort (le trafic de fond) peut emprunter n’importe quelle
largeur de bande disponible.
5.3 Retard à sens unique de bout en bout
Les figures 10 et 11 illustrent le retard continu, qui est aussi important que les
pertes de paquet. Un paquet vidéo retardé n'est plus utilisable, car un flux vidéo est
une application en temps réel. Un retard est donc assimilé à une perte.
La figure 10 montre que durant le débit maximal, le retard augmente de manière
spectaculaire. Lorsque la charge de réseau est d’environ 95 %, le retard est très
important et peut causer une faible QoS dans l’application vidéo (figure 11).
Lors de l’utilisation du scénario Diffserv, le retard de paquet a incroyablement
diminué et n'augmente pas réellement quand la charge de réseau atteint 95 %. Dans
les deux figures 12 et 13, on peut aussi voir que le retard le plus important est dû au
débit maximal au milieu du processus de transmission.
6. Travail complémentaire ultérieur et
Un travail complémentaire ultérieur examinera l’interaction entre le flux vidéo et
le trafic de fond. Comme il a été mentionné, le trafic de fond dans notre banc d’essai
est marqué en tant que trafic de meilleur effort (Best Effort). Ce n’est pas réellement
le cas dans la prochaine génération Internet. De plus, l’administrateur du domaine
assure la configuration des routeurs de bordure et de cœur, nous envisagerons la
configuration des routeurs par un Broker de largeur de bande utilisant le Protocole
COPS (Common Open Policy Service) (Burham, 2000).
7. Conclusion
Dans cet article, nos avons proposé et testé un marqueur de paquet vidéo
MPEG-4 pour le service Diffserv de IP, ceci fut fait au moyen des flux de vidéo
DVMA: Un algorithme de marquage pour les flux MPEG-4 dans un réseau Diffserv
11
MPEG hiérarchiquement codés sur le réseau expérimental. Le résultat a montré le
fonctionnement de nos algorithmes de marquage. Deux contraintes sensibles ont été
améliorées par : (1) La réduction des pertes de paquet, (2) La réduction du délai de
transmission.
L'algorithme de marquage proposé tient mieux compte des caractéristiques et la
pertinence des sous-flux MPEG-4 (audio, vidéo, BIFS, OD…). Par conséquent, des
flux de données sensibles subiront un traitement privilégié par les routeurs Diffserv
du réseau. C'est particulièrement utile en cas de vidéo hiérarchiquement codée
comme MPEG-4. Une performance de QoS minimale sera assurée par l’association
de quelques paquets audiovisuels avec une probabilité de rejet faible et on lui
donnera une probabilité de rejet importante pour les couches d’amélioration vidéo.
8. Bibliographie:
J. Wroclawski «RFC2210: The Use of RSVP with IETF Integrated Services» September 1997.
R. Braden, Berson, S. Herzog,S. Jamin « RFC 2205: Resource ReSerVation Protocol (RSVP) -- Version 1
Functional Specification» September 1997.
S. Blake, D. Black M. Carlson,E. Davies, Z. Wang, W. Weiss «RFC 2475: An Architecture for
Differentiated Services » December 1998.
V. Jacobson, K. Nichols, K.Poduri «RFC 2598 An Expedited Forwarding PHB» June 1999.
J.Heinanen, et al. «RFC 2597 : Assured Forwarding PHB Group», June 1999.
W. Fang et al. «RFC2859: A Time Sliding Window Three Colour Marker (TSWTCM) » June 2000.
J. Heinanen, R. Guerin «RFC2698: A Two Rate Three Color Marker (TRTCM) » September 1999
ISO/IEC 14496-1 «Coding of audio-visual objects --Part 1: Systems -final committee draft» May 1998.
ISO/IEC 14496-2 «Coding of audio-visual objects – Part 2: Visual -final committee draft» May 1998.
ISO/IEC 14496-3 «Coding of audio-visual objects -- Part 3: Audio -final committee draft» May 1998.
ISO/IEC 14496-6 «Coding of audio-visual objects -- Part 6: Delivery Multimedia Integration Framework
(DMIF) final committee draft» May 1998.
Rob Koenen; ”Overview of the MPEG-4 Standard” (V.14 - Geneva Version), May/June 2000
Werner Almesberger «Differentiated Services on Linux » 1999.
T. Ahmed, «MPEG-4 DMIF Implementation in Java» Technical report, Master of CS, University of
Versailles, France, Sept. 2000.
D. Durham et al. «RFC 2748: The COPS (Common Open Policy Service) Protocol» January 2000
T. Ahmed, G. Buridant, A. Mehaoua «Encapsulation and Marking of MPEG-4 Video over IP
Differentiated Services». In proceeding of Sixth IEEE ISCC 01. Hammamet Tunisia, Edition IEEE Press,
Juillet 2001
T. Ahmed, G. Buridant, A. Mehaoua «Delivering Of MPEG-4 Multimedia Content Over Next Generation
Internet». Dans Lecture Notes in Computer Science N°2216, Management of Multimedia Networks and
Services, Kluwer Academic, Octobre 2001.
T. Ahmed, A. Mehaoua, G. Buridant «Implementing MPEG-4 Video On Demand over IP Differentiated
Services». À paraître dans IEEE Global Telecommunication Conference GLOBCOM 2001. San-Antoinio,
Texas, USA, Nov. 2001.
12
GRES, Décembre 2001, Marrakech.
Fig. 6: Perte de paquet dans Best Effort
- Charge du réseau 80%-
FIG. 7: Perte de paquet dans Best Effort
- Charge du réseau 95 %-
FIG. 8: Perte de paquet dans Diffserv
- Charge du réseau 80%-
FIG. 9: - Perte de paquet dans Diffserv
- Charge du réseau 95 %-
Fig. 10: Temps de transmission de bouten-bout
- Charge du réseau 80%-
Fig. 11: Temps de transmission de bouten-bout dans Best Effort
- Charge du réseau 95%-
Fig. 12: Temps de transmission de bouten-bout dans Diffserv
- Charge du réseau 80%-
Fig. 13: Temps de transmission de bouten-bout dans Diffserv
- Charge du réseau 95%-
Fig. 5: Les Flux Video MPEG-4

Documents pareils