UniPRO MGig1 Application Y1564 FR

Transcription

UniPRO MGig1 Application Y1564 FR
Note d’application
UniPRO MGig1
Testeur de trafic Ethernet
UniPRO SEL1
Boucleur Ethernet intelligent
Y.1564 - Méthode de test de l’activation de
services Ethernet
Sommaire
1. Pourquoi l’industrie du transport Ethernet a-t-elle besoin
d’un nouveau test?
2. Topologies des liaisons de transport Ethernet
2.1 E-Line
2.2 E-LAN
2.3 E-Tree
3. Pourquoi la bande passante doit-elle être gérée?
3.1 Informations de buried QoS
3.2 La fin des tuyaux de taille fixe
3.3 Pourquoi la bande passante doit-elle être gérée?
3.2 Comment la bande passante est-elle gérée?
4. Seaux pour la limitation du flux
4.1 Comment l’évaluation est-elle faite?
5. Test en trois étapes grâce à l’UniPRO MGig1
5.1 Pré-Y.1564 - Dépannage du service Ethernet et configuration des services
5.2 Y.1564 Test de configuration des services
5.3 Y.1564 Test de performance des services
6. Les avantages du test Y.1564 par rapport au test RFC2544
7. Conclusion
8. Glossaire des termes afférents au test Y.1564
1. Pourquoi l’industrie du transport Ethernet a-t-elle besoin d’un nouveau test ?
Actuellement, les liens Ethernet WAN (réseaux étendus) sont bien plus complexes que leurs pendants LAN (réseaux locaux). L‘époque
où les liaisons louées avec des circuits d‘accès étaient de simples liaisons non-gérées de transport de bits est révolue.
Les services actuellement acheminés par les réseaux WAN ou MAN et par les liens inter-Lan sont de plus en plus sensibles à la
qualité du service reçu après sa traversée du lien et du réseau.
EVC 1
EVC 2
UNI
UNI
UNI - User Network Interface
Figure 1 : Transport de VLAN par un opérateur Ethernet
Les liaisons Ethernet actuelles doivent souvent fournir des services simultanément à de nombreux utilisateurs présents dans un même
bâtiment (ou une zone localisée). Ceci implique que des VLAN distincts doivent être configurés différemment pour chaque utilisateur
du réseau.
De plus en plus, chaque client exige également différents niveaux de qualité de service (QoS) pour différencier le trafic hautement
prioritaire – pour les services de streaming en temps-réel comme la voix et la vidéo - des données moins sensibles. Ceci nécessite
souvent des VLAN séparés pour acheminer les différents services.
Il existe aujourd’hui de nombreux liens Ethernet dans lesquels des VLAN imbriqués les uns dans les autres (souvent appelés Q-in-Q)
doivent être configurés et testés. Par exemple : pour assurer à chacun des utilisateurs évoqués ci-dessus, une séparation sécurisée
entre ses propres services et ceux des autres clients. Ceci impose un VLAN séparé pour chaque utilisateur sur le lien Ethernet ainsi
qu‘un niveau supplémentaire de « VLAN de service » pour offrir différents niveaux de QoS (qualité de service) aux différents usagers.
Par ailleurs, il y a la technologie MPLS (multi-protocol label switching), qui est de plus en plus employée dans les réseaux, pour
transmettre rapidement le trafic là où il est nécessaire. MPLS offre un grand avantage : les switchs n‘ont à lire que quelques octets
d‘en-tête et non pas l‘intégralité de l‘en-tête - cette technologie est donc plus rapide et plus efficace que les routeurs IP. Mais pour ce
qui concerne la qualification du service, il faut traiter avec une couche de complexité supplémentaire, avant qu‘une liaison ne puisse
être validée comme stable et conforme du point de vue de la performance SLA.
Et voilà un problème grandissant : la méthodologie RFC2544, recommandation choisie par l‘industrie, n’a jamais été conçue pour
tester de tels services.
En fait, elle a été pensée comme un test de laboratoire, pour permettre aux opérateurs de télécommunications de comparer deux
équipements réseau (comme les switches, les routeurs, etc.) au moment de prendre une décision d‘achat.
Elle a été adoptée comme test de qualification de service parce qu‘il n‘existait aucune autre recommandation de test normalisé
lorsque les services de transport Ethernet sont apparus.
Mais RFC2544 possède un certain nombre d‘inconvénients majeurs.
- Elle ne peut tester qu‘un seul flux de service (stream) à la fois. Ce qui donne une simulation peu réaliste du trafic réel multi-flux
(multi-stream), des VLAN et des exigences de QOS de la plupart des liens Ethernet WAN et MAN.
- Parce que chaque paramètre doit être testé successivement – le test RFC2544 complet peut durer plusieurs jours avec un coût très élevé.
- Comme RFC2544 a été conçu pour tester un équipement isolé, il teste de nombreux paramètres en simulant une surcharge de
l‘équipement ou une défaillance réseau.
Alors que cette méthode est sans danger dans un laboratoire de test, injecter un débit de ligne maximal dans un réseau en fonctionnement
peut le surcharger et entraîner des problèmes de service pour les usagers. Cette méthode est loin d‘être la solution idéale et, de plus, elle
est inutilement chronophage.
- Enfin, en tant que test de laboratoire, elle a été conçue pour des équipements isolés, implantés en un seul endroit (le labo). D‘où son
utilisation peu appropriée pour tester les liaisons distantes.
2. Topologies des liaisons de transport Ethernet
Router/
Switch
Router/
Switch
UNI
UNI
UNI - User Network Interface
Figure 2 : Organisation d’un réseau d’opérateur
2.1E-Line
UNI
UNI
Multiplexed service
in UNI
UNI
Point to point service
UNI - User Network Interface
Figure 3 : Services E-Line
• Une connexion virtuelle Ethernet (EVC), une ligne privée Ethernet (EPL) ou une ligne privée virtuelle Ethernet (EVPL), de type point à point
• Peut transmettre par l’intermédiaire d’un seul ou de plusieurs réseaux d‘opérateur
• Peut être localisé dans une ville, au niveau national ou international
• La configuration la plus simple. Transporte toutes les trames entre deux sites
2.2.E-LAN
UNI
UNI
UNI
UNI
Multi point to
multi point EVC
UNI
UNI
Point to point EVC
Internet
UNI - User Network Interface
Figure 4: service E-LAN
• Un ensemble de connexions virtuelles Ethernet (EVC), de lignes privées Ethernet (EPL) ou de lignes privées virtuelles Ethernet (EVPL), de type multipoint à multipoint
• Peut transmettre par l’intermédiaire d’un seul ou de plusieurs réseaux d‘opérateurs
• Les accès (UNI) peuvent se situer dans une même ville, au niveau national ou international
• Joint de nombreux emplacements avec une connectivité équivalente – comme s‘ils étaient sur le même réseau LAN standard privé, même si certaines parties des sites sont distantes de plusieurs milliers de kilomètres
2.3 E-Tree
Point to
multi point EVC
UNI
UNI
UNI
UNI
Rooted - multi point
EVC
UNI
UNI - User Network Interface
Figure 5 : Service E-Tree
• Basé sur de multiples connexions virtuelles Ethernet (EVC), lignes privées Ethernet (EPL) ou lignes privées virtuelles Ethernet (EVPL), de type point à multipoint, comportant une « racine » et plusieurs « feuilles »
• Chaque feuille n‘est autorisée à communiquer qu‘avec la racine. Elle ne communique pas directement avec une autre feuille, mais uniquement via la racine
• Un exemple type est le siège d‘une entreprise (racine), raccordé à de nombreuses succursales (feuilles, selon la terminologie des réseaux), où toutes les succursales ne communiquent que via le serveur ou le réseau du siège
• Les feuilles du réseau peuvent se situer dans une même ville, ou au niveau national ou international
3. Pourquoi la bande passante doit-elle être gérée?
Selon sa conception, le trafic Ethernet se fait « par rafales. Tel qu’il a été conçu à l’origine, lorsqu‘il a du trafic à transmettre, le réseau
va tenter une transmission par rafales.
Par nature, Ethernet est un protocole très « égoïste » et aucune des interfaces n’a intérêt à autoriser les autres interfaces à partager la
bande passante disponible.
Mais en général, entre les rafales d‘une interface donnée, il existe des périodes de silence qui permettent aux autres interfaces de
transmettre leurs propres rafales.
C‘est à cause de la nature non-discriminatoire d‘Ethernet que la QoS (qualité de service) a été introduite dès 1994.
Bande Passante
Taille de la trame Priorité
Latence
Vidéo (conférence)
Moyenne à élevée
Moyenne à large
Très élevée
Très faible
Voix
Etroite
Etroite
Elevée
Faible
Données
Etroite à élevée
Variable
Faible
Toutes
Sur les connexions WAN, il y a en général beaucoup moins de bande passante disponible que sur les réseaux LAN des utilisateurs, et
dans le passé, lorsque les bandes passantes des « tuyaux » des réseaux WAN étaient fixes, ces rafales conduisaient fréquemment à
l‘utilisation de ces tuyaux à leur capacité maximum. Cependant, le trafic était nivelé parce qu‘en général, les données qui transitaient
n‘étaient pas extrêmement urgentes, et elles pouvaient être différées jusqu‘à ce qu‘une capacité suffisante soit disponible.
Mais lorsque des services synchrones, comme la voix et la vidéo, ont commencé à être encapsulés dans l‘Ethernet asynchrone, les
problèmes ont surgi. En effet, dès qu‘une congestion du réseau se produisait, le service était interrompu (du fait du retard des paquets
dans les buffers des switchs et des routeurs, ou parce qu‘ils avaient été « perdus » par le réseau et qu‘ils nécessitaient une retransmission).
3.1 Informations de buried QoS
Bien que la QoS soit utilisée dans les réseaux locaux d‘entreprises, elle est contenue dans la couche 2, qui - au moment où les
paquets des réseaux locaux Ethernet ont été encapsulés dans des trames de la couche 4 afin de rendre possible un transport par
Ethernet – est enfouie profondément au cœur de ces trames. La dernière chose que nous souhaitons, concernant les switchs et les
routeurs, serait de devoir désassembler de longues trames pour accéder à la QoS bas-niveau ou à toute autre information : le temps
d‘occupation alloué au traitement, à la mémoire et à la latence seraient totalement inacceptables.
De plus, comme tout le trafic lié au e-commerce est fortement crypté, même si les switchs/routeurs des couches 3 et 4 essayaient
d‘accéder aux fanions QoS, cet accès leur serait interdit, parce que celui-ci est inclus dans les données cryptées.
Ainsi, il était nécessaire de trouver une solution qui pourrait, d‘une certaine façon, coder les trames hautement prioritaires à un
emplacement facile à lire – dans l‘en-tête de la trame.
3.2 La fin des tuyaux de taille fixe
La pièce finale de ce puzzle est que la plupart de fournisseurs de services ne proposent plus de tuyaux à « taille fixe ».
A la place, en tenant compte de la nature « par rafales » de l‘Ethernet, ils installent un tuyau plus large, pour lequel ils garantissent à tout
moment la disponibilité d‘une bande passante minimale (appelée CIR – débit garanti ou committed information rate) PLUS une capacité
supplémentaire (l‘équivalent de la voie rapide sur une autoroute), qui permet au trafic de circuler par rafales, à une vitesse bien plus
élevée. La bande passante supplémentaire (appelée EIR – débit excédentaire, excess information rate) est en général moins onéreuse,
mais elle n‘est pas garantie. En fait, elle n‘est disponible que lorsque le réseau n‘est pas encombré et que sa capacité est inutilisée.
3.3 Pourquoi gérer la bande passante?
3.3.1 D‘un point de vue commercial, le fournisseur d‘accès doit s‘assurer que le client dispose de la bande passante minimum garantie
(CIR), convenue dans le SLA.
3.3.2 Afin de garantir que le trafic de chaque utilisateur est limité par la bande passante CIR+EIR - en effet, si les clients étaient autorisés
à envoyer des rafales au-delà de cette bande passante, le réseau serait surchargé et cela entraînerait une dégradation de service pour
tous les autres utilisateurs du réseau. De même, si les autres clients étaient autorisés à submerger le réseau avec du trafic, leur propre
trafic en souffrirait ; il n‘est donc dans l‘intérêt de personne d‘autoriser plus de trafic que celui pour lequel le réseau a été dimensionné.
Du point de vue de l‘utilisateur, le trafic doit également être géré, de manière à ce que le trafic très important, prioritaire ou sensible au
délai soit traité comme hautement prioritaire de bout en bout. De plus, - en gardant en mémoire que les fanions QoS de la couche 2
(en-têtes), qui sont utilisés dans le réseau LAN d‘entreprise ne sont pas immédiatement accessibles aux couches 3 et 4 (à moins qu‘une
action spécifique n‘ait été effectuée sur le réseau porteur) - il fallait un nouveau système de marquage couche 3 /couche 4 simple.
3.4 Comment la bande passante est-elle gérée?
Le principe de la gestion de la bande passante oblige les réseaux utilisateurs à gérer leur propre trafic avant de l‘envoyer vers le réseau
d‘un fournisseur d‘accès. Dans le cas contraire, si un surplus de trafic - au-delà du SLA - est transmis, une grande partie de ce dernier
sera supprimée par le système de gestion du réseau et par les fonctions de limitation du flux du fournisseur de service, ce qui entraînera
un service global mauvais sur la liaison. La fonction de gestion de la bande passante de son propre réseau est similaire aux fonctions de
celle du fournisseur de services, décrites ci-dessous :
La gestion de la bande passante attribue à chaque utilisateur du réseau du fournisseur d‘accès, un débit de données maximal moyen
qu‘il est autorisé à transmettre. En plus, il lui attribue une certaine quantité de mémoire tampon sur le switch réseau, ce qui permet à
l‘utilisateur de transmettre ses données en rafales. Celles-ci peuvent être temporairement stockées dans le tampon si nécessaire, en
attendant que le réseau se libère.
Ceci est très puissant, parce que le gestionnaire établit ensuite un lien entre la quantité limitée de mémoire tampon sur le switchs du
fournisseur d‘accès et le débit auquel les trames pénètrent et quittent les switchs.
En théorie, et en pratique aussi, si la mémoire tampon du switch est allouée comme décrit ci-dessus, et que la totalité des CIR des clients
n‘excède pas le débit sortant du switch, alors aucune trame ne sera jamais perdue.
Les paramètres de gestion de la bande passante sont :
CIR – Committed Information Rate (débit de transmission garanti)
C‘est le débit maximum moyen auquel le SLA client permet de transmettre le trafic sur le réseau du fournisseur d‘accès.
CBS – Committed Burst Size (taille garantie d‘une rafale)
Dans l‘idéal, le client souhaite une capacité de rafales infinie. Mais le fournisseur de service ne peut pas se permettre de dimensionner
ses réseaux pour de telles capacités.
C‘est pourquoi de nombreux fournisseurs de service autorisent les clients à transmettre temporairement des rafales plus rapidement que
le CIR - à condition que le nombre maximum d‘octets autorisés à dépasser le CIR, dans n‘importe quelle rafale, ne dépasse pas le CBS.
EIR – Excess Information Rate (débit de transmission en excès)
C‘est le débit maximal moyen de trafic supplémentaire que le client peut envoyer en plus du CIR, afin que le réseau l‘achemine, dans la
mesure du possible, s‘il a de la capacité disponible (non-garanti).
EBS – Excess Burst Size (taille en excès d‘une rafale)
Si le réseau dispose d‘une capacité EIR, alors les clients peuvent envoyer des rafales à un débit supérieur à celui de l‘EIR maximum.
L‘EBS définit le nombre maximum d‘octets qui peuvent être envoyés en rafale, à un débit supérieur à celui de CIR+EIR.
Mode couleur
Nous avons mentionné précédemment la nécessité d‘une méthode de classification simple pour le trafic très important (en général la
vidéo et la voix, liste non-exhaustive). Le trafic Ethernet est désormais doté d‘un système d‘étiquetage par couleur pour assurer cette
fonction.
Le trafic est codé en vert, jaune ou rouge, lorsqu‘il transite sur le réseau du fournisseur d‘accès.
Les utilisateurs ou les fournisseurs d‘accès ont la possibilité de pré-coder les trames en vert (hautement prioritaire) ou en jaune (priorité
normale).
Lorsque le client ou le fournisseur d‘accès marque les trames en vert ou en jaune – on parle de réseau « sensible à la couleur » - le
réseau doit en tenir compte lors de la gestion de la bande passante et de la limitation du flux.
Certains réseaux traditionnels sont encore « aveugles aux couleurs » et les fournisseurs d‘accès utilisent à la place leurs propres
algorithmes pour affecter les couleurs au trafic de ces réseaux.
Le vert est en général réservé aux trames utilisateurs hautement prioritaires. Tant que le trafic vert reste inférieur au CIR, le réseau lui
assure une faible latence et une haute priorité.
Tout le trafic excédant le CIR et inférieur à l‘EIR est coloré en jaune et il peut utiliser la capacité restante (non-verte) du CIR (ou bien il
attend que le réseau soit disponible). Il peut également utiliser l‘EIR lorsque le réseau dispose d‘une capacité de réserve disponible.
Tout trafic envoyé sur le réseau pendant une période donnée qui dépasse les moyennes de CIR et d‘EIR, est classifié en rouge par le
réseau et supprimé (perdu).
Network bandwidth
100% of link rate
CIR + EIR
Colour mode
Marked as red frames,
exceed EIR and CIR
Marked as yellow frames,
exceed CIR conforming EIR
CIR
Marked as green frames,
conforming CIR
Time
Green frames CIR – Committed Information Rate, guaranteed traffic
Yellow frames EIR – Excess Information Rate, non guaranteed traffic
Red frames – neither CIR nor EIR, dropped traffic
Figure 6 : CIR et EIR en mode couleur
4. Seaux pour la limitation du flux
Une fois que tout le monde avait reconnu qu‘il était nécessaire de contrôler le flux du trafic Ethernet sur les réseaux WAN ou des
fournisseurs d‘accès, la question est donc devenue : « Comment cela va-t-il être mis en œuvre en permettant au trafic Ethernet de
transiter par rafales, mais en même temps, en en restreignant l‘utilisation grâce au débit garanti d‘informations (CIR) plus, dans la mesure
du possible, un débit d‘information en excès (EIR) convenu dans le SLA ? »
La réponse est évidemment un algorithme logiciel, installé sur tous les éléments du réseau, comme les switchs d‘accès, ainsi que d‘autres
dispositifs d‘interface de réseau (NID, network interface devices), qui jouent le rôle de limiteurs de flux.
Lorsque le trafic arrive auprès d‘un tel limiteur de flux, la première action de celui-ci est de vérifier si le fanion du mode couleur (CM) du
trafic entrant est activé ou non.
Si le CM est activé, et que les trames entrantes ont été marquées comme vertes ou jaunes par l‘utilisateur, le limiteur va réassigner
aux trames un marquage vert ou jaune. Cette réassignation dépend partiellement de la couleur qui leur a été assignée par l‘utilisateur
(d‘autres facteurs tels que les balises C et les étiquettes de CoS de l‘utilisateur sont également prises en compte si celui-ci n‘a pas
assigné de couleur). – Important : le fournisseur d‘accès peut également prendre en compte le débit d‘informations entrant.
Il en résulte que toutes les trames vertes entrantes ne conservent pas leur marquage vert sur le réseau. Par exemple, si le niveau du trafic
entrant vert est nettement plus élevé que celui autorisé par le SLA, toutes les trames ne poursuivront pas leur trajet en restant marquées
en vert.
4.1 Comment l‘évaluation est-elle faite?
Imaginez deux seaux. L‘un vert, l‘autre jaune. Et dans ces deux seaux tombent régulièrement des jetons verts et des jetons jaunes.
Les jetons verts représentent chacun une rafale de CBS (taille garantie d‘une rafale) et ils tombent dans le seau vert au rythme d‘un
huitième du CIR à chaque seconde.
Les jetons jaunes représentent chacun une rafale d‘EBS (taille en excès d‘une rafale) et ils tombent dans le seau jaune au rythme d‘un
huitième de l‘EIR à chaque seconde.
User
Ingress Traffic
User Network Interface (UNI)
Network service provider
Overflow level
Committed
Burst Size
(CBS)
Overflow to
excess bucket
Committed Information
Rate (CIR)
SLA GUARANTEED
Overflow level
Excess overflow
discarded
Excess
Burst Size
(EBS)
Excess Information
Rate (EIR)
BEST EFFORT ONLY
Figure 7 : La théorie des seaux
4.1.1 Arrivée de trames non colorées
Si l‘utilisateur ne transmet pas de trafic sensible à la couleur, tout le trafic entrant est initialement traité de la même manière, comme
des trames vertes. (Voir la description ci-dessous).
4.1.2 Arrivée de trames vertes
Dès qu‘une trame verte arrive (ou une trame sans couleur), le limiteur vérifie si un jeton vert est disponible dans le seau vert. Le cas
échéant, il prend un jeton, marque la trame en vert et envoie la trame sur le réseau : la transmission est garantie.
Si le seau vert ne contient pas de jeton (parce que le CIR a été épuisé), le limiteur vérifie ensuite si le seau jaune contient des
jetons. Si un jeton est disponible, le limiteur prend un jeton et la trame est marquée en jaune, avant d‘être envoyée sur le réseau : la
transmission s‘effectue dans la mesure du possible.
Si ni le seau vert ni le seau jaune ne contiennent de jeton, la trame est marquée en rouge et elle est supprimée.
4.1.3 Arrivée de trames jaunes
A chaque arrivée de trame jaune, le limiteur vérifie le contenu du seau jaune pour voir si des jetons sont disponibles. S‘il y a un jeton,
le limiteur le prend, re-marque la trame en jaune et l‘envoie sur le réseau pour une transmission « dans la mesure du possible ».
Si le SLA exclut l‘utilisation du CF (fanion de couplage), toutes les trames qui arrivent, et pour lesquelles aucun jeton n‘est disponible,
sont marquées en rouge et sont supprimées.
A l‘inverse, si l‘utilisation du CF a été autorisée, le limiteur vérifiera d‘abord si des jetons verts sont disponibles. Le cas échéant, le
limiteur le prend et marque la trame en jaune avant de l‘envoyer sur le réseau.
Si ni le seau vert ni le seau jaune ne contiennent de jeton, la trame est marquée en rouge et elle est supprimée.
5. Test en trois étapes grâce à l’UniPRO MGig1
Y.1564 définit deux étapes de test 1) Le test de configuration des services
2) Le test de performance des services
Il permet également d‘identifier deux zones de problèmes, qui empêcheraient le démarrage du test.
1) Diagnostic des services Ethernet
2) Diagnostic de la configuration des services
Malheureusement, la plupart des testeurs Ethernet ignorent ces deux « zones de problèmes », qui ensemble sont à la source de
nombreuses heures d‘essai et de recherche des erreurs, avant même que le test de liaison puisse démarrer.
C‘est pourquoi le test Y.1564 NetSAM a été divisé en trois étapes logiques – pour donner aux ingénieurs les outils dont ils ont besoin
pour résoudre rapidement ces problèmes de configuration.
1) Pré-Y.1564 Diagnostic de l’Ethernet et de la configuration des services.
2) Y.1564 Test de configuration des services
3) Y.1564 Test de performance des services
Voyons cela plus en détail.
5.1 Pré-Y.1564 - Dépannage de l‘Ethernet et configuration des services
Les techniciens d’intervention savent que de très nombreuses heures sont gaspillées sur site, simplement parce que souvent, les liaisons
ne fonctionnent pas réellement lorsqu‘ils se rendent sur place pour les tester.
En général, cela résulte d‘une mauvaise configuration de l‘équipement réseau ou du mauvais rafistolage d‘un câble. Mais il est souvent
difficile de diagnostiquer si le problème vient du réglage d‘un paramètre de l’équipement local, de la cible distante ou de la configuration
du lien testé.
Souvent, cela conduit à de nombreuses heures de vérification manuelle de la configuration du réseau ainsi qu‘à des inspections de câbles
jusqu‘au site central afin d’identifier le problème.
Sur l‘UniPRO MGig1, nous disposons donc de trois étapes de pré-test distinctes – vérification de la cible, configuration du chemin du lien
et réglage des paramètres de l’équipement testé - parce que cela peut souvent faire économiser de nombreuses heures de recherche de
panne sur site.
UNI
Carrier Ethernet
link under test
UNI
UNI
UNI - User Network Interface
Figure 8 : Test depuis le site central vers les branches
5.2 Y.1564 Test de configuration des services
Une fois que le technicien a eu la confirmation que toutes les cibles des services sont accessibles avec succès, l‘UniPRO MGig1 démarre
le test de configuration des services. Chaque service ou flux est testé à son tour pour confirmer qu‘il est bien configuré, qu‘il transmet
correctement le trafic selon le CIR et qu‘il dispose d‘un EIR. Il teste également que le dépassement de trafic est correctement géré.
Figure 9 : Configuration des cibles et des services sur l’UniPRO MGig 1
Une des caractéristiques de la nature en rafale du trafic Ethernet, est que le trafic est souvent constitué de paquets de différentes tailles.
C‘est pourquoi il est essentiel de pouvoir tester le réseau avec différentes tailles de trames. Y.1564 définit un mécanisme (EMIX) pour
effectuer ces tests. EMIX permet d‘utiliser des mélanges de tailles représentatives de trames afin de les utiliser au cours de chaque test
selon la prescription souhaitée.
La capture d‘écran suivante présente le réglage de l‘EMIX sur le testeur UniPRO MGig1, elle montre les différentes tailles de trames
prédéfinies A à H et personnalisable U.
Figure 10 : Configuration EMIX lors du test Y. 1564 (NetSAM)
5.2.1 Test du CIR (débit de transmission garanti)
Transmitted rate
Policing
Discarded
Non guaranteed or discarded
CIR + EIR +25% EIR
CIR + EIR
CIR
Test
bandwidth
1 to 60 sec
Guaranteed, not discarded
Testing time
Figure 11: Test et gestion de la bande passante CIR et EIR.
Ce test vérifie que le débit d‘informations CIR a été correctement configuré sur le réseau fourni par le fournisseur d‘accès. Le trafic peut
circuler au CIR max (Y.1564 Test A1 sur l‘UniPRO MGig1) ou il peut être augmenté graduellement (Y.1564 Test A2 sur l‘UniPRO MGig1). Le
trafic peut être sensible à la couleur ou non, comme illustré sur la figure 11 ci-dessus.
5.2.2 Test EIR - Non sensible à la couleur
Le réseau est testé pour garantir que le trafic est correctement acheminé selon la combinaison des débits CIR et EIR, comme illustré sur la
figure 11 ci-dessus. (Y.1564 Test B2 sur l‘UniPRO MGig1)
5.2.3 Test EIR - Sensible à la couleur
En plus du test de débit CIR+EIR, l‘UniPRO MGig1 effectue un test direct pour s‘assurer que les trames vertes sont transmises sans
perte, jusqu‘à atteindre le CIR max, en présence de trames jaunes. Ceci permet de garantir que la priorité des trames vertes est
correctement établie. (Y.1564 Test B1 sur l‘UniPRO MGig1)
5.2.4 Test de limitation de flux
Le trafic est transmis à un débit supérieur au CIR+EIR (c‘est-à-dire dans la zone rouge). Ceci permet de s‘assurer que la limitation de
flux fonctionne correctement et qu‘il supprime les trames qui dépassent le débit CIR+EIR (parfois, en incluant un paramètre M, une
petite marge de sécurité définie par le fournisseur de services).
Dans le cas d‘un trafic sensible à la couleur uniquement, l‘UniPRO MGig1 vérifie, dans ce scénario de dépassement, que les trames
jaunes sont supprimées mais pas les paquets verts. (Y.1564 Tests C1 & C2 sur l‘UniPRO MGig1). La figure 11 donne une idée du
principe de test de limitation de flux, jusqu‘à la zone rouge où les paquets sont perdus ou supprimés.
5.3 Y.1564 Test de performance des services
Une fois que toutes les erreurs de configuration ont été identifiées et rectifiées et que tous les tests de configuration des services ont
été passés avec succès, il est temps de tester les performances dans la durée de la liaison Ethernet.
Grâce à la configuration individuelle de chaque service pour les tests de configuration, l‘UniPRO MGig1 est désormais doté de tous les
réglages nécessaires pour lui permettre de simuler le trafic réel sur la liaison, en se basant sur les services adéquats. Il peut y avoir
jusqu‘à huit services en parallèle, comme l‘illustre la figure 12.
Carrier Ethernet
link under test
UniPRO Mgig 1
UniPRO Mgig 1
VLAN 10
EVC1
EVC1
VLAN 10
VLAN 20
EVC2
EVC2
VLAN 20
VLAN 30
EVC3
EVC3
VLAN 30
UNI
UNI
UNI - User Network Interface
Figure 12 : Multiples EVC partageant la même interface physique sur plusieurs VLAN.
L‘UniPRO MGig1 teste tous ces services (flux) simultanément, au débit CIR pendant des périodes allant de 15 minutes (minimum
suggéré) à 24 heures (maximum suggéré), ou au-delà, avec des mesures simultanées de : FTD (retard de transfert de trames), FDV
(variation de retard de trames), IR (débit d‘informations), FLR (pourcentage de perte de trames) et AVAIL (disponibilité), pour chaque
service, comme illustré sur la figure 13.
Figure 13 : Copies d’écran de l’UniPRO MGig 1 pour configuration et résultat du test Y.1564 (NetSAM).
6. Les avantages du test Y.1564 par rapport au test RFC2544 dans l’UniPRO MGig1
• Teste simultanément plusieurs services – non limité au test d‘un service unique.
• Teste simultanément IR (débit d‘informations), FDV (fluctuation du retard de trames ou gigue), FTD (delai de transfert de trames) et FLRsac (pourcentage de perte de trames par rapport aux critères d’acceptation de service), au lieu de les tester un par un.
• Bien plus représentatif de l’exploitation réelle et des exigences de la QoS pour une transmission Ethernet.
• Test beaucoup plus rapide – tests multiples de la performance des services simultanément et non pas successivement.
• Vérifie la configuration des limites CIR / EIR / avec le Mode Couleur
• Une option permet de tester la conformité avec le SLA sans chercher à dépasser les capacités du réseau (contrairement au test
RFC2544 qui ne proposait qu‘un test de stress de la tolérance maximum, très chronophage, et qui ne permettait pas à l‘utilisateur de faire
des tests par rapport au SLA).
• Pas de perte de temps liée à de nombreuses permutations.
• Mesuré pendant le fonctionnement normal du réseau – lorsque la SLA doit être respectée. Ajoute des mesures de variation de retard de
trames (gigue)
• N‘effectue pas les tests dangereux qui existaient dans le test RFC2544, conçus pour saturer l‘équipement (ou le réseau) sous test.
• Ne teste pas le réseau comme s’il était un simple appareil.
• La séquence de test automatisée NetSAM de l‘UniPRO MGig1 améliore encore l‘efficacité du test de configuration et des tests de
performance du test Y.1564.
7. Conclusion:
Le test Y.1564 offre une méthodologie de test plus rapide, plus réaliste et plus pratique que le test RFC 2544 pour l‘activation de services
Ethernet.
IDEAL Industries Networks met en œuvre le test Y.1564 dans le testeur de trafic Ethernet UniPRO MGig1, grâce à son option NetSAM
(Network Service Activation Method). Ceci permet de combiner le test Y.1564, avec une méthodologie spécifique et les outils d‘IDEAL
pour une résolution rapide des problèmes chronophages de diagnostic d’Ethernet et de la configuration des services qui font gaspiller des
milliers d’heures de travail chaque année avant même que le test puisse démarrer.
8. Glossaire des abréviations et des sigles
relatifs au test Y.1564
MAC
Media Access Control (commande d‘accès au support physique)
ATM
Asynchronous Transfer Mode (mode de transfert asynchrone)
MP
CBS
CE
CF
Availability (disponibilité)
Committed Burst Size (taille garantie d‘une rafale)
Customer Edge (Accès client)
Coupling Flag (fanion de couplage)
CIR
Committed Information Rate (débit de transmission garanti)
CM
Colour Mode (Mode Couleur)
CoS
Class of Service (classe de service)
DST
EBS
Destination CE (accès client de destination)
Excess Burst Size (taille en excès d‘une rafale)
EIR
Excess Information Rate (débit de transmission en excès)
EL
Exchange Link (liaison d‘échange)
EMIX
Ethernet Mix
ENNI
External Network-to-Network Interface (interface externe réseau-réseau)
ETH
Ethernet MAC layer network (couche MAC, réseau Ethernet)
ETY
Ethernet physical layer network (couche physique, réseau Ethernet)
EVC
Ethernet Virtual Connection (connexion virtuelle Ethernet)
FCS
Frame Check Sequence (séquence de contrôle de trame)
FDV
FL
Frame Delay Variation (variation de retard de trames)
FLR
Frame Loss (perte de trame)
Frame Loss Ratio (pourcentage de perte de trames)
FRE
Frame Reference Event (événement de référence pour les trames)
FTD
Frame Transfer Delay (délai de transfert de trames)
GPS
Global Positioning System (système de localisation mondial)
IMIX
IP
ANY15640513V1.0-FR
IR
Measurement Point (point de mesure)
MPLS
MultiProtocol Label Switching (commutation multiprotocole avec étiquette)
MTU
Maximum Transmission Unit (unité de transfert maximale)
NID
Network Interface Device (dispositif d‘interface du réseau)
NNI
Network to Network Interface (interface réseau-
réseau)
NS
Network Section (section du réseau)
NSE
Network Section Ensemble (ensemble des sections du réseau)
OAM
Operation, Administration and Maintenance (opération, administration et maintenance)
OTN
Optical Transport Network (réseau de transport optique)
PDH
PE
QoS
Plesiochronous Digital Hierarchy (hiérarchie numérique plésiochrone)
Provider Edge (routeur fournisseur d‘accès)
Quality of Service (qualité de service)
SAC
Service Acceptance Criteria (critères d’acceptation de service)
SDH
Synchronous Digital Hierarchy (hiérarchie numérique synchrone)
SLA
Service Level Agreement (contrat de niveau de service)
SRC
Source CE (routeur client source)
TCP
Transmission Control Protocol (protocole de contrôle de transmission)
ToD
Time of Day (heure du jour)
UDP
User Datagram Protocol (protocole datagramme d‘utilisateur)
ULR
Utilized Line Rate (débit de la ligne utilisée)
Internet Mix (Internet MIX)
UNI
Internet Protocol (Protocole Internet)
UNI-C
UNI – Customer (UNI – Client)
Information Rate (débit de transmission)
UNI-N
UNI – Network (UNI – Réseau)
VLAN
Virtual LAN (LAN virtuel)
LACP
Link Aggregation Control Protocol (protocole d‘agrégation de liens)
LAN
Local Area Network (réseau local)
IDEAL INDUSTRIES SAS
ZA Burospace - Bâtiment 7, Route de Gisy, 91571 BIEVRES Cedex, France
Standard : +33 (0)1 69 35 54 70 | E-mail : [email protected]
Les spécifications peuvent être modifiées sans préavis. Sauf erreur ou omission.
AVAIL
User Network Interface (interface utilisateur réseau)
idealnwd.fr

Documents pareils

UniPRO MGig1 Whitepaper Enterprise FR

UniPRO MGig1 Whitepaper Enterprise FR • BER (Taux d‘erreur bits) • Pourcentage de perte de trames Vous pouvez même effectuer d’autres tests pour étudier les performances de vos services sur une période d’environ 24 heures. Maintenant, ...

Plus en détail