Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Comprendre les files d’attente de sortie virtuelles

Cette section décrit l’architecture de la file d’attente de sortie virtuelle (VOQ).

Reportez-vous à l’Explorateur de fonctionnalités pour obtenir des informations sur la prise en charge de la plate-forme et de la version pour les VOQ.

Introduction aux files d’attente de sortie virtuelles

Cette rubrique présente l’architecture VOQ et son fonctionnement avec des composants configurables de classe de service (CoS).

Sur les plates-formes prises en charge, les fonctionnalités CoS matérielles Junos utilisent des files d’attente de sortie virtuelles à l’entrée pour mettre en mémoire tampon et mettre en file d’attente le trafic pour chaque file d’attente de sortie de sortie. La plupart des plates-formes prennent en charge jusqu’à huit files d’attente de sortie par port de sortie (interface physique).

La méthode traditionnelle de transfert du trafic via un routeur consiste à mettre en mémoire tampon le trafic entrant dans les files d’attente d’entrée sur les interfaces d’entrée, à transférer le trafic à travers la fabric vers les files d’attente de sortie sur les interfaces de sortie, puis à mettre à nouveau le trafic en mémoire tampon sur les files d’attente de sortie avant de transmettre le trafic au saut suivant. La méthode traditionnelle de mise en file d’attente des paquets sur un port d’entrée consiste à stocker le trafic destiné à différents ports de sortie dans la même file d’attente d’entrée (tampon).

En cas d’encombrement, le routeur peut laisser tomber des paquets sur le port de sortie, de sorte qu’il peut consacrer des ressources à transporter le trafic à travers la fabric de commutation vers un port de sortie, pour ensuite abandonner ce trafic au lieu de le transférer. Et comme les files d’attente d’entrée stockent le trafic destiné à différents ports de sortie, la congestion sur un port de sortie peut affecter le trafic sur un autre port de sortie, une condition appelée blocage en tête de ligne (HOLB).

L’architecture VOQ adopte une approche différente :

  • Au lieu de séparer les mémoires tampon physiques pour les files d’attente d’entrée et de sortie, l’équipement Junos utilise les mémoires tampon physiques sur le pipeline d’entrée de chaque moteur de transfert de paquets (PFE) pour stocker le trafic de chaque port de sortie. Chaque file d’attente de sortie sur un port de sortie dispose d’un espace de stockage tampon sur chaque pipeline d’entrée sur tous les PFE du routeur. Le mappage de l’espace de stockage du pipeline d’entrée aux files d’attente de sortie est de 1 pour 1, de sorte que chaque file d’attente de sortie reçoit de l’espace tampon sur chaque pipeline d’entrée.

  • Au lieu d’une file d’attente d’entrée contenant le trafic destiné à plusieurs files d’attente de sortie différentes (un mappage un à plusieurs), chaque file d’attente de sortie dispose d’un VOQ dédié composé des tampons d’entrée sur chaque PFE qui sont dédiés à cette file d’attente de sortie (un mappage 1 à 1). Cette architecture empêche la communication entre deux ports d’affecter un autre port.

  • Au lieu de stocker le trafic dans une file d’attente de sortie physique jusqu’à ce qu’il puisse être transféré, un VOQ ne transmet pas le trafic du port entrant à travers la fabric vers le port de sortie tant que celui-ci ne dispose pas des ressources nécessaires pour transférer le trafic. Un VOQ est un ensemble de files d’attente d’entrée (tampons) qui reçoivent et stockent le trafic destiné à une file d’attente de sortie sur un port de sortie. Chaque file d’attente de sortie sur chaque port de sortie possède son propre VOQ dédié, qui se compose de toutes les files d’attente d’entrée qui envoient du trafic à cette file d’attente de sortie.

Un VOQ est un ensemble de files d’attente d’entrée (tampons) qui reçoivent et stockent le trafic destiné à une file d’attente de sortie sur un port de sortie. Chaque file d’attente de sortie sur chaque port de sortie possède son propre VOQ dédié, qui se compose de toutes les files d’attente d’entrée qui envoient du trafic à cette file d’attente de sortie.

VOQ Architecture

Un VOQ représente la mise en mémoire tampon d’entrée pour une file d’attente de sortie particulière. Chacun des PFE utilise une file d’attente de sortie spécifique. Le trafic stocké sur les PFE comprend le trafic destiné à une file d’attente de sortie particulière sur un port, et est le VOQ de cette file d’attente de sortie.

Un VOQ est distribué sur tous les PFE du routeur qui envoient activement du trafic vers cette file d’attente de sortie. Chaque file d’attente de sortie correspond à la somme du nombre total de tampons attribués à cette file d’attente de sortie sur l’ensemble des PFE du routeur. Ainsi, la file d’attente de sortie elle-même est virtuelle et non physique, bien qu’elle soit composée de files d’attente d’entrée physiques.

Mise en mémoire tampon du temps d’aller-retour

Bien qu’il n’y ait pas de mise en mémoire tampon de file d’attente de sortie pendant les périodes d’encombrement (pas de stockage à long terme), il existe une petite mémoire tampon de file d’attente de sortie physique sur les cartes de ligne de sortie pour tenir compte du temps d’aller-retour nécessaire au trafic pour traverser la fabric d’entrée en sortie. Le temps d’aller-retour correspond au temps qu’il faut au port entrant pour demander des ressources de port de sortie, recevoir une subvention du port de sortie pour les ressources et transmettre les données à travers la fabric.

Cela signifie que si un paquet n’est pas abandonné à l’entrée du routeur et que le routeur transfère le paquet à travers la fabric vers le port de sortie, le paquet ne sera pas abandonné et sera transféré au saut suivant. Toutes les pertes de paquets ont lieu dans le pipeline d’entrée.

Avantages de VOQ

L’architecture VOQ offre deux avantages majeurs :

Éliminez les blocages en tête de ligne

L’architecture VOQ élimine les problèmes de blocage en tête de ligne (HOLB). Sur les équipements non-VOQ, HOLB se produit lorsque la congestion au niveau d’un port de sortie affecte un autre port de sortie qui n’est pas encombré. HOLB se produit lorsque le port encombré et le port non encombré partagent la même file d’attente d’entrée sur une interface entrante.

L’architecture VOQ évite le HOLB en créant une file d’attente virtuelle dédiée différente pour chaque file d’attente de sortie sur chaque interface.

Étant donné que différentes files d’attente de sortie ne partagent pas la même file d’attente d’entrée, une file d’attente de sortie encombrée sur un port ne peut pas affecter une file d’attente de sortie sur un autre port. Pour la même raison, une file d’attente de sortie encombrée sur un port ne peut pas affecter une autre file d’attente de sortie sur le même port : chaque file d’attente de sortie possède son propre VOQ dédié composé de files d’attente d’entrée d’interface entrante.

L’exécution d’une mise en mémoire tampon de file d’attente au niveau de l’interface entrante garantit que le routeur envoie le trafic à travers la fabric vers une file d’attente de sortie uniquement si cette file d’attente de sortie est prête à recevoir ce trafic. Si la file d’attente de sortie n’est pas prête à recevoir du trafic, celui-ci reste tamponné au niveau de l’interface entrante.

Augmentation de l’efficacité et de l’utilisation des structures

L’architecture traditionnelle de file d’attente de sortie présente certaines inefficacités inhérentes que l’architecture VOQ corrige.

  • Mise en mémoire tampon des paquets : l’architecture traditionnelle de mise en file d’attente met chaque paquet en mémoire tampon deux fois dans le stockage DRAM à long terme, une fois au niveau de l’interface d’entrée et une fois au niveau de l’interface de sortie. L’architecture VOQ ne met en mémoire tampon chaque paquet qu’une seule fois dans le stockage DRAM à long terme, au niveau de l’interface d’entrée. La fabric est suffisamment rapide pour être transparente vis-à-vis des stratégies CoS de sortie. Ainsi, au lieu de mettre les paquets en mémoire tampon une deuxième fois à l’interface de sortie, le routeur peut transférer le trafic à un débit qui ne nécessite pas de tampons de sortie profonds, sans affecter les stratégies CoS de sortie configurées (planification).

  • Consommation des ressources : l’architecture de mise en file d’attente traditionnelle envoie les paquets de la file d’attente d’entrée de l’interface entrante (tampon), à travers la fabric, vers la file d’attente de sortie de l’interface de sortie (tampon). Au niveau de l’interface de sortie, des paquets peuvent être abandonnés, même si le routeur a dépensé des ressources pour transporter les paquets à travers la fabric et les stocker dans la file d’attente de sortie. L’architecture VOQ n’envoie pas de paquets à travers la fabric vers l’interface de sortie tant que celle-ci n’est pas prête à transmettre le trafic. Cela augmente l’utilisation du système, car aucune ressource n’est gaspillée pour transporter et stocker les paquets qui sont abandonnés ultérieurement.

VOQ change-t-il la façon dont je configure CoS ?

Aucune modification n’a été apportée à la configuration des fonctionnalités CoS. La figure 1 montre les composants CoS de Junoś et la sélection VOQ, illustrant l’ordre dans lequel ils interagissent.

Figure 1 : flux de paquets traversant des composants CoS avec VOQ Packet flow diagram for QoS in network device showing ingress and egress paths: classification, policing, queuing, scheduling, and marking.

Le processus de sélection VOQ est effectué par les ASIC qui utilisent le classificateur d’agrégation de comportement (BA) ou le classificateur multichamp, en fonction de votre configuration, pour sélectionner l’un des huit VOQ possibles pour un port de sortie. Les VOQ sur les données de la mémoire tampon d’entrée pour le port de sortie en fonction de votre configuration CoS.

Bien que les fonctionnalités CoS ne changent pas, il existe quelques différences opérationnelles avec VOQ :

  • La détection précoce aléatoire (ROUGE) se produit sur les PFE entrants. Avec les équipements qui prennent uniquement en charge la mise en file d’attente de sortie de sortie, des baisses de congestion RED et associées se produisent lors de la sortie. L’exécution du RED à l’entrée permet d’économiser des ressources précieuses et d’augmenter les performances du routeur.

    Bien que le ROUGE se produise à l’entrée avec VOQ, il n’y a aucun changement dans la façon dont vous configurez les profils d’abandon.

  • La planification des fabrics est contrôlée par des messages de contrôle des requêtes et des octrois. Les paquets sont mis en mémoire tampon dans les VOQ entrants jusqu’à ce que le PFE sortant envoie un message d’octroi au PFE entrant indiquant qu’il est prêt à les recevoir. Pour plus d’informations sur la planification des fabrics, consultez Planification des fabrics et files d’attente de sortie virtuelles sur les routeurs PTX Series.

Comprendre le fonctionnement des VOQ

Cette rubrique décrit le fonctionnement du processus VOQ sur les équipements Junos pris en charge.

Comprendre les composantes du processus VOQ

La figure 2 montre les composants matériels de l’équipement Junos impliqués dans le processus VOQ.

Figure 2 : composants VOQ sur un équipement Network architecture diagram showing Router A and Router B connected via fabric, detailing FPCs and PICs. Junos

Ces composants remplissent les fonctions suivantes :

  • Physical Interface Card (PIC): assure la connexion physique à différents types de supports réseau, en recevant les paquets entrants du réseau et en transmettant les paquets sortants au réseau.

  • Flexible PIC Concentrator (FPC): connecte les PIC qui y sont installés aux autres composants du routeur de transport de paquets.

  • Packet Forwarding Engine (PFE)—Fournit une commutation de paquets de couche 2 et 3, ainsi qu’une encapsulation et une désencapsulation. Il assure également les fonctions de transfert et de recherche de routage, gère la mise en mémoire tampon des paquets et la mise en file d’attente des notifications. Le PFE reçoit les paquets entrants des PIC installés sur le FPC et les transfère à travers les plans de périphérique vers le port de destination approprié.

  • Output queues—(Non illustré) Ces files d’attente de sortie sont contrôlées par la configuration du planificateur CoS, qui définit la manière de gérer le trafic dans les files d’attente de sortie pour la transmission sur la fabric de l’appareil. En outre, ces files d’attente de sortie contrôlent le moment où les paquets sont envoyés des VOQ à l’entrée vers les files d’attente de sortie de sortie.

Comprendre le processus VOQ

Les files d’attente de sortie sont contrôlées par la configuration du planificateur CoS, qui définit la manière de gérer le trafic dans les files d’attente de sortie pour la transmission sur la fabric. En outre, ces files d’attente de sortie contrôlent le moment où les paquets sont envoyés des VOQ à l’entrée vers les files d’attente de sortie de sortie.

Pour chaque file d’attente de sortie de sortie, l’architecture VOQ fournit des files d’attente virtuelles sur chaque PFE entrant. Ces files d’attente sont dites virtuelles, car elles n’existent physiquement sur le PFE d’entrée que lorsque des paquets sont effectivement mis en file d’attente sur la carte de ligne.

La figure 3 montre trois PFE entrants : PFE0, PFE1 et PFE2. Chaque PFE entrant fournit jusqu’à huit VOQ (PFE.e0.q0n à PFE.e0.q7n) pour le seul port de sortie 0. Le PFE sortant (PFE)n distribue la bande passante à chaque VOQ entrant selon un tourniquet complet.

Par exemple, le VOQ e0.q0 du PFE n sortant dispose de 10 Gbit/s de bande passante. Le PFE 0 a une charge offerte de 10 Gbit/s pour e0.qo, le PFE1 et le PFE2 ont une charge offerte de 1 Gbit/s pour e0.q0. Le résultat est que PFE1 et PFE2 obtiendront 100 % de leur trafic, tandis que PFE0 n’obtiendra que 80 % de son trafic.

Figure 3 : files d’attente de sortie virtuelles Virtual Output Queues

La figure 4 illustre un exemple de corrélation entre les files d’attente de sortie sortantes et les files d’attente de sortie virtuelles entrantes. Du côté de la sortie, le PFE-X dispose d’un port 100 Gbit/s, qui est configuré avec quatre classes de transfert différentes. Par conséquent, le port de sortie de sortie de 100 Gbit/s du PFE-X utilise quatre des huit files d’attente de sortie disponibles (comme indiqué par les quatre files d’attente surlignées par des lignes pointillées orange sur le PFE-X), et l’architecture VOQ fournit quatre files d’attente de sortie virtuelles correspondantes sur chaque PFE entrant (comme indiqué par les quatre files d’attente virtuelles sur le PFE-A et le PFE-B surlignées par des lignes pointillées orange). Les files d’attente virtuelles sur PFE-A et PFE-B n’existent que lorsqu’il y a du trafic à envoyer.

Figure 4 : Exemple de VOQ Network device architecture showing data packet flow through PFEs and fabric switch, emphasizing ingress and egress queues, with a 100 Gbps port highlighted.

Planification de la fabric et VOQ

Cette rubrique décrit le processus de planification de la structure sur les équipements Junos qui utilisent des VOQ.

Les VOQ utilisent les messages de requête et d’octroi pour contrôler la planification de la fabric sur les équipements Junos. Les moteurs de transfert de paquets sortants contrôlent la livraison des données à partir des VOQ entrants à l’aide de messages de demande et d’octroi. Les files d’attente virtuelles mettent les paquets en mémoire tampon à l’entrée jusqu’à ce que le moteur de transfert de paquets de sortie confirme qu’il est prêt à recevoir les paquets en envoyant un message d’octroi au moteur de transfert de paquets entrant.

Figure 5 : Planification de la fabric et processus Flow of data packets through a network switch, showing steps of packet buffer, request, grant, data cell transfer, and assembly. VOQs

La Figure 5 illustre le processus de planification de la fabric utilisé par les équipements Junos avec VOQ. Lorsque les paquets arrivent sur un port d’entrée, le pipeline d’entrée stocke le paquet dans la file d’attente d’entrée associée à la file d’attente de sortie de destination. Le routeur prend la décision de mise en mémoire tampon après avoir effectué la recherche de paquets. Si le paquet appartient à une classe de transfert pour laquelle le seuil de trafic maximal a été dépassé, il se peut qu’il ne soit pas mis en mémoire tampon et qu’il soit abandonné. Le processus de planification fonctionne comme suit :

  1. Un moteur de transfert de paquets entrant reçoit un paquet et le met en mémoire tampon dans des files d’attente virtuelles, puis regroupe le paquet avec d’autres paquets destinés à la même interface de sortie et à la même file d’attente de sortie de données.

  2. Le moteur de transfert de paquets de la carte de ligne entrante envoie une requête contenant une référence au groupe de paquets sur la fabric au moteur de transfert de paquets sortant.

  3. Lorsqu’il y a de la bande passante de sortie disponible, le planificateur d’octroi de carte de ligne de sortie répond en envoyant une allocation de bande passante au moteur de transfert de paquets de carte de ligne entrante. .

  4. Lorsque le moteur de transfert de paquets de la carte de ligne entrante reçoit l’autorisation du moteur de transfert de paquets de la carte de ligne de sortie, le moteur de transfert de paquets entrant segmente le groupe de paquets et envoie tous les éléments sur la fabric au moteur de transfert de paquets de sortie.

  5. Le moteur de transfert de paquets de sortie reçoit les morceaux, les réassemble dans le groupe de paquets et met les paquets individuels en file d’attente dans une file d’attente de sortie de données correspondant au VOQ.

Les paquets entrants restent dans le VOQ sur les files d’attente d’entrée du port d’entrée jusqu’à ce que la file d’attente de sortie soit prête à accepter et à transférer plus de trafic.

Dans la plupart des cas, la fabric est suffisamment rapide pour être transparente vis-à-vis des stratégies CoS de sortie. Par conséquent, le processus de transfert du trafic du pipeline entrant vers les ports de sortie à travers la fabric n’affecte pas les stratégies CoS configurées pour le trafic. La fabric n’affecte la stratégie CoS qu’en cas de défaillance de la fabric ou de problème d’équité des ports.

Lorsqu’un paquet entre et sort du même moteur de transfert de paquets (commutation locale), il ne traverse pas la fabric. Toutefois, le routeur utilise le même mécanisme de requête et d’octroi pour recevoir la bande passante de sortie que les paquets qui traversent la fabric, de sorte que les paquets acheminés localement et les paquets qui arrivent à un moteur de transfert de paquets après avoir traversé la fabric sont traités équitablement lorsque le trafic est en concurrence pour la même file d’attente de sortie.

Comprendre l’équité du moteur de transfert de paquets et le processus VOQ

Cette rubrique décrit le schéma d’équité du moteur de transfert de paquets utilisé avec VOQ sur les équipements Junos.

L’équité du moteur de transfert de paquets signifie que tous les moteurs de transfert de paquets sont traités de la même manière du point de vue de la sortie. Si plusieurs moteurs de transfert de paquets sortants doivent transmettre des données à partir du même VOQ, les moteurs de transfert de paquets sont gérés selon la méthode Round Robin. La maintenance des VOQ ne dépend pas de la charge présente au niveau de chacun des moteurs de transfert de paquets source.

La figure 6 illustre le schéma d’équité du moteur de transfert de paquets utilisé avec VOQ dans un exemple simple avec trois moteurs de transfert de paquets. Le PFE-A entrant dispose d’un flux unique de données de 10 Gbit/s destiné à VOQx sur PFE-C. Le PFE-B dispose d’un flux unique de données de 100 Gbit/s également destiné à VOQx sur PFE-C. Sur le modèle PFE-C,VOQ x est desservi par une interface de 100 Gbit/s, qui est la seule VOQ active sur cette interface.

Figure 6 : Équité du moteur de transfert de paquets avec le processus Network diagram showing data flow: PFE-A receives 10 Gbps, PFE-B 100 Gbps; both send data through fabric to PFE-C, which outputs 100 Gbps. VOQ

Sur la figure 6, nous avons un total de 110 Gbit/s de données sources destinées à une interface de sortie de 100 Gbit/s. Par conséquent, nous devons perdre 10 Gbit/s de données. Où la baisse se produit-elle et comment affecte-t-elle le trafic PFE-A par rapport au PFE-B ?

Étant donné que le PFE-A et le PFE-B sont pris en charge selon un tourniquet par PFE-C de sortie, la totalité des 10 Gbit/s de trafic du PFE-A parvient au port de sortie de sortie. Cependant, 10 Gbit/s de données sont supprimés sur le PFE-B, ce qui ne permet d’envoyer que 90 Gbit/s de données du PFE-B au PFE-C. Ainsi, le flux de 10 Gbit/s a une baisse de 0 % et le flux de 100 Gbit/s n’a qu’une baisse de 10 %.

Cependant, si le PFE-A et le PFE-B fournissaient chacun 100 Gbit/s de données, ils perdraient chacun 50 Gbit/s de données. En effet, le PFE-C de sortie contrôle en fait le taux de maintenance et de vidange sur les files d’attente virtuelles entrantes à l’aide de l’algorithme Round-Robin. Avec l’algorithme Round-Robin, les sources à bande passante élevée sont toujours pénalisées lorsque plusieurs sources sont présentes. L’algorithme tente de rendre les deux sources égales en bande passante ; Cependant, comme il ne peut pas augmenter la bande passante de la source la plus lente, il réduit la bande passante de la source la plus élevée. L’algorithme Round Robin poursuit cette séquence jusqu’à ce que les sources aient une bande passante de sortie égale.

Chaque moteur de transfert de paquets entrant fournit jusqu’à huit VOQ pour un seul port de sortie. Le moteur de transfert de paquets sortant distribue la bande passante à chaque VOQ entrant. par conséquent, les VOQ reçoivent un traitement égal, quelle que soit la charge présentée. Le taux de vidange d’une file d’attente est le taux auquel une file d’attente se vide. Le moteur de transfert de paquets sortant répartit sa bande passante pour chaque file d’attente de sortie de manière égale entre les moteurs de transfert de paquets entrants. Ainsi, le taux d’évacuation de chaque moteur de transfert de paquets entrant = Taux d’évacuation de la file d’attente de sortie/Nombre de moteurs de transfert de paquets entrants.

Gestion de la congestion

Il existe deux principaux types de congestion qui peuvent se produire :

  • Encombrement entrant : se produit lorsque le moteur de transfert de paquets entrant a une charge supérieure à celle que le moteur de sortie peut gérer. Le cas d’encombrement entrant est très similaire à celui d’un routeur traditionnel dans la mesure où les files d’attente s’accumulent et une fois que les files d’attente ont franchi le seuil configuré, les paquets sont abandonnés.

  • Encombrement de sortie : se produit lorsque la somme de tous les moteurs de transfert de paquets entrants dépasse la capacité du routeur de sortie. Tous les abandons sont effectués sur les moteurs de transfert de paquets entrants. Toutefois, la taille de la file d’attente entrante est atténuée par le taux de vidange de la file d’attente (vitesse à laquelle le moteur de transfert de paquets de sortie demande des paquets). Ce taux est essentiellement déterminé par la vitesse à laquelle les requêtes sont converties en octroyages par le moteur de transfert de paquets sortant. Le moteur de transfert de paquets sortant gère la conversion de la demande d’octroi selon la méthode Round Robin. elle ne dépend pas de la charge proposée par les moteurs de transfert de paquets entrants. Par exemple, si le débit du moteur de transfert de paquets entrant est la moitié de ce qu’il attend (comme c’est le cas lorsque 2 moteurs de transfert de paquets entrants présentent une charge surabonnée pour la file d’attente de sortie cible), le moteur de transfert de paquets entrant réduit la taille de cette file d’attente à la moitié de sa taille d’origine (lorsqu’il obtenait son taux de vidange complet).

Surveillance de la profondeur de file d’attente VOQ

La surveillance de la profondeur de file d’attente VOQ, ou surveillance de la latence, mesure l’occupation maximale de la file d’attente d’un VOQ. Cette fonctionnalité permet de générer des rapports sur la longueur maximale de la file d’attente pour une interface physique donnée pour chaque moteur de transfert de paquets.

Note:

Outre les données relatives à la longueur maximale de la file d’attente, chaque file d’attente gère également les statistiques d’abandon et la longueur moyenne de la file d’attente sur le chemin de données entrantes. En outre, chaque file d’attente conserve des statistiques de transmission de file d’attente sur le chemin de données de sortie.

Dans un scénario de déploiement typique qui utilise une planification à priorité stricte, une file d’attente prioritaire peut priver LOW les files d’attente HIGH prioritaires. Ainsi, les paquets dans ces LOW files d’attente prioritaires peuvent rester plus longtemps que souhaité. Vous pouvez utiliser cette fonctionnalité de surveillance de la profondeur de file d’attente VOQ, ainsi que les statistiques de transmission de file d’attente, pour détecter de telles conditions de blocage.

Note:

Vous ne pouvez activer la surveillance de la profondeur de file d’attente VOQ que sur les interfaces WAN de transit.

Pour activer la surveillance de la profondeur de file d’attente VOQ sur une interface, vous devez d’abord créer un profil de surveillance, puis attacher ce profil à l’interface. Si vous attachez un profil de surveillance à une interface Ethernet agrégée (ae-), chaque interface membre possède son propre moniteur VOQ matériel, sauf si vous appliquez également l’option shared au profil de surveillance attaché à l’interface ae-.

Le profil de surveillance signale la profondeur de la file d’attente de sortie virtuelle (VOQ) individuellement sur chaque interface. Toutefois, étant donné le nombre limité d’ID de profil de surveillance matérielle sur un système, ce processus peut rapidement consommer le nombre maximal d’ID de profil de surveillance matérielle pris en charge sur les grands systèmes. Par défaut, un profil de surveillance que vous affectez à une interface ae- est répliqué sur tous les membres de l’interface ae. Par conséquent, pour conserver les ID de profil de surveillance, incluez l’option shared au niveau de la [set class-of-service interfaces ae-interface monitoring-profile profile-name] hiérarchie. L’option configurée shared ne crée qu’un seul ID de profil de surveillance à partager sur toutes les interfaces membres. L’option signale également le plus grand pic sur une interface membre comme le pic commun pour l’interface ae-.

Note:

Vous ne pouvez pas activer l’option sur les shared interfaces ae- en mode mixte.

Chaque profil de surveillance se compose d’un ou plusieurs filtres d’exportation. Un filtre d’exportation définit un seuil de pourcentage de longueur de file d’attente maximale pour une ou plusieurs files d’attente sur l’interface physique. Une fois que le seuil de pourcentage de longueur de file d’attente maximale défini est atteint pour n’importe quelle file d’attente du filtre d’exportation, Junos exporte les données de télémétrie VOQ pour toutes les files d’attente du filtre d’exportation.

Note:

Les données de surveillance de la profondeur de file d’attente ne sont transmises que par un canal de télémétrie. En plus de configurer un profil de surveillance (comme indiqué ci-dessous), vous devez souscrire un abonnement régulier aux capteurs pour que les données soient diffusées. Il n’y a pas d’option d’affichage CLI.

Configurer la surveillance de la profondeur de file d’attente VOQ

Configurez la surveillance de la profondeur de file d’attente VOQ pour exporter les données d’utilisation des files d’attente. Vous pouvez utiliser ces données pour surveiller les micro-rafales et également aider à identifier les files d’attente de sortie de transit bloquées. Pour configurer la surveillance de la profondeur de file d’attente VOQ :

  1. Configurez le profil de surveillance.
  2. Attachez le profil de surveillance à une interface.

Pour configurer le profil de surveillance :

  1. Nommez le profil de surveillance. Par exemple:
  2. Nommez un filtre d’exportation pour le profil de montage. Par exemple:
  3. Définissez les files d’attente (0 à 7) qui appartiennent au filtre d’exportation. Par exemple:
  4. (Facultatif) Définissez le seuil et le pourcentage de longueur de file d’attente maximale pour exporter les données de télémétrie VOQ. Le pourcentage par défaut est 0. Par exemple:
  5. (Facultatif) Définissez un ou plusieurs autres filtres d’exportation pour le profil de surveillance. Par exemple:
  6. Validez vos modifications.

Pour attacher le profil de surveillance à une interface :

  1. Attachez le profil de surveillance à une interface. Par exemple:
  2. Validez vos modifications.

Vérifiez votre configuration. Par exemple:

Exécutez ces commandes show pour vérifier votre configuration :

Note:

Comme vous pouvez le voir dans cet exemple, le fait de ne pas définir un peak-queue-length percent pour un filtre d’exportation affecte par défaut le pourcentage à 0 %, comme le montre le filtre ef2 d’exportation. Cet exemple montre différentes files d’attente sur l’interface physique ayant différents seuils de longueur de file d’attente maximale pour l’exportation des données de télémétrie VOQ.