Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Traffic Load Balancer

Présentation de Traffic Load Balancer

Résumé de la prise en charge de l’équilibrage de charge du trafic

Le Tableau 1 récapitule la prise en charge de l’équilibrage de charge du trafic sur les cartes MS-MPC et MS-MIC pour Adaptive Services par rapport à la prise en charge de la carte de services de sécurité MX-SPC3 pour les services nouvelle génération.

Tableau 1 : Résumé de la prise en charge de l’équilibrage de charge du trafic

MS-MPC

MX-SPC3

Version de Junos

< 16.1R6 et 18.2.R1

≥ 16.1R6 et 18.2R1

19.3R2

# max d’instances par châssis

32

2 000 / 32 en mode DSR L2

2,000

# max de services virtuels par instance

32

32

32

# max. d’adresse IP virtuelle par service virtuel

1

1

# max de groupes par instance

32

32

32

# max de services réels (serveurs) par groupe

255

255

255

# max de groupes par service virtuel

1

1

# max de profils de moniteur réseau par groupe

2

2

# maximum de HC par services de sécurité par PIC/NPU en 5 secondes

4,000

1 250 – 19,3 R2

10 000 – 20.1R1

Protocoles de bilan d’état pris en charge

ICMP, TCP, UDP, HTTP, SSL, personnalisé

ICMP, TCP, UDP, HTTP, SSL, TLS Bonjour, personnalisé

Description de l’application Traffic Load Balancer

L’équilibreur de charge de trafic (TLB) est pris en charge sur les routeurs MX Series avec le concentrateur de ports modulaires multiservices (MS-MPC), la carte d’interface modulaire multiservices (MS-MIC) ou la carte de traitement des services MX Sécurité (MX-SPC3) et conjointement avec les cartes de ligne MPC (Modular Port Concentrator) prises en charge sur les routeurs MX Series, comme décrit dans le Tableau 2.

Remarque :

Vous ne pouvez pas exécuter simultanément le NAT déterministe et le TLB.

Tableau 2 : Résumé de la prise en charge de la plate-forme de routeur TLB MX Series

TLB Mode

Couverture de la plate-forme MX

concentrateur de ports modulaires multiservices (MS-MPC)

MX240, MX2480, MX960, MX2008, MX2010, MX2020

Carte de traitement des services de sécurité MX (MX-SPC3)

MX240, MX480, MX960

  • TLB vous permet de répartir le trafic entre plusieurs serveurs.

  • Le TLB utilise un plan de contrôle basé sur MS-MPC et un plan de données à l’aide du moteur de transfert routeur MX Series.

  • TLB utilise une version améliorée du multichemin à coût égal (ECMP). L’ECMP amélioré facilite la distribution des flux entre les groupes de serveurs. Les améliorations apportées à ECMP natif garantissent qu’en cas de défaillance des serveurs, seuls les flux associés à ces serveurs sont affectés, ce qui minimise l’attrition globale des services et des sessions.

  • TLB fournit une surveillance de l’état de santé basée sur les applications pour un maximum de 255 serveurs par groupe, ce qui permet une orientation intelligente du trafic basée sur la vérification de l’état des informations de disponibilité des serveurs. Vous pouvez configurer une interface multiservices agrégée (AMS) pour fournir une redondance individuelle pour les MS-MPC ou la carte MX-SPC3 des services de nouvelle génération utilisée pour la surveillance de l’état des serveurs.

  • Le TLB applique son traitement de distribution de flux au trafic entrant.

  • TLB prend en charge plusieurs instances de routage virtuel pour fournir une meilleure prise en charge des exigences d’équilibrage de charge à grande échelle.

  • TLB prend en charge la traduction statique d’adresse IP virtuelle en adresse IP réelle, et la traduction de port de destination statique pendant l’équilibrage de charge.

Modes de fonctionnement de l’équilibreur de charge de trafic

L’équilibreur de charge de trafic propose trois modes de fonctionnement pour la distribution du trafic sortant et pour la gestion du traitement du trafic de retour.

Le Tableau 3 résume la prise en charge TLB et les cartes sur lesquelles elle est prise en charge.

Tableau 3 : comparaison des cartes TLB et des cartes de service de sécurité

Carte de service de sécurité

MS-MPC

MX-SPC3

Traduire

Oui

Oui

Retour direct transparent de serveur de couche 3

Oui

Oui

Retour direct transparent au serveur de couche 2

Oui

Non pris en charge

Mode transparent Retour direct de serveur de couche 2

Lorsque vous utilisez le mode transparent Retour direct du serveur (DSR) de couche 2 :

  • Le PFE traite les données.

  • L’équilibrage de charge fonctionne en modifiant l’adresse MAC de couche 2 des paquets.

  • Un MS-MPC réalise les sondes de surveillance du réseau.

  • Les serveurs réels doivent être directement accessibles (couche 2) à partir du routeur MX Series.

  • TLB installe une route et tout le trafic sur cette route est équilibré en charge.

  • TLB ne modifie jamais les en-têtes de couche 3 et de niveau supérieur.

La figure 1 illustre la topologie TLB pour un DSR de couche 2 en mode transparent.

Figure 1 : topologie TLB en mode TLB Topology for Transparent Mode transparent

Mode traduit

Le mode traduit offre une plus grande flexibilité que le DSR de couche 2 en mode transparent. Lorsque vous choisissez le mode traduit :

  • Un MS-MPC réalise les sondes de surveillance du réseau.

  • Le PFE effectue un équilibrage de charge sans état :

    • Le trafic de données dirigé vers une adresse IP virtuelle est traduit de l’adresse IP virtuelle en adresse IP réelle de serveur et traduit le port virtuel en port d’écoute de serveur. Le trafic de retour subit la traduction inverse.

    • Le trafic client vers IP virtuel est traduit ; Le trafic est acheminé jusqu’à sa destination.

    • Le trafic serveur-client est capturé à l’aide de filtres implicites et dirigé vers un saut suivant d’équilibrage de charge approprié pour le traitement inverse. Une fois la traduction effectuée, le trafic est renvoyé au client.

    • Deux méthodes d’équilibrage de charge sont disponibles : aléatoire et hachée. La méthode aléatoire est réservée au trafic UDP et fournit une distribution aléatoire quavms. Bien qu’il ne soit pas littéralement aléatoire, ce mode offre une répartition équitable du trafic vers un ensemble de serveurs disponibles. La méthode de hachage fournit une clé de hachage basée sur n’importe quelle combinaison de l’adresse IP source, de l’adresse IP de destination et du protocole.

      Remarque :

      Le traitement en mode traduit n’est disponible que pour le trafic IPv4-IPv4 et IPv6-IPv6.

La figure 2 montre la topologie TLB pour le mode traduit.

Figure 2 : topologie TLB pour le mode TLB Topology for Translated Mode traduit

Mode transparent Retour direct de serveur de couche 3

Mode transparent L’équilibrage de charge DSR de couche 3 distribue les sessions vers des serveurs distants de couche 3. Le trafic est renvoyé directement au client à partir du serveur réel.

Fonctions d’équilibrage de charge du trafic

TLB fournit les fonctions suivantes :

  • TLB distribue toujours les requêtes pour n’importe quel flux. Lorsque vous spécifiez le mode DSR, la réponse retourne directement à la source. Lorsque vous spécifiez le mode traduit, le trafic inverse est dirigé par des filtres implicites sur les interfaces côté serveur.

  • TLB prend en charge l’équilibrage de charge basé sur le hachage ou l’équilibrage de charge aléatoire.

  • TLB vous permet de configurer les serveurs hors ligne afin d’éviter un impact sur les performances qui pourrait être causé par un remaniement de tous les flux existants. Vous pouvez ajouter un serveur à l’état administratif inactif et l’utiliser ultérieurement pour la distribution du trafic en désactivant l’état administratif inactif. La configuration hors ligne des serveurs permet d’éviter l’impact du trafic sur les autres serveurs.

  • Lorsque la vérification de l’état détermine qu’un serveur est en panne, seuls les flux affectés sont remaniés.

  • Lorsqu’un serveur précédemment en panne est remis en service, tous les flux appartenant à ce serveur basés sur le hachage y reviennent, ce qui a un impact sur les performances des flux renvoyés. Pour cette raison, vous pouvez désactiver la réintégration automatique d’un serveur à un groupe actif. Vous pouvez remettre les serveurs en service en donnant la request services traffic-load-balance real-service rejoin commande opérationnelle.

    Remarque :

    Le NAT n’est pas appliqué aux flux distribués.

  • L’application de surveillance des bilans de santé s’exécute sur un MS-MPC/NPU. Cette unité de processeur de réseau (NPU) n’est pas utilisée pour gérer le trafic de données.

  • TLB prend en charge la traduction statique de l’adresse IP virtuelle en adresse IP réelle et la traduction statique du port de destination pendant l’équilibrage de charge.

  • TLB prend en charge plusieurs VRF.

Composants de l’application Traffic Load Balancer

Serveurs et groupes de serveurs

Le TLB permet de configurer des groupes de 255 serveurs maximum (appelés services réels dans les instructions de configuration) pour les utiliser comme destinations alternatives pour la distribution de sessions sans état. Tous les serveurs utilisés dans les groupes de serveurs doivent être configurés individuellement avant d’être affectés à des groupes. L’équilibrage de charge utilise le hachage ou la randomisation pour la distribution des sessions. Les utilisateurs peuvent ajouter et supprimer des serveurs vers et depuis la table de distribution de serveur TLB et peuvent également modifier le statut administratif d’un serveur.

Remarque :

TLB utilise l’API de prochain saut de distribution de session pour mettre à jour la table de distribution du serveur et récupérer les statistiques. Les applications n’ont pas de contrôle direct sur la gestion des tables de distribution du serveur. Ils ne peuvent influencer les modifications qu’indirectement via les services d’ajout et de suppression de l’API TLB.

Surveillance de l’état des serveurs : vérification de l’état unique et double vérification de l’état

TLB prend en charge TCP, HTTP, SSL Hello, TLS Hello et des sondes de contrôle d’état personnalisées pour surveiller l’état des serveurs d’un groupe. Vous pouvez utiliser un seul type de sonde pour un groupe de serveurs ou une configuration de vérification d’état double qui inclut deux types de sondes. La fonction configurable de surveillance de l’intégrité réside sur un MX-SPC3 ou un MS-MPC. Par défaut, les demandes de sonde sont envoyées toutes les 5 secondes. De plus, par défaut, un serveur réel est déclaré hors service seulement après cinq échecs consécutifs de sonde et déclaré opérationnel seulement après cinq résultats consécutifs de sonde.

Utilisez une sonde de bilan d’état personnalisée pour spécifier les éléments suivants :

  • Chaîne attendue dans la réponse de la sonde

  • Chaîne envoyée avec la sonde

  • État du serveur à attribuer lorsque la sonde expire (active ou arrêtée)

  • État du serveur à attribuer lorsque la réponse attendue à la sonde est reçue (active ou désactivée)

  • Protocole — UDP ou TCP

Le TLB assure l’adhérence des applications, ce qui signifie que les pannes ou les modifications du serveur n’affectent pas les flux de trafic vers d’autres serveurs actifs. La modification de l’état administratif d’un serveur de haut en bas n’a pas d’impact sur les flux actifs vers les serveurs restants dans la table de distribution du serveur. L’ajout ou la suppression d’un serveur d’un groupe a un impact sur le trafic pendant une durée qui dépend de votre configuration de l’intervalle et des paramètres de nouvelle tentative dans le profil de surveillance.

Le TLB fournit deux niveaux de surveillance de l’état des serveurs :

  • Vérification d’état unique : un type de sonde est attaché à un groupe de serveurs au moyen de l’instruction network-monitoring-profile de configuration.

  • TLB Dual Health Check (TLB-DHC) : deux types de sondes sont associés à un groupe de serveurs au moyen de l’instruction network-monitoring-profile de configuration. L’état d’un serveur est déclaré en fonction du résultat de deux sondes de vérification de l’état. Les utilisateurs peuvent configurer jusqu’à deux profils de vérification de l’état par groupe de serveurs. Si un groupe de serveurs est configuré pour une double vérification de l’état, un service réel est déclaré actif uniquement lorsque les deux sondes de vérification de l’état sont simultanément actives ; sinon, un service réel est déclaré DOWN.

Remarque :

Les restrictions suivantes s’appliquent aux interfaces AMS utilisées pour la surveillance de l’état des serveurs :

  • Une interface AMS configurée sous une instance TLB utilise ses interfaces membres configurées exclusivement pour la vérification de l’état de plusieurs serveurs réels configurés.

  • Les interfaces membres utilisent l’unité 0 pour les cas VRF uniques, mais peuvent utiliser des unités autres que 1 pour plusieurs cas VRF.

  • TLB utilise l’adresse IP configurée pour les interfaces membres AMS comme adresse IP source pour les vérifications de l’état.

  • Les interfaces membres doivent se trouver dans la même instance de routage que l’interface utilisée pour atteindre des serveurs réels. Ceci est obligatoire pour les procédures de vérification de l’état des serveurs TLB.

À partir de la version 24.2R1 de Junos OS, lorsque TLS et SSL sont configurés dans le même groupe, le mécanisme OR est utilisé à la place de AND pour déterminer l’état du serveur réel. C’est-à-dire que le serveur réel est marqué comme UP si l’une des sondes fonctionne. Auparavant, le vrai serveur n’était marqué que si les deux sondes réussissaient.

Lorsque la version de sonde SSL est fournie, elle sonde avec cette version. Lorsque la version SSL n’est pas spécifiée, le comportement passe de la version v3 à la v2. La sonde commence par SSLv3. Si la sonde SSLv3 échoue, le système recherche SSLv2. Auparavant, lorsque l’attribut version n’était pas fourni explicitement, l’analyse était effectuée avec la version par défaut, v3.

Remarque :

Cette amélioration du comportement de vérification de l’état s’applique uniquement lorsque les sondes TLS et SSL sont configurées dans le même groupe de vérification de l’état.

La sortie de l’instance <inst> des statistiques de répartition de la charge du trafic des services show services est modifiée.

user@host# show services traffic-load-balance statistics instance <inst-name>
Remarque :

La version de la sonde SSL-hello est déplacée sous les statistiques du serveur réel à partir du service virtuel lorsque la version SSL n’est pas spécifiée sous le profil de vérification de l’état.

Services virtuels

Le service virtuel fournit une adresse IP virtuelle (VIP) associée au groupe de serveurs vers lequel le trafic est dirigé, tel que déterminé par la distribution de session basée sur le hachage ou aléatoire et la surveillance de l’état du serveur. Dans le cas de DSR L2 et L3 DSR, l’adresse spéciale 0.0.0.0 entraîne un équilibrage de charge de tout le trafic circulant vers l’instance de transfert.

La configuration du service virtuel comprend :

  • Mode : indique comment le trafic est traité (traduit ou transparent).

  • Groupe de serveurs sur lequel les sessions sont distribuées.

  • La méthode d’équilibrage de charge.

  • Instance de routage et métrique de routage.

Bonne pratique :

Bien que vous puissiez affecter une adresse virtuelle 0.0.0.0 afin d’utiliser le routage par défaut, nous vous recommandons d’utiliser une adresse virtuelle qui peut être affectée à une instance de routage configurée spécifiquement pour TLB.

Limites de configuration de Traffic Load Balancer

Les limites de configuration de Traffic Load Balancer sont décrites dans le Tableau 4.

Tableau 4 : limites de configuration TLB

Composant de configuration

Limite de configuration

Nombre maximal d’instances

À partir de Junos OS version 16.1R6 et Junos OS version 18.2R1, l’application TLB prend en charge 2 000 instances TLB pour les services virtuels qui utilisent le mode direct-server-return ou le mode traduit. Dans les versions antérieures, le nombre maximal d’instances est de 32.

Si plusieurs services virtuels utilisent le même groupe de serveurs, tous ces services virtuels doivent utiliser la même méthode d’équilibrage de charge pour prendre en charge 2000 instances TLB.

Pour les services virtuels qui utilisent le mode layer2-direct-server-return, TLB ne prend en charge que 32 instances TLB. Pour exécuter la même fonction que le mode layer2-direct-server-return et prendre en charge 2000 instances TLB, vous pouvez utiliser le mode direct-server-return et utiliser un filtre de service avec l’action skip.

Nombre maximal de serveurs par groupe

255

Nombre maximal de services virtuels par service PIC

32

Nombre maximal de vérifications de l’état par PIC de service par service dans un intervalle de 5 secondes

Pour les cartes de services MS-MPC : 2000

Pour le mode Services Next Gen et les cartes de services MX-SPC3 : 1250

Nombre maximal de groupes par service virtuel

1

Nombre maximal d’adresses IP virtuelles par service virtuel

1

Protocoles de vérification de l’état pris en charge

ICMP, TCP, HTTP, SSL, TLS-Hello, personnalisé

Remarque :

La vérification de l’état ICMP n’est prise en charge que sur les cartes de services MS-MPC.

À partir de la version 22.4R1 de Junos OS, TLB est amélioré pour prendre en charge le type de vérification de l’état TLS-Hello. Pour TLS-Hello sur TCP, les vérifications de l’état TLS v1.2 et v1.3 sont prises en charge.

Configuration du TLB

Les rubriques suivantes décrivent comment configurer TLB. Pour créer une application complète, vous devez également définir des interfaces et des informations de routage. Vous pouvez éventuellement définir des filtres de pare-feu et des options de stratégie afin de différencier le trafic TLB.

Chargement du package de services TLB

Chargez le package de services TLB sur chaque PIC de service sur lequel vous souhaitez exécuter TLB.

Remarque :

Pour les services de nouvelle génération et la carte de services MX-SPC3, vous n’avez pas besoin de charger ce package.

Pour charger le package de services TLB sur un PIC de service :

  • Chargez le jservices-traffic-dird package.

    Par exemple :

Configuration d’un nom d’instance TLB

Avant de configurer TLB, activez le processus sdk-service en configurant system processes sdk-service enable dans la hiérarchie [modifier].

Pour configurer un nom pour l’instance TLB :

  • Au niveau de la [edit services traffic-load-balance] hiérarchie, identifiez le nom de l’instance TLB.

    Par exemple :

Configuration des informations d’interface et de routage

Pour configurer l’interface et les informations de routage :

  1. Au niveau de la [edit services traffic-load-balance instance instance-name] hiérarchie, identifiez l’interface de service associée à cette instance.

    Par exemple, sur une MS-MPC :

    Par exemple, pour les services de nouvelle génération sur une MX-SPC3 :

  2. Activez le routage des réponses par paquet de vérification de l’état à partir de serveurs réels vers l’interface de service que vous avez identifiée à l’étape 1.

    Par exemple, sur une MS-MPC :

    Par exemple, sur une MX-SPC3 :

  3. Spécifiez l’interface client pour laquelle un filtre implicite est défini pour diriger le trafic vers l’avant. Ceci n’est requis que pour le mode traduit.

    Par exemple :

  4. Spécifiez l’instance de routage virtuel utilisée pour acheminer le trafic de données dans le sens direct vers les serveurs. Ceci est nécessaire pour le SLT et le DSR de couche 3 ; il est facultatif pour le DSR de couche 2.

    Par exemple :

  5. Spécifiez l’interface du serveur pour laquelle des filtres implicites sont définis pour diriger le trafic de retour vers le client.
    Remarque :

    Les filtres implicites du trafic de retour ne sont pas utilisés pour la DSR.

    Par exemple :

  6. (Facultatif) Spécifiez le filtre utilisé pour ignorer la vérification de l’état du trafic de retour.

    Par exemple :

  7. Spécifiez l’instance de routage virtuelle dans laquelle vous souhaitez que les données dans le sens inverse soient acheminées vers les clients.

    Par exemple :

    Remarque :

    Les instances de routage virtuelles pour le routage des données dans le sens inverse ne sont pas utilisées avec DSR.

Configuration des serveurs

Pour configurer les serveurs de l’instance TLB :

Configurez un nom logique et une adresse IP pour chaque serveur à mettre à disposition pour la distribution au saut suivant.

Par exemple :

Configuration des profils de surveillance réseau

Un profil de surveillance réseau configure une sonde de contrôle de l’état que vous affectez à un groupe de serveurs auquel le trafic de session est distribué.

Pour configurer un profil de surveillance du réseau :

  1. Configurez le type de sonde à utiliser pour la surveillance de l’état : icmp, , ssl-hellotls-hello,tcphttp, ou .custom
    Remarque :

    icmp Les sondes ne sont prises en charge que sur les cartes MS-MPC.

    Les services nouvelle génération et le MX-SPC3 ne prennent pas en charge les sondes ICMP dans cette version.

    • Pour une sonde ICMP :

    • Pour une sonde TCP :

    • Pour une sonde HTTP :

    • Pour une sonde SSL :

    • Pour une sonde TLS-Hello :

    • Pour une sonde personnalisée :

  2. Configurez l’intervalle pour les tentatives de sondes, en secondes (1 à 180).

    Par exemple :

  3. Configurez le nombre de tentatives d’échec, après quoi le serveur réel est marqué comme inactif.

    Par exemple :

  4. Configurez le nombre de tentatives de récupération, c’est-à-dire le nombre de tentatives de sonde réussies après lesquelles le serveur est déclaré actif.

    Par exemple :

Configuration des groupes de serveurs

Les groupes de serveurs sont constitués de serveurs vers lesquels le trafic est distribué au moyen d’une distribution de sessions sans état basée sur le hachage et d’une surveillance de l’état des serveurs.

Pour configurer un groupe de serveurs :

  1. Spécifiez les noms d’un ou de plusieurs serveurs réels configurés.

    Par exemple :

  2. Configurez l’instance de routage pour le groupe lorsque vous ne souhaitez pas utiliser l’instance par défaut, inet.0.

    Par exemple :

  3. (Facultatif) Désactivez l’option par défaut qui permet à un serveur de rejoindre automatiquement le groupe lorsqu’il se présente.
  4. (Facultatif) Configurez l’unité logique de l’interface de service de l’instance à utiliser pour la vérification de l’état.
    1. Spécifiez l’unité logique.

    2. Activez le routage des réponses par paquets de vérification de l’état depuis des serveurs réels vers l’interface.

    Par exemple :

  5. Configurez un ou deux profils de surveillance réseau à utiliser pour surveiller l’état des serveurs de ce groupe.

    Par exemple :

Configuration des services virtuels

Un service virtuel fournit une adresse associée à un groupe de serveurs vers lequel le trafic est dirigé, tel que déterminé par la distribution de session basée sur le hachage ou aléatoire et la surveillance de l’état du serveur. Vous pouvez éventuellement spécifier des filtres et des instances de routage pour orienter le trafic pour TLB.

Pour configurer un service virtuel :

  1. Au niveau de la [edit services traffic-load-balance instance instance-name] hiérarchie, spécifiez une adresse différente de zéro pour le service virtuel.

    Par exemple :

  2. Spécifiez le groupe de serveurs utilisé pour ce service virtuel.

    Par exemple :

  3. (Facultatif) Spécifiez une instance de routage pour le service virtuel. Si vous ne spécifiez pas d’instance de routage, l’instance de routage par défaut est utilisée.

    Par exemple :

  4. Spécifiez le mode de traitement du service virtuel.

    Par exemple :

  5. (Facultatif) Pour un service virtuel en mode traduit, activez l’ajout des adresses IP de tous les serveurs réels du groupe sous le service virtuel aux filtres côté serveur. Cela vous permet de configurer deux services virtuels avec le même port d’écoute et le même protocole sur la même interface et le même VRF.
  6. (Facultatif) Spécifiez une métrique de routage pour le service virtuel.

    Par exemple :

  7. Spécifiez la méthode utilisée pour l’équilibrage de charge. Vous pouvez spécifier une méthode de hachage qui fournit une clé de hachage basée sur n’importe quelle combinaison de l’adresse IP source, de l’adresse IP de destination et du protocole, ou vous pouvez spécifier random.

    Par exemple :

    ou

    Remarque :

    Si vous basculez entre la méthode de hachage et la méthode aléatoire pour un service virtuel, les statistiques du service virtuel sont perdues.

  8. Pour un service virtuel en mode traduit, spécifiez un service à convertir, comprenant un port virtuel, un port d’écoute de serveur et un protocole.

    Par exemple :

  9. Validez la configuration.
    Remarque :

    En l’absence d’une configuration d’interface client sous l’instance TLB, le filtre client implicite (pour VIP) est attaché au client-vrf configuré sous l’instance TLB. Dans ce cas, l’instance de routage sous un service virtuel en mode traduction ne peut pas être la même que le client-vrf configuré sous l’instance TLB. si c’est le cas, le commit échoue.

Configuration du suivi pour la fonction de surveillance des vérifications de l’état

Pour configurer les options de suivi pour la fonction de surveillance des vérifications de l’état :

  1. Indiquez que vous souhaitez configurer les options de suivi pour la fonction de surveillance des vérifications de l’état.
  2. (Facultatif) Configurez le nom du fichier utilisé pour la sortie de trace.
  3. (Facultatif) Désactivez les fonctionnalités de traçage à distance.
  4. (Facultatif) Configurez des indicateurs pour filtrer les opérations à consigner.

    Le Tableau 5 décrit les indicateurs que vous pouvez inclure.

    Tableau 5 : Indicateurs de trace

    Drapeau

    Prise en charge des cartes MS-MPC et MX-SPC3

    Descriptif

    Tous

    MS-MPC et MX-SPC3

    Tracez toutes les opérations.

    tous les services réels

    MX-SPC3

    Tracez tous les services réels.

    Configurer

    MS-MPC et MX-SPC3

    Suivez les événements de configuration de l’équilibreur de charge du trafic.

    Connectez-vous

    MS-MPC et MX-SPC3

    Suivre le trafic, l’équilibreur de charge, les événements ipc.

    Base de données

    MS-MPC et MX-SPC3

    Suivre les événements de la base de données.

    file d’attente_descripteur-fichier

    MS-MPC

    Suivre les événements de la file d’attente du descripteur de fichier.

    inter-fil

    MS-MPC

    Tracez les événements de communication entre les threads.

    filtre

    MS-MPC et MX-SPC3

    Suivre les événements de programmation du filtre d’équilibrage de charge du trafic.

    Santé

    MS-MPC et MX-SPC3

    Suivre les événements d’intégrité de l’équilibreur de charge de trafic.

    Messages

    MS-MPC et MX-SPC3

    Retracer les événements normaux.

    normal

    MS-MPC et MX-SPC3

    Retracer les événements normaux.

    commandes opérationnelles

    MS-MPC et MX-SPC3

    Suivre les événements d’affichage de l’équilibreur de charge du trafic.

    Analyse

    MS-MPC et MX-SPC3

    Suivre les événements d’analyse de l’équilibreur de charge du trafic.

    sonde

    MS-MPC et MX-SPC3

    Suivre les événements des sondes.

    probe-infra

    MS-MPC et MX-SPC3

    Tracez les événements de l’infra sonde.

    Itinéraire

    MS-MPC et MX-SPC3

    Suivez les événements de route de l’équilibreur de charge du trafic.

    SNMP

    MS-MPC et MX-SPC3

    Suivre les événements SNMP de l’équilibreur de charge du trafic.

    Statistiques

    MS-MPC et MX-SPC3

    Suivre les événements statistiques de l’équilibrage de charge du trafic.

    système

    MS-MPC et MX-SPC3

    Suivez les événements du système d’équilibrage de charge du trafic.

  5. (Facultatif) Configurez le niveau de suivi.
  6. (Facultatif) Configurez le suivi pour un serveur réel particulier au sein d’un groupe de serveurs particulier.
  7. (Facultatif) À partir des versions 16.1R6 et 18.2R1 de Junos OS, configurez le suivi pour un service virtuel et une instance particuliers.

Tableau de l’historique des modifications

La prise en charge des fonctionnalités est déterminée par la plateforme et la version que vous utilisez. Utilisez l’explorateur de fonctionnalités pour déterminer si une fonctionnalité est prise en charge sur votre plateforme.

Libération
Descriptif
16.1R6
À partir de Junos OS version 16.1R6 et Junos OS version 18.2R1, l’application TLB prend en charge 2 000 instances TLB pour les services virtuels qui utilisent le mode direct-server-return ou le mode traduit.
16.1R6
À partir de Junos OS versions 16.1R6 et 18.2R1, configurez le suivi pour un service virtuel et une instance particuliers.