Sur cette page
Configuration du délai avant que les voisins LDP soient considérés comme en panne
Configuration de l’intervalle pour les messages keepalive LDP
Exemple : Configuration de la correspondance la plus longue pour LDP
Adresse de transport de contrôle utilisée pour les sessions LDP ciblées
Configuration des préfixes annoncés dans LDP à partir de la table de routage
Configuration d’une action de défaillance pour la session BFD sur un LSP LDP
Configuration de l’intervalle de retenue pour la session BFD
Exemple : Configuration du reroutage rapide multicast uniquement dans un domaine LDP multipoint
Exemple : Configuration de la prise en charge LDP Native IPv6
Exemple : Configuration de la signalisation in-band LDP multipoint pour les LSP point à multipoint
Mappage du client et du serveur pour le routage de segments vers l’interopérabilité LDP
LDP Configuration
Configuration LDP minimale
Pour activer le LDP avec une configuration minimale :
Activez toutes les interfaces pertinentes sous MPLS de la famille. Dans le cas du LDP dirigé, l’interface de bouclage doit être activée avec la famille MPLS.
(Facultatif) Configurez les interfaces pertinentes au niveau hiérarchique
[edit protocol mpls]
.Activez LDP sur une interface unique, incluez l’instruction
ldp
et spécifiez l’interface à l’aide de l’instructioninterface
.
Il s’agit de la configuration LDP minimale. Toutes les autres déclarations de configuration LDP sont facultatives.
ldp { interface interface-name; }
Pour activer le LDP sur toutes les interfaces, spécifiez all
pour interface-name
.
Pour obtenir la liste des niveaux hiérarchiques auxquels vous pouvez inclure ces déclarations, consultez les sections de synthèse des déclarations.
Activation et désactivation du LDP
Le LDP prend en compte les instances de routage. Pour activer LDP sur une interface spécifique, incluez les déclarations suivantes :
ldp { interface interface-name; }
Pour obtenir la liste des niveaux hiérarchiques auxquels vous pouvez inclure ces déclarations, consultez les sections de synthèse des déclarations.
Pour activer le LDP sur toutes les interfaces, spécifiez all
pour interface-name
.
Si vous avez configuré des propriétés d’interface sur un groupe d’interfaces et que vous souhaitez désactiver LDP sur l’une des interfaces, incluez l’instruction interface
avec l’option disable
:
interface interface-name { disable; }
Pour obtenir la liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section Résumé de l’instruction.
Configuration du timer LDP pour hello messages
Les messages LDP hello permettent aux nœuds LDP de se découvrir les uns les autres et de détecter la défaillance d’un voisin ou la liaison vers le voisin. Des messages Bonjour sont envoyés régulièrement sur toutes les interfaces où le LDP est activé.
Il existe deux types de messages LDP bonjour :
Link hello messages : envoyé via l’interface LDP en tant que paquets UDP adressés au port LDP Discovery. La réception d’un lien LDP bonjour message sur une interface identifie une adjacence avec le routeur pair LDP.
Messages ciblés bonjour : envoyés en tant que paquets UDP adressés au port de découverte LDP à une adresse spécifique. Les messages d’bonjour ciblés sont utilisés pour prendre en charge des sessions LDP entre des routeurs qui ne sont pas directement connectés. Un routeur ciblé détermine s’il doit répondre ou ignorer un message de bonjour ciblé. Un routeur ciblé qui choisit de répondre le fait en envoyant régulièrement des messages de bonjour ciblés au routeur de lancement.
Par défaut, LDP envoie des messages de bonjour toutes les 5 secondes pour les messages de bonjour de lien et toutes les 15 secondes pour les messages de bonjour ciblés. Vous pouvez configurer le timer LDP pour modifier la fréquence d’envoi des deux types de messages bonjour. Toutefois, vous ne pouvez pas configurer un temps pour le timer LDP supérieur au temps d’attente LDP. Pour plus d’informations, voir Configuration du délai avant que les voisins LDP ne soient considérés comme en panne.
- Configuration du timer LDP pour les liaisons Hello Messages
- Configuration du timer LDP pour les messages bonjour ciblés
Configuration du timer LDP pour les liaisons Hello Messages
Pour modifier la fréquence à laquelle LDP envoie des liaisons bonjour messages, spécifiez un nouveau lien hello message intervalle pour le timer LDP à l’aide de l’instruction hello-interval
:
hello-interval seconds;
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
Configuration du timer LDP pour les messages bonjour ciblés
Pour modifier la fréquence à laquelle LDP envoie des messages de bonjour ciblés, spécifiez un nouvel intervalle de message bonjour ciblé pour le timer LDP en configurant l’instruction hello-interval
en tant qu’option pour l’instruction targeted-hello
:
targeted-hello { hello-interval seconds; }
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure ces déclarations, consultez les sections de synthèse de ces déclarations.
Configuration du délai avant que les voisins LDP soient considérés comme en panne
Le temps d’attente détermine combien de temps un nœud LDP doit attendre un message de bonjour avant de déclarer un voisin en panne. Cette valeur est envoyée dans le cadre d’un message de bonjour afin que chaque nœud LDP indique à ses voisins combien de temps attendre. Les valeurs envoyées par chaque voisin n’ont pas à correspondre.
Le temps d’attente devrait normalement être au moins trois fois l’intervalle de bonjour. La valeur par défaut est de 15 secondes pour les messages de liaison bonjour et de 45 secondes pour les messages bonjour ciblés. Cependant, il est possible de configurer un temps de maintien LDP proche de la valeur de l’intervalle bonjour.
En configurant un temps de maintien LDP proche de l’intervalle de bonjour (moins de trois fois l’intervalle de bonjour), les défaillances des voisins LDP peuvent être détectées plus rapidement. Cependant, cela augmente également la possibilité que le routeur déclare un voisin LDP en bas qui fonctionne toujours normalement. Pour plus d’informations, voir Configuration du timer LDP pour hello messages.
Le temps d’attente LDP est également négocié automatiquement entre les pairs LDP. Lorsque deux pairs LDP annoncent des temps de maintien LDP différents l’un par rapport à l’autre, la valeur la plus faible est utilisée. Si un routeur pair LDP annonce un temps d’attente plus court que la valeur que vous avez configurée, le temps de retenue annoncé du routeur pair est utilisé. Cette négociation peut également affecter l’intervalle de maintien du LDP.
Si le temps d’attente LDP local n’est pas raccourci lors de la négociation des pairs LDP, l’intervalle de maintien configuré par l’utilisateur reste inchangé. Toutefois, si le temps de blocage local est réduit pendant les négociations entre pairs, l’intervalle de maintien est recalculé. Si le temps d’attente LDP a été réduit lors de la négociation par les pairs, l’intervalle de maintien est réduit à un tiers de la nouvelle valeur de temps de retenue. Par exemple, si la nouvelle valeur de temps de blocage est de 45 secondes, l’intervalle de maintien est défini sur 15 secondes.
Ce calcul automatisé des intervalles de keepalive peut entraîner la configuration de différents intervalles de keepalive sur chaque routeur homologue. Cela permet aux routeurs d’être flexibles quant à la fréquence à laquelle ils envoient des messages keepalives, car la négociation entre pairs LDP garantit qu’ils sont envoyés plus fréquemment que le temps de blocage LDP.
Lorsque vous reconfigurez l’intervalle de temps d’attente, les modifications ne prennent effet qu’après la réinitialisation de la session. Le temps d’attente est négocié lorsque la session d’appairage LDP est lancée et ne peut pas être renégociée tant que la session est en cours (requise par la RFC 5036, spécification LDP). Pour forcer manuellement la session LDP à la réinitialisation, émettez la clear ldp session
commande.
- Configuration du temps d’attente LDP pour les messages De liaison Hello
- Configuration du temps d’attente LDP pour les messages bonjour ciblés
Configuration du temps d’attente LDP pour les messages De liaison Hello
Pour modifier la durée d’attente d’un nœud LDP avant de déclarer le voisin vers le bas, spécifiez une nouvelle heure en quelques secondes à l’aide de l’énoncé hold-time
:
hold-time seconds;
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
Configuration du temps d’attente LDP pour les messages bonjour ciblés
Pour modifier la durée d’attente d’un nœud LDP avant de déclarer le voisin vers le bas, spécifiez une nouvelle heure en quelques secondes en utilisant l’instruction hold-time
comme option pour l’instruction targeted-hello
:
targeted-hello { hold-time seconds; }
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure ces déclarations, consultez les sections de synthèse de ces déclarations.
Activation de messages d’bonjour ciblés stricts pour LDP
Utilisez des messages de bonjour ciblés stricts pour empêcher l’établissement de sessions LDP avec des voisins distants qui n’ont pas été spécialement configurés. Si vous configurez l’instruction strict-targeted-hellos
, un pair LDP ne répond pas aux messages d’bonjour ciblés provenant d’une source qui n’est pas l’un de ses voisins distants configurés. Les voisins distants configurés peuvent inclure :
Points de terminaison des tunnels RSVP pour lesquels la tunnelisation LDP est configurée
Voisins de circuit de couche 2
Si un voisin non configuré envoie un message de bonjour, l’homologue LDP ignore le message et enregistre une erreur (avec l’indicateur de error
trace) indiquant la source. Par exemple, si l’homologue LDP a reçu un bonjour ciblé de l’adresse Internet 10.0.0.1 et qu’aucun voisin avec cette adresse n’est spécifiquement configuré, le message suivant est imprimé dans le fichier journal LDP :
LDP: Ignoring targeted hello from 10.0.0.1
Pour activer des messages de bonjour ciblés stricts, incluez la strict-targeted-hellos
déclaration :
strict-targeted-hellos;
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
Configuration de l’intervalle pour les messages keepalive LDP
L’intervalle keepalive détermine la fréquence d’envoi d’un message sur la session afin de s’assurer que le délai d’expiration du keepalive n’est pas dépassé. Si aucun autre trafic LDP n’est envoyé sur la session en autant de temps, un message keepalive est envoyé. La valeur par défaut est de 10 secondes. La valeur minimale est de 1 seconde.
La valeur configurée pour l’intervalle de keepalive peut être modifiée lors de la négociation de session LDP si la valeur configurée pour le temps de maintien LDP sur le routeur homologue est inférieure à la valeur configurée localement. Pour plus d’informations, voir Configuration du délai avant que les voisins LDP ne soient considérés comme en panne.
Pour modifier l’intervalle keepalive, incluez l’instruction keepalive-interval
:
keepalive-interval seconds;
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
Configuration du délai d’expiration LDP Keepalive
Une fois qu’une session LDP est établie, des messages doivent être échangés régulièrement pour s’assurer que la session fonctionne toujours. Le délai d’attente keepalive définit le temps d’attente du nœud LDP voisin avant de décider que la session a échoué. Cette valeur est généralement définie sur au moins trois fois l’intervalle de maintien. La valeur par défaut est de 30 secondes.
Pour modifier l’intervalle keepalive, incluez l’instruction keepalive-timeout
:
keepalive-timeout seconds;
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
La valeur configurée pour l’instruction keepalive-timeout
s’affiche en tant que temps d’attente lorsque vous émettez la show ldp session detail
commande.
Configuration de la correspondance la plus longue pour LDP
Afin de permettre à LDP d’apprendre les routes agrégées ou résumées sur les zones OSPF ou les niveaux ISIS dans l’inter-domaine, Junos OS vous permet de configurer la correspondance la plus longue pour LDP en fonction de la RFC5283.
Avant de configurer la correspondance la plus longue pour LDP, vous devez procéder comme suit :
Configurez les interfaces de l’équipement.
Configurez le protocole MPLS.
Configurez le protocole OSPF.
Pour configurer la correspondance la plus longue pour LDP, vous devez effectuer les opérations suivantes :
Exemple : Configuration de la correspondance la plus longue pour LDP
Cet exemple montre comment configurer la correspondance la plus longue pour LDP en fonction de la RFC5283. Cela permet au LDP d’apprendre les routes agrégées ou résumées à travers les zones OSPF ou les niveaux ISIS dans l’inter-domaine. La stratégie de correspondance la plus longue fournit la granularité par préfixe.
Conditions préalables
Cet exemple utilise les composants matériels et logiciels suivants :
Six routeurs MX Series avec protocole OSPF et LDP activé sur les interfaces connectées.
Junos OS Version 16.1 ou ultérieure s’exécutant sur tous les équipements.
Avant de commencer :
Configurez les interfaces de l’équipement.
Configurez OSPF.
Présentation
Le LDP est souvent utilisé pour établir des chemins de commutation d’étiquettes (LSP) MPLS sur l’ensemble d’un domaine réseau à l’aide d’un IGP comme OSPF ou IS-IS. Dans un tel réseau, toutes les liaisons du domaine ont des adjacencies IGP ainsi que des adjacencies LDP. Le LDP établit les LSP sur le chemin le plus court vers une destination, tel que déterminé par le transfert IP. Dans Junos OS, l’implémentation LDP effectue une recherche exacte sur l’adresse IP du FEC dans les routes RIB ou IGP pour le mappage des étiquettes. Ce mappage exact nécessite que les adresses IP LDP de bout en bout MPLS soient configurées dans tous les LER. Cela déjoue l’objectif de la conception hiérarchique IP ou du routage par défaut dans les équipements d’accès. La configuration longest-match
permet de surmonter ce problème en supprimant le comportement exact des correspondances et en configurant le LSP en fonction du routage correspondant le plus long par préfixe.
topologie
Dans la topologie, Figure 1la correspondance la plus longue pour LDP est configurée sur l’équipement R0 .

Configuration
Configuration rapide cli
Pour configurer rapidement cet exemple, copiez les commandes suivantes, collez-les dans un fichier texte, supprimez les sauts de ligne, modifiez les détails nécessaires pour correspondre à la configuration de votre réseau, copiez et collez les commandes dans la CLI au niveau de la [edit] hiérarchie, puis entrez commit
à partir du mode de configuration.
R0
set interfaces ge-0/0/0 unit 0 family inet address 22.22.22.1/24 set interfaces ge-0/0/1 unit 0 family inet address 15.15.15.1/24 set interfaces ge-0/0/2 unit 0 family inet address 11.11.11.1/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.112.1/32 primary set interfaces lo0 unit 0 family inet address 10.255.112.1/32 preferred set interfaces lo0 unit 0 family iso address 49.0002.0192.0168.0001.00 set routing-options router-id 10.255.112.1 set protocols mpls interface ge-0/0/2.0 set protocols ospf area 0.0.0.1 interface ge-0/0/2.0 set protocols ospf area 0.0.0.1 interface lo0.0 passive set protocols ldp longest-match set protocols ldp interface ge-0/0/2.0 set protocols ldp interface lo0.0
R1
set interfaces ge-0/0/0 unit 0 family inet address 11.11.11.2/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 12.12.12.1/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.112.2/32 primary set interfaces lo0 unit 0 family inet address 10.255.112.2/32 preferred set interfaces lo0 unit 0 family iso address 49.0002.0192.0168.0002.00 set routing-options router-id 10.255.112.2 set protocols mpls interface ge-0/0/0.0 set protocols mpls interface ge-0/0/1.0 set protocols ospf area 0.0.0.0 interface ge-0/0/1.0 set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ospf area 0.0.0.1 interface ge-0/0/0.0 set protocols ldp longest-match set protocols ldp interface ge-0/0/0.0 set protocols ldp interface ge-0/0/1.0 set protocols ldp interface lo0.0
R2
set interfaces ge-0/0/0 unit 0 family inet address 24.24.24.1/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 12.12.12.2/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 23.23.23.1/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces ge-0/0/3 unit 0 family inet address 22.22.22.2/24 set interfaces ge-0/0/4 unit 0 family inet address 25.25.25.1/24 set interfaces ge-0/0/4 unit 0 family iso set interfaces ge-0/0/4 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.4/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.4/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0003.00 set routing-options router-id 10.255.111.4 set protocols mpls interface ge-0/0/1.0 set protocols mpls interface ge-0/0/2.0 set protocols mpls interface ge-0/0/0.0 set protocols mpls interface ge-0/0/4.0 set protocols ospf area 0.0.0.0 interface ge-0/0/1.0 set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ospf area 0.0.0.2 area-range 10.255.111.0/24 set protocols ospf area 0.0.0.2 interface ge-0/0/2.0 set protocols ospf area 0.0.0.2 interface ge-0/0/0.0 set protocols ospf area 0.0.0.2 interface ge-0/0/4.0 set protocols ldp interface ge-0/0/0.0 set protocols ldp interface ge-0/0/1.0 set protocols ldp interface ge-0/0/2.0 set protocols ldp interface ge-0/0/4.0 set protocols ldp interface lo0.0
R3
set interfaces ge-0/0/0 unit 0 family inet address 35.35.35.1/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 23.23.23.2/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 34.34.34.1/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.1/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.1/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0004.00 set routing-options router-id 10.255.111.1 set protocols mpls interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface fxp0.0 disable set protocols ospf area 0.0.0.2 interface lo0.0 passive set protocols ldp interface ge-0/0/1.0 set protocols ldp interface lo0.0
R4
set interfaces ge-0/0/0 unit 0 family inet address 45.45.45.1/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 24.24.24.2/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 34.34.34.2/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.2/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.2/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0005.00 set routing-options router-id 10.255.111.2 set protocols mpls interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface fxp0.0 disable set protocols ospf area 0.0.0.2 interface lo0.0 passive set protocols ldp interface ge-0/0/1.0 set protocols ldp interface lo0.0
R5
set interfaces ge-0/0/0 unit 0 family inet address 25.25.25.2/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 15.15.15.2/24 set interfaces ge-0/0/2 unit 0 family inet address 35.35.35.2/24 set interfaces ge-0/0/3 unit 0 family inet address 45.45.45.2/24 set interfaces ge-0/0/3 unit 0 family iso set interfaces ge-0/0/3 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.3/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.3/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0006.00 set routing-options router-id 10.255.111.3 set protocols mpls interface ge-0/0/0.0 set protocols ospf area 0.0.0.2 interface ge-0/0/0.0 set protocols ospf area 0.0.0.2 interface fxp0.0 disable set protocols ospf area 0.0.0.2 interface lo0.0 passive set protocols ldp interface ge-0/0/0.0 set protocols ldp interface lo0.0
Configuration de l’équipement R0
Procédure étape par étape
L’exemple suivant exige que vous parcouriez différents niveaux dans la hiérarchie de configuration. Pour plus d’informations sur la navigation sur l’interface cli, consultez Utilisation de l’éditeur CLI en mode de configuration dans le guide de l’utilisateur CLI.
Pour configurer l’équipement R0 :
Configurez les interfaces.
[edit interfaces] set ge-0/0/0 unit 0 family inet address 22.22.22.1/24 set ge-0/0/1 unit 0 family inet address 15.15.15.1/24 set ge-0/0/2 unit 0 family inet address 11.11.11.1/24 set ge-0/0/2 unit 0 family iso set ge-0/0/2 unit 0 family mpls
Attribuez les adresses de bouclage à l’équipement.
[edit interfaces lo0 unit 0 family] set inet address 10.255.112.1/32 primary set inet address 10.255.112.1/32 preferred set iso address 49.0002.0192.0168.0001.00
Configurez l’ID du routeur.
[edit routing-options] set router-id 10.255.112.1
Configurez le protocole MPLS sur l’interface.
[edit protocols mpls] set interface ge-0/0/2.0
Configurez le protocole OSPF sur l’interface.
[edit protocols ospf] set area 0.0.0.1 interface ge-0/0/2.0 set area 0.0.0.1 interface lo0.0 passive
Configurez la correspondance la plus longue pour le protocole LDP.
[edit protocols ldp] set longest-match
Configurez le protocole LDP sur l’interface.
[edit protocols ldp] set interface ge-0/0/2.0 set interface lo0.0
Résultats
À partir du mode de configuration, confirmez votre configuration en entrant le show interfaces, show protocolset show routing-options les commandes. Si la sortie n’affiche pas la configuration prévue, répétez les instructions de cet exemple pour corriger la configuration.
user@R0# show interfaces ge-0/0/0 { unit 0 { family inet { address 22.22.22.1/24; } } } ge-0/0/1 { unit 0 { family inet { address 15.15.15.1/24; } } } ge-0/0/2 { unit 0 { family inet { address 11.11.11.1/24; } family iso; family mpls; } } lo0 { unit 0 { family inet { address 10.255.112.1/32 { primary; preferred; } } family iso { address 49.0002.0192.0168.0001.00; } } }
user@R0# show protocols mpls { interface ge-0/0/2.0; } ospf { area 0.0.0.1 { interface ge-0/0/2.0; interface lo0.0 { passive; } } } ldp { longest-match; interface ge-0/0/2.0; interface lo0.0; }
user@R0# show routing-options router-id 10.255.112.1;
Si vous avez fini de configurer l’équipement, saisissez commit
à partir du mode de configuration.
Vérification
Vérifiez que la configuration fonctionne correctement.
- Vérification des routes
- Vérification des informations de présentation LDP
- Vérifier les entrées LDP dans la table topologique interne
- Vérifier uniquement les informations FEC du routage LDP
- Vérifier les routes FEC et shadow de LDP
Vérification des routes
But
Vérifiez que les routes attendues sont bien apprises.
Action
Sur l’équipement R0, à partir du mode opérationnel, exécutez la show route
commande pour afficher les routes dans la table de routage.
user@R0> show route
inet.0: 62 destinations, 62 routes (62 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
10.4.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.5.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.6.128.0/17 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.9.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.10.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.13.4.0/23 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.13.10.0/23 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.82.0.0/15 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.84.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.85.12.0/22 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.92.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.92.16.0/20 *[Direct/0] 10:08:01
> via fxp0.0
10.92.20.175/32 *[Local/0] 10:08:01
Local via fxp0.0
10.94.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.99.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.102.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.150.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.155.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.157.64.0/19 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.160.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.204.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.205.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.206.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.207.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.209.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.212.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.213.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.214.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.215.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.216.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.13.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.14.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.16.0/20 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.32.0/20 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.227.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.255.111.0/24 *[OSPF/10] 09:52:14, metric 3
> to 11.11.11.2 via ge-0/0/2.0
10.255.111.4/32 *[OSPF/10] 09:54:10, metric 2
> to 11.11.11.2 via ge-0/0/2.0
10.255.112.1/32 *[Direct/0] 09:55:05
> via lo0.0
10.255.112.2/32 *[OSPF/10] 09:54:18, metric 1
> to 11.11.11.2 via ge-0/0/2.0
11.11.11.0/24 *[Direct/0] 09:55:05
> via ge-0/0/2.0
11.11.11.1/32 *[Local/0] 09:55:05
Local via ge-0/0/2.0
12.12.12.0/24 *[OSPF/10] 09:54:18, metric 2
> to 11.11.11.2 via ge-0/0/2.0
15.15.15.0/24 *[Direct/0] 09:55:05
> via ge-0/0/1.0
15.15.15.1/32 *[Local/0] 09:55:05
Local via ge-0/0/1.0
22.22.22.0/24 *[Direct/0] 09:55:05
> via ge-0/0/0.0
22.22.22.1/32 *[Local/0] 09:55:05
Local via ge-0/0/0.0
23.23.23.0/24 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
24.24.24.0/24 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
25.25.25.0/24 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.17.45/32 *[OSPF/10] 09:54:05, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.20.175/32 *[Direct/0] 10:08:01
> via lo0.0
128.92.21.186/32 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.25.135/32 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.27.91/32 *[OSPF/10] 09:54:18, metric 1
> to 11.11.11.2 via ge-0/0/2.0
128.92.28.70/32 *[OSPF/10] 09:54:10, metric 2
> to 11.11.11.2 via ge-0/0/2.0
172.16.0.0/12 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
192.168.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
192.168.102.0/23 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
207.17.136.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
207.17.136.192/32 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
207.17.137.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
224.0.0.5/32 *[OSPF/10] 09:55:05, metric 1
MultiRecv
inet.3: 5 destinations, 5 routes (5 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
10.255.111.1/32 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Push 300128
10.255.111.2/32 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Push 300144
10.255.111.3/32 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Push 300160
10.255.111.4/32 *[LDP/9] 09:54:10, metric 2, tag 0
> to 11.11.11.2 via ge-0/0/2.0, Push 300000
10.255.112.2/32 *[LDP/9] 09:54:48, metric 1, tag 0
> to 11.11.11.2 via ge-0/0/2.0
iso.0: 2 destinations, 2 routes (2 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
47.0005.80ff.f800.0000.0108.0001.1280.9202.0175/152
*[Direct/0] 10:08:01
> via lo0.0
49.0002.0192.0168.0001/72
*[Direct/0] 09:55:05
> via lo0.0
mpls.0: 10 destinations, 10 routes (10 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
0 *[MPLS/0] 09:55:05, metric 1
Receive
1 *[MPLS/0] 09:55:05, metric 1
Receive
2 *[MPLS/0] 09:55:05, metric 1
Receive
13 *[MPLS/0] 09:55:05, metric 1
Receive
300064 *[LDP/9] 09:54:48, metric 1
> to 11.11.11.2 via ge-0/0/2.0, Pop
300064(S=0) *[LDP/9] 09:54:48, metric 1
> to 11.11.11.2 via ge-0/0/2.0, Pop
300112 *[LDP/9] 09:54:10, metric 2, tag 0
> to 11.11.11.2 via ge-0/0/2.0, Swap 300000
300192 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Swap 300128
300208 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Swap 300144
300224 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Swap 300160
inet6.0: 2 destinations, 2 routes (2 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
abcd::128:92:20:175/128
*[Direct/0] 10:08:01
> via lo0.0
fe80::5668:a50f:fcc1:1f9c/128
*[Direct/0] 10:08:01
> via lo0.0
Sens
Le résultat affiche tous les routes de la table de routage de l’équipement R0.
Vérification des informations de présentation LDP
But
Affichez les informations de présentation LDP.
Action
Sur l’équipement R0, à partir du mode opérationnel, exécutez la show ldp overview
commande pour afficher la vue d’ensemble du LDP.
user@R0> show ldp overview
Instance: master
Reference count: 2
Router ID: 10.255.112.1
Message id: 8
Configuration sequence: 6
Deaggregate: disabled
Explicit null: disabled
IPv6 tunneling: disabled
Strict targeted hellos: disabled
Loopback if added: yes
Route preference: 9
Unicast transit LSP chaining: disabled
P2MP transit LSP chaining: disabled
Transit LSP statistics based on route statistics: disabled
LDP route acknowledgement: enabled
LDP mtu discovery: disabled
Longest Match: enabled
Capabilities enabled: none
Egress FEC capabilities enabled: entropy-label-capability
Downstream unsolicited Sessions:
Operational: 1
Retention: liberal
Control: ordered
Auto targeted sessions:
Auto targeted: disabled
Timers:
Keepalive interval: 10, Keepalive timeout: 30
Link hello interval: 5, Link hello hold time: 15
Targeted hello interval: 15, Targeted hello hold time: 45
Label withdraw delay: 60, Make before break timeout: 30
Make before break switchover delay: 3
Link protection timeout: 120
Graceful restart:
Restart: disabled, Helper: enabled, Restart in process: false
Reconnect time: 60000, Max neighbor reconnect time: 120000
Recovery time: 160000, Max neighbor recovery time: 240000
Traffic Engineering:
Bgp igp: disabled
Both ribs: disabled
Mpls forwarding: disabled
IGP:
Tracking igp metric: disabled
Sync session up delay: 10
Session protection:
Session protection: disabled
Session protection timeout: 0
Interface addresses advertising:
11.11.11.1
10.255.112.1
128.92.20.175
Label allocation:
Current number of LDP labels allocated: 5
Total number of LDP labels allocated: 11
Total number of LDP labels freed: 6
Total number of LDP label allocation failure: 0
Current number of labels allocated by all protocols: 5
Sens
La sortie affiche les informations de présentation LDP de l’équipement R0
Vérifier les entrées LDP dans la table topologique interne
But
Affichez les entrées de route dans la table topologique interne LDP (Label Distribution Protocol).
Action
Sur l’équipement R0, à partir du mode opérationnel, exécutez la show ldp route
commande pour afficher la table topologique interne du LDP.
user@R0> show ldp route
Destination Next-hop intf/lsp/table Next-hop address
10.4.0.0/16 fxp0.0 10.92.31.254
10.5.0.0/16 fxp0.0 10.92.31.254
10.6.128.0/17 fxp0.0 10.92.31.254
10.9.0.0/16 fxp0.0 10.92.31.254
10.10.0.0/16 fxp0.0 10.92.31.254
10.13.4.0/23 fxp0.0 10.92.31.254
10.13.10.0/23 fxp0.0 10.92.31.254
10.82.0.0/15 fxp0.0 10.92.31.254
10.84.0.0/16 fxp0.0 10.92.31.254
10.85.12.0/22 fxp0.0 10.92.31.254
10.92.0.0/16 fxp0.0 10.92.31.254
10.92.16.0/20 fxp0.0
10.92.20.175/32
10.94.0.0/16 fxp0.0 10.92.31.254
10.99.0.0/16 fxp0.0 10.92.31.254
10.102.0.0/16 fxp0.0 10.92.31.254
10.150.0.0/16 fxp0.0 10.92.31.254
10.155.0.0/16 fxp0.0 10.92.31.254
10.157.64.0/19 fxp0.0 10.92.31.254
10.160.0.0/16 fxp0.0 10.92.31.254
10.204.0.0/16 fxp0.0 10.92.31.254
10.205.0.0/16 fxp0.0 10.92.31.254
10.206.0.0/16 fxp0.0 10.92.31.254
10.207.0.0/16 fxp0.0 10.92.31.254
10.209.0.0/16 fxp0.0 10.92.31.254
10.212.0.0/16 fxp0.0 10.92.31.254
10.213.0.0/16 fxp0.0 10.92.31.254
10.214.0.0/16 fxp0.0 10.92.31.254
10.215.0.0/16 fxp0.0 10.92.31.254
10.216.0.0/16 fxp0.0 10.92.31.254
10.218.13.0/24 fxp0.0 10.92.31.254
10.218.14.0/24 fxp0.0 10.92.31.254
10.218.16.0/20 fxp0.0 10.92.31.254
10.218.32.0/20 fxp0.0 10.92.31.254
10.227.0.0/16 fxp0.0 10.92.31.254
10.255.111.0/24 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.112.1/32 lo0.0
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
11.11.11.0/24 ge-0/0/2.0
11.11.11.1/32
12.12.12.0/24 ge-0/0/2.0 11.11.11.2
15.15.15.0/24 ge-0/0/1.0
15.15.15.1/32
22.22.22.0/24 ge-0/0/0.0
22.22.22.1/32
23.23.23.0/24 ge-0/0/2.0 11.11.11.2
24.24.24.0/24 ge-0/0/2.0 11.11.11.2
25.25.25.0/24 ge-0/0/2.0 11.11.11.2
128.92.17.45/32 ge-0/0/2.0 11.11.11.2
128.92.20.175/32 lo0.0
128.92.21.186/32 ge-0/0/2.0 11.11.11.2
128.92.25.135/32 ge-0/0/2.0 11.11.11.2
128.92.27.91/32 ge-0/0/2.0 11.11.11.2
128.92.28.70/32 ge-0/0/2.0 11.11.11.2
172.16.0.0/12 fxp0.0 10.92.31.254
192.168.0.0/16 fxp0.0 10.92.31.254
192.168.102.0/23 fxp0.0 10.92.31.254
207.17.136.0/24 fxp0.0 10.92.31.254
207.17.136.192/32 fxp0.0 10.92.31.254
207.17.137.0/24 fxp0.0 10.92.31.254
224.0.0.5/32
Sens
La sortie affiche les entrées de route dans la table topologique interne LDP (Label Distribution Protocol) de l’équipement R0.
Vérifier uniquement les informations FEC du routage LDP
But
Affichez uniquement les informations FEC du routage LDP.
Action
Sur l’équipement R0, à partir du mode opérationnel, exécutez la show ldp route fec-only
commande pour afficher les routes dans la table de routage.
user@R0> show ldp route fec-only
Destination Next-hop intf/lsp/table Next-hop address
10.255.111.1/32 ge-0/0/2.0 11.11.11.2
10.255.111.2/32 ge-0/0/2.0 11.11.11.2
10.255.111.3/32 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.112.1/32 lo0.0
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
Sens
La sortie affiche uniquement les routes FEC du protocole LDP disponibles pour l’équipement R0.
Vérifier les routes FEC et shadow de LDP
But
Affichez les routes FEC et shadow dans la table de routage.
Action
Sur l’équipement R0, à partir du mode opérationnel, exécutez la show ldp route fec-and-route
commande pour afficher les routes FEC et shadow dans la table de routage.
user@R0> show ldp route fec-and-route
Destination Next-hop intf/lsp/table Next-hop address
10.4.0.0/16 fxp0.0 10.92.31.254
10.5.0.0/16 fxp0.0 10.92.31.254
10.6.128.0/17 fxp0.0 10.92.31.254
10.9.0.0/16 fxp0.0 10.92.31.254
10.10.0.0/16 fxp0.0 10.92.31.254
10.13.4.0/23 fxp0.0 10.92.31.254
10.13.10.0/23 fxp0.0 10.92.31.254
10.82.0.0/15 fxp0.0 10.92.31.254
10.84.0.0/16 fxp0.0 10.92.31.254
10.85.12.0/22 fxp0.0 10.92.31.254
10.92.0.0/16 fxp0.0 10.92.31.254
10.92.16.0/20 fxp0.0
10.92.20.175/32
10.94.0.0/16 fxp0.0 10.92.31.254
10.99.0.0/16 fxp0.0 10.92.31.254
10.102.0.0/16 fxp0.0 10.92.31.254
10.150.0.0/16 fxp0.0 10.92.31.254
10.155.0.0/16 fxp0.0 10.92.31.254
10.157.64.0/19 fxp0.0 10.92.31.254
10.160.0.0/16 fxp0.0 10.92.31.254
10.204.0.0/16 fxp0.0 10.92.31.254
10.205.0.0/16 fxp0.0 10.92.31.254
10.206.0.0/16 fxp0.0 10.92.31.254
10.207.0.0/16 fxp0.0 10.92.31.254
10.209.0.0/16 fxp0.0 10.92.31.254
10.212.0.0/16 fxp0.0 10.92.31.254
10.213.0.0/16 fxp0.0 10.92.31.254
10.214.0.0/16 fxp0.0 10.92.31.254
10.215.0.0/16 fxp0.0 10.92.31.254
10.216.0.0/16 fxp0.0 10.92.31.254
10.218.13.0/24 fxp0.0 10.92.31.254
10.218.14.0/24 fxp0.0 10.92.31.254
10.218.16.0/20 fxp0.0 10.92.31.254
10.218.32.0/20 fxp0.0 10.92.31.254
10.227.0.0/16 fxp0.0 10.92.31.254
10.255.111.0/24 ge-0/0/2.0 11.11.11.2
10.255.111.1/32 ge-0/0/2.0 11.11.11.2
10.255.111.2/32 ge-0/0/2.0 11.11.11.2
10.255.111.3/32 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.112.1/32 lo0.0
10.255.112.1/32 lo0.0
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
11.11.11.0/24 ge-0/0/2.0
11.11.11.1/32
12.12.12.0/24 ge-0/0/2.0 11.11.11.2
15.15.15.0/24 ge-0/0/1.0
15.15.15.1/32
22.22.22.0/24 ge-0/0/0.0
22.22.22.1/32
23.23.23.0/24 ge-0/0/2.0 11.11.11.2
24.24.24.0/24 ge-0/0/2.0 11.11.11.2
25.25.25.0/24 ge-0/0/2.0 11.11.11.2
128.92.17.45/32 ge-0/0/2.0 11.11.11.2
128.92.20.175/32 lo0.0
128.92.21.186/32 ge-0/0/2.0 11.11.11.2
128.92.25.135/32 ge-0/0/2.0 11.11.11.2
128.92.27.91/32 ge-0/0/2.0 11.11.11.2
128.92.28.70/32 ge-0/0/2.0 11.11.11.2
172.16.0.0/12 fxp0.0 10.92.31.254
192.168.0.0/16 fxp0.0 10.92.31.254
192.168.102.0/23 fxp0.0 10.92.31.254
207.17.136.0/24 fxp0.0 10.92.31.254
207.17.136.192/32 fxp0.0 10.92.31.254
207.17.137.0/24 fxp0.0 10.92.31.254
224.0.0.5/32
Sens
La sortie affiche les routes FEC et shadow de l’équipement R0
Configuration des préférences de routage LDP
Lorsque plusieurs protocoles calculent des routes vers la même destination, les préférences de routage sont utilisées pour sélectionner le routage installé dans la table de transfert. Le routage avec la valeur de préférence la plus faible est sélectionné. La valeur de préférence peut être un nombre entre 0 et 255. Par défaut, les routes LDP ont une valeur de préférence 9.
Pour modifier les préférences de routage, incluez l’instruction preference
:
preference preference;
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
LDP Graceful Restart
Le redémarrage progressif LDP permet à un routeur dont le plan de contrôle LDP est en cours de redémarrage de continuer à faire avancer le trafic tout en récupérant son état des routeurs voisins. Il permet également un routeur sur lequel le mode d’assistance est activé pour aider un routeur voisin qui tente de redémarrer LDP.
Lors de l’initialisation de session, un routeur annonce sa capacité à effectuer un redémarrage graceful LDP ou à tirer parti d’un voisin effectuant un redémarrage gracieux LDP en envoyant le redémarrage gracieux TLV. Cette TLV contient deux champs pertinents pour le redémarrage progressif LDP : le temps de reconnexion et le temps de récupération. Les valeurs des temps de reconnexion et de récupération indiquent les capacités de redémarrage gracieuses prises en charge par le routeur.
Lorsqu’un routeur découvre qu’un routeur voisin redémarre, il attend la fin du temps de récupération avant de tenter de se reconnecter. Le temps de récupération est la durée d’attente d’un routeur pour le redémarrage progressif du LDP. La période de récupération commence lorsqu’un message d’initialisation est envoyé ou reçu. Cette période correspond également généralement à la durée pendant 2019 qu’un routeur voisin conserve ses informations sur le routeur de redémarrage, ce qui lui permet de continuer à transférer le trafic.
Vous pouvez configurer le redémarrage progressif LDP dans l’instance principale pour le protocole LDP et pour une instance de routage spécifique. Vous pouvez désactiver le redémarrage progressif au niveau global pour tous les protocoles, au niveau du protocole uniquement pour LDP et sur une instance de routage spécifique. Le redémarrage progressif LDP est désactivé par défaut, car au niveau global, le redémarrage progressif est désactivé par défaut. Cependant, le mode d’assistance (la possibilité d’aider un routeur voisin à tenter un redémarrage progressif) est activé par défaut.
Voici quelques-uns des comportements associés au redémarrage progressif LDP :
Les étiquettes sortantes ne sont pas maintenues lors des redémarrages. De nouvelles étiquettes sortantes sont allouées.
Lorsqu’un routeur redémarre, aucun message de carte d’étiquettes n’est envoyé aux voisins qui prennent en charge le redémarrage progressif tant que le routeur ne s’est pas stabilisé (les messages de carte d’étiquettes sont immédiatement envoyés aux voisins qui ne prennent pas en charge le redémarrage progressif). Cependant, tous les autres messages (keepalive, adresse-message, notification et publication) sont envoyés comme d’habitude. La distribution de ces autres messages empêche le routeur de distribuer des informations incomplètes.
Le mode d’assistance et le redémarrage progressif sont indépendants. Vous pouvez désactiver le redémarrage progressif dans la configuration, tout en permettant au routeur de coopérer avec un voisin essayant de redémarrer gracieusement.
Configuration du redémarrage progressif LDP
Lorsque vous modifiez la configuration de redémarrage progressif au niveau ou [edit protocols ldp graceful-restart]
de la [edit routing-options graceful-restart]
hiérarchie, toute session LDP en cours d’exécution est automatiquement redémarrée pour appliquer la configuration de redémarrage progressif. Ce comportement reflète le comportement de BGP lorsque vous modifiez sa configuration de redémarrage progressif.
Par défaut, le mode d’assistance au redémarrage progressif est activé, mais le redémarrage progressif est désactivé. Ainsi, le comportement par défaut d’un routeur est d’aider les routeurs voisins à tenter un redémarrage gracieux, mais pas de tenter un redémarrage gracieux lui-même.
Pour configurer le redémarrage progressif LDP, consultez les sections suivantes :
- Activation d’un redémarrage progressif
- Désactiver le mode LDP Graceful Restart ou Helper
- Configuration de l’heure de connexion
- Configuration du temps de récupération et du temps de récupération maximal
Activation d’un redémarrage progressif
Pour activer le redémarrage progressif LDP, vous devez également activer le redémarrage progressif sur le routeur. Pour permettre un redémarrage progressif, incluez l’énoncé graceful-restart
:
graceful-restart;
Vous pouvez inclure cette déclaration aux niveaux hiérarchiques suivants :
[edit routing-options]
[edit logical-systems logical-system-name routing-options]
Les routeurs ACX Series ne prennent pas en charge le niveau hiérarchique [edit logical-systems logical-system-name routing-options
].
L’instruction graceful-restart
permet un redémarrage progressif pour tous les protocoles prenant en charge cette fonctionnalité sur le routeur. Pour plus d’informations sur le redémarrage progressif, consultez la bibliothèque de protocoles de routage Junos OS pour les équipements de routage.
Par défaut, le redémarrage progressif LDP est activé lorsque vous activez le redémarrage progressif au niveau du protocole LDP et sur toutes les instances de routage. Toutefois, vous pouvez désactiver à la fois le mode d’aide au redémarrage progressif LDP et le mode d’aide au redémarrage progressif LDP.
Désactiver le mode LDP Graceful Restart ou Helper
Pour désactiver le redémarrage et la récupération progressifs LDP, incluez l’énoncé disable
:
ldp { graceful-restart { disable; } }
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
Vous pouvez désactiver le mode d’assistance au niveau des protocoles LDP uniquement. Vous ne pouvez pas désactiver le mode d’assistance pour une instance de routage spécifique. Pour désactiver le mode d’assistance LDP, incluez l’énoncé helper-disable
:
ldp { graceful-restart { helper-disable; } }
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
Les configurations de redémarrage progressif LDP suivantes sont possibles :
Le redémarrage progressif LDP et le mode d’assistance sont tous deux activés.
Le redémarrage progressif LDP est désactivé, mais le mode d’assistance est activé. Un routeur configuré de cette manière ne peut pas redémarrer gracieusement, mais peut aider un voisin qui redémarre.
Le redémarrage progressif LDP et le mode d’assistance sont tous deux désactivés. Le routeur n’utilise pas de redémarrage progressif LDP ou le type, la longueur et la valeur (TLV) envoyés dans le message d’initialisation. Le routeur se comporte comme un routeur qui ne peut pas prendre en charge le redémarrage progressif LDP.
Une erreur de configuration est émise si vous tentez d’activer le redémarrage progressif et de désactiver le mode d’assistance.
Configuration de l’heure de connexion
Après l’échec de la connexion LDP entre voisins, les voisins attendent un certain temps pour que le routeur qui redémarre gracieusement reprenne l’envoi de messages LDP. Après la période d’attente, la session LDP peut être rétablie. Vous pouvez configurer la période d’attente en quelques secondes. Cette valeur est incluse dans la tolérance de session TLV envoyée dans les messages d’initialisation LDP lorsque le redémarrage progressif LDP est activé.
Supposons que le routeur A et le routeur B soient voisins LDP. Le routeur A est le routeur de redémarrage. Le temps de reconnexion est le temps que le routeur A indique au routeur B d’attendre après que le routeur B détecte que le routeur A a redémarré.
Pour configurer le temps de reconnexion, incluez l’instruction reconnect-time
:
graceful-restart { reconnect-time seconds; }
Vous pouvez définir le temps de connexion à une valeur comprise entre 30 et 300 secondes. Par défaut, il est de 60 secondes.
Pour obtenir la liste des niveaux hiérarchiques sur lesquels vous pouvez configurer ces instructions, consultez les sections de synthèse de ces déclarations.
Configuration du temps de récupération et du temps de récupération maximal
Le temps de récupération est le temps qu’un routeur attend pour que le LDP redémarre correctement. La période de récupération commence lorsqu’un message d’initialisation est envoyé ou reçu. Cette période correspond généralement au temps qu’un routeur voisin conserve ses informations sur le routeur de redémarrage, ce qui lui permet de continuer à transférer le trafic.
Pour éviter qu’un routeur voisin ne soit affecté s’il reçoit une fausse valeur pour le temps de récupération du routeur de redémarrage, vous pouvez configurer le temps de récupération maximum sur le routeur voisin. Un routeur voisin maintient son état pendant la plus courte des deux fois. Par exemple, le routeur A effectue un redémarrage progressif LDP. Il a envoyé un temps de récupération de 900 secondes au routeur B voisin. Cependant, le temps de récupération maximal du routeur B est configuré à 400 secondes. Le routeur B n’attend que 400 secondes avant de purger ses informations LDP du routeur A.
Pour configurer le temps de récupération, incluez l’instruction recovery-time
et l’instruction maximum-neighbor-recovery-time
:
graceful-restart { maximum-neighbor-recovery-time seconds; recovery-time seconds; }
Pour obtenir la liste des niveaux hiérarchiques sur lesquels vous pouvez configurer ces instructions, consultez les sections de synthèse de ces déclarations.
Filtrage des liaisons d’étiquettes LDP entrantes
Vous pouvez filtrer les liaisons de labels LDP reçues, en appliquant des stratégies pour accepter ou refuser les liaisons annoncées par les routeurs voisins. Pour configurer le filtrage des étiquettes reçues, incluez l’énoncé import
:
import [ policy-names ];
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
La stratégie nommée (configurée au niveau de la [edit policy-options]
hiérarchie) est appliquée à toutes les liaisons de labels reçues de tous les voisins LDP. Tout le filtrage est effectué à l’aide from
d’instructions. Tableau 1 Répertorie les seuls from
opérateurs qui s’appliquent au filtrage des étiquettes reçues LDP.
from Opérateur |
Description |
---|---|
|
Correspondances sur les liaisons reçues d’un voisin adjacent sur l’interface spécifiée |
|
Correspondances sur les liaisons reçues de l’ID de routeur LDP spécifié |
|
Correspondances sur les liaisons reçues d’un voisin annonçant l’adresse d’interface spécifiée |
|
Correspondances sur les liaisons avec le préfixe spécifié |
Si une liaison est filtrée, elle apparaît toujours dans la base de données LDP, mais elle n’est pas envisagée pour l’installation dans le cadre d’un chemin de commutation d’étiquettes (LSP).
En règle générale, l’application de stratégies dans le LDP ne peut être utilisée que pour bloquer l’établissement des LSP, et non pour contrôler leur routage. En effet, le chemin qu’un LSP suit est déterminé par le routage unicast, et non par LDP. Toutefois, lorsqu’il existe plusieurs chemins à coût égal vers la destination à travers différents voisins, vous pouvez utiliser le filtrage LDP pour exclure certains des sauts suivants possibles de la prise en compte. (Sinon, LDP choisit l’un des sauts suivants possibles au hasard.)
Les sessions LDP ne sont pas liées aux interfaces ou aux adresses d’interface. LDP ne fait de la publicité que pour les labels par routeur (et non par interface) ; Ainsi, si plusieurs liaisons parallèles existent entre deux routeurs, une seule session LDP est établie et elle n’est pas liée à une seule interface. Lorsqu’un routeur a plusieurs adjacenances à un même voisin, veillez à ce que le filtre fasse ce qui est attendu. (En général, utiliser next-hop
et interface
n’est pas approprié dans ce cas.)
Si une étiquette a été filtrée (c’est-à-dire qu’elle a été rejetée par la stratégie et n’est pas utilisée pour construire un LSP), elle est marquée comme filtrée dans la base de données :
user@host> show ldp database Input label database, 10.10.255.1:0-10.10.255.6:0 Label Prefix 3 10.10.255.6/32 (Filtered) Output label database, 10.10.255.1:0-10.10.255.6:0 Label Prefix 3 10.10.255.1/32 (Filtered)
Pour plus d’informations sur la configuration des stratégies LDP, consultez le Guide de l’utilisateur des stratégies de routage, des filtres de pare-feu et du contrôle du trafic.
Exemples: Filtrage des liaisons d’étiquettes LDP entrantes
N’acceptez que /32 préfixes de tous les voisins :
[edit] protocols { ldp { import only-32; ... } } policy-options { policy-statement only-32 { term first { from { route-filter 0.0.0.0/0 upto /31; } then reject; } then accept; } }
Accepter 131.108/16
ou plus à partir de l’ID 10.10.255.2
de routeur et accepter tous les préfixes de tous les autres voisins :
[edit] protocols { ldp { import nosy-neighbor; ... } } policy-options { policy-statement nosy-neighbor { term first { from { neighbor 10.10.255.2; route-filter 131.108.0.0/16 orlonger accept; route-filter 0.0.0.0/0 orlonger reject; } } then accept; } }
Filtrage des liaisons d’étiquettes LDP sortantes
Vous pouvez configurer des stratégies d’exportation pour filtrer les étiquettes sortantes LDP. Vous pouvez filtrer les liaisons d’étiquettes sortantes en appliquant des stratégies de routage pour bloquer les liaisons d’être annoncées sur les routeurs voisins. Pour configurer le filtrage des étiquettes sortantes, incluez l’énoncé export
:
export [policy-name];
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
La stratégie d’exportation nommée (configurée au niveau de la [edit policy-options]
hiérarchie) est appliquée à toutes les liaisons de labels transmises à tous les voisins LDP. Le seul from
opérateur qui s’applique au filtrage d’étiquettes sortants LDP est route-filter
, qui fait correspondre les liaisons avec le préfixe spécifié. Les seuls to
opérateurs qui s’appliquent au filtrage d’étiquettes sortant sont les opérateurs dans Tableau 2.
à l’opérateur |
Description |
---|---|
|
Correspondances sur les liaisons envoyées à un voisin adjacent sur l’interface spécifiée |
|
Correspondances sur les liaisons envoyées à l’ID de routeur LDP spécifié |
|
Correspondances sur les liaisons envoyées à un voisin en annonçant l’adresse d’interface spécifiée |
Si une liaison est filtrée, la liaison n’est pas annoncée au routeur voisin, mais elle peut être installée dans le cadre d’un LSP sur le routeur local. Vous pouvez appliquer des stratégies dans le LDP pour bloquer l’établissement des LSP, mais pas pour contrôler leur routage. Le chemin que suit un LSP est déterminé par le routage unicast, et non par LDP.
Les sessions LDP ne sont pas liées aux interfaces ou aux adresses d’interface. LDP ne fait de la publicité que pour les labels par routeur (et non par interface). Si plusieurs liaisons parallèles existent entre deux routeurs, une seule session LDP est établie et elle n’est pas liée à une seule interface.
Ne pas utiliser le next-hop
et interface
les opérateurs lorsqu’un routeur a plusieurs adjacencies à un même voisin.
Les étiquettes filtrées sont marquées dans la base de données :
user@host> show ldp database Input label database, 10.10.255.1:0-10.10.255.3:0 Label Prefix 100007 10.10.255.2/32 3 10.10.255.3/32 Output label database, 10.10.255.1:0-10.10.255.3:0 Label Prefix 3 10.10.255.1/32 100001 10.10.255.6/32 (Filtered)
Pour plus d’informations sur la configuration des stratégies LDP, consultez le Guide de l’utilisateur des stratégies de routage, des filtres de pare-feu et du contrôle du trafic.
Exemples: Filtrage des liaisons d’étiquettes LDP sortantes
Bloc transmission de la route pour 10.10.255.6/32
n’importe quel voisin :
[edit protocols] ldp { export block-one; } policy-options { policy-statement block-one { term first { from { route-filter 10.10.255.6/32 exact; } then reject; } then accept; } }
Envoyez uniquement 131.108/16
ou plus à l’ID 10.10.255.2
du routeur , et envoyez tous les préfixes à tous les autres routeurs :
[edit protocols] ldp { export limit-lsps; } policy-options { policy-statement limit-lsps { term allow-one { from { route-filter 131.108.0.0/16 orlonger; } to { neighbor 10.10.255.2; } then accept; } term block-the-rest { to { neighbor 10.10.255.2; } then reject; } then accept; } }
Spécification de l’adresse de transport utilisée par LDP
Les routeurs doivent d’abord établir une session TCP entre eux avant de pouvoir établir une session LDP. La session TCP permet aux routeurs d’échanger les publicités d’étiquettes nécessaires pour la session LDP. Pour établir la session TCP, chaque routeur doit connaître l’adresse de transport de l’autre routeur. L’adresse de transport est une adresse IP utilisée pour identifier la session TCP sur laquelle la session LDP s’exécutera.
Pour configurer l’adresse de transport LDP, incluez l’instruction adresse de transport :
transport-address (router-id | interface);
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
Si vous spécifiez l’option router-id
, l’adresse de l’identifiant du routeur est utilisée comme adresse de transport (sauf configuration contraire, l’identifiant du routeur est généralement le même que l’adresse de bouclage). Si vous spécifiez l’option interface
, l’adresse de l’interface est utilisée comme adresse de transport pour toutes les sessions LDP vers les voisins qui peuvent être atteints sur cette interface. Notez que l’identifiant du routeur est utilisé comme adresse de transport par défaut.
Pour un bon fonctionnement, l’adresse de transport LDP doit être accessible. L’ID de routeur est un identifiant, et non une adresse IP routable. Pour cette raison, il a recommandé que l’ID de routeur soit défini pour correspondre à l’adresse de bouclage et que l’adresse de bouclage soit annoncée par l’IGP.
Vous ne pouvez pas spécifier l’option interface
lorsqu’il existe plusieurs liaisons parallèles vers le même voisin LDP, car la spécification LDP exige que la même adresse de transport soit annoncée sur toutes les interfaces vers le même voisin. Si le LDP détecte plusieurs liaisons parallèles vers le même voisin, il désactive les interfaces vers ce voisin une par une jusqu’à ce que la condition soit désactivée, soit en déconnectant le voisin sur une interface, soit en spécifiant l’option router-id
.
Adresse de transport de contrôle utilisée pour les sessions LDP ciblées
Pour établir une session TCP entre deux équipements, chaque équipement doit connaître l’adresse de transport de l’autre équipement. L’adresse de transport est une adresse IP utilisée pour identifier la session TCP sur laquelle la session LDP opère. Auparavant, cette adresse de transport ne pouvait être que l’ID de routeur ou une adresse d’interface. Avec la fonctionnalité d’adresse de transport LDP, vous pouvez configurer explicitement n’importe quelle adresse IP en tant qu’adresse de transport pour les voisins LDP ciblés pour les adjacencies de circuit de couche 2, MPLS et VPLS. Vous pouvez ainsi contrôler les sessions LDP ciblées à l’aide de la configuration d’adresse de transport.
- Avantages du contrôle de l’adresse de transport utilisée pour les sessions LDP ciblées
- Présentation de l’adresse de transport Targeted-LDP
- Préférences d’adresse de transport
- Dépannage de la configuration des adresses de transport
Avantages du contrôle de l’adresse de transport utilisée pour les sessions LDP ciblées
La configuration de l’adresse de transport pour l’établissement de sessions LDP ciblées présente les avantages suivants :
Flexible interface configurations— Permet de configurer plusieurs adresses IP pour une interface de bouclage sans interrompre la création d’une session LDP entre les voisins LDP ciblés.
Ease of operation— L’adresse de transport configurée au niveau de l’interface vous permet d’utiliser plusieurs protocoles dans la dorsale IGP pour LDP. Cela permet des opérations fluides et faciles.
Présentation de l’adresse de transport Targeted-LDP
Avant la version 19.1R1 de Junos OS, LDP ne supportait que l’ID de routeur ou l’adresse d’interface en tant qu’adresse de transport sur n’importe quelle interface LDP. Les adjacencies formées sur cette interface utilisent l’une des adresses IP attribuées à l’interface ou à l’ID de routeur. En cas d’adjacence ciblée, l’interface est l’interface de bouclage. Lorsque plusieurs adresses de bouclage ont été configurées sur l’équipement, l’adresse de transport n’a pas pu être dérivée pour l’interface et, par conséquent, la session LDP n’a pas pu être établie.
À partir de la version 19.1R1 de Junos OS, en plus des adresses IP par défaut utilisées pour l’adresse de transport des sessions LDP ciblées, vous pouvez configurer n’importe quelle autre adresse IP en tant qu’adresse de transport sous les session
, session-group
et interface
les déclarations de configuration. La configuration de l’adresse de transport s’applique uniquement aux voisins configurés, y compris les circuits de couche 2, les adjacencies MPLS et VPLS. Cette configuration ne s’applique pas aux adjacencies découvertes (ciblées ou non).
Préférences d’adresse de transport
Vous pouvez configurer l’adresse de transport pour les sessions LDP ciblées au niveau de la session, du groupe de session et de l’interface.
Une fois l’adresse de transport configurée, la session LDP ciblée est établie en fonction de la préférence d’adresse de transport de LDP.
L’ordre de préférence de l’adresse de transport pour le voisin cible (configuré via circuit de couche 2, MPLS, VPLS et configuration LDP) est le suivant :
Sous
[edit protocols ldp session]
hiérarchie.Sous
[edit protocols ldp session-group]
hiérarchie.Sous
[edit protocols ldp interfcae lo0]
hiérarchie.Sous
[edit protocols ldp]
hiérarchie.Adresse par défaut.
L’ordre de préférence de l’adresse de transport pour les voisins découverts est le suivant :
Sous
[edit protocols ldp interfcae]
hiérarchie.Sous
[edit protocols ldp]
hiérarchie.Adresse par défaut.
L’ordre de préférence de l’adresse de transport pour les voisins ciblés automatiquement où LDP est configuré pour accepter les paquets bonjour est le suivant :
Sous
[edit protocols ldp interfcae lo0]
hiérarchie.Sous
[edit protocols ldp]
hiérarchie.Adresse par défaut.
Dépannage de la configuration des adresses de transport
Vous pouvez utiliser les sorties de commande show suivantes pour résoudre les problèmes liés aux sessions LDP ciblées :
show ldp session
show ldp neighbor
Le
detail
niveau de sortie de lashow ldp neighbor
commande affiche l’adresse de transport envoyée dans les messages bonjour au voisin ciblé. Si cette adresse n’est pas accessible depuis le voisin, la session LDP n’est pas disponible.show configuration protocols ldp
Vous pouvez également activer les options de traçage LDP pour un dépannage plus poussé.
Si la configuration passe d’une adresse de transport non valide (non accessible) à une adresse de transport valide, les traces suivantes peuvent être observées :
May 29 10:47:11.569722 Incoming connect from 10.55.1.4 May 29 10:47:11.570064 Connection 10.55.1.4 state Closed -> Open May 29 10:47:11.570727 Session 10.55.1.4 state Nonexistent -> Initialized May 29 10:47:11.570768 Session 10.55.1.4 state Initialized -> OpenRec May 29 10:47:11.570799 LDP: Session param Max PDU length 4096 from 10.55.1.4, negotiated 4096 May 29 10:47:11.570823 Session 10.55.1.4 GR state Nonexistent -> Operational May 29 10:47:11.669295 Session 10.55.1.4 state OpenRec -> Operational May 29 10:47:11.669387 RPD_LDP_SESSIONUP: LDP session 10.55.1.4 is up
Si la configuration est remplacée par une adresse de transport valide par une adresse de transport non valide (non accessible), les traces suivantes peuvent être observées :
May 29 10:42:36.317942 Session 10.55.1.4 GR state Operational -> Nonexistent May 29 10:42:36.318171 Session 10.55.1.4 state Operational -> Closing May 29 10:42:36.318208 LDP session 10.55.1.4 is down, reason: received notification from peer May 29 10:42:36.318236 RPD_LDP_SESSIONDOWN: LDP session 10.55.1.4 is down, reason: received notification from peer May 29 10:42:36.320081 Connection 10.55.1.4 state Open -> Closed May 29 10:42:36.322411 Session 10.55.1.4 state Closing -> Nonexistent
En cas de configuration défaillante, effectuez les tâches de dépannage suivantes :
Consultez le fichier
address family
. L’adresse de transport configurée dans l’instructionsession
doit appartenir à la même famille d’adresses que le voisin ou la session.L’adresse configurée en tant qu’adresse de transport sous une
neighbor
ousession
instruction doit être locale au routeur pour que les messages de bonjour ciblés commencent. Vous pouvez vérifier si l’adresse est configurée. Si l’adresse n’est configurée sous aucune interface, la configuration est rejetée.
Configuration des préfixes annoncés dans LDP à partir de la table de routage
Vous pouvez contrôler l’ensemble de préfixes annoncés dans LDP et faire en sorte que le routeur soit le routeur sortant de ces préfixes. Par défaut, seule l’adresse de bouclage est annoncée dans LDP. Pour configurer l’ensemble de préfixes de la table de routage à publier dans LDP, incluez l’instruction egress-policy
:
egress-policy policy-name;
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
Si vous configurez une stratégie de sortie pour LDP qui n’inclut pas l’adresse de bouclage, elle n’est plus annoncée dans LDP. Pour continuer à annoncer l’adresse de bouclage, vous devez la configurer explicitement dans le cadre de la stratégie de sortie LDP.
La stratégie nommée (configurée au niveau de la [edit policy-options]
hiérarchie) [edit logical-systems logical-system-name policy-options]
est appliquée à tous les routes de la table de routage. Les routes qui correspondent à la stratégie sont annoncées dans LDP. Vous pouvez contrôler l’ensemble des voisins auxquels ces préfixes sont annoncés à l’aide de l’instruction export
. Seuls from les opérateurs sont pris en compte. Vous pouvez utiliser n’importe quel opérateur valide from . Pour plus d’informations, consultez la bibliothèque de protocoles de routage Junos OS pour les équipements de routage.
Les routeurs ACX Series ne prennent pas en charge le niveau hiérarchique [edit logical-systems
].
Exemple : Configuration des préfixes annoncés dans LDP
Annoncez toutes les routes connectées dans LDP :
[edit protocols] ldp { egress-policy connected-only; } policy-options { policy-statement connected-only { from { protocol direct; } then accept; } }
Configuration de la désagrégation FEC
Lorsqu’un routeur sortant LDP annonce plusieurs préfixes, les préfixes sont liés à une seule étiquette et agrégés en une seule classe d’équivalence de transfert (FEC). Par défaut, LDP maintient cette agrégation lorsque la publicité traverse le réseau.
Normalement, comme un LSP n’est pas divisé en plusieurs sauts suivants et que les préfixes sont liés en un seul LSP, il n’est pas possible d’équilibrer la charge sur des chemins à coût égal. Vous pouvez cependant équilibrer la charge sur des chemins à coût égal si vous configurez une stratégie d’équilibrage de charge et que vous désagrégez les FEC.
En désagrégant les FEC, chaque préfixe est lié à un label distinct et devient un LSP distinct.
Pour configurer les FEC désagrégés, incluez l’énoncé deaggregate
:
deaggregate;
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
Pour toutes les sessions LDP, vous pouvez configurer des FEC désagrégés uniquement dans le monde entier.
La désagrégation d’un FEC permet de distribuer plusieurs LSP sur plusieurs chemins à coût égal et distribue les LSP sur les multiples sauts suivants sur les segments sortants, mais n’installe qu’un seul saut suivant par LSP.
Pour agréger les FEC, incluez l’énoncé no-deaggregate
:
no-deaggregate;
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
Pour toutes les sessions LDP, vous pouvez configurer des FEC agrégées uniquement à l’échelle mondiale.
Configuration des polices pour les FEC LDP
Vous pouvez configurer Junos OS pour suivre et surveiller le trafic pour les FEC LDP. Les contrôles FEC LDP peuvent être utilisés pour effectuer l’une des opérations suivantes :
Suivez ou contrôlez le trafic entrant pour un FEC LDP.
Suivez ou contrôlez le trafic de transit pour un LDP FEC.
Suivez ou contrôlez le trafic FEC LDP provenant d’une classe de transfert spécifique.
Suivez ou contrôlez le trafic FEC LDP provenant d’un site de routage et de transfert virtuel (VRF) spécifique.
Éliminez le faux trafic lié à un FEC LDP spécifique.
Pour gérer le trafic d’un FEC LDP, vous devez d’abord configurer un filtre. En particulier, vous devez configurer l’instruction interface
ou l’instruction interface-set
au niveau de la [edit firewall family protocol-family filter filter-name term term-name from]
hiérarchie. L’instruction interface
vous permet de faire correspondre le filtre à une interface unique. L’instruction interface-set
vous permet de faire correspondre le filtre à plusieurs interfaces.
Pour plus d’informations sur la configuration de l’instruction interface
, de l’instruction interface-set
et des stratégies pour les FEC LDP, consultez le Guide de l’utilisateur des stratégies de routage, des filtres de pare-feu et des polices du trafic.
Une fois les filtres configurés, vous devez les inclure dans la configuration de l’instruction policing
pour LDP. Pour configurer des contrôles pour les FEC LDP, incluez l’énoncé policing
:
policing { fec fec-address { ingress-traffic filter-name; transit-traffic filter-name; } }
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
L’instruction policing
comprend les options suivantes :
fec
: spécifiez l’adresse FEC du LDP FEC que vous souhaitez assurer.ingress-filter
: spécifiez le nom du filtre de trafic entrant.transit-traffic
: spécifiez le nom du filtre de trafic de transit.
Configuration du filtrage FEC LDP IPv4
Par défaut, lorsqu’une session LDP ciblée est établie, Junos OS échange toujours les classes d’équivalence de transfert IPv4 (FEC) et les FEC de circuit de couche 2 sur la session LDP ciblée. Pour une session LDP vers un voisin indirectement connecté, vous pouvez exporter des circuits FEC de couche 2 vers le voisin uniquement si la session a été spécialement configurée pour prendre en charge les circuits de couche 2 ou VPLS.
Dans un réseau de fournisseurs mixtes où tous les préfixes non-BGP sont annoncés dans LDP, la base de données LDP peut devenir volumineuse. Pour ce type d’environnement, il peut être utile d’empêcher la publicité des FEC IPv4 sur les sessions LDP formées en raison d’une configuration de circuit de couche 2 ou VPLS LDP. De même, il peut être utile de filtrer les FEC IPv4 reçus dans ce type d’environnement.
Si tous les voisins LDP associés à une session LDP sont uniquement de couche 2, vous pouvez configurer Junos OS pour qu’il annonce uniquement les circuits FEC de couche 2 en configurant l’instruction l2-smart-policy
. Cette fonctionnalité filtre également automatiquement les FEC IPv4 reçus lors de cette session. La configuration d’une stratégie d’exportation ou d’importation explicite activée pour l2-smart-policy
désactiver cette fonctionnalité dans le sens correspondant.
Si l’un des voisins de la session LDP est formé en raison d’une adjacence découverte ou si l’adjacence est formée en raison d’une configuration de tunnelisation LDP sur un ou plusieurs LSP RSVP, les FEC IPv4 sont annoncés et reçus en utilisant le comportement par défaut.
Pour empêcher le LDP d’exporter des FEC IPv4 sur des sessions LDP avec des voisins de couche 2 uniquement et pour filtrer les FEC IPv4 reçus sur ces sessions, incluez la l2-smart-policy
déclaration :
l2-smart-policy;
Pour obtenir une liste des niveaux hiérarchiques sur lesquels vous pouvez configurer cette instruction, consultez le résumé de l’instruction pour cette instruction.
Configuration de BFD pour les LSP LDP
Vous pouvez configurer la détection de transfert bidirectionnel (BFD) pour les LDP LSP. Le protocole BFD est un mécanisme simple de bonjour qui détecte les défaillances d’un réseau. Bonjour, les paquets sont envoyés à un intervalle précis et régulier. Une défaillance de voisinage est détectée lorsque le routeur cesse de recevoir une réponse après un intervalle spécifié. BFD fonctionne avec une grande variété d’environnements et topologies réseau. Les timers de détection des défaillances pour BFD ont des délais plus courts que les mécanismes de détection de défaillance des routes statiques, ce qui permet une détection plus rapide.
Une erreur est enregistrée chaque fois qu’une session BFD d’un chemin échoue. Les informations suivantes montrent comment les messages de journal BFD pour LDP LSP peuvent apparaître :
RPD_LDP_BFD_UP: LDP BFD session for FEC 10.255.16.14/32 is up RPD_LDP_BFD_DOWN: LDP BFD session for FEC 10.255.16.14/32 is down
Vous pouvez également configurer BFD pour les LSP RSVP, comme décrit dans Configuration de BFD pour les LSP signalés par RSVP.
Les timers de détection de défaillance BFD sont adaptatifs et peuvent être ajustés pour être plus ou moins agressifs. Par exemple, les timers peuvent s’adapter à une valeur plus élevée si l’adjacence échoue, ou un voisin peut négocier une valeur plus élevée pour un timer que la valeur configurée. Les timers s’adaptent à une valeur plus élevée lorsqu’un volet de session BFD se produit plus de trois fois sur une durée de 15 secondes. Un algorithme de back-off augmente l’intervalle de réception (Rx) de deux si l’instance BFD locale est la raison du rabat de session. L’intervalle de transmission (Tx) est augmenté de deux si l’instance BFD distante est la raison du volet de session. Vous pouvez utiliser la clear bfd adaptation
commande pour renvoyer les intervalles BFD à leurs valeurs configurées. La clear bfd adaptation
commande est sans heurt, ce qui signifie que la commande n’affecte pas le flux de trafic sur l’équipement de routage.
Pour activer BFD pour les LDP LSP, incluez les oam
et bfd-liveness-detection
déclarations :
oam { bfd-liveness-detection { detection-time threshold milliseconds; ecmp; failure-action { remove-nexthop; remove-route; } holddown-interval seconds; ingress-policy ingress-policy-name; minimum-interval milliseconds; minimum-receive-interval milliseconds; minimum-transmit-interval milliseconds; multiplier detection-time-multiplier; no-adaptation; transmit-interval { minimum-interval milliseconds; threshold milliseconds; } version (0 | 1 | automatic); } fec fec-address { bfd-liveness-detection { detection-time threshold milliseconds; ecmp; failure-action { remove-nexthop; remove-route; } holddown-interval milliseconds; ingress-policy ingress-policy-name; minimum-interval milliseconds; minimum-receive-interval milliseconds; minimum-transmit-interval milliseconds; multiplier detection-time-multiplier; no-adaptation; transmit-interval { minimum-interval milliseconds; threshold milliseconds; } version (0 | 1 | automatic); } no-bfd-liveness-detection; periodic-traceroute { disable; exp exp-value; fanout fanout-value; frequency minutes; paths number-of-paths; retries retry-attempts; source address; ttl ttl-value; wait seconds; } } lsp-ping-interval seconds; periodic-traceroute { disable; exp exp-value; fanout fanout-value; frequency minutes; paths number-of-paths; retries retry-attempts; source address; ttl ttl-value; wait seconds; } }
Vous pouvez activer BFD pour les LDP LSP associés à une classe d’équivalence de transfert (FEC) spécifique en configurant l’adresse FEC à l’aide de l’option fec
au niveau de la [edit protocols ldp]
hiérarchie. Vous pouvez également configurer une stratégie OAM (Operation Administration and Management) pour activer le BFD sur une gamme d’adresses FEC. Pour plus d’informations, voir Configuration des stratégies d’entrée OAM pour LDP.
Vous ne pouvez pas activer les LSP BFD LDP à moins que leurs adresses FEC équivalentes ne soient explicitement configurées ou qu’OAM soit activé sur les FEC à l’aide d’une stratégie d’entrée OAM. Si le BFD n’est pas activé pour les adresses FEC, la session BFD n’est pas disponible.
Vous pouvez configurer l’instruction oam
aux niveaux hiérarchiques suivants :
[edit protocols ldp]
[edit logical-systems logical-system-name protocols ldp]
Les routeurs ACX Series ne prennent pas en charge le niveau hiérarchique [edit logical-systems
].
L’instruction oam
comprend les options suivantes :
fec
: spécifiez l’adresse FEC. Vous devez spécifier une adresse FEC ou configurer une stratégie d’entrée OAM pour vous assurer que la session BFD apparaît.lsp-ping-interval
: spécifiez la durée de l’intervalle ping LSP en quelques secondes. Pour émettre un ping sur un LSP signalé par LDP, utilisez laping mpls ldp
commande. Pour plus d’informations, consultez l’explorateur CLI.
L’instruction bfd-liveness-detection
comprend les options suivantes :
ecmp
: le LDP doit établir des sessions BFD pour tous les chemins ECMP configurés pour le FEC spécifié. Si vous configurez l’optionecmp
, vous devez également configurer l’instructionperiodic-traceroute
pour le FEC spécifié. Si vous ne le faites pas, l’opération de validation échoue. Vous pouvez configurer l’instructionperiodic-traceroute
au niveau de la hiérarchie globale ([edit protocols ldp oam]
) tout en configurant uniquement l’optionecmp
pour un FEC spécifique ([edit protocols ldp oam fec address bfd-liveness-detection]
).holddown-interval : spécifiez la durée de la session BFD avant d’ajouter le routage ou le saut suivant. La spécification d’un temps de 0 seconde entraîne l’ajout du routage ou du saut suivant dès que la session BFD revient.
minimum-interval
: spécifiez l’intervalle de transmission et de réception minimal. Si vous configurez l’optionminimum-interval
, vous n’avez pas besoin de configurer l’optionminimum-receive-interval
ou l’optionminimum-transmit-interval
.minimum-receive-interval
: spécifiez l’intervalle de réception minimal. La plage est de 1 à 255 000 millisecondes.minimum-transmit-interval
: spécifiez l’intervalle de transmission minimal. La plage est de 1 à 255 000 millisecondes.multiplier
: spécifiez le multiplier de temps de détection. La gamme est de 1 à 255.version : spécifiez la version BFD. Les options sont BFD version 0 ou BFD version 1. Par défaut, le logiciel Junos OS tente de déterminer automatiquement la version BFD.
Configuration du BFD compatible ECMP pour les LSP LDP
Lorsque vous configurez BFD pour un FEC, une session BFD est établie pour un seul saut suivant local actif pour le routeur. Toutefois, vous pouvez configurer plusieurs sessions BFD, une pour chaque FEC associée à un chemin ecMP (Equal-Cost Multipath). Pour que cela fonctionne correctement, vous devez également configurer le traceroute périodique LDP LSP. (Voir Configuration de la traceroute LDP LSP.) Le traceroute LDP LSP est utilisé pour découvrir les chemins ECMP. Une session BFD est lancée pour chaque chemin ECMP découvert. Chaque fois qu’une session BFD pour l’un des chemins ECMP échoue, une erreur est enregistrée.
Le traceroute LSP LDP est exécuté régulièrement pour vérifier l’intégrité des chemins ECMP. Les éléments suivants peuvent se produire lorsqu’un problème est détecté :
Si la dernière traceroute LDP LSP d’un FEC diffère de la route de traceroute précédente, les sessions BFD associées à ce FEC (sessions BFD pour les plages d’adresses qui ont changé par rapport à l’exécution précédente) sont supprimées et de nouvelles sessions BFD sont lancées pour les adresses de destination dans les plages modifiées.
Si le traceroute LSP LDP renvoie une erreur (par exemple, un délai d’expiration), toutes les sessions BFD associées à ce FEC sont détruites.
Pour configurer le LDP afin d’établir des sessions BFD pour tous les chemins ECMP configurés pour le FEC spécifié, incluez l’instruction ecmp
.
ecmp;
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
En plus de l’instructionecmp
, vous devez également inclure l’instructionperiodic-traceroute
, soit dans la configuration OAM LDP globale (au [edit protocols ldp oam]
niveau hiérarchique) [edit logical-systems logical-system-name protocols ldp oam]
ou dans la configuration pour le FEC spécifié (au niveau ou [edit logical-systems logical-system-name protocols ldp oam fec address]
hiérarchique[edit protocols ldp oam fec address]
). Sinon, l’opération de validation échoue.
Les routeurs ACX Series ne prennent pas en charge le niveau hiérarchique [edit logical-systems
].
Configuration d’une action de défaillance pour la session BFD sur un LSP LDP
Vous pouvez configurer les propriétés de routage et de saut suivant en cas d’échec de session BFD sur un LSP LDP. L’événement de défaillance peut être une session BFD existante qui a été en panne ou une session BFD qui n’a jamais été mise en place. Le LDP ajoute le routage ou le saut suivant lorsque la session BFD concernée revient.
Vous pouvez configurer l’une des options d’action de défaillance suivantes pour l’instruction failure-action
en cas d’échec de session BFD sur le LSP LDP :
remove-nexthop
: supprime le routage correspondant au saut suivant du routage du LSP au niveau du nœud d’entrée lorsqu’un événement d’échec de session BFD est détecté.remove-route
— Retire le routage correspondant au LSP des tables de routage appropriées lorsqu’un événement d’échec de session BFD est détecté. Si le LSP est configuré avec ECMP et qu’une session BFD correspondant à n’importe quel chemin tombe en panne, le routage est supprimé.
Pour configurer une action de défaillance en cas d’échec de session BFD sur un LSP LDP, incluez l’option remove-nexthop
ou l’option remove-route
de l’instruction failure-action
:
failure-action { remove-nexthop; remove-route; }
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
Configuration de l’intervalle de retenue pour la session BFD
Vous pouvez spécifier la durée de la session BFD avant d’ajouter un routage ou un saut suivant en configurant l’instruction holddown-interval
au niveau de la [edit protocols ldp oam bfd-livenesss-detection]
hiérarchie ou au niveau de la [edit protocols ldp oam fec address bfd-livenesss-detection]
hiérarchie. La spécification d’un temps de 0 seconde entraîne l’ajout du routage ou du saut suivant dès que la session BFD revient.
holddown-interval seconds;
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
Configuration de la protection des liaisons LDP
Vous pouvez configurer la protection des liaisons LDP (Label Distribution Protocol) pour les chemins de commutation d’étiquettes (LSP) unicast et multicast LDP afin de fournir une résilience en cas de défaillance de liaison ou de nœud.
Avant de commencer :
Configurez les interfaces de l’équipement.
Configurez l’ID du routeur et le numéro du système autonome pour l’équipement.
Configurez les protocoles suivants :
RSVP
MPLS avec capacité d’ingénierie du trafic.
OSPF avec capacité d’ingénierie du trafic.
REMARQUE :Pour protéger les liaisons LDP multicast avec une alternative sans boucle (LFA), activez la protection des liaisons.
[edit protocols] user@R0# set ospf area 0 interface all link-protection
Pour configurer la protection des liaisons LDP :
Exemple : Configuration de la protection des liaisons LDP
- Présentation de la protection des liaisons LDP
- Exemple : Configuration de la protection des liaisons LDP
Présentation de la protection des liaisons LDP
- Introduction au LDP
- Implémentation du protocole Junos OS LDP
- Comprendre les extensions multipoint pour LDP
- Utilisation d’extensions multipoints pour LDP sur des sessions LDP ciblées
- Limites actuelles de la protection des liaisons LDP
- Utilisation de RSVP LSP en tant que solution
- Comprendre la protection des liaisons LDP multicast
- Différents modes de protection des liaisons LDP
- Opération d’étiquetage pour la protection des liaisons LDP
- Exemple de configuration de la protection de liaison LDP multicast
- Faites-le avant-break
- Mises en garde et limites
Introduction au LDP
Le protocole LDP (Label Distribution Protocol) est un protocole permettant de distribuer des étiquettes dans des applications non conçues pour le trafic. Le LDP permet aux routeurs d’établir des chemins de commutation d’étiquettes (LSP) à travers un réseau en mappant les informations de routage de la couche réseau directement aux LSP de liaison de données.
Ces LSP peuvent avoir un point de terminaison au niveau d’un voisin directement connecté (comparable à un transfert IP hop-by-hop) ou à un nœud de sortie du réseau, ce qui permet de passer par tous les nœuds intermédiaires. Les LSP établis par LDP peuvent également passer par des LSP conçus par le trafic créés par RSVP.
Le LDP associe une classe d’équivalence de transfert (FEC) à chaque LSP qu’il crée. Le FEC associé à un LSP spécifie quels paquets sont mappés à ce LSP. Les LSP sont étendus via un réseau puisque chaque routeur choisit le label annoncé par le saut suivant pour le FEC et l’splice au label qu’il annonce à tous les autres routeurs. Ce processus forme un arbre de LSP qui convergent vers le routeur sortant.
Implémentation du protocole Junos OS LDP
L’implémentation junos OS de LDP prend en charge LDP version 1. Junos OS prend en charge un mécanisme simple de tunnelisation entre les routeurs dans un protocole de passerelle intérieure (IGP), afin d’éliminer la distribution requise de routes externes dans le cœur. Junos OS permet d’ajouter un tunnel MPLS à tous les routeurs sortants du réseau. Seul un IGP s’exécute au cœur pour distribuer les routes vers les routeurs sortants. Les routeurs de périphérie exécutent BGP mais ne distribuent pas de routes externes au cœur. Au lieu de cela, la recherche de route récursive à la périphérie se résout en un LSP commuté vers le routeur de sortie. Aucun routage externe n’est nécessaire sur les routeurs LDP de transit.
Comprendre les extensions multipoint pour LDP
Un LDP définit les mécanismes de configuration des LSP point à point, multipoint à point, point à multipoint et multipoint à multipoint dans le réseau. Les LSP point à multipoint et multipoint à multipoint sont collectivement appelés LSP multipoint, où le trafic transite d’une source unique vers plusieurs destinations, et de multiples sources à plusieurs destinations, respectivement. Les routeurs de destination ou de sortie sont appelés nœuds de branche, et le trafic provenant de la source traverse un ou plusieurs nœuds de transit avant d’atteindre les nœuds de branche.
Junos OS ne prend pas en charge les LSP multipoints à multipoints.
En tirant parti de la capacité de réplication de paquets MPLS du réseau, les LSP multipoints évitent la réplication inutile des paquets au niveau du routeur entrant. La réplication de paquets n’a lieu que lorsque les paquets sont transférés vers au moins deux destinations différentes nécessitant des chemins réseau différents.
Utilisation d’extensions multipoints pour LDP sur des sessions LDP ciblées
La spécification des extensions multipoints au LDP exige que les deux points de terminaison d’une session LDP soient directement connectés par un support de couche 2, ou soient considérés comme voisins par l’IGP du réseau. Il s’agit d’une session de liaison LDP. Lorsque les deux points de terminaison d’une session LDP ne sont pas directement connectés, la session est appelée session LDP ciblée.
Les implémentations antérieures de Junos OS prennent en charge le multicast LDP pour les sessions de liaison uniquement. Avec l’introduction de la fonctionnalité de protection des liaisons LDP, les fonctionnalités LDP multicast sont étendues aux sessions LDP ciblées. Figure 2 affiche un exemple de topologie.

Les routeurs R7 et R8 sont les routeurs à commutation d’étiquettes (LSR-U) en amont (LSR-U) et en aval (LSR-D), respectivement, et déploient des LDP multicast. Le routeur central, le routeur R5, est compatible RSVP-TE.
Lorsque le LSR-D configure le LSP point à multipoint avec les attributs racine et ID LSP, il détermine le LSR-U en amont comme un saut suivant sur le meilleur chemin vers la racine (actuellement, ce saut suivant est supposé être un saut suivant IGP).
Grâce à la prise en charge LDP multicast sur les sessions LDP ciblées, vous pouvez déterminer s’il y a un saut LSP suivant vers LSR-U qui se trouve sur le chemin de racine du LSR-D, où LSR-D et LSR-you ne sont pas des voisins directement connectés, mais des pairs LDP ciblés. Le label point à multipoint annoncé sur la session LDP ciblée entre LSR-D et LSR-U n’est utilisé que s’il y a un LSP entre LSR-D et LSR-U. Par conséquent, un LSP correspondant dans le sens inverse de LSR-you à LSR-D est requis.
Les données sont transmises sur le LSP point à multipoint à l’aide d’une réplication unicast de paquets, où le LSR-U envoie une copie à chaque LSR en aval du LSP point à multipoint.
La transmission des données est mise en œuvre de la manière suivante :
Les fonctionnalités point à multipoint de la session LDP ciblée sont négociées.
L’algorithme de sélection du LSR en amont est modifié, où si les sauts suivants IGP ne sont pas disponibles, ou en d’autres termes, il n’y a pas de session de liaison LDP entre LSR-D et LSR-U, un LSP RSVP est utilisé comme saut suivant pour atteindre LSR-U.
Les labels entrants reçus sur les sessions LDP ciblées sont installés en tant que saut suivant pour ce routage FEC point à multipoint avec le label LDP comme label interne et le label RSVP comme étiquette externe.
Limites actuelles de la protection des liaisons LDP
En cas de défaillance de liaison ou de nœud dans un déploiement de réseau LDP, une restauration rapide du trafic doit être assurée pour récupérer les flux de trafic impactés pour les services critiques. Dans le cas des LSP multipoints, lorsqu’une des liaisons de l’arbre de point à multipoint échoue, les sous-arbres peuvent se détacher jusqu’à ce que l’IGP se reconvergue et que le LSP multipoint soit établi à l’aide du meilleur chemin entre le routeur en aval et le nouveau routeur en amont.
Lors d’un reroutage rapide à l’aide d’une réparation locale pour le trafic LDP, un chemin de secours (chemin de réparation) est préinstallé dans le moteur de transfert de paquets. En cas de défaillance du chemin principal, le trafic est rapidement déplacé vers le chemin de secours sans avoir à attendre que les protocoles de routage convergent. LFA (Loop-Free Alternate) est l’une des méthodes utilisées pour fournir une capacité de reroutage IP rapide dans les réseaux centraux et de fournisseurs de services.
Sans LFA, lorsqu’une liaison ou un routeur tombe en panne ou est remis en service, les algorithmes de routage distribués calculent les nouveaux routes en fonction des modifications apportées au réseau. Le temps pendant lequel les nouveaux routes sont calculés est appelé transition de routage. Tant que la transition de routage n’est pas terminée, la connectivité réseau est interrompue parce que les routeurs adjacents à une défaillance continuent de transférer les paquets de données via le composant défaillant jusqu’à ce qu’un autre chemin soit identifié.
Toutefois, la LFA ne fournit pas de couverture complète dans tous les déploiements réseau en raison des mesures IGP. En conséquence, il s’agit d’une limitation aux systèmes actuels de protection des liaisons LDP.
Figure 3 illustre un exemple de réseau avec une couverture LFA incomplète, où le trafic transite du routeur source (S) au routeur de destination (D) en passant par le routeur R1. En supposant que chaque liaison du réseau possède la même métrique, si la liaison entre le routeur S et le routeur R1 échoue, le routeur R4 n’est pas une LFA qui protège la liaison S-R1, de sorte que la résilience du trafic est perdue. Ainsi, la couverture complète n’est pas atteinte par l’utilisation d’une LFA simple. Dans les réseaux typiques, il y a toujours un certain pourcentage d’écart de couverture LFA avec une LFA simple.

Utilisation de RSVP LSP en tant que solution
La clé pour protéger le trafic qui transite par les LDP LSP est de disposer d’un tunnel explicite pour réacheminer le trafic en cas de défaillance d’une liaison ou d’un nœud. Le chemin explicite doit se terminer sur le routeur en aval suivant, et le trafic doit être accepté sur le chemin explicite, où la vérification RPF doit passer.
Les LSP RSVP permettent de surmonter les limites actuelles de l’alternative sans boucle (LFA) pour les LDP point à point et point à multipoint en étendant la couverture LFA selon les méthodes suivantes :
LSP RSVP configurés manuellement
Prenons l’exemple utilisé dans , lorsque la liaison S-R1 tombe en Figure 3panne et que le routeur R4 n’est pas une LFA pour cette liaison particulière, un LSP RSVP créé manuellement est utilisé comme correctif pour fournir une couverture LFA complète. Le LSP RSVP est pré-signalé et préinstallé dans le moteur de transfert de paquets du routeur S, de sorte qu’il peut être utilisé dès que le routeur S détecte que la liaison a échoué.

Dans ce cas, un LSP RSVP est créé entre les routeurs S, R4 et R3, comme illustré dans Figure 4. Une session LDP ciblée est créée entre le routeur S et le routeur R3, à la suite de laquelle, lorsque la liaison S-R1 tombe en panne, le trafic atteint le routeur R3. Le routeur R3 transfère le trafic vers le routeur R2, car il s’agit du chemin le plus court pour atteindre la destination, le routeur D.
LSP RSVP configurés dynamiquement
Dans cette méthode, les LSP RSVP sont créés automatiquement et préinstallés dans le système afin de pouvoir être utilisés immédiatement en cas de défaillance de liaison. Ici, la sortie est le nœud de l’autre côté de la liaison protégée, ce qui améliore la couverture LFA.
Benefits of Enabling Dynamic RSVP LSPs
Facilité de configuration.
Couverture à 100 % contre les défaillances de liaison tant qu’un chemin alternatif vers l’extrémité de la liaison est protégé.
La configuration et le démontage du LSP de contournement RSVP sont automatiques.
RSVP LSP utilisé uniquement pour la protection des liaisons et non pour le transfert du trafic pendant que la liaison protégée est opérationnel.
Réduit le nombre total de LSP RSVP requis sur le système.
Prenons l’exemple utilisé dans Figure 3, afin de protéger le trafic contre une défaillance potentielle de la liaison S-R1, car le routeur R4 n’est pas une LFA pour cette liaison particulière, un LSP de contournement RSVP est automatiquement créé vers le routeur R1, qui est le nœud situé sur la face opposée de la liaison protégée, comme illustré dans Figure 5. À partir du routeur R1, le trafic est transféré vers sa destination d’origine, le routeur D.
Le LSP RSVP est pré-signalé et préinstallé dans le moteur de transfert de paquets du routeur S afin qu’il puisse être utilisé dès que le routeur S détecte que la liaison a échoué.

Un autre mode de fonctionnement consiste à ne pas utiliser de LFA du tout, et à toujours avoir le LSP RSVP créé pour couvrir toutes les défaillances de liaison.
Pour activer des LSP RSVP dynamiques, incluez l’instruction dynamic-rsvp-lsp
au niveau de la [edit protocols ldp interface interface-name link-protection]
hiérarchie, en plus d’activer le protocole RSVP sur les interfaces appropriées.
Comprendre la protection des liaisons LDP multicast
Un chemin de commutation d’étiquettes (LSP) LDP point à multipoint est un LSP signalé par LDP qui est point à multipoint et appelé LDP multicast.
Un LSP LDP multicast peut être utilisé pour envoyer du trafic d’un seul nœud racine ou d’entrée vers un certain nombre de nœuds de branche ou de sortie traversant un ou plusieurs nœuds de transit. La protection des liaisons LDP multicast permet de rediriger rapidement le trafic transporté sur des LDP LDP point à multipoint en cas de défaillance de liaison. Lorsque l’une des liaisons de l’arbre de point à multipoint échoue, les sous-arbres peuvent se détacher jusqu’à ce que l’IGP se reconvergue et que le LSP multipoint soit établi à l’aide du meilleur chemin entre le routeur en aval et le nouveau routeur en amont.
Pour protéger le trafic qui transite par le LSP LDP multicast, vous pouvez configurer un tunnel explicite pour le réacheminer en cas de défaillance de la liaison. Le chemin explicite doit s’arrêter sur le routeur en aval suivant. Le transfert de chemin inverse pour le trafic doit réussir.
La protection des liaisons LDP multicast introduit les fonctionnalités et fonctionnalités suivantes :
Utilisation de RSVP LSP dynamiques comme tunnels de contournement
L’objet ERO (Explicit Route Object) du LSP RSVP est calculé à l’aide de CSPF (Constrained Shortest Path First) avec la contrainte comme lien à éviter. Le LSP est signalé et détruit dynamiquement chaque fois que la protection de la liaison est nécessaire.
Make-before-break
La fonctionnalité make-before-break garantit que la perte de paquets est minimale lorsque vous tentez de signaler un nouveau chemin LSP avant de démolir l’ancien chemin LSP pour le LSP multicast.
Session LDP ciblée
Une adjacence ciblée au routeur de commutation d’étiquettes (LSR) en aval est créée pour deux raisons :
Pour maintenir la session en cours après l’échec de la liaison.
Pour utiliser le label point à multipoint reçu de la session pour envoyer le trafic vers le LSR en aval sur le tunnel de contournement LSP RSVP.
Lorsque le LSR en aval configure le LSP LDP multicast avec le nœud racine et l’ID LSP, il utilise ce LSR en amont, qui est sur le meilleur chemin vers la racine.
La protection des liaisons LDP multicast n’est pas nécessaire lorsqu’il existe plusieurs liaisons (liaisons parallèles) vers le LSR en aval.
Différents modes de protection des liaisons LDP
Trois modes de fonctionnement différents sont disponibles pour la protection des liaisons LDP unicast et multicast :
Case A: LFA only
Avec ce mode de fonctionnement, la protection des liaisons LDP multicast est assurée à l’aide d’une alternative viable sans boucle (LFA) existante. En l’absence d’un LFA viable, la protection des liaisons n’est pas assurée pour le LDP LSP multicast.
Case B: LFA and Dynamic RSVP LSP
Avec ce mode de fonctionnement, la protection des liaisons LDP multicast est assurée à l’aide d’une LFA viable existante. En l’absence d’une LFA viable, un LSP de contournement RSVP est automatiquement créé pour protéger les liaisons du LDP LSP multicast.
Case C: Dynamic RSVP LSP only
Dans ce mode de fonctionnement, la LFA n’est pas utilisée pour la protection des liaisons. La protection des liaisons LDP multicast est assurée à l’aide d’un LSP de contournement RSVP créé automatiquement.
Figure 6 est un exemple de topologie illustrant les différents modes de fonctionnement pour la protection des liaisons LDP multicast. Le routeur R5 est la connexion racine à deux nœuds de branche, les routeurs R3 et R4. Le routeur R0 et le routeur R1 sont les routeurs à commutation d’étiquettes (LSR) en amont et en aval, respectivement. Un LSP LDP multicast s’exécute entre les nœuds racines et leaf.

Étant donné que le routeur R0 doit protéger le LDP LSP multicast en cas de défaillance de la liaison R0-R1, les différents modes de protection de la liaison fonctionnent de la manière suivante :
Case A: LFA only
Le routeur R0 vérifie s’il existe un chemin LFA viable qui peut éviter la liaison R0-R1 pour atteindre le routeur R1. Selon les métriques, le routeur R2 est un chemin LFA valide pour la liaison R0-R1 et est utilisé pour transférer le trafic LDP unicast. Si plusieurs LDP multicast utilisent la liaison R0-R1, le même LFA (routeur R2) est utilisé pour la protection des liaisons LDP multicast.
Lorsque la liaison R0-R1 tombe en panne, le trafic LDP LSP multicast est déplacé sur le chemin LFA par le routeur R0, et le label LDP unicast pour atteindre le routeur R1 (L100) est poussé sur le label LDP multicast (L21).
Case B: LFA and Dynamic RSVP LSP
Le routeur R0 vérifie s’il existe un chemin LFA viable qui peut éviter la liaison R0-R1 pour atteindre le routeur R1. Selon les métriques, le routeur R2 est un chemin LFA valide pour la liaison R0-R1 et est utilisé pour transférer le trafic LDP unicast. Si plusieurs LDP multicast utilisent la liaison R0-R1, le même LFA (routeur R2) est utilisé pour la protection des liaisons LDP multicast. En cas d’échec de la liaison R0-R1, le trafic LSP LDP multicast est déplacé sur le chemin LFA par le routeur R0.
Toutefois, si la mesure sur la liaison R2-R1 était de 50 au lieu de 10, le routeur 2 n’est pas une LFA valide pour la liaison R0-R1. Dans ce cas, un LSP RSVP est automatiquement créé pour protéger le trafic LDP multicast circulant entre les routeurs R0 et R1.
Case C: Dynamic RSVP LSP only
Un LSP RSVP est automatiquement signalé du routeur R0 au routeur R1 en passant par le routeur R2, ce qui évite l’interface ge-1/1/0. Si plusieurs LDP multicast utilisent la liaison R0-R1, le même LSP RSVP est utilisé pour la protection des liaisons LDP multicast.
Lorsque la liaison R0-R1 tombe en panne, le trafic LDP LSP multicast est déplacé sur le LSP RSVP par le routeur R0, et le label RSVP pour atteindre le routeur R1 (L100) est poussé sur le label LDP multicast (L21).
Opération d’étiquetage pour la protection des liaisons LDP
En utilisant la même topologie de réseau que dans la figure 5, Figure 7 illustre le fonctionnement des étiquettes pour la protection des liaisons LDP unicast et multicast.

Le routeur R5 est la connexion racine à deux nœuds de branche, les routeurs R3 et R4. Le routeur R0 et le routeur R1 sont les routeurs à commutation d’étiquettes (LSR) en amont et en aval, respectivement. Un LSP LDP multicast s’exécute entre les nœuds racines et leaf. Un chemin LDP unicast connecte le routeur R1 au routeur R5.
L’opération d’étiquetage s’effectue différemment selon les modes de protection des liaisons LDP suivants :
Cas A : LFA uniquement
À l’aide de la show route detail
sortie de commande sur le routeur R0, le trafic LDP unicast et le trafic LDP multicast peuvent être dérivés.
user@R0> show route detail 299840 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Router Address: 0x93bc22c Next-hop reference count: 1 Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1, selected Label operation: Swap 299824 Session Id: 0x1 Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0xf000 Label operation: Swap 299808 Session Id: 0x3 State: <Active Int> Age: 3:16 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I Prefixes bound to route: 192.168.0.4/32 299856 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x9340e04 Next-hop reference count: 3 Next hop type: Router, Next hop index: 262143 Address: 0x93bc3dc Next-hop reference count: 2 Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1 Label operation: Swap 299888 Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0xf000 Label operation: Swap 299888, Push 299776(top) Label TTL action: prop-ttl, prop-ttl(top) State: <Active Int AckRequest> Age: 3:16 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 192.168.0.5, lsp-id 99
Le label 299840 est le trafic arrivant au routeur R0 qui correspond au trafic LDP unicast au routeur R1. Label 299856 est le trafic arrivant au routeur 0 qui correspond au trafic LDP multicast du nœud racine R5 aux nœuds de sortie de branche, R3 et R4.
Le chemin principal pour les LDP LDP unicast et multicast passe par l’interface ge-0/0/1 (la liaison vers le routeur R1), et le chemin LFA passe par l’interface ge-0/0/2 (la liaison vers le routeur R2). Le chemin LFA n’est utilisé que si l’interface ge-0/0/1 tombe en panne.
Dans le cas A, le mode de fonctionnement LFA uniquement est différent pour le trafic LDP unicast et multicast :
Fonctionnement des étiquettes unicast
Pour le trafic LDP unicast, les FEC et les labels associés sont annoncés sur toutes les liaisons du réseau sur lesquelles le LDP est activé. Cela signifie que pour fournir une action LFA pour le trafic LDP unicast vers le routeur R4, au lieu d’échanger le label entrant par un label 299824 annoncé par le routeur R1 pour le FEC R4, le routeur R0 remplace simplement le label entrant par le label 299808 annoncé par le routeur R2 pour le FEC R4. Il s’agit de l’opération LFA junos OS standard pour le trafic LDP unicast.
Figure 8 illustre le fonctionnement de l’étiquette pour le trafic unicast en cas d’échec de la liaison R0-R1. Les boîtes grises affichent le fonctionnement de l’étiquette pour le trafic LDP unicast dans des conditions normales, et les boîtes en pointillés affichent l’opération d’étiquette pour le trafic LDP unicast lorsque la liaison R0-R1 échoue.
Figure 8 : Opération d’étiquette unicast LDPUtilisation d’étiquettes multicast
L’opération de label pour le trafic LDP multicast diffère de l’opération de label LDP unicast, car les labels LSP multipoints ne sont annoncés que le long du meilleur chemin entre le nœud de branche et le nœud d’entrée. En conséquence, le routeur R2 n’a aucune connaissance du LDP multicast. Pour surmonter ce problème, il suffit de tunneliser le trafic LDP LSP multicast à l’intérieur du chemin LDP LSP unicast via le routeur R2 qui se termine au routeur R1.
Pour y parvenir, le routeur R0 permute d’abord le label LSP multicast entrant 299856 en label 299888 annoncé par le routeur R1. Le label 299776 est ensuite poussé sur le dessus, c’est-à-dire le label LDP annoncé par le routeur R2 pour FEC R1. Lorsque le paquet arrive au routeur R2, le label supérieur est sorti en raison de l’avant-dernier saut. Cela signifie que le paquet arrive au routeur R1 avec le label LDP multicast 299888 que le routeur R1 avait initialement annoncé au routeur R0.
Figure 9 illustre le fonctionnement des étiquettes pour le trafic LDP multicast en cas d’échec de la liaison R0-R1. Les boîtes bleues affichent le fonctionnement des étiquettes pour le trafic LDP multicast dans des conditions normales, et les boîtes en pointillés affichent l’opération d’étiquette pour le trafic LDP multicast en cas d’échec de la liaison R0-R1.
Figure 9 : Opération d’étiquette LDP multicast
Lorsque la mesure de la liaison R2-R1 est définie sur 1000 au lieu de 1, le routeur R2 n’est pas une LFA valide pour le routeur R0. Dans ce cas, si le routeur R2 reçoit un paquet à destination du routeur R1, R3 ou R4 avant que son IGP n’ait convergé, le paquet est renvoyé au routeur R0, ce qui entraîne une boucle des paquets.
Le routeur R0 n’ayant pas de LFA viable, aucun chemin de secours n’est installé dans le moteur de transfert de paquets. En cas d’échec de la liaison R0-R1, le flux de trafic est interrompu jusqu’à ce que l’IGP et le LDP convergent et que de nouvelles entrées soient installées sur les routeurs concernés.
La show route detail
commande affiche l’état lorsqu’aucune LFA n’est disponible pour la protection des liaisons.
user@host> show route detail 299840 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Router, Next hop index: 578 Address: 0x9340d20 Next-hop reference count: 2 Next hop: 11.0.0.6 via ge-0/0/1.0, selected Label operation: Swap 299824 Session Id: 0x1 State: <Active Int> Age: 5:38 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I Prefixes bound to route: 192.168.0.4/32 299856 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x9340e04 Next-hop reference count: 3 Next hop type: Router, Next hop index: 579 Address: 0x93407c8 Next-hop reference count: 2 Next hop: 11.0.0.6 via ge-0/0/1.0 Label operation: Swap 299888 State: <Active Int AckRequest> Age: 5:38 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 192.168.0.5, lsp-id 99
Cas B : LSP LFA et RSVP dynamique
Dans ce mode de fonctionnement, s’il existe un voisin LFA viable, le comportement d’opération des étiquettes est similaire à celui du cas A, du mode LFA uniquement. Toutefois, s’il n’y a pas de voisin LFA viable, un tunnel de contournement RSVP est automatiquement créé.
Si la mesure de la liaison R2-R1 est définie sur 1000 au lieu de 1, le routeur R2 n’est pas une LFA pour le routeur R0. Après avoir appris qu’il n’y a pas de chemins LFA pour protéger la défaillance de la liaison R0-R1, un tunnel de contournement RSVP est automatiquement créé avec le routeur R1 comme nœud de sortie et suit un chemin qui évite la liaison R0-R1 (par exemple, R0-R2-R1).
En cas d’échec de la liaison R0-R1, le trafic LDP unicast et LDP multicast est tunnelisé via le tunnel de contournement RSVP. Le tunnel de contournement RSVP n’est pas utilisé pour le transfert normal et est uniquement utilisé pour protéger le trafic LDP en cas de défaillance de la liaison R0-R1.
show route detail
La commande permet de dériver le trafic LDP unicast et multicast.
user@host> show route detail 299840 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Router Address: 0x940c3dc Next-hop reference count: 1 Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1, selected Label operation: Swap 299824 Session Id: 0x1 Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0x8001 Label-switched-path ge-0/0/1.0:BypassLSP->192.168.0.1 Label operation: Swap 299824, Push 299872(top) Label TTL action: prop-ttl, prop-ttl(top) Session Id: 0x3 State: <Active Int NhAckRequest> Age: 19 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I Prefixes bound to route: 192.168.0.4/32 299856 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x9340e04 Next-hop reference count: 3 Next hop type: Router, Next hop index: 262143 Address: 0x940c154 Next-hop reference count: 2 Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1 Label operation: Swap 299888 Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0x8001 Label-switched-path ge-0/0/1.0:BypassLSP->192.168.0.1 Label operation: Swap 299888, Push 299872(top) Label TTL action: prop-ttl, prop-ttl(top) State: < Active Int AckRequest> Age: 20 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 192.168.0.5, lsp-id 99
Le chemin principal pour les LDP LSP unicast et multicast passe par l’interface ge-0/0/1 (la liaison vers le routeur R1), et le chemin LFA passe par l’interface ge-0/0/2 (la liaison vers le routeur R2). Le chemin LFA n’est utilisé que si l’interface ge-0/0/1 tombe en panne.
Le label 299840 est le trafic arrivant au routeur R0 qui correspond au trafic LDP unicast au routeur R4. Label 299856 est le trafic arrivant au routeur 0 qui correspond au trafic LDP multicast du nœud racine R5 aux nœuds de sortie de branche, R3 et R4.
Comme on le voit dans la sortie de show route detail
commande, les opérations de label pour le chemin de protection sont les mêmes pour le trafic LDP unicast et multicast LDP. Le label LDP entrant au niveau du routeur R0 est remplacé par le label LDP annoncé par le routeur R1 vers le routeur R0. Le label RSVP 299872 du tunnel de contournement est ensuite poussé sur le paquet. L’avant-dernier saut est utilisé sur le tunnel de contournement, ce qui permet au routeur R2 d’en faire pop-label. Ainsi, le paquet arrive au routeur R1 avec le label LDP qu’il avait initialement annoncé au routeur R0.
Figure 10 illustre le fonctionnement des étiquettes pour le trafic LDP unicast et multicast LDP protégé par le tunnel de contournement RSVP. Les zones grises et bleues représentent les valeurs d’étiquette utilisées dans des conditions normales pour le trafic LDP unicast et multicast, respectivement. Les boîtes en pointillé représentent les valeurs d’étiquette utilisées en cas d’échec de la liaison R0-R1.

Cas C : RSVP LSP dynamique uniquement
Dans ce mode de fonctionnement, la LFA n’est pas utilisée du tout. Un LSP de contournement RSVP dynamique est automatiquement créé afin de protéger les liaisons. Les résultats de la show route detail
commande et des opérations d’étiquetage sont similaires aux cas B, LFA et au mode LSP RSVP dynamique.
Exemple de configuration de la protection de liaison LDP multicast
Pour assurer la protection des liaisons LDP multicast, la configuration suivante est requise sur le routeur R0 :
Dans cet exemple, la protection des liaisons LDP multicast est activée sur l’interface ge-1/0/0 du routeur R0 qui se connecte au routeur R1, bien que toutes les interfaces doivent généralement être configurées pour protéger les liaisons.
Routeur R0
protocols { rsvp { interface all; interface ge-0/0/0.0 { disable; } } mpls { interface all; interface ge-0/0/0.0 { disable; } } ospf { traffic-engineering; area 0.0.0.0 { interface lo0.0; interface ge-0/0/1.0 { link-protection; } interface ge-0/0/2.0; interface ge-0/0/3.0; } } ldp { make-before-break { timeout seconds; switchover-delay seconds; } interface ge-1/1/0.0 { link-protection { disable; dynamic-rsvp-lsp; } } } }
Les instructions de configuration suivantes s’appliquent aux différents modes de protection LDP multicast comme suit :
link-protection
à l’adresse[edit protocols ospf interface ge-0/0/1.0]
Cette configuration s’applique uniquement aux modes Cas A (LFA uniquement) et Case B (LFA et RSVP dynamique LSP) de protection des liaisons LDP multicast. La configuration de la protection des liaisons sous un IGP n’est pas nécessaire pour le cas C (LSP RSVP dynamique uniquement).
link-protection
à l’adresse[edit protocols ldp interface ge-0/0/1.0]
Cette configuration est requise pour tous les modes de protection LDP multicast. Toutefois, si le seul trafic LDP présent est unicast et que les contournements RSVP dynamiques ne sont pas requis, cette configuration n’est pas nécessaire, car l’instruction au niveau de la
link-protection
[edit protocols ospf interface ge-0/0/1.0]
hiérarchie entraîne une action LFA pour le trafic unicast LDP.dynamic-rsvp-lsp
à l’adresse[edit protocols ldp interface ge-0/0/1.0 link-protection]
Cette configuration s’applique uniquement aux modes Case B (LFA et RSVP dynamique LSP) et Case C (RSVP LSP dynamique uniquement) de protection des liaisons LDP. La configuration LSP RSVP dynamique ne s’applique pas au cas A (LFA uniquement).
Faites-le avant-break
La fonctionnalité make-before-break est activée par défaut sur Junos OS et offre certains avantages pour les LSP point à multipoint.
Pour un LSP point à multipoint, un routeur à commutation d’étiquettes (LSR) sélectionne le LSR qui est son prochain saut vers la racine du LSP comme son LSR en amont. Lorsque le meilleur chemin pour atteindre la racine change, le LSR choisit un nouveau LSR en amont. Pendant cette période, le LSP peut être temporairement cassé, entraînant une perte de paquets jusqu’à ce que le LSP se reconvergue vers un nouveau LSR en amont. L’objectif du make-before-break dans ce cas est de minimiser la perte de paquets. Dans les cas où le meilleur chemin entre le LSR et la racine change, mais que le LSP continue de transférer le trafic vers le saut suivant précédent vers la racine, un nouveau LSP doit être établi avant le retrait de l’ancien LSP pour minimiser la durée de perte de paquet.
Prenons par exemple qu’après une défaillance de liaison, un LSR en aval (par exemple, LSR-D) reçoit et/ou transfère des paquets vers les autres LSR en aval, car il continue de recevoir des paquets à partir d’un saut RSVP LSP. Une fois le routage convergé, le LSR-D choisit un nouveau LSR en amont (LSR-U) pour le FEC de ce LSP point à multipoint (FEC-A). Le nouveau LSR transfère peut-être déjà des paquets pour FEC-A vers les LSR en aval autres que le LSR-D. Une fois que le LSR-U a reçu un label pour FEC-A de la part du LSR-D, il informe le LSR-D lorsqu’il a appris que le LSP pour FEC-A a été établi de la racine jusqu’à lui-même. Lorsque le LSR-D reçoit une telle notification, il modifie son saut suivant pour la racine LSP en LSR-U. Il s’agit d’une opération de suppression de route et d’ajout sur LSR-D. À ce stade, le LSR-D effectue un basculement LSP, et le trafic tunnelisé via RSVP LSP ou LFA est supprimé, et le trafic de LSR-U est accepté. La nouvelle route de transit pour LSR-U est ajoutée. La vérification RPF est modifiée pour accepter le trafic de LSR-you et pour supprimer le trafic de l’ancien LSR en amont, ou l’ancien route est supprimé et le nouveau routage est ajouté.
L’hypothèse est que le LSR-U a reçu une notification make-before-break de son routeur en amont pour le LSP fec-A point à multipoint et a installé un état de transfert pour le LSP. À ce stade, il doit signaler le LSR-D au moyen d’une notification make-before-break qu’il fait partie de l’arbre identifié par FEC-A et que le LSR-D doit commencer son basculement vers le LSP. Sinon, le LSR-U doit se rappeler qu’il doit envoyer une notification au LSR-D lorsqu’il reçoit une notification make-before-break du LSR en amont pour FEC-A et qu’il installe un état de transfert pour ce LSP. Le LSR-D continue de recevoir le trafic de l’ancien saut suivant vers le nœud racine en utilisant un saut RSVP LSP ou un chemin LFA jusqu’à ce qu’il passe au nouveau LSP point à multipoint vers LSR-U.
La fonctionnalité make-before-break avec protection des liaisons LDP multicast comprend les fonctionnalités suivantes :
Fonctionnalité « make-before-break »
Un LSR annonce qu’il est capable de gérer des LSP « make-before-break » à l’aide de la publicité de capacité. Si l’homologue n’est pas compatible make-before-break, les paramètres make-before-break ne sont pas envoyés à cet homologue. Si un LSR reçoit un paramètre make-before-break d’un LSR en aval (LSR-D) mais que le LSR en amont (LSR-U) n’est pas compatible make-before-break, le LSR envoie immédiatement une notification make-before-break au LSR-D, et le LSP compatible make-before-break n’est pas établi. Au lieu de cela, le LSP normal est établi.
Code d’état make-before-break
Le code d’état make-before-break comprend :
1 — demande de « make-before-break »
2 — Reconnaissance avant la pause
Lorsqu’un LSR en aval envoie un message de mappage d’étiquettes pour le LSP point à multipoint, il inclut le code d’état make-before-break comme 1 (demande). Lorsque le LSR en amont met à jour l’état de transfert du LSP point à multipoint, il informe le LSR en aval avec un message de notification contenant le code d’état make-before-break en tant que 2 (reconnaissance). À ce stade, le LSR en aval effectue un basculement LSP.
Mises en garde et limites
L’implémentation junos OS de la fonctionnalité de protection des liaisons LDP comporte les mises en garde et les limites suivantes :
Le make-before-break n’est pas pris en charge pour les LSP point à multipoint suivants sur un LSR sortant :
Réseau privé virtuel (MVPN) multicast de nouvelle génération avec label VRF (Virtual Routing and Forwarding)
LSP statique
Les fonctionnalités suivantes ne sont pas prises en charge :
Routage actif sans interruption pour LSP point à multipoint dans les versions 12.3, 13.1 et 13.2 de Junos OS
Basculement LSP point à multipoint à redémarrage progressif
Protection des liaisons pour l’instance de routage
Exemple : Configuration de la protection des liaisons LDP
Cet exemple montre comment configurer la protection des liaisons LDP (Label Distribution Protocol) pour les chemins de commutation d’étiquettes (LSP) unicast et multicast LDP.
Conditions préalables
Cet exemple utilise les composants matériels et logiciels suivants :
Six routeurs pouvant être une combinaison de routeurs M Series, MX Series ou T Series avec un nœud racine et deux nœuds de branche exécutant un LDP LSP point à multipoint.
Junos OS Version 12.3 ou ultérieure s’exécutant sur tous les routeurs.
Avant de commencer :
Configurez les interfaces de l’équipement.
Configurez les protocoles suivants :
RSVP
MPLS
OSPF ou tout autre IGP
LDP
Présentation
La protection des liaisons LDP permet de rediriger rapidement le trafic transporté sur les LSP LDP en cas de défaillance de liaison. Les LDP point à multipoint peuvent être utilisés pour envoyer du trafic d’un seul nœud racine ou entrant vers un certain nombre de nœuds de branche ou de sortie traversant un ou plusieurs nœuds de transit. Lorsque l’une des liaisons de l’arbre de point à multipoint échoue, les sous-arbres peuvent se détacher jusqu’à ce que l’IGP reconverge et que le LDP multicast lance le mappage des étiquettes à l’aide du meilleur chemin du routeur en aval vers le nouveau routeur en amont. Pour protéger le trafic en cas de défaillance de liaison, vous pouvez configurer un tunnel explicite afin que le trafic puisse être redirigé à l’aide du tunnel. Junos OS prend en charge des fonctionnalités de « make-before-break » pour garantir une perte de paquet minimale lors de la tentative de signaler un nouveau chemin LSP avant de démolir l’ancien chemin LSP. Cette fonctionnalité ajoute également une prise en charge LDP ciblée pour la protection des liaisons LDP multicast.
Lors de la configuration de la protection des liaisons LDP, soyez conscient des considérations suivantes :
Configurez l’ingénierie du trafic sous IGP (s’il n’est pas pris en charge par défaut), et incluez les interfaces configurées pour MPLS et RSVP afin que les liaisons RSVP dynamiques protégées par des contraintes soient signalées par RSVP à l’aide de Contraintes Shortest Path First (CSPF). Lorsque cette condition n’est pas satisfaite, le LSP RSVP peut ne pas être disponible et le LDP ne peut pas l’utiliser comme saut suivant protégé.
Configurez un chemin entre deux routeurs à commutation d’étiquettes (LSR) pour fournir une connectivité IP entre les routeurs en cas de défaillance de liaison. Cela permet à CSPF de calculer un chemin alternatif pour la protection des liaisons. Lorsque la connectivité entre les routeurs est perdue, l’adjacence ciblée LDP ne se présente pas et le LSP RSVP dynamique ne peut pas être signalé, ce qui n’entraîne aucune protection pour la classe d’équivalence de transfert LDP (FEC) pour laquelle l’homologue est le LSR en aval.
Si la protection des liaisons n’est active que sur un LSR, l’autre LSR ne doit pas être configurée avec l’instruction
strict-targeted-hellos
. Cela permet au LSR sans protection de liaison de permettre la détection asymétrique des voisins distants et d’envoyer périodiquement des bonjours ciblés au LSR qui a initié le voisin distant. Lorsque cette condition n’est pas satisfaite, l’adjacence ciblée LDP n’est pas formée.Le LDP doit être activé sur l’interface de bouclage du LSR pour créer des voisins distants basés sur la tunnelisation LDP, le service LAN privé virtuel (VPLS) basé sur LDP, les circuits de couche 2 ou la protection des sessions LDP. Lorsque cette condition n’est pas satisfaite, l’adjacence ciblée LDP n’est pas formée.
Pour un LDP LSP unicast, l’alternative sans boucle (LFA) doit être configurée en IGP.
La route d’entrée vers le point de fusion doit comporter au moins un saut suivant, évitant ainsi la liaison principale entre le point de fusion et le point de réparation local pour LDP LSP unicast.
Le point de réparation local doit avoir un label LDP unicast pour que le saut suivant de sauvegarde atteigne le point de fusion.
topologie

Dans cet exemple, le routeur R5 est la connexion racine à deux nœuds de branche, les routeurs R3 et R4. Le routeur R0 est le point de réparation local.
Configuration
Configuration rapide cli
Pour configurer rapidement cet exemple, copiez les commandes suivantes, collez-les dans un fichier texte, supprimez les sauts de ligne, modifiez les détails nécessaires pour correspondre à la configuration de votre réseau, copiez et collez les commandes dans la CLI au niveau de la [edit]
hiérarchie, puis entrez commit
à partir du mode de configuration.
R5
set interfaces ge-0/0/0 unit 0 family inet address 10.10.10.1/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.5/32 set routing-options router-id 10.255.1.5 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R0
set interfaces ge-0/0/0 unit 0 family inet address 10.10.10.2/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 20.10.10.1/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 30.10.10.1/30 set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.0/32 set routing-options router-id 10.255.1.0 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R1
set interfaces ge-0/0/0 unit 0 family inet address 60.10.10.2/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 40.10.10.1/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 30.10.10.2/30 set interfaces ge-0/0/2 unit 0 family mpls set interfaces ge-0/0/3 unit 0 family inet address 50.10.10.1/30 set interfaces ge-0/0/3 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.1/32 set routing-options router-id 10.255.1.1 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R2
set interfaces ge-0/0/0 unit 0 family inet address 60.10.10.1/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 20.10.10.2/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.2/32 set routing-options router-id 10.255.1.2 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R3
set interfaces ge-0/0/1 unit 0 family inet address 40.10.10.2/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.3/32 set routing-options router-id 10.255.1.3 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp root-address 10.255.1.5 lsp-id 1
R4
set interfaces ge-0/0/3 unit 0 family inet address 50.10.10.2/30 set interfaces ge-0/0/3 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.4/32 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp root-address 10.255.1.5 lsp-id 1
Procédure
Procédure étape par étape
Dans l’exemple suivant, vous devez parcourir différents niveaux de la hiérarchie de configuration. Pour plus d’informations sur la navigation dans l’interface cli, voir Utilisation de l’éditeur CLI en mode de configuration.
Pour configurer le routeur R0 :
Configurez les interfaces du routeur R0.
[edit interfaces]
user@R0# set ge-0/0/0 unit 0 family inet address 10.10.10.2/30 user@R0# set ge-0/0/0 unit 0 family mpls user@R0# set ge-0/0/1 unit 0 family inet address 20.10.10.1/30 user@R0# set ge-0/0/1 unit 0 family mpls user@R0# set ge-0/0/2 unit 0 family inet address 30.10.10.1/30 user@R0# set ge-0/0/2 unit 0 family mpls user@R0# set lo0 unit 0 family inet address 10.255.1.0/32Configurez l’ID du routeur et le système autonome du routeur R0.
[edit routing-options]
user@R0# set router-id 10.255.1.0 user@R0# set autonomous-system 100Activez RSVP sur toutes les interfaces du routeur R0 (à l’exception de l’interface de gestion).
[edit protocols]
user@R0# set rsvp interface all user@R0# set rsvp interface fxp0.0 disableActivez MPLS sur toutes les interfaces du routeur R0 (à l’exception de l’interface de gestion) ainsi que des capacités d’ingénierie du trafic.
[edit protocols]
user@R0# set mpls traffic-engineering user@R0# set mpls interface all user@R0# set mpls interface fxp0.0 disableActivez OSPF sur toutes les interfaces du routeur R0 (à l’exception de l’interface de gestion), attribuez des métriques de coût égales aux liaisons et activez les capacités d’ingénierie du trafic.
[edit protocols]
user@R0# set ospf traffic-engineering user@R0# set ospf area 0.0.0.0 interface all metric 1 user@R0# set ospf area 0.0.0.0 interface fxp0.0 disableREMARQUE :Pour une protection des liaisons LDP multicast avec une alternative sans boucle (LFA), activez la configuration suivante au
[edit protocols]
niveau hiérarchique :set ospf area 0 interface all link-protection
Activez le LDP sur toutes les interfaces du routeur R0 (à l’exception de l’interface de gestion) et configurez la protection des liaisons avec LSP de contournement RSVP dynamique.
[edit protocols]
user@R0# set ldp interface all link-protection dynamic-rsvp-lsp user@R0# set ldp interface fxp0.0 disable user@R0# set ldp p2mp
Résultats
À partir du mode de configuration, confirmez votre configuration en entrant le show interfaces
, show routing-options
et show protocols
les commandes. Si la sortie n’affiche pas la configuration prévue, répétez les instructions de cet exemple pour corriger la configuration.
user@R0# show interfaces ge-0/0/0 { unit 0 { family inet { address 10.10.10.2/30; } family mpls; } } ge-0/0/1 { unit 0 { family inet { address 20.10.10.1/30; } family mpls; } } ge-0/0/2 { unit 0 { family inet { address 30.10.10.1/30; } family mpls; } } lo0 { unit 0 { family inet { address 10.255.1.0/32; } } }
user@R0# show routing-options router-id 10.255.1.0; autonomous-system 100;
user@R0# show protocols rsvp { interface all; interface fxp0.0 { disable; } } mpls { traffic-engineering; interface all; interface fxp0.0 { disable; } } ospf { traffic-engineering; area 0.0.0.0 { interface all { metric 1; } interface fxp0.0 { disable; } } } ldp { interface all { link-protection { dynamic-rsvp-lsp; } } interface fxp0.0 { disable; } p2mp; }
Vérification
Vérifiez que la configuration fonctionne correctement.
Vérification du chemin LSP de contournement RSVP
But
Vérifiez que le chemin LSP de contournement RSVP a été créé sur le point de réparation locale (PLR).
Action
À partir du mode opérationnel, exécutez la show route tale mpls.0
commande.
user@R0> show route tale mpls.0 mpls.0: 17 destinations, 17 routes (17 active, 0 holddown, 0 hidden) + = Active Route, - = Last Active, * = Both 0 *[MPLS/0] 05:28:13, metric 1 Receive 1 *[MPLS/0] 05:28:13, metric 1 Receive 2 *[MPLS/0] 05:28:13, metric 1 Receive 13 *[MPLS/0] 05:28:13, metric 1 Receive 299792 *[LDP/9] 00:41:41, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Pop 299792(S=0) *[LDP/9] 00:41:41, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Pop 299808 *[LDP/9] 00:41:41, metric 1 > to 20.10.10.2 via ge-0/0/1.0, Pop 299808(S=0) *[LDP/9] 00:41:41, metric 1 > to 20.10.10.2 via ge-0/0/1.0, Pop 299920 *[RSVP/7/1] 01:51:43, metric 1 > to 30.10.10.2 via ge-0/0/2.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.1 299920(S=0) *[RSVP/7/1] 01:51:43, metric 1 > to 30.10.10.2 via ge-0/0/2.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.1 299936 *[RSVP/7/1] 01:51:25, metric 1 > to 20.10.10.2 via ge-0/0/1.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.2 299936(S=0) *[RSVP/7/1] 01:51:25, metric 1 > to 20.10.10.2 via ge-0/0/1.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.2 299952 *[LDP/9] 00:06:11, metric 1 > to 10.10.10.1 via ge-0/0/0.0, Pop 299952(S=0) *[LDP/9] 00:06:11, metric 1 > to 10.10.10.1 via ge-0/0/0.0, Pop 299968 *[LDP/9] 00:05:39, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Swap 299984 299984 *[LDP/9] 00:05:38, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Swap 300000 300000 *[LDP/9] 00:05:15, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Swap 300016
Sens
Lorsque la liaison R0-R1 tombe en panne, le LSP de contournement RSVP est utilisé pour acheminer le trafic.
Vérification du fonctionnement des étiquettes
But
Vérifiez l’échange d’étiquettes au niveau du PLR.
Action
À partir du mode opérationnel, exécutez la show route table mpls.0 label label extensive
commande.
user@R0> show route table mpls.0 label 300000 extensive mpls.0: 17 destinations, 17 routes (17 active, 0 holddown, 0 hidden) 300000 (1 entry, 1 announced) TSI: KRT in-kernel 300000 /52 -> {Swap 300016} *LDP Preference: 9 Next hop type: Router, Next hop index: 589 Address: 0x9981610 Next-hop reference count: 2 Next hop: 30.10.10.2 via ge-0/0/2.0, selected Label operation: Swap 300016 Load balance label: Label 300016: None; Session Id: 0x2 State: <Active Int> Local AS: 100 Age: 12:50 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 1-KRT AS path: I Prefixes bound to route: 10.255.1.4/32
Sens
Le label est lié à atteindre le routeur R4, qui est un nœud de branche.
Comprendre le reroutage rapide pour le multicast uniquement
Le reroutage rapide multicast uniquement (MoFRR) minimise la perte de paquets pour le trafic dans un arbre de distribution multicast en cas de défaillance de liaison, ce qui améliore les protocoles de routage multicast comme PIM (Protocol Independent Multicast) et multipoint LDP (Multipoint Label Distribution Protocol) sur les équipements qui prennent en charge ces fonctionnalités.
Sur les commutateurs, le MoFRR avec chemins de commutation d’étiquettes MPLS et LDP multipoint n’est pas pris en charge.
Pour les routeurs MX Series, Le MoFRR n’est pris en charge que sur les routeurs MX Series équipés de cartes de ligne MPC. Comme pré-requis, vous devez configurer le routeur en network-services enhanced-ip
mode, et toutes les cartes de ligne du routeur doivent être des MPC.
Une fois le MoFRR activé, les équipements envoient des messages de jointure sur les chemins primaires et de secours en amont vers une source multicast. Les équipements reçoivent des paquets de données à la fois des chemins principal et de secours, et éliminent les paquets redondants en fonction de la priorité (poids assignés aux chemins primaires et de secours). Lorsqu’un équipement détecte une défaillance sur le chemin principal, il commence immédiatement à accepter les paquets de l’interface secondaire (le chemin de sauvegarde). Le basculement rapide améliore considérablement les temps de convergence en cas de défaillance de liaison de chemin principal.
Une application pour MoFRR est le streaming IPTV. Les flux IPTV sont multicast en tant que flux UDP, de sorte que les paquets perdus ne sont pas retransmis, ce qui conduit à une expérience utilisateur moins que satisfaisante. Le MoFRR peut améliorer la situation.
- Présentation du MoFRR
- Fonctionnalité PIM
- Fonctionnalité LDP multipoint
- Transfert de paquets
- Limites et mises en garde
Présentation du MoFRR
Avec un reroutage rapide sur des flux unicast, un équipement de routage en amont pré-établit des chemins de commutation d’étiquettes (LSP) MPLS ou précompte un chemin de secours rapide de secours sans boucle IP (LFA) pour gérer la défaillance d’un segment du chemin en aval.
Dans le routage multicast, le côté récepteur est généralement à l’origine des graphiques de distribution du trafic. Contrairement au routage unicast, qui établit généralement le chemin de la source au récepteur. PIM (pour IP), multipoint LDP (pour MPLS) et RSVP-TE (pour MPLS) sont des protocoles capables d’établir des graphiques de distribution multicast. Parmi ces derniers, les récepteurs PIM et LDP multipoint initient la configuration du graphique de distribution, de sorte que MoFRR peut fonctionner avec ces deux protocoles multicast où ils sont pris en charge.
Dans un arbre multicast, si l’équipement détecte une défaillance d’un composant réseau, il faut un certain temps pour effectuer une réparation réactive, ce qui entraîne une perte de trafic importante tout en mettant en place un autre chemin. Le MoFRR réduit les pertes de trafic dans un arbre de distribution multicast en cas de défaillance d’un composant réseau. Avec le MoFRR, l’un des équipements de routage en aval configure un chemin alternatif vers la source pour recevoir un flux de secours en direct du même trafic multicast. Lorsqu’une défaillance survient le long du flux principal, l’équipement de routage MoFRR peut rapidement passer au flux de secours.
Une fois le MoFRR activé, pour chaque entrée (S,G), l’équipement utilise deux des interfaces en amont disponibles pour envoyer un message de jointure et recevoir du trafic multicast. Le protocole tente de sélectionner deux chemins disjoints si deux chemins de ce type sont disponibles. Si des chemins disjoints ne sont pas disponibles, le protocole sélectionne deux chemins non disjoints. Si deux chemins non disjoints ne sont pas disponibles, seul un chemin principal est sélectionné sans sauvegarde. Le MoFRR donne la priorité à la sauvegarde disjointe en faveur de l’équilibrage de charge des chemins disponibles.
Le MoFRR est pris en charge à la fois pour les familles de protocoles IPv4 et IPv6.
Figure 12 affiche deux chemins entre l’équipement de routage de récepteur multicast (également appelé équipement de périphérie du fournisseur sortant (PE) vers l’équipement de routage source multicast (également appelé équipement PE entrant).

Une fois le MoFRR activé, l’équipement de routage sortant (côté récepteur) configure deux arbres multicast, un chemin principal et un chemin de secours, vers la source multicast pour chaque (S, G). En d’autres termes, l’équipement de routage sortant propage les mêmes messages de jointure (S, G) vers deux voisins en amont différents, créant ainsi deux arbres multicast.
L’un des arbres multicast passe par le plan 1 et l’autre par le plan 2, comme illustré dans Figure 12. Pour chaque (S,G), l’équipement de routage sortant transfère le trafic reçu sur le chemin principal et abandonne le trafic reçu sur le chemin de secours.
Le MoFRR est pris en charge à la fois sur les chemins ECMP (Equal-Cost Multipath) et sur les chemins non-ECMP. L’équipement doit activer des routes alternatives (LFA) sans boucle unicast pour prendre en charge le MoFRR sur les chemins non-ECMP. Vous activez les routes LFA à l’aide de l’instruction link-protection
dans la configuration IGP (Interior Gateway Protocol). Lorsque vous activez la protection des liaisons sur une interface OSPF ou IS-IS, l’équipement crée un chemin LFA de secours vers le saut suivant principal pour toutes les routes de destination qui traversent l’interface protégée.
Junos OS implémente le MoFRR dans le réseau IP moFRR et au niveau de l’équipement de routage de périphérie d’étiquettes (LER) MPLS pour moFRR LDP multipoint.
Le MoFRR LDP multipoint est utilisé sur l’équipement sortant d’un réseau MPLS, où les paquets sont transférés vers un réseau IP. Avec le MoFRR LDP multipoint, l’équipement établit deux chemins vers l’équipement de routage PE en amont pour recevoir deux flux de paquets MPLS au niveau du LER. L’équipement accepte l’un des flux (le principal), et l’autre (la sauvegarde) est abandonné au LER. Si le chemin principal échoue, l’équipement accepte le flux de secours à la place. La prise en charge de la signalisation inband est un pré-requis pour le MoFRR avec LDP multipoint (voir Comprendre la signalisation multipoint LDP inband pour les LSP point à multipoint).
Fonctionnalité PIM
Junos OS prend en charge MoFRR pour les liaisons SPT (Short-Path Tree) dans PIM source-specific multicast (SSM) et any-source multicast (ASM). Le MoFRR est pris en charge pour les gammes SSM et ASM. Pour activer MoFRR pour les jointure (*,G), incluez l’instruction mofrr-asm-starg
de configuration dans la [edit routing-options multicast stream-protection]
hiérarchie. Pour chaque groupe G, le MoFRR fonctionnera pour (S,G) ou (*,G), mais pas les deux. (S,G) prend toujours le pas sur (*,G).
Avec l’activation du MoFRR, un équipement de routage PIM propage des messages de jointure sur deux interfaces RPF (Reverse-Path Forwarding) en amont pour recevoir du trafic multicast sur les deux liaisons pour la même demande de jointure. Le MoFRR donne la préférence à deux chemins qui ne convergent pas vers le même équipement de routage immédiat en amont. PIM installe des routes multicast appropriées avec les sauts suivants RPF en amont avec deux interfaces (pour les chemins primaires et de secours).
En cas d’échec du chemin principal, le chemin de secours est mis à niveau vers le statut principal et l’équipement transfère le trafic en conséquence. S’il existe d’autres chemins disponibles, le MoFRR calcule un nouveau chemin de sauvegarde et met à jour ou installe le routage multicast approprié.
Vous pouvez activer le MoFRR avec l’équilibrage de charge pim de jointure (voir l’énoncé join-load-balance automatic
). Cependant, dans ce cas, la distribution des messages de jointure parmi les liens peut ne pas être égale. Lorsqu’une nouvelle liaison ECMP est ajoutée, les messages de jointure sur le chemin principal sont redistribués et les charges sont équilibrées. Les messages de jointure sur le chemin de sauvegarde peuvent toujours suivre le même chemin et ne peuvent pas être redistribués uniformément.
Vous activez le MoFRR à l’aide de l’énoncé stream-protection
de configuration dans la [edit routing-options multicast]
hiérarchie. Le MoFRR est géré par un ensemble de stratégies de filtrage.
Lorsqu’un équipement de routage PIM sortant reçoit un message de jointure ou un rapport IGMP, il vérifie une configuration MoFRR et procède comme suit :
Si la configuration MoFRR n’est pas présente, le PIM envoie un message de jointure en amont à un voisin en amont (par exemple, le plan 2 in Figure 12).
Si la configuration MoFRR est présente, l’équipement recherche une configuration de stratégie.
Si une stratégie n’est pas présente, l’équipement vérifie les chemins primaires et de secours (interfaces en amont) et procède comme suit :
Si les chemins primaires et de secours ne sont pas disponibles, pim envoie un message de jointure en amont à un voisin en amont (par exemple, plan 2 in Figure 12).
Si des chemins primaires et de sauvegarde sont disponibles, le PIM envoie le message de jointure en amont à deux des voisins en amont disponibles. Junos OS configure des chemins multicast primaires et secondaires pour recevoir le trafic multicast (par exemple, le plan 1 en Figure 12).
Si une politique est présente, l’équipement vérifie si la stratégie autorise le MoFRR pour cela (S,G), et procède comme suit :
Si cette vérification des stratégies échoue, le PIM envoie un message de jointure en amont à un voisin en amont (par exemple, le plan 2 in Figure 12).
Si cette vérification des stratégies est effectuée , l’équipement vérifie les chemins primaires et de secours (interfaces en amont).
Si les chemins primaires et de sauvegarde ne sont pas disponibles, PIM envoie un message de jointure en amont à un voisin en amont (par exemple, le plan 2 in Figure 12).
Si les chemins primaires et de sauvegarde sont disponibles, le PIM envoie le message de jointure en amont à deux des voisins en amont disponibles. L’équipement configure des chemins multicast primaires et secondaires pour recevoir le trafic multicast (par exemple, plan 1 in Figure 12).
Fonctionnalité LDP multipoint
Pour éviter la duplication du trafic MPLS, le LDP multipoint ne sélectionne généralement qu’un seul chemin en amont. (Voir la section 2.4.1.1. Détermination du « LSR en amont » dans la RFC 6388, extensions du protocole de distribution d’étiquettes pour les chemins de commutation d’étiquettes point à multipoint et multipoint à multipoint.)
Pour le LDP multipoint avec MoFRR, l’équipement LDP multipoint sélectionne deux pairs en amont distincts et envoie deux labels distincts, une à chaque homologue en amont. L’équipement utilise le même algorithme décrit dans la RFC 6388 pour sélectionner le chemin principal en amont. L’équipement utilise le même algorithme pour sélectionner le chemin en amont de secours, mais exclut le LSR principal en amont comme candidat. Les deux pairs en amont envoient deux flux de trafic MPLS vers l’équipement de routage sortant. L’équipement ne sélectionne qu’un seul des chemins voisins en amont comme chemin principal à partir duquel accepter le trafic MPLS. L’autre chemin devient le chemin de secours, et l’équipement abandonne ce trafic. Lorsque le chemin principal en amont échoue, l’équipement commence à accepter le trafic du chemin de sauvegarde. L’équipement LDP multipoint sélectionne les deux chemins en amont en fonction du saut suivant de l’équipement racine IGP (Interior Gateway Protocol).
Une classe d’équivalence de transfert (FEC) est un groupe de paquets IP qui sont transférés de la même manière, sur le même chemin et avec le même traitement de transfert. Normalement, le label qui est placé sur un paquet particulier représente le FEC auquel ce paquet est assigné. Dans le MoFRR, deux routes sont placées dans la table mpls.0 pour chaque FEC : une route pour le label principal et l’autre pour le label de secours.
S’il existe des liaisons parallèles vers le même équipement immédiat en amont, l’équipement considère les deux liaisons parallèles comme étant la principale. À tout moment, l’équipement en amont envoie du trafic sur une seule des multiples liaisons parallèles.
Un nœud bud est un LSR qui est un LSR sortant, mais qui possède également un ou plusieurs LSR directement connectés en aval. Pour un nœud bud, le trafic du chemin principal en amont est transféré vers un LSR en aval. Si le chemin principal en amont échoue, le trafic MPLS du chemin de sauvegarde en amont est transféré vers le LSR en aval. Cela signifie que le saut suivant LSR en aval est ajouté aux deux routes MPLS ainsi qu’au saut suivant sortant.
Comme avec PIM, vous activez le MoFRR avec LDP multipoint à l’aide de l’énoncé stream-protection
de configuration dans la [edit routing-options multicast]
hiérarchie, et il est géré par un ensemble de stratégies de filtre.
Si vous avez activé le fec LDP multipoint point à multipoint pour MoFRR, l’équipement tient compte des considérations suivantes dans la sélection du chemin en amont :
Les sessions LDP ciblées sont ignorées s’il y a une session LDP non ciblée. S’il y a une seule session LDP ciblée, la session LDP ciblée est sélectionnée, mais le FEC point à multipoint correspondant perd la capacité MoFRR parce qu’aucune interface n’est associée à la session LDP ciblée.
Toutes les interfaces appartenant au même LSR en amont sont considérées comme le chemin principal.
Pour toute mise à jour de routage de nœud racine, le chemin en amont est modifié en fonction des derniers sauts de l’IGP. Si un meilleur chemin est disponible, le LDP multipoint tente de passer au meilleur chemin.
Transfert de paquets
Pour le PIM ou le LDP multipoint, l’équipement effectue la sélection de flux source multicast au niveau de l’interface entrante. Cela permet de préserver la bande passante de la structure et d’optimiser les performances de transfert, car il :
Évite d’envoyer des flux en double à travers la structure
Empêche les recherches de routes multiples (qui entraînent des pertes de paquets).
Pour le PIM, chaque flux multicast IP contient la même adresse de destination. Quelle que soit l’interface sur laquelle les paquets arrivent, les paquets ont le même chemin. L’équipement vérifie l’interface sur laquelle chaque paquet arrive et transfère uniquement ceux qui sont à partir de l’interface principale. Si l’interface correspond à une interface de flux de secours, l’équipement abandonne les paquets. Si l’interface ne correspond ni à l’interface principale ni à l’interface de flux de secours, l’équipement gère les paquets comme des exceptions dans le plan de contrôle.
Figure 13 affiche ce processus avec des exemples d’interfaces primaires et de secours pour les routeurs avec PIM. Figure 14 montre cela de même pour les commutateurs avec PIM.


Pour le MoFRR avec LDP multipoint sur les routeurs, l’équipement utilise plusieurs étiquettes MPLS pour contrôler la sélection des flux MoFRR. Chaque étiquette représente une route distincte, mais chaque référence à la même vérification de la liste d’interface. L’équipement transfère uniquement le label principal et abandonne toutes les autres. Plusieurs interfaces peuvent recevoir des paquets à l’aide du même label.
Figure 15 montre ce processus pour les routeurs avec LDP multipoint.

Limites et mises en garde
- Limites et mises en garde du MoFRR sur les équipements de commutation et de routage
- Limites du MoFRR sur les équipements de commutation avec PIM
- Limites et mises en garde du MoFRR sur les équipements de routage avec multipoint LDP
Limites et mises en garde du MoFRR sur les équipements de commutation et de routage
Le MoFRR présente les limites et mises en garde suivantes sur les équipements de routage et de commutation :
La détection des défaillances MoFRR est prise en charge pour protéger immédiatement les liaisons de l’équipement de routage sur lequel le MoFRR est activé et non sur toutes les liaisons (de bout en bout) dans le chemin de trafic multicast.
Le MoFRR prend en charge le reroutage rapide sur deux chemins disjoints sélectionnés vers la source. Deux des voisins en amont sélectionnés ne peuvent pas être sur la même interface, en d’autres termes, deux voisins en amont sur un segment LAN. Il en va de même si l’interface en amont est une interface de tunnel multicast.
La détection des chemins en amont disjoints de bout en bout maximum n’est pas prise en charge. L’équipement de routage côté récepteur (sortant) s’assure uniquement qu’il y a un équipement en amont disjoint (le saut précédent immédiat). Le PIM et le LDP multipoint ne prennent pas en charge l’équivalent des objets de route explicites (ERO). Par conséquent, la détection de chemins en amont disjoints se limite au contrôle de l’équipement de saut immédiatement précédent. En raison de cette limitation, le chemin vers l’équipement en amont du saut précédent sélectionné comme principal et de sauvegarde peut être partagé.
Vous pouvez voir une perte de trafic dans les scénarios suivants :
Un meilleur chemin en amont devient disponible sur un équipement sortant.
Le MoFRR est activé ou désactivé sur l’équipement sortant alors qu’un flux de trafic actif circule.
L’équilibrage de charge pim de jointure pour les messages de jointure pour les chemins de sauvegarde n’est pas pris en charge.
Pour un groupe multicast G, le MoFRR n’est pas autorisé pour les messages de jointure (S,G) et (*,G). Les messages de jointure (S,G) ont priorité sur (*,G).
Le MoFRR n’est pas pris en charge pour les flux de trafic multicast qui utilisent deux groupes multicast différents. Chaque combinaison (S,G) est traitée comme un flux de trafic multicast unique.
La gamme PIM bidirectionnelle n’est pas prise en charge avec le MoFRR.
Le mode dense PIM n’est pas pris en charge avec le MoFRR.
Les statistiques multicast pour le flux de trafic de sauvegarde ne sont pas maintenues par PIM et ne sont donc pas disponibles dans la sortie opérationnelle des
show
commandes.La surveillance des débits n’est pas prise en charge.
Limites du MoFRR sur les équipements de commutation avec PIM
Le MoFRR avec PIM présente les limites suivantes sur les équipements de commutation :
Le MoFRR n’est pas pris en charge lorsque l’interface en amont est une interface de routage et de pontage intégré (IRB), ce qui impacte d’autres fonctionnalités multicast telles que la surveillance IGMPv3 (Internet Group Management Protocol version 3).
La réplication de paquets et les recherches multicast, ainsi que le transfert du trafic multicast, peuvent entraîner la recirculation des paquets via des PFE plusieurs fois. En conséquence, les valeurs affichées pour le nombre de paquets multicast de la
show pfe statistics traffic
commande peuvent afficher des nombres plus élevés que prévu dans les champs de sortie tels queInput packets
etOutput packets
. Vous remarquerez peut-être ce comportement plus fréquemment dans les scénarios MoFRR, car les flux principaux et de secours en double augmentent le flux de trafic en général.
Limites et mises en garde du MoFRR sur les équipements de routage avec multipoint LDP
Le MoFRR présente les limites et mises en garde suivantes sur les routeurs lorsqu’il est utilisé avec le LDP multipoint :
Le MoFRR ne s’applique pas au trafic LDP multipoint reçu sur un tunnel RSVP, car le tunnel RSVP n’est associé à aucune interface.
Le MoFRR mixte en amont n’est pas pris en charge. Il s’agit de la signalisation in-band LDP multipoint PIM, dans laquelle un chemin en amont passe par LDP multipoint et le deuxième chemin en amont par PIM.
Les étiquettes LDP multipoint en tant que labels internes ne sont pas prises en charge.
Si la source est accessible via plusieurs équipements de routage pe entrants (côté source), le MoFRR LDP multipoint n’est pas pris en charge.
Les sessions LDP ciblées en amont ne sont pas sélectionnées comme équipement en amont du MoFRR.
La protection de liaison multipoint LDP sur le chemin de sauvegarde n’est pas prise en charge, car il n’y a pas de prise en charge des étiquettes internes MoFRR.
Configuration du reroutage rapide multicast uniquement
Vous pouvez configurer le reroutage rapide (MoFRR) multicast uniquement pour minimiser la perte de paquets sur un réseau en cas de défaillance de liaison.
Lorsqu’un reroutage rapide est appliqué aux flux unicast, un routeur en amont pré-établit des chemins de commutation d’étiquettes (LSP) MPLS ou précompute un chemin de secours rapide de secours sans boucle IP (LFA) pour gérer la défaillance d’un segment du chemin en aval.
Dans le routage multicast, les graphiques de distribution du trafic sont généralement créés par le récepteur. Contrairement au routage unicast, qui établit généralement le chemin de la source au récepteur. Les protocoles capables d’établir des graphiques de distribution multicast sont PIM (pour IP), multipoint LDP (pour MPLS) et RSVP-TE (pour MPLS). Parmi ces derniers, les récepteurs PIM et LDP multipoint initient la configuration du graphique de distribution, et par conséquent :
Sur le QFX Series, Le MoFRR est pris en charge dans les domaines PIM.
Sur les MX Series et SRX Series, le MoFRR est pris en charge dans les domaines PIM et LDP multipoint.
Les étapes de configuration sont les mêmes pour l’activation du MoFRR pour PIM sur tous les équipements compatibles avec cette fonctionnalité, sauf indication contraire. Les étapes de configuration qui ne s’appliquent pas au MoFRR LDP multipoint sont également indiquées.
(Pour les routeurs MX Series uniquement) Le MoFRR est pris en charge sur les routeurs MX Series équipés de cartes d’interface MPC. Toutes les cartes de ligne du routeur doivent être des MPC.
Pour configurer le MoFRR sur des routeurs ou des commutateurs :
Exemple : Configuration du reroutage rapide multicast uniquement dans un domaine LDP multipoint
Cet exemple montre comment configurer le reroutage rapide (MoFRR) multicast uniquement pour minimiser la perte de paquets sur un réseau en cas de défaillance de liaison.
Le MoFRR LDP multipoint est utilisé au niveau du nœud de sortie d’un réseau MPLS, où les paquets sont transférés vers un réseau IP. Dans le cas du MoFRR LDP multipoint, les deux chemins vers le routeur de périphérie du fournisseur (PE) en amont sont établis pour recevoir deux flux de paquets MPLS au niveau du routeur de périphérie d’étiquettes (LER). L’un des flux (le principal) est accepté, et l’autre (la sauvegarde) est abandonné au LER. Le flux de sauvegarde est accepté en cas d’échec du chemin principal.
Conditions préalables
Aucune configuration spéciale au-delà de l’initialisation de l’équipement n’est nécessaire avant de configurer cet exemple.
Dans un domaine LDP multipoint, pour que le MoFRR fonctionne, seul le routeur PE sortant doit avoir le MoFRR activé. Les autres routeurs n’ont pas besoin de prendre en charge le MoFRR.
Le MoFRR est pris en charge sur les plates-formes MX Series avec les cartes d’interface MPC. Comme pré-requis, le routeur doit être configuré network-services enhanced-ip
en mode, et toutes les cartes de ligne de la plate-forme doivent être des MPC.
Cet exemple nécessite Junos OS version 14.1 ou ultérieure sur le routeur PE sortant.
Présentation
Dans cet exemple, l’équipement R3 est le routeur de périphérie sortant. Le MoFRR est activé uniquement sur cet équipement.
OSPF est utilisé pour la connectivité, bien que n’importe quel protocole de passerelle intérieure (IGP) ou routes statiques puissent être utilisés.
À des fins de test, des routeurs sont utilisés pour simuler la source et le récepteur. Les équipements R4 et R8 sont configurés pour rejoindre statiquement le groupe souhaité à l’aide de la set protocols igmp interface interface-name static group group
commande. Dans le cas où un hôte récepteur multicast réel n’est pas disponible, comme dans cet exemple, cette configuration IGMP statique est utile. Sur les récepteurs, pour les faire écouter l’adresse de groupe multicast, cet exemple utilise set protocols sap listen group
.
La configuration MoFRR inclut une option de stratégie qui n’est pas indiquée dans cet exemple, mais qui est expliquée séparément. L’option est configurée comme suit :
stream-protection { policy policy-name; }
topologie
Figure 16 affiche l’exemple de réseau.

Configuration rapide cli affiche la configuration de tous les équipements dans Figure 16.
La section Configuration décrit les étapes sur l’équipement R3.
Configuration rapide cli
Configuration rapide cli
Pour configurer rapidement cet exemple, copiez les commandes suivantes, collez-les dans un fichier texte, supprimez les sauts de ligne, modifiez les détails nécessaires pour correspondre à votre configuration réseau, puis copiez et collez les commandes dans la CLI au niveau de la [edit]
hiérarchie.
Équipement src1
set interfaces ge-1/2/10 unit 0 description src1-to-R1 set interfaces ge-1/2/10 unit 0 family inet address 10.5.0.1/30 set interfaces ge-1/2/11 unit 0 description src1-to-R1 set interfaces ge-1/2/11 unit 0 family inet address 192.168.219.11/24 set interfaces lo0 unit 0 family inet address 10.0.1.17/32 set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive
Équipement src2
set interfaces ge-1/2/24 unit 0 description src2-to-R5 set interfaces ge-1/2/24 unit 0 family inet address 10.5.0.2/30 set interfaces lo0 unit 0 family inet address 10.0.1.18/32 set protocols rsvp interface all set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive
Équipement R1
set interfaces ge-1/2/12 unit 0 description R1-to-R2 set interfaces ge-1/2/12 unit 0 family inet address 10.1.2.1/30 set interfaces ge-1/2/12 unit 0 family mpls set interfaces ge-1/2/13 unit 0 description R1-to-R6 set interfaces ge-1/2/13 unit 0 family inet address 10.1.6.1/30 set interfaces ge-1/2/13 unit 0 family mpls set interfaces ge-1/2/10 unit 0 description R1-to-src1 set interfaces ge-1/2/10 unit 0 family inet address 10.1.0.2/30 set interfaces ge-1/2/11 unit 0 description R1-to-src1 set interfaces ge-1/2/11 unit 0 family inet address 192.168.219.9/30 set interfaces lo0 unit 0 family inet address 10.1.1.1/32 set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.1 set protocols bgp group ibgp export static-route-tobgp set protocols bgp group ibgp peer-as 65010 set protocols bgp group ibgp neighbor 10.1.1.3 set protocols bgp group ibgp neighbor 10.1.1.7 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface ge-1/2/12.0 set protocols ldp interface ge-1/2/13.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim rp static address 10.1.1.5 set protocols pim interface lo0.0 set protocols pim interface ge-1/2/10.0 set protocols pim interface ge-1/2/11.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.1.7/32 orlonger set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.0.0/30 orlonger set policy-options policy-statement mldppim-ex term A then accept set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set routing-options autonomous-system 65010
Équipement R2
set interfaces ge-1/2/12 unit 0 description R2-to-R1 set interfaces ge-1/2/12 unit 0 family inet address 10.1.2.2/30 set interfaces ge-1/2/12 unit 0 family mpls set interfaces ge-1/2/14 unit 0 description R2-to-R3 set interfaces ge-1/2/14 unit 0 family inet address 10.2.3.1/30 set interfaces ge-1/2/14 unit 0 family mpls set interfaces ge-1/2/16 unit 0 description R2-to-R5 set interfaces ge-1/2/16 unit 0 family inet address 10.2.5.1/30 set interfaces ge-1/2/16 unit 0 family mpls set interfaces ge-1/2/17 unit 0 description R2-to-R7 set interfaces ge-1/2/17 unit 0 family inet address 10.2.7.1/30 set interfaces ge-1/2/17 unit 0 family mpls set interfaces ge-1/2/15 unit 0 description R2-to-R3 set interfaces ge-1/2/15 unit 0 family inet address 10.2.94.1/30 set interfaces ge-1/2/15 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.2/32 set interfaces lo0 unit 0 family mpls set protocols rsvp interface all set protocols mpls interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface all set protocols ldp p2mp set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 65010
Équipement R3
set chassis network-services enhanced-ip set interfaces ge-1/2/14 unit 0 description R3-to-R2 set interfaces ge-1/2/14 unit 0 family inet address 10.2.3.2/30 set interfaces ge-1/2/14 unit 0 family mpls set interfaces ge-1/2/18 unit 0 description R3-to-R4 set interfaces ge-1/2/18 unit 0 family inet address 10.3.4.1/30 set interfaces ge-1/2/18 unit 0 family mpls set interfaces ge-1/2/19 unit 0 description R3-to-R6 set interfaces ge-1/2/19 unit 0 family inet address 10.3.6.2/30 set interfaces ge-1/2/19 unit 0 family mpls set interfaces ge-1/2/21 unit 0 description R3-to-R7 set interfaces ge-1/2/21 unit 0 family inet address 10.3.7.1/30 set interfaces ge-1/2/21 unit 0 family mpls set interfaces ge-1/2/22 unit 0 description R3-to-R8 set interfaces ge-1/2/22 unit 0 family inet address 10.3.8.1/30 set interfaces ge-1/2/22 unit 0 family mpls set interfaces ge-1/2/15 unit 0 description R3-to-R2 set interfaces ge-1/2/15 unit 0 family inet address 10.2.94.2/30 set interfaces ge-1/2/15 unit 0 family mpls set interfaces ge-1/2/20 unit 0 description R3-to-R6 set interfaces ge-1/2/20 unit 0 family inet address 10.2.96.2/30 set interfaces ge-1/2/20 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.3/32 primary set routing-options autonomous-system 65010 set routing-options multicast stream-protection set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.3 set protocols bgp group ibgp peer-as 10 set protocols bgp group ibgp neighbor 10.1.1.1 set protocols bgp group ibgp neighbor 10.1.1.5 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface all set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface lo0.0 set protocols pim interface ge-1/2/18.0 set protocols pim interface ge-1/2/22.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.0.1/30 orlonger set policy-options policy-statement mldppim-ex term A then accept set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept
Équipement R4
set interfaces ge-1/2/18 unit 0 description R4-to-R3 set interfaces ge-1/2/18 unit 0 family inet address 10.3.4.2/30 set interfaces ge-1/2/18 unit 0 family mpls set interfaces ge-1/2/23 unit 0 description R4-to-R7 set interfaces ge-1/2/23 unit 0 family inet address 10.4.7.1/30 set interfaces lo0 unit 0 family inet address 10.1.1.4/32 set protocols igmp interface ge-1/2/18.0 version 3 set protocols igmp interface ge-1/2/18.0 static group 232.1.1.1 group-count 2 set protocols igmp interface ge-1/2/18.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface ge-1/2/18.0 static group 232.2.2.2 source 10.2.7.7 set protocols sap listen 232.1.1.1 set protocols sap listen 232.2.2.2 set protocols rsvp interface all set protocols mpls interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface ge-1/2/23.0 set protocols pim interface ge-1/2/18.0 set protocols pim interface lo0.0 set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 65010
Équipement R5
set interfaces ge-1/2/24 unit 0 description R5-to-src2 set interfaces ge-1/2/24 unit 0 family inet address 10.5.0.1/30 set interfaces ge-1/2/16 unit 0 description R5-to-R2 set interfaces ge-1/2/16 unit 0 family inet address 10.2.5.2/30 set interfaces ge-1/2/16 unit 0 family mpls set interfaces ge-1/2/25 unit 0 description R5-to-R6 set interfaces ge-1/2/25 unit 0 family inet address 10.5.6.1/30 set interfaces ge-1/2/25 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.5/32 set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.5 set protocols bgp group ibgp export static-route-tobgp set protocols bgp group ibgp peer-as 65010 set protocols bgp group ibgp neighbor 10.1.1.7 set protocols bgp group ibgp neighbor 10.1.1.3 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface ge-1/2/16.0 set protocols ldp interface ge-1/2/25.0 set protocols ldp p2mp set protocols pim interface lo0.0 set protocols pim interface ge-1/2/24.0 set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set routing-options autonomous-system 65010
Équipement R6
set interfaces ge-1/2/13 unit 0 description R6-to-R1 set interfaces ge-1/2/13 unit 0 family inet address 10.1.6.2/30 set interfaces ge-1/2/13 unit 0 family mpls set interfaces ge-1/2/19 unit 0 description R6-to-R3 set interfaces ge-1/2/19 unit 0 family inet address 10.3.6.1/30 set interfaces ge-1/2/19 unit 0 family mpls set interfaces ge-1/2/25 unit 0 description R6-to-R5 set interfaces ge-1/2/25 unit 0 family inet address 10.5.6.2/30 set interfaces ge-1/2/25 unit 0 family mpls set interfaces ge-1/2/26 unit 0 description R6-to-R7 set interfaces ge-1/2/26 unit 0 family inet address 10.6.7.1/30 set interfaces ge-1/2/26 unit 0 family mpls set interfaces ge-1/2/20 unit 0 description R6-to-R3 set interfaces ge-1/2/20 unit 0 family inet address 10.2.96.1/30 set interfaces ge-1/2/20 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.6/30 set protocols rsvp interface all set protocols mpls interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface all set protocols ldp p2mp
Équipement R7
set interfaces ge-1/2/17 unit 0 description R7-to-R2 set interfaces ge-1/2/17 unit 0 family inet address 10.2.7.2/30 set interfaces ge-1/2/17 unit 0 family mpls set interfaces ge-1/2/21 unit 0 description R7-to-R3 set interfaces ge-1/2/21 unit 0 family inet address 10.3.7.2/30 set interfaces ge-1/2/21 unit 0 family mpls set interfaces ge-1/2/23 unit 0 description R7-to-R4 set interfaces ge-1/2/23 unit 0 family inet address 10.4.7.2/30 set interfaces ge-1/2/23 unit 0 family mpls set interfaces ge-1/2/26 unit 0 description R7-to-R6 set interfaces ge-1/2/26 unit 0 family inet address 10.6.7.2/30 set interfaces ge-1/2/26 unit 0 family mpls set interfaces ge-1/2/27 unit 0 description R7-to-R8 set interfaces ge-1/2/27 unit 0 family inet address 10.7.8.1/30 set interfaces ge-1/2/27 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.7/32 set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.7 set protocols bgp group ibgp export static-route-tobgp set protocols bgp group ibgp peer-as 65010 set protocols bgp group ibgp neighbor 10.1.1.5 set protocols bgp group ibgp neighbor 10.1.1.1 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface ge-1/2/17.0 set protocols ldp interface ge-1/2/21.0 set protocols ldp interface ge-1/2/26.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface lo0.0 set protocols pim interface ge-1/2/27.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.0.1/30 orlonger set policy-options policy-statement mldppim-ex term A then accept set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set routing-options autonomous-system 65010 set routing-options multicast stream-protection policy mldppim-ex
Équipement R8
set interfaces ge-1/2/22 unit 0 description R8-to-R3 set interfaces ge-1/2/22 unit 0 family inet address 10.3.8.2/30 set interfaces ge-1/2/22 unit 0 family mpls set interfaces ge-1/2/27 unit 0 description R8-to-R7 set interfaces ge-1/2/27 unit 0 family inet address 10.7.8.2/30 set interfaces ge-1/2/27 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.8/32 set protocols igmp interface ge-1/2/22.0 version 3 set protocols igmp interface ge-1/2/22.0 static group 232.1.1.1 group-count 2 set protocols igmp interface ge-1/2/22.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface ge-1/2/22.0 static group 232.2.2.2 source 10.2.7.7 set protocols sap listen 232.1.1.1 set protocols sap listen 232.2.2.2 set protocols rsvp interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface ge-1/2/27.0 set protocols pim interface ge-1/2/22.0 set protocols pim interface lo0.0 set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 65010
Configuration
Procédure
Procédure étape par étape
L’exemple suivant exige que vous parcouriez différents niveaux dans la hiérarchie de configuration. Pour plus d’informations sur la navigation dans l’interface cli, consultez Utilisation de l’éditeur CLI en mode de configuration dans le Guide de l’utilisateur de l’interface cli Junos OS.
Pour configurer l’équipement R3 :
Activez le mode IP amélioré.
[edit chassis] user@R3# set network-services enhanced-ip
Configurez les interfaces de l’équipement.
[edit interfaces] user@R3# set ge-1/2/14 unit 0 description R3-to-R2 user@R3# set ge-1/2/14 unit 0 family inet address 10.2.3.2/30 user@R3# set ge-1/2/14 unit 0 family mpls user@R3# set ge-1/2/18 unit 0 description R3-to-R4 user@R3# set ge-1/2/18 unit 0 family inet address 10.3.4.1/30 user@R3# set ge-1/2/18 unit 0 family mpls user@R3# set ge-1/2/19 unit 0 description R3-to-R6 user@R3# set ge-1/2/19 unit 0 family inet address 10.3.6.2/30 user@R3# set ge-1/2/19 unit 0 family mpls user@R3# set ge-1/2/21 unit 0 description R3-to-R7 user@R3# set ge-1/2/21 unit 0 family inet address 10.3.7.1/30 user@R3# set ge-1/2/21 unit 0 family mpls user@R3# set ge-1/2/22 unit 0 description R3-to-R8 user@R3# set ge-1/2/22 unit 0 family inet address 10.3.8.1/30 user@R3# set ge-1/2/22 unit 0 family mpls user@R3# set ge-1/2/15 unit 0 description R3-to-R2 user@R3# set ge-1/2/15 unit 0 family inet address 10.2.94.2/30 user@R3# set ge-1/2/15 unit 0 family mpls user@R3# set ge-1/2/20 unit 0 description R3-to-R6 user@R3# set ge-1/2/20 unit 0 family inet address 10.2.96.2/30 user@R3# set ge-1/2/20 unit 0 family mpls user@R3# set lo0 unit 0 family inet address 10.1.1.3/32 primary
Configurez le numéro du système autonome (AS).
user@R3# set routing-options autonomous-system 6510
Configurez les stratégies de routage.
[edit policy-options policy-statement mldppim-ex] user@R3# set term B from source-address-filter 192.168.0.0/24 orlonger user@R3# set term B from source-address-filter 192.168.219.11/32 orlonger user@R3# set term B then accept user@R3# set term A from source-address-filter 10.1.0.1/30 orlonger user@R3# set term A then accept [edit policy-options policy-statement static-route-tobgp] user@R3# set term static from protocol static user@R3# set term static from protocol direct user@R3# set term static then accept
Configurez le PIM.
[edit protocols pim] user@R3# set mldp-inband-signalling policy mldppim-ex user@R3# set interface lo0.0 user@R3# set interface ge-1/2/18.0 user@R3# set interface ge-1/2/22.0
Configurez LDP.
[edit protocols ldp] user@R3# set interface all user@R3# set p2mp
Configurez un IGP ou des routes statiques.
[edit protocols ospf] user@R3# set traffic-engineering user@R3# set area 0.0.0.0 interface all user@R3# set area 0.0.0.0 interface fxp0.0 disable user@R3# set area 0.0.0.0 interface lo0.0 passive
Configurez BGP interne.
[edit protocols bgp group ibgp] user@R3# set local-address 10.1.1.3 user@R3# set peer-as 65010 user@R3# set neighbor 10.1.1.1 user@R3# set neighbor 10.1.1.5
Configurez MPLS et, éventuellement, RSVP.
[edit protocols mpls] user@R3# set interface all [edit protocols rsvp] user@R3# set interface all
Activez le MoFRR.
[edit routing-options multicast] user@R3# set stream-protection
Résultats
À partir du mode de configuration, confirmez votre configuration en entrant le show chassis
, show interfaces
show protocols
, , show policy-options
et les show routing-options
commandes. Si la sortie n’affiche pas la configuration prévue, répétez les instructions de cet exemple pour corriger la configuration.
user@R3# show chassis network-services enhanced-ip;
user@R3# show interfaces ge-1/2/14 { unit 0 { description R3-to-R2; family inet { address 10.2.3.2/30; } family mpls; } } ge-1/2/18 { unit 0 { description R3-to-R4; family inet { address 10.3.4.1/30; } family mpls; } } ge-1/2/19 { unit 0 { description R3-to-R6; family inet { address 10.3.6.2/30; } family mpls; } } ge-1/2/21 { unit 0 { description R3-to-R7; family inet { address 10.3.7.1/30; } family mpls; } } ge-1/2/22 { unit 0 { description R3-to-R8; family inet { address 10.3.8.1/30; } family mpls; } } ge-1/2/15 { unit 0 { description R3-to-R2; family inet { address 10.2.94.2/30; } family mpls; } } ge-1/2/20 { unit 0 { description R3-to-R6; family inet { address 10.2.96.2/30; } family mpls; } } lo0 { unit 0 { family inet { address 192.168.15.1/32; address 10.1.1.3/32 { primary; } } } }
user@R3# show protocols rsvp { interface all; } mpls { interface all; } bgp { group ibgp { local-address 10.1.1.3; peer-as 65010; neighbor 10.1.1.1; neighbor 10.1.1.5; } } ospf { traffic-engineering; area 0.0.0.0 { interface all; interface fxp0.0 { disable; } interface lo0.0 { passive; } } } ldp { interface all; p2mp; } pim { mldp-inband-signalling { policy mldppim-ex; } interface lo0.0; interface ge-1/2/18.0; interface ge-1/2/22.0; }
user@R3# show policy-options policy-statement mldppim-ex { term B { from { source-address-filter 192.168.0.0/24 orlonger; source-address-filter 192.168.219.11/32 orlonger; } then accept; } term A { from { source-address-filter 10.1.0.1/30 orlonger; } then accept; } } policy-statement static-route-tobgp { term static { from protocol [ static direct ]; then accept; } }
user@R3# show routing-options autonomous-system 65010; multicast { stream-protection; }
Si vous avez fini de configurer l’équipement, saisissez commit
à partir du mode de configuration.
Vérification
Vérifiez que la configuration fonctionne correctement.
- Vérification des classes d’équivalence de transfert point vers multipoint LDP
- Examen des informations sur l’étiquette
- Vérification des routes multicast
- Vérification des statistiques de trafic LDP point à multipoint
Vérification des classes d’équivalence de transfert point vers multipoint LDP
But
Assurez-vous que le MoFRR est activé et déterminez les étiquettes utilisées.
Action
user@R3> show ldp p2mp fec LDP P2MP FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 MoFRR enabled Fec type: Egress (Active) Label: 301568 P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 MoFRR enabled Fec type: Egress (Active) Label: 301600
Sens
Le résultat montre que le MoFRR est activé et que les étiquettes 301568 et 301600 sont utilisées pour les deux LDP multipoint point à multipoint.
Examen des informations sur l’étiquette
But
Assurez-vous que l’équipement sortant dispose de deux interfaces en amont pour la jointure de groupe multicast.
Action
user@R3> show route label 301568 detail mpls.0: 18 destinations, 18 routes (18 active, 0 holddown, 0 hidden) 301568 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x2735208 Next-hop reference count: 3 Next hop type: Router, Next hop index: 1397 Address: 0x2735d2c Next-hop reference count: 3 Next hop: 10.3.8.2 via ge-1/2/22.0 Label operation: Pop Load balance label: None; Next hop type: Router, Next hop index: 1395 Address: 0x2736290 Next-hop reference count: 3 Next hop: 10.3.4.2 via ge-1/2/18.0 Label operation: Pop Load balance label: None; State: <Active Int AckRequest MulticastRPF> Local AS: 65010 Age: 54:05 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 Primary Upstream : 10.1.1.3:0--10.1.1.2:0 RPF Nexthops : ge-1/2/15.0, 10.2.94.1, Label: 301568, weight: 0x1 ge-1/2/14.0, 10.2.3.1, Label: 301568, weight: 0x1 Backup Upstream : 10.1.1.3:0--10.1.1.6:0 RPF Nexthops : ge-1/2/20.0, 10.2.96.1, Label: 301584, weight: 0xfffe ge-1/2/19.0, 10.3.6.1, Label: 301584, weight: 0xfffe
user@R3> show route label 301600 detail mpls.0: 18 destinations, 18 routes (18 active, 0 holddown, 0 hidden) 301600 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x27356b4 Next-hop reference count: 3 Next hop type: Router, Next hop index: 1520 Address: 0x27350f4 Next-hop reference count: 3 Next hop: 10.3.8.2 via ge-1/2/22.0 Label operation: Pop Load balance label: None; Next hop type: Router, Next hop index: 1481 Address: 0x273645c Next-hop reference count: 3 Next hop: 10.3.4.2 via ge-1/2/18.0 Label operation: Pop Load balance label: None; State: <Active Int AckRequest MulticastRPF> Local AS: 65010 Age: 54:25 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 Primary Upstream : 10.1.1.3:0--10.1.1.6:0 RPF Nexthops : ge-1/2/20.0, 10.2.96.1, Label: 301600, weight: 0x1 ge-1/2/19.0, 10.3.6.1, Label: 301600, weight: 0x1 Backup Upstream : 10.1.1.3:0--1.1.1.2:0 RPF Nexthops : ge-1/2/15.0, 10.2.94.1, Label: 301616, weight: 0xfffe ge-1/2/14.0, 10.2.3.1, Label: 301616, weight: 0xfffe
Sens
La sortie affiche les chemins principaux en amont et les chemins en amont de secours. Il affiche également les sauts suivants du RPF.
Vérification des routes multicast
But
Examinez la table de transfert multicast IP pour vous assurer qu’il existe une liste d’interfaces RPF en amont, avec une interface principale et une interface de secours.
Action
user@R3> show ldp p2mp path P2MP path type: Transit/Egress Output Session (label): 10.1.1.2:0 (301568) (Primary) Egress Nexthops: Interface ge-1/2/18.0 Interface ge-1/2/22.0 RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301568, 1 Interface ge-1/2/20.0, 10.2.96.1, 301584, 65534 Interface ge-1/2/14.0, 10.2.3.1, 301568, 1 Interface ge-1/2/19.0, 10.3.6.1, 301584, 65534 Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 (Active) P2MP path type: Transit/Egress Output Session (label): 10.1.1.6:0 (301584) (Backup) Egress Nexthops: Interface ge-1/2/18.0 Interface ge-1/2/22.0 RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301568, 1 Interface ge-1/2/20.0, 10.2.96.1, 301584, 65534 Interface ge-1/2/14.0, 10.2.3.1, 301568, 1 Interface ge-1/2/19.0, 10.3.6.1, 301584, 65534 Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 (Active) P2MP path type: Transit/Egress Output Session (label): 10.1.1.6:0 (301600) (Primary) Egress Nexthops: Interface ge-1/2/18.0 Interface ge-1/2/22.0 RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301616, 65534 Interface ge-1/2/20.0, 10.2.96.1, 301600, 1 Interface ge-1/2/14.0, 10.2.3.1, 301616, 65534 Interface ge-1/2/19.0, 10.3.6.1, 301600, 1 Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 (Active) P2MP path type: Transit/Egress Output Session (label): 10.1.1.2:0 (301616) (Backup) Egress Nexthops: Interface ge-1/2/18.0 Interface ge-1/2/22.0 RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301616, 65534 Interface ge-1/2/20.0, 10.2.96.1, 301600, 1 Interface ge-1/2/14.0, 10.2.3.1, 301616, 65534 Interface ge-1/2/19.0, 10.3.6.1, 301600, 1 Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 (Active)
Sens
La sortie affiche les sessions primaires et de sauvegarde, ainsi que les sauts RPF suivants.
Vérification des statistiques de trafic LDP point à multipoint
But
Assurez-vous que les statistiques primaires et de sauvegarde sont répertoriées.
Action
user@R3> show ldp traffic-statistics p2mp P2MP FEC Statistics: FEC(root_addr:lsp_id/grp,src) Nexthop Packets Bytes Shared 10.1.1.1:232.1.1.1,192.168.219.11, Label: 301568 10.3.8.2 0 0 No 10.3.4.2 0 0 No 10.1.1.1:232.1.1.1,192.168.219.11, Label: 301584, Backup route 10.3.4.2 0 0 No 10.3.8.2 0 0 No 10.1.1.1:232.1.1.2,192.168.219.11, Label: 301600 10.3.8.2 0 0 No 10.3.4.2 0 0 No 10.1.1.1:232.1.1.2,192.168.219.11, Label: 301616, Backup route 10.3.4.2 0 0 No 10.3.8.2 0 0 No
Sens
La sortie affiche les routes primaires et de secours avec les étiquettes.
Exemple : Configuration de LDP en aval à la demande
Cet exemple montre comment configurer LDP en aval à la demande. Le LDP est généralement configuré en utilisant le mode publicité non sollicitée en aval, ce qui signifie que des annonces d’étiquettes pour tous les routes sont reçues de tous les pairs LDP. Alors que les fournisseurs de services intègrent les réseaux d’accès et d’agrégation dans un seul domaine MPLS, le LDP en aval à la demande est nécessaire pour distribuer les liaisons entre les réseaux d’accès et d’agrégation et réduire les exigences de traitement du plan de contrôle.
Les nœuds en aval peuvent potentiellement recevoir des dizaines de milliers de liaisons de labels à partir de nœuds d’agrégation en amont. Au lieu d’apprendre et de stocker toutes les liaisons de labels pour toutes les adresses de bouclage possibles sur l’ensemble du réseau MPLS, le nœud d’agrégation en aval en aval peut être configuré à l’aide de LDP en aval à la demande pour demander uniquement les liaisons de labels pour les FEC correspondant aux adresses de bouclage des nœuds de sortie sur lesquels il a des services configurés.
Conditions préalables
Cet exemple utilise les composants matériels et logiciels suivants :
-
Routeur M Series
-
Junos OS 12.2
Présentation
Vous pouvez activer la publicité de label LDP en aval à la demande pour une session LDP en incluant l’instruction en aval à la demande au niveau de la [edit protocols ldp session]
hiérarchie. Si vous avez configuré l’aval à la demande, le routeur Juniper Networks annonce la demande en aval à la demande auprès de ses routeurs homologues. Pour qu’une session en aval à la demande soit établie entre deux routeurs, les deux doivent faire de la publicité en aval sur le mode à la demande lors de l’établissement des sessions LDP. Si un routeur annonce un mode non sollicité en aval et l’autre en aval à la demande, le mode non sollicité en aval est utilisé.
Configuration
- Configuration de LDP en aval à la demande
- Distribution de routes LDP en aval à la demande dans BGP étiqueté
Configuration de LDP en aval à la demande
Procédure étape par étape
Pour configurer une stratégie LDP en aval à la demande, puis configurer cette stratégie et activer LDP en aval à la demande sur la session LDP :
-
Configurez la stratégie en aval à la demande (DOD-Request-Loopbacks dans cet exemple).
Cette stratégie oblige le routeur à transférer les messages de demande de label uniquement aux FEC correspondant à la DOD-Request-Loopbacks stratégie.
[edit policy-options] user@host# set prefix-list Request-Loopbacks 10.1.1.1/32 user@host# set prefix-list Request-Loopbacks 10.1.1.2/32 user@host# set prefix-list Request-Loopbacks 10.1.1.3/32 user@host# set prefix-list Request-Loopbacks 10.1.1.4/32 user@host# set policy-statement DOD-Request-Loopbacks term 1 from prefix-list Request-Loopbacks user@host# set policy-statement DOD-Request-Loopbacks term 1 then accept
-
Spécifiez la stratégie DOD-Request-Loopbacks à l’aide de l’instruction
dod-request-policy
au niveau hiérarchique[edit protocols ldp]
.La stratégie spécifiée avec l’instruction
dod-request-policy
permet d’identifier les préfixes à envoyer des messages de demande de label. Cette politique est similaire à une politique de sortie ou d’importation. Lors du traitement de routes à partir de la table de routage inet.0, le logiciel Junos OS vérifie les routes correspondant à laDOD-Request-Loopbacks
stratégie (dans cet exemple). Si le routage correspond à la stratégie et que la session LDP est négociée avec le mode publicité du DOD, des messages de demande de label sont envoyés à la session LDP en aval correspondante.[edit protocols ldp] user@host# set dod-request-policy DOD-Request-Loopbacks
-
Incluez l’instruction
downstream-on-demand
dans la configuration de la session LDP pour activer le mode de distribution en aval à la demande.[edit protocols ldp] user@host# set session 172.16.1.1 downstream-on-demand
Distribution de routes LDP en aval à la demande dans BGP étiqueté
Procédure étape par étape
Pour distribuer des routes LDP en aval à la demande dans des BGP étiquetés, utilisez une stratégie d’exportation BGP.
-
Configurez la stratégie de routage LDP (
redistribute_ldp
dans cet exemple).[edit policy-options] user@host# set policy-statement redistribute_ldp term 1 from protocol ldp user@host# set policy-statement redistribute_ldp term 1 from tag 1000 user@host# set policy-statement redistribute_ldp term 1 then accept
-
Incluez la stratégie de routage LDP dans
redistribute_ldp
la configuration BGP (dans le cadre de la configurationebgp-to-abr
du groupe BGP dans cet exemple).BGP transfère les routes LDP basées sur la
redistribute_ldp
stratégie au routeur PE distant[edit protocols bgp] user@host# set group ebgp-to-abr type external user@host# set group ebgp-to-abr local-address 192.168.0.1 user@host# set group ebgp-to-abr peer-as 65319 user@host# set group ebgp-to-abr local-as 65320 user@host# set group ebgp-to-abr neighbor 192.168.6.1 family inet unicast user@host# set group ebgp-to-abr neighbor 192.168.6.1 family inet labeled-unicast rib inet.3 user@host# set group ebgp-to-abr neighbor 192.168.6.1 export redistribute_ldp
Procédure étape par étape
Pour restreindre la propagation des étiquettes aux autres routeurs configurés en aval en mode non sollicité (plutôt qu’en aval à la demande), configurez les stratégies suivantes :
-
Configurez la
dod-routes
stratégie pour accepter les routes de LDP.user@host# set policy-options policy-statement dod-routes term 1 from protocol ldp user@host# set policy-options policy-statement dod-routes term 1 from tag 1145307136 user@host# set policy-options policy-statement dod-routes term 1 then accept
-
Configurez la
do-not-propagate-du-sessions
stratégie pour ne pas transférer les routes aux voisins10.1.1.1
,10.2.2.2
et10.3.3.3
.user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 to neighbor 10.1.1.1 user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 to neighbor 10.2.2.2 user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 to neighbor 10.3.3.3 user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 then reject
-
Configurez la
filter-dod-on-du-sessions
stratégie pour empêcher que les routes examinées par ladod-routes
stratégie ne soient transférés aux routeurs voisins définis dans lado-not-propagate-du-sessions
stratégie.user@host# set policy-options policy-statement filter-dod-routes-on-du-sessions term 1 from policy dod-routes user@host# set policy-options policy-statement filter-dod-routes-on-du-sessions term 1 to policy do-not-propagate-du-sessions
-
Spécifiez la
filter-dod-routes-on-du-sesssion
stratégie comme stratégie d’exportation pour BGP groupebgp-to-abr
.[edit protocols bgp] user@host# set group ebgp-to-abr neighbor 192.168.6.2 export filter-dod-routes-on-du-sessions
Résultats
À partir du mode de configuration, confirmez votre configuration en entrant les show policy-options
commandes et show protocols ldp
. Si la sortie n’affiche pas la configuration prévue, répétez les instructions de cet exemple pour corriger la configuration.
user@host# show policy-options prefix-list Request-Loopbacks { 10.1.1.1/32; 10.1.1.2/32; 10.1.1.3/32; 10.1.1.4/32; } policy-statement DOD-Request-Loopbacks { term 1 { from { prefix-list Request-Loopbacks; } then accept; } } policy-statement redistribute_ldp { term 1 { from { protocol ldp; tag 1000; } then accept; } }
user@host# show protocols ldp dod-request-policy DOD-Request-Loopbacks; session 172.16.1.1 { downstream-on-demand; }
user@host# show protocols bgp group ebgp-to-abr { type external; local-address 192.168.0.1; peer-as 65319; local-as 65320; neighbor 192.168.6.1 { family inet { unicast; labeled-unicast { rib { inet.3; } } } export redistribute_ldp; } }
Vérification
Vérification du mode publicité sur les étiquettes
But
Vérifiez que la configuration fonctionne correctement.
Utilisez la show ldp session
commande pour vérifier l’état du mode publicité de label pour la session LDP.
Action
Émission et show ldp session
show ldp session detail
commandes :
-
La sortie de commande suivante pour la
show ldp session
commande indique que leAdv. Mode
(mode d’annonce de label) estDOD
(ce qui signifie que la session LDP en aval à la demande est opérationnelle) :user@host>
show ldp session
Address State Connection Hold time Adv. Mode 172.16.1.2 Operational Open 22 DOD -
La sortie de commande suivante pour la
show ldp session detail
commande indique que laLocal Label Advertisement mode
valeur isDownstream unsolicited
, par défaut (ce qui signifie qu’en aval à la demande n’est pas configurée sur la session locale). Inversement, leRemote Label Advertisement mode
et lesNegotiated Label Advertisement mode
deux indiquent qu’ilDownstream on demand
est configuré sur la session distanteuser@host>
show ldp session detail
Address: 172.16.1.2, State: Operational, Connection: Open, Hold time: 24 Session ID: 10.1.1.1:0--10.1.1.2:0 Next keepalive in 4 seconds Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1 Neighbor types: configured-tunneled Keepalive interval: 10, Connect retry interval: 1 Local address: 10.1.1.1, Remote address: 10.1.1.2 Up for 17:54:52 Capabilities advertised: none Capabilities received: none Protection: disabled Local - Restart: disabled, Helper mode: enabled, Remote - Restart: disabled, Helper mode: enabled Local maximum neighbor reconnect time: 120000 msec Local maximum neighbor recovery time: 240000 msec Local Label Advertisement mode: Downstream unsolicited Remote Label Advertisement mode: Downstream on demand Negotiated Label Advertisement mode: Downstream on demand Nonstop routing state: Not in sync Next-hop addresses received: 10.1.1.2
Configuration de la prise en charge LDP Native IPv6
Le LDP est pris en charge dans un réseau IPv6 uniquement et dans un réseau double pile IPv6 ou IPv4, comme décrit dans la RFC 7552. Configurez la famille d’adresses comme inet
pour IPv4 ou inet6
IPv6 ou les deux, et la préférence de transport est soit IPv4
soit ou IPv6
. L’instruction dual-transport
permet à Junos OS LDP d’établir la connexion TCP sur IPv4 avec les voisins IPv4, et sur IPv6 avec les voisins IPv6 en tant que LSR à pile unique. Les inet-lsr-id
et inet6-lsr-id
les IDs sont les deux IDS LSR qui doivent être configurés pour établir une session LDP sur le transport TCP IPv4 et IPv6. Ces deux ADRESSES doivent être non nulles et doivent être configurées avec des valeurs différentes.
Avant de configurer IPv6 en tant que double pile, assurez-vous de configurer les protocoles de routage et de signalisation.
Pour configurer la prise en charge IPv6 LDP native, vous devez effectuer les opérations suivantes :
Exemple : Configuration de la prise en charge LDP Native IPv6
Cet exemple montre comment permettre au protocole LDP (Label Distribution Protocol) de Junos OS d’établir une connexion TCP sur IPv4 avec des voisins IPv4 et sur IPv6 avec des voisins IPv6 en tant que LSR à pile unique. Cela permet d’éviter la tunnelisation d’IPv6 sur le cœur MPLS IPv4 avec des chemins de commutation d’étiquettes (LSP) MPLS signalés par IPv4.
Conditions préalables
Cet exemple utilise les composants matériels et logiciels suivants :
-
Deux routeurs MX Series
-
Junos OS Version 16.1 ou ultérieure s’exécutant sur tous les équipements
Avant de configurer IPv6 en tant que double pile, assurez-vous de configurer les protocoles de routage et de signalisation.
Présentation
Le LDP est pris en charge dans un réseau IPv6 uniquement, et dans un réseau double pile IPv6 ou IPv4, comme décrit dans la RFC 7552. Configurez la famille d’adresses comme inet
pour IPv4 ou inet6
IPv6. Par défaut, IPv6 est utilisé comme transport TCP pour la session LDP avec ses pairs lorsque les deux IPv4 et IPv6 sont activés . L’instruction de double transport permet à Junos LDP d’établir la connexion TCP sur IPv4 avec les voisins IPv4, et sur IPv6 avec les voisins IPv6 en tant que LSR à pile unique. Les inet-lsr-id
et inet6-lsr-id
sont les deux ID LSR qui doivent être configurés pour établir une session LDP sur le transport TCP IPv4 et IPv6. Ces deux ADRESSES doivent être non nulles et doivent être configurées avec des valeurs différentes.
topologie
Figure 17 affiche le LDP IPv6 configuré en double pile sur les équipements R1 et R2.

Configuration
- Configuration rapide cli
- Configuration du R1
- Configurer la préférence de transport pour sélectionner le transport préféré
- Configurer le double transport pour établir des sessions distinctes pour IPv4 avec un voisin IPv4 et IPv6 avec un voisin IPv6
Configuration rapide cli
Pour configurer rapidement cet exemple, copiez les commandes suivantes, collez-les dans un fichier texte, supprimez les sauts de ligne, modifiez les détails nécessaires pour correspondre à la configuration de votre réseau, copiez et collez les commandes dans la CLI au niveau de la [edit] hiérarchie, puis entrez commit
à partir du mode de configuration.
R1
set interfaces ge-1/0/0 unit 0 family inet address 192.168.12.1/24 set interfaces ge-1/0/0 unit 0 family iso set interfaces ge-1/0/0 unit 0 family inet6 address 2001:db8:0:12::/64 eui-64 set interfaces ge-1/0/0 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.0.1/32 set interfaces lo0 unit 0 family iso address 49.0001.1720.1600.1010.00 set interfaces lo0 unit 0 family inet6 address 2001:db8::1/128 set protocols isis interface ge-1/0/0.0 set protocols isis interface lo0.0 set protocols mpls interface ge-1/0/0.0 set protocols ldp deaggregate set protocols ldp interface ge-1/0/0.0 set protocols ldp interface lo0.0 set protocols ldp family inet6 set protocols ldp family inet
R2
set interfaces ge-1/0/1 unit 0 family inet address 192.168.12.2/24 set interfaces ge-1/0/1 unit 0 family iso set interfaces ge-1/0/1 unit 0 family inet6 address 2001:db8:0:12::/64 eui-64 set interfaces ge-1/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.0.2/32 set interfaces lo0 unit 0 family iso address 49.0001.1720.1600.2020.00 set interfaces lo0 unit 0 family inet6 address 2001:db8::2/128 set protocols isis interface ge-1/0/1.0 set protocols isis interface lo0.0 set protocols mpls interface ge-1/0/1.0 set protocols ldp deaggregate set protocols ldp interface ge-1/0/1.0 set protocols ldp interface lo0.0 set protocols ldp family inet6 set protocols ldp family inet
Configuration du R1
Procédure étape par étape
L’exemple suivant exige que vous parcouriez différents niveaux dans la hiérarchie de configuration. Pour plus d’informations sur la navigation dans l’interface de ligne de commande, reportez-vous au « Using the CLI Editor in Configuration Mode » du Guide de l’utilisateur de Junos OS CLI.
Pour configurer l’équipement R1 :
-
Configurez les interfaces.
[edit interfaces] set ge-1/0/0 unit 0 family inet address 192.168.12.1/24 set ge-1/0/0 unit 0 family iso set ge-1/0/0 unit 0 family inet6 address 2001:db8:0:12::/64 eui-64 set ge-1/0/0 unit 0 family mpls
-
Attribuez une adresse de bouclage à l’équipement.
[edit interfaces lo0 unit 0] set family inet address 10.255.0.1/32 set family iso address 49.0001.1720.1600.1010.00 set family inet6 address 2001:db8::1/128
-
Configurez les interfaces IS-IS.
[edit protocols isis] set interface ge-1/0/0.0 set interface lo0.0
-
Configurez MPLS pour utiliser des interfaces LDP sur l’équipement.
[edit protocols mpls] set protocols mpls interface ge-1/0/0.0 set interface ge-1/0/0.0 set interface lo0.0
-
Activez la désagrégation FEC (Forwarding Equivalence Class) afin d’utiliser différentes étiquettes pour différentes familles d’adresses.
[edit protocols ldp] set deaggregate
-
Configurez les familles d’adresses LDP.
[edit protocols ldp] set family inet6 set family inet
Résultats
À partir du mode de configuration, confirmez votre configuration en entrant les show interfaces commandes et show protocols . Si la sortie n’affiche pas la configuration prévue, répétez les instructions de cet exemple pour corriger la configuration.
user@R1# show interfaces ge-1/0/0 { unit 0 { family inet { address 192.168.12.1/24; } family iso; family inet6 { address 2001:db8:0:12::/64 { eui-64; } } family mpls; } } lo0 { unit 0 { family inet { address 10.255.0.1/32; } family iso { address 49.0001.1720.1600.1010.00 } family inet6 { address 2001:db8::1/128; } } }
user@R1# show protocols mpls { interface ge-1/0/0.0; } isis { interface ge-1/0/0.0; interface lo0.0; } ldp { deaggregate; interface ge-1/0/0.0; interface lo0.0; family { inet6; inet; } }
Configurer la préférence de transport pour sélectionner le transport préféré
Configuration rapide cli
Procédure étape par étape
Vous pouvez configurer l’instruction transport-preference
pour sélectionner le transport préféré pour une connexion TCP lorsque les deux IPv4 et IPv6 sont activés. Par défaut, IPv6 est utilisé comme transport TCP pour établir une connexion LDP.
-
(Facultatif) Configurez la préférence de transport pour une connexion LDP.
[edit protocols ldp] set transport-preference ipv4
Procédure étape par étape
Résultats
À partir du mode configuration, confirmez votre configuration en entrant la show protocols commande. Si la sortie n’affiche pas la configuration prévue, répétez les instructions de cet exemple pour corriger la configuration.
user@R1# show protocols mpls { interface ge-1/0/0.0; } isis { interface ge-1/0/0.0; interface lo0.0; } ldp { deaggregate; interface ge-1/0/0.0; interface lo0.0; family { inet6; inet; } transport-preference ipv4; }
Configurer le double transport pour établir des sessions distinctes pour IPv4 avec un voisin IPv4 et IPv6 avec un voisin IPv6
Procédure étape par étape
Vous pouvez configurer l’instruction dual-transport
pour permettre à LDP d’établir une session IPv4 distincte avec un voisin IPv4 et une session IPv6 avec un voisin IPv6. Cela nécessite la configuration de inet-lsr-id
l’ID LSR pour IPv4 et inet6-lsr-id
de l’ID LSR pour IPv6.
-
(Facultatif) Configurez le double transport pour permettre au LDP d’établir la connexion TCP sur IPv4 avec les voisins IPv4, et sur IPv6 avec les voisins IPv6 en tant que LSR à pile unique.
[edit protocols ldp dual-transport] set inet-lsr-id 10.255.0.1 set inet6-lsr-id 10.1.1.1
Résultats
À partir du mode configuration, confirmez votre configuration en entrant la show protocols commande. Si la sortie n’affiche pas la configuration prévue, répétez les instructions de cet exemple pour corriger la configuration.
user@R1# show protocols mpls { interface ge-1/0/0.0; } isis { interface ge-1/0/0.0; interface lo0.0; } ldp { deaggregate; interface ge-1/0/0.0; interface lo0.0; family { inet6; inet; } dual-transport { inet-lsr-id 10.255.0.1; inet6-lsr-id 10.1.1.1; } }
Vérification
Vérifiez que la configuration fonctionne correctement.
- Vérification des entrées de route dans la table mpls.0
- Vérification des entrées de route dans la table inet.3
- Vérification des entrées de route dans la table inet6.3
- Vérification de la base de données LDP
- Vérification des informations sur les voisins LDP
- Vérification des informations de session LDP
Vérification des entrées de route dans la table mpls.0
But
Affichez les informations de la table de routage mpls.0.
Action
Sur l’équipement R1, à partir du mode opérationnel, exécutez la show route table mpls.0
commande pour afficher les informations de la table de routage mpls.0.
user@R1> show route table mpls.0
mpls.0: 8 destinations, 8 routes (8 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
0 *[MPLS/0] 05:19:58, metric 1
Receive
1 *[MPLS/0] 05:19:58, metric 1
Receive
2 *[MPLS/0] 05:19:58, metric 1
Receive
13 *[MPLS/0] 05:19:58, metric 1
Receive
299824 *[LDP/9] 04:28:45, metric 1
> to fe80::21f:1200:cb6:4c8d via ge-1/0/0.0, Pop
299824(S=0) *[LDP/9] 04:28:45, metric 1
> to fe80::21f:1200:cb6:4c8d via ge-1/0/0.0, Pop
299888 *[LDP/9] 00:56:12, metric 1
> to 192.168.12.2 via ge-1/0/0.0, Pop
299888(S=0) *[LDP/9] 00:56:12, metric 1
> to 192.168.12.2 via ge-1/0/0.0, Pop
Sens
Le résultat affiche les informations de la table de routage mpls.0.
Vérification des entrées de route dans la table inet.3
But
Affichez les informations de la table de routage inet.3.
Action
Sur l’équipement R1, à partir du mode opérationnel, exécutez la commande pour afficher les show route table inet.3
informations de la table de routage inet.3.
user@R1> show route table inet.3
inet.3: 1 destinations, 1 routes (1 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
10.255.0.2/32 *[LDP/9] 00:58:38, metric 1
> to 192.168.12.2 via ge-1/0/0.0
Sens
Le résultat affiche les informations de la table de routage inet.3.
Vérification des entrées de route dans la table inet6.3
But
Affichez les informations de la table de routage inet6.3.
Action
Sur l’équipement R1, à partir du mode opérationnel, exécutez la show route table inet6.3
commande pour afficher les informations de la table de routage inet6.3.
user@R1> show route table inet6.3
inet6.3: 1 destinations, 1 routes (1 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
2001:db8::2/128 *[LDP/9] 04:31:17, metric 1
> to fe80::21f:1200:cb6:4c8d via ge-1/0/0.0
Sens
Le résultat affiche les informations de la table de routage inet6.3.
Vérification de la base de données LDP
But
Affichez les informations de la base de données LDP.
Action
Sur l’équipement R1, à partir du mode opérationnel, exécutez la commande pour afficher les show ldp database
informations de la base de données LDP.
user@R1> show ldp database
Input label database, 10.255.0.1:0--10.255.0.2:0
Labels received: 3
Label Prefix
299840 10.255.0.1/32
3 10.255.0.2/32
299808 2001:db8::1/128
3 2001:db8::2/128
Output label database, 10.255.0.1:0--10.255.0.2:0
Labels advertised: 3
Label Prefix
3 10.255.0.1/32
299888 10.255.0.2/32
3 2001:db8::1/128
299824 2001:db8::2/128
Sens
Le résultat affiche les entrées dans la base de données LDP.
Vérification des informations sur les voisins LDP
But
Affichez les informations sur le voisin LDP.
Action
Sur l’équipement R1, à partir du mode opérationnel, exécutez les show ldp neighbor
commandes et show ldp neighbor extensive
pour afficher les informations sur les voisins LDP.
user@R1>show ldp neighbor
Address Interface Label space ID Hold time fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 12 192.168.12.2 ge-1/0/0.0 10.255.0.2:0 11 user@R1>show ldp neighbor extensive
Address Interface Label space ID Hold time 192.168.12.2 ge-1/0/0.0 10.255.0.2:0 11 Transport address: 10.255.0.2, Transport preference: IPv6, Configuration sequence: 10 Up for 00:04:35 Reference count: 1 Hold time: 15, Proposed local/peer: 15/15 Hello flags: none Neighbor types: discovered Address Interface Label space ID Hold time fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 14 Transport address: 2001:db8::2, Transport preference: IPv6, Configuration sequence: 10 Up for 00:04:35 Reference count: 1 Hold time: 15, Proposed local/peer: 15/15 Hello flags: none Neighbor types: discovered
Sens
La sortie affiche les informations des voisins LDP des adresses IPv4 et IPv6.
Vérification des informations de session LDP
But
Affichez les informations de session LDP.
Action
Sur l’équipement R1, à partir du mode opérationnel, exécutez les show ldp session
commandes et show ldp session extensive
pour afficher les informations de session LDP.
user@R1>show ldp session
session Address State Connection Hold time Adv. Mode 2001:db8::2 Operational Open 20 DU user@R1>show ldp session extensive
Address: 2001:db8::2, State: Operational, Connection: Open, Hold time: 29 Session ID: 10.255.0.1:0--10.255.0.2:0 Next keepalive in 9 seconds Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1 Neighbor types: discovered Keepalive interval: 10, Connect retry interval: 1 Local address: 2001:db8::1, Remote address: 2001:db8::2 Up for 00:05:31 Capabilities advertised: none Capabilities received: none Protection: disabled Session flags: none Local - Restart: disabled, Helper mode: enabled Remote - Restart: disabled, Helper mode: enabled Local maximum neighbor reconnect time: 120000 msec Local maximum neighbor recovery time: 240000 msec Local Label Advertisement mode: Downstream unsolicited Remote Label Advertisement mode: Downstream unsolicited Negotiated Label Advertisement mode: Downstream unsolicited MTU discovery: disabled Nonstop routing state: Not in sync Next-hop addresses received: 10.255.0.2 192.168.12.2 2001:db8::2 fe80::21f:1200:cb6:4c8d Queue depth: 0 Message type Total Last 5 seconds Sent Received Sent Received Initialization 1 1 0 0 Keepalive 34 34 0 0 Notification 0 0 0 0 Address 1 1 0 0 Address withdraw 0 0 0 0 Label mapping 3 3 0 0 Label request 0 0 0 0 Label withdraw 0 0 0 0 Label release 0 0 0 0 Label abort 0 0 0 0
Sens
La sortie affiche des informations pour la session LDP en utilisant IPv6 comme transport TCP.
Vérification
Vérifiez que la configuration fonctionne correctement.
Vérification des informations sur les voisins LDP
But
Affichez les informations sur le voisin LDP.
Action
Sur l’équipement R1, à partir du mode opérationnel, exécutez la commande pour afficher les informations sur les show ldp neighbor extensive
voisins LDP.
user@R1> show ldp neighbor extensive
Address Interface Label space ID Hold time
192.168.12.2 ge-1/0/0.0 10.255.0.2:0 14
Transport address: 10.255.0.2, Transport preference: IPv4, Configuration sequence: 9
Up for 00:00:14
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
Address Interface Label space ID Hold time
fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 14
Transport address: 2001:db8::2, Transport preference: IPv4, Configuration sequence: 9
Up for 00:00:14
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
Sens
La sortie affiche des informations sur les voisins LDP pour les adresses IPv4 et IPv6.
Vérification des informations de session LDP
But
Affichez les informations de session LDP.
Action
Sur l’équipement R1, à partir du mode opérationnel, exécutez la commande pour afficher les show ldp session extensive
informations de session LDP.
user@R1> show ldp session extensive
Address: 10.255.0.2, State: Operational, Connection: Open, Hold time: 24
Session ID: 10.255.0.1:0--10.255.0.2:0
Next keepalive in 4 seconds
Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 2
Neighbor types: discovered
Keepalive interval: 10, Connect retry interval: 1
Local address: 10.255.0.1, Remote address: 10.255.0.2
Up for 00:05:26
Capabilities advertised: none
Capabilities received: none
Protection: disabled
Session flags: none
Local - Restart: disabled, Helper mode: enabled
Remote - Restart: disabled, Helper mode: enabled
Local maximum neighbor reconnect time: 120000 msec
Local maximum neighbor recovery time: 240000 msec
Local Label Advertisement mode: Downstream unsolicited
Remote Label Advertisement mode: Downstream unsolicited
Negotiated Label Advertisement mode: Downstream unsolicited
MTU discovery: disabled
Nonstop routing state: Not in sync
Next-hop addresses received:
10.255.0.2
192.168.12.2
2001:db8::2
fe80::21f:1200:cb6:4c8d
Queue depth: 0
Message type Total Last 5 seconds
Sent Received Sent Received
Initialization 1 1 0 0
Keepalive 33 33 1 1
Notification 0 0 0 0
Address 2 2 0 0
Address withdraw 0 0 0 0
Label mapping 6 6 0 0
Label request 0 0 0 0
Label withdraw 0 0 0 0
Label release 0 0 0 0
Label abort 0 0 0 0
Sens
La sortie affiche des informations pour la session LDP en utilisant IPv6 comme transport TCP.
Vérification
Vérifiez que la configuration fonctionne correctement.
Vérification des informations sur les voisins LDP
But
Affichez les informations sur le voisin LDP.
Action
Sur l’équipement R1, à partir du mode opérationnel, exécutez la commande pour afficher les informations sur les show ldp neighbor extensive
voisins LDP.
user@R1> show ldp neighbor extensive
Address Interface Label space ID Hold time
192.168.12.2 ge-1/0/0.0 10.255.0.2:0 11
Transport address: 10.255.0.2, Configuration sequence: 10
Up for 00:04:35
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
Address Interface Label space ID Hold time
fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 14
Transport address: 2001:db8::2, Configuration sequence: 10
Up for 00:04:35
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
Sens
La sortie affiche des informations sur les voisins LDP pour les adresses IPv4 et IPv6.
Vérification des informations de session LDP
But
Affichez les informations de session LDP.
Action
Sur l’équipement R1, à partir du mode opérationnel, exécutez la commande pour afficher les informations sur les show ldp session extensive
voisins LDP.
user@R1> show ldp session extensive
Address: 2001:db8::2, State: Operational, Connection: Open, Hold time: 29
Session ID: 10.1.1.1:0--10.255.0.2:0
Next keepalive in 9 seconds
Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1
Neighbor types: discovered
Keepalive interval: 10, Connect retry interval: 1
Local address: 2001:db8::1, Remote address: 2001:db8::2
Up for 00:05:31
Capabilities advertised: none
Capabilities received: none
Protection: disabled
Session flags: none
Local - Restart: disabled, Helper mode: enabled
Remote - Restart: disabled, Helper mode: enabled
Local maximum neighbor reconnect time: 120000 msec
Local maximum neighbor recovery time: 240000 msec
Local Label Advertisement mode: Downstream unsolicited
Remote Label Advertisement mode: Downstream unsolicited
Negotiated Label Advertisement mode: Downstream unsolicited
MTU discovery: disabled
Nonstop routing state: Not in sync
Next-hop addresses received:
2001:db8::2
fe80::21f:1200:cb6:4c8d
Queue depth: 0
Message type Total Last 5 seconds
Sent Received Sent Received
Initialization 1 1 0 0
Keepalive 34 34 0 0
Notification 0 0 0 0
Address 1 1 0 0
Address withdraw 0 0 0 0
Label mapping 3 3 0 0
Label request 0 0 0 0
Label withdraw 0 0 0 0
Label release 0 0 0 0
Label abort 0 0 0 0
Address: 10.255.0.2, State: Operational, Connection: Open, Hold time: 29
Session ID: 10.255.0.1:0--10.255.0.2:0
Next keepalive in 9 seconds
Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1
Neighbor types: discovered
Keepalive interval: 10, Connect retry interval: 1
Local address: 10.255.0.1, Remote address: 10.255.0.2
Up for 00:05:31
Capabilities advertised: none
Capabilities received: none
Protection: disabled
Session flags: none
Local - Restart: disabled, Helper mode: enabled
Remote - Restart: disabled, Helper mode: enabled
Local maximum neighbor reconnect time: 120000 msec
Local maximum neighbor recovery time: 240000 msec
Local Label Advertisement mode: Downstream unsolicited
Remote Label Advertisement mode: Downstream unsolicited
Negotiated Label Advertisement mode: Downstream unsolicited
MTU discovery: disabled
Nonstop routing state: Not in sync
Next-hop addresses received:
10.255.0.2
192.168.12.2
Queue depth: 0
Message type Total Last 5 seconds
Sent Received Sent Received
Initialization 1 1 0 0
Keepalive 34 34 0 0
Notification 0 0 0 0
Address 1 1 0 0
Address withdraw 0 0 0 0
Label mapping 3 3 0 0
Label request 0 0 0 0
Label withdraw 0 0 0 0
Label release 0 0 0 0
Label abort 0 0 0 0
Exemple : Configuration de la signalisation in-band LDP multipoint pour les LSP point à multipoint
- Comprendre la signalisation multipoint LDP inband pour les LSP point à multipoint
- Exemple : Configuration de la signalisation in-band LDP multipoint pour les LSP point à multipoint
Comprendre la signalisation multipoint LDP inband pour les LSP point à multipoint
Le protocole M-LDP (Multipoint Label Distribution Protocol) pour les chemins de commutation d’étiquettes (LSP) point à multipoint avec signalisation in-band est utile dans un déploiement avec une dorsale IP/MPLS existante, dans laquelle vous devez transporter du trafic multicast, par exemple pour IPTV.
Pendant des années, la solution la plus utilisée pour le transport du trafic multicast a été d’utiliser le multicast IP natif dans le cœur du fournisseur de services avec tunnelisation IP multipoint pour isoler le trafic client. Un protocole de routage multicast, généralement PIM (Protocol Independent Multicast), est déployé pour configurer les chemins de transfert. Le routage multicast IP est utilisé pour le transfert, à l’aide de la signalisation PIM dans le cœur. Pour que ce modèle fonctionne, le réseau central doit être compatible multicast. Cela permet des déploiements efficaces et stables, même dans des scénarios de système inter-autonomes (AS).
Toutefois, dans un réseau IP/MPLS existant, le déploiement de PIM n’est peut-être pas le premier choix. Certains fournisseurs de services souhaitent remplacer la tunnelisation IP par l’encapsulation d’étiquettes MPLS. Les raisons de passer à la commutation d’étiquettes MPLS sont d’exploiter les fonctionnalités d’ingénierie et de protection du trafic MPLS et de réduire la charge de contrôle du trafic dans le cœur du fournisseur.
Pour ce faire, les fournisseurs de services souhaitent exploiter l’extension des déploiements existants pour permettre le passage du trafic multicast. Les extensions multicast existantes pour IP/MPLS sont des extensions point à multipoint pour RSVP-TE et des extensions point à multipoint et multipoint à multipoint pour LDP. Ces scénarios de déploiement sont abordés dans la RFC 6826, Signalisation multipoint LDP in-band pour les chemins de commutation d’étiquettes point à multipoint et multipoint à multipoint. Cette présentation des fonctionnalités se limite aux extensions point à multipoint pour LDP.
- Fonctionnement du M-LDP
- Terminologie
- Traduction et pseudo-interface d’entrée
- Segmentation entrante
- Reverse Path Forwarding
- Détection racine LSP
- Traduction et pseudo-interface de sortie
- Segmentation sortante
- Fonctionnalités prises en charge
- Fonctionnalités non prises en charge
- Fonctionnalité LDP
- Fonctionnalité LER sortant
- Fonctionnalité LSR de transit
- Fonctionnalité LER entrant
Fonctionnement du M-LDP
- Liaisons d’étiquettes dans la signalisation M-LDP
- M-LDP dans le cœur MPLS sans PIM
- M-LDP dans le cœur MPLS pim
Liaisons d’étiquettes dans la signalisation M-LDP
L’extension multipoint au LDP utilise des éléments de classe d’équivalence de transfert (FEC) et multipoint à multipoint (défini dans la RFC 5036, spécification LDP) ainsi que des annonces de fonctionnalités, le mappage d’étiquettes et des procédures de signalisation. Les éléments FEC comprennent l’idée de la racine LSP, qui est une adresse IP, et une valeur « opaque », c’est-à-dire un sélecteur qui regroupe les nœuds de branche partageant la même valeur opaque. La valeur opaque est transparente pour les nœuds intermédiaires, mais elle a une signification pour la racine LSP. Chaque nœud LDP annonce la liaison de son label entrant local au nœud LDP en amont sur le chemin le plus court vers l’adresse IP racine du FEC. Le nœud en amont qui reçoit les liaisons de labels crée ses propres interfaces locales et sortantes. Ce processus d’attribution d’étiquettes peut entraîner une réplication de paquets, s’il y a plusieurs filiales sortantes. Comme illustré dans Figure 18, un nœud LDP fusionne les liaisons de labels pour la même valeur opaque s’il trouve des nœuds en aval partageant le même nœud en amont. Cela permet de construire efficacement des LSP point à multipoints et de conserver les étiquettes.

M-LDP dans le cœur MPLS sans PIM
Figure 19 affiche un scénario de déploiement réduit. Deux domaines PIM distincts sont interconnectés par un site central sans PIM. Les routeurs de bordure de ce site central prennent en charge le PIM sur les interfaces de bordure. De plus, ces routeurs de bordure collectent et distribuent les informations de routage des sites adjacents au réseau central. Les routeurs de périphérie du site C exécutent BGP pour la découverte des nœuds racines. Les routes IGP (Interior Gateway Protocol) ne peuvent pas être utilisées pour la détection d’entrée, car dans la plupart des cas, le saut suivant de transfert fourni par l’IGP ne fournit pas d’informations sur l’équipement entrant vers la source. La signalisation inband M-LDP dispose d’un mappage un-à-un entre le LSP point à multipoint et le flux (S,G). Grâce à la signalisation en bande, les messages PIM sont directement traduits en liaisons FEC M-LDP. En revanche, la signalisation hors bande est basée sur une configuration manuelle. L’une des applications de signalisation en bande M-LDP consiste à transporter le trafic multicast IPTV dans une dorsale MPLS.

Configuration
L’énoncé de configuration mldp-inband-signalling
sur le routeur étiquette-périphérie (LER) permet à PIM d’utiliser la signalisation M-LDP in-band pour les voisins en amont lorsque le LER ne détecte pas un voisin PIM en amont. La configuration statique de la racine LSP MPLS est incluse dans la configuration PIM à l’aide d’une stratégie. Cela est nécessaire lorsque IBGP n’est pas disponible sur le site central ou pour remplacer la détection racine LSP basée sur IBGP.
Par exemple :
protocols { pim { mldp-inband-signalling { policy lsp-mapping-policy-example; } } }
policy-options { policy-statement lsp-mapping-policy-example { term channel1 { from { source-address-filter ip-prefix</prefix-length>; #policy filter for channel1 } then { p2mp-lsp-root { # Statically configured ingress address of edge # used by channel1 address ip-address; } accept; } } } }
M-LDP dans le cœur MPLS pim
À partir de la version 14.1 de Junos OS, pour migrer les services IPTV existants du multicast IP natif vers le multicast MPLS, vous devez passer en douceur de PIM à M-LDP point à multipoint avec une panne minimale. Figure 20 affiche une topologie M-LDP similaire à Figure 19celle de , mais avec un scénario différent. Le cœur est activé avec PIM, avec une source unique en streaming tous les canaux IPTV. Les chaînes de télévision sont envoyées en tant que flux ASM avec chaque canal identifié par son adresse de groupe. Auparavant, ces canaux étaient diffusés sur le cœur en tant que flux IP et signalés à l’aide du PIM.

En configurant le mldp-inband-signaling
dans ce scénario, la signalisation M-LDP n’est lancée que lorsqu’il n’y a pas de voisin PIM vers la source. Toutefois, comme il y a toujours un pim voisin vers la source à moins que PIM ne soit désactivé sur les interfaces en amont du PE sortant, PIM prend la priorité sur M-LDP et M-LDP ne prend pas effet.
Configuration
Pour migrer progressivement canal par canal vers le cœur MPLS M-LDP avec peu de flux utilisant M-LDP en amont et d’autres flux utilisant le PIM existant en amont, incluez l’énoncé selected-mldp-egress
de configuration ainsi que les filtres basés sur les groupes dans le filtre de stratégie pour la signalisation inband M-LDP.
Le filtre de stratégie de signalisation en bande M-LDP peut inclure l’instruction source-address-filter
ou l’instruction route-filter
, ou une combinaison des deux.
Par exemple :
protocols { pim { mldp-inband-signalling { policy lsp-mapping-policy-example; } } }
policy-options { policy-statement lsp-mapping-policy-example { term channel1 { from { source-address-filter ip-prefix</prefix-length>; #policy filter for channel1 } then { selected-mldp-egress; accept; } } term channel2 { from { source-address-filter ip-prefix</prefix-length>; #policy filter for channel2 route-filter ip-prefix</prefix-length>; #policy filter on multicast group address } then { selected-mldp-egress; p2mp-lsp-root { # Statically configured ingress address of edge # used by channel2 address ip-address; } accept; } } term channel3 { from { route-filter ip-prefix</prefix-length>; #policy filter on multicast group address } then { selected-mldp-egress; accept; } } } }
Certaines des limites de la configuration ci-dessus sont les suivantes :
L’instruction
selected-mldp-egress
doit être configurée uniquement sur le LER. La configuration de l’instructionselected-mldp-egress
sur les routeurs PIM non sortants peut entraîner des échecs de configuration des chemins.Lorsque des modifications de stratégie sont apportées pour basculer le trafic du PIM en amont vers M-LDP en amont et vice-versa, on peut s’attendre à une perte de paquets lorsque le mécanisme de break-and-make est effectué au niveau du plan de contrôle.
Terminologie
Les termes suivants sont importants pour comprendre la signalisation in-band M-LDP pour le trafic multicast.
Point-to-point LSP | Un LSP doté d’un routeur à commutation d’étiquettes (LSR) entrant et d’un LSR sortant. |
Multipoint LSP | Soit un LSP point à multipoint ou un LSP multipoint à multipoint. |
Point-to-multipoint LSP | Un LSP avec un LSR entrant et un ou plusieurs LSR sortants. |
Multipoint-to-point LSP | Un LSP qui a un ou plusieurs LSR entrants et un LSR sortant unique. |
Multipoint-to-multipoint LSP | Un LSP qui connecte un ensemble de nœuds, de sorte que le trafic envoyé par n’importe quel nœud du LSP soit distribué à tous les autres. |
Ingress LSR | Un LSR entrant pour un LSP particulier est un LSR qui peut envoyer un paquet de données le long du LSP. Les LSP multipoints peuvent avoir plusieurs LSR entrants. Les LSP point à multipoint n’en ont qu’un, et ce nœud est souvent appelé nœud racine. |
Egress LSR | Un LSR sortant pour un LSP particulier est un LSR qui peut supprimer un paquet de données de ce LSP pour un traitement ultérieur. Les LSP point à point et multipoint à point n’ont qu’un seul nœud de sortie. Les LSP point à multipoint et multipoint à multipoint peuvent avoir plusieurs nœuds sortants. |
Transit LSR | Un LSR pouvant atteindre la racine du LSP multipoint via un LSR directement connecté en amont et un ou plusieurs LSR directement connectés en aval. |
Bud LSR | Un LSR qui est une sortie mais qui a également un ou plusieurs LSR directement connectés en aval. |
Leaf node | Soit un LSR sortant ou bourgeon dans le contexte d’un LSP point à multipoint. Dans le contexte d’un LSP multipoint à multipoint, un LSR est à la fois entrant et sortant pour le même LSP multipoint à multipoint et peut également être un LSR bourgeon. |
Traduction et pseudo-interface d’entrée
Au niveau du LER entrant, le LDP informe LE PIM des messages (S, G) reçus par la signalisation en bande. PIM associe chaque message (S,G) à une pseudo interface. Par la suite, un message de jointure SPT (Short-Path-Tree) est lancé vers la source. LE PIM traite ce type de récepteur local nouveau. Lorsque le LSP est démonté, PIM retire ce récepteur local en fonction de la notification du LDP.
Segmentation entrante
LDP fournit au PIM un saut suivant à associer à chaque entrée (S,G). PIM installe un routage multicast PIM (S,G) avec le saut suivant LDP et d’autres récepteurs PIM. Le saut suivant est un saut suivant composite de récepteurs locaux + la liste des voisins en aval PIM + un saut suivant de sous-niveau pour le tunnel LDP.
Reverse Path Forwarding
Le calcul RPF (reverse-path-forwarding) du PIM est effectué au niveau du nœud de sortie.
PIM effectue la signalisation M-LDP in-band lorsque toutes les conditions suivantes sont remplies :
Il n’y a pas de voisins PIM vers la source.
L’instruction de signalisation in-band M-LDP est configurée.
Le saut suivant est appris via BGP, ou est présent dans le mappage statique (spécifié dans une stratégie de signalisation en bande M-LDP).
Sinon, si la détection racine LSP échoue, PIM conserve l’entrée (S,G) avec un état RPF non résolu.
Pim RPF enregistre cette adresse source chaque fois que les informations de routage unicast changent. Par conséquent, si le chemin vers la source change, le recalcul du RPF revient. Les sauts suivants du protocole BGP vers la source sont également surveillés pour détecter les changements dans la racine LSP. De tels changements peuvent entraîner des perturbations du trafic pour de courtes durées.
Détection racine LSP
Si l’opération RPF détecte la nécessité d’une signalisation M-LDP in-band en amont, la racine LSP (entrante) est détectée. Cette racine est un paramètre pour la signalisation LDP LSP.
Le nœud racine est détecté comme suit :
Si la configuration statique existante spécifie l’adresse source, la racine est prise comme donnée dans la configuration.
Une recherche est effectuée dans la table de routage unicast. Si l’adresse source est trouvée, le saut suivant du protocole vers la source est utilisé comme racine LSP.
Avant la version 16.1 de Junos OS, M-LDP point à multipoint LSP est signalé d’une sortie à l’entrée à l’aide de l’adresse racine de la LSR entrante. Cette adresse racine n’est accessible que par IGP, limitant ainsi le LSP M-LDP point à multipoint à un seul système autonome. Si l’adresse racine n’est pas accessible via un IGP, mais accessible via BGP, et si ce routage BGP est résolu de manière récursive sur un LSP MPLS, alors le LSP point à multipoint n’est pas signalé plus loin à partir de ce point vers l’adresse racine LSR entrante.
Il est nécessaire que ces LSP point à multipoint non segmentés soient signalés sur plusieurs systèmes autonomes, qui peuvent être utilisés pour les applications suivantes :
MVPN inter-AS avec LSP point à multipoint non segmentés.
Signalisation en bande inter-AS M-LDP entre les réseaux clients connectés par un réseau central MPLS.
Signalisation inter-zone MVPN ou M-LDP en bande avec LSP point à multipoint non segmenté (multicast MPLS transparent).
À partir de la version 16.1 de Junos OS, M-LDP peut signaler des LSP de point à multipoint au niveau DE l’ASBR ou du transit ou de la sortie lorsque l’adresse racine est un routage BGP qui est résolu de manière récursive par un LSP MPLS.
Traduction et pseudo-interface de sortie
Au niveau du LER sortant, le PIM informe LDP du message (S,G) à signaler en même temps que la racine LSP. LE PIM crée une pseudo interface en tant qu’interface en amont pour ce message (S,G). Lorsqu’un message de pruneau (S,G) est reçu, cette association est retirée.
Segmentation sortante
Au nœud de sortie du réseau central, où le message de jointure (S, G) du site en aval est reçu, ce message de jointure est traduit en paramètres de signalisation in-band M-LDP et LDP est notifié. En outre, le démontage LSP se produit lorsque l’entrée (S,G) est perdue, lorsque la racine LSP change ou lorsque l’entrée (S,G) est accessible sur un voisin PIM.
Fonctionnalités prises en charge
Pour la signalisation in-band M-LDP, Junos OS prend en charge les fonctionnalités suivantes :
Splicing sortant du saut suivant PIM avec le routage LDP
Splicing entrant du routage PIM avec le saut suivant LDP
Traduction des messages de jointure PIM en paramètres de configuration LSP LDP point à multipoint
Traduction des paramètres LSP in-band M-LDP pour configurer les messages de jointure PIM
Configuration statique et détection racine du protocole BGP basée sur des sauts
États PIM (S,G) dans les plages de multicast spécifique à la source PIM (SSM) et anysource multicast (ASM)
Déclarations de configuration sur les LER entrants et sortants pour leur permettre d’agir en tant que routeurs de périphérie
IgMP joindre des messages sur le LER
Transport de l’adresse source et de groupe IPv6 sous forme d’informations opaques vers un nœud racine IPv4
Configuration statique pour mapper un IPv6 (S,G) à une adresse racine IPv4
Fonctionnalités non prises en charge
Pour la signalisation in-band M-LDP, Junos OS ne prend pas en charge les fonctionnalités suivantes :
Prise en charge complète de PIM ASM
Commande
mpls lsp point-to-multipoint ping
avec option (S,G)Routage actif sans interruption (NSR)
Make-before-break (MBB) pour PIM
Adresses racines LSP IPv6 (LDP ne prend pas en charge les LSP IPv6.)
Relation de voisinage entre les haut-parleurs PIM qui ne sont pas directement connectés
Redémarrage progressif
Mode dense PIM
Mode bidirectionnel PIM
Fonctionnalité LDP
Les informations PIM (S,G) sont transportées sous la forme d’encodages opaques M-LDP de type-longueur-valeur (TLV). L’élément FEC point à multipoint se compose de l’adresse de nœud racine. Dans le cas des VPN multicast de nouvelle génération (MVPN NGEN), le LSP point à multipoint est identifié par l’adresse de nœud racine et l’ID LSP.
Fonctionnalité LER sortant
Sur le LER sortant, PIM déclenche le LDP avec les informations suivantes pour créer un LSP point à multipoint :
Nœud racine
(S,G)
Saut suivant
PIM trouve le nœud racine en fonction de la source de l’arbre de multicast. Si l’adresse racine est configurée pour cette entrée (S, G), l’adresse configurée est utilisée comme racine LSP point à multipoint. Sinon, la table de routage est utilisée pour rechercher la route vers la source. Si le chemin vers la source de l’arbre multicast est un chemin appris par BGP, PIM récupère l’adresse du saut suivant BGP et l’utilise comme nœud racine pour le LSP point à multipoint.
LDP trouve le nœud en amont en fonction du nœud racine, alloue un label et envoie le mappage de labels au nœud en amont. LDP n’utilise pas l’avant-dernier saut popping (PHP) pour la signalisation M-LDP in-band.
Si les adresses racines de la source de l’arbre multicast changent, PIM supprime le LSP point à multipoint et déclenche le LDP pour créer un LSP point à multipoint. Lorsque cela se produit, la liste d’interface sortante devient NULL, PIM déclenche LDP pour supprimer le LSP point à multipoint, et LDP envoie un message de retrait de label au nœud en amont.
Fonctionnalité LSR de transit
Le LSR de transit annonce un label vers le LSR en amont vers la source du FEC point à multipoint et installe l’état de transfert nécessaire pour transférer les paquets. Le LSR de transit peut être n’importe quel routeur compatible M-LDP.
Fonctionnalité LER entrant
Sur le LER entrant, LDP fournit les informations suivantes au PIM lors de la réception du mappage d’étiquettes :
(S,G)
Déluge du saut suivant
Puis PIM installe l’état de transfert. Si les nouvelles filiales sont ajoutées ou supprimées, le saut suivant de flood est mis à jour en conséquence. Si toutes les filiales sont supprimées en raison du retrait d’un label, LDP envoie des informations mises à jour au PIM. S’il existe plusieurs liaisons entre les voisins en amont et en aval, le LSP point à multipoint n’est pas équilibré de charge.
Voir également
Exemple : Configuration de la signalisation in-band LDP multipoint pour les LSP point à multipoint
Cet exemple montre comment configurer la signalisation en bande multipoint LDP (M-LDP) pour le trafic multicast, en tant qu’extension du protocole PIM (Protocol Independent Multicast) ou en remplacement du PIM.
Conditions préalables
Cet exemple peut être configuré à l’aide des composants matériels et logiciels suivants :
Junos OS Version 13.2 ou ultérieure
Plates-formes de routage universelles 5G MX Series ou routeurs de périphérie multiservice M Series pour les routeurs de périphérie du fournisseur (PE)
Routeurs de transport de paquets PTX Series faisant office de routeurs à commutation d’étiquettes de transit
Routeurs centraux T Series pour les routeurs centraux
Les routeurs PE peuvent également être des routeurs centraux T Series, mais ce n’est pas typique. En fonction de vos besoins d’évolutivité, les routeurs centraux peuvent également être des plates-formes de routage universelles 5G MX Series ou des routeurs de périphérie multiservice M Series. Les équipements de périphérie client (CE) peuvent être d’autres routeurs ou commutateurs de Juniper Networks ou d’un autre fournisseur.
Aucune configuration spéciale au-delà de l’initialisation de l’équipement n’est nécessaire avant de configurer cet exemple.
Présentation
Configuration rapide cli affiche la configuration de tous les équipements dans Figure 21. La section #d158e70__d158e838 décrit les étapes de l’EgressPE de l’équipement.

Configuration
Procédure
Configuration rapide cli
Pour configurer rapidement cet exemple, copiez les commandes suivantes, collez-les dans un fichier texte, supprimez les sauts de ligne, modifiez les détails nécessaires pour correspondre à votre configuration réseau, puis copiez et collez les commandes dans la CLI au niveau de la [edit]
hiérarchie.
Équipement src1
set logical-systems src1 interfaces fe-1/2/0 unit 0 family inet address 10.2.7.7/24 set logical-systems src1 interfaces lo0 unit 0 family inet address 10.1.1.7/32 set logical-systems src1 protocols ospf area 0.0.0.0 interface all
Entrée d’équipementPE
set interfaces so-0/1/2 unit 0 family inet address 192.168.93.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.2.3.2/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.2.5.2/24 set interfaces fe-1/2/2 unit 0 family inet address 10.2.6.2/24 set interfaces fe-1/2/2 unit 0 family mpls set interfaces fe-1/2/3 unit 0 family inet address 10.2.7.2/24 set interfaces fe-1/3/1 unit 0 family inet address 192.168.219.9/28 set interfaces lo0 unit 0 family inet address 10.1.1.2/32 set protocols igmp interface fe-1/2/1.0 version 3 set protocols igmp interface fe-1/2/1.0 static group 232.1.1.1 source 192.168.219.11 set protocols bgp group ibgp type internal set protocols bgp group ibgp local-address 10.1.1.2 set protocols bgp group ibgp family inet any set protocols bgp group ibgp family inet-vpn any set protocols bgp group ibgp neighbor 10.1.1.3 set protocols bgp group ibgp neighbor 10.1.1.4 set protocols bgp group ibgp neighbor 10.1.1.1 set protocols ospf area 0.0.0.0 interface all set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/2.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim rp static address 10.1.1.5 set protocols pim interface fe-1/3/1.0 set protocols pim interface lo0.0 set protocols pim interface fe-1/2/0.21 set protocols pim interface fe-1/2/3.0 set protocols pim interface fe-1/2/1.0 set protocols pim interface so-0/1/2.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.1.7/32 orlonger set policy-options policy-statement mldppim-ex term A from source-address-filter 10.2.7.0/24 orlonger set policy-options policy-statement mldppim-ex term A then accept set routing-options autonomous-system 64510
EgressPE d’équipement
set interfaces so-0/1/3 unit 0 point-to-point set interfaces so-0/1/3 unit 0 family inet address 192.168.92.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.1.3.1/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.1.4.1/24 set interfaces fe-1/2/2 unit 0 family inet address 10.1.6.1/24 set interfaces fe-1/2/2 unit 0 family mpls set interfaces fe-1/3/0 unit 0 family inet address 192.168.209.9/28 set interfaces lo0 unit 0 family inet address 10.1.1.1/32 set routing-options autonomous-system 64510 set protocols igmp interface fe-1/3/0.0 version 3 set protocols igmp interface fe-1/3/0.0 static group 232.1.1.1 group-count 3 set protocols igmp interface fe-1/3/0.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface fe-1/3/0.0 static group 227.1.1.1 set protocols igmp interface so-0/1/3.0 version 3 set protocols igmp interface so-0/1/3.0 static group 232.1.1.1 group-count 2 set protocols igmp interface so-0/1/3.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface so-0/1/3.0 static group 232.2.2.2 source 10.2.7.7 set protocols mpls interface fe-1/2/0.0 set protocols mpls interface fe-1/2/2.0 set protocols bgp group ibgp type internal set protocols bgp group ibgp local-address 10.1.1.1 set protocols bgp group ibgp family inet any set protocols bgp group ibgp neighbor 10.1.1.2 set protocols msdp local-address 10.1.1.1 set protocols msdp peer 10.1.1.5 set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/2.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim rp local address 10.1.1.1 set protocols pim rp local group-ranges 227.0.0.0/8 set protocols pim rp static address 10.1.1.4 set protocols pim rp static address 10.2.7.7 group-ranges 226.0.0.0/8 set protocols pim interface lo0.0 set protocols pim interface fe-1/3/0.0 set protocols pim interface fe-1/2/0.0 set protocols pim interface fe-1/2/1.0 set protocols pim interface so-0/1/3.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.2.7.0/24 orlonger set policy-options policy-statement mldppim-ex term A then accept
Équipement p6
set interfaces fe-1/2/0 unit 0 family inet address 10.1.6.6/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.2.6.6/24 set interfaces fe-1/2/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.6/32 set interfaces lo0 unit 0 family mpls set protocols ospf area 0.0.0.0 interface all set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/1.0 set protocols ldp interface lo0.0 set protocols ldp p2mp
Équipement pr3
set interfaces ge-0/3/1 unit 0 family inet address 192.168.215.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.1.3.3/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.2.3.3/24 set interfaces fe-1/2/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.3/32 set protocols igmp interface ge-0/3/1.0 version 3 set protocols igmp interface ge-0/3/1.0 static group 232.1.1.2 source 192.168.219.11 set protocols igmp interface ge-0/3/1.0 static group 232.2.2.2 source 10.2.7.7 set protocols bgp group ibgp local-address 10.1.1.3 set protocols bgp group ibgp type internal set protocols bgp group ibgp neighbor 10.1.1.2 set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fe-1/2/1.0 metric 2 set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/1.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface fe-0/3/1.0 set protocols pim interface lo0.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 10.2.7.7/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 64510
Équipement pr4
set interfaces ge-0/3/0 unit 0 family inet address 192.168.207.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.1.4.4/24 set interfaces fe-1/2/0 unit 0 family iso set interfaces lo0 unit 0 family inet address 10.1.1.4/32 set protocols igmp interface ge-0/3/0.0 version 3 set protocols igmp interface ge-0/3/0.0 static group 232.1.1.2 source 192.168.219.11 set protocols igmp interface ge-0/3/0.0 static group 225.1.1.1 set protocols bgp group ibgp local-address 10.1.1.4 set protocols bgp group ibgp type internal set protocols bgp group ibgp neighbor 10.1.1.2 set protocols msdp local-address 10.1.1.4 set protocols msdp peer 10.1.1.5 set protocols ospf area 0.0.0.0 interface all set protocols pim rp local address 10.1.1.4 set protocols pim interface ge-0/3/0.0 set protocols pim interface lo0.0 set protocols pim interface fe-1/2/0.0 set routing-options autonomous-system 64510
Équipement pr5
set interfaces fe-1/2/0 unit 0 family inet address 10.2.5.5/24 set interfaces lo0 unit 0 family inet address 10.1.1.5/24 set protocols igmp interface lo0.0 version 3 set protocols igmp interface lo0.0 static group 232.1.1.1 source 192.168.219.11 set protocols msdp local-address 10.1.1.5 set protocols msdp peer 10.1.1.4 set protocols msdp peer 10.1.1.1 set protocols ospf area 0.0.0.0 interface all set protocols pim rp local address 10.1.1.5 set protocols pim interface all
Procédure étape par étape
Dans l’exemple suivant, vous devez parcourir différents niveaux de la hiérarchie de configuration. Pour plus d’informations sur la navigation sur l’interface cli, consultez Utilisation de l’éditeur CLI en mode de configuration dans le guide de l’utilisateur CLI.
Pour configurer l’EgressPE des équipements :
Configurez les interfaces.
Activez MPLS sur les interfaces centrales. Lors des sauts sortants, vous n’avez pas besoin d’activer MPLS.
[edit interfaces] user@EgressPE# set fe-1/2/0 unit 0 family inet address 10.1.3.1/24 user@EgressPE# set fe-1/2/0 unit 0 family mpls user@EgressPE# set fe-1/2/2 unit 0 family inet address 10.1.6.1/24 user@EgressPE# set fe-1/2/2 unit 0 family mpls user@EgressPE# set so-0/1/3 unit 0 point-to-point user@EgressPE# set so-0/1/3 unit 0 family inet address 192.168.92.9/28 user@EgressPE# set fe-1/2/1 unit 0 family inet address 10.1.4.1/24 user@EgressPE# set fe-1/3/0 unit 0 family inet address 192.168.209.9/28 user@EgressPE# set lo0 unit 0 family inet address 10.1.1.1/32
Configurez IGMP sur les interfaces sortantes.
À des fins de test, cet exemple inclut des adresses de groupe statiques et de source.
[edit protocols igmp] user@EgressPE# set interface fe-1/3/0.0 version 3 user@EgressPE# set interface fe-1/3/0.0 static group 232.1.1.1 group-count 3 user@EgressPE# set interface fe-1/3/0.0 static group 232.1.1.1 source 192.168.219.11 user@EgressPE# set interface fe-1/3/0.0 static group 227.1.1.1 user@EgressPE# set interface so-0/1/3.0 version 3 user@EgressPE# set interface so-0/1/3.0 static group 232.1.1.1 group-count 2 user@EgressPE# set interface so-0/1/3.0 static group 232.1.1.1 source 192.168.219.11 user@EgressPE# set interface so-0/1/3.0 static group 232.2.2.2 source 10.2.7.7
Configurez MPLS sur les interfaces centrales.
[edit protocols mpls] user@EgressPE# set interface fe-1/2/0.0 user@EgressPE# set interface fe-1/2/2.0
Configurez BGP.
BGP est un protocole basé sur des stratégies, donc configurez et appliquez toutes les stratégies de routage nécessaires.
Par exemple, vous pouvez exporter des routes statiques vers BGP.
[edit protocols bgp group ibgp] user@EgressPE# set type internal user@EgressPE# set local-address 10.1.1.1 user@EgressPE# set family inet any user@EgressPE# set neighbor 10.1.1.2
(Facultatif) Configurez une connexion d’homologue MSDP avec l’équipement pr5 afin d’interconnecter les domaines PIM disparates, ce qui permet d’obtenir des POINTS redondants.
[edit protocols msdp] user@EgressPE# set local-address 10.1.1.1 user@EgressPE# set peer 10.1.1.5
Configurez OSPF.
[edit protocols ospf area 0.0.0.0] user@EgressPE# set interface all user@EgressPE# set interface fxp0.0 disable
Configurez le LDP sur les interfaces centrales et sur l’interface de bouclage.
[edit protocols ldp] user@EgressPE# set interface fe-1/2/0.0 user@EgressPE# set interface fe-1/2/2.0 user@EgressPE# set interface lo0.0
Activez les LSP MPLS point à multipoint.
[edit protocols ldp] user@EgressPE# set p2mp
Configurez le PIM sur les interfaces en aval.
[edit protocols pim] user@EgressPE# set interface lo0.0 user@EgressPE# set interface fe-1/3/0.0 user@EgressPE# set interface fe-1/2/1.0 user@EgressPE# set interface so-0/1/3.0
Configurez les paramètres RP car cet équipement sert de point de rendez-vous PIM (RP).
[edit protocols pim] user@EgressPE# set rp local address 10.1.1.1 user@EgressPE# set rp local group-ranges 227.0.0.0/8 user@EgressPE# set rp static address 10.1.1.4 user@EgressPE# set rp static address 10.2.7.7 group-ranges 226.0.0.0/8
Activez la signalisation en bande M-LDP et définissez la stratégie associée.
[edit protocols pim] user@EgressPE# set mldp-inband-signalling policy mldppim-ex
Configurez la stratégie de routage qui spécifie l’adresse racine du LSP point à multipoint et les adresses source associées.
[edit policy-options policy-statement mldppim-ex] user@EgressPE# set term B from source-address-filter 192.168.0.0/24 orlonger user@EgressPE# set term B from source-address-filter 192.168.219.11/32 orlonger user@EgressPE# set term B then p2mp-lsp-root address 10.1.1.2 user@EgressPE# set term B then accept user@EgressPE# set term A from source-address-filter 10.2.7.0/24 orlonger user@EgressPE# set term A then accept
Configurez l’ID du système autonome (AS).
[edit routing-options] user@EgressPE# set autonomous-system 64510
Résultats
À partir du mode de configuration, confirmez votre configuration en entrant le show interfaces
, show protocols
, show policy-options
et les show routing-options
commandes. Si la sortie n’affiche pas la configuration prévue, répétez les instructions de cet exemple pour corriger la configuration.
EgressPE d’équipement
user@EgressPE# show interfaces
so-0/1/3 {
unit 0 {
point-to-point;
family inet {
address 192.168.92.9/28;
}
}
}
fe-1/2/0 {
unit 0 {
family inet {
address 10.1.3.1/24;
}
family mpls;
}
}
fe-1/2/1 {
unit 0 {
family inet {
address 10.1.4.1/24;
}
}
}
fe-1/2/2 {
unit 0 {
family inet {
address 10.1.6.1/24;
}
family mpls;
}
}
fe-1/3/0 {
unit 0 {
family inet {
address 192.168.209.9/28;
}
}
}
lo0 {
unit 0 {
family inet {
address 10.1.1.1/32;
}
}
}
user@EgressPE# show protocols
igmp {
interface fe-1/3/0.0 {
version 3;
static {
group 232.1.1.1 {
group-count 3;
source 192.168.219.11;
}
group 227.1.1.1;
}
}
interface so-0/1/3.0 {
version 3;
static {
group 232.1.1.1 {
group-count 2;
source 192.168.219.11;
}
group 232.2.2.2 {
source 10.2.7.7;
}
}
}
}
mpls {
interface fe-1/2/0.0;
interface fe-1/2/2.0;
}
bgp {
group ibgp {
type internal;
local-address 10.1.1.1;
family inet {
any;
}
neighbor 10.1.1.2;
}
}
msdp {
local-address 10.1.1.1;
peer 10.1.1.5;
}
ospf {
area 0.0.0.0 {
interface all;
interface fxp0.0 {
disable;
}
}
}
ldp {
interface fe-1/2/0.0;
interface fe-1/2/2.0;
interface lo0.0;
p2mp;
}
pim {
mldp-inband-signalling {
policy mldppim-ex;
}
rp {
local {
address 10.1.1.1;
group-ranges {
227.0.0.0/8;
}
}
static {
address 10.1.1.4;
address 10.2.7.7 {
group-ranges {
226.0.0.0/8;
}
}
}
}
interface lo0.0;
interface fe-1/3/0.0;
interface fe-1/2/0.0;
interface fe-1/2/1.0;
interface so-0/1/3.0;
}
user@EgressPE# show policy-options
policy-statement mldppim-ex {
term B {
from {
source-address-filter 192.168.0.0/24 orlonger;
source-address-filter 192.168.219.11/32 orlonger;
}
then {
p2mp-lsp-root {
address 10.1.1.2;
}
accept;
}
}
term A {
from {
source-address-filter 10.2.7.0/24 orlonger;
}
then accept;
}
}
user@EgressPE# show routing-options
autonomous-system 64510;
De même, configurez les autres équipements sortants.
Si vous avez fini de configurer les équipements, saisissez commit
à partir du mode de configuration.
Vérification
Vérifiez que la configuration fonctionne correctement.
- Vérification des états de participation PIM
- Vérification des sources PIM
- Vérification de la base de données LDP
- Rechercher les informations de route pour le label MPLS
- Vérification des statistiques de trafic LDP
Vérification des états de participation PIM
But
Affichez des informations sur les états de jointure PIM pour vérifier les détails M-LDP in-band en amont et en aval. Sur l’équipement entrant, la commande s’affiche show pim join extensive
Pseudo-MLDP
pour l’interface en aval. Sur la sortie, la commande s’affiche show pim join extensive
Pseudo-MLDP
pour l’interface en amont.
Action
Depuis le mode opérationnel, saisissez la show pim join extensive
commande.
user@IngressPE> show pim join extensive Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Group: 232.1.1.1 Source: 192.168.219.11 Flags: sparse,spt Upstream interface: fe-1/3/1.0 Upstream neighbor: Direct Upstream state: Local Source Keepalive timeout: Uptime: 1d 23:00:12 Downstream neighbors: Interface: Pseudo-MLDP Interface: fe-1/2/1.0 10.2.5.2 State: Join Flags: S Timeout: Infinity Uptime: 1d 23:00:12 Time since last Join: 1d 23:00:12 Group: 232.1.1.2 Source: 192.168.219.11 Flags: sparse,spt Upstream interface: fe-1/3/1.0 Upstream neighbor: Direct Upstream state: Local Source Keepalive timeout: Uptime: 1d 22:59:59 Downstream neighbors: Interface: Pseudo-MLDP Group: 232.1.1.3 Source: 192.168.219.11 Flags: sparse,spt Upstream interface: fe-1/3/1.0 Upstream neighbor: Direct Upstream state: Local Source Keepalive timeout: Uptime: 1d 22:07:31 Downstream neighbors: Interface: Pseudo-MLDP Group: 232.2.2.2 Source: 10.2.7.7 Flags: sparse,spt Upstream interface: fe-1/2/3.0 Upstream neighbor: Direct Upstream state: Local Source Keepalive timeout: Uptime: 1d 22:59:59 Downstream neighbors: Interface: Pseudo-MLDP user@EgressPE> show pim join extensive Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Group: 227.1.1.1 Source: * RP: 10.1.1.1 Flags: sparse,rptree,wildcard Upstream interface: Local Upstream neighbor: Local Upstream state: Local RP Uptime: 1d 23:14:21 Downstream neighbors: Interface: fe-1/3/0.0 192.168.209.9 State: Join Flags: SRW Timeout: Infinity Uptime: 1d 23:14:21 Time since last Join: 1d 20:12:35 Group: 232.1.1.1 Source: 192.168.219.11 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 23:14:22 Downstream neighbors: Interface: so-0/1/3.0 192.168.92.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Downstream neighbors: Interface: fe-1/3/0.0 192.168.209.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Group: 232.1.1.2 Source: 192.168.219.11 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 23:14:22 Downstream neighbors: Interface: so-0/1/3.0 192.168.92.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Downstream neighbors: Interface: fe-1/2/1.0 10.1.4.4 State: Join Flags: S Timeout: 198 Uptime: 1d 22:59:59 Time since last Join: 00:00:12 Downstream neighbors: Interface: fe-1/3/0.0 192.168.209.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Group: 232.1.1.3 Source: 192.168.219.11 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 20:12:35 Downstream neighbors: Interface: fe-1/3/0.0 192.168.209.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Group: 232.2.2.2 Source: 10.2.7.7 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 20:12:35 Downstream neighbors: Interface: so-0/1/3.0 192.168.92.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 user@pr3> show pim join extensive Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Group: 232.1.1.2 Source: 192.168.219.11 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 20:14:40 Downstream neighbors: Interface: Pseudo-GMP ge-0/3/1.0 Group: 232.2.2.2 Source: 10.2.7.7 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 20:14:40 Downstream neighbors: Interface: Pseudo-GMP ge-0/3/1.0 user@pr4> show pim join extensive Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Group: 225.1.1.1 Source: * RP: 10.1.1.4 Flags: sparse,rptree,wildcard Upstream interface: Local Upstream neighbor: Local Upstream state: Local RP Uptime: 1d 23:13:43 Downstream neighbors: Interface: ge-0/3/0.0 192.168.207.9 State: Join Flags: SRW Timeout: Infinity Uptime: 1d 23:13:43 Time since last Join: 1d 23:13:43 Group: 232.1.1.2 Source: 192.168.219.11 Flags: sparse,spt Upstream interface: fe-1/2/0.0 Upstream neighbor: 10.1.4.1 Upstream state: Local RP, Join to Source Keepalive timeout: 0 Uptime: 1d 23:13:43 Downstream neighbors: Interface: ge-0/3/0.0 192.168.207.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 23:13:43 Time since last Join: 1d 23:13:43 user@pr5> show pim join extensive ge-0/3/1.0 Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Instance: PIM.master Family: INET6 R = Rendezvous Point Tree, S = Sparse, W = Wildcard
Vérification des sources PIM
But
Vérifiez que les sources PIM disposent des informations M-LDP in-band attendues en amont et en aval.
Action
Depuis le mode opérationnel, saisissez la show pim source
commande.
user@IngressPE> show pim source Instance: PIM.master Family: INET Source 10.1.1.1 Prefix 10.1.1.1/32 Upstream interface Local Upstream neighbor Local Source 10.2.7.7 Prefix 10.2.7.0/24 Upstream protocol MLDP Upstream interface Pseudo MLDP Upstream neighbor MLDP LSP root <10.1.1.2> Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream protocol MLDP Upstream interface Pseudo MLDP Upstream neighbor MLDP LSP root <10.1.1.2>
user@EgressPE> show pim source Instance: PIM.master Family: INET Source 10.2.7.7 Prefix 1.2.7.0/24 Upstream interface fe-1/2/3.0 Upstream neighbor 10.2.7.2 Source 10.2.7.7 Prefix 10.2.7.0/24 Upstream interface fe-1/2/3.0 Upstream neighbor Direct Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream interface fe-1/3/1.0 Upstream neighbor 192.168.219.9 Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream interface fe-1/3/1.0 Upstream neighbor Direct
user@pr3> show pim source Instance: PIM.master Family: INET Source 10.2.7.7 Prefix 1.2.7.0/24 Upstream protocol MLDP Upstream interface Pseudo MLDP Upstream neighbor MLDP LSP root <10.1.1.2> Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream protocol MLDP Upstream interface Pseudo MLDP Upstream neighbor MLDP LSP root <10.1.1.2>
user@pr4> show pim source Instance: PIM.master Family: INET Source 10.1.1.4 Prefix 10.1.1.4/32 Upstream interface Local Upstream neighbor Local Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream interface fe-1/2/0.0 Upstream neighbor 10.1.4.1
Vérification de la base de données LDP
But
Assurez-vous que la show ldp database
commande affiche les liaisons root-to-(S, G) attendues.
Action
user@IngressPE> show ldp database Input label database, 10.255.2.227:0--10.1.1.3:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32 Output label database, 10.255.2.227:0--10.1.1.3:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 Input label database, 10.255.2.227:0--10.1.1.6:0 Label Prefix 299936 10.1.1.2/32 299792 10.1.1.3/32 3 10.1.1.6/32 299776 10.255.2.227/32 Output label database, 10.255.2.227:0--10.1.1.6:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 300432 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 300288 P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11 300160 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 300480 P2MP root-addr 10.1.1.2, grp: 232.1.1.3, src: 192.168.219.11
user@EgressPE> show ldp database Input label database, 10.1.1.2:0--10.1.1.3:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32 300144 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 300128 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 Output label database, 10.1.1.2:0--10.1.1.3:0 Label Prefix 3 10.1.1.2/32 299776 10.1.1.3/32 299808 10.1.1.6/32 299792 10.255.2.227/32 Input label database, 10.1.1.2:0--10.1.1.6:0 Label Prefix 299936 10.1.1.2/32 299792 10.1.1.3/32 3 10.1.1.6/32 299776 10.255.2.227/32 300128 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 299984 P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11 299952 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 300176 P2MP root-addr 10.1.1.2, grp: 232.1.1.3, src: 192.168.219.11 300192 P2MP root-addr 10.1.1.2, grp: ff3e::1:2, src: 2001:db8:abcd::10:2:7:7 Output label database, 10.1.1.2:0--10.1.1.6:0 Label Prefix 3 10.1.1.2/32 299776 10.1.1.3/32 299808 10.1.1.6/32 299792 10.255.2.227/32 ----- logical-system: default Input label database, 10.255.2.227:0--10.1.1.3:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32 Output label database, 10.255.2.227:0--10.1.1.3:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 Input label database, 10.255.2.227:0--10.1.1.6:0 Label Prefix 299936 10.1.1.2/32 299792 10.1.1.3/32 3 10.1.1.6/32 299776 10.255.2.227/32 Output label database, 10.255.2.227:0--10.1.1.6:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 300432 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 300288 P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11 300160 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 300480 P2MP root-addr 10.1.1.2, grp: 232.1.1.3, src: 192.168.219.11 300496 P2MP root-addr 10.1.1.2, grp: ff3e::1:2, src: 2001:db8:abcd::10:2:7:7
user@p6> show ldp database Input label database, 10.1.1.6:0--10.1.1.2:0 Label Prefix 3 10.1.1.2/32 299776 10.1.1.3/32 299808 10.1.1.6/32 Output label database, 10.1.1.6:0--10.1.1.2:0 Label Prefix 299776 10.1.1.2/32 299792 10.1.1.3/32 3 10.1.1.6/32
user@pr3> show ldp database Input label database, 10.1.1.3:0--10.1.1.2:0 Label Prefix 3 10.1.1.2/32 299776 10.1.1.3/32 299808 10.1.1.6/32 299792 10.255.2.227/32 Output label database, 10.1.1.3:0--10.1.1.2:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32 300144 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 300128 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 Input label database, 10.1.1.3:0--10.255.2.227:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 Output label database, 10.1.1.3:0--10.255.2.227:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32
Rechercher les informations de route pour le label MPLS
But
Affichez les informations FEC point à multipoint.
Action
user@EgressPE> show route label 299808 detail mpls.0: 14 destinations, 14 routes (14 active, 0 holddown, 0 hidden) 299808 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x931922c Next-hop reference count: 3 Next hop type: Router, Next hop index: 1109 Address: 0x9318b0c Next-hop reference count: 2 Next hop: via so-0/1/3.0 Label operation: Pop Next hop type: Router, Next hop index: 1110 Address: 0x93191e0 Next-hop reference count: 2 Next hop: 192.168.209.11 via fe-1/3/0.0 Label operation: Pop State: **Active Int AckRequest> Local AS: 10 Age: 13:08:15 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11
Vérification des statistiques de trafic LDP
But
Surveillez les statistiques de trafic de données pour le LSP point à multipoint.
Action
user@EgressPE> show ldp traffic-statistics p2mp P2MP FEC Statistics: FEC(root_addr:lsp_id/grp,src) Nexthop Packets Bytes Shared 10.1.1.2:232.2.2.2,10.2.7.7 so-0/1/3.0 0 0 No 10.1.1.2:232.1.1.1,192.168.219.11 so-0/1/3.0 0 0 No fe-1/3/0.0 0 0 No 10.1.1.2:232.1.1.2,192.168.219.11 so-0/1/3.0 0 0 No fe-1/3/0.0 0 0 No lt-1/2/0.14 0 0 No 10.1.1.2:232.1.1.3,192.168.219.11 fe-1/3/0.0 0 0 No 10.1.1.2:ff3e::1:2,2001:db8:abcd::1:2:7:7 fe-1/3/0.0 0 0 No
Mappage du client et du serveur pour le routage de segments vers l’interopérabilité LDP
La prise en charge du serveur et du client de routage de segments permet l’interopérabilité entre les îles réseau qui exécutent le LDP et le routage de segments (SR ou SPRING). Cette interopérabilité est utile lors d’une migration de LDP vers SR. Pendant la transition , il peut y avoir des îles (ou des domaines) avec des équipements qui ne prennent en charge que le LDP, ou uniquement le routage de segments. Pour que ces équipements interagissent, la fonctionnalité de mappage de segments LDP ( SRMS) et de client de mappage de segments (SRMC) est nécessaire. Vous activez ces fonctions serveur et client sur un équipement du réseau de routage de segments.
La fonctionnalité de mappage SR du serveur et du client est prise en charge avec OSPF ou ISIS.
- Présentation du routage de segments vers l’interopérabilité LDP
- Routage de segments vers l’interopérabilité LDP à l’aide d’OSPF
- Interopérabilité du routage de segments avec LDP à l’aide d’ISIS
Présentation du routage de segments vers l’interopérabilité LDP
Figure 22 affiche une topologie de réseau LDP simple pour illustrer comment fonctionne l’interopérabilité des équipements de routage de segments avec les équipements LDP. Gardez à l’esprit que les deux OSPF et ISIS sont pris en charge, donc pour l’instant nous garderons les choses agnostiques en ce qui concerne l’IGP. L’exemple de topologie comprend six équipements, de R1 à R6, dans un réseau en cours de migration de LDP vers le routage de segments.
Dans la topologie, les équipements R1, R2 et R3 sont configurés uniquement pour le routage de segments. Les équipements R5 et R6 font partie d’un domaine LDP hérité et ne prennent pas actuellement en charge le SR. L’équipement R4 prend en charge à la fois le LDP et le routage de segments. Les adresses de bouclage de tous les équipements sont affichées. Ces bouclages sont annoncés en tant que FEC sortants dans le domaine LDP et en tant qu’ID de nœud SR dans le domaine SR. L’interopérabilité repose sur le mappage d’un FEC LDP sur un ID de nœud SR, et vice versa.

Pour que le R1 soit compatible avec le protocole R6, un serveur de mappage de segments LDP (SRMS) et un client SRMC (Segment Routing Mapping) sont nécessaires. Il est plus facile de comprendre le rôle du SRMS et du SRMC en examinant le flux de trafic de manière unidirectionnelle. Figure 22D’après , nous allons dire que le trafic circulant de gauche à droite provient du domaine SR et se termine dans le domaine LDP. De la même manière, le trafic qui circule de droite à gauche provient du domaine LDP et se termine dans le domaine SR.
Le SRMS fournit les informations nécessaires pour assembler le trafic en direction de gauche à droite. Le SRMC permet de cartographier le trafic qui circule de droite à gauche.
- Flux de trafic de gauche à droite : Serveur de mappage de segments
Le SRMS facilite l’assemblage LSP entre les domaines SR et LDP. Le serveur mappe les FECs LDP en ID de nœud SR. Vous configurez les FECs LDP pour qu’ils soient mappés au niveau hiérarchique
[edit routing-options source-packet-routing]
. Normalement, vous devez mapper toutes les adresses de bouclage de nœud LDP pour une connectivité complète. Comme illustré ci-dessous, vous pouvez mapper les préfixes contigus dans une seule instruction de plage. Si les boucles de nœud LDP ne sont pas contiguës, vous devez définir plusieurs instructions de mappage.Vous appliquez la configuration de mappage SRMS au niveau ou
[edit protocols isis]
hiérarchique[edit protocols ospf]
. Ce choix dépend de l’IGP utilisé. Notez que les nœuds SR et LDP partagent tous deux un même domaine de routage IGP, zone/niveau.Le SRMS génère une liste de préfixes étendue LSA (ou LSP dans le cas d’ISIS). Les informations contenues dans ce LSA permettent aux nœuds SR de mapper les préfixes LDP (FEC) aux ID de nœud SR. Les routes mappées pour les préfixes LDP sont installées dans les
inet.3
tables dempls.0
routage des nœuds SR pour faciliter les opérations d’entrée et d’assemblage LSP pour le trafic dans le sens gauche-droite.La LSA étendue (ou LSP) est inondée dans toute la zone IGP (unique). Cela signifie que vous êtes libre de placer la configuration SRMS sur n’importe quel routeur du domaine SR. Le nœud SRMS n’a pas à exécuter LDP.
- Flux de trafic de droite à gauche : Le client de mappage de segments
Pour interagir de droite à gauche, c’est-à-dire de l’île LDP à l’île SR, il suffit d’activer la fonctionnalité client de mappage de segments sur un nœud qui parle à la fois SR et LDP. Dans notre exemple, C’est le R4. Vous activez la fonctionnalité SRMC avec l’instruction
mapping-client
dans la[edit protocols ldp]
hiérarchie.La configuration SRMC active automatiquement une stratégie de sortie LDP pour annoncer les SIDs de nœud et de préfixe du domaine SR en tant que FEC sortants LDP. Cela fournit aux nœuds LDP une accessibilité LSP aux nœuds du domaine SR.
- La fonction SRMC doit être configurée sur un routeur qui se fixe à la fois aux domaines SR et LSP. Si vous le souhaitez, le même nœud peut également fonctionner comme le SRMS.
Routage de segments vers l’interopérabilité LDP à l’aide d’OSPF
Reportez-vous à Figure 22, supposons que d’eviceR2 (dans le réseau de routage de segments) est le SRMS.
-
Définir la fonction SRMS :
[edit routing-options source-packet-routing ] user@R2# set mapping-server-entry ospf-mapping-server prefix-segment-range ldp-lo0s start-prefix 192.168.0.5 user@R2# set mapping-server-entry ospf-mapping-server prefix-segment-range ldp-lo0s start-index 1000 user@R2# set mapping-server-entry ospf-mapping-server prefix-segment-range ldp-lo0s size 2
Cette configuration crée un bloc de mappage pour les deux adresses de bouclage des équipements LDP dans la topologie de l’exemple. L’index SID (Segment ID) initial mappé au bouclage de R5 est
1000
. La spécification de la taille2
permet de mapper l’index SID 10001 à l’adresse de bouclage de R6.REMARQUE :L’adresse IP utilisée comme
start-prefix
adresse de bouclage d’un équipement du réseau LDP (R5, dans cet exemple). Pour une connectivité complète, vous devez mapper toutes les adresses de bouclage des routeurs LDP dans le domaine SR. Si les adresses de bouclage sont contiguës, vous pouvez le faire avec une seuleprefix-segment-range
instruction. Les bouclages non contigus nécessitent la définition de plusieurs instructions de mappage de préfixes.Notre exemple utilise des bouclages contigus, de sorte qu’un seul
prefix-segment-range
est illustré ci-dessus. Voici un exemple de mappages multiples pour prendre en charge le cas de deux nœuds LDP avec un adressage de bouclage non contigu :[edit routing-options source-packet-routing] show mapping-server-entry map-server-name { prefix-segment-range lo1 { start-prefix 192.168.0.5/32; start-index 1000; size 1; } prefix-segment-range lo2 { start-prefix 192.168.0.10/32; start-index 2000; size 1; } } }
-
Ensuite, configurez la prise en charge d’OSPF pour le LSA étendu utilisé pour inonder les préfixes mappés.
[edit protocols] user@R2# set ospf source-packet-routing mapping-server ospf-mapping-server
Une fois que la configuration du serveur de mappage est validée sur l’équipement R2, la plage de préfixes étendue TLV est inondée dans la zone OSPF. Les équipements capables de routage de segments (R1, R2 et R3) installent des routes de routage de segments OSPF pour l’adresse de bouclage spécifiée (R5 et R6 dans cet exemple), avec un index ID de segment (SID). L’index SID est également mis à jour dans la
mpls.0
table de routage par les équipements de routage de segments. -
Activez la fonctionnalité SRMC. Pour notre topologie d’exemple, vous devez activer la fonctionnalité SRMC sur R4.
[edit protocols] user@R4# set ldp sr-mapping-client
Une fois que la configuration du client de mappage est validée sur l’équipement R4, les ID de nœud SR et les blocs d’étiquettes sont annoncés en tant que FEC sortants vers le routeur R5, qui les annonce à nouveau sur R6.
La prise en charge du routage de segments et des sauts suivants LDP avec OSPF a commencé dans Junos OS 19.1R1.
Unsupported Features and Functionality for Segment Routing interoperability with LDP using OSPF
-
Les conflitsde préfixes ne sont détectés qu’au niveau du SRMS. En cas de conflit de plage de préfixes, le SID de préfixe de l’ID de routeur inférieur prévaut. Dans ce cas, un message d’erreur de
RPD_OSPF_PFX_SID_RANGE_CONFLICT
journal système est généré. -
Les préfixes IPv6 ne sont pas pris en charge.
-
L’inondation du préfixe OSPF LSA opaque sur les frontières AS (inter-AS) n’est pas prise en charge.
-
La fonctionnalité de mappage LDP inter-zone du serveur n’est pas prise en charge.
-
La fonctionnalité ABR de LSA opaque de préfixe étendu n’est pas prise en charge.
-
La fonctionnalité ASBR de LSA opaque de préfixe étendu n’est pas prise en charge.
-
Le TLV de préférence serveur de routage de routage n’estpas pris en charge.
Interopérabilité du routage de segments avec LDP à l’aide d’ISIS
Reportez-vous à Figure 22, supposons que l’équipement R2 (dans le réseau de routage de segments) est le SRMS. La configuration suivante est ajoutée pour la fonction de mappage :
-
Définir la fonction SRMS :
[edit routing-options source-packet-routing ] user@R2# set mapping-server-entry isis-mapping-server prefix-segment-range ldp-lo0s start-prefix 192.168.0.5 user@R2# set mapping-server-entry isis-mapping-server prefix-segment-range ldp-lo0s start-index 1000 user@R2# set mapping-server-entry isis-mapping-server prefix-segment-range ldp-lo0s size 2
Cette configuration crée un bloc de mappage pour les deux adresses de bouclage des équipements LDP dans la topologie de l’exemple. L’index INITIAL d’ID de segment (SID) mappé au bouclage de R5 est
1000
. La spécification de la taille2
permet de mapper l’index SID 10001 à l’adresse de bouclage de R6.REMARQUE :L’adresse IP utilisée comme
start-prefix
adresse de bouclage d’un équipement du réseau LDP (R5, dans cet exemple). Pour une connectivité complète, vous devez mapper toutes les adresses de bouclage des routeurs LDP du domaine SR. Si les adresses de bouclage sont contiguës, vous pouvez le faire avec uneprefix-segment-range
instruction. Les bouclages non contigus nécessitent la définition de plusieurs instructions de mappage.Notre exemple utilise des bouclages contigus, de sorte qu’un seul
prefix-segment-range
est illustré ci-dessus. Voici un exemple de mappage de préfixes pour gérer le cas de deux routeurs LDP avec un adressage de bouclage non contigu :[edit routing-options source-packet-routing] show mapping-server-entry map-server-name { prefix-segment-range lo1 { start-prefix 192.168.0.5/32; start-index 1000; size 1; } prefix-segment-range lo2 { start-prefix 192.168.0.10/32; start-index 2000; size 1; } } }
-
Ensuite, configurez la prise en charge d’ISIS pour le LSP étendu utilisé pour inonder les préfixes mappés.
[edit protocols] user@R2# set isis source-packet-routing mapping-server isis-mapping-server
Une fois que la configuration du serveur de mappage est validée sur l’équipement R2, la plage de préfixes étendue TLV est inondée dans la zone OSPF. Les équipements capables de routage de segments (R1, R2 et R3) installent des routes de routage de segments ISIS pour l’adresse de bouclage spécifiée (R5 et R6 dans cet exemple), avec un index d’ID de segment (SID). L’index SID est également mis à jour dans la
mpls.0
table de routage par les équipements de routage de segments. -
Activez la fonctionnalité SRMC. Pour notre topologie d’exemple, vous devez activer la fonctionnalité SRMC sur R4.
[edit protocols] user@R4# set ldp sr-mapping-client
Une fois la configuration client de mappage validée sur l’équipement R4, les ID de nœud SR et les blocs d’étiquettes sont annoncés en tant que FEC sortants vers le routeur R5, puis vers le R6.
La prise en charge du routage de segments et des sauts suivants LDP avec ISIS a commencé dans Junos OS 17.4R1.
Unsupported Features and Functionality for Interoperability of Segment Routing with LDP using ISIS
-
Les TLV de liaison d’étiquettes ne sont pas prises en charge.
-
La publicité de la gamme de préfixes dans les TLV de liaison d’étiquettes n’est pas prise en charge.
-
La résolution des conflits de routage de segments n’est pas prise en charge.
-
Les statistiques de trafic LDP ne fonctionnent pas.
-
Le routage actif sans interruption (NSR) et le basculement GRES (Graceful Routing Engine Switchover) ne sont pas pris en charge.
-
Isis inter-niveau n’est pas pris en charge.
-
RFC 7794, Attributs de préfixe IS-IS pour L’IPv4 étendu n’est pas pris en charge.
-
La redistribution du routage LDP en tant que préfixe-sid au niveau du nœud d’assemblage n’est pas prise en charge.
Propriétés LDP diverses
Les sections suivantes décrivent comment configurer un certain nombre de propriétés LDP diverses.
- Configurer le LDP pour utiliser la métrique de route IGP
- Empêcher l’ajout de routes entrantes à la table de routage inet.0
- VPN LDP et opérateur d’opérateurs multiples
- Configurez MPLS et LDP pour que l’étiquette s’affiche sur le routeur Ultimate-Hop
- Activer le LDP sur les LSP établis par RSVP
- Activer le LDP sur les LSP établis par RSVP dans des réseaux hétérogènes
- Configurer la signature TCP MD5 pour les sessions LDP
- Configuration de la protection des sessions LDP
- Désactiver les pièges SNMP pour LDP
- Configuration de la synchronisation LDP avec l’IGP sur les liaisons LDP
- Configuration de la synchronisation LDP avec l’IGP sur le routeur
- Configuration du timer de retrait des étiquettes
- Ignorer la vérification des sous-réseaux LDP
Configurer le LDP pour utiliser la métrique de route IGP
Utilisez l’instruction track-igp-metric
si vous souhaitez que la métrique de route IGP (Interior Gateway Protocol) soit utilisée pour les routes LDP au lieu de la métrique de route LDP par défaut (la métrique de route LDP par défaut est 1).
Pour utiliser la métrique de route IGP, incluez l’énoncé track-igp-metric
:
track-igp-metric;
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
Empêcher l’ajout de routes entrantes à la table de routage inet.0
En configurant l’instruction no-forwarding
, vous pouvez empêcher l’ajout de routes entrantes à la table de routage inet.0 au lieu de la table de routage inet.3, même si vous avez activé l’instruction traffic-engineering bgp-igp
au niveau de la [edit protocols mpls]
ou de la [edit logical-systems logical-system-name protocols mpls]
hiérarchie. Par défaut, l’instruction no-forwarding
est désactivée.
Les routeurs ACX Series ne prennent pas en charge le niveau hiérarchique [edit logical-systems
].
Pour omettre les routes entrantes de la table de routage inet.0, incluez l’instruction no-forwarding
:
no-forwarding;
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
VPN LDP et opérateur d’opérateurs multiples
En configurant plusieurs instances de routage LDP, vous pouvez utiliser LDP pour faire la publicité des étiquettes dans un VPN de fournisseur de services, d’un routeur pe (Fournisseur de services) à un routeur de périphérie client (CE) opérateur client. Cela est particulièrement utile lorsque le client opérateur est un fournisseur de services Internet de base (FAI) et souhaite restreindre l’intégralité des routes Internet à ses routeurs PE. En utilisant LDP au lieu de BGP, le client opérateur protège ses autres routeurs internes d’Internet. Le LDP à plusieurs instances est également utile lorsqu’un client opérateur souhaite fournir des services VPN de couche 2 ou 3 à ses clients.
Pour obtenir un exemple de configuration de plusieurs instances de routage LDP pour les VPN opérateur-de-carriers, consultez le Guide de l’utilisateur sur plusieurs instances pour le protocole de distribution d’étiquettes.
Configurez MPLS et LDP pour que l’étiquette s’affiche sur le routeur Ultimate-Hop
Le label annoncé par défaut est label 3 (label Null implicite). Si le label 3 est annoncé, l’avant-dernier saut retire le label et envoie le paquet au routeur de sortie. Si le saut ultime est activé, le label 0 (label IPv4 Explicit Null) est annoncé. Le saut ultime garantit que tous les paquets traversant un réseau MPLS comprennent une étiquette.
Pour configurer le saut ultime, incluez l’énoncé explicit-null
:
explicit-null;
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
Les routeurs Juniper Networks mettez en file d’attente les paquets en fonction du label entrant. Les routeurs d’autres fournisseurs peuvent mettre en file d’attente les paquets différemment. Gardez cela à l’esprit lorsque vous travaillez avec des réseaux contenant des routeurs de plusieurs fournisseurs.
Pour plus d’informations sur les étiquettes, voir Présentation des étiquettes MPLS et Allocation de labels MPLS.
Activer le LDP sur les LSP établis par RSVP
Vous pouvez exécuter LDP sur des LSP établis par RSVP, en tunnelisant efficacement le LSP établi par LDP via celui établi par RSVP. Pour ce faire, activez LDP sur l’interface lo0.0 (voir Activation et désactivation du LDP). Vous devez également configurer les LSP sur lesquels vous souhaitez que le LDP fonctionne en incluant l’instruction ldp-tunneling
au niveau de la [edit protocols mpls label-switched-path lsp-name]
hiérarchie :
[edit] protocols { mpls { label-switched-path lsp-name { from source; to destination; ldp-tunneling; } } }
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
Le LDP peut être tunnelisé sur une session RSVP dont la protection de liaison est activée. À partir de Junos OS Release 21.1R1, l’affichage des détails sur le routage tunnelisé LDP affiche à la fois les sauts suivants primaires et de contournement LSP. Dans les versions précédentes de Junos OS, le saut suivant LSP de contournement affichait le saut suivant pour le LSP principal.
Activer le LDP sur les LSP établis par RSVP dans des réseaux hétérogènes
D’autres fournisseurs utilisent une métrique OSPF de 1 pour l’adresse de bouclage. Les routeurs Juniper Networks utilisent une métrique OSPF de 0 pour l’adresse de bouclage. Pour cela, vous devrez peut-être configurer manuellement la métrique RSVP lors du déploiement de tunnelisation LDP sur des LSP RSVP dans des réseaux hétérogènes.
Lorsqu’un routeur Juniper Networks est lié au routeur d’un autre fournisseur via un tunnel RSVP, et que la tunnelisation LDP est également activée, par défaut, le routeur Juniper Networks peut ne pas utiliser le tunnel RSVP pour acheminer le trafic vers les destinations LDP en aval du routeur sortant de l’autre fournisseur si le chemin RSVP a une mesure de 1 plus grande que le chemin OSPF physique.
Pour vous assurer que la tunnelisation LDP fonctionne correctement dans des réseaux hétérogènes, vous pouvez configurer OSPF pour ignorer la métrique LSP RSVP en incluant l’énoncé ignore-lsp-metrics
:
ignore-lsp-metrics;
Vous pouvez configurer cette déclaration aux niveaux hiérarchiques suivants :
-
[edit protocols ospf traffic-engineering shortcuts]
-
[edit logical-systems logical-system-name protocols ospf traffic-engineering shortcuts]
Les routeurs ACX Series ne prennent pas en charge le niveau hiérarchique [edit logical-systems
].
Pour activer le LDP sur les LSP RSVP, vous devez également effectuer la procédure dans la section Activer le LDP sur les LSP établis par RSVP.
Configurer la signature TCP MD5 pour les sessions LDP
Vous pouvez configurer une signature MD5 pour une connexion TCP LDP afin de vous protéger contre l’introduction de segments TCP usurpés dans les flux de connexion de session LDP. Pour plus d’informations sur l’authentification TCP, voir TCP. Pour savoir comment utiliser l’option d’authentification TCP (TCP-AO) au lieu de TCP MD5, reportez-vous à la section No link title.
Un routeur utilisant l’option de signature MD5 est configuré avec un mot de passe pour chaque pair pour lequel l’authentification est requise. Le mot de passe est stocké chiffré.
Des adjacencies LDP hello peuvent encore être créées même lorsque les interfaces d’appairage sont configurées avec différentes signatures de sécurité. Toutefois, la session TCP ne peut pas être authentifiée et n’est jamais établie.
Vous pouvez configurer HMAC (Hashed Message Authentication Code) et l’authentification MD5 pour les sessions LDP en tant que configuration par session ou configuration de correspondance de sous-réseau (c’est-à-dire la correspondance de préfixe la plus longue). La prise en charge de l’authentification par correspondance de sous-réseau permet de configurer l’authentification pour les sessions LDP (TLDP) ciblées automatiquement. Cela facilite le déploiement de l’alternative sans boucle à distance (LFA) et des pseudowires FEC 129.
Pour configurer une signature MD5 pour une connexion TCP LDP, incluez l’instruction dans le authentication-key
groupe de sessions :
[edit protocols ldp] session-group prefix-length { authentication-key md5-authentication-key; }
Utilisez l’instruction session-group
pour configurer l’adresse pour la fin distante de la session LDP.
Le md5-authentication-key
, ou mot de passe, dans la configuration peut avoir jusqu’à 69 caractères. Les caractères peuvent inclure n’importe quelle chaîne ASCII. Si vous incluez des espaces, joignez tous les caractères entre guillemets.
Vous pouvez également configurer un mécanisme de mise à jour des clés d’authentification pour le protocole de routage LDP. Ce mécanisme vous permet de mettre à jour les clés d’authentification sans interrompre les protocoles de routage et de signalisation associés tels que Open Shortest Path First (OSPF) et le protocole RSVP (Resource Reservation Setup Protocol).
Pour configurer le mécanisme de mise à jour des clés d’authentification, incluez l’instruction key-chain
au niveau de la [edit security authentication-key-chains]
hiérarchie et spécifiez l’option key
de créer un trousseau comprenant plusieurs clés d’authentification.
[edit security authentication-key-chains] key-chain key-chain-name { key key { secret secret-data; start-time yyyy-mm-dd.hh:mm:ss; } }
Pour configurer le mécanisme de mise à jour des clés d’authentification pour le protocole de routage LDP, incluez l’instruction authentication-key-chain
au niveau de la [edit protocols ldp]
hiérarchie afin d’associer le protocole aux clés d’authentification [edit security suthentication-key-chains]
. Vous devez également configurer l’algorithme d’authentification en incluant l’instruction authentication-algorithm algorithm
au niveau hiérarchique [edit protocols ldp]
.
[edit protocols ldp] group group-name { neighbor address { authentication-algorithm algorithm; authentication-key-chain key-chain-name; } }
Pour plus d’informations sur la fonctionnalité de mise à jour des clés d’authentification, voir Configuration du mécanisme de mise à jour des clés d’authentification pour les protocoles de routage BGP et LDP.
Configuration de la protection des sessions LDP
Une session LDP est normalement créée entre une paire de routeurs connectés par une ou plusieurs liaisons. Les routeurs forment un bonjour adjacence pour chaque liaison qui les connecte et associent toutes les adjacenances à la session LDP correspondante. Lorsque la dernière adjacence bonjour pour une session LDP disparaît, la session LDP est terminée. Vous pouvez modifier ce comportement pour éviter qu’une session LDP ne soit inutilement interrompue et rétablie.
Vous pouvez configurer Junos OS pour qu’il laisse la session LDP entre deux routeurs, même s’il n’y a pas d’adjacencies de bonjour sur les liaisons reliant les deux routeurs en configurant l’instruction session-protection
. Vous pouvez éventuellement spécifier un temps en quelques secondes à l’aide de l’option timeout
. La session reste en cours pendant la durée spécifiée tant que les routeurs maintiennent la connectivité réseau IP.
session-protection { timeout seconds; }
Pour obtenir la liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section Résumé de l’instruction.
Désactiver les pièges SNMP pour LDP
Chaque fois qu’un LSP LDP effectue une transition de haut en bas ou de bas en haut, le routeur envoie un piège SNMP. Cependant, il est possible de désactiver les pièges SNMP LDP sur un routeur, un système logique ou une instance de routage.
Pour plus d’informations sur les pièges SNMP LDP et la MIB LDP propriétaire, consultez l’Explorateur MIB SNMP.
Pour désactiver les pièges SNMP pour LDP, spécifiez l’option trap disable
de l’instruction log-updown
:
log-updown { trap disable; }
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
Configuration de la synchronisation LDP avec l’IGP sur les liaisons LDP
LDP est un protocole permettant de distribuer des étiquettes dans des applications non conçues pour le trafic. Les étiquettes sont distribuées le long du meilleur chemin déterminé par l’IGP. Si la synchronisation entre LDP et IGP n’est pas maintenue, le LSP tombe en panne. Lorsque le LDP n’est pas pleinement opérationnel sur un lien donné (une session n’est pas établie et les labels ne sont pas échangés), l’IGP annonce la liaison avec la mesure du coût maximal. La liaison n’est pas privilégiée, mais reste dans la topologie du réseau.
La synchronisation LDP n’est prise en charge que sur les interfaces point à point actives et les interfaces LAN configurées en tant que point à point dans le cadre de l’IGP. La synchronisation LDP n’est pas prise en charge lors d’un redémarrage progressif.
Pour annoncer la mesure du coût maximal jusqu’à ce que le LDP soit opérationnel pour la synchronisation, incluez l’énoncé ldp-synchronization
:
ldp-synchronization { disable; hold-time seconds; }
Pour désactiver la synchronisation, incluez l’instruction disable
. Pour configurer la période de temps afin d’annoncer la mesure du coût maximal d’une liaison qui n’est pas entièrement opérationnelle, incluez l’énoncé hold-time
.
Pour obtenir une liste des niveaux hiérarchiques sur lesquels vous pouvez configurer cette instruction, consultez la section récapitulatif de l’instruction pour cette déclaration.
Configuration de la synchronisation LDP avec l’IGP sur le routeur
Vous pouvez configurer le temps d’attente du LDP avant d’informer l’IGP que le voisin LDP et la session d’une interface sont opérationnels. Pour les grands réseaux avec de nombreux FEC, vous devrez peut-être configurer une valeur plus longue pour laisser suffisamment de temps pour que les bases de données d’étiquettes LDP soient échangées.
Pour configurer le temps d’attente du LDP avant d’informer l’IGP que le voisin LDP et la session sont opérationnels, incluez l’instruction igp-synchronization
et spécifiez un temps en secondes pour l’option holddown-interval
:
igp-synchronization holddown-interval seconds;
Pour obtenir une liste des niveaux hiérarchiques sur lesquels vous pouvez configurer cette instruction, consultez la section récapitulatif de l’instruction pour cette déclaration.
Configuration du timer de retrait des étiquettes
Le timer de retrait d’étiquettes retarde l’envoi d’un message de retrait d’étiquette pour une FEC à un voisin. Lorsqu’une liaison IGP vers un voisin échoue, le label associé au FEC doit être retiré de tous les routeurs en amont si le voisin est le saut suivant pour le FEC. Une fois que l’IGP a convergé et qu’un label a été reçu d’un nouveau saut suivant, le label est lus vers tous les routeurs en amont. C’est le comportement typique du réseau. En retardant le retrait des étiquettes d’un petit temps (par exemple, jusqu’à ce que l’IGP converge et que le routeur reçoive un nouveau label pour le FEC du saut suivant en aval), le retrait de label et l’envoi d’un mappage de labels pourraient être évités. L’instruction label-withdrawal-delay
vous permet de configurer ce délai. Par défaut, le délai est de 60 secondes.
Si le routeur reçoit le nouveau label avant que le timer n’arrive à s’écouler, le timer de retrait de label est annulé. Toutefois, si le timer s’exécute, le label du FEC est retiré de tous les routeurs en amont.
Par défaut, le LDP attend 60 secondes avant de retirer les labels pour éviter que les LSP démissionnent plusieurs fois pendant que l’IGP se reconverge. Pour configurer le délai de retrait des étiquettes en quelques secondes, incluez l’énoncé label-withdrawal-delay
:
label-withdrawal-delay seconds;
Pour obtenir une liste des niveaux hiérarchiques sur lesquels vous pouvez configurer cette instruction, consultez la section récapitulatif de l’instruction pour cette déclaration.
Ignorer la vérification des sous-réseaux LDP
Dans junos OS version 8.4 et versions ultérieures, une vérification du sous-réseau d’adresse source LDP est effectuée pendant la procédure d’établissement du voisin. L’adresse source de la liaison LDP hello packet est associée à l’adresse de l’interface. Cela entraîne un problème d’interopérabilité avec les équipements d’autres fournisseurs.
Pour désactiver la vérification du sous-réseau, incluez l’énoncé allow-subnet-mismatch
:
allow-subnet-mismatch;
Cette déclaration peut être incluse aux niveaux hiérarchiques suivants :
-
[edit protocols ldp interface interface-name]
-
[edit logical-systems logical-system-name protocols ldp interface interface-name]
Les routeurs ACX Series ne prennent pas en charge le niveau hiérarchique [edit logical-systems
].
Voir également
Configuration du traceroute LSP LDP
Vous pouvez tracer le chemin suivi par un LSP signalé par LDP. Le traceroute LSP LDP est basé sur la norme RFC 4379, qui détecte les défaillances du plan de données MPLS (Multi-Protocol Label Switched). Cette fonctionnalité vous permet de suivre régulièrement tous les chemins d’un FEC. Les informations topologiques FEC sont stockées dans une base de données accessible depuis la CLI.
Une modification de la topologie ne déclenche pas automatiquement la trace d’un LSP LDP. Cependant, vous pouvez lancer manuellement un traceroute. Si la demande de traceroute concerne un FEC qui se trouve actuellement dans la base de données, le contenu de la base de données est mis à jour avec les résultats.
La fonctionnalité de traceroute périodique s’applique à tous les FEC spécifiés par l’instruction oam
configurée au niveau de la [edit protocols ldp]
hiérarchie. Pour configurer périodiquement le traceroute LDP LSP, incluez l’instruction periodic-traceroute
:
periodic-traceroute { disable; exp exp-value; fanout fanout-value; frequency minutes; paths number-of-paths; retries retry-attempts; source address; ttl ttl-value; wait seconds; }
Vous pouvez configurer cette déclaration aux niveaux hiérarchiques suivants :
Vous pouvez configurer l’instruction periodic-traceroute
seule ou avec l’une des options suivantes :
exp
: spécifiez la classe de service à utiliser lors de l’envoi de sondes.fanout
: spécifiez le nombre maximal de sauts suivants à rechercher par nœud.frequency
: spécifiez l’intervalle entre les tentatives de traceroute.paths
: spécifiez le nombre maximal de chemins à rechercher.retries
: spécifiez le nombre de tentatives d’envoi d’une sonde à un nœud spécifique avant d’abandonner.source
: spécifiez l’adresse source IPv4 à utiliser lors de l’envoi des sondes.ttl
: spécifiez la valeur maximale du délai de vie. Les nœuds qui dépassent cette valeur ne sont pas retracés.wait
: spécifiez l’intervalle d’attente avant d’renvoyer un paquet de sonde.
Collecte des statistiques LDP
Les statistiques de trafic LDP indiquent le volume de trafic qui a transité par un FEC particulier sur un routeur.
Lorsque vous configurez l’instruction traffic-statistics
au niveau de la [edit protocols ldp]
hiérarchie, les statistiques de trafic LDP sont collectées régulièrement et écrites dans un fichier. Vous pouvez configurer la fréquence de collecte des statistiques (en quelques secondes) à l’aide de l’option interval
. L’intervalle de collecte par défaut est de 5 minutes. Vous devez configurer un fichier de statistiques LDP ; dans le cas contraire, les statistiques sur le trafic LDP ne sont pas collectées. Si le LSP tombe en panne, les statistiques LDP sont réinitialisées.
Pour collecter des statistiques de trafic LDP, incluez l’énoncé traffic-statistics
:
traffic-statistics { file filename <files number> <size size> <world-readable | no-world-readable>; interval interval; no-penultimate-hop; }
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
Cette section aborde les sujets suivants :
- Sortie des statistiques LDP
- Désactiver les statistiques LDP sur l’avant-dernier saut du routeur
- Limites des statistiques LDP
Sortie des statistiques LDP
L’exemple de sortie suivant provient d’un fichier de statistiques LDP :
FEC Type Packets Bytes Shared 10.255.350.448/32 Transit 0 0 No Ingress 0 0 No 10.255.350.450/32 Transit 0 0 Yes Ingress 0 0 No 10.255.350.451/32 Transit 0 0 No Ingress 0 0 No 220.220.220.1/32 Transit 0 0 Yes Ingress 0 0 No 220.220.220.2/32 Transit 0 0 Yes Ingress 0 0 No 220.220.220.3/32 Transit 0 0 Yes Ingress 0 0 No May 28 15:02:05, read 12 statistics in 00:00:00 seconds
Le fichier de statistiques LDP comprend les colonnes de données suivantes :
FEC
— FEC pour lesquels des statistiques de trafic LDP sont collectées.Type
— Type de trafic provenant d’un routeur, soitIngress
(provenant de ce routeur) soitTransit
(transféré via ce routeur).Packets
— Nombre de paquets passés par le FEC depuis l’arrivée de son LSP.Bytes
— Nombre d’octets de données transmises par le FEC depuis l’arrivée de son LSP.Shared
: uneYes
valeur indique que plusieurs préfixes sont liés au même label (par exemple, lorsque plusieurs préfixes sont annoncés avec une stratégie de sortie). Les statistiques de trafic LDP pour ce cas s’appliquent à tous les préfixes et doivent être traitées comme telles.read
— Ce nombre (qui apparaît à côté de la date et de l’heure) peut différer du nombre réel des statistiques affichées. Certaines des statistiques sont résumées avant d’être affichées.
Désactiver les statistiques LDP sur l’avant-dernier saut du routeur
La collecte de statistiques de trafic LDP au niveau de l’avant-dernier routeur peut consommer des ressources système excessives, en particulier sur les routes à sauts suivants. Ce problème est exacerbé si vous avez configuré l’instruction deaggregate
en plus de l’instruction traffic-statistics
. Pour les routeurs qui atteignent leur limite d’utilisation du routage suivant, nous vous recommandons de configurer l’option no-penultimate-hop
pour l’instruction traffic-statistics
:
traffic-statistics { no-penultimate-hop; }
Pour obtenir une liste des niveaux hiérarchiques sur lesquels vous pouvez configurer l’instruction traffic-statistics
, consultez la section récapitulatif de l’instruction pour cette déclaration.
Lorsque vous configurez l’option no-penultimate-hop
, aucune statistique n’est disponible pour les FEC qui constituent l’avant-dernier saut pour ce routeur.
Chaque fois que vous incluez ou supprimez cette option de la configuration, les sessions LDP sont supprimées, puis redémarrées.
L’exemple de sortie suivant provient d’un fichier de statistiques LDP montrant les routeurs sur lesquels l’option no-penultimate-hop
est configurée :
FEC Type Packets Bytes Shared 10.255.245.218/32 Transit 0 0 No Ingress 4 246 No 10.255.245.221/32 Transit statistics disabled Ingress statistics disabled 13.1.1.0/24 Transit statistics disabled Ingress statistics disabled 13.1.3.0/24 Transit statistics disabled Ingress statistics disabled
Limites des statistiques LDP
Les problèmes liés à la collecte de statistiques LDP par la configuration de l’instruction sont les traffic-statistics
suivants :
Vous ne pouvez pas effacer les statistiques LDP.
Si vous raccourcissez l’intervalle spécifié, une nouvelle demande de statistiques LDP n’est émise que si le timer de statistiques expire plus tard que le nouvel intervalle.
Une nouvelle opération de collecte de statistiques LDP ne peut pas commencer tant que la précédente n’est pas terminée. Si l’intervalle est court ou si le nombre de statistiques LDP est important, l’intervalle entre les deux collections de statistiques peut être plus long que l’intervalle.
Lorsqu’un LSP tombe en panne, les statistiques LDP sont réinitialisées.
Suivi du trafic du protocole LDP
Les sections suivantes décrivent comment configurer les options de suivi pour examiner le trafic du protocole LDP :
- Traçage du trafic du protocole LDP aux niveaux du protocole et de l’instance de routage
- Traçage du trafic du protocole LDP au sein des FEC
- Exemples: Suivi du trafic du protocole LDP
Traçage du trafic du protocole LDP aux niveaux du protocole et de l’instance de routage
Pour tracer le trafic du protocole LDP, vous pouvez spécifier des options dans l’instruction globale traceoptions
au niveau de la [edit routing-options]
hiérarchie, et vous pouvez spécifier des options spécifiques à LDP en incluant l’instruction traceoptions
:
traceoptions { file filename <files number> <size size> <world-readable | no-world-readable>; flag flag <flag-modifier> <disable>; }
Pour obtenir une liste des niveaux hiérarchiques auxquels vous pouvez inclure cette déclaration, consultez la section récapitulatif de l’instruction pour cette déclaration.
Utilisez l’instruction file
pour spécifier le nom du fichier qui reçoit le résultat de l’opération de suivi. Tous les fichiers sont placés dans le répertoire /var/log. Nous vous recommandons de placer la sortie LDP-tracing dans le fichier ldp-log.
Les indicateurs de trace suivants affichent les opérations associées à l’envoi et à la réception de divers messages LDP. Chacun peut porter un ou plusieurs des modificateurs suivants :
address
— Suivre le fonctionnement des messages d’adresse et de retrait d’adresse.binding
— Tracez les opérations de liaison d’étiquettes.error
: suivre les conditions d’erreur.event
— Suivre les événements du protocole.initialization
— Suivre le fonctionnement des messages d’initialisation.label
: tracez le fonctionnement des messages de demande d’étiquettes, de mappage d’étiquettes, de retrait d’étiquettes et de libération de label.notification
— Suivre le fonctionnement des messages de notification.packets
— Tracez le fonctionnement de l’adresse, le retrait d’adresse, l’initialisation, la demande d’étiquette, le plan de label, le retrait d’étiquettes, la libération des étiquettes, les notifications et les messages périodiques. Ce modificateur équivaut à définir leaddress
,initialization
,label
,notification
etperiodic
les modificateurs.Vous pouvez également configurer le
filter
modificateur d’indicateur avec lamatch-on address
sous-option pour l’indicateurpackets
. Cela vous permet de tracer en fonction des adresses source et de destination des paquets.path
— Suivre les opérations de chemin de commutation d’étiquettes.path
— Suivre les opérations de chemin de commutation d’étiquettes.periodic
— Tracez le fonctionnement des messages bonjour et keepalive.route
— Suivre le fonctionnement des messages de routage.state
— Suivre les transitions d’état du protocole.
Traçage du trafic du protocole LDP au sein des FEC
Le LDP associe une classe d’équivalence de transfert (FEC) à chaque LSP qu’il crée. Le FEC associé à un LSP spécifie quels paquets sont mappés à ce LSP. Les LSP sont étendus via un réseau puisque chaque routeur choisit le label annoncé par le saut suivant pour le FEC et l’splice au label qu’il annonce à tous les autres routeurs.
Vous pouvez tracer le trafic du protocole LDP dans un FEC spécifique et filtrer les déclarations de trace LDP en fonction d’un FEC. Cela est utile lorsque vous souhaitez tracer ou dépanner le trafic de protocole LDP associé à un FEC. Les indicateurs de trace suivants sont disponibles à cette fin : route
, path
et binding
.
L’exemple suivant illustre comment configurer l’instruction LDP traceoptions
pour filtrer les instructions de trace LDP en fonction d’un FEC :
[edit protocols ldp traceoptions] set flag route filter match-on fec policy "filter-policy-for-ldp-fec";
Cette fonctionnalité présente les limites suivantes :
La fonctionnalité de filtrage n’est disponible que pour les FEC composés de préfixes IP version 4 (IPv4).
Les CIRCUITS de couche 2 ne peuvent pas être filtrés.
Lorsque vous configurez à la fois le routage et le filtrage, les routes MPLS ne s’affichent pas (elles sont bloquées par le filtre).
Le filtrage est déterminé par la stratégie et la valeur configurée pour l’option
match-on
. Lors de la configuration de la stratégie, assurez-vous que le comportement par défaut est toujoursreject
.La seule
match-on
option estfec
. Par conséquent, le seul type de stratégie à inclure est une stratégie de filtre de routage.
Exemples: Suivi du trafic du protocole LDP
Tracez en détail les messages de chemin LDP :
[edit] protocols { ldp { traceoptions { file ldp size 10m files 5; flag path; } } }
Suivre tous les messages sortants LDP :
[edit] protocols { ldp { traceoptions { file ldp size 10m files 5; flag packets; } } }
Tracez toutes les conditions d’erreur LDP :
[edit] protocols { ldp { traceoptions { file ldp size 10m files 5; flag error; } } }
Tracez tous les messages entrants LDP et toutes les opérations de liaison d’étiquettes :
[edit] protocols { ldp { traceoptions { file ldp size 10m files 5 world-readable; flag packets receive; flag binding; } interface all { } } }
Tracez le trafic du protocole LDP pour un FEC associé au LSP :
[edit] protocols { ldp { traceoptions { flag route filter match-on fec policy filter-policy-for-ldp-fec; } } }