Exemple : Configuration de la propagation MPLS TTL pour les LSP signalés par LDP
Présentation
La figure suivante illustre un scénario typique dans lequel l’instruction no-propagate-ttl
au niveau de la [edit protocol ldp]
hiérarchie est bénéfique.
Topologie

Sur la figure, vous pouvez voir deux clouds LDP natifs connectés par une dorsale avec LDPoRSVP.
- À partir du routeur R1, les paquets sont encapsulés avec l’étiquette LDP et envoyés à la destination R7.
- Sur le routeur R3, l’étiquette LDP d’un paquet est dépouillée en un paquet IP. Le paquet est ensuite encapsulé avec LDP over RSVP (LDPoRSVP) et envoyé via la dorsale.
- Sur le routeur R5, les étiquettes LDPoRSVP sont supprimées en un paquet IP, puis le paquet est à nouveau encapsulé dans l’étiquette LDP et envoyé à la destination.
But
L’objectif est d’effectuer les actions suivantes :
- Masquer les deux nuages LDP sans utiliser de propagation TTL
- Afficher le réseau dorsal (LDPoRSVP)
Lorsqu’un paquet est envoyé du routeur R1 au routeur R7, ces actions doivent être effectuées sur deux routeurs, R1 et R5. Vous ne pouvez pas y parvenir avec les options existantes. Par exemple, lorsque vous utilisez l’option globale (set protocol mpls no-propagate-ttl
) sur le routeur R5, le réseau dorsal LDPoRSVP à propagation TTL est désactivé dans le sens inverse (R7-R1). Cela est dû au fait que l’option s’applique à la fois à LDP et à RSVP.
Cas d’utilisation du comportement Pas de propagation TTL et Propagation TTL au niveau LDP
LDP sur le routeur R3 doit prendre en charge à la fois le TTL sans propagation et le comportement TTL de propagation.
À partir du routeur R3 avec LDPoRSVP, dans la direction R4, le routeur doit prendre en charge le comportement TTL de propagation. Cependant, en ce qui concerne le LDP (routeur R2) natif, le LDP doit prendre en charge le comportement TTL sans propagation.
Pour obtenir ce résultat, nous avons introduit une nouvelle option, sous LDP, no-propagate-ttl
que vous devez configurer pour le routeur R3 et le routeur R5. Cette option désactive la propagation de la durée de vie pour les chemins LDP.
Dans un scénario LDPoRSVP, le comportement de propagation dépend de l’option RSVP no decrement TTL (no-decrement-ttl
).
- Si vous configurez l’option
no-propagate-ttl
dans le scénario LDPoRSVP et que le TTL sans décrémentation (no-decrement-ttl
) n’est pas configuré, la propagation TTL a lieu.Par exemple :
Sur le routeur R3, dans le cas du scénario LDPoRSVP, si vous définissez la configuration suivante, la propagation TTL a lieu.
user@host> set protocol ldp no-propagate-ttl
- Si vous configurez l’option
no-decrement-ttl
sur le LSP entre le routeur R3 et le routeur R5, la propagation TTL est désactivée.Par exemple, sur le routeur R3 :
user@host> set protocol ldp no-propagate-ttl user@host> set protocol mpls no-decrement-ttl
Sur le routeur R1, les paquets sont encapsulés avec l’étiquette LDP avec TTL 255, au fur et à mesure que l’une no-propagate-ttl
des CLI est configurée.
Sur le routeur R3 :
- L’étiquette LDP d’un paquet est supprimée dans un en-tête IP, et la durée de vie n’est pas copiée de l’étiquette LDP vers l’en-tête IP.
- Le paquet est encapsulé avec des étiquettes LDPoRSVP et envoyé via la dorsale.
- La nouvelle option
ldp no-propagate-ttl
avecno-decrement-tll
décide si le TTL doit être propagé ou non. - L’option
no-decrement-ttl
n’est pas configurée, de sorte que la propagation TTL habituelle se produit
Sur le routeur R5, les étiquettes LDPoRSVP sont supprimées de l’en-tête IP. La nouvelle option est configurée pour prendre en charge no-propagate-ttl
le protocole LDP, et le paquet IP est encapsulé avec une étiquette LDP avec TTL 255 et envoyé en travers.
Configuration
Configuration rapide de l’interface de ligne de commande
Pour configurer rapidement cet exemple, copiez les commandes suivantes, collez-les dans un fichier texte, supprimez les sauts de ligne, modifiez tous les détails nécessaires pour qu’ils correspondent à la configuration de votre réseau, puis copiez et collez les commandes dans l’interface de ligne de commande au niveau de la hiérarchie [modifier].
set protocol ldp no-propagate-ttl
Résultats
Nous avons modifié la sortie de la commande show ldp overview
CLI pour afficher la configuration TTL.
Vérifiez les résultats de la configuration :
user@host> show ldp overview Instance: master Reference count: 4 Router ID: 10.1.1.1 Inet LSR ID: 10.1.1.4 Inet6 LSR ID: 10.1.1.6 LDP inet: enabled LDP inet6: enabled Transport preference: Single-stack Message id: 21 Configuration sequence: 1 Deaggregate: disabled Explicit null: disabled IPv6 tunneling: disabled Strict targeted hellos: disabled Loopback if added: yes Route preference: 9 Unicast transit LSP chaining: disabled P2MP transit LSP chaining: disabled Transit LSP statistics based on route statistics: disabled LDP route acknowledgement: enabled BGP export: enabled No TTL propagate: enabled LDP mtu discovery: disabled LDP SR Mapping Client: disabled Capabilities enabled: none Egress FEC capabilities enabled: entropy-label-capability Downstream unsolicited Sessions: Operational: 2 Retention: liberal Control: ordered Auto targeted sessions: Auto targeted: disabled Dynamic tunnel session count: 0 P2MP: Recursive route: disabled No rsvp tunneling: disabled Timers: Keepalive interval: 10, Keepalive timeout: 30 Link hello interval: 5, Link hello hold time: 15 Targeted hello interval: 15, Targeted hello hold time: 45 Label withdraw delay: 60, Make before break timeout: 30 Make before break switchover delay: 3 Link protection timeout: 120 Graceful restart: Restart: enabled, Helper: enabled, Restart in process: false Reconnect time: 60000, Max neighbor reconnect time: 120000 Recovery time: 160000, Max neighbor recovery time: 240000 Traffic Engineering: Bgp igp: disabled Both ribs: disabled Mpls forwarding: disabled IGP: Tracking igp metric: disabled Sync session up delay: 10 Session protection: Session protection: disabled Session protection timeout: 0 Interface addresses advertising: 10.1.1.1 10.100.2.1 10.101.2.1 10.1.1.4 10.1.1.6 10.53.85.142 2001:db8:1000:1:2::1 2001:db8:1001:1:2::1 2001:db8:1111::1 2001:db8:abcd::128:53:85:142 fe80:1:2::1 fe80:1001:1002::1 LDP Job: Read job time quantum: 1000, Write job time quantum: 1000 Read job loop quantum: 100, Write job loop quantum: 100 Backup inbound read job time quantum: 1000, Backup outbound read job time quantum: 1000 Backup inbound read job loop quantum: 100, Backup outbound read job loop quantum: 100 Label allocation: Current number of LDP labels allocated: 4 Total number of LDP labels allocated: 7 Total number of LDP labels freed: 3 Total number of LDP label allocation failure: 0 Current number of labels allocated by all protocols: 4