Beispiel: Konfigurieren der MPLS-TTL-Ausbreitung für LDP-signalisierte LSPs
Überblick
Die folgende Abbildung zeigt ein typisches Szenario, in dem die no-propagate-ttl
Aussage an der Hierarchie [edit protocol ldp]
von Vorteil ist.
Topologie

In der Abbildung sehen Sie zwei native LDP-Clouds, die über einen Backbone mit LDPoRSVP verbunden sind.
- Vom Router R1 werden Pakete mit dem LDP-Label gekapselt und an das Ziel R7 gesendet.
- Auf Router R3 wird das LDP-Label eines Pakets in ein IP-Paket umgewandelt. Das Paket wird dann mit LDP over RSVP (LDPoRSVP) gekapselt und über den Backbone gesendet.
- Auf Router R5 werden die LDPoRSVP-Labels in ein IP-Paket entfernt, dann wird das Paket wieder in das LDP-Label gekapselt und an das Ziel gesendet.
Zweck
Der Zweck besteht darin, die folgenden Aktionen auszuführen:
- Ausblenden der beiden LDP-Clouds ohne TTL-Weitergabe
- Einblenden des Backbones (LDPoRSVP)
Wenn ein Paket von Router R1 an Router R7 gesendet wird, müssen diese Aktionen auf zwei Routern, R1 und R5, ausgeführt werden. Dies können Sie mit den vorhandenen Optionen nicht erreichen. Wenn Sie z. B. die globale Option (set protocol mpls no-propagate-ttl
) auf Router R5 verwenden, wird der LDPoRSVP-Backbone für die TTL-Weitergabe in umgekehrter Richtung (R7-R1) deaktiviert. Dies liegt daran, dass die Option sowohl für LDP als auch für RSVP gilt.
Anwendungsfall für die TTL "Keine Weitergabe" und das TTL-Verhalten "TTL weitergeben" bei LDP
LDP auf Router R3 muss sowohl die TTL "no propagate" als auch das propagierte TTL-Verhalten unterstützen.
Von Router R3 mit LDPoRSVP in Richtung R4 muss der Router das TTL-Verhalten der Propagiertat unterstützen. In Bezug auf den nativen LDP (Router R2) muss der LDP jedoch das TTL-Verhalten "no propagate TTL" unterstützen.
Um dieses Ergebnis zu erzielen, haben wir unter LDP eine neue Option eingeführt, no-propagate-ttl
die Sie für Router R3 und Router R5 konfigurieren müssen. Diese Option deaktiviert die Weitergabe von TTL für LDP-Pfade.
In einem LDPoRSVP-Szenario hängt das Weitergabeverhalten von der Option RSVP no decrement TTL (no-decrement-ttl
) ab.
- Wenn Sie die
no-propagate-ttl
Option im LDPoRSVP-Szenario konfigurieren und die TTL no decrement (no-decrement-ttl
) nicht konfiguriert ist, findet die TTL-Weitergabe statt.Zum Beispiel:
Wenn Sie auf Router R3 im Fall des LDPoRSVP-Szenarios die folgende Konfiguration festlegen, findet die TTL-Weitergabe statt.
user@host> set protocol ldp no-propagate-ttl
- Wenn Sie die
no-decrement-ttl
Option über den LSP zwischen Router R3 und Router R5 konfigurieren, ist die TTL-Weitergabe deaktiviert.Beispiel: Auf Router R3:
user@host> set protocol ldp no-propagate-ttl user@host> set protocol mpls no-decrement-ttl
Auf Router R1 werden Pakete mit dem LDP-Label mit TTL 255 gekapselt, da jede no-propagate-ttl
CLI konfiguriert ist.
Auf Router R3:
- Die LDP-Bezeichnung eines Pakets wird in einen IP-Header entfernt, und die TTL wird nicht von der LDP-Bezeichnung in den IP-Header kopiert.
- Das Paket wird mit LDPoRSVP-Labels gekapselt und über den Backbone gesendet.
- Die neue Option
ldp no-propagate-ttl
withno-decrement-tll
entscheidet, ob die TTL propagiert werden soll oder nicht. - Die
no-decrement-ttl
Option ist nicht konfiguriert, sodass die übliche TTL-Weitergabe erfolgt
Auf Router R5 werden die LDPoRSVP-Labels in den IP-Header entfernt. Die neue Option ist so konfiguriert, dass sie das LDP-Protokoll unterstützt no-propagate-ttl
, und das IP-Paket wird mit einem LDP-Label mit TTL 255 gekapselt und gesendet.
Konfiguration
CLI-Schnellkonfiguration
Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie sie in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für Ihre Netzwerkkonfiguration erforderlich sind, und kopieren Sie dann die Befehle und fügen Sie sie in die CLI auf der Hierarchieebene [edit] ein.
set protocol ldp no-propagate-ttl
Ergebnisse
Wir haben die Ausgabe des CLI-Befehls show ldp overview
geändert, um die TTL-Konfiguration anzuzeigen.
Überprüfen Sie die Ergebnisse der Konfiguration:
user@host> show ldp overview Instance: master Reference count: 4 Router ID: 10.1.1.1 Inet LSR ID: 10.1.1.4 Inet6 LSR ID: 10.1.1.6 LDP inet: enabled LDP inet6: enabled Transport preference: Single-stack Message id: 21 Configuration sequence: 1 Deaggregate: disabled Explicit null: disabled IPv6 tunneling: disabled Strict targeted hellos: disabled Loopback if added: yes Route preference: 9 Unicast transit LSP chaining: disabled P2MP transit LSP chaining: disabled Transit LSP statistics based on route statistics: disabled LDP route acknowledgement: enabled BGP export: enabled No TTL propagate: enabled LDP mtu discovery: disabled LDP SR Mapping Client: disabled Capabilities enabled: none Egress FEC capabilities enabled: entropy-label-capability Downstream unsolicited Sessions: Operational: 2 Retention: liberal Control: ordered Auto targeted sessions: Auto targeted: disabled Dynamic tunnel session count: 0 P2MP: Recursive route: disabled No rsvp tunneling: disabled Timers: Keepalive interval: 10, Keepalive timeout: 30 Link hello interval: 5, Link hello hold time: 15 Targeted hello interval: 15, Targeted hello hold time: 45 Label withdraw delay: 60, Make before break timeout: 30 Make before break switchover delay: 3 Link protection timeout: 120 Graceful restart: Restart: enabled, Helper: enabled, Restart in process: false Reconnect time: 60000, Max neighbor reconnect time: 120000 Recovery time: 160000, Max neighbor recovery time: 240000 Traffic Engineering: Bgp igp: disabled Both ribs: disabled Mpls forwarding: disabled IGP: Tracking igp metric: disabled Sync session up delay: 10 Session protection: Session protection: disabled Session protection timeout: 0 Interface addresses advertising: 10.1.1.1 10.100.2.1 10.101.2.1 10.1.1.4 10.1.1.6 10.53.85.142 2001:db8:1000:1:2::1 2001:db8:1001:1:2::1 2001:db8:1111::1 2001:db8:abcd::128:53:85:142 fe80:1:2::1 fe80:1001:1002::1 LDP Job: Read job time quantum: 1000, Write job time quantum: 1000 Read job loop quantum: 100, Write job loop quantum: 100 Backup inbound read job time quantum: 1000, Backup outbound read job time quantum: 1000 Backup inbound read job loop quantum: 100, Backup outbound read job loop quantum: 100 Label allocation: Current number of LDP labels allocated: 4 Total number of LDP labels allocated: 7 Total number of LDP labels freed: 3 Total number of LDP label allocation failure: 0 Current number of labels allocated by all protocols: 4