Beispiel: Konfiguration der MPLS-TTL-Ausbreitung für LDP-signalisierter LSPs
Überblick
Die folgende Abbildung zeigt ein typisches Szenario, in dem die no-propagate-ttl
Aussage in der [edit protocol ldp]
Hierarchie von Vorteil ist.
Topologie

In der Abbildung sehen Sie zwei native LDP-Clouds, die über ein Backbone mit LDPoRSVP verbunden sind.
- Vom Router R1 werden Pakete mit dem LDP-Label gekapselt und an das Ziel R7 gesendet.
- Auf Router R3 wird das LDP-Label von einem Paket an ein IP-Paket entfernt. Das Paket wird dann mit LDP over RSVP (LDPoRSVP) gekapselt und über den Backbone gesendet.
- Auf Router R5 werden die LDPoRSVP-Label an ein IP-Paket entfernt, dann wird das Paket erneut im LDP-Label gekapselt und an das Ziel gesendet.
Zweck
Der Zweck besteht darin, die folgenden Aktionen zu tun:
- Ausblenden der beiden LDP-Clouds ohne TTL-Ausbreitung
- Aushide the Backbone (LDPoRSVP)
Wenn ein Paket von Router R1 an Router R7 gesendet wird, müssen diese Aktionen auf zwei Routern ausgeführt werden, R1 und R5. Mit den vorhandenen Optionen ist dies nicht möglich. Wenn Sie beispielsweise die globale Option (set protocol mpls no-propagate-ttl
) auf Router R5 verwenden, deaktiviert sie das TTL-Ausbreitungs-LDPoRSVP-Backbone in umgekehrter Richtung (R7-R1). Dies geschieht, weil die Option sowohl für LDP als auch für RSVP anwendbar ist.
Anwendungsszenario für die No Propagate TTL und das Propagate TTL-Verhalten bei LDP
LDP auf Router R3 muss sowohl keine ausbreitungsfähige TTL als auch das Ausbreitungs-TTL-Verhalten unterstützen.
Vom Router R3 mit LDPoRSVP in R4-Richtung muss der Router das ausbreitungsfähige TTL-Verhalten unterstützen. In Richtung des nativen LDP (Router R2) muss die LDP jedoch das nicht propagierte TTL-Verhalten unterstützen.
Um dieses Ergebnis zu erreichen, haben wir eine neue Option unter LDP eingeführt, no-propagate-ttl
die Sie für Router R3 und Router R5 konfigurieren müssen. Diese Option deaktiviert die Verbreitung von TTL für LDP-Pfade.
In einem LDPoRSVP-Szenario hängt das Ausbreitungsverhalten von der RSVP-Option ohne Dekrement-TTL (no-decrement-ttl
) ab.
- Wenn Sie die
no-propagate-ttl
Option im LDPoRSVP-Szenario konfigurieren und die No-Decrement-TTL (no-decrement-ttl
) nicht konfiguriert ist, findet die TTL-Verbreitung statt.Zum Beispiel:
Auf Router R3 findet im Fall des LDPoRSVP-Szenarios die TTL-Ausbreitung statt, wenn Sie die folgende Konfiguration festlegen.
user@host> set protocol ldp no-propagate-ttl
- Wenn Sie die
no-decrement-ttl
Option über den LSP zwischen Router R3 und Router R5 konfigurieren, ist die TTL-Ausbreitung deaktiviert.Zum Beispiel auf Router R3:
user@host> set protocol ldp no-propagate-ttl user@host> set protocol mpls no-decrement-ttl
Auf Router R1 werden Pakete mit dem LDP-Label mit TTL 255 gekapselt, da jede cli no-propagate-ttl
konfiguriert ist.
Auf Router R3:
- Das LDP-Label aus einem Paket wird in einen IP-Header entfernt, und die TTL wird nicht vom LDP-Label in den IP-Header kopiert.
- Das Paket wird mit LDPoRSVP-Labeln gekapselt und über den Backbone gesendet.
- Die neue Option
ldp no-propagate-ttl
mitno-decrement-tll
entscheidet, ob die TTL weitergegeben werden soll oder nicht. - Die
no-decrement-ttl
Option ist nicht konfiguriert, sodass die übliche TTL-Ausbreitung auftritt
Auf Router R5 werden die LDPoRSVP-Label in den IP-Header entfernt. Die neue Option ist so konfiguriert, dass sie das LDP-Protokoll unterstützt no-propagate-ttl
, und das IP-Paket wird mit einem LDP-Label mit TTL 255 gekapselt und weitergeleitet.
Konfiguration
CLI-Schnellkonfiguration
Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen sie in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern alle erforderlichen Details, um mit Ihrer Netzwerkkonfiguration zu übereinstimmen, und kopieren Sie dann die Befehle und fügen sie auf Hierarchieebene [bearbeiten] in die CLI ein.
set protocol ldp no-propagate-ttl
Ergebnisse
Wir haben die Ausgabe des CLI-Befehls show ldp overview
geändert, um die TTL-Konfiguration anzuzeigen.
Überprüfen Sie die Ergebnisse der Konfiguration:
user@host> show ldp overview Instance: master Reference count: 4 Router ID: 10.1.1.1 Inet LSR ID: 10.1.1.4 Inet6 LSR ID: 10.1.1.6 LDP inet: enabled LDP inet6: enabled Transport preference: Single-stack Message id: 21 Configuration sequence: 1 Deaggregate: disabled Explicit null: disabled IPv6 tunneling: disabled Strict targeted hellos: disabled Loopback if added: yes Route preference: 9 Unicast transit LSP chaining: disabled P2MP transit LSP chaining: disabled Transit LSP statistics based on route statistics: disabled LDP route acknowledgement: enabled BGP export: enabled No TTL propagate: enabled LDP mtu discovery: disabled LDP SR Mapping Client: disabled Capabilities enabled: none Egress FEC capabilities enabled: entropy-label-capability Downstream unsolicited Sessions: Operational: 2 Retention: liberal Control: ordered Auto targeted sessions: Auto targeted: disabled Dynamic tunnel session count: 0 P2MP: Recursive route: disabled No rsvp tunneling: disabled Timers: Keepalive interval: 10, Keepalive timeout: 30 Link hello interval: 5, Link hello hold time: 15 Targeted hello interval: 15, Targeted hello hold time: 45 Label withdraw delay: 60, Make before break timeout: 30 Make before break switchover delay: 3 Link protection timeout: 120 Graceful restart: Restart: enabled, Helper: enabled, Restart in process: false Reconnect time: 60000, Max neighbor reconnect time: 120000 Recovery time: 160000, Max neighbor recovery time: 240000 Traffic Engineering: Bgp igp: disabled Both ribs: disabled Mpls forwarding: disabled IGP: Tracking igp metric: disabled Sync session up delay: 10 Session protection: Session protection: disabled Session protection timeout: 0 Interface addresses advertising: 10.1.1.1 10.100.2.1 10.101.2.1 10.1.1.4 10.1.1.6 10.53.85.142 2001:db8:1000:1:2::1 2001:db8:1001:1:2::1 2001:db8:1111::1 2001:db8:abcd::128:53:85:142 fe80:1:2::1 fe80:1001:1002::1 LDP Job: Read job time quantum: 1000, Write job time quantum: 1000 Read job loop quantum: 100, Write job loop quantum: 100 Backup inbound read job time quantum: 1000, Backup outbound read job time quantum: 1000 Backup inbound read job loop quantum: 100, Backup outbound read job loop quantum: 100 Label allocation: Current number of LDP labels allocated: 4 Total number of LDP labels allocated: 7 Total number of LDP labels freed: 3 Total number of LDP label allocation failure: 0 Current number of labels allocated by all protocols: 4