Auf dieser Seite
Konfigurieren der Verzögerung, bevor LDP-Nachbarn berücksichtigt werden
Beispiel: Konfigurieren der längsten Übereinstimmung für LDP
Für zielgerichtete LDP-Sitzung verwendete Übertragungsadresse
Konfigurieren der in LDP aus der Routing-Tabelle angekündigten Präfixe
Konfigurieren einer Fehleraktion für die BFD-Sitzung auf einem LDP-LSP
Konfigurieren einer nur multicastbasierten schnellen Umleitung
Beispiel: Konfigurieren von Multicast-only Fast Reroute in einer Multipoint-LDP-Domäne
Beispiel: Konfiguration von Multipoint-LDP-In-Band-Signalisierung für Point-to-Multipoint-LSPs
Zuordnung von Client und Server für Segment-Routing auf LDP-Interoperabilität
LDP-Konfiguration
Minimale LDP-Konfiguration
So aktivieren Sie LDP mit minimaler Konfiguration:
Aktivieren Sie alle relevanten Schnittstellen unter der MPLS-Familie. Im Fall von gerichteten LDP muss die Loopback-Schnittstelle mit der Familie MPLS aktiviert werden.
(Optional) Konfigurieren Sie die relevanten Schnittstellen unter der
[edit protocol mpls]
Hierarchieebene.Aktivieren Sie LDP auf einer einzigen Schnittstelle, schließen Sie die
ldp
Anweisung ein und geben Sie die Schnittstelle mithilfe derinterface
Anweisung an.
Dies ist die minimale LDP-Konfiguration. Alle anderen LDP-Konfigurationsanweisungen sind optional.
ldp { interface interface-name; }
Um LDP auf allen Schnittstellen zu aktivieren, geben Sie all
für interface-name
.
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisungen einschließen können, finden Sie in den Abschnitten zur Anweisungszusammenfassung.
Aktivieren und Deaktivieren von LDP
LDP ist Routing-Instanz-aware. Um LDP auf einer bestimmten Schnittstelle zu aktivieren, fügen Sie die folgenden Anweisungen ein:
ldp { interface interface-name; }
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisungen einschließen können, finden Sie in den Abschnitten zur Anweisungszusammenfassung.
Um LDP auf allen Schnittstellen zu aktivieren, geben Sie all
für interface-name
.
Wenn Sie Schnittstelleneigenschaften für eine Gruppe von Schnittstellen konfiguriert haben und LDP auf einer der Schnittstellen deaktivieren möchten, fügen Sie die interface
Anweisung mit der Folgenden Option ein disable
:
interface interface-name { disable; }
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt Zusammenfassung der Anweisung.
Konfigurieren des LDP-Timers für Hallo-Nachrichten
LDP-Hallo-Meldungen ermöglichen es LDP-Knoten, sich gegenseitig zu erkennen und den Ausfall eines Nachbarn oder der Verbindung zum Nachbarn zu erkennen. Hallo Nachrichten werden regelmäßig auf allen Schnittstellen gesendet, auf denen LDP aktiviert ist.
Es gibt zwei Arten von LDP Hallo Nachrichten:
Hallo-Verbindungen: Wird über die LDP-Schnittstelle als UDP-Pakete gesendet, die an den LDP-Erkennungsport adressiert sind. Der Erhalt eines LDP-Links Hallo-Nachricht auf einer Schnittstelle identifiziert eine Verbindung mit dem LDP-Peer-Router.
Gezielte Hallo-Nachrichten: Gesendet als UDP-Pakete, die an den LDP-Discovery-Port an einer bestimmten Adresse adressiert sind. Gezielte Hallo-Nachrichten werden verwendet, um LDP-Sitzungen zwischen Routern zu unterstützen, die nicht direkt verbunden sind. Ein zielorientierter Router bestimmt, ob eine gezielte Hallo-Nachricht reagiert oder ignoriert werden soll. Ein zielorientierter Router, der darauf reagiert, tut dies, indem er in regelmäßigen Abständen gezielte Hallo-Nachrichten zurück an den initialen Router sendet.
Standardmäßig sendet LDP alle 5 Sekunden Hallo-Nachrichten für Link Hello-Nachrichten und alle 15 Sekunden für gezielte Hallo-Nachrichten. Sie können den LDP-Timer konfigurieren, um zu ändern, wie oft beide Arten von Hallo-Nachrichten gesendet werden. Sie können jedoch keine Zeit für den LDP-Timer konfigurieren, der größer ist als die LDP-Haltezeit. Weitere Informationen finden Sie unter Konfigurieren der Verzögerung, bevor LDP-Nachbarn berücksichtigt werden.
- Konfigurieren des LDP-Timers für Link Hallo Nachrichten
- Konfigurieren des LDP-Timers für gezielte Hallo-Nachrichten
Konfigurieren des LDP-Timers für Link Hallo Nachrichten
Um zu ändern, wie oft LDP Link-Hallo-Nachrichten sendet, geben Sie mithilfe der Anweisung ein neues Link Hello Message-Intervall für den LDP-Timer hello-interval
an:
hello-interval seconds;
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Konfigurieren des LDP-Timers für gezielte Hallo-Nachrichten
Um zu ändern, wie oft LDP gezielte Hallo-Nachrichten sendet, geben Sie ein neues Zielintervall für die Hallo-Nachricht für den LDP-Timer an, indem Sie die hello-interval
Anweisung als Option für die targeted-hello
Anweisung konfigurieren:
targeted-hello { hello-interval seconds; }
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisungen einschließen können, finden Sie in den Abschnitten zur Anweisungszusammenfassung für diese Anweisungen.
Konfigurieren der Verzögerung, bevor LDP-Nachbarn berücksichtigt werden
Die Haltezeit bestimmt, wie lange ein LDP-Knoten auf eine Hallo-Nachricht warten sollte, bevor er einen Nachbarn zum Ausfall erklärt. Dieser Wert wird als Teil einer Hallo-Nachricht gesendet, sodass jeder LDP-Knoten seinen Nachbarn sagt, wie lange zu warten ist. Die von jedem Nachbarn gesendeten Werte müssen nicht übereinstimmen.
Die Haltezeit sollte normalerweise mindestens das Dreifache des Hallo-Intervalls sein. Die Standardeinstellung beträgt 15 Sekunden für "Link Hello"-Nachrichten und 45 Sekunden für gezielte Hallo-Nachrichten. Es ist jedoch möglich, eine LDP-Haltezeit zu konfigurieren, die nahe am Wert für das Hello-Intervall liegt.
Durch die Konfiguration einer LDP-Haltezeit nahe dem Hallo-Intervall (weniger als das Dreifache des Hallo-Intervalls) können LDP-Nachbarn-Fehler schneller erkannt werden. Dies erhöht jedoch auch die Möglichkeit, dass der Router einen LDP-Nachbarn deklariert, der noch normal funktioniert. Weitere Informationen finden Sie unter Konfigurieren des LDP-Timers für Hallo-Nachrichten.
Die LDP-Haltezeit wird auch automatisch zwischen LDP-Peers ausgehandelt. Wenn zwei LDP-Peers unterschiedliche LDP-Haltezeiten ankündigen, wird der kleinere Wert verwendet. Wenn ein LDP-Peer-Router eine kürzere Haltezeit als den von Ihnen konfigurierten Wert ankündigt, wird die angekündigte Haltezeit des Peer-Routers verwendet. Diese Aushandlung kann sich auch auf das LDP-Keepalive-Intervall auswirken.
Wenn die lokale LDP-Haltezeit während der LDP-Peer-Aushandlung nicht verkürzt wird, bleibt das vom Benutzer konfigurierte Keepalive-Intervall unverändert. Wenn jedoch die lokale Haltezeit während der Peer-Aushandlung verkürzt wird, wird das Keepalive-Intervall neu berechnet. Wenn die LDP-Haltezeit während der Peer-Aushandlung reduziert wurde, wird das Keepalive-Intervall auf ein Drittel des neuen Haltezeitwerts reduziert. Wenn der neue Haltezeitwert beispielsweise 45 Sekunden beträgt, wird das Keepalive-Intervall auf 15 Sekunden festgelegt.
Diese automatisierte Keepalive-Intervallberechnung kann dazu führen, dass auf jedem Peer-Router unterschiedliche Keepalive-Intervalle konfiguriert werden. Dadurch können die Router flexibel sein, wie oft sie Keepalive-Nachrichten senden, da die LDP-Peer-Aushandlung sicherstellt, dass sie häufiger gesendet werden als die LDP-Haltezeit.
Wenn Sie das Haltezeitintervall neu konfigurieren, werden Die Änderungen erst wirksam, nachdem die Sitzung zurückgesetzt wurde. Die Haltezeit wird ausgehandelt, wenn die LDP-Peering-Sitzung initiiert wird, und kann nicht neu verhandelt werden, solange die Sitzung abgelaufen ist (gemäß RFC 5036, LDP-Spezifikation erforderlich). Um das Zurücksetzen der LDP-Sitzung manuell zu erzwingen, erteilen Sie den clear ldp session
Befehl.
- Konfigurieren der LDP-Haltezeit für Link Hallo Nachrichten
- Konfigurieren der LDP-Haltezeit für gezielte Hallo-Nachrichten
Konfigurieren der LDP-Haltezeit für Link Hallo Nachrichten
Um zu ändern, wie lange ein LDP-Knoten auf eine Link hallo-Nachricht warten soll, bevor er den Nachbarn deklariert, geben Sie mithilfe der hold-time
Anweisung einen neuen Zeitpunkt in Sekunden an:
hold-time seconds;
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Konfigurieren der LDP-Haltezeit für gezielte Hallo-Nachrichten
Um zu ändern, wie lange ein LDP-Knoten vor dem Deklarieren des Nachbarn auf eine gezielte Hallo-Nachricht warten soll, geben Sie einen neuen Zeitpunkt in Sekunden an, indem Sie die hold-time
Anweisung als Option für die targeted-hello
Anweisung verwenden:
targeted-hello { hold-time seconds; }
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisungen einschließen können, finden Sie in den Abschnitten zur Anweisungszusammenfassung für diese Anweisungen.
Ermöglichung strenger gezielter Hallo-Nachrichten für LDP
Verwenden Sie strenge gezielte Hallo-Meldungen, um zu verhindern, dass LDP-Sitzungen mit Remote-Nachbarn eingerichtet werden, die nicht speziell konfiguriert wurden. Wenn Sie die strict-targeted-hellos
Anweisung konfigurieren, reagiert ein LDP-Peer nicht auf gezielte Hallo-Nachrichten, die von einer Quelle stammen, die nicht zu ihren konfigurierten Remote-Nachbarn gehört. Konfigurierte Remote-Nachbarn können folgendes umfassen:
Endgeräte von RSVP-Tunneln, für die LDP-Tunneling konfiguriert ist
Layer-2-Circuit Neighbors
Wenn ein nicht konfigurierter Nachbar eine Hallo-Nachricht sendet, ignoriert der LDP-Peer die Nachricht und protokolliert (mit dem Trace-Flag) einen Fehler, der error
die Quelle anzeigt. Wenn beispielsweise der LDP-Peer ein gezieltes Hallo von der Internetadresse 10.0.0.1 erhalten hat und kein Nachbar mit dieser Adresse speziell konfiguriert ist, wird die folgende Meldung in die LDP-Protokolldatei gedruckt:
LDP: Ignoring targeted hello from 10.0.0.1
Um strikte gezielte Hallo-Nachrichten zu ermöglichen, fügen Sie die Anweisung ein strict-targeted-hellos
:
strict-targeted-hellos;
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Konfigurieren des Intervalls für LDP-Keepalive-Nachrichten
Das Keepalive-Intervall bestimmt, wie oft eine Nachricht über die Sitzung gesendet wird, um sicherzustellen, dass der keepalive Timeout nicht überschritten wird. Wenn in so viel Zeit kein anderer LDP-Datenverkehr über die Sitzung gesendet wird, wird eine Keepalive-Nachricht gesendet. Der Standard ist 10 Sekunden. Der Mindestwert ist 1 Sekunde.
Der für das Keepalive-Intervall konfigurierte Wert kann während der LDP-Sitzungsverhandlungen geändert werden, wenn der für die LDP-Haltezeit auf dem Peer-Router konfigurierte Wert niedriger ist als der lokal konfigurierte Wert. Weitere Informationen finden Sie unter Konfigurieren der Verzögerung, bevor LDP-Nachbarn berücksichtigt werden.
Um das Keepalive-Intervall zu ändern, fügen Sie die Anweisung ein keepalive-interval
:
keepalive-interval seconds;
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Konfigurieren des LDP Keepalive Timeouts
Nachdem eine LDP-Sitzung eingerichtet wurde, müssen regelmäßig Nachrichten ausgetauscht werden, um sicherzustellen, dass die Sitzung noch funktioniert. Der Keepalive Timeout definiert die Zeitdauer, die der benachbarte LDP-Knoten wartet, bevor er entscheidet, dass die Sitzung fehlgeschlagen ist. Dieser Wert wird normalerweise auf das Dreifache des Keepalive-Intervalls festgelegt. Die Standardeinstellung ist 30 Sekunden.
Um das Keepalive-Intervall zu ändern, fügen Sie die Anweisung ein keepalive-timeout
:
keepalive-timeout seconds;
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Der für die keepalive-timeout
Anweisung konfigurierte Wert wird bei der Ausgabe des show ldp session detail
Befehls als Haltezeit angezeigt.
Konfigurieren der längsten Übereinstimmung für LDP
Damit LDP lernen kann, welche Routen über OSPF-Bereiche oder ISIS-Ebenen in domänenübergreifenden Bereichen aggregiert oder zusammengefasst wurden, können Sie mit Junos OS basierend auf RFC5283 die längste Übereinstimmung für LDP konfigurieren.
Bevor Sie die längste Übereinstimmung für LDP konfigurieren, müssen Sie folgendes tun:
Konfigurieren Sie die Geräteschnittstellen.
Konfigurieren Sie das MPLS-Protokoll.
Konfigurieren Sie das OSPF-Protokoll.
Um die längste Übereinstimmung für LDP zu konfigurieren, müssen Sie die folgenden Schritte ausführen:
Beispiel: Konfigurieren der längsten Übereinstimmung für LDP
Dieses Beispiel zeigt, wie Sie die längste Übereinstimmung für LDP basierend auf RFC5283 konfigurieren. Auf diese Weise kann LDP lernen, welche Routen über OSPF-Bereiche oder ISIS-Ebenen in inter-Domain aggregiert oder zusammengefasst werden. Die Richtlinie für die längste Übereinstimmung bietet granulare Präfixe.
Anforderungen
In diesem Beispiel werden die folgenden Hardware- und Softwarekomponenten verwendet:
Sechs Router der MX-Serie mit OSPF-Protokoll und aktivierter LDP an den angeschlossenen Schnittstellen.
Junos OS Version 16.1 oder höher, die auf allen Geräten ausgeführt wird.
Bevor Sie beginnen:
Konfigurieren Sie die Geräteschnittstellen.
Konfigurieren Sie OSPF.
Überblick
LDP wird häufig verwendet, um MPLS Label-Switched Paths (LSPs) in einer gesamten Netzwerkdomäne unter Verwendung einer IGP wie OSPF oder IS-IS einzurichten. In einem solchen Netzwerk haben alle Links in der Domain IGP-Verbindungen sowie LDP-Verbindungen. LDP ermittelt die LSPs auf dem kürzesten Pfad zu einem Ziel, der durch IP-Weiterleitung ermittelt wird. In Junos OS sucht die LDP-Implementierung genau nach der IP-Adresse des FEC in den RIB- oder IGP-Routen für die Labelzuordnung. Für diese genaue Zuordnung müssen die END-to-End-LDP-Endpunkt-IP-Adressen von MPLS in allen LERs konfiguriert werden. Dadurch wird der Zweck des hierarchischen IP-Designs oder des Standard-Routings in Zugriffsgeräten verloren. Die Konfiguration longest-match
hilft, dies zu überwinden, indem das genaue Übereinstimmungsverhalten unterdrückt wird und LSP basierend auf der längsten Übereinstimmungsroute pro Präfix eingerichtet wird.
Topologie
In der Topologie zeigt, Abbildung 1dass die längste Übereinstimmung für LDP auf Gerät R0 konfiguriert wurde.

Konfiguration
CLI-Schnellkonfiguration
Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen sie in eine Textdatei ein, entfernen alle Zeilenumbrüche, ändern alle erforderlichen Details, um mit Ihrer Netzwerkkonfiguration zu übereinstimmen, kopieren Sie die Befehle, fügen Sie sie auf Hierarchieebene in die [edit] CLI ein, und geben Sie dann aus dem Konfigurationsmodus ein commit
.
R0
set interfaces ge-0/0/0 unit 0 family inet address 22.22.22.1/24 set interfaces ge-0/0/1 unit 0 family inet address 15.15.15.1/24 set interfaces ge-0/0/2 unit 0 family inet address 11.11.11.1/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.112.1/32 primary set interfaces lo0 unit 0 family inet address 10.255.112.1/32 preferred set interfaces lo0 unit 0 family iso address 49.0002.0192.0168.0001.00 set routing-options router-id 10.255.112.1 set protocols mpls interface ge-0/0/2.0 set protocols ospf area 0.0.0.1 interface ge-0/0/2.0 set protocols ospf area 0.0.0.1 interface lo0.0 passive set protocols ldp longest-match set protocols ldp interface ge-0/0/2.0 set protocols ldp interface lo0.0
R1
set interfaces ge-0/0/0 unit 0 family inet address 11.11.11.2/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 12.12.12.1/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.112.2/32 primary set interfaces lo0 unit 0 family inet address 10.255.112.2/32 preferred set interfaces lo0 unit 0 family iso address 49.0002.0192.0168.0002.00 set routing-options router-id 10.255.112.2 set protocols mpls interface ge-0/0/0.0 set protocols mpls interface ge-0/0/1.0 set protocols ospf area 0.0.0.0 interface ge-0/0/1.0 set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ospf area 0.0.0.1 interface ge-0/0/0.0 set protocols ldp longest-match set protocols ldp interface ge-0/0/0.0 set protocols ldp interface ge-0/0/1.0 set protocols ldp interface lo0.0
R2
set interfaces ge-0/0/0 unit 0 family inet address 24.24.24.1/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 12.12.12.2/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 23.23.23.1/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces ge-0/0/3 unit 0 family inet address 22.22.22.2/24 set interfaces ge-0/0/4 unit 0 family inet address 25.25.25.1/24 set interfaces ge-0/0/4 unit 0 family iso set interfaces ge-0/0/4 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.4/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.4/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0003.00 set routing-options router-id 10.255.111.4 set protocols mpls interface ge-0/0/1.0 set protocols mpls interface ge-0/0/2.0 set protocols mpls interface ge-0/0/0.0 set protocols mpls interface ge-0/0/4.0 set protocols ospf area 0.0.0.0 interface ge-0/0/1.0 set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ospf area 0.0.0.2 area-range 10.255.111.0/24 set protocols ospf area 0.0.0.2 interface ge-0/0/2.0 set protocols ospf area 0.0.0.2 interface ge-0/0/0.0 set protocols ospf area 0.0.0.2 interface ge-0/0/4.0 set protocols ldp interface ge-0/0/0.0 set protocols ldp interface ge-0/0/1.0 set protocols ldp interface ge-0/0/2.0 set protocols ldp interface ge-0/0/4.0 set protocols ldp interface lo0.0
R3
set interfaces ge-0/0/0 unit 0 family inet address 35.35.35.1/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 23.23.23.2/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 34.34.34.1/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.1/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.1/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0004.00 set routing-options router-id 10.255.111.1 set protocols mpls interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface fxp0.0 disable set protocols ospf area 0.0.0.2 interface lo0.0 passive set protocols ldp interface ge-0/0/1.0 set protocols ldp interface lo0.0
R4
set interfaces ge-0/0/0 unit 0 family inet address 45.45.45.1/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 24.24.24.2/24 set interfaces ge-0/0/1 unit 0 family iso set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 34.34.34.2/24 set interfaces ge-0/0/2 unit 0 family iso set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.2/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.2/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0005.00 set routing-options router-id 10.255.111.2 set protocols mpls interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface ge-0/0/1.0 set protocols ospf area 0.0.0.2 interface fxp0.0 disable set protocols ospf area 0.0.0.2 interface lo0.0 passive set protocols ldp interface ge-0/0/1.0 set protocols ldp interface lo0.0
R5
set interfaces ge-0/0/0 unit 0 family inet address 25.25.25.2/24 set interfaces ge-0/0/0 unit 0 family iso set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 15.15.15.2/24 set interfaces ge-0/0/2 unit 0 family inet address 35.35.35.2/24 set interfaces ge-0/0/3 unit 0 family inet address 45.45.45.2/24 set interfaces ge-0/0/3 unit 0 family iso set interfaces ge-0/0/3 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.111.3/32 primary set interfaces lo0 unit 0 family inet address 10.255.111.3/32 preferred set interfaces lo0 unit 0 family iso address 49.0003.0192.0168.0006.00 set routing-options router-id 10.255.111.3 set protocols mpls interface ge-0/0/0.0 set protocols ospf area 0.0.0.2 interface ge-0/0/0.0 set protocols ospf area 0.0.0.2 interface fxp0.0 disable set protocols ospf area 0.0.0.2 interface lo0.0 passive set protocols ldp interface ge-0/0/0.0 set protocols ldp interface lo0.0
Konfigurieren von Gerät R0
Schritt-für-Schritt-Verfahren
Im folgenden Beispiel müssen Sie auf verschiedenen Ebenen in der Konfigurationshierarchie navigieren. Informationen zum Navigieren in der CLI finden Sie unter Verwenden des CLI-Editors im Konfigurationsmodus im CLI-Benutzerhandbuch.
So konfigurieren Sie Gerät R0:
Konfigurieren Sie die Schnittstellen.
[edit interfaces] set ge-0/0/0 unit 0 family inet address 22.22.22.1/24 set ge-0/0/1 unit 0 family inet address 15.15.15.1/24 set ge-0/0/2 unit 0 family inet address 11.11.11.1/24 set ge-0/0/2 unit 0 family iso set ge-0/0/2 unit 0 family mpls
Weisen Sie dem Gerät die Loopback-Adressen zu.
[edit interfaces lo0 unit 0 family] set inet address 10.255.112.1/32 primary set inet address 10.255.112.1/32 preferred set iso address 49.0002.0192.0168.0001.00
Konfigurieren Sie die Router-ID.
[edit routing-options] set router-id 10.255.112.1
Konfigurieren Sie das MPLS-Protokoll auf der Schnittstelle.
[edit protocols mpls] set interface ge-0/0/2.0
Konfigurieren Sie das OSPF-Protokoll auf der Schnittstelle.
[edit protocols ospf] set area 0.0.0.1 interface ge-0/0/2.0 set area 0.0.0.1 interface lo0.0 passive
Konfigurieren Sie die längste Übereinstimmung für das LDP-Protokoll.
[edit protocols ldp] set longest-match
Konfigurieren Sie das LDP-Protokoll auf der Schnittstelle.
[edit protocols ldp] set interface ge-0/0/2.0 set interface lo0.0
Ergebnisse
Bestätigen Sie ihre Konfiguration im Konfigurationsmodus, indem Sie die show interfacesBefehle und show routing-optionsshow protocolsdie Befehle eingeben. Wenn die gewünschte Konfiguration in der Ausgabe nicht angezeigt wird, wiederholen Sie die Anweisungen in diesem Beispiel, um die Konfiguration zu korrigieren.
user@R0# show interfaces ge-0/0/0 { unit 0 { family inet { address 22.22.22.1/24; } } } ge-0/0/1 { unit 0 { family inet { address 15.15.15.1/24; } } } ge-0/0/2 { unit 0 { family inet { address 11.11.11.1/24; } family iso; family mpls; } } lo0 { unit 0 { family inet { address 10.255.112.1/32 { primary; preferred; } } family iso { address 49.0002.0192.0168.0001.00; } } }
user@R0# show protocols mpls { interface ge-0/0/2.0; } ospf { area 0.0.0.1 { interface ge-0/0/2.0; interface lo0.0 { passive; } } } ldp { longest-match; interface ge-0/0/2.0; interface lo0.0; }
user@R0# show routing-options router-id 10.255.112.1;
Wenn Sie mit der Konfiguration des Geräts fertig sind, geben Sie im Konfigurationsmodus ein commit
.
Überprüfung
Bestätigen Sie, dass die Konfiguration ordnungsgemäß funktioniert.
- Verifizieren der Routen
- LDP überprüfen – Übersichtsinformationen
- Überprüfen der LDP-Einträge in der Tabelle "Interne Topologie"
- Nur FEC-Informationen der LDP-Route überprüfen
- FEC- und Shadow-Routen von LDP überprüfen
Verifizieren der Routen
Zweck
Stellen Sie sicher, dass die erwarteten Routen gelernt wurden.
Aktion
Führen Sie auf Gerät R0 im Betriebsmodus den show route
Befehl aus, um die Routen in der Routing-Tabelle anzuzeigen.
user@R0> show route
inet.0: 62 destinations, 62 routes (62 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
10.4.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.5.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.6.128.0/17 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.9.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.10.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.13.4.0/23 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.13.10.0/23 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.82.0.0/15 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.84.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.85.12.0/22 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.92.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.92.16.0/20 *[Direct/0] 10:08:01
> via fxp0.0
10.92.20.175/32 *[Local/0] 10:08:01
Local via fxp0.0
10.94.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.99.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.102.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.150.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.155.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.157.64.0/19 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.160.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.204.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.205.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.206.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.207.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.209.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.212.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.213.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.214.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.215.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.216.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.13.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.14.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.16.0/20 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.218.32.0/20 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.227.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
10.255.111.0/24 *[OSPF/10] 09:52:14, metric 3
> to 11.11.11.2 via ge-0/0/2.0
10.255.111.4/32 *[OSPF/10] 09:54:10, metric 2
> to 11.11.11.2 via ge-0/0/2.0
10.255.112.1/32 *[Direct/0] 09:55:05
> via lo0.0
10.255.112.2/32 *[OSPF/10] 09:54:18, metric 1
> to 11.11.11.2 via ge-0/0/2.0
11.11.11.0/24 *[Direct/0] 09:55:05
> via ge-0/0/2.0
11.11.11.1/32 *[Local/0] 09:55:05
Local via ge-0/0/2.0
12.12.12.0/24 *[OSPF/10] 09:54:18, metric 2
> to 11.11.11.2 via ge-0/0/2.0
15.15.15.0/24 *[Direct/0] 09:55:05
> via ge-0/0/1.0
15.15.15.1/32 *[Local/0] 09:55:05
Local via ge-0/0/1.0
22.22.22.0/24 *[Direct/0] 09:55:05
> via ge-0/0/0.0
22.22.22.1/32 *[Local/0] 09:55:05
Local via ge-0/0/0.0
23.23.23.0/24 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
24.24.24.0/24 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
25.25.25.0/24 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.17.45/32 *[OSPF/10] 09:54:05, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.20.175/32 *[Direct/0] 10:08:01
> via lo0.0
128.92.21.186/32 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.25.135/32 *[OSPF/10] 09:54:10, metric 3
> to 11.11.11.2 via ge-0/0/2.0
128.92.27.91/32 *[OSPF/10] 09:54:18, metric 1
> to 11.11.11.2 via ge-0/0/2.0
128.92.28.70/32 *[OSPF/10] 09:54:10, metric 2
> to 11.11.11.2 via ge-0/0/2.0
172.16.0.0/12 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
192.168.0.0/16 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
192.168.102.0/23 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
207.17.136.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
207.17.136.192/32 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
207.17.137.0/24 *[Static/5] 10:08:01
> to 10.92.31.254 via fxp0.0
224.0.0.5/32 *[OSPF/10] 09:55:05, metric 1
MultiRecv
inet.3: 5 destinations, 5 routes (5 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
10.255.111.1/32 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Push 300128
10.255.111.2/32 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Push 300144
10.255.111.3/32 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Push 300160
10.255.111.4/32 *[LDP/9] 09:54:10, metric 2, tag 0
> to 11.11.11.2 via ge-0/0/2.0, Push 300000
10.255.112.2/32 *[LDP/9] 09:54:48, metric 1, tag 0
> to 11.11.11.2 via ge-0/0/2.0
iso.0: 2 destinations, 2 routes (2 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
47.0005.80ff.f800.0000.0108.0001.1280.9202.0175/152
*[Direct/0] 10:08:01
> via lo0.0
49.0002.0192.0168.0001/72
*[Direct/0] 09:55:05
> via lo0.0
mpls.0: 10 destinations, 10 routes (10 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
0 *[MPLS/0] 09:55:05, metric 1
Receive
1 *[MPLS/0] 09:55:05, metric 1
Receive
2 *[MPLS/0] 09:55:05, metric 1
Receive
13 *[MPLS/0] 09:55:05, metric 1
Receive
300064 *[LDP/9] 09:54:48, metric 1
> to 11.11.11.2 via ge-0/0/2.0, Pop
300064(S=0) *[LDP/9] 09:54:48, metric 1
> to 11.11.11.2 via ge-0/0/2.0, Pop
300112 *[LDP/9] 09:54:10, metric 2, tag 0
> to 11.11.11.2 via ge-0/0/2.0, Swap 300000
300192 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Swap 300128
300208 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Swap 300144
300224 *[LDP/9] 09:41:03, metric 3
> to 11.11.11.2 via ge-0/0/2.0, Swap 300160
inet6.0: 2 destinations, 2 routes (2 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
abcd::128:92:20:175/128
*[Direct/0] 10:08:01
> via lo0.0
fe80::5668:a50f:fcc1:1f9c/128
*[Direct/0] 10:08:01
> via lo0.0
Bedeutung
Die Ausgabe zeigt alle Routen in der Routing-Tabelle von Gerät R0.
LDP überprüfen – Übersichtsinformationen
Zweck
LDP-Übersichtsinformationen anzeigen.
Aktion
Führen Sie auf Gerät R0 aus dem Betriebsmodus den show ldp overview
Befehl aus, um die Übersicht der LDP anzuzeigen.
user@R0> show ldp overview
Instance: master
Reference count: 2
Router ID: 10.255.112.1
Message id: 8
Configuration sequence: 6
Deaggregate: disabled
Explicit null: disabled
IPv6 tunneling: disabled
Strict targeted hellos: disabled
Loopback if added: yes
Route preference: 9
Unicast transit LSP chaining: disabled
P2MP transit LSP chaining: disabled
Transit LSP statistics based on route statistics: disabled
LDP route acknowledgement: enabled
LDP mtu discovery: disabled
Longest Match: enabled
Capabilities enabled: none
Egress FEC capabilities enabled: entropy-label-capability
Downstream unsolicited Sessions:
Operational: 1
Retention: liberal
Control: ordered
Auto targeted sessions:
Auto targeted: disabled
Timers:
Keepalive interval: 10, Keepalive timeout: 30
Link hello interval: 5, Link hello hold time: 15
Targeted hello interval: 15, Targeted hello hold time: 45
Label withdraw delay: 60, Make before break timeout: 30
Make before break switchover delay: 3
Link protection timeout: 120
Graceful restart:
Restart: disabled, Helper: enabled, Restart in process: false
Reconnect time: 60000, Max neighbor reconnect time: 120000
Recovery time: 160000, Max neighbor recovery time: 240000
Traffic Engineering:
Bgp igp: disabled
Both ribs: disabled
Mpls forwarding: disabled
IGP:
Tracking igp metric: disabled
Sync session up delay: 10
Session protection:
Session protection: disabled
Session protection timeout: 0
Interface addresses advertising:
11.11.11.1
10.255.112.1
128.92.20.175
Label allocation:
Current number of LDP labels allocated: 5
Total number of LDP labels allocated: 11
Total number of LDP labels freed: 6
Total number of LDP label allocation failure: 0
Current number of labels allocated by all protocols: 5
Bedeutung
Die Ausgabe zeigt die LDP-Übersichtsinformationen des Geräts R0 an
Überprüfen der LDP-Einträge in der Tabelle "Interne Topologie"
Zweck
Zeigen Sie die Routeneinträge in der internen Topologietabelle des Label Distribution Protocol (LDP) an.
Aktion
Führen Sie auf Gerät R0 im Betriebsmodus den show ldp route
Befehl aus, um die interne Topologietabelle der LDP anzuzeigen.
user@R0> show ldp route
Destination Next-hop intf/lsp/table Next-hop address
10.4.0.0/16 fxp0.0 10.92.31.254
10.5.0.0/16 fxp0.0 10.92.31.254
10.6.128.0/17 fxp0.0 10.92.31.254
10.9.0.0/16 fxp0.0 10.92.31.254
10.10.0.0/16 fxp0.0 10.92.31.254
10.13.4.0/23 fxp0.0 10.92.31.254
10.13.10.0/23 fxp0.0 10.92.31.254
10.82.0.0/15 fxp0.0 10.92.31.254
10.84.0.0/16 fxp0.0 10.92.31.254
10.85.12.0/22 fxp0.0 10.92.31.254
10.92.0.0/16 fxp0.0 10.92.31.254
10.92.16.0/20 fxp0.0
10.92.20.175/32
10.94.0.0/16 fxp0.0 10.92.31.254
10.99.0.0/16 fxp0.0 10.92.31.254
10.102.0.0/16 fxp0.0 10.92.31.254
10.150.0.0/16 fxp0.0 10.92.31.254
10.155.0.0/16 fxp0.0 10.92.31.254
10.157.64.0/19 fxp0.0 10.92.31.254
10.160.0.0/16 fxp0.0 10.92.31.254
10.204.0.0/16 fxp0.0 10.92.31.254
10.205.0.0/16 fxp0.0 10.92.31.254
10.206.0.0/16 fxp0.0 10.92.31.254
10.207.0.0/16 fxp0.0 10.92.31.254
10.209.0.0/16 fxp0.0 10.92.31.254
10.212.0.0/16 fxp0.0 10.92.31.254
10.213.0.0/16 fxp0.0 10.92.31.254
10.214.0.0/16 fxp0.0 10.92.31.254
10.215.0.0/16 fxp0.0 10.92.31.254
10.216.0.0/16 fxp0.0 10.92.31.254
10.218.13.0/24 fxp0.0 10.92.31.254
10.218.14.0/24 fxp0.0 10.92.31.254
10.218.16.0/20 fxp0.0 10.92.31.254
10.218.32.0/20 fxp0.0 10.92.31.254
10.227.0.0/16 fxp0.0 10.92.31.254
10.255.111.0/24 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.112.1/32 lo0.0
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
11.11.11.0/24 ge-0/0/2.0
11.11.11.1/32
12.12.12.0/24 ge-0/0/2.0 11.11.11.2
15.15.15.0/24 ge-0/0/1.0
15.15.15.1/32
22.22.22.0/24 ge-0/0/0.0
22.22.22.1/32
23.23.23.0/24 ge-0/0/2.0 11.11.11.2
24.24.24.0/24 ge-0/0/2.0 11.11.11.2
25.25.25.0/24 ge-0/0/2.0 11.11.11.2
128.92.17.45/32 ge-0/0/2.0 11.11.11.2
128.92.20.175/32 lo0.0
128.92.21.186/32 ge-0/0/2.0 11.11.11.2
128.92.25.135/32 ge-0/0/2.0 11.11.11.2
128.92.27.91/32 ge-0/0/2.0 11.11.11.2
128.92.28.70/32 ge-0/0/2.0 11.11.11.2
172.16.0.0/12 fxp0.0 10.92.31.254
192.168.0.0/16 fxp0.0 10.92.31.254
192.168.102.0/23 fxp0.0 10.92.31.254
207.17.136.0/24 fxp0.0 10.92.31.254
207.17.136.192/32 fxp0.0 10.92.31.254
207.17.137.0/24 fxp0.0 10.92.31.254
224.0.0.5/32
Bedeutung
Die Ausgabe zeigt die Routeneinträge in der internen Topologietabelle des Label Distribution Protocol (LDP) des Geräts R0 an.
Nur FEC-Informationen der LDP-Route überprüfen
Zweck
Zeigen Sie nur die FEC-Informationen der LDP-Route an.
Aktion
Führen Sie auf Gerät R0 im Betriebsmodus den show ldp route fec-only
Befehl aus, um die Routen in der Routing-Tabelle anzuzeigen.
user@R0> show ldp route fec-only
Destination Next-hop intf/lsp/table Next-hop address
10.255.111.1/32 ge-0/0/2.0 11.11.11.2
10.255.111.2/32 ge-0/0/2.0 11.11.11.2
10.255.111.3/32 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.112.1/32 lo0.0
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
Bedeutung
Die Ausgabe zeigt nur die FEC-Routen des LDP-Protokolls an, die für Gerät R0 verfügbar sind.
FEC- und Shadow-Routen von LDP überprüfen
Zweck
Zeigen Sie den FEC und die Schattenrouten in der Routing-Tabelle an.
Aktion
Führen Sie auf Gerät R0 im Betriebsmodus den show ldp route fec-and-route
Befehl aus, um die FEC- und Shadow-Routen in der Routing-Tabelle anzuzeigen.
user@R0> show ldp route fec-and-route
Destination Next-hop intf/lsp/table Next-hop address
10.4.0.0/16 fxp0.0 10.92.31.254
10.5.0.0/16 fxp0.0 10.92.31.254
10.6.128.0/17 fxp0.0 10.92.31.254
10.9.0.0/16 fxp0.0 10.92.31.254
10.10.0.0/16 fxp0.0 10.92.31.254
10.13.4.0/23 fxp0.0 10.92.31.254
10.13.10.0/23 fxp0.0 10.92.31.254
10.82.0.0/15 fxp0.0 10.92.31.254
10.84.0.0/16 fxp0.0 10.92.31.254
10.85.12.0/22 fxp0.0 10.92.31.254
10.92.0.0/16 fxp0.0 10.92.31.254
10.92.16.0/20 fxp0.0
10.92.20.175/32
10.94.0.0/16 fxp0.0 10.92.31.254
10.99.0.0/16 fxp0.0 10.92.31.254
10.102.0.0/16 fxp0.0 10.92.31.254
10.150.0.0/16 fxp0.0 10.92.31.254
10.155.0.0/16 fxp0.0 10.92.31.254
10.157.64.0/19 fxp0.0 10.92.31.254
10.160.0.0/16 fxp0.0 10.92.31.254
10.204.0.0/16 fxp0.0 10.92.31.254
10.205.0.0/16 fxp0.0 10.92.31.254
10.206.0.0/16 fxp0.0 10.92.31.254
10.207.0.0/16 fxp0.0 10.92.31.254
10.209.0.0/16 fxp0.0 10.92.31.254
10.212.0.0/16 fxp0.0 10.92.31.254
10.213.0.0/16 fxp0.0 10.92.31.254
10.214.0.0/16 fxp0.0 10.92.31.254
10.215.0.0/16 fxp0.0 10.92.31.254
10.216.0.0/16 fxp0.0 10.92.31.254
10.218.13.0/24 fxp0.0 10.92.31.254
10.218.14.0/24 fxp0.0 10.92.31.254
10.218.16.0/20 fxp0.0 10.92.31.254
10.218.32.0/20 fxp0.0 10.92.31.254
10.227.0.0/16 fxp0.0 10.92.31.254
10.255.111.0/24 ge-0/0/2.0 11.11.11.2
10.255.111.1/32 ge-0/0/2.0 11.11.11.2
10.255.111.2/32 ge-0/0/2.0 11.11.11.2
10.255.111.3/32 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.111.4/32 ge-0/0/2.0 11.11.11.2
10.255.112.1/32 lo0.0
10.255.112.1/32 lo0.0
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
10.255.112.2/32 ge-0/0/2.0 11.11.11.2
11.11.11.0/24 ge-0/0/2.0
11.11.11.1/32
12.12.12.0/24 ge-0/0/2.0 11.11.11.2
15.15.15.0/24 ge-0/0/1.0
15.15.15.1/32
22.22.22.0/24 ge-0/0/0.0
22.22.22.1/32
23.23.23.0/24 ge-0/0/2.0 11.11.11.2
24.24.24.0/24 ge-0/0/2.0 11.11.11.2
25.25.25.0/24 ge-0/0/2.0 11.11.11.2
128.92.17.45/32 ge-0/0/2.0 11.11.11.2
128.92.20.175/32 lo0.0
128.92.21.186/32 ge-0/0/2.0 11.11.11.2
128.92.25.135/32 ge-0/0/2.0 11.11.11.2
128.92.27.91/32 ge-0/0/2.0 11.11.11.2
128.92.28.70/32 ge-0/0/2.0 11.11.11.2
172.16.0.0/12 fxp0.0 10.92.31.254
192.168.0.0/16 fxp0.0 10.92.31.254
192.168.102.0/23 fxp0.0 10.92.31.254
207.17.136.0/24 fxp0.0 10.92.31.254
207.17.136.192/32 fxp0.0 10.92.31.254
207.17.137.0/24 fxp0.0 10.92.31.254
224.0.0.5/32
Bedeutung
Die Ausgabe zeigt den FEC und die Schattenrouten des Geräts R0 an.
Konfigurieren von LDP-Routeneinstellungen
Wenn mehrere Protokolle Routen zum selben Ziel berechnen, werden Routenvoreinstellungen verwendet, um auszuwählen, welche Route in der Weiterleitungstabelle installiert ist. Die Route mit dem niedrigsten Vorzugswert wird ausgewählt. Der Voreinstellungswert kann eine Zahl im Bereich 0 bis 255 sein. Standardmäßig haben LDP-Routen den Vorzugswert 9.
Um die Routeneinstellungen zu ändern, fügen Sie die Anweisung ein preference
:
preference preference;
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
LDP Graceful Restart
LDP Graceful Restart ermöglicht es einem Router, dessen LDP-Steuerungsebene einen Neustart durchläuft, den Datenverkehr weiterzuleiten und gleichzeitig seinen Zustand von benachbarten Routern wiederherzustellen. Außerdem ermöglicht es einem Router, auf dem der Hilfsmodus aktiviert ist, einen benachbarten Router zu unterstützen, der versucht, LDP neu zu starten.
Während der Sitzungsinitialisierung kündigt ein Router an, dass er LDP graceful Restart durchführen kann oder die Vorteile eines Nachbarn, der LDP Graceful Restart ausführt, indem er den graceful Restart sendet TLV. Diese TLV enthält zwei Felder, die für LDP Graceful Restart relevant sind: die Zeit für die Erneute Verbindung und die Wiederherstellungszeit. Die Werte der Wiederverbindungs- und Wiederherstellungszeiten zeigen die graceful Restart-Funktionen an, die vom Router unterstützt werden.
Wenn ein Router feststellt, dass ein benachbarter Router neu gestartet wird, wartet er bis zum Ende der Wiederherstellungszeit, bevor er versucht, eine Verbindung herzustellen. Die Wiederherstellungszeit ist die Dauer, in der ein Router wartet, bis LDP ordnungsgemäß neu gestartet wird. Der Wiederherstellungszeitraum beginnt, wenn eine Initialisierungsnachricht gesendet oder empfangen wird. Dieser Zeitraum ist in der Regel auch die Dauer, in der ein benachbarter Router seine Informationen über den neustartenden Router speichert, sodass er weiterhin Datenverkehr weiterleiten kann.
Sie können LDP Graceful Restart sowohl in der Master-Instanz für das LDP-Protokoll als auch für eine bestimmte Routing-Instanz konfigurieren. Sie können den graceful Restart auf globaler Ebene für alle Protokolle, auf Protokollebene nur für LDP und auf einer bestimmten Routing-Instanz deaktivieren. LDP Graceful Restart ist standardmäßig deaktiviert, da auf globaler Ebene graceful Restart standardmäßig deaktiviert ist. Der Hilfsmodus (die Möglichkeit, einen benachbarten Router bei einem graceful Restart zu unterstützen) ist jedoch standardmäßig aktiviert.
Im Folgenden sind einige der Verhaltensweisen, die mit LDP Graceful Restart verbunden sind:
Ausgehende Label werden bei Neustarts nicht beibehalten. Neue ausgehende Label werden zugewiesen.
Wenn ein Router neu gestartet wird, werden keine Label-Map-Meldungen an Nachbarn gesendet, die einen graceful Restart unterstützen, bis sich der neustartende Router stabilisiert hat (Label-Map-Meldungen werden sofort an Nachbarn gesendet, die graceful Restart nicht unterstützen). Alle anderen Nachrichten (Keepalive, Adressnachricht, Benachrichtigung und Freigabe) werden jedoch wie gewohnt versendet. Die Verteilung dieser anderen Nachrichten verhindert, dass der Router unvollständige Informationen weiterverteilt.
Hilfsmodus und graceful Restart sind unabhängig. Sie können den graceful Restart in der Konfiguration deaktivieren, aber dennoch zulassen, dass der Router mit einem Nachbarn zusammenarbeiten kann, der versucht, graceful neu zu starten.
Konfiguration von LDP Graceful Restart
Wenn Sie die Graceful-Restart-Konfiguration auf der [edit routing-options graceful-restart]
Hierarchie- oder [edit protocols ldp graceful-restart]
Hierarchieebene ändern, wird jede laufende LDP-Sitzung automatisch neu gestartet, um die Graceful-Restart-Konfiguration anzuwenden. Dieses Verhalten spiegelt das Verhalten von BGP wieder, wenn Sie die Graceful-Restart-Konfiguration ändern.
Standardmäßig ist der Graceful-Restart-Hilfsmodus aktiviert, aber graceful restart ist deaktiviert. Daher besteht das Standardverhalten eines Routers darin, benachbarte Router zu unterstützen, einen graceful-Neustart zu versuchen, nicht aber einen graceful Restart selbst zu versuchen.
Informationen zur Konfiguration von LDP Graceful Restart finden Sie in den folgenden Abschnitten:
- Aktivierung von Graceful Restart
- Deaktivieren des LDP Graceful Restart oder Hilfsmodus
- Konfigurieren der Zeit für die erneute Verbindung
- Konfigurieren der Wiederherstellungszeit und der maximalen Wiederherstellungszeit
Aktivierung von Graceful Restart
Um LDP Graceful Restart zu aktivieren, müssen Sie auch einen graceful-Neustart auf dem Router aktivieren. Um einen graceful-Neustart zu ermöglichen, fügen Sie die Anweisung ein graceful-restart
:
graceful-restart;
Sie können diese Anweisung auf den folgenden Hierarchieebenen einschließen:
[edit routing-options]
[edit logical-systems logical-system-name routing-options]
Router der ACX-Serie unterstützen keine [edit logical-systems logical-system-name routing-options
] Hierarchieebene.
Die graceful-restart
Anweisung ermöglicht einen graceful Restart für alle Protokolle, die diese Funktion auf dem Router unterstützen. Weitere Informationen zum graceful Restart finden Sie in der Junos OS Routing Protocol Library for Routing Devices.
Standardmäßig ist LDP Graceful Restart aktiviert, wenn Sie einen graceful Restart sowohl auf LDP-Protokollebene als auch auf allen Routing-Instanzen aktivieren. Sie können jedoch sowohl den LDP Graceful Restart als auch den LDP Graceful Restart Hilfsmodus deaktivieren.
Deaktivieren des LDP Graceful Restart oder Hilfsmodus
Um LDP graceful Restart and Recovery zu deaktivieren, fügen Sie die Anweisung ein disable
:
ldp { graceful-restart { disable; } }
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Sie können den Hilfsmodus nur auf LDP-Protokollebene deaktivieren. Sie können den Hilfsmodus für eine bestimmte Routing-Instanz nicht deaktivieren. Um den LDP-Hilfsmodus zu deaktivieren, fügen Sie die Anweisung ein helper-disable
:
ldp { graceful-restart { helper-disable; } }
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Folgende LDP-Graceful-Restart-Konfigurationen sind möglich:
LDP Graceful Restart und Hilfsmodus sind beide aktiviert.
LDP Graceful Restart ist deaktiviert, aber der Hilfsmodus ist aktiviert. Ein auf diese Weise konfigurierter Router kann nicht ordnungsgemäß neu gestartet werden, sondern kann einem neustartenden Nachbarn helfen.
LDP Graceful Restart und Hilfsmodus sind beide deaktiviert. Der Router verwendet nicht LDP Graceful Restart oder den graceful Restart Typ, Länge und Wert (TLV), der in der Initialisierungsnachricht gesendet wird. Der Router verhält sich wie ein Router, der LDP Graceful Restart nicht unterstützen kann.
Wenn Sie versuchen, einen graceful Restart zu aktivieren und den Hilfsmodus zu deaktivieren, wird ein Konfigurationsfehler ausgegeben.
Konfigurieren der Zeit für die erneute Verbindung
Nachdem die LDP-Verbindung zwischen Nachbarn fehlschlägt, warten Nachbarn eine gewisse Zeit darauf, dass der Router ordnungsgemäß neu gestartet wird, um wieder LDP-Nachrichten zu senden. Nach der Wartezeit kann die LDP-Sitzung erneut aufgebaut werden. Sie können die Wartezeit in Sekunden konfigurieren. Dieser Wert ist in der fehlertoleranten Sitzung enthalten TLV in LDP-Initialisierungsmeldungen gesendet, wenn LDP Graceful Restart aktiviert ist.
Nehmen wir an, Router A und Router B sind LDP-Nachbarn. Router A ist der neu gestartete Router. Die Zeit für die erneute Verbindung ist der Zeitpunkt, zu dem Router A Router B angibt, zu warten, nachdem Router B feststellt, dass Router A neu gestartet wurde.
Um die Zeit für die erneute Verbindung zu konfigurieren, fügen Sie die Anweisung ein reconnect-time
:
graceful-restart { reconnect-time seconds; }
Sie können die Zeit für die erneute Verbindung auf einen Wert im Bereich von 30 bis 300 Sekunden festlegen. Standardmäßig beträgt dies 60 Sekunden.
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisungen konfigurieren können, finden Sie in den Abschnitten zur Anweisungszusammenfassung für diese Anweisungen.
Konfigurieren der Wiederherstellungszeit und der maximalen Wiederherstellungszeit
Die Wiederherstellungszeit ist die Zeit, die ein Router wartet, bis LDP ordnungsgemäß neu gestartet wird. Der Wiederherstellungszeitraum beginnt, wenn eine Initialisierungsnachricht gesendet oder empfangen wird. Dieser Zeitraum ist in der Regel auch der Zeitraum, in dem ein benachbarter Router seine Informationen über den neu gestarteten Router speichert, sodass er weiterhin Datenverkehr weiterleiten kann.
Um zu verhindern, dass ein benachbarter Router beeinträchtigt wird, wenn er einen falschen Wert für die Wiederherstellungszeit vom neustartenden Router erhält, können Sie die maximale Wiederherstellungszeit für den benachbarten Router konfigurieren. Ein benachbarter Router behält seinen Zustand für den kürzeren der beiden Male bei. Router A führt beispielsweise einen LDP-Graceful-Neustart durch. Es hat eine Wiederherstellungszeit von 900 Sekunden an den benachbarten Router B gesendet. Router B hat jedoch seine maximale Wiederherstellungszeit mit 400 Sekunden konfiguriert. Router B wartet nur 400 Sekunden, bevor er seine LDP-Informationen von Router A löscht.
Um die Wiederherstellungszeit zu konfigurieren, fügen Sie die recovery-time
Anweisung und die Anweisung ein maximum-neighbor-recovery-time
:
graceful-restart { maximum-neighbor-recovery-time seconds; recovery-time seconds; }
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisungen konfigurieren können, finden Sie in den Abschnitten zur Anweisungszusammenfassung für diese Anweisungen.
Filtern eingehender LDP-Label-Bindungen
Sie können empfangene LDP-Labelbindungen filtern und Richtlinien anwenden, um Bindungen zu akzeptieren oder zu verweigern, die von benachbarten Routern angekündigt wurden. Um die Filterung empfangener Label zu konfigurieren, fügen Sie die Anweisung ein import
:
import [ policy-names ];
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Die benannte Richtlinie (konfiguriert auf Hierarchieebene [edit policy-options]
) wird auf alle Labelbindungen angewendet, die von allen LDP-Nachbarn empfangen werden. Alle Filter werden mit from
Anweisungen durchgeführt. Tabelle 1 Liste der einzigen from
Operatoren, die für die LDP-Filterung mit empfangenen Labeln gelten.
from Operator |
Beschreibung |
---|---|
|
Übereinstimmung mit Bindungen, die von einem Nachbarn empfangen werden, der über die angegebene Schnittstelle angrenzt |
|
Übereinstimmungen bei Bindungen, die von der angegebenen LDP-Router-ID empfangen werden |
|
Übereinstimmungen auf Bindungen, die von einem Nachbarn empfangen wurden, und werben mit der angegebenen Schnittstellenadresse |
|
Übereinstimmung bei Bindungen mit dem angegebenen Präfix |
Wenn eine Bindung gefiltert wird, wird sie weiterhin in der LDP-Datenbank angezeigt, wird aber für die Installation nicht als Teil eines Label-Switched Path (LSP) berücksichtigt.
Im Allgemeinen kann die Anwendung von Richtlinien in LDP nur verwendet werden, um die Einrichtung von LSPs zu blockieren, nicht um deren Routing zu steuern. Dies liegt daran, dass der Pfad, dem ein LSP folgt, durch Unicast-Routing und nicht durch LDP bestimmt wird. Wenn es jedoch mehrere Pfade zu gleichen Kosten über verschiedene Nachbarn zum Ziel gibt, können Sie die LDP-Filterung verwenden, um einige der möglichen nächsten Hops von der Prüfung auszuschließen. (Andernfalls wählt LDP zufällig einen der möglichen nächsten Hops aus.)
LDP-Sitzungen sind nicht an Schnittstellen oder Schnittstellenadressen gebunden. LDP gibt nur Label pro Router (nicht pro Schnittstelle) an; Wenn also mehrere parallele Verbindungen zwischen zwei Routern vorhanden sind, wird nur eine LDP-Sitzung eingerichtet, die nicht an eine einzige Schnittstelle gebunden ist. Wenn ein Router mehrere Nachbarschaften zumselben Nachbarn hat, achten Sie darauf, dass der Filter das tut, was erwartet wird. (Im Allgemeinen ist die Verwendung next-hop
und interface
in diesem Fall nicht angemessen.)
Wenn ein Label gefiltert wurde (d. h. von der Richtlinie abgelehnt wurde und nicht zum Erstellen eines LSP verwendet wird), wird es in der Datenbank als gefiltert markiert:
user@host> show ldp database Input label database, 10.10.255.1:0-10.10.255.6:0 Label Prefix 3 10.10.255.6/32 (Filtered) Output label database, 10.10.255.1:0-10.10.255.6:0 Label Prefix 3 10.10.255.1/32 (Filtered)
Weitere Informationen zur Konfiguration von Richtlinien für LDP finden Sie im Benutzerhandbuch für Routing-Richtlinien, Firewall-Filter und Traffic Policers.
Beispiele: Filtern eingehender LDP-Label-Bindungen
Akzeptieren Sie nur /32 Präfixe von allen Nachbarn:
[edit] protocols { ldp { import only-32; ... } } policy-options { policy-statement only-32 { term first { from { route-filter 0.0.0.0/0 upto /31; } then reject; } then accept; } }
Akzeptieren Sie 131.108/16
oder länger von der Router-ID 10.10.255.2
und akzeptieren Sie alle Präfixe von allen anderen Nachbarn:
[edit] protocols { ldp { import nosy-neighbor; ... } } policy-options { policy-statement nosy-neighbor { term first { from { neighbor 10.10.255.2; route-filter 131.108.0.0/16 orlonger accept; route-filter 0.0.0.0/0 orlonger reject; } } then accept; } }
Filterung ausgehender LDP-Label-Bindungen
Sie können Exportrichtlinien konfigurieren, um LDP-ausgehende Label zu filtern. Sie können ausgehende Labelbindungen filtern, indem Sie Routing-Richtlinien anwenden, um Bindungen zu blockieren, die an benachbarten Routern angekündigt werden. Um die Filterung ausgehender Label zu konfigurieren, fügen Sie die Anweisung ein export
:
export [policy-name];
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Die benannte Exportrichtlinie (konfiguriert auf Hierarchieebene [edit policy-options]
) wird auf alle Labelbindungen angewendet, die an alle LDP-Nachbarn übertragen werden. Der einzige from
Operator, der für die LDP-Filterung ausgehender Label gilt, ist route-filter
, der Bindungen mit dem angegebenen Präfix abschließt. Die einzigen to
Betreiber, die für die Filterung ausgehender Label gelten, sind die Operatoren in Tabelle 2.
zum Betreiber |
Beschreibung |
---|---|
|
Übereinstimmungen bei Bindungen, die an einen Nachbarn gesendet werden, der über die angegebene Schnittstelle grenzt |
|
Übereinstimmungen bei Bindungen, die an die angegebene LDP-Router-ID gesendet werden |
|
Übereinstimmungen bei Bindungen, die an einen Nachbarn gesendet werden, werben mit der angegebenen Schnittstellenadresse |
Wenn eine Bindung gefiltert wird, wird die Bindung nicht an den benachbarten Router angekündigt, sondern kann als Teil eines LSP auf dem lokalen Router installiert werden. Sie können Richtlinien in LDP anwenden, um die Einrichtung von LSPs zu blockieren, aber nicht, um deren Routing zu steuern. Der Pfad, dem ein LSP folgt, wird durch Unicast-Routing bestimmt, nicht durch LDP.
LDP-Sitzungen sind nicht an Schnittstellen oder Schnittstellenadressen gebunden. LDP kündigt nur Label pro Router (nicht pro Schnittstelle) an. Wenn mehrere parallele Verbindungen zwischen zwei Routern vorhanden sind, wird nur eine LDP-Sitzung eingerichtet, die nicht an eine einzige Schnittstelle gebunden ist.
Verwenden Sie die next-hop
Und-Betreiber interface
nicht, wenn ein Router mehrere Nachbarschaften zum selben Nachbarn hat.
Gefilterte Label werden in der Datenbank markiert:
user@host> show ldp database Input label database, 10.10.255.1:0-10.10.255.3:0 Label Prefix 100007 10.10.255.2/32 3 10.10.255.3/32 Output label database, 10.10.255.1:0-10.10.255.3:0 Label Prefix 3 10.10.255.1/32 100001 10.10.255.6/32 (Filtered)
Weitere Informationen zur Konfiguration von Richtlinien für LDP finden Sie im Benutzerhandbuch für Routing-Richtlinien, Firewall-Filter und Traffic Policers.
Beispiele: Filterung ausgehender LDP-Label-Bindungen
Blockieren Sie die Übertragung der Route für 10.10.255.6/32
alle Nachbarn:
[edit protocols] ldp { export block-one; } policy-options { policy-statement block-one { term first { from { route-filter 10.10.255.6/32 exact; } then reject; } then accept; } }
Senden Sie nur 131.108/16
oder länger an die Router-ID 10.10.255.2
und senden Sie alle Präfixe an alle anderen Router:
[edit protocols] ldp { export limit-lsps; } policy-options { policy-statement limit-lsps { term allow-one { from { route-filter 131.108.0.0/16 orlonger; } to { neighbor 10.10.255.2; } then accept; } term block-the-rest { to { neighbor 10.10.255.2; } then reject; } then accept; } }
Angeben der von LDP verwendeten Transportadresse
Router müssen zunächst eine TCP-Sitzung untereinander einrichten, bevor sie eine LDP-Sitzung einrichten können. Die TCP-Sitzung ermöglicht es den Routern, die für die LDP-Sitzung erforderlichen Label-Ankündigungen auszutauschen. Um die TCP-Sitzung einzurichten, muss jeder Router die Transportadresse des anderen Routers kennen. Die Transportadresse ist eine IP-Adresse, die zur Identifizierung der TCP-Sitzung verwendet wird, über die die LDP-Sitzung ausgeführt wird.
Um die LDP-Transportadresse zu konfigurieren, fügen Sie die Transport-Address-Anweisung ein:
transport-address (router-id | interface);
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Wenn Sie die router-id
Option angeben, wird die Adresse des Router-Identifikators als Transportadresse verwendet (sofern nicht anders konfiguriert, ist der Routerbezeichner in der Regel dieselbe wie die Loopback-Adresse). Wenn Sie die interface
Option angeben, wird die Schnittstellenadresse als Übertragungsadresse für alle LDP-Sitzungen zu Nachbarn verwendet, die über diese Schnittstelle erreicht werden können. Beachten Sie, dass standardmäßig die Router-Kennung als Transportadresse verwendet wird.
Für einen ordnungsgemäßen Betrieb muss die LDP-Transportadresse erreichbar sein. Die Router-ID ist eine Kennung, keine routingfähige IP-Adresse. Aus diesem Grund wird empfohlen, die Router-ID so zu setzen, dass sie mit der Loopback-Adresse übereinstimmt, und dass die Loopback-Adresse von der IGP angekündigt wird.
Sie können die interface
Option nicht angeben, wenn mehrere parallele Verbindungen zu einem LDP-Nachbarn vorhanden sind, da die LDP-Spezifikation erfordert, dass dieselbe Transportadresse auf allen Schnittstellen zum selben Nachbarn angekündigt wird. Wenn LDP mehrere parallele Verbindungen zu demselben Nachbarn erkennt, deaktiviert es die Schnittstellen zu diesem Nachbarn nacheinander, bis die Bedingung deaktiviert wird, entweder durch Trennen des Nachbarn auf einer Schnittstelle oder durch Festlegen der router-id
Option.
Für zielgerichtete LDP-Sitzung verwendete Übertragungsadresse
Um eine TCP-Sitzung zwischen zwei Geräten einzurichten, muss jedes Gerät die Transportadresse des anderen Geräts kennen. Die Transportadresse ist eine IP-Adresse, die zur Identifizierung der TCP-Sitzung verwendet wird, über die die LDP-Sitzung betrieben wird. Früher konnte es sich bei dieser Transportadresse nur um die Router-ID oder eine Schnittstellenadresse handeln. Mit der LDP-Übertragungsadressenfunktion können Sie explizit jede beliebige IP-Adresse als Transportadresse für gezielte LDP-Nachbarn für Layer-2-Circuit-, MPLS- und VPLS-Adjacencies konfigurieren. Auf diese Weise können Sie die Ziel-LDP-Sitzungen über die Transport-Adresskonfiguration steuern.
- Vorteile der Kontrolle von Transportadressen, die für zielgerichtete LDP-Sitzung verwendet werden
- Übersicht über zielgerichtete LDP-Transportadressen
- Bevorzugte Transportadresse
- Fehlerbehebung bei der Konfiguration von Transportadressen
Vorteile der Kontrolle von Transportadressen, die für zielgerichtete LDP-Sitzung verwendet werden
Die Konfiguration der Transportadresse für die Einrichtung gezielter LDP-Sitzungen hat die folgenden Vorteile:
Flexible interface configurations— Bietet die Flexibilität, mehrere IP-Adressen für eine Loopback-Schnittstelle zu konfigurieren, ohne die Erstellung einer LDP-Sitzung zwischen den Ziel-LDP-Nachbarn zu unterbrechen.
Ease of operation— Die auf Schnittstellenebene konfigurierte Transportadresse ermöglicht die Verwendung von mehr als einem Protokoll im IGP-Backbone für LDP. Dies ermöglicht einen reibungslosen und einfachen Betrieb.
Übersicht über zielgerichtete LDP-Transportadressen
Vor Junos OS Version 19.1R1 unterstützte LDP nur Router-ID oder die Schnittstellenadresse als Transportadresse auf einer LDP-Schnittstelle. Die auf dieser Schnittstelle gebildeten Adjacencies verwendeten eine der der Schnittstelle zugewiesene IP-Adresse oder die Router-ID. Im Falle einer gezielten Nachbarschaft ist die Schnittstelle die Loopback-Schnittstelle. Wenn mehrere Loopback-Adressen auf dem Gerät konfiguriert wurden, konnte die Transportadresse für die Schnittstelle nicht abgeleitet werden, und infolgedessen konnte die LDP-Sitzung nicht eingerichtet werden.
Ab Junos OS Version 19.1R1 können Sie zusätzlich zu den Standard-IP-Adressen, die für die Transportadresse von Ziel-LDP-Sitzungen verwendet werden, jede andere IP-Adresse als Transportadresse unter den session
, session-group
und interface
Konfigurationsanweisungen konfigurieren. Die Konfiguration der Transportadresse ist nur für konfigurierte Nachbarn anwendbar, einschließlich Layer-2-Circuits, MPLS und VPLS-Adjacencies. Diese Konfiguration gilt nicht für erkannte Adjacencies (gezielt oder nicht).
Bevorzugte Transportadresse
Sie können die Transportadresse für zielgerichtete LDP-Sitzungen auf Sitzungs-, Sitzungsgruppen- und Schnittstellenebene konfigurieren.
Nach der Konfiguration der Transportadresse wird die Ziel-LDP-Sitzung basierend auf der Bevorzugten Transportadresse von LDP eingerichtet.
Die Reihenfolge der bevorzugten Transportadresse für den Zielnachbarn (konfiguriert über Layer-2-Circuit, MPLS-, VPLS- und LDP-Konfiguration) ist wie folgt:
Unter
[edit protocols ldp session]
Hierarchie.Unter
[edit protocols ldp session-group]
Hierarchie.Unter
[edit protocols ldp interfcae lo0]
Hierarchie.Unter
[edit protocols ldp]
Hierarchie.Standardadresse.
Die Bevorzugte Reihenfolge der Transportadresse für die entdeckten Nachbarn lautet wie folgt:
Unter
[edit protocols ldp interfcae]
Hierarchie.Unter
[edit protocols ldp]
Hierarchie.Standardadresse.
Die Reihenfolge der bevorzugten Transportadresse für automatisch zielgerichtete Nachbarn, bei denen LDP so konfiguriert ist, dass es Hallo-Pakete akzeptiert, lautet wie folgt:
Unter
[edit protocols ldp interfcae lo0]
Hierarchie.Unter
[edit protocols ldp]
Hierarchie.Standardadresse.
Fehlerbehebung bei der Konfiguration von Transportadressen
Sie können die folgenden Show-Befehlsausgaben verwenden, um die Fehlerbehebung für zielgerichtete LDP-Sitzungen zu beheben:
show ldp session
show ldp neighbor
Die
detail
Ausgabeebene desshow ldp neighbor
Befehls zeigt die Transportadresse an, die in den Hallo-Nachrichten an den Zielnachbarn gesendet wird. Wenn diese Adresse vom Nachbarn nicht erreichbar ist, wird die LDP-Sitzung nicht angezeigt.show configuration protocols ldp
Sie können auch LDP-Traceoptionen für die weitere Fehlerbehebung aktivieren.
Wenn die Konfiguration von der Verwendung einer ungültigen (nicht erreichbaren) Transportadresse zur gültigen Transportadresse geändert wird, können die folgenden Ablaufverfolgungen beobachtet werden:
May 29 10:47:11.569722 Incoming connect from 10.55.1.4 May 29 10:47:11.570064 Connection 10.55.1.4 state Closed -> Open May 29 10:47:11.570727 Session 10.55.1.4 state Nonexistent -> Initialized May 29 10:47:11.570768 Session 10.55.1.4 state Initialized -> OpenRec May 29 10:47:11.570799 LDP: Session param Max PDU length 4096 from 10.55.1.4, negotiated 4096 May 29 10:47:11.570823 Session 10.55.1.4 GR state Nonexistent -> Operational May 29 10:47:11.669295 Session 10.55.1.4 state OpenRec -> Operational May 29 10:47:11.669387 RPD_LDP_SESSIONUP: LDP session 10.55.1.4 is up
Wenn die Konfiguration von der Verwendung einer gültigen Transportadresse auf eine ungültige (nicht erreichbare Transportadresse) geändert wird, können die folgenden Ablaufverfolgungen beobachtet werden:
May 29 10:42:36.317942 Session 10.55.1.4 GR state Operational -> Nonexistent May 29 10:42:36.318171 Session 10.55.1.4 state Operational -> Closing May 29 10:42:36.318208 LDP session 10.55.1.4 is down, reason: received notification from peer May 29 10:42:36.318236 RPD_LDP_SESSIONDOWN: LDP session 10.55.1.4 is down, reason: received notification from peer May 29 10:42:36.320081 Connection 10.55.1.4 state Open -> Closed May 29 10:42:36.322411 Session 10.55.1.4 state Closing -> Nonexistent
Führen Sie bei einer fehlerhaften Konfiguration die folgenden Fehlerbehebungsaufgaben aus:
Überprüfen Sie die
address family
. Die Transportadresse, die unter dersession
Anweisung konfiguriert ist, muss zur gleichen Adressfamilie gehören wie der Nachbar oder die Sitzung.Die Adresse, die als Transportadresse unter einer
neighbor
odersession
Anweisung konfiguriert ist, muss lokal beim Router sein, damit die zielgerichteten Hallo-Nachrichten gestartet werden. Sie können überprüfen, ob die Adresse konfiguriert ist. Wenn die Adresse unter keiner Schnittstelle konfiguriert ist, wird die Konfiguration abgelehnt.
Konfigurieren der in LDP aus der Routing-Tabelle angekündigten Präfixe
Sie können die Gruppe der Präfixe steuern, die in LDP angekündigt werden, und den Router als Ausgangsrouter für diese Präfixe zu veranlassen. Standardmäßig wird nur die Loopback-Adresse in LDP angekündigt. Um den Satz der Präfixe aus der Routing-Tabelle zu konfigurieren, die in LDP angekündigt werden sollen, fügen Sie die Anweisung ein egress-policy
:
egress-policy policy-name;
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Wenn Sie eine Ausgangsrichtlinie für LDP konfigurieren, die die Loopback-Adresse nicht enthält, wird diese in LDP nicht mehr angekündigt. Um die Loopback-Adresse weiterhin anzukündigen, müssen Sie sie explizit als Teil der LDP-Ausgangsrichtlinie konfigurieren.
Die benannte Richtlinie (konfiguriert auf Hierarchieebene [edit policy-options]
[edit logical-systems logical-system-name policy-options]
) wird auf alle Routen in der Routingtabelle angewendet. Die Routen, die der Richtlinie entsprechen, werden in LDP angekündigt. Sie können die Gruppe der Nachbarn steuern, für die diese Präfixe angekündigt werden, indem Sie die export
Anweisung verwenden. Es werden nur from Betreiber in Betracht gezogen; Sie können einen beliebigen gültigen from Betreiber verwenden. Weitere Informationen finden Sie in der Junos OS Routing Protocol Library for Routing Devices.
Router der ACX-Serie unterstützen keine [edit logical-systems
] Hierarchieebene.
Beispiel: Konfigurieren der in LDP angekündigten Präfixe
Stellen Sie alle vernetzten Routen in LDP vor:
[edit protocols] ldp { egress-policy connected-only; } policy-options { policy-statement connected-only { from { protocol direct; } then accept; } }
Konfigurieren der FEC-Deaggregation
Wenn ein LDP-Ausgangsrouter mehrere Präfixe ankündigen, werden die Präfixe an ein einziges Label gebunden und in einer einzigen Forwarding Äquivalenzklasse (FEC) aggregiert. Standardmäßig behält LDP diese Aggregation bei, während die Ankündigung das Netzwerk durchläuft.
Da ein LSP nicht über mehrere Next Hops aufgeteilt ist und die Präfixe an einen einzigen LSP gebunden sind, ist ein Load Balancing über gleichpreisige Pfade normalerweise nicht möglich. Sie können jedoch einen Load-Balance-Ausgleich über Pfade zu gleichen Kosten erreichen, wenn Sie eine Load-Balancing-Richtlinie konfigurieren und die FECs deaggregieren.
Durch die Deaggregierung der FECs wird jedes Präfix an ein separates Label gebunden und zu einem separaten LSP.
Um deaggregierte FECs zu konfigurieren, fügen Sie die Anweisung ein deaggregate
:
deaggregate;
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Für alle LDP-Sitzungen können Sie deaggregierte FECs nur global konfigurieren.
Durch die Deaggregierung eines FEC können die resultierenden mehreren LSPs über mehrere Pfade zu gleichen Kosten verteilt werden und LSPs auf mehrere nächste Hops in den Ausgangssegmenten verteilt werden, aber es installiert nur einen nächsten Hop pro LSP.
Um FECs zu aggregieren, fügen Sie die Anweisung ein no-deaggregate
:
no-deaggregate;
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Für alle LDP-Sitzungen können Sie aggregierte FECs nur global konfigurieren.
Konfigurieren von Policern für LDP-FECs
Sie können junos OS konfigurieren, um den Datenverkehr für LDP-FECs zu verfolgen und zu kontrollieren. LDP FEC Policer können für die folgenden Schritte verwendet werden:
Verfolgen oder kontrollieren Sie den eingehenden Datenverkehr für einen LDP FEC.
Verfolgen oder kontrollieren Sie den Transitverkehr für einen LDP FEC.
Verfolgen oder verfolgen Sie LDP-FEC-Datenverkehr, der von einer bestimmten Weiterleitungsklasse stammt.
Verfolgen oder kontrollieren Sie den LDP-FEC-Datenverkehr, der von einem bestimmten virtuellen Routing- und Weiterleitungsstandort (VRF) stammt.
Verwerfen Sie falschen Datenverkehr, der für eine bestimmte LDP FEC gebunden ist.
Um den Datenverkehr für einen LDP-FEC zu steuern, müssen Sie zuerst einen Filter konfigurieren. Insbesondere müssen Sie entweder die Anweisung oder die interface
interface-set
Anweisung auf [edit firewall family protocol-family filter filter-name term term-name from]
Hierarchieebene konfigurieren. Mit interface
der Anweisung können Sie den Filter einer einzigen Schnittstelle gleichen. Mit interface-set
der Anweisung können Sie den Filter auf mehrere Schnittstellen anpassen.
Weitere Informationen zur Konfiguration der Anweisung, der interface
Anweisung und der interface-set
Policer für LDP-FECs finden Sie im Benutzerhandbuch für Routing-Richtlinien, Firewall-Filter und Traffic Policer.
Sobald Sie die Filter konfiguriert haben, müssen Sie sie in die Anweisungskonfiguration policing
für LDP aufnehmen. Um Policer für LDP-FECs zu konfigurieren, fügen Sie die Anweisung ein policing
:
policing { fec fec-address { ingress-traffic filter-name; transit-traffic filter-name; } }
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Die policing
Anweisung umfasst die folgenden Optionen:
fec
– Geben Sie die FEC-Adresse für die LDP-FEC an, die Sie ermitteln möchten.ingress-filter
– Geben Sie den Namen des Filters für eingehenden Datenverkehr an.transit-traffic
– Geben Sie den Namen des Transitdatenverkehrsfilters an.
Konfiguration von LDP-IPv4-FEC-Filterung
Wenn eine gezielte LDP-Sitzung eingerichtet wird, tauscht Junos OS standardmäßig sowohl die IPv4 Forwarding Äquivalenzklassen (FECs) als auch die Layer-2-Circuit-FECs über die zielorientierte LDP-Sitzung aus. Für eine LDP-Sitzung an einen indirekt verbundenen Nachbarn möchten Sie möglicherweise nur Layer-2-Circuit-FECs in den Nachbarn exportieren, wenn die Sitzung speziell für die Unterstützung von Layer-2-Circuits oder VPLS konfiguriert wurde.
In einem gemischten Anbieternetzwerk, in dem alle Nicht-BGP-Präfixe in LDP angekündigt werden, kann die LDP-Datenbank groß werden. Für diese Art von Umgebung kann es nützlich sein, die Ankündigung von IPv4-FECs über LDP-Sitzungen zu verhindern, die aufgrund einer Layer-2-Circuit- oder LDP-VPLS-Konfiguration gebildet wurden. Ebenso kann es nützlich sein, alle in dieser Umgebung empfangenen IPv4-FECs zu filtern.
Wenn alle LDP-Nachbarn, die einer LDP-Sitzung zugeordnet sind, nur Layer 2 sind, können Sie junos OS so konfigurieren, dass nur Layer-2-Circuit-FECs ankündigen, indem Sie die l2-smart-policy
Anweisung konfigurieren. Diese Funktion filtert auch automatisch die IPv4 FECs, die in dieser Sitzung empfangen werden. Die Konfiguration einer expliziten Export- oder Importrichtlinie, die für l2-smart-policy
die Aktivierung aktiviert ist, deaktiviert diese Funktion in der entsprechenden Richtung.
Wenn einer der Nachbarn der LDP-Sitzung aufgrund einer entdeckten Adjacency gebildet wird oder wenn die Adjacency aufgrund einer LDP-Tunneling-Konfiguration auf einem oder mehreren RSVP-LSPs gebildet wird, werden die IPv4-FECs mit dem Standardverhalten angekündigt und empfangen.
Um zu verhindern, dass LDP IPv4 FECs über LDP-Sitzungen exportiert, nur mit Layer-2-Nachbarn und um IPv4-FECs, die über solche Sitzungen empfangen werden, herauszufiltern, fügen Sie die l2-smart-policy
Anweisung ein:
l2-smart-policy;
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung konfigurieren können, finden Sie in der Anweisungszusammenfassung für diese Anweisung.
Konfigurieren von BFD für LDP-LSPs
Sie können Bidirectional Forwarding Detection (BFD) für LDP-LSPs konfigurieren. Das BFD-Protokoll ist ein einfacher Hallo-Mechanismus, der Fehler in einem Netzwerk erkennt. Hallo Pakete werden in einem bestimmten, regelmäßigen Intervall gesendet. Ein Neighbor-Fehler wird erkannt, wenn der Router nach einem angegebenen Intervall keine Antwort mehr empfängt. BFD funktioniert mit einer Vielzahl von Netzwerkumgebungen und Topologien. Die Timer zur Fehlererkennung für BFD haben kürzere Zeitgrenzen als die Fehlererkennungsmechanismen statischer Routen und bieten eine schnellere Erkennung.
Ein Fehler wird protokolliert, wenn eine BFD-Sitzung für einen Pfad ausfällt. Im Folgenden wird veranschaulicht, wie BFD für LDP-LSP-Protokollmeldungen angezeigt werden können:
RPD_LDP_BFD_UP: LDP BFD session for FEC 10.255.16.14/32 is up RPD_LDP_BFD_DOWN: LDP BFD session for FEC 10.255.16.14/32 is down
Sie können BFD auch für RSVP-LSPs konfigurieren, wie unter Konfigurieren von BFD für RSVP-signalierte LSPs beschrieben.
Die BFD-Timer zur Fehlererkennung sind anpassungsfähig und können mehr oder weniger aggressiv eingestellt werden. Beispielsweise können sich die Timer an einen höheren Wert anpassen, wenn die Adjacency fehlschlägt, oder ein Nachbar kann einen höheren Wert für einen Timer aushandeln als der konfigurierte Wert. Die Timer passen sich an einen höheren Wert an, wenn eine BFD-Sitzungsklappe mehr als dreimal in einem Zeitraum von 15 Sekunden auftritt. Ein Back-off-Algorithmus erhöht das Empfangsintervall (Rx) um zwei, wenn die lokale BFD-Instanz der Grund für den Sitzungs-Flap ist. Das Übertragungsintervall (Tx) wird um zwei erhöht, wenn die Remote-BFD-Instanz der Grund für den Sitzungs-Flap ist. Sie können den clear bfd adaptation
Befehl verwenden, um BFD-Intervall-Timer auf ihre konfigurierten Werte zurückzugeben. Der clear bfd adaptation
Befehl ist hitless, was bedeutet, dass der Befehl keinen Einfluss auf den Datenverkehr auf dem Routinggerät hat.
Um BFD für LDP-LSPs zu aktivieren, fügen Sie die oam
und bfd-liveness-detection
Aussagen ein:
oam { bfd-liveness-detection { detection-time threshold milliseconds; ecmp; failure-action { remove-nexthop; remove-route; } holddown-interval seconds; ingress-policy ingress-policy-name; minimum-interval milliseconds; minimum-receive-interval milliseconds; minimum-transmit-interval milliseconds; multiplier detection-time-multiplier; no-adaptation; transmit-interval { minimum-interval milliseconds; threshold milliseconds; } version (0 | 1 | automatic); } fec fec-address { bfd-liveness-detection { detection-time threshold milliseconds; ecmp; failure-action { remove-nexthop; remove-route; } holddown-interval milliseconds; ingress-policy ingress-policy-name; minimum-interval milliseconds; minimum-receive-interval milliseconds; minimum-transmit-interval milliseconds; multiplier detection-time-multiplier; no-adaptation; transmit-interval { minimum-interval milliseconds; threshold milliseconds; } version (0 | 1 | automatic); } no-bfd-liveness-detection; periodic-traceroute { disable; exp exp-value; fanout fanout-value; frequency minutes; paths number-of-paths; retries retry-attempts; source address; ttl ttl-value; wait seconds; } } lsp-ping-interval seconds; periodic-traceroute { disable; exp exp-value; fanout fanout-value; frequency minutes; paths number-of-paths; retries retry-attempts; source address; ttl ttl-value; wait seconds; } }
Sie können BFD für die LDP-LSPs aktivieren, die einer bestimmten Forwarding Equivalence Class (FEC) zugeordnet sind, indem Sie die FEC-Adresse mithilfe der fec
Option auf [edit protocols ldp]
Hierarchieebene konfigurieren. Alternativ können Sie eine Eingangsrichtlinie für Betriebsadministration und -verwaltung (OAM) konfigurieren, um BFD für eine Reihe von FEC-Adressen zu aktivieren. Weitere Informationen finden Sie unter Konfigurieren von OAM-Eingangsrichtlinien für LDP.
Sie können BFD-LDP-LSPs nur aktivieren, wenn ihre äquivalenten FEC-Adressen explizit konfiguriert sind oder OAM auf den FECs mithilfe einer OAM-Eingangsrichtlinie aktiviert ist. Wenn BFD für FEC-Adressen nicht aktiviert ist, wird die BFD-Sitzung nicht aktiviert.
Sie können die oam
Anweisung auf den folgenden Hierarchieebenen konfigurieren:
[edit protocols ldp]
[edit logical-systems logical-system-name protocols ldp]
Router der ACX-Serie unterstützen keine [edit logical-systems
] Hierarchieebene.
Die oam
Anweisung umfasst die folgenden Optionen:
fec
– Geben Sie die FEC-Adresse an. Sie müssen entweder eine FEC-Adresse angeben oder eine OAM-Eingangsrichtlinie konfigurieren, um sicherzustellen, dass die BFD-Sitzung aktiviert wird.lsp-ping-interval
– Geben Sie die Dauer des LSP-Ping-Intervalls in Sekunden an. Verwenden Sie denping mpls ldp
Befehl, um einen Ping für einen LDP-signalisierten LSP aus. Weitere Informationen finden Sie im CLI-Explorer.
Die bfd-liveness-detection
Anweisung umfasst die folgenden Optionen:
ecmp
— Richtet LDP BFD-Sitzungen für alle ECMP-Pfade ein, die für den angegebenen FEC konfiguriert sind. Wenn Sie dieecmp
Option konfigurieren, müssen Sie auch dieperiodic-traceroute
Anweisung für den angegebenen FEC konfigurieren. Wenn Sie dies nicht tun, schlägt der Commit-Vorgang fehl. Sie können dieperiodic-traceroute
Anweisung auf der globalen Hierarchieebene () konfigurieren,[edit protocols ldp oam]
während Sie nur dieecmp
Option für eine bestimmte FEC ([edit protocols ldp oam fec address bfd-liveness-detection]
) konfigurieren.Holddown-Intervall: Geben Sie die Dauer an, die die BFD-Sitzung vor dem Hinzufügen der Route oder des nächsten Hops beibehalten soll. Die Angabe einer Zeit von 0 Sekunden bewirkt, dass die Route oder der nächste Hop hinzugefügt wird, sobald die BFD-Sitzung wieder aktiviert wird.
minimum-interval
– Geben Sie das mindeste Sende- und Empfangsintervall an. Wenn Sie dieminimum-interval
Option konfigurieren, müssen Sie dieminimum-receive-interval
Option oder Optionminimum-transmit-interval
nicht konfigurieren.minimum-receive-interval
– Geben Sie das minimale Empfangsintervall an. Der Bereich reicht von 1 bis 255.000 Millisekunden.minimum-transmit-interval
– Geben Sie das minimale Übertragungsintervall an. Der Bereich reicht von 1 bis 255.000 Millisekunden.multiplier
– Geben Sie den Erkennungszeitmultiplikator an. Der Bereich reicht von 1 bis 255.version: Geben Sie die BFD-Version an. Die Optionen sind BFD-Version 0 oder BFD-Version 1. Standardmäßig versucht die Junos OS-Software, die BFD-Version automatisch zu ermitteln.
Konfigurieren von ECMP-aware BFD für LDP-LSPs
Wenn Sie BFD für einen FEC konfigurieren, wird eine BFD-Sitzung für nur einen aktiven lokalen Next-Hop für den Router eingerichtet. Sie können jedoch mehrere BFD-Sitzungen konfigurieren, eine für jede FEC, die einem bestimmten ECMP-Pfad (Equal-Cost Multipath) zugeordnet ist. Damit dies richtig funktioniert, müssen Sie auch den regelmäßigen LDP-LSP-Traceroute konfigurieren. (Siehe Konfigurieren von LDP-LSP-Traceroute.) LDP LSP Traceroute wird verwendet, um ECMP-Pfade zu ermitteln. Für jeden entdeckten ECMP-Pfad wird eine BFD-Sitzung initiiert. Wenn eine BFD-Sitzung für einen der ECMP-Pfade fehlschlägt, wird ein Fehler protokolliert.
LDP LSP Traceroute wird in regelmäßigen Abständen ausgeführt, um die Integrität der ECMP-Pfade zu überprüfen. Wenn ein Problem entdeckt wird, kann Folgendes auftreten:
Wenn sich der neueste LDP-LSP-Traceroute für einen FEC von dem vorherigen Traceroute unterscheidet, werden die BFD-Sitzungen, die diesem FEC (die BFD-Sitzungen für Adressbereiche, die sich gegenüber dem vorherigen Ausführen geändert haben) zugeordnet sind, heruntergefahren und neue BFD-Sitzungen für die Zieladressen in den geänderten Bereichen initiiert.
Wenn der LDP-LSP-Traceroute einen Fehler zurückgibt (z. B. ein Timeout), werden alle mit diesem FEC verknüpften BFD-Sitzungen abgerissen.
Um LDP zum Einrichten von BFD-Sitzungen für alle ECMP-Pfade zu konfigurieren, die für die angegebene FEC konfiguriert sind, fügen Sie die Anweisung ein ecmp
.
ecmp;
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Neben der ecmp
Anweisung müssen Sie die periodic-traceroute
Anweisung auch in der globalen LDP-OAM-Konfiguration (auf hierarchie [edit protocols ldp oam]
- oder [edit logical-systems logical-system-name protocols ldp oam]
hierarchieebene) oder in der Konfiguration für das angegebene FEC (auf Hierarchieebene [edit protocols ldp oam fec address]
[edit logical-systems logical-system-name protocols ldp oam fec address]
) einschließen. Andernfalls schlägt der Commit-Vorgang fehl.
Router der ACX-Serie unterstützen keine [edit logical-systems
] Hierarchieebene.
Konfigurieren einer Fehleraktion für die BFD-Sitzung auf einem LDP-LSP
Sie können Routen- und Next-Hop-Eigenschaften im Fall eines BFD-Sitzungsfehlers auf einem LDP-LSP konfigurieren. Bei dem Fehlerereignis kann es sich um eine vorhandene BFD-Sitzung, die ausgefallen ist, oder eine BFD-Sitzung sein, die nie aufgetreten ist. LDP fügt die Route oder den nächsten Hop wieder hinzu, wenn die entsprechende BFD-Sitzung wieder aktiviert wird.
Sie können eine der folgenden Fehleraktionsoptionen für die failure-action
Anweisung konfigurieren, wenn eine BFD-Sitzung auf dem LDP-LSP ausfällt:
remove-nexthop
– Entfernt die Route, die dem nächsten Hop der LSP-Route am Eingangsknoten entspricht, wenn ein BFD-Sitzungsfehler-Ereignis erkannt wird.remove-route
— Entfernt die dem LSP entsprechende Route aus den entsprechenden Routing-Tabellen, wenn ein BFD-Sitzungsfehler-Ereignis erkannt wird. Wenn der LSP mit ECMP konfiguriert ist und eine BFD-Sitzung, die einem beliebigen Pfad entspricht, ausfällt, wird die Route entfernt.
Um eine Fehleraktion im Fall eines BFD-Sitzungsausfalls auf einem LDP-LSP zu konfigurieren, fügen Sie entweder die remove-nexthop
Option oder die remove-route
Option für die Anweisung ein failure-action
:
failure-action { remove-nexthop; remove-route; }
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Konfigurieren des Holddown-Intervalls für die BFD-Sitzung
Sie können die Dauer der BFD-Sitzung vor dem Hinzufügen einer Route oder des nächsten Hops angeben, indem Sie die holddown-interval
Anweisung entweder [edit protocols ldp oam bfd-livenesss-detection]
auf Hierarchie- oder Hierarchieebene [edit protocols ldp oam fec address bfd-livenesss-detection]
konfigurieren. Die Angabe einer Zeit von 0 Sekunden bewirkt, dass die Route oder der nächste Hop hinzugefügt wird, sobald die BFD-Sitzung wieder aktiviert wird.
holddown-interval seconds;
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Konfiguration des LDP-Link-Schutzes
Sie können den Linkschutz des Label Distribution Protocol (LDP) sowohl für Unicast als auch für Multicast-LDP-Label-Switched Paths (LSPs) konfigurieren, um Ausfallsicherheit bei Verbindungs- oder Knotenausfällen zu gewährleisten.
Bevor Sie beginnen:
Konfigurieren Sie die Geräteschnittstellen.
Konfigurieren Sie die Router-ID und die autonome Systemnummer für das Gerät.
Konfigurieren Sie die folgenden Protokolle:
RSVP
MPLS mit Traffic-Engineering-Funktion.
OSPF mit Traffic-Engineering-Funktion.
HINWEIS:Für Multicast-LDP-Link-Schutz mit schleifenfreier Alternative (LFA) aktivieren Sie Den Link-Schutz.
[edit protocols] user@R0# set ospf area 0 interface all link-protection
So konfigurieren Sie den LDP-Linkschutz:
Beispiel: Konfiguration des LDP-Link-Schutzes
LDP Link Protection – Übersicht
- Einführung in LDP
- Junos OS LDP-Protokollimplementierung
- Grundlegendes zu Multipoint-Erweiterungen von LDP
- Verwendung von Multipoint-Erweiterungen für LDP in gezielten LDP-Sitzungen
- Aktuelle Einschränkungen des LDP-Link-Schutzes
- Verwenden von RSVP LSP als Lösung
- Grundlegendes zum Schutz von Multicast-LDP-Verbindungen
- Unterschiedliche Modi für die Bereitstellung von LDP-Link-Schutz
- Label-Betrieb für LDP-Link-Schutz
- Beispielkonfiguration für Multicast-LDP-Link-Schutz
- Make-Before-Break
- Vorbehalte und Einschränkungen
Einführung in LDP
Das Label Distribution Protocol (LDP) ist ein Protokoll für die Verteilung von Labeln in Anwendungen, die nicht für den Datenverkehr entwickelt wurden. LDP ermöglicht Routern die Einrichtung von Label-Switched Paths (LSPs) durch ein Netzwerk, indem die Routing-Informationen auf Netzwerkebene direkt den Datenverbindungs-LSPs zugeordnet werden.
Diese LSPs können ein Endgerät an einem direkt angeschlossenen Nachbarn (vergleichbar mit IP-Hop-by-Hop-Weiterleitung) oder an einem Netzwerk-Ausgangsknoten haben, der Switching über alle Vermittlerknoten ermöglicht. LSPs, die von LDP eingerichtet wurden, können auch traffic-engineered LSPs passieren, die von RSVP erstellt wurden.
LDP ordnet jedem erstellten LSP eine Forwarding Equivalence Class (FEC) zu. Der FEC, der einem LSP zugeordnet ist, gibt an, welche Pakete diesem LSP zugeordnet sind. LSPs werden durch ein Netzwerk erweitert, da jeder Router das label wählt, das vom nächsten Hop für den FEC angekündigt wird, und es mit dem Label zusammengepleißet wird, das er allen anderen Routern angekündigt hat. Dieser Prozess bildet einen Baum von LSPs, die auf dem Ausgangsrouter konvergieren.
Junos OS LDP-Protokollimplementierung
Die Junos OS-Implementierung von LDP unterstützt LDP-Version 1. Junos OS unterstützt einen einfachen Mechanismus für Tunneling zwischen Routern in einem Interior Gateway Protocol (IGP), um die erforderliche Verteilung externer Routen innerhalb des Cores zu vermeiden. Junos OS ermöglicht einen MPLS-Tunnel neben dem Hop zu allen Ausgangsroutern im Netzwerk, wobei nur eine IGP im Core ausgeführt wird, um Routen an Ausgangsrouter zu verteilen. Edge-Router führen BGP aus, verteilen jedoch keine externen Routen an den Core. Stattdessen wird die rekursive Routensuche am Edge zu einem LSP aufgelöst, der auf den Ausgangsrouter umgestellt ist. Auf den Transit-LDP-Routern sind keine externen Routen erforderlich.
Grundlegendes zu Multipoint-Erweiterungen von LDP
Eine LDP definiert Mechanismen für die Einrichtung von Point-to-Point-, Multipoint-to-Point-, Point-to-Point- und Multipoint-to-Multipoint-LSPs im Netzwerk. Die Point-to-Multipoint- und Multipoint-to-Multipoint-LSPs werden gemeinsam als Multipoint-LSPs bezeichnet, bei denen der Datenverkehr von einer einzigen Quelle zu mehreren Zielen bzw. von mehreren Quellen zu mehreren Zielen fließt. Die Ziel- oder Ausgangsrouter werden als Leaf-Knoten bezeichnet, und der Datenverkehr von der Quelle durchquert einen oder mehrere Transitknoten, bevor er die Leaf-Knoten erreicht.
Junos OS bietet keine Unterstützung für Multipoint-to-Multipoint-LSPs.
Durch die Nutzung der MPLS-Paketreplikationsfunktion des Netzwerks vermeiden Multipoint-LSPs unnötige Paketreplikation am Eingangsrouter. Die Paketreplikation findet nur statt, wenn Pakete an zwei oder mehr unterschiedliche Ziele weitergeleitet werden, die unterschiedliche Netzwerkpfade erfordern.
Verwendung von Multipoint-Erweiterungen für LDP in gezielten LDP-Sitzungen
Die Spezifikation für die Multipoint-Erweiterungen von LDP erfordert, dass die beiden Endpunkte einer LDP-Sitzung direkt mit einem Layer-2-Medium verbunden sind oder von der IGP des Netzwerks als Nachbarn betrachtet werden. Dies wird als LDP-Linksitzung bezeichnet. Wenn die beiden Endgeräte einer LDP-Sitzung nicht direkt verbunden sind, wird die Sitzung als gezielte LDP-Sitzung bezeichnet.
Frühere Junos OS-Implementierungen unterstützen Multicast-LDP nur für Linksitzungen. Mit der Einführung der LDP-Linkschutzfunktion werden die Multicast-LDP-Funktionen auf gezielte LDP-Sitzungen erweitert. Abbildung 2 zeigt eine Beispieltopologie.

Router R7 und R8 sind die upstream (LSR-U) und downstream (LSR-D) Label-Switched Router (LSRs) und stellen Multicast-LDP bereit. Der Core-Router, Router R5, verfügt über RSVP-TE-fähig.
Wenn LSR-D den Point-to-Multipoint-LSP mit Root- und LSP-ID-Attributen einstellt, bestimmt es die Upstream-LSR-U als nächsten Hop auf dem besten Pfad zum Root (derzeit wird davon ausgegangen, dass dieser Next-Hop ein IGP Next Hop ist).
Mit der Multicast-LDP-Unterstützung für gezielte LDP-Sitzungen können Sie feststellen, ob es neben dem Hop zu LSR-U einen LSP gibt, der sich auf dem Pfad von LSR-D zum Root befindet, wobei LSR-D und LSR-Sie nicht direkt verbundene Nachbarn, sondern gezielte LDP-Peers sind. Das in der angestrebten LDP-Sitzung zwischen LSR-D und LSR-U angekündigte Point-to-Multipoint-Label wird nicht verwendet, es sei denn, es gibt einen LSP zwischen LSR-D und LSR-U. Daher ist ein entsprechender LSP in umgekehrter Richtung von LSR-you zu LSR-D erforderlich.
Die Daten werden über den Point-to-Multipoint-LSP mit Unicast-Replikation von Paketen übertragen, wobei LSR-U eine Kopie an jeden Downstream-LSR des Point-to-Multipoint-LSP sendet.
Die Datenübertragung erfolgt auf folgende Weise:
Die Point-to-Multipoint-Funktionen in der angestrebten LDP-Sitzung werden ausgehandelt.
Der Algorithmus zur Auswahl des Upstream-LSR wird geändert, wobei ein RSVP-LSP als nächster Hop verwendet wird, wenn IGP next Hops nicht verfügbar sind, oder mit anderen Worten, es gibt keine LDP-Verbindungssitzung zwischen LSR-D und LSR-U, ein RSVP-LSP als nächster Hop, um LSR-U zu erreichen.
Die eingehenden Label, die über die angestrebten LDP-Sitzungen empfangen werden, werden als nächster Hop der Zweigstelle für diese Point-to-Multipoint-FEC-Route mit dem LDP-Label als innerem Label und dem RSVP-Label als äußeres Label installiert.
Aktuelle Einschränkungen des LDP-Link-Schutzes
Wenn bei einer LDP-Netzwerkbereitstellung ein Verbindungs- oder Knotenausfall auftritt, sollte der Datenverkehr schnell wiederhergestellt werden, um die beeinträchtigten Datenverkehrsströme für geschäftskritische Services wiederherzustellen. Wenn eine der Verbindungen der Point-to-Multipoint-Struktur ausfällt, werden die Teilbäume möglicherweise getrennt, bis die IGP-Konfiguration neu konfiguriert und der Multipoint-LSP mithilfe des besten Pfads vom Downstream-Router zum neuen Upstream-Router eingerichtet wird.
Bei fast rerouten mit lokaler Reparatur für LDP-Datenverkehr wird ein Backup-Pfad (Reparaturpfad) in der Packet Forwarding Engine vorinstalliert. Wenn der primäre Pfad fehlschlägt, wird der Datenverkehr schnell in den Backup-Pfad verlagert, ohne darauf warten zu müssen, dass die Routing-Protokolle zusammenlaufen. Loop-Free Alternate (LFA) ist eine der Methoden zur Bereitstellung von IP-Fast-Reroute-Funktionen in Core- und Service Provider-Netzwerken.
Wenn eine Verbindung oder ein Router ausfällt oder wieder in Betrieb geht, berechnen die verteilten Routing-Algorithmen ohne LFA die neuen Routen basierend auf den Änderungen im Netzwerk. Die Zeit, in der die neuen Routen berechnet werden, wird als Routing-Übergang bezeichnet. Bis die Routing-Umstellung abgeschlossen ist, wird die Netzwerkkonnektivität unterbrochen, da die an einen Fehler angrenzenden Router die Datenpakete weiterhin durch die ausgefallene Komponente weiterleiten, bis ein alternativer Pfad identifiziert wird.
Aufgrund der IGP-Metriken bietet LFA jedoch nicht die vollständige Abdeckung in allen Netzwerkbereitstellungen. Infolgedessen beschränkt sich dies auf die aktuellen LDP-Link-Schutzschemata.
Abbildung 3 veranschaulicht ein Beispielnetzwerk mit unvollständiger LFA-Abdeckung, bei dem datenverkehr vom Quellrouter (S) zum Zielrouter (D) durch Router R1 fließt. Wenn jede Verbindung im Netzwerk dieselbe Kennzahl hat, ist Router R4 keine LFA, die die S-R1-Verbindung schützt, wenn die Verbindung zwischen Router S und Router R1 ausfällt. Daher wird keine vollständige Abdeckung durch die Verwendung von einfachen LFA erreicht. In typischen Netzwerken gibt es immer einen gewissen Prozentsatz der LFA-Abdeckungslücken mit einfachen LFA.

Verwenden von RSVP LSP als Lösung
Der Schlüssel zum Schutz des Datenverkehrs, der durch LDP-LSPs fließt, ist ein expliziter Tunnel, um den Datenverkehr im Falle eines Ausfalls einer Verbindung oder eines Knotens umzuleiten. Der explizite Pfad muss auf dem nächsten Downstream-Router enden, und der Datenverkehr muss auf dem expliziten Pfad akzeptiert werden, an dem die RPF-Prüfung durchlaufen soll.
RSVP-LSPs helfen, die aktuellen Einschränkungen von loop-free alternate (LFA) sowohl für Point-to-Point- als auch Point-to-Multipoint-LDP-LSPs zu überwinden, indem sie die LFA-Abdeckung mit den folgenden Methoden erweitert:
Manuell konfigurierte RSVP-LSPs
Wenn der Abbildung 3S-R1-Link ausfällt und Router R4 kein LFA für diesen bestimmten Link ist, wird ein manuell erstellter RSVP-LSP als Patch verwendet, um eine vollständige LFA-Abdeckung zu gewährleisten. Der RSVP-LSP ist vorab signalisiert und in der Packet Forwarding Engine von Router S vorinstalliert, sodass er verwendet werden kann, sobald Router S feststellt, dass die Verbindung ausgefallen ist.

In diesem Fall wird ein RSVP-LSP zwischen den Routern S, R4 und R3 erstellt, wie in Abbildung 4dargestellt. Zwischen Router S und Router R3 wird eine gezielte LDP-Sitzung erstellt, wodurch der Datenverkehr beim Ausfall der S-R1-Verbindung den Router R3 erreicht. Router R3 leitet den Datenverkehr an Router R2 weiter, da es der kürzeste Pfad ist, um das Ziel, Router D, zu erreichen.
Dynamisch konfigurierte RSVP-LSPs
Bei dieser Methode werden die RSVP-LSPs automatisch erstellt und im System vorinstalliert, sodass sie bei einem Verbindungsausfall sofort verwendet werden können. Hier ist der Ausgang der Knoten auf der anderen Seite des zu schützenden Links, wodurch die LFA-Abdeckung verbessert wird.
Benefits of Enabling Dynamic RSVP LSPs
Einfache Konfiguration.
100 Prozent Abdeckung vor Verbindungsausfällen, solange es einen alternativen Weg zum äußersten Ende der geschützten Verbindung gibt.
Das Einrichten und Abreißen des RSVP-Bypass-LSP erfolgt automatisch.
RSVP-LSP wird nur zum Linkschutz und nicht zur Weiterleitung des Datenverkehrs verwendet, während der zu schützenden Link verfügbar ist.
Reduziert die Gesamtzahl der im System erforderlichen RSVP-LSPs.
Zum Schutz Abbildung 3des Datenverkehrs vor dem potenziellen Ausfall der S-R1-Verbindung, da Router R4 keine LFA für diesen bestimmten Link ist, wird automatisch ein RSVP-Bypass-LSP für Router R1 erstellt, der den Knoten auf der anderen Seite des geschützten Links darstellt, wie in Abbildung 5dargestellt. Vom Router R1 wird der Datenverkehr an sein ursprüngliches Ziel, Den Router D, weitergeleitet.
Der RSVP-LSP ist vorab signalisiert und in der Packet Forwarding Engine von Router S vorinstalliert, sodass er verwendet werden kann, sobald Router S feststellt, dass die Verbindung ausgefallen ist.

Eine alternative Betriebsart besteht darin, LFA überhaupt nicht zu verwenden und immer den RSVP-LSP zur Abdeckung aller Verbindungsausfälle zu erstellen.
Um dynamische RSVP-LSPs zu aktivieren, fügen Sie die dynamic-rsvp-lsp
Anweisung auf [edit protocols ldp interface interface-name link-protection]
Hierarchieebene hinzu und aktivieren Sie nicht nur das RSVP-Protokoll auf den entsprechenden Schnittstellen.
Grundlegendes zum Schutz von Multicast-LDP-Verbindungen
Ein Point-to-Multipoint-LDP-Label-Switched Path (LSP) ist ein LSP mit LDP-Signalen, der Point-to-Multipoint ist und als Multicast-LDP bezeichnet wird.
Ein Multicast-LDP-LSP kann verwendet werden, um Datenverkehr von einem einzelnen Root- oder Eingangsknoten an eine Reihe von Leaf- oder Ausgangsknoten zu senden, die einen oder mehrere Transitknoten passieren. Multicast-LDP-Link-Schutz ermöglicht eine schnelle Umleitung des Datenverkehrs über Point-to-Multipoint-LDP-LSPs im Falle eines Verbindungsausfalls. Wenn eine der Verbindungen der Point-to-Multipoint-Struktur ausfällt, werden die Unterbäume möglicherweise getrennt, bis sich die IGP rekonvergent und der Multipoint-LSP mithilfe des besten Pfads vom Downstream-Router zum neuen Upstream-Router eingerichtet wird.
Zum Schutz des Datenverkehrs, der über den Multicast-LDP-LSP fließt, können Sie einen expliziten Tunnel konfigurieren, um den Datenverkehr im Falle eines Verbindungsausfalls umzuleiten. Der explizite Pfad muss auf dem nächsten Downstream-Router enden. Die Reverse-Path-Weiterleitung für den Datenverkehr sollte erfolgreich sein.
Der Multicast-LDP-Linkschutz führt die folgenden Funktionen ein:
Verwendung von dynamischen RSVP-LSP als Bypass-Tunnel
Das Explicit Route Object (ERO) der RSVP-LSP wird unter Verwendung von Constrained Shortest Path First (CSPF) berechnet, wobei die Einschränkung als Link zur Vermeidung dient. Der LSP wird bei Bedarf dynamisch signalisiert und heruntergerissen.
Make-before-Break
Die Make-before-Break-Funktion stellt sicher, dass es einen minimalen Paketverlust gibt, wenn versucht wird, einen neuen LSP-Pfad zu signalisieren, bevor der alte LSP-Pfad für den Multicast-LDP-LSP unterbrochen wird.
Gezielte LDP-Sitzung
Eine gezielte Nachbarschaft zum downstream-Label-Switching-Router (LSR) wird aus zwei Gründen erstellt:
Um die Sitzung nach einem Verbindungsausfall aufrechtzuerhalten.
So verwenden Sie das von der Sitzung empfangene Point-to-Multipoint-Label, um Datenverkehr an die Downstream-LSR im RSVP-LSP-Bypass-Tunnel zu senden.
Wenn der Downstream-LSR den Multicast-LDP-LSP mit dem Root-Knoten und der LSP-ID einrichtet, verwendet er diesen Upstream-LSR, der sich auf dem besten Pfad zum Root befindet.
Multicast-LDP-Link-Schutz ist nicht erforderlich, wenn mehrere Link-Adjacencies (parallele Links) zum Downstream-LSR vorhanden sind.
Unterschiedliche Modi für die Bereitstellung von LDP-Link-Schutz
Die folgenden drei Betriebsarten stehen für den Schutz von Unicast- und Multicast-LDP-Verbindungen zur Verfügung:
Case A: LFA only
Im Rahmen dieser Betriebsart wird multicast-LDP-Link-Schutz mithilfe eines vorhandenen viable loop-free alternate (LFA) bereitgestellt. In Ermangelung einer brauchbaren LFA ist der Link-Schutz für den Multicast-LDP-LSP nicht vorgesehen.
Case B: LFA and Dynamic RSVP LSP
Im Rahmen dieser Betriebsart wird multicast-LDP-Link-Schutz mithilfe einer vorhandenen rentablen LFA bereitgestellt. Wenn keine brauchbare LFA vorhanden ist, wird automatisch ein RSVP-Bypass-LSP erstellt, um den Linkschutz für den Multicast-LDP-LSP zu gewährleisten.
Case C: Dynamic RSVP LSP only
In dieser Betriebsart wird LFA nicht zum Linkschutz verwendet. Multicast-LDP-Link-Schutz wird durch die Verwendung von automatisch erstellten RSVP-Bypass-LSP bereitgestellt.
Abbildung 6 ist eine Beispieltopologie, die die verschiedenen Betriebsarten für den Schutz von Multicast-LDP-Verbindungen veranschaulicht. Router R5 ist die Root-Verbindung mit zwei Leaf-Knoten, den Routern R3 und R4. Router R0 und Router R1 sind die vor- und nachgelagerten Label-Switched Router (LSRs). Ein Multicast-LDP-LSP wird zwischen den Root- und Leaf-Knoten ausgeführt.

In Anbetracht der Tatsache, dass Router R0 den Multicast-LDP-LSP schützen muss, wenn die R0-R1-Verbindung ausfällt, arbeiten die verschiedenen Verbindungsschutzmodi wie folgt:
Case A: LFA only
Router R0 prüft, ob ein brauchbarer LFA-Pfad vorhanden ist, der die R0-R1-Verbindung vermeiden kann, um den Router R1 zu erreichen. Basierend auf den Metriken ist Router R2 ein gültiger LFA-Pfad für den R0-R1-Link und wird zur Weiterleitung von Unicast-LDP-Datenverkehr verwendet. Wenn mehrere Multicast-LDP-LSPs den R0-R1-Link verwenden, wird dieselbe LFA (Router R2) für den Multicast-LDP-Linkschutz verwendet.
Wenn der R0-R1-Link ausfällt, wird der Multicast-LDP-LSP-Datenverkehr vom Router R0 auf den LFA-Pfad verschoben, und das Unicast-LDP-Label, um Router R1 (L100) zu erreichen, wird über das Multicast-LDP-Label (L21) gepusht.
Case B: LFA and Dynamic RSVP LSP
Router R0 prüft, ob ein brauchbarer LFA-Pfad vorhanden ist, der die R0-R1-Verbindung vermeiden kann, um den Router R1 zu erreichen. Basierend auf den Metriken ist Router R2 ein gültiger LFA-Pfad für den R0-R1-Link und wird zur Weiterleitung von Unicast-LDP-Datenverkehr verwendet. Wenn mehrere Multicast-LDP-LSPs den R0-R1-Link verwenden, wird dieselbe LFA (Router R2) für den Multicast-LDP-Linkschutz verwendet. Wenn der R0-R1-Link ausfällt, wird der Multicast-LDP-LSP-Datenverkehr durch Router R0 auf den LFA-Pfad verschoben.
Wenn die Metrik für die R2-R1-Verbindung jedoch 50 statt 10 war, ist Router 2 keine gültige LFA für die R0-R1-Verbindung. In diesem Fall wird automatisch ein RSVP-LSP erstellt, um den Multicast-LDP-Datenverkehr zu schützen, der zwischen den Routern R0 und R1 unterwegs ist.
Case C: Dynamic RSVP LSP only
Ein RSVP-LSP wird automatisch von Router R0 zu Router R1 bis Router R2 signalisiert, wodurch die Schnittstelle ge-1/1/0 vermieden wird. Wenn mehrere Multicast-LDP-LSPs den R0-R1-Link verwenden, wird dieselbe RSVP-LSP für den Multicast-LDP-Linkschutz verwendet.
Wenn der R0-R1-Link ausfällt, wird der Multicast-LDP-LSP-Datenverkehr vom Router R0 auf den RSVP-LSP verschoben, und das RSVP-Label, um Router R1 (L100) zu erreichen, wird über das Multicast-LDP-Label (L21) gepusht.
Label-Betrieb für LDP-Link-Schutz
Die Verwendung derselben Netzwerktopologie wie in Abbildung 5 Abbildung 7 veranschaulicht den Label-Vorgang für den Schutz von Unicast- und Multicast-LDP-Verbindungen.

Router R5 ist die Root-Verbindung mit zwei Leaf-Knoten, den Routern R3 und R4. Router R0 und Router R1 sind die vor- und nachgelagerten Label-Switched Router (LSRs). Ein Multicast-LDP-LSP wird zwischen den Root- und Leaf-Knoten ausgeführt. Ein Unicast-LDP-Pfad verbindet Router R1 mit Router R5.
Der Label-Vorgang wird unter den folgenden Arten des LDP-Link-Schutzes unterschiedlich durchgeführt:
Fall A: Nur LFA
Mithilfe der show route detail
Befehlsausgabe auf Router R0 kann der Unicast-LDP- und Multicast-LDP-Datenverkehr abgeleitet werden.
user@R0> show route detail 299840 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Router Address: 0x93bc22c Next-hop reference count: 1 Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1, selected Label operation: Swap 299824 Session Id: 0x1 Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0xf000 Label operation: Swap 299808 Session Id: 0x3 State: <Active Int> Age: 3:16 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I Prefixes bound to route: 192.168.0.4/32 299856 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x9340e04 Next-hop reference count: 3 Next hop type: Router, Next hop index: 262143 Address: 0x93bc3dc Next-hop reference count: 2 Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1 Label operation: Swap 299888 Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0xf000 Label operation: Swap 299888, Push 299776(top) Label TTL action: prop-ttl, prop-ttl(top) State: <Active Int AckRequest> Age: 3:16 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 192.168.0.5, lsp-id 99
Label 299840 ist Datenverkehr, der am Router R0 ankommt, der dem Unicast-LDP-Datenverkehr zu Router R1 entspricht. Label 299856 ist Datenverkehr, der an Router 0 ankommt, der Multicast-LDP-Datenverkehr vom Root-Knoten R5 zu den Leaf-Ausgangsknoten R3 und R4 entspricht.
Der Hauptpfad für Unicast- und Multicast-LDP-LDP-LSPs führt über schnittstelle ge-0/0/1 (die Verbindung zu Router R1), und der LFA-Pfad führt über schnittstelle ge-0/0/2 (die Verbindung zu Router R2). Der LFA-Pfad wird nur verwendet, wenn die ge-0/0/1-Schnittstelle ausfällt.
Im Label-Vorgang für Fall A unterscheidet sich der rein LFA-Betriebsmodus für Unicast- und Multicast-LDP-Datenverkehr:
Unicast-Label-Betrieb
Für Unicast-LDP-Datenverkehr werden die FECs und die zugehörigen Label auf allen Verbindungen im Netzwerk, auf denen LDP aktiviert ist, angekündigt. Das bedeutet, dass Router R0, um eine LFA-Aktion für den Unicast-LDP-Datenverkehr an Router R4 bereitzustellen, anstatt das eingehende Label gegen Label gegen Label zu ersetzen 299824 von Router R1 für FEC R4 angekündigt, router R0 einfach das eingehende Label gegen Label 299808 von Router R2 gegen FEC R4 angekündigt. Dies ist der Standardmäßige Junos OS LFA-Betrieb für Unicast-LDP-Datenverkehr.
Abbildung 8 veranschaulicht den Label-Vorgang für Unicast-Datenverkehr, wenn die R0-R1-Verbindung ausfällt. Die grauen Felder zeigen den Label-Vorgang für Unicast-LDP-Datenverkehr im normalen Zustand, und die gestrichelten Felder zeigen den Label-Vorgang für Unicast-LDP-Datenverkehr, wenn der R0-R1-Link ausfällt.
Abbildung 8: Unicast LDP-Label-BetriebMulticast-Label-Betrieb
Der Label-Betrieb für Multicast-LDP-Datenverkehr unterscheidet sich von dem Unicast-LDP-Label-Vorgang, da Multipoint-LSP-Label nur auf dem besten Pfad vom Leaf-Knoten zum Eingangsknoten angekündigt werden. Daher hat Router R2 keine Kenntnis von der Multicast-LDP. Um dies zu überwinden, wird der Multicast-LDP-LSP-Datenverkehr einfach innerhalb des Unicast-LDP-LSP-Pfads durch den Router R2 getunnelt, der am Router R1 endet.
Um dies zu erreichen, tauscht Router R0 zunächst das eingehende Multicast-LDP-LSP-Label aus, 299856, um 299888 zu kennzeichnen, die von Router R1 angekündigt wurden. Dann wird das Label 299776 auf den Schieber geschoben, das LDP-Label, das von Router R2 für FEC R1 beworben wird. Wenn das Paket am Router R2 ankommt, wird das Top-Label aufgrund des vorletzten Hop-Hop-Poppings angezeigt. Das bedeutet, dass das Paket mit dem Multicast-LDP-Label an Router R1 ankommt 299888, den Router R1 ursprünglich an Router R0 angekündigt hatte.
Abbildung 9 veranschaulicht den Label-Vorgang für Multicast-LDP-Datenverkehr, wenn die R0-R1-Verbindung ausfällt. Die blauen Felder zeigen den Label-Vorgang für Multicast-LDP-Datenverkehr im normalen Zustand, und die gepunkteten Felder zeigen den Label-Vorgang für Multicast-LDP-Datenverkehr, wenn der R0-R1-Link ausfällt.
Abbildung 9: Multicast-LDP-Label-Betrieb
Wenn die Metrik für den R2-R1-Link auf 1000 statt auf 1 festgelegt ist, ist Router R2 keine gültige LFA für Router R0. Wenn Router R2 ein Paket empfängt, das für Router R1, R3 oder R4 bestimmt ist, bevor seine IGP konvergiert ist, wird das Paket zurück an Router R0 gesendet, was zu Schleifen von Paketen führt.
Da Router R0 keine praktikablen LFA hat, werden keine Backup-Pfade in der Packet Forwarding Engine installiert. Wenn der R0-R1-Link ausfällt, wird der Datenverkehr unterbrochen, bis IGP und LDP zusammenlaufen und neue Einträge auf den betroffenen Routern installiert werden.
Der show route detail
Befehl zeigt den Status an, wenn keine LFA zum Linkschutz verfügbar ist.
user@host> show route detail 299840 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Router, Next hop index: 578 Address: 0x9340d20 Next-hop reference count: 2 Next hop: 11.0.0.6 via ge-0/0/1.0, selected Label operation: Swap 299824 Session Id: 0x1 State: <Active Int> Age: 5:38 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I Prefixes bound to route: 192.168.0.4/32 299856 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x9340e04 Next-hop reference count: 3 Next hop type: Router, Next hop index: 579 Address: 0x93407c8 Next-hop reference count: 2 Next hop: 11.0.0.6 via ge-0/0/1.0 Label operation: Swap 299888 State: <Active Int AckRequest> Age: 5:38 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 192.168.0.5, lsp-id 99
Fall B: LFA und Dynamic RSVP LSP
Wenn ein brauchbarer LFA-Nachbarn vorhanden ist, ähnelt das Verhalten des Label-Vorgangs in dieser Betriebsart dem des Modus "Fall A", nur LFA. Wenn es jedoch keinen brauchbaren LFA-Nachbarn gibt, wird automatisch ein RSVP-Bypass-Tunnel erstellt.
Wenn die Metrik auf der Verbindung R2-R1 auf 1000 statt auf 1 festgelegt ist, ist Router R2 keine LFA für Router R0. Wenn Sie erfahren, dass es keine LFA-Pfade zum Schutz des R0-R1-Verbindungsausfalls gibt, wird automatisch ein RSVP-Bypass-Tunnel mit Router R1 als Ausgangsknoten erstellt und folgt einem Pfad, der die R0-R1-Verbindung vermeidet (z. B. R0-R2-R1).
Wenn der R0-R1-Link ausfällt, wird der Unicast-LDP- und Multicast-LDP-Datenverkehr durch den RSVP-Bypass-Tunnel tunnelt. Der RSVP-Bypass-Tunnel wird nicht für die normale Weiterleitung verwendet und dient nur dem Linkschutz für den LDP-Datenverkehr im Falle eines Ausfalls der R0-R1-Verbindung.
Mit dem show route detail
Befehl kann der Unicast- und Multicast-LDP-Datenverkehr abgeleitet werden.
user@host> show route detail 299840 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Router Address: 0x940c3dc Next-hop reference count: 1 Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1, selected Label operation: Swap 299824 Session Id: 0x1 Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0x8001 Label-switched-path ge-0/0/1.0:BypassLSP->192.168.0.1 Label operation: Swap 299824, Push 299872(top) Label TTL action: prop-ttl, prop-ttl(top) Session Id: 0x3 State: <Active Int NhAckRequest> Age: 19 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I Prefixes bound to route: 192.168.0.4/32 299856 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x9340e04 Next-hop reference count: 3 Next hop type: Router, Next hop index: 262143 Address: 0x940c154 Next-hop reference count: 2 Next hop: 11.0.0.6 via ge-0/0/1.0 weight 0x1 Label operation: Swap 299888 Next hop: 11.0.0.10 via ge-0/0/2.0 weight 0x8001 Label-switched-path ge-0/0/1.0:BypassLSP->192.168.0.1 Label operation: Swap 299888, Push 299872(top) Label TTL action: prop-ttl, prop-ttl(top) State: < Active Int AckRequest> Age: 20 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 192.168.0.5, lsp-id 99
Der Hauptpfad für Unicast- und Multicast-LDP-LDP-LSP führt über die Schnittstelle ge-0/0/1 (die Verbindung zu Router R1), und der LFA-Pfad führt über schnittstelle ge-0/0/2 (die Verbindung zu Router R2). Der LFA-Pfad wird nur verwendet, wenn die ge-0/0/1-Schnittstelle ausfällt.
Label 299840 ist Datenverkehr, der am Router R0 ankommt, der dem Unicast-LDP-Datenverkehr zum Router R4 entspricht. Label 299856 ist Datenverkehr, der an Router 0 ankommt, der Multicast-LDP-Datenverkehr vom Root-Knoten R5 zu den Leaf-Ausgangsknoten R3 und R4 entspricht.
Wie in der show route detail
Befehlsausgabe zu sehen ist, sind die Label-Operationen für den Schutzpfad für Unicast-LDP- und Multicast-LDP-Datenverkehr gleich. Das eingehende LDP-Label am Router R0 wird durch das von Router R1 zu Router R0 angekündigte LDP-Label ausgetauscht. Das RSVP-Label 299872 für den Bypass-Tunnel wird dann auf das Paket übertragen. Das vorletzte Hop-Popping wird im Bypass-Tunnel verwendet, sodass Router R2 dieses Label löse. So kommt das Paket mit dem LDP-Label an Router R1 an, das es ursprünglich Router R0 angekündigt hatte.
Abbildung 10 veranschaulicht den Label-Betrieb für Unicast-LDP- und Multicast-LDP-Datenverkehr, der durch den RSVP-Bypass-Tunnel geschützt ist. Die grauen und blauen Felder stellen Labelwerte dar, die unter normalen Bedingungen für Unicast- bzw. Multicast-LDP-Datenverkehr verwendet werden. Die gestrichelten Felder stellen Labelwerte dar, die verwendet werden, wenn die Verbindung R0-R1 ausfällt.

Fall C: Nur dynamische RSVP-LSP
In dieser Betriebsart wird LFA überhaupt nicht verwendet. Ein dynamischer RSVP-Bypass-LSP wird automatisch erstellt, um den Link-Schutz zu gewährleisten. Die Ausgaben des show route detail
Befehls und der Label-Operationen ähneln dem Fall B-, LFA- und dynamischen RSVP-LSP-Modus.
Beispielkonfiguration für Multicast-LDP-Link-Schutz
Um den Multicast-LDP-Linkschutz zu aktivieren, ist auf Router R0 folgende Konfiguration erforderlich:
In diesem Beispiel wird der Multicast-LDP-Linkschutz auf der Ge-1/0/0-Schnittstelle des Routers R0 aktiviert, der sich mit Router R1 verbindet, obwohl normalerweise alle Schnittstellen für den Linkschutz konfiguriert werden müssen.
Router R0
protocols { rsvp { interface all; interface ge-0/0/0.0 { disable; } } mpls { interface all; interface ge-0/0/0.0 { disable; } } ospf { traffic-engineering; area 0.0.0.0 { interface lo0.0; interface ge-0/0/1.0 { link-protection; } interface ge-0/0/2.0; interface ge-0/0/3.0; } } ldp { make-before-break { timeout seconds; switchover-delay seconds; } interface ge-1/1/0.0 { link-protection { disable; dynamic-rsvp-lsp; } } } }
Die folgenden Konfigurationsanweisungen gelten für die verschiedenen Arten des Multicast-LDP-Schutzes wie folgt:
link-protection
Statement unter[edit protocols ospf interface ge-0/0/1.0]
Diese Konfiguration wird nur für die Modi Fall A (nur LFA) und Fall B (LFA und dynamische RSVP LSP) des Multicast-LDP-Verbindungsschutzes angewendet. Die Konfiguration des Verbindungsschutzes im Rahmen einer IGP ist für Fall C (nur dynamischer RSVP-LSP) nicht erforderlich.
link-protection
Statement unter[edit protocols ldp interface ge-0/0/1.0]
Diese Konfiguration ist für alle Arten des Multicast-LDP-Schutzes erforderlich. Wenn jedoch der einzige LDP-Datenverkehr unicast ist und keine dynamischen RSVP-Umgehungen erforderlich sind, ist diese Konfiguration nicht erforderlich, da die
link-protection
Anweisung auf[edit protocols ospf interface ge-0/0/1.0]
Der Hierarchieebene eine LFA-Aktion für den LDP-Unicast-Datenverkehr ergibt.dynamic-rsvp-lsp
Statement unter[edit protocols ldp interface ge-0/0/1.0 link-protection]
Diese Konfiguration wird nur für die LDP-Linkschutzmodi Fall B (LFA und dynamic RSVP LSP) und Case C (nur dynamischer RSVP-LSP) angewendet. Die dynamische RSVP-LSP-Konfiguration gilt nicht für Fall A (nur LFA).
Make-Before-Break
Die Make-before-Break-Funktion ist standardmäßig unter Junos OS aktiviert und bietet einige Vorteile für Point-to-Multipoint-LSPs.
Für einen Point-to-Multipoint-LSP wählt ein Label-Switched-Router (LSR) den LSR aus, der als nächster Hop zum Root des LSP als upstream-LSR fungiert. Wenn sich der beste Pfad zum Root ändert, wählt die LSR einen neuen Upstream-LSR. Während dieses Zeitraums kann der LSP vorübergehend unterbrochen werden, was zu Paketverlusten führt, bis der LSP zu einer neuen Upstream-LSR überge führt. Das Ziel von Make-before-Break in diesem Fall ist es, den Paketverlust zu minimieren. In Fällen, in denen sich der beste Pfad vom LSR zum Root ändert, der LSP den Datenverkehr aber weiterhin an den vorherigen nächsten Hop an den Root weiterleitt, sollte ein neuer LSP eingerichtet werden, bevor der alte LSP zurückgezogen wird, um die Dauer des Paketverlustes zu minimieren.
Beispielsweise empfängt ein Downstream-LSR (z. B. LSR-D) nach einem Verbindungsausfall weiterhin Pakete und/oder leitet sie an die anderen Downstream-LSRs weiter, während es weiterhin Pakete vom One Hop RSVP LSP empfängt. Sobald das Routing konvergiert ist, wählt LSR-D eine neue Upstream-LSR (LSR-U) für diesen Point-to-Multipoint-LSP (FEC-A). Der neue LSR leitet möglicherweise bereits Pakete für FEC-A an die anderen Downstream-LSRs als LSR-D weiter. Nachdem LSR-U von LSR-D ein Label für FEC-A erhält, benachrichtigt es LSR-D, wenn es erfahren hat, dass LSP für FEC-A von der Wurzel zu sich selbst eingerichtet wurde. Wenn LSR-D eine solche Benachrichtigung erhält, ändert es seinen nächsten Hop für den LSP-Root in LSR-U. Dies ist ein Routenlösch- und Add-Vorgang auf LSR-D. An diesem Punkt führt LSR-D einen LSP-Switchover durch, und Datenverkehr, der über RSVP LSP oder LFA tunnelt wird, wird unterbrochen, und Datenverkehr von LSR-U wird akzeptiert. Die neue Transitroute für LSR-U wird hinzugefügt. Die RPF-Prüfung wird geändert, um Datenverkehr von LSR-you zu akzeptieren und Datenverkehr aus dem alten Upstream-LSR zu löschen, oder die alte Route wird gelöscht und die neue Route wird hinzugefügt.
Die Annahme ist, dass LSR-U eine Make-before-Break-Benachrichtigung von seinem Upstream-Router für den FEC-A Point-to-Multipoint-LSP erhalten hat und einen Weiterleitungsstatus für den LSP installiert hat. Zu diesem Zeitpunkt sollte es LSR-D mittels Make-before-Break-Benachrichtigung signalisieren, dass es Teil des von FEC-A identifizierten Baumes geworden ist und dass LSR-D seinen Wechsel zum LSP einleiten sollte. Andernfalls sollte LSR-U daran denken, dass es eine Benachrichtigung an LSR-D senden muss, wenn es eine Make-before-Break-Benachrichtigung vom upstream-LSR für FEC-A empfängt und einen Weiterleitungsstatus für diesen LSP installiert. LSR-D empfängt weiterhin Datenverkehr vom alten nächsten Hop zum Root-Knoten über einen Hop RSVP LSP oder LFA-Pfad, bis er auf den neuen Point-to-Multipoint-LSP zu LSR-U wechselt.
Die Make-before-Break-Funktionalität mit Multicast-LDP-Linkschutz umfasst die folgenden Funktionen:
Make-before-Break-Funktion
Ein LSR kündigt an, dass er in der Lage ist, Make-before-Break-LSPs mithilfe der Funktionsanzeige zu handhaben. Wenn der Peer nicht make-before-break-fähig ist, werden die Make-before-Break-Parameter nicht an diesen Peer gesendet. Wenn ein LSR einen Make-before-Break-Parameter von einem downstream LSR (LSR-D) empfängt, der Upstream-LSR (LSR-U) jedoch nicht Make-before-Break-fähig ist, sendet der LSR sofort eine Make-before-Break-Benachrichtigung an LSR-D, und der Make-before-Break-fähige LSP ist nicht festgelegt. Stattdessen wird der normale LSP eingerichtet.
Make-before-Break-Statuscode
Der Make-before-Break-Statuscode umfasst:
1 – Bitte um "Make-before-Break"
2 – Make-before-Break-Anerkennung
Wenn ein Downstream-LSR eine Meldung zur Labelzuordnung für Point-to-Multipoint-LSP sendet, enthält er den Make-before-Break-Statuscode als 1 (Request). Wenn der Upstream-LSR den Weiterleitungsstatus für den Point-to-Multipoint-LSP aktualisiert, informiert er den downstream-LSR mit einer Benachrichtigungsnachricht, die den Make-before-Break-Statuscode als 2 (Bestätigung) enthält. An diesem Punkt führt der Downstream-LSR einen LSP-Switchover durch.
Vorbehalte und Einschränkungen
Die Junos OS-Implementierung der LDP-Linkschutzfunktion hat die folgenden Einschränkungen und Einschränkungen:
Make-before-break wird für die folgenden Point-to-Multipoint-LSPs auf einem Ausgangs-LSR nicht unterstützt:
Multicast Virtual Private Network (MVPN) der nächsten Generation mit virtuellem Routing und Weiterleitung (VRF) Label
Statischer LSP
Die folgenden Funktionen werden nicht unterstützt:
Nonstop aktives Routing für Point-to-Multipoint-LSP in Junos OS-Versionen 12.3, 13.1 und 13.2
Graceful Restart switchover Point-to-Multipoint-LSP
Linkschutz für Routing-Instanz
Beispiel: Konfiguration des LDP-Link-Schutzes
Dieses Beispiel zeigt, wie Sie den Linkschutz des Label Distribution Protocol (LDP) für Unicast- und Multicast-LDP-Label-Switched Paths (LSPs) konfigurieren.
Anforderungen
In diesem Beispiel werden die folgenden Hardware- und Softwarekomponenten verwendet:
Sechs Router, bei denen es sich um eine Kombination aus Routern der M-Serie, MX- oder T-Serie mit einem Root-Knoten und zwei Leaf-Knoten mit einem Point-to-Multipoint-LDP-LSP sein kann.
Junos OS Version 12.3 oder höher, die auf allen Routern ausgeführt wird.
Bevor Sie beginnen:
Konfigurieren Sie die Geräteschnittstellen.
Konfigurieren Sie die folgenden Protokolle:
RSVP
MPLS
OSPF oder eine andere IGP
LDP
Überblick
LDP-Link-Schutz ermöglicht eine schnelle Umleitung des Datenverkehrs über LDP-LSPs im Falle eines Verbindungsausfalls. LDP-Point-to-Multipoint-LSPs können verwendet werden, um Datenverkehr von einem einzelnen Root- oder Eingangsknoten an eine Reihe von Leaf- oder Ausgangsknoten zu senden, die einen oder mehrere Transitknoten passieren. Wenn eine der Verbindungen der Point-to-Multipoint-Struktur ausfällt, können die Unterbäume getrennt werden, bis die IGP-Rekonvergent und die Multicast-LDP die Label-Zuordnung mithilfe des besten Pfads vom Downstream-Router zum neuen Upstream-Router initiiert. Zum Schutz des Datenverkehrs im Falle eines Verbindungsausfalls können Sie einen expliziten Tunnel konfigurieren, sodass der Datenverkehr mithilfe des Tunnels umgeleitet werden kann. Junos OS unterstützt Make-before-Break-Funktionen, um einen minimalen Paketverlust zu gewährleisten, wenn versucht wird, einen neuen LSP-Pfad zu signalisieren, bevor der alte LSP-Pfad unterbrochen wird. Diese Funktion fügt auch gezielte LDP-Unterstützung für Multicast-LDP-Link-Schutz hinzu.
Beachten Sie bei der Konfiguration des LDP-Link-Schutzes die folgenden Überlegungen:
Konfigurieren Sie Traffic Engineering unter IGP (wenn es standardmäßig nicht unterstützt wird), und schließen Sie die Schnittstellen ein, die für MPLS und RSVP konfiguriert sind, sodass eingeschränkter linkgeschützter dynamischer RSVP-LSP von RSVP mithilfe von Constrained Shortest Path First (CSPF) signalisiert wird. Wenn diese Bedingung nicht erfüllt ist, wird der RSVP-LSP möglicherweise nicht aufgerufen, und LDP kann ihn nicht als geschützten nächsten Hop verwenden.
Konfigurieren Sie einen Pfad zwischen zwei Label-Switched Routern (LSRs), um bei einem Verbindungsausfall eine IP-Verbindung zwischen den Routern bereitzustellen. Auf diese Weise kann CSPF einen alternativen Pfad für den Linkschutz berechnen. Wenn die Konnektivität zwischen den Routern verloren geht, tritt die von LDP gezielte Adjacency nicht auf und der dynamische RSVP-LSP kann nicht signalisiert werden, was zu keinem Schutz für die LDP Forwarding Equivalence Class (FEC) führt, für die der Peer die Downstream-LSR ist.
Wenn der Verbindungsschutz nur auf einer LSR aktiv ist, sollte der andere LSR nicht mit der
strict-targeted-hellos
Anweisung konfiguriert werden. Dies ermöglicht die LSR ohne Link-Schutz, um eine asymmetrische Remote-Neighbor-Erkennung zu ermöglichen und regelmäßig gezielte Hallos an die LSR zu senden, die den Remote-Nachbarn initiiert hat. Wenn diese Bedingung nicht erfüllt ist, wird keine LDP-gezielte Adjacency gebildet.LDP muss auf der Loopback-Schnittstelle des LSR aktiviert werden, um Remote-Nachbarn zu erstellen, die auf LDP-Tunneling, LDP-basierten virtuellen privaten LAN-Service (VPLS), Layer-2-Circuits oder LDP-Sitzungsschutz basieren. Wenn diese Bedingung nicht erfüllt ist, wird keine LDP-gezielte Adjacency gebildet.
Für Unicast-LDP-LSP sollte loop-free alternate (LFA) in IGP konfiguriert werden.
Die Eingangsroute zum Mergepunkt sollte mindestens einen nächsten Hop haben, um die primäre Verbindung zwischen dem Mergepunkt und dem Punkt der lokalen Reparatur für Unicast-LDP-LSP zu vermeiden.
Der Lokale Reparaturpunkt sollte ein Unicast-LDP-Label für den Backup-nächsten Hop haben, um den Merge point zu erreichen.
Topologie

In diesem Beispiel ist Router R5 der Root, der mit zwei Leaf-Knoten, den Routern R3 und R4, verbindet. Router R0 ist der Ort der Reparatur.
Konfiguration
CLI-Schnellkonfiguration
Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen sie in eine Textdatei ein, entfernen alle Zeilenumbrüche, ändern alle erforderlichen Details, um mit Ihrer Netzwerkkonfiguration zu übereinstimmen, kopieren Sie die Befehle, fügen Sie sie auf Hierarchieebene in die [edit]
CLI ein, und geben Sie dann aus dem Konfigurationsmodus ein commit
.
R5
set interfaces ge-0/0/0 unit 0 family inet address 10.10.10.1/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.5/32 set routing-options router-id 10.255.1.5 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R0
set interfaces ge-0/0/0 unit 0 family inet address 10.10.10.2/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 20.10.10.1/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 30.10.10.1/30 set interfaces ge-0/0/2 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.0/32 set routing-options router-id 10.255.1.0 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R1
set interfaces ge-0/0/0 unit 0 family inet address 60.10.10.2/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 40.10.10.1/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces ge-0/0/2 unit 0 family inet address 30.10.10.2/30 set interfaces ge-0/0/2 unit 0 family mpls set interfaces ge-0/0/3 unit 0 family inet address 50.10.10.1/30 set interfaces ge-0/0/3 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.1/32 set routing-options router-id 10.255.1.1 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R2
set interfaces ge-0/0/0 unit 0 family inet address 60.10.10.1/30 set interfaces ge-0/0/0 unit 0 family mpls set interfaces ge-0/0/1 unit 0 family inet address 20.10.10.2/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.2/32 set routing-options router-id 10.255.1.2 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp
R3
set interfaces ge-0/0/1 unit 0 family inet address 40.10.10.2/30 set interfaces ge-0/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.3/32 set routing-options router-id 10.255.1.3 set routing-options autonomous-system 100 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp root-address 10.255.1.5 lsp-id 1
R4
set interfaces ge-0/0/3 unit 0 family inet address 50.10.10.2/30 set interfaces ge-0/0/3 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.1.4/32 set protocols rsvp interface all set protocols rsvp interface fxp0.0 disable set protocols mpls traffic-engineering set protocols mpls interface all set protocols mpls interface fxp0.0 disable set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all metric 1 set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface all link-protection dynamic-rsvp-lsp set protocols ldp interface fxp0.0 disable set protocols ldp p2mp root-address 10.255.1.5 lsp-id 1
Verfahren
Schritt-für-Schritt-Verfahren
Im folgenden Beispiel müssen Sie auf verschiedenen Ebenen in der Konfigurationshierarchie navigieren. Informationen zum Navigieren in der CLI finden Sie unter Verwenden des CLI-Editors im Konfigurationsmodus.
So konfigurieren Sie Router R0:
Konfigurieren Sie die Router R0-Schnittstellen.
[edit interfaces]
user@R0# set ge-0/0/0 unit 0 family inet address 10.10.10.2/30 user@R0# set ge-0/0/0 unit 0 family mpls user@R0# set ge-0/0/1 unit 0 family inet address 20.10.10.1/30 user@R0# set ge-0/0/1 unit 0 family mpls user@R0# set ge-0/0/2 unit 0 family inet address 30.10.10.1/30 user@R0# set ge-0/0/2 unit 0 family mpls user@R0# set lo0 unit 0 family inet address 10.255.1.0/32Konfigurieren Sie die Router-ID und das autonome System des Routers R0.
[edit routing-options]
user@R0# set router-id 10.255.1.0 user@R0# set autonomous-system 100Aktivieren Sie RSVP auf allen Schnittstellen von Router R0 (mit Ausnahme der Verwaltungsschnittstelle).
[edit protocols]
user@R0# set rsvp interface all user@R0# set rsvp interface fxp0.0 disableAktivieren Sie MPLS auf allen Schnittstellen des Routers R0 (mit Ausnahme der Verwaltungsschnittstelle) zusammen mit Traffic-Engineering-Funktionen.
[edit protocols]
user@R0# set mpls traffic-engineering user@R0# set mpls interface all user@R0# set mpls interface fxp0.0 disableAktivieren Sie OSPF auf allen Schnittstellen des Routers R0 (mit Ausnahme der Verwaltungsschnittstelle), weisen Sie die gleichen Kosten für die Verbindungen zu und ermöglichen Sie Traffic-Engineering-Funktionen.
[edit protocols]
user@R0# set ospf traffic-engineering user@R0# set ospf area 0.0.0.0 interface all metric 1 user@R0# set ospf area 0.0.0.0 interface fxp0.0 disableHINWEIS:Aktivieren Sie für multicast-LDP-Link-Schutz mit schleifenfreier Alternative (LFA) die folgende Konfiguration auf der
[edit protocols]
Hierarchieebene:set ospf area 0 interface all link-protection
Aktivieren Sie LDP auf allen Schnittstellen von Router R0 (mit Ausnahme der Verwaltungsschnittstelle) und konfigurieren Sie den Linkschutz mit dynamischem RSVP-Bypass-LSP.
[edit protocols]
user@R0# set ldp interface all link-protection dynamic-rsvp-lsp user@R0# set ldp interface fxp0.0 disable user@R0# set ldp p2mp
Ergebnisse
Bestätigen Sie ihre Konfiguration im Konfigurationsmodus, indem Sie die show interfaces
Befehle und show protocols
show routing-options
die Befehle eingeben. Wenn die gewünschte Konfiguration in der Ausgabe nicht angezeigt wird, wiederholen Sie die Anweisungen in diesem Beispiel, um die Konfiguration zu korrigieren.
user@R0# show interfaces ge-0/0/0 { unit 0 { family inet { address 10.10.10.2/30; } family mpls; } } ge-0/0/1 { unit 0 { family inet { address 20.10.10.1/30; } family mpls; } } ge-0/0/2 { unit 0 { family inet { address 30.10.10.1/30; } family mpls; } } lo0 { unit 0 { family inet { address 10.255.1.0/32; } } }
user@R0# show routing-options router-id 10.255.1.0; autonomous-system 100;
user@R0# show protocols rsvp { interface all; interface fxp0.0 { disable; } } mpls { traffic-engineering; interface all; interface fxp0.0 { disable; } } ospf { traffic-engineering; area 0.0.0.0 { interface all { metric 1; } interface fxp0.0 { disable; } } } ldp { interface all { link-protection { dynamic-rsvp-lsp; } } interface fxp0.0 { disable; } p2mp; }
Überprüfung
Stellen Sie sicher, dass die Konfiguration ordnungsgemäß funktioniert.
Überprüfung des Bypass-RSVP-LSP-Pfads
Zweck
Stellen Sie sicher, dass der Umgehungs-RSVP-LSP-Pfad am Point of Local Repair (PLR) erstellt wurde.
Aktion
Führen Sie den Befehl im show route tale mpls.0
Betriebsmodus aus.
user@R0> show route tale mpls.0 mpls.0: 17 destinations, 17 routes (17 active, 0 holddown, 0 hidden) + = Active Route, - = Last Active, * = Both 0 *[MPLS/0] 05:28:13, metric 1 Receive 1 *[MPLS/0] 05:28:13, metric 1 Receive 2 *[MPLS/0] 05:28:13, metric 1 Receive 13 *[MPLS/0] 05:28:13, metric 1 Receive 299792 *[LDP/9] 00:41:41, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Pop 299792(S=0) *[LDP/9] 00:41:41, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Pop 299808 *[LDP/9] 00:41:41, metric 1 > to 20.10.10.2 via ge-0/0/1.0, Pop 299808(S=0) *[LDP/9] 00:41:41, metric 1 > to 20.10.10.2 via ge-0/0/1.0, Pop 299920 *[RSVP/7/1] 01:51:43, metric 1 > to 30.10.10.2 via ge-0/0/2.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.1 299920(S=0) *[RSVP/7/1] 01:51:43, metric 1 > to 30.10.10.2 via ge-0/0/2.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.1 299936 *[RSVP/7/1] 01:51:25, metric 1 > to 20.10.10.2 via ge-0/0/1.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.2 299936(S=0) *[RSVP/7/1] 01:51:25, metric 1 > to 20.10.10.2 via ge-0/0/1.0, label-switched-path ge-0/0/0.0:BypassLSP->10.255.1.2 299952 *[LDP/9] 00:06:11, metric 1 > to 10.10.10.1 via ge-0/0/0.0, Pop 299952(S=0) *[LDP/9] 00:06:11, metric 1 > to 10.10.10.1 via ge-0/0/0.0, Pop 299968 *[LDP/9] 00:05:39, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Swap 299984 299984 *[LDP/9] 00:05:38, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Swap 300000 300000 *[LDP/9] 00:05:15, metric 1 > to 30.10.10.2 via ge-0/0/2.0, Swap 300016
Bedeutung
Wenn der R0-R1-Link ausfällt, wird der RSVP-Bypass-LSP verwendet, um den Datenverkehr zu routen.
Überprüfung des Label-Betriebs
Zweck
Überprüfen Sie den Label-Austausch am PLR.
Aktion
Führen Sie den Befehl im show route table mpls.0 label label extensive
Betriebsmodus aus.
user@R0> show route table mpls.0 label 300000 extensive mpls.0: 17 destinations, 17 routes (17 active, 0 holddown, 0 hidden) 300000 (1 entry, 1 announced) TSI: KRT in-kernel 300000 /52 -> {Swap 300016} *LDP Preference: 9 Next hop type: Router, Next hop index: 589 Address: 0x9981610 Next-hop reference count: 2 Next hop: 30.10.10.2 via ge-0/0/2.0, selected Label operation: Swap 300016 Load balance label: Label 300016: None; Session Id: 0x2 State: <Active Int> Local AS: 100 Age: 12:50 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 1-KRT AS path: I Prefixes bound to route: 10.255.1.4/32
Bedeutung
Das Label ist an den Router R4 gebunden, bei dem es sich um einen Leaf-Knoten handelt.
Grundlegendes zur schnellen Multicast-Umleitung
Multicast-Only Fast Reroute (MoFRR) minimiert den Paketverlust für Datenverkehr in einer Multicast-Verteilungsstruktur bei Verbindungsausfällen und verbessert Multicast-Routing-Protokolle wie Protocol Independent Multicast (PIM) und Multipoint Label Distribution Protocol (Multipoint LDP) auf Geräten, die diese Funktionen unterstützen.
Auf Switches wird MoFRR mit MPLS-Label-Switched Paths und Multipoint-LDP nicht unterstützt.
Für Router der MX-Serie wird MoFRR nur auf Routern der MX-Serie mit MPC-Linecards unterstützt. Als Voraussetzung müssen Sie den Router in network-services enhanced-ip
den Modus konfigurieren, und alle Linecards im Router müssen MPCs sein.
Wenn MoFRR aktiviert ist, senden Geräte Join-Nachrichten über primäre und Backup-Upstream-Pfade zu einer Multicast-Quelle. Geräte erhalten Datenpakete sowohl aus dem primären als auch vom Backup-Pfad und verwerfen die redundanten Pakete basierend auf der Priorität (Gewichtung, die den primären und Backup-Pfaden zugewiesen sind). Wenn ein Gerät einen Fehler im primären Pfad erkennt, beginnt es sofort, Pakete von der sekundären Schnittstelle (dem Backup-Pfad) zu akzeptieren. Der schnelle Switchover verbessert die Konvergenzzeiten bei Ausfällen der primären Pfadverbindung erheblich.
Eine Anwendung für MoFRR ist Streaming-IPTV. IPTV-Streams sind Multicast als UDP-Streams, sodass verlorene Pakete nicht erneut übertragen werden, was zu einer weniger zufriedenstellenden Benutzererfahrung führt. MoFRR kann die Situation verbessern.
- MoFRR–Übersicht
- PIM-Funktionalität
- Multipoint-LDP-Funktionalität
- Paketweiterleitung
- Einschränkungen und Einschränkungen
MoFRR–Übersicht
Mit fast Reroute auf Unicast-Streams erstellt ein Upstream-Routing-Gerät MPLS Label-Switched Paths (LSPs) oder einen IP Loop-free Alternate (LFA) Fast Reroute Backup-Pfad vor, um Fehler eines Segments im Downstream-Pfad zu behandeln.
Beim Multicast-Routing basiert die Empfangsseite in der Regel auf den Graphen der Datenverkehrsverteilung. Dies ist im Gegensatz zu Unicast-Routing, das im Allgemeinen den Pfad von der Quelle zum Empfänger bestimmt. PIM (für IP), Multipoint-LDP (für MPLS) und RSVP-TE (für MPLS) sind Protokolle, die Multicast-Verteilungsdiagramme erstellen können. Von diesen beginnen PIM- und Multipoint-LDP-Empfänger die Einrichtung des Verteilungsdiagramms, sodass MoFRR mit diesen beiden Multicast-Protokollen arbeiten kann, wo sie unterstützt werden.
Wenn das Gerät in einer Multicast-Struktur einen Ausfall einer Netzwerkkomponente erkennt, dauert es einige Zeit, eine reaktive Reparatur durchzuführen, was zu erheblichen Datenverkehrsverlusten führt, während ein alternativer Pfad eingerichtet wird. MoFRR reduziert Datenverkehrsverluste in einer Multicast-Verteilungsstruktur, wenn eine Netzwerkkomponente ausfällt. Mit MoFRR richtet eines der Downstream-Routing-Geräte einen alternativen Pfad zur Quelle ein, um einen Backup-Live-Stream desselben Multicast-Datenverkehrs zu empfangen. Wenn ein Fehler entlang des primären Stroms auftritt, kann das MoFRR-Routinggerät schnell zum Backup-Stream wechseln.
Wenn MoFRR aktiviert ist, verwendet das Gerät für jeden (S,G)-Eintrag zwei der verfügbaren Upstream-Schnittstellen, um eine Join-Nachricht zu senden und Multicast-Datenverkehr zu empfangen. Das Protokoll versucht, zwei unzusammenhängene Pfade auszuwählen, wenn zwei solcher Pfade verfügbar sind. Wenn disjoint-Pfade nicht verfügbar sind, wählt das Protokoll zwei nicht unzusammenhängende Pfade aus. Wenn zwei nicht miteinander abgestimmte Pfade nicht verfügbar sind, wird nur ein primärer Pfad ohne Backup ausgewählt. MoFRR priorisiert das unzusammenhängene Backup zugunsten des Load Balancing der verfügbaren Pfade.
MoFRR wird sowohl für die IPv4- als auch für die IPv6-Protokollfamilien unterstützt.
Abbildung 12 zeigt zwei Pfade vom Multicast-Empfänger-Routinggerät (auch als Pe-Ausgangs-Provider-Edge-Gerät bezeichnet) zum Multicast-Quell-Routing-Gerät (auch als Eingangs-PE-Gerät bezeichnet).

Wenn MoFRR aktiviert ist, richtet das Ausgangs-Routinggerät (empfängerseitig) zwei Multicast-Bäume ein, einen primären Pfad und einen Backup-Pfad, zur Multicast-Quelle für jeden (S,G). Mit anderen Worten, das Ausgangs-Routing-Gerät verbreitet die gleichen (S,G)-Join-Nachrichten an zwei verschiedene Upstream-Nachbarn, wodurch zwei Multicast-Bäume erstellt werden.
Einer der Multicast-Bäume geht durch Ebene 1 und der andere durch Ebene 2, wie in Abbildung 12. Für jedes (S,G) leitet das Ausgangs-Routing-Gerät den auf dem primären Pfad empfangenen Datenverkehr weiter und leitet den empfangenen Datenverkehr auf dem Backup-Pfad ab.
MoFRR wird sowohl auf ECMP-Pfaden (Equal-Cost Multipath) als auch auf Nicht-ECMP-Pfaden unterstützt. Das Gerät muss Unicast Loop-Free Alternate (LFA)-Routen aktivieren, um MoFRR auf Nicht-ECMP-Pfaden zu unterstützen. Sie aktivieren LFA-Routen mit der link-protection
Anweisung in der Konfiguration des Interior Gateway Protocol (IGP). Wenn Sie den Linkschutz auf einer OSPF- oder IS-IS-Schnittstelle aktivieren, erstellt das Gerät einen Backup-LFA-Pfad zum primären nächsten Hop für alle Zielrouten, die die geschützte Schnittstelle passieren.
Junos OS implementiert MoFRR im IP-Netzwerk für IP MoFRR und am MPLS Label-Edge-Routing-Gerät (LER) für Multipoint-LDP-MoFRR.
Multipoint-LDP-MoFRR wird am Ausgangsgerät eines MPLS-Netzwerks verwendet, wo die Pakete an ein IP-Netzwerk weitergeleitet werden. Mit Multipoint-LDP-MoFRR richtet das Gerät zwei Pfade zum upstream-PE-Routing-Gerät ein, um zwei Streams von MPLS-Paketen am LER zu empfangen. Das Gerät akzeptiert einen der Streams (den primären), und der andere (das Backup) wird am LER abgelegt. Wenn der primäre Pfad fehlschlägt, akzeptiert das Gerät stattdessen den Backup-Stream. Unterstützung von Inband-Signalen ist eine Voraussetzung für MoFRR mit Multipoint-LDP (siehe Understanding Multipoint LDP Inband Signaling for Point-to-Multipoint LSPs).
PIM-Funktionalität
Junos OS unterstützt MoFRR für SpT-Joins (Shortest Path Tree) in PIM Source-Specific Multicast (SSM) und Any-Source-Multicast (ASM). MoFRR wird sowohl für SSM- als auch für ASM-Bereiche unterstützt. Um MoFRR für (*,G)-Joins zu aktivieren, fügen Sie die mofrr-asm-starg
Konfigurationsaussage in der [edit routing-options multicast stream-protection]
Hierarchie ein. Für jede Gruppe G wird MoFRR entweder (S,G) oder (*,G) betrieben, aber nicht für beide. (S,G) hat immer Vorrang vor (*,G).
Wenn MoFRR aktiviert ist, verbreitet ein PIM-Routing-Gerät Join-Nachrichten über zwei upstream-Reverse-Path Forwarding (RPF)-Schnittstellen, um Multicast-Datenverkehr auf beiden Links für dieselbe Join-Anforderung zu empfangen. MoFRR bevorzugt zwei Pfade, die nicht mit demselben unmittelbaren Upstream-Routing-Gerät konvergieren. PIM installiert geeignete Multicast-Routen mit upstream-RPF-Next Hops mit zwei Schnittstellen (für den primären und den Backup-Pfad).
Wenn der primäre Pfad fehlschlägt, wird der Backup-Pfad auf den primären Status aktualisiert, und das Gerät leitet den Datenverkehr entsprechend weiter. Wenn alternative Pfade verfügbar sind, berechnet MoFRR einen neuen Backup-Pfad und aktualisiert oder installiert die entsprechende Multicast-Route.
Sie können MoFRR mit PIM-Join-Load Balancing aktivieren (siehe Anweisung join-load-balance automatic
). In diesem Fall ist die Verteilung der Join-Nachrichten unter den Links jedoch möglicherweise nicht gleichmäßig. Wenn ein neuer ECMP-Link hinzugefügt wird, werden Join-Nachrichten auf dem primären Pfad neu verteilt und lastausgleichend. Die Join-Nachrichten auf dem Backup-Pfad folgen möglicherweise immer noch demselben Pfad und werden möglicherweise nicht gleichmäßig verteilt.
Sie aktivieren MoFRR mithilfe der stream-protection
Konfigurationsaussage in der [edit routing-options multicast]
Hierarchie. MoFRR wird durch eine Reihe von Filterrichtlinien verwaltet.
Wenn ein Ausgangs-PIM-Routinggerät eine Join-Nachricht oder einen IGMP-Bericht empfängt, prüft es nach einer MoFRR-Konfiguration und verläuft wie folgt:
Wenn die MoFRR-Konfiguration nicht vorhanden ist, sendet PIM eine Join-Nachricht upstream an einen Upstream-Nachbarn (z. B. Ebene 2 in Abbildung 12).
Wenn die MoFRR-Konfiguration vorhanden ist, prüft das Gerät nach einer Richtlinienkonfiguration.
Wenn keine Richtlinie vorhanden ist, prüft das Gerät die primären und Backup-Pfade (Upstream-Schnittstellen) und führt wie folgt aus:
Wenn primäre und Backup-Pfade nicht verfügbar sind, sendet PIM eine Join-Nachricht im Upstream an einen Upstream-Nachbarn (z. B. Ebene 2 in Abbildung 12).
Wenn Primär- und Backup-Pfade verfügbar sind, sendet PIM die Join-Nachricht im Upstream an zwei der verfügbaren Upstream-Nachbarn. Junos OS richtet primäre und sekundäre Multicast-Pfade ein, um Multicast-Datenverkehr zu empfangen (z. B. Ebene 1 in Abbildung 12).
Wenn eine Richtlinie vorhanden ist, prüft das Gerät, ob die Richtlinie MoFRR für dies (S,G) zulässt, und geht wie folgt vor:
Wenn diese Richtlinienprüfung fehlschlägt, sendet PIM eine Join-Nachricht im Upstream an einen Upstream-Nachbarn (z. B. Ebene 2 in Abbildung 12).
Wenn diese Richtlinienprüfung erfolgreich ist– Das Gerät sucht nach primären und Backup-Pfaden (Upstream-Schnittstellen).
Wenn die primären und Backup-Pfade nicht verfügbar sind, sendet PIM eine Join-Nachricht im Upstream an einen Upstream-Nachbarn (z. B. Ebene 2 in Abbildung 12).
Wenn die primären und Backup-Pfade verfügbar sind, sendet PIM die Join-Nachricht im Upstream an zwei der verfügbaren Upstream-Nachbarn. Das Gerät richtet primäre und sekundäre Multicast-Pfade ein, um Multicast-Datenverkehr zu empfangen (z. B. Ebene 1 in Abbildung 12).
Multipoint-LDP-Funktionalität
Um MPLS-Datenverkehrsduplikationen zu vermeiden, wählt multipoint-LDP in der Regel nur einen Upstream-Pfad. (Siehe Abschnitt 2.4.1.1. Bestimmung des 'Upstream-LSR' in RFC 6388, Label Distribution Protocol Extensions for Point-to-Multipoint and Multipoint-to-Multipoint Label Switched Paths.)
Für Multipoint-LDP mit MoFRR wählt das Multipoint-LDP-Gerät zwei separate Upstream-Peers aus und sendet zwei separate Label, eine an jeden Upstream-Peer. Das Gerät verwendet den in RFC 6388 beschriebenen Algorithmus, um den primären Upstream-Pfad auszuwählen. Das Gerät verwendet den gleichen Algorithmus, um den Backup-Upstream-Pfad auszuwählen, schließt jedoch den primären Upstream-LSR als Kandidat aus. Die zwei verschiedenen Upstream-Peers senden zwei Streams von MPLS-Datenverkehr an das Ausgangs-Routing-Gerät. Das Gerät wählt nur einen der Upstream-Neighbor-Pfade als primären Pfad aus, von dem der MPLS-Datenverkehr akzeptiert werden soll. Der andere Pfad wird zum Backup-Pfad, und das Gerät löscht diesen Datenverkehr. Wenn der primäre Upstream-Pfad ausfällt, nimmt das Gerät den Datenverkehr aus dem Backup-Pfad an. Das Multipoint-LDP-Gerät wählt die beiden Upstream-Pfade basierend auf dem Interior Gateway Protocol (IGP) Root-Gerät next Hop aus.
Eine Forwarding Equivalency Class (FEC) ist eine Gruppe von IP-Paketen, die auf dieselbe Weise, über den gleichen Pfad und mit derselben Weiterleitungsbehandlung weitergeleitet werden. Normalerweise repräsentiert das Label, das auf einem bestimmten Paket abgelegt wird, den FEC, dem dieses Paket zugewiesen ist. In MoFRR werden zwei Routen in die mpls.0-Tabelle für jeden FEC platziert : eine Route für das primäre Label und die andere Route für das Backup-Label.
Wenn parallele Verbindungen zu demselben unmittelbaren Upstream-Gerät vorhanden sind, betrachtet das Gerät beide parallelen Verbindungen als primär. Zu jedem Zeitpunkt sendet das Upstream-Gerät Datenverkehr nur auf einer der mehreren parallelen Verbindungen.
Ein Knospenknoten ist ein LSR, der eine Ausgangs-LSR ist, aber auch über eine oder mehrere direkt angeschlossene Downstream-LSRs verfügt. Bei einem Knospenknoten wird der Datenverkehr aus dem primären Upstream-Pfad an einen Downstream-LSR weitergeleitet. Wenn der primäre Upstream-Pfad fehlschlägt, wird der MPLS-Datenverkehr aus dem Backup-Upstream-Pfad an den Downstream-LSR weitergeleitet. Das bedeutet, dass der downstreamE-LSR-Next Hop zu beiden MPLS-Routen zusammen mit dem ausgehenden nächsten Hop hinzugefügt wird.
Wie bei PIM aktivieren Sie MoFRR mit Multipoint-LDP mithilfe der stream-protection
Konfigurationsaussage in der [edit routing-options multicast]
Hierarchie, die durch eine Reihe von Filterrichtlinien verwaltet wird.
Wenn Sie den Multipoint-LDP-Point-to-Multipoint-FEC für MoFRR aktiviert haben, berücksichtigt das Gerät die folgenden Überlegungen bei der Auswahl des Upstream-Pfads:
Die angestrebten LDP-Sitzungen werden übersprungen, wenn eine nicht zielorientierte LDP-Sitzung vorhanden ist. Wenn es eine einzelne gezielte LDP-Sitzung gibt, wird die zielorientierte LDP-Sitzung ausgewählt, aber der entsprechende Point-to-Multipoint-FEC verliert die MoFRR-Funktion, da keine Schnittstelle mit der zielorientierten LDP-Sitzung verknüpft ist.
Alle Schnittstellen, die zum gleichen Upstream-LSR gehören, gelten als primärer Pfad.
Für alle Root-Node-Routenaktualisierungen wird der Upstream-Pfad basierend auf den neuesten nächsten Hops aus der IGP geändert. Wenn ein besserer Pfad verfügbar ist, versucht multipoint-LDP, auf den besseren Pfad zu wechseln.
Paketweiterleitung
Für PIM- oder Multipoint-LDP führt das Gerät eine Multicast-Quellstromauswahl an der Eingangsschnittstelle aus. Dadurch bleibt die Fabric-Bandbreite erhalten und die Weiterleitungsleistung maximiert, da:
Vermeidet das Senden doppelter Streams über die Fabric
Verhindert mehrere Routensuche (die zu Paketverlusten führen).
Für PIM enthält jeder IP-Multicast-Stream dieselbe Zieladresse. Unabhängig von der Schnittstelle, über die die Pakete ankommen, haben die Pakete die gleiche Route. Das Gerät überprüft die Schnittstelle, über die jedes Paket ankommt, und leitet nur diejenigen weiter, die von der primären Schnittstelle sind. Wenn die Schnittstelle mit einer Backup-Stream-Schnittstelle übereinstimmt, lässt das Gerät die Pakete fallen. Wenn die Schnittstelle weder mit der primären noch mit der Backup-Stream-Schnittstelle übereinstimmt, behandelt das Gerät die Pakete als Ausnahmen in der Control Plane.
Abbildung 13 zeigt diesen Prozess mit Beispiel-primären und Backup-Schnittstellen für Router mit PIM. Abbildung 14 dies bei Switches mit PIM ähnlich zeigt.


Für MoFRR mit Multipoint-LDP auf Routern verwendet das Gerät mehrere MPLS-Label, um die MoFRR-Stream-Auswahl zu steuern. Jedes Label stellt eine separate Route dar, aber jedes verweist auf dieselbe Schnittstellenlistenüberprüfung. Das Gerät leitet nur das primäre Label weiter und setzt alle anderen aus. Mehrere Schnittstellen können Pakete mit demselben Label empfangen.
Abbildung 15 zeigt diesen Prozess für Router mit Multipoint-LDP.

Einschränkungen und Einschränkungen
- Einschränkungen und Vorbehalte des MoFRR für Switching- und Routing-Geräte
- MoFRR-Einschränkungen für das Switching von Geräten mit PIM
- MoFRR-Einschränkungen und Vorbehalte für Routing-Geräte mit Multipoint-LDP
Einschränkungen und Vorbehalte des MoFRR für Switching- und Routing-Geräte
MoFRR hat die folgenden Einschränkungen und Einschränkungen für Routing- und Switching-Geräte:
Die MoFRR-Fehlererkennung wird für den sofortigen Linkschutz des Routing-Geräts, auf dem MoFRR aktiviert ist, und nicht für alle Verbindungen (End-to-End) im Multicast-Datenverkehrspfad unterstützt.
MoFRR unterstützt eine schnelle Umleitung auf zwei ausgewählten disjoint-Pfaden zur Quelle. Zwei der ausgewählten Upstream-Nachbarn können sich nicht auf derselben Schnittstelle befinden– mit anderen Worten, zwei Upstream-Nachbarn in einem LAN-Segment. Dasselbe gilt, wenn es sich bei der Upstream-Schnittstelle um eine Multicast-Tunnelschnittstelle handelt.
Die Erkennung der maximal unzusammenhängenden Upstream-Pfade wird nicht unterstützt. Das Empfängerseitige (Ausgangs-) Routing-Gerät stellt nur sicher, dass ein nicht miteinander vereinheiteltes Upstream-Gerät (der unmittelbare vorherige Hop) vorhanden ist. PIM und Multipoint-LDP unterstützen nicht das Äquivalent zu expliziten Routenobjekten (EROs). Daher ist die Erkennung nicht miteinander geteilter Upstream-Pfade auf die Kontrolle über das unmittelbar vorherige Hop-Gerät beschränkt. Aufgrund dieser Einschränkung kann der Pfad zum Upstream-Gerät des vorherigen Hops freigegeben werden, der als Primär- und Backup ausgewählt wurde.
In den folgenden Szenarien kann es zu Datenverkehrsverlusten kommen:
Ein besserer Upstream-Pfad wird auf einem Ausgangsgerät verfügbar.
MoFRR ist auf dem Ausgangsgerät aktiviert oder deaktiviert, während ein aktiver Datenverkehrsstrom fließt.
PIM-Join-Load Balancing für Join-Nachrichten für Backup-Pfade werden nicht unterstützt.
Für eine Multicast-Gruppe G ist MoFRR für Nachrichten zum Beitreten (S,G) und (*,G) nicht zulässig. (S,G) Join-Nachrichten haben Vorrang vor (*,G).
MoFRR wird für Multicast-Datenverkehrsströme, die zwei unterschiedliche Multicast-Gruppen verwenden, nicht unterstützt. Jede (S,G)-Kombination wird als einzigartiger Multicast-Datenverkehrsstrom behandelt.
Der bidirektionale PIM-Bereich wird von MoFRR nicht unterstützt.
PIM Dense Mode wird mit MoFRR nicht unterstützt.
Multicast-Statistiken für den Backup-Datenverkehrsstrom werden nicht von PIM verwaltet und stehen daher nicht in der Betriebsausgabe von
show
Befehlen zur Verfügung.Die Ratenüberwachung wird nicht unterstützt.
MoFRR-Einschränkungen für das Switching von Geräten mit PIM
MoFRR mit PIM hat die folgenden Einschränkungen für das Switching von Geräten:
MoFRR wird nicht unterstützt, wenn es sich bei der Upstream-Schnittstelle um eine integrierte Routing- und Bridging-Schnittstelle (IRB) handelt, was sich auf andere Multicast-Funktionen wie Internet Group Management Protocol Version 3 (IGMPv3)-Snooping auswirkt.
Paketreplikation und Multicast-Suchen bei der Weiterleitung von Multicast-Datenverkehr können dazu führen, dass Pakete mehrmals durch PFEs zirkulieren. Infolgedessen können die angezeigten Werte für die Multicast-Paketanzahl aus dem
show pfe statistics traffic
Befehl höhere Zahlen als erwartet in Ausgabefeldern wieInput packets
und .Output packets
In MoFRR-Szenarien kann dieses Verhalten häufiger auftreten, da duplizierte Primär- und Backup-Streams den Datenverkehr im Allgemeinen erhöhen.
MoFRR-Einschränkungen und Vorbehalte für Routing-Geräte mit Multipoint-LDP
MoFRR hat die folgenden Einschränkungen und Einschränkungen für Router, wenn es mit Multipoint-LDP verwendet wird:
MoFRR gilt nicht für Multipoint-LDP-Datenverkehr, der in einem RSVP-Tunnel empfangen wird, da der RSVP-Tunnel keiner Schnittstelle zugeordnet ist.
Gemischtes Upstream-MoFRR wird nicht unterstützt. Dies bezieht sich auf PIM-Multipoint-LDP-In-Band-Signalisierung, wobei ein Upstream-Pfad durch Multipoint-LDP und der zweite Upstream-Pfad über PIM führt.
Multipoint-LDP-Label als innere Label werden nicht unterstützt.
Wenn die Quelle über mehrere eingangs (source-side) Provider Edge (PE)-Routinggeräte erreichbar ist, wird Multipoint-LDP-MoFRR nicht unterstützt.
Gezielte LDP-Upstream-Sitzungen werden nicht als Upstream-Gerät für MoFRR ausgewählt.
Der Multipoint-LDP-Linkschutz auf dem Backup-Pfad wird nicht unterstützt, da es keine Unterstützung für interne MoFRR-Label gibt.
Konfigurieren einer nur multicastbasierten schnellen Umleitung
Sie können Multicast-Only Fast Reroute (MoFRR) konfigurieren, um Paketverluste in einem Netzwerk zu minimieren, wenn ein Verbindungsausfall auftritt.
Wenn fast Reroute auf Unicast-Streams angewendet wird, erstellt ein Upstream-Router MPLS Label-Switched Paths (LSPs) oder erstellt einen IP Loop-free Alternate (LFA)-Fast-Reroute-Backup-Pfad vor, um Fehler eines Segments im Downstream-Pfad zu behandeln.
Beim Multicast-Routing werden die Verkehrsverteilungsdiagramme in der Regel vom Empfänger stammen. Dies ist im Gegensatz zu Unicast-Routing, das normalerweise den Pfad von der Quelle zum Empfänger bestimmt. Protokolle, die Multicast-Verteilungsdiagramme einrichten können, sind PIM (für IP), Multipoint-LDP (für MPLS) und RSVP-TE (für MPLS). Von diesen beginnen PIM- und Multipoint-LDP-Empfänger die Einrichtung des Verteilungsdiagramms, und daher:
In der QFX-Serie wird MoFRR in PIM-Domänen unterstützt.
Auf der MX- und SRX-Serie wird MoFRR in PIM- und Multipoint-LDP-Domänen unterstützt.
Die Konfigurationsschritte für die Aktivierung von MoFRR für PIM auf allen Geräten, die diese Funktion unterstützen, sind dieselben, sofern nicht anders angegeben. Konfigurationsschritte, die für Multipoint-LDP-MoFRR nicht anwendbar sind, werden ebenfalls angegeben.
(nur für Router der MX-Serie) MoFRR wird auf Routern der MX-Serie mit MPC-Linecards unterstützt. Als Voraussetzung müssen alle Linekarten im Router MPCs sein.
So konfigurieren Sie MoFRR auf Routern oder Switches:
Beispiel: Konfigurieren von Multicast-only Fast Reroute in einer Multipoint-LDP-Domäne
In diesem Beispiel wird gezeigt, wie Sie multicast-only Fast Reroute (MoFRR) konfigurieren, um den Paketverlust in einem Netzwerk bei einem Verbindungsausfall zu minimieren.
Multipoint-LDP-MoFRR wird am Ausgangsknoten eines MPLS-Netzwerks verwendet, wo die Pakete an ein IP-Netzwerk weitergeleitet werden. Im Fall von Multipoint-LDP-MoFRR werden die beiden Pfade zum Upstream Provider Edge (PE)-Router eingerichtet, um zwei Streams von MPLS-Paketen am Label-Edge-Router (LER) zu empfangen. Einer der Streams (der primäre) wird akzeptiert, der andere (das Backup) wird beim LER abgelegt. Der Backup-Stream wird akzeptiert, wenn der primäre Pfad fehlschlägt.
Anforderungen
Vor der Konfiguration dieses Beispiels ist keine spezielle Konfiguration erforderlich, die über die Geräteinitialisierung hinausgeht.
In einer Multipoint-LDP-Domain muss MoFRR nur für den Ausgangs-PE-Router moFRR aktiviert sein. Die anderen Router müssen MoFRR nicht unterstützen.
MoFRR wird auf Plattformen der MX-Serie mit MPC-Linecards unterstützt. Als Voraussetzung muss der Router auf network-services enhanced-ip
den Modus eingestellt sein, und alle Linecards in der Plattform müssen MPCs sein.
Für dieses Beispiel ist Junos OS Version 14.1 oder höher auf dem AUSGANGS-PE-Router erforderlich.
Überblick
In diesem Beispiel ist Gerät R3 der Ausgangs-Edge-Router. MoFRR ist nur auf diesem Gerät aktiviert.
OSPF wird für die Konnektivität verwendet, obwohl jedes Interior Gateway Protocol (IGP) oder statische Routen verwendet werden können.
Zu Testzwecken werden Router verwendet, um die Quelle und den Empfänger zu simulieren. Gerät R4 und Gerät R8 sind so konfiguriert, dass sie der gewünschten Gruppe mithilfe des set protocols igmp interface interface-name static group group
Befehls statisch beitreten. Wenn ein echter Multicast-Empfänger-Host nicht verfügbar ist, wie in diesem Beispiel, ist diese statische IGMP-Konfiguration nützlich. Um die Multicast-Gruppenadresse an den Empfängern zu hören, wird in diesem Beispiel verwendet set protocols sap listen group
.
Die MoFRR-Konfiguration enthält eine Richtlinienoption, die in diesem Beispiel nicht dargestellt wird, aber separat erklärt wird. Die Option ist wie folgt konfiguriert:
stream-protection { policy policy-name; }
Topologie
Abbildung 16 zeigt das Beispielnetzwerk.

CLI-Schnellkonfiguration zeigt die Konfiguration für alle Geräte in Abbildung 16.
In diesem Abschnitt Konfiguration werden die Schritte auf Gerät R3 beschrieben.
CLI-Schnellkonfiguration
CLI-Schnellkonfiguration
Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen sie in eine Textdatei ein, entfernen alle Zeilenumbrüche, ändern alle erforderlichen Details, um mit Ihrer Netzwerkkonfiguration zu übereinstimmen, und kopieren Sie dann die Befehle und fügen sie auf Hierarchieebene in die [edit]
CLI ein.
Gerät src1
set interfaces ge-1/2/10 unit 0 description src1-to-R1 set interfaces ge-1/2/10 unit 0 family inet address 10.5.0.1/30 set interfaces ge-1/2/11 unit 0 description src1-to-R1 set interfaces ge-1/2/11 unit 0 family inet address 192.168.219.11/24 set interfaces lo0 unit 0 family inet address 10.0.1.17/32 set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive
Gerät src2
set interfaces ge-1/2/24 unit 0 description src2-to-R5 set interfaces ge-1/2/24 unit 0 family inet address 10.5.0.2/30 set interfaces lo0 unit 0 family inet address 10.0.1.18/32 set protocols rsvp interface all set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive
Gerät R1
set interfaces ge-1/2/12 unit 0 description R1-to-R2 set interfaces ge-1/2/12 unit 0 family inet address 10.1.2.1/30 set interfaces ge-1/2/12 unit 0 family mpls set interfaces ge-1/2/13 unit 0 description R1-to-R6 set interfaces ge-1/2/13 unit 0 family inet address 10.1.6.1/30 set interfaces ge-1/2/13 unit 0 family mpls set interfaces ge-1/2/10 unit 0 description R1-to-src1 set interfaces ge-1/2/10 unit 0 family inet address 10.1.0.2/30 set interfaces ge-1/2/11 unit 0 description R1-to-src1 set interfaces ge-1/2/11 unit 0 family inet address 192.168.219.9/30 set interfaces lo0 unit 0 family inet address 10.1.1.1/32 set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.1 set protocols bgp group ibgp export static-route-tobgp set protocols bgp group ibgp peer-as 65010 set protocols bgp group ibgp neighbor 10.1.1.3 set protocols bgp group ibgp neighbor 10.1.1.7 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface ge-1/2/12.0 set protocols ldp interface ge-1/2/13.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim rp static address 10.1.1.5 set protocols pim interface lo0.0 set protocols pim interface ge-1/2/10.0 set protocols pim interface ge-1/2/11.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.1.7/32 orlonger set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.0.0/30 orlonger set policy-options policy-statement mldppim-ex term A then accept set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set routing-options autonomous-system 65010
Gerät R2
set interfaces ge-1/2/12 unit 0 description R2-to-R1 set interfaces ge-1/2/12 unit 0 family inet address 10.1.2.2/30 set interfaces ge-1/2/12 unit 0 family mpls set interfaces ge-1/2/14 unit 0 description R2-to-R3 set interfaces ge-1/2/14 unit 0 family inet address 10.2.3.1/30 set interfaces ge-1/2/14 unit 0 family mpls set interfaces ge-1/2/16 unit 0 description R2-to-R5 set interfaces ge-1/2/16 unit 0 family inet address 10.2.5.1/30 set interfaces ge-1/2/16 unit 0 family mpls set interfaces ge-1/2/17 unit 0 description R2-to-R7 set interfaces ge-1/2/17 unit 0 family inet address 10.2.7.1/30 set interfaces ge-1/2/17 unit 0 family mpls set interfaces ge-1/2/15 unit 0 description R2-to-R3 set interfaces ge-1/2/15 unit 0 family inet address 10.2.94.1/30 set interfaces ge-1/2/15 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.2/32 set interfaces lo0 unit 0 family mpls set protocols rsvp interface all set protocols mpls interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface all set protocols ldp p2mp set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 65010
Gerät R3
set chassis network-services enhanced-ip set interfaces ge-1/2/14 unit 0 description R3-to-R2 set interfaces ge-1/2/14 unit 0 family inet address 10.2.3.2/30 set interfaces ge-1/2/14 unit 0 family mpls set interfaces ge-1/2/18 unit 0 description R3-to-R4 set interfaces ge-1/2/18 unit 0 family inet address 10.3.4.1/30 set interfaces ge-1/2/18 unit 0 family mpls set interfaces ge-1/2/19 unit 0 description R3-to-R6 set interfaces ge-1/2/19 unit 0 family inet address 10.3.6.2/30 set interfaces ge-1/2/19 unit 0 family mpls set interfaces ge-1/2/21 unit 0 description R3-to-R7 set interfaces ge-1/2/21 unit 0 family inet address 10.3.7.1/30 set interfaces ge-1/2/21 unit 0 family mpls set interfaces ge-1/2/22 unit 0 description R3-to-R8 set interfaces ge-1/2/22 unit 0 family inet address 10.3.8.1/30 set interfaces ge-1/2/22 unit 0 family mpls set interfaces ge-1/2/15 unit 0 description R3-to-R2 set interfaces ge-1/2/15 unit 0 family inet address 10.2.94.2/30 set interfaces ge-1/2/15 unit 0 family mpls set interfaces ge-1/2/20 unit 0 description R3-to-R6 set interfaces ge-1/2/20 unit 0 family inet address 10.2.96.2/30 set interfaces ge-1/2/20 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.3/32 primary set routing-options autonomous-system 65010 set routing-options multicast stream-protection set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.3 set protocols bgp group ibgp peer-as 10 set protocols bgp group ibgp neighbor 10.1.1.1 set protocols bgp group ibgp neighbor 10.1.1.5 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface all set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface lo0.0 set protocols pim interface ge-1/2/18.0 set protocols pim interface ge-1/2/22.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.0.1/30 orlonger set policy-options policy-statement mldppim-ex term A then accept set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept
Gerät R4
set interfaces ge-1/2/18 unit 0 description R4-to-R3 set interfaces ge-1/2/18 unit 0 family inet address 10.3.4.2/30 set interfaces ge-1/2/18 unit 0 family mpls set interfaces ge-1/2/23 unit 0 description R4-to-R7 set interfaces ge-1/2/23 unit 0 family inet address 10.4.7.1/30 set interfaces lo0 unit 0 family inet address 10.1.1.4/32 set protocols igmp interface ge-1/2/18.0 version 3 set protocols igmp interface ge-1/2/18.0 static group 232.1.1.1 group-count 2 set protocols igmp interface ge-1/2/18.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface ge-1/2/18.0 static group 232.2.2.2 source 10.2.7.7 set protocols sap listen 232.1.1.1 set protocols sap listen 232.2.2.2 set protocols rsvp interface all set protocols mpls interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface ge-1/2/23.0 set protocols pim interface ge-1/2/18.0 set protocols pim interface lo0.0 set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 65010
Gerät R5
set interfaces ge-1/2/24 unit 0 description R5-to-src2 set interfaces ge-1/2/24 unit 0 family inet address 10.5.0.1/30 set interfaces ge-1/2/16 unit 0 description R5-to-R2 set interfaces ge-1/2/16 unit 0 family inet address 10.2.5.2/30 set interfaces ge-1/2/16 unit 0 family mpls set interfaces ge-1/2/25 unit 0 description R5-to-R6 set interfaces ge-1/2/25 unit 0 family inet address 10.5.6.1/30 set interfaces ge-1/2/25 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.5/32 set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.5 set protocols bgp group ibgp export static-route-tobgp set protocols bgp group ibgp peer-as 65010 set protocols bgp group ibgp neighbor 10.1.1.7 set protocols bgp group ibgp neighbor 10.1.1.3 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface ge-1/2/16.0 set protocols ldp interface ge-1/2/25.0 set protocols ldp p2mp set protocols pim interface lo0.0 set protocols pim interface ge-1/2/24.0 set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set routing-options autonomous-system 65010
Gerät R6
set interfaces ge-1/2/13 unit 0 description R6-to-R1 set interfaces ge-1/2/13 unit 0 family inet address 10.1.6.2/30 set interfaces ge-1/2/13 unit 0 family mpls set interfaces ge-1/2/19 unit 0 description R6-to-R3 set interfaces ge-1/2/19 unit 0 family inet address 10.3.6.1/30 set interfaces ge-1/2/19 unit 0 family mpls set interfaces ge-1/2/25 unit 0 description R6-to-R5 set interfaces ge-1/2/25 unit 0 family inet address 10.5.6.2/30 set interfaces ge-1/2/25 unit 0 family mpls set interfaces ge-1/2/26 unit 0 description R6-to-R7 set interfaces ge-1/2/26 unit 0 family inet address 10.6.7.1/30 set interfaces ge-1/2/26 unit 0 family mpls set interfaces ge-1/2/20 unit 0 description R6-to-R3 set interfaces ge-1/2/20 unit 0 family inet address 10.2.96.1/30 set interfaces ge-1/2/20 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.6/30 set protocols rsvp interface all set protocols mpls interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface all set protocols ldp p2mp
Gerät R7
set interfaces ge-1/2/17 unit 0 description R7-to-R2 set interfaces ge-1/2/17 unit 0 family inet address 10.2.7.2/30 set interfaces ge-1/2/17 unit 0 family mpls set interfaces ge-1/2/21 unit 0 description R7-to-R3 set interfaces ge-1/2/21 unit 0 family inet address 10.3.7.2/30 set interfaces ge-1/2/21 unit 0 family mpls set interfaces ge-1/2/23 unit 0 description R7-to-R4 set interfaces ge-1/2/23 unit 0 family inet address 10.4.7.2/30 set interfaces ge-1/2/23 unit 0 family mpls set interfaces ge-1/2/26 unit 0 description R7-to-R6 set interfaces ge-1/2/26 unit 0 family inet address 10.6.7.2/30 set interfaces ge-1/2/26 unit 0 family mpls set interfaces ge-1/2/27 unit 0 description R7-to-R8 set interfaces ge-1/2/27 unit 0 family inet address 10.7.8.1/30 set interfaces ge-1/2/27 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.7/32 set protocols rsvp interface all set protocols mpls interface all set protocols bgp group ibgp local-address 10.1.1.7 set protocols bgp group ibgp export static-route-tobgp set protocols bgp group ibgp peer-as 65010 set protocols bgp group ibgp neighbor 10.1.1.5 set protocols bgp group ibgp neighbor 10.1.1.1 set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols ldp interface ge-1/2/17.0 set protocols ldp interface ge-1/2/21.0 set protocols ldp interface ge-1/2/26.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface lo0.0 set protocols pim interface ge-1/2/27.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.0.1/30 orlonger set policy-options policy-statement mldppim-ex term A then accept set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set routing-options autonomous-system 65010 set routing-options multicast stream-protection policy mldppim-ex
Gerät R8
set interfaces ge-1/2/22 unit 0 description R8-to-R3 set interfaces ge-1/2/22 unit 0 family inet address 10.3.8.2/30 set interfaces ge-1/2/22 unit 0 family mpls set interfaces ge-1/2/27 unit 0 description R8-to-R7 set interfaces ge-1/2/27 unit 0 family inet address 10.7.8.2/30 set interfaces ge-1/2/27 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.8/32 set protocols igmp interface ge-1/2/22.0 version 3 set protocols igmp interface ge-1/2/22.0 static group 232.1.1.1 group-count 2 set protocols igmp interface ge-1/2/22.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface ge-1/2/22.0 static group 232.2.2.2 source 10.2.7.7 set protocols sap listen 232.1.1.1 set protocols sap listen 232.2.2.2 set protocols rsvp interface all set protocols ospf traffic-engineering set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface lo0.0 passive set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface ge-1/2/27.0 set protocols pim interface ge-1/2/22.0 set protocols pim interface lo0.0 set policy-options policy-statement static-route-tobgp term static from protocol static set policy-options policy-statement static-route-tobgp term static from protocol direct set policy-options policy-statement static-route-tobgp term static then accept set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 65010
Konfiguration
Verfahren
Schritt-für-Schritt-Verfahren
Im folgenden Beispiel müssen Sie auf verschiedenen Ebenen in der Konfigurationshierarchie navigieren. Informationen zum Navigieren in der CLI finden Sie unter Verwenden des CLI-Editors im Konfigurationsmodus im Junos OS CLI-Benutzerhandbuch.
So konfigurieren Sie Gerät R3:
Aktivieren Sie den erweiterten IP-Modus.
[edit chassis] user@R3# set network-services enhanced-ip
Konfigurieren Sie die Geräteschnittstellen.
[edit interfaces] user@R3# set ge-1/2/14 unit 0 description R3-to-R2 user@R3# set ge-1/2/14 unit 0 family inet address 10.2.3.2/30 user@R3# set ge-1/2/14 unit 0 family mpls user@R3# set ge-1/2/18 unit 0 description R3-to-R4 user@R3# set ge-1/2/18 unit 0 family inet address 10.3.4.1/30 user@R3# set ge-1/2/18 unit 0 family mpls user@R3# set ge-1/2/19 unit 0 description R3-to-R6 user@R3# set ge-1/2/19 unit 0 family inet address 10.3.6.2/30 user@R3# set ge-1/2/19 unit 0 family mpls user@R3# set ge-1/2/21 unit 0 description R3-to-R7 user@R3# set ge-1/2/21 unit 0 family inet address 10.3.7.1/30 user@R3# set ge-1/2/21 unit 0 family mpls user@R3# set ge-1/2/22 unit 0 description R3-to-R8 user@R3# set ge-1/2/22 unit 0 family inet address 10.3.8.1/30 user@R3# set ge-1/2/22 unit 0 family mpls user@R3# set ge-1/2/15 unit 0 description R3-to-R2 user@R3# set ge-1/2/15 unit 0 family inet address 10.2.94.2/30 user@R3# set ge-1/2/15 unit 0 family mpls user@R3# set ge-1/2/20 unit 0 description R3-to-R6 user@R3# set ge-1/2/20 unit 0 family inet address 10.2.96.2/30 user@R3# set ge-1/2/20 unit 0 family mpls user@R3# set lo0 unit 0 family inet address 10.1.1.3/32 primary
Konfigurieren Sie die Nummer des autonomen Systems (AS).
user@R3# set routing-options autonomous-system 6510
Konfigurieren Sie die Routing-Richtlinien.
[edit policy-options policy-statement mldppim-ex] user@R3# set term B from source-address-filter 192.168.0.0/24 orlonger user@R3# set term B from source-address-filter 192.168.219.11/32 orlonger user@R3# set term B then accept user@R3# set term A from source-address-filter 10.1.0.1/30 orlonger user@R3# set term A then accept [edit policy-options policy-statement static-route-tobgp] user@R3# set term static from protocol static user@R3# set term static from protocol direct user@R3# set term static then accept
Konfigurieren Sie PIM.
[edit protocols pim] user@R3# set mldp-inband-signalling policy mldppim-ex user@R3# set interface lo0.0 user@R3# set interface ge-1/2/18.0 user@R3# set interface ge-1/2/22.0
Konfigurieren Sie LDP.
[edit protocols ldp] user@R3# set interface all user@R3# set p2mp
Konfigurieren Sie IGP- oder statische Routen.
[edit protocols ospf] user@R3# set traffic-engineering user@R3# set area 0.0.0.0 interface all user@R3# set area 0.0.0.0 interface fxp0.0 disable user@R3# set area 0.0.0.0 interface lo0.0 passive
Konfigurieren Sie interne BGP.
[edit protocols bgp group ibgp] user@R3# set local-address 10.1.1.3 user@R3# set peer-as 65010 user@R3# set neighbor 10.1.1.1 user@R3# set neighbor 10.1.1.5
Konfigurieren Sie MPLS und optional RSVP.
[edit protocols mpls] user@R3# set interface all [edit protocols rsvp] user@R3# set interface all
Aktivieren Sie MoFRR.
[edit routing-options multicast] user@R3# set stream-protection
Ergebnisse
Bestätigen Sie Ihre Konfiguration im Konfigurationsmodus, indem Sie die show chassis
Befehle , show interfaces
, , show protocols
show policy-options
und show routing-options
eingeben. Wenn die gewünschte Konfiguration in der Ausgabe nicht angezeigt wird, wiederholen Sie die Anweisungen in diesem Beispiel, um die Konfiguration zu korrigieren.
user@R3# show chassis network-services enhanced-ip;
user@R3# show interfaces ge-1/2/14 { unit 0 { description R3-to-R2; family inet { address 10.2.3.2/30; } family mpls; } } ge-1/2/18 { unit 0 { description R3-to-R4; family inet { address 10.3.4.1/30; } family mpls; } } ge-1/2/19 { unit 0 { description R3-to-R6; family inet { address 10.3.6.2/30; } family mpls; } } ge-1/2/21 { unit 0 { description R3-to-R7; family inet { address 10.3.7.1/30; } family mpls; } } ge-1/2/22 { unit 0 { description R3-to-R8; family inet { address 10.3.8.1/30; } family mpls; } } ge-1/2/15 { unit 0 { description R3-to-R2; family inet { address 10.2.94.2/30; } family mpls; } } ge-1/2/20 { unit 0 { description R3-to-R6; family inet { address 10.2.96.2/30; } family mpls; } } lo0 { unit 0 { family inet { address 192.168.15.1/32; address 10.1.1.3/32 { primary; } } } }
user@R3# show protocols rsvp { interface all; } mpls { interface all; } bgp { group ibgp { local-address 10.1.1.3; peer-as 65010; neighbor 10.1.1.1; neighbor 10.1.1.5; } } ospf { traffic-engineering; area 0.0.0.0 { interface all; interface fxp0.0 { disable; } interface lo0.0 { passive; } } } ldp { interface all; p2mp; } pim { mldp-inband-signalling { policy mldppim-ex; } interface lo0.0; interface ge-1/2/18.0; interface ge-1/2/22.0; }
user@R3# show policy-options policy-statement mldppim-ex { term B { from { source-address-filter 192.168.0.0/24 orlonger; source-address-filter 192.168.219.11/32 orlonger; } then accept; } term A { from { source-address-filter 10.1.0.1/30 orlonger; } then accept; } } policy-statement static-route-tobgp { term static { from protocol [ static direct ]; then accept; } }
user@R3# show routing-options autonomous-system 65010; multicast { stream-protection; }
Wenn Sie mit der Konfiguration des Geräts fertig sind, geben Sie im Konfigurationsmodus ein commit
.
Überprüfung
Bestätigen Sie, dass die Konfiguration ordnungsgemäß funktioniert.
- Überprüfen der LDP-Punkt-zu-Multipoint-Weiterleitung äquivalenzklassen
- Prüfung der Labelinformationen
- Überprüfen der Multicast-Routen
- Überprüfen der LDP Point-to-Multipoint-Datenverkehrsstatistiken
Überprüfen der LDP-Punkt-zu-Multipoint-Weiterleitung äquivalenzklassen
Zweck
Stellen Sie sicher, dass das MoFRR aktiviert ist, und bestimmen Sie, welche Label verwendet werden.
Aktion
user@R3> show ldp p2mp fec LDP P2MP FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 MoFRR enabled Fec type: Egress (Active) Label: 301568 P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 MoFRR enabled Fec type: Egress (Active) Label: 301600
Bedeutung
Die Ausgabe zeigt, dass MoFRR aktiviert ist, und es zeigt, dass die Label 301568 und 301600 für die beiden Multipoint-LDP-Point-to-Multipoint-LSPs verwendet werden.
Prüfung der Labelinformationen
Zweck
Stellen Sie sicher, dass das Ausgangsgerät zwei Upstream-Schnittstellen für den Multicast-Gruppen-Join hat.
Aktion
user@R3> show route label 301568 detail mpls.0: 18 destinations, 18 routes (18 active, 0 holddown, 0 hidden) 301568 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x2735208 Next-hop reference count: 3 Next hop type: Router, Next hop index: 1397 Address: 0x2735d2c Next-hop reference count: 3 Next hop: 10.3.8.2 via ge-1/2/22.0 Label operation: Pop Load balance label: None; Next hop type: Router, Next hop index: 1395 Address: 0x2736290 Next-hop reference count: 3 Next hop: 10.3.4.2 via ge-1/2/18.0 Label operation: Pop Load balance label: None; State: <Active Int AckRequest MulticastRPF> Local AS: 65010 Age: 54:05 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 Primary Upstream : 10.1.1.3:0--10.1.1.2:0 RPF Nexthops : ge-1/2/15.0, 10.2.94.1, Label: 301568, weight: 0x1 ge-1/2/14.0, 10.2.3.1, Label: 301568, weight: 0x1 Backup Upstream : 10.1.1.3:0--10.1.1.6:0 RPF Nexthops : ge-1/2/20.0, 10.2.96.1, Label: 301584, weight: 0xfffe ge-1/2/19.0, 10.3.6.1, Label: 301584, weight: 0xfffe
user@R3> show route label 301600 detail mpls.0: 18 destinations, 18 routes (18 active, 0 holddown, 0 hidden) 301600 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x27356b4 Next-hop reference count: 3 Next hop type: Router, Next hop index: 1520 Address: 0x27350f4 Next-hop reference count: 3 Next hop: 10.3.8.2 via ge-1/2/22.0 Label operation: Pop Load balance label: None; Next hop type: Router, Next hop index: 1481 Address: 0x273645c Next-hop reference count: 3 Next hop: 10.3.4.2 via ge-1/2/18.0 Label operation: Pop Load balance label: None; State: <Active Int AckRequest MulticastRPF> Local AS: 65010 Age: 54:25 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 Primary Upstream : 10.1.1.3:0--10.1.1.6:0 RPF Nexthops : ge-1/2/20.0, 10.2.96.1, Label: 301600, weight: 0x1 ge-1/2/19.0, 10.3.6.1, Label: 301600, weight: 0x1 Backup Upstream : 10.1.1.3:0--1.1.1.2:0 RPF Nexthops : ge-1/2/15.0, 10.2.94.1, Label: 301616, weight: 0xfffe ge-1/2/14.0, 10.2.3.1, Label: 301616, weight: 0xfffe
Bedeutung
Die Ausgabe zeigt die primären Upstream-Pfade und die Backup-Upstream-Pfade. Außerdem werden die nächsten Hops der RPF angezeigt.
Überprüfen der Multicast-Routen
Zweck
Überprüfen Sie die IP-Multicast-Weiterleitungstabelle, um sicherzustellen, dass es eine upstreame RPF-Schnittstellenliste mit einer primären und einer Backup-Schnittstelle gibt.
Aktion
user@R3> show ldp p2mp path P2MP path type: Transit/Egress Output Session (label): 10.1.1.2:0 (301568) (Primary) Egress Nexthops: Interface ge-1/2/18.0 Interface ge-1/2/22.0 RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301568, 1 Interface ge-1/2/20.0, 10.2.96.1, 301584, 65534 Interface ge-1/2/14.0, 10.2.3.1, 301568, 1 Interface ge-1/2/19.0, 10.3.6.1, 301584, 65534 Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 (Active) P2MP path type: Transit/Egress Output Session (label): 10.1.1.6:0 (301584) (Backup) Egress Nexthops: Interface ge-1/2/18.0 Interface ge-1/2/22.0 RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301568, 1 Interface ge-1/2/20.0, 10.2.96.1, 301584, 65534 Interface ge-1/2/14.0, 10.2.3.1, 301568, 1 Interface ge-1/2/19.0, 10.3.6.1, 301584, 65534 Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.1, src: 192.168.219.11 (Active) P2MP path type: Transit/Egress Output Session (label): 10.1.1.6:0 (301600) (Primary) Egress Nexthops: Interface ge-1/2/18.0 Interface ge-1/2/22.0 RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301616, 65534 Interface ge-1/2/20.0, 10.2.96.1, 301600, 1 Interface ge-1/2/14.0, 10.2.3.1, 301616, 65534 Interface ge-1/2/19.0, 10.3.6.1, 301600, 1 Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 (Active) P2MP path type: Transit/Egress Output Session (label): 10.1.1.2:0 (301616) (Backup) Egress Nexthops: Interface ge-1/2/18.0 Interface ge-1/2/22.0 RPF Nexthops: Interface ge-1/2/15.0, 10.2.94.1, 301616, 65534 Interface ge-1/2/20.0, 10.2.96.1, 301600, 1 Interface ge-1/2/14.0, 10.2.3.1, 301616, 65534 Interface ge-1/2/19.0, 10.3.6.1, 301600, 1 Attached FECs: P2MP root-addr 10.1.1.1, grp: 232.1.1.2, src: 192.168.219.11 (Active)
Bedeutung
Die Ausgabe zeigt primäre und Backup-Sitzungen sowie RPF-Next-Hops.
Überprüfen der LDP Point-to-Multipoint-Datenverkehrsstatistiken
Zweck
Stellen Sie sicher, dass sowohl Primär- als auch Backup-Statistiken aufgeführt sind.
Aktion
user@R3> show ldp traffic-statistics p2mp P2MP FEC Statistics: FEC(root_addr:lsp_id/grp,src) Nexthop Packets Bytes Shared 10.1.1.1:232.1.1.1,192.168.219.11, Label: 301568 10.3.8.2 0 0 No 10.3.4.2 0 0 No 10.1.1.1:232.1.1.1,192.168.219.11, Label: 301584, Backup route 10.3.4.2 0 0 No 10.3.8.2 0 0 No 10.1.1.1:232.1.1.2,192.168.219.11, Label: 301600 10.3.8.2 0 0 No 10.3.4.2 0 0 No 10.1.1.1:232.1.1.2,192.168.219.11, Label: 301616, Backup route 10.3.4.2 0 0 No 10.3.8.2 0 0 No
Bedeutung
Die Ausgabe zeigt sowohl primäre als auch Backup-Routen mit den Labeln.
Beispiel: Konfiguration von LDP-Downstream auf Abruf
Dieses Beispiel zeigt, wie Sie LDP-Downstream bei Bedarf konfigurieren. LDP wird üblicherweise im downstream-Modus für unerbetene Ankündigungen konfiguriert, was bedeutet, dass Label-Ankündigungen für alle Routen von allen LDP-Peers empfangen werden. Da Service Provider die Zugriffs- und Aggregationsnetzwerke in eine einzige MPLS-Domäne integrieren, ist LDP-Downstream auf Abruf erforderlich, um die Bindungen zwischen den Zugriffs- und Aggregationsnetzwerken zu verteilen und die Verarbeitungsanforderungen für die Steuerungsebene zu reduzieren.
Downstream-Knoten können potenziell Zehntausende von Label-Bindungen von upstream-Aggregationsknoten erhalten. Anstatt alle Labelbindungen für alle möglichen Loopback-Adressen innerhalb des gesamten MPLS-Netzwerks zu lernen und zu speichern, kann der Downstream-Aggregationsknoten mit LDP-Downstream bei Bedarf konfiguriert werden, um nur die Label-Bindungen für die FECs anzufordern, die den Loopback-Adressen der Ausgangsknoten entsprechen, auf denen Services konfiguriert sind.
Anforderungen
In diesem Beispiel werden die folgenden Hardware- und Softwarekomponenten verwendet:
-
Router der M-Serie
-
Junos OS 12.2
Überblick
Sie können LDP-Downstream-On-Demand-Label-Ankündigung für eine LDP-Sitzung aktivieren, indem Sie die downstream-on-Demand-Anweisung auf Hierarchieebene [edit protocols ldp session]
angeben. Wenn Sie Downstream-On-Demand konfiguriert haben, gibt der Router von Juniper Networks die Downstream-On-Demand-Anforderung an seine Peer-Router an. Damit eine Downstream-On-Demand-Sitzung zwischen zwei Routern eingerichtet werden kann, müssen beide während der Einrichtung der LDP-Sitzung den Downstream-On-Demand-Modus ankündigen. Wenn ein Router den ungebetenen Downstream-Modus und der andere downstream bei Bedarf den Downstream-Modus ankündigen, wird der Downstream-Modus verwendet, der nicht angefordert wird.
Konfiguration
- Konfiguration von LDP-Downstream auf Abruf
- Verteilung von LDP-Downstream-On-Demand-Routen in gekennzeichnete BGP
Konfiguration von LDP-Downstream auf Abruf
Schritt-für-Schritt-Verfahren
So konfigurieren Sie eine LDP-Downstream-On-Demand-Richtlinie und konfigurieren diese Richtlinie und aktivieren LDP-Downstream on Demand in der LDP-Sitzung:
-
Konfigurieren Sie die Downstream-On-Demand-Richtlinie (DOD-Request-Loopbacks in diesem Beispiel).
Diese Richtlinie bewirkt, dass der Router Label-Anforderungsnachrichten nur an die FECs weiterleitet, die durch die DOD-Request-Loopbacks Richtlinie übereinstimmen.
[edit policy-options] user@host# set prefix-list Request-Loopbacks 10.1.1.1/32 user@host# set prefix-list Request-Loopbacks 10.1.1.2/32 user@host# set prefix-list Request-Loopbacks 10.1.1.3/32 user@host# set prefix-list Request-Loopbacks 10.1.1.4/32 user@host# set policy-statement DOD-Request-Loopbacks term 1 from prefix-list Request-Loopbacks user@host# set policy-statement DOD-Request-Loopbacks term 1 then accept
-
Geben Sie die Richtlinie DOD-Request-Loopbacks mithilfe der
dod-request-policy
Anweisung auf[edit protocols ldp]
Hierarchieebene an.Die mit der
dod-request-policy
Anweisung angegebene Richtlinie wird verwendet, um die Präfixe für das Senden von Meldungen zur Labelanforderung zu identifizieren. Diese Richtlinie ähnelt einer Ausgangs- oder Importrichtlinie. Bei der Verarbeitung von Routen aus der Routingtabelle inet.0 sucht die Junos OS-Software nach Routen, die derDOD-Request-Loopbacks
Richtlinie entsprechen (in diesem Beispiel). Wenn die Route mit der Richtlinie übereinstimmt und die LDP-Sitzung mit dem DOD-Ankündigungsmodus ausgehandelt wird, werden Label-Anforderungsmeldungen an die entsprechende Downstream-LDP-Sitzung gesendet.[edit protocols ldp] user@host# set dod-request-policy DOD-Request-Loopbacks
-
Fügen Sie die
downstream-on-demand
Anweisung in die Konfiguration der LDP-Sitzung ein, um den Downstream-On-Demand-Verteilungsmodus zu aktivieren.[edit protocols ldp] user@host# set session 172.16.1.1 downstream-on-demand
Verteilung von LDP-Downstream-On-Demand-Routen in gekennzeichnete BGP
Schritt-für-Schritt-Verfahren
Verwenden Sie eine BGP-Exportrichtlinie, um LDP-Downstream-On-Demand-Routen in gekennzeichnete BGP-Routen zu verteilen.
-
Konfigurieren Sie die LDP-Routenrichtlinie (
redistribute_ldp
in diesem Beispiel).[edit policy-options] user@host# set policy-statement redistribute_ldp term 1 from protocol ldp user@host# set policy-statement redistribute_ldp term 1 from tag 1000 user@host# set policy-statement redistribute_ldp term 1 then accept
-
Fügen Sie die LDP-Routenrichtlinie
redistribute_ldp
in die BGP-Konfiguration ein (als Teil der BGP-Gruppenkonfigurationebgp-to-abr
in diesem Beispiel).BGP leitet die LDP-Routen basierend auf der
redistribute_ldp
Richtlinie an den entfernten PE-Router weiter[edit protocols bgp] user@host# set group ebgp-to-abr type external user@host# set group ebgp-to-abr local-address 192.168.0.1 user@host# set group ebgp-to-abr peer-as 65319 user@host# set group ebgp-to-abr local-as 65320 user@host# set group ebgp-to-abr neighbor 192.168.6.1 family inet unicast user@host# set group ebgp-to-abr neighbor 192.168.6.1 family inet labeled-unicast rib inet.3 user@host# set group ebgp-to-abr neighbor 192.168.6.1 export redistribute_ldp
Schritt-für-Schritt-Verfahren
Konfigurieren Sie die folgenden Richtlinien, um die Labelweitergabe auf andere Router zu beschränken, die im unaufgeforderten Downstream-Modus (anstelle von Downstream-On-Demand) konfiguriert sind:
-
Konfigurieren Sie die
dod-routes
Richtlinie so, dass Routen von LDP akzeptiert werden.user@host# set policy-options policy-statement dod-routes term 1 from protocol ldp user@host# set policy-options policy-statement dod-routes term 1 from tag 1145307136 user@host# set policy-options policy-statement dod-routes term 1 then accept
-
Konfigurieren Sie die
do-not-propagate-du-sessions
Richtlinie, um Routen nicht an Nachbarn10.1.1.1
weiterzuleiten ,10.2.2.2
und10.3.3.3
.user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 to neighbor 10.1.1.1 user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 to neighbor 10.2.2.2 user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 to neighbor 10.3.3.3 user@host# set policy-options policy-statement do-not-propagate-du-sessions term 1 then reject
-
Konfigurieren Sie die
filter-dod-on-du-sessions
Richtlinie, um zu verhindern, dass die von derdod-routes
Richtlinie geprüften Routen an die in derdo-not-propagate-du-sessions
Richtlinie definierten benachbarten Router weitergeleitet werden.user@host# set policy-options policy-statement filter-dod-routes-on-du-sessions term 1 from policy dod-routes user@host# set policy-options policy-statement filter-dod-routes-on-du-sessions term 1 to policy do-not-propagate-du-sessions
-
Geben Sie die
filter-dod-routes-on-du-sesssion
Richtlinie als Exportrichtlinie für BGP g-Roupanebgp-to-abr
.[edit protocols bgp] user@host# set group ebgp-to-abr neighbor 192.168.6.2 export filter-dod-routes-on-du-sessions
Ergebnisse
Bestätigen Sie ihre Konfiguration im Konfigurationsmodus, indem Sie die show policy-options
befehle eingeben show protocols ldp
. Wenn die gewünschte Konfiguration in der Ausgabe nicht angezeigt wird, wiederholen Sie die Anweisungen in diesem Beispiel, um die Konfiguration zu korrigieren.
user@host# show policy-options prefix-list Request-Loopbacks { 10.1.1.1/32; 10.1.1.2/32; 10.1.1.3/32; 10.1.1.4/32; } policy-statement DOD-Request-Loopbacks { term 1 { from { prefix-list Request-Loopbacks; } then accept; } } policy-statement redistribute_ldp { term 1 { from { protocol ldp; tag 1000; } then accept; } }
user@host# show protocols ldp dod-request-policy DOD-Request-Loopbacks; session 172.16.1.1 { downstream-on-demand; }
user@host# show protocols bgp group ebgp-to-abr { type external; local-address 192.168.0.1; peer-as 65319; local-as 65320; neighbor 192.168.6.1 { family inet { unicast; labeled-unicast { rib { inet.3; } } } export redistribute_ldp; } }
Überprüfung
Überprüfung des Label-Ankündigungsmodus
Zweck
Bestätigen Sie, dass die Konfiguration ordnungsgemäß funktioniert.
Verwenden Sie den show ldp session
Befehl, um den Status des Label-Ankündigungsmodus für die LDP-Sitzung zu überprüfen.
Aktion
Gibt die show ldp session
Befehle und show ldp session detail
Befehle aus:
-
Die folgende Befehlsausgabe für den
show ldp session
Befehl gibt an, dass derAdv. Mode
(Label-Ankündigungsmodus) istDOD
(d. h. die LDP-Downstream-On-Demand-Sitzung ist betriebsbereit):user@host>
show ldp session
Address State Connection Hold time Adv. Mode 172.16.1.2 Operational Open 22 DOD -
Die folgende Befehlsausgabe für den
show ldp session detail
Befehl zeigt an, dass derLocal Label Advertisement mode
Ist- und Standardwert istDownstream unsolicited
(d. h. downstream-On-Demand ist in der lokalen Sitzung nicht konfiguriert). Umgekehrt geben dieRemote Label Advertisement mode
und beideNegotiated Label Advertisement mode
an, dass inDownstream on demand
der Remote-Sitzung konfiguriert istuser@host>
show ldp session detail
Address: 172.16.1.2, State: Operational, Connection: Open, Hold time: 24 Session ID: 10.1.1.1:0--10.1.1.2:0 Next keepalive in 4 seconds Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1 Neighbor types: configured-tunneled Keepalive interval: 10, Connect retry interval: 1 Local address: 10.1.1.1, Remote address: 10.1.1.2 Up for 17:54:52 Capabilities advertised: none Capabilities received: none Protection: disabled Local - Restart: disabled, Helper mode: enabled, Remote - Restart: disabled, Helper mode: enabled Local maximum neighbor reconnect time: 120000 msec Local maximum neighbor recovery time: 240000 msec Local Label Advertisement mode: Downstream unsolicited Remote Label Advertisement mode: Downstream on demand Negotiated Label Advertisement mode: Downstream on demand Nonstop routing state: Not in sync Next-hop addresses received: 10.1.1.2
Konfiguration von LDP-nativer IPv6-Unterstützung
LDP wird in einem reinen IPv6-Netzwerk und in einem IPv6- oder IPv4-Dual-Stack-Netzwerk unterstützt, wie in RFC 7552 beschrieben. Konfigurieren Sie die Adressfamilie als inet
für IPv4 oder inet6
für IPv6 oder beides, und die Übertragungseinstellung ist entweder IPv4
oder IPv6
. Die dual-transport
Anweisung ermöglicht Junos OS LDP den Aufbau der TCP-Verbindung über IPv4 mit IPv4-Nachbarn und über IPv6 mit IPv6-Nachbarn als Single-Stack-LSR. Die inet-lsr-id
beiden LSR-IDs und inet6-lsr-id
IDs müssen konfiguriert werden, um eine LDP-Sitzung über IPv4- und IPv6-TCP-Transport einzurichten. Diese beiden IDs sollten nicht Null sein und müssen mit unterschiedlichen Werten konfiguriert werden.
Bevor Sie IPv6 als Dual-Stack konfigurieren, müssen Sie unbedingt die Routing- und Signalprotokolle konfigurieren.
Um LDP-native IPv6-Unterstützung zu konfigurieren, müssen Sie folgendes tun:
Beispiel: Konfiguration von LDP-nativer IPv6-Unterstützung
Dieses Beispiel zeigt, wie das Junos OS Label Distribution Protocol (LDP) die TCP-Verbindung über IPv4 mit IPv4-Nachbarn und über IPv6 mit IPv6-Nachbarn als Single-Stack-LSR herstellen kann. Dies hilft, ein Tunneling von IPv6 über IPv4 MPLS-Core mit IPv4-signalisierten MPLS-Label-Switched Paths (LSPs) zu vermeiden.
Anforderungen
In diesem Beispiel werden die folgenden Hardware- und Softwarekomponenten verwendet:
-
Zwei Router der MX-Serie
-
Junos OS Version 16.1 oder höher auf allen Geräten
Bevor Sie IPv6 als Dual-Stack konfigurieren, müssen Sie unbedingt die Routing- und Signalprotokolle konfigurieren.
Überblick
LDP wird nur in einem IPv6-Netzwerk und in einem IPv6- oder IPv4-Dual-Stack-Netzwerk unterstützt, wie in RFC 7552 beschrieben. Konfigurieren Sie die Adressfamilie wie inet
für IPv4 oder inet6
für IPv6. Standardmäßig wird IPv6 als TCP-Transport für die LDP-Sitzung mit ihren Peers verwendet, wenn sowohl IPv4 als auch IPv6 aktiviert sind. Die Dual-Transport-Anweisung ermöglicht Junos LDP den Aufbau der TCP-Verbindung über IPv4 mit IPv4-Nachbarn und über IPv6 mit IPv6-Nachbarn als Single-Stack-LSR. Die inet-lsr-id
beiden inet6-lsr-id
LSR-IDs müssen konfiguriert werden, um eine LDP-Sitzung über IPv4- und IPv6-TCP-Transport einzurichten. Diese beiden IDs sollten nicht Null sein und müssen mit unterschiedlichen Werten konfiguriert werden.
Topologie
Abbildung 17 zeigt die LDP-IPv6, die als Dual-Stack auf Gerät R1 und Gerät R2 konfiguriert wurde.

Konfiguration
- CLI-Schnellkonfiguration
- Konfigurieren von R1
- Konfigurieren Sie die Transportpräferenz, um den bevorzugten Transport auszuwählen
- Konfigurieren Sie den dualen Transport, um separate Sitzungen für IPv4 mit einem IPv4-Nachbarn und IPv6 mit einem IPv6-Nachbarn einzurichten
CLI-Schnellkonfiguration
Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen sie in eine Textdatei ein, entfernen alle Zeilenumbrüche, ändern alle erforderlichen Details, um mit Ihrer Netzwerkkonfiguration zu übereinstimmen, kopieren Sie die Befehle, fügen Sie sie auf Hierarchieebene in die [edit] CLI ein, und geben Sie dann aus dem Konfigurationsmodus ein commit
.
R1
set interfaces ge-1/0/0 unit 0 family inet address 192.168.12.1/24 set interfaces ge-1/0/0 unit 0 family iso set interfaces ge-1/0/0 unit 0 family inet6 address 2001:db8:0:12::/64 eui-64 set interfaces ge-1/0/0 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.0.1/32 set interfaces lo0 unit 0 family iso address 49.0001.1720.1600.1010.00 set interfaces lo0 unit 0 family inet6 address 2001:db8::1/128 set protocols isis interface ge-1/0/0.0 set protocols isis interface lo0.0 set protocols mpls interface ge-1/0/0.0 set protocols ldp deaggregate set protocols ldp interface ge-1/0/0.0 set protocols ldp interface lo0.0 set protocols ldp family inet6 set protocols ldp family inet
R2
set interfaces ge-1/0/1 unit 0 family inet address 192.168.12.2/24 set interfaces ge-1/0/1 unit 0 family iso set interfaces ge-1/0/1 unit 0 family inet6 address 2001:db8:0:12::/64 eui-64 set interfaces ge-1/0/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.255.0.2/32 set interfaces lo0 unit 0 family iso address 49.0001.1720.1600.2020.00 set interfaces lo0 unit 0 family inet6 address 2001:db8::2/128 set protocols isis interface ge-1/0/1.0 set protocols isis interface lo0.0 set protocols mpls interface ge-1/0/1.0 set protocols ldp deaggregate set protocols ldp interface ge-1/0/1.0 set protocols ldp interface lo0.0 set protocols ldp family inet6 set protocols ldp family inet
Konfigurieren von R1
Schritt-für-Schritt-Verfahren
Im folgenden Beispiel müssen Sie auf verschiedenen Ebenen in der Konfigurationshierarchie navigieren. Informationen zum Navigieren in der CLI finden Sie unter " Using the CLI Editor in Configuration Mode " im Junos OS CLI-Benutzerhandbuch.
So konfigurieren Sie Gerät R1:
-
Konfigurieren Sie die Schnittstellen.
[edit interfaces] set ge-1/0/0 unit 0 family inet address 192.168.12.1/24 set ge-1/0/0 unit 0 family iso set ge-1/0/0 unit 0 family inet6 address 2001:db8:0:12::/64 eui-64 set ge-1/0/0 unit 0 family mpls
-
Weisen Sie dem Gerät eine Loopback-Adresse zu.
[edit interfaces lo0 unit 0] set family inet address 10.255.0.1/32 set family iso address 49.0001.1720.1600.1010.00 set family inet6 address 2001:db8::1/128
-
Konfigurieren Sie die IS-IS-Schnittstellen.
[edit protocols isis] set interface ge-1/0/0.0 set interface lo0.0
-
Konfigurieren Sie MPLS für die Verwendung von LDP-Schnittstellen auf dem Gerät.
[edit protocols mpls] set protocols mpls interface ge-1/0/0.0 set interface ge-1/0/0.0 set interface lo0.0
-
Aktivieren Sie FEC-Deaggregation (Forwarding Equivalence Class), um unterschiedliche Label für unterschiedliche Adressfamilien zu verwenden.
[edit protocols ldp] set deaggregate
-
Konfigurieren Sie LDP-Adressfamilien.
[edit protocols ldp] set family inet6 set family inet
Ergebnisse
Bestätigen Sie ihre Konfiguration im Konfigurationsmodus, indem Sie die show interfaces befehle eingeben show protocols . Wenn die gewünschte Konfiguration in der Ausgabe nicht angezeigt wird, wiederholen Sie die Anweisungen in diesem Beispiel, um die Konfiguration zu korrigieren.
user@R1# show interfaces ge-1/0/0 { unit 0 { family inet { address 192.168.12.1/24; } family iso; family inet6 { address 2001:db8:0:12::/64 { eui-64; } } family mpls; } } lo0 { unit 0 { family inet { address 10.255.0.1/32; } family iso { address 49.0001.1720.1600.1010.00 } family inet6 { address 2001:db8::1/128; } } }
user@R1# show protocols mpls { interface ge-1/0/0.0; } isis { interface ge-1/0/0.0; interface lo0.0; } ldp { deaggregate; interface ge-1/0/0.0; interface lo0.0; family { inet6; inet; } }
Konfigurieren Sie die Transportpräferenz, um den bevorzugten Transport auszuwählen
CLI-Schnellkonfiguration
Schritt-für-Schritt-Verfahren
Sie können die transport-preference
Anweisung so konfigurieren, dass der bevorzugte Transport für eine TCP-Verbindung ausgewählt wird, wenn sowohl IPv4 als auch IPv6 aktiviert sind. Standardmäßig wird IPv6 als TCP-Transport zum Aufbau einer LDP-Verbindung verwendet.
-
(Optional) Konfigurieren Sie die Transportpräferenz für eine LDP-Verbindung.
[edit protocols ldp] set transport-preference ipv4
Schritt-für-Schritt-Verfahren
Ergebnisse
Bestätigen Sie ihre Konfiguration im Konfigurationsmodus, indem Sie den show protocols Befehl eingeben. Wenn die gewünschte Konfiguration in der Ausgabe nicht angezeigt wird, wiederholen Sie die Anweisungen in diesem Beispiel, um die Konfiguration zu korrigieren.
user@R1# show protocols mpls { interface ge-1/0/0.0; } isis { interface ge-1/0/0.0; interface lo0.0; } ldp { deaggregate; interface ge-1/0/0.0; interface lo0.0; family { inet6; inet; } transport-preference ipv4; }
Konfigurieren Sie den dualen Transport, um separate Sitzungen für IPv4 mit einem IPv4-Nachbarn und IPv6 mit einem IPv6-Nachbarn einzurichten
Schritt-für-Schritt-Verfahren
Sie können die dual-transport
Anweisung so konfigurieren, dass LDP eine separate IPv4-Sitzung mit einem IPv4-Nachbarn und eine IPv6-Sitzung mit einem IPv6-Nachbarn einrichten kann. Dies erfordert die Konfiguration als inet-lsr-id
LSR-ID für IPv4 und inet6-lsr-id
als LSR-ID für IPv6.
-
(Optional) Konfigurieren Sie dualen Transport, damit LDP die TCP-Verbindung über IPv4 mit IPv4-Nachbarn und über IPv6 mit IPv6-Nachbarn als Single-Stack-LSR herstellen kann.
[edit protocols ldp dual-transport] set inet-lsr-id 10.255.0.1 set inet6-lsr-id 10.1.1.1
Ergebnisse
Bestätigen Sie ihre Konfiguration im Konfigurationsmodus, indem Sie den show protocols Befehl eingeben. Wenn die gewünschte Konfiguration in der Ausgabe nicht angezeigt wird, wiederholen Sie die Anweisungen in diesem Beispiel, um die Konfiguration zu korrigieren.
user@R1# show protocols mpls { interface ge-1/0/0.0; } isis { interface ge-1/0/0.0; interface lo0.0; } ldp { deaggregate; interface ge-1/0/0.0; interface lo0.0; family { inet6; inet; } dual-transport { inet-lsr-id 10.255.0.1; inet6-lsr-id 10.1.1.1; } }
Überprüfung
Bestätigen Sie, dass die Konfiguration ordnungsgemäß funktioniert.
- Überprüfen der Routeneinträge in der Mpls.0-Tabelle
- Überprüfen der Routeneinträge in der Tabelle inet.3
- Überprüfen der Routeneinträge in der Tabelle inet6.3
- Überprüfung der LDP-Datenbank
- Überprüfen der LDP Neighbor Information
- Überprüfen der LDP-Sitzungsinformationen
Überprüfen der Routeneinträge in der Mpls.0-Tabelle
Zweck
Zeigen Sie mpls.0-Routingtabelleninformationen an.
Aktion
Führen Sie auf Gerät R1 im Betriebsmodus den Befehl aus, um die show route table mpls.0
Mpls.0-Routingtabelleninformationen anzuzeigen.
user@R1> show route table mpls.0
mpls.0: 8 destinations, 8 routes (8 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
0 *[MPLS/0] 05:19:58, metric 1
Receive
1 *[MPLS/0] 05:19:58, metric 1
Receive
2 *[MPLS/0] 05:19:58, metric 1
Receive
13 *[MPLS/0] 05:19:58, metric 1
Receive
299824 *[LDP/9] 04:28:45, metric 1
> to fe80::21f:1200:cb6:4c8d via ge-1/0/0.0, Pop
299824(S=0) *[LDP/9] 04:28:45, metric 1
> to fe80::21f:1200:cb6:4c8d via ge-1/0/0.0, Pop
299888 *[LDP/9] 00:56:12, metric 1
> to 192.168.12.2 via ge-1/0/0.0, Pop
299888(S=0) *[LDP/9] 00:56:12, metric 1
> to 192.168.12.2 via ge-1/0/0.0, Pop
Bedeutung
Die Ausgabe zeigt die Informationen zur Routingtabelle mpls.0.
Überprüfen der Routeneinträge in der Tabelle inet.3
Zweck
Zeigt inet.3-Routentabelleninformationen an.
Aktion
Führen Sie auf Gerät R1 aus dem Betriebsmodus den Befehl aus, um die show route table inet.3
Routingtabelleninformationen inet.3 anzuzeigen.
user@R1> show route table inet.3
inet.3: 1 destinations, 1 routes (1 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
10.255.0.2/32 *[LDP/9] 00:58:38, metric 1
> to 192.168.12.2 via ge-1/0/0.0
Bedeutung
Die Ausgabe zeigt die Inet.3-Routingtabelleninformationen.
Überprüfen der Routeneinträge in der Tabelle inet6.3
Zweck
Zeigt inet6.3-Routentabelleninformationen an.
Aktion
Führen Sie auf Gerät R1 aus dem Betriebsmodus den Befehl aus, um die show route table inet6.3
Inet6.3-Routingtabelleninformationen anzuzeigen.
user@R1> show route table inet6.3
inet6.3: 1 destinations, 1 routes (1 active, 0 holddown, 0 hidden)
+ = Active Route, - = Last Active, * = Both
2001:db8::2/128 *[LDP/9] 04:31:17, metric 1
> to fe80::21f:1200:cb6:4c8d via ge-1/0/0.0
Bedeutung
Die Ausgabe zeigt die Routingtabelleninformationen inet6.3.
Überprüfung der LDP-Datenbank
Zweck
Zeigen Sie die LDP-Datenbankinformationen an.
Aktion
Führen Sie auf Gerät R1 aus dem Betriebsmodus den Befehl aus, um LDP-Datenbankinformationen show ldp database
anzuzeigen.
user@R1> show ldp database
Input label database, 10.255.0.1:0--10.255.0.2:0
Labels received: 3
Label Prefix
299840 10.255.0.1/32
3 10.255.0.2/32
299808 2001:db8::1/128
3 2001:db8::2/128
Output label database, 10.255.0.1:0--10.255.0.2:0
Labels advertised: 3
Label Prefix
3 10.255.0.1/32
299888 10.255.0.2/32
3 2001:db8::1/128
299824 2001:db8::2/128
Bedeutung
Die Ausgabe zeigt die Einträge in der LDP-Datenbank.
Überprüfen der LDP Neighbor Information
Zweck
Zeigen Sie die LDP-Nachbarninformationen an.
Aktion
Führen Sie auf Gerät R1 aus dem Betriebsmodus die show ldp neighbor
Befehle aus show ldp neighbor extensive
, um LDP-Nachbarn anzuzeigen.
user@R1>show ldp neighbor
Address Interface Label space ID Hold time fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 12 192.168.12.2 ge-1/0/0.0 10.255.0.2:0 11 user@R1>show ldp neighbor extensive
Address Interface Label space ID Hold time 192.168.12.2 ge-1/0/0.0 10.255.0.2:0 11 Transport address: 10.255.0.2, Transport preference: IPv6, Configuration sequence: 10 Up for 00:04:35 Reference count: 1 Hold time: 15, Proposed local/peer: 15/15 Hello flags: none Neighbor types: discovered Address Interface Label space ID Hold time fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 14 Transport address: 2001:db8::2, Transport preference: IPv6, Configuration sequence: 10 Up for 00:04:35 Reference count: 1 Hold time: 15, Proposed local/peer: 15/15 Hello flags: none Neighbor types: discovered
Bedeutung
Die Ausgabe zeigt LDP-Nachbarninformationen von IPv4- und IPv6-Adressen.
Überprüfen der LDP-Sitzungsinformationen
Zweck
Zeigen Sie die LDP-Sitzungsinformationen an.
Aktion
Führen Sie auf Gerät R1 aus dem Betriebsmodus die show ldp session
Befehle aus show ldp session extensive
, um LDP-Sitzungsinformationen anzuzeigen.
user@R1>show ldp session
session Address State Connection Hold time Adv. Mode 2001:db8::2 Operational Open 20 DU user@R1>show ldp session extensive
Address: 2001:db8::2, State: Operational, Connection: Open, Hold time: 29 Session ID: 10.255.0.1:0--10.255.0.2:0 Next keepalive in 9 seconds Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1 Neighbor types: discovered Keepalive interval: 10, Connect retry interval: 1 Local address: 2001:db8::1, Remote address: 2001:db8::2 Up for 00:05:31 Capabilities advertised: none Capabilities received: none Protection: disabled Session flags: none Local - Restart: disabled, Helper mode: enabled Remote - Restart: disabled, Helper mode: enabled Local maximum neighbor reconnect time: 120000 msec Local maximum neighbor recovery time: 240000 msec Local Label Advertisement mode: Downstream unsolicited Remote Label Advertisement mode: Downstream unsolicited Negotiated Label Advertisement mode: Downstream unsolicited MTU discovery: disabled Nonstop routing state: Not in sync Next-hop addresses received: 10.255.0.2 192.168.12.2 2001:db8::2 fe80::21f:1200:cb6:4c8d Queue depth: 0 Message type Total Last 5 seconds Sent Received Sent Received Initialization 1 1 0 0 Keepalive 34 34 0 0 Notification 0 0 0 0 Address 1 1 0 0 Address withdraw 0 0 0 0 Label mapping 3 3 0 0 Label request 0 0 0 0 Label withdraw 0 0 0 0 Label release 0 0 0 0 Label abort 0 0 0 0
Bedeutung
Die Ausgabe zeigt Informationen für die LDP-Sitzung mit IPv6 als TCP-Transport an.
Überprüfung
Bestätigen Sie, dass die Konfiguration ordnungsgemäß funktioniert.
Überprüfen der LDP Neighbor Information
Zweck
Zeigen Sie die LDP-Nachbarninformationen an.
Aktion
Führen Sie auf Gerät R1 im Betriebsmodus den show ldp neighbor extensive
Befehl aus, um LDP-Nachbarninformationen anzuzeigen.
user@R1> show ldp neighbor extensive
Address Interface Label space ID Hold time
192.168.12.2 ge-1/0/0.0 10.255.0.2:0 14
Transport address: 10.255.0.2, Transport preference: IPv4, Configuration sequence: 9
Up for 00:00:14
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
Address Interface Label space ID Hold time
fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 14
Transport address: 2001:db8::2, Transport preference: IPv4, Configuration sequence: 9
Up for 00:00:14
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
Bedeutung
Die Ausgabe zeigt LDP-Nachbarninformationen für die IPv4- und IPv6-Adressen an.
Überprüfen der LDP-Sitzungsinformationen
Zweck
Zeigen Sie die LDP-Sitzungsinformationen an.
Aktion
Führen Sie den Befehl auf Gerät R1 aus dem Betriebsmodus aus, um LDP-Sitzungsinformationen show ldp session extensive
anzuzeigen.
user@R1> show ldp session extensive
Address: 10.255.0.2, State: Operational, Connection: Open, Hold time: 24
Session ID: 10.255.0.1:0--10.255.0.2:0
Next keepalive in 4 seconds
Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 2
Neighbor types: discovered
Keepalive interval: 10, Connect retry interval: 1
Local address: 10.255.0.1, Remote address: 10.255.0.2
Up for 00:05:26
Capabilities advertised: none
Capabilities received: none
Protection: disabled
Session flags: none
Local - Restart: disabled, Helper mode: enabled
Remote - Restart: disabled, Helper mode: enabled
Local maximum neighbor reconnect time: 120000 msec
Local maximum neighbor recovery time: 240000 msec
Local Label Advertisement mode: Downstream unsolicited
Remote Label Advertisement mode: Downstream unsolicited
Negotiated Label Advertisement mode: Downstream unsolicited
MTU discovery: disabled
Nonstop routing state: Not in sync
Next-hop addresses received:
10.255.0.2
192.168.12.2
2001:db8::2
fe80::21f:1200:cb6:4c8d
Queue depth: 0
Message type Total Last 5 seconds
Sent Received Sent Received
Initialization 1 1 0 0
Keepalive 33 33 1 1
Notification 0 0 0 0
Address 2 2 0 0
Address withdraw 0 0 0 0
Label mapping 6 6 0 0
Label request 0 0 0 0
Label withdraw 0 0 0 0
Label release 0 0 0 0
Label abort 0 0 0 0
Bedeutung
Die Ausgabe zeigt Informationen für die LDP-Sitzung mit IPv6 als TCP-Transport an.
Überprüfung
Bestätigen Sie, dass die Konfiguration ordnungsgemäß funktioniert.
Überprüfen der LDP Neighbor Information
Zweck
Zeigen Sie die LDP-Nachbarninformationen an.
Aktion
Führen Sie auf Gerät R1 im Betriebsmodus den show ldp neighbor extensive
Befehl aus, um LDP-Nachbarninformationen anzuzeigen.
user@R1> show ldp neighbor extensive
Address Interface Label space ID Hold time
192.168.12.2 ge-1/0/0.0 10.255.0.2:0 11
Transport address: 10.255.0.2, Configuration sequence: 10
Up for 00:04:35
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
Address Interface Label space ID Hold time
fe80::21f:1200:cb6:4c8d ge-1/0/0.0 10.255.0.2:0 14
Transport address: 2001:db8::2, Configuration sequence: 10
Up for 00:04:35
Reference count: 1
Hold time: 15, Proposed local/peer: 15/15
Hello flags: none
Neighbor types: discovered
Bedeutung
Die Ausgabe zeigt LDP-Nachbarninformationen für die IPv4- und IPv6-Adressen an.
Überprüfen der LDP-Sitzungsinformationen
Zweck
Zeigen Sie die LDP-Sitzungsinformationen an.
Aktion
Führen Sie auf Gerät R1 im Betriebsmodus den show ldp session extensive
Befehl aus, um LDP-Nachbarninformationen anzuzeigen.
user@R1> show ldp session extensive
Address: 2001:db8::2, State: Operational, Connection: Open, Hold time: 29
Session ID: 10.1.1.1:0--10.255.0.2:0
Next keepalive in 9 seconds
Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1
Neighbor types: discovered
Keepalive interval: 10, Connect retry interval: 1
Local address: 2001:db8::1, Remote address: 2001:db8::2
Up for 00:05:31
Capabilities advertised: none
Capabilities received: none
Protection: disabled
Session flags: none
Local - Restart: disabled, Helper mode: enabled
Remote - Restart: disabled, Helper mode: enabled
Local maximum neighbor reconnect time: 120000 msec
Local maximum neighbor recovery time: 240000 msec
Local Label Advertisement mode: Downstream unsolicited
Remote Label Advertisement mode: Downstream unsolicited
Negotiated Label Advertisement mode: Downstream unsolicited
MTU discovery: disabled
Nonstop routing state: Not in sync
Next-hop addresses received:
2001:db8::2
fe80::21f:1200:cb6:4c8d
Queue depth: 0
Message type Total Last 5 seconds
Sent Received Sent Received
Initialization 1 1 0 0
Keepalive 34 34 0 0
Notification 0 0 0 0
Address 1 1 0 0
Address withdraw 0 0 0 0
Label mapping 3 3 0 0
Label request 0 0 0 0
Label withdraw 0 0 0 0
Label release 0 0 0 0
Label abort 0 0 0 0
Address: 10.255.0.2, State: Operational, Connection: Open, Hold time: 29
Session ID: 10.255.0.1:0--10.255.0.2:0
Next keepalive in 9 seconds
Passive, Maximum PDU: 4096, Hold time: 30, Neighbor count: 1
Neighbor types: discovered
Keepalive interval: 10, Connect retry interval: 1
Local address: 10.255.0.1, Remote address: 10.255.0.2
Up for 00:05:31
Capabilities advertised: none
Capabilities received: none
Protection: disabled
Session flags: none
Local - Restart: disabled, Helper mode: enabled
Remote - Restart: disabled, Helper mode: enabled
Local maximum neighbor reconnect time: 120000 msec
Local maximum neighbor recovery time: 240000 msec
Local Label Advertisement mode: Downstream unsolicited
Remote Label Advertisement mode: Downstream unsolicited
Negotiated Label Advertisement mode: Downstream unsolicited
MTU discovery: disabled
Nonstop routing state: Not in sync
Next-hop addresses received:
10.255.0.2
192.168.12.2
Queue depth: 0
Message type Total Last 5 seconds
Sent Received Sent Received
Initialization 1 1 0 0
Keepalive 34 34 0 0
Notification 0 0 0 0
Address 1 1 0 0
Address withdraw 0 0 0 0
Label mapping 3 3 0 0
Label request 0 0 0 0
Label withdraw 0 0 0 0
Label release 0 0 0 0
Label abort 0 0 0 0
Beispiel: Konfiguration von Multipoint-LDP-In-Band-Signalisierung für Point-to-Multipoint-LSPs
- Verständnis der Multipoint-LDP-Inband-Signalisierung für Point-to-Multipoint-LSPs
- Beispiel: Konfiguration von Multipoint-LDP-In-Band-Signalisierung für Point-to-Multipoint-LSPs
Verständnis der Multipoint-LDP-Inband-Signalisierung für Point-to-Multipoint-LSPs
Das Multipoint Label Distribution Protocol (M-LDP) für Point-to-Multipoint Label-Switched Paths (LSPs) mit In-Band-Signaling ist in einer Bereitstellung mit einem vorhandenen IP/MPLS-Backbone nützlich, in dem Sie Multicast-Datenverkehr, z. B. für IPTV, übertragen müssen.
Die seit Jahren am weitesten verbreitete Lösung für die Übertragung von Multicast-Datenverkehr war, native IP-Multicast im Service Provider-Core mit Multipoint-IP-Tunneling zu verwenden, um den Kundendatenverkehr zu isolieren. Zum Einrichten der Weiterleitungspfade wird ein Multicast-Routing-Protokoll (Protocol Independent Multicast, PIM) bereitgestellt. Ip-Multicast-Routing wird für die Weiterleitung verwendet, unter Verwendung von PIM-Signalen im Core. Damit dieses Modell funktioniert, muss das Core-Netzwerk Multicast-fähig sein. Dies ermöglicht effektive und stabile Bereitstellungen auch in Szenarien mit inter-autonomen Systemen (AS).
In einem vorhandenen IP/MPLS-Netzwerk ist die Bereitstellung von PIM jedoch möglicherweise nicht die erste Wahl. Einige Service Provider sind daran interessiert, IP-Tunneling durch MPLS-Label-Kapselung zu ersetzen. Die Gründe für die Umstellung auf MPLS-Label-Switching sind die Nutzung von MPLS Traffic Engineering- und Schutzfunktionen sowie die Reduzierung des Kontroll-Datenverkehrs-Overheads im Provider-Core.
Um dies zu tun, sind Service Provider daran interessiert, die Erweiterung der vorhandenen Bereitstellungen zu nutzen, um Multicast-Datenverkehr zu ermöglichen. Die vorhandenen Multicast-Erweiterungen für IP/MPLS sind Point-to-Multipoint-Erweiterungen für RSVP-TE und Point-to-Multipoint- und Multipoint-to-Multipoint-Erweiterungen für LDP. Diese Bereitstellungsszenarien werden in RFC 6826, Multipoint LDP In-Band Signaling für Point-to-Multipoint- und Multipoint-to-Multipoint-Label Switched Paths diskutiert. Diese Funktionsübersicht ist auf Point-to-Multipoint-Erweiterungen für LDP beschränkt.
- Funktionsweise von M-LDP
- Terminologie
- Ingress Join Translation und Pseudo Interface Handling
- Eingangs-Splicing
- Reverse Path Forwarding
- LSP-Root-Erkennung
- Egress Join Translation und Pseudo Interface Handling
- Egress Splicing
- Unterstützte Funktionen
- Nicht unterstützte Funktionen
- LDP-Funktionalität
- Ausgangs-LER-Funktionalität
- Transit-LSR-Funktionalität
- Eingangs-LER-Funktionalität
Funktionsweise von M-LDP
- Label-Bindungen in M-LDP-Signalübertragung
- M-LDP in PIM-freien MPLS-Core
- M-LDP in PIM-fähiger MPLS Core
Label-Bindungen in M-LDP-Signalübertragung
Die Multipoint-Erweiterung für LDP verwendet Point-to-Multipoint- und Multipoint-to-Multipoint Forwarding Equivalence Class(FEC)-Elemente (definiert in RFC 5036, LDP-Spezifikation) zusammen mit Funktionsanzeigen, Labelzuordnung und Signalverfahren. Die FEC-Elemente umfassen die Idee des LSP-Root, bei dem es sich um eine IP-Adresse handelt, und einen "undurchsichtigen" Wert, bei dem es sich um einen Selektor handelt, der die Leaf-Knoten mit dem gleichen undurchsichtigen Wert gruppiert. Der undurchsichtige Wert ist für die Zwischenknoten transparent, hat aber eine Bedeutung für den LSP-Stamm. Jeder LDP-Knoten kündigt seine lokale eingehende Label-Bindung an den Upstream-LDP-Knoten auf dem kürzesten Pfad zu der im FEC gefundenen Root-IP-Adresse an. Der Upstream-Knoten, der die Labelbindungen empfängt, erstellt seine eigenen lokalen Label- und ausgehenden Schnittstellen. Dieser Prozess der Labelzuweisung kann zu einer Paketreplikation führen, wenn mehrere ausgehende Zweigstellen vorhanden sind. Wie in Abbildung 18der Abbildung dargestellt, führt ein LDP-Knoten die Labelbindungen für den gleichen undurchsichtigen Wert zusammen, wenn er downstream-Knoten findet, die sich denselben Upstream-Knoten teilen. Dies ermöglicht den effektiven Aufbau von Point-to-Multipoint-LSPs und die Konservierung von Labeln.

M-LDP in PIM-freien MPLS-Core
Abbildung 19 zeigt ein herunterskaliertes Bereitstellungsszenario. Zwei separate PIM-Domänen sind durch einen PIM-freien Core-Standort miteinander verbunden. Die Border-Router an diesem Core-Standort unterstützen PIM an den Randschnittstellen. Darüber hinaus sammeln diese Border-Router die Routing-Informationen von den angrenzenden Standorten und verteilen sie auf das Core-Netzwerk. Die Edge-Router an Standort C führen BGP für die Root-Node-Erkennung aus. Interior Gateway Protocol (IGP)-Routen können nicht für die Eingangserkennung verwendet werden, da in den meisten Fällen der nächste Weiterleitungs-Hop, der von der IGP bereitgestellt wird, keine Informationen über das Eingangsgerät zur Quelle liefern würde. M-LDP-Inband-Signalisierung verfügt über eine 1-zu-eins-Zuordnung zwischen dem Point-to-Multipoint-LSP und dem (S,G)-Datenstrom. Mit In-Band-Signalisierung werden PIM-Nachrichten direkt in M-LDP FEC-Bindungen übersetzt. Im Gegensatz dazu basiert die Out-of-Band-Signalübertragung auf einer manuellen Konfiguration. Eine Anwendung für M-LDP-Inband-Signalisierung besteht darin, IPTV-Multicast-Datenverkehr in einem MPLS-Backbone zu übertragen.

Konfiguration
Die Konfigurationsaussage mldp-inband-signalling
auf dem Label-Edge-Router (LER) ermöglicht PIM die Verwendung von M-LDP-In-Band-Signalisierung für die Upstream-Nachbarn, wenn der LER keinen PIM-Upstream-Nachbarn erkennt. Die statische Konfiguration des MPLS-LSP-Stammes ist mithilfe von Richtlinien in der PIM-Konfiguration enthalten. Dies ist erforderlich, wenn IBGP am Core-Standort nicht verfügbar ist oder um die IBGP-basierte LSP-Root-Erkennung zu überschreiben.
Zum Beispiel:
protocols { pim { mldp-inband-signalling { policy lsp-mapping-policy-example; } } }
policy-options { policy-statement lsp-mapping-policy-example { term channel1 { from { source-address-filter ip-prefix</prefix-length>; #policy filter for channel1 } then { p2mp-lsp-root { # Statically configured ingress address of edge # used by channel1 address ip-address; } accept; } } } }
M-LDP in PIM-fähiger MPLS Core
Ab Junos OS Version 14.1 müssen Sie einen reibungslosen Übergang von PIM zu M-LDP-Point-to-Multipoint-LSPs mit minimalem Ausfall durchführen, um vorhandene IPTV-Services von nativem IP-Multicast auf MPLS-Multicast zu migrieren. Abbildung 20 zeigt eine ähnliche M-LDP-Topologie wie Abbildung 19, aber mit einem anderen Szenario. Der Core ist mit PIM aktiviert, wobei alle IPTV-Kanäle über eine Quelle gestreamt werden. Die TV-Kanäle werden als ASM-Streams gesendet, wobei jeder Kanal durch seine Gruppenadresse identifiziert wird. Zuvor wurden diese Kanäle als IP-Streams auf dem Core gestreamt und mit PIM signalisiert.

Durch die Konfiguration der mldp-inband-signaling
in diesem Szenario erfolgten M-LDP-Signalübertragung nur dann, wenn kein PIM-Nachbarn zur Quelle hin vorhanden ist. Da es jedoch immer einen PIM-Nachbarn zur Quelle gibt, es sei denn, PIM wird an den Upstream-Schnittstellen des Ausgangs-PE deaktiviert, hat PIM Vorrang vor M-LDP und M-LDP tritt nicht in Kraft.
Konfiguration
Zur schrittweisen Migration von Kanal zu M-LDP-MPLS-Core mit wenigen Streams unter Verwendung des M-LDP-Upstreams und anderer Streams unter Verwendung vorhandener PIM-Upstream-Daten, fügen Sie die selected-mldp-egress
Konfigurationsaussage zusammen mit gruppenbasierten Filtern in den Richtlinienfilter für M-LDP-Inbandsignalisierung ein.
Der M-LDP-Inband-Signalrichtlinienfilter kann entweder die source-address-filter
Anweisung oder die route-filter
Anweisung oder eine Kombination aus beidem enthalten.
Zum Beispiel:
protocols { pim { mldp-inband-signalling { policy lsp-mapping-policy-example; } } }
policy-options { policy-statement lsp-mapping-policy-example { term channel1 { from { source-address-filter ip-prefix</prefix-length>; #policy filter for channel1 } then { selected-mldp-egress; accept; } } term channel2 { from { source-address-filter ip-prefix</prefix-length>; #policy filter for channel2 route-filter ip-prefix</prefix-length>; #policy filter on multicast group address } then { selected-mldp-egress; p2mp-lsp-root { # Statically configured ingress address of edge # used by channel2 address ip-address; } accept; } } term channel3 { from { route-filter ip-prefix</prefix-length>; #policy filter on multicast group address } then { selected-mldp-egress; accept; } } } }
Einige der Einschränkungen der obigen Konfiguration sind wie folgt:
Die
selected-mldp-egress
Anweisung sollte nur auf dem LER konfiguriert werden. Die Konfiguration derselected-mldp-egress
Anweisung auf nicht ausgehenden PIM-Routern kann zu Fehlern bei der Pfadeinrichtung führen.Wenn Richtlinienänderungen vorgenommen werden, um den Datenverkehr von PIM-Upstream zu M-LDP-Upstream und umgekehrt zu wechseln, kann mit Paketverlusten gerechnet werden, wenn der Break-and-Make-Mechanismus auf der Steuerungsebene durchgeführt wird.
Terminologie
Die folgenden Begriffe sind wichtig für ein Verständnis der M-LDP-In-Band-Signalisierung für Multicast-Datenverkehr.
Point-to-point LSP | Ein LSP mit einem Eingangs-Label-Switched-Router (LSR) und einem Ausgangs-LSR. |
Multipoint LSP | Entweder ein Point-to-Multipoint- oder ein Multipoint-to-Multipoint-LSP. |
Point-to-multipoint LSP | Ein LSP mit einem Eingangs-LSR und einem oder mehreren Ausgangs-LSRs. |
Multipoint-to-point LSP | Ein LSP mit einem oder mehreren Eingangs-LSRs und einem eindeutigen Ausgangs-LSR. |
Multipoint-to-multipoint LSP | Ein LSP, der eine Reihe von Knoten verbindet, sodass der Datenverkehr, der von einem beliebigen Knoten im LSP gesendet wird, an alle anderen übermittelt wird. |
Ingress LSR | Ein Eingangs-LSR für einen bestimmten LSP ist eine LSR, die ein Datenpaket über den LSP senden kann. Multipoint-to-Multipoint-LSPs können mehrere Eingangs-LSRs haben. Point-to-Multipoint-LSPs haben nur einen, und dieser Knoten wird oft als Root-Knoten bezeichnet. |
Egress LSR | Ein Ausgangs-LSR für einen bestimmten LSP ist eine LSR, die ein Datenpaket für die weitere Verarbeitung aus diesem LSP entfernen kann. Punkt-zu-Punkt- und Multipoint-to-Point-LSPs haben nur einen einzigen Ausgangsknoten. Point-to-Multipoint- und Multipoint-to-Multipoint-LSPs können mehrere Ausgangsknoten haben. |
Transit LSR | Ein LSR, der über einen direkt verbundenen Upstream-LSR und ein oder mehrere direkt angeschlossene Downstream-LSRs zum Ursprung des Multipoint-LSP erreichbar ist. |
Bud LSR | Ein LSR, der ein Ausgang ist, aber auch über eine oder mehrere direkt angeschlossene Downstream-LSRs verfügt. |
Leaf node | Entweder ein Ausgangs- oder Knospen-LSR im Kontext eines Point-to-Multipoint-LSP. Im Kontext eines Multipoint-to-Multipoint-LSP ist ein LSR sowohl Ein- als auch Ausgang für den gleichen Multipoint-to-Multipoint-LSP und kann auch eine bud LSR sein. |
Ingress Join Translation und Pseudo Interface Handling
Am Eingangs-LER benachrichtigt LDP PIM über die (S,G)-Nachrichten, die über das In-Band-Signal empfangen werden. PIM verknüpft jede (S,G)-Nachricht mit einer Pseudo-Schnittstelle. Anschließend wird eine Join-Nachricht mit dem kürzesten Pfadbaum (SPT) in Richtung der Quelle eingeleitet. PIM behandelt dies als eine neue Art von lokalem Empfänger. Wenn der LSP abgerissen wird, entfernt PIM diesen lokalen Empfänger basierend auf einer Benachrichtigung von LDP.
Eingangs-Splicing
LDP stellt PIM mit einem nächsten Hop bereit, der jedem (S,G)-Eintrag zugeordnet wird. PIM installiert eine PIM(S,G)-Multicast-Route mit dem LDP Next Hop und anderen PIM-Empfängern. Der nächste Hop ist ein zusammengesetzter Next Hop aus lokalen Empfängern + die Liste der PIM-Downstream-Nachbarn + ein nächster Hop auf einer Untergeordneten Ebene für den LDP-Tunnel.
Reverse Path Forwarding
Die Reverse Path Forwarding (RPF)-Berechnung von PIM wird am Ausgangsknoten durchgeführt.
PIM führt M-LDP-In-Band-Signalisierung durch, wenn alle folgenden Bedingungen zutreffen:
Es gibt keine PIM-Nachbarn gegenüber der Quelle.
Die M-LDP-In-Band-Signalisierungsaussage ist konfiguriert.
Der nächste Hop wird durch BGP gelernt oder ist in der statischen Zuordnung vorhanden (angegeben in einer M-LDP-In-Band-Signaling-Richtlinie).
Andernfalls, wenn die LSP-Root-Erkennung fehlschlägt, behält PIM den (S,G)-Eintrag mit einem RPF-Status nicht gelöst.
PIM RPF registriert diese Quelladresse bei jeder Änderung der Unicast-Routing-Informationen. Wenn sich also die Route zur Quelle ändert, wird die RPF-Neuberechnung wiederholt. Auch die nächsten Hops des BGP-Protokolls zur Quelle werden auf Änderungen am LSP-Root überwacht. Solche Änderungen können zu kurzzeitigen Unterbrechungen des Datenverkehrs führen.
LSP-Root-Erkennung
Wenn der RPF-Vorgang erkennt, dass M-LDP-In-Band-Signalübertragung vorgeschaltet ist, wird der LSP-Root (Eingang) erkannt. Dieser Root ist ein Parameter für LDP-LSP-Signalübertragung.
Der Root-Knoten wird wie folgt erkannt:
Wenn die vorhandene statische Konfiguration die Quelladresse angibt, wird das Root wie in der Konfiguration angegeben genommen.
Eine Suche wird in der Unicast-Routing-Tabelle durchgeführt. Wenn die Quelladresse gefunden wird, wird das Protokoll als nächster Hop zur Quelle als LSP-Root verwendet.
Vor Junos OS Version 16.1 wird der M-LDP Point-to-Multipoint-LSP über die Root-Adresse des Eingangs-LSR vom Ausgangs- zum Eingang signalisiert. Diese Root-Adresse ist nur über IGP erreichbar, wodurch der M-LDP-Point-to-Multipoint-LSP auf ein einziges autonomes System beschränkt wird. Wenn die Root-Adresse nicht über eine IGP, aber über BGP erreichbar ist, und wenn diese BGP-Route rekursiv über einen MPLS-LSP aufgelöst wird, wird der Point-to-Multipoint-LSP von diesem Punkt aus nicht weiter in Richtung der Eingangs-LSR-Stammadresse signalisiert.
Diese nicht segmentierten Point-to-Multipoint-LSPs müssen über mehrere autonome Systeme hinweg signalisiert werden, die für die folgenden Anwendungen verwendet werden können:
Inter-AS-MVPN mit nicht segmentierten Point-to-Multipoint-LSPs.
Inter-AS M-LDP-Inband-Signalübertragung zwischen Client-Netzwerken, die über ein MPLS-Core-Netzwerk verbunden sind.
Bereichsübergreifende MVPN- oder M-LDP-Inband-Signalübertragung mit nicht segmentierten Point-to-Multipoint-LSPs (seamless MPLS Multicast).
Ab Junos OS Version 16.1 kann M-LDP Point-to-Multipoint-LSPs an ASBR oder transit oder ausgehend signalisieren, wenn es sich bei der Root-Adresse um eine BGP-Route handelt, die über einen MPLS-LSP weiter rekursiv aufgelöst wird.
Egress Join Translation und Pseudo Interface Handling
Am Ausgangs-LER benachrichtigt PIM die LDP der (S,G)-Nachricht, die zusammen mit dem LSP-Root signalisiert werden soll. PIM erstellt eine Pseudo-Schnittstelle als Upstream-Schnittstelle für diese (S,G)-Nachricht. Wenn eine (S,G)-Prune-Nachricht empfangen wird, wird diese Zuordnung entfernt.
Egress Splicing
Am Ausgangsknoten des Core-Netzwerks, wo die (S,G)-Join-Nachricht vom Downstream-Standort empfangen wird, wird diese Join-Nachricht in M-LDP-In-Band-Signalisierungsparameter übersetzt und LDP wird benachrichtigt. Darüber hinaus tritt der LSP-Teardown auf, wenn der (S,G)-Eintrag verloren geht, wenn sich der LSP-Root ändert oder wenn der (S,G)-Eintrag über einen PIM-Nachbarn erreichbar ist.
Unterstützte Funktionen
Für M-LDP-In-Band-Signalisierung unterstützt Junos OS die folgenden Funktionen:
Ausgangssplicing des PIM Next Hop mit der LDP-Route
Eingehendes Splicing der PIM-Route mit dem LDP next Hop
Übersetzung von PIM-Join-Nachrichten in LDP Point-to-Multipoint-LSP-Setup-Parameter
Übersetzung von M-LDP-In-Band-LSP-Parametern zur Einrichtung von PIM-Join-Nachrichten
Statisch konfiguriert und BGP-Protokoll next Hop-basierte LSP-Root-Erkennung
PIM-Zustände (S,G) in den PIM Source-Specific Multicast (SSM) und AnySource Multicsast (ASM) Bereichen
Konfigurationsanweisungen für Eingangs- und Ausgangs-LERs, damit sie als Edge-Router fungieren können
IGMP-Join-Nachrichten auf LERs
Mit IPv6-Quell- und Gruppenadresse als undurchsichtige Informationen zu einem IPv4-Root-Knoten
Statische Konfiguration zum Zuordnen einer IPv6 (S,G) zu einer IPv4-Root-Adresse
Nicht unterstützte Funktionen
Für M-LDP-In-Band-Signalisierung unterstützt Junos OS die folgenden Funktionen nicht :
Volle Unterstützung für PIM ASM
Der
mpls lsp point-to-multipoint ping
Befehl mit einer (S,G)-OptionNonstop Active Routing (NSR)
Make-before-Break (MBB) für PIM
IPv6-LSP-Root-Adressen (LDP unterstützt keine IPv6-LSPs.)
Nachbarschaftsbeziehung zwischen PIM-Sprechern, die nicht direkt verbunden sind
Graceful-Restart
PIM-Dense-Modus
PIM-bidirektionaler Modus
LDP-Funktionalität
Die PIM-Informationen (S,G) werden als M-LDP-opaque Type-Length-Value (TLV) Codierung übertragen. Das Point-to-Multipoint-FEC-Element besteht aus der Root-Node-Adresse. Im Fall von Multicast-VPNs der nächsten Generation (NGEN MVPNs) wird der Point-to-Multipoint-LSP durch die Root-Node-Adresse und die LSP-ID identifiziert.
Ausgangs-LER-Funktionalität
Auf dem Ausgangs-LER löst PIM LDP mit den folgenden Informationen aus, um einen Point-to-Multipoint-LSP zu erstellen:
Root-Knoten
(S,G)
Nächster Hop
PIM findet den Root-Knoten basierend auf der Quelle der Multicast-Struktur. Wenn die Stammadresse für diesen Eintrag (S,G) konfiguriert ist, wird die konfigurierte Adresse als Point-to-Multipoint-LSP-Root verwendet. Andernfalls wird die Routing-Tabelle verwendet, um die Route zur Quelle zu suchen. Wenn es sich bei der Route zur Quelle der Multicast-Struktur um eine BGP-gelernte Route handelt, ruft PIM die BGP-Adresse des nächsten Hops ab und verwendet sie als Root-Knoten für den Point-to-Multipoint-LSP.
LDP sucht den Upstream-Knoten basierend auf dem Stammknoten, weist ein Label zu und sendet die Labelzuordnung an den Upstream-Knoten. LDP verwendet nicht vorletzte Hop Popping (PHP) für in-Band M-LDP-Signalisierung.
Wenn sich die Stammadressen für die Quelle der Multicast-Struktur ändern, löscht PIM den Point-to-Multipoint-LSP und löst LDP aus, um einen neuen Point-to-Multipoint-LSP zu erstellen. In diesem Fall wird die Liste der ausgehenden Schnittstellen null, PIM löst LDP aus, um den Point-to-Multipoint-LSP zu löschen, und LDP sendet eine Nachricht zum Zurücknehmen des Etiketts an den Upstream-Knoten.
Transit-LSR-Funktionalität
Der Transit-LSR kündigt ein Label an der Upstream-LSR zur Quelle des Point-to-Multipoint-FEC an und installiert den erforderlichen Weiterleitungsstatus, um die Pakete weiterzuleiten. Der Transit-LSR kann jeder M-LDP-fähige Router sein.
Eingangs-LER-Funktionalität
Auf dem Eingangs-LER stellt LDP PIM nach Erhalt der Labelzuordnung die folgenden Informationen zur Verfügung:
(S,G)
Flood Next Hop
Dann installiert PIM den Weiterleitungsstatus. Wenn die neuen Zweigstellen hinzugefügt oder gelöscht werden, wird der Flood Next Hop entsprechend aktualisiert. Wenn alle Zweigstellen gelöscht werden, weil ein Label zurückgezogen wurde, sendet LDP aktualisierte Informationen an PIM. Wenn es mehrere Verbindungen zwischen den Upstream- und Downstream-Nachbarn gibt, wird der Point-to-Multipoint-LSP nicht lastausgleichen.
Siehe auch
Beispiel: Konfiguration von Multipoint-LDP-In-Band-Signalisierung für Point-to-Multipoint-LSPs
Dieses Beispiel zeigt, wie M-LDP (Multipoint LDP) In-Band-Signalisierung für Multicast-Datenverkehr, als Erweiterung des Protocol Independent Multicast (PIM)-Protokolls oder als Ersatz für PIM konfiguriert wird.
Anforderungen
Dieses Beispiel kann mit den folgenden Hardware- und Softwarekomponenten konfiguriert werden:
Junos OS Version 13.2 oder höher
Universelle 5G-Routing-Plattformen der MX-Serie oder Multiservice-Edge-Router der M-Serie für Provider Edge (PE)-Router
Paketübertragungs-Router der PTX-Serie fungieren als Transit label-switched Router
Core-Router der T-Serie für Core-Router
Bei den PE-Routern können auch Core-Router der T-Serie sein, aber das ist nicht typisch. Abhängig von Ihren Skalierungsanforderungen können die Core-Router auch universelle 5G-Routing-Plattformen der MX-Serie oder Multiservice-Edge-Router der M-Serie sein. Bei den Kunden-Edge-Geräten (CE) kann es sich um andere Router oder Switches von Juniper Networks oder einem anderen Anbieter handeln.
Vor der Konfiguration dieses Beispiels ist keine spezielle Konfiguration erforderlich, die über die Geräteinitialisierung hinausgeht.
Überblick
CLI-Schnellkonfiguration zeigt die Konfiguration für alle Geräte in Abbildung 21. In diesem Abschnitt #d158e70__d158e838 werden die Schritte für Device EgressPE beschrieben.

Konfiguration
Verfahren
CLI-Schnellkonfiguration
Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen sie in eine Textdatei ein, entfernen alle Zeilenumbrüche, ändern alle erforderlichen Details, um mit Ihrer Netzwerkkonfiguration zu übereinstimmen, und kopieren Sie dann die Befehle und fügen sie auf Hierarchieebene in die [edit]
CLI ein.
Gerät src1
set logical-systems src1 interfaces fe-1/2/0 unit 0 family inet address 10.2.7.7/24 set logical-systems src1 interfaces lo0 unit 0 family inet address 10.1.1.7/32 set logical-systems src1 protocols ospf area 0.0.0.0 interface all
GeräteingressPE
set interfaces so-0/1/2 unit 0 family inet address 192.168.93.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.2.3.2/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.2.5.2/24 set interfaces fe-1/2/2 unit 0 family inet address 10.2.6.2/24 set interfaces fe-1/2/2 unit 0 family mpls set interfaces fe-1/2/3 unit 0 family inet address 10.2.7.2/24 set interfaces fe-1/3/1 unit 0 family inet address 192.168.219.9/28 set interfaces lo0 unit 0 family inet address 10.1.1.2/32 set protocols igmp interface fe-1/2/1.0 version 3 set protocols igmp interface fe-1/2/1.0 static group 232.1.1.1 source 192.168.219.11 set protocols bgp group ibgp type internal set protocols bgp group ibgp local-address 10.1.1.2 set protocols bgp group ibgp family inet any set protocols bgp group ibgp family inet-vpn any set protocols bgp group ibgp neighbor 10.1.1.3 set protocols bgp group ibgp neighbor 10.1.1.4 set protocols bgp group ibgp neighbor 10.1.1.1 set protocols ospf area 0.0.0.0 interface all set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/2.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim rp static address 10.1.1.5 set protocols pim interface fe-1/3/1.0 set protocols pim interface lo0.0 set protocols pim interface fe-1/2/0.21 set protocols pim interface fe-1/2/3.0 set protocols pim interface fe-1/2/1.0 set protocols pim interface so-0/1/2.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.1.1.7/32 orlonger set policy-options policy-statement mldppim-ex term A from source-address-filter 10.2.7.0/24 orlonger set policy-options policy-statement mldppim-ex term A then accept set routing-options autonomous-system 64510
Geräte-AusgangPE
set interfaces so-0/1/3 unit 0 point-to-point set interfaces so-0/1/3 unit 0 family inet address 192.168.92.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.1.3.1/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.1.4.1/24 set interfaces fe-1/2/2 unit 0 family inet address 10.1.6.1/24 set interfaces fe-1/2/2 unit 0 family mpls set interfaces fe-1/3/0 unit 0 family inet address 192.168.209.9/28 set interfaces lo0 unit 0 family inet address 10.1.1.1/32 set routing-options autonomous-system 64510 set protocols igmp interface fe-1/3/0.0 version 3 set protocols igmp interface fe-1/3/0.0 static group 232.1.1.1 group-count 3 set protocols igmp interface fe-1/3/0.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface fe-1/3/0.0 static group 227.1.1.1 set protocols igmp interface so-0/1/3.0 version 3 set protocols igmp interface so-0/1/3.0 static group 232.1.1.1 group-count 2 set protocols igmp interface so-0/1/3.0 static group 232.1.1.1 source 192.168.219.11 set protocols igmp interface so-0/1/3.0 static group 232.2.2.2 source 10.2.7.7 set protocols mpls interface fe-1/2/0.0 set protocols mpls interface fe-1/2/2.0 set protocols bgp group ibgp type internal set protocols bgp group ibgp local-address 10.1.1.1 set protocols bgp group ibgp family inet any set protocols bgp group ibgp neighbor 10.1.1.2 set protocols msdp local-address 10.1.1.1 set protocols msdp peer 10.1.1.5 set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fxp0.0 disable set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/2.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim rp local address 10.1.1.1 set protocols pim rp local group-ranges 227.0.0.0/8 set protocols pim rp static address 10.1.1.4 set protocols pim rp static address 10.2.7.7 group-ranges 226.0.0.0/8 set protocols pim interface lo0.0 set protocols pim interface fe-1/3/0.0 set protocols pim interface fe-1/2/0.0 set protocols pim interface fe-1/2/1.0 set protocols pim interface so-0/1/3.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term A from source-address-filter 10.2.7.0/24 orlonger set policy-options policy-statement mldppim-ex term A then accept
Gerät P6
set interfaces fe-1/2/0 unit 0 family inet address 10.1.6.6/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.2.6.6/24 set interfaces fe-1/2/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.6/32 set interfaces lo0 unit 0 family mpls set protocols ospf area 0.0.0.0 interface all set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/1.0 set protocols ldp interface lo0.0 set protocols ldp p2mp
Gerät pr3
set interfaces ge-0/3/1 unit 0 family inet address 192.168.215.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.1.3.3/24 set interfaces fe-1/2/0 unit 0 family mpls set interfaces fe-1/2/1 unit 0 family inet address 10.2.3.3/24 set interfaces fe-1/2/1 unit 0 family mpls set interfaces lo0 unit 0 family inet address 10.1.1.3/32 set protocols igmp interface ge-0/3/1.0 version 3 set protocols igmp interface ge-0/3/1.0 static group 232.1.1.2 source 192.168.219.11 set protocols igmp interface ge-0/3/1.0 static group 232.2.2.2 source 10.2.7.7 set protocols bgp group ibgp local-address 10.1.1.3 set protocols bgp group ibgp type internal set protocols bgp group ibgp neighbor 10.1.1.2 set protocols ospf area 0.0.0.0 interface all set protocols ospf area 0.0.0.0 interface fe-1/2/1.0 metric 2 set protocols ldp interface fe-1/2/0.0 set protocols ldp interface fe-1/2/1.0 set protocols ldp interface lo0.0 set protocols ldp p2mp set protocols pim mldp-inband-signalling policy mldppim-ex set protocols pim interface fe-0/3/1.0 set protocols pim interface lo0.0 set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.0.0/24 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 192.168.219.11/32 orlonger set policy-options policy-statement mldppim-ex term B from source-address-filter 10.2.7.7/32 orlonger set policy-options policy-statement mldppim-ex term B then p2mp-lsp-root address 10.1.1.2 set policy-options policy-statement mldppim-ex term B then accept set routing-options autonomous-system 64510
Gerät pr4
set interfaces ge-0/3/0 unit 0 family inet address 192.168.207.9/28 set interfaces fe-1/2/0 unit 0 family inet address 10.1.4.4/24 set interfaces fe-1/2/0 unit 0 family iso set interfaces lo0 unit 0 family inet address 10.1.1.4/32 set protocols igmp interface ge-0/3/0.0 version 3 set protocols igmp interface ge-0/3/0.0 static group 232.1.1.2 source 192.168.219.11 set protocols igmp interface ge-0/3/0.0 static group 225.1.1.1 set protocols bgp group ibgp local-address 10.1.1.4 set protocols bgp group ibgp type internal set protocols bgp group ibgp neighbor 10.1.1.2 set protocols msdp local-address 10.1.1.4 set protocols msdp peer 10.1.1.5 set protocols ospf area 0.0.0.0 interface all set protocols pim rp local address 10.1.1.4 set protocols pim interface ge-0/3/0.0 set protocols pim interface lo0.0 set protocols pim interface fe-1/2/0.0 set routing-options autonomous-system 64510
Gerät pr5
set interfaces fe-1/2/0 unit 0 family inet address 10.2.5.5/24 set interfaces lo0 unit 0 family inet address 10.1.1.5/24 set protocols igmp interface lo0.0 version 3 set protocols igmp interface lo0.0 static group 232.1.1.1 source 192.168.219.11 set protocols msdp local-address 10.1.1.5 set protocols msdp peer 10.1.1.4 set protocols msdp peer 10.1.1.1 set protocols ospf area 0.0.0.0 interface all set protocols pim rp local address 10.1.1.5 set protocols pim interface all
Schritt-für-Schritt-Verfahren
Im folgenden Beispiel müssen Sie auf verschiedenen Ebenen in der Konfigurationshierarchie navigieren. Informationen zum Navigieren in der CLI finden Sie unter Verwenden des CLI-Editors im Konfigurationsmodus im CLI-Benutzerhandbuch.
So konfigurieren Sie Geräte-AusgangsPE:
Konfigurieren Sie die Schnittstellen.
Aktivieren Sie MPLS auf den Kernschnittstellen. Auf den ausgehenden nächsten Hops müssen Sie MPLS nicht aktivieren.
[edit interfaces] user@EgressPE# set fe-1/2/0 unit 0 family inet address 10.1.3.1/24 user@EgressPE# set fe-1/2/0 unit 0 family mpls user@EgressPE# set fe-1/2/2 unit 0 family inet address 10.1.6.1/24 user@EgressPE# set fe-1/2/2 unit 0 family mpls user@EgressPE# set so-0/1/3 unit 0 point-to-point user@EgressPE# set so-0/1/3 unit 0 family inet address 192.168.92.9/28 user@EgressPE# set fe-1/2/1 unit 0 family inet address 10.1.4.1/24 user@EgressPE# set fe-1/3/0 unit 0 family inet address 192.168.209.9/28 user@EgressPE# set lo0 unit 0 family inet address 10.1.1.1/32
Konfigurieren Sie IGMP auf den Ausgangsschnittstellen.
Zu Testzwecken umfasst dieses Beispiel statische Gruppen- und Quelladressen.
[edit protocols igmp] user@EgressPE# set interface fe-1/3/0.0 version 3 user@EgressPE# set interface fe-1/3/0.0 static group 232.1.1.1 group-count 3 user@EgressPE# set interface fe-1/3/0.0 static group 232.1.1.1 source 192.168.219.11 user@EgressPE# set interface fe-1/3/0.0 static group 227.1.1.1 user@EgressPE# set interface so-0/1/3.0 version 3 user@EgressPE# set interface so-0/1/3.0 static group 232.1.1.1 group-count 2 user@EgressPE# set interface so-0/1/3.0 static group 232.1.1.1 source 192.168.219.11 user@EgressPE# set interface so-0/1/3.0 static group 232.2.2.2 source 10.2.7.7
Konfigurieren Sie MPLS auf den Kernschnittstellen.
[edit protocols mpls] user@EgressPE# set interface fe-1/2/0.0 user@EgressPE# set interface fe-1/2/2.0
Konfigurieren Sie BGP.
BGP ist ein richtliniengesteuertes Protokoll, also konfigurieren und wenden Sie alle erforderlichen Routing-Richtlinien an.
Sie können beispielsweise statische Routen in BGP exportieren.
[edit protocols bgp group ibgp] user@EgressPE# set type internal user@EgressPE# set local-address 10.1.1.1 user@EgressPE# set family inet any user@EgressPE# set neighbor 10.1.1.2
(Optional) Konfigurieren Sie eine MSDP-Peer-Verbindung mit Device pr5, um die unterschiedlichen PIM-Domänen miteinander zu verbinden und so redundante RPs zu ermöglichen.
[edit protocols msdp] user@EgressPE# set local-address 10.1.1.1 user@EgressPE# set peer 10.1.1.5
Konfigurieren Sie OSPF.
[edit protocols ospf area 0.0.0.0] user@EgressPE# set interface all user@EgressPE# set interface fxp0.0 disable
Konfigurieren Sie LDP auf den Core-bezogenen Schnittstellen und auf der Loopback-Schnittstelle.
[edit protocols ldp] user@EgressPE# set interface fe-1/2/0.0 user@EgressPE# set interface fe-1/2/2.0 user@EgressPE# set interface lo0.0
Ermöglichen Sie Point-to-Multipoint-MPLS-LSPs.
[edit protocols ldp] user@EgressPE# set p2mp
Konfigurieren Sie PIM auf den Downstream-Schnittstellen.
[edit protocols pim] user@EgressPE# set interface lo0.0 user@EgressPE# set interface fe-1/3/0.0 user@EgressPE# set interface fe-1/2/1.0 user@EgressPE# set interface so-0/1/3.0
Konfigurieren Sie die RP-Einstellungen, da dieses Gerät als PIM-Rendezvouspunkt (RP) dient.
[edit protocols pim] user@EgressPE# set rp local address 10.1.1.1 user@EgressPE# set rp local group-ranges 227.0.0.0/8 user@EgressPE# set rp static address 10.1.1.4 user@EgressPE# set rp static address 10.2.7.7 group-ranges 226.0.0.0/8
Aktivieren Sie M-LDP-In-Band-Signalisierung und legen Sie die zugehörige Richtlinie fest.
[edit protocols pim] user@EgressPE# set mldp-inband-signalling policy mldppim-ex
Konfigurieren Sie die Routingrichtlinie, die die Stammadresse für den Point-to-Multipoint-LSP und die zugehörigen Quelladressen angibt.
[edit policy-options policy-statement mldppim-ex] user@EgressPE# set term B from source-address-filter 192.168.0.0/24 orlonger user@EgressPE# set term B from source-address-filter 192.168.219.11/32 orlonger user@EgressPE# set term B then p2mp-lsp-root address 10.1.1.2 user@EgressPE# set term B then accept user@EgressPE# set term A from source-address-filter 10.2.7.0/24 orlonger user@EgressPE# set term A then accept
Konfigurieren Sie die AS-ID (Autonomous System).
[edit routing-options] user@EgressPE# set autonomous-system 64510
Ergebnisse
Bestätigen Sie Ihre Konfiguration im Konfigurationsmodus, indem Sie die show interfaces
Befehle , show protocols
, show policy-options
und show routing-options
eingeben. Wenn die gewünschte Konfiguration in der Ausgabe nicht angezeigt wird, wiederholen Sie die Anweisungen in diesem Beispiel, um die Konfiguration zu korrigieren.
Geräte-AusgangPE
user@EgressPE# show interfaces
so-0/1/3 {
unit 0 {
point-to-point;
family inet {
address 192.168.92.9/28;
}
}
}
fe-1/2/0 {
unit 0 {
family inet {
address 10.1.3.1/24;
}
family mpls;
}
}
fe-1/2/1 {
unit 0 {
family inet {
address 10.1.4.1/24;
}
}
}
fe-1/2/2 {
unit 0 {
family inet {
address 10.1.6.1/24;
}
family mpls;
}
}
fe-1/3/0 {
unit 0 {
family inet {
address 192.168.209.9/28;
}
}
}
lo0 {
unit 0 {
family inet {
address 10.1.1.1/32;
}
}
}
user@EgressPE# show protocols
igmp {
interface fe-1/3/0.0 {
version 3;
static {
group 232.1.1.1 {
group-count 3;
source 192.168.219.11;
}
group 227.1.1.1;
}
}
interface so-0/1/3.0 {
version 3;
static {
group 232.1.1.1 {
group-count 2;
source 192.168.219.11;
}
group 232.2.2.2 {
source 10.2.7.7;
}
}
}
}
mpls {
interface fe-1/2/0.0;
interface fe-1/2/2.0;
}
bgp {
group ibgp {
type internal;
local-address 10.1.1.1;
family inet {
any;
}
neighbor 10.1.1.2;
}
}
msdp {
local-address 10.1.1.1;
peer 10.1.1.5;
}
ospf {
area 0.0.0.0 {
interface all;
interface fxp0.0 {
disable;
}
}
}
ldp {
interface fe-1/2/0.0;
interface fe-1/2/2.0;
interface lo0.0;
p2mp;
}
pim {
mldp-inband-signalling {
policy mldppim-ex;
}
rp {
local {
address 10.1.1.1;
group-ranges {
227.0.0.0/8;
}
}
static {
address 10.1.1.4;
address 10.2.7.7 {
group-ranges {
226.0.0.0/8;
}
}
}
}
interface lo0.0;
interface fe-1/3/0.0;
interface fe-1/2/0.0;
interface fe-1/2/1.0;
interface so-0/1/3.0;
}
user@EgressPE# show policy-options
policy-statement mldppim-ex {
term B {
from {
source-address-filter 192.168.0.0/24 orlonger;
source-address-filter 192.168.219.11/32 orlonger;
}
then {
p2mp-lsp-root {
address 10.1.1.2;
}
accept;
}
}
term A {
from {
source-address-filter 10.2.7.0/24 orlonger;
}
then accept;
}
}
user@EgressPE# show routing-options
autonomous-system 64510;
Konfigurieren Sie auch die anderen Ausgangsgeräte.
Wenn Sie mit der Konfiguration der Geräte fertig sind, geben Sie im Konfigurationsmodus ein commit
.
Überprüfung
Bestätigen Sie, dass die Konfiguration ordnungsgemäß funktioniert.
- Überprüfung der PIM-Join-Status
- Überprüfung der PIM-Quellen
- Überprüfung der LDP-Datenbank
- Suchen der Routeninformationen für das MPLS-Label
- Überprüfung der LDP-Datenverkehrsstatistiken
Überprüfung der PIM-Join-Status
Zweck
Zeigen Sie Informationen über PIM-Join-Status an, um die M-LDP-Upstream- und Downstream-Details im Upstream- und Downstream-Band zu überprüfen. Auf dem Eingangsgerät wird der show pim join extensive
Befehl für die Downstream-Schnittstelle angezeigt Pseudo-MLDP
. Am Ausgang wird der show pim join extensive
Befehl für die Upstream-Schnittstelle angezeigt Pseudo-MLDP
.
Aktion
Geben Sie im Betriebsmodus den show pim join extensive
Befehl ein.
user@IngressPE> show pim join extensive Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Group: 232.1.1.1 Source: 192.168.219.11 Flags: sparse,spt Upstream interface: fe-1/3/1.0 Upstream neighbor: Direct Upstream state: Local Source Keepalive timeout: Uptime: 1d 23:00:12 Downstream neighbors: Interface: Pseudo-MLDP Interface: fe-1/2/1.0 10.2.5.2 State: Join Flags: S Timeout: Infinity Uptime: 1d 23:00:12 Time since last Join: 1d 23:00:12 Group: 232.1.1.2 Source: 192.168.219.11 Flags: sparse,spt Upstream interface: fe-1/3/1.0 Upstream neighbor: Direct Upstream state: Local Source Keepalive timeout: Uptime: 1d 22:59:59 Downstream neighbors: Interface: Pseudo-MLDP Group: 232.1.1.3 Source: 192.168.219.11 Flags: sparse,spt Upstream interface: fe-1/3/1.0 Upstream neighbor: Direct Upstream state: Local Source Keepalive timeout: Uptime: 1d 22:07:31 Downstream neighbors: Interface: Pseudo-MLDP Group: 232.2.2.2 Source: 10.2.7.7 Flags: sparse,spt Upstream interface: fe-1/2/3.0 Upstream neighbor: Direct Upstream state: Local Source Keepalive timeout: Uptime: 1d 22:59:59 Downstream neighbors: Interface: Pseudo-MLDP user@EgressPE> show pim join extensive Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Group: 227.1.1.1 Source: * RP: 10.1.1.1 Flags: sparse,rptree,wildcard Upstream interface: Local Upstream neighbor: Local Upstream state: Local RP Uptime: 1d 23:14:21 Downstream neighbors: Interface: fe-1/3/0.0 192.168.209.9 State: Join Flags: SRW Timeout: Infinity Uptime: 1d 23:14:21 Time since last Join: 1d 20:12:35 Group: 232.1.1.1 Source: 192.168.219.11 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 23:14:22 Downstream neighbors: Interface: so-0/1/3.0 192.168.92.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Downstream neighbors: Interface: fe-1/3/0.0 192.168.209.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Group: 232.1.1.2 Source: 192.168.219.11 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 23:14:22 Downstream neighbors: Interface: so-0/1/3.0 192.168.92.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Downstream neighbors: Interface: fe-1/2/1.0 10.1.4.4 State: Join Flags: S Timeout: 198 Uptime: 1d 22:59:59 Time since last Join: 00:00:12 Downstream neighbors: Interface: fe-1/3/0.0 192.168.209.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Group: 232.1.1.3 Source: 192.168.219.11 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 20:12:35 Downstream neighbors: Interface: fe-1/3/0.0 192.168.209.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 Group: 232.2.2.2 Source: 10.2.7.7 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 20:12:35 Downstream neighbors: Interface: so-0/1/3.0 192.168.92.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 20:12:35 Time since last Join: 1d 20:12:35 user@pr3> show pim join extensive Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Group: 232.1.1.2 Source: 192.168.219.11 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 20:14:40 Downstream neighbors: Interface: Pseudo-GMP ge-0/3/1.0 Group: 232.2.2.2 Source: 10.2.7.7 Flags: sparse,spt Upstream protocol: MLDP Upstream interface: Pseudo MLDP Upstream neighbor: MLDP LSP root <10.1.1.2> Upstream state: Join to Source Keepalive timeout: Uptime: 1d 20:14:40 Downstream neighbors: Interface: Pseudo-GMP ge-0/3/1.0 user@pr4> show pim join extensive Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Group: 225.1.1.1 Source: * RP: 10.1.1.4 Flags: sparse,rptree,wildcard Upstream interface: Local Upstream neighbor: Local Upstream state: Local RP Uptime: 1d 23:13:43 Downstream neighbors: Interface: ge-0/3/0.0 192.168.207.9 State: Join Flags: SRW Timeout: Infinity Uptime: 1d 23:13:43 Time since last Join: 1d 23:13:43 Group: 232.1.1.2 Source: 192.168.219.11 Flags: sparse,spt Upstream interface: fe-1/2/0.0 Upstream neighbor: 10.1.4.1 Upstream state: Local RP, Join to Source Keepalive timeout: 0 Uptime: 1d 23:13:43 Downstream neighbors: Interface: ge-0/3/0.0 192.168.207.9 State: Join Flags: S Timeout: Infinity Uptime: 1d 23:13:43 Time since last Join: 1d 23:13:43 user@pr5> show pim join extensive ge-0/3/1.0 Instance: PIM.master Family: INET R = Rendezvous Point Tree, S = Sparse, W = Wildcard Instance: PIM.master Family: INET6 R = Rendezvous Point Tree, S = Sparse, W = Wildcard
Überprüfung der PIM-Quellen
Zweck
Stellen Sie sicher, dass die PIM-Quellen die erwarteten M-LDP-In-Band-Upstream- und Downstream-Details haben.
Aktion
Geben Sie im Betriebsmodus den show pim source
Befehl ein.
user@IngressPE> show pim source Instance: PIM.master Family: INET Source 10.1.1.1 Prefix 10.1.1.1/32 Upstream interface Local Upstream neighbor Local Source 10.2.7.7 Prefix 10.2.7.0/24 Upstream protocol MLDP Upstream interface Pseudo MLDP Upstream neighbor MLDP LSP root <10.1.1.2> Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream protocol MLDP Upstream interface Pseudo MLDP Upstream neighbor MLDP LSP root <10.1.1.2>
user@EgressPE> show pim source Instance: PIM.master Family: INET Source 10.2.7.7 Prefix 1.2.7.0/24 Upstream interface fe-1/2/3.0 Upstream neighbor 10.2.7.2 Source 10.2.7.7 Prefix 10.2.7.0/24 Upstream interface fe-1/2/3.0 Upstream neighbor Direct Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream interface fe-1/3/1.0 Upstream neighbor 192.168.219.9 Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream interface fe-1/3/1.0 Upstream neighbor Direct
user@pr3> show pim source Instance: PIM.master Family: INET Source 10.2.7.7 Prefix 1.2.7.0/24 Upstream protocol MLDP Upstream interface Pseudo MLDP Upstream neighbor MLDP LSP root <10.1.1.2> Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream protocol MLDP Upstream interface Pseudo MLDP Upstream neighbor MLDP LSP root <10.1.1.2>
user@pr4> show pim source Instance: PIM.master Family: INET Source 10.1.1.4 Prefix 10.1.1.4/32 Upstream interface Local Upstream neighbor Local Source 192.168.219.11 Prefix 192.168.219.0/28 Upstream interface fe-1/2/0.0 Upstream neighbor 10.1.4.1
Überprüfung der LDP-Datenbank
Zweck
Stellen Sie sicher, dass der show ldp database
Befehl die erwarteten Root-to-(S,G)-Bindungen anzeigt.
Aktion
user@IngressPE> show ldp database Input label database, 10.255.2.227:0--10.1.1.3:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32 Output label database, 10.255.2.227:0--10.1.1.3:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 Input label database, 10.255.2.227:0--10.1.1.6:0 Label Prefix 299936 10.1.1.2/32 299792 10.1.1.3/32 3 10.1.1.6/32 299776 10.255.2.227/32 Output label database, 10.255.2.227:0--10.1.1.6:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 300432 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 300288 P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11 300160 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 300480 P2MP root-addr 10.1.1.2, grp: 232.1.1.3, src: 192.168.219.11
user@EgressPE> show ldp database Input label database, 10.1.1.2:0--10.1.1.3:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32 300144 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 300128 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 Output label database, 10.1.1.2:0--10.1.1.3:0 Label Prefix 3 10.1.1.2/32 299776 10.1.1.3/32 299808 10.1.1.6/32 299792 10.255.2.227/32 Input label database, 10.1.1.2:0--10.1.1.6:0 Label Prefix 299936 10.1.1.2/32 299792 10.1.1.3/32 3 10.1.1.6/32 299776 10.255.2.227/32 300128 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 299984 P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11 299952 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 300176 P2MP root-addr 10.1.1.2, grp: 232.1.1.3, src: 192.168.219.11 300192 P2MP root-addr 10.1.1.2, grp: ff3e::1:2, src: 2001:db8:abcd::10:2:7:7 Output label database, 10.1.1.2:0--10.1.1.6:0 Label Prefix 3 10.1.1.2/32 299776 10.1.1.3/32 299808 10.1.1.6/32 299792 10.255.2.227/32 ----- logical-system: default Input label database, 10.255.2.227:0--10.1.1.3:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32 Output label database, 10.255.2.227:0--10.1.1.3:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 Input label database, 10.255.2.227:0--10.1.1.6:0 Label Prefix 299936 10.1.1.2/32 299792 10.1.1.3/32 3 10.1.1.6/32 299776 10.255.2.227/32 Output label database, 10.255.2.227:0--10.1.1.6:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 300432 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 300288 P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11 300160 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 300480 P2MP root-addr 10.1.1.2, grp: 232.1.1.3, src: 192.168.219.11 300496 P2MP root-addr 10.1.1.2, grp: ff3e::1:2, src: 2001:db8:abcd::10:2:7:7
user@p6> show ldp database Input label database, 10.1.1.6:0--10.1.1.2:0 Label Prefix 3 10.1.1.2/32 299776 10.1.1.3/32 299808 10.1.1.6/32 Output label database, 10.1.1.6:0--10.1.1.2:0 Label Prefix 299776 10.1.1.2/32 299792 10.1.1.3/32 3 10.1.1.6/32
user@pr3> show ldp database Input label database, 10.1.1.3:0--10.1.1.2:0 Label Prefix 3 10.1.1.2/32 299776 10.1.1.3/32 299808 10.1.1.6/32 299792 10.255.2.227/32 Output label database, 10.1.1.3:0--10.1.1.2:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32 300144 P2MP root-addr 10.1.1.2, grp: 232.2.2.2, src: 10.2.7.7 300128 P2MP root-addr 10.1.1.2, grp: 232.1.1.2, src: 192.168.219.11 Input label database, 10.1.1.3:0--10.255.2.227:0 Label Prefix 300144 10.1.1.2/32 299776 10.1.1.3/32 299856 10.1.1.6/32 3 10.255.2.227/32 Output label database, 10.1.1.3:0--10.255.2.227:0 Label Prefix 300096 10.1.1.2/32 3 10.1.1.3/32 299856 10.1.1.6/32 299776 10.255.2.227/32
Suchen der Routeninformationen für das MPLS-Label
Zweck
Zeigen Sie die Point-to-Multipoint-FEC-Informationen an.
Aktion
user@EgressPE> show route label 299808 detail mpls.0: 14 destinations, 14 routes (14 active, 0 holddown, 0 hidden) 299808 (1 entry, 1 announced) *LDP Preference: 9 Next hop type: Flood Address: 0x931922c Next-hop reference count: 3 Next hop type: Router, Next hop index: 1109 Address: 0x9318b0c Next-hop reference count: 2 Next hop: via so-0/1/3.0 Label operation: Pop Next hop type: Router, Next hop index: 1110 Address: 0x93191e0 Next-hop reference count: 2 Next hop: 192.168.209.11 via fe-1/3/0.0 Label operation: Pop State: **Active Int AckRequest> Local AS: 10 Age: 13:08:15 Metric: 1 Validation State: unverified Task: LDP Announcement bits (1): 0-KRT AS path: I FECs bound to route: P2MP root-addr 10.1.1.2, grp: 232.1.1.1, src: 192.168.219.11
Überprüfung der LDP-Datenverkehrsstatistiken
Zweck
Überwachen Sie die Datenverkehrsstatistiken für den Point-to-Multipoint-LSP.
Aktion
user@EgressPE> show ldp traffic-statistics p2mp P2MP FEC Statistics: FEC(root_addr:lsp_id/grp,src) Nexthop Packets Bytes Shared 10.1.1.2:232.2.2.2,10.2.7.7 so-0/1/3.0 0 0 No 10.1.1.2:232.1.1.1,192.168.219.11 so-0/1/3.0 0 0 No fe-1/3/0.0 0 0 No 10.1.1.2:232.1.1.2,192.168.219.11 so-0/1/3.0 0 0 No fe-1/3/0.0 0 0 No lt-1/2/0.14 0 0 No 10.1.1.2:232.1.1.3,192.168.219.11 fe-1/3/0.0 0 0 No 10.1.1.2:ff3e::1:2,2001:db8:abcd::1:2:7:7 fe-1/3/0.0 0 0 No
Zuordnung von Client und Server für Segment-Routing auf LDP-Interoperabilität
Segment-Routing-Zuordnungsserver und Client-Unterstützung ermöglichen die Interoperabilität zwischen Netzwerkinseln, auf denen LDP und Segment-Routing (SR oder SPRING) ausgeführt werden. Diese Interoperabilität ist bei einer Migration von LDP zu SR nützlich. Während des Übergangs kann es Inseln (oder Domänen) mit Geräten geben, die entweder nur LDP oder nur Segment-Routing unterstützen. Damit diese Geräte die Funktionen des LDP-Segment-Routing-Mapping-Servers (SRMS) und des SrMC (Segment Routing Mapping Client) miteinander verzahnen können, ist erforderlich. Sie aktivieren diese Server- und Client-Funktionen auf einem Gerät im Segment-Routing-Netzwerk.
SR-Zuordnungsserver- und Client-Funktionen werden von OSPF oder ISIS unterstützt.
- Überblick über Segment-Routing zu LDP-Interoperabilität
- Segment-Routing zu LDP-Interoperabilität mit OSPF
- Interoperabilität von Segment-Routing mit LDP mit ISIS
Überblick über Segment-Routing zu LDP-Interoperabilität
Abbildung 22 zeigt eine einfache LDP-Netzwerktopologie, um die Interoperabilität von Segment-Routing-Geräten mit LDP-Geräten zu veranschaulichen. Denken Sie daran, dass sowohl OSPF als auch ISIS unterstützt werden, daher werden wir die Dinge in Bezug auf die IGP vorerst unabhängig halten. Die Beispieltopologie umfasst sechs Geräte, R1 bis R6, in einem Netzwerk, das eine Migration von LDP zu Segment-Routing durchläuft.
In der Topologie sind die Geräte R1, R2 und R3 nur für das Segment-Routing konfiguriert. Die Geräte R5 und R6 sind Teil einer älteren LDP-Domäne und unterstützen DERZEIT keine SR. Gerät R4 unterstützt sowohl LDP- als auch Segment-Routing. Die Loopback-Adressen aller Geräte werden angezeigt. Diese Loopbacks werden als Ausgangs-FECs in der LDP-Domäne und als SR-Knoten-IDs in der SR-Domäne angekündigt. Die Interoperabilität basiert auf der Zuordnung eines LDP-FEC in eine SR-Knoten-ID und umgekehrt.

Damit R1 mit R6 zusammenarbeiten kann, sind sowohl ein LDP-Segment-Routing-Mapping-Server (SRMS) als auch ein Segment-Routing-Mapping-Client (SRMC) erforderlich. Es ist einfacher, die Rolle von SRMS und SRMC zu verstehen, indem sie den Datenverkehrsfluss unidirektional betrachten. Basierend auf Abbildung 22, sagen wir, dass der Datenverkehr, der von links nach rechts fließt, aus der SR-Domäne stammt und in der LDP-Domäne endet. Der Datenverkehr, der von rechts nach links fließt, stammt aus der LDP-Domain und endet in der SR-Domain.
Das SRMS liefert die Informationen, die für die Zusammenführung des Datenverkehrs in links-rechts-Richtung erforderlich sind. Die SRMC bietet eine Zuordnung für den Datenverkehr, der von rechts nach links fließt.
- Datenverkehrsfluss von links nach rechts: Der Segment-Routing-Zuordnungsserver
Das SRMS erleichtert das LSP-Stitching zwischen den SR- und LDP-Domänen. Der Server ordnet LDP-FECs in SR-Knoten-IDs zu. Sie konfigurieren die LDP-FECs, die unter der
[edit routing-options source-packet-routing]
Hierarchieebene zugeordnet werden. Normalerweise müssen Sie alle LDP-Node-Loopback-Adressen für die vollständige Konnektivität zuordnen. Wie unten dargestellt, können Sie zusammenhängende Präfixe in einer einzigen Range-Anweisung zuordnen. Wenn die LDP-Knoten-Loopbacks nicht zusammenhängend sind, müssen Sie mehrere Zuordnungsanweisungen definieren.Sie wenden die SRMS-Zuordnungskonfiguration unter der
[edit protocols ospf]
Hierarchie- oder[edit protocols isis]
Hierarchieebene an. Diese Wahl hängt davon ab, welche IGP verwendet wird. Beachten Sie, dass sowohl der SR- als auch der LDP-Knoten eine gemeinsame IGP-Routing-Domain mit einem einzigen Bereich/ebene teilen.Das SRMS generiert eine erweiterte Prefix-Liste LSA (oder LSP im Fall von ISIS). Die Informationen in dieser LSA ermöglichen es den SR-Knoten, LDP-Präfixe (FECs) auf SR-Knoten-IDs zu zuordnen. Die abgebildeten Routen für die LDP-Präfixe werden in den
inet.3
mpls.0
Routing-Tabellen der SR-Knoten installiert, um LSP-Eingangs- und Stitching-Operationen für den Datenverkehr in links nach rechts zu erleichtern.Die erweiterte LSA (oder LSP) wird im (einzigen) IGP-Bereich überflutet. Das bedeutet, dass Sie die SRMS-Konfiguration frei auf jedem Router in der SR-Domain platzieren können. Der SRMS-Knoten muss keine LDP ausführen.
- Datenverkehrsfluss von rechts nach links: Der Client für die Segment-Routing-Zuordnung
Wenn Sie in der rechten nach links-Richtung zusammenarbeiten möchten, d. h. von der LDP-Insel bis zur SR-Insel, aktivieren Sie einfach die Client-Funktionalität des Segment-Routings auf einem Knoten, der sowohl SR als auch LDP spricht. In unserem Beispiel ist das R4. Sie aktivieren die SRMC-Funktionalität mit der
mapping-client
Anweisung in der[edit protocols ldp]
Hierarchie.Die SRMC-Konfiguration aktiviert automatisch eine LDP-Ausgangsrichtlinie, um den Knoten der SR-Domain und die Prefix-SIDs als LDP-Ausgangs-FECs ankündigen. Dadurch erhalten die LDP-Knoten eine LSP-Erreichbarkeit zu den Knoten in der SR-Domäne.
- Die SRMC-Funktion muss auf einem Router konfiguriert werden, der sowohl an die SR- als auch an die LSP-Domänen angebunden ist. Auf Wunsch kann derselbe Knoten auch wie der SRMS funktionieren.
Segment-Routing zu LDP-Interoperabilität mit OSPF
Abbildung 22Gehen Sie davon aus, dass device R2 (im Segment-Routing-Netzwerk) das SRMS ist.
-
Definieren der SRMS-Funktion:
[edit routing-options source-packet-routing ] user@R2# set mapping-server-entry ospf-mapping-server prefix-segment-range ldp-lo0s start-prefix 192.168.0.5 user@R2# set mapping-server-entry ospf-mapping-server prefix-segment-range ldp-lo0s start-index 1000 user@R2# set mapping-server-entry ospf-mapping-server prefix-segment-range ldp-lo0s size 2
Diese Konfiguration erstellt einen Zuordnungsblock für beide LDP-Geräte-Loopback-Adressen in der Beispieltopologie. Der anfängliche Segment ID (SID)-Index, der dem Loopback von R5 zugeordnet wird, ist
1000
. Das Festlegen der Größe2
führt dazu, dass der SID-Index 10001 der Loopback-Adresse von R6 zugeordnet wird.HINWEIS:Die als
start-prefix
Schleife verwendete IP-Adresse ist eine Loopback-Adresse eines Geräts im LDP-Netzwerk (in diesem Beispiel R5). Für vollständige Konnektivität müssen Sie alle Loopback-Adressen der LDP-Router der SR-Domäne zuordnen. Wenn die Loopback-Adressen zusammenhängend sind, können Sie dies mit einer einzigenprefix-segment-range
Anweisung tun. Nicht zusammenhängende Loopbacks erfordern die Definition mehrerer Präfixzuordnungsanweisungen.In unserem Beispiel werden zusammenhängende Loopbacks verwendet, sodass oben ein einzelner
prefix-segment-range
dargestellt wird. Hier ist ein Beispiel für mehrere Zuordnungen zur Unterstützung von zwei LDP-Knoten mit nicht zusammenhängender Loopback-Adressierung:[edit routing-options source-packet-routing] show mapping-server-entry map-server-name { prefix-segment-range lo1 { start-prefix 192.168.0.5/32; start-index 1000; size 1; } prefix-segment-range lo2 { start-prefix 192.168.0.10/32; start-index 2000; size 1; } } }
-
Konfigurieren Sie als Nächstes die OSPF-Unterstützung für die erweiterte LSA, die zum Überfluten der zugeordneten Präfixe verwendet wird.
[edit protocols] user@R2# set ospf source-packet-routing mapping-server ospf-mapping-server
Sobald die Zuordnungsserverkonfiguration auf Gerät R2 festgelegt wurde, wird der erweiterte Präfixbereich TLV im OSPF-Bereich überflutet. Die Geräte, die Segment-Routing können (R1, R2 und R3), installieren OSPF-Segment-Routing-Routen für die angegebene Loopback-Adresse (R5 und R6 in diesem Beispiel) mit einem Segment ID (SID)-Index. Der SID-Index wird auch in der
mpls.0
Routing-Tabelle von den Segment-Routing-Geräten aktualisiert. -
Aktivieren Sie die SRMC-Funktionalität. Für unsere Beispieltopologie müssen Sie die SRMC-Funktionalität auf R4 aktivieren.
[edit protocols] user@R4# set ldp sr-mapping-client
Sobald die Client-Zuordnungskonfiguration auf Dem Gerät R4 festgelegt wurde, werden die SR-Knoten-IDs und Label-Blöcke als Ausgangs-FECs an Router R5 angekündigt, der sie dann erneut an R6 anpreist.
Die Unterstützung für das Stitching von Segment-Routing und LDP-Next-Hops mit OSPF begann in Junos OS 19.1R1.
Unsupported Features and Functionality for Segment Routing interoperability with LDP using OSPF
-
Prefix-Konfliktes werden nur am SRMS erkannt. Wenn ein Prefix-Bereichskonflikt besteht, hat die Präfix-SID von der unteren Router-ID Vorrang. In solchen Fällen wird eine Fehlermeldung
RPD_OSPF_PFX_SID_RANGE_CONFLICT
aus dem Systemprotokoll generiert. -
IPv6-Präfixe werden nicht unterstützt.
-
Flooding der OSPF Extended Prefix Opaque LSA über AS-Grenzen (Inter-AS) wird nicht unterstützt.
-
Die Funktionen von LDP-Zuordnungsservern zwischen bereichen werden nicht unterstützt.
-
ABR-Funktionen von Extended Prefix Opaque LSA werden nicht unterstützt.
-
ASBR-Funktionen von Extended Prefix Opaque LSA werden nicht unterstützt.
-
Die Voreinstellungs-TLV für den Ement-Routing-Zuordnungsserverwird nicht unterstützt.
Interoperabilität von Segment-Routing mit LDP mit ISIS
Abbildung 22Gehen Sie davon aus, dass Gerät R2 (im Segment-Routing-Netzwerk) das SRMS ist. Die folgende Konfiguration wird für die Zuordnungsfunktion hinzugefügt:
-
Definieren der SRMS-Funktion:
[edit routing-options source-packet-routing ] user@R2# set mapping-server-entry isis-mapping-server prefix-segment-range ldp-lo0s start-prefix 192.168.0.5 user@R2# set mapping-server-entry isis-mapping-server prefix-segment-range ldp-lo0s start-index 1000 user@R2# set mapping-server-entry isis-mapping-server prefix-segment-range ldp-lo0s size 2
Diese Konfiguration erstellt einen Zuordnungsblock für beide LDP-Geräte-Loopback-Adressen in der Beispieltopologie. Der anfängliche Segment-ID -Index (SID), der dem Loopback von R5 zugeordnet ist, ist
1000
. Das Festlegen der Größe2
führt dazu, dass der SID-Index 10001 der Loopback-Adresse von R6 zugeordnet wird.HINWEIS:Die als
start-prefix
Schleife verwendete IP-Adresse ist eine Loopback-Adresse eines Geräts im LDP-Netzwerk (in diesem Beispiel R5). Für eine vollständige Konnektivität müssen Sie alle Loopback-Adressen der LDP-Router in der SR-Domäne zuordnen. Wenn die Loopback-Adressen zusammenhängend sind, können Sie dies mit einerprefix-segment-range
Anweisung tun. Nicht zusammenhängende Loopbacks erfordern die Definition mehrerer Zuordnungsanweisungen.In unserem Beispiel werden zusammenhängende Loopbacks verwendet, sodass oben ein einzelner
prefix-segment-range
dargestellt wird. Dies ist ein Beispiel für Präfixzuordnungen für den Fall von zwei LDP-Routern mit nicht zusammenhängender Loopback-Adressierung:[edit routing-options source-packet-routing] show mapping-server-entry map-server-name { prefix-segment-range lo1 { start-prefix 192.168.0.5/32; start-index 1000; size 1; } prefix-segment-range lo2 { start-prefix 192.168.0.10/32; start-index 2000; size 1; } } }
-
Konfigurieren Sie als Nächstes die ISIS-Unterstützung für den erweiterten LSP, der zum Überfluten der zugeordneten Präfixe verwendet wird.
[edit protocols] user@R2# set isis source-packet-routing mapping-server isis-mapping-server
Sobald die Zuordnungsserverkonfiguration auf Gerät R2 festgelegt wurde, wird der erweiterte Präfixbereich TLV im OSPF-Bereich überflutet. Die Geräte, die Segment-Routing können (R1, R2 und R3), installieren ISIS-Segment-Routing-Routen für die angegebene Loopback-Adresse (R5 und R6 in diesem Beispiel) mit einem Segment ID (SID)-Index. Der SID-Index wird auch in der
mpls.0
Routing-Tabelle von den Segment-Routing-Geräten aktualisiert. -
Aktivieren Sie die SRMC-Funktionalität. Für unsere Beispieltopologie müssen Sie die SRMC-Funktionalität auf R4 aktivieren.
[edit protocols] user@R4# set ldp sr-mapping-client
Sobald die Zuordnungs-Client-Konfiguration auf Gerät R4 festgelegt wurde, werden die SR-Knoten-IDs und Label-Blöcke als Ausgangs-FECs zum Router R5 und von dort zu R6 angekündigt.
Die Unterstützung für das Zusammenfügen von Segment-Routing und LDP-Next-Hops mit ISIS begann in Junos OS 17.4R1.
Unsupported Features and Functionality for Interoperability of Segment Routing with LDP using ISIS
-
Das vorletzte Hop-Popping-Verhalten für die Labelbindung TLV wird nicht unterstützt.
-
Die Werbung für eine Reihe von Präfixen in der Labelbindung TLV wird nicht unterstützt.
-
Die Konfliktauflösung im Segment-Routing wird nicht unterstützt.
-
LDP-Datenverkehrsstatistiken funktionieren nicht.
-
Nonstop Active Routing (NSR) und Graceful Routing Engine Switchover (GRES) werden nicht unterstützt.
-
ISIS-Inter-Level wird nicht unterstützt.
-
RFC 7794, IS-IS PrefixAttribute für Erweiterte IPv4 wird nicht unterstützt.
-
Die Neuverteilung der LDP-Route als Prefix-Sid am Stitching-Knoten wird nicht unterstützt.
Sonstige LDP-Eigenschaften
In den folgenden Abschnitten wird die Konfiguration einer Reihe verschiedener LDP-Eigenschaften beschrieben.
- Konfigurieren von LDP für die Verwendung der IGP-Route-Metrik
- Verhindern des Hinzufügens von Eingangsrouten zur Routingtabelle inet.0
- Multiple-Instance-LDP und Carrier-of-Carrier-VPNs
- Konfigurieren Sie MPLS und LDP, um das Label auf dem Ultimate-Hop-Router zu füllen
- Ermöglichen von LDP über RSVP-etablierte LSPs
- Aktivierung von LDP über RSVP-etablierte LSPs in heterogenen Netzwerken
- Konfigurieren der TCP MD5-Signatur für LDP-Sitzungen
- Konfiguration des LDP-Sitzungsschutzes
- Deaktivieren von SNMP-Traps für LDP
- Konfigurieren der LDP-Synchronisierung mit der IGP auf LDP-Links
- Konfigurieren der LDP-Synchronisierung mit der IGP auf dem Router
- Konfigurieren des Timers für die Label-Entzugserkennung
- Ignorieren der LDP-Subnet-Prüfung
Konfigurieren von LDP für die Verwendung der IGP-Route-Metrik
Verwenden Sie die track-igp-metric
Anweisung, wenn die Routingmetrik des Interior Gateway Protocol (IGP) für die LDP-Routen anstelle der Standard-LDP-Routenmetrik verwendet werden soll (die Standard-LDP-Routenmetrik ist 1).
Um die IGP-Routenmetrik zu verwenden, fügen Sie die Anweisung ein track-igp-metric
:
track-igp-metric;
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Verhindern des Hinzufügens von Eingangsrouten zur Routingtabelle inet.0
Indem Sie die no-forwarding
Anweisung konfigurieren, können Sie verhindern, dass eingehende Routen zur Routingtabelle inet.0 anstelle der Routingtabelle inet.3 hinzugefügt werden, selbst wenn Sie die traffic-engineering bgp-igp
Anweisung auf der [edit protocols mpls]
Hierarchie- oder [edit logical-systems logical-system-name protocols mpls]
Hierarchieebene aktiviert haben. Standardmäßig ist die no-forwarding
Anweisung deaktiviert.
Router der ACX-Serie unterstützen die Hierarchieebene [edit logical-systems
] nicht.
Um eingehende Routen aus der Routingtabelle inet.0 auszulassen, fügen Sie die Anweisung ein no-forwarding
:
no-forwarding;
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Multiple-Instance-LDP und Carrier-of-Carrier-VPNs
Indem Sie mehrere LDP-Routing-Instanzen konfigurieren, können Sie LDP verwenden, um Label in einem Carrier-of-Carrier-VPN von einem Service Provider-Edge-Router (PE) zu einem Customer Carrier Customer Edge (CE)-Router anzukündigen. Dies ist besonders nützlich, wenn der Carrier-Kunde ein grundlegender Internet Service Provider (ISP) ist und vollständige Internetrouten auf seine PE-Router beschränken möchte. Durch die Verwendung von LDP anstelle von BGP schützt der Carrier-Kunde seine anderen internen Router vor dem Internet. LDP mit mehreren Instanzen ist auch nützlich, wenn ein Carrier-Kunde seinen Kunden Layer-2- oder Layer-3-VPN-Services bereitstellen möchte.
Ein Beispiel für die Konfiguration mehrerer LDP-Routing-Instanzen für CARRIER-of-Carrier-VPNs finden Sie im Benutzerhandbuch "Multiple Instances for Label Distribution Protocol".
Konfigurieren Sie MPLS und LDP, um das Label auf dem Ultimate-Hop-Router zu füllen
Das standardmäßig angekündigte Label ist Label 3 (implizites Null-Label). Wenn Label 3 angekündigt wird, entfernt der vorletzte Hop-Router das Label und sendet das Paket an den Ausgangsrouter. Wenn Ultimate-Hop-Popping aktiviert ist, wird Label 0 (IPv4 Explicit Null Label) angekündigt. Ultimate-Hop-Popping stellt sicher, dass alle Pakete, die ein MPLS-Netzwerk passieren, ein Label enthalten.
Um ultimative Hop-Popping zu konfigurieren, fügen Sie die Anweisung ein explicit-null
:
explicit-null;
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Router von Juniper Networks warteschlangen Pakete basierend auf dem eingehenden Label. Router anderer Anbieter können Pakete anders anstellen. Denken Sie daran, wenn Sie mit Netzwerken arbeiten, die Router von mehreren Anbietern enthalten.
Weitere Informationen zu Labeln finden Sie unter ÜBERSICHT ÜBER MPLS-Label und MPLS-Labelzuweisung.
Ermöglichen von LDP über RSVP-etablierte LSPs
Sie können LDP über LSPs ausführen, die von RSVP eingerichtet wurden, und den LDP-etablierten LSP durch den von RSVP eingerichteten tunneln. Aktivieren Sie dazu LDP auf der lo0.0-Schnittstelle (siehe Aktivieren und Deaktivieren von LDP). Sie müssen auch die LSPs konfigurieren, über die LDP betrieben werden soll, indem Sie die ldp-tunneling
Anweisung auf Hierarchieebene [edit protocols mpls label-switched-path lsp-name]
angeben:
[edit] protocols { mpls { label-switched-path lsp-name { from source; to destination; ldp-tunneling; } } }
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
LDP kann über eine RSVP-Sitzung tunnelt werden, die den Linkschutz aktiviert hat. Beginnend mit Junos OS Release 21.1R1 zeigt die Details zur LDP-tunnelten Route sowohl die primären als auch die Bypass-LSP-Next-Hops an. In früheren Junos OS-Versionen zeigte der Umgehungs-LSP den nächsten Hop für den primären LSP an.
Aktivierung von LDP über RSVP-etablierte LSPs in heterogenen Netzwerken
Einige andere Anbieter verwenden eine OSPF-Metrik von 1 für die Loopback-Adresse. Router von Juniper Networks verwenden eine OSPF-Metrik von 0 für die Loopback-Adresse. Dies kann erfordern, dass Sie die RSVP-Metrik bei der Bereitstellung von LDP-Tunneling über RSVP-LSPs in heterogenen Netzwerken manuell konfigurieren.
Wenn ein Router von Juniper Networks über einen RSVP-Tunnel mit dem Router eines anderen Anbieters verbunden ist und LDP-Tunneling ebenfalls aktiviert ist, verwendet der Router von Juniper Networks standardmäßig den RSVP-Tunnel möglicherweise nicht, um den Datenverkehr zu den LDP-Zielen zu leiten, die nach dem Ausgangsrouter des anderen Anbieters liegen, wenn der RSVP-Pfad eine Kennzahl von 1 größer ist als der physische OSPF-Pfad.
Um sicherzustellen, dass LDP-Tunneling in heterogenen Netzwerken ordnungsgemäß funktioniert, können Sie OSPF so konfigurieren, dass die RSVP-LSP-Metrik ignoriert wird, indem Sie die ignore-lsp-metrics
Anweisung angeben:
ignore-lsp-metrics;
Sie können diese Anweisung auf den folgenden Hierarchieebenen konfigurieren:
-
[edit protocols ospf traffic-engineering shortcuts]
-
[edit logical-systems logical-system-name protocols ospf traffic-engineering shortcuts]
Router der ACX-Serie unterstützen die Hierarchieebene [edit logical-systems
] nicht.
Um LDP über RSVP-LSPs zu aktivieren, müssen Sie auch weiterhin die Prozedur in Abschnitt Ermöglichen von LDP über RSVP-etablierte LSPsabschließen.
Konfigurieren der TCP MD5-Signatur für LDP-Sitzungen
Sie können eine MD5-Signatur für eine LDP TCP-Verbindung konfigurieren, um vor der Einführung von spoofierten TCP-Segmenten in LDP-Sitzungsverbindungsstreams zu schützen. Weitere Informationen zur TCP-Authentifizierung finden Sie unter TCP. Informationen zur Verwendung der TCP-Authentifizierungsoption (TCP-AO) anstelle von TCP MD5 finden Sie unter No link title.
Ein Router, der die MD5-Signaturoption verwendet, wird mit einem Kennwort für jeden Peer konfiguriert, für den eine Authentifizierung erforderlich ist. Das Passwort wird verschlüsselt gespeichert.
LDP hallo Adjacencies können auch dann erstellt werden, wenn Peering-Schnittstellen mit unterschiedlichen Sicherheitssignaturen konfiguriert sind. Die TCP-Sitzung kann jedoch nicht authentifiziert werden und wird nie eingerichtet.
Sie können Hashed Message Authentication Code (HMAC) und MD5-Authentifizierung für LDP-Sitzungen als eine Konfiguration pro Sitzung oder als Subnetz-Übereinstimmung (d. h. längste Prefix-Übereinstimmung) konfigurieren. Die Unterstützung für Subnetz-Match-Authentifizierung bietet Flexibilität bei der Konfiguration der Authentifizierung für automatisch zielgerichtete LDP-Sitzungen (TLDP). Dies vereinfacht die Bereitstellung von Remote Loop-Free Alternate (LFA) und FEC 129 Pseudowires.
Um eine MD5-Signatur für eine LDP-TCP-Verbindung zu konfigurieren, fügen Sie die authentication-key
Anweisung als Teil der Sitzungsgruppe ein:
[edit protocols ldp] session-group prefix-length { authentication-key md5-authentication-key; }
Verwenden Sie die session-group
Anweisung, um die Adresse für das Remote-Ende der LDP-Sitzung zu konfigurieren.
Das md5-authentication-key
Kennwort in der Konfiguration kann bis zu 69 Zeichen lang sein. Zeichen können beliebige ASCII-Zeichenfolgen enthalten. Wenn Sie Leerzeichen einschließen, schließen Sie alle Zeichen in Anführungszeichen ein.
Sie können auch einen Authentifizierungsschlüsselaktualisierungsmechanismus für das LDP-Routingprotokoll konfigurieren. Mit diesem Mechanismus können Sie Authentifizierungsschlüssel aktualisieren, ohne die zugehörigen Routing- und Signalisierungsprotokolle wie Open Shortest Path First (OSPF) und Resource Reservation Setup Protocol (RSVP) zu unterbrechen.
Um den Authentifizierungsschlüssel-Aktualisierungsmechanismus zu konfigurieren, fügen Sie die key-chain
Anweisung auf [edit security authentication-key-chains]
Hierarchieebene ein und geben Sie die key
Option zum Erstellen eines Schlüsselbundes aus mehreren Authentifizierungsschlüsseln an.
[edit security authentication-key-chains] key-chain key-chain-name { key key { secret secret-data; start-time yyyy-mm-dd.hh:mm:ss; } }
Um den Authentifizierungsschlüsselaktualisierungsmechanismus für das LDP-Routingprotokoll zu konfigurieren, fügen Sie die authentication-key-chain
Anweisung auf Hierarchieebene [edit protocols ldp]
ein, um das Protokoll mit den [edit security suthentication-key-chains]
Authentifizierungsschlüsseln zu verknüpfen. Sie müssen auch den Authentifizierungsalgorithmus konfigurieren, indem Sie die authentication-algorithm algorithm
Anweisung die [edit protocols ldp]
Hierarchieebene angeben.
[edit protocols ldp] group group-name { neighbor address { authentication-algorithm algorithm; authentication-key-chain key-chain-name; } }
Weitere Informationen zur Aktualisierungsfunktion für Authentifizierungsschlüssel finden Sie unter Konfigurieren des Authentifizierungsschlüssel-Updatemechanismus für BGP- und LDP-Routingprotokolle.
Konfiguration des LDP-Sitzungsschutzes
Normalerweise wird eine LDP-Sitzung zwischen einem Routerpaar erstellt, das über einen oder mehrere Verbindungen verbunden ist. Die Router bilden für jeden Link, der sie verbindet, ein hallo Adjacenency und assoziieren alle Adjacencies mit der entsprechenden LDP-Sitzung. Wenn die letzte Hallo-Bindung für eine LDP-Sitzung wegfällt, wird die LDP-Sitzung beendet. Sie können dieses Verhalten ändern, um zu verhindern, dass eine LDP-Sitzung unnötig beendet und wieder aufgebaut wird.
Sie können das Junos OS so konfigurieren, dass die LDP-Sitzung zwischen zwei Routern eingeschaltet wird, auch wenn es keine guten Verbindungen auf den Verbindungen gibt, die die beiden Router verbinden, indem Sie die session-protection
Anweisung konfigurieren. Sie können optional eine Zeit in Sekunden mit der timeout
Option angeben. Die Sitzung bleibt für die angegebene Dauer aktiviert, solange die Router die IP-Netzwerkkonnektivität aufrechterhalten.
session-protection { timeout seconds; }
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt Zusammenfassung der Anweisung.
Deaktivieren von SNMP-Traps für LDP
Immer wenn ein LDP-LSP einen Übergang von oben nach unten oder von unten nach oben macht, sendet der Router eine SNMP-Trap. Es ist jedoch möglich, die LDP-SNMP-Traps auf einem Router, einem logischen System oder einer Routing-Instanz zu deaktivieren.
Informationen zu den LDP-SNMP-Traps und der proprietären LDP-MIB finden Sie im SNMP MIB-Explorer..
Um SNMP-Traps für LDP zu deaktivieren, geben Sie die trap disable
Option für die log-updown
Anweisung an:
log-updown { trap disable; }
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Konfigurieren der LDP-Synchronisierung mit der IGP auf LDP-Links
LDP ist ein Protokoll zur Verteilung von Labeln in Anwendungen ohne Datenverkehrs-Engineering. Die Label werden auf dem besten Pfad verteilt, der von der IGP festgelegt wird. Wenn die Synchronisierung zwischen LDP und IGP nicht aufrechterhalten wird, fällt der LSP aus. Wenn LDP auf einem bestimmten Link nicht vollständig in Betrieb ist (eine Sitzung ist nicht eingerichtet und Label werden nicht ausgetauscht), gibt die IGP den Link mit der maximalen Kostenkennzahl an. Die Verbindung wird nicht bevorzugt, bleibt aber in der Netzwerktopologie.
Die LDP-Synchronisierung wird nur auf aktiven Punkt-zu-Punkt-Schnittstellen und LAN-Schnittstellen unterstützt, die unter der IGP als Punkt-zu-Punkt konfiguriert sind. Die LDP-Synchronisierung wird während eines graceful Restarts nicht unterstützt.
Um die maximale Kostenkennzahl ankündigen zu können, bis LDP für die Synchronisierung betriebsbereit ist, fügen Sie die Anweisung ein ldp-synchronization
:
ldp-synchronization { disable; hold-time seconds; }
Um die Synchronisierung zu deaktivieren, fügen Sie die Anweisung ein disable
. Fügen Sie die Anweisung bei, um den Zeitraum für die Anpreisung der maximalen Kostenkennzahl für eine Verbindung zu konfigurieren, die hold-time
nicht vollständig in Betrieb ist.
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung konfigurieren können, finden Sie im Abschnitt zur Anweisungszusammenfassung für diese Anweisung.
Konfigurieren der LDP-Synchronisierung mit der IGP auf dem Router
Sie können die Zeit konfigurieren, zu der die LDP wartet, bevor sie die IGP darüber informiert, dass der LDP-Nachbar und die Sitzung für eine Schnittstelle in Betrieb sind. Bei großen Netzwerken mit zahlreichen FECs müssen Sie möglicherweise einen längeren Wert konfigurieren, um genügend Zeit für den Austausch der LDP-Label-Datenbanken zu haben.
Um die Zeit zu konfigurieren, die LDP wartet, bevor sie die IGP darüber informiert, dass der LDP-Nachbarn und die LDP-Sitzung in Betrieb sind, fügen Sie die igp-synchronization
Anweisung bei und geben Sie für die holddown-interval
Option eine Uhrzeit in Sekunden an:
igp-synchronization holddown-interval seconds;
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung konfigurieren können, finden Sie im Abschnitt zur Anweisungszusammenfassung für diese Anweisung.
Konfigurieren des Timers für die Label-Entzugserkennung
Der Timer für die Labelentnahme verzögert das Versenden einer Nachricht zur Label-Auszahlung für eine FEC an einen Nachbarn. Wenn eine IGP-Verbindung zu einem Nachbarn fehlschlägt, muss das mit dem FEC verknüpfte Label von allen Upstream-Routern zurückgezogen werden, wenn der Neighbor der nächste Hop für den FEC ist. Nachdem der IGP-Router konvergiert und ein Label von einem neuen nächsten Hop empfangen wird, wird das Label auf alle Upstream-Router umvertiert. Das ist das typische Netzwerkverhalten. Durch die Verzögerung der Labelentnahme um einen kleinen Zeitraum (z. B. bis der IGP zusammenläuft und der Router ein neues Label für den FEC vom downstream-nächsten Hop erhält), könnte die Entzugung des Etiketts und das Senden einer Labelzuordnung bald vermieden werden. Mit label-withdrawal-delay
der Anweisung können Sie diese Verzögerungszeit konfigurieren. Standardmäßig beträgt die Verzögerung 60 Sekunden.
Wenn der Router das neue Label empfängt, bevor der Timer ausläuft, wird der Timer für die Labelentnahme abgebrochen. Wenn der Timer jedoch ausläuft, wird das Label für den FEC von allen Upstream-Routern zurückgezogen.
Standardmäßig wartet LDP 60 Sekunden, bevor die Label zurückgenommen werden, um zu vermeiden, dass LSPs mehrmals erneut signalisiert werden, während die IGP neu konfiguriert wird. Um die Verzögerungszeit des Etiketts in Sekunden zu konfigurieren, fügen Sie die Anweisung ein label-withdrawal-delay
:
label-withdrawal-delay seconds;
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung konfigurieren können, finden Sie im Abschnitt zur Anweisungszusammenfassung für diese Anweisung.
Ignorieren der LDP-Subnet-Prüfung
In Junos OS Version 8.4 und höher wird während der Einrichtung des Nachbarn eine LDP-Quelladressen-Subnet-Prüfung durchgeführt. Die Quelladresse im LDP-Link hallo Packet wird mit der Schnittstellenadresse abgeglichen. Dies verursacht ein Interoperabilitätsproblem mit geräten einiger anderer Anbieter.
Um die Subnetzprüfung zu deaktivieren, fügen Sie die Anweisung ein allow-subnet-mismatch
:
allow-subnet-mismatch;
Diese Anweisung kann auf den folgenden Hierarchieebenen eingefügt werden:
-
[edit protocols ldp interface interface-name]
-
[edit logical-systems logical-system-name protocols ldp interface interface-name]
Router der ACX-Serie unterstützen keine [edit logical-systems
] Hierarchieebene.
Siehe auch
Konfiguration von LDP LSP Traceroute
Sie können die Route verfolgen, gefolgt von einem LDP-signalisierten LSP. LDP LSP Traceroute basiert auf RFC 4379, Erkennen von MPLS-Ausfällen (Multi-Protocol Label Switched). Mit dieser Funktion können Sie in regelmäßigen Abständen alle Pfade in einer FEC verfolgen. Die FEC-Topologieinformationen werden in einer Datenbank gespeichert, auf die über die CLI zugegriffen werden kann.
Eine Topologieänderung löst nicht automatisch eine Trace eines LDP-LSP aus. Sie können jedoch manuell einen Traceroute initiieren. Wenn es sich bei der Traceroute-Anforderung um einen FEC handelt, der sich derzeit in der Datenbank befindet, wird der Inhalt der Datenbank mit den Ergebnissen aktualisiert.
Die regelmäßige Traceroute-Funktion gilt für alle FECs, die durch die oam
auf [edit protocols ldp]
Hierarchieebene konfigurierte Anweisung angegeben werden. Um regelmäßigen LDP-LSP-Traceroute zu konfigurieren, fügen Sie die Anweisung ein periodic-traceroute
:
periodic-traceroute { disable; exp exp-value; fanout fanout-value; frequency minutes; paths number-of-paths; retries retry-attempts; source address; ttl ttl-value; wait seconds; }
Sie können diese Anweisung auf den folgenden Hierarchieebenen konfigurieren:
Sie können die periodic-traceroute
Anweisung selbst oder mit einer der folgenden Optionen konfigurieren:
exp
– Geben Sie die Serviceklasse an, die beim Senden von Sondierungen verwendet werden soll.fanout
– Geben Sie die maximale Anzahl der nächsten Hops an, die pro Knoten gesucht werden sollen.frequency
– Geben Sie das Intervall zwischen Traceroute-Versuchen an.paths
– Geben Sie die maximale Anzahl von Pfaden an, die gesucht werden sollen.retries
— Geben Sie die Anzahl der Versuche an, eine Probe vor dem Aufgeben an einen bestimmten Knoten zu senden.source
– Geben Sie die IPv4-Quelladresse an, die beim Senden von Sondierungen verwendet werden soll.ttl
— Geben Sie den maximalen Time-to-Live-Wert an. Knoten, die über diesen Wert hinausgehen, werden nicht zurückverfolgt.wait
– Geben Sie das Wartezeitintervall vor dem erneuten Senden eines Sondierungspakets an.
Sammeln von LDP-Statistiken
LDP-Datenverkehrsstatistiken zeigen das Datenverkehrsvolumen, das eine bestimmte FEC auf einem Router passiert hat.
Wenn Sie die traffic-statistics
Anweisung auf Hierarchieebene [edit protocols ldp]
konfigurieren, werden die LDP-Datenverkehrsstatistiken in regelmäßigen Abständen erfasst und in eine Datei geschrieben. Mithilfe der interval
Option können Sie konfigurieren, wie oft Statistiken (in Sekunden) erfasst werden. Das Standarderfassungsintervall beträgt 5 Minuten. Sie müssen eine LDP-Statistikdatei konfigurieren. andernfalls werden keine LDP-Datenverkehrsstatistiken gesammelt. Wenn der LSP ausfällt, werden die LDP-Statistiken zurückgesetzt.
Um LDP-Datenverkehrsstatistiken zu erfassen, fügen Sie die Anweisung ein traffic-statistics
:
traffic-statistics { file filename <files number> <size size> <world-readable | no-world-readable>; interval interval; no-penultimate-hop; }
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Dieser Abschnitt enthält die folgenden Themen:
- LDP-Statistikausgabe
- Deaktivieren von LDP-Statistiken auf dem Vorletzten-Hop-Router
- Einschränkungen für LDP-Statistiken
LDP-Statistikausgabe
Die folgende Beispielausgabe stammt aus einer LDP-Statistikdatei:
FEC Type Packets Bytes Shared 10.255.350.448/32 Transit 0 0 No Ingress 0 0 No 10.255.350.450/32 Transit 0 0 Yes Ingress 0 0 No 10.255.350.451/32 Transit 0 0 No Ingress 0 0 No 220.220.220.1/32 Transit 0 0 Yes Ingress 0 0 No 220.220.220.2/32 Transit 0 0 Yes Ingress 0 0 No 220.220.220.3/32 Transit 0 0 Yes Ingress 0 0 No May 28 15:02:05, read 12 statistics in 00:00:00 seconds
Die LDP-Statistikdatei enthält die folgenden Datenspalten:
FEC
—FEC, für die LDP-Datenverkehrsstatistiken erhoben werden.Type
—Art des Datenverkehrs, der von einem Router stammt, entwederIngress
(stammt von diesem Router) oderTransit
(über diesen Router weitergeleitet).Packets
— Anzahl der Pakete, die vom FEC seit der Einführung des LSP weitergeleitet wurden.Bytes
— Anzahl der Byte an Daten, die von der FEC seit der Einführung des LSP übermittelt wurden.Shared
— EinYes
Wert gibt an, dass mehrere Präfixe an dasselbe Label gebunden sind (z. B. wenn mehrere Präfixe mit einer Ausgangsrichtlinie angekündigt werden). Die LDP-Datenverkehrsstatistiken für diesen Fall gelten für alle Präfixe und sollten als solche behandelt werden.read
—Diese Zahl (die neben dem Datum und der Uhrzeit erscheint) kann von der tatsächlichen Anzahl der angezeigten Statistiken abweichen. Einige der Statistiken werden zusammengefasst, bevor sie angezeigt werden.
Deaktivieren von LDP-Statistiken auf dem Vorletzten-Hop-Router
Das Sammeln von LDP-Datenverkehrsstatistiken am vorletzten Hop-Router kann übermäßige Systemressourcen verbrauchen, insbesondere auf Next-Hop-Routen. Dieses Problem wird noch verschärft, wenn Sie die deaggregate
Anweisung zusätzlich zur traffic-statistics
Anweisung konfiguriert haben. Für Router, die ihre Grenzen der Next-Hop-Routennutzung erreichen, empfehlen wir, die no-penultimate-hop
Option für die Anweisung zu traffic-statistics
konfigurieren:
traffic-statistics { no-penultimate-hop; }
Eine Liste der Hierarchieebenen, auf denen Sie die traffic-statistics
Anweisung konfigurieren können, finden Sie im Abschnitt "Anweisungszusammenfassung" für diese Anweisung.
Wenn Sie die no-penultimate-hop
Option konfigurieren, sind keine Statistiken für die FECs verfügbar, die der vorletzte Hop für diesen Router sind.
Immer wenn Sie diese Option in die Konfiguration einbinden oder aus der Konfiguration entfernen, werden die LDP-Sitzungen heruntergenommen und dann neu gestartet.
Die folgende Beispielausgabe stammt aus einer LDP-Statistikdatei, in der Router angezeigt werden, auf denen die no-penultimate-hop
Option konfiguriert ist:
FEC Type Packets Bytes Shared 10.255.245.218/32 Transit 0 0 No Ingress 4 246 No 10.255.245.221/32 Transit statistics disabled Ingress statistics disabled 13.1.1.0/24 Transit statistics disabled Ingress statistics disabled 13.1.3.0/24 Transit statistics disabled Ingress statistics disabled
Einschränkungen für LDP-Statistiken
Im Folgenden finden Sie Probleme im Zusammenhang mit dem Sammeln von LDP-Statistiken durch Konfiguration der traffic-statistics
Anweisung:
Sie können die LDP-Statistiken nicht löschen.
Wenn Sie das angegebene Intervall verkürzen, wird eine neue LDP-Statistikanforderung nur ausgegeben, wenn der Statistik-Timer später abläuft als das neue Intervall.
Ein neuer LDP-Statistikerfassungsvorgang kann erst gestartet werden, wenn der vorherige abgeschlossen ist. Wenn das Intervall kurz ist oder die Anzahl der LDP-Statistiken groß ist, kann der Zeitabstand zwischen den beiden Statistiksammlungen länger sein als das Intervall.
Wenn ein LSP ausfällt, werden die LDP-Statistiken zurückgesetzt.
Verfolgung des LDP-Protokoll-Datenverkehrs
In den folgenden Abschnitten wird beschrieben, wie Sie die Trace-Optionen konfigurieren, um den LDP-Protokolldatenverkehr zu untersuchen:
- Verfolgen des LDP-Protokoll-Datenverkehrs auf Protokoll- und Routing-Instanzebene
- Verfolgung des LDP-Protokoll-Datenverkehrs innerhalb von FECs
- Beispiele: Verfolgung des LDP-Protokoll-Datenverkehrs
Verfolgen des LDP-Protokoll-Datenverkehrs auf Protokoll- und Routing-Instanzebene
Um den LDP-Protokolldatenverkehr zurückzuverfolgen, können Sie in der globalen traceoptions
Anweisung auf [edit routing-options]
Hierarchieebene Optionen angeben und LDP-spezifische Optionen angeben, indem Sie die traceoptions
Anweisung angeben:
traceoptions { file filename <files number> <size size> <world-readable | no-world-readable>; flag flag <flag-modifier> <disable>; }
Eine Liste der Hierarchieebenen, auf denen Sie diese Anweisung einschließen können, finden Sie im Abschnitt "Statement Summary" für diese Anweisung.
Verwenden Sie die file
Anweisung, um den Namen der Datei anzugeben, die die Ausgabe des Ablaufverfolgungsvorgangs empfängt. Alle Dateien werden in das Verzeichnis /var/log abgelegt. Wir empfehlen, die LDP-Tracing-Ausgabe in der Datei ldp-logzu platzieren.
Die folgenden Trace-Flags zeigen die Vorgänge an, die mit dem Senden und Empfangen verschiedener LDP-Nachrichten verbunden sind. Jeder kann einen oder mehrere der folgenden Modifizierer tragen:
address
—Rückverfolgung des Ablaufs von Adress- und Adressabhebungsnachrichten.binding
— Trace-Label-Bindungsvorgänge.error
– Fehlerbedingungen nachverfolgen.event
– Protokollereignisse verfolgen.initialization
– Verfolgen Sie den Betrieb von Initialisierungsmeldungen.label
— Verfolgen Sie den Betrieb von Label-Anforderung, Label-Zuordnung, Label-Rücknahme und Meldungen zur Label-Freigabe.notification
— Verfolgen Sie den Betrieb von Benachrichtigungen.packets
—Verfolgen Sie den Betrieb von Adresse, Adressabhebung, Initialisierung, Label-Anfrage, Labelzuordnung, Label-Rücknahme, Label-Freigabe, Benachrichtigung und regelmäßigen Meldungen. Dieser Modifizierer entspricht dem Festlegen deraddress
, ,initialization
,label
, ,notification
undperiodic
Modifizierer.Sie können den
filter
Flag-Modifizierer auch mit dermatch-on address
Unteroption für diepackets
Flagge konfigurieren. Auf diese Weise können Sie basierend auf den Quell- und Zieladressen der Pakete zurückverfolgen.path
– Trace-Switched Path-Vorgänge.path
– Trace-Switched Path-Vorgänge.periodic
— Verfolgen Sie den Betrieb von Hallo- und Keepalive-Nachrichten.route
– Verfolgen Sie den Betrieb von Routennachrichten.state
– Protokollstatusübergänge nachverfolgen
Verfolgung des LDP-Protokoll-Datenverkehrs innerhalb von FECs
LDP ordnet jedem erstellten LSP eine Forwarding Equivalence Class (FEC) zu. Der FEC, der einem LSP zugeordnet ist, gibt an, welche Pakete diesem LSP zugeordnet sind. LSPs werden durch ein Netzwerk erweitert, da jeder Router das label wählt, das vom nächsten Hop für den FEC angekündigt wird, und es mit dem Label zusammengepleißet wird, das er allen anderen Routern angekündigt hat.
Sie können den LDP-Protokolldatenverkehr innerhalb einer bestimmten FEC zurückverfolgen und LDP-Trace-Anweisungen basierend auf einem FEC filtern. Dies ist nützlich, wenn Sie den LDP-Protokolldatenverkehr im Zusammenhang mit einem FEC verfolgen oder beheben möchten. Hierfür stehen folgende Trace Flags zur Verfügung: route
, path
und binding
.
Im folgenden Beispiel wird veranschaulicht, wie Sie die LDP-Anweisung traceoptions
konfigurieren können, um LDP-Trace-Anweisungen basierend auf einem FEC zu filtern:
[edit protocols ldp traceoptions] set flag route filter match-on fec policy "filter-policy-for-ldp-fec";
Diese Funktion hat die folgenden Einschränkungen:
Die Filterfunktion ist nur für FECs verfügbar, die aus IP-Version 4 (IPv4)-Präfixen bestehen.
Layer-2-Circuit-FECs können nicht gefiltert werden.
Wenn Sie sowohl die Routenverfolgung als auch die Filterung konfigurieren, werden MPLS-Routen nicht angezeigt (sie werden vom Filter blockiert).
Die Filterung wird durch die Richtlinie und den konfigurierten Wert für die
match-on
Option bestimmt. Stellen Sie beim Konfigurieren der Richtlinie sicher, dass das Standardverhalten immerreject
lautet.Die einzige
match-on
Option istfec
. Folglich ist die einzige Art von Richtlinie, die Sie einschließen sollten, eine Route-Filter-Richtlinie.
Beispiele: Verfolgung des LDP-Protokoll-Datenverkehrs
Verfolgen Sie LDP-Pfadmeldungen im Detail:
[edit] protocols { ldp { traceoptions { file ldp size 10m files 5; flag path; } } }
Verfolgen Sie alle ausgehenden LDP-Nachrichten:
[edit] protocols { ldp { traceoptions { file ldp size 10m files 5; flag packets; } } }
Verfolgen Sie alle LDP-Fehlerbedingungen:
[edit] protocols { ldp { traceoptions { file ldp size 10m files 5; flag error; } } }
Verfolgen Sie alle eingehenden LDP-Nachrichten und alle Vorgänge zur Labelbindung:
[edit] protocols { ldp { traceoptions { file ldp size 10m files 5 world-readable; flag packets receive; flag binding; } interface all { } } }
Verfolgen Sie den LDP-Protokolldatenverkehr für einen FEC, der dem LSP zugeordnet ist:
[edit] protocols { ldp { traceoptions { flag route filter match-on fec policy filter-policy-for-ldp-fec; } } }