Übersicht über Tunnelservices
Übersicht über Tunnelservices
Durch die Kapselung beliebiger Pakete in einem Transportprotokoll bietet Tunneling einen privaten, sicheren Pfad durch ein ansonsten öffentliches Netzwerk. Tunnel verbinden diskontinuierliche Subnetze und ermöglichen Verschlüsselungsschnittstellen, Virtual Private Networks (VPNs) und MPLS. Wenn Sie eine Tunnel Physical Interface Card (PIC) in Ihrem Router der M- oder T-Serie installiert haben, können Sie Unicast-, Multicast- und logische Tunnel konfigurieren.
Sie können zwei Arten von Tunneln für VPNs konfigurieren: einen zur Erleichterung von Routing-Tabellen-Lookups und einen anderen zur Erleichterung von VPN-Routing- und Forwarding-Instance-Tabellen (VRF).
Weitere Informationen zu Verschlüsselungsschnittstellen finden Sie unter Konfigurieren von Verschlüsselungsschnittstellen. Weitere Informationen zu VPNs finden Sie in der Junos OS VPNs-Bibliothek für Routing-Geräte. Weitere Informationen zu MPLS finden Sie im Benutzerhandbuch für MPLS-Anwendungen.
Bei Firewalls der SRX-Serie verwenden GRE- (Generic Routing Encapsulation) und IP-IP-Tunnel die internen Schnittstellen gr-0/0/0 bzw. ip-0/0/0. Das Junos-Betriebssystem erstellt diese Schnittstellen beim Systemstart. Sie sind nicht mit physischen Schnittstellen verbunden.
Das Junos-Betriebssystem von Juniper Networks unterstützt die in der folgenden Tabelle aufgeführten Tunneltypen.
Schnittstelle |
Beschreibung |
---|---|
|
Konfigurierbare GRE-Schnittstelle (Generic Routing Encapsulation). GRE ermöglicht die Kapselung eines Routing-Protokolls über ein anderes Routing-Protokoll. Innerhalb eines Routers werden Pakete an diese interne Schnittstelle weitergeleitet, wo sie zuerst mit einem GRE-Paket gekapselt und dann erneut mit einem anderen Protokollpaket gekapselt werden, um den GRE abzuschließen. Die GRE-Schnittstelle ist nur eine interne Schnittstelle und keiner physischen Schnittstelle zugeordnet. Sie müssen die Schnittstelle so konfigurieren, dass sie GRE ausführt. |
|
Intern generierte GRE-Schnittstelle. Diese Schnittstelle wird vom Junos-Betriebssystem für die Verarbeitung von GRE generiert. Sie können diese Schnittstelle nicht konfigurieren. |
|
Konfigurierbare IP-over-IP-Kapselungsschnittstelle (auch IP-Tunneling genannt). IP-Tunneling ermöglicht die Kapselung eines IP-Pakets über ein anderes IP-Paket. Pakete werden an eine interne Schnittstelle weitergeleitet, wo sie mit einem IP-Paket gekapselt und dann an die Zieladresse des kapselnden Pakets weitergeleitet werden. Die IP-IP-Schnittstelle ist eine reine interne Schnittstelle und keiner physischen Schnittstelle zugeordnet. Sie müssen die Schnittstelle so konfigurieren, dass sie IP-Tunneling ausführt. |
|
Intern generierte IP-over-IP-Schnittstelle. Diese Schnittstelle wird vom Junos-Betriebssystem generiert, um die IP-over-IP-Kapselung zu verarbeiten. Es handelt sich nicht um eine konfigurierbare Schnittstelle. |
|
Die Bei Firewalls der SRX-Serie handelt es sich bei der |
|
Intern generierte Multicast-Tunnelschnittstelle. Multicast-Tunnel filtern alle Unicast-Pakete. Wenn ein eingehendes Paket nicht für das Innerhalb eines Routers werden Pakete zur Multicast-Filterung an diese interne Schnittstelle weitergeleitet. Die Multicast-Tunnelschnittstelle ist nur eine interne Schnittstelle und keiner physischen Schnittstelle zugeordnet. Wenn Ihr Router über ein Tunnel Services PIC verfügt, konfiguriert das Junos-Betriebssystem automatisch eine Multicast-Tunnelschnittstelle ( |
|
Intern generierte Multicast-Tunnelschnittstelle. Diese Schnittstelle wird vom Junos-Betriebssystem für die Verarbeitung von Multicast-Tunneldiensten generiert. Es handelt sich nicht um eine konfigurierbare Schnittstelle. |
|
Konfigurierbare PIM-Dekapselungsschnittstelle (Protocol Independent Multicast). Im PIM-Sparse-Modus kapselt der First-Hop-Router Pakete, die für den Rendezvouspunkt-Router bestimmt sind. Die Pakete werden mit einem Unicast-Header gekapselt und über einen Unicast-Tunnel an den Rendezvouspunkt weitergeleitet. Der Rendezvouspunkt entkapselt dann die Pakete und überträgt sie durch seine Multicast-Struktur. Innerhalb eines Routers werden Pakete zur Entkapselung an diese interne Schnittstelle weitergeleitet. Die PIM-Entkapselungsschnittstelle ist nur eine interne Schnittstelle und keiner physischen Schnittstelle zugeordnet. Sie müssen die Schnittstelle so konfigurieren, dass sie die PIM-Entkapselung durchführt.
Hinweis:
Bei Firewalls der SRX-Serie ist |
|
Konfigurierbare PIM-Kapselungsschnittstelle. Im PIM-Sparse-Modus kapselt der First-Hop-Router Pakete, die für den Rendezvouspunkt-Router bestimmt sind. Die Pakete werden mit einem Unicast-Header gekapselt und über einen Unicast-Tunnel an den Rendezvouspunkt weitergeleitet. Der Rendezvouspunkt entkapselt dann die Pakete und überträgt sie durch seine Multicast-Struktur. Innerhalb eines Routers werden Pakete zur Kapselung an diese interne Schnittstelle weitergeleitet. Die PIM-Kapselungsschnittstelle ist nur eine interne Schnittstelle und keiner physischen Schnittstelle zugeordnet. Sie müssen die Schnittstelle so konfigurieren, dass sie die PIM-Kapselung durchführt.
Hinweis:
Bei Firewalls der SRX-Serie ist |
|
Intern generierte PIM-Entkapselungsschnittstelle. Diese Schnittstelle wird vom Junos-Betriebssystem generiert, um die PIM-Entkapselung zu handhaben. Es handelt sich nicht um eine konfigurierbare Schnittstelle. |
|
Intern generierte PIM-Kapselungsschnittstelle. Diese Schnittstelle wird vom Junos-Betriebssystem generiert, um die PIM-Kapselung zu handhaben. Es handelt sich nicht um eine konfigurierbare Schnittstelle. |
|
Konfigurierbare virtuelle Loopback-Tunnel-Schnittstelle. Erleichtert die Suche in VRF-Tabellen basierend auf MPLS-Labels. Dieser Schnittstellentyp wird auf Routern der M- und T-Serie unterstützt, jedoch nicht auf Firewalls der SRX-Serie. Um einen virtuellen Loopback-Tunnel so zu konfigurieren, dass er die Suche in VRF-Tabellen basierend auf MPLS-Bezeichnungen erleichtert, geben Sie einen Schnittstellennamen für den virtuellen Loopback-Tunnel an und ordnen ihn einer Routing-Instanz zu, die zu einer bestimmten Routing-Tabelle gehört. Das Paket durchläuft den virtuellen Loopback-Tunnel für die Routensuche. |
Ab Junos OS Version 15.1 können Sie Layer-2-Ethernet-Services über GRE-Schnittstellen konfigurieren (gr-fpc/pic/port
um die GRE-Kapselung zu verwenden). Damit Layer-2-Ethernet-Pakete in GRE-Tunneln beendet werden können, müssen Sie die Bridge-Domain-Protokollfamilie auf den gr-
Schnittstellen konfigurieren und die gr-
Schnittstellen der Bridge-Domäne zuordnen. Sie müssen die GRE-Schnittstellen als Core-Schnittstellen konfigurieren, und es muss sich um Zugriffs- oder Trunk-Schnittstellen handeln. Um die Bridgedomänenfamilie auf gr-
Schnittstellen zu konfigurieren, fügen Sie die family bridge
Anweisung auf Hierarchieebene [edit interfaces gr-fpc/pic/port unit logical-unit-number]
ein. Um die gr-
Schnittstelle einer Bridge-Domäne zuzuordnen, fügen Sie die interface gr-fpc/pic/port
Anweisung auf Hierarchieebene [edit routing-instances routing-instance-name bridge-domains bridge-domain-name]
ein. Sie können GRE-Schnittstellen in einer Bridge-Domäne mit der entsprechenden VLAN-ID oder Liste von VLAN-IDs in einer Bridge-Domäne verknüpfen, indem Sie die vlan-id (all | none | number)
Anweisung oder die vlan-id-list [ vlan-id-numbers ]
Anweisung auf Hierarchieebene [edit bridge-domains bridge-domain-name]
einschließen. Die für die Bridge-Domäne konfigurierten VLAN-IDs müssen mit den VLAN-IDs übereinstimmen, die Sie für GRE-Schnittstellen mithilfe der vlan-id (all | none | number)
Anweisung oder der vlan-id-list [ vlan-id-numbers ]
Anweisung auf Hierarchieebene [edit interfaces gr-fpc/pic/port unit logical-unit-number]
konfigurieren. Sie können auch GRE-Schnittstellen innerhalb einer Bridge-Domäne konfigurieren, die einer virtuellen Switch-Instanz zugeordnet ist. Layer-2-Ethernet-Pakete über GRE-Tunnel werden auch mit der GRE-Schlüsseloption unterstützt. Die gre-key-Übereinstimmungsbedingung ermöglicht es einem Benutzer, einen Abgleich mit dem GRE-Schlüsselfeld durchzuführen, bei dem es sich um ein optionales Feld in GRE-gekapselten Paketen handelt. Der Schlüssel kann als einzelner Schlüsselwert, als Bereich von Schlüsselwerten oder als beides abgeglichen werden.
Ab Junos OS Version 16.1 wird die Layer-2-Port-Spiegelung auf einen Remote-Collector über eine GRE-Schnittstelle unterstützt.
Siehe auch
Tunnelschnittstellen auf Routern der MX-Serie mit Linecards (MPC7E bis MPC11E)
MPC7E-10G, MPC7E-MRATE, MX2K-MPC8E und MX2K-MPC9E unterstützen insgesamt vier Inline-Tunnelschnittstellen pro MPC, eine pro PIC. Mit diesen MPCs können Sie eine Reihe von Tunnelschnittstellen pro PIC-Steckplatz mit bis zu maximal vier Steckplätzen (von 0 bis 3) auf Routern der MX-Serie erstellen.
MPC10E-15C unterstützt drei Inline-Tunnelschnittstellen pro MPC, eine pro PIC, während MPC10E-10C zwei Inline-Tunnelschnittstellen pro MPC unterstützt, eine pro PIC. Bei Routern der MX-Serie mit MPC10E-15C können Sie:
Erstellen Sie eine Reihe von Tunnelschnittstellen pro PIC-Steckplatz mit maximal drei Steckplätzen (von 0 bis 2). Bei Routern der MX-Serie mit MPC10E-10C können Sie eine Reihe von Tunnelschnittstellen pro PIC-Steckplatz mit bis zu maximal zwei Steckplätzen (0 und 1) erstellen.MX2K-MPC11E unterstützt 8 Inline-Tunnelschnittstellen pro MPC, eine pro PIC. Bei Routern der MX-Serie mit MX2K-MPC11E können Sie pro PIC-Steckplatz eine Reihe von Tunnelschnittstellen mit maximal acht Steckplätzen (von 0 bis 7) erstellen. Diese PICs werden als Pseudotunnel-PICs bezeichnet. Sie erstellen Tunnelschnittstellen auf Routern der MX-Serie mit MPC7E-10G, MPC7E-MRATE, MX2K-MPC8E, MX2K-MPC9E, MPC10E-15C, MPC10E-10C und MX2K-MPC11E, indem Sie die folgenden Anweisungen auf Hierarchieebene [edit chassis] einfügen:
[edit chassis] fpc slot-number { pic number { tunnel-services { bandwidth ; } } }
- Packet Forwarding Engine Mapping und Tunnelbandbreite für MPC7E-MRATE
- Packet Forwarding Engine Mapping und Tunnelbandbreite für MPC7E-10G
- Packet Forwarding Engine Mapping und Tunnelbandbreite für MX2K-MPC8E
- Packet Forwarding Engine Mapping und Tunnelbandbreite für MX2K-MPC9E
- Packet Forwarding Engine Mapping und Tunnelbandbreite für MPC10E-10C
- Packet Forwarding Engine Mapping und Tunnelbandbreite für MPC10E-15C
- Packet Forwarding Engine Mapping und Tunnelbandbreite für MX2K-MPC11E
- Packet Forwarding Engine Mapping und Tunnelbandbreite für MX10K-LC9600
Packet Forwarding Engine Mapping und Tunnelbandbreite für MPC7E-MRATE
Die Tunnelbandbreite für MPC7E-MRATE beträgt 1–120 Gbit/s in Schritten von 1 Gbit/s. Wenn Sie die Bandbreite jedoch nicht in der Konfiguration angeben, wird sie auf 120 Gbit/s festgelegt.
Tabelle 2 zeigt die Zuordnung zwischen der Tunnelbandbreite und den Paketweiterleitungsmodulen für MPC7-MRATE .
Pseudo-Tunnel-PIC |
Maximale Bandbreite pro Tunnel-PIC |
PFE-Zuordnung |
Maximale Tunnelbandbreite pro PFE |
Maximale PFE-Bandbreite |
---|---|---|---|---|
PIC0 |
120 Gbit/s |
PFE0 |
120 Gbit/s |
240 Gbit/s
|
Bild 1 |
120 Gbit/s |
|||
Bild 2 |
120 Gbit/s |
PFE1 |
120 Gbit/s |
240 Gbit/s |
Bild 3 |
120 Gbit/s |
Packet Forwarding Engine Mapping und Tunnelbandbreite für MPC7E-10G
Die Tunnelbandbreite für MPC7E-10G beträgt 1–120 Gbit/s in Schritten von 1 Gbit/s. Wenn Sie die Bandbreite jedoch nicht in der Konfiguration angeben, wird sie auf 120 Gbit/s festgelegt.
Tabelle 3 zeigt die Zuordnung zwischen der Tunnelbandbreite und den Paketweiterleitungsmodulen für MPC7E-10G.
Pseudo-Tunnel-PIC |
Maximale Bandbreite pro Tunnel-PIC |
PFE-Zuordnung |
Maximale Tunnelbandbreite pro PFE |
Maximale PFE-Bandbreite |
---|---|---|---|---|
PIC0 |
120 Gbit/s |
PFE0 |
120 Gbit/s |
200 Gbit/s
|
Bild 1 |
120 Gbit/s |
|||
Bild 2 |
120 Gbit/s |
PFE1 |
120 Gbit/s |
200 Gbit/s |
Bild 3 |
120 Gbit/s |
Packet Forwarding Engine Mapping und Tunnelbandbreite für MX2K-MPC8E
Die Tunnelbandbreite für MX2K-MPC8E beträgt 1 bis 120 Gbit/s in Schritten von 1 Gbit/s. Wenn Sie die Bandbreite jedoch nicht in der Konfiguration angeben, wird sie auf 120 Gbit/s festgelegt.
Tabelle 4 zeigt die Zuordnung zwischen der Tunnelbandbreite und den Paketweiterleitungsmodulen für MX2K-MPC8E.
Pseudo-Tunnel-PIC |
Maximale Bandbreite pro Tunnel-PIC |
Zuordnung der Paketweiterleitungs-Engine |
Maximale Tunnelbandbreite pro PFE |
Maximale PFE-Bandbreite |
---|---|---|---|---|
PIC0 |
120 Gbit/s |
PFE0 |
120 Gbit/s |
240 Gbit/s |
Bild 1 |
120 Gbit/s |
PFE1 |
120 Gbit/s |
240 Gbit/s |
Bild 2 |
120 Gbit/s |
PFE2 |
120 Gbit/s |
240 Gbit/s |
Bild 3 |
120 Gbit/s |
PFE3 |
120 Gbit/s |
240 Gbit/s |
Packet Forwarding Engine Mapping und Tunnelbandbreite für MX2K-MPC9E
Die Tunnelbandbreite für MX2K-MPC9E beträgt 1–200 Gbit/s in Schritten von 1 Gbit/s. Wenn Sie die Bandbreite jedoch nicht in der Konfiguration angeben, wird sie auf 200 Gbit/s festgelegt.
Tabelle 5 zeigt die Zuordnung zwischen der Tunnelbandbreite und den Paketweiterleitungsmodulen für MX2K-MPC9E.
Pseudo-Tunnel-PIC |
Maximale Bandbreite pro Tunnel-PIC |
PFE-Zuordnung |
Maximale Tunnelbandbreite pro PFE |
Maximale PFE-Bandbreite |
---|---|---|---|---|
PIC0 |
200 Gbit/s |
PFE0 |
200 Gbit/s |
400 Gbit/s
|
Bild 1 |
200 Gbit/s |
PFE1 | 200 Gbit/s |
400 Gbit/s |
Bild 2 |
200 Gbit/s |
PFE2 |
200 Gbit/s |
400 Gbit/s |
Bild 3 |
200 Gbit/s |
PFE3 | 200 Gbit/s |
400 Gbit/s |
Packet Forwarding Engine Mapping und Tunnelbandbreite für MPC10E-10C
Die Tunnelbandbreite für MPC10E-10C beträgt 1–400 Gbit/s in Schritten von 1 Gbit/s. Wenn Sie die Bandbreite jedoch nicht in der Konfiguration angeben, wird sie auf 400 Gbit/s festgelegt.
Tabelle 6 zeigt die Zuordnung zwischen der Tunnelbandbreite und den Paketweiterleitungsmodulen für MPC10E-10C.
Pseudo-Tunnel-PIC |
Maximale Bandbreite pro Tunnel-PIC |
Zuordnung der Paketweiterleitungs-Engine |
Maximale Tunnelbandbreite pro PFE |
Maximale PFE-Bandbreite |
---|---|---|---|---|
PIC0 |
250 Gbit/s |
PFE0 |
250 Gbit/s |
500 Gbit/s |
Bild 1 |
250 Gbit/s |
PFE1 |
250 Gbit/s |
500 Gbit/s |
Packet Forwarding Engine Mapping und Tunnelbandbreite für MPC10E-15C
Die Tunnelbandbreite für MPC10E-15C beträgt 1–400 Gbit/s in Schritten von 1 Gbit/s. Wenn Sie die Bandbreite jedoch nicht in der Konfiguration angeben, wird sie auf 400 Gbit/s festgelegt.
Tabelle 7 zeigt die Zuordnung zwischen der Tunnelbandbreite und den Paketweiterleitungsmodulen für MPC10E-15C.
Pseudo-Tunnel-PIC |
Maximale Bandbreite pro Tunnel-PIC |
Zuordnung der Paketweiterleitungs-Engine |
Maximale Tunnelbandbreite pro PFE |
Maximale PFE-Bandbreite |
---|---|---|---|---|
PIC0 |
250 Gbit/s |
PFE0 |
250 Gbit/s |
500 Gbit/s |
Bild 1 |
250 Gbit/s |
PFE1 |
250 Gbit/s |
500 Gbit/s |
Bild 2 |
250 Gbit/s |
PFE2 |
250 Gbit/s |
500 Gbit/s |
Packet Forwarding Engine Mapping und Tunnelbandbreite für MX2K-MPC11E
Die Tunnelbandbreite für MX2K-MPC11E beträgt 1–400 Gbit/s in Schritten von 1 Gbit/s. Wenn Sie die Bandbreite jedoch nicht in der Konfiguration angeben, wird sie auf 400 Gbit/s festgelegt.
Tabelle 8 zeigt die Zuordnung zwischen der Tunnelbandbreite und den Paketweiterleitungsmodulen für MX2K-MPC11E .
Pseudo-Tunnel-PIC |
Maximale Bandbreite pro Tunnel-PIC |
PFE-Zuordnung |
Maximale Tunnelbandbreite pro PFE |
Maximale PFE-Bandbreite |
---|---|---|---|---|
PIC0 |
250 Gbit/s |
PFE0 |
250 Gbit/s |
500 Gbit/s |
Bild 1 |
250 Gbit/s |
PFE1 |
250 Gbit/s |
500 Gbit/s |
Bild 2 |
250 Gbit/s |
PFE2 |
250 Gbit/s |
500 Gbit/s |
Bild 3 |
250 Gbit/s |
PFE3 |
250 Gbit/s |
500 Gbit/s |
Bild 4 |
250 Gbit/s |
PFE4 |
250 Gbit/s |
500 Gbit/s |
Bild 5 |
250 Gbit/s |
PFE5 |
250 Gbit/s |
500 Gbit/s |
Bild 6 |
250 Gbit/s |
PFE6 |
250 Gbit/s |
500 Gbit/s |
PIC7 |
250 Gbit/s |
PFE7 |
250 Gbit/s |
500 Gbit/s |
Ein nicht spezifizierter Wert für die Bandbreite von Tunneldiensten in der Konfiguration für MPC10E-10C, MPC10E-15C und MX2K-MPC11E führt zu einem Wert, der unter bestimmten Datenverkehrsbedingungen größer ist als die maximale Tunnelbandbreite pro PFE.
Packet Forwarding Engine Mapping und Tunnelbandbreite für MX10K-LC9600
Die Tunnelbandbreite für MX10K-LC9600 beträgt 1–400 Gbit/s in Schritten von 1 Gbit/s. Wenn Sie die Bandbreite jedoch nicht in der Konfiguration angeben, wird sie auf 400 Gbit/s festgelegt.
Tabelle 9 zeigt die Zuordnung zwischen der Tunnelbandbreite und den Paketweiterleitungsmodulen für MX10K-LC9600.
Pseudo-Tunnel-PIC |
Tunnel-Port |
Maximale Bandbreite pro Tunnel-PIC |
PFE-Zuordnung |
Maximale Tunnelbandbreite pro PFE |
Maximale PFE-Bandbreite |
---|---|---|---|---|---|
PIC0 |
0 |
200 Gbit/s |
PFE0 |
200 Gbit/s |
800 Gbit/s |
1 |
200 Gbit/s |
PFE0 |
200 Gbit/s |
||
2 |
200 Gbit/s |
PFE1 |
200 Gbit/s |
||
3 |
200 Gbit/s |
PFE1 |
200 Gbit/s |
||
Bild 1 |
0 |
200 Gbit/s |
PFE2 |
200 Gbit/s |
800 Gbit/s |
1 |
200 Gbit/s |
PFE2 |
200 Gbit/s |
||
2 |
200 Gbit/s |
PFE3 |
200 Gbit/s |
||
3 |
200 Gbit/s |
PFE3 |
200 Gbit/s |
||
Bild 2 |
0 |
200 Gbit/s |
PFE4 |
200 Gbit/s |
800 Gbit/s |
1 |
200 Gbit/s |
PFE4 |
200 Gbit/s |
||
2 |
200 Gbit/s |
PFE5 |
200 Gbit/s |
||
3 |
200 Gbit/s |
PFE5 |
200 Gbit/s |
||
Bild 3 |
0 |
200 Gbit/s |
PFE6 |
200 Gbit/s |
800 Gbit/s |
1 |
200 Gbit/s |
PFE6 |
200 Gbit/s |
||
2 |
200 Gbit/s |
PFE7 |
200 Gbit/s |
||
3 |
200 Gbit/s |
PFE7 |
200 Gbit/s |
||
Bild 4 |
0 |
200 Gbit/s |
PFE8 |
200 Gbit/s |
800 Gbit/s |
1 |
200 Gbit/s |
PFE8 |
200 Gbit/s |
||
2 |
200 Gbit/s |
PFE9 |
200 Gbit/s |
||
3 |
200 Gbit/s |
PFE9 |
200 Gbit/s |
||
Bild 5 |
0 |
200 Gbit/s |
PFE10 |
200 Gbit/s |
800 Gbit/s |
1 |
200 Gbit/s |
PFE10 |
200 Gbit/s |
||
2 |
200 Gbit/s |
PFE11 |
200 Gbit/s |
||
3 |
200 Gbit/s |
PFE11 |
200 Gbit/s |
Siehe auch
Dynamic Tunnels – Übersicht
Für ein VPN, das über ein Nicht-MPLS-Netzwerk übertragen wird, ist ein GRE-Tunnel erforderlich. Bei diesem Tunnel kann es sich entweder um einen statischen Tunnel oder einen dynamischen Tunnel handeln. Ein statischer Tunnel wird manuell zwischen zwei PE-Routern konfiguriert. Ein dynamischer Tunnel wird mithilfe der BGP-Routenauflösung konfiguriert.
Wenn ein Router eine VPN-Route empfängt, die über einen nächsten BGP-Hop aufgelöst wird, der keinen MPLS-Pfad hat, kann dynamisch ein GRE-Tunnel erstellt werden, sodass der VPN-Datenverkehr an diese Route weitergeleitet werden kann. Es werden nur GRE-IPv4-Tunnel unterstützt.
Um einen dynamischen Tunnel zwischen zwei PE-Routern zu konfigurieren, fügen Sie die dynamic-tunnels
folgende Anweisung ein:
dynamic-tunnels tunnel-name { destination-networks prefix; source-address address; }
Sie können diese Anweisung auf den folgenden Hierarchieebenen konfigurieren:
[edit routing-options]
[edit routing-instances routing-instance-name routing-options]
[edit logical-systems logical-system-name routing-options]
[edit logical-systems logical-system-name routing-instances routing-instance-name routing-options]
Siehe auch
Tabelle "Änderungshistorie"
Die Funktionsunterstützung hängt von der Plattform und der Version ab, die Sie verwenden. Verwenden Sie den Feature-Explorer , um festzustellen, ob ein Feature auf Ihrer Plattform unterstützt wird.
gr-fpc/pic/port
um die GRE-Kapselung zu verwenden).