Tunnelservices – Überblick
Tunnelservices – Überblick
Durch die Kapselung beliebiger Pakete in ein Transportprotokoll bietet Tunneling einen privaten, sicheren Pfad durch ein ansonsten öffentliches Netzwerk. Tunnel verbinden diskontinuierliche Teilnetze und ermöglichen Verschlüsselungsschnittstellen, Virtual Private Networks (VPNs) und MPLS. Wenn Sie eine Tunnel Physical Interface Card (PIC) in Ihrem Router installiert haben, können Sie Unicast-, Multicast- und logische Tunnel konfigurieren.
Weitere Informationen zur Unterstützung von Plattform und Junos-Versionen finden Sie im Funktions-Explorer.
Sie können zwei Arten von Tunneln für VPNs konfigurieren: einen zur Erleichterung der Suche in Routing-Tabellen und einen anderen zur Erleichterung der Suche in VPN-Routing- und Weiterleitungsinstanztabellen (VRF).
Weitere Informationen zu Verschlüsselungsschnittstellen finden Sie unter Konfigurieren von Verschlüsselungsschnittstellen. Weitere Informationen zu VPNs finden Sie in der Junos OS VPNs-Bibliothek für Routing-Geräte. Weitere Informationen zu MPLS finden Sie im Benutzerhandbuch für MPLS-Anwendungen.
Auf Firewalls der SRX-Serie verwenden Generic Routing Encapsulation (GRE)- und IP-IP-Tunnel die internen Schnittstellen gr-0/0/0 bzw. ip-0/0/0. Das Junos OS erstellt diese Schnittstellen beim Systemstart. Sie sind nicht mit physischen Schnittstellen verknüpft.
Das Junos OS von Juniper Networks unterstützt die in der folgenden Tabelle aufgeführten Tunneltypen.
Schnittstelle |
Beschreibung |
---|---|
|
Konfigurierbare GRE-Schnittstelle (Generic Routing Encapsulation). GRE ermöglicht die Kapselung eines Routing-Protokolls über ein anderes Routing-Protokoll. Innerhalb eines Routers werden Pakete an diese interne Schnittstelle weitergeleitet, wo sie zunächst mit einem GRE-Paket gekapselt und dann mit einem anderen Protokollpaket erneut verkapselt werden, um die GRE zu vervollständigen. Die GRE-Schnittstelle ist nur eine interne Schnittstelle und keiner physischen Schnittstelle zugeordnet. Sie müssen die Schnittstelle so konfigurieren, dass GRE ausgeführt werden kann. |
|
Intern generierte GRE-Schnittstelle. Diese Schnittstelle wird vom Junos OS generiert, um GRE zu verarbeiten. Sie können diese Schnittstelle nicht konfigurieren. |
|
Konfigurierbare IP-over-IP-Kapselschnittstelle (auch IP-Tunneling genannt). IP-Tunneling ermöglicht die Kapselung eines IP-Pakets über ein anderes IP-Paket. Pakete werden an eine interne Schnittstelle weitergeleitet, wo sie mit einem IP-Paket eingekapselt und dann an die Zieladresse des einkapselnden Pakets weitergeleitet werden. Die IP-IP-Schnittstelle ist nur eine interne Schnittstelle und keiner physischen Schnittstelle zugeordnet. Sie müssen die Schnittstelle so konfigurieren, dass IP-Tunneling ausgeführt werden kann. |
|
Intern generierte IP-over-IP-Schnittstelle. Diese Schnittstelle wird vom Junos OS generiert, um die IP-over-IP-Kapselung zu handhaben. Es handelt sich nicht um eine konfigurierbare Schnittstelle. |
|
Die Bei Firewalls der SRX-Serie ist die |
|
Intern generierte Multicast-Tunnelschnittstelle. Multicast-Tunnel filtern alle Unicast-Pakete. Wenn ein eingehendes Paket nicht für das Innerhalb eines Routers werden Pakete zur Multicast-Filterung an diese interne Schnittstelle weitergeleitet. Die Multicast-Tunnelschnittstelle ist nur eine interne Schnittstelle und keiner physischen Schnittstelle zugeordnet. Wenn Ihr Router über ein Tunneldienste-PIC verfügt, konfiguriert das Junos OS automatisch eine Multicast-Tunnelschnittstelle ( |
|
Intern generierte Multicast-Tunnelschnittstelle. Diese Schnittstelle wird vom Junos OS generiert, um Multicast-Tunnelservices zu verarbeiten. Es handelt sich nicht um eine konfigurierbare Schnittstelle. |
|
Konfigurierbare PIM-Schnittstelle (Protocol Independent Multicast) zur Entkapselung. Im PIM-Sparse-Modus kapselt der First-Hop-Router Pakete ein, die für den Rendezvouspunkt-Router bestimmt sind. Die Pakete sind mit einem Unicast-Header gekapselt und werden über einen Unicast-Tunnel an den Rendezvouspunkt weitergeleitet. Der Rendezvouspunkt entkapselt dann die Pakete und überträgt sie über seine Multicaststruktur. Innerhalb eines Routers werden Pakete zur Entkapselung an diese interne Schnittstelle weitergeleitet. Die PIM-Entkapselungsschnittstelle ist nur eine interne Schnittstelle und keiner physischen Schnittstelle zugeordnet. Sie müssen die Schnittstelle so konfigurieren, dass die PIM-Entkapselung durchgeführt werden kann.
Anmerkung:
Auf Firewalls der SRX-Serie ist |
|
Konfigurierbare PIM-Kapselungsschnittstelle. Im PIM-Sparse-Modus kapselt der First-Hop-Router Pakete ein, die für den Rendezvouspunkt-Router bestimmt sind. Die Pakete sind mit einem Unicast-Header gekapselt und werden über einen Unicast-Tunnel an den Rendezvouspunkt weitergeleitet. Der Rendezvouspunkt entkapselt dann die Pakete und überträgt sie über seine Multicaststruktur. Innerhalb eines Routers werden Pakete zur Kapselung an diese interne Schnittstelle weitergeleitet. Die PIM-Kapselungsschnittstelle ist nur eine interne Schnittstelle und keiner physischen Schnittstelle zugeordnet. Sie müssen die Schnittstelle so konfigurieren, dass sie eine PIM-Kapselung durchführen kann.
Anmerkung:
Auf Firewalls der SRX-Serie ist |
|
Intern generierte PIM-Entkapselungsschnittstelle. Diese Schnittstelle wird vom Junos OS generiert, um die PIM-Entkapselung zu ermöglichen. Es handelt sich nicht um eine konfigurierbare Schnittstelle. |
|
Intern generierte PIM-Kapselungsschnittstelle. Diese Schnittstelle wird vom Junos OS generiert, um die PIM-Kapselung zu verarbeiten. Es handelt sich nicht um eine konfigurierbare Schnittstelle. |
|
Konfigurierbare virtuelle Loopback-Tunnel-Schnittstelle. Erleichtert die VRF-Tabellensuche basierend auf MPLS-Labels. Dieser Schnittstellentyp wird von Firewalls der SRX-Serie nicht unterstützt. Um einen virtuellen Loopback-Tunnel zu konfigurieren, um die VRF-Tabellensuche basierend auf MPLS-Bezeichnungen zu erleichtern, geben Sie einen virtuellen Loopback-Tunnel-Schnittstellennamen an und ordnen ihn einer Routing-Instanz zu, die zu einer bestimmten Routing-Tabelle gehört. Das Paket durchläuft den virtuellen Loopback-Tunnel zurück zur Routensuche. |
Ab Junos OS Version 15.1 können Sie Layer-2-Ethernet-Services über GRE-Schnittstellen konfigurieren (gr-fpc/pic/port
um die GRE-Kapselung zu verwenden). Damit Layer-2-Ethernet-Pakete in GRE-Tunneln terminiert werden können, müssen Sie die Bridge-Domänenprotokollfamilie auf den gr-
Schnittstellen konfigurieren und die gr-
Schnittstellen der Bridge-Domäne zuordnen. Sie müssen die GRE-Schnittstellen als Core-Schnittstellen konfigurieren, und es muss sich um Zugriffs- oder Trunkschnittstellen handeln. Um die Bridge-Domänenfamilie auf gr-
Schnittstellen zu konfigurieren, fügen Sie die family bridge
Anweisung auf der [edit interfaces gr-fpc/pic/port unit logical-unit-number]
Hierarchieebene ein. Um die gr-
Schnittstelle einer Bridgedomäne zuzuordnen, schließen Sie die interface gr-fpc/pic/port
Anweisung auf der [edit routing-instances routing-instance-name bridge-domains bridge-domain-name]
Hierarchieebene ein. Sie können GRE-Schnittstellen in einer Bridge-Domäne mit der entsprechenden VLAN-ID oder Liste der VLAN-IDs in einer Bridge-Domäne verknüpfen, indem Sie die vlan-id (all | none | number)
Anweisung oder die vlan-id-list [ vlan-id-numbers ]
Anweisung auf der [edit bridge-domains bridge-domain-name]
Hierarchieebene einschließen. Die für die Bridge-Domäne konfigurierten VLAN-IDs müssen mit den VLAN-IDs übereinstimmen, die Sie für GRE-Schnittstellen mithilfe der vlan-id (all | none | number)
Anweisung oder der vlan-id-list [ vlan-id-numbers ]
Anweisung auf Hierarchieebene [edit interfaces gr-fpc/pic/port unit logical-unit-number]
konfigurieren. Sie können GRE-Schnittstellen auch innerhalb einer Bridge-Domäne konfigurieren, die einer virtuellen Switch-Instanz zugeordnet ist. Layer-2-Ethernet-Pakete über GRE-Tunnel werden ebenfalls mit der GRE-Schlüsseloption unterstützt. Die Übereinstimmungsbedingung gre-key ermöglicht es einem Benutzer, mit dem GRE-Schlüsselfeld abzugleichen, das ein optionales Feld in GRE-gekapselten Paketen ist. Der Schlüssel kann als einzelner Schlüsselwert, als Bereich von Schlüsselwerten oder als beides abgeglichen werden.
Ab Junos OS Version 16.1 wird die Layer-2-Portspiegelung zu einem Remote-Kollektor über eine GRE-Schnittstelle unterstützt.
Plattformspezifisches Verhalten von Tunnelschnittstellen
Bahnsteig |
Unterschied |
---|---|
MX304-KARTON |
Beginnend mit Junos OS Version 24.4R1 werden Tunnelschnittstellen gelöscht oder auf PFE offline bzw. online erstellt. Wenn die Anker-PFE, die dynamischen IPv4-over-IPv6- oder IPv6-over-IPv4-Tunneln zugeordnet ist, offline geht, wird der Tunnel ebenfalls gelöscht. |
Siehe auch
Tunnelschnittstellen auf Routern der MX-Serie mit Linecards (MPC7E bis MPC11E)
MPC7E-10G, MPC7E-MRATE, MX2K-MPC8E und MX2K-MPC9E unterstützen insgesamt vier Inline-Tunnelschnittstellen pro MPC, eine pro PIC. Mit diesen MPCs können Sie eine Reihe von Tunnelschnittstellen pro PIC-Steckplatz erstellen, bis zu maximal vier Steckplätze (von 0 bis 3) auf Routern der MX-Serie.
Die MPC10E-15C unterstützt drei Inline-Tunnelschnittstellen pro MPC, eine pro PIC, während die MPC10E-10C zwei Inline-Tunnelschnittstellen pro MPC und eine pro PIC unterstützt. Auf Routern der MX-Serie mit MPC10E-15C können Sie Folgendes tun
Erstellen Sie eine Reihe von Tunnelschnittstellen pro PIC-Steckplatz bis zu maximal drei Steckplätzen (von 0 bis 2). Außerdem können Sie auf Routern der MX-Serie mit MPC10E-10C eine Reihe von Tunnelschnittstellen pro PIC-Steckplatz mit maximal zwei Steckplätzen (0 und 1) erstellen.Die MX2K-MPC11E unterstützt 8 Inline-Tunnelschnittstellen pro MPC, eine pro PIC. Auf Routern der MX-Serie mit MX2K-MPC11E können Sie eine Reihe von Tunnelschnittstellen pro PIC-Steckplatz mit bis zu maximal acht Steckplätzen (von 0 bis 7) erstellen. Diese PICs werden als Pseudo-Tunnel-PICs bezeichnet. Sie erstellen Tunnelschnittstellen auf Routern der MX-Serie mit MPC7E-10G, MPC7E-MRATE, MX2K-MPC8E, MX2K-MPC9E, MPC10E-15C, MPC10E-10C und MX2K-MPC11E, indem Sie die folgenden Anweisungen auf der [edit chassis] Hierarchieebene einfügen:
[edit chassis] fpc slot-number { pic number { tunnel-services { bandwidth ; } } }
- Packet Forwarding Engine-Mapping und Tunnelbandbreite für MPC7E-MRATE
- Packet Forwarding Engine-Zuordnung und Tunnelbandbreite für MPC7E-10G
- Packet Forwarding Engine-Zuordnung und Tunnelbandbreite für MX2K-MPC8E
- Packet Forwarding Engine-Zuordnung und Tunnelbandbreite für MX2K-MPC9E
- Packet Forwarding Engine-Zuordnung und Tunnelbandbreite für MPC10E-10C
- Packet Forwarding Engine-Mapping und Tunnelbandbreite für MPC10E-15C
- Packet Forwarding Engine-Mapping und Tunnelbandbreite für MX2K-MPC11E
- Packet Forwarding Engine-Zuordnung und Tunnelbandbreite für MX10K-LC9600
Packet Forwarding Engine-Mapping und Tunnelbandbreite für MPC7E-MRATE
Die Tunnelbandbreite für MPC7E-MRATE beträgt 1–120 Gbit/s in Schritten von 1 Gbit/s. Wenn Sie die Bandbreite jedoch nicht in der Konfiguration angeben, wird sie auf 120 Gbit/s festgelegt.
Tabelle 2 zeigt die Zuordnung zwischen der Tunnelbandbreite und den Packet Forwarding Engines für MPC7-MRATE .
Pseudo-Tunnel-PIC |
Maximale Bandbreite pro Tunnel-PIC |
PFE-Mapping |
Maximale Tunnelbandbreite pro PFE |
Maximale PFE-Bandbreite |
---|---|---|---|---|
PIC0-KARTON |
120 Gbit/s |
PFE0-KARTON |
120 Gbit/s |
240 Gbit/s
|
PIC1-KARTON |
120 Gbit/s |
|||
PIC2-KARTON |
120 Gbit/s |
PFE1-KARTON |
120 Gbit/s |
240 Gbit/s |
PIC3-KARTON |
120 Gbit/s |
Packet Forwarding Engine-Zuordnung und Tunnelbandbreite für MPC7E-10G
Die Tunnelbandbreite für MPC7E-10G beträgt 1–120 Gbit/s in Schritten von 1 Gbit/s Wenn Sie die Bandbreite jedoch nicht in der Konfiguration angeben, wird sie auf 120 Gbit/s festgelegt.
Tabelle 3 zeigt die Zuordnung zwischen der Tunnelbandbreite und den Paketweiterleitungs-Engines für MPC7E-10G.
Pseudo-Tunnel-PIC |
Maximale Bandbreite pro Tunnel-PIC |
PFE-Mapping |
Maximale Tunnelbandbreite pro PFE |
Maximale PFE-Bandbreite |
---|---|---|---|---|
PIC0-KARTON |
120 Gbit/s |
PFE0-KARTON |
120 Gbit/s |
200 Gbit/s
|
PIC1-KARTON |
120 Gbit/s |
|||
PIC2-KARTON |
120 Gbit/s |
PFE1-KARTON |
120 Gbit/s |
200 Gbit/s |
PIC3-KARTON |
120 Gbit/s |
Packet Forwarding Engine-Zuordnung und Tunnelbandbreite für MX2K-MPC8E
Die Tunnelbandbreite für MX2K-MPC8E beträgt 1–120 Gbit/s mit einem Schritt von 1 Gbit/s. Wenn Sie die Bandbreite jedoch nicht in der Konfiguration angeben, wird sie auf 120 Gbit/s festgelegt.
Tabelle 4 zeigt die Zuordnung zwischen der Tunnelbandbreite und den Packet Forwarding Engines für MX2K-MPC8E.
Pseudo-Tunnel-PIC |
Maximale Bandbreite pro Tunnel-PIC |
Packet Forwarding Engine-Zuordnung |
Maximale Tunnelbandbreite pro PFE |
Maximale PFE-Bandbreite |
---|---|---|---|---|
PIC0-KARTON |
120 Gbit/s |
PFE0-KARTON |
120 Gbit/s |
240 Gbit/s |
PIC1-KARTON |
120 Gbit/s |
PFE1-KARTON |
120 Gbit/s |
240 Gbit/s |
PIC2-KARTON |
120 Gbit/s |
PFE2-KARTON |
120 Gbit/s |
240 Gbit/s |
PIC3-KARTON |
120 Gbit/s |
PFE3-KARTON |
120 Gbit/s |
240 Gbit/s |
Packet Forwarding Engine-Zuordnung und Tunnelbandbreite für MX2K-MPC9E
Die Tunnelbandbreite für MX2K-MPC9E beträgt 1–200 Gbit/s in Schritten von 1 Gbit/s Wenn Sie die Bandbreite jedoch nicht in der Konfiguration angeben, wird sie auf 200 Gbit/s festgelegt.
Tabelle 5 zeigt die Zuordnung zwischen der Tunnelbandbreite und den Packet Forwarding Engines für MX2K-MPC9E.
Pseudo-Tunnel-PIC |
Maximale Bandbreite pro Tunnel-PIC |
PFE-Mapping |
Maximale Tunnelbandbreite pro PFE |
Maximale PFE-Bandbreite |
---|---|---|---|---|
PIC0-KARTON |
200 Gbit/s |
PFE0-KARTON |
200 Gbit/s |
400 Gbit/s
|
PIC1-KARTON |
200 Gbit/s |
PFE1-KARTON | 200 Gbit/s |
400 Gbit/s |
PIC2-KARTON |
200 Gbit/s |
PFE2-KARTON |
200 Gbit/s |
400 Gbit/s |
PIC3-KARTON |
200 Gbit/s |
PFE3-KARTON | 200 Gbit/s |
400 Gbit/s |
Packet Forwarding Engine-Zuordnung und Tunnelbandbreite für MPC10E-10C
Die Tunnelbandbreite für MPC10E-10C beträgt 1–400 Gbit/s in einem Schritt von 1 Gbit/s. Wenn Sie die Bandbreite jedoch nicht in der Konfiguration angeben, wird sie auf 400 Gbit/s festgelegt.
Tabelle 6 zeigt die Zuordnung zwischen der Tunnelbandbreite und den Paketweiterleitungs-Engines für MPC10E-10C.
Pseudo-Tunnel-PIC |
Maximale Bandbreite pro Tunnel-PIC |
Packet Forwarding Engine-Zuordnung |
Maximale Tunnelbandbreite pro PFE |
Maximale PFE-Bandbreite |
---|---|---|---|---|
PIC0-KARTON |
250 Gbit/s |
PFE0-KARTON |
250 Gbit/s |
500 Gbit/s |
PIC1-KARTON |
250 Gbit/s |
PFE1-KARTON |
250 Gbit/s |
500 Gbit/s |
Packet Forwarding Engine-Mapping und Tunnelbandbreite für MPC10E-15C
Die Tunnelbandbreite für MPC10E-15C beträgt 1–400 Gbit/s mit einem Schritt von 1 Gbit/s. Wenn Sie die Bandbreite jedoch nicht in der Konfiguration angeben, wird sie auf 400 Gbit/s festgelegt.
Tabelle 7 zeigt die Zuordnung zwischen der Tunnelbandbreite und den Paketweiterleitungs-Engines für MPC10E-15C.
Pseudo-Tunnel-PIC |
Maximale Bandbreite pro Tunnel-PIC |
Packet Forwarding Engine-Zuordnung |
Maximale Tunnelbandbreite pro PFE |
Maximale PFE-Bandbreite |
---|---|---|---|---|
PIC0-KARTON |
250 Gbit/s |
PFE0-KARTON |
250 Gbit/s |
500 Gbit/s |
PIC1-KARTON |
250 Gbit/s |
PFE1-KARTON |
250 Gbit/s |
500 Gbit/s |
PIC2-KARTON |
250 Gbit/s |
PFE2-KARTON |
250 Gbit/s |
500 Gbit/s |
Packet Forwarding Engine-Mapping und Tunnelbandbreite für MX2K-MPC11E
Die Tunnelbandbreite für die MX2K-MPC11E beträgt 1–400 Gbit/s in Schritten von 1 Gbit/s. Wenn Sie die Bandbreite jedoch nicht in der Konfiguration angeben, wird sie auf 400 Gbit/s festgelegt.
Tabelle 8 zeigt die Zuordnung zwischen der Tunnelbandbreite und den Paketweiterleitungs-Engines für MX2K-MPC11E.
Pseudo-Tunnel-PIC |
Maximale Bandbreite pro Tunnel-PIC |
PFE-Mapping |
Maximale Tunnelbandbreite pro PFE |
Maximale PFE-Bandbreite |
---|---|---|---|---|
PIC0-KARTON |
250 Gbit/s |
PFE0-KARTON |
250 Gbit/s |
500 Gbit/s |
PIC1-KARTON |
250 Gbit/s |
PFE1-KARTON |
250 Gbit/s |
500 Gbit/s |
PIC2-KARTON |
250 Gbit/s |
PFE2-KARTON |
250 Gbit/s |
500 Gbit/s |
PIC3-KARTON |
250 Gbit/s |
PFE3-KARTON |
250 Gbit/s |
500 Gbit/s |
PIC4-KARTON |
250 Gbit/s |
PFE4-KARTON |
250 Gbit/s |
500 Gbit/s |
PIC5-KARTON |
250 Gbit/s |
PFE5-KARTON |
250 Gbit/s |
500 Gbit/s |
PIC6-KARTON |
250 Gbit/s |
PFE6-KARTON |
250 Gbit/s |
500 Gbit/s |
PIC7-KARTON |
250 Gbit/s |
PFE7-KARTON |
250 Gbit/s |
500 Gbit/s |
Ein nicht spezifizierter Wert für die Bandbreite der Tunnelservices in der Konfiguration für MPC10E-10C, MPC10E-15C und MX2K-MPC11E führt unter bestimmten Datenverkehrsbedingungen zu einem Wert, der größer als die maximale Tunnelbandbreite pro PFE ist.
Packet Forwarding Engine-Zuordnung und Tunnelbandbreite für MX10K-LC9600
Die Tunnelbandbreite für die MX10K-LC9600 beträgt 1–400 Gbit/s mit einem Schritt von 1 Gbit/s. Wenn Sie die Bandbreite jedoch nicht in der Konfiguration angeben, wird sie auf 400 Gbit/s festgelegt.
Tabelle 9 zeigt die Zuordnung zwischen der Tunnelbandbreite und den Paketweiterleitungs-Engines für MX10K-LC9600.
Pseudo-Tunnel-PIC |
Tunnel-Port |
Maximale Bandbreite pro Tunnel-PIC |
PFE-Mapping |
Maximale Tunnelbandbreite pro PFE |
Maximale PFE-Bandbreite |
---|---|---|---|---|---|
PIC0-KARTON |
0 |
200 Gbit/s |
PFE0-KARTON |
200 Gbit/s |
800 Gbit/s |
1 |
200 Gbit/s |
PFE0-KARTON |
200 Gbit/s |
||
2 |
200 Gbit/s |
PFE1-KARTON |
200 Gbit/s |
||
3 |
200 Gbit/s |
PFE1-KARTON |
200 Gbit/s |
||
PIC1-KARTON |
0 |
200 Gbit/s |
PFE2-KARTON |
200 Gbit/s |
800 Gbit/s |
1 |
200 Gbit/s |
PFE2-KARTON |
200 Gbit/s |
||
2 |
200 Gbit/s |
PFE3-KARTON |
200 Gbit/s |
||
3 |
200 Gbit/s |
PFE3-KARTON |
200 Gbit/s |
||
PIC2-KARTON |
0 |
200 Gbit/s |
PFE4-KARTON |
200 Gbit/s |
800 Gbit/s |
1 |
200 Gbit/s |
PFE4-KARTON |
200 Gbit/s |
||
2 |
200 Gbit/s |
PFE5-KARTON |
200 Gbit/s |
||
3 |
200 Gbit/s |
PFE5-KARTON |
200 Gbit/s |
||
PIC3-KARTON |
0 |
200 Gbit/s |
PFE6-KARTON |
200 Gbit/s |
800 Gbit/s |
1 |
200 Gbit/s |
PFE6-KARTON |
200 Gbit/s |
||
2 |
200 Gbit/s |
PFE7-KARTON |
200 Gbit/s |
||
3 |
200 Gbit/s |
PFE7-KARTON |
200 Gbit/s |
||
PIC4-KARTON |
0 |
200 Gbit/s |
PFE8-KARTON |
200 Gbit/s |
800 Gbit/s |
1 |
200 Gbit/s |
PFE8-KARTON |
200 Gbit/s |
||
2 |
200 Gbit/s |
PFE9-KARTON |
200 Gbit/s |
||
3 |
200 Gbit/s |
PFE9-KARTON |
200 Gbit/s |
||
PIC5-KARTON |
0 |
200 Gbit/s |
PFE10-KARTON |
200 Gbit/s |
800 Gbit/s |
1 |
200 Gbit/s |
PFE10-KARTON |
200 Gbit/s |
||
2 |
200 Gbit/s |
PFE11-KARTON |
200 Gbit/s |
||
3 |
200 Gbit/s |
PFE11-KARTON |
200 Gbit/s |
Siehe auch
Dynamische Tunnel im Überblick
Ein VPN, das durch ein Nicht-MPLS-Netzwerk geleitet wird, erfordert einen GRE-Tunnel. Bei diesem Tunnel kann es sich entweder um einen statischen oder einen dynamischen Tunnel handeln. Ein statischer Tunnel wird manuell zwischen zwei PE-Routern konfiguriert. Ein dynamischer Tunnel wird mithilfe der BGP-Routenauflösung konfiguriert.
Wenn ein Router eine VPN-Route empfängt, die über einen BGP-Next-Hop ohne MPLS-Pfad aufgelöst wird, kann dynamisch ein GRE-Tunnel erstellt werden, sodass der VPN-Datenverkehr an diese Route weitergeleitet werden kann. Es werden nur GRE-IPv4-Tunnel unterstützt.
Um einen dynamischen Tunnel zwischen zwei PE-Routern zu konfigurieren, fügen Sie die dynamic-tunnels
folgende Anweisung ein:
dynamic-tunnels tunnel-name { destination-networks prefix; source-address address; }
Sie können diese Anweisung auf den folgenden Hierarchieebenen konfigurieren:
[edit routing-options]
[edit routing-instances routing-instance-name routing-options]
[edit logical-systems logical-system-name routing-options]
[edit logical-systems logical-system-name routing-instances routing-instance-name routing-options]
Siehe auch
Tabellarischer Änderungsverlauf
Die Unterstützung der Funktion hängt von der Plattform und der Version ab, die Sie benutzen. Verwenden Sie Funktionen entdecken , um festzustellen, ob eine Funktion auf Ihrer Plattform unterstützt wird.
gr-fpc/pic/port
um die GRE-Kapselung zu verwenden).