Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Beispiel: Konfigurieren Sie eine EVPN-VXLAN-Zentral-Routing-Bridging-Fabric

Moderne Datencenter basieren auf einer IP-Fabric. Eine IP-Fabric verwendet BGP-basierte Ethernet VPN (EVPN)-Signalübertragung in der Steuerungsebene und Virtual Extensible LAN (VXLAN) Kapselung in der Datenebene. Diese Technologie bietet eine standardbasierte Hochleistungslösung für Layer 2 (L2)-Bridging innerhalb eines VLANs und für das Routing zwischen VLANs.

In den meisten Fällen besteht eine One-to-One-Beziehung zwischen einem Benutzer-VLAN und einem VXLAN Network Identifier (VNI). Daher werden die Abkürzungen VLAN und VXLAN häufig synonym verwendet. Standardmäßig wird durch die VXLAN-Einkapselung jedes eingehende VLAN-Tag entfernt, wenn es von einem Zugriffsport empfangen wird. Der Rest des Ethernet-Rahmens ist für den Transport über die Fabric in VXLAN verkapselt. Am Ausgangspunkt wird die VXLAN-Einkapselung entfernt und das VLAN-Tag (falls vorhanden) wieder eingefügt, bevor der Frame an das angeschlossene Gerät gesendet wird.

Dies ist ein Beispiel für eine EVPN-VXLAN IP-Fabric, die auf einer zentral gerouteten Bridging(CRB)-Architektur basiert. Integrierte Routing- und Briding-Schnittstellen (IRB) bieten Layer 3 (L3)-Konnektivität zu Servern und VMs, die zu verschiedenen VLANs und Netzwerken gehören. Diese IRB-Schnittstellen dienen als Standard-Gateway für inter-VLAN-Datenverkehr innerhalb einer Fabric. Sie dienen auch als Remote-Adressen für die Fabric, z. B. im Falle von Data Center Interconnect (DCI). In einem CRB-Design definieren Sie die IRB-Schnittstellen nur auf spine-Geräten. Ein solches Design wird daher als zentral geroutet bezeichnet, da das gesamte Routing auf den Spines erfolgt.

Ein Beispiel für ein Edge-Routingd Bridging (ERB)-Design finden Sie unter Beispiel: Konfigurieren eines EVPN-VXLAN Edge-Routingd Bridging Fabric mit einem Anycast-Gateway

Hintergrundinformationen zur EVPN-VXLAN-Technologie und unterstützten Architekturen finden Sie unter EVPN-Primer.

Anforderungen

Im Originalbeispiel wurden die folgenden Hardware- und Softwarekomponenten verwendet:

  • Zwei QFX10002-Switches (Spine 1 und Spine 2), auf denen die Software Junos OS Version 15.1X53-D30 ausgeführt wird.

  • Vier QFX5100-Switches (Leaf 1 bis Leaf 4), auf denen die Software Junos OS Version 14.1X53-D30 ausgeführt wird.

    • Aktualisiert und erneut validiert mit Junos OS Version 20.4R1.

    • Eine Liste der unterstützten Plattformen finden Sie in der Hardwarezusammenfassung .

Übersicht

In diesem Beispiel benötigen physische Server, die drei Benutzergruppen (d. h. drei VLANs) unterstützen, folgende Konnektivität:

  1. Die Server A und C sollten in der Lage sein, auf Layer 2 (L2) zu kommunizieren. Diese Server müssen sich ein Subnetz und somit ein VLAN teilen.
  2. Die Server B und D müssen sich auf separaten VLANs befinden, um die Übertragung zu isolieren. Diese Server müssen in der Lage sein, auf Layer 3 (L3) zu kommunizieren.
  3. Die Server A und C sollten nicht mit den Servern B und D kommunizieren können.

Um diese Konnektivitätsanforderungen zu erfüllen, werden diese Protokolle und Technologien verwendet:

  • EVPN errichtet eine virtuelle L2-Brücke, um die Server A und C zu verbinden und die Server B und D in ihre jeweiligen VLANs zu stellen.

  • Innerhalb der EVPN-Topologie tauscht BGP Routeninformationen aus.

  • VXLAN tunnelt die L2-Frames durch die zugrunde liegende L3-Fabric. Die VXLAN-Einkapselung schützt die L3-Fabric für die Verwendung durch Routingprotokolle.

  • IRB-Schnittstellen routen IP-Pakete zwischen den VLANs.

Auch hier werden die IRB-Schnittstellen nur auf spine-Geräten für zentral geroutete Bridging (CRB) konfiguriert. In diesem Design fungieren die Spine-Geräte als L3-Gateways für die verschiedenen Server, VMs oder Container-Workloads, die mit den Zugriffsports auf den Leaf-Switches verbunden sind. Wenn die Workloads Daten innerhalb ihrer eigenen VLANs austauschen, überbrückt das Leaf den Datenverkehr. Der daraus resultierende VXLAN-eingekapselte Datenverkehr wird dann als Underlay (IP)-Datenverkehr über die Spines gesendet. Für intra-VLAN-Datenverkehr wird die VXLAN Virtual Tunnel End Point (VTEP)-Funktionalität des Spines nicht verwendet. Der intra-VLAN-Datenverkehr wird zwischen den VTEPs im Quell- und Ziel-Leaf gesendet.

Im Gegensatz dazu muss der Datenverkehr zwischen VLANs (und zwischen Fabrics) geroutet werden. Dieser Datenverkehr wird in VXLAN eingekapselt und vom Leaf zum Spine überbrückt. Die Leaves wissen, dass sie diesen Datenverkehr an den Spine senden, da die Quelle, die Routing benötigt, auf die Ziel-MAC-Adresse des Standard-Gateways des VLANs abzielt. Mit anderen Worten: Frames, die an die MAC-Adresse von IRB gesendet werden, werden an L2 an das Spine-Gerät weitergeleitet.

Im Spine wird die L2-Einkapselung entfernt, um eine L3-Routensuche in der mit VLAN/IRB verbundenen Routinginstanz zu ermöglichen. Bei Datenverkehr zwischen VLAN bestimmt der Spine das Ziel-VLAN und den entsprechenden VXLAN VNI aus seiner Routensuche. Der Spine verkapselt dann den Datenverkehr erneut und sendet ihn durch das Underlay an das Ziel-Leaf oder -Leaves.

Topologie

Die in Abbildung 1 dargestellte einfache IP-Clos-Topologie umfasst zwei Spine-Switches, vier Leaf-Switches und vier Server. Jeder Leaf-Switch hat zur Redundanz eine Verbindung zu jedem der Spine-Switches.

Die Servernetzwerke sind in 3 VLANS segmentiert, von denen jedes einem VXLAN Virtual Network Identifier (VNI) zugeordnet ist. VLAN v101 unterstützt die Server A und C sowie die V102- und v103-VLANs bzw. B- bzw. D-Server. Konfigurationsparameter finden Sie in Tabelle 1 .

Abbildung 1: EVPN-VXLAN-Topologie EVPN-VXLAN Topology
Abbildung 2: Logische EVPN-VXLAN-Topologie

Die logische Topologie zeigt die erwartete Konnektivität. In diesem Beispiel wird eine Routing-Instanz verwendet, um die Server A und C mit VLAN 101 zu verbinden, und eine Routing-Instanz wird verwendet, um die Server B und D mit den VLANs 102 und 103 zu verbinden. Die Server können standardmäßig nur mit anderen Servern kommunizieren, die sich in derselben Routinginstanz befinden.

Da die Server A und C dasselbe VLAN verwenden, kommunizieren die Server auf L2. Daher ist die IRB-Schnittstelle für die Kommunikation der Server A und C nicht erforderlich. Wir definieren eine IRB-Schnittstelle in der Routing-Instanz als Best Practice, um zukünftige L3-Konnektivität zu ermöglichen. Im Gegensatz dazu benötigen Server B und D L3-Konnektivität über ihre jeweiligen IRB-Schnittstellen, um zu kommunizieren, da diese Server in verschiedenen VLANs ausgeführt werden, die auf einzigartigen IP-Subnetzen ausgeführt werden.

EVPN-VXLAN Logical Topology

Tabelle 1 enthält wichtige Parameter, einschließlich der für jedes Netzwerk konfigurierten IRB-Schnittstellen. Eine IRB-Schnittstelle unterstützt jedes VLAN und leitet Datenpakete über das VLAN von den anderen VLANs.

Tabelle 1: Wichtige VLAN- und VXLAN-Parameter

Parameter

Server A und C

Server B und C

VLAN

v101

v102

 

V103

VXLAN VNI

101

102

 

103

VLAN-ID

101

102

 

103

IRB-Schnittstelle

IRB 101

IRB 102

 

IRB 103

Beachten Sie bei der Konfiguration der Parameter in Tabelle 1 Folgendes. Du musst:

  • Assoziieren Sie jedes VLAN mit einem einzigartigen IP-Subnetz und damit einer eindeutigen IRB-Schnittstelle.

  • Weisen Sie jedem VLAN einen eindeutigen VXLAN Network Identifier (VNI) zu.

  • Geben Sie jede IRB-Schnittstelle als Teil einer virtuellen L3-Routing-Weiterleitungsinstanz (VRF) an, oder Sie können die Schnittstellen in der Standard-Switch-Instanz zusammenfassen. In diesem Beispiel werden VRF-Instanzen verwendet, um die Trennung zwischen der Benutzer-Community (VLANs) durchzusetzen.

  • Fügen Sie in die Konfiguration jeder IRB-Schnittstelle eine Standard-Gateway-Adresse ein, die Sie mit der virtual-gateway-address Konfigurationsanweisung auf der [interfaces irb unit logical-unit-number family inet address ip-address] Hierarchieebene angeben. Durch die Konfiguration eines virtuellen Gateways wird für jede IRB-Schnittstelle ein redundantes Standard-Gateway eingerichtet.

Spine 1: Underlay-Netzwerkkonfiguration

CLI-Schnellkonfiguration

Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie sie in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für die Konfiguration erforderlich sind, kopieren Sie die Befehle, und fügen Sie sie auf der [edit] Hierarchieebene in die CLI ein und geben Sie dann aus dem Konfigurationsmodus ein commit .

Spine 1: Konfiguration des Underlay-Netzwerks

Schritt-für-Schritt-Verfahren

So konfigurieren Sie das Underlay-Netzwerk auf Spine 1:

  1. Konfigurieren Sie die L3-Fabric-Schnittstellen.

  2. Geben Sie eine IP-Adresse für die Loopback-Schnittstelle an. Diese IP-Adresse dient als Quell-IP-Adresse im äußeren Header von VXLAN-eingekapselten Paketen.

  3. Konfigurieren Sie die Routing-Optionen. Die Konfiguration enthält einen Verweis auf eine Lastausgleichsrichtlinie, um die Verwendung von ECMP-Routing (Equal Cost Multiple Path) durch das Underlay zu ermöglichen.

  4. Konfigurieren Sie eine BGP-Gruppe für das externe BGP (EBGP)-basierte Underlay. Beachten Sie, dass Multipath in der BGP-Konfiguration enthalten ist, um die Verwendung mehrerer Pfade zu gleichen Kosten zu ermöglichen. Normalerweise verwendet BGP einen Tie-Breaking-Algorithmus, der den einzigen besten Pfad auswählt.

  5. Konfigurieren Sie die Lastausgleichsrichtlinie pro Paket.

  6. Konfigurieren Sie eine Richtlinie, um direkte Schnittstellenrouten in das Underlay anzuzeigen. Sie müssen mindestens die Loopback-Schnittstellenrouten (lo0) in das Underlay anzeigen.

Spine 1: Overlay-Netzwerkkonfiguration

CLI-Schnellkonfiguration

Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie die Konfiguration in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für die Konfiguration erforderlich sind, kopieren Sie die Befehle und fügen Sie sie auf der [edit] Hierarchieebene in die CLI ein und geben Sie dann aus dem Konfigurationsmodus ein commit .

Konfigurieren des Overlay-Netzwerks auf Spine 1

Schritt-für-Schritt-Verfahren

So konfigurieren Sie das Overlay-Netzwerk auf Spine 1:

  1. Konfigurieren Sie ein internes BGP (IBGP)-basiertes EVPN-VXLAN-Overlay. Beachten Sie, dass die EVPN-Adressfamilie so konfiguriert ist, dass sie die Anzeige von EVPN-Routen unterstützt. In diesem Fall definieren wir ein Overlay-Peering zu Spine 2 für Spine-to-Spine-Konnektivität. Wie beim Underlay haben wir auch BGP-Multipath im Overlay aktiviert.

    Hinweis:

    Einige IP-Fabrics verwenden ein EBGP-basiertes EVPN-VXLAN-Overlay. Ein Beispiel für eine IP-Fabric, die EBGP sowohl für das Underlay als auch für das Overlay verwendet, finden Sie unter Beispiel: Konfigurieren eines EVPN-VXLAN Edge-Routingd Bridging Fabric mit einem Anycast-Gateway. Beachten Sie, dass sich die Wahl von EBGP oder IBGP für das Overlay nicht negativ auf die Fabric-Architektur auswirkt. Sowohl zentral geroutete Bridging (CRB) als auch Edge-Routingd Bridging (ERB)-Designs unterstützen einen der beiden Overlay-Typen.

  2. Konfigurieren Sie die VXLAN-Einkapselung für die zwischen Layer 2 (L2) ausgetauschten VXLAN-VTEPS-Frames.

  3. Geben Sie an, wie Multicast-Datenverkehr in der Fabric repliziert wird.

  4. Konfigurieren Sie standardmäßige Routing-Instanzenoptionen (virtueller Switch-Typ).

Spine 1: Zugriffsprofilkonfiguration

CLI-Schnellkonfiguration

Das Zugriffsprofil bzw. die Access Port-Konfiguration umfasst die Einstellungen, die zum Anhängen von Server-Workloads, BMSs oder VMs an die Access-Switches (Leaf) erforderlich sind. Dieser Schritt beinhaltet die Definition des VLAN des Geräts zusammen mit der Routing-Instanz und der IRB-Konfiguration, die eine Benutzerisolierung und layer 3 (L3)-Routing bieten.

Da dies ein Beispiel für eine zentral geroutete Bridging-Fabric (CRB) ist, werden die Routing-Instanzen und die integrierten Routing- und Bridging-Schnittstellen (IRB) nur auf den Spine-Geräten definiert. Die Leaf-Geräte in einer CRB-Fabric verfügen nur über Layer 2 (L2)-VXLAN-Funktionen.

Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie die Befehle in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für die Konfiguration erforderlich sind, kopieren Sie die Befehle und fügen Sie sie auf der [edit] Hierarchieebene in die CLI ein und geben Sie dann aus dem Konfigurationsmodus ein commit .

Hinweis:

Wenn Proxy MacIP-Advertisement aktiviert ist, gibt das L3-Gateway im Auftrag von L2-VXLAN-Gateways in EVPN-VXLAN-Netzwerken MAC- und IP-Routen (MAC+IP Typ 2-Routen) an. Dieses Verhalten wird auf EVPN-MPLS nicht unterstützt. Ab Junos OS Version 20.2R2 wird die folgende Warnmeldung angezeigt, wenn Sie Proxy MacIP-Advertisement aktivieren:

WARNUNG: Nur EVPN VXLAN unterstützt proxy-macip-advertisement-Konfiguration,

Die Meldung wird angezeigt, wenn Sie Ihre Konfiguration ändern, Ihre Konfiguration speichern oder den Show-Befehl verwenden, um Ihre Konfiguration anzuzeigen.

Konfigurieren der Zugriffsprofile für Spine 1

Schritt-für-Schritt-Verfahren

So konfigurieren Sie Profile für Servernetzwerke:

  1. Konfigurieren Sie die IRB-Schnittstellen, die Routing zwischen VLANs 101, 102 und 103 unterstützen.

  2. Geben Sie an, welche virtuellen Netzwerkkennungen (VNIs) in der EVPN-VXLAN-Domäne enthalten sind.

  3. Konfigurieren Sie für jeden VNI ein Routenziel.

    Hinweis:

    In der ursprünglichen Konfiguration führen die Spine-Geräte Junos OS Version 15.1X53-D30 aus, und die Leaf-Geräte führen 14.1X53-D30 aus. Wenn Sie die Konfigurationsanweisung in [edit protocols evpn vni-options vni] die vrf-target Hierarchieebene einbeziehen, müssen Sie in diesen Softwareversionen auch die export Option enthalten. Beachten Sie, dass für spätere Junos OS-Versionen diese Option nicht erforderlich ist. Die Konfigurationen in diesem aktualisierten Beispiel verlassen daher die export Option.

  4. Konfigurieren Sie die Routing-Instanz für die Server A und C.

  5. Konfigurieren Sie die Routing-Instanz für die Server B und D.

  6. Konfigurieren Sie VLANs v101, v102 und v103 und verknüpfen Sie die entsprechenden VNIs und IRB-Schnittstellen mit jedem VLAN.

Spine 2: Vollständige Konfiguration

CLI-Schnellkonfiguration

Die Spine 2-Konfiguration ähnelt der von Spine 1, daher bieten wir die vollständige Konfiguration anstelle einer Schritt-für-Schritt-Konfiguration an. Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie die Befehle in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für die Konfiguration erforderlich sind, kopieren Sie die Befehle und fügen Sie sie auf der [edit] Hierarchieebene in die CLI ein und geben Sie dann aus dem Konfigurationsmodus ein commit .

Leaf 1: Underlay-Netzwerkkonfiguration

CLI-Schnellkonfiguration

Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie die Befehle in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für die Konfiguration erforderlich sind, kopieren Sie die Befehle und fügen Sie sie auf der [edit] Hierarchieebene in die CLI ein und geben Sie dann aus dem Konfigurationsmodus ein commit .

Konfigurieren des Underlay-Netzwerks für Leaf 1

Schritt-für-Schritt-Verfahren

So konfigurieren Sie das Underlay-Netzwerk für Leaf 1:

  1. Konfigurieren Sie die Layer-3-Schnittstellen (L3).

  2. Geben Sie eine IP-Adresse für die Loopback-Schnittstelle an. Diese IP-Adresse dient als Quell-IP-Adresse im äußeren Header aller VXLAN-eingekapselten Pakete.

  3. Legen Sie die Routing-Optionen fest.

  4. Konfigurieren Sie eine externe BGP-Gruppe (EBGP), die die Spines als Peers für das Underlay-Routing einschließt.

  5. Konfigurieren Sie eine Richtlinie, die den Datenverkehr über mehrere Pfade zwischen den Switches von Juniper Networks verteilt.

  6. Konfigurieren Sie eine Richtlinie, um direkte Schnittstellenrouten zu werben. Das Underlay muss mindestens über die vollständige Erreichbarkeit der Loopback-Adressen des Geräts verfügen.

Leaf 1: Overlay-Netzwerkkonfiguration

CLI-Schnellkonfiguration

Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie die Befehle in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für die Konfiguration erforderlich sind, kopieren Und fügen Sie die Befehle auf Hierarchieebene in die [edit] CLI ein und geben Sie dann aus dem Konfigurationsmodus ein commit .

Konfigurieren des Overlay-Netzwerks für Leaf 1

Schritt-für-Schritt-Verfahren

So konfigurieren Sie das Overlay-Netzwerk für Leaf 1:

  1. Konfigurieren Sie eine interne BGP(IBGP)-Gruppe für das EVPN-VXLAN-Overlay-Netzwerk.

  2. Konfigurieren Sie die VXLAN-Einkapselung für die Datenpakete, die zwischen den EVPN-Nachbarn ausgetauscht werden.

  3. Geben Sie an, wie Multicast-Datenverkehr in der EVPN-VXLAN-Umgebung repliziert wird.

  4. Konfigurieren Sie die Standardoptionen für Routing-Instanzen (virtueller Switch-Typ).

Leaf 1: Zugriffsprofilkonfiguration

CLI-Schnellkonfiguration

Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie die Befehle in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für die Konfiguration erforderlich sind, kopieren Sie die Befehle und fügen Sie sie auf der [edit] Hierarchieebene in die CLI ein und geben Sie dann aus dem Konfigurationsmodus ein commit .

Konfigurieren des Zugriffsprofils für Leaf 1

Schritt-für-Schritt-Verfahren

So konfigurieren Sie das Profil für das Servernetzwerk:

  1. Konfigurieren Sie eine Layer 2(L2)-Ethernet-Schnittstelle für die Verbindung mit dem physischen Server. Diese Schnittstelle ist mit VLAN 101 verknüpft. In diesem Beispiel wird die Zugriffsschnittstelle als Trunk konfiguriert, um VLAN-Tagging zu unterstützen. Untagged Access-Schnittstellen werden ebenfalls unterstützt.

  2. Konfigurieren Sie ein Routenziel für den virtual Network Identifier (VNI).

    Hinweis:

    In der ursprünglichen Konfiguration führen die Spine-Geräte Junos OS Version 15.1X53-D30 aus, und die Leaf-Geräte führen 14.1X53-D30 aus. Wenn Sie die Konfigurationsanweisung in [edit protocols evpn vni-options vni] die vrf-target Hierarchieebene einbeziehen, müssen Sie in diesen Softwareversionen auch die export Option enthalten. Beachten Sie, dass für spätere Junos OS-Versionen diese Option nicht erforderlich ist, wie in den in diesem Beispiel verwendeten aktualisierten Konfigurationen widergespiegelt.

  3. Geben Sie an, welche VNIs in der EVPN-VXLAN-Domäne enthalten sind.

  4. Konfigurieren Sie VLAN v101. Das VLAN wird demselben VXLAN VNI zugeordnet, das Sie auf den Spine-Geräten konfiguriert haben. Beachten Sie, dass die integrierte Routing- und Bridging-Schnittstelle (L3) für Layer 3 (L3) (IRB) nicht auf den Leaf-Geräten angegeben ist. Dies liegt daran, dass die Leaves bei zentral gerouteten Bridging (CRB) nur L2-Bridging ausführen.

Leaf 2: Vollständige Konfiguration

CLI-Schnellkonfiguration

Die Leaf 2-Konfiguration ähnelt der von Leaf 1, daher bieten wir die vollständige Konfiguration anstelle einer Schritt-für-Schritt-Konfiguration an. Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie die Befehle in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für die Konfiguration erforderlich sind, kopieren Und fügen Sie die Befehle auf Hierarchieebene in die [edit] CLI ein und geben Sie dann aus dem Konfigurationsmodus ein commit .

Leaf 3: Vollständige Konfiguration

CLI-Schnellkonfiguration

Die Leaf 3-Konfiguration ähnelt der von Leaf 1, daher bieten wir die vollständige Konfiguration anstelle einer Schritt-für-Schritt-Konfiguration an. Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie die Befehle in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für die Konfiguration erforderlich sind, kopieren Und fügen Sie die Befehle auf Hierarchieebene in die [edit] CLI ein und geben Sie dann aus dem Konfigurationsmodus ein commit .

Leaf 4: Vollständige Konfiguration

CLI-Schnellkonfiguration

Die Leaf 4-Konfiguration ähnelt der von Leaf 1, daher bieten wir die vollständige Konfiguration anstelle von Schritt-für-Schritt-Konfiguration an. Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie die Befehle in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für die Konfiguration erforderlich sind, kopieren Und fügen Sie die Befehle auf Hierarchieebene in die [edit] CLI ein und geben Sie dann aus dem Konfigurationsmodus ein commit .

Überprüfung

Bestätigen Sie, dass die integrierten Routing- und Bridging-Schnittstellen (IRB) ordnungsgemäß funktionieren:

Überprüfen der IRB-Schnittstellen

Zweck

Überprüfen Sie die Konfiguration der IRB-Schnittstellen auf Spine 1 und Spine 2.

Aktion

Geben Sie im Betriebsmodus den show interfaces irb Befehl ein.

Bedeutung

Die Beispielausgabe von Spine 1 überprüft Folgendes:

  • Die IRB-Schnittstellen irb.101, irb.102 und irb.103 sind konfiguriert.

  • Die physische Schnittstelle, auf der die IRB-Schnittstellen konfiguriert sind, wird in Betrieb genommen.

  • Jede IRB-Schnittstelle ist dem jeweiligen VLAN korrekt zugeordnet.

  • Die Konfiguration jeder IRB-Schnittstelle gibt die ihr zugewiesene IP-Adresse und das Ziel (virtuelle Gateway-Adresse) korrekt an.

Überprüfen der Routing-Instanzen

Zweck

Überprüfen Sie, ob die Routinginstanzen für die Server A und B sowie für die Server C und D auf Spine 1 und Spine 2 ordnungsgemäß konfiguriert sind.

Aktion

Geben Sie im Betriebsmodus die show route instance routing-instance-name extensive Command Routing-Instanzen serverAC und serverBD ein.

Bedeutung

In der Beispielausgabe von Spine 1 zeigen die Routing-Instanzen für die Server A und C sowie für die Server B und D die Loopback-Schnittstelle und IRB-Schnittstellen, die jeder Gruppe zugeordnet sind. Die Ausgabe zeigt auch den tatsächlichen Routenunterscheider, den virtuellen Routing- und Weiterleitungsimport (VRF) und die VRF-Exportrichtlinienkonfiguration.

Überprüfung des Lernens dynamischer MAC-Adressen

Zweck

Vergewissern Sie sich, dass für VLANs v101, v102 und v103 auf allen Leaves eine dynamische MAC-Adresse in den Ethernet-Switching-Tabellen installiert ist.

Aktion

Geben Sie im Betriebsmodus den show ethernet-switching table Befehl ein.

Bedeutung

Die Beispielausgabe von Leaf 1 gibt an, dass die MAC-Adresse 00:00:5e:00:01:01 für sein virtuelles Gateway (IRB) erkannt wurde. Dies ist die MAC-Adresse, die die angeschlossenen Server verwenden, um ihr Standard-Gateway zu erreichen. Da auf beiden Spines dieselbe virtuelle IP/MAC konfiguriert ist, wird die virtuelle IP als ESI-LAG behandelt, um eine aktive Weiterleitung an beide Spines zu unterstützen, ohne das Risiko von Paketschleifen zu riskieren. Die Ausgabe zeigt auch an, dass Leaf 1 die IRB MAC-Adressen für Spine 1 und Spine 2 gelernt hat, die als virtuelle Tunnelendpunkte (VTEPs) fungieren.

Überprüfen von Routen in den Routing-Instanzen

Zweck

Vergewissern Sie sich, dass sich die richtigen Routen in den Routing-Instanzen befinden.

Aktion

Geben Sie im Betriebsmodus den show route table routing-instance-name.inet.0 Befehl ein.

Bedeutung

Die Beispielausgabe von Spine 1 gibt an, dass die Routing-Instanz für die Server A und C über die mit VLAN 101 verbundenen IRB-Schnittstellenrouten verfügt und dass die Routing-Instanz für Server B und D über die mit VLANs 102 und 103 verbundenen IRB-Schnittstellenrouten verfügt.

Anhand der Routen in jeder Tabelle ist klar, dass die Server A und C in VLAN 101 server in C und D in VLANs 102 oder 103 nicht erreichen können. Die Ausgabe zeigt auch, dass die gemeinsame Tabelle, die Routen für die Server B und D enthält, die Layer-3-Kommunikation über ihre IRB-Schnittstellen ermöglicht.

Konnektivität überprüfen

Zweck

Überprüfen Sie, ob die Server A und C einander anpingen können und die Server B und D sich gegenseitig anpingen können.

Aktion

Führen Sie den Ping-Befehl von den Servern aus.

Bedeutung

Die Beispielausgabe zeigt, dass Server A server C pingen kann und Server B Server pingen kann D. Server A und C sollten nicht in der Lage sein, die Server B und D anzupingen, und die Server B und D sollten nicht in der Lage sein, die Server A und C anzupingen.

Spine 1 und 2: Route Leaking (optional)

In Bezug auf Abbildung 2 erinnern Sie sich daran, dass Sie drei VLANs und zwei Routing-Instanzen konfiguriert haben, um Konnektivität für die Server A und C in VLAN 101 und für die Server B und D in VLANs 102 bzw. 103 bereitzustellen. In diesem Abschnitt ändern Sie die Konfiguration, um Routen zwischen den beiden Routing-Instanzen zu lecken. Abbildung 3 zeigt die resultierende logische Konnektivität, nachdem die integrierten Routing- und Bridging -Routen (IRB) übertragen wurden.

Abbildung 3: Logische EVPN-VXLAN-Topologie mit Routenlecks EVPN-VXLAN Logical Topology with Route Leaking

Mit änderungen der Routing Information Base (RIB)-Gruppe können Sie erwarten, dass die Server in VLAN 101 mithilfe von Layer 3-Konnektivität die Server in den VLANs 102 und 103 erreichen.

CLI-Schnellkonfiguration

In diesem Stadium haben Sie eine CRB-basierte EVPN-Fabric implementiert und die erwartete Konnektivität bestätigt. Das heißt, die Server A und C können auf Layer 2 kommunizieren. Die Server B und D (auf VLANs 102 bzw. 103) kommunizieren über IRB-Routing in ihrer gemeinsamen Routinginstanz. Was wäre, wenn alle Server sich gegenseitig pingen können? Eine Option zur Lösung dieses Problems ist das Leck der Routen zwischen den Routing-Instanzen. Weitere Informationen zu Leckagen von Routen zwischen virtuellen Routing- und Weiterleitungsinstanzen (VRF) finden Sie unter auto-export . Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie die Befehle in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für die Konfiguration erforderlich sind, kopieren Und fügen Sie die Befehle auf Hierarchieebene in die [edit] CLI ein und geben Sie dann aus dem Konfigurationsmodus ein commit .

Verifizierung mit Routenlecks (optional)

Überprüfen von Routen mit Routenlecks (optional)

Zweck

Vergewissern Sie sich, dass sich die richtigen Routen in den Routing-Instanzen befinden.

Aktion

Geben Sie im Betriebsmodus den show route table routing-instance-name.inet.0 Befehl ein.

Bedeutung

Die Beispielausgabe von Spine 1 zeigt an, dass beide Routing-Instanzen nun über die integrierten Routing- und Bridging-Schnittstellenrouten (IRB) verfügen, die mit allen drei VLANs verknüpft sind. Da Sie Routen zwischen den Instanztabellen kopiert haben, ist das Ergebnis das gleiche, als ob Sie alle drei VLANs in einer gemeinsamen Routinginstanz konfiguriert hätten. So können Sie eine vollständige Layer 3-Konnektivität zwischen Servern in allen drei VLANs erwarten.

Überprüfen der Konnektivität mit Routenlecks (optional)

Zweck

Überprüfen Sie, ob die Server A und C die Server B und D pingen können.

Aktion

Führen Sie den Ping-Befehl von den Servern aus.

Bedeutung

Die Beispielausgabe zeigt, dass Server A Server B und Server D pingen kann. Es zeigt auch, dass Server C Server B und Server D pingen kann. Dies bestätigt die erwartete vollständige Konnektivität zwischen den Servern und ihren VLANs.

Versionsverlaufstabelle
Release
Beschreibung
15,1X53-D30
Ab Junos OS Version 15.1X53-D30 können Sie integrierte Routing- und Bridging-Schnittstellen (IRB) verwenden, um mithilfe der VXLAN-Einkapselung (Virtual Extensible LAN) zwischen VLANs zu routen.