Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Beispiel: Konfigurieren einer zentral gerouteten EVPN-VXLAN-Bridging-Fabric

Moderne Datencenter basieren auf einer IP-Fabric. Eine IP-Fabric verwendet BGP-basierte Ethernet VPN (EVPN)-Signale in der Steuerungsebene und Virtual Extensible LAN (VXLAN)-Kapselung in der Datenebene. Diese Technologie bietet eine standardbasierte, leistungsstarke Lösung für Layer 2 (L2)-Bridging innerhalb eines VLANs und für das Routing zwischen VLANs.

In den meisten Fällen besteht eine Eins-zu-Eins-Beziehung zwischen einem Benutzer-VLAN und einem VXLAN Network Identifier (VNI). Daher werden die Abkürzungen VLAN und VXLAN oft synonym verwendet. Standardmäßig entfernt die VXLAN-Kapselung alle eingehenden VLAN-Tags, wenn sie von einem Zugriffsport empfangen werden. Der Rest des Ethernet-Frames ist für den Transport über die Fabric in VXLAN gekapselt. Am Ausgangspunkt wird die VXLAN-Kapselung entfernt und das VLAN-Tag (falls vorhanden) wieder eingefügt, bevor der Frame an das angeschlossene Gerät gesendet wird.

Dies ist ein Beispiel für eine EVPN-VXLAN-IP-Fabric, die auf einer zentral gerouteten Bridging-Architektur (CRB) basiert. Integrierte Routing- und Bridging-Schnittstellen (IRB) bieten Layer-3-Konnektivität (L3) für Server und VMs, die zu verschiedenen VLANs und Netzwerken gehören. Diese IRB-Schnittstellen dienen als Standard-Gateway für den Datenverkehr zwischen VLANs innerhalb einer Fabric. Sie dienen auch als Ziele, die von der Fabric entfernt sind, wie z. B. im Fall von Data Center Interconnect (DCI). In einem CRB-Design definieren Sie die IRB-Schnittstellen nur auf den Spine-Geräten. Ein solches Design wird daher als zentral geroutet bezeichnet, da das gesamte Routing auf den Spines erfolgt.

Ein Beispiel für ein ERB-Design (Edge-Routed Bridging) finden Sie unter Beispiel: Konfigurieren einer EVPN-VXLAN-Edge-Routed-Bridging-Fabric mit einem Anycast-Gateway

Hintergrundinformationen zur EVPN-VXLAN-Technologie und den unterstützten Architekturen finden Sie unter EVPN-Einführung.

Anforderungen

Im ursprünglichen Beispiel wurden die folgenden Hardware- und Softwarekomponenten verwendet:

  • Zwei QFX10002 Switches (Spine 1 und Spine 2), auf denen die Software Junos OS Version 15.1X53-D30 ausgeführt wird.

  • Vier QFX5100-Switches (Leaf 1 bis Leaf 4) mit der Software Junos OS Version 14.1X53-D30.

    • Aktualisiert und erneut validiert mit Junos OS Version 20.4R1.

    • Eine Liste der unterstützten Plattformen finden Sie in der Hardwarezusammenfassung .

Übersicht

In diesem Beispiel benötigen physische Server, die drei Benutzergruppen (d. h. drei VLANs) unterstützen, die folgende Konnektivität:

  1. Server A und C sollten in der Lage sein, auf L2 zu kommunizieren. Diese Server müssen sich ein Subnetz und damit ein VLAN teilen.
  2. Server B und D müssen sich in separaten VLANs befinden, um die Übertragung zu isolieren. Diese Server müssen in der Lage sein, bei L3 zu kommunizieren.
  3. Server A und C sollten nicht in der Lage sein, mit den Servern B und D zu kommunizieren.

Um diese Konnektivitätsanforderungen zu erfüllen, werden die folgenden Protokolle und Technologien verwendet:

  • EVPN richtet eine virtuelle L2-Bridge ein, um die Server A und C zu verbinden, und platziert die Server B und D in ihren jeweiligen VLANs.

  • Innerhalb der EVPN-Topologie tauscht BGP Routeninformationen aus.

  • VXLAN tunnelt die L2-Frames durch die zugrunde liegende L3-Fabric. Durch die Verwendung der VXLAN-Kapselung bleibt die L3-Fabric für die Verwendung durch Routing-Protokolle erhalten.

  • IRB-Schnittstellen leiten IP-Pakete zwischen den VLANs weiter.

Auch hier werden die IRB-Schnittstellen nur auf den Spine-Geräten für Central Routing Bridging (CRB) konfiguriert. In diesem Design fungieren die Spine-Geräte als L3-Gateways für die verschiedenen Server, VMs oder containerisierten Workloads, die mit den Zugriffsports auf den Leaf-Switches verbunden sind. Wenn die Workloads Daten innerhalb ihrer eigenen VLANs austauschen, überbrückt das Leaf den Datenverkehr. Der resultierende VXLAN-gekapselte Datenverkehr wird dann als Underlay-Datenverkehr (IP) über die Spines gesendet. Für den VLAN-internen Datenverkehr wird die VXLAN Virtual Tunnel Endpoint (VTEP)-Funktionalität des Spines nicht verwendet. VLAN-interner Datenverkehr wird zwischen den VTEPs im Quell- und Ziel-Leaf gesendet.

Im Gegensatz dazu muss der Datenverkehr zwischen VLANs (und zwischen Fabrics) geroutet werden. Dieser Datenverkehr wird in VXLAN gekapselt und vom Leaf zur Wirbelsäule überbrückt. Die Leaves wissen, dass sie diesen Datenverkehr an die Spine senden müssen, da die Quelle, die Routing benötigt, auf die MAC-Zieladresse des Standard-Gateways des VLAN abzielt. Mit anderen Worten: Frames, die an die MAC-Adresse des IRB gesendet werden, werden bei L2 an das Spine-Gerät weitergeleitet.

Auf der Spine wird die L2-Kapselung entfernt, um eine L3-Routensuche in der Routing-Instanz zu ermöglichen, die dem VLAN/IRB zugeordnet ist. Bei Inter-VLAN-Datenverkehr ermittelt das Spine das Ziel-VLAN und den entsprechenden VXLAN-VNI aus seiner Routensuche. Die Wirbelsäule kapselt dann den Datenverkehr wieder ein und sendet ihn durch die Unterlage an das Zielblatt oder die Zielblätter.

Topologie

Die einfache IP-Clos-Topologie in Abbildung 1 umfasst zwei Spine-Switches, vier Leaf-Switches und vier Server. Jeder Leaf-Switch verfügt über eine Verbindung zu jedem der Spine-Switches für Redundanz.

Die Servernetzwerke sind in 3 VLANS unterteilt, von denen jedes einem VXLAN Virtual Network Identifier (VNI) zugeordnet ist. VLAN v101 unterstützt die Server A und C, und die VLANs v102 und v103 unterstützen die Server B bzw. D. Konfigurationsparameter finden Sie in Tabelle 1 .

Abbildung 1: EVPN-VXLAN-Topologie EVPN-VXLAN Topology
Abbildung 2: Logische Topologie EVPN-VXLAN

Die logische Topologie zeigt die erwartete Konnektivität an. In diesem Beispiel wird eine Routing-Instanz verwendet, um die Server A und C über VLAN 101 zu verbinden, und eine Routing-Instanz wird verwendet, um die Server B und D über die VLANs 102 und 103 zu verbinden. Die Server können standardmäßig nur mit anderen Servern kommunizieren, die sich in derselben Routinginstanz befinden.

Da Server A und C dasselbe VLAN verwenden, kommunizieren die Server über L2. Daher wird die IRB-Schnittstelle für die Kommunikation zwischen Server A und C nicht benötigt. Wir definieren eine IRB-Schnittstelle in der Routing-Instanz als Best Practice, um zukünftige L3-Konnektivität zu ermöglichen. Im Gegensatz dazu benötigen Server B und D für die Kommunikation L3-Konnektivität über ihre jeweiligen IRB-Schnittstellen, da sich diese Server in unterschiedlichen VLANs befinden, die in eindeutigen IP-Subnetzen ausgeführt werden.

EVPN-VXLAN Logical Topology

Tabelle 1 enthält die wichtigsten Parameter, einschließlich der IRB-Schnittstellen, die für jedes Netzwerk konfiguriert sind. Eine IRB-Schnittstelle unterstützt jedes VLAN und leitet Datenpakete von den anderen VLANs über das VLAN.

Tabelle 1: Wichtige VLAN- und VXLAN-Parameter

Parameter

Server A und C

Server B und C

VLAN

v101

v102

 

v103

VXLAN-VNI

101

102

 

103

VLAN-ID

101

102

 

103

IRB-Schnittstelle

IRB.101

IRB.102

 

IRB.103

Beachten Sie Folgendes, wenn Sie die Parameter in Tabelle 1 konfigurieren. Du musst:

  • Ordnen Sie jedem VLAN ein eindeutiges IP-Subnetz und damit eine eindeutige IRB-Schnittstelle zu.

  • Weisen Sie jedem VLAN einen eindeutigen VXLAN Network Identifier (VNI) zu.

  • Geben Sie jede IRB-Schnittstelle als Teil einer L3-VRF-Instanz (Virtual Routing Forwarding) an, oder Sie können die Schnittstellen in der Standard-Switch-Instanz zusammenfassen. In diesem Beispiel werden VRF-Instanzen verwendet, um eine Trennung zwischen der Benutzer-Community (VLANs) zu erzwingen.

  • Fügen Sie in die Konfiguration jeder IRB-Schnittstelle eine Standard-Gateway-Adresse ein, die Sie mit der virtual-gateway-address Konfigurationsanweisung auf Hierarchieebene [interfaces irb unit logical-unit-number family inet address ip-address] angeben. Durch die Konfiguration eines virtuellen Gateways wird ein redundantes Standard-Gateway für jede IRB-Schnittstelle eingerichtet.

Spine 1: Underlay-Netzwerkkonfiguration

CLI-Schnellkonfiguration

Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie sie in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für Ihre Konfiguration erforderlich sind, kopieren Sie die Befehle und fügen Sie sie in die CLI auf der Hierarchieebene [edit] ein, und geben Sie sie dann aus dem Konfigurationsmodus ein commit .

Spine 1: Konfigurieren des Underlay-Netzwerks

Schritt-für-Schritt-Anleitung

So konfigurieren Sie das Underlay-Netzwerk auf Spine 1:

  1. Konfigurieren Sie die L3-Fabric-Schnittstellen.

  2. Geben Sie eine IP-Adresse für die Loopback-Schnittstelle an. Diese IP-Adresse dient als Quell-IP-Adresse im äußeren Header von VXLAN-gekapselten Paketen.

  3. Konfigurieren Sie die Routing-Optionen. Die Konfiguration enthält einen Verweis auf eine Lastausgleichsrichtlinie, um die Verwendung von ECMP-Routing (Equal Cost Multiple Path) durch das Underlay zu ermöglichen.

  4. Konfigurieren Sie eine BGP-Gruppe für das externe BGP (EBGP)-basierte Underlay. Beachten Sie, dass Multipath in der BGP-Konfiguration enthalten ist, um die Verwendung mehrerer Pfade mit gleichen Kosten zu ermöglichen. Normalerweise verwendet BGP einen Tie-Break-Algorithmus, der den besten Pfad auswählt.

  5. Konfigurieren Sie die Load-Balancing-Richtlinie pro Paket.

  6. Konfigurieren Sie eine Richtlinie, um direkte Schnittstellenrouten in das Underlay anzukündigen. Sie müssen mindestens die Routen der Loopback-Schnittstelle (lo0) im Underlay ankündigen.

Spine 1: Konfiguration des Overlay-Netzwerks

CLI-Schnellkonfiguration

Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie die Konfiguration in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für Ihre Konfiguration erforderlich sind, kopieren Sie die Befehle und fügen Sie sie in die CLI auf der Hierarchieebene [edit] ein, und geben Sie sie dann aus dem Konfigurationsmodus ein commit .

Konfigurieren des Overlay-Netzwerks auf Spine 1

Schritt-für-Schritt-Anleitung

So konfigurieren Sie das Overlay-Netzwerk auf Spine 1:

  1. Konfigurieren Sie ein internes BGP (IBGP)-basiertes EVPN-VXLAN-Overlay. Beachten Sie, dass die EVPN-Adressfamilie so konfiguriert ist, dass sie die Ankündigung von EVPN-Routen unterstützt. In diesem Fall definieren wir ein Overlay-Peering zu Spine 2 für Spine-to-Spine-Konnektivität. Wie beim Underlay haben wir auch im Overlay BGP-Multipath aktiviert.

    Hinweis:

    Einige IP-Fabrics verwenden ein EBGP-basiertes EVPN-VXLAN-Overlay. Ein Beispiel für eine IP-Fabric, die EBGP sowohl für das Underlay als auch für das Overlay verwendet, finden Sie unter Beispiel: Konfigurieren einer EVPN-VXLAN-Bridging-Fabric mit Edge-Routing und einem Anycast-Gateway. Beachten Sie, dass sich die Wahl von EBGP oder IBGP für das Overlay nicht negativ auf die Fabric-Architektur auswirkt. Sowohl das zentral geroutete Bridging (CRB) als auch das kantengeroutete Bridging (ERB) unterstützen beide Overlay-Typen.

  2. Konfigurieren Sie die VXLAN-Kapselung für die L2-Frames, die zwischen den L2-VXLAN-VTEPs ausgetauscht werden.

  3. Konfigurieren Sie die Standard-Gateway-Option no-gateway-community für EVPN-Protokolle.

    Hinweis:

    Wenn eine virtuelle Gateway-Adresse verwendet wird, wird auf beiden Spines eine VRRP-basierte MAC "00:00:5e:00:01:01" verwendet, so dass keine MAC-Synchronisierung erforderlich ist. Weitere Informationen finden Sie unter Standard-Gateway .

  4. Geben Sie an, wie Multicast-Datenverkehr in der Fabric repliziert wird.

  5. Konfigurieren Sie die Standardoptionen für Routing-Instanzen (virtueller Switch-Typ).

Spine 1: Konfiguration des Zugriffsprofils

CLI-Schnellkonfiguration

Das Zugriffsprofil oder die Zugriffsportkonfiguration umfasst die Einstellungen, die erforderlich sind, um Server-Workloads, BMS oder VMs an die Zugriffs-Switches (Leaf-Switches) anzuhängen. Dieser Schritt umfasst die Definition des VLANs des Geräts zusammen mit der Routing-Instanz und der IRB-Konfiguration, die die Benutzerisolierung bzw. das L3-Routing bereitstellen.

Da es sich hierbei um ein Beispiel für eine zentral geroutete Bridging-Fabric (CRB) handelt, werden die Routing-Instanzen und die integrierten Routing- und Bridging-Schnittstellen (IRB) nur auf den Spine-Geräten definiert. Die Leaf-Geräte in einer CRB-Fabric verfügen nur über L2-VXLAN-Funktionalität.

Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie die Befehle in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für Ihre Konfiguration erforderlich sind, kopieren Sie die Befehle und fügen Sie sie in die CLI auf der Hierarchieebene [edit] ein, und geben Sie sie dann aus dem Konfigurationsmodus ein commit .

Hinweis:

Wenn proxy-macip-advertisement aktiviert ist, kündigt das L3-Gateway MAC- und IP-Routen (MAC+IP-Typ-2-Routen) im Namen von L2-VXLAN-Gateways in EVPN-VXLAN-Netzwerken an. Dieses Verhalten wird von EVPN-MPLS nicht unterstützt. Ab Junos OS Version 20.2R2 wird die folgende Warnmeldung angezeigt, wenn Sie proxy-macip-advertisement aktivieren:

WARNUNG: Nur EVPN VXLAN unterstützt die Konfiguration proxy-macip-advertisement.

Die Meldung wird angezeigt, wenn Sie Ihre Konfiguration ändern, Ihre Konfiguration speichern oder den Befehl show verwenden, um Ihre Konfiguration anzuzeigen

Konfigurieren der Zugriffsprofile für Spine 1

Schritt-für-Schritt-Anleitung

So konfigurieren Sie Profile für die Servernetzwerke:

  1. Konfigurieren Sie die IRB-Schnittstellen, die das Routing zwischen den VLANs 101, 102 und 103 unterstützen.

  2. Geben Sie an, welche virtuellen Netzwerkbezeichner (VNIs) in der EVPN-VXLAN-Domäne enthalten sind.

  3. Konfigurieren Sie für jeden VNI ein Routenziel.

    Hinweis:

    In der ursprünglichen Konfiguration wird auf den Spine-Geräten Junos OS Version 15.1X53-D30 und auf den Leaf-Geräten 14.1X53-D30 ausgeführt. Wenn Sie in diesen Softwareversionen die vrf-target Konfigurationsanweisung in die [edit protocols evpn vni-options vni] Hierarchieebene aufnehmen, müssen Sie auch die export Option einschließen. Beachten Sie, dass diese Option für spätere Junos OS-Versionen nicht mehr erforderlich ist. Daher wird die export Option in den Konfigurationen in diesem aktualisierten Beispiel weggelassen.

  4. Konfigurieren Sie die Routinginstanz für die Server A und C.

  5. Konfigurieren Sie die Routinginstanz für die Server B und D.

  6. Konfigurieren Sie die VLANs v101, v102 und v103 und ordnen Sie jedem VLAN die entsprechenden VNIs und IRB-Schnittstellen zu.

Spine 2: Vollständige Konfiguration

CLI-Schnellkonfiguration

Die Konfiguration von Spine 2 ähnelt der von Spine 1, daher stellen wir die vollständige Konfiguration anstelle einer Schritt-für-Schritt-Konfiguration zur Verfügung. Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie die Befehle in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für Ihre Konfiguration erforderlich sind, kopieren Sie die Befehle und fügen Sie sie in die CLI auf der Hierarchieebene [edit] ein, und geben Sie sie dann aus dem Konfigurationsmodus ein commit .

Leaf 1: Underlay-Netzwerkkonfiguration

CLI-Schnellkonfiguration

Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie die Befehle in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für Ihre Konfiguration erforderlich sind, kopieren Sie die Befehle und fügen Sie sie in die CLI auf der Hierarchieebene [edit] ein, und geben Sie sie dann aus dem Konfigurationsmodus ein commit .

Konfigurieren des Underlay-Netzwerks für Leaf 1

Schritt-für-Schritt-Anleitung

So konfigurieren Sie das Underlay-Netzwerk für Leaf 1:

  1. Konfigurieren Sie die L3-Schnittstellen.

  2. Geben Sie eine IP-Adresse für die Loopback-Schnittstelle an. Diese IP-Adresse dient als Quell-IP-Adresse im äußeren Header aller VXLAN-gekapselten Pakete.

  3. Legen Sie die Routing-Optionen fest.

  4. Konfigurieren Sie eine externe BGP-Gruppe (EBGP), die die Spines als Peers für das Underlay-Routing enthält.

  5. Konfigurieren Sie eine Richtlinie, die den Datenverkehr über mehrere Pfade zwischen den Switches von Juniper Networks verteilt.

  6. Konfigurieren Sie eine Richtlinie so, dass direkte Schnittstellenrouten angekündigt werden. Das Underlay muss mindestens eine vollständige Erreichbarkeit zu den Loopback-Adressen des Geräts haben.

Leaf 1: Overlay-Netzwerkkonfiguration

CLI-Schnellkonfiguration

Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie die Befehle in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für Ihre Konfiguration erforderlich sind, kopieren Sie die Befehle und fügen Sie sie in die CLI auf Hierarchieebene ein, und geben Sie dann den Befehl aus dem [edit] Konfigurationsmodus ein commit .

Konfigurieren des Overlay-Netzwerks für Leaf 1

Schritt-für-Schritt-Anleitung

So konfigurieren Sie das Overlay-Netzwerk für Leaf 1:

  1. Konfigurieren Sie eine interne BGP-Gruppe (IBGP) für das EVPN-VXLAN-Overlay-Netzwerk.

  2. Konfigurieren Sie die VXLAN-Kapselung für die Datenpakete, die zwischen den EVPN-Nachbarn ausgetauscht werden.

  3. Geben Sie an, wie Multicast-Datenverkehr in der EVPN-VXLAN-Umgebung repliziert wird.

  4. Konfigurieren Sie die Standardoptionen für Routing-Instanzen (virtueller Switch-Typ).

Blatt 1: Konfiguration des Zugriffsprofils

CLI-Schnellkonfiguration

Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie die Befehle in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für Ihre Konfiguration erforderlich sind, kopieren Sie die Befehle und fügen Sie sie in die CLI auf der Hierarchieebene [edit] ein, und geben Sie sie dann aus dem Konfigurationsmodus ein commit .

Konfigurieren des Zugriffsprofils für Leaf 1

Schritt-für-Schritt-Anleitung

So konfigurieren Sie das Profil für das Servernetzwerk:

  1. Konfigurieren Sie eine L2-Ethernet-Schnittstelle für die Verbindung mit dem physischen Server. Diese Schnittstelle ist VLAN 101 zugeordnet. In diesem Beispiel wird die Zugriffsschnittstelle als Trunk konfiguriert, um VLAN-Tagging zu unterstützen. Nicht getaggte Zugriffsschnittstellen werden ebenfalls unterstützt.

  2. Konfigurieren Sie ein Routenziel für den Virtual Network Identifier (VNI).

    Hinweis:

    In der ursprünglichen Konfiguration wird auf den Spine-Geräten Junos OS Version 15.1X53-D30 und auf den Leaf-Geräten 14.1X53-D30 ausgeführt. Wenn Sie in diesen Softwareversionen die vrf-target Konfigurationsanweisung in die [edit protocols evpn vni-options vni] Hierarchieebene aufnehmen, müssen Sie auch die export Option einschließen. Beachten Sie, dass diese Option in späteren Junos OS-Versionen nicht mehr erforderlich ist, wie in den in diesem Beispiel verwendeten aktualisierten Konfigurationen widergespiegelt wird.

  3. Geben Sie an, welche VNIs in der EVPN-VXLAN-Domäne enthalten sind.

  4. Konfigurieren Sie VLAN v101. Das VLAN wird demselben VXLAN-VNI zugeordnet, den Sie auf den Spine-Geräten konfiguriert haben. Beachten Sie, dass die L3-IRB-Schnittstelle (Integrated Routing and Bridging) auf den Leaf-Geräten nicht spezifiziert ist. Dies liegt daran, dass bei der zentral gerouteten Überbrückung (CRB) die Blätter nur die L2-Überbrückung durchführen.

Leaf 2: Vollständige Konfiguration

CLI-Schnellkonfiguration

Die Konfiguration von Leaf 2 ähnelt der von Leaf 1, daher stellen wir die vollständige Konfiguration anstelle einer Schritt-für-Schritt-Konfiguration zur Verfügung. Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie die Befehle in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für Ihre Konfiguration erforderlich sind, kopieren Sie die Befehle und fügen Sie sie in die CLI auf Hierarchieebene ein, und geben Sie dann den Befehl aus dem [edit] Konfigurationsmodus ein commit .

Leaf 3: Vollständige Konfiguration

CLI-Schnellkonfiguration

Die Konfiguration von Leaf 3 ähnelt der von Leaf 1, daher stellen wir die vollständige Konfiguration anstelle einer Schritt-für-Schritt-Konfiguration bereit. Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie die Befehle in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für Ihre Konfiguration erforderlich sind, kopieren Sie die Befehle und fügen Sie sie in die CLI auf Hierarchieebene ein, und geben Sie dann den Befehl aus dem [edit] Konfigurationsmodus ein commit .

Leaf 4: Vollständige Konfiguration

CLI-Schnellkonfiguration

Die Konfiguration von Leaf 4 ähnelt der von Leaf 1, daher stellen wir die vollständige Konfiguration anstelle einer Schritt-für-Schritt-Konfiguration zur Verfügung. Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie die Befehle in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für Ihre Konfiguration erforderlich sind, kopieren Sie die Befehle und fügen Sie sie in die CLI auf Hierarchieebene ein, und geben Sie dann den Befehl aus dem [edit] Konfigurationsmodus ein commit .

Überprüfung

Vergewissern Sie sich, dass die integrierten Routing- und Bridging-Schnittstellen (IRB) ordnungsgemäß funktionieren:

Überprüfen der IRB-Schnittstellen

Zweck

Überprüfen Sie die Konfiguration der IRB-Schnittstellen auf Spine 1 und Spine 2.

Aktion

Geben Sie im Betriebsmodus den show interfaces irb Befehl ein.

Bedeutung

Die Beispielausgabe von Spine 1 überprüft Folgendes:

  • Die IRB-Schnittstellen irb.101, irb.102 und irb.103 sind konfiguriert.

  • Die physische Schnittstelle, auf der die IRB-Schnittstellen konfiguriert sind, ist betriebsbereit.

  • Jede IRB-Schnittstelle ist ihrem jeweiligen VLAN ordnungsgemäß zugeordnet.

  • Die Konfiguration jeder IRB-Schnittstelle gibt die ihr zugewiesene IP-Adresse und das Ziel (virtuelle Gateway-Adresse) korrekt wieder.

Überprüfen der Routing-Instanzen

Zweck

Stellen Sie sicher, dass die Routinginstanzen für die Server A und B sowie für die Server C und D auf Spine 1 und Spine 2 ordnungsgemäß konfiguriert sind.

Aktion

Geben Sie im Betriebsmodus den show route instance routing-instance-name extensive Befehl Routing-Instanzen serversAC und serversBD ein.

Bedeutung

In der Beispielausgabe von Spine 1 zeigen die Routinginstanzen für die Server A und C sowie für die Server B und D die Loopback- und IRB-Schnittstellen, die jeder Gruppe zugeordnet sind. Die Ausgabe zeigt auch die tatsächliche Routenunterscheidung, den VRF-Import (Virtual Routing and Forwarding) und die Konfiguration der VRF-Exportrichtlinie.

Verifizieren des Lernens dynamischer MAC-Adressen

Zweck

Stellen Sie sicher, dass für die VLANs v101, v102 und v103 eine dynamische MAC-Adresse in den Ethernet-Switching-Tabellen auf allen Leaves installiert ist.

Aktion

Geben Sie im Betriebsmodus den show ethernet-switching table Befehl ein.

Bedeutung

Die Beispielausgabe von Leaf 1 gibt an, dass es die MAC-Adresse 00:00:5e:00:01:01 für sein virtuelles Gateway (IRB) gelernt hat. Dies ist die MAC-Adresse, die die angeschlossenen Server verwenden, um ihr Standardgateway zu erreichen. Da auf beiden Spines dieselbe virtuelle IP/MAC-Adresse konfiguriert ist, wird die virtuelle IP-Adresse als ESI-LAG behandelt, um die aktive Weiterleitung an beide Spines ohne das Risiko von Paketschleifen zu unterstützen. Die Ausgabe zeigt auch, dass Leaf 1 die IRB-MAC-Adressen für Spine 1 und Spine 2 gelernt hat, die als VTEPs fungieren.

Überprüfen von Routen in den Routing-Instanzen

Zweck

Stellen Sie sicher, dass sich die richtigen Routen in den Routing-Instanzen befinden.

Aktion

Geben Sie im Betriebsmodus den show route table routing-instance-name.inet.0 Befehl ein.

Bedeutung

Die Beispielausgabe von Spine 1 gibt an, dass die Routing-Instanz für die Server A und C über die IRB-Schnittstellenrouten verfügt, die VLAN 101 zugeordnet sind, und dass die Routing-Instanz für Server B und D über die IRB-Schnittstellenrouten verfügt, die den VLANs 102 und 103 zugeordnet sind.

Anhand der Routen in den einzelnen Tabellen ist klar, dass die Server A und C in VLAN 101 die Server in C und D in den VLANs 102 oder 103 nicht erreichen können. Die Ausgabe zeigt auch, dass die gemeinsame Tabelle, die Routen für die Server B und D enthält, L3-Kommunikation über ihre IRB-Schnittstellen zulässt.

Überprüfen der Konnektivität

Zweck

Stellen Sie sicher, dass Server A und C sich gegenseitig anpingen und Server B und D sich gegenseitig anpingen können.

Aktion

Führen Sie den Ping-Befehl von den Servern aus.

Bedeutung

Die Beispielausgabe zeigt, dass Server A Server C und Server B Server D anpingen kann. Server A und C sollten nicht in der Lage sein, Server B und D anzupingen, und Server B und D sollten nicht in der Lage sein, Server A und C anzupingen.

Spine 1 und 2: Leckage (optional)

Erinnern Sie sich anhand von Abbildung 2 daran, dass Sie drei VLANs und zwei Routing-Instanzen konfiguriert haben, um Konnektivität für die Server A und C in VLAN 101 und für die Server B und D in den VLANs 102 bzw. 103 bereitzustellen. In diesem Abschnitt ändern Sie die Konfiguration, um Routen zwischen den beiden Routing-Instanzen zu verlieren. Abbildung 3 zeigt die resultierende logische Konnektivität, nachdem die IRB-Routen (Integrated Routing and Bridging) durchgesickert sind.

Abbildung 3: Logische EVPN-VXLAN-Topologie mit Route-Leaking EVPN-VXLAN Logical Topology with Route Leaking

Mit den Änderungen Ihrer RIB-Gruppe (Routing Information Base) können Sie davon ausgehen, dass die Server in VLAN 101 die Server in den VLANs 102 und 103 über L3-Konnektivität erreichen.

CLI-Schnellkonfiguration

Zu diesem Zeitpunkt haben Sie eine CRB-basierte EVPN-Fabric bereitgestellt und die erwartete Konnektivität bestätigt. Das heißt, Server A und C können auf L2 kommunizieren. Die Server B und D (in den VLANs 102 bzw. 103) kommunizieren über IRB-Routing in ihrer gemeinsam genutzten Routing-Instanz. Was ist, wenn Sie möchten, dass sich alle Server gegenseitig anpingen können? Eine Möglichkeit, dieses Problem zu lösen, besteht darin, die Routen zwischen den Routing-Instanzen preiszugeben. Weitere Informationen zu ungenutzten Routen zwischen virtuellen Routing- und Weiterleitungsinstanzen (VRF) finden Sie unter Automatischer Export . Um dieses Beispiel schnell zu konfigurieren, kopieren Sie die folgenden Befehle, fügen Sie die Befehle in eine Textdatei ein, entfernen Sie alle Zeilenumbrüche, ändern Sie alle Details, die für Ihre Konfiguration erforderlich sind, kopieren Sie die Befehle und fügen Sie sie in die CLI auf Hierarchieebene ein, und geben Sie dann den Befehl aus dem [edit] Konfigurationsmodus ein commit .

Verifizierung mit Route Leaking (optional)

Verifizieren von Routen mit undichten Routen (optional)

Zweck

Stellen Sie sicher, dass sich die richtigen Routen in den Routing-Instanzen befinden.

Aktion

Geben Sie im Betriebsmodus den show route table routing-instance-name.inet.0 Befehl ein.

Bedeutung

Die Beispielausgabe von Spine 1 zeigt, dass beide Routing-Instanzen jetzt über die integrierten Routing- und Bridging-Schnittstellenrouten (IRB) verfügen, die allen drei VLANs zugeordnet sind. Da Sie Routen zwischen den Instanztabellen kopiert haben, ist das Nettoergebnis dasselbe, als ob Sie alle drei VLANs in einer gemeinsamen Routing-Instanz konfiguriert hätten. Daher können Sie in allen drei VLANs eine vollständige L3-Konnektivität zwischen Servern erwarten.

Überprüfen der Konnektivität mit Routenlecks (optional)

Zweck

Stellen Sie sicher, dass Server A und C die Server B und D anpingen können.

Aktion

Führen Sie den Ping-Befehl von den Servern aus.

Bedeutung

Die Beispielausgabe zeigt, dass Server A Server B und Server D anpingen kann. Es zeigt auch, dass Server C Server B und Server D anpingen kann. Dies bestätigt die erwartete vollständige Konnektivität zwischen den Servern und ihren VLANs.

Tabelle "Änderungshistorie"

Die Funktionsunterstützung hängt von der Plattform und der Version ab, die Sie verwenden. Verwenden Sie den Feature-Explorer , um festzustellen, ob ein Feature auf Ihrer Plattform unterstützt wird.

Release
Beschreibung
15.1X53-D30
Ab Junos OS Version 15.1X53-D30 können Sie integrierte Routing- und Bridging-Schnittstellen (IRB) verwenden, um mithilfe der VXLAN-Kapselung (Virtual Extensible LAN) zwischen VLANs zu routen.