IP-Fabric-Underlay-Netzwerkdesign und -Implementierung
Einen Überblick über die unterstützten IP-Fabric-Underlay-Modelle und -Komponenten, die in diesen Designs verwendet werden, finden Sie im Abschnitt IP Fabric Underlay Network in Data Center Fabric Blueprint Architecture Components.
In diesem Abschnitt erfahren Sie, wie Sie Spine- und Leaf-Geräte in 3-stufigen und 5-stufigen IPv4-Fabric-Underlays konfigurieren. Informationen zur Konfiguration der zusätzlichen Ebene von Super-Spine-Geräten in einem 5-stufigen IP-Fabric-Underlay finden Sie unter Fünfstufiges IP-Fabric-Design und Implementierung. Die Schritte zur Konfiguration eines IPv6-Fabric-Designs in Referenzarchitekturen, die diese Konfiguration unterstützen, finden Sie unter Design und Implementierung von IPv6-Fabric-Underlay und Overlay-Netzwerken mit EBGP .
Der IP-Underlay-Netzwerkbaustein ist in einer Clos-basierten Fabric-Topologie angeordnet. Das Underlay-Netzwerk verwendet EBGP als Routing-Protokoll anstelle einer herkömmlichen IGP wie OSPF. Sie können andere Routing-Protokolle im Underlay-Protokoll in Ihrem Datencenter verwenden. die Verwendung dieser Routing-Protokolle sprengt den Rahmen dieses Dokuments.
In diesem Baustein werden auch aggregierte Ethernet-Schnittstellen mit MicroBFD verwendet. MicroBFD verbessert die Fehlererkennung in einer aggregierten Ethernet-Schnittstelle, indem BFD auf einzelnen Verbindungen der aggregierten Ethernet-Schnittstelle ausgeführt wird.
Abbildung 1 und Abbildung 2 bieten allgemeine Abbildungen eines 3-stufigen bzw. 5-stufigen IP-Fabric-Underlay-Netzwerks.


Konfigurieren der aggregierten Ethernet-Schnittstellen, die Spine-Geräte mit Leaf-Geräten verbinden
In diesem Design wird jedes Spine-Gerät über eine einzige Verbindung oder eine aggregierte Ethernet-Schnittstelle mit zwei Membern mit jedem Leaf-Gerät verbunden. Die Entscheidung für einen einzigen Link oder eine aggregierte Ethernet-Schnittstelle hängt größtenteils von den Anforderungen Ihres Netzwerks ab. Weitere Informationen zu Schnittstellenanforderungen finden Sie unter Übersicht über das Referenzdesign für Datencenter-Fabric und validierte Topologie .
Die meisten IP-Fabric-Topologien verwenden keine aggregierten Ethernet-Schnittstellen zur Verbindung von Spine- und Leaf-Geräten. Sie können diesen Abschnitt überspringen, wenn Sie Ihre Spine- und Leaf-Geräte über einzelne Links verbinden.
Verwenden Sie die folgenden Anweisungen, um die Schnittstellen zu konfigurieren, die Spine- und Leaf-Geräte als aggregierte Ethernet-Schnittstellen mit zwei Member-Links verbinden. Jeder aggregierten Ethernet-Schnittstelle wird eine IPv4-Adresse zugewiesen. LACP mit einem schnellen regelmäßigen Intervall ist ebenfalls aktiviert.
Abbildung 3 zeigt die Spine-Geräteschnittstellen, die in dieser Prozedur konfiguriert sind:

Abbildung 4 zeigt die Leaf-Geräteschnittstellen, die in dieser Prozedur konfiguriert sind:

So konfigurieren Sie aggregierte Ethernet-Schnittstellen mit schnellem LACP:
Konfigurieren einer IP-Adresse für einen individuellen Link
In diesem Abschnitt wird das Verfahren zum Hinzufügen einer IP-Adresse zu einer einzigen Verbindungsschnittstelle behandelt, die ein Spine- oder Leaf-Gerät verbindet. Der Prozess zum Hinzufügen einer IP-Adresse zu einer aggregierten Ethernet-Schnittstelle wird unter Konfigurieren der aggregierten Ethernet-Schnittstellen, die Spine-Geräte mit Leaf-Geräten verbinden, behandelt.
So fügen Sie einer einzigen Linkschnittstelle eine IP-Adresse hinzu:
Ermöglichung von EBGP als Routing-Protokoll im Underlay-Netzwerk
In diesem Design ist EBGP das Routing-Protokoll des Underlay-Netzwerks und jedem Gerät in der IP-Fabric wird eine eindeutige 32-Bit Autonome Systemnummer (ASN) zugewiesen. Die Underlay-Routing-Konfiguration stellt sicher, dass alle Geräte in der Underlay-IP-Fabric zuverlässig voneinander erreichbar sind. Die Erreichbarkeit zwischen VTEP über das Underlay-IP-Fabric ist auch erforderlich, um Overlay-Netzwerke mit VXLAN zu unterstützen.
Abbildung 5 zeigt die EBGP-Konfiguration des Underlay-Netzwerks.

So aktivieren Sie EBGP als Routing-Protokoll für das Underlay-Netzwerk auf einem Gerät:
Ermöglichung von Load Balancing
EcMP Load Balancing ermöglicht es, den Datenverkehr über mehrere Pfade zu gleichen Kosten an dasselbe Ziel zu senden. Load Balancing muss auf allen Spine- und Leaf-Geräten aktiviert sein, um sicherzustellen, dass der Datenverkehr über alle verfügbaren Pfade der IP-Fabric gesendet wird.
Der Datenverkehr wird pro Layer-4-Datenstrom auf Junos-Geräten lastausgleichen. Der ECMP-Algorithmus lastausgleicht jeden Datenverkehrsfluss über einen der verschiedenen Pfade, und der gesamte Datenverkehr für diesen Datenstrom wird über den ausgewählten Link übertragen.
So aktivieren Sie ECMP-basiertes Load Balancing auf einem Gerät:
Konfigurieren der mikrobidirektionalen Weiterleitungserkennung an Member-Links in aggregierten Ethernet-Schnittstellen
BFD ist ein einfaches bidirektionales Fehlererkennungsprotokoll, das die bidirektionale Konnektivität zwischen direkt verbundenen Geräten überprüft, indem es in regelmäßigen Abständen und schnell ein einfaches Hallo-Paket über den Link oder die Verbindungen, die die Geräte miteinander verbinden, sendet. BFD kann Verbindungsfehler in Weniger als einer Sekunde erkennen und kommunizieren, damit die Steuerungsebenen-Software schnell auf einen alternativen Pfad wechseln kann.
Mit MicroBFD kann BFD auf einzelnen Member-Links in einer aggregierten Ethernet-Schnittstelle ausgeführt werden.
In diesem Design wird microBFD bei Verbindungen zwischen den Switches QFX10002-36Q/72Q, QFX10008 und QFX10016 unterstützt.
So aktivieren Sie MicroBFD:
IP-Fabric-Underlay-Netzwerk — Versionsgeschichte
Tabelle 1 enthält einen Verlauf aller Funktionen in diesem Abschnitt und deren Unterstützung innerhalb dieses Referenzdesigns.
Release |
Beschreibung |
---|---|
19.1R2 |
Die Switches QFX10002-60C und QFX5120-32C, auf denen Junos OS Version 19.1R2 und höher im selben Versionszug ausgeführt werden, unterstützen außerdem alle in diesem Abschnitt dokumentierten Funktionen mit Ausnahme der folgenden:
|
18,4R2 |
QFX5120-48Y-Switches mit Junos OS Version 18.4R2 und höher im selben Versionszug unterstützen alle in diesem Abschnitt dokumentierten Funktionen mit Ausnahme von MicroBFD. |
18.1R3-S3 |
QFX5110-Switches mit Junos OS Version 18.1R3-S3 und höherer Versionen im selben Versionszug unterstützen alle In diesem Abschnitt dokumentierten Funktionen mit Ausnahme von MicroBFD. |
17.3R3-S1 |
Alle Geräte im Referenzdesign, die Junos OS Version 17.3R3-S1 und höhere Versionen desselben Versionszugs unterstützen, unterstützen auch alle in diesem Abschnitt dokumentierten Funktionen. Ausnahme:
|