Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

IP-Fabric-Underlay-Netzwerkdesign und -Implementierung

Einen Überblick über die unterstützten IP-Fabric-Underlay-Modelle und -Komponenten, die in diesen Designs verwendet werden, finden Sie im Abschnitt IP Fabric Underlay Network in Data Center Fabric Blueprint Architecture Components.

In diesem Abschnitt erfahren Sie, wie Sie Spine- und Leaf-Geräte in 3-stufigen und 5-stufigen IPv4-Fabric-Underlays konfigurieren. Informationen zur Konfiguration der zusätzlichen Ebene von Super-Spine-Geräten in einem 5-stufigen IP-Fabric-Underlay finden Sie unter Fünfstufiges IP-Fabric-Design und Implementierung. Die Schritte zur Konfiguration eines IPv6-Fabric-Designs in Referenzarchitekturen, die diese Konfiguration unterstützen, finden Sie unter Design und Implementierung von IPv6-Fabric-Underlay und Overlay-Netzwerken mit EBGP .

Der IP-Underlay-Netzwerkbaustein ist in einer Clos-basierten Fabric-Topologie angeordnet. Das Underlay-Netzwerk verwendet EBGP als Routing-Protokoll anstelle einer herkömmlichen IGP wie OSPF. Sie können andere Routing-Protokolle im Underlay-Protokoll in Ihrem Datencenter verwenden. die Verwendung dieser Routing-Protokolle sprengt den Rahmen dieses Dokuments.

In diesem Baustein werden auch aggregierte Ethernet-Schnittstellen mit MicroBFD verwendet. MicroBFD verbessert die Fehlererkennung in einer aggregierten Ethernet-Schnittstelle, indem BFD auf einzelnen Verbindungen der aggregierten Ethernet-Schnittstelle ausgeführt wird.

Abbildung 1 und Abbildung 2 bieten allgemeine Abbildungen eines 3-stufigen bzw. 5-stufigen IP-Fabric-Underlay-Netzwerks.

Abbildung 1: Dreistufiges IP-Fabric-Underlay-Netzwerk Three-Stage IP Fabric Underlay Network
Abbildung 2: Fünfstufiges IP-Fabric-Underlay-Netzwerk Five-Stage IP Fabric Underlay Network

Konfigurieren der aggregierten Ethernet-Schnittstellen, die Spine-Geräte mit Leaf-Geräten verbinden

In diesem Design wird jedes Spine-Gerät über eine einzige Verbindung oder eine aggregierte Ethernet-Schnittstelle mit zwei Membern mit jedem Leaf-Gerät verbunden. Die Entscheidung für einen einzigen Link oder eine aggregierte Ethernet-Schnittstelle hängt größtenteils von den Anforderungen Ihres Netzwerks ab. Weitere Informationen zu Schnittstellenanforderungen finden Sie unter Übersicht über das Referenzdesign für Datencenter-Fabric und validierte Topologie .

Die meisten IP-Fabric-Topologien verwenden keine aggregierten Ethernet-Schnittstellen zur Verbindung von Spine- und Leaf-Geräten. Sie können diesen Abschnitt überspringen, wenn Sie Ihre Spine- und Leaf-Geräte über einzelne Links verbinden.

Verwenden Sie die folgenden Anweisungen, um die Schnittstellen zu konfigurieren, die Spine- und Leaf-Geräte als aggregierte Ethernet-Schnittstellen mit zwei Member-Links verbinden. Jeder aggregierten Ethernet-Schnittstelle wird eine IPv4-Adresse zugewiesen. LACP mit einem schnellen regelmäßigen Intervall ist ebenfalls aktiviert.

Abbildung 3 zeigt die Spine-Geräteschnittstellen, die in dieser Prozedur konfiguriert sind:

Abbildung 3: Spine-1-Schnittstellen Spine 1 Interfaces

Abbildung 4 zeigt die Leaf-Geräteschnittstellen, die in dieser Prozedur konfiguriert sind:

Abbildung 4: Leaf 1-Schnittstellen Leaf 1 Interfaces

So konfigurieren Sie aggregierte Ethernet-Schnittstellen mit schnellem LACP:

  1. Legen Sie die maximale Anzahl aggregierter Ethernet-Schnittstellen fest, die auf dem Gerät zulässig sind.

    Wir empfehlen, diese Zahl auf die genaue Anzahl der aggregierten Ethernet-Schnittstellen auf Ihrem Gerät festzulegen, einschließlich aggregierter Ethernet-Schnittstellen, die nicht für Spine-to-Leaf-Geräteverbindungen verwendet werden.

    In diesem Beispiel wird der aggregierte Ethernet-Gerätezählerwert für ein Leaf-Gerät auf 10 und 100 für ein Spine-Gerät festgelegt.

    Leaf-Gerät:

    Spine-Gerät:

  2. Erstellen Und benennen Sie die aggregierten Ethernet-Schnittstellen, und weisen Sie jeder Schnittstelle optional eine Beschreibung zu.

    In diesem Schritt erfahren Sie, wie Sie drei aggregierte Ethernet-Schnittstellen auf Spine 1 und vier aggregierte Ethernet-Schnittstellen auf Leaf 1 erstellen.

    Wiederholen Sie diesen Vorgang für jede aggregierte Ethernet-Schnittstelle, die ein Spine-Gerät mit einem Leaf-Gerät verbindet.

    Spine 1:

    Leaf 1:

  3. Weisen Sie jeder aggregierten Ethernet-Schnittstelle auf Ihrem Gerät Schnittstellen zu.

    Spine 1:

    Leaf 1:

  4. Weisen Sie jeder aggregierten Ethernet-Schnittstelle auf dem Gerät eine IP-Adresse zu.

    Spine 1:

    Leaf 1:

  5. Aktivieren Sie fast LACP auf jeder aggregierten Ethernet-Schnittstelle auf dem Gerät.

    LACP wird mithilfe des schnellen periodischen Intervalls aktiviert, das LACP so konfiguriert, dass es jede Sekunde ein Paket sendet.

    Spine 1:

    Leaf 1:

  6. Bestätigen Sie nach der Konfiguration, dass die aggregierten Ethernet-Schnittstellen aktiviert sind, dass die physischen Verbindungen eingerichtet sind und dass Pakete übertragen werden, wenn Datenverkehr gesendet wurde.

    Die folgende Ausgabe liefert diese Bestätigungsinformationen für ae1 Spine 1.

  7. Bestätigen Sie, dass der LACP-Empfangsstatus ist Current und dass der Übertragungsstatus Fast für jeden Link in jedem aggregierten Ethernet-Schnittstellenpaket ist.

    Die nachstehende Ausgabe zeigt den LACP-Status für Schnittstelle ae1an.

  8. Wiederholen Sie diesen Vorgang für jedes Gerät in Ihrer Topologie.

    Der Leitfaden geht davon aus, dass Spine- und Leaf-Geräte in anderen Abschnitten durch aggregierte Zwei-Mitglieder-Ethernet-Schnittstellen miteinander verbunden sind. Wenn Sie einen einzelnen Link anstelle eines aggregierten Ethernet-Links konfigurieren oder überwachen, ersetzen Sie anstelle des aggregierten Ethernet-Schnittstellennamens den physischen Schnittstellennamen der Single-Link-Schnittstelle.

Ermöglichung von EBGP als Routing-Protokoll im Underlay-Netzwerk

In diesem Design ist EBGP das Routing-Protokoll des Underlay-Netzwerks und jedem Gerät in der IP-Fabric wird eine eindeutige 32-Bit Autonome Systemnummer (ASN) zugewiesen. Die Underlay-Routing-Konfiguration stellt sicher, dass alle Geräte in der Underlay-IP-Fabric zuverlässig voneinander erreichbar sind. Die Erreichbarkeit zwischen VTEP über das Underlay-IP-Fabric ist auch erforderlich, um Overlay-Netzwerke mit VXLAN zu unterstützen.

Abbildung 5 zeigt die EBGP-Konfiguration des Underlay-Netzwerks.

Abbildung 5: Überblick über EBGP Underlay Network Overview das EBGP Underlay-Netzwerk

So aktivieren Sie EBGP als Routing-Protokoll für das Underlay-Netzwerk auf einem Gerät:

  1. Erstellen und benennen Sie die BGP-Peergruppe. EBGP wird als Teil dieses Schritts aktiviert.

    Die Underlay-EBGP-Gruppe wird in diesem Design benannt UNDERLAY .

    Spine- oder Leaf-Gerät:

  2. Konfigurieren Sie den ASN für jedes Gerät im Underlay.

    Denken Sie daran, dass bei diesem Design jedem Gerät ein eindeutiger ASN im Underlay-Netzwerk zugewiesen wird. Der ASN für EBGP im Underlay-Netzwerk wird auf BGP-Peergruppenebene mit der local-as Anweisung konfiguriert, da die System-ASN-Einstellung für DIE MP-IBGP-Signalübertragung im Overlay-Netzwerk verwendet wird.

    Die folgenden Beispiele zeigen, wie Sie den ASN für EBGP für Spine 1 und Leaf 1 konfigurieren.

    Spine 1:

    Leaf 1:

  3. Konfigurieren Sie BGP-Peers, indem Sie den ASN jedes BGP-Peers im Underlay-Netzwerk auf jedem Spine- und Leaf-Gerät festlegen.

    In diesem Design ist für ein Spine-Gerät jedes Leaf-Gerät ein BGP-Peer, und für ein Leaf-Gerät ist jedes Spine-Gerät ein BGP-Peer.

    Im folgenden Beispiel wird veranschaulicht, wie Sie den Peer-ASN in diesem Design konfigurieren.

    Spine 1:

    Leaf 1:

  4. Legen Sie die BGP-Haltezeit fest. Die BGP-Haltezeit ist die Dauer in Sekunden, in der ein Peer auf eine BGP-Nachricht wartet – in der Regel eine Keepalive-, Update- oder Benachrichtigungsnachricht – bevor er eine BGP-Verbindung schließt.

    Kürzere BGP-Haltezeitwerte schützen davor, dass BGP-Sitzungen unnötig lange geöffnet bleiben, wenn Probleme auftreten, z. B. nicht gesendet werden. Eine längere BGP-Haltezeit stellt sicher, dass BGP-Sitzungen auch während der Problemphasen aktiv bleiben.

    Die BGP-Haltezeit wird für jedes Gerät in diesem Design mit 10 Sekunden konfiguriert.

    Spine- oder Leaf-Gerät:

  5. Konfigurieren Sie EBGP, um die Unicast-Adressfamilie für die Underlay-BGP-Peergruppe zu signalisieren.

    Spine- oder Leaf-Gerät:

  6. Konfigurieren Sie eine Export-Routing-Richtlinie, die die IP-Adresse der Loopback-Schnittstelle für EBGP-Peering-Geräte ankündigen.

    Diese Export-Routing-Richtlinie wird verwendet, um die IP-Adresse der Loopback-Schnittstelle von allen Geräten in der IP-Fabric erreichbar zu machen. Die Erreichbarkeit von Loopback-IP-Adressen ist erforderlich, um Leaf- und Spine-Geräte-Peering mit MP-IBGP im Overlay-Netzwerk zu ermöglichen. IbGP-Peering im Overlay-Netzwerk muss eingerichtet werden, damit Die Geräte in der Fabric EVPN-Routen gemeinsam nutzen können. Siehe Konfigurieren von IBGP für das Overlay.

    Die IP-Adresse des Routenfilters in diesem Schritt – 192.168.1.10 – ist die Loopback-Adresse des Leaf-Geräts.

    Leaf 1:

  7. Geben Sie nach dem Festlegen der Konfiguration den show bgp summary Befehl auf jedem Gerät ein, um zu bestätigen, dass der BGP-Status eingerichtet ist und dass die Datenverkehrspfade aktiv sind.

    Führen Sie den show bgp summary Befehl auf Spine 1 aus, um den EBGP-Status zu überprüfen.

  8. Wiederholen Sie diesen Vorgang für jedes Spine- und Leaf-Gerät in Ihrer Topologie.

Ermöglichung von Load Balancing

EcMP Load Balancing ermöglicht es, den Datenverkehr über mehrere Pfade zu gleichen Kosten an dasselbe Ziel zu senden. Load Balancing muss auf allen Spine- und Leaf-Geräten aktiviert sein, um sicherzustellen, dass der Datenverkehr über alle verfügbaren Pfade der IP-Fabric gesendet wird.

Der Datenverkehr wird pro Layer-4-Datenstrom auf Junos-Geräten lastausgleichen. Der ECMP-Algorithmus lastausgleicht jeden Datenverkehrsfluss über einen der verschiedenen Pfade, und der gesamte Datenverkehr für diesen Datenstrom wird über den ausgewählten Link übertragen.

So aktivieren Sie ECMP-basiertes Load Balancing auf einem Gerät:

  1. Aktivieren Sie Multipath mit der Option multiple AS in BGP auf allen Geräten in der IP-Fabric.

    Standardmäßig wählt EBGP für jedes Präfix einen besten Pfad aus und installiert diese Route in der Weiterleitungstabelle. Wenn BGP-Multipath aktiviert ist, werden alle gleichpreisigen Pfade zu einem bestimmten Ziel in der Weiterleitungstabelle installiert. Die multiple-as Option ermöglicht das Load Balancing zwischen EBGP-Nachbarn in verschiedenen autonomen Systemen.

    Alle Spine- und Leaf-Geräte:

  2. Erstellen Sie eine Richtlinienanweisung, die load balancing pro Paket ermöglicht.

    Alle Spine- und Leaf-Geräte:

  3. Exportieren Sie die Richtlinienaussage in die Weiterleitungstabelle.

    Alle Spine- und Leaf-Geräte:

IP-Fabric-Underlay-Netzwerk — Versionsgeschichte

Tabelle 1 enthält einen Verlauf aller Funktionen in diesem Abschnitt und deren Unterstützung innerhalb dieses Referenzdesigns.

Tabelle 1: Versionsgeschichte des IP-Fabric-Underlay-Netzwerks

Release

Beschreibung

19.1R2

Die Switches QFX10002-60C und QFX5120-32C, auf denen Junos OS Version 19.1R2 und höher im selben Versionszug ausgeführt werden, unterstützen außerdem alle in diesem Abschnitt dokumentierten Funktionen mit Ausnahme der folgenden:

  • MicroBFD, das nur auf den Switches QFX10002-36Q/72Q, QFX10008 und QFX10016 unterstützt wird.

18,4R2

QFX5120-48Y-Switches mit Junos OS Version 18.4R2 und höher im selben Versionszug unterstützen alle in diesem Abschnitt dokumentierten Funktionen mit Ausnahme von MicroBFD.

18.1R3-S3

QFX5110-Switches mit Junos OS Version 18.1R3-S3 und höherer Versionen im selben Versionszug unterstützen alle In diesem Abschnitt dokumentierten Funktionen mit Ausnahme von MicroBFD.

17.3R3-S1

Alle Geräte im Referenzdesign, die Junos OS Version 17.3R3-S1 und höhere Versionen desselben Versionszugs unterstützen, unterstützen auch alle in diesem Abschnitt dokumentierten Funktionen. Ausnahme:

  • MicroBFD, das nur auf den Switches QFX10002-36Q/72Q, QFX10008 und QFX10016 unterstützt wird.