Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Überblick über die Collapsed Spine-Architektur mit EVPN Multihoming

Informationen zu diesem Netzwerkkonfigurationsbeispiel

Dieses Netzwerkkonfigurationsbeispiel (NCE) zeigt, wie Sie eine Collapsed Spine-Datencenter-Fabric einrichten, die es Ihnen ermöglicht, Ihre vorhandenen Layer 2-Top-of-Rack-Switches anstelle von Leaf-Geräten zu verwenden. Außerdem wird gezeigt, wie EVPN Multihoming verwendet werden kann, um Multichassis-LAG-Funktionalität für Layer 2-Top-of-Rack-Switches bereitzustellen.

Darüber hinaus wird optional gezeigt, wie Sie die Vernetzung von Datencentern und erweiterte Sicherheitsservices für mandantenübergreifenden Datenverkehr über ein SRX-Chassis-Cluster einrichten.

Anmerkung:

Juniper Networks benötigt eine Lizenz für EVPN-VXLAN auf Switches der QFX-Serie. Weitere Informationen finden Sie im Lizenzierungshandbuch .

Überblick über Anwendungsfälle

Die Datencenter großer Unternehmen migrieren auf Overlay-basierte Architekturen mit einer End-to-End-IP-Fabric mit einem VXLAN-Overlay und einer EVPN-Steuerungsebene. Mit einem IP-basierten Layer-3-Underlay im Core in Verbindung mit einem EVPN-VXLAN-Overlay auf den Top-of-Rack (ToR)-Switches können Datencenter- und Cloud-Betreiber viel größere Netzwerke bereitstellen, als dies mit herkömmlichen Ethernet-basierten Layer-2-Architekturen möglich ist.

Ältere ToR-Switches unterstützen EVPN-VXLAN jedoch möglicherweise nicht. In Datencentern mit diesen ToR-Switches, die nur Layer-2-Datenverkehr unterstützen, sind die Spine-Switches für das Routing zwischen den VLANs verantwortlich. Es wird eine Datencenter-Architektur benötigt, die mit Technologien wie VXLAN das Underlay-Netzwerk vom Tenant-Overlay-Netzwerk entkoppelt. Dies lässt sich mit einer Collapsed Spine-Architektur erreichen.

Eine Collapsed Spine-Architektur hat keine Blattschicht. Stattdessen werden das IP-basierte Layer-3-Underlay und die EVPN-VXLAN-Overlay-Funktionalität, die normalerweise auf Leaf-Switches ausgeführt werden, auf die Spine-Switches reduziert. Die Spine-Switches fungieren auch als Border Gateway.

Eine Collapsed Spine-Architektur mit EVPN Multihoming ist ideal für Unternehmen mit:

  • plant den Wechsel zu einer IP-Fabric-basierten Architektur mit EVPN-VXLAN-Overlay.

  • Kleine Datencenter mit überwiegend Nord-Süd-Datenverkehr.

  • Es besteht die Notwendigkeit, den Layer-2-Datenverkehr über Datencenter hinweg auszuweiten.

  • Ältere ToR-Switches mehrerer Hersteller, die EVPN-VXLAN nicht unterstützen

  • Aktuelle oder zukünftige Anforderungen an die Unterstützung von mehr als zwei Spine-Switches, um eine ausreichende Bandbreite während Wartungsarbeiten oder bei einem Spine-Ausfall zu gewährleisten.

  • Bedarf an einer Alternative zu einer MC-LAG-ARCHITEKTUR (ICCP-Protokoll).

Technische Übersicht

Collapsed Spine mit EVPN Multihoming-Architektur – Übersicht

Diese NCE zeigt, wie eine Collapsed Spine-Architektur für zwei Datencenter bereitgestellt wird, in denen jeweils zwei QFX5120 Spine-Switches und zwei Layer 2 ToR-Switches als Virtual Chassis bereitgestellt werden. Die Datencenter sind über Spine-Geräte mit Layer 3 Data Center Interconnect (DCI) miteinander verbunden. Verwenden Sie EVPN-Multihoming, um die Inhaltsverzeichnis-Switches mit Multihome zu den Spine-Geräten zu verbinden. Die Server sind mit den ToR-Switches multivernetzt. Abbildung 1 zeigt die fertige Collapsed Spine-Architektur.

Abbildung 1: Collapsed Spine-Architektur mit EVPN Multihoming Collapsed Spine Architecture with EVPN Multihoming

Für die Multicast-Unterstützung bieten wir:

  • Layer-3-Multicast in einem QFX5120 Collapsed-Spine-Design mit EVPN OISM mit symmetrischen Bridge-Domänen.

  • Layer-2-Multicast-IGMPv2-Snooping in EVPN-VXLAN mit:

    • EVPN-Routen mit selektivem Multicast Ethernet Tag (SMET) Typ 6

    • EVPN Join and Leave Sync (Typ 7 und Typ 8) leitet, wenn ein Multicast-Empfänger auf Layer 2 mit einer ESI-LAG multihomed zu den Collapsed Spine-Geräten verbunden ist.

Collapsed Spine-Architektur verstehen

In einer Collapsed Spine-Architektur fungieren die Spine-Geräte sowohl als Spine- als auch als Leaf-Geräte. Da die ToRs nur Layer 2 sind und VXLAN nicht unterstützen, fungieren sie nicht als Leaf-Geräte. Die normale Leaf-Geräteaktivität wird auf den Spine-Geräten verarbeitet oder reduziert, was bedeutet, dass VXLAN nur auf den Spine-Geräten erforderlich ist. Das Collapsed Spine fungiert als Layer-3-Gateway und verarbeitet den Datenverkehr zwischen den VXLANs über IRB-Schnittstellen.

EVPN Multihoming verstehen

In einem älteren Datencenter mit einer Collapsed-Spine-Architektur müssen die ToR-Switches mit den Spine-Switches mit Multichassis Link Aggregation Groups (MC-LAGs) verbunden werden, um die Ausfallsicherheit des Netzwerks zu verbessern. MC-LAG bietet Redundanz auf Knotenebene und Redundanz auf Link-Ebene. Traditionell verwenden Spine-Switches in diesen Datencentern das Inter-Chassis Control Protocol (ICCP), um MC-LAG-Funktionalität bereitzustellen. Allerdings MC-LAG mit ICCP:

  • Ist eine proprietäre Technologie.

  • Layer 2 kann nicht effizient zwischen Datencentern ausgebaut werden.

  • Unterstützt nicht mehr als zwei Spine-Switches.

EVPN bietet eine standardbasierte Multihoming-Lösung, die horizontal über zwei oder mehr Spine-Switches skaliert werden kann, um im Falle eines Spine-Ausfalls zusätzliche Ausfallsicherheit und Bandbreite zu gewährleisten. EVPN-Multihoming, auch bekannt als ESI-LAG, bietet MC-LAG-Funktionalität für die Layer 2-ToR-Switches und die Server in dieser Architektur ohne die Nachteile von ICCP-basierter MC-LAG.

Eine Collapsed Spine-Architektur, bei der die ToR-Switches mit den Spines multihomed sind, ist eine Datencenter-Architektur, die Legacy-ToR-Switches unterstützt, wenn diese EVPN-VXLAN nicht unterstützen. Abbildung 2 zeigt eine Collapsed Spine-Architektur mit zwei Spine-Schaltern der Einfachheit halber und einem als Virtual Chassis implementierten ToR-Gerät (siehe Grundlegendes zu Virtual Chassis).

Abbildung 2: EVPN-Multihoming von ToR-Switches EVPN Multihoming of ToR Switches

VXLAN verstehen

Netzwerk-Overlays erfolgen durch Kapselung des Datenverkehrs und Tunneling über ein physisches Netzwerk. Das VXLAN-Tunneling-Protokoll kapselt Layer-2-Ethernet-Frames in Layer-3-UDP-Pakete ein. VXLAN ermöglicht virtuelle Layer-2-Subnetze oder -Segmente, die sich über das zugrunde liegende physische Layer-3-Netzwerk erstrecken können.

In einem VXLAN-Overlay-Netzwerk wird jedes Layer-2-Subnetz oder -Segment eindeutig durch einen Virtual Network Identifier (VNI) identifiziert. Ein VNI segmentiert den Datenverkehr genauso wie eine VLAN-ID. Wie bei VLANs können Endgeräte im selben virtuellen Netzwerk direkt miteinander kommunizieren. Endgeräte in verschiedenen virtuellen Netzwerken erfordern ein Gerät, das VNI-übergreifendes Routing unterstützt.

Die Entität, die die VXLAN-Kapselung und -Entkapselung vornimmt, heißt VXLAN Tunnel Endpoint (VTEP). Jedem VTEP wird in der Regel eine eindeutige IP-Adresse zugewiesen.

EVPN verstehen

EVPN ist eine der Erweiterungen für BGP, die es dem Netzwerk ermöglicht, Network Layer Reachability Information (NLRI) wie Layer-2-MAC-Adressen und Layer-3-IP-Adressen zu übertragen. Diese Steuerungsebenentechnologie verwendet MP-BGP für die Verteilung von MAC- und IP-Adressendgeräten, wobei MAC-Adressen als Routen behandelt werden. EVPN lässt Geräte als VTEPs agieren, um die Erreichbarkeitsinformationen ihrer Endgeräte untereinander auszutauschen.

EVPN bietet Multipath-Forwarding und Redundanz durch ein aktiviertes Modell. Die Zugriffsschicht kann eine Verbindung zu zwei oder mehr Spine-Geräten herstellen und den Datenverkehr über alle Verbindungen weiterleiten. Wenn eine Zugriffsverbindung oder ein Spine-Gerät ausfällt, fließt der Datenverkehr von der Zugriffsebene über die verbleibenden aktiven Verbindungen zur Spine-Schicht. Für Datenverkehr in die andere Richtung aktualisieren Remote-Spine-Geräte ihre Weiterleitungstabellen, um Datenverkehr an die verbleibenden aktiven Spine-Geräte zu senden, die mit dem mehrfach vernetzten Ethernet-Segment verbunden sind.

Overlay-Netzwerk

Diese Architektur verwendet VXLAN als Kapselungsprotokoll für die Overlay-Datenebene und MP-BGP mit EVPN-Signalisierung als Protokoll der Overlay-Steuerungsebene.

Data Plane-Overlay

Diese Architektur verwendet VXLAN als Overlay-Data-Plane-Kapselungsprotokoll auf den Collapsed Spine-Switches. Ein Switch, der als Layer-2- oder Layer-3-VXLAN-Gateway fungiert, fungiert als VXLAN Tunnel Endpoint und kann Datenpakete einkapseln und entkapseln.

In einer einzelnen Datencenter-Bereitstellung mit zwei Spine-Switches wird das VXLAN-Overlay zwischen den Spine-Switches für den Datenverkehr zwischen den beiden Geräten verwendet. Wenn beispielsweise ein Single-Homed-Server mit einem der Spine-Geräte verbunden ist, überträgt das VXLAN-Overlay den Datenverkehr entweder absichtlich oder im Falle eines Verbindungsausfalls zum anderen Spine-Gerät.

Wie in der folgenden Abbildung dargestellt, ist der DHCP-Server mit Spine 1 verknüpft. Datenverkehr vom DHCP-Client wird aufgrund der Lastverteilung möglicherweise an Spine 2 gesendet. Spine 2 sendet den Datenverkehr über das VXLAN-Overlay mit Spine 1 an den DHCP-Server.

Abbildung 3: Data Plane-Overlay-Topologie Data Plane Overlay Topology

Control Plane-Overlay

MP-BGP mit EVPN-Signalisierung fungiert in diesem Beispiel als Overlay-Steuerungsebenenprotokoll. Die Spine-Switches richten IBGP-Sitzungen untereinander ein. Abbildung 4 zeigt die Topologie des Overlay-Netzwerks.

Abbildung 4: Control Plane-Overlay-Topologie Control Plane Overlay Topology

Underlay-Netzwerk

In kleineren Datencentern gibt es keine Super-Spine-Schicht, sodass die Spine-Switches direkt miteinander verbunden sind. Die Spine-Switches können ein dynamisches Routing-Protokoll im Underlay verwenden. Die Hauptanforderung im Underlay-Netzwerk ist, dass alle Spine-Geräte über eine Loopback-Erreichbarkeit verfügen. Sie können jedes Layer-3-Routing-Protokoll verwenden, um Loopback-Adressen zwischen den Core- und Spine-Geräten auszutauschen.

In diesem Beispiel verwenden wir EBGP als Underlay-Routing-Protokoll zwischen den Spine-Switches. EBGP bietet Vorteile wie bessere Präfixfilterung, Traffic-Engineering und Traffic-Tagging. Abbildung 5 zeigt die Topologie des Spine-Underlay-Netzwerks.

Abbildung 5: Spine-Underlay-Topologie Spine Underlay Topology
Anmerkung:

Verwenden Sie mindestens zwei Verbindungen zwischen den Spine-Switches. Der Verlust der Konnektivität zwischen den Spine-Switches kann zu einem Split-Brain-Zustand führen. Weitere Informationen finden Sie unter Split-Brain-Zustand .

Top-of-Rack-Switches

Da die ToR-Switches nicht Teil der EVPN-VXLAN-Fabric sind und nur auf Layer 2 arbeiten, können Sie sie als Virtual Chassis implementieren. In diesem Beispiel werden die ToR-Switches als Virtual Chassis mit zwei Komponenten bereitgestellt.

Bei den Uplinks von den ToR-Switches zu den Spine-Switches handelt es sich um Layer-2-Trunk-LAG-Ports mit für den ToR-Switch relevanten VLANs. Jedes Virtual Chassis ist mithilfe von EVPN Multihoming mit zwei Spine-Switches multihomed. Abbildung 6 zeigt die Topologie eines Virtual Chassis als ToR-Gerät, das mit den beiden Spine-Geräten multivernetzt ist. Zur Redundanz und besseren Ausfallsicherheit zeigt diese Abbildung Spine-zu-ToR-Virtual Chassis-Verbindungen, die mit verschiedenen Virtual Chassis-Mitgliedern verknüpft sind, sodass das Virtual Chassis-ToR-Gerät auch dann noch erreichbar ist, wenn eines der Virtual Chassis-Mitglieder ausfällt.

Abbildung 6: ToR-Switch-Topologie ToR Switch Topology

Die Spine-zu-ToR-Virtual Chassis-Verbindungen in den aggregierten Multihoming-Ethernet-Verbindungen können auch Links zum selben Virtual Chassis-Mitglied enthalten, wodurch dieses Netzwerkkonfigurationsbeispiel konfiguriert ist. Abbildung 7 zeigt eine logische Ansicht der Multihoming-Topologie, die der Konfiguration in diesem Dokument entspricht.

Abbildung 7: EVPN-Multihoming-Topologie des ToR-Switches in diesem Netzwerkkonfigurationsbeispiel ToR Switch EVPN Multihoming Topology in this Network Configuration Example

Virtual Chassis verstehen

In diesem Beispiel implementieren wir die ToR-Switches in einem Virtual Chassis. Virtual Chassis kann mehrere eigenständige Switches in ein logisches Gerät integrieren und das logische Gerät als einzelnes Chassis verwalten. Verwenden Sie Virtual Chassis für die ToR-Switches für folgende Zwecke:

  • Verwalten Sie mehrere Geräte als ein einzelnes Gerät mit den gleichen oder ähnlichen Funktionen wie das eigenständige Gerät.

  • Erhöhen Sie die Fehlertoleranz und hohe Verfügbarkeit.

  • Vereinfachen Sie Ihr Netzwerk und reduzieren Sie den Netzwerkaufwand, indem Sie zulassen, dass Netzwerkgeräte mit einem ausfallsicheren logischen Gerät synchronisiert werden.

  • Ermöglichen Sie eine vereinfachte Layer-2-Netzwerktopologie, die Schleifenvermeidungsprotokolle wie das Spanning Tree Protocol (STP) minimiert oder eliminiert.

  • Stellen Sie Redundanz und Lastenverteilung für Server bereit, die über die Virtual Chassis-Mitglieder hinweg mehrfach vernetzt sind.

Anmerkung:

Virtual Chassis bietet eine zentrale Steuerungsebene und eine verteilte Datenebene für eine vereinfachte Verwaltung auf der ToR-Ebene. Die ToR-Switches verhalten sich wie Linecards auf einem einzelnen Gehäuse. Da sich das Virtual Chassis wie ein einzelnes Chassis verhält, kann es bei Servern, die mit dem Virtual Chassis verbunden sind, während Softwareupgrades der ToR-Switches zu Ausfallzeiten kommen.

Diener

Die Datencenter-Server in diesem Beispiel sind mit den ToR-Switches multihomed, die als Virtual Chassis bereitgestellt werden. Die Serverkonnektivität kann über die beiden ToR-Switches mit LAG verteilt werden.

Abbildung 8: ToR-Topologie mit mehrfach vernetzten Servern ToR Topology With Multihomed Servers

SRX-Gehäuse-Cluster

In diesem Beispiel stellen wir SRX-Sicherheitsgeräte in einem Gehäuse-Cluster bereit, der mit den Spine-Geräten verbunden ist, um erweiterte Sicherheit zu bieten. In einem Gehäuse-Cluster arbeiten zwei Firewalls der SRX-Serie als ein einziges Gerät zusammen, um Geräte-, Schnittstellen- und Servicelevel-Redundanz bereitzustellen. Konfigurationsdateien und die dynamischen Laufzeitsitzungszustände werden zwischen Firewalls der SRX-Serie in einem Chassis-Cluster synchronisiert. Verwenden Sie ein SRX-Chassis-Cluster für Folgendes:

  • Verhindern Sie den Ausfall einzelner Geräte, der zu einem Verlust der Konnektivität führt.

  • Sorgen Sie für hohe Verfügbarkeit zwischen Sicherheitsgeräten bei der Verbindung von Zweigstellen- und Remote-Standortverbindungen zu größeren Unternehmensniederlassungen.

  • Stellen Sie die Konnektivität im Falle eines Geräte- oder Verbindungsausfalls sicher.

Abbildung 9: Implementierung SRX Chassis Cluster Implementation des SRX-Chassis-Clusters