Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Übersicht über das Datencenter-Fabric-Referenzdesign und validierte Topologie

Dieser Abschnitt bietet einen allgemeinen Überblick über die Datencenter-Fabric-Referenzdesigntopologie und fasst die Topologien zusammen, die vom Testteam von Juniper Networks getestet und validiert wurden.

Anmerkung:

Wenden Sie sich an Ihren Kundenbetreuer vor Ort, um weitere Informationen zur getesteten Waage für alle unterstützten Funktionen zu erhalten.

Referenzdesign – Übersicht

Das von Juniper Networks getestete Referenzdesign für die Datencenter-Fabric basiert auf einem IP-Fabric-Underlay in einer Clos-Topologie, in der die folgenden Geräte zum Einsatz kommen:

  • Spine-Geräte: bis zu vier.

  • Leaf-Geräte: Die Anzahl der von Juniper Networks unterstützten Leaf-Geräte variiert je nach Softwareversion von Junos OS oder Junos OS Evolved und Overlay-Typ (zentral geroutetes Bridging-Overlay oder Edge-Routed Bridging Overlay).

    Die Anzahl der getesteten Leaf-Knoten, die in diesem Leitfaden angegeben wird, beträgt 96, eine Anzahl, die im ursprünglichen Referenzdesign getestet wurde.

Jedes Leaf-Gerät ist mit jedem Spine-Gerät entweder über eine aggregierte Ethernet-Schnittstelle, die zwei Hochgeschwindigkeits-Ethernet-Schnittstellen (10-Gbit/s, 40-Gbit/s oder 100-Gbit/s) als LAG-Mitglieder umfasst, oder über eine einzelne Hochgeschwindigkeits-Ethernet-Schnittstelle miteinander verbunden.

Abbildung 1 veranschaulicht die in diesem Referenzdesign verwendete Topologie:

Abbildung 1: Referenzdesign für Datencenter-Fabric – Topologie Data Center Fabric Reference Design - Topology

Endsysteme wie Server sind über Leaf-Geräteschnittstellen mit dem Netzwerk des Datencenters verbunden. Jedes Endsystem wurde über eine aggregierte Ethernet-Schnittstelle mit 3 Komponenten auf drei Leaf-Geräte multihomeded (siehe Abbildung 2).

Abbildung 2: Referenzdesign für Datencenter-Fabric – Multihoming Data Center Fabric Reference Design - Multihoming

Das Ziel für das Multihoming von Endsystemen auf 3 verschiedene Leaf-Geräte besteht darin, zu überprüfen, ob das Multihoming eines Endsystems auf mehr als 2 Leaf-Geräte vollständig unterstützt wird.

Datencenter EVPN-VXLAN Fabric-Referenzdesigns – Zusammenfassung unterstützter Hardware

Tabelle 1 enthält eine Zusammenfassung der Hardware, die Sie zum Erstellen der in diesem Handbuch beschriebenen Referenzdesigns verwenden können. Die Tabelle ist nach Anwendungsfällen, Rollen, die Geräte in jedem Anwendungsfall spielen, und der für jede Rolle unterstützten Hardware organisiert.

Anmerkung:
  • Für jeden Anwendungsfall unterstützen wir die in Tabelle 1 aufgeführte Hardware nur mit den zugehörigen Softwareversionen von Junos OS oder Junos OS Evolved.

  • Informationen zu bestehenden Problemen und Einschränkungen für ein Hardwaregerät in diesem Referenzdesign finden Sie in den Versionshinweisen für die Softwareversion von Junos OS oder Junos OS Evolved, mit der das Gerät getestet wurde.

Tabelle 1: Zusammenfassung des Datencenter-Fabric-Referenzdesigns Unterstützte Hardware

Geräterollen

Hardware4

Junos OS oder Junos OS Evolved (EVO) Softwareversionen1

Centrally Routed Bridging Overlay

Wirbelsäule

QFX10002-36Q/72Q

QFX10008

QFX10016

MX-Serie

17.3R3-S1

QFX5120-32C

QFX10002-60C

19.1R2

PTX10001

PTX10004

PTX10008

QFX5130-32CD

QFX5700

23.2R2-EVO

Server-Leaf

QFX5100

QFX5110

QFX5200

QFX10002-36Q/72Q

17.3R3-S1

QFX5210-64C

18.1R3-S3

QFX5120-48Y

18.4R2

QFX5120-32C

QFX10002-60C

19.1R2

QFX5120-48Z

20.2R2

QFX5120-48YM4

20.4R3

Border Spine5 (Datencenter-Gateway und DCI (Data Center Interconnect, DCI) über IPVPN)

QFX10002-36Q/72Q

QFX10008

QFX10016

17.3R3-S1

QFX5110

18.1R3-S3

QFX5120-48Y

18.4R2

MX204

MX240, MX480 und MX960 mit MPC7E

MX10003

MX10008

18.4R2-S2-KARTON

QFX5120-32C

QFX10002-60C2

19.1R2

QFX10002-60C3

20.2R2

QFX5120-48YM

20.4R3

QFX5130-32CD

QFX5700

23.2R2-EVO

Border Spine5 (Datencenter-Gateway und DCI (Data Center Interconnect, DCI) über EVPN-Routen vom Typ 5)

QFX10002-36Q/72Q

QFX10008

QFX10016

17.3R3-S1

QFX5110

18.1R3-S3

QFX5120-48Y

18.4R2

MX204

MX240, MX480 und MX960 mit MPC7E

MX10003

MX10008

18.4R2-S2-KARTON

QFX5120-32C

QFX10002-60C2

19.1R2

QFX10002-60C3

20.2R2

QFX5120-48YM

20.4R3

PTX10001

PTX10004

PTX10008

QFX5130-32CD

QFX5700

23.2R2-EVO

Border Spine5 (Dienstverkettung)

QFX10002-36Q/72Q

QFX10008

QFX10016

17.3R3-S1

QFX5110

18.1R3-S3

MX204

MX240, MX480 und MX960 mit MPC7E

MX10003

MX10008

18.4R2-S2-KARTON

QFX10002-60C2

19.1R2

QFX5120-32C

QFX5120-48Z

QFX5120-48Y

QFX10002-60C3

20.2R2

QFX5120-48YM

20.4R3

PTX10001

PTX10004

PTX10008

QFX5130-32CD

QFX5700

23.2R2-EVO

Border Leaf (Datencenter-Gateway und DCI mit IPVPN)

QFX10002-36Q/72Q

QFX10008

QFX10016

17.3R3-S1

QFX5110

18.1R3-S3

QFX5120-48Y

18.4R2

MX204

MX240, MX480 und MX960 mit MPC7E

MX10003

MX10008

18.4R2-S2-KARTON

QFX5120-32C

QFX10002-60C2

19.1R2

QFX10002-60C3

20.2R2

QFX5120-48YM

20.4R3

Border Leaf (Datencenter-Gateway und DCI mit EVPN-Routen vom Typ 5)

QFX10002-36Q/72Q

QFX10008

QFX10016

17.3R3-S1

QFX5110

18.1R3-S3

QFX5120-48Y

18.4R2

MX204

MX240, MX480 und MX960 mit MPC7E

MX10003

MX10008

18.4R2-S2-KARTON

QFX5120-32C

QFX10002-60C2

19.1R2

QFX10002-60C3

20.2R2

QFX5120-48YM

20.4R3

PTX10001

PTX10004

PTX10008

23.2R2-EVO

Border Leaf (Dienstverkettung)

QFX10002-36Q/72Q

QFX10008

QFX10016

17.3R3-S1

QFX5110

18.1R3-S3

MX204

MX240, MX480 und MX960 mit MPC7E

MX10003

MX10008

18.4R2-S2-KARTON

QFX10002-60C2

19.1R2

QFX5120-32C

QFX5120-48Z

QFX5120-48Y

QFX10002-60C3

20.2R2

QFX5120-48YM

20.4R3

PTX10001

PTX10004

PTX10008

23.2R2-EVO

Schlanke Super-Wirbelsäule

QFX5110

QFX5120-32C

QFX5120-48Y

QFX5200

QFX5210-64C

QFX5220-32CD

QFX5220-128C

QFX10002-36Q/72Q/60C

QFX10008

QFX10016

20.2R2

QFX5120-48YM

20.4R3

ACX7100-32C

ACX7100-48L

PTX10001

PTX10004

PTX10008

QFX5130-32CD

QFX5700

21.2R2-S1-EVO

ACX7024

22.4R2-EVO

Edge-Routed Bridging Overlay

Schlanke Wirbelsäule

QFX5200

QFX10002-36Q/72Q

QFX10008

QFX10016

17.3R3-S1

QFX5110

QFX5210-64C

18.1R3-S3

QFX5120-48Y

18.4R2

QFX5120-32C

QFX10002-60C

19.1R2

QFX5220-32CD

QFX5220-128C

20.2R2

QFX5120-48YM

20.4R3

ACX7100-32C

ACX7100-48L

PTX10001

PTX10004

PTX10008

QFX5130-32CD

QFX5700

21.2R2-S1-EVO

ACX7024

22.4R2-EVO

Lean Spine mit IPv6-Underlay

QFX5120-32C

QFX5120-48Y

QFX10002-36Q/72Q

QFX10002-60C

QFX10008

QFX10016

21.2R2-S1

QFX5120-48YM

21.4R2

ACX7024

ACX7100-32C

ACX7100-48L

24.2R2-EVO

Server-Leaf

QFX10002-36Q/72Q

QFX10008

QFX10016

17.3R3-S1

QFX10002-60C

19.1R2

QFX5110

18.1R3-S3

QFX5120-48Y

18.4R2

QFX5120-32C

19.1R2

QFX5120-48Z

20.2R2

QFX5120-48YM

20.4R3

QFX5130-32CD

QFX5700

21.2R2-S1-EVO

ACX7100-32C

ACX7100-48L

PTX10001

PTX10004

PTX10008

21.4R2-EVO

ACX7024

22.4R2-EVO

Server-Leaf mit IPv6-Underlay

QFX5120-32C

QFX5120-48Z

QFX5120-48Y

QFX10002-36Q/72Q

QFX10002-60C

QFX10008

QFX10016

21.2R2-S1

QFX5120-48YM

21.4R2

ACX7024

ACX7100-32C

ACX7100-48L

24.2R2-EVO

Server-Leaf mit optimiertem Intersubnet Multicast (OISM)

QFX5110

QFX5120-32C

QFX5120-48Z

QFX5120-48Y

QFX10002-36Q/72Q

QFX10002-60C

QFX10008

QFX10016

21.4R2

QFX5130-32CD

QFX5700

22.2R2-EVO

PTX10001

PTX10004

PTX10008

23.2R2-EVO

Server-Leaf mit erweitertem OISM

QFX5120-32C

QFX5120-48Z

QFX5120-48Y

23.4R2

QFX5130-32CD

QFX5700

23.4R2-EVO

Border Spine5 (Datencenter-Gateway und DCI mit IPVPN)

QFX10002-36Q/72Q

QFX10008

QFX10016

17.3R3-S1

QFX5110

18.1R3-S3

MX204

MX240, MX480 und MX960 mit MPC7E

MX10003

MX10008

QFX5120-48Y2

18.4R2

QFX5120-32C

QFX10002-60C2

19.1R2

QFX5120-48T2

QFX10002-60C3

20.2R2

QFX5120-48YM

20.4R3

QFX5130-32CD

QFX5700

21.2R2-S1-EVO

Border Spine5 (Datencenter-Gateway und DCI mit EVPN-Routen vom Typ 5)

QFX10002-36Q/72Q

QFX10008

QFX10016

17.3R3-S1

QFX5110

18.1R3-S3

MX204

MX240, MX480 und MX960 mit MPC7E

MX10003

MX10008

QFX5120-48Y2

18.4R2

QFX5120-32C

QFX10002-60C2

19.1R2

QFX5120-48T2

QFX10002-60C3

20.2R2

QFX5120-48YM

20.4R3

QFX5130-32CD

QFX5700

21.2R2-S1-EVO

ACX7100-32C

ACX7100-48L

PTX10001

PTX10004

PTX10008

21.4R2-EVO

ACX7024

22.4R2-EVO

Border Spine5 (Dienstverkettung)

QFX10002-36Q/72Q

QFX10008

QFX10016

17.3R3-S1

QFX5110

18.1R3-S3

QFX5120-48Y2

18.4R2

MX204

MX240, MX480 und MX960 mit MPC7E

MX10003

MX10008

18.4R2-S2-KARTON

QFX5120-32C

QFX10002-60C2

19.1R2

QFX5120-48T2

QFX10002-60C3

20.2R2

QFX5120-48YM

20.4R3

QFX5130-32CD

QFX5700

21.2R2-S1-EVO

ACX7100-32C

ACX7100-48L

PTX10001

PTX10004

PTX10008

21.4R2-EVO

ACX7024

22.4R2-EVO

Border Spine mit IPv6 Underlay5 (einschließlich Datencenter-Gateway, DCI mit EVPN Typ 5-Routen und IPVPN sowie Serviceverkettung)

QFX5120-32C

QFX5120-48Z

QFX5120-48Y

QFX10002-36Q/72Q

QFX10002-60C

QFX10008

QFX10016

21.2R2-S1

QFX5120-48YM

21.4R2

Border Spine mit IPv6-Underlay5 (einschließlich Datencenter-Gateway, DCI mit EVPN-Typ-5-Routen und Serviceverkettung)

ACX7024

ACX7100-32C

ACX7100-48L

24.2R2-EVO

Border Spine mit DCI-Gateway – EVPN-VXLAN-zu-EVPN-MPLS-Stitching

ACX7024

ACX7100-32C

ACX7100-48L

PTX10001

PTX10008

23.4R2-EVO

Border Leaf (Datencenter-Gateway und DCI mit IPVPN)

QFX10002-36Q/72Q

QFX10008

QFX10016

17.3R3-S1

QFX5110

18.1R3-S3

QFX5120-48Y2

18.4R2

MX204

MX240, MX480 und MX960 mit MPC7E

MX10003

MX10008

18.4R2-S2-KARTON

QFX5120-32C

19.1R2

QFX5120-48T2

QFX10002-60C3

20.2R2

QFX5120-48YM

20.4R3

QFX5130-32CD

QFX5700

21.2R2-S1-EVO

Border Leaf (Datencenter-Gateway und DCI mit EVPN-Routen vom Typ 5)

QFX10002-36Q/72Q

QFX10008

QFX10016

17.3R3-S1

QFX5110

18.1R3-S3

QFX5120-48Y2

18.4R2

MX204

MX240, MX480 und MX960 mit MPC7E

MX10003

MX10008

18.4R2-S2-KARTON

QFX5120-32C

19.1R2

QFX5120-48T2

QFX10002-60C3

20.2R2

QFX5120-48YM

20.4R3

QFX5130-32CD

QFX5700

21.2R2-S1-EVO

ACX7100-32C

ACX7100-48L

PTX10001

PTX10004

PTX10008

21.4R2-EVO

ACX7024

22.4R2-EVO

Border Leaf (Dienstverkettung)

QFX10002-36Q/72Q

QFX10008

QFX10016

17.3R3-S1

QFX5110

18.1R3-S3

MX204

MX240, MX480 und MX960 mit MPC7E

MX10003

MX10008

18.4R2-S2-KARTON

QFX5120-32C

QFX5120-48Z

QFX5120-48Y

QFX10002-60C3

20.2R2

QFX5120-48YM

20.4R3

QFX5130-32CD

QFX5700

21.2R2-S1-EVO

ACX7100-32C

ACX7100-48L

PTX10001

PTX10004

PTX10008

21.4R2-EVO

ACX7024

22.4R2-EVO

Border Leaf mit IPv6-Underlay (einschließlich Datencenter-Gateway, DCI mit EVPN Typ 5-Routen und IPVPN sowie Serviceverkettung)

QFX5120-32C

QFX5120-48Z

QFX5120-48Y

QFX10002-36Q/72Q

QFX10002-60C

QFX10008

QFX10016

21.2R2-S1

QFX5120-48YM

21.4R2

Border Leaf mit IPv6-Underlay (einschließlich Datencenter-Gateway, DCI mit EVPN-Typ-5-Routen und Serviceverkettung)

ACX7024

ACX7100-32C

ACX7100-48L

24.2R2-EVO

Border Leaf mit DCI-Gateway und asymmetrischem IRB-EVPN-VXLAN-Stitching für Layer 2

QFX10002-36Q/72Q

QFX10002-60C

QFX10008

QFX10016

20.4R3-S1

QFX5130-32CD

QFX5700

22.2R2-EVO

QFX5120-32C

QFX5120-48Z

QFX5120-48Y

QFX5120-48YM

23.2R2

ACX7024

ACX7100-32C

ACX7100-48L

PTX10001

PTX10004

PTX10008

24.2R2-EVO

Border Leaf mit DCI-Gateway und symmetrischem IRB-EVPN-VXLAN-Stitching für Layer 2

QFX5120-32C

QFX5120-48Z

QFX5120-48Y

QFX5120-48YM

QFX10002-36Q/72Q

QFX10008

QFX10016

23.2R2

ACX7100-32C

ACX7100-48L

QFX5130-32CD

QFX5700

23.2R2-EVO

Border Leaf mit DCI-Gateway – EVPN-VXLAN-zu-EVPN-VXLAN-Stitching für EVPN-Routen Typ 5

MX204

MX240, MX480 und MX960 mit MPC7E

MX10003

MX10008

QFX5120-32C

QFX5120-48Z

QFX5120-48Y

QFX5120-48YM

QFX10002-36Q/72Q

QFX10002-60C

QFX10008

QFX10016

22.4R2

ACX7024

ACX7100-32C

ACX7100-48L

QFX5130-32CD

QFX5700

PTX10001

PTX10004

PTX10008

22.4R2-EVO

Border Leaf mit DCI-Gateway – EVPN-VXLAN-zu-EVPN-MPLS-Stitching

MX-Serie 21.4R2

ACX7024

ACX7100-32C

ACX7100-48L

PTX10001

PTX10008

23.4R2-EVO

Border Leaf mit optimiertem Intersubnet Multicast (OISM)

QFX10002-36Q/72Q

QFX10002-60C

QFX10008

QFX10016

21.4R2

QFX5120-32C

QFX5120-48Z

QFX5120-48Y

22.2R2

QFX5130-32CD

QFX5700

22.2R2-EVO

PTX10001

PTX10004

PTX10008

23.2R2-EVO

Border Leaf mit Enhanced OISM

QFX5120-32C

QFX5120-48Z

QFX5120-48Y

23.4R2

QFX5130-32CD

QFX5700

23.4R2-EVO

Schlanke Super-Wirbelsäule

QFX5110

QFX5120-32C

QFX5120-48Y

QFX5200

QFX5210-64C

QFX5220-32CD

QFX5220-128C

QFX10002-36Q/72Q/60C

QFX10008

QFX10016

20.2R2

QFX5120-48YM

20.4R3

ACX7100-32C

ACX7100-48L

PTX10001

PTX10004

PTX10008

QFX5130-32CD

QFX5700

21.2R2-S1-EVO

ACX7024

22.4R2-EVO

Lean Super Spine mit IPv6-Underlay

QFX5120-32C

QFX5120-48Y

QFX10002-36Q/72Q

QFX10002-60C

QFX10008

QFX10016

21.2R2-S1

QFX5120-48YM

21.4R2

Collapsed spine

Leaf mit Virtual Chassis

QFX5100

QFX5110

QFX5120

20.2R2

Collapsed Spine

MX204

MX240, MX480 und MX960 mit MPC7E

MX10003

MX10008

QFX5110

QFX5120-32C

QFX5120-48Z

QFX5120-48Y

QFX10002-36Q/72Q/60C

QFX10008

QFX10016

20.2R2

QFX5120-48YM

20.4R3

QFX5130-32CD

QFX5700

21.2R2-S1-EVO

ACX7100-32C

ACX7100-48L

PTX10001

PTX10004

PTX10008

21.4R2-EVO

ACX7024

22.4R2-EVO

1 Dieser Artikel enthält den ersten Junos OS- oder Junos OS Evolved-Release-Train, mit dem wir die Unterstützung für die Hardware im Referenzdesign vorstellen. Für jeden ersten Junos OS- oder Junos OS Evolved-Release Train unterstützen wir auch die Hardware mit späteren Versionen desselben Release Trains. Obwohl wir hier den ersten Junos OS- oder Junos OS Evolved-Release-Train auflisten, empfehlen wir Ihnen, die neuesten gehärteten Versionen zu verwenden, die auf der folgenden Seite aufgeführt sind: Data Center Architectures Hardened Release Information for EVPN/VXLAN.

arabische Ziffer Diese Hardware funktioniert zwar in dieser Rolle, unterstützt aber kein zentral geroutetes Multicast.

3 In dieser Funktion unterstützt der QFX10002-60C-Switch Multicast-Datenverkehr. Dieser Switch unterstützt jedoch Multicast in geringerem Umfang als die Switches QFX10002-36Q/72Q.

4 Informationen zur Multicast-Unterstützung finden Sie in der Anwendung Pathfinder Feature Explorer , um die Multicast-Funktionen und die Versionen, die die Funktion auf den einzelnen Plattformen unterstützen, zu erfahren.

5 Legen Sie für Geräte in der Rolle "Border Spine" einen größeren Wert für BFD-Timer (Bidirectional Forwarding Detection) im Overlay fest – 4 Sekunden oder höher mit einem Multiplikator von 3. Diese Einstellungen tragen dazu bei, ein mögliches Flattern der Spine-to-Leaf-Verbindung aufgrund des Ablaufs des BFD-Steuerungs-Timers zu vermeiden.

Diese Tabelle enthält keine Backbone-Geräte, die das Datencenter mit einer WAN-Cloud verbinden. Backbone-Geräte sorgen für die physische Konnektivität zwischen Datencentern und sind für DCI erforderlich. Weitere Informationen finden Sie unter Entwurf und Implementierung von Data Center Interconnect mit Routen vom Typ 5.

Schnittstellen – Zusammenfassung

In diesem Abschnitt werden die Schnittstellenverbindungen zwischen Spine- und Leaf-Geräten zusammengefasst, die in diesem Referenzdesign validiert wurden.

Es enthält die folgenden Abschnitte:

Schnittstellenübersicht

Im validierten Referenzdesign werden Spine- und Leaf-Geräte entweder über eine aggregierte Ethernet-Schnittstelle, die zwei Hochgeschwindigkeits-Ethernet-Schnittstellen umfasst, oder über eine einzelne Hochgeschwindigkeits-Ethernet-Schnittstelle miteinander verbunden.

Das Referenzdesign wurde mit den folgenden Kombinationen von Spine- und Leaf-Geräteverbindungen validiert:

  • Siehe Tabelle 1 für die miteinander verbundenen Plattformen, die in Spine- und Leaf-Geräterollen getestet wurden, ab den angegebenen Junos OS- und Junos OS Evolved-Hardening-Versionen.

    Wir verwenden Schnittstellen mit 10 Gbit/s, 25 Gbit/s, 40 Gbit/s oder 100 Gbit/s auf den unterstützten Plattformen, um Spine- und Leaf-Geräte miteinander zu verbinden. Ab Junos OS und Junos OS Evolved Version 23.2R2 verwenden wir auch 400-Gbit/s-Schnittstellen für die Verbindung von Leaf-and-Spine-Geräten, die diese Geschwindigkeit unterstützen.

  • Wir haben Kombinationen von aggregierten Ethernet-Schnittstellen mit zwei 10-Gbit/s-, 25-Gbit/s-, 40-Gbit/s-, 100-Gbit/s- und 400-Gbit/s-Mitgliedsschnittstellen zwischen den unterstützten Plattformen validiert.

  • Wir haben kanalisierte 10-Gbit/s-, 25-Gbit/s-, 40-Gbit/s- oder 100-Gbit/s-Schnittstellen validiert, die zur Verbindung von Spine- und Leaf-Geräten als Einzelglieder oder als Mitgliederverbindungen in einem aggregierten 2-Komponenten-Ethernet-Bundle verwendet werden.

Zusammenfassung der Spine-Geräteschnittstelle

Wie bereits erwähnt, umfasst das validierte Design bis zu 4 Spine-Geräte und Leaf-Geräte, die über eine oder zwei Hochgeschwindigkeits-Ethernet-Schnittstellen miteinander verbunden sind.

QFX10008 und QFX10016 Switches wurden verwendet, da sie die für dieses Referenzdesign erforderliche Portdichte erreichen können. Informationen zu unterstützten Linecards und der Anzahl der von diesen Switches unterstützten Hochgeschwindigkeits-Ethernet-Schnittstellen finden Sie unter QFX10008 Hardwareübersicht oder QFX10016 Hardwareübersicht .

QFX10002-36Q/72Q-, QFX10002-60C- und QFX5120-32C-Switches haben jedoch nicht die Portdichte, um dieses Referenzdesign in den größeren Maßstäben zu unterstützen, können aber als Spine-Geräte in kleineren Umgebungen eingesetzt werden. Informationen zur Anzahl der auf QFX10002-36Q/72Q-, QFX10002-60C- bzw. QFX5120-32C-Switches unterstützten Hochgeschwindigkeits-Ethernet-Schnittstellen finden Sie unter QFX10002-Hardwareübersicht und QFX5120-Systemübersicht .

Alle Optionen für kanalisierte Spine-Geräte werden im validierten Referenzdesign getestet und unterstützt.

Zusammenfassung der Leaf-Geräteschnittstelle

Jedes Leaf-Gerät im Referenzdesign wird mit den vier Spine-Geräten verbunden und verfügt über die Portdichte, die zur Unterstützung dieses Referenzdesigns erforderlich ist.

Anzahl und Arten von Hochgeschwindigkeits-Ethernet-Schnittstellen, die als Uplink-Schnittstellen für Spine-Geräte verwendet werden, variieren je nach Leaf-Device-Switch-Modell.

Informationen zu den einzelnen Leaf-Geräte-Switch-Modellen finden Sie in den folgenden Dokumenten: