Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Présentation de l’architecture de dorsale réduite avec le multihébergement EVPN

À propos de cet exemple de configuration réseau

Cet exemple de configuration réseau (NCE) montre comment configurer une fabric de centre de données à dorsale réduite qui vous permet d’utiliser vos commutateurs top-of-rack de couche 2 existants à la place des équipements de branche. Il montre également comment utiliser le multihébergement EVPN pour fournir une fonctionnalité LAG multichâssis pour les commutateurs top-of-rack de couche 2.

En outre, il montre également comment configurer l’interconnexion du centre de données et les services de sécurité avancés pour le trafic entre locataires via un cluster de châssis SRX.

Note:

Juniper Networks requiert une licence pour EVPN-VXLAN sur les commutateurs QFX Series. Consultez le Guide des licences pour plus d’informations.

Aperçu du cas d’utilisation

Les centres de données des grandes entreprises migrent vers des architectures overlay utilisant une fabric IP de bout en bout avec une superposition VXLAN et un plan de contrôle EVPN. En utilisant un underlay IP de couche 3 dans le cœur couplé à une superposition EVPN-VXLAN sur les commutateurs top-of-rack (ToR), les opérateurs de datacenters et de cloud peuvent déployer des réseaux beaucoup plus grands que ce qui est possible avec les architectures Ethernet de couche 2 traditionnelles.

Toutefois, il est possible que les anciens commutateurs ToR ne prennent pas en charge EVPN-VXLAN. Dans les datacenters équipés de commutateurs ToR qui ne prennent en charge que le trafic de couche 2, les commutateurs spine sont responsables du routage entre les VLAN. Il est nécessaire de mettre en place une architecture de centre de données qui dissocie le réseau sous-jacent du réseau superposé des locataires grâce à des technologies telles que VXLAN. Vous pouvez y parvenir avec une architecture de cœur de réseau réduite.

Une architecture Spine réduite n’a pas de couche Leaf. Au lieu de cela, la sous-couche IP de couche 3 et la fonctionnalité de superposition EVPN-VXLAN qui s’exécute normalement sur les commutateurs leaf sont réduites sur les commutateurs spine. Les commutateurs centraux font également office de passerelle de bordure.

Une architecture Spine réduite avec multihébergement EVPN est idéale pour les organisations ayant :

  • Il prévoit de passer à une architecture basée sur la fabric IP avec un overlay EVPN-VXLAN.

  • Des datacenters de petite taille avec un trafic principalement nord-sud.

  • Il est nécessaire d’étendre le trafic de couche 2 aux centres de données.

  • Commutateurs ToR hérités multifournisseurs ne prenant pas en charge EVPN-VXLAN.

  • Exigences actuelles ou futures pour la prise en charge de plus de deux commutateurs de cœur de réseau afin de garantir une bande passante adéquate en cas de maintenance ou de défaillance du cœur de réseau.

  • Un besoin d’alternative à l’architecture MC-LAG (protocole ICCP).

Présentation technique

Présentation de l’architecture de multihébergement réduit avec EVPN

Ce NCE montre comment déployer une architecture de cœur de réseau réduit pour deux centres de données dotés chacun de deux commutateurs de cœur de réseau QFX5120 et de deux commutateurs ToR de couche 2 déployés en tant que Virtual Chassis. Les datacenters sont connectés les uns aux autres via les équipements de cœur de réseau grâce à l’interconnexion du datacenter de couche 3 (DCI). Utilisez le multihébergement EVPN pour multihéberger les commutateurs ToR vers les périphériques de cœur de réseau. Les serveurs sont multirésidents sur les commutateurs ToR. La figure 1 montre l’architecture de dorsale réduite terminée.

Figure 1 : architecture dorsale réduite avec multihébergement EVPN Collapsed Spine Architecture with EVPN Multihoming

Pour la prise en charge du multicast, nous proposons :

  • Multicast de couche 3 dans une conception QFX5120 collapsed spine à l’aide d’EVPN OISM avec des domaines de pont symétriques.

  • Surveillance IGMPv2 multicast de couche 2 dans EVPN-VXLAN à l’aide de :

    • Routes EVPN Selective Multicast Ethernet Tag (SMET) de type 6

    • Les routes de synchronisation de jointure et de sortie EVPN (type 7 et type 8) lorsqu’un récepteur multicast est multihébergé au niveau de la couche 2 vers les périphériques de cœur de réseau réduits à l’aide d’un ESI-LAG.

Comprendre l’architecture de dorsale réduite

Dans une architecture Spine réduite, les équipements Spine font office de périphériques Spine et Leaf. Étant donné que les TdR sont de couche 2 uniquement et ne prennent pas en charge VXLAN, ils n’agissent pas comme des équipements de branche. L’activité normale des équipements leaf est gérée, ou réduite, sur les équipements spine, ce qui signifie que VXLAN n’est requis que sur les équipements spine. La dorsale réduite fonctionne comme une passerelle de couche 3 et gère le trafic entre les VXLAN à l’aide d’interfaces IRB.

Comprendre le multihébergement EVPN

Dans un datacenter hérité avec une architecture spine réduite, les commutateurs ToR doivent être connectés aux commutateurs spine avec des groupes d’agrégation de liens multichâssis (MC-LAG) pour améliorer la résilience du réseau. MC-LAG fournit une redondance au niveau du nœud et au niveau de la liaison. Traditionnellement, les commutateurs centraux de ces datacenters utilisent le protocole ICCP (Inter-Chassis Control Protocol) pour fournir la fonctionnalité MC-LAG. Cependant, MC-LAG avec ICCP :

  • Il s’agit d’une technologie propriétaire.

  • Impossible d’étirer efficacement la couche 2 entre les centres de données.

  • Ne prend pas en charge plus de deux commutateurs centraux.

EVPN est une solution de multihébergement standardisée qui s’étend horizontalement sur deux commutateurs de cœur de réseau ou plus pour offrir une résilience et une bande passante accrues en cas de défaillance du cœur de réseau. Le multihébergement EVPN, également connu sous le nom d’ESI-LAG, fournit la fonctionnalité MC-LAG pour les commutateurs ToR de couche 2 et les serveurs de cette architecture sans les inconvénients du MC-LAG basé sur ICCP.

Une architecture de cœur de réseau réduit, où les commutateurs ToR sont multirésidents sur les dorsales, est une architecture de centre de données qui prend en charge les anciens commutateurs ToR lorsqu’ils ne prennent pas en charge EVPN-VXLAN. La figure 2 illustre une architecture spine réduite avec deux commutateurs spine pour plus de simplicité et un périphérique ToR implémenté en tant que Virtual Chassis (voir Présentation de Virtual Chassis).

Figure 2 : multihébergement EVPN des commutateurs EVPN Multihoming of ToR Switches ToR

Comprendre le VXLAN

Les superpositions de réseau sont créées en encapsulant le trafic et en le canalisant vers un réseau physique. Le protocole de tunnelisation VXLAN encapsule les trames Ethernet de couche 2 dans des paquets UDP de couche 3. VXLAN permet d’établir des sous-réseaux ou des segments virtuels de couche 2 qui peuvent s’étendre sur le réseau physique de couche 3 sous-jacent.

Dans un réseau de superposition VXLAN, chaque sous-réseau ou segment de couche 2 est identifié de manière unique par un identifiant de réseau virtuel (VNI). Un VNI segmente le trafic de la même manière qu’un ID VLAN. Comme c’est le cas pour les VLAN, les terminaux d’un même réseau virtuel peuvent communiquer directement entre eux. Les points de terminaison de différents réseaux virtuels nécessitent un équipement qui prend en charge le routage entre VNI.

L’entité responsable de l’encapsulation et de la décapsulation VXLAN s’appelle un point de terminaison de tunnel VXLAN (VTEP). Chaque VTEP se voit généralement attribuer une adresse IP unique.

Comprendre l’EVPN

EVPN est l’une des extensions de BGP qui permet au réseau de transporter les informations d’accessibilité de la couche réseau (NLRI) telles que les adresses MAC de couche 2 et les adresses IP de couche 3. Cette technologie de plan de contrôle utilise MP-BGP pour la distribution des adresses MAC et IP des terminaux, où les adresses MAC sont traitées comme des routes. L’EVPN permet aux équipements faisant office de VTEP d’échanger entre eux des informations sur l’accessibilité de leurs terminaux.

L’EVPN assure le transfert multichemin et la redondance via un modèle entièrement actif. La couche d’accès peut se connecter à deux équipements de cœur de réseau ou plus et transférer le trafic sur toutes les liaisons. En cas de défaillance d’une liaison d’accès ou d’un équipement Spine, le trafic est acheminé de la couche d’accès vers la couche de cœur de réseau en utilisant les liens actifs restants. Pour le trafic dans l’autre sens, les équipements de cœur de réseau distants mettent à jour leurs tables de transfert pour envoyer le trafic vers les équipements de cœur de réseau actifs restants connectés au segment Ethernet multirésident.

Réseau superposé

Cette architecture utilise VXLAN comme protocole d’encapsulation du plan de données superposé et MP-BGP avec signalisation EVPN comme protocole de plan de contrôle superposé.

Superposition du plan de données

Cette architecture utilise VXLAN comme protocole d’encapsulation du plan de données overlay sur les commutateurs de cœur de réseau réduits. Un commutateur qui fonctionne comme une passerelle VXLAN de couche 2 ou de couche 3 agit comme le point de terminaison de tunnel VXLAN et peut encapsuler et décapsuler les paquets de données.

Dans un déploiement de centre de données unique avec deux commutateurs centraux, la superposition VXLAN entre les commutateurs centraux est utilisée pour le trafic entre les deux appareils. Par exemple, si un serveur monohoming est connecté à l’un des équipements de cœur de réseau, la superposition VXLAN achemine le trafic vers l’autre équipement Spine, soit par conception, soit en cas de défaillance de liaison.

Comme illustré sur la figure ci-dessous, le serveur DHCP est monohoming sur le cœur de réseau 1. Le trafic du client DHCP peut être envoyé vers Spine 2 en raison du partage de charge. Spine 2 envoie le trafic au serveur DHCP via la superposition VXLAN avec Spine 1.

Figure 3 : topologie Data Plane Overlay Topology de superposition du plan de données

Superposition du plan de contrôle

Dans cet exemple, MP-BGP avec signalisation EVPN fait office de protocole de plan de contrôle de superposition. Les commutateurs de cœur de réseau établissent des sessions IBGP entre eux. La figure 4 illustre la topologie du réseau superposé.

Figure 4 : topologie Control Plane Overlay Topology de superposition du plan de contrôle

Réseau sous-jacent

Dans les centres de données plus petits, il n’y a pas de couche super spine, de sorte que les commutateurs spine sont directement connectés les uns aux autres. Les commutateurs de cœur de réseau peuvent utiliser un protocole de routage dynamique dans l’underlay. Dans le réseau sous-jacent, la principale exigence est que tous les équipements centraux disposent d’une accessibilité en bouclage. Vous pouvez utiliser n’importe quel protocole de routage de couche 3 pour échanger des adresses de bouclage entre les équipements centraux et dorsaux.

Dans cet exemple, nous utilisons EBGP comme protocole de routage sous-jacent entre les commutateurs de cœur de réseau. EBGP offre des avantages tels qu’un meilleur filtrage des préfixes, une meilleure ingénierie du trafic et un meilleur balisage du trafic. La figure 5 illustre la topologie du réseau sous-jacent Spine

Figure 5 : topologie Spine Underlay Topology de sous-couche dorsale
Note:

Utilisez au moins deux liaisons entre les commutateurs centraux. Une perte de connectivité entre les commutateurs centraux peut conduire à un état de cerveau divisé. Pour plus d’informations, reportez-vous à la section État du cerveau divisé .

Commutateurs top-of-rack

Étant donné que les commutateurs ToR ne font pas partie de la fabric EVPN-VXLAN et fonctionnent uniquement au niveau de la couche 2, vous pouvez les implémenter en tant que Virtual Chassis. Dans cet exemple, les commutateurs ToR sont déployés en tant que Virtual Chassis à deux membres.

Les liaisons montantes entre les commutateurs ToR et les commutateurs spine sont des ports LAG trunk de couche 2 avec des VLAN pertinents pour le commutateur ToR. Chaque Virtual Chassis est multihébergé sur deux commutateurs centraux à l’aide du multihébergement EVPN. La figure 6 illustre la topologie d’un Virtual Chassis en tant qu’équipement ToR multihébergé sur les deux équipements centraux. Pour des raisons de redondance et d’amélioration de la résilience, cette figure montre des connexions spine à ToR Virtual Chassis qui sont liées à différents membres de Virtual Chassis, de sorte que le périphérique Virtual Chassis ToR reste accessible même si l’un des membres de Virtual Chassis tombe en panne.

Figure 6 : topologie ToR Switch Topology du commutateur ToR

Les connexions spine to ToR Virtual Chassis dans les liaisons Ethernet agrégées de multihébergement peuvent également inclure des liens vers le même membre Virtual Chassis, c’est ainsi que cet exemple de configuration réseau est configuré. La Figure 7 montre une vue logique de la topologie de multihébergement correspondant à la configuration de ce document.

Figure 7 : topologie de multihébergement EVPN d’un commutateur ToR dans cet exemple ToR Switch EVPN Multihoming Topology in this Network Configuration Example de configuration réseau

Présentation de Virtual Chassis

Dans cet exemple, nous implémentons les commutateurs ToR dans un Virtual Chassis. Virtual Chassis peut interconnecter plusieurs commutateurs autonomes en un seul équipement logique et gérer le périphérique logique comme un châssis unique. Utilisez Virtual Chassis pour les commutateurs ToR afin de :

  • Gérez plusieurs équipements comme un seul équipement avec des capacités identiques ou similaires à celles de l’équipement autonome.

  • Augmentez la tolérance de panne et la haute disponibilité.

  • Aplatissez, optimisez votre réseau et réduisez la surcharge réseau en permettant aux périphériques réseau de se synchroniser avec un périphérique logique résilient.

  • Mettez en place une topologie de réseau de couche 2 simplifiée qui minimise ou élimine le besoin de protocoles de prévention de boucle tels que le protocole STP (Spanning Tree Protocol).

  • Assurez la redondance et le partage de charge des serveurs multirésidents entre les membres de Virtual Chassis.

Note:

Virtual Chassis fournit un plan de contrôle unique et un plan de données distribué pour une gestion simplifiée au niveau de la couche ToR. Les commutateurs ToR se comportent comme des cartes de ligne sur un châssis unique. Étant donné que le Virtual Chassis se comporte comme un châssis unique, les serveurs connectés au Virtual Chassis peuvent subir des temps d’arrêt lors des mises à niveau logicielles des commutateurs ToR.

Serveurs

Dans cet exemple, les serveurs de centre de données sont multirésidents sur les commutateurs ToR déployés en tant que Virtual Chassis. La connectivité serveur peut être répartie sur les deux commutateurs ToR avec LAG.

Figure 8 : topologie ToR avec des serveurs ToR Topology With Multihomed Servers multirésidents

Cluster de châssis SRX

Dans cet exemple, nous déployons des équipements de sécurité SRX dans un cluster de châssis qui est connecté aux équipements de cœur de réseau pour fournir une sécurité avancée. Dans un cluster de châssis, deux pare-feu SRX Series fonctionnent comme un seul appareil pour assurer la redondance des appareils, des interfaces et des niveaux de service. Les fichiers de configuration et les états de session d’exécution dynamiques sont synchronisés entre les pare-feu SRX Series d’un cluster de châssis. Utilisez un cluster de châssis SRX pour :

  • Évitez les défaillances d’un seul appareil entraînant une perte de connectivité.

  • Assurez une haute disponibilité entre les équipements de sécurité lors de la connexion des filiales et des sites distants aux bureaux plus importants de l’entreprise.

  • Assurez la connectivité en cas de défaillance d’un appareil ou d’une liaison.

Figure 9 : implémentation d’un SRX Chassis Cluster Implementation cluster de châssis SRX