Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Comment configurer une dorsale réduite avec le multihébergement EVPN

Exigences

Cet exemple suppose que vous disposez de deux centres de données (DC1 et DC2) avec des réseaux distincts. Cet exemple utilise les périphériques et logiciels suivants :

  • DC1 :

    • Deux commutateurs de cœur de réseau : QFX5120-48Y exécutant Junos OS version 18.4R2-S1.4

    • Deux commutateurs ToR : EX4300-48T exécutant Junos OS version 18.1R3-S6.1

    • Deux équipements de sécurité : équipements SRX345 exécutant Junos OS version 18.2R3.4 (configuration complémentaire en option)

    • Quatre serveurs

  • DC2 :

    • Deux commutateurs de cœur de réseau : QFX5120-48Y exécutant Junos OS version 18.4R2-S1.4

    • Deux commutateurs ToR : EX4300-48T exécutant Junos OS version 18.1R3-S6.1

    • Deux serveurs

Chaque paire de commutateurs ToR doit déjà être configurée en tant que Virtual Chassis. Reportez-vous à la section Présentation du Virtual Chassis EX Series pour plus d’informations sur la création d’un Virtual Chassis avec les commutateurs EX4300. Cet exemple de configuration utilise des liaisons Ethernet agrégées de multihébergement entre le Virtual Chassis ToR et les deux périphériques de cœur de réseau sur un seul membre du Virtual Chassis. Si possible, pour une meilleure résilience, vous pouvez connecter les liaisons Ethernet agrégées de multihébergement entre le Virtual Chassis et les équipements de cœur de réseau à l’aide d’interfaces de différents membres de Virtual Chassis.

Aperçu

Utilisez cet exemple pour configurer une architecture de dorsale réduite avec le multihébergement EVPN des commutateurs ToR. Nous disposons de deux centres de données avec une configuration d’interconnexion du datacenter (DCI) en option, un cluster SRX en option pour plus de sécurité et une configuration de relais DHCP en option. Cet exemple de configuration vous montre comment configurer cette architecture dans DC1. Vous pouvez utiliser une configuration similaire dans DC2.

Topologie

Dans ce déploiement, il y a deux datacenters : DC1 et DC2. Les réseaux de centres de données sont configurés avec une architecture de cœur de réseau réduite utilisant des QFX5120 comme commutateurs de cœur de réseau. Dans ce cas, nous vous recommandons de limiter la structure EVPN-VXLAN au centre de données local.

Si vous le souhaitez, vous pouvez connecter les centres de données à l’aide d’une DCI de couche 3 dans l’underlay. Ce cas d’usage ne nécessite pas d’extension de couche 2 entre les centres de données. Le trafic entre centres de données est uniquement de couche 3 et est acheminé via le cluster SRX dans le centre de données 1 pour une inspection avancée.

La figure 1 illustre la connectivité logique entre les composants utilisés dans ce RCE.

Figure 1 : topologie Logical Topology logique

Il existe deux locataires dans DC1 : JNPR1 et JNPR2. Tout trafic interlocataire entre JNPR1 et JNPR2 dans DC1 est acheminé via le cluster de pare-feu SRX à des fins de sécurité.

  • DC1 :

    • Les VLAN 201 et 202 appartiennent à JNPR1.

    • Les VLAN 211 et 212 appartiennent à JNPR2.

    • DC1 a des serveurs dans les VLAN 201, 202, 211 et 212.

  • DC2 :

    • Les VLAN 221 et 222 appartiennent au locataire par défaut, qui est identique à l’instance de routage par défaut.

    • DC2 dispose de serveurs dans les VLAN 221 et 222.

La figure 2 montre la connectivité physique entre les composants utilisés dans ce RCE.

Figure 2 : topologie Physical Topology physique

Avant de commencer

Vous devez implémenter une configuration de base sur vos équipements avant de configurer la structure.

Procédure

Procédure étape par étape

  1. Par défaut, aucune interface Ethernet agrégée n’est créée. Vous devez définir le nombre d’interfaces Ethernet agrégées avant de pouvoir les configurer. Une fois que vous avez défini le nombre d’appareils, le système crée ce nombre d’interfaces Ethernet agrégées vides, chacune avec une adresse MAC unique au monde. Vous pouvez créer davantage d’interfaces Ethernet agrégées en réduisant le nombre d’interfaces ESI-LAG au nombre d’interfaces ESI-LAG requises sur l’équipement.

    Définissez le nombre d’interfaces Ethernet agrégées sur tous les commutateurs centraux et les commutateurs ToR.

  2. Les ports 0 à 47 d’un QFX5120-48Y fonctionnent comme des ports 10 Gigabit par défaut. Les équipements SRX ne prennent en charge que 1 Gigabit. Configurez les ports des cœurs 1 et 2 connectés au pare-feu SRX Series pour qu’ils soient des ports 1 gigabit. Dans ce cas, il s’agit de ge-0/0/10 et ge-0/0/11. Pour activer 1 Gigabit sur ces ports, configurez la vitesse du premier port du quadrilatère, qui dans ce cas est ge-0/0/8.

    Utilisez l’instruction suivante sur les dos 1 et 2 :

    Note:

    Vous pouvez configurer les vitesses de port 1 Gigabit et 25 Gigabit uniquement par quad (groupe de quatre ports) et non individuellement. Tous les ports fonctionnent à la même vitesse au sein du quadrilatère. Par exemple, si vous configurez les ports 8 à 11 pour qu’ils fonctionnent comme des ports Ethernet 1 Gigabit et que vous insérez un émetteur-récepteur SFP+ 10 Gigabit dans le port 10, aucune interface n’est créée pour ce port.

  3. Le mode de détection automatique de la vitesse détecte les interfaces Ethernet 100 Gigabit et 40 Gigabit et les canalise automatiquement. La canalisation automatique et la détection de vitesse sont activées par défaut. Dans cet exemple, la canalisation automatique divise chaque interface Ethernet 40 Gigabit en quatre interfaces Ethernet 10 Gigabit.

    Désactivez la canalisation automatique sur les ports et-0/0/2 et et-0/0/31 sur le cœur 3 et les ports et-0/0/49 et et-0/0/50 sur le cœur 4 afin qu’ils restent des interfaces Ethernet 40 gigabits.

    Colonne vertébrale 3 :

    Colonne vertébrale 4 :

Configurer le calque sous-jacent

Dans cette topologie, la fabric IP se trouve uniquement entre les deux commutateurs centraux, comme illustré sur la Figure 3. Les deux commutateurs de cœur de réseau établissent un appairage EBGP sur les liaisons point à point afin d’échanger des adresses de bouclage entre eux.

Figure 3 : topologie IP Fabric Topology de fabric IP

Configurer le cœur de réseau 1

Procédure étape par étape

  1. Configurez les interfaces sur Spine 1.

  2. Configurez le sous-calque EBGP.

  3. Configurez les stratégies d’importation et d’exportation.

  4. Activez ECMP et la protection contre le reroutage rapide ECMP. Activez l’équilibrage de charge par flux, ce que vous faites avec le per-packet mot-clé.

    En cas de panne d’une liaison, ECMP utilise la protection contre le reroutage rapide pour déplacer le transfert de paquets vers les liaisons opérationnelles, ce qui réduit la perte de paquets. La protection de reroutage rapide met à jour les ensembles ECMP pour l’interface sans avoir à attendre la mise à jour de la table de routage. Lors de la prochaine mise à jour de la table de routage, un nouvel ensemble ECMP peut être ajouté avec moins de liaisons, ou le routage peut pointer vers un seul saut suivant.

  5. Par défaut, le minuteur de vieillissement ARP est réglé sur 20 minutes et le minuteur de vieillissement MAC est réglé sur 5 minutes. Pour éviter les problèmes de synchronisation avec les entrées de liaison MAC et MAC-IP dans un environnement EVPN-VXLAN, configurez la génération ARP pour qu’elle soit plus rapide que la génération MAC.

Configurer le cœur de réseau 2

Procédure étape par étape

Répétez la configuration à partir du dos 1 sur le dos 2.

  1. Configurez les interfaces sur Spine 2.

  2. Configurez le sous-calque EBGP.

  3. Configurez les stratégies d’importation et d’exportation.

  4. Activez ECMP et la protection contre le reroutage rapide ECMP.

  5. Pour éviter les problèmes de synchronisation avec les entrées de liaison MAC et MAC-IP dans un environnement EVPN-VXLAN, configurez la génération ARP pour qu’elle soit plus rapide que la génération MAC.

Vérification de l’underlay

Procédure étape par étape

  1. Vérifiez que les deux sessions voisines BGP sont établies sur le cœur de réseau 1.

  2. Vérifiez que l’adresse de bouclage du cœur de réseau 2 (192.168.255.12) est reçue par le cœur de réseau 1 à partir des deux sessions voisines BGP.

  3. Envoyez une requête ping au bouclage de l’autre équipement Spine à partir du serveur principal 1.

Configurer l’overlay

Cette section montre comment configurer la superposition. Il inclut les appairages IBGP et les mappages VLAN à VXLAN pour les réseaux virtuels.

Configurer le cœur de réseau 1

Procédure étape par étape

  1. Configurez l’appairage IBGP entre les adresses de bouclage Spine 1 et Spine 2.

  2. Configurez les VLAN et le mappage VLAN à VXLAN.

  3. Configurez les options de commutateur suivantes :

    • L’interface source du point de terminaison de tunnel virtuel (VTEP). Il s’agit de l’adresse de bouclage sur Spine 1.

    • Le distinguateur de route pour les routes générées par cet appareil.

    • La cible de l’itinéraire.

    La cible de route configurée sous vrf-target est utilisée par les routes EVPN de type 1. Les routes EVPN de type 2 et de type 3 utilisent la cible de route par VNI dérivée automatiquement pour l’exportation et l’importation.

  4. Configurez le protocole EVPN. Tout d’abord, configurez VXLAN comme encapsulation du plan de données pour EVPN.

    Ensuite, configurez les VNI qui font partie de ce domaine EVPN-VXLAN MP-BGP. Permet set protocols evpn extended-vni-list all de configurer tous les VNI ou de configurer chaque VNI séparément, comme indiqué ci-dessous.

  5. Si le datacenter ne comporte que deux commutateurs centraux qui n’ont que des sessions BGP voisines l’un avec l’autre, vous devez désactiver l’isolation centrale sur les deux commutateurs centraux. Dans le cas contraire, si un commutateur Spine tombe en panne, l’autre commutateur Spine perd toutes les sessions BGP voisines, ce qui place les ports orientés ToR en mode veille LACP et entraîne une perte totale du trafic. Pour plus d’informations, consultez État du cerveau divisé et Comprendre quand désactiver l’isolation centrale EVPN-VXLAN .

Configurer le cœur de réseau 2

Procédure étape par étape

  1. Pour éviter les problèmes de synchronisation avec les entrées de liaison MAC et MAC-IP dans un environnement EVPN-VXLAN, configurez la génération ARP pour qu’elle soit plus rapide que la génération MAC.

  2. Configurez l’appairage IBGP.

  3. Configurez les VLAN et le mappage VLAN à VXLAN.

  4. Configurez les options de commutateur suivantes.

  5. Configurez le protocole EVPN.

    Ensuite, configurez les VNI qui font partie de ce domaine EVPN-VXLAN MP-BGP. Permet set protocols evpn extended-vni-list all de configurer tous les VNI ou de configurer chaque VNI séparément, comme indiqué ci-dessous.

  6. Si le centre de données ne comporte que deux commutateurs centraux qui n’ont que des sessions BGP voisines l’un avec l’autre, vous devez désactiver l’isolation centrale sur les deux commutateurs centraux.

Vérification de la superposition

Procédure étape par étape

  1. Vérifiez que l’appairage IBGP entre les cœurs 1 et 2 est établi.

  2. Vérifiez le VTEP source pour le domaine EVPN.

  3. Vérifiez tous les VTEP sources et distants.

Configurer et segmenter la couche 3

Configurer le cœur de réseau 1

Procédure étape par étape

  1. Configurez les options de routage et de transfert.

    Note:

    La modification des options de routage et de transfert telles que next-hop, overlay-ecmp, ou chained-composite-next-hop entraîne le redémarrage du moteur de transfert de paquets, ce qui interrompt toutes les opérations de transfert.

    • Définissez le nombre de sauts suivants au moins sur le nombre attendu d’entrées ARP dans la superposition. Reportez-vous à la section Saut suivant (routage VXLAN) pour plus d’informations sur la configuration vxlan-routing next-hopde .

    • Activez les sauts suivants multichemins à deux niveaux à coût égal à l’aide de l’instruction overlay-ecmp . Cette instruction est requise pour un réseau de superposition EVPN-VXLAN de couche 3 lorsque le routage de type 5 pur est également configuré. Nous vous recommandons vivement de configurer cette instruction lorsque les routes de type 5 pur sont activées.

    • La chained-composite-next-hop configuration est indispensable pour l’EVPN pur Type 5 avec encapsulation VXLAN. Sans cela, le PFE ne configurera pas le tunnel à l’étape suivante.

    • Configurez l’ID du routeur pour qu’il soit identique à l’adresse IP de bouclage utilisée comme source VTEP et à l’adresse locale BGP de superposition.

  2. Pour activer la fonction de passerelle par défaut, configurez les interfaces IRB avec chacune une adresse IP unique et une adresse de passerelle virtuelle (VGA), qui doit être une adresse IP anycast. Lorsque vous spécifiez une adresse IPv4 pour le VGA, la passerelle VXLAN de couche 3 génère automatiquement 00:00:5e :00:01:01 comme adresse MAC. Cet exemple vous montre comment configurer manuellement l’adresse MAC de la passerelle virtuelle. Configurez la même adresse MAC de passerelle virtuelle sur les deux périphériques de cœur de réseau pour un IRB donné.

    Note:

    Si l’adresse IP VGA est inférieure à l’adresse IP IRB, vous devez utiliser l’option preferred dans la configuration IRB, comme indiqué dans cet exemple.

  3. Vous allez configurer les mêmes adresses IP et MAC IRB anycast sur les interfaces IRB de chaque équipement Spine. Étant donné que les périphériques de cœur de réseau agissent à la fois comme des équipements de cœur de réseau et de branche dans une architecture de cœur de réseau réduit, ils sont les seuls appareils qui ont besoin de connaître les interfaces IRB. Désactivez l’annonce des interfaces IRB aux autres périphériques.

  4. Placez les IRB appartenant aux différents locataires dans leurs instances de routage respectives. Cela permet aux IRB des mêmes instances de routage de partager une table de routage. Par conséquent, les IRB d’une instance de routage peuvent s’acheminer les uns vers les autres. Les IRB de différentes instances de routage peuvent communiquer entre elles soit par le biais d’un outil externe d’application des politiques de sécurité tel que les pare-feu SRX, soit si nous divulguons explicitement des routes entre les instances de routage.

  5. Configurez un VNI de type 5 pour les instances de routage. Lors de la configuration d’une instance de routage pour EVPN-VXLAN, vous devez inclure une interface de bouclage et son adresse IP. Si vous omettez l’interface de bouclage et l’adresse IP associée, les paquets de contrôle EVPN ne peuvent pas être traités.

Configurer le cœur de réseau 2

Procédure étape par étape

  1. Configurez les options de routage et de transfert.

    Note:

    La modification des options de routage et de transfert telles que next-hop, overlay-ecmp, ou chained-composite-next-hop entraîne le redémarrage du moteur de transfert de paquets, ce qui interrompt toutes les opérations de transfert.

  2. Configurez l’IRB.

  3. Étant donné que vous avez configuré les mêmes adresses IP et MAC IRB anycast sur les interfaces IRB des deux commutateurs centraux, désactivez l’annonce des interfaces IRB à d’autres périphériques.

  4. Placez les IRB appartenant aux différents locataires dans leurs instances de routage respectives.

  5. Configurez un VNI de type 5 pour les instances de routage.

Configurer le multihébergement EVPN pour les commutateurs ToR

Le multihébergement EVPN utilise des ESI. Un ESI est un attribut obligatoire qui active le multihébergement de serveur EVPN LAG. Les valeurs ESI sont codées sous forme d’entiers de 10 octets et sont utilisées pour identifier un segment multirésident. La même valeur ESI activée sur tous les commutateurs spine connectés à un commutateur ToR forme un EVPN LAG. Ce LAG EVPN prend en charge le multihébergement actif-actif vers le commutateur ToR.

Les commutateurs ToR (implémentés en tant que Virtual Chassis ToR dans cet exemple) utilisent un LAG pour se connecter aux deux commutateurs centraux. Comme illustré sur la Figure 4, ToR1 est connecté aux commutateurs centraux avec LAG ae1. Ce LAG sur les commutateurs de cœur de réseau est activé par la fonction de multihébergement EVPN.

Figure 4 : configuration de multihébergement EVPN pour le ToR 1 EVPN Multihoming Configuration for ToR 1

Configurer le cœur de réseau 1

Procédure étape par étape

  1. Par défaut, les interfaces Ethernet agrégées ne sont pas créées. Vous devez définir le nombre d’interfaces Ethernet agrégées sur le commutateur avant de pouvoir les configurer.

  2. Configurez un ESI. Réglez-le de la même manière sur les deux commutateurs centraux. Activez les modes tous actifs.

    Note:

    Vous pouvez également dériver automatiquement ESI. Dans cet exemple, vous configurez manuellement ESI.

  3. Configurez l’ID système LACP. Définissez-le de la même manière sur les deux commutateurs centraux pour indiquer aux commutateurs ToR que les liaisons montantes vers les deux commutateurs centraux appartiennent au même bundle LAG. Par conséquent, les commutateurs ToR placent les liaisons montantes vers les deux commutateurs centraux dans le même bundle LAG et partagent la charge du trafic sur les liaisons membres.

  4. Configurez l’interface physique sur la colonne vertébrale 1 connectée à ToR 1 en tant que membre du LAG ae1.

Configurer le cœur de réseau 2

Procédure étape par étape

  1. Définissez le nombre d’interfaces Ethernet agrégées sur le commutateur.

  2. Configurez un ESI. Réglez-le de la même manière sur les deux commutateurs centraux. Activez les modes tous actifs.

  3. Configurez l’ID système LACP. Réglez-le de la même manière sur les deux commutateurs centraux.

  4. Configurez l’interface physique sur la colonne vertébrale 2 connectée à ToR 1 en tant que membre du LAG ae1.

Configurer le ToR 1

Procédure étape par étape

  1. Par défaut, les interfaces Ethernet agrégées ne sont pas créées. Vous devez définir le nombre d’interfaces Ethernet agrégées sur le commutateur avant de pouvoir les configurer.

  2. Configurez les interfaces Ethernet agrégées.

  3. Configurez les VLAN.

Vérifier le multihébergement EVPN

Procédure étape par étape

  1. Vérifiez l’état de ae1 et l’ESI associé au LAG.

  2. Vérifiez que les membres de ae1 collectent et distribuent.

  3. Vérifiez que l’état du multihébergement EVPN dans l’instance EVPN est Resolved sur le cœur de réseau 1. Vous pouvez également voir quel commutateur Spine est le redirecteur désigné pour le trafic BUM.

  4. Vérifiez que tous les liens membres de l’interface ae1 sont collectés et distribués sur ToR 1.

Configurer le multihébergement pour les serveurs

Multihébergez les serveurs sur le Virtual Chassis ToR pour la redondance et le partage de charge. Les serveurs utilisent LAG pour se connecter aux deux commutateurs membres de ToR Virtual Chassis.

Comme illustré sur la Figure 5, le point de terminaison 1 est connecté au Virtual Chassis ToR via LAG ae5 et appartient au locataire JNPR_1. Le point de terminaison 11 est connecté au Virtual Chassis ToR via LAG ae6 et appartient au locataire JNPR_2.

Figure 5 : topologie d’un serveur multihoming Multihomed Server Topology

Configurer le ToR 1

Procédure étape par étape

Étant donné que les commutateurs ToR sont configurés dans un Virtual Chassis, il vous suffit de valider la configuration sur le commutateur principal. Dans cet exemple, ToR 1 est le commutateur principal.

  1. Configurez le LAG sur les interfaces connectées au point de terminaison 1 : interface xe-0/2/10 sur ToR 1 et interface xe-1/2/10 sur ToR 2. Le point de terminaison 1 appartient aux VLAN 201 et 202.

  2. Configurez LAG sur les interfaces connectées au point de terminaison 11. Le point de terminaison 11 appartient aux VLAN 211 et 212.

Vérifier la connectivité du serveur

Utilisez cette section pour vérifier que les serveurs sont connectés les uns aux autres via les commutateurs ToR et spine. La méthode dépend du fait qu’ils font partie du même VLAN ou de deux VLAN différents.

Note:

Nous vous recommandons de multihéberger vos serveurs sur les commutateurs ToR pour la redondance et le partage de charge, comme décrit dans la section précédente. Cette section présente les serveurs à hébergement unique pour plus de simplicité.

Vérifier la connectivité au serveur intra-VLAN

Procédure étape par étape

  1. Vérifiez que les adresses MAC des deux points de terminaison apparaissent dans le tableau des commutateurs Ethernet sur les deux commutateurs ToR.

  2. Vérifiez que les deux adresses MAC apparaissent dans le tableau Commutation Ethernet sur les deux commutateurs centraux. Les deux adresses MAC sont apprises à partir des commutateurs ToR sur le LAG (ae1 et ae2) connectés à chaque commutateur ToR. Les indicateurs MAC indiquent DLDR, , et DLR indiquent si le trafic de l’adresse MAC a été appris localement par le commutateur Spine, par le commutateur Spine distant ou par les deux commutateurs Spine.

  3. Vérifiez que la première adresse MAC se trouve dans la base de données EVPN sur le cœur de réseau 1. Cette sortie indique que l’adresse MAC a été apprise localement par ce commutateur Spine sur l’ESI 00:00:00:00:00:00:00:00:00:01:02 et LAG ae2. Cette adresse MAC est annoncée en EVPN vers l’autre commutateur Spine.

  4. Vérifiez que la deuxième adresse MAC se trouve dans la base de données EVPN sur le cœur de réseau 1. Cette adresse MAC a été apprise par le commutateur Spine distant et annoncée au commutateur Spine local via EVPN. Cette sortie indique également que cette adresse MAC est mappée à ESI 00:00:00:00:00:00:00:00:01:01. Le trafic destiné à cette adresse MAC peut être commuté localement vers ToR 1 à l’aide du même segment Ethernet.

  5. Vérifiez les routes EVPN sur le cœur de réseau 1. Cette sortie montre que ces adresses MAC sont annoncées par les commutateurs de cœur de réseau en tant que routes BGP.

  6. Vérifiez les routes EVPN sur Spine 2. Cette sortie affiche les routes BGP reçues lors de l’appairage IBGP avec Spine 1. Examinons ces itinéraires en détail.

    Les deux routes de type 1 soulignées ci-dessus montrent que le cœur de réseau 1 est connecté à deux segments Ethernet (ES). Les numéros ESI sont 0101 et 0102.

    Ces deux itinéraires sont des itinéraires de type 2 montrés ci-dessus sont annoncés par Spine 1. Ils montrent que les deux adresses MAC sont accessibles à partir du cœur de réseau 1.

  7. Vérifiez le plan de contrôle pour les adresses MAC suivantes sur le cœur de réseau 1.

  8. Vérifiez les entrées de la table de transfert pour ces adresses MAC sur le cœur de réseau 1. La sortie suivante montre que l’interface Ethernet agrégée locale est utilisée pour commuter le trafic à destination de ces adresses MAC.

  9. Testez ce qui se passe en cas de défaillance d’une liaison montante. En cas d’échec d’une liaison montante à partir de ToR 1, la sortie indique que l’état à cette interface est Detached.

    La figure 6 illustre la topologie lorsque l’interface connectée à ToR 1 sur le cœur de réseau 1 est en panne.

    Figure 6 : topologie en cas d’échec de la liaison montante Topology When Uplink Fails

    Vérifiez que Spine 1 apprend maintenant cette adresse MAC à partir de Spine 2, car Spine 1 n’a pas de connexion directe à ToR 1.

    Les détails de la table de transfert sur Spine 1 montrent que le trafic destiné à cette adresse MAC est envoyé au Spine 2.

Vérifier la connectivité entre les serveurs VLAN

Procédure étape par étape

  1. Sur le cœur de réseau 1, vérifiez que les deux adresses MAC se trouvent dans des VLAN différents.

  2. Sur le cœur de réseau 1, vérifiez la résolution ARP pour les deux points de terminaison.

  3. Sur Spine 1, vérifiez l’apprentissage du plan de contrôle pour l’adresse MAC 00:10:94:00:11:11. Vous pouvez voir qu’il existe une route MAC pour l’adresse MAC et une route MAC/IP pour cette adresse MAC.

  4. Vérifiez les entrées de la table de transfert pour ces adresses MAC. Étant donné que le cœur de réseau 1 est connecté localement aux deux commutateurs ToR, le trafic est commuté localement vers le commutateur de cœur de réseau correspondant à partir du cœur de réseau 1.

Quelle est la prochaine étape ?

Vous avez configuré et vérifié une architecture de dorsale réduite pour votre premier centre de données. Si nécessaire, répétez la configuration sur les appareils du deuxième centre de données.

Passez à la page suivante pour configurer la sécurité avancée et connecter vos centres de données.

État de cerveau divisé

Comment prévenir un état de cerveau divisé

Problème

Si les liaisons entre les commutateurs spine sont inactives, ce qui entraîne une interruption de l’appairage BGP, les deux commutateurs spine sont actifs et en cours de transfert. Les interfaces Ethernet agrégées en aval sont actives et en cours de transfert. Ce scénario est connu sous le nom d’état de cerveau divisé et peut causer plusieurs problèmes.

Solution

Pour éviter que ce problème ne se produise, choisissez un commutateur Spine comme commutateur de veille.

Nous vous recommandons également :

  • Utilisation d’au moins deux liaisons entre les commutateurs de cœur de réseau. Il est donc moins probable que toutes les liaisons entre les commutateurs de cœur de réseau tombent en panne.

  • Multihébergement de tous les serveurs. S’il existe un serveur à hébergement unique sur l’un des commutateurs centraux, le serveur peut être inaccessible.

Quelle est la prochaine étape ?

Vous avez configuré et vérifié une architecture de dorsale réduite pour votre premier centre de données. Si nécessaire, répétez la configuration sur les appareils du deuxième centre de données.

Passez à la page suivante pour configurer la sécurité avancée et connecter vos centres de données.