Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Composants de Contrail Enterprise Multicloud

Cette section donne une vue d’ensemble des composants utilisés dans cette solution. La mise en œuvre de chaque composante est abordée dans les sections suivantes du présent guide.

Contrail Command

Contrail Command est l’interface utilisateur CEM qui fournit une interface conviviale qui vous permet de provisionner votre réseau de centre de données privé et de l’étendre au cloud public. Elle automatise de A à Z le processus de construction d’un nouveau centre de données, l’ajout d’une couche supérieure à une fabric IP existante et la fourniture de services de commutation, de routage et de sécurité. En conséquence, Contrail Command est un composant puissant de la solution CEM.

Contrail Command fournit une interface utilisateur intuitive permettant à l’utilisateur, qu’il soit administrateur d’opérations réseau, administrateur cloud ou administrateur locataire, d’effectuer toutes les opérations d’infrastructure et de service sur l’infrastructure multicloud gérée. Voici quelques-unes des opérations d’infrastructure et de dépannage que vous pouvez effectuer avec Contrail Command :

  • Effectue des mises à niveau de Junos OS sur les équipements de la structure.

  • Automatise les opérations de service, telles que le provisionnement de VLAN sur les ports d’accès, les services de routage entre sous-réseaux et les services interlocataires avancés dans l’ensemble de la structure, et étend ces services aux points de terminaison physiques et virtualisés

  • Automatise les procédures de maintenance et d’évolutivité horizontale de la structure (ajout d’équipements à la structure, remplacement d’équipements défaillants, détournement du trafic depuis des équipements)

  • Collecte les compteurs d’utilisation des flux, la télémétrie en streaming, les alarmes et les compteurs à partir des équipements et fournit une vue sur les performances de l’infrastructure et des services mutualisés, identifie les goulots d’étranglement de capacité ou les anomalies de trafic par rapport à la ligne de base

  • Fournit des workflows et des méthodes permettant d’identifier de manière proactive les problèmes et les défaillances, de les corréler et de prendre des mesures correctives.

IP Fabrics

Une fabric IP est un ensemble d’équipements et de fonctions réseau physiques (PNF) qui relèvent du même domaine de responsabilité d’administrateur de centre de données. Vous pouvez provisionner des structures nouvelles ou existantes à l’aide de CEM.

Nouvelle fabric IP

Lorsque vous construisez un tout nouveau réseau de datacenter, vous pouvez utiliser CEM pour automatiser le provisionnement et la configuration de votre structure. Le nouveau processus de fabric (également appelé déploiement Greenfield) provisionne de nouveaux équipements pour former une topologie de centre de données IP Clos avec des équipements Leaf (TOR) et spine. Les commutateurs Leaf sont généralement des périphériques QFX5K et les périphériques spine sont généralement des périphériques QFX10K, mais il existe de nombreuses variantes.

CEM crée un réseau sous-jacent de structure IP basé sur EBGP, combiné à une superposition EVPN/VXLAN prise en charge par IBGP. Il découvre la topologie du centre de données, attribue des adresses IP aux interfaces de bouclage, crée des sous-réseaux de structure, des sous-réseaux de bouclage et des sous-réseaux de gestion, et configure la sous-couche EBGP et la superposition IBGP.

Pour l’intégration des fabrics IP, CEM utilise le provisionnement sans intervention (ZTP) pour initialiser et configurer les équipements d’usine par défaut. La zone ombrée de la figure 1 montre l’étendue des opérations ZTP. Ces équipements sont connectés à un réseau de gestion hors bande qui est provisionné avant l’exécution du nouveau processus de structure. Tous les appareils doivent être accessibles sur le réseau de gestion.

Une fois que vous avez exécuté le processus ZTP initial sur votre structure, vous pouvez facilement attribuer des rôles aux appareils, créer des configurations spécifiques aux appareils et les appliquer à chaque appareil.

Figure 1 : Portée du provisionnement Scope of Zero Touch Provisioning sans intervention

Fabric IP existante

Si vous disposez déjà d’une infrastructure de centre de données déployée pour laquelle vous avez configuré la sous-couche de la structure de centre de données, votre réseau est considéré comme un réseau existant. Pour migrer vers un overlay, il vous suffit de laisser Contrail Command découvrir la topologie existante des équipements Spine et Leaf préconnectés et préconfigurés, d’attribuer des rôles aux périphériques, de créer des configurations spécifiques aux périphériques et d’appliquer les configurations à chaque périphérique.

Rôles des appareils

L’attribution de rôles aux équipements permet d’adapter la conception du centre de données pour un routage distribué ou centralisé. Il existe deux types de rôles que vous attribuez aux appareils de votre structure.

  • Rôles physiques

  • Rôles de pontage de routage (superposition)

Les rôles définissent les responsabilités de routage et de pontage de l’appareil. Un équipement peut avoir un rôle physique et un ou plusieurs rôles de pontage de routage.

Dans les périphériques CRB (Centrally-Route Bridging), lorsque vous configurez le routeur logique pour autoriser le trafic à circuler entre les instances de réseau virtuel Ethernet, le routage se produit au niveau de l’équipement Spine. Le trafic est acheminé de la branche vers le cur de réseau et inversement. Les interfaces IRB sont configurées dans l’overlay de chaque équipement Spine pour acheminer le trafic entre les réseaux virtuels.

Dans le pontage à routage périphérique (ERB), vous pouvez configurer le rôle ERB-UCAST-Gateway sur un périphérique Leaf de bordure, ce qui entraîne le routage au niveau du commutateur Leaf. Les interfaces IRB sont configurées au niveau du commutateur leaf pour permettre le routage du trafic unicast au niveau du commutateur leaf.

Le Tableau 1 présente les rôles de routage et de pontage disponibles pour chacun des rôles physiques.

Tableau 1 : Rôles de pontage physique et de routage dans Contrail

Rôle physique

Rôle de pontage de routage

Description

Colonne vertébrale

Réflecteur de route

Spécifie que l’équipement agit comme un réflecteur de route pour l’IBGP afin de satisfaire à l’exigence de maillage complet et d’assurer l’évolutivité de la structure. Habituellement, tous les équipements ou passerelles de cur de réseau se voient attribuer ce rôle.

Null

Spécifie que le périphérique est utilisé dans un environnement de routage IP qui fournit uniquement un routage sous-jacent ; ne participe pas aux tunnels VXLAN. S’applique uniquement aux équipements de cur de réseau lorsque le routage et le pontage de périphérie sont utilisés

Passerelle CRB

Fournit une fonctionnalité de passerelle unicast de couche 3 pour le routage entre les VNI à l’aide d’une interface IRB. Le routage se fait de manière centralisée sur une dorsale

CRB-MCAST-Gateway

Fournit une passerelle multicast de couche 3 pour le routage entre les VNI à l’aide d’une interface IRB. Le routage multicast se fait de manière centralisée.

Il n’est pas pris en charge sur les familles de matériel QFX5100 et 5200.

Passerelle de centre de données

Fournit une connexion de routage pour que le trafic quitte le centre de données Appareils assurant la connectivité à des réseaux externes ou entre des fabrics.

Passerelle DCI

Interconnecte un routeur logique dans un centre de données à un routeur logique dans un autre centre de données à l’aide de routes EVPN VXLAN de type 5.

PNF-Servicechain

Spécifie les périphériques sur lesquels le PNF de couche 3 est connecté.

Réplicateur AR

Spécifie que l’appareil transfère le trafic BUM d’un tunnel de superposition à d’autres.

Client AR

Spécifie que l’appareil envoie le trafic BUM à un réplicateur AR.

Feuille

CRB-Accès

Spécifie les équipements d’une architecture CRB qui exécutent uniquement la fonctionnalité VXLAN de couche 2 (pontage).

ERB-UCAST-Passerelle

Spécifie que le routage s’effectue au niveau du commutateur Leaf. Les interfaces IRB sont configurées au niveau du commutateur leaf pour permettre le routage du trafic unicast.

Bien que le trafic unicast puisse être acheminé au niveau des commutateurs Leaf, le routage du trafic multicast s’effectue toujours au niveau des équipements de cur de réseau. En revanche, le rôle de passerelle CRB au niveau d’une dorsale est capable de router le trafic unicast et multicast. Avec ERB, les commutateurs Leaf acheminent le trafic unicast, ce qui rend inutile la configuration du rôle CRB-Gateway sur le réseau central, car le trafic unicast ne sera jamais acheminé vers un équipement Spine. Au lieu de cela, vous devez configurer les périphériques de cur de réseau avec le rôle CRB-MCAST-Gateway pour acheminer le trafic multicast si nécessaire.

CRB-MCAST-Gateway

Fournit une passerelle multicast de couche 3 pour le routage entre les VNI à l’aide d’une interface IRB. Le routage multicast se fait de manière centralisée.

Il n’est pas pris en charge sur les familles de matériel QFX5100 et 5200.

Réflecteur de route

Spécifie que l’équipement agit comme un réflecteur de route pour l’IBGP afin de satisfaire à l’exigence de maillage complet et d’assurer l’évolutivité de la structure. Habituellement, tous les équipements ou passerelles de cur de réseau se voient attribuer ce rôle.

Passerelle DCI

Interconnecte un routeur logique d’un datacenter à un autre à l’aide de routes EVPN-VXLAN de type 5. Ce rôle doit être configuré sur toutes les branches de bordure.

PNF-Servicechain

Spécifie les périphériques sur lesquels le PNF de couche 3 est connecté.

Réplicateur AR

Spécifie que l’appareil réplique le trafic BUM d’un tunnel de superposition à d’autres.

Client AR

Spécifie que l’appareil envoie le trafic BUM à un réplicateur AR.

PNF

PNF-Servicechain

Spécifie les périphériques sur lesquels le PNF de couche 3 est connecté.

Réseaux virtuels

Un réseau virtuel est un domaine de pont ou un segment LAN. Il peut être associé à un sous-réseau (préfixe des hôtes attachés au segment LAN), de la même manière que les hôtes connectés à un commutateur LAN dans un bâtiment. Vous créez des segments LAN pour permettre aux services, ou locataires, d’accéder aux serveurs répartis sur le réseau VXLAN.

Pour ce faire, spécifiez les serveurs qui se trouvent sur le même VLAN ou VNI et autorisez-les à se contacter via des tunnels VXLAN à travers la structure. Dans cet exemple illustré à la figure 2, les serveurs BMS 1 et BMS 3 ont été ajoutés au réseau virtuel Green afin qu’ils puissent se rejoindre. BMS 2 et BMS 4 ont été ajoutés au réseau virtuel bleu.

Figure 2 : Réseaux Green and Blue Virtual Networks virtuels vert et bleu

Groupes de ports virtuels

VPG fournit une connectivité aux serveurs qui n’ont pas été configurés par Contrail Command. Un groupe de ports virtuels (VPG) est la représentation des éléments suivants :

  • un groupe d’une ou plusieurs interfaces physiques (ou ports) sur un ou plusieurs équipements physiques, et

  • Utilisation de ces ports en tant que points de connexion serveur aux réseaux virtuels (VLAN) VXLAN

Chaque VPG se voit attribuer un identifiant de réseau VXLAN (VNI) et est attaché à un réseau virtuel. Vous pouvez sélectionner plusieurs interfaces sur le même appareil ou sur différents équipements. Un VPG est similaire à un groupe d’agrégation de liens (LAG), mais prend en charge à la fois le LAG et le multihébergement selon que vous sélectionnez les interfaces sur les mêmes périphériques ou sur des périphériques différents. Un LAG est automatiquement créé si vous sélectionnez plusieurs interfaces sur le même équipement.

Lorsque vous provisionnez un VPG, vous pouvez définir un groupe de sécurité, qui correspond à un filtre sans état ou ACL à 5 tuples, ou quel profil de port avancé (par exemple, pour le contrôle des tempêtes) est appliqué sur les VLAN d’accès de ce VPG.

La figure 3 montre les VPG attachés aux équipements de branche pour chaque extrémité des réseaux virtuels vert et bleu.

Figure 3 : groupes de ports virtuels attachés à des réseaux virtuels Virtual Port Groups Attached to Virtual Networks

Routeurs logiques

Dans CEM, un routeur logique est une instance de routage VRF (virtual routing and forwarding) de couche 3 pour un locataire qui fournit une connectivité routée aux équipements du même réseau virtuel. Le routeur logique représente une table de routage de couche 3 et ses points d’attachement au réseau de locataires de couche 2.

Dans l’instance de routage de couche 3, il existe une unité IRB pour chaque réseau virtuel attaché au routeur logique. Ces IRB correspondent à la passerelle anycast du réseau virtuel vers laquelle tout trafic inconnu est envoyé. Le trafic provenant d’un réseau virtuel (un domaine de pont de couche 2) qui doit atteindre un sous-réseau pour lequel il n’a pas d’itinéraire explicite est envoyé à l’IRB.

La figure 4 montre les routeurs logiques ajoutés aux curs de réseau pour les réseaux virtuels verts et bleus présentés dans la section précédente.

Figure 4 : routeurs logiques sur les équipements Logical Routers on the Spine Devices de cur de réseau