Prérequis d’installation sur Ubuntu
Pour installer et déployer un cluster Paragon Automation, vous devez disposer d’un hôte de contrôle qui installe le logiciel de distribution sur plusieurs nœuds de cluster. Vous pouvez télécharger le logiciel de distribution sur l’hôte de contrôle, puis créer et configurer les fichiers d’installation pour exécuter l’installation à partir de l’hôte de contrôle. Vous devez disposer d’un accès Internet pour télécharger les packages sur l’hôte de contrôle. Vous devez également disposer d’un accès Internet sur les nœuds du cluster pour télécharger tout logiciel supplémentaire tel que Docker et les correctifs du système d’exploitation. L’ordre des tâches d’installation est illustré à un niveau élevé dans la figure 1.
Avant de télécharger et d’installer le logiciel de distribution, vous devez configurer l’hôte de contrôle et les nœuds de cluster comme décrit dans cette rubrique.
Préparer l’hôte de contrôle
L’hôte de contrôle est une machine dédiée qui orchestre l’installation et la mise à niveau d’un cluster Paragon Automation. Il exécute les opérations Ansible qui exécutent le programme d’installation du logiciel et installent le logiciel sur les nœuds de cluster, comme illustré dans la section Fonctions de l’hôte de contrôle.
Vous devez télécharger les packages d’installation sur l’hôte de contrôle Ansible. Dans le cadre du processus d’installation de Paragon Automation, l’hôte de contrôle installe tous les packages supplémentaires nécessaires sur les nœuds de cluster. Les packages incluent des packages de système d’exploitation optionnels, Docker et Elasticsearch. Tous les microservices, y compris les microservices tiers, sont téléchargés sur les nœuds de cluster. Les microservices n’accèdent à aucun registre public pendant l’installation.
L’hôte de contrôle peut se trouver sur un domaine de diffusion différent de celui des nœuds de cluster, mais vous devez vous assurer que l’hôte de contrôle peut utiliser SSH pour se connecter à tous les nœuds.
Une fois l’installation terminée, l’hôte de contrôle ne joue aucun rôle dans le fonctionnement du cluster. Toutefois, vous aurez besoin de l’hôte de contrôle pour mettre à jour le logiciel ou tout composant, apporter des modifications au cluster ou réinstaller le cluster en cas de défaillance d’un nœud. Vous pouvez également utiliser l’hôte de contrôle pour archiver les fichiers de configuration. Nous vous recommandons de garder l’hôte de contrôle disponible, et de ne pas l’utiliser pour autre chose, après l’installation.
Préparez l’hôte de contrôle pour le processus d’installation comme suit :
Préparation des nœuds de cluster
- Paragon Automation et les équipements gérés
- Paragon Automation et l’administrateur réseau
Nous vous recommandons de placer tous les nœuds dans le même domaine de diffusion. Pour les nœuds de cluster dans différents domaines de diffusion, consultez Configurer l’équilibrage de charge pour une configuration supplémentaire de l’équilibrage de charge.
de nœud de cluster
Comme décrit dans la configuration système requise pour Paragon Automation, vous pouvez installer Paragon Automation à l’aide d’un déploiement à plusieurs nœuds.
Vous devez préparer les nœuds de cluster pour le processus d’installation de Paragon Automation comme suit :
Considérations relatives aux adresses IP virtuelles
Un pod est la plus petite unité de calcul déployable créée et gérée dans Kubernetes. Un pod contient un ou plusieurs conteneurs, avec des ressources de stockage et de réseau partagées, et avec des instructions spécifiques sur la façon d’exécuter les applications. Les conteneurs constituent le niveau de traitement le plus bas, et vous exécutez des applications ou des microservices dans des conteneurs.
Le nœud principal du cluster détermine le nœud de travail qui hébergera un pod et des conteneurs particuliers.
Vous implémentez toutes les fonctionnalités de Paragon Automation à l’aide d’une combinaison de microservices. Vous devez rendre certains de ces microservices accessibles depuis l’extérieur du cluster, car ils fournissent des services aux utilisateurs finaux (appareils gérés) et aux administrateurs. Par exemple, vous devez rendre le service pceserver accessible pour établir des sessions PCEP (Path Computation Element Protocol) entre les routeurs PE (Provider Edge) et Paragon Automation.
Vous devez exposer ces services en dehors du cluster Kubernetes avec des adresses spécifiques accessibles depuis les appareils externes. Étant donné qu’un service peut s’exécuter sur n’importe quel nœud de travail à un moment donné, vous devez utiliser des adresses IP virtuelles (VIP) comme adresses externes. Vous ne devez pas utiliser l’adresse d’un nœud de travail donné comme adresse externe.
Dans cet exemple :
-
Considérez que le travailleur 1 est 10.1.x.3 et le travailleur 2 est 10.1.x.4.
-
IP DE SERVICE = L’ADRESSE IP PCEP est 10.1.x.200
-
PCC_IP est 10.1.x.100
Les services de Paragon Automation utilisent l’une des deux méthodes suivantes pour exposer les services en dehors du cluster :
-
Équilibrage de charge : chaque équilibreur de charge est associé à une adresse IP spécifique et achemine le trafic externe vers un service spécifique du cluster. Il s’agit de la méthode par défaut pour de nombreuses installations Kubernetes dans le cloud. La méthode d’équilibrage de charge prend en charge plusieurs protocoles et plusieurs ports par service. Chaque service possède son propre équilibreur de charge et sa propre adresse IP.
-
Paragon Automation utilise l’équilibreur de charge MetalLB. MetalLB simule un équilibreur de charge externe en gérant les adresses IP virtuelles en mode Couche 2 ou en interagissant avec le(s) routeur(s) externe(s) en mode Couche 3. MetalLB fournit une infrastructure d’équilibrage de charge au cluster Kubernetes.
Les services de type « LoadBalancer » interagissent avec l’infrastructure d’équilibrage de charge de Kubernetes pour attribuer une adresse IP accessible de l’extérieur. Certains services peuvent partager une adresse IP externe.
-
Entrant : la méthode entrante agit comme un proxy pour amener le trafic dans le cluster, puis utilise le routage de service interne pour acheminer le trafic jusqu’à sa destination. Sous le capot, cette méthode utilise également un service d’équilibrage de charge pour s’exposer au monde afin qu’il puisse agir comme ce proxy.
Paragon Automation utilise les proxys entrants suivants :
- Ambassadeur
- Nginx
Les appareils extérieurs au cluster doivent accéder aux services suivants, et ces services nécessitent donc une adresse VIP.
| Description de l’adresse VIP requise | Équilibreur de charge/Proxy | |
|---|---|---|
| Contrôleur d’entrée |
Permet d’accéder à l’interface graphique de Paragon Automation sur le Web. Paragon Automation fournit un serveur Web commun qui donne accès aux composants et aux applications. L’accès au serveur est géré via le contrôleur d’entrée Kubernetes. |
Ambassadeur MetalLB |
| Services Paragon Insights |
Utilisé pour les services Insights tels que syslog, DHCP relay et JTI. | MetalLB |
| Serveur PCE de Paragon Pathfinder |
Utilisé pour établir des sessions PCEP avec des périphériques du réseau. |
MetalLB |
| Proxy récepteur d’interruption SNMP (facultatif) |
Utilisateur pour le proxy de récepteur d’interruption SNMP uniquement si cette fonctionnalité est requise. |
MetalLB |
| Contrôleur d’entrée Infrastructure Nginx |
Utilisé comme proxy pour le serveur netflowd de Paragon Pathfinder et, éventuellement, le serveur PCE de Paragon Pathfinder. Le contrôleur d’entrée Nginx a besoin d’une adresse IP virtuelle dans le pool d’équilibrage de charge MetalLB. Cela signifie que pendant le processus d’installation, vous devez inclure cette adresse dans les plages d’adresses IP LoadBalancer que vous devrez inclure lors de la création du fichier de configuration. |
Nginx MetalLB |
| Pathfinder Netflowd |
Utilisé pour le serveur netflowd de Paragon Pathfinder. Netflowd peut utiliser Nginx comme proxy, auquel cas il n’aura pas besoin de sa propre adresse VIP. |
MetalLB |
| Serveur PCEP (facultatif) |
Utilisé pour le serveur PCE pour l’authentification MD5. |
- |
| cRPD (facultatif) |
Utilisé pour se connecter au pod BMP (BGP Monitoring Protocol) pour l’authentification MD5. |
- |
Ports utilisés par l’ambassadeur :
-
Redirection HTTP 80 (TCP) vers HTTPS
-
HTTPS 443 (TCP)
-
Paragon Planner 7000 (TCP)
-
Initié par DCS/NETCONF 7804 (TCP)
Ports utilisés par Insights Services, le serveur PCE (Path Computation Element) et SNMP :
-
Services d’analyse
JTI 4000 (UDP)
DHCP (ZTP) 67 (UDP)
SYSLOG 514 (UDP)
Proxy SNMP 162 (UDP)
-
Serveur PCE
PCEP 4189 (TCP)
-
SNMP
Récepteur d’interruption SNMP 162 (UDP)
Ports utilisés par le contrôleur Nginx :
-
NetFlow 9000 (UDP)
-
PCEP 4189 (TCP)
Utilisation de Nginx pour PCEP
Au cours du processus d’installation, il vous sera demandé si vous souhaitez activer le proxy entrant pour PCEP. Vous pouvez sélectionner None Nginx-Ingress ou comme proxy pour le serveur PCE (Path Computation Element).
Si vous sélectionnez Nginx-Ingress comme proxy, vous n’avez pas besoin de configurer l’adresse IP virtuelle pour le serveur PCE décrit dans le Tableau 1. Dans ce cas, l’adresse VIP du contrôleur d’entrée Infrastructure Nginx est également utilisée pour le serveur PCE. Si vous choisissez de ne pas utiliser de proxy netflowd, l’adresse IP virtuelle du contrôleur d’entrée Infrastructure Nginx est également utilisée pour netflowd.
L’avantage d’utiliser Nginx est que vous pouvez utiliser une seule adresse IP pour plusieurs services.
Nginx
Adresses VIP pour l’authentification MD5
Vous pouvez configurer l’authentification MD5 pour sécuriser les sessions PCEP entre le routeur et Paragon Pathfinder, et pour vous assurer que le service BMP est appairé avec le bon routeur BGP-LS. Paragon Automation utilise Multus pour fournir l’interface secondaire sur le serveur PCE et le pod BMP pour un accès direct au routeur. Vous avez besoin des adresses VIP suivantes dans le même sous-réseau que vos nœuds de cluster :
-
Adresse VIP du serveur PCE au format CIDR
-
Adresse VIP pour cRPD au format CIDR
Le pool d’adresses VIP de l’équilibreur de charge MetalLB ne doit pas contenir ces adresses VIP.
Si vous choisissez de configurer l’authentification MD5, vous devez également configurer la clé d’authentification et les adresses IP virtuelles sur les routeurs. Vous devez également configurer la clé d’authentification dans l’interface utilisateur de Paragon Automation.
-
MD5 sur les sessions PCEP.: configurez la clé d’authentification MD5 sur le routeur ainsi que l’interface utilisateur et l’adresse VIP de Paragon Automation sur le routeur.
-
Configurez les éléments suivants dans la CLI de Junos :
user@pcc# set protocols pcep pce pce-id authentication-key pce-md5-keyuser@pcc# set protocols pcep pce pce-id destination-ipv4-address vip-for-pce -
Entrez la clé d’authentification pce-md5-key dans le champ Chaîne MD5 de la section Protocoles :PCEP de la page Configuration > Devices > Modifier Device Name .
La clé d’authentification MD5 doit être inférieure ou égale à 79 caractères.
-
-
MD5 sur cRPD : déterminez la clé d’authentification MD5 de cRPD et configurez la clé et l’adresse VIP de cRPD sur le routeur.
Déterminez ou définissez la clé d’authentification MD5 de la manière suivante.
Exécutez le script de commande et activez l’authentification
confMD5 sur cRPD. Recherchez lecrpd_auth_keyparamètre dans le fichier config.yml . Si une clé est présente, cela indique que cRPD est configuré pour MD5. Par exemple :crpd_auth_key : northstar. Vous pouvez utiliser la clé présente dans le fichier config.yml (ou vous pouvez également modifier la clé) et la saisir sur le routeur.Si aucune clé d’authentification MD5 n’est présente dans le fichier config.yml , vous devez vous connecter à cRPD et définir la clé d’authentification à l’aide de l’une des commandes suivantes :
set groups extra protocols bgp group name authentication-key crpd-md5-keyou
set protocols bgp group name authentication-key crpd-md5-keyLa clé d’authentification MD5 doit être inférieure ou égale à 79 caractères.
Configurez le routeur pour activer MD5 pour cRPD.
user@pcc# set protocols bgp group name neighbor vip-for-crpd authentication-key md5-key
Vous devez identifier toutes les adresses VIP requises avant de commencer le processus d’installation de Paragon Automation. Il vous sera demandé d’entrer ces adresses dans le cadre du processus d’installation.
Configurer l’équilibrage de charge
Les VIP sont gérées dans la couche 2 par défaut. Lorsque tous les nœuds de cluster se trouvent dans le même domaine de diffusion, chaque adresse VIP est affectée à un nœud de cluster à la fois. Le mode Couche 2 assure le basculement de l’adresse IP virtuelle et n’assure pas l’équilibrage de charge réel. Pour un véritable équilibrage de charge entre les nœuds de cluster ou si les nœuds se trouvent dans des domaines de diffusion différents, vous devez configurer l’équilibrage de charge dans la couche 3.
Vous devez configurer un routeur BGP pour annoncer l’adresse VIP au réseau. Assurez-vous que le routeur BGP utilise ECMP pour équilibrer les sessions TCP/IP entre différents hôtes. Connectez le routeur BGP directement aux nœuds du cluster.
Pour configurer équilibrage de charge sur les nœuds cluster, modifiez le fichier config.yml . Par exemple:
metallb_config:
peers:
- peer-address: 192.x.x.1 ## address of BGP router
peer-asn: 64501 ## autonomous system number of BGP router
my-asn: 64500 ## ASN of cluster
address-pools:
- name: default
protocol: bgp
addresses:
- 10.x.x.0/24
Dans cet exemple, le routeur BGP à 192.x.x.1 est responsable de la publicité de l’accessibilité des adresses VIP avec le préfixe 10.x.x.0/24 au reste du réseau. Le cluster alloue l’adresse VIP de cette plage et annonce l’adresse des nœuds de cluster qui peuvent gérer l’adresse.
Configurer le serveur DNS (facultatif)
Vous pouvez accéder à la passerelle Web principale via l’adresse VIP du contrôleur d’entrée ou via un nom d’hôte configuré dans le serveur DNS (Domain Name System) qui se résout en adresse d’adresse IP virtuelle du contrôleur d’entrée. Vous devez configurer le serveur DNS uniquement si vous souhaitez utiliser un nom d’hôte pour accéder à la passerelle Web.
Ajoutez le nom d’hôte au DNS sous forme d’enregistrement A, AAAA ou CNAME. Pour les configurations de laboratoire et de preuve de concept (POC), vous pouvez ajouter le nom d’hôte au fichier /etc/hosts sur les nœuds de cluster.