Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Prérequis d’installation sur Ubuntu

Pour installer et déployer un cluster Paragon Automation, vous devez disposer d’un hôte de contrôle qui installe le logiciel de distribution sur plusieurs nœuds de cluster. Vous pouvez télécharger le logiciel de distribution sur l’hôte de contrôle, puis créer et configurer les fichiers d’installation pour exécuter l’installation à partir de l’hôte de contrôle. Vous devez disposer d’un accès Internet pour télécharger les packages sur l’hôte de contrôle. Vous devez également disposer d’un accès Internet sur les nœuds du cluster pour télécharger tout logiciel supplémentaire tel que Docker et les correctifs du système d’exploitation. L’ordre des tâches d’installation est illustré à un niveau élevé dans la figure 1.

Figure 1 : Déroulement global de l’installation de Paragon Automation High-Level Process Flow for Installing Paragon Automation

Avant de télécharger et d’installer le logiciel de distribution, vous devez configurer l’hôte de contrôle et les nœuds de cluster comme décrit dans cette rubrique.

Préparer l’hôte de contrôle

L’hôte de contrôle est une machine dédiée qui orchestre l’installation et la mise à niveau d’un cluster Paragon Automation. Il exécute les opérations Ansible qui exécutent le programme d’installation du logiciel et installent le logiciel sur les nœuds de cluster, comme illustré dans la section Fonctions de l’hôte de contrôle.

Vous devez télécharger les packages d’installation sur l’hôte de contrôle Ansible. Dans le cadre du processus d’installation de Paragon Automation, l’hôte de contrôle installe tous les packages supplémentaires nécessaires sur les nœuds de cluster. Les packages incluent des packages de système d’exploitation optionnels, Docker et Elasticsearch. Tous les microservices, y compris les microservices tiers, sont téléchargés sur les nœuds de cluster. Les microservices n’accèdent à aucun registre public pendant l’installation.

L’hôte de contrôle peut se trouver sur un domaine de diffusion différent de celui des nœuds de cluster, mais vous devez vous assurer que l’hôte de contrôle peut utiliser SSH pour se connecter à tous les nœuds.

Figure 2 : fonctions de contrôle de l’hôte Control Host Functions

Une fois l’installation terminée, l’hôte de contrôle ne joue aucun rôle dans le fonctionnement du cluster. Toutefois, vous aurez besoin de l’hôte de contrôle pour mettre à jour le logiciel ou tout composant, apporter des modifications au cluster ou réinstaller le cluster en cas de défaillance d’un nœud. Vous pouvez également utiliser l’hôte de contrôle pour archiver les fichiers de configuration. Nous vous recommandons de garder l’hôte de contrôle disponible, et de ne pas l’utiliser pour autre chose, après l’installation.

Préparez l’hôte de contrôle pour le processus d’installation comme suit :

  1. Installez le système d’exploitation de base : installez Ubuntu version 20.04.4 LTS (Focal Fossa) ou Ubuntu 22.04.2 LTS (Jammy Jellyfish). La version 23.2 est qualifiée pour fonctionner avec Ubuntu 22.04.2 LTS (Jammy Jellyfish).
  2. Installer Docker : installez et configurez Docker sur l’hôte de contrôle pour implémenter l’environnement de conteneur Linux. Paragon Automation prend en charge Docker CE et Docker EE. La version de Docker que vous choisissez d’installer dans l’hôte de contrôle est indépendante de la version de Docker que vous prévoyez d’utiliser dans les nœuds de cluster.

    Si vous souhaitez installer Docker EE, assurez-vous d’avoir une version d’essai ou un abonnement avant l’installation. Pour plus d’informations sur Docker EE, les systèmes pris en charge et les instructions d’installation, consultez https://www.docker.com/blog/docker-enterprise-edition/.

    Pour télécharger et installer Docker CE, procédez comme suit : Pour vérifier que Docker est installé et en cours d’exécution, utilisez la # docker run hello-world commande.

    Pour vérifier la version de Docker installée, utilisez les # docker version commandes or # docker --version .

    Pour obtenir des instructions complètes et plus d’informations, reportez-vous à https://docs.docker.com/engine/install/ubuntu/.
  3. Configurer l’authentification du client SSH : le programme d’installation exécuté sur l’hôte de contrôle se connecte aux nœuds du cluster à l’aide de SSH. Pour l’authentification SSH, vous devez utiliser un compte d’utilisateur root ou non root avec des privilèges de superutilisateur (sudo). Nous appellerons ce compte compte d’utilisateur d’installation dans les étapes suivantes. Vous devez vous assurer que le compte d’utilisateur d’installation est configuré sur tous les nœuds du cluster. Le programme d’installation utilisera le fichier d’inventaire pour déterminer le nom d’utilisateur à utiliser et si l’authentification utilisera des clés SSH ou un mot de passe. Voir Personnaliser le fichier d’inventaire - Implémentation à plusieurs nœuds.

    Si vous choisissez la méthode d’authentification ssh-key (recommandée), générez la clé SSH.

    Si vous souhaitez protéger la clé SSH avec une phrase secrète, vous pouvez utiliser ssh-agent le gestionnaire de clés. Voir https://www.ssh.com/academy/ssh/agent.

    Note:

    Vous devrez copier cette clé sur les nœuds dans le cadre des tâches de préparation des nœuds de cluster, comme décrit dans la section suivante.

  4. (Facultatif) Install wget : installez l’utilitaire wget pour télécharger le logiciel de distribution Paragon Automation.

    # apt install wget

    Vous pouvez également utiliser rsync ou tout autre logiciel de téléchargement de fichiers pour copier le logiciel de distribution.

Préparation des nœuds de cluster

Les nœuds principal et les nœuds de travail sont collectivement appelés nœuds de cluster. Chaque nœud de cluster doit avoir au moins une adresse IP statique unique, comme illustré à la figure 3. Lors de la configuration des noms d’hôte, utilisez uniquement des lettres minuscules et n’incluez pas de caractères spéciaux autres que le trait d’union (-) ou le point (.). Si l’implémentation dispose d’un réseau IP distinct pour assurer la communication entre les composants de Paragon Automation, comme décrit dans la présentation d’installation de Paragon Automation (Pathfinder, Planner, Insights), vous devez affecter un deuxième ensemble d’adresses IP aux nœuds de travail. Ces adresses IP permettent aux appareils situés en dehors du cluster d’atteindre les nœuds de travail et permettent également la communication entre :
  • Paragon Automation et les équipements gérés
  • Paragon Automation et l’administrateur réseau

Nous vous recommandons de placer tous les nœuds dans le même domaine de diffusion. Pour les nœuds de cluster dans différents domaines de diffusion, consultez Configurer l’équilibrage de charge pour une configuration supplémentaire de l’équilibrage de charge.

Figure 3 : Fonctions Cluster Node Functions de nœud de cluster

Comme décrit dans la configuration système requise pour Paragon Automation, vous pouvez installer Paragon Automation à l’aide d’un déploiement à plusieurs nœuds.

Vous devez préparer les nœuds de cluster pour le processus d’installation de Paragon Automation comme suit :

  1. Configurer le stockage sur disque brut : les nœuds de cluster doivent disposer de périphériques de stockage bruts avec des disques non partitionnés ou des partitions de disque non formatées attachés. Vous pouvez également partitionner les nœuds de manière à ce que la partition racine et les autres systèmes de fichiers puissent utiliser une partie de l’espace disque disponible. Vous devez laisser l’espace restant non formaté, sans système de fichiers, et le réserver à Ceph pour qu’il puisse l’utiliser. Pour plus d’informations, consultez Configuration requise pour le disque.
    Note:

    Vous n’avez pas besoin d’installer ou de configurer quoi que ce soit pour permettre à Ceph d’utiliser les disques non partitionnés ou les partitions de disque non formatées. Le processus d’installation de Paragon Automation attribue automatiquement l’espace de stockage Ceph.

    Pour les clusters à plusieurs nœuds, vous devez disposer d’au moins trois nœuds de cluster avec un espace de stockage attaché. C’est-à-dire un minimum de trois nœuds de travail avec un disque non partitionné ou une partition de disque non formatée pour le stockage.

    L’installation échoue si les disques non formatés ne sont pas disponibles.

    Ceph nécessite des versions plus récentes du noyau. Si votre noyau Linux est très ancien, envisagez de le mettre à niveau ou d’en réinstaller un nouveau. Pour obtenir la liste des versions minimales du noyau Linux prises en charge par Ceph pour votre système d’exploitation, consultez https://docs.ceph.com/en/latest/start/os-recommendations. Pour mettre à niveau votre version du noyau Linux, consultez Mettre à niveau votre version du noyau Linux Ubuntu.

    Note:

    Ceph ne fonctionne pas sur les versions 4.15.0-55.60 du noyau Linux.

  2. Installez le système d’exploitation de base : installez Ubuntu version 20.04.4 LTS (Focal Fossa) ou Ubuntu 22.04.2 LTS (Jammy Jellyfish). La version 23.2 est qualifiée pour fonctionner avec Ubuntu 22.04.2 LTS (Jammy Jellyfish).
  3. Créer un compte d’utilisateur d’installation : l’utilisateur d’installation est l’utilisateur utilisé par les playbooks Ansible pour se connecter aux nœuds principal et de travail et effectuer toutes les tâches d’installation. Assurez-vous de configurer un mot de passe root ou un compte avec des privilèges de superutilisateur (sudo). Vous ajouterez ces informations au fichier d’inventaire au cours du processus d’installation.
    Définissez le mot de passe de l’utilisateur root.
  4. Installer l’authentification SSH : le programme d’installation exécuté sur l’hôte de contrôle se connecte aux nœuds de cluster via SSH à l’aide du compte d’utilisateur d’installation.
    1. Connectez-vous aux nœuds de cluster. et installer le serveur open-ssh sur tous les nœuds.
    2. Modifiez le fichier sshd_config .

      # vi /etc/ssh/sshd_config

    3. Si vous utilisez « root » comme compte d’utilisateur d’installation, autorisez la connexion root.

      PermitRootLogin yes

      Si vous avez choisi d’utiliser un mot de passe en texte brut pour l’authentification, vous devez activer l’authentification par mot de passe.

      PasswordAuthentication yes

      Nous déconseillons l’utilisation de l’authentification par mot de passe.

    4. Assurez-vous que le AllowTcpForwarding paramètre est défini sur yes.

      AllowTcpForwarding yes
      Note:

      L’installation de Paragon Automation échoue lorsque le AllowTcpForwarding paramètre est défini sur no.

    5. Si vous avez modifié /etc/ssh/sshd_config, redémarrez le démon SSH.

      # systemctl restart sshd

    6. Connectez-vous à l’hôte de contrôle :
      1. Pour autoriser l’authentification à l’aide de la clé SSH, copiez id_rsa.pub dans les nœuds cluster.

        Répétez cette étape pour tous les nœuds du cluster (principaux et workers). cluster-node-IP est l’adresse unique du nœud, comme illustré sur la Figure 3. Si un nom d’hôte est utilisé à la place, l’hôte de contrôle Ansible devrait être en mesure de résoudre le nom en son adresse IP.

      2. Utilisez l’authentification SSH pour vous connecter au nœud de cluster à l’aide du compte d’utilisateur d’installation. Vous n’avez pas besoin d’un mot de passe pour vous connecter.

        Vous devez pouvoir utiliser SSH pour vous connecter à tous les nœuds du cluster (principal et workers) à partir de l’hôte de contrôle à l’aide du compte d’utilisateur d’installation. Si vous ne parvenez pas à vous connecter, passez en revue les étapes précédentes et assurez-vous de n’avoir rien manqué.

  5. Installer Docker : sélectionnez l’une des versions de Docker suivantes à installer.
    • Docker CE : si vous souhaitez utiliser Docker CE, vous n’avez pas besoin de l’installer sur les nœuds de cluster. Le deploy script installe Docker CE sur les nœuds lors de l’installation de Paragon Automation.

    • Docker EE : si vous souhaitez utiliser Docker EE, vous devez installer Docker EE sur tous les nœuds de cluster. Si vous installez Docker EE sur les nœuds, le deploy script utilise la version installée et ne tente pas d’installer Docker CE à sa place. Pour plus d’informations sur Docker EE et les systèmes pris en charge, et pour obtenir des instructions sur le téléchargement et l’installation de Docker EE, consultez https://www.docker.com/blog/docker-enterprise-edition/.

    La version de Docker que vous choisissez d’installer dans les nœuds de cluster ne dépend pas de la version de Docker installée dans l’hôte de contrôle.

  6. Installer Python : installez Python 3, s’il n’est pas préinstallé avec votre système d’exploitation, sur les nœuds de cluster :

    # apt install python3

    Pour vérifier la version de Python installée, utilisez la # python3 -V commande or # python3 --version .

  7. Utilisez la # apt list --installed commande et assurez-vous que les packages suivants sont installés :

    apt-transport-https, bash-completion, gdisk, iptables, lvm2, openssl

    Si vous souhaitez utiliser la méthode air-gap pour installer Paragon Automation sur un cluster exécutant le système d’exploitation de base Ubuntu, assurez-vous que les packages suivants sont préinstallés :
    ca-certificates, curl, docker.io, jq, keepalived

    En outre, il est recommandé d’installer les packages optionnels suivants pour faciliter le dépannage :

    net-tools, tcpdump, traceroute

  8. Si votre système d’exploitation de base est Ubuntu version 20.04.4 LTS, définissez l’option iptables FORWARD sur ACCEPT tous les nœuds de cluster.
    1. Connectez-vous à un nœud de cluster.

    2. Définissez la stratégie de iptables FORWARD chaîne sur ACCEPT.

    3. Installez le iptables-persistent package pour rendre la modification persistante après les redémarrages.

      Vous pouvez choisir de répondre non si vous êtes invité à enregistrer les règles.

    4. Ajoutez la règle suivante.

    5. Supprimez le fichier /etc/iptables/rules.v6 .

    Répétez ces étapes sur tous les nœuds de cluster.
  9. Installer et activer NTP : tous les nœuds doivent exécuter le protocole NTP (Network Time Protocol) ou tout autre protocole de synchronisation temporelle à tout moment. Par défaut, Paragon Automation installe le client Chrony NTP. Si vous ne souhaitez pas utiliser Chrony, vous pouvez installer manuellement NTP sur tous les nœuds et vous assurer que la timedatectl commande indique que les horloges sont synchronisées. Toutefois, si vous souhaitez utiliser la méthode air-gap pour installer Paragon Automation et que vous souhaitez utiliser Chrony, vous devez préinstaller Chrony. L’installateur n’installe pas Chrony lors d’installations d’air gap.
    1. Installez ntpdate pour synchroniser la date et l’heure en interrogeant un serveur NTP.

      # apt install ntpdate -y

    2. Exécutez deux fois la commande suivante pour réduire le décalage avec le serveur NTP.

      # ntpdate ntp-server

    3. Installez le protocole NTP.

      # apt install ntp -y

    4. Configurez les pools de serveurs NTP.

      # vi /etc/ntp.conf

    5. Remplacez les pools Ubuntu par défaut par le serveur NTP le plus proche de votre emplacement dans le ntp.conf fichier.

      server ntp-server prefer iburst

      Enregistrez et quittez le fichier.

    6. Redémarrez le service NTP.

      # systemctl restart ntp

    7. Vérifiez que le système est synchronisé avec le serveur NTP.

      # timedatectl

  10. (Facultatif) Mettez à niveau la version du noyau d’UbuntuLinux Pour mettre à niveau la version du noyau de votre serveur Ubuntu vers la dernière version LTS afin de répondre aux exigences d’installation de Paragon Automation :
    1. Connectez-vous en tant qu’utilisateur root.

    2. Vérifiez la version existante du noyau.

      root@server# uname -msr

      Si la version du noyau Linux est antérieure à 4.15, mettez à niveau le noyau.

    3. Mettre à jour les dépôts apt :

      root@server# apt update

    4. Mettre à niveau les packages logiciels existants, y compris les mises à niveau du noyau :

      root@server# apt upgrade -y

      root@server# apt install --install-recommends linux-generic-hwe-xx.xx

      xx.xx Voici votre version d’Ubuntu OS.

    5. Redémarrez le serveur pour charger le nouveau noyau :

      root@server# reboot
    6. Vérifiez la nouvelle version du noyau :

      root@server# uname -msr

Considérations relatives aux adresses IP virtuelles

Les nœuds de travail Kubernetes hébergent les pods qui gèrent la charge de travail des applications.

Un pod est la plus petite unité de calcul déployable créée et gérée dans Kubernetes. Un pod contient un ou plusieurs conteneurs, avec des ressources de stockage et de réseau partagées, et avec des instructions spécifiques sur la façon d’exécuter les applications. Les conteneurs constituent le niveau de traitement le plus bas, et vous exécutez des applications ou des microservices dans des conteneurs.

Le nœud principal du cluster détermine le nœud de travail qui hébergera un pod et des conteneurs particuliers.

Vous implémentez toutes les fonctionnalités de Paragon Automation à l’aide d’une combinaison de microservices. Vous devez rendre certains de ces microservices accessibles depuis l’extérieur du cluster, car ils fournissent des services aux utilisateurs finaux (appareils gérés) et aux administrateurs. Par exemple, vous devez rendre le service pceserver accessible pour établir des sessions PCEP (Path Computation Element Protocol) entre les routeurs PE (Provider Edge) et Paragon Automation.

Vous devez exposer ces services en dehors du cluster Kubernetes avec des adresses spécifiques accessibles depuis les appareils externes. Étant donné qu’un service peut s’exécuter sur n’importe quel nœud de travail à un moment donné, vous devez utiliser des adresses IP virtuelles (VIP) comme adresses externes. Vous ne devez pas utiliser l’adresse d’un nœud de travail donné comme adresse externe.

Dans cet exemple :

  • Considérez que le travailleur 1 est 10.1.x.3 et le travailleur 2 est 10.1.x.4.

  • IP DE SERVICE = L’ADRESSE IP PCEP est 10.1.x.200

  • PCC_IP est 10.1.x.100

Les services de Paragon Automation utilisent l’une des deux méthodes suivantes pour exposer les services en dehors du cluster :

  • Équilibrage de charge : chaque équilibreur de charge est associé à une adresse IP spécifique et achemine le trafic externe vers un service spécifique du cluster. Il s’agit de la méthode par défaut pour de nombreuses installations Kubernetes dans le cloud. La méthode d’équilibrage de charge prend en charge plusieurs protocoles et plusieurs ports par service. Chaque service possède son propre équilibreur de charge et sa propre adresse IP.

  • Paragon Automation utilise l’équilibreur de charge MetalLB. MetalLB simule un équilibreur de charge externe en gérant les adresses IP virtuelles en mode Couche 2 ou en interagissant avec le(s) routeur(s) externe(s) en mode Couche 3. MetalLB fournit une infrastructure d’équilibrage de charge au cluster Kubernetes.

    Les services de type « LoadBalancer » interagissent avec l’infrastructure d’équilibrage de charge de Kubernetes pour attribuer une adresse IP accessible de l’extérieur. Certains services peuvent partager une adresse IP externe.

  • Entrant : la méthode entrante agit comme un proxy pour amener le trafic dans le cluster, puis utilise le routage de service interne pour acheminer le trafic jusqu’à sa destination. Sous le capot, cette méthode utilise également un service d’équilibrage de charge pour s’exposer au monde afin qu’il puisse agir comme ce proxy.

    Paragon Automation utilise les proxys entrants suivants :

    • Ambassadeur
    • Nginx

Les appareils extérieurs au cluster doivent accéder aux services suivants, et ces services nécessitent donc une adresse VIP.

Tableau 1 : Services nécessitant des VIP
Description de l’adresse VIP requise Équilibreur de charge/Proxy

Contrôleur d’entrée

Permet d’accéder à l’interface graphique de Paragon Automation sur le Web.

Paragon Automation fournit un serveur Web commun qui donne accès aux composants et aux applications. L’accès au serveur est géré via le contrôleur d’entrée Kubernetes.

Ambassadeur

MetalLB

Services Paragon Insights

Utilisé pour les services Insights tels que syslog, DHCP relay et JTI.

MetalLB

Serveur PCE de Paragon Pathfinder

Utilisé pour établir des sessions PCEP avec des périphériques du réseau.

MetalLB

Proxy récepteur d’interruption SNMP (facultatif)

Utilisateur pour le proxy de récepteur d’interruption SNMP uniquement si cette fonctionnalité est requise.

MetalLB

Contrôleur d’entrée Infrastructure Nginx

Utilisé comme proxy pour le serveur netflowd de Paragon Pathfinder et, éventuellement, le serveur PCE de Paragon Pathfinder.

Le contrôleur d’entrée Nginx a besoin d’une adresse IP virtuelle dans le pool d’équilibrage de charge MetalLB. Cela signifie que pendant le processus d’installation, vous devez inclure cette adresse dans les plages d’adresses IP LoadBalancer que vous devrez inclure lors de la création du fichier de configuration.

Nginx

MetalLB

Pathfinder Netflowd

Utilisé pour le serveur netflowd de Paragon Pathfinder.

Netflowd peut utiliser Nginx comme proxy, auquel cas il n’aura pas besoin de sa propre adresse VIP.

MetalLB

Serveur PCEP (facultatif)

Utilisé pour le serveur PCE pour l’authentification MD5.

-

cRPD (facultatif)

Utilisé pour se connecter au pod BMP (BGP Monitoring Protocol) pour l’authentification MD5.

-

Ports utilisés par l’ambassadeur :

  • Redirection HTTP 80 (TCP) vers HTTPS

  • HTTPS 443 (TCP)

  • Paragon Planner 7000 (TCP)

  • Initié par DCS/NETCONF 7804 (TCP)

Figure 4 : Ambassadeur Ambassador

Ports utilisés par Insights Services, le serveur PCE (Path Computation Element) et SNMP :

  • Services d’analyse

    JTI 4000 (UDP)

    DHCP (ZTP) 67 (UDP)

    SYSLOG 514 (UDP)

    Proxy SNMP 162 (UDP)

  • Serveur PCE

    PCEP 4189 (TCP)

  • SNMP

    Récepteur d’interruption SNMP 162 (UDP)

Figure 5 : Ports utilisés par les services Ports Used by Services

Ports utilisés par le contrôleur Nginx :

  • NetFlow 9000 (UDP)

  • PCEP 4189 (TCP)

Utilisation de Nginx pour PCEP

Au cours du processus d’installation, il vous sera demandé si vous souhaitez activer le proxy entrant pour PCEP. Vous pouvez sélectionner None Nginx-Ingress ou comme proxy pour le serveur PCE (Path Computation Element).

Si vous sélectionnez Nginx-Ingress comme proxy, vous n’avez pas besoin de configurer l’adresse IP virtuelle pour le serveur PCE décrit dans le Tableau 1. Dans ce cas, l’adresse VIP du contrôleur d’entrée Infrastructure Nginx est également utilisée pour le serveur PCE. Si vous choisissez de ne pas utiliser de proxy netflowd, l’adresse IP virtuelle du contrôleur d’entrée Infrastructure Nginx est également utilisée pour netflowd.

Note:

L’avantage d’utiliser Nginx est que vous pouvez utiliser une seule adresse IP pour plusieurs services.

Figure 6 : Contrôleur Nginx Controller Nginx

Adresses VIP pour l’authentification MD5

Vous pouvez configurer l’authentification MD5 pour sécuriser les sessions PCEP entre le routeur et Paragon Pathfinder, et pour vous assurer que le service BMP est appairé avec le bon routeur BGP-LS. Paragon Automation utilise Multus pour fournir l’interface secondaire sur le serveur PCE et le pod BMP pour un accès direct au routeur. Vous avez besoin des adresses VIP suivantes dans le même sous-réseau que vos nœuds de cluster :

  • Adresse VIP du serveur PCE au format CIDR

  • Adresse VIP pour cRPD au format CIDR

Le pool d’adresses VIP de l’équilibreur de charge MetalLB ne doit pas contenir ces adresses VIP.

Si vous choisissez de configurer l’authentification MD5, vous devez également configurer la clé d’authentification et les adresses IP virtuelles sur les routeurs. Vous devez également configurer la clé d’authentification dans l’interface utilisateur de Paragon Automation.

  • MD5 sur les sessions PCEP.: configurez la clé d’authentification MD5 sur le routeur ainsi que l’interface utilisateur et l’adresse VIP de Paragon Automation sur le routeur.

    • Configurez les éléments suivants dans la CLI de Junos :

      user@pcc# set protocols pcep pce pce-id authentication-key pce-md5-key

      user@pcc# set protocols pcep pce pce-id destination-ipv4-address vip-for-pce

    • Entrez la clé d’authentification pce-md5-key dans le champ Chaîne MD5 de la section Protocoles :PCEP de la page Configuration > Devices > Modifier Device Name .

    La clé d’authentification MD5 doit être inférieure ou égale à 79 caractères.

  • MD5 sur cRPD : déterminez la clé d’authentification MD5 de cRPD et configurez la clé et l’adresse VIP de cRPD sur le routeur.

    1. Déterminez ou définissez la clé d’authentification MD5 de la manière suivante.

      1. Exécutez le script de commande et activez l’authentification conf MD5 sur cRPD. Recherchez le crpd_auth_key paramètre dans le fichier config.yml . Si une clé est présente, cela indique que cRPD est configuré pour MD5. Par exemple : crpd_auth_key : northstar. Vous pouvez utiliser la clé présente dans le fichier config.yml (ou vous pouvez également modifier la clé) et la saisir sur le routeur.

      2. Si aucune clé d’authentification MD5 n’est présente dans le fichier config.yml , vous devez vous connecter à cRPD et définir la clé d’authentification à l’aide de l’une des commandes suivantes :

        set groups extra protocols bgp group name authentication-key crpd-md5-key

        ou

        set protocols bgp group name authentication-key crpd-md5-key

        La clé d’authentification MD5 doit être inférieure ou égale à 79 caractères.

    2. Configurez le routeur pour activer MD5 pour cRPD.

      user@pcc# set protocols bgp group name neighbor vip-for-crpd authentication-key md5-key
Note:

Vous devez identifier toutes les adresses VIP requises avant de commencer le processus d’installation de Paragon Automation. Il vous sera demandé d’entrer ces adresses dans le cadre du processus d’installation.

Configurer l’équilibrage de charge

Les VIP sont gérées dans la couche 2 par défaut. Lorsque tous les nœuds de cluster se trouvent dans le même domaine de diffusion, chaque adresse VIP est affectée à un nœud de cluster à la fois. Le mode Couche 2 assure le basculement de l’adresse IP virtuelle et n’assure pas l’équilibrage de charge réel. Pour un véritable équilibrage de charge entre les nœuds de cluster ou si les nœuds se trouvent dans des domaines de diffusion différents, vous devez configurer l’équilibrage de charge dans la couche 3.

Vous devez configurer un routeur BGP pour annoncer l’adresse VIP au réseau. Assurez-vous que le routeur BGP utilise ECMP pour équilibrer les sessions TCP/IP entre différents hôtes. Connectez le routeur BGP directement aux nœuds du cluster.

Pour configurer équilibrage de charge sur les nœuds cluster, modifiez le fichier config.yml . Par exemple:

Dans cet exemple, le routeur BGP à 192.x.x.1 est responsable de la publicité de l’accessibilité des adresses VIP avec le préfixe 10.x.x.0/24 au reste du réseau. Le cluster alloue l’adresse VIP de cette plage et annonce l’adresse des nœuds de cluster qui peuvent gérer l’adresse.

Configurer le serveur DNS (facultatif)

Vous pouvez accéder à la passerelle Web principale via l’adresse VIP du contrôleur d’entrée ou via un nom d’hôte configuré dans le serveur DNS (Domain Name System) qui se résout en adresse d’adresse IP virtuelle du contrôleur d’entrée. Vous devez configurer le serveur DNS uniquement si vous souhaitez utiliser un nom d’hôte pour accéder à la passerelle Web.

Ajoutez le nom d’hôte au DNS sous forme d’enregistrement A, AAAA ou CNAME. Pour les configurations de laboratoire et de preuve de concept (POC), vous pouvez ajouter le nom d’hôte au fichier /etc/hosts sur les nœuds de cluster.