Installer un cluster multinœud sur Ubuntu
Lisez les rubriques suivantes pour savoir comment installer Paragon Automation sur un cluster multinœud avec système d’exploitation hôte Ubuntu. La Figure 1 présente un résumé des tâches d’installation à un niveau élevé. Assurez-vous d'avoir terminé les étapes de préconfiguration et de préparation décrites dans Conditions préalables à l'installation sur Ubuntu avant de commencer l'installation.

Pour afficher une image de plus haute résolution dans votre navigateur Web, cliquez avec le bouton droit de la souris sur l’image et ouvrez-la dans un nouvel onglet. Pour afficher l’image au format PDF, utilisez l’option de zoom pour effectuer un zoom avant.
Télécharger le logiciel Paragon Automation
Prérequis
-
Vous avez besoin d’un compte Juniper pour télécharger le logiciel Paragon Automation.
- Connectez-vous à l’hôte de contrôle.
- Créez un répertoire dans lequel vous allez télécharger le logiciel.
Nous nous référons à ce répertoire comme pa-download-dir dans ce guide.
- Sélectionnez le numéro de version dans la liste Version de la page de téléchargement du logiciel Paragon Automation à https://support.juniper.net/support/downloads/?p=pa.
- Téléchargez les fichiers d’installation de Paragon Automation Setup dans le dossier de téléchargement à l’aide de la
wget "http://cdn.juniper.net/software/file-download-url"
commande.Le bundle d’installation du programme d’installation de Paragon Automation se compose des scripts et fichiers TAR suivants pour installer chacun des modules du composant :
-
davinci.tar.gz, qui est le fichier d’installation principal.
-
infra.tar, qui installe les composants de l’infrastructure Kubernetes, notamment Docker et Helm.
-
ems.tar, qui installe le composant de plate-forme de base.
-
northstar.tar, qui installe les composants Paragon Pathfinder et Paragon Planner.
-
healthbot.tar, qui installe le composant Paragon Insights.
-
paragon_ui.tar, qui installe le composant d’interface utilisateur Paragon Automation.
-
addons.tar, qui installe des composants d’infrastructure qui ne font pas partie de l’installation Kubernetes de base. Les composants de l’infrastructure comprennent IAM, Kafka, ZooKeeper, cert-manager, Ambassador, Postgres, Metrics, Kubernetes Dashboard, Open Distro for Elasticsearch, Fluentd, Reloader, ArangoDB et Argo.
-
helm-charts.tar, qui contient toutes les cartes de barre nécessaires à l’installation.
- rke2-packages.tgz, qui installe les composants Kubernetes basés sur RKE2.
- 3rdparty.tar.gz, qui installe les utilitaires tiers requis.
-
rhel-84-airgap.tar.gz, qui installe Paragon Automation à l’aide de la méthode air-gap sur les nœuds uniquement lorsque le système d’exploitation de base est Red Hat Enterprise Linux (RHEL). Vous pouvez choisir de supprimer ce fichier si vous n’installez pas Paragon Automation à l’aide de la méthode air-gap sur un système d’exploitation de base RHEL.
-
run
qui exécute l’image du programme d’installation.
Maintenant que vous avez téléchargé le logiciel, vous êtes prêt à installer Paragon Automation.
-
Installer Paragon Automation sur un cluster à plusieurs nuds
- Rendez le
run
script exécutable dans le pa-download-dir répertoire.# chmod +x run
- Utilisez le
run
script pour créer et initialiser un répertoire de configuration avec les fichiers de modèle de configuration.# ./run -c config-dir init
config-dir est un répertoire défini par l’utilisateur sur l’hôte de contrôle qui contient des informations de configuration pour une installation particulière. La
init
commande crée automatiquement le répertoire s’il n’existe pas. Vous pouvez également créer le répertoire avant d’exécuter lainit
commande.Assurez-vous d’inclure le point et la barre oblique (./) avec la
run
commande.Si vous utilisez le même hôte de contrôle pour gérer plusieurs installations de Paragon Automation, vous pouvez différencier les installations en utilisant des répertoires de configuration portant des noms différents.
- Assurez-vous que l’hôte de contrôle peut se connecter aux nœuds du cluster via SSH à l’aide du compte d’utilisateur d’installation.
Copiez la clé privée que vous avez générée dans Configurer l’authentification du client SSH dans le répertoire config-dir défini par l’utilisateur. Le programme d’installation permet au conteneur Docker d’accéder config-dir au répertoire. La clé SSH doit être disponible dans le répertoire pour que l’hôte de contrôle puisse se connecter aux nœuds du cluster.
# cd config-dir # cp ~/.ssh/id_rsa . # cd ..
Assurez-vous d’inclure le point (.) à la fin de la commande de copie (
cp
). - Personnalisez le fichier d’inventaire, créé sous l’annuaire config-dir , avec les adresses IP ou les noms d’hôte des nœuds du cluster, ainsi que les noms d’utilisateur et les informations d’authentification nécessaires pour se connecter aux nœuds. Le fichier d’inventaire est au format YAML et décrit les nuds de cluster sur lesquels Paragon Automation sera installé. Vous pouvez modifier le fichier à l’aide de la
inv
commande ou d’un éditeur de texte Linux tel que vi.-
Personnalisez le fichier d’inventaire à l’aide de la
inv
commande :# ./run -c config-dir inv
Le tableau suivant répertorie les options de configuration que la
inv
commande vous invite à entrer.Tableau 1 : inv Options de commande description des invites de commande inv Nœuds maîtres Kubernetes Entrez les adresses IP des nœuds principaux Kubernetes. Nœuds de travail Kubernetes Entrez les adresses IP des nœuds de travail Kubernetes. Noeuds de stockage local Définissez les noeuds qui disposent d’un espace disque disponible pour les applications. Les noeuds de stockage local sont préremplis avec les adresses IP des noeuds principaux et de travail. Vous pouvez modifier ces adresses. Entrez les adresses IP des nœuds sur lesquels vous souhaitez exécuter des applications nécessitant un stockage local.
Des services tels que Postgres, ZooKeeper et Kafka utilisent le stockage local ou l’espace disque partitionné dans export/local-volumes. Par défaut, les nœuds de travail disposent d’un stockage local. Si vous n’ajoutez pas de noeuds primaires ici, vous ne pouvez exécuter que les applications qui ne nécessitent pas de stockage local sur les noeuds principaux.
Note:Le stockage local est différent du stockage Ceph.
Nom d'utilisateur des nœuds Kubernetes (par exemple, root) Configurez le compte d’utilisateur et les méthodes d’authentification pour authentifier le programme d’installation auprès des nœuds du cluster. Le compte d’utilisateur doit être root ou, dans le cas d’utilisateurs non-root, le compte doit avoir des privilèges de superutilisateur (sudo). Fichier de clé privée SSH (facultatif) Si vous avez choisi
ssh-key
l’authentification, pour que l’hôte de contrôle puisse s’authentifier auprès des nœuds pendant le processus d’installation, configurez le répertoire (config-dir) où se trouve le _file ansible_ssh_private_key et le fichier id_rsa en tant que «{{ config-dir }}/id_rsa
».Mot de passe des nœuds Kubernetes (facultatif) Si vous avez choisi l’authentification par mot de passe pour que l’hôte de contrôle s’authentifie auprès des nœuds pendant le processus d’installation, entrez directement le mot de passe d’authentification. AVERTISSEMENT : Le mot de passe est écrit en texte brut.
Nous vous déconseillons d’utiliser cette option pour l’authentification.
Nom du cluster Kubernetes (facultatif) Entrez un nom pour votre cluster Kubernetes. Écrire un fichier d’inventaire ? Cliquez sur
Yes
ce bouton pour enregistrer les informations d’inventaire.Par exemple:
$ ./run -c config-dir inv Loaded image: paragonautomation:latest ==================== PO-Runtime installer ==================== Supported command: deploy [-t tags] deploy runtime destroy [-t tags] destroy runtime init init configuration skeleton inv basic inventory editor conf basic configuration editor info [-mc] cluster installation info Starting now: inv INVENTORY This script will prompt for the DNS names or IP addresses of the Kubernetes master and worker nodes. Addresses should be provided as comma-delimited lists. At least three master nodes are recommended. The number of masters should be an odd number. A minimum of four nodes are recommended. Root access to the Kubernetes nodes is required. See https://docs.ansible.com/ansible/2.10/user_guide/intro_inventory.html ? Kubernetes master nodes 10.12.xx.x3,10.12.xx.x4,10.12.xx.x5 ? Kubernetes worker nodes 10.12.xx.x6 ? Local storage nodes 10.12.xx.x3,10.12.xx.x4,10.12.xx.x5,10.12.xx.x6 ? Kubernetes nodes' username (e.g. root) root ? SSH private key file (optional; e.g. "{{ inventory_dir }}/id_rsa") config/id_rsa ? Kubernetes nodes' password (optional; WARNING - written as plain text) ? Kubernetes cluster name (optional) k8scluster ? Write inventory file? Yes
-
Vous pouvez également personnaliser manuellement le fichier d’inventaire à l’aide d’un éditeur de texte.
# vi config-dir/inventory
Modifiez les groupes suivants dans le fichier d’inventaire .
-
Ajoutez les adresses IP des nœuds Kubernetes principal et de travail du cluster.
Le
master
groupe identifie les noeuds primaires et lenode
groupe identifie les noeuds de travail. Vous ne pouvez pas avoir la même adresse IP dans les deuxmaster
groupes etnode
.Pour créer une configuration à plusieurs nœuds primaires, répertoriez les adresses ou les noms d’hôte de tous les nœuds qui agiront en tant que nœuds principaux dans le
master
groupe. Ajoutez les adresses ou les noms d’hôte des nœuds qui agiront en tant que nœuds de calcul dans lenode
groupe.master: hosts: 10.12.xx.x3: {} 10.12.xx.x4: {} 10.12.xx.x5: {} node: hosts: 10.12.xx.x6: {}
-
Définissez les nœuds qui disposent d’un espace disque disponible pour les applications du
local_storage_nodes:children
groupe.local_storage_nodes: children: master: hosts: 10.12.xx.x3: {} 10.12.xx.x4: {} 10.12.xx.x5: {} node: hosts: 10.12.xx.x6: {}
-
Configurez le compte d’utilisateur et les méthodes d’authentification pour authentifier le programme d’installation dans l’hôte de contrôle Ansible avec les nœuds de cluster sous le
vars
groupe.vars: ansible_user: root ansible_ssh_private_key_file: config/id_rsa ansible_password:
-
(Facultatif) Spécifiez un nom pour votre cluster Kubernetes dans le
kubernetes_cluster_name
groupe.kubernetes_cluster_name: k8scluster
-
-
- Configurez le programme d’installation à l’aide de la
conf
commande.# ./run -c config-dir conf
La
conf
commande exécute un assistant d’installation interactif qui vous permet de choisir les composants à installer et de configurer une configuration de base de Paragon Automation. La commande remplit le fichier config.yml avec votre configuration d’entrée. Pour une configuration avancée, vous devez modifier le fichier config.yml manuellement.Saisissez les informations demandées par l’assistant. Utilisez les touches de curseur pour déplacer le curseur, utilisez la touche espace pour sélectionner une option et utilisez la
a
touche oui
pour activer ou désactiver toutes les options. Appuyez sur Entrée pour passer à l’option de configuration suivante. Vous pouvez ignorer les options de configuration en saisissant un point (.
). Vous pouvez saisir à nouveau tous vos choix en quittant l’assistant et en recommençant depuis le début. Le programme d’installation vous permet de quitter l’assistant après avoir enregistré les choix que vous avez déjà faits ou de recommencer depuis le début. Vous ne pouvez pas revenir en arrière et rétablir les choix que vous avez déjà effectués dans le flux de travail en cours sans quitter et redémarrer complètement l’assistant.Le tableau suivant répertorie les options de configuration que la
conf
commande vous invite à entrer :Tableau 2 : conf Options de commande conf
Invites de commandesDescription/Options
Sélection des composants
Vous pouvez installer les composants Infrastructure, Pathfinder, Insights et la plate-forme de base. Par défaut, tous les composants sont sélectionnés.
Vous pouvez choisir d’installer Pathfinder en fonction de vos besoins. Cependant, vous devez installer tous les autres composants.
Options d’infrastructure
Ces options s’affichent uniquement si vous avez choisi d’installer le composant Infrastructure à l’invite précédente.
-
Install Kubernetes Cluster (Installer le cluster Kubernetes) : installez le cluster Kubernetes requis. Si vous installez Paragon Automation sur un cluster existant, vous pouvez effacer cette sélection.
-
Install MetalLB LoadBalancer : installez un équilibreur de charge interne pour le cluster Kubernetes. Par défaut, cette option est déjà sélectionnée. Si vous installez Paragon Automation sur un cluster existant avec un équilibrage de charge préconfiguré, vous pouvez effacer cette sélection.
-
Installer le contrôleur d’entrée Nginx—Installer le contrôleur d’entrée Nginx est un proxy d’équilibrage de charge pour les composants Pathfinder.
-
Install Chrony NTP Client (Installer Chrony NTP Client) : installez Chrony NTP. NTP est nécessaire pour synchroniser les horloges des nœuds du cluster. Si NTP est déjà installé et configuré, vous n’avez pas besoin d’installer Chrony. Tous les noeuds doivent exécuter NTP ou un autre protocole de synchronisation temporelle à tout moment.
-
Autoriser l’ordonnancement principal : l’ordonnancement principal détermine la manière dont les noeuds agissant en tant que noeuds principaux sont utilisés. Master est un autre terme désignant un nœud agissant en tant que nœud principal.
Si vous sélectionnez cette option, les noeuds principaux peuvent également agir en tant que noeuds de travail, ce qui signifie qu’ils peuvent non seulement agir en tant que plan de contrôle, mais également exécuter des charges de travail applicatives. Si vous ne sélectionnez pas la planification principale, les noeuds principaux sont utilisés uniquement comme plan de contrôle.
La planification principale permet aux ressources disponibles des nœuds agissant en tant que nœuds principaux d’être disponibles pour les charges de travail. Toutefois, si vous sélectionnez cette option, une charge de travail qui se comporte mal peut épuiser les ressources sur le nœud principal et affecter la stabilité de l’ensemble du cluster. Sans planification principale, si vous avez plusieurs nœuds principaux avec une capacité et un espace disque élevés, vous risquez de gaspiller leurs ressources en ne les utilisant pas complètement.
Note:Cette option est requise pour la redondance du stockage Ceph.
Liste des serveurs NTP
Entrez une liste de serveurs NTP séparés par des virgules. Cette option ne s’affiche que si vous avez choisi d’installer Chrony NTP.
Adresse(s) IP(s) virtuelle(s) pour le contrôleur entrant
Entrez une adresse IP virtuelle à utiliser pour l’accès Web au cluster Kubernetes ou à l’interface utilisateur de Paragon Automation. Il doit s’agir d’une adresse IP inutilisée gérée par le pool d’équilibreurs de charge MetalLB.
Adresse IP virtuelle pour le contrôleur d’entrée Nginx d’infrastructure Entrez une adresse VIP pour le contrôleur d’entrée Nginx. Il doit s’agir d’une adresse IP inutilisée gérée par le pool d’équilibreurs de charge MetalLB. Cette adresse est utilisée pour le trafic NetFlow.
Adresse IP virtuelle pour les services Insights
Entrez une adresse VIP pour les services Paragon Insights. Il doit s’agir d’une adresse IP inutilisée gérée par le pool d’équilibreurs de charge MetalLB.
Adresse IP virtuelle pour le récepteur d’interruptions SNMP (facultatif) Entrez une adresse IP virtuelle pour le proxy du récepteur d’interruptions SNMP uniquement si cette fonctionnalité est requise. Si vous n’avez pas besoin de cette option, saisissez un point (.).
Pathfinder Options Sélectionnez cette option pour installer Netflowd. Vous pouvez configurer une adresse IP virtuelle pour netflowd ou utiliser un proxy pour netflowd (identique à l’adresse IP virtuelle pour le contrôleur d’entrée Infrastructure Nginx). Si vous choisissez de ne pas installer netflowd, vous ne pouvez pas configurer d’adresse IP virtuelle pour netflowd.
Utiliser un proxy netflowd Entrez Y
pour utiliser un proxy netflowd. Cette option n’apparaît que si vous avez choisi d’installer netflowd.Si vous avez choisi d'utiliser un proxy netflowd, vous n'avez pas besoin de configurer une adresse IP virtuelle pour netflowd. L’adresse IP virtuelle du contrôleur d’entrée Nginx d’infrastructure est utilisée comme proxy pour netflowd.
Adresse IP virtuelle pour Pathfinder NetflowdVirtual IP address for Pathfinder Netflowd Entrez une adresse IP virtuelle à utiliser pour Paragon Pathfinder netflowd. Cette option n’apparaît que si vous avez choisi de ne pas utiliser le proxy netflowd. Proxy de serveur PCE Sélectionnez le mode proxy pour le serveur PCE. Sélectionnez parmi None
etNginx-Ingress
.Adresse IP virtuelle du serveur Pathfinder PCE Entrez une adresse VIP à utiliser pour l’accès au serveur PCE de Paragon Pathfinder. Il doit s’agir d’une adresse IP inutilisée gérée par l’équilibreur de charge.
Si vous avez sélectionné Nginx-Ingress comme proxy de serveur PCE, cette adresse VIP n’est pas nécessaire. L’assistant ne vous invite pas à entrer cette adresse et PCEP utilisera la même adresse que l’adresse VIP pour le contrôleur d’entrée Nginx d’infrastructure.
Note:Les adresses du contrôleur d’entrée, du contrôleur d’entrée Nginx d’infrastructure, des services Insights et du serveur PCE doivent être uniques. Vous ne pouvez pas utiliser la même adresse pour les quatre adresses VIP.
Toutes ces adresses sont répertoriées automatiquement dans l’option Plages d’adresses IP de LoadBalancer.
Plages d’adresses IP LoadBalancer
Les adresses IP LoadBalancer sont préremplies à partir de votre plage d’adresses VIP. Vous pouvez modifier ces adresses. Les services accessibles de l’extérieur sont gérés par MetalLB, qui a besoin d’une ou plusieurs plages d’adresses IP accessibles depuis l’extérieur du cluster. Les adresses VIP des différents serveurs sont sélectionnées à partir de ces plages d’adresses.
Les plages d’adresses peuvent se trouver (mais pas nécessairement) dans le même domaine de diffusion que les nœuds du cluster. Pour faciliter la gestion, étant donné que les topologies de réseau ont besoin d’accéder aux services Insights et aux clients du serveur PCE, nous vous recommandons de sélectionner les adresses IP virtuelles dans la même plage.
Pour plus d’informations, reportez-vous à la section Considérations relatives aux adresses IP virtuelles.
Les adresses peuvent être saisies sous forme de valeurs séparées par des virgules (CSV), sous forme de plage ou sous la forme d’une combinaison des deux. Par exemple:
-
10.x.x.1, 10.x.x.2, 10.x.x.3
-
10.x.x.1-10.x.x.3
-
10.x.x.1, 10.x.x.3-10.x.x.5
-
10.x.x.1-3 n’est pas un format valide.
Détection d’un nœud multi-maître souhaitez-vous configurer plusieurs registres ? Entrez
Y
pour configurer un registre de configuration sur chaque nœud principal.Cette option ne s'affiche que si vous avez configuré plusieurs noeuds principaux dans le fichier d'inventaire (installation multi-primaire).
Adresse IP virtuelle pour le registre
Entrez une adresse IP virtuelle pour le registre de conteneurs pour un déploiement de plusieurs nœuds principaux uniquement. Assurez-vous que l’adresse IP virtuelle se trouve dans le même domaine de couche 2 que les nœuds principaux. Cette adresse VIP ne fait pas partie du pool d’adresses VIP de LoadBalancer.
Cette option ne s’affiche que si vous avez choisi de configurer plusieurs registres de conteneurs.
Activer md5 pour le serveur PCE
Entrez Y
pour configurer l’authentification MD5 entre le routeur et Pathfinder.Note:Si vous activez MD5 sur des sessions PCEP, vous devez également configurer la clé d’authentification dans l’interface utilisateur de Paragon Automation, ainsi que la même clé d’authentification et l’adresse IP virtuelle sur le routeur. Pour plus d’informations sur la configuration de la clé d’authentification et de l’adresse VIP, consultez Adresses IP virtuelles pour l’authentification MD5.
IP pour le serveur PCEP (doit être en dehors de la plage metallb et doit se trouver dans le même sous-réseau que l’hôte avec son préfixe de sous-réseau en notation CIDR)
Entrez une adresse VIP pour le serveur PCE. L’adresse IP doit être au format CIDR.
Assurez-vous que l’adresse IP virtuelle se trouve dans le même domaine de couche 2 que les nœuds principaux. Cette adresse VIP ne fait pas partie du pool d’adresses VIP de LoadBalancer.
Activer md5 pour BGP
Entrez Y
pour configurer l’authentification MD5 entre cRPD et le routeur BGP-LS.IP pour CRPD (doit être en dehors de la plage metallb et doit se trouver dans le même sous-réseau que l’hôte avec son préfixe de sous-réseau en notation CIDR)
Entrez une adresse VIP pour le BGP Monitoring Protocol (BMP). L’adresse IP doit être au format CIDR.
Assurez-vous que l’adresse IP virtuelle se trouve dans le même domaine de couche 2 que les nœuds principaux. Cette adresse VIP ne fait pas partie du pool d’adresses VIP de LoadBalancer.
Note:Si vous activez MD5 sur des sessions cRPD, vous devez également configurer le routeur pour qu’il active MD5 pour cRPD et configurer l’adresse IP virtuelle sur le routeur. Pour plus d’informations sur la détermination de la clé d’authentification MD5 et la configuration du routeur, consultez Adresses IP virtuelles pour l’authentification MD5.
Multus Interface
Entrez le type d’interface Multus.
Itinéraires Multus Destination ? peut être supérieur à 1 pair avec son préfixe de sous-réseau en notation CIDR
Saisissez les routes Multus au format CIDR.
Adresse IP de la passerelle Multus
Saisissez l’adresse IP de la passerelle Multus.
Nom d’hôte de l’application Web principale
Entrez un nom d’hôte pour le contrôleur d’entrée. Vous pouvez configurer cette valeur en tant qu’adresse IP ou en tant que nom de domaine complet (FQDN). Par exemple, vous pouvez saisir 10.12.xx.100 ou www.paragon.juniper.net (nom DNS). N’incluez pas http:// ou https://.
Note:Vous allez utiliser ce nom d’hôte pour accéder à l’interface utilisateur Web de Paragon Automation à partir de votre navigateur. Par exemple, https://hostname ou https://IP-address.
Système autonome BGP Numéro de l’homologue CDPH
Configurez les systèmes autonomes cRPD (Containerized Routing Protocol Daemon) et les nœuds avec lesquels cRPD crée ses sessions BGP.
Vous devez configurer le numéro du système autonome (AS) du réseau pour permettre au cRPD de s’appairer avec un ou plusieurs routeurs BGP Link State (BGP-LS) dans le réseau. Par défaut, le numéro AS est 64500.
Note:Bien que vous puissiez configurer le numéro AS au moment de l’installation, vous pouvez également modifier la configuration cRPD ultérieurement. Reportez-vous à la section Modification de la configuration cRPD .
Liste des pairs de la CDPH séparés par des virgules
Configurez cRPD pour qu’il soit appairé avec au moins un routeur BGP-LS dans le réseau afin d’importer la topologie du réseau. Pour un seul système autonome, configurez l’adresse des routeurs BGP-LS qui seront appairés avec cRPD pour fournir des informations topologiques à Paragon Pathfinder. L’instance cRPD s’exécutant dans le cadre d’un cluster établit une connexion BGP-LS aux routeurs homologues spécifiés et importe les données de topologie une fois la session établie. Si plusieurs homologues sont requis, vous pouvez ajouter les homologues en tant que CSV, en tant que plage ou en tant que combinaison des deux, de la même manière que vous ajoutez des adresses IP LoadBalancer.
Note:Bien que vous puissiez configurer les adresses IP homologues au moment de l’installation, vous pouvez également modifier la configuration cRPD ultérieurement, comme décrit dans Modifier la configuration cRPD.
Vous devez configurer les routeurs pair BGP pour accepter les connexions BGP initiées à partir de cRPD. La session BGP est initiée à partir de cRPD en utilisant l’adresse du worker sur lequel le pod bmp est en cours d’exécution comme adresse source.
Étant donné que cRPD peut être en cours d’exécution sur n’importe lequel des nœuds de travail à un moment donné, vous devez autoriser les connexions à partir de l’une de ces adresses. Vous pouvez autoriser la plage d’adresses IP à laquelle appartiennent les adresses de travail (par exemple, 10.xx.43.0/24) ou l’adresse IP spécifique de chaque travailleur (par exemple, 10.xx.43.1/32, 10.xx.43.2/32 et 10.xx.43.3). Vous pouvez également le configurer à l’aide de la
neighbor
commande avec l’optionpassive
pour empêcher le routeur de tenter d’initier la connexion.Si vous avez choisi d’entrer l’adresse de chaque worker individuellement, soit avec la
allow
commande, soit avec laneighbor
commande, assurez-vous d’inclure tous les workers, car n’importe quel worker peut exécuter cRPD à un moment donné. Une seule session BGP sera lancée. En cas de défaillance du nœud exécutant cRPD, le pod bmp qui contient le conteneur cRPD est créé dans un autre nœud et la session BGP est relancée.La séquence de commandes de l’exemple suivant présente les options permettant de configurer un équipement Juniper afin d’autoriser les connexions BGP-LS à partir de cRPD.
Les commandes suivantes configurent le routeur pour qu’il accepte les sessions BGP-LS de n’importe quel hôte du réseau 10.xx.43.0/24, sur lequel tous les nœuds de travail sont connectés.
[edit groups northstar] root@system# show protocols bgp group northstar type internal; family traffic-engineering { unicast; } export TE; allow 10.xx.43.0/24; [edit groups northstar] root@system# show policy-options policy-statement TE from family traffic-engineering; then accept;
Les commandes suivantes configurent le routeur pour qu’il accepte uniquement les sessions BGP-LS des versions 10.xx.43.1, 10.xx.43.2 et 10.xx.43.3 (les adresses des trois nœuds de calcul du cluster).
[edit protocols bgp group BGP-LS] root@vmx101# show | display set set protocols bgp group BGP-LS family traffic-engineering unicast set protocols bgp group BGP-LS peer-as 11 set protocols bgp group BGP-LS allow 10.x.43.1 set protocols bgp group BGP-LS allow 10.x.43.2 set protocols bgp group BGP-LS allow 10.x.43.3 set protocols bgp group BGP-LS export TE
cRPD lance la session BGP. Une seule session est établie à la fois et est lancée à l’aide de l’adresse du nœud de travail exécutant actuellement cRPD. Si vous choisissez de configurer les adresses IP spécifiques au lieu d’utiliser l’option
allow
, configurez les adresses de tous les nœuds de travail pour la redondance.Les commandes suivantes configurent également le routeur pour qu’il accepte uniquement les sessions BGP-LS des versions 10.xx.43.1, 10.xx.43.2 et 10.xx.43.3 (les adresses des trois nœuds de calcul du cluster). Cette
passive
option empêche le routeur de tenter d’initier une session BGP-LS avec cRPD. Le routeur attendra que la session soit lancée par l’un de ces trois routeurs.[edit protocols bgp group BGP-LS] root@vmx101# show | display set set protocols bgp group BGP-LS family traffic-engineering unicast set protocols bgp group BGP-LS peer-as 11 set protocols bgp group BGP-LS neighbor 10.xx.43.1 set protocols bgp group BGP-LS neighbor 10.xx.43.2 set protocols bgp group BGP-LS neighbor 10.xx.43.3 set protocols bgp group BGP-LS passive set protocols bgp group BGP-LS export TE
Vous devez également activer les aspects techniques du trafic OSPF/IS-IS et aspects techniques du trafic MPLS, comme indiqué ici :
set protocols rsvp interface interface.unit set protocols isis interface interface.unit set protocols isis traffic-engineering igp-topology Or set protocols ospf area area interface interface.unit set protocols ospf traffic-engineering igp-topology set protocols mpls interface interface.unit set protocols mpls traffic-engineering database import igp-topology
Pour plus d’informations, reportez-vous à https://www.juniper.net/documentation/us/en/software/junos/mpls/topics/topic-map/mpls-traffic-engineering-configuration.html.
Terminer et écrire la configuration dans le fichier Cliquez sur Yes
ce bouton pour enregistrer les informations de configuration.Cette action configure une configuration de base et enregistre les informations du fichier config.yml dans le config-dir répertoire.
Cliquez sur
No
ce bouton pour redémarrer l’assistant sans quitter la session en cours. Les paramètres de configuration et les sélections précédemment saisis apparaissent préconfigurés dans l’assistant. Vous pouvez choisir de les conserver ou de saisir à nouveau de nouvelles valeurs.Cliquez pour
Cancel
quitter l’assistant sans enregistrer la configuration.$ ./run -c config conf Loaded image: paragonautomation.latest ==================== PO-Runtime installer ==================== Supported command: deploy [-t tags] deploy runtime destroy [-t tags] destroy runtime init init configuration skeleton inv basic inventory editor conf basic configuration editor info [-mc] cluster installation info Starting now: conf NOTE: depending on options chosen additional IP addresses may be required for: multi-master Kubernetes Master Virtual IP address Infrastructure Virtual IP address(es) for ingress controller Infrastructure Virtual IP address for Infrastructure Nginx Ingress Cont roller Insights Virtual IP address for Insights services Insights Virtual IP address for SNMP Trap receiver (optional) Pathfinder Virtual IP address for Pathfinder Netflowd Pathfinder Virtual IP address for Pathfinder PCE server multi-registry Paragon External Registry Virtual IP address ? Select components done (4 selections) ? Infrastructure Options done (4 selections) ? List of NTP servers 0.pool.ntp.org ? Virtual IP address(es) for ingress controller 10.12.xx.x7 ? Virtual IP address for Insights services 10.12.xx.x8 ? Virtual IP address for SNMP Trap receiver (optional) ? Pathfinder Options [Install Netflowd] ? Use netflowd proxy? Yes ? PCEServer proxy Nginx Ingress ? LoadBalancer IP address ranges 10.12.xx.x7-10.12.xx.x9 ? Multi-master node detected do you want to setup multiple registries Yes ? Virtual IP address for registry 10.12.xx.10 ? Enable md5 for PCE Server ? Yes ? IP for PCEP server (must be outside metallb range and must be in the same subnet as the host with its subnet prefix in CIDR notation) 10.12.xx.219/24 ? Enable md5 for BGP ? Yes ? IP for CRPD (must be outside metallb range and must be in the same subnet as the host with its subnet prefix in CIDR notation) 10.12.xx.220/24 ? Multus Interface ? eth1 ? Multus Destination routes ? can be more than 1 peer with its subnet prefix in CIDR notation 10.12.xx.41/24,10.13.xx.21/24 ? Multus Gateway IP Address ? 10.12.xx.101 ? Hostname of Main web application host.example.net ? BGP autonomous system number of CRPD peer 64500 ? Comma separated list of CRPD peers 10.12.xx.11 ? Finish and write configuration to file Yes
-
- (Facultatif) Pour une configuration plus avancée du cluster, utilisez un éditeur de texte pour modifier manuellement le fichier config.yml.
Le fichier config.yml est constitué d’une section essentielle au début du fichier qui correspond aux options de configuration que l’assistant d’installation vous invite à saisir. Le fichier dispose également d’une longue liste de sections sous la section essentielle qui vous permet d’entrer des valeurs de configuration complexes directement dans le fichier.
Vous pouvez configurer les options suivantes :
-
(Facultatif) Définissez le mot de
grafana_admin_password
passe pour vous connecter à l’application Grafana. Grafana est un outil de visualisation couramment utilisé pour visualiser et analyser des données provenant de diverses sources, y compris les journaux.Par défaut, le nom d’utilisateur est préconfiguré en tant qu’admin dans
# grafana_admin_user: admin
. Utilisez admin comme nom d’utilisateur et le mot de passe que vous configurez pour vous connecter à Grafana.grafana_admin_user: admin grafana_admin_password: grafana_password
Si vous ne configurez pas le mot de
grafana_admin_password
passe, le programme d’installation génère un mot de passe aléatoire. Vous pouvez récupérer le mot de passe à l’aide de la commande :# kubectl get secret -n kube-system grafana -o jsonpath={..grafana-password} | base64 -d
-
Définissez l’option de configuration sur true pour la
iam_skip_mail_verification
gestion des utilisateurs sans SMTP par la gestion des identités et des accès (IAM). Par défaut, cette option est définie sur false pour la gestion des utilisateurs avec SMTP. Vous devez configurer SMTP dans Paragon Automation afin de pouvoir notifier les utilisateurs Paragon Automation lorsque leur compte est créé, activé ou verrouillé, ou lorsque leur mot de passe est modifié. -
Configurez l’option
callback_vip
avec une adresse IP différente de celle de l’adresse IP virtuelle (VIP) du contrôleur entrant. Vous pouvez utiliser une adresse IP du pool d’adresses IP de MetalLB. Vous configurez cette adresse IP pour permettre la séparation du trafic de gestion et de données à partir des interfaces southbound et northbound. Par défaut,callback_vip
se voit attribuer la même adresse ou l’une des adresses du contrôleur d’entrée.
Enregistrez et quittez le fichier une fois que vous avez fini de le modifier.
-
- (Facultatif) Si vous souhaitez déployer des certificats SSL personnalisés signés par une autorité de certification reconnue, stockez la clé privée et le certificat dans l’annuaireconfig-dir. Enregistrez la clé privée sous le nom ambassador.key.pem et le certificat sous le nom ambassador.cert.pem.
Par défaut, Ambassador utilise un certificat généré localement et signé par l’autorité de certification interne au cluster Kubernetes.
Note:Si le certificat est sur le point d’expirer, enregistrez-le sous le nom ambassador.cert.pem dans le même répertoire et exécutez la
./run -c config-dir deploy -t ambassador
commande. - Installez le cluster Paragon Automation en fonction des informations que vous avez configurées dans les fichiers d’config.yml et d’inventaire.
# ./run -c config-dir deploy
Le temps d’installation pour installer le cluster configuré dépend de la complexité du cluster. L’installation d’un programme d’installation de base prend au moins 45 minutes.
Le programme d’installation vérifie la synchronisation NTP au début de l’installation. Si les horloges ne sont pas synchronisées, l’installation échoue.
Pour les déploiements à plusieurs nœuds principaux uniquement, le programme d’installation vérifie à la fois le processeur et la mémoire de chaque serveur, ainsi que le nombre total de CPU et de mémoire disponibles par cluster. Si les conditions suivantes ne sont pas remplies, l’installation échoue.
-
Nombre minimum de CPU par cluster : 20 CPU
-
Mémoire minimale par cluster : 32 Go
-
Nombre minimum de CPU par nœud : 4 CPU
-
Mémoire minimale par nœud : 6 Go
Pour désactiver la vérification du processeur et de la mémoire, utilisez la commande suivante et relancez le déploiement.
# ./run -c config-dir deploy -e ignore_iops_check=yes
Si vous installez Paragon Automation sur un cluster Kubernetes existant, ladeploy
commande met à niveau le cluster actuellement déployé vers la dernière version de Kubernetes. La commande met également à niveau la version de Docker CE, si nécessaire. Si Docker EE est déjà installé sur les nœuds, ladeploy
commande ne le remplace pas par Docker CE. Lors de la mise à niveau de la version Kubernetes ou de la version Docker, la commande effectue la mise à niveau de manière séquentielle sur un nœud à la fois. La commande se connecte à chaque nœud et le supprime de la planification. Il effectue des mises à niveau, redémarre Kubernetes sur le nœud, puis déconnecte le nœud et le ramène dans la planification. -
- Une fois le déploiement terminé, connectez-vous aux nœuds de travail.
Utilisez un éditeur de texte pour configurer les informations recommandées suivantes pour Paragon Insights dans les fichiers limits.conf et sysctl.conf . Ces valeurs définissent les limites de mémoire logicielle et matérielle pour les besoins en mémoire de la base de données d’entrée. Si vous ne définissez pas ces limites, vous risquez de voir des erreurs telles que « mémoire insuffisante » ou « trop de fichiers ouverts » en raison des limites système par défaut.
-
# vi /etc/security/limits.conf # End of file * hard nofile 1048576 * soft nofile 1048576 root hard nofile 1048576 root soft nofile 1048576 influxdb hard nofile 1048576 influxdb soft nofile 1048576
-
# vi /etc/sysctl.conf fs.file-max = 2097152 vm.max_map_count=262144 fs.inotify.max_user_watches=524288 fs.inotify.max_user_instances=512
Répétez cette étape pour tous les nœuds de travail.
-
Maintenant que vous avez installé et déployé votre cluster Paragon Automation, vous pouvez vous connecter à l'interface utilisateur de Paragon Automation.
Connectez-vous à l’interface utilisateur de Paragon Automation
Pour vous connecter à l’interface utilisateur de Paragon Automation :
- Ouvrez un navigateur et entrez soit le nom d’hôte de l’application Web principale, soit l’adresse IP virtuelle du contrôleur d’entrée que vous avez entré dans le champ URL de l’assistant d’installation.
Par exemple, https://vip-of-ingress-controller-or-hostname-of-main-web-application. La page de connexion de Paragon Automation s’affiche.
- Pour le premier accès, entrez admin comme nom d’utilisateur et Admin123 ! comme mot de passe pour vous connecter. Vous devez changer le mot de passe immédiatement.
La page Définir le mot de passe s’affiche. Pour accéder au programme d’installation de Paragon Automation, vous devez définir un nouveau mot de passe.
- Définissez un nouveau mot de passe qui répond aux exigences en matière de mot de passe.
Utilisez entre 6 et 20 caractères et une combinaison de lettres majuscules, de lettres minuscules, de chiffres et de caractères spéciaux. Confirmez le nouveau mot de passe, puis cliquez sur OK.La page Tableau de bord s’affiche. Vous avez installé l’interface utilisateur de Paragon Automation et vous y êtes connecté.
- Mettez à jour l’URL pour accéder à l’interface utilisateur Paragon Automation dans Paramètres du portail Administration > Authentification > pour vous assurer que l’e-mail d’activation envoyé aux utilisateurs pour l’activation de leur compte contient le bon lien pour accéder à l’interface graphique. Pour plus d’informations, consultez Configurer les paramètres du portail.
Pour connaître les tâches de haut niveau que vous pouvez effectuer après vous être connecté à l’interface utilisateur de Paragon Automation, consultez Démarrage rapide de Paragon Automation - En cours d’exécution.