Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Configuration système requise

Lisez cette section pour comprendre les exigences du système, des ressources, des ports et des licences pour l’installation du routeur Cloud-Native de Juniper.

Exigences système de l’hôte

Cette section répertorie les exigences du système d’hôte pour l’installation du routeur cloud-native.

Tableau 1 : Configuration système d’hôte de routeur native du cloud
Version de composants 23.2
Notes de valeur/version
CPU Intel x86 Le processeur testé est Intel Xeon Gold 6212U 24 cœurs @2,4 GHz
Système d’exploitation hôte

RedHat Enterprise Linux

Version 8.4, 8.5, 8.6

Rocky Linux 8.6
Version du noyau RedHat Enterprise Linux (RHEL) : 4.18.X

Rocky Linux : 4.18.X

La version du noyau testée pour RHEL est 4.18.0-305.rt7.72.el8.x86_64

La version du noyau testée pour Rocky Linux est 4.18.0-372.19.1.rt7.176.el8_6.x86_64 et 4.18.0-372.32.1.rt7.189.el8_6.x86_64

NIC
  • Intel E810 avec firmware 4.00 0x80014411 1.3236.0

  • Intel E810-CQDA2 avec firmware 4.000x80014411.3236.0

  • Intel XL710 avec firmware 9.00 0x8000cead 1.3179.0

  • Adaptateur réseau élastique (ENA)

 
Pilote IAVF Version 4.5.3.1  
ICE_COMMS Version 1.3.35.0  
GLACE Version 1.9.11.9 Le pilote ICE est utilisé uniquement avec la carte réseau Intel E810
i40e Version 2.18.9 Le pilote i40e est utilisé uniquement avec la carte réseau Intel XL710
Kubernetes (K8s) Version 1.22.x, 1.23.x, 1.25x La version testée de K8s est 1.22.4, bien que 1.22.2 fonctionne également.
Calicot Version 3.22.x  
Multus Version 3.8  
Barre 3.9.x  
Conteneur-RT Docker CE 20.10.11, crio 1.25x  
Amazon EKS   La version K8s est 1.23.17.

La version du noyau est 5.4.235-144.344.amzn2.x86_64
La version du système d’exploitation est Amazon Linux 2

OpenShift 4.12.0 La version K8s est 1.25.4.

Ressources requises

Cette section répertorie les ressources requises pour installer le routeur cloud-native.

Tableau 2 : Ressources de routeur cloud-native
Version de ressources 23.2
Notes d’utilisation de la valeur
Cœurs de transfert de plan de données 2 cœurs physiques (2p)  
Cœurs de service/contrôle 0  
Pilote UIO VFIO-PCI  
Énormes pages (1G) 6 Gi Ajoutez des GRUB_CMDLINE_LINUX_DEFAULT valeurs dans /etc/default/grub et redémarrez l’hôte. Par exemple : GRUB_CMDLINE_LINUX_DEFAULT="console=tty1 console=ttyS0 default_hugepagesz=1G hugepagesz=1G hugepages=64 intel_iommu=on iommu=pt"
Cœurs de contrôleurS JCNR .5  
Cœurs de l’agent vRouter JCNR .5  

Exigences diverses

Cette section répertorie les exigences supplémentaires pour l’installation du routeur natif du cloud.

Tableau 3 : Exigences diverses
Routeur cloud-native version 23.2 Exigences diverses
Activer le pilote VLAN au démarrage du système
Activer le pilote VFIO-PCI au démarrage du système
Configurez l’IOMMU et l’IOMMU-PT dans le /etc/default/grub fichier. Par exemple :
GRUB_CMDLINE_LINUX_DEFAULT="console=tty1 console=ttyS0 default_hugepagesz=1G hugepagesz=1G hugepages=64 intel_iommu=on iommu=pt"

Mettez à jour grub et redémarrez l’hôte. Par exemple :

grub2-mkconfig -o /boot/grub2/grub.cfg 
Désactiver L’usurpation de contrôle sur les VF allouées à JCNR. Par exemple : ip link set <interfacename> vf 1 spoofcheck off.
Note:

Applicable uniquement aux déploiements de couche 2.

Établir la confiance sur les VF allouées à JCNR. Par exemple : ip link set <interfacename> vf 1 trust on
Note:

Applicable uniquement aux déploiements de couche 2.

Des modules de noyau supplémentaires doivent être chargés sur l’hôte avant de déployer JCNR en mode L3. Ces modules sont généralement disponibles dans linux-modules-extra ou kernel-modules-extra des packages. Exécutez les commandes suivantes pour ajouter les modules du noyau.

  • modprobe tun

  • modprobe fou

  • fou6 modprobe

  • ipip modprobe

  • ip_tunnel modprobe

  • modprobe ip6_tunnel

  • modprobe mpls_gso

  • modprobe mpls_router

  • modprobe mpls_iptunnel

  • vrf modprobe

  • modprobe vxlan

Exécutez la ip fou add port 6635 ipproto 137 commande sur l’hôte Linux pour activer le transfert basé sur le noyau.

NetworkManager est un outil dans certains systèmes d’exploitation qui facilite la gestion des interfaces réseau. NetworkManager peut faciliter le fonctionnement et la configuration des interfaces par défaut. Cependant, il peut nuire à la gestion de Kubernetes et créer des problèmes.

Pour éviter que le NetworkManager n’interfère avec les configurations d’interface, procédez comme suit :

  1. Créez le fichier, /etc/NetworkManager/conf.d/crpd.conf.
  2. Ajoutez le contenu suivant dans le fichier.
    [keyfile]
     unmanaged-devices+=interface-name:enp*;interface-name:ens*
    Remarque : enp* indique toutes les interfaces à partir de enp. Pour les noms d’interface spécifiques, fournit une liste séparée par des virgules.
  3. Redémarrez le service NetworkManager en exécutant la commande, sudo systemctl restart NetworkManager.
  4. Modifiez le sysctl fichier sur l’hôte et collez le contenu suivant :
    net.ipv6.conf.default.addr_gen_mode=0
    net.ipv6.conf.all.addr_gen_mode=0
    net.ipv6.conf.default.autoconf=0
    net.ipv6.conf.all.autoconf=0
  5. Exécutez la commande sysctl -p /etc/sysctl.conf pour charger les nouvelles sysctl.conf valeurs sur l’hôte.
  6. Créez l’interface de liaison manuellement. Par exemple :

    ifconfig ens2f0 down
    ifconfig ens2f1 down
    ip link add bond0 type bond mode 802.3ad
    ip link set ens2f0 master bond0
    ip link set ens2f1 master bond0
    ifconfig ens2f0 up ; ifconfig ens2f1 up; ifconfig bond0 up
Vérifiez que la valeur core_pattern est définie sur l’hôte avant de déployer JCNR :
sysctl kernel.core_pattern
kernel.core_pattern = |/usr/lib/systemd/systemd-coredump %P %u %g %s %t %c %h %e

Vous pouvez mettre à jour le core_pattern en /etc/sysctl.conf. Par exemple :

kernel.core_pattern=/var/crash/core_%e_%p_%i_%s_%h_%t.gz

Exigences des ports

Le routeur Cloud-Native de Juniper écoute sur certains ports TCP et UDP. Cette section répertorie les exigences de port pour le routeur natif du cloud.

Tableau 4 : Ports d’écoute de routeur natifs du cloud
Description des ports de protocole
TCP 8085 Introspect vRouter – Utilisé pour obtenir des informations statistiques internes sur vRouter
TCP 8070 Informations de télémétrie - Utilisé pour voir les données de télémétrie à partir d’un routeur natif du cloud
TCP 9091 Vérification de l’état du vRouter –routeur natif du cloud pour s’assurer que le processus Contrail-vrouter-dpdk est en cours d’exécution, etc.
TCP 50052 Port gRPC – JCNR écoute à la fois sur IPv4 et IPv6
TCP 24 SSH cRPD
TCP 830 NETCONF cRPD
TCP 666 Spr
TCP 1883 Mosquito mqtt –Publication/abonnement à l’utilitaire de messagerie
TCP 9500 sur cRPD
TCP 21883 na-mqttd
TCP 50051 jsd sur cRPD
TCP 51051 jsd sur cRPD
UDP 50055 Syslog-NG

LicenceS JCNR

À partir de la version 22.2 du routeur Cloud-Native de Juniper (JCNR), nous avons activé notre modèle Juniper Agile Licensing (JAL). JAL s’assure que les fonctionnalités sont utilisées conformément à l’accord de licence de l’utilisateur final de Juniper. Vous pouvez acheter des licences pour le logiciel de routeur Cloud-Native de Juniper via votre équipe de compte Juniper. Vous pouvez appliquer les licences à l’aide de l’interface CLI du contrôleur de routeur natif du cloud. Pour plus d’informations sur la gestion de plusieurs fichiers de licence pour plusieurs déploiements de routeurs cloud-natives, consultez La présentation des licences Agile de Juniper.

Note:

À partir de la version 23.2 de JCNR, le format de la licence JCNR a changé. Demandez une nouvelle clé de licence sur le portail JAL avant de déployer ou de mettre à niveau vers la version 23.2 ou les versions plus récentes.

Pour vérifier votre licence JCNR :

  1. Exécutez la commande kubectl get pods -A | grep -i crpd sur le serveur hôte.

  2. Identifier le pod cRPD et émettre la commande kubectl exec -it -n jcnr kube-crpd-worker-sts-0 -- cli show system license.