Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Systemanforderungen

In diesem Abschnitt erfahren Sie mehr über die System-, Ressourcen-, Port- und Lizenzanforderungen für die Installation des Cloud-nativen Routers von Juniper.

Hostsystemanforderungen

In diesem Abschnitt werden die Hostsystemanforderungen für die Installation des Cloud-nativen Routers aufgeführt.

Tabelle 1: Systemanforderungen für Cloud-native Router-Hosts
Komponentenversion 23.2
Wert/Versionshinweise
CPU Intel x86 Die getestete CPU ist Intel Xeon Gold 6212U 24-Core @2,4 GHz
Hostbetriebssystem

RedHat Enterprise Linux

Version 8.4, 8.5, 8.6

Rocky Linux 8.6
Kernel-Version RedHat Enterprise Linux (RHEL): 4.18.X

Rocky Linux: 4.18.X

Die getestete Kernel-Version für RHEL ist 4.18.0-305.rt7.72.el8.x86_64

Die getestete Kernel-Version für Rocky Linux ist 4.18.0-372.19.1.rt7.176.el8_6.x86_64 und 4.18.0-372.32.1.rt7.189.el8_6.x86_64

NIC
  • Intel E810 mit Firmware 4.00 0x80014411 1.3236.0

  • Intel E810-CQDA2 mit Firmware 4.000x80014411.3236.0

  • Intel XL710 mit Firmware 9.00 0x8000cead 1.3179.0

  • Elastischer Netzwerkadapter (ENA)

 
IAVF-Treiber Version 4.5.3.1  
ICE_COMMS Version 1.3.35.0  
EIS Version 1.9.11.9 ICE-Treiber wird nur mit der Intel E810 NIC verwendet
i40e Version 2.18.9 Der i40e-Treiber wird nur mit der Intel XL710 NIC verwendet
Kubernetes (K8s) Version 1.22.x, 1.23.x, 1.25x Die getestete K8s-Version ist 1.22.4, obwohl 1.22.2 auch funktionieren wird.
Calico Version 3.22.x  
Multus Version 3.8  
Helm 3.9.x  
Container-RT Docker CE 20.10.11, crio 1.25x  
Amazon EKS   Die K8s-Version ist 1.23.17.

Kernel-Version ist 5.4.235-144.344.amzn2.x86_64
Betriebssystemversion ist Amazon Linux 2

OpenShift 4.12.0 Die K8s-Version ist 1.25.4.

Ressourcenanforderungen

In diesem Abschnitt werden die Ressourcenanforderungen für die Installation des Cloud-nativen Routers aufgeführt.

Tabelle 2: Ressourcenanforderungen an Cloud-native Router
Ressourcenversion 23.2
Hinweise zur Wertnutzung
Datenebene-Weiterleitungskerne 2 physische Cores (2p)  
Service-/Steuerungs-Cores 0  
UIO-Treiber VFIO-PCI  
Hugepages (1G) 6 Gi Fügen Sie GRUB_CMDLINE_LINUX_DEFAULT Werte in /etc/default/grub hinzu und starten Sie den Host neu. Zum Beispiel: GRUB_CMDLINE_LINUX_DEFAULT="console=tty1 console=ttyS0 default_hugepagesz=1G hugepagesz=1G hugepages=64 intel_iommu=on iommu=pt"
JCNR-Controller-Cores .5  
JCNR vRouter-Agent-Cores .5  

Sonstige Anforderungen

In diesem Abschnitt werden zusätzliche Anforderungen für die Installation des Cloud-nativen Routers aufgeführt.

Tabelle 3: Sonstige Anforderungen
Cloud-nativer Router Version 23.2 Sonstige Anforderungen
Aktivierung des VLAN-Treibers beim Systemstart
Aktivieren des VFIO-PCI-Treibers beim Systemstart
Setzen Sie IOMMU und IOMMU-PT in die /etc/default/grub Datei. Zum Beispiel:
GRUB_CMDLINE_LINUX_DEFAULT="console=tty1 console=ttyS0 default_hugepagesz=1G hugepagesz=1G hugepages=64 intel_iommu=on iommu=pt"

Aktualisieren Sie grub und starten Sie den Host neu. Zum Beispiel:

grub2-mkconfig -o /boot/grub2/grub.cfg 
Deaktivieren Sie spoofcheck für VFs, die JCNR zugewiesen sind. Zum Beispiel: ip link set <interfacename> vf 1 spoofcheck off.
Hinweis:

Gilt nur für L2-Bereitstellungen.

Legen Sie die vertrauenswürdigen VFs fest, die JCNR zugewiesen sind. Zum Beispiel: ip link set <interfacename> vf 1 trust on
Hinweis:

Gilt nur für L2-Bereitstellungen.

Vor der Bereitstellung von JCNR im L3-Modus müssen zusätzliche Kernel-Module auf den Host geladen werden. Diese Module sind in der Regel in linux-modules-extra oder kernel-modules-extra Paketen verfügbar. Führen Sie die folgenden Befehle aus, um die Kernel-Module hinzuzufügen.

  • Modprobe-Tun

  • Modprobe fou

  • modprobe fou6

  • Modprobe-Ipip

  • Modprobe-ip_tunnel

  • Modprobe ip6_tunnel

  • Modprobe-mpls_gso

  • Modprobe-mpls_router

  • Modprobe-mpls_iptunnel

  • modprobe vrf

  • modprobe vxlan

Führen Sie den ip fou add port 6635 ipproto 137 Befehl auf dem Linux-Host aus, um eine kernelbasierte Weiterleitung zu ermöglichen.

NetworkManager ist ein Tool in einigen Betriebssystemen, um die Verwaltung von Netzwerkschnittstellen zu erleichtern. NetworkManager kann den Betrieb und die Konfiguration der Standardschnittstellen vereinfachen. Es kann jedoch das Kubernetes-Management stören und Probleme schaffen.

Führen Sie die folgenden Schritte durch, um zu vermeiden, dass der NetworkManager die Schnittstellenkonfigurationen stört:

  1. Erstellen Sie die Datei, /etc/NetworkManager/conf.d/crpd.conf.
  2. Fügen Sie der Datei den folgenden Inhalt hinzu.
    [keyfile]
     unmanaged-devices+=interface-name:enp*;interface-name:ens*
    Hinweis: enp* zeigt alle Schnittstellen an, die mit enp beginnen. Für bestimmte Schnittstellennamen eine durch Komma getrennte Liste angegeben.
  3. Starten Sie den NetworkManager-Dienst neu, indem Sie den Befehl ausführen, sudo systemctl restart NetworkManager.
  4. Bearbeiten Sie die sysctl Datei auf dem Host und fügen Sie den folgenden Inhalt darin ein:
    net.ipv6.conf.default.addr_gen_mode=0
    net.ipv6.conf.all.addr_gen_mode=0
    net.ipv6.conf.default.autoconf=0
    net.ipv6.conf.all.autoconf=0
  5. Führen Sie den Befehl aus sysctl -p /etc/sysctl.conf , um die neuen sysctl.conf Werte auf den Host zu laden.
  6. Erstellen Sie die Bond-Schnittstelle manuell. Zum Beispiel:

    ifconfig ens2f0 down
    ifconfig ens2f1 down
    ip link add bond0 type bond mode 802.3ad
    ip link set ens2f0 master bond0
    ip link set ens2f1 master bond0
    ifconfig ens2f0 up ; ifconfig ens2f1 up; ifconfig bond0 up
Stellen Sie vor der Bereitstellung von JCNR sicher, dass der core_pattern Wert auf dem Host festgelegt ist:
sysctl kernel.core_pattern
kernel.core_pattern = |/usr/lib/systemd/systemd-coredump %P %u %g %s %t %c %h %e

Sie können die core_pattern unter /etc/sysctl.confaktualisieren. Zum Beispiel:

kernel.core_pattern=/var/crash/core_%e_%p_%i_%s_%h_%t.gz

Portanforderungen

Der Cloud-native Router von Juniper überwacht bestimmte TCP- und UDP-Ports. In diesem Abschnitt werden die Portanforderungen für den Cloud-nativen Router aufgeführt.

Tabelle 4: Cloud-native Router-Listening-Ports
Beschreibung des Protokoll-Ports
TCP 8085 vRouter-Introspekt – Wird verwendet, um interne statistische Informationen über vRouter zu erhalten
TCP 8070 Telemetrieinformationen, die zum Anzeigen von Telemetriedaten vom Cloud-nativen Router verwendet werden
TCP 9091 vRouter-Zustandsprüfung – Cloud-native Router-Prüfungen, um sicherzustellen, dass der Contrail-vrouter-dpdk-Prozess läuft usw.
TCP 50052 gRPC-Port – JCNR überwacht sowohl IPv4 als auch IPv6
TCP 24 cRPD SSH
TCP 830 cRPD NETCONF
TCP 666 Rpd
TCP 1883 Mosquito mqtt – Messaging-Dienstprogramm veröffentlichen/abonnieren
TCP 9500 agentd auf cRPD
TCP 21883 na-mqttd
TCP 50051 jsd auf cRPD
TCP 51051 jsd auf cRPD
UDP 50055 Syslog-NG

JCNR-Lizenzierung

Ab Juniper Cloud-nativem Router (JCNR) Version 22.2 haben wir unser Juniper Agile Licensing (n) Modell aktiviert. CSV stellt sicher, dass die Funktionen in Übereinstimmung mit der Endbenutzer-Lizenzvereinbarung von Juniper verwendet werden. Sie können Lizenzen für die Cloud-native Router-Software von Juniper über Ihr Juniper Account Team erwerben. Sie können die Lizenzen über die CLI des Cloud-nativen Router-Controllers anwenden. Weitere Informationen zur Verwaltung mehrerer Lizenzdateien für mehrere Cloud-native Router-Bereitstellungen finden Sie unter Übersicht über die agile Lizenzierung von Juniper.

Hinweis:

Ab JCNR Version 23.2 hat sich das JCNR-Lizenzformat geändert. Fordern Sie vor der Bereitstellung oder Aktualisierung auf 23.2 oder neuere Versionen einen neuen Lizenzschlüssel über dasnde Portal an.

So überprüfen Sie Ihre JCNR-Lizenz:

  1. Führen Sie den Befehl kubectl get pods -A | grep -i crpd auf dem Hostserver aus.

  2. Identifizieren Sie den cRPD-Pod und geben Sie den Befehl kubectl exec -it -n jcnr kube-crpd-worker-sts-0 -- cli show system licenseaus.