Installieren Sie einen einzelnen Cluster CN2 auf Rancher RKE2
ZUSAMMENFASSUNG Sehen Sie sich Beispiele für die Installation von Single-Cluster-CN2 auf Rancher RKE2 an.
In einer gemeinsam genutzten Netzwerkbereitstellung mit einem einzelnen Cluster ist CN2 die Netzwerkplattform und das CNI-Plug-In für diesen Cluster. Der Contrail-Controller wird in der Kubernetes-Steuerungsebene ausgeführt, und die Contrail-Datenebenenkomponenten werden auf allen Knoten im Cluster ausgeführt.
Abbildung 1 zeigt den Cluster, den Sie erstellen, wenn Sie diesem Beispiel für einen einzelnen Cluster folgen. Der Cluster besteht aus einem einzelnen Serverknoten (Control Plane) und zwei Agentenknoten (Worker-Knoten).
Bei allen angezeigten Knoten kann es sich um VMs oder Bare-Metal-Server handeln.

Die gesamte Kommunikation zwischen Knoten im Cluster sowie zwischen Knoten und externen Standorten erfolgt über ein einziges virtuelles Netzwerk der Fabric 172.16.0.0/24. Das Fabric-Netzwerk stellt das Underlay bereit, über das der Cluster läuft.
Der lokale Administrator wird mit einem separaten Netzwerk verbunden, das über ein Gateway erreichbar ist. Dies ist typisch für viele Installationen, bei denen der lokale Administrator die Fabric und den Cluster über das Unternehmens-LAN verwaltet. In den folgenden Verfahren bezeichnen wir die lokale Administratorstation als Ihren lokalen Computer.
Die Verbindung aller Clusterknoten untereinander erfolgt über die Datencenter-Fabric, die im Beispiel als einzelnes Subnetz dargestellt wird. In realen Installationen ist die Datencenter-Fabric ein Netzwerk aus Spine- und Leaf-Switches, die die physische Konnektivität für den Cluster bereitstellen.
In einem von Apstra verwalteten Datencenter wird diese Konnektivität über die virtuellen Overlay-Netzwerke spezifiziert, die Sie über die zugrunde liegenden Fabric-Switches erstellen.
Die Verfahren in diesem Abschnitt zeigen grundlegende Beispiele dafür, wie Sie die bereitgestellten Manifeste verwenden können, um die angegebene CN2-Bereitstellung zu erstellen. Sie sind weder auf die in diesem Abschnitt beschriebene Bereitstellung noch auf die Verwendung der bereitgestellten Manifeste beschränkt. CN2 unterstützt eine Vielzahl von Bereitstellungen, die zu zahlreich sind, um sie im Detail zu behandeln. Verwenden Sie die bereitgestellten Beispiele als Ausgangspunkt, um Ihr eigenes Manifest zu erstellen, das auf Ihre spezifische Situation zugeschnitten ist.
Installieren Sie einen einzelnen Cluster CN2 auf Rancher RKE2 mit Kernel Mode Data Plane.
Gehen Sie wie folgt vor, um CN2 in einer einzelnen Clusterbereitstellung zu installieren, in der eine Data Plane im Kernelmodus ausgeführt wird.
Das Manifest, das Sie in dieser Beispielprozedur verwenden, lautet k8s/single-cluster/single_cluster_deployer_example.yaml. Bei der Prozedur wird davon ausgegangen, dass Sie dieses Manifest in einem Manifestverzeichnis abgelegt haben.
Um CN2 auf einem Rancher RKE2-Cluster zu installieren, erstellen Sie zunächst einen Rancher RKE2-Cluster ohne CNI. Anschließend wenden Sie das CN2-Bereitstellungsmanifest an, wodurch CN2 im Cluster installiert wird.
Installieren Sie einen einzelnen Cluster CN2 auf Rancher RKE2 mit DPDK Data Plane.
Gehen Sie wie folgt vor, um CN2 in einer einzelnen Clusterbereitstellung zu installieren, in der eine DPDK-Datenebene ausgeführt wird.
Das Manifest, das Sie in dieser Beispielprozedur verwenden, lautet k8s/single-cluster/single_cluster_deployer_example.yaml. Bei der Prozedur wird davon ausgegangen, dass Sie dieses Manifest in einem Manifestverzeichnis abgelegt haben.
Um CN2 auf einem Rancher RKE2-Cluster zu installieren, auf dem DPDK ausgeführt wird, erstellen Sie zunächst einen Rancher RKE2-Cluster ohne CNI. Anschließend beschriften Sie die DPDK-Knoten und wenden das CN2-Bereitstellungsmanifest an, mit dem CN2 im Cluster installiert wird.