Installieren von vMX auf OpenStack
Lesen Sie dieses Thema, um zu verstehen, wie Sie eine vMX-Instanz in der OpenStack-Umgebung installieren.
Vorbereiten der OpenStack-Umgebung für die Installation von vMX
Stellen Sie sicher, dass die openstackrc-Datei als Quelle angegeben ist, bevor Sie OpenStack-Befehle ausführen.
Führen Sie die folgenden Aufgaben aus, um die OpenStack-Umgebung für die Installation von vMX vorzubereiten:
- Die Schaffung der Neutronennetzwerke
- Vorbereiten des Controller-Knotens
- Vorbereiten der Computeknoten
Die Schaffung der Neutronennetzwerke
Sie müssen die von vMX verwendeten Neutronennetzwerke erstellen, bevor Sie die vMX-Instanz starten. Das öffentliche Netzwerk ist das Neutronennetzwerk, das für das Verwaltungsnetzwerk (fxp0) verwendet wird. Das WAN-Netzwerk ist das Neutronennetzwerk, auf dem die WAN-Schnittstelle für vMX hinzugefügt wird.
Um die Namen der Neutronennetzwerke anzuzeigen, verwenden Sie den neutron net-list
Befehl.
Sie müssen den benötigten Netzwerktyp in Ihrer OpenStack-Konfiguration identifizieren und erstellen.
Sie können die folgenden Befehle als eine Möglichkeit verwenden, das öffentliche Netzwerk zu erstellen:
-
neutron net-create network-name --shared --provider:physical_network network-name --provider:network_type flat --router:external
neutron subnet-create network-name address --name subnetwork-name --allocation-pool start=start-address,end=end-address --gateway=gateway-address
Zum Beispiel:
neutron net-create public --shared --provider:physical_network public_physnet --provider:network_type flat --router:external
neutron subnet-create public 10.92.13.128/25 --name public-subnet --allocation-pool start=10.92.13.230,end=10.92.13.253 --gateway=10.92.13.254
Für virtio können Sie die folgenden Befehle als eine Möglichkeit verwenden, das WAN-Netzwerk zu erstellen:
neutron net-create network-name --router:external=True --provider:network_type vlan --provider:physical_network network-name --provider:segmentation_id segment-id
neutron subnet-create network-name address --name subnetwork-name --enable_dhcp=False --allocation-pool start=start-address,end=end-address --gateway=gateway-address
Zum Beispiel:
neutron net-create OSP_PROVIDER_1500 --router:external=True --provider:network_type vlan --provider:physical_network physnet1 --provider:segmentation_id 1500
neutron subnet-create OSP_PROVIDER_1500 11.0.2.0/24 --name OSP_PROVIDER_1500_SUBNET --enable_dhcp=False --allocation-pool start=11.0.2.10,end=11.0.2.100 --gateway=11.0.2.254
Für SR-IOV können Sie die folgenden Befehle als eine Möglichkeit verwenden, das WAN-Netzwerk zu erstellen:
neutron net-create network-name --router:external=True --provider:network_type vlan --provider:physical_network network-name
neutron subnet-create network-name address --name subnetwork-name --enable_dhcp=False --allocation-pool start=start-address,end=end-address --gateway=gateway-address
Zum Beispiel:
neutron net-create OSP_PROVIDER_SRIOV --router:external=True --provider:network_type vlan --provider:physical_network physnet2
neutron subnet-create OSP_PROVIDER_SRIOV 12.0.2.0/24 --name OSP_PROVIDER_SRIOV_SUBNET --enable_dhcp=False --allocation-pool start=12.0.2.10,end=12.0.2.100 --gateway=12.0.2.254
Vorbereiten des Controller-Knotens
- Vorbereiten des Controller-Knotens für vMX
- Konfiguration des Controller-Knotens für virtio-Schnittstellen
- Konfiguration des Controller-Knotens für SR-IOV-Schnittstellen
Vorbereiten des Controller-Knotens für vMX
So bereiten Sie den Controller-Knoten vor:
Konfiguration des Controller-Knotens für virtio-Schnittstellen
So konfigurieren Sie die virtio-Schnittstellen:
Konfiguration des Controller-Knotens für SR-IOV-Schnittstellen
Wenn Sie mehr als eine SR-IOV-Schnittstelle haben, benötigen Sie für jede weitere SR-IOV-Schnittstelle eine dedizierte physische 10G-Schnittstelle.
Im SRIOV-Modus wird die Kommunikation zwischen der Routing-Engine (RE) und der Paketweiterleitungs-Engine über virtio-Schnittstellen in einem VLAN-Provider-OVS-Netzwerk aktiviert. Aus diesem Grund kann eine bestimmte physische Schnittstelle nicht sowohl Teil von VirtIO- als auch von SR-IOV-Netzwerken sein.
So konfigurieren Sie die SR-IOV-Schnittstellen:
Vorbereiten der Computeknoten
Vorbereiten des Compute-Knotens für vMX
Sie müssen den Compute-Knoten nicht mehr so konfigurieren, dass Metadaten an die vMX-Instanzen übergeben werden, indem Sie den config_drive_format=vfat
Parameter in die Datei / etc/nova/nova.conf aufnehmen.
So bereiten Sie den Computeknoten vor:
Konfigurieren des Compute-Knotens für SR-IOV-Schnittstellen
Wenn Sie über mehr als eine SR-IOV-Schnittstelle verfügen, benötigen Sie für jede weitere SR-IOV-Schnittstelle eine physische 10G-Ethernet-NIC-Karte.
So konfigurieren Sie die SR-IOV-Schnittstellen:
Installieren von vMX
Nachdem Sie die OpenStack-Umgebung vorbereitet haben, müssen Sie Nova-Flavors und Glance-Images für die VCP- und VFP-VMs erstellen. Skripte erstellen die Varianten und Images basierend auf den Informationen, die in der Startkonfigurationsdatei bereitgestellt werden.
Einrichten der vMX-Konfigurationsdatei
Die Parameter, die für die Konfiguration von vMX erforderlich sind, sind in der Startkonfigurationsdatei definiert.
So richten Sie die Konfigurationsdatei ein:
Siehe auch
Angeben von Parametern der vMX-Konfigurationsdatei
Die für die Konfiguration von vMX erforderlichen Parameter sind in der Startkonfigurationsdatei (scripts/vmx.conf) definiert. Die Startkonfigurationsdatei generiert eine Datei, die zum Erstellen von Varianten verwendet wird. Um neue Geschmacksrichtungen mit anderen vcpus
oder-Parametern memory-mb
zu erstellen, müssen Sie den entsprechenden re-flavor-name
oder-Parameter pfe-flavor-name
ändern, bevor Sie die neuen Geschmacksrichtungen erstellen.
Um die Konfiguration anzupassen, führen Sie die folgenden Aufgaben aus:
Konfigurieren des Hosts
Um den Host zu konfigurieren, navigieren Sie zu HOST und geben Sie die folgenden Parameter an:
virtualization-type
—Betriebsweise; muss seinopenstack
.compute
—(Optional) Namen des Compute-Knotens, auf dem vMX-Instanzen ausgeführt werden sollen, in einer durch Kommas getrennten Liste. Wenn dieser Parameter angegeben wird, muss es sich um einen gültigen Computeknoten handeln. Wenn dieser Parameter angegeben ist, werden vMX-Instanzen, die mit Varianten gestartet werden, nur auf den angegebenen Computeknoten ausgeführt.Wenn dieser Parameter nicht angegeben ist, enthält die Ausgabe des Befehls nova hypervisor-list die Liste der Compute-Knoten, auf denen vMX-Instanzen ausgeführt werden sollen.
Konfigurieren der VCP-VM
Um die VCP-VM zu konfigurieren, müssen Sie den Namen des Typs angeben.
Wir empfehlen eindeutige Werte für den re-flavor-name
Parameter, da OpenStack mehrere Einträge mit demselben Namen erstellen kann.
Um die VCP-VM zu konfigurieren, navigieren Sie zu CONTROL_PLANE , und geben Sie die folgenden Parameter an:
re-flavor-name
– Name des Nova-Geschmacks.vcpus
– Anzahl der vCPUs für den VCP; Minimum ist 1.Hinweis:Wenn Sie diesen Wert ändern, müssen Sie den
re-flavor-name
Wert ändern, bevor Sie das Skript zum Erstellen von Varianten ausführen.memory-mb
—Größe des Arbeitsspeichers für den VCP; mindestens 4 GB.Hinweis:Wenn Sie diesen Wert ändern, müssen Sie den
re-flavor-name
Wert ändern, bevor Sie das Skript zum Erstellen von Varianten ausführen.
Konfigurieren der VFP-VM
Um die VFP-VM zu konfigurieren, müssen Sie den Typnamen angeben. Je nach Ihren Anforderungen können Sie den Arbeitsspeicher und die Anzahl der vCPUs ändern. Informationen zu den Mindestanforderungen an die Hardware finden Sie unter Minimale Hardwareanforderungen .
Um die VFP-VM zu konfigurieren, navigieren Sie zu FORWARDING_PLANE , und geben Sie die folgenden Parameter an:
pfe-flavor-name
– Name des Nova-Geschmacks.memory-mb
—Speichermenge für den VFP; mindestens 12 GB (Performance-Modus) und 4 GB (Lite-Modus).Hinweis:Wenn Sie diesen Wert ändern, müssen Sie den
pfe-flavor-name
Wert ändern, bevor Sie das Skript zum Erstellen von Varianten ausführen.vcpus
– Anzahl der vCPUs für den VFP; Minimum ist 7 (Performance-Modus) und 3 (Lite-Modus).Hinweis:Wenn Sie weniger als 7 vCPUs angeben, wechselt der VFP automatisch in den Lite-Modus.
Hinweis:Wenn Sie diesen Wert ändern, müssen Sie den
pfe-flavor-name
Wert ändern, bevor Sie das Skript zum Erstellen von Varianten ausführen.
Erstellen von OpenStack-Varianten
Um Varianten für VCP und VFP zu erstellen, müssen Sie das Skript in der vMX-Startkonfigurationsdatei (vmx.conf) ausführen.
So erstellen Sie OpenStack-Varianten:
Installieren von vMX-Images für VCP und VFP
Um die vMX OpenStack glance Images für VCP und VFP zu installieren, können Sie das vmx_osp_images.sh
Skript ausführen. Das Skript fügt das VCP-Image im qcow2-Format und die VFP-Datei im vmdk-Format hinzu.
So installieren Sie die VCP- und VFP-Images:
Mit diesem Befehl wird beispielsweise das VCP-Image als Re-Test aus der Datei /var/tmp/junos-vmx-x86-64-17.1R1.8.qcow2 und das VFP-Image als fpc-test aus der Datei /var/tmp/vFPC-20170117.img installiert.
sh vmx_osp_images.sh re-test /var/tmp/junos-vmx-x86-64-17.1R1.8.qcow2 fpc-test /var/tmp/vFPC-20170117.img
Um die Glance-Bilder anzuzeigen, verwenden Sie den glance image-list
Befehl.
Starten einer vMX-Instanz
Um eine vMX-Instanz zu starten, führen Sie die folgenden Aufgaben aus:
Ändern der anfänglichen Junos OS-Konfiguration
Wenn Sie die vMX-Instanz starten, wird die Junos OS-Konfigurationsdatei unter package-location/openstack/vmx-components/vms/vmx_baseline.conf geladen. Wenn Sie diese Konfiguration ändern müssen, nehmen Sie alle Änderungen an dieser Datei vor, bevor Sie vMX starten.
Wenn Sie eine eigene vmx_baseline.conf Datei erstellen oder die Datei verschieben, stellen Sie sicher, dass /openstack/vmx-components/vms/package-locationre.yaml auf den richtigen Pfad verweist.
Starten der vMX-Instanz
So erstellen und starten Sie die vMX-Instanz:
Sie müssen die vMX-Instanz herunterfahren, bevor Sie den Hostserver mit dem Befehl request system halt neu starten.