Installation von vMX auf OpenStack
Lesen Sie dieses Thema, um zu verstehen, wie Sie die vMX-Instanz in der OpenStack-Umgebung installieren.
Vorbereiten der OpenStack-Umgebung für die Installation von vMX
Stellen Sie sicher, dass die openstackrc-Datei stammt, bevor Sie OpenStack-Befehle ausführen.
Führen Sie die folgenden Aufgaben aus, um die OpenStack-Umgebung für die Installation von vMX vorzubereiten:
- Die Schaffung der Neutronennetzwerke
- Vorbereiten des Controller-Knotens
- Vorbereiten der Computeknoten
Die Schaffung der Neutronennetzwerke
Sie müssen die von vMX verwendeten Neutronennetzwerke erstellen, bevor Sie die vMX-Instanz starten. Das öffentliche Netzwerk ist das Neutronennetzwerk, das für das Managementnetzwerk (fxp0) verwendet wird. Das WAN-Netzwerk ist das Neutronennetzwerk, dem die WAN-Schnittstelle für vMX hinzugefügt wird.
Um die Namen der Neutronennetzwerke anzuzeigen, verwenden Sie den neutron net-list Befehl.
Sie müssen den Netzwerktyp, den Sie in Ihrer OpenStack-Konfiguration benötigen, identifizieren und erstellen.
Sie können die folgenden Befehle als eine Möglichkeit verwenden, das öffentliche Netzwerk zu erstellen:
-
neutron net-create network-name --shared --provider:physical_network network-name --provider:network_type flat --router:external
neutron subnet-create network-name address --name subnetwork-name --allocation-pool start=start-address,end=end-address --gateway=gateway-address
Zum Beispiel:
neutron net-create public --shared --provider:physical_network public_physnet --provider:network_type flat --router:external
neutron subnet-create public 10.92.13.128/25 --name public-subnet --allocation-pool start=10.92.13.230,end=10.92.13.253 --gateway=10.92.13.254
Für virtio können Sie diese Befehle als eine Möglichkeit verwenden, das WAN-Netzwerk zu erstellen:
neutron net-create network-name --router:external=True --provider:network_type vlan --provider:physical_network network-name --provider:segmentation_id segment-id
neutron subnet-create network-name address --name subnetwork-name --enable_dhcp=False --allocation-pool start=start-address,end=end-address --gateway=gateway-address
Zum Beispiel:
neutron net-create OSP_PROVIDER_1500 --router:external=True --provider:network_type vlan --provider:physical_network physnet1 --provider:segmentation_id 1500
neutron subnet-create OSP_PROVIDER_1500 11.0.2.0/24 --name OSP_PROVIDER_1500_SUBNET --enable_dhcp=False --allocation-pool start=11.0.2.10,end=11.0.2.100 --gateway=11.0.2.254
Für SR-IOV können Sie die folgenden Befehle als eine Möglichkeit zum Erstellen des WAN-Netzwerks verwenden:
neutron net-create network-name --router:external=True --provider:network_type vlan --provider:physical_network network-name
neutron subnet-create network-name address --name subnetwork-name --enable_dhcp=False --allocation-pool start=start-address,end=end-address --gateway=gateway-address
Zum Beispiel:
neutron net-create OSP_PROVIDER_SRIOV --router:external=True --provider:network_type vlan --provider:physical_network physnet2
neutron subnet-create OSP_PROVIDER_SRIOV 12.0.2.0/24 --name OSP_PROVIDER_SRIOV_SUBNET --enable_dhcp=False --allocation-pool start=12.0.2.10,end=12.0.2.100 --gateway=12.0.2.254
Vorbereiten des Controller-Knotens
- Vorbereiten des Controller-Knotens für vMX
- Konfiguration des Controller-Knotens für virtio-Schnittstellen
- Konfigurieren des Controller-Knotens für SR-IOV-Schnittstellen
Vorbereiten des Controller-Knotens für vMX
So bereiten Sie den Controller-Knoten vor:
Konfiguration des Controller-Knotens für virtio-Schnittstellen
So konfigurieren Sie die virtio-Schnittstellen:
Konfigurieren des Controller-Knotens für SR-IOV-Schnittstellen
Wenn Sie über mehr als eine SR-IOV-Schnittstelle verfügen, benötigen Sie für jede weitere SR-IOV-Schnittstelle eine dedizierte physische 10G-Schnittstelle.
Im SRIOV-Modus wird die Kommunikation zwischen der Routing-Engine (RE) und der Paketweiterleitungs-Engine über virtio-Schnittstellen in einem VLAN-Provider-OVS-Netzwerk ermöglicht. Aus diesem Grund kann eine bestimmte physische Schnittstelle nicht gleichzeitig Teil von VirtIO- und SR-IOV-Netzwerken sein.
So konfigurieren Sie die SR-IOV-Schnittstellen:
Vorbereiten der Computeknoten
Vorbereiten des Compute-Knotens für vMX
Sie müssen den Compute-Knoten nicht mehr so konfigurieren, dass Metadaten an die vMX-Instanzen übergeben werden, indem Sie den config_drive_format=vfat Parameter in die Datei /etc/nova/nova.conf aufnehmen.
So bereiten Sie den Computeknoten vor:
Konfigurieren des Compute-Knotens für SR-IOV-Schnittstellen
Wenn Sie mehr als eine SR-IOV-Schnittstelle haben, benötigen Sie eine physische 10G-Ethernet-NIC-Karte für jede zusätzliche SR-IOV-Schnittstelle.
So konfigurieren Sie die SR-IOV-Schnittstellen:
Installation von vMX
Nachdem Sie die OpenStack-Umgebung vorbereitet haben, müssen Sie Nova-Varianten und Glance-Images für die VCP- und VFP-VMs erstellen. Skripts erstellen die Varianten und Images basierend auf den Informationen in der Startkonfigurationsdatei.
Einrichten der vMX-Konfigurationsdatei
Die Parameter, die für die Konfiguration von vMX erforderlich sind, sind in der Startkonfigurationsdatei definiert.
So richten Sie die Konfigurationsdatei ein:
Siehe auch
Angeben von Parametern für die vMX-Konfigurationsdatei
Die Parameter, die für die Konfiguration von vMX erforderlich sind, sind in der Startkonfigurationsdatei (scripts/vmx.conf) definiert. Die Startkonfigurationsdatei generiert eine Datei, die zum Erstellen von Varianten verwendet wird. Um neue Varianten mit anderen vcpus memory-mb OR-Parametern zu erstellen, müssen Sie den entsprechenden re-flavor-name oder-Parameter pfe-flavor-name ändern, bevor Sie die neuen Varianten erstellen.
Führen Sie die folgenden Aufgaben aus, um die Konfiguration anzupassen:
Konfigurieren des Hosts
Um den Host zu konfigurieren, navigieren Sie zu HOST und geben Sie die folgenden Parameter an:
virtualization-type—Wirkungsweise; muss seinopenstack.compute—(Optional) Namen des Compute-Knotens, auf dem vMX-Instanzen ausgeführt werden sollen, in einer durch Kommas getrennten Liste. Wenn dieser Parameter angegeben wird, muss es sich um einen gültigen Computeknoten handeln. Wenn dieser Parameter angegeben ist, werden vMX-Instanzen, die mit Varianten gestartet werden, nur auf den angegebenen Compute-Knoten ausgeführt.Wenn dieser Parameter nicht angegeben ist, enthält die Ausgabe des Befehls nova hypervisor-list die Liste der Compute-Knoten, auf denen vMX-Instanzen ausgeführt werden sollen.
Konfigurieren der VCP-VM
Um die VCP-VM zu konfigurieren, müssen Sie den Flavor-Namen angeben.
Wir empfehlen eindeutige Werte für den re-flavor-name Parameter, da OpenStack mehrere Einträge mit demselben Namen erstellen kann.
Um die VCP-VM zu konfigurieren, navigieren Sie zu CONTROL_PLANE , und geben Sie die folgenden Parameter an:
re-flavor-name– Name des Nova-Flavors.vcpus– Anzahl der vCPUs für das VCP; Das Minimum ist 1.Anmerkung:Wenn Sie diesen Wert ändern, müssen Sie den
re-flavor-nameWert ändern, bevor Sie das Skript ausführen, um Varianten zu erstellen.memory-mb—Speichermenge für die VCP; mindestens 4 GB.Anmerkung:Wenn Sie diesen Wert ändern, müssen Sie den
re-flavor-nameWert ändern, bevor Sie das Skript ausführen, um Varianten zu erstellen.
Konfigurieren der VFP-VM
Um die VFP-VM zu konfigurieren, müssen Sie den Flavornamen angeben. Basierend auf Ihren Anforderungen können Sie den Arbeitsspeicher und die Anzahl der vCPUs ändern. Informationen zu Mindesthardwareanforderungen finden Sie unter Mindestanforderungen an die Hardware .
Um die VFP-VM zu konfigurieren, navigieren Sie zu FORWARDING_PLANE , und geben Sie die folgenden Parameter an:
pfe-flavor-name– Name des Nova-Flavors.memory-mb—Speicher für das VFP; Das Minimum beträgt 12 GB (Performance-Modus) und 4 GB (Lite-Modus).Anmerkung:Wenn Sie diesen Wert ändern, müssen Sie den
pfe-flavor-nameWert ändern, bevor Sie das Skript ausführen, um Varianten zu erstellen.vcpus– Anzahl der vCPUs für das VFP; Das Minimum ist 7 (Performance-Modus) und 3 (Lite-Modus).Anmerkung:Wenn Sie weniger als 7 vCPUs angeben, wechselt VFP automatisch in den Lite-Modus.
Anmerkung:Wenn Sie diesen Wert ändern, müssen Sie den
pfe-flavor-nameWert ändern, bevor Sie das Skript ausführen, um Varianten zu erstellen.
Erstellen von OpenStack-Varianten
Um Varianten für VCP und VFP zu erstellen, müssen Sie das Skript in der vMX-Startkonfigurationsdatei (vmx.conf) ausführen.
So erstellen Sie OpenStack-Varianten:
Installieren von vMX-Images für VCP und VFP
Um die vMX OpenStack-Glance-Images für VCP und VFP zu installieren, können Sie das vmx_osp_images.sh Skript ausführen. Das Skript fügt das VCP-Image im qcow2-Format und die VFP-Datei im vmdk-Format hinzu.
So installieren Sie die VCP- und VFP-Images:
Mit diesem Befehl wird beispielsweise das VCP-Image als Re-Test aus der Datei /var/tmp/junos-vmx-x86-64-17.1R1.8.qcow2 und das VFP-Image als fpc-test aus der Datei /var/tmp/vFPC-20170117.img installiert.
sh vmx_osp_images.sh re-test /var/tmp/junos-vmx-x86-64-17.1R1.8.qcow2 fpc-test /var/tmp/vFPC-20170117.img
Um die Blickbilder anzuzeigen, verwenden Sie den glance image-list Befehl.
Starten einer vMX-Instanz
Führen Sie die folgenden Aufgaben aus, um eine vMX-Instanz zu starten:
Ändern der anfänglichen Junos OS-Konfiguration
Wenn Sie die vMX-Instanz starten, wird die Junos OS Konfigurationsdatei in package-location/openstack/vmx-components/vms/vmx_baseline.conf geladen. Wenn Sie diese Konfiguration ändern müssen, nehmen Sie die Änderungen an dieser Datei vor, bevor Sie vMX starten.
Wenn Sie eine eigene vmx_baseline.conf Datei erstellen oder verschieben, stellen Sie sicher, dass /package-locationopenstack/vmx-components/vms/re.yaml auf den richtigen Pfad verweist.
Starten der vMX-Instanz
So erstellen und starten Sie die vMX-Instanz:
Sie müssen die vMX-Instanz herunterfahren, bevor Sie den Hostserver mit dem Befehl request system halt neu starten.