Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Installieren von vMX auf OpenStack

Lesen Sie dieses Thema, um zu verstehen, wie Sie eine vMX-Instanz in der OpenStack-Umgebung installieren.

Vorbereiten der OpenStack-Umgebung für die Installation von vMX

Stellen Sie sicher, dass die openstackrc-Datei als Quelle angegeben ist, bevor Sie OpenStack-Befehle ausführen.

Führen Sie die folgenden Aufgaben aus, um die OpenStack-Umgebung für die Installation von vMX vorzubereiten:

Die Schaffung der Neutronennetzwerke

Sie müssen die von vMX verwendeten Neutronennetzwerke erstellen, bevor Sie die vMX-Instanz starten. Das öffentliche Netzwerk ist das Neutronennetzwerk, das für das Verwaltungsnetzwerk (fxp0) verwendet wird. Das WAN-Netzwerk ist das Neutronennetzwerk, auf dem die WAN-Schnittstelle für vMX hinzugefügt wird.

Um die Namen der Neutronennetzwerke anzuzeigen, verwenden Sie den neutron net-list Befehl.

Hinweis:

Sie müssen den benötigten Netzwerktyp in Ihrer OpenStack-Konfiguration identifizieren und erstellen.

Sie können die folgenden Befehle als eine Möglichkeit verwenden, das öffentliche Netzwerk zu erstellen:

  • Zum Beispiel:

  • Für virtio können Sie die folgenden Befehle als eine Möglichkeit verwenden, das WAN-Netzwerk zu erstellen:

    Zum Beispiel:

  • Für SR-IOV können Sie die folgenden Befehle als eine Möglichkeit verwenden, das WAN-Netzwerk zu erstellen:

    Zum Beispiel:

Vorbereiten des Controller-Knotens

Vorbereiten des Controller-Knotens für vMX

So bereiten Sie den Controller-Knoten vor:

  1. Konfigurieren Sie den Controller-Knoten so, dass Huge Pages und CPU-Affinität aktiviert werden, indem Sie den scheduler_default_filters Parameter in der Datei / etc/nova/nova.conf bearbeiten. Stellen Sie sicher, dass die folgenden Filter vorhanden sind:

    Starten Sie den Scheduler-Dienst mit diesem Befehl neu.

    • Für Red Hat: systemctl restart openstack-nova-scheduler.service

    • Für Ubuntu (ab Junos OS Version 17.2R1): service nova-scheduler restart

  2. Aktualisieren Sie die Standardkontingente.
    Hinweis:

    Wir empfehlen diese Standardwerte, Sie können jedoch auch andere Werte verwenden, wenn diese für Ihre Umgebung geeignet sind. Stellen Sie sicher, dass die Standardkontingente über genügend zugewiesene Ressourcen verfügen.

    Überprüfen Sie die Änderungen mit dem nova quota-defaults Befehl.

  3. Stellen Sie sicher, dass das Wärmepaket 5.0.1-6 oder höher ist. Dieses Paket ist Teil von rhel-7-server-openstack-8-rpms.

    Überprüfen Sie die Version mit dem rpm -qa | grep heat Befehl.

    Aktualisieren Sie das Wärmepaket mit diesem Befehl.

    • Für Red Hat: yum update openstack-heat-engine

    • Für Ubuntu (ab Junos OS Version 17.2R1): apt-get install heat-engine

  4. Stellen Sie sicher, dass die Pakete lsb (redhat-lsb-core oder lsb-release) und numactl installiert sind.
    • Für Red Hat:

    • Für Ubuntu (ab Junos OS Version 17.2R1):

Konfiguration des Controller-Knotens für virtio-Schnittstellen

So konfigurieren Sie die virtio-Schnittstellen:

  1. Aktivieren Sie den VLAN-Mechanismustreiber, indem Sie den type_drivers Parameter in der Datei /etc/neutron/plugins/ml2/ml2_conf.ini hinzufügen. vlan
  2. Fügen Sie das Bridge-Mapping zur Datei / etc/neutron/plugins/ml2/ml2_conf.ini hinzu, indem Sie die folgende Zeile hinzufügen:

    Verwenden Sie z. B. die folgende Einstellung, um eine Bridge-Zuordnung für das physische Netzwerk physnet1 hinzuzufügen, das der OVS-Bridge br-vlan zugeordnet ist.

  3. Konfigurieren Sie die VLAN-Bereiche, die für das physische Netzwerk verwendet werden, in der Datei / etc/neutron/plugins/ml2/ml2_conf.ini , in physical-network-name der sich der Name des Neutronennetzwerks befindet, das Sie für das virtio WAN-Netzwerk erstellt haben.

    Verwenden Sie beispielsweise die folgende Einstellung, um die VLAN-Bereiche zu konfigurieren, die für das physische Netzwerk physnet1 verwendet werden.

  4. Starten Sie den Neutronenserver neu.
    • Für Red Hat: systemctl restart neutron-server

    • Für Ubuntu (ab Junos OS Version 17.2R1): service neutron-server restart

  5. Fügen Sie die OVS-Bridge, die dem physischen Netzwerk zugeordnet wurde, und die virtio-Schnittstelle (eth2) hinzu.

    Verwenden Sie beispielsweise die folgenden Befehle, um die OVS-Bridge br-vlan und die eth2-Schnittstelle hinzuzufügen:

Konfiguration des Controller-Knotens für SR-IOV-Schnittstellen

Hinweis:

Wenn Sie mehr als eine SR-IOV-Schnittstelle haben, benötigen Sie für jede weitere SR-IOV-Schnittstelle eine dedizierte physische 10G-Schnittstelle.

Hinweis:

Im SRIOV-Modus wird die Kommunikation zwischen der Routing-Engine (RE) und der Paketweiterleitungs-Engine über virtio-Schnittstellen in einem VLAN-Provider-OVS-Netzwerk aktiviert. Aus diesem Grund kann eine bestimmte physische Schnittstelle nicht sowohl Teil von VirtIO- als auch von SR-IOV-Netzwerken sein.

So konfigurieren Sie die SR-IOV-Schnittstellen:

  1. Bearbeiten Sie die Datei / etc/neutron/plugins/ml2/ml2_conf.ini , um sie als Mechanismustreiber und die für das physische Netzwerk verwendeten VLAN-Bereiche hinzuzufügen sriovnicswitch .

    Verwenden Sie beispielsweise die folgende Einstellung, um die VLAN-Bereiche zu konfigurieren, die für das physische Netzwerk physnet2 verwendet werden.

    Wenn Sie weitere SR-IOV-Ports hinzufügen, müssen Sie den VLAN-Bereich hinzufügen, der für jedes physische Netzwerk verwendet wird (durch ein Komma getrennt). Verwenden Sie z. B. die folgende Einstellung, wenn Sie zwei SR-IOV-Ports konfigurieren.

  2. Bearbeiten Sie die Datei / etc/neutron/plugins/ml2/ml2_conf_sriov.ini , um Details zu PCI-Geräten hinzuzufügen.
  3. Fügen Sie das –-config-file /etc/neutron/plugins/ml2/ml2_conf_sriov.ini wie markiert zur Neutronenserverdatei hinzu.
    • Für Red Hat:

      Bearbeiten Sie die Datei / usr/lib/systemd/system/neutron-server.service wie markiert.

      Verwenden Sie den Befehl, um den systemctl restart neutron-server Dienst neu zu starten.

    • Für Ubuntu (ab Junos OS Version 17.2R1):

      Bearbeiten Sie die Datei / etc/init/neutron-server.conf wie markiert.

      Verwenden Sie den Befehl, um den service neutron-server restart Dienst neu zu starten.

  4. Um eine ordnungsgemäße Planung von SR-IOV-Geräten zu ermöglichen, muss der Compute-Scheduler den FilterScheduler mit dem PciPassthroughFilter-Filter verwenden.

    Stellen Sie sicher, dass der PciPassthroughFilter-Filter in der Datei / etc/nova/nova.conf auf dem Controller-Knoten konfiguriert ist.

    Starten Sie den Scheduler-Dienst neu.

    • Für Red Hat: systemctl restart openstack-nova-scheduler

    • Für Ubuntu (ab Junos OS Version 17.2R1): service nova-scheduler restart

Vorbereiten der Computeknoten

Vorbereiten des Compute-Knotens für vMX

Hinweis:

Sie müssen den Compute-Knoten nicht mehr so konfigurieren, dass Metadaten an die vMX-Instanzen übergeben werden, indem Sie den config_drive_format=vfat Parameter in die Datei / etc/nova/nova.conf aufnehmen.

So bereiten Sie den Computeknoten vor:

  1. Konfigurieren Sie jeden Computeknoten so, dass er Huge Pages beim Booten und Neustart unterstützt.
    • Für Red Hat: Fügen Sie die Konfiguration "Huge Pages" hinzu.

      Verwenden Sie den Befehl, um den mount | grep boot Namen des Startgeräts zu ermitteln.

    • Für Ubuntu (ab Junos OS Version 17.2R1): Fügen Sie die Huge Pages-Konfiguration zu / etc/default/grub unter dem GRUB_CMDLINE_LINUX_DEFAULT Parameter hinzu.

    Vergewissern Sie sich nach dem Neustart, dass Huge Pages zugewiesen sind.

    Die Anzahl der Huge Pages hängt von der Speichermenge für den VFP, der Größe der Huge Pages und der Anzahl der VFP-Instanzen ab. So berechnen Sie die Anzahl der riesigen Seiten: (memory-for-vfp / huge-pages-size) * number-of-vfp

    Wenn Sie beispielsweise vier vMX-Instanzen (vier VFPs) im Leistungsmodus mit 12 GB Arbeitsspeicher und 2 MB Huge Pages ausführen, dann ist die Anzahl der Huge Pages, wie durch die Formel berechnet, (12G/2M)*4 oder 24576.

    Hinweis:

    Ab Junos OS Version 15.1F6 und späteren Versionen ist der Leistungsmodus der Standardbetriebsmodus. Weitere Informationen finden Sie unter Aktivieren des Leistungsmodus oder des Lite-Modus.

    Hinweis:

    Stellen Sie sicher, dass auf dem Computeknoten genügend physischer Arbeitsspeicher vorhanden ist. Er muss größer sein als der Speicher, der Huge Pages zugeordnet ist, da alle anderen Anwendungen, die Huge Pages nicht verwenden, durch die Menge an Arbeitsspeicher begrenzt sind, die nach der Zuweisung für Huge Pages verbleibt. Wenn Sie z. B. 24576 Huge Pages und 2M Huge Pages Größe zuweisen, benötigen Sie 24576*2M oder 48G Arbeitsspeicher für Huge Pages.

    Sie können den Befehl verwenden und sich den vmstat -s Gesamtspeicher und die verwendeten Speicherwerte ansehen, um zu überprüfen, wie viel Arbeitsspeicher für andere Anwendungen übrig ist, die Huge Pages nicht verwenden.

  2. Aktivieren Sie IOMMU in der Datei / etc/default/grub . Hängen Sie die intel_iommu=on Zeichenfolge an einen vorhandenen Text für den GRUB_CMDLINE_LINUX Parameter an.

    Generieren Sie die Grub-Datei neu.

    • Für Red Hat: grub2-mkconfig -o /boot/grub2/grub.cfg

    • Für Ubuntu (ab Junos OS Version 17.2R1): update-grub

    Starten Sie den Computeknoten neu.

  3. Fügen Sie eine Bridge für das Virtio-Netzwerk hinzu und konfigurieren Sie physnet1:

    Zum Beispiel wird eine OVS-Bridge br-vlan hinzugefügt. (Dies ist das gleiche br-vlan , das in bridge_mappings in ml2_conf.ini oben auf dem Controller hinzugefügt wurde. Siehe Konfiguration des Controller-Knotens für virtio-Schnittstellen). Fügen Sie dieser Bridge die eth2-Schnittstelle hinzu, die für die Virtio-Kommunikation zwischen VMs verwendet werden kann.

    Fügen Sie in /etc/neutron/plugins/ml2/openvswitch_agent.ini die Zeichenfolge an physnet1:br-vlan :

    Starten Sie den Neutronendienst neu.

    • Redhat:

      systemctl restart neutron-openvswitch-agent.service

      systemctl restart openstack-nova-compute.service

    • Ubuntu

      service nova-compute restart

      service neutron-plugin-openvswitch-agent restart

Konfigurieren des Compute-Knotens für SR-IOV-Schnittstellen

Hinweis:

Wenn Sie über mehr als eine SR-IOV-Schnittstelle verfügen, benötigen Sie für jede weitere SR-IOV-Schnittstelle eine physische 10G-Ethernet-NIC-Karte.

So konfigurieren Sie die SR-IOV-Schnittstellen:

  1. Laden Sie den modifizierten IXGBE-Treiber.

    Stellen Sie vor dem Kompilieren des Treibers sicher, dass gcc und make installiert sind.

    • Für Red Hat:

    • Für Ubuntu (ab Junos OS Version 17.2R1):

    Entladen Sie den standardmäßigen IXGBE-Treiber, kompilieren Sie den geänderten Juniper Networks-Treiber und laden Sie den geänderten IXGBE-Treiber.

    Überprüfen Sie die Treiberversion auf der eth4-Schnittstelle.

    Im folgenden Beispiel zeigt der Befehl z. B. die Treiberversion (3.19.1) an:

  2. Erstellen Sie die virtuelle Funktion (VF) auf dem physischen Gerät. vMX unterstützt derzeit nur einen VF für jede SR-IOV-Schnittstelle (z. B. eth4).

    Geben Sie die Anzahl der VFs auf jeder Netzwerkkarte an. Die folgende Zeile gibt an, dass es keinen VF für eth2 (erste NIC) und einen VF für eth4 (zweite NIC mit SR-IOV-Schnittstelle) gibt.

    Um zu überprüfen, ob der VF erstellt wurde, enthält die Ausgabe des ip link show eth4 Befehls die folgende Zeile:

    Um sicherzustellen, dass die Schnittstellen verfügbar sind und der SR-IOV-Datenverkehr sie passieren kann, führen Sie die folgenden Befehle aus, um die Konfiguration abzuschließen.

  3. Installieren Sie den SR-IOV-Agenten.
    • Für Red Hat: sudo yum install openstack-neutron-sriov-nic-agent

    • Für Ubuntu (ab Junos OS Version 17.2R1): sudo apt-get install neutron-plugin-sriov-agent

  4. Fügen Sie die physikalische Gerätezuordnung zur Datei /etc/neutron/plugins/ml2/sriov_agent.ini hinzu, indem Sie die folgende Zeile hinzufügen:

    Verwenden Sie z. B. die folgende Einstellung, um eine Bridge-Zuordnung für das physische Netzwerk physnet2 hinzuzufügen, das der SR-IOV-Schnittstelle eth4 zugeordnet ist.

    Wenn Sie weitere SR-IOV-Ports hinzufügen, müssen Sie die Bridge-Zuordnung für jedes physische Netzwerk hinzufügen (durch ein Komma getrennt). Verwenden Sie z. B. die folgende Einstellung, wenn Sie die SR-IOV-Schnittstelle eth5 für das physische Netzwerk physnet3 hinzufügen.

  5. Bearbeiten Sie die SR-IOV-Agent-Dienstdatei, die wie markiert hinzugefügt –-config-file /etc/neutron/plugins/ml2/sriov_agent.ini werden soll.
    • Für Red Hat:

      Bearbeiten Sie die Datei / usr/lib/systemd/system/neutron-sriov-nic-agent.service wie markiert.

      Aktivieren und starten Sie den SR-IOV-Agenten.

      Verwenden Sie den systemctl status neutron-sriov-nic-agent.service Befehl, um zu überprüfen, ob der Agent erfolgreich gestartet wurde.

    • Für Ubuntu (ab Junos OS Version 17.2R1):

      Bearbeiten Sie die Datei / etc/init/neutron-plugin-sriov-agent.conf wie markiert.

      Stellen Sie sicher, dass /etc/neutron/ plugins/ml2/sriov_agent.ini die richtigen Berechtigungen hat und neutron die Gruppe der Datei ist.

      Verwenden Sie den Befehl, um den service neutron-plugin-sriov-agent start SR-IOV-Agenten zu starten.

      Verwenden Sie den service neutron-plugin-sriov-agent status Befehl, um zu überprüfen, ob der Agent erfolgreich gestartet wurde.

  6. Bearbeiten Sie die Datei /etc/nova /nova.conf , um den Eintrag in der PCI-Passthrough-Zulassungsliste für das SR-IOV-Gerät hinzuzufügen.

    Dieser Eintrag fügt z. B. einen Eintrag für die SR-IOV-Schnittstelle eth4 für das physikalische Netzwerk physnet2 hinzu.

    Wenn Sie weitere SR-IOV-Ports hinzufügen, müssen Sie den Eintrag für die PCI-Passthrough-Zulassungsliste für jede SR-IOV-Schnittstelle hinzufügen (durch ein Komma getrennt). Verwenden Sie z. B. die folgende Einstellung, wenn Sie die SR-IOV-Schnittstelle eth5 für das physische Netzwerk physnet3 hinzufügen.

    Starten Sie den Computeknotendienst neu.

    • Für Red Hat: systemctl restart openstack-nova-compute

    • Für Ubuntu (ab Junos OS Version 17.2R1): service nova-compute restart

Installieren von vMX

Nachdem Sie die OpenStack-Umgebung vorbereitet haben, müssen Sie Nova-Flavors und Glance-Images für die VCP- und VFP-VMs erstellen. Skripte erstellen die Varianten und Images basierend auf den Informationen, die in der Startkonfigurationsdatei bereitgestellt werden.

Einrichten der vMX-Konfigurationsdatei

Die Parameter, die für die Konfiguration von vMX erforderlich sind, sind in der Startkonfigurationsdatei definiert.

So richten Sie die Konfigurationsdatei ein:

  1. Laden Sie das vMX KVM-Softwarepaket von der vMX-Seite herunter und dekomprimieren Sie es.

    tar xvf package-name

  2. Wechseln Sie in das Verzeichnis der Dateien.

    cd package-location/openstack/scripts

  3. Bearbeiten Sie die Textdatei vmx.conf mit einem Texteditor, um die Varianten für eine einzelne vMX-Instanz zu erstellen.

    Stellen Sie basierend auf Ihren Anforderungen sicher, dass die folgenden Parameter in der vMX-Konfigurationsdatei ordnungsgemäß festgelegt sind:

    • re-flavor-name

    • pfe-flavor-name

    • vcpus

    • memory-mb

    Weitere Informationen zu den Parametern finden Sie unter Angeben von Parametern der vMX-Konfigurationsdatei .

    Beispiel für eine vMX-Startkonfigurationsdatei

    Hier ist ein Beispiel für eine vMX-Startkonfigurationsdatei für OpenStack:

Angeben von Parametern der vMX-Konfigurationsdatei

Die für die Konfiguration von vMX erforderlichen Parameter sind in der Startkonfigurationsdatei (scripts/vmx.conf) definiert. Die Startkonfigurationsdatei generiert eine Datei, die zum Erstellen von Varianten verwendet wird. Um neue Geschmacksrichtungen mit anderen vcpus oder-Parametern memory-mb zu erstellen, müssen Sie den entsprechenden re-flavor-name oder-Parameter pfe-flavor-name ändern, bevor Sie die neuen Geschmacksrichtungen erstellen.

Um die Konfiguration anzupassen, führen Sie die folgenden Aufgaben aus:

Konfigurieren des Hosts

Um den Host zu konfigurieren, navigieren Sie zu HOST und geben Sie die folgenden Parameter an:

  • virtualization-type—Betriebsweise; muss sein openstack.

  • compute—(Optional) Namen des Compute-Knotens, auf dem vMX-Instanzen ausgeführt werden sollen, in einer durch Kommas getrennten Liste. Wenn dieser Parameter angegeben wird, muss es sich um einen gültigen Computeknoten handeln. Wenn dieser Parameter angegeben ist, werden vMX-Instanzen, die mit Varianten gestartet werden, nur auf den angegebenen Computeknoten ausgeführt.

    Wenn dieser Parameter nicht angegeben ist, enthält die Ausgabe des Befehls nova hypervisor-list die Liste der Compute-Knoten, auf denen vMX-Instanzen ausgeführt werden sollen.

Konfigurieren der VCP-VM

Um die VCP-VM zu konfigurieren, müssen Sie den Namen des Typs angeben.

Hinweis:

Wir empfehlen eindeutige Werte für den re-flavor-name Parameter, da OpenStack mehrere Einträge mit demselben Namen erstellen kann.

Um die VCP-VM zu konfigurieren, navigieren Sie zu CONTROL_PLANE , und geben Sie die folgenden Parameter an:

  • re-flavor-name– Name des Nova-Geschmacks.

  • vcpus– Anzahl der vCPUs für den VCP; Minimum ist 1.

    Hinweis:

    Wenn Sie diesen Wert ändern, müssen Sie den re-flavor-name Wert ändern, bevor Sie das Skript zum Erstellen von Varianten ausführen.

  • memory-mb—Größe des Arbeitsspeichers für den VCP; mindestens 4 GB.

    Hinweis:

    Wenn Sie diesen Wert ändern, müssen Sie den re-flavor-name Wert ändern, bevor Sie das Skript zum Erstellen von Varianten ausführen.

Konfigurieren der VFP-VM

Um die VFP-VM zu konfigurieren, müssen Sie den Typnamen angeben. Je nach Ihren Anforderungen können Sie den Arbeitsspeicher und die Anzahl der vCPUs ändern. Informationen zu den Mindestanforderungen an die Hardware finden Sie unter Minimale Hardwareanforderungen .

Um die VFP-VM zu konfigurieren, navigieren Sie zu FORWARDING_PLANE , und geben Sie die folgenden Parameter an:

  • pfe-flavor-name– Name des Nova-Geschmacks.

  • memory-mb—Speichermenge für den VFP; mindestens 12 GB (Performance-Modus) und 4 GB (Lite-Modus).

    Hinweis:

    Wenn Sie diesen Wert ändern, müssen Sie den pfe-flavor-name Wert ändern, bevor Sie das Skript zum Erstellen von Varianten ausführen.

  • vcpus– Anzahl der vCPUs für den VFP; Minimum ist 7 (Performance-Modus) und 3 (Lite-Modus).

    Hinweis:

    Wenn Sie weniger als 7 vCPUs angeben, wechselt der VFP automatisch in den Lite-Modus.

    Hinweis:

    Wenn Sie diesen Wert ändern, müssen Sie den pfe-flavor-name Wert ändern, bevor Sie das Skript zum Erstellen von Varianten ausführen.

Erstellen von OpenStack-Varianten

Um Varianten für VCP und VFP zu erstellen, müssen Sie das Skript in der vMX-Startkonfigurationsdatei (vmx.conf) ausführen.

So erstellen Sie OpenStack-Varianten:

  1. Führen Sie die mit der Startkonfigurationsdatei aus, um die Datei zu generieren, die vmx_osp_create_flavor.py Varianten vmx_osp_flavors.sh erstellt.

    ./vmx_osp_create_flavor.py vmx.conf

  2. Führen Sie die vmx_osp_flavors.sh aus, um Geschmacksrichtungen zu erstellen.

    sh vmx_osp_flavors.sh

Installieren von vMX-Images für VCP und VFP

Um die vMX OpenStack glance Images für VCP und VFP zu installieren, können Sie das vmx_osp_images.sh Skript ausführen. Das Skript fügt das VCP-Image im qcow2-Format und die VFP-Datei im vmdk-Format hinzu.

So installieren Sie die VCP- und VFP-Images:

  1. Laden Sie das vMX KVM-Softwarepaket von der vMX-Seite herunter und dekomprimieren Sie es.

    tar xvf package-name

  2. Überprüfen Sie den Speicherort der Software-Images aus dem unkomprimierten vMX-Paket. Siehe vMX-Paketinhalt.

    ls package-location/images

  3. Wechseln Sie in das Verzeichnis der vMX OpenStack-Skriptdateien.

    cd package-location/openstack/scripts

  4. Führen Sie das vmx_osp_images.sh Skript aus, um die Glance-Bilder zu installieren.

    sh vmx_osp_images.sh vcp-image-name vcp-image-location vfp-image-name vfp-image-location

    Hinweis:

    Sie müssen die Parameter in dieser Reihenfolge angeben.

    • vcp-image-name– Name des Glance-Bildes.

    • vcp-image-location– Absoluter Pfad zur Datei junos-vmx-x86-64*.qcow2 zum Starten von VCP.

    • vfp-image-name– Name des Glance-Bildes.

    • vfp-image-location– Absoluter Pfad zur Datei vFPC-*.img zum Starten von VFP.

Mit diesem Befehl wird beispielsweise das VCP-Image als Re-Test aus der Datei /var/tmp/junos-vmx-x86-64-17.1R1.8.qcow2 und das VFP-Image als fpc-test aus der Datei /var/tmp/vFPC-20170117.img installiert.

sh vmx_osp_images.sh re-test /var/tmp/junos-vmx-x86-64-17.1R1.8.qcow2 fpc-test /var/tmp/vFPC-20170117.img

Um die Glance-Bilder anzuzeigen, verwenden Sie den glance image-list Befehl.

Starten einer vMX-Instanz

Um eine vMX-Instanz zu starten, führen Sie die folgenden Aufgaben aus:

Ändern der anfänglichen Junos OS-Konfiguration

Wenn Sie die vMX-Instanz starten, wird die Junos OS-Konfigurationsdatei unter package-location/openstack/vmx-components/vms/vmx_baseline.conf geladen. Wenn Sie diese Konfiguration ändern müssen, nehmen Sie alle Änderungen an dieser Datei vor, bevor Sie vMX starten.

Hinweis:

Wenn Sie eine eigene vmx_baseline.conf Datei erstellen oder die Datei verschieben, stellen Sie sicher, dass /openstack/vmx-components/vms/package-locationre.yaml auf den richtigen Pfad verweist.

Starten der vMX-Instanz

So erstellen und starten Sie die vMX-Instanz:

  1. Ändern Sie diese Parameter in der package-locationUmgebungsdatei /openstack/1vmx.env für Ihre Konfiguration. Die Umgebungsdatei liegt ab Junos OS Version 17.4R1 im YAML-Format vor.
    • net_id1– Netzwerk-ID des vorhandenen Neutronennetzwerks, das für den WAN-Port verwendet wird. Verwenden Sie den neutron net-list Befehl, um die Netzwerk-ID anzuzeigen.

    • public_network: Netzwerk-ID des vorhandenen Neutronennetzwerks, das für den Management-Port (fxp0) verwendet wird. Verwenden Sie den neutron net-list | grep public Befehl, um die Netzwerk-ID anzuzeigen.

    • fpc_img– Ändern Sie diesen Parameter in linux-img. Name des Übersichtsbildes für den VFP; identisch mit dem Parameter, der beim Ausführen des Skripts zum Installieren der vfp-image-name vMX-Images angegeben wurde.

    • vfp_image– Name des Übersichtsbildes für den VFP; identisch mit dem Parameter, der beim Ausführen des Skripts zum Installieren der vfp-image-name vMX-Images angegeben wurde (gilt für Für Junos OS Version 17.3R1 und früher).

    • fpc_flav– Ändern Sie diesen Parameter in linux-flav. Name des Nova-Geschmacks für den VFP; identisch mit dem Parameter, der in der pfe-flavor-name vMX-Konfigurationsdatei angegeben ist.

    • vfp_flavor– Name des Nova-Geschmacks für den VFP; identisch mit dem in der pfe-flavor-name vMX-Konfigurationsdatei angegebenen Parameter (gilt für Junos OS Version 17.3R1 und früher).

    • junos_flav– Name der Nova-Variante für den VCP; identisch mit dem Parameter, der in der re-flavor-name vMX-Konfigurationsdatei angegeben ist.

    • vcp_flavor– Name der Nova-Variante für den VCP; identisch mit dem in der re-flavor-name vMX-Konfigurationsdatei angegebenen Parameter (gilt für Junos OS Version 17.3R1 und früher).

    • junos_img– Name des Übersichtsbildes für das VCP; identisch mit dem Parameter, der beim Ausführen des Skripts zum Installieren der vcp-image-name vMX-Images angegeben wurde.

    • vcp_image– Name des Übersichtsbildes für das VCP; Identisch mit dem Parameter, der beim Ausführen des Skripts zum Installieren der vcp-image-name vMX-Images angegeben wurde (gilt für Junos OS-Versionen 17.3R1 und früher).

    • project_name– Ein beliebiger Projektname. Alle Ressourcen verwenden diesen Namen als Präfix.

    • gateway_ip– IP-Adresse des Gateways.

  2. Starten Sie die vMX-Instanz mit dem heat stack-create –f 1vmx.yaml –e 1vmx.env vmx-name Befehl.

    Mit dieser Beispielkonfiguration wird eine einzelne vMX-Instanz mit einem WAN-Port und einem FPC gestartet.

  3. Stellen Sie sicher, dass die vMX-Instanz mit dem heat stack-list | grep vmx-name Befehl erstellt wurde.
  4. Stellen Sie sicher, dass die VCP- und VFP-VMs mit dem nova-list Befehl vorhanden sind.
  5. Greifen Sie mit dem nova get-vnc-console nova-id novnc Befehl auf die VCP- oder VFP-VM zu, wobei nova-id die ID der Instanz in der nova-list Befehlsausgabe angezeigt wird.
Hinweis:

Sie müssen die vMX-Instanz herunterfahren, bevor Sie den Hostserver mit dem Befehl request system halt neu starten.