Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Installation von vMX auf OpenStack

Lesen Sie dieses Thema, um zu verstehen, wie Sie die vMX-Instanz in der OpenStack-Umgebung installieren.

Vorbereiten der OpenStack-Umgebung für die Installation von vMX

Stellen Sie sicher, dass die openstackrc-Datei stammt, bevor Sie OpenStack-Befehle ausführen.

Führen Sie die folgenden Aufgaben aus, um die OpenStack-Umgebung für die Installation von vMX vorzubereiten:

Die Schaffung der Neutronennetzwerke

Sie müssen die von vMX verwendeten Neutronennetzwerke erstellen, bevor Sie die vMX-Instanz starten. Das öffentliche Netzwerk ist das Neutronennetzwerk, das für das Managementnetzwerk (fxp0) verwendet wird. Das WAN-Netzwerk ist das Neutronennetzwerk, dem die WAN-Schnittstelle für vMX hinzugefügt wird.

Um die Namen der Neutronennetzwerke anzuzeigen, verwenden Sie den neutron net-list Befehl.

Anmerkung:

Sie müssen den Netzwerktyp, den Sie in Ihrer OpenStack-Konfiguration benötigen, identifizieren und erstellen.

Sie können die folgenden Befehle als eine Möglichkeit verwenden, das öffentliche Netzwerk zu erstellen:

  • Zum Beispiel:

  • Für virtio können Sie diese Befehle als eine Möglichkeit verwenden, das WAN-Netzwerk zu erstellen:

    Zum Beispiel:

  • Für SR-IOV können Sie die folgenden Befehle als eine Möglichkeit zum Erstellen des WAN-Netzwerks verwenden:

    Zum Beispiel:

Vorbereiten des Controller-Knotens

Vorbereiten des Controller-Knotens für vMX

So bereiten Sie den Controller-Knoten vor:

  1. Konfigurieren Sie den Controller-Knoten so, dass er Huge Pages und CPU-Affinität aktiviert, indem Sie den scheduler_default_filters Parameter in der Datei /etc/nova/nova.conf bearbeiten. Stellen Sie sicher, dass die folgenden Filter vorhanden sind:

    Starten Sie den Scheduler-Dienst mit diesem Befehl neu.

    • Für Red Hat: systemctl restart openstack-nova-scheduler.service

    • Für Ubuntu (ab Junos OS Version 17.2R1): service nova-scheduler restart

  2. Aktualisieren Sie die Standardkontingente.
    Anmerkung:

    Wir empfehlen diese Standardwerte, Sie können jedoch andere Werte verwenden, wenn sie für Ihre Umgebung geeignet sind. Stellen Sie sicher, dass für die Standardkontingente genügend Ressourcen zugewiesen sind.

    Überprüfen Sie die Änderungen mit dem nova quota-defaults Befehl.

  3. Stellen Sie sicher, dass das Heat-Paket 5.0.1-6 oder höher ist. Dieses Paket ist Teil von rhel-7-server-openstack-8-rpms.

    Überprüfen Sie die Version mit dem rpm -qa | grep heat Befehl.

    Aktualisieren Sie das Wärmepaket mit diesem Befehl.

    • Für Red Hat: yum update openstack-heat-engine

    • Für Ubuntu (ab Junos OS Version 17.2R1): apt-get install heat-engine

  4. Stellen Sie sicher, dass die Pakete lsb (redhat-lsb-core oder lsb-release) und numactl installiert sind.
    • Für Red Hat:

    • Für Ubuntu (ab Junos OS Version 17.2R1):

Konfiguration des Controller-Knotens für virtio-Schnittstellen

So konfigurieren Sie die virtio-Schnittstellen:

  1. Aktivieren Sie den Treiber für den VLAN-Mechanismus, indem Sie den type_drivers Parameter in der Datei /etc/neutron/plugins/ml2/ml2_conf.ini hinzufügenvlan.
  2. Fügen Sie die Bridge-Zuordnung zur Datei /etc/neutron/plugins/ml2/ml2_conf.ini hinzu, indem Sie die folgende Zeile hinzufügen:

    Verwenden Sie z. B. die folgende Einstellung, um eine Bridge-Zuordnung für das physische Netzwerk physnet1 hinzuzufügen, das dem BR-VLAN der OVS-Bridge zugeordnet ist.

  3. Konfigurieren Sie die VLAN-Bereiche, die für das physische Netzwerk verwendet werden, in der Datei /etc/neutron/plugins/ml2/ml2_conf.ini , wobei physical-network-name der Name des Neutronennetzwerks ist, das Sie für das virtio WAN-Netzwerk erstellt haben.

    Verwenden Sie beispielsweise die folgende Einstellung, um die VLAN-Bereiche zu konfigurieren, die für das physische Netzwerk physnet1 verwendet werden.

  4. Starten Sie den Neutronenserver neu.
    • Für Red Hat: systemctl restart neutron-server

    • Für Ubuntu (ab Junos OS Version 17.2R1): service neutron-server restart

  5. Fügen Sie die OVS-Bridge hinzu, die dem physischen Netzwerk und der virtio-Schnittstelle (eth2) zugeordnet wurde.

    Verwenden Sie beispielsweise die folgenden Befehle, um die OVS-Bridge, das BR-VLAN und die eth2-Schnittstelle hinzuzufügen:

Konfigurieren des Controller-Knotens für SR-IOV-Schnittstellen

Anmerkung:

Wenn Sie über mehr als eine SR-IOV-Schnittstelle verfügen, benötigen Sie für jede weitere SR-IOV-Schnittstelle eine dedizierte physische 10G-Schnittstelle.

Anmerkung:

Im SRIOV-Modus wird die Kommunikation zwischen der Routing-Engine (RE) und der Paketweiterleitungs-Engine über virtio-Schnittstellen in einem VLAN-Provider-OVS-Netzwerk ermöglicht. Aus diesem Grund kann eine bestimmte physische Schnittstelle nicht gleichzeitig Teil von VirtIO- und SR-IOV-Netzwerken sein.

So konfigurieren Sie die SR-IOV-Schnittstellen:

  1. Bearbeiten Sie die Datei /etc/neutron/plugins/ml2/ml2_conf.ini , um sie als Mechanismustreiber und die für das physische Netzwerk verwendeten VLAN-Bereiche hinzuzufügen sriovnicswitch .

    Verwenden Sie beispielsweise die folgende Einstellung, um die VLAN-Bereiche zu konfigurieren, die für das physische Netzwerk physnet2 verwendet werden.

    Wenn Sie weitere SR-IOV-Ports hinzufügen, müssen Sie den VLAN-Bereich hinzufügen, der für jedes physische Netzwerk verwendet wird (durch ein Komma getrennt). Verwenden Sie z. B. die folgende Einstellung, wenn Sie zwei SR-IOV-Ports konfigurieren.

  2. Bearbeiten Sie die Datei /etc/neutron/plugins/ml2/ml2_conf_sriov.ini , um Details zu PCI-Geräten hinzuzufügen.
  3. Fügen Sie den markierten Text –-config-file /etc/neutron/plugins/ml2/ml2_conf_sriov.ini zur Neutronenserverdatei hinzu.
    • Für Red Hat:

      Bearbeiten Sie die Datei /usr/lib/systemd/system/neutron-server.service wie markiert.

      Verwenden Sie den systemctl restart neutron-server Befehl, um den Dienst neu zu starten.

    • Für Ubuntu (ab Junos OS Version 17.2R1):

      Bearbeiten Sie die Datei /etc/init/neutron-server.conf wie markiert.

      Verwenden Sie den service neutron-server restart Befehl, um den Dienst neu zu starten.

  4. Um eine ordnungsgemäße Planung von SR-IOV-Geräten zu ermöglichen, muss der Computeplaner den FilterScheduler mit dem PciPassthroughFilter-Filter verwenden.

    Stellen Sie sicher, dass der PciPassthroughFilter-Filter in der Datei /etc/nova/nova.conf auf dem Controllerknoten konfiguriert ist.

    Starten Sie den Scheduler-Dienst neu.

    • Für Red Hat: systemctl restart openstack-nova-scheduler

    • Für Ubuntu (ab Junos OS Version 17.2R1): service nova-scheduler restart

Vorbereiten der Computeknoten

Vorbereiten des Compute-Knotens für vMX

Anmerkung:

Sie müssen den Compute-Knoten nicht mehr so konfigurieren, dass Metadaten an die vMX-Instanzen übergeben werden, indem Sie den config_drive_format=vfat Parameter in die Datei /etc/nova/nova.conf aufnehmen.

So bereiten Sie den Computeknoten vor:

  1. Konfigurieren Sie jeden Computeknoten so, dass er beim Booten und Neustart Huge Pages unterstützt.
    • Für Red Hat: Fügen Sie die Huge Pages-Konfiguration hinzu.

      Verwenden Sie den mount | grep boot Befehl, um den Namen des Startgeräts zu ermitteln.

    • Für Ubuntu (ab Junos OS Version 17.2R1): Fügen Sie die Huge Pages-Konfiguration zu /etc/default/grub unter dem GRUB_CMDLINE_LINUX_DEFAULT Parameter hinzu.

    Überprüfen Sie nach dem Neustart, ob Huge Pages zugeordnet sind.

    Die Anzahl der Huge Pages hängt von der Menge des Arbeitsspeichers für das VFP, der Größe der Huge Pages und der Anzahl der VFP-Instanzen ab. So berechnen Sie die Anzahl der Huge Pages: (memory-for-vfp / huge-pages-size) * number-of-vfp

    Wenn Sie beispielsweise vier vMX-Instanzen (vier VFPs) im Leistungsmodus mit 12 GB Arbeitsspeicher und 2 MB großer Seiten ausführen, beträgt die nach der Formel berechnete Anzahl der riesigen Seiten (12 G/2 Mio.)*4 oder 24576.

    Anmerkung:

    Ab Junos OS Version 15.1F6 und höher ist der Leistungsmodus der Standardbetriebsmodus. Weitere Informationen finden Sie unter Aktivieren des Leistungsmodus oder des Lite-Modus.

    Anmerkung:

    Stellen Sie sicher, dass Sie über genügend physischen Arbeitsspeicher auf dem Computeknoten verfügen. Er muss größer sein als die Menge an Arbeitsspeicher, die Huge Pages zugeordnet ist, da alle anderen Anwendungen, die Huge Pages nicht verwenden, durch die Menge an Arbeitsspeicher begrenzt sind, die nach der Zuweisung für Huge Pages verbleibt. Wenn Sie z. B. 24576 Huge Pages und 2M Huge Pages zuweisen, benötigen Sie 24576*2M oder 48G Arbeitsspeicher für Huge Pages.

    Sie können den vmstat -s Befehl verwenden und sich die Werte für den Gesamtarbeitsspeicher und den verwendeten Arbeitsspeicher ansehen, um zu überprüfen, wie viel Arbeitsspeicher für andere Anwendungen übrig ist, die keine riesigen Seiten verwenden.

  2. Aktivieren Sie IOMMU in der Datei /etc/default/grub . Hängen Sie die intel_iommu=on Zeichenfolge an einen vorhandenen Text für den GRUB_CMDLINE_LINUX Parameter an.

    Generieren Sie die Grub-Datei neu.

    • Für Red Hat: grub2-mkconfig -o /boot/grub2/grub.cfg

    • Für Ubuntu (ab Junos OS Version 17.2R1): update-grub

    Starten Sie den Computeknoten neu.

  3. Fügen Sie eine Bridge für das Virtio-Netzwerk hinzu und konfigurieren Sie physnet1:

    Zum Beispiel wird eine OVS-Bridge hinzugefügt. br-vlan (Dies ist dasselbe, das br-vlan in bridge_mappings in ml2_conf.ini oben auf dem Controller hinzugefügt wurde. Fügen Sie dieser Bridge die eth2-Schnittstelle hinzu, die für die Virtio-Kommunikation zwischen VMs verwendet werden kann.

    Hängen physnet1:br-vlan Sie in /etc/neutron/plugins/ml2/openvswitch_agent.ini die Zeichenfolge an:

    Starten Sie den Neutronendienst neu.

    • Redhat:

      systemctl restart neutron-openvswitch-agent.service

      systemctl restart openstack-nova-compute.service

    • Ubuntu

      service nova-compute restart

      service neutron-plugin-openvswitch-agent restart

Konfigurieren des Compute-Knotens für SR-IOV-Schnittstellen

Anmerkung:

Wenn Sie mehr als eine SR-IOV-Schnittstelle haben, benötigen Sie eine physische 10G-Ethernet-NIC-Karte für jede zusätzliche SR-IOV-Schnittstelle.

So konfigurieren Sie die SR-IOV-Schnittstellen:

  1. Laden Sie den geänderten IXGBE-Treiber.

    Bevor Sie den Treiber kompilieren, stellen Sie sicher, dass gcc und make installiert sind.

    • Für Red Hat:

    • Für Ubuntu (ab Junos OS Version 17.2R1):

    Entladen Sie den IXGBE-Standardtreiber, kompilieren Sie den geänderten Juniper Networks-Treiber, und laden Sie den geänderten IXGBE-Treiber.

    Überprüfen Sie die Treiberversion auf der eth4-Schnittstelle.

    Im folgenden Beispiel zeigt der Befehl z. B. die Treiberversion (3.19.1) an:

  2. Erstellen Sie die virtuelle Funktion (VF) auf dem physischen Gerät. vMX unterstützt derzeit nur eine VF für jede SR-IOV-Schnittstelle (z. B. eth4).

    Geben Sie die Anzahl der VFs auf jeder Netzwerkkarte an. Die folgende Zeile gibt an, dass es keine VF für eth2 (erste NIC) und eine VF für eth4 (zweite NIC mit SR-IOV-Schnittstelle) gibt.

    Um zu überprüfen, ob die VF erstellt wurde, enthält die Ausgabe des ip link show eth4 Befehls die folgende Zeile:

    Führen Sie die folgenden Befehle aus, um sicherzustellen, dass die Schnittstellen verfügbar sind und SR-IOV-Datenverkehr sie passieren kann, um die Konfiguration abzuschließen.

  3. Installieren Sie den SR-IOV-Agenten.
    • Für Red Hat: sudo yum install openstack-neutron-sriov-nic-agent

    • Für Ubuntu (ab Junos OS Version 17.2R1): sudo apt-get install neutron-plugin-sriov-agent

  4. Fügen Sie die Zuordnung des physischen Geräts zur Datei /etc/neutron/plugins/ml2/sriov_agent.ini hinzu, indem Sie die folgende Zeile hinzufügen:

    Verwenden Sie z. B. die folgende Einstellung, um eine Bridge-Zuordnung für das physische Netzwerk physnet2 hinzuzufügen, das der SR-IOV-Schnittstelle eth4 zugeordnet ist.

    Wenn Sie weitere SR-IOV-Ports hinzufügen, müssen Sie die Bridge-Zuordnung für jedes physische Netzwerk hinzufügen (durch ein Komma getrennt). Verwenden Sie z. B. die folgende Einstellung, wenn Sie die SR-IOV-Schnittstelle eth5 für das physische Netzwerk physnet3 hinzufügen.

  5. Bearbeiten Sie die hinzuzufügende SR-IOV-Agent-Dienstdatei –-config-file /etc/neutron/plugins/ml2/sriov_agent.ini wie hervorgehoben.
    • Für Red Hat:

      Bearbeiten Sie die Datei /usr/lib/systemd/system/neutron-sriov-nic-agent.service wie markiert.

      Aktivieren und starten Sie den SR-IOV-Agenten.

      Verwenden Sie den systemctl status neutron-sriov-nic-agent.service Befehl, um zu überprüfen, ob der Agent erfolgreich gestartet wurde.

    • Für Ubuntu (ab Junos OS Version 17.2R1):

      Bearbeiten Sie die Datei /etc/init/neutron-plugin-sriov-agent.conf wie markiert.

      Stellen Sie sicher, dass /etc/neutron/plugins/ml2/sriov_agent.ini die richtigen Berechtigungen hat und Neutron die Gruppe der Datei ist.

      Verwenden Sie den service neutron-plugin-sriov-agent start Befehl, um den SR-IOV-Agenten zu starten.

      Verwenden Sie den service neutron-plugin-sriov-agent status Befehl, um zu überprüfen, ob der Agent erfolgreich gestartet wurde.

  6. Bearbeiten Sie die Datei /etc/nova/nova.conf , um den Eintrag in der PCI-Passthrough-Zulassungsliste für das SR-IOV-Gerät hinzuzufügen.

    Dieser Eintrag fügt z.B. einen Eintrag für die SR-IOV-Schnittstelle eth4 für das physikalische Netzwerk physnet2 hinzu.

    Wenn Sie weitere SR-IOV-Ports hinzufügen, müssen Sie den PCI-Passthrough-Zulassungslisteneintrag für jede SR-IOV-Schnittstelle hinzufügen (durch ein Komma getrennt). Verwenden Sie z. B. die folgende Einstellung, wenn Sie die SR-IOV-Schnittstelle eth5 für das physische Netzwerk physnet3 hinzufügen.

    Starten Sie den Computeknotendienst neu.

    • Für Red Hat: systemctl restart openstack-nova-compute

    • Für Ubuntu (ab Junos OS Version 17.2R1): service nova-compute restart

Installation von vMX

Nachdem Sie die OpenStack-Umgebung vorbereitet haben, müssen Sie Nova-Varianten und Glance-Images für die VCP- und VFP-VMs erstellen. Skripts erstellen die Varianten und Images basierend auf den Informationen in der Startkonfigurationsdatei.

Einrichten der vMX-Konfigurationsdatei

Die Parameter, die für die Konfiguration von vMX erforderlich sind, sind in der Startkonfigurationsdatei definiert.

So richten Sie die Konfigurationsdatei ein:

  1. Laden Sie das vMX KVM-Softwarepaket von der vMX-Seite herunter und dekomprimieren Sie es.

    tar xvf package-name

  2. Wechseln Sie in das Verzeichnis der Dateien.

    cd package-location/openstack/scripts

  3. Bearbeiten Sie die Textdatei vmx.conf mit einem Texteditor, um die Varianten für eine einzelne vMX-Instanz zu erstellen.

    Stellen Sie entsprechend Ihren Anforderungen sicher, dass die folgenden Parameter in der vMX-Konfigurationsdatei ordnungsgemäß festgelegt sind:

    • re-flavor-name

    • pfe-flavor-name

    • vcpus

    • memory-mb

    Weitere Informationen zu den Parametern finden Sie unter Angeben von Parametern für die vMX-Konfigurationsdatei .

    Beispiel für eine vMX-Startkonfigurationsdatei

    Im Folgenden finden Sie ein Beispiel für eine vMX-Startkonfigurationsdatei für OpenStack:

Angeben von Parametern für die vMX-Konfigurationsdatei

Die Parameter, die für die Konfiguration von vMX erforderlich sind, sind in der Startkonfigurationsdatei (scripts/vmx.conf) definiert. Die Startkonfigurationsdatei generiert eine Datei, die zum Erstellen von Varianten verwendet wird. Um neue Varianten mit anderen vcpus memory-mb OR-Parametern zu erstellen, müssen Sie den entsprechenden re-flavor-name oder-Parameter pfe-flavor-name ändern, bevor Sie die neuen Varianten erstellen.

Führen Sie die folgenden Aufgaben aus, um die Konfiguration anzupassen:

Konfigurieren des Hosts

Um den Host zu konfigurieren, navigieren Sie zu HOST und geben Sie die folgenden Parameter an:

  • virtualization-type—Wirkungsweise; muss sein openstack.

  • compute—(Optional) Namen des Compute-Knotens, auf dem vMX-Instanzen ausgeführt werden sollen, in einer durch Kommas getrennten Liste. Wenn dieser Parameter angegeben wird, muss es sich um einen gültigen Computeknoten handeln. Wenn dieser Parameter angegeben ist, werden vMX-Instanzen, die mit Varianten gestartet werden, nur auf den angegebenen Compute-Knoten ausgeführt.

    Wenn dieser Parameter nicht angegeben ist, enthält die Ausgabe des Befehls nova hypervisor-list die Liste der Compute-Knoten, auf denen vMX-Instanzen ausgeführt werden sollen.

Konfigurieren der VCP-VM

Um die VCP-VM zu konfigurieren, müssen Sie den Flavor-Namen angeben.

Anmerkung:

Wir empfehlen eindeutige Werte für den re-flavor-name Parameter, da OpenStack mehrere Einträge mit demselben Namen erstellen kann.

Um die VCP-VM zu konfigurieren, navigieren Sie zu CONTROL_PLANE , und geben Sie die folgenden Parameter an:

  • re-flavor-name– Name des Nova-Flavors.

  • vcpus– Anzahl der vCPUs für das VCP; Das Minimum ist 1.

    Anmerkung:

    Wenn Sie diesen Wert ändern, müssen Sie den re-flavor-name Wert ändern, bevor Sie das Skript ausführen, um Varianten zu erstellen.

  • memory-mb—Speichermenge für die VCP; mindestens 4 GB.

    Anmerkung:

    Wenn Sie diesen Wert ändern, müssen Sie den re-flavor-name Wert ändern, bevor Sie das Skript ausführen, um Varianten zu erstellen.

Konfigurieren der VFP-VM

Um die VFP-VM zu konfigurieren, müssen Sie den Flavornamen angeben. Basierend auf Ihren Anforderungen können Sie den Arbeitsspeicher und die Anzahl der vCPUs ändern. Informationen zu Mindesthardwareanforderungen finden Sie unter Mindestanforderungen an die Hardware .

Um die VFP-VM zu konfigurieren, navigieren Sie zu FORWARDING_PLANE , und geben Sie die folgenden Parameter an:

  • pfe-flavor-name– Name des Nova-Flavors.

  • memory-mb—Speicher für das VFP; Das Minimum beträgt 12 GB (Performance-Modus) und 4 GB (Lite-Modus).

    Anmerkung:

    Wenn Sie diesen Wert ändern, müssen Sie den pfe-flavor-name Wert ändern, bevor Sie das Skript ausführen, um Varianten zu erstellen.

  • vcpus– Anzahl der vCPUs für das VFP; Das Minimum ist 7 (Performance-Modus) und 3 (Lite-Modus).

    Anmerkung:

    Wenn Sie weniger als 7 vCPUs angeben, wechselt VFP automatisch in den Lite-Modus.

    Anmerkung:

    Wenn Sie diesen Wert ändern, müssen Sie den pfe-flavor-name Wert ändern, bevor Sie das Skript ausführen, um Varianten zu erstellen.

Erstellen von OpenStack-Varianten

Um Varianten für VCP und VFP zu erstellen, müssen Sie das Skript in der vMX-Startkonfigurationsdatei (vmx.conf) ausführen.

So erstellen Sie OpenStack-Varianten:

  1. Führen Sie die vmx_osp_create_flavor.py mit der Startkonfigurationsdatei aus, um die Datei zu generieren, mit der Flavors vmx_osp_flavors.sh erstellt werden.

    ./vmx_osp_create_flavor.py vmx.conf

  2. Führen Sie den Befehl vmx_osp_flavors.sh aus, um Flavors zu erstellen.

    sh vmx_osp_flavors.sh

Installieren von vMX-Images für VCP und VFP

Um die vMX OpenStack-Glance-Images für VCP und VFP zu installieren, können Sie das vmx_osp_images.sh Skript ausführen. Das Skript fügt das VCP-Image im qcow2-Format und die VFP-Datei im vmdk-Format hinzu.

So installieren Sie die VCP- und VFP-Images:

  1. Laden Sie das vMX KVM-Softwarepaket von der vMX-Seite herunter und dekomprimieren Sie es.

    tar xvf package-name

  2. Überprüfen Sie den Speicherort der Software-Images aus dem unkomprimierten vMX-Paket. Weitere Informationen finden Sie unter vMX-Paketinhalt.

    ls package-location/images

  3. Wechseln Sie in das Verzeichnis der vMX OpenStack-Skriptdateien.

    cd package-location/openstack/scripts

  4. Führen Sie das vmx_osp_images.sh Skript aus, um die Glance-Bilder zu installieren.

    sh vmx_osp_images.sh vcp-image-name vcp-image-location vfp-image-name vfp-image-location

    Anmerkung:

    Sie müssen die Parameter in dieser Reihenfolge angeben.

    • vcp-image-name: Name des Blickbildes.

    • vcp-image-location- Absoluter Pfad zur Datei junos-vmx-x86-64*.qcow2 für den Start von VCP.

    • vfp-image-name: Name des Blickbildes.

    • vfp-image-location- Absoluter Pfad zur vFPC-*.img-Datei für den Start von VFP.

Mit diesem Befehl wird beispielsweise das VCP-Image als Re-Test aus der Datei /var/tmp/junos-vmx-x86-64-17.1R1.8.qcow2 und das VFP-Image als fpc-test aus der Datei /var/tmp/vFPC-20170117.img installiert.

sh vmx_osp_images.sh re-test /var/tmp/junos-vmx-x86-64-17.1R1.8.qcow2 fpc-test /var/tmp/vFPC-20170117.img

Um die Blickbilder anzuzeigen, verwenden Sie den glance image-list Befehl.

Starten einer vMX-Instanz

Führen Sie die folgenden Aufgaben aus, um eine vMX-Instanz zu starten:

Ändern der anfänglichen Junos OS-Konfiguration

Wenn Sie die vMX-Instanz starten, wird die Junos OS Konfigurationsdatei in package-location/openstack/vmx-components/vms/vmx_baseline.conf geladen. Wenn Sie diese Konfiguration ändern müssen, nehmen Sie die Änderungen an dieser Datei vor, bevor Sie vMX starten.

Anmerkung:

Wenn Sie eine eigene vmx_baseline.conf Datei erstellen oder verschieben, stellen Sie sicher, dass /package-locationopenstack/vmx-components/vms/re.yaml auf den richtigen Pfad verweist.

Starten der vMX-Instanz

So erstellen und starten Sie die vMX-Instanz:

  1. Ändern Sie diese Parameter in der package-locationUmgebungsdatei /openstack/1vmx.env für Ihre Konfiguration. Die Umgebungsdatei liegt im YAML-Format vor, beginnend mit Junos OS Version 17.4R1.
    • net_id1—Netzwerk-ID des vorhandenen Neutronennetzwerks, das für den WAN-Port verwendet wird. Verwenden Sie den neutron net-list Befehl, um die Netzwerk-ID anzuzeigen.

    • public_network—Netzwerk-ID des vorhandenen Neutronennetzwerks, das für den Management-Port (fxp0) verwendet wird. Verwenden Sie den neutron net-list | grep public Befehl, um die Netzwerk-ID anzuzeigen.

    • fpc_img: Ändern Sie diesen Parameter in linux-img. Name des Überblicksbildes für den VFP; identisch mit dem Parameter, der vfp-image-name beim Ausführen des Skripts zur Installation der vMX-Images angegeben wurde.

    • vfp_image—Name des Blickbildes für den VFP; identisch mit dem Parameter, der vfp-image-name beim Ausführen des Skripts zur Installation der vMX-Images angegeben wurde (gilt für Junos OS-Versionen 17.3R1 und früher).

    • fpc_flav: Ändern Sie diesen Parameter in linux-flav. Name des Nova-Geschmacks für das VFP; identisch mit dem Parameter, der pfe-flavor-name in der vMX-Konfigurationsdatei angegeben ist.

    • vfp_flavor– Name des Nova-Flavors für das VFP; identisch mit dem Parameter, der pfe-flavor-name in der vMX-Konfigurationsdatei angegeben ist (gilt für Junos OS Version 17.3R1 und früher).

    • junos_flav—Name des Nova-Flavors für das VCP; identisch mit dem Parameter, der re-flavor-name in der vMX-Konfigurationsdatei angegeben ist.

    • vcp_flavor—Name des Nova-Flavors für das VCP; identisch mit dem Parameter, der re-flavor-name in der vMX-Konfigurationsdatei angegeben ist (gilt für Junos OS Version 17.3R1 und früher).

    • junos_img—Name des Überblicksbildes für das VCP; identisch mit dem Parameter, der vcp-image-name beim Ausführen des Skripts zur Installation der vMX-Images angegeben wurde.

    • vcp_image—Name des Überblicksbildes für das VCP; identisch mit dem Parameter, der vcp-image-name beim Ausführen des Skripts zur Installation der vMX-Images angegeben wurde (gilt für Junos OS Version 17.3R1 und früher).

    • project_name– Ein beliebiger Projektname. Alle Ressourcen verwenden diesen Namen als Präfix.

    • gateway_ip– IP-Adresse des Gateways.

  2. Starten Sie die vMX-Instanz mit dem heat stack-create –f 1vmx.yaml –e 1vmx.env vmx-name Befehl.

    Diese Beispielkonfiguration startet eine einzelne vMX-Instanz mit einem WAN-Port und einem FPC.

  3. Stellen Sie sicher, dass die vMX-Instanz mit dem heat stack-list | grep vmx-name Befehl erstellt wurde.
  4. Stellen Sie sicher, dass die VCP- und VFP-VMs mit dem nova-list Befehl vorhanden sind.
  5. Greifen Sie mit dem nova get-vnc-console nova-id novnc Befehl auf die VCP- oder VFP-VM zu, wobei nova-id die ID der Instanz in der nova-list Befehlsausgabe angezeigt wird.
Anmerkung:

Sie müssen die vMX-Instanz herunterfahren, bevor Sie den Hostserver mit dem Befehl request system halt neu starten.