Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

OpenStack에 vMX 설치

OpenStack 환경에서 vMX 인스턴스를 설치하는 방법을 알아보려면 이 주제를 읽어보십시오.

vMX 설치를 위한 OpenStack 환경 준비

OpenStack 명령을 실행하기 전에 openstackrc 파일을 소스로 이동해야 합니다.

OpenStack 환경을 준비하여 vMX를 설치하려면 다음 작업을 수행합니다.

중성자 네트워크 생성

vMX 인스턴스를 시작하기 전에 vMX에서 사용하는 중성자 네트워크를 생성해야 합니다. 공용 네트워크는 관리(fxp0) 네트워크에 사용되는 중성자 네트워크입니다. WAN 네트워크는 vMX용 WAN 인터페이스가 추가된 중성자 네트워크입니다.

중성자 네트워크 이름을 표시하려면 명령을 사용합니다 neutron net-list .

참고:

OpenStack 구성에서 필요한 네트워크 유형을 식별하고 생성해야 합니다.

공용 네트워크를 만드는 한 가지 방법으로 다음 명령을 사용할 수 있습니다.

  • 예를 들어:

  • virtio의 경우 WAN 네트워크를 만드는 한 가지 방법으로 이러한 명령을 사용할 수 있습니다.

    예를 들어:

  • SR-IOV의 경우 WAN 네트워크를 만드는 한 가지 방법으로 이러한 명령을 사용할 수 있습니다.

    예를 들어:

컨트롤러 노드 준비

vMX용 컨트롤러 노드 준비

컨트롤러 노드를 준비하려면 다음을 수행합니다.

  1. 컨트롤러 노드를 구성하여 /etc/nova/nova.conf 파일의 scheduler_default_filters 매개 변수를 편집하여 거대한 페이지 및 CPU 선호도를 활성화합니다. 다음 필터가 있는지 확인합니다.

    이 명령으로 스케줄러 서비스를 다시 시작합니다.

    • Red Hat의 경우: systemctl restart openstack-nova-scheduler.service

    • Ubuntu용(Junos OS 릴리스 17.2R1부터 시작): service nova-scheduler restart

  2. 기본 할당량을 업데이트합니다.
    참고:

    기본값을 권장하지만 환경에 적합한 경우 서로 다른 값을 사용할 수 있습니다. 기본 할당량에 충분한 할당된 리소스가 있는지 확인합니다.

    명령으로 nova quota-defaults 변경 사항을 확인합니다.

  3. 열 패키지가 5.0.1-6 이상인지 확인합니다. 이 패키지는 rhel-7-server-openstack-8-rpms의 일부입니다.

    명령을 사용하여 버전을 확인합니다 rpm -qa | grep heat .

    이 명령으로 열 패키지를 업데이트합니다.

    • Red Hat의 경우: yum update openstack-heat-engine

    • Ubuntu용(Junos OS 릴리스 17.2R1부터 시작): apt-get install heat-engine

  4. lsb(redhat-lsb-core 또는 lsb-release) 및 numactl 패키지가 설치되어 있는지 확인합니다.
    • Red Hat의 경우:

    • Ubuntu용(Junos OS 릴리스 17.2R1부터 시작):

virtio 인터페이스를 위한 컨트롤러 노드 구성

virtio 인터페이스를 구성하려면 다음을 수행합니다.

  1. /etc/neutron/plugins/ml2/ml2_conf.ini 파일에 매개변수를 추가하여 vlan type_drivers VLAN 메커니즘 드라이버를 활성화합니다.
  2. 다음 라인을 추가하여 /etc/neutron/plugins/ml2/ml2_conf.ini 파일에 브리지 매핑을 추가합니다.

    예를 들어, 다음 설정을 사용하여 OVS 브리지 br-vlan에 매핑된 물리적 네트워크 physnet1에 대한 브리지 매핑을 추가합니다.

  3. virtio WAN 네트워크를 위해 만든 neutron 네트워크의 이름인 /etc/neutron/plugins/ml2/ml2_conf.ini 파일 physical-network-name 의 물리적 네트워크에 사용되는 VLAN 범위를 구성합니다.

    예를 들어, 다음 설정을 사용하여 물리적 네트워크 physnet1에 사용되는 VLAN 범위를 구성합니다.

  4. Neutron 서버를 다시 시작합니다.
    • Red Hat의 경우: systemctl restart neutron-server

    • Ubuntu용(Junos OS 릴리스 17.2R1부터 시작): service neutron-server restart

  5. 물리적 네트워크와 virtio 인터페이스(eth2)에 매핑된 OVS 브리지를 추가합니다.

    예를 들어, 다음 명령을 사용하여 OVS 브리지 br-vlan 및 eth2 인터페이스를 추가하십시오.

SR-IOV 인터페이스용 컨트롤러 노드 구성

참고:

두 개 이상의 SR-IOV 인터페이스가 있는 경우, 각 추가 SR-IOV 인터페이스에 대해 하나의 전용 물리적 10G 인터페이스가 필요합니다.

참고:

SRIOV 모드에서는 VLAN 프로바이더 OVS 네트워크에서 virtio 인터페이스를 사용하여 RE(Routing Engine)와 패킷 포워딩 엔진 간의 통신을 활성화합니다. 이 때문에 주어진 물리적 인터페이스는 VirtIO 및 SR-IOV 네트워크의 일부가 될 수 없습니다.

SR-IOV 인터페이스를 구성하려면 다음을 수행합니다.

  1. /etc/neutron/plugins/ml2/ml2_conf.ini 파일을 편집하여 메커니즘 드라이버로 추가하고 물리적 네트워크에 사용되는 VLAN 범위를 추가 sriovnicswitch 합니다.

    예를 들어, 물리적 네트워크 physnet2에 사용되는 VLAN 범위를 구성하려면 다음 설정을 사용합니다.

    SR-IOV 포트를 추가하는 경우 각 물리적 네트워크에 사용되는 VLAN 범위를 추가해야 합니다(쉼표로 구분). 예를 들어, 2개의 SR-IOV 포트를 구성할 때 다음 설정을 사용합니다.

  2. PCI 디바이스에 대한 세부 정보를 추가하기 위해 /etc/neutron/plugins/ml2/ml2_conf_sriov.ini 파일을 편집합니다.
  3. 강조 표시된 대로 Neutron –-config-file /etc/neutron/plugins/ml2/ml2_conf_sriov.ini 서버 파일에 추가합니다.
    • Red Hat의 경우:

      강조 표시된 대로 /usr/lib/systemd/system/neutron-server.service 파일을 편집합니다.

      systemctl restart neutron-server 명령을 사용하여 서비스를 다시 시작합니다.

    • Ubuntu용(Junos OS 릴리스 17.2R1부터 시작):

      강조 표시된 대로 /etc/init/neutron-server.conf 파일을 편집합니다.

      service neutron-server restart 명령을 사용하여 서비스를 다시 시작합니다.

  4. SR-IOV 디바이스의 적절한 스케줄링을 허용하려면 컴퓨팅 스케줄러는 PciPassthroughFilter 필터와 함께 FilterScheduler를 사용해야 합니다.

    PciPassthroughFilter 필터가 컨트롤러 노드의 /etc/nova/nova.conf 파일에 구성되어 있는지 확인합니다.

    스케줄러 서비스를 다시 시작합니다.

    • Red Hat의 경우: systemctl restart openstack-nova-scheduler

    • Ubuntu용(Junos OS 릴리스 17.2R1부터 시작): service nova-scheduler restart

컴퓨팅 노드 준비

vMX를 위한 컴퓨팅 노드 준비

참고:

/etc/nova/nova.conf 파일에 매개 변수를 포함 config_drive_format=vfat 함으로써 더 이상 컴퓨팅 노드를 구성하여 메타데이터를 vMX 인스턴스로 전달할 필요가 없습니다.

컴퓨팅 노드를 준비하려면 다음을 수행합니다.

  1. 부팅 시간 및 재부팅 시 거대한 페이지를 지원하도록 각 컴퓨팅 노드를 구성합니다.
    • Red Hat의 경우: 거대한 페이지 구성을 추가합니다.

      mount | grep boot 명령을 사용하여 부트 디바이스 이름을 결정합니다.

    • Ubuntu의 경우(Junos OS 릴리스 17.2R1부터 시작): 매개 변수 아래에 거대한 페이지 구성을 /etc/default/grubGRUB_CMDLINE_LINUX_DEFAULT 추가합니다.

    재부팅 후 거대한 페이지가 할당되었는지 확인합니다.

    대용량 페이지 수는 VFP용 메모리 양, 대용량 페이지 크기 및 VFP 인스턴스 수에 따라 달라집니다. 거대한 페이지의 수를 계산하려면 : (memory-for-vfp / huge-pages-size) * number-of-vfp

    예를 들어, 12G 메모리와 2M의 거대한 페이지 크기를 사용하여 성능 모드에서 4개의 vMX 인스턴스(4개의 VFP)를 실행하는 경우 수식에 의해 계산된 거대한 페이지 수는(12G/2M)*4 또는 24576입니다.

    참고:

    Junos OS 릴리스 15.1F6에서 시작해 이후 릴리스에서 성능 모드는 기본 운영 모드입니다. 자세한 내용은 Enabling Performance 모드 또는 Lite 모드에서 확인하십시오.

    참고:

    컴퓨팅 노드에 충분한 물리적 메모리가 있는지 확인합니다. 대용량 페이지를 사용하지 않는 다른 애플리케이션은 Huge Pages에 할당된 후 남은 메모리의 양이 제한되기 때문에 대용량 페이지에 할당된 메모리의 양보다 커야 합니다. 예를 들어, 24576 대용량 페이지 및 2M 대용량 페이지 크기를 할당하는 경우, 거대한 페이지에는 24576*2M 또는 48G의 메모리가 필요합니다.

    명령을 사용하고 vmstat -s 전체 메모리와 사용된 메모리 값을 보고 대용량 페이지를 사용하지 않는 다른 애플리케이션에 남은 메모리의 양을 확인할 수 있습니다.

  2. /etc/default/grub 파일에서 IOMMU를 활성화합니다. 매개 변수에 intel_iommu=on 대해 기존 텍스트에 문자열을 GRUB_CMDLINE_LINUX 추가합니다.

    고무 파일을 다시 생성합니다.

    • Red Hat의 경우: grub2-mkconfig -o /boot/grub2/grub.cfg

    • Ubuntu용(Junos OS 릴리스 17.2R1부터 시작): update-grub

    컴퓨팅 노드를 재부팅합니다.

  3. Virtio 네트워크를 위한 브리지를 추가하고 physnet을 구성합니다1:

    예를 들어 OVS 브리지 br-vlan 가 추가됩니다. (이는 컨트롤러의 위 ml2_conf.ini의 bridge_mappings 추가된 것과 동일합니다 br-vlan . virtio 인터페이스용 컨트롤러 노드 구성을 참조하십시오). 이 브리지에 VM 간의 Virtio 통신에 사용할 수 있는 eth2 인터페이스를 추가합니다.

    In/etc/neutron/plugins/ml2/openvswitch_agent.ini, 부록 physnet1:br-vlan 문자열:

    Neutron 서비스를 다시 시작합니다.

    • 레드햇:

      systemctl restart neutron-openvswitch-agent.service

      systemctl restart openstack-nova-compute.service

    • 우분투

      service nova-compute restart

      service neutron-plugin-openvswitch-agent restart

SR-IOV 인터페이스를 위한 컴퓨팅 노드 구성

참고:

두 개 이상의 SR-IOV 인터페이스가 있는 경우, 각 추가 SR-IOV 인터페이스에 대해 하나의 물리적 10G 이더넷 NIC 카드가 필요합니다.

SR-IOV 인터페이스를 구성하려면 다음을 수행합니다.

  1. 수정된 IXGBE 드라이버를 로드합니다.

    드라이버를 컴파일하기 전에 gcc 및 확인이 설치되어 있는지 확인합니다.

    • Red Hat의 경우:

    • Ubuntu용(Junos OS 릴리스 17.2R1부터 시작):

    기본 IXGBE 드라이버를 언로드하고, 수정된 주니퍼 네트웍스 드라이버를 컴파일한 다음, 수정된 IXGBE 드라이버를 로드합니다.

    eth4 인터페이스에서 드라이버 버전을 확인합니다.

    예를 들어, 다음 샘플에서 명령어 버전(3.19.1)을 표시합니다.

  2. 물리적 디바이스에서 가상 기능(VF)을 생성합니다. vMX는 현재 각 SR-IOV 인터페이스(예: eth4)에 대해 단 하나의 VF만 지원합니다.

    각 NIC에서 VF 수를 지정합니다. 다음 줄은 eth2(첫 번째 NIC)를 위한 VF와 eth4용 VF가 1개(SR-IOV 인터페이스가 있는 두 번째 NIC)가 없음을 지정합니다.

    VF가 생성되었는지 확인하기 위해 명령의 ip link show eth4 출력에는 다음 줄이 포함됩니다.

    인터페이스가 가동되고 SR-IOV 트래픽이 통과하도록 하려면 이러한 명령을 실행하여 구성을 완료하십시오.

  3. SR-IOV 에이전트를 설치합니다.
    • Red Hat의 경우: sudo yum install openstack-neutron-sriov-nic-agent

    • Ubuntu용(Junos OS 릴리스 17.2R1부터 시작): sudo apt-get install neutron-plugin-sriov-agent

  4. 다음 라인을 추가하여 /etc/neutron/plugins/ml2/sriov_agent.ini 파일에 물리적 디바이스 매핑을 추가합니다.

    예를 들어, 다음 설정을 사용하여 SR-IOV 인터페이스 eth4에 매핑된 물리적 네트워크 physnet2에 대한 브리지 매핑을 추가합니다.

    SR-IOV 포트를 추가하는 경우 각 물리적 네트워크에 대한 브리지 매핑을 추가해야 합니다(쉼표로 구분). 예를 들어 물리적 네트워크 physnet3에 SR-IOV 인터페이스 eth5를 추가할 때는 다음 설정을 사용합니다.

  5. 강조 표시된 대로 추가 –-config-file /etc/neutron/plugins/ml2/sriov_agent.ini 하도록 SR-IOV 에이전트 서비스 파일을 편집합니다.
    • Red Hat의 경우:

      강조 표시된 대로 /usr/lib/systemd/system/neutron-sriov-nic-agent-service 파일을 편집합니다.

      SR-IOV 에이전트를 활성화하고 시작합니다.

      systemctl status neutron-sriov-nic-agent.service 명령을 사용하여 에이전트가 성공적으로 시작되었는지 확인합니다.

    • Ubuntu용(Junos OS 릴리스 17.2R1부터 시작):

      강조 표시된 대로 /etc/init/neutron-plugin-sriov-agent.conf 파일을 편집합니다.

      /etc/neutron/plugins/ml2/sriov_agent.ini가 올바른 권한을 가지고 있고 neutron이 파일 그룹인지 확인하십시오.

      service neutron-plugin-sriov-agent start 명령을 사용하여 SR-IOV 에이전트를 시작합니다.

      service neutron-plugin-sriov-agent status 명령을 사용하여 에이전트가 성공적으로 시작되었는지 확인합니다.

  6. /etc/nova/nova.conf 파일을 편집하여 SR-IOV 장비에 대한 PCI 패스스루 허용 목록 항목을 추가합니다.

    예를 들어 이 항목은 물리적 네트워크 physnet2에 대한 SR-IOV 인터페이스 eth4에 대한 엔트리를 추가합니다.

    SR-IOV 포트를 더 추가하는 경우 각 SR-IOV 인터페이스에 대한 PCI 패스스루(passthrough) 허용 목록 항목을 추가해야 합니다(쉼표로 구분). 예를 들어 물리적 네트워크 physnet3에 SR-IOV 인터페이스 eth5를 추가할 때는 다음 설정을 사용합니다.

    컴퓨팅 노드 서비스를 다시 시작합니다.

    • Red Hat의 경우: systemctl restart openstack-nova-compute

    • Ubuntu용(Junos OS 릴리스 17.2R1부터 시작): service nova-compute restart

vMX 설치

OpenStack 환경을 준비한 후에는 VCP 및 VFP VM을 위한 nova Flavors 및 Glance 이미지를 생성해야 합니다. 스크립트는 시작 구성 파일에 제공되는 정보를 기반으로 맛과 이미지를 생성합니다.

vMX 구성 파일 설정

vMX 구성에 필요한 매개 변수는 시작 구성 파일에서 정의됩니다.

구성 파일을 설정하려면 다음을 수행합니다.

  1. vMX 페이지에서 vMX KVM 소프트웨어 패키지를 다운로드하고 패키지를 압축 해제합니다.

    tar xvf package-name

  2. 파일 위치로 디렉토리를 변경합니다.

    cd package-location/openstack/scripts

  3. vmx.conf 텍스트 파일을 텍스트 편집기를 사용하여 단일 vMX 인스턴스의 맛을 만듭니다.

    요구 사항에 따라 vMX 구성 파일에 다음과 같은 매개 변수가 올바르게 설정되어 있는지 확인합니다.

    • re-flavor-name

    • pfe-flavor-name

    • vcpus

    • memory-mb

    매개 변수에 대한 정보는 vMX 구성 파일 매개 변수 지정 을 참조하십시오.

    vMX 시작 구성 파일 샘플

    다음은 OpenStack용 vMX 시작 구성 파일입니다.

vMX 구성 파일 매개변수 지정

vMX 구성에 필요한 매개 변수는 시작 구성 파일(스크립트/vmx.conf)에 정의되어 있습니다. 시작 구성 파일은 Flavor를 생성하는 데 사용되는 파일을 생성합니다. 다른 vcpus 매개변수 또는 memory-mb 매개변수를 사용하여 새로운 향을 생성하려면 새 맛을 생성하기 전에 해당 re-flavor-name 또는 pfe-flavor-name 매개변수를 변경해야 합니다.

구성을 사용자 지정하려면 다음 작업을 수행합니다.

호스트 구성

호스트를 구성하려면 HOST 를 탐색하고 다음 매개변수를 지정합니다.

  • virtualization-type—작동 모드, 이어야 openstack합니다.

  • compute—(옵션) 쉼표로 구분된 목록에서 vMX 인스턴스를 실행할 컴퓨팅 노드의 이름입니다. 이 매개 변수가 지정되면 유효한 컴퓨팅 노드여야 합니다. 이 매개 변수가 지정되면 Flavor로 실행되는 vMX 인스턴스는 지정된 컴퓨팅 노드에서만 실행됩니다.

    이 매개 변수가 지정되지 않으면 nova 하이퍼바이저 목록 명령의 출력이 vMX 인스턴스를 실행할 컴퓨팅 노드 목록을 제공합니다.

VCP VM 구성

VCP VM을 구성하려면 Flavor 이름을 제공해야 합니다.

참고:

OpenStack은 동일한 이름의 여러 엔트리를 re-flavor-name 생성할 수 있으므로 매개 변수에 대한 고유 값을 권장합니다.

VCP VM을 구성하려면 CONTROL_PLANE 탐색하고 다음 매개 변수를 지정합니다.

  • re-flavor-name—nova 맛의 이름.

  • vcpus—VCP를 위한 vCPU 개수; 최소 1입니다.

    참고:

    이 값을 변경하면 스크립트를 re-flavor-name 실행하기 전에 값을 변경하여 Flavor를 생성해야 합니다.

  • memory-mb—VCP용 메모리 양; 최소 4GB입니다.

    참고:

    이 값을 변경하면 스크립트를 re-flavor-name 실행하기 전에 값을 변경하여 Flavor를 생성해야 합니다.

VFP VM 구성

VFP VM을 구성하려면 Flavor 이름을 제공해야 합니다. 요구 사항에 따라 메모리와 vCPU 수를 변경할 수 있습니다. 최소 하드웨어 요구 사항은 최소 하드웨어 요구 사항을 참조하십시오.

VFP VM을 구성하려면 FORWARDING_PLANE 탐색하고 다음 매개 변수를 지정합니다.

  • pfe-flavor-name—nova 맛의 이름.

  • memory-mb—VFP용 메모리 양; 최소 12GB(성능 모드)와 4GB(라이트 모드)입니다.

    참고:

    이 값을 변경하면 스크립트를 pfe-flavor-name 실행하기 전에 값을 변경하여 Flavor를 생성해야 합니다.

  • vcpus—VFP를 위한 vCPU 개수; 최소값은 7(성능 모드) 및 3(라이트 모드)입니다.

    참고:

    7개 미만의 vCPU를 지정하면 VFP가 자동으로 라이트 모드로 전환됩니다.

    참고:

    이 값을 변경하면 스크립트를 pfe-flavor-name 실행하기 전에 값을 변경하여 Flavor를 생성해야 합니다.

OpenStack의 맛 생성

VCP 및 VFP에 대한 풍미를 생성하려면 vMX 시작 구성 파일(vmx.conf)에서 스크립트를 실행해야 합니다.

OpenStack의 맛을 만들려면 다음을 수행합니다.

  1. vmx_osp_create_flavor.py 시작 구성 파일을 실행하여 Flavor를 생성하는 파일을 생성 vmx_osp_flavors.sh 합니다.

    ./vmx_osp_create_flavor.py vmx.conf

  2. vmx_osp_flavors.sh 맛을 만들기 위해 실행합니다.

    sh vmx_osp_flavors.sh

VCP 및 VFP용 vMX 이미지 설치

VCP 및 VFP용 vMX OpenStack 개요 이미지를 설치하려면 스크립트를 vmx_osp_images.sh 실행할 수 있습니다. 스크립트는 VCP 이미지를 qcow2 형식으로 추가하고 VFP 파일을 vmdk 형식으로 추가합니다.

VCP 및 VFP 이미지를 설치하려면 다음을 수행합니다.

  1. vMX 페이지에서 vMX KVM 소프트웨어 패키지를 다운로드하고 패키지를 압축 해제합니다.

    tar xvf package-name

  2. 압축되지 않은 vMX 패키지에서 소프트웨어 이미지의 위치를 확인합니다. vMX 패키지 내용을 참조하십시오.

    ls package-location/images

  3. vMX OpenStack 스크립트 파일의 위치로 디렉토리를 변경합니다.

    cd package-location/openstack/scripts

  4. 스크립트를 vmx_osp_images.sh 실행하여 개요 이미지를 설치합니다.

    sh vmx_osp_images.sh vcp-image-name vcp-image-location vfp-image-name vfp-image-location

    참고:

    이 순서대로 매개 변수를 지정해야 합니다.

    • vcp-image-name—개요 이미지의 이름입니다.

    • vcp-image-location—VCP를 시작하기 위한 junos-vmx-x86-64*.qcow2 파일로의 절대 경로.

    • vfp-image-name—개요 이미지의 이름입니다.

    • vfp-image-locationVFP를 시작하기 위한 vFPC-*.img 파일로의 절대 경로.

예를 들어, 이 명령은 /var/tmp/junos-vmx-x86-64-17.1R1.8.qcow2 파일과 VFP 이미지를 /var/tmp/vFPC-201717.img 파일에서 fpc 테스트로 다시 테스트할 때 VCP 이미지를 설치합니다.

sh vmx_osp_images.sh re-test /var/tmp/junos-vmx-x86-64-17.1R1.8.qcow2 fpc-test /var/tmp/vFPC-20170117.img

눈 이미지를 보려면 명령을 사용합니다 glance image-list .

vMX 인스턴스 시작

vMX 인스턴스를 시작하려면 다음 작업을 수행합니다.

초기 Junos OS 구성 수정

vMX 인스턴스를 시작할 때 /openstack/vmx-components/vms/vmx_baseline.conf에 있는package-location Junos OS 구성 파일이 로드됩니다. 이 구성을 변경해야 하는 경우 vMX를 시작하기 전에 이 파일을 변경하십시오.

참고:

자체 vmx_baseline.conf 파일을 만들거나 파일을 이동하는 경우 /openstack/vmx-components/vms/re.yaml이 올바른 경로를 참조하는지 확인해야package-location 합니다.

vMX 인스턴스 실행

vMX 인스턴스를 생성하고 시작하려면 다음을 수행합니다.

  1. 구성을 package-location위해 /openstack/1vmx.env 환경 파일에서 이러한 매개 변수를 수정합니다. 환경 파일은 Junos OS 릴리스 17.4R1에서 시작하는 YAML 형식입니다.
    • net_id1—WAN 포트에 사용되는 기존 중성자 네트워크의 네트워크 ID. neutron net-list 명령을 사용하여 네트워크 ID를 표시합니다.

    • public_network—관리(fxp0) 포트에 사용되는 기존 중성자 네트워크의 네트워크 ID. neutron net-list | grep public 명령을 사용하여 네트워크 ID를 표시합니다.

    • fpc_img—이 매개 변수를 linux-img. VFP의 개요 이미지 이름; vfp-image-name vMX 이미지를 설치하기 위해 스크립트를 실행할 때 지정된 매개 변수와 동일합니다.

    • vfp_image—VFP의 개요 이미지 이름; vfp-image-name vMX 이미지를 설치하기 위해 스크립트를 실행할 때 지정된 매개 변수와 동일합니다(Junos OS 릴리스 17.3R1 이상에 적용 가능).

    • fpc_flav—이 매개 변수를 linux-flav. VFP를 위한 nova의 이름; pfe-flavor-name vMX 구성 파일에 지정된 매개 변수와 동일합니다.

    • vfp_flavor—VFP를 위한 nova의 이름; pfe-flavor-name vMX 구성 파일에 지정된 매개 변수와 동일합니다(Junos OS 릴리스 17.3R1 이상에 적용 가능).

    • junos_flav—VCP를 위한 혁신의 이름; re-flavor-name vMX 구성 파일에 지정된 매개 변수와 동일합니다.

    • vcp_flavor—VCP를 위한 혁신의 이름; re-flavor-name vMX 구성 파일에 지정된 매개 변수와 동일합니다(Junos OS 릴리스 17.3R1 이상에 적용 가능).

    • junos_img—VCP의 개요 이미지 이름; vcp-image-name vMX 이미지를 설치하기 위해 스크립트를 실행할 때 지정된 매개 변수와 동일합니다.

    • vcp_image—VCP의 개요 이미지 이름; vcp-image-name vMX 이미지를 설치하기 위해 스크립트를 실행할 때 지정된 매개 변수와 동일합니다(Junos OS 릴리스 17.3R1 이상에 적용 가능).

    • project_name—모든 프로젝트 이름. 모든 리소스는 이 이름을 Prefix로 사용합니다.

    • gateway_ip—게이트웨이 IP 주소.

  2. 명령으로 vMX 인스턴스를 시작합니다 heat stack-create –f 1vmx.yaml –e 1vmx.env vmx-name .

    이 샘플 구성은 WAN 포트 1개와 FPC 1개와 vMX 인스턴스 1개에서 시작합니다.

  3. vMX 인스턴스가 명령어로 생성되었는지 확인합니다 heat stack-list | grep vmx-name .
  4. VCP 및 VFP VM이 명령어와 함께 nova-list 있는지 확인합니다.
  5. 명령어로 VCP 또는 VFP VM에 nova get-vnc-console nova-id novnc 액세스하며, 여기서 nova-id 명령 출력에 표시되는 인스턴스의 ID입니다 nova-list .
참고:

요청 시스템 중단 명령을 사용하여 호스트 서버를 재부팅하기 전에 vMX 인스턴스를 종료해야 합니다.