Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

OpenStack에 vMX 설치

OpenStack 환경에서 vMX 인스턴스를 설치하는 방법을 이해하려면 이 주제를 읽어보십시오.

vMX 설치를 위한 OpenStack 환경 준비

OpenStack 명령을 실행하기 전에 openstackrc 파일이 소싱되었는지 확인합니다.

vMX를 설치하기 위한 OpenStack 환경을 준비하려면 다음 작업을 수행합니다.

중성자 신경망 만들기

vMX 인스턴스를 시작하기 전에 vMX에서 사용하는 Neutron 네트워크를 생성해야 합니다. 공용 네트워크는 관리(fxp0) 네트워크에 사용되는 neutron 네트워크입니다. WAN 네트워크는 vMX용 WAN 인터페이스가 추가되는 중성자 네트워크입니다.

Neutron 네트워크 이름을 표시하려면 명령을 사용하십시오 neutron net-list .

메모:

OpenStack 구성에서 필요한 네트워크 유형을 식별하고 생성해야 합니다.

공용 네트워크를 만드는 한 가지 방법으로 다음 명령을 사용할 수 있습니다.

  • 예를 들어:

  • virtio의 경우 WAN 네트워크를 생성하는 한 가지 방법으로 다음 명령을 사용할 수 있습니다.

    예를 들어:

  • SR-IOV의 경우 WAN 네트워크를 생성하는 한 가지 방법으로 다음 명령을 사용할 수 있습니다.

    예를 들어:

컨트롤러 노드 준비

vMX를 위한 컨트롤러 노드 준비

컨트롤러 노드를 준비하려면 다음을 수행합니다.

  1. /etc/nova/nova.conf 파일에서 매개변수를 scheduler_default_filters 편집하여 대규모 페이지 및 CPU 선호도를 활성화하도록 컨트롤러 노드를 구성합니다. 다음 필터가 있는지 확인합니다.

    이 명령을 사용하여 스케줄러 서비스를 다시 시작합니다.

    • Red Hat의 경우: systemctl restart openstack-nova-scheduler.service

    • Ubuntu의 경우(Junos OS 릴리스 17.2R1부터): service nova-scheduler restart

  2. 기본 할당량을 업데이트합니다.
    메모:

    이러한 기본값을 사용하는 것이 좋지만 사용자 환경에 적합한 경우 다른 값을 사용할 수 있습니다. 기본 할당량에 할당된 리소스가 충분한지 확인합니다.

    명령을 사용하여 nova quota-defaults 변경 사항을 확인합니다.

  3. 열 패키지가 5.0.1-6 이상인지 확인하십시오. 이 패키지는 rhel-7-server-openstack-8-rpms 의 일부입니다.

    명령을 사용하여 rpm -qa | grep heat 버전을 확인합니다.

    이 명령으로 heat 패키지를 업데이트합니다.

    • Red Hat의 경우: yum update openstack-heat-engine

    • Ubuntu의 경우(Junos OS 릴리스 17.2R1부터): apt-get install heat-engine

  4. lsb(redhat-lsb-core 또는 lsb-release) 및 numactl 패키지가 설치되어 있는지 확인합니다.
    • Red Hat의 경우:

    • Ubuntu의 경우(Junos OS 릴리스 17.2R1부터):

virtio 인터페이스를 위한 컨트롤러 노드 구성

virtio 인터페이스를 구성하려면,

  1. /etc/neutron/plugins/ml2/ml2_conf.ini 파일의 매개변수에 추가하여 vlan type_drivers VLAN 메커니즘 드라이버를 활성화합니다.
  2. 다음 행을 추가하여 /etc/neutron/plugins/ml2/ml2_conf.ini 파일에 브리지 매핑을 추가합니다.

    예를 들어, 다음 설정을 사용하여 OVS 브리지 br-vlan에 매핑된 물리적 네트워크 physnet1에 대한 브리지 매핑을 추가합니다.

  3. /etc/neutron/plugins/ml2/ml2_conf.ini 파일에서 물리적 네트워크에 사용되는 VLAN 범위를 구성합니다. 여기서 physical-network-name 은 virtio WAN 네트워크에 대해 생성한 neutron 네트워크의 이름입니다.

    예를 들어 다음 설정을 사용하여 물리적 네트워크 physnet1에 사용되는 VLAN 범위를 구성합니다.

  4. neutron 서버를 다시 시작합니다.
    • Red Hat의 경우: systemctl restart neutron-server

    • Ubuntu의 경우(Junos OS 릴리스 17.2R1부터): service neutron-server restart

  5. 물리적 네트워크 및 virtio 인터페이스(eth2)에 매핑된 OVS 브리지를 추가합니다.

    예를 들어, 다음 명령을 사용하여 OVS 브리지 br-vlan 및 eth2 인터페이스를 추가합니다.

SR-IOV 인터페이스용 컨트롤러 노드 구성

메모:

SR-IOV 인터페이스가 두 개 이상 있는 경우 각 추가 SR-IOV 인터페이스에 대해 하나의 전용 물리적 10G 인터페이스가 필요합니다.

메모:

SRIOV 모드에서 라우팅 엔진(RE)과 패킷 전달 엔진 간의 통신은 VLAN 공급자 OVS 네트워크에서 virtio 인터페이스를 사용하여 활성화됩니다. 이 때문에 주어진 물리적 인터페이스는 VirtIO 및 SR-IOV 네트워크 모두에 속할 수 없습니다.

SR-IOV 인터페이스를 구성하려면,

  1. /etc/neutron/plugins/ml2/ml2_conf.ini 파일을 편집하여 물리적 네트워크에 사용되는 메커니즘 드라이버 및 VLAN 범위로 추가합니다sriovnicswitch.

    예를 들어, 다음 설정을 사용하여 물리적 네트워크 physnet2에 사용되는 VLAN 범위를 구성합니다.

    SR-IOV 포트를 더 추가하는 경우 각 물리적 네트워크에 사용되는 VLAN 범위(쉼표로 구분)를 추가해야 합니다. 예를 들어 두 개의 SR-IOV 포트를 구성할 때 다음 설정을 사용합니다.

  2. /etc/neutron/plugins/ml2/ml2_conf_sriov.ini 파일을 편집하여 PCI 디바이스에 대한 세부 정보를 추가합니다.
  3. 강조 표시된 as를 –-config-file /etc/neutron/plugins/ml2/ml2_conf_sriov.ini neutron 서버 파일에 추가합니다.
    • Red Hat의 경우:

      강조 표시된 대로 /usr/lib/systemd/system/neutron-server.service 파일을 편집합니다.

      systemctl restart neutron-server 명령을 사용하여 서비스를 다시 시작합니다.

    • Ubuntu의 경우(Junos OS 릴리스 17.2R1부터):

      /etc/init/neutron-server.conf 파일을 강조 표시된 대로 편집합니다.

      service neutron-server restart 명령을 사용하여 서비스를 다시 시작합니다.

  4. SR-IOV 디바이스의 적절한 스케줄링을 허용하려면 컴퓨팅 스케줄러가 PciPassthroughFilter 필터와 함께 FilterScheduler를 사용해야 합니다.

    PciPassthroughFilter 필터가 컨트롤러 노드의 /etc/nova/nova.conf 파일에 구성되어 있는지 확인합니다.

    스케줄러 서비스를 다시 시작합니다.

    • Red Hat의 경우: systemctl restart openstack-nova-scheduler

    • Ubuntu의 경우(Junos OS 릴리스 17.2R1부터): service nova-scheduler restart

컴퓨팅 노드 준비

vMX를 위한 컴퓨팅 노드 준비

메모:

더 이상 /etc/nova/nova.conf 파일에 매개 변수를 포함하여 vMX 인스턴스에 메타데이터를 config_drive_format=vfat 전달하도록 컴퓨팅 노드를 구성할 필요가 없습니다.

컴퓨팅 노드를 준비하려면 다음을 수행합니다.

  1. 부팅 시 대규모 페이지를 지원하고 재부팅할 수 있도록 각 컴퓨팅 노드를 구성합니다.
    • Red Hat의 경우: Huge Pages 구성을 추가합니다.

      mount | grep boot 명령을 사용하여 부팅 장치 이름을 확인합니다.

    • Ubuntu의 경우(Junos OS 릴리스 17.2R1부터): 매개 변수 아래의 GRUB_CMDLINE_LINUX_DEFAULT /etc/default/grub에 Huge Pages 구성을 추가합니다.

    재부팅 후 대규모 페이지가 할당되었는지 확인합니다.

    대규모 페이지 수는 VFP의 메모리 양, 대규모 페이지 크기 및 VFP 인스턴스 수에 따라 달라집니다. 대규모 페이지 수를 계산하려면: (memory-for-vfp / huge-pages-size) * number-of-vfp

    예를 들어, 12G의 메모리와 2M의 대규모 페이지 크기를 사용하는 성능 모드에서 4개의 vMX 인스턴스(4개의 VFP)를 실행하는 경우 공식으로 계산된 대규모 페이지 수는 (12G/2M)*4 또는 24576입니다.

    메모:

    Junos OS 릴리스 15.1F6 이상부터는 성능 모드가 기본 운영 모드입니다. 자세한 내용은 성능 모드 또는 라이트 모드 활성화를 참조하십시오.

    메모:

    컴퓨팅 노드에 충분한 실제 메모리가 있는지 확인합니다. Huge Pages를 사용하지 않는 다른 애플리케이션은 Huge Pages에 할당된 후 남아 있는 메모리 양에 의해 제한되기 때문에 Huge Pages에 할당된 메모리 양보다 커야 합니다. 예를 들어 24576개의 대규모 페이지와 2M 대규모 페이지 크기를 할당하는 경우 대규모 페이지에 24576*2M 또는 48G의 메모리가 필요합니다.

    명령을 사용하고 vmstat -s 총 메모리 및 사용된 메모리 값을 확인하여 대규모 페이지를 사용하지 않는 다른 애플리케이션에 남아 있는 메모리 양을 확인할 수 있습니다.

  2. /etc/default/grub 파일에서 IOMMU를 활성화합니다. 매개 변수에 intel_iommu=on 대한 기존 텍스트에 문자열을 GRUB_CMDLINE_LINUX 추가합니다.

    grub 파일을 다시 생성합니다.

    • Red Hat의 경우: grub2-mkconfig -o /boot/grub2/grub.cfg

    • Ubuntu의 경우(Junos OS 릴리스 17.2R1부터): update-grub

    컴퓨팅 노드를 재부팅합니다.

  3. Virtio 네트워크에 대한 브리지를 추가하고 physnet1을 구성합니다.

    예를 들어, OVS 브리지가 br-vlan 추가됩니다. (이것은 컨트롤러에서 위의 ml2_conf.ini bridge_mappings에 추가 된 것과 동일합니다 br-vlan . 이 브리지에 VM 간의 Virtio 통신에 사용할 수 있는 eth2 인터페이스를 추가합니다.

    /etc/neutron/plugins/ml2/openvswitch_agent.ini에서 문자열을 추가합니다 physnet1:br-vlan .

    neutron 서비스를 다시 시작합니다.

    • 레드햇:

      systemctl restart neutron-openvswitch-agent.service

      systemctl restart openstack-nova-compute.service

    • 우분투

      service nova-compute restart

      service neutron-plugin-openvswitch-agent restart

SR-IOV 인터페이스에 대한 컴퓨팅 노드 구성

메모:

SR-IOV 인터페이스가 두 개 이상 있는 경우 각 추가 SR-IOV 인터페이스에 대해 하나의 물리적 10G 이더넷 NIC 카드가 필요합니다.

SR-IOV 인터페이스를 구성하려면,

  1. 수정된 IXGBE 드라이버를 로드합니다.

    드라이버를 컴파일하기 전에 gcc 및 make가 설치되어 있는지 확인하십시오.

    • Red Hat의 경우:

    • Ubuntu의 경우(Junos OS 릴리스 17.2R1부터):

    기본 IXGBE 드라이버를 언로드하고, 수정된 주니퍼 네트웍스 드라이버를 컴파일하고, 수정된 IXGBE 드라이버를 로드합니다.

    eth4 인터페이스에서 드라이버 버전을 확인합니다.

    예를 들어 다음 샘플에서 명령은 드라이버 버전(3.19.1)을 표시합니다.

  2. 물리적 디바이스에서 가상 기능(VF)을 생성합니다. vMX는 현재 각 SR-IOV 인터페이스(예: eth4)에 대해 하나의 VF만 지원합니다.

    각 NIC의 VF 수를 지정합니다. 다음 줄에서는 eth2(첫 번째 NIC)에 대한 VF가 없고 eth4(SR-IOV 인터페이스가 있는 두 번째 NIC)에 대한 VF가 하나임을 지정합니다.

    VF가 생성되었는지 확인하기 위해 명령의 ip link show eth4 출력에는 다음 줄이 포함됩니다.

    인터페이스가 작동 중이고 SR-IOV 트래픽이 인터페이스를 통과할 수 있는지 확인하려면 다음 명령을 실행하여 구성을 완료합니다.

  3. SR-IOV 에이전트를 설치합니다.
    • Red Hat의 경우: sudo yum install openstack-neutron-sriov-nic-agent

    • Ubuntu의 경우(Junos OS 릴리스 17.2R1부터): sudo apt-get install neutron-plugin-sriov-agent

  4. 다음 행을 추가하여 물리적 디바이스 매핑을 /etc/neutron/plugins/ml2/sriov_agent.ini 파일에 추가합니다.

    예를 들어, 다음 설정을 사용하여 SR-IOV 인터페이스 eth4에 매핑된 물리적 네트워크 physnet2에 대한 브리지 매핑을 추가합니다.

    SR-IOV 포트를 더 추가하는 경우 각 물리적 네트워크에 대한 브리지 매핑을 쉼표로 구분하여 추가해야 합니다. 예를 들어, 물리적 네트워크 physnet3에 대해 SR-IOV 인터페이스 eth5를 추가할 때 다음 설정을 사용합니다.

  5. SR-IOV 에이전트 서비스 파일을 편집하여 강조 표시로 추가합니다 –-config-file /etc/neutron/plugins/ml2/sriov_agent.ini .
    • Red Hat의 경우:

      강조 표시된 대로 /usr/lib/systemd/system/neutron-sriov-nic-agent.service 파일을 편집합니다.

      SR-IOV 에이전트를 활성화하고 시작합니다.

      systemctl status neutron-sriov-nic-agent.service 명령을 사용하여 에이전트가 성공적으로 시작되었는지 확인합니다.

    • Ubuntu의 경우(Junos OS 릴리스 17.2R1부터):

      강조 표시된 대로 /etc/init/neutron-plugin-sriov-agent.conf 파일을 편집합니다.

      /etc/neutron/plugins/ml2/sriov_agent.ini에 올바른 권한이 있고 neutron이 파일 그룹인지 확인합니다.

      service neutron-plugin-sriov-agent start 명령을 사용하여 SR-IOV 에이전트를 시작합니다.

      service neutron-plugin-sriov-agent status 명령을 사용하여 에이전트가 성공적으로 시작되었는지 확인합니다.

  6. /etc/nova/nova.conf 파일을 편집하여 SR-IOV 장치에 대한 PCI 패스스루 허용 목록 항목을 추가합니다.

    예를 들어, 이 항목은 물리적 네트워크 physnet2에 대한 SR-IOV 인터페이스 eth4에 대한 항목을 추가합니다.

    SR-IOV 포트를 더 추가하는 경우 각 SR-IOV 인터페이스에 대한 PCI 패스스루 허용 목록 항목(쉼표로 구분)을 추가해야 합니다. 예를 들어, 물리적 네트워크 physnet3에 대해 SR-IOV 인터페이스 eth5를 추가할 때 다음 설정을 사용합니다.

    계산 노드 서비스를 다시 시작합니다.

    • Red Hat의 경우: systemctl restart openstack-nova-compute

    • Ubuntu의 경우(Junos OS 릴리스 17.2R1부터): service nova-compute restart

vMX 설치

OpenStack 환경을 준비한 후 VCP 및 VFP VM에 대한 nova 플레이버 및 glance 이미지를 생성해야 합니다. 스크립트는 시작 구성 파일에 제공된 정보를 기반으로 플레이버와 이미지를 생성합니다.

vMX 구성 파일 설정

vMX를 구성하는 데 필요한 매개 변수는 시작 구성 파일에 정의되어 있습니다.

구성 파일을 설정하려면:

  1. vMX 페이지에서 vMX KVM 소프트웨어 패키지를 다운로드하고 압축을 풉니다.

    tar xvf package-name

  2. 디렉터리를 파일 위치로 변경합니다.

    cd package-location/openstack/scripts

  3. 텍스트 편집기로 vmx.conf 텍스트 파일을 편집하여 단일 vMX 인스턴스에 대한 플레이버를 생성합니다.

    요구 사항에 따라 vMX 구성 파일에서 다음 매개 변수가 올바르게 설정되었는지 확인합니다.

    • re-flavor-name

    • pfe-flavor-name

    • vcpus

    • memory-mb

    매개 변수에 대한 자세한 vMX 구성 파일 매개 변수 지정 을 참조하십시오.

    샘플 vMX 시작 구성 파일

    다음은 OpenStack에 대한 vMX 시작 구성 파일 샘플입니다.

vMX 구성 파일 매개 변수 지정

vMX를 구성하는 데 필요한 매개 변수는 시작 구성 파일(scripts/vmx.conf)에 정의되어 있습니다. 시작 구성 파일은 플레이버를 만드는 데 사용되는 파일을 생성합니다. 다른 vcpus or memory-mb 파라미터를 사용하여 새 플레이버를 생성하려면 새 플레이버를 생성하기 전에 해당 re-flavor-name or pfe-flavor-name 파라미터를 변경해야 합니다.

구성을 사용자 정의하려면 다음 작업을 수행합니다.

호스트 구성

호스트를 구성하려면 HOST 로 이동하여 다음 매개 변수를 지정합니다.

  • virtualization-type—작동 모드; 이어야 openstack합니다.

  • compute—(옵션) 쉼표로 구분된 목록에서 vMX 인스턴스를 실행할 컴퓨팅 노드의 이름입니다. 이 매개 변수를 지정하면 유효한 계산 노드여야 합니다. 이 매개 변수를 지정하면 플레이버로 시작된 vMX 인스턴스는 지정된 컴퓨팅 노드에서만 실행됩니다.

    이 매개 변수를 지정하지 않으면 nova hypervisor-list 명령의 출력이 vMX 인스턴스를 실행할 컴퓨팅 노드 목록을 제공합니다.

VCP VM 구성

VCP VM을 구성하려면 플레이버 이름을 제공해야 합니다.

메모:

OpenStack은 동일한 이름으로 여러 항목을 생성할 수 있으므로 매개변수에 re-flavor-name 고유한 값을 사용하는 것이 좋습니다.

VCP VM을 구성하려면 CONTROL_PLANE 로 이동하여 다음 매개 변수를 지정합니다.

  • re-flavor-name- 신성 플레이버의 이름입니다.

  • vcpus- VCP의 vCPU 수입니다. 최솟값은 1입니다.

    메모:

    이 값을 변경하는 경우 플레이버를 생성하기 위해 스크립트를 실행하기 전에 값을 변경 re-flavor-name 해야 합니다.

  • memory-mb- VCP의 메모리 양; 최솟값은 4GB입니다.

    메모:

    이 값을 변경하는 경우 플레이버를 생성하기 위해 스크립트를 실행하기 전에 값을 변경 re-flavor-name 해야 합니다.

VFP VM 구성

VFP VM을 구성하려면 플레이버 이름을 제공해야 합니다. 요구 사항에 따라 메모리 및 vCPU 수를 변경할 수 있습니다. 최소 하드웨어 요구 사항은 최소 하드웨어 요구 사항을 참조하십시오.

VFP VM을 구성하려면 FORWARDING_PLANE 로 이동하여 다음 매개 변수를 지정합니다.

  • pfe-flavor-name- 신성 플레이버의 이름입니다.

  • memory-mb- VFP의 메모리 양; 최솟값은 12GB(성능 모드) 및 4GB(라이트 모드)입니다.

    메모:

    이 값을 변경하는 경우 플레이버를 생성하기 위해 스크립트를 실행하기 전에 값을 변경 pfe-flavor-name 해야 합니다.

  • vcpus- VFP의 vCPU 수입니다. 최소값은 7(성능 모드) 및 3(라이트 모드)입니다.

    메모:

    vCPU를 7개 미만으로 지정하면 VFP가 자동으로 라이트 모드로 전환됩니다.

    메모:

    이 값을 변경하는 경우 플레이버를 생성하기 위해 스크립트를 실행하기 전에 값을 변경 pfe-flavor-name 해야 합니다.

OpenStack 플레이버 생성

VCP 및 VFP에 대한 플레이버를 생성하려면 vMX 시작 구성 파일(vmx.conf)에서 스크립트를 실행해야 합니다.

OpenStack 플레이버를 생성하려면 다음을 수행합니다.

  1. 시작 구성 파일과 함께 을(를 vmx_osp_create_flavor.py ) 실행하여 플레이버를 생성하는 파일을 생성합니다 vmx_osp_flavors.sh .

    ./vmx_osp_create_flavor.py vmx.conf

  2. 을(를) vmx_osp_flavors.sh 실행하여 플레이버를 생성합니다.

    sh vmx_osp_flavors.sh

VCP 및 VFP용 vMX 이미지 설치

VCP 및 VFP용 vMX OpenStack Glance 이미지를 설치하기 위해 스크립트를 실행할 vmx_osp_images.sh 수 있습니다. 이 스크립트는 qcow2 형식의 VCP 이미지와 vmdk 형식의 VFP 파일을 추가합니다.

VCP 및 VFP 이미지를 설치하려면 다음을 수행합니다.

  1. vMX 페이지에서 vMX KVM 소프트웨어 패키지를 다운로드하고 압축을 풉니다.

    tar xvf package-name

  2. 압축되지 않은 vMX 패키지에서 소프트웨어 이미지의 위치를 확인합니다. vMX 패키지 내용을 참조하십시오.

    ls package-location/images

  3. 디렉터리를 vMX OpenStack 스크립트 파일의 위치로 변경합니다.

    cd package-location/openstack/scripts

  4. vmx_osp_images.sh 스크립트를 실행하여 간략 이미지를 설치합니다.

    sh vmx_osp_images.sh vcp-image-name vcp-image-location vfp-image-name vfp-image-location

    메모:

    이 순서대로 매개 변수를 지정해야 합니다.

    • vcp-image-name- 한눈에 보기 이미지의 이름입니다.

    • vcp-image-location- VCP 실행을 위한 junos-vmx-x86-64*.qcow2 파일의 절대 경로입니다.

    • vfp-image-name- 한눈에 보기 이미지의 이름입니다.

    • vfp-image-location- VFP를 시작하기 위한 vFPC-*.img 파일의 절대 경로입니다.

예를 들어, 이 명령은 VCP 이미지를 /var/tmp/junos-vmx-x86-64-17.1R1.8.qcow2 파일에서 re-test로 설치하고 VFP 이미지를 /var/tmp/vFPC-20170117.img 파일에서 fpc-test로 설치합니다.

sh vmx_osp_images.sh re-test /var/tmp/junos-vmx-x86-64-17.1R1.8.qcow2 fpc-test /var/tmp/vFPC-20170117.img

한눈에 보는 이미지를 보려면 명령을 사용합니다 glance image-list .

vMX 인스턴스 시작

vMX 인스턴스를 시작하려면 다음 작업을 수행합니다.

초기 Junos OS 구성 수정

vMX 인스턴스를 시작하면 /openstack/vmx-components/vms/vmx_baseline.conf에package-location 있는 Junos OS 구성 파일이 로드됩니다. 이 구성을 변경해야 하는 경우 vMX를 시작하기 전에 이 파일을 변경합니다.

메모:

자체 vmx_baseline.conf 파일을 생성하거나 파일을 이동하는 경우 /openstack/vmx-components/vms/re.yaml 이package-location 올바른 경로를 참조하는지 확인합니다.

vMX 인스턴스 시작

vMX 인스턴스를 생성하고 시작하려면,

  1. 구성에 대한 /openstack/1vmx.env 환경 파일에서 이러한 매개변수를package-location 수정합니다. 환경 파일은 Junos OS 릴리스 17.4R1부터 YAML 형식입니다.
    • net_id1- WAN 포트에 사용되는 기존 neutron 네트워크의 네트워크 ID입니다. neutron net-list 명령을 사용하여 네트워크 ID를 표시합니다.

    • public_network- 관리(fxp0) 포트에 사용된 기존 neutron 네트워크의 네트워크 ID입니다. neutron net-list | grep public 명령을 사용하여 네트워크 ID를 표시합니다.

    • fpc_img- 이 매개 변수를 로 linux-img변경합니다. VFP에 대한 간략 이미지의 이름입니다. vfp-image-name vMX 이미지를 설치하기 위해 스크립트를 실행할 때 지정한 매개 변수와 동일합니다.

    • vfp_image- VFP에 대한 간략 이미지의 이름입니다. vMX 이미지를 설치하기 위해 스크립트를 실행할 때 지정된 매개 변수와 vfp-image-name 동일합니다(Junos OS 릴리스 17.3R1 이전 버전에 적용 가능).

    • fpc_flav- 이 매개 변수를 로 linux-flav변경합니다. VFP에 대한 nova 플레이버의 이름입니다. vMX 구성 파일에 지정된 매개 변수와 pfe-flavor-name 동일합니다.

    • vfp_flavor- VFP의 nova 플레이버 이름; vMX 구성 파일에 지정된 매개 변수와 pfe-flavor-name 동일합니다(Junos OS 릴리스 17.3R1 이전 버전에 적용 가능).

    • junos_flav—VCP의 nova 플레이버 이름; vMX 구성 파일에 지정된 매개 변수와 re-flavor-name 동일합니다.

    • vcp_flavor—VCP의 nova 플레이버 이름; vMX 구성 파일에 지정된 매개 변수와 re-flavor-name 동일합니다(Junos OS 릴리스 17.3R1 이전 버전에 적용 가능).

    • junos_img- VCP의 한눈에 보기 이미지 이름 vcp-image-name vMX 이미지를 설치하기 위해 스크립트를 실행할 때 지정한 매개 변수와 동일합니다.

    • vcp_image- VCP의 한눈에 보기 이미지 이름 vMX 이미지를 설치하기 위해 스크립트를 실행할 때 지정된 매개 변수와 vcp-image-name 동일합니다(Junos OS 릴리스 17.3R1 및 이전 버전에 적용 가능).

    • project_name- 모든 프로젝트 이름 모든 리소스는 이 이름을 접두사로 사용합니다.

    • gateway_ip—게이트웨이 IP 주소.

  2. 명령으로 heat stack-create –f 1vmx.yaml –e 1vmx.env vmx-name vMX 인스턴스를 시작합니다.

    이 샘플 구성은 WAN 포트 1개와 FPC 1개로 단일 vMX 인스턴스를 시작합니다.

  3. 명령으로 heat stack-list | grep vmx-name vMX 인스턴스가 생성되었는지 확인합니다.
  4. 명령과 함께 VCP 및 VFP VM이 nova-list 있는지 확인합니다.
  5. 명령을 사용하여 nova get-vnc-console nova-id novnc VCP 또는 VFP VM에 액세스합니다. 여기서 nova-id 은 명령 출력에 표시되는 인스턴스의 ID입니다 nova-list .
메모:

명령을 사용하여 호스트 서버를 재부팅하기 전에 vMX 인스턴스를 request system halt 종료해야 합니다.