Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Установка вложенных vMX VM

Вложенная виртуальная машина – это виртуальный компьютер, содержащийся в другом VM. Прочитайте эту тему, чтобы понять, как запустить vMX VM на KVM.

Обзор модели вложенных VM

Вложенная vMX виртуальной машины (VM) имеет виртуальный виртуальный плоскость управления (VCP), работающий как VM на виртуальной плоскости переадстройки (VFP) VM. VFP VM управляет программным обеспечением виртуальной плоскости forwarding Trio, а VCP VM Junos OS. VCP VM и VFP VM требуют соединения уровня 2 для связи друг с другом. Этот канал связи включает внутренний мост, локальный для сервера для vMX экземпляра. VCP VM и VFP VM также требуют подключения уровня 2 для связи с портом управления Ethernet на сервере. Необходимо указать виртуальные интерфейсы Ethernet с уникальными IP-адресами и MAC-адресами для VFP и VCP, чтобы настроить внешний мост для vMX экземпляра. Трафик управления Ethernet для всех vMX экземпляров входит на сервер через порт управления Ethernet.

Вложенный vMX VM поддерживает интерфейсы virtio и SR-IOV для портов переадревания. Первый интерфейс используется для управления и должен быть интерфейсом virtio, подключенным к мосту br-ext (внешнему мосту). Последующие интерфейсы являются интерфейсами WAN и могут быть интерфейсами virtio или SR-IOV. Необходимо создать мосты для всех интерфейсов virtio. Для переадад эха необходимо иметь хотя бы один интерфейс WAN.

Вложенный VM с интерфейсами Virtio

В режиме virtio серверные интерфейсы не должны настраиваться с помощью VF. С помощью этой команды можно удалить или сбросить интерфейсы. Можно добавить к серверу драйвер eth1 IXGBE с интерфейсом по rmmod ixgbe modprobe ixgbe умолчанию.

На рис. 1 показано, как vMX VM с интерфейсами virtio.

Рис. 1. Вложенный VM с интерфейсами virtio Nested VM with virtio Interfaces

Вложенный VM с интерфейсами SR-IOV

В режиме SR-IOV интерфейсы vMX интерфейсами серверов. Например, ge-0/0/0 интерфейс связан с . eth1 eth1 определяется в .conf file- interface: ge-0/0/0 ,nic: eth1 .

VF добавляется к драйверу IXGBE интерфейса сервера, связанного с VF, и его можно проверить с помощью команды во время работы в режиме eth1 ip link show eth1 SR-IOV.

На рис. 2 вложенная vMX VM с интерфейсами SR-IOV.

Рис. 2. Вложенный VM с интерфейсами SR-IOV Nested VM with SR-IOV Interfaces

Для интерфейсов SR-IOV необходимо загрузить измененный драйвер IXGBE перед запуском vMX VM.

Способ передачи сетевого трафика от физического NIC виртуальному NIC зависит от конфигурируемых методов виртуализации.

Системные требования для вложенной модели VM

vMX может быть настроен для работы в двух режимах в зависимости от случая использования:

  • Lite mode — требуется меньше ресурсов CPU и памяти для работы с меньшей полосой пропускания.

  • Режим производительности — для работы с более высокой полосой пропускания ресурсы CPU и памяти должны быть выше.

    Примечание.

    Режим производительности является режимом по умолчанию.

vMX ограничения вложенной модели VM

vMX VM не поддерживает следующие функции:

  • Присоединение или отключение интерфейсов во vMX запущенного экземпляра

  • Обновление Junos OS версии

Требования к оборудованию и программному обеспечению для vMX VM

В таблице 1 перечислены требования к оборудованию.

Таблица 1. Минимальные требования к оборудованию для vMX VM

Описание

Значение

Пример конфигурации системы

Для virtio: любой процессор x86 (Intel или AMD) с возможностью VT-d.

Для SR-IOV: процессоры PCI-Express на базе Intel 82599 (10 Гбит/с) и процессоры моста Ivy.

Количество ядер

Примечание.

Режим производительности является режимом по умолчанию, минимальное значение зависит от одного порта.

  • Для режима lite: не менее 4 vCPUs

    Примечание.

    Если вы хотите использовать режим lite, если для VFP используется более 4 VCP, необходимо явно настроить режим lite.

  • В режиме производительности: не менее 8 VCP

    Примечание.

    Чтобы вычислить рекомендуемое количество VCP, необходимое VFP для режима производительности:

    (3* number-of-forwarding-ports ) + 4

Памяти

  • Для режима lite: не менее 3 Гбайт

  • Для режима производительности:

    • Не менее 5 Гбайт

    • Рекомендуется: 16 Гбайт

В таблице 2 перечислены требования к программному обеспечению.

Таблица 2. Требования к программному обеспечению для Ubuntu

Описание

Значение

Операционная система

Ubuntu 14.04.1 LTS

Универсальный Linux 3.19.0-80

Виртуализации

QEMU-KVM 2.0.0+dfsg-2ubuntu1.11

Необходимые пакеты

Примечание.

Для удовлетворения всех зависимостей могут потребоваться другие дополнительные пакеты.

bridge-utils qemu-kvm libvirt-bin virtinst

Примечание.

libvirt 1.2.19

Установка и запуск вложенного vMX VM на KVM

Чтобы запустить вложенный vMX VM на KVM, выполните эти задачи.

Подготовка хоста Ubuntu к установке вложенного vMX VM

Подготовка системы хоста Ubuntu к установке vMX:

  1. Отвечайте требованиям к программному обеспечению и ОС, описанным в требованиях к оборудованию и программному обеспечению для vMX VM.
  2. В включить Intel VT-d в BIOS. (Мы рекомендуем проверить процесс с поставщиком, так как в разных системах есть разные методы, чтобы включить VT-d.)

    См. эту процедуру для того, чтобы включить VT-d на веб-сайте Intel.

  3. Отключите KSM, установив KSM_ENABLED=0 в /etc/default/qemu-kvm.
  4. Отключает виртуализацию APIC путем редактирования файла /etc/modprobe.d/qemu-system-x86.conf и добавления в строку, содержащую. enable_apicv=0 options kvm_intel

    options kvm_intel nested=1 enable_apicv=0

  5. Перезапустите хост, чтобы отключить KSM и виртуализацию APIC.
  6. Этот шаг необходимо выполнить при использовании SR-IOV.
    Примечание.

    Необходимо удалить предыдущую установку с внешним мостом в/т.д./сети/интерфейсах и вернуться к использованию исходного интерфейса управления. Прежде чем приступить к установке, убедитесь, что ifconfig -a команда не показывает внешние мосты.

    Чтобы определить, отображается ли внешний мост, используйте эту команду для ifconfig отображения интерфейса управления. Чтобы подтвердить, что этот интерфейс используется для группы внешних мостов, используйте эту команду, чтобы увидеть, указан ли интерфейс управления в списке brctl show как внешний мост.

    Включив функцию SR-IOV, включив intel_iommu=on каталог /etc/default//..

    GRUB_CMDLINE_LINUX_DEFAULT="intel_iommu=on"

    intel_iommu=onПривяжаем строку к любому существующему тексту для GRUB_CMDLINE_LINUX_DEFAULT параметра.

  7. Для оптимальной производительности рекомендуется настроить размер больших страниц в 1G на узле и убедиться, что узел NUMA для VFP имеет по крайней мере 16 больших страниц 1G. Чтобы настроить размер больших страниц, добавьте следующую строку в /и т.д., по умолчанию/в строке:

    GRUB_CMDLINE_LINUX="default_hugepagesz=1G hugepagesz=1G hugepages=number-of-huge-pages"

    Количество больших страниц должно быть не менее (16G* number-of-numa-sockets ).

  8. Запустите update-grub команду, а затем reboot команду.
  9. Запустите modprobe kvm-intel команду перед установкой vMX.

Загрузка измененного драйвера IXGBE

При использовании SR-IOV-интерфейсов необходимо загрузить измененный драйвер IXGBE перед запуском vMX VM. Для загрузки измененного драйвера IXGBE:

  1. Загрузите vMX KVM и разгрузите его.
  2. Перед компилятором драйвера убедитесь, что установлены gcc и make.
  3. Выгрузите драйвер IXGBE по умолчанию, составить измененный Juniper Networks драйвер и загрузить измененный драйвер IXGBE.
  4. Проверьте версию драйвера (3.19.1) на интерфейсах SR-IOV.

Запуск вложенного vMX экземпляра

Для запуска вложенных vMX экземпляра:

  1. Загрузите пакет vMX Nested.
  2. Преобразуем vmdk образ в qcow2 формат.
  3. Создайте мосты для интерфейсов virtio.
    Примечание.

    При создании моста с помощью brctl addbr <bridge-name> этой команды соединение может быть разодуто на сервере. Также можно использовать команду vMX в незанесенном режиме (в режиме SRIOV или virtio) и использовать команды и для создания и сохранения virsh destroy vcp vcp-name virsh destroy vfp vfp-name моста.

    Примечание.

    Необходимо создать мосты для интерфейсов virtio, прежде чем запускать vMX экземпляра.

  4. Запустите вложенный vMX VM с помощью virt-install команды. Пример:

    Где:

    • --vcpus—Указывает количество vCPUs.

      Для режима lite минимальное количество - 4 vCPUs. В режиме производительности минимальное количество [(4* number-of-forwarding-ports ) + 4] vCPUs.

    • -r-Указывает объем памяти, которую использует VM в МБ. Не менее 16 Гбайт.

    • --serial—Указывает последовательный порт для VFP.

    • -w—Указывает интерфейс virtio. Первый интерфейс используется для управления и подключен к мосту br-ext. Последующие интерфейсы являются интерфейсами WAN и подключены к мостам хоста.

    • --host-device-Определяет интерфейс SR-IOV в качестве PCI ID виртуальной функции (VF0).

      Чтобы определить ID PCI:

      1. Используйте эту команду для получения имен интерфейсов, для которых создаются ip link VF, связанные с экземпляром vMX экземпляра.

      2. С помощью ethtool -i interface-name утилиты определите информацию о шине PCI.

      3. Используйте эту virsh nodedev-list команду для получения ID VF PCI.

    • -n-Указывается имя vMX VM.

    • --disk-Указывает путь к файлу qcow2 (vmx-nested-.qcow2). release

Например, эта команда запускает экземпляр vMX производительности с двумя интерфейсами virtio, подключенными к мостам vnet0 и vnet1:

Например, эта команда запускает экземпляр vMX производительности с двумя SR-IOV интерфейсами:

Подключение к порту консоли VFP

После запуска vMX экземпляра с помощью этой команды можно подключиться к порту консоли VFP от хоста с помощью команды, где указан порт, указанный в virt-install telnet localhost serial-port serial-port host -serial параметре.

Например:

Войдите в систему, вменив имя пользователя jnpr и пароль по jnpr123 умолчанию. Стать корневым с помощью sudo -i этой команды.

Интерфейс br-ext пытается получить IP-адрес с помощью DHCP. Для отображения ifconfig br-ext назначенного IP-адреса используйте эту команду. Если DHCP недоступен или если вы предпочитаете статический IP-адрес, назначьте IP-адрес br-ext . Теперь можно подключиться к VFP с помощью протокола SSH и присвоенного IP-адреса.

Подключение к VCP

При запуске VCP VM можно подключиться к порту консоли VCP в TCP-порту 8601 с помощью VFP VM с помощью данной команды:

Из порта консоли можно входить в систему, неся имя пользователя root и пароль.

Как минимум, после входа в систему VCP Junos OS задачи начальной конфигурации:

  1. Запустите интерфейс командной строки.
  2. Перейдите в режим настройки.
  3. Настройте пароль корневого пользователя.
  4. Настройте IP-адрес и длину префикса для интерфейса Ethernet управления маршрутизатором.
  5. Сфиксировать конфигурацию.