Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

ネストされた仮想マシンvMXのインストール

ネストされた仮想マシンは、別のVM内に含まれる仮想マシンです。このトピックを読んで、KVM 上でネストされた仮想マシンvMXする方法を理解してください。

ネスト型VMモデルの概要

ネストされた仮想vMX VM(仮想マシン)モデルには、仮想転送プレーン(VFP)VM 内で VM として稼働する仮想 コントロール プレーン(VCP)があります。VFP VM は仮想 Trio 転送プレーン ソフトウェアを実行し、VCP VM は仮想Junos OS。VCP VM と VFP VM は、相互に通信するためにレイヤー 2 接続が必要です。サーバーのインスタンスごとにサーバーにローカルである内部ブリッジvMX、この通信が可能になります。VCP VM と VFP VM は、サーバーのイーサネット管理ポートと通信するためにレイヤー 2 接続も必要です。仮想イーサネット インスタンスに外部ブリッジを設定するには、VFPとVCPの両方に固有のIPアドレスとMACアドレスを持つ仮想イーサネット インターフェイスvMX必要があります。すべてのインスタンスのイーサネット管理vMXイーサネット管理ポートを通じてサーバーに入り込む。

VMのネストvMX、転送ポート用の virtio および SR-IOV インターフェイスをサポートします。最初のインターフェイスは管理用に使用され、br-extブリッジ(外部ブリッジ)に接続された virtio インターフェイスである必要があります。その後のインターフェイスは WAN インターフェイスであり、virtio または SR-IOV インターフェイスとして使用できます。すべての virtio インターフェイス用のブリッジを作成する必要があります。転送には 1 つ以上の WAN インターフェイスが必要です。

Virtioインターフェイスを使用したネスト型VM

virtioモードでは、サーバー インターフェイスをVFで設定する必要があります。コマンドを使用してインターフェイス( )を削除またはリセットできます。コマンドを使用して、デフォルト インターフェイスを持つIXGBEドライバーをサーバー インターフェイス eth1 rmmod ixgbe に追加 modprobe ixgbe できます。

図1は、virtio インターフェイスをvMXされたVMモデルのネスト型モデルを示しています。

図 1:virtioインターフェイスを使用したネスト型 VM Nested VM with virtio Interfaces

SR-IOV インターフェイスを使用したネスト型 VM

SR-IOVモードでは、インターフェイスのvMXがサーバー インターフェイスに関連付けられる。たとえば、 に関連 ge-0/0/0 付けられているインターフェイス eth1eth1 、 . で定義 .conf file- interface: ge-0/0/0 ,nic: eth1 されています。

VFは、VFに関連付けられているサーバー インターフェイスのIXGBEドライバーに eth1 追加され、SR-IOVモードで実行中に コマンドを使用して ip link show eth1 チェックできます。

図 2 は 、SR-IOV インターフェイスをvMXされた VM モデルのネスト型仮想マシンを示しています。

図 2:SR-IOVインターフェイスを使用した Nested VM with SR-IOV Interfaces ネスト型 VM

SR-IOV インターフェイスでは、ネストされた VM を起動する前に、修正された IXGBE ドライバーをvMX必要があります。

ネットワーク トラフィックが物理サーバーから仮想ネットワークNICされる方法はNIC設定した仮想化技術によって異なります。

ネスト VM モデルのシステム要件

vMXに応じて、2 つのモードで実行するように設定できます。

  • Lite モード — 低帯域幅で実行する CPU とメモリのリソースを少なくします。

  • パフォーマンス モード — 広い帯域幅で実行するには、CPU とメモリの観点からより高いリソースが必要です。

    注:

    パフォーマンス モードはデフォルト モードです。

vMX VMモデルによる制約の克服

vMXされた VM モデルでは、以下の機能はサポートされていません。

  • インターフェイスインスタンスの実行中に、インターフェイスvMX接続または取り外し

  • ソフトウェア リリースJunos OSアップグレード

ネストされた仮想マシンのハードウェアvMX要件

表 1 は 、ハードウェア要件を示しています。

表 1:ネストされた仮想マシンの最小vMX要件

説明

システム構成の例

virtio: 任意の x86 プロセッサー(Intel または VT-d 機能を搭載した場合)

SR-IOV 用: Intel 82599 ベースの PCI-Express カード(10 Gbps)および Ivy Bridge プロセッサー。

コア数

注:

パフォーマンス モードはデフォルト モードで、最小値は 1 つのポートに基づいて行います。

  • Lite モードの場合:最小 4 つの vCPU

    注:

    VFP で 4 つ以上の vCPU を使用している場合、Lite モードを明示的に設定する必要があります。

  • パフォーマンス モード:最小 8 つの vCPU

    注:

    パフォーマンス モードで VFP が必要とする vCPU の推奨数を計算するには、以下の方法に当たります。

    (3 * number-of-forwarding-ports )+ 4

メモリ

  • Lite モードの場合:3 GB 以上

  • パフォーマンス モードの場合:

    • 5 GB 以上

    • 16 GB の推奨

表 2 は、 ソフトウェア要件を示しています。

表 2:Ubuntuのソフトウェア要件

説明

オペレーティング システム

Ubuntu 14.04.1 LTS

Linux 3.19.0-80-generic

仮想

QEMU-KVM 2.0.0+qg-2ubuntu1.11

必須パッケージ

注:

他のすべての依存関係を満たすために追加のパッケージが必要になる場合があります。

bridge-utils qemu-kvm libvirt-bin virtinst

注:

libvirt 1.2.19

KVM上でネストされたvMX VMのインストールと起動

KVM 上でネストされた vm vMXを起動するには、これらのタスクを実行します。

ネストされた仮想マシンをインストールするためのUbuntuホストvMX準備

仮想マシンをインストールするためにUbuntuホスト システムを準備するには、次vMX。

  1. ネストされた仮想マシンのハードウェアおよびソフトウェア要件に記載されているソフトウェアおよび OS vMX条件を満たします
  2. BIOS で Intel VT-d を有効にします。(さまざまなシステムでVT-dを有効にする方法が異なため、ベンダーにプロセスを検証することをお勧めします)。

    ~を参照してくださいで VT-d を有効にする手順を説明します。

  3. KSM_ENABLED=0 /etc/default/qemu-kvm の設定により KSM を無効にします
  4. /etc/modprobe.d/qemu-system-x86.conf ファイルを編集して、次を含む行に追加して、A 仮想化PICファイアウォールの設定を無効 enable_apicv=0 にします options kvm_intel

    options kvm_intel nested=1 enable_apicv=0

  5. ホストを再起動して KSM と APIC デバイスを仮想化。
  6. SR-IOV を使用している場合は、このステップを実行する必要があります。
    注:

    /etc/network/interfaces内に外部ブリッジを使用して前のインストールを削除し、元の管理インターフェイスを使用して復元する必要があります。インストールを続行 ifconfig -a する前に、 コマンドに外部ブリッジが表示されないか確認します。

    外部ブリッジが表示されるかどうかを確認するには、 コマンドを使用して管理 ifconfig インターフェイスを表示します。このインターフェイスが外部ブリッジ グループに使用されているかどうかを確認するには、 コマンドを使用して、管理インターフェイスが外部ブリッジ brctl show として表示されるかどうかを確認します。

    intel_iommu=on /etc/default/grubディレクトリでオンにすることで、SR-IOV 機能を有効にします。

    GRUB_CMDLINE_LINUX_DEFAULT="intel_iommu=on"

    文字列を intel_iommu=on パラメーターの既存のテキストに追加 GRUB_CMDLINE_LINUX_DEFAULT します。

  7. 最適なパフォーマンスを実現するには、ホスト上で巨大ページのサイズを 1G に設定し、VFP の 1G が少なくとも 16 の巨大ページを持つ必要があります。 巨大ページのサイズを設定するには、/etc/default/grub の次の行を追加します

    GRUB_CMDLINE_LINUX="default_hugepagesz=1G hugepagesz=1G hugepages=number-of-huge-pages"

    巨大ページの数は少なくとも(16G * )である必要 number-of-numa-sockets があります。

  8. コマンドの update-grub 後にコマンドを実行 reboot します。
  9. コマンドを modprobe kvm-intel 実行してからインストールしてくださいvMX。

修正された IXGBE ドライバーを読み込む

SR-IOV インターフェイスを使用している場合、ネストされた VM を起動する前に、修正された IXGBE ドライバーをロードvMX必要があります。修正された IXGBE ドライバーをロードするには、次の方法に示します。

  1. KVM ソフトウェア vMXをダウンロードし、パッケージの圧縮を解除します。
  2. ドライバーをコンパイルする前に、gcc と make がインストールされていることを確認します。
  3. デフォルトの IXGBE ドライバーをロード解除し、修正されたデバイス ジュニパーネットワークスをコンパイルして、修正した IXGBE ドライバーをロードします。
  4. SR-IOV インターフェイスでドライバー バージョン(3.19.1)を検証します。

ネスト 型インスタンスvMXの起動

ネスト されたインスタンスを起動vMXするには、次のvMX。

  1. ネストされたソフトウェア パッケージvMXをダウンロードします。
  2. 画像を vmdk フォーマットに qcow2 変換します。
  3. virtio インターフェイス用のブリッジを作成します。
    注:

    コマンドを使用してブリッジを brctl addbr <bridge-name> 作成すると、サーバーが接続を失う可能性があります。または、開始されていないモード(SRIOV または virtio モード)で vMX を生成し、 および コマンドを使用してブリッジを作成および保持 virsh destroy vcp vcp-name virsh destroy vfp vfp-name できます。

    注:

    ネスト インスタンスを起動する前に、virtioインターフェイス用のブリッジvMX必要があります。

  4. コマンドを使用してvMXされた VM インスタンスを virt-install 起動します。たとえば、次のようになります。

    どこ:

    • --vcpus—vCPU の数を指定します。

      Lite モードの場合、最小 4 つの vCPU。パフォーマンス モードの場合、最小 [(4 * number-of-forwarding-ports ) + 4] vCPU。

    • -r—VM が使用するメモリの量を MB で指定します。16 GB 以上。

    • --serial—VFP のシリアル ポートを指定します。

    • -w—virtio インターフェイスを指定します。最初のインターフェイスは管理に使用され、br-extブリッジに接続されています。その後のインターフェイスは WAN インターフェイスであり、ホスト上のブリッジに接続されます。

    • --host-device:SR-IOV インターフェイスを、仮想機能(VF0)の PCI ID として指定します。

      PCI ID を確認するには、以下の方法で確認します。

      1. コマンドを ip link 使用して、仮想インスタンスにバインドされたVFを作成するインターフェイス名vMXします。

      2. ユーティリティを ethtool -i interface-name 使用して、PCIバス情報を確認します。

      3. コマンドを virsh nodedev-list 使用して VF PCI ID を取得します。

    • -n—VM の名前をvMXします。

    • --disk—ファイル( qcow2 vmx-nested- release .qcow2)へのパスを指定します。

たとえば、このコマンドは、vnet0 および vnet1 ブリッジに接続された 2 つの virtio インターフェイスを使用して、パフォーマンス モードで vMX インスタンスを起動します。

たとえば、このコマンドは、2 つの SR-IOV インターフェイスvMX モードで、インターフェイス インスタンスを起動します。

VFP コンソール ポートへの接続

コマンドを使用してvMXインスタンスを起動した後、パラメーターで指定したポートのコマンドを使用して、ホストからVFPのコンソール ポートに接続 virt-install telnet localhost serial-port serial-port host -serial できます。

例えば:

デフォルトのユーザー名とパスワードで jnpr ログインします jnpr123 。コマンドを使用して root sudo -i になります。

br-extインターフェイスは、DHCPを使用してIPアドレスの取得を試行します。コマンドを ifconfig br-ext 使用して、割り当てられた IP アドレスを表示します。DHCP が使用できない場合、または静的 IP アドレスが必要な場合は、 に IP アドレスを割り当て br-ext します。これで、SSH プロトコルと割り当てられた IP アドレスを使用して VFP に接続できます。

VCP への接続

VCP VM が起動すると、次のコマンドを使用して VFP VM から TCP ポート 8601 の VCP コンソール ポートに接続できます。

コンソール ポートから、ユーザー名とパスワードを使用して root ログインすることはできません。

少なくとも、VCP にログインした後は、Junos OS最初の設定タスクを実行する必要があります。

  1. 最初にCLI。
  2. 設定モードにします。
  3. root パスワードを設定します。
  4. ルーターの管理イーサネット インターフェイスの IP アドレスとプレフィックス長を設定します。
  5. 設定をコミットします。