Help us improve your experience.

Let us know what you think.

Do you have time for a two-minute survey?

 
 

Proxmox仮想環境

別のオプションとして、Proxmox VEにラボを構築することを検討できます。内部的には、EVE-NG、libvirtdを使用したUbuntuネイティブKVM、およびProxmox VEのハイパーバイザーは同じです。3 つの環境すべてで、 QEMU が VM を実行します。各環境には独自のCLIとGUIがあり、DebianまたはUbuntu Linuxディストリビューションを使用します。

libvirtd を使用した EVE-NG および Ubuntu ネイティブ KVM に対する Proxmox VE の利点は次のとおりです。

  • ハイパーバイザーのクラスターを簡単に構築できるため、単一のBMSの範囲が制限されます。
  • Cephなどの共有ストレージを簡単に接続できます。
  • SDNオプションを使用してサーバー間のネットワークを仮想化します。
  • REST APIがシステムを運用します。

libvirtd を使用した EVE-NG および Ubuntu ネイティブ KVM に対する Proxmox VE の利点の欠点は次のとおりです。

  • UKSM カーネルをビルドしても、複数の vJunos スイッチ インスタンスの RAM 使用量を節約できません。そのため、各 vJunos スイッチ仮想マシンには 5 GB の RAM が必要です。
  • 圧縮された qcow2 イメージまたはバッキング qcow2 イメージは実行されず、代わりにストレージ オプションで raw イメージとして展開されます。そのため、各 vJunos スイッチ仮想マシンには 32 GB のストレージが必要です。

このドキュメントでは、ローカルに設定された単一のProxmoxサーバーと標準のLinuxブリッジを使用して、Proxmox VE上にvJunosスイッチVMを作成する例を紹介します。これは、前述の他の 2 つの環境と比較するのに役立ちます。VM用のProxmox GUIを使用したことがないため、juniper.confイメージを作成した後、設定変更をローカルで実行し、 LinuxブリッジとVMインターフェイスは、Proxmox VEでVM作成の変更後に実行する必要があります。CLI の例を使用すると、複数の vJunos スイッチ仮想マシンを起動するためのスクリプトに含めやすくなります。

手記:

複数のサーバーを使用するスケールアウトラボでは、ローカルのLinuxブリッジではなく、VXLANを備えたSDNをネットワークトランスポートオプションとして使用することをお勧めします。

Proxmox VEの準備

ハイパーバイザーを設置したら、ラボ内のvJunosスイッチ仮想マシンなどに使用するネットワークを作成します。上記の例のように、Proxmox GUIを使用して、以下に示す3つの標準Linuxブリッジを作成し、それらがアクティブ化されていることを確認します。

A screenshot of a computer Description automatically generated

各Linuxブリッジに名前を割り当て、オプションでMTUを9200に設定できます。MTU 値は、VM の作成後にスクリプトを使用して変更できます。他の値の入力や変更は避けてください。

A screenshot of a computer Description automatically generated

残りのすべての手順では、サーバーへの SSH を使用して、BASH コマンドをローカルで実行します。まず、vJunos-switch の qcow2-image をサーバーにダウンロードします。

次に、vJunosスイッチ仮想マシンの無料コピーをURL: https://support.juniper.net/support/downloads/?p=vjunos を使用してディレクトリにダウンロードし、コピーがダウンロードされたかどうかを確認します。

vJunosスイッチVMをProxmox VEに導入する

手記:

GUIとしてProxmox GUIを使用して最初のvJunosスイッチVMを作成すると、VMが正常に動作しなくなる原因となるパラメータが追加される可能性があります。代わりに、CLI を使用して初期 VM を作成し、テンプレートとして設定します。次に、このテンプレートを使用して、GUI から以降のすべての VM を起動します。

BASH を使用して、サーバー上で次の手順をローカルに実行します。

  1. VM を個別に構成します。
    1. VM ID/番号。この例では、 200.
    2. VM のイメージの実行元のストレージ。この例では、ストレージlocal-lvm.です
  2. 同じ ID の既存の VM が実行されている場合は削除します。これは、エラーが発生して再試行する場合に便利です。
  3. 後で正しく起動するために、必要なすべてのパラメータを使用して新しい vJunos-switch VM を作成します。
    1. VM の名前。この例では、 vswitch.名前は変更できます。
    2. RAMとCPU。変更しないでください。
    3. この VM を正しく起動するために必要な特別な BIOS および CPU オプション。オプションは変更しないでください。
    4. 起動順序とシリアル画面。変更しないでください。
    5. まず、VM の fxp0 インターフェイスに割り当てられるネットワーク net0 。必要に応じて変更しますが、ネットワークが VM の DHCP リースを提供できることを確認します。
    6. 2つ目は、vJunosスイッチVMのインターフェイスge-0/0/0となるnet1を始めとするネットワークを増やすことです。ラボの設計に応じて、より多くのインターフェイスと他のLinuxブリッジを使用して変更する必要があります。内部設計が複雑になりすぎないように、これらのインターフェイスのそれぞれについて、オプションをfirewall=0にしておくことをお勧めします。
  4. 選択したストレージ オプションに vJunos-switch qcow2-image をインポートします。場合によっては、vJunos-switch qcow2 イメージ ファイルの場所を変更する必要があります。
  5. BASH 変数に抽出する構成イメージの場所をインポートします。
  6. 起動元として作成した VM にイメージの場所を追加します。
  7. この VM の初期 Junos OS 構成を使用して既定の juniper.conf を作成します。
  8. make-config.shスクリプトを使用して、個々のjuniper.confファイルを埋め込むイメージを作成します。
  9. 選択したストレージ オプションに Junos OS 設定イメージをインポートします。
  10. BASH 変数に抽出する構成イメージの場所をインポートします。
  11. 作成した VM に構成イメージの場所を追加します。
  12. VM の完全な構成を確認して確認します。
  13. オプション:vJunosスイッチの今後の起動のテンプレートとしてVMを使用します。
    1. 現在の VM をテンプレートとして定義します。
    2. クローンの新しい VMID を選択します。
    3. 後で使用するためにクローン VM を作成します。
    4. 必要に応じて、クローンのインターフェイスの割り当てを変更します。
  14. VM またはそのクローンを起動します。
  15. 起動した VM の Linux ブリッジの割り当てをローカルで確認します。
  16. VM が起動しているかどうかを Proxmox GUI で確認し、コンソールにアクセスします。

vJunosスイッチのJunos OSのデフォルト設定」の章を確認します。この章では、他の環境で類似した、vJunosスイッチ仮想マシンの個々のJunos OS設定を作成するプロセスについて説明します。また、この章では、新しいvJunosスイッチ仮想マシンをMist Cloudのインベントリに自動的に表示できる採用設定を追加する方法についても説明します。ここでは、同じ手順を繰り返さずに、fxp0 インターフェイスでパスワードABC123rootように、リモート SSH アクセスに最小限のスタートアップ コンフィギュレーションを使用しました。

この時点で、Junos OS スタートアップ コンフィギュレーションを個別に作成し、プロセスを続行している必要があります。

これで、すべての準備が完了しました。結果の VM 構成を確認できます。

VM には資格情報やその他の制限要因が含まれていないため、初めて起動する前に、この VM をテンプレートとして使用してください。これにより、複数の仮想マシンをフルとして起動することも、後でイメージクローンにリンクすることもできます。続行する場合は、以下の手順に従ってください。

テンプレート/クローンをまだ使用しないことにした場合は、テスト用に最初の vJunos-switch VM を起動します。

これで、Proxmox GUIでVMコンソールを確認できます。ルーティングエンジンの外側の VM 画面が変更されないように、正しいボタンを使用していることを確認してください。ルーティングエンジンは、すべての Junos OS 設定が開始する場所で、独自の画面があります。選択するコンソールオプションについては、下の図を参照してください。

A screenshot of a computer Description automatically generated

LinuxブリッジとVMインターフェイス ProxmoxVEでのVM作成後の変更

vJunosスイッチ仮想マシンの起動は、ほとんどのラボのニーズを満たしていません。新しい VM を起動するたびに、例で使用されている標準の Linux ブリッジを調整する必要があります。詳細な説明については、「 Linux ブリッジ」および「VM 作成後の VM インターフェイスの変更」の章を参照してください。したがって、ここで繰り返す必要はありません。EVE-NG は、これらの調整を自動的に管理します。

Proxmox VEは、CLIを介してVMインターフェイスの詳細とその名前をローカルに提供しません。ただし、これらの詳細は GUI の REST API で使用できます。提供されているコマンドpveshを使用すると、VMインターフェイスに簡単にアクセスし、作成されたVMインターフェイスに関するJSONベースの情報を抽出できます。したがって、pvesh コマンドと jq コマンド、および通常の BASH プログラミングを使用してvm-bridge-update.sh、新しいスクリプトを再構築する方が簡単です。以下に示す手順を参照してください。

以下の設定をコピーしてエディターに貼り付けます。次に、保存して閉じます。

新しいスクリプトを使用すると、起動後に VM の Linux ブリッジとインターフェイスを更新できるようになりました。選択したAPIの最初のノードは、単一のProxmox VEインストールに適しています。クラスターがある場合は、上記のスクリプトを変更する必要があるかもしれません。

Linuxブリッジ拡張機能の最初のテストを検証するには、vJunosスイッチ仮想マシンからのLLDPネイバーアナウンスを確認します。 juniper.conf 手順で、微調整を行わないと、 tcpdump )を使用してアナウンスが表示されません。以下の例を参照してください。

最終テストを実行するには、1台目の仮想マシンに1対1で接続された2台目のvJunosスイッチを起動します。次に、2つのVM間でアクティブなLACPを使用してLAGを確立します。Mist Cloud GUIにおける両方の仮想スイッチの設定を以下に示します。

A screenshot of a computer Description automatically generated

vJunosスイッチコンソールでローカルに検査すると、LLDPネイバーと2つのスイッチ間で確立されたLACPリンクが表示されます。この手順では、ラボが想定どおりに機能することを確認します。