OpenStack へのvMXのインストール
このトピックを読んで、OpenStack 環境にvMXをインストールする方法を理解してください。
OpenStack 環境のインストールを準備vMX
OpenStack コマンド を実行する前に、openstackrc ファイルがソースで提供されている必要があります。
OpenStack 環境にソフトウェア をインストールする準備vMX、以下のタスクを実行します。
Neutron Networks の構築
データ インスタンスを起動する前に、vMX Neutron ネットワークをvMXがあります。パブリック ネットワークは、管理(fxp0)ネットワークに使用される Neutron ネットワークです。WAN ネットワークは、ネットワークに対応する WAN インターフェイスが追加されたvMXネットワークです。
Neutron ネットワーク名を表示するには、 コマンドを使用 neutron net-list
します。
OpenStack 構成で必要なネットワークのタイプを特定し、作成する必要があります。
これらのコマンドは、1 つの方法でパブリック ネットワークを作成できます。
-
neutron net-create network-name --shared --provider:physical_network network-name --provider:network_type flat --router:external
neutron subnet-create network-name address --name subnetwork-name --allocation-pool start=start-address,end=end-address --gateway=gateway-address
例えば:
neutron net-create public --shared --provider:physical_network public_physnet --provider:network_type flat --router:external
neutron subnet-create public 10.92.13.128/25 --name public-subnet --allocation-pool start=10.92.13.230,end=10.92.13.253 --gateway=10.92.13.254
virtio については、次のコマンドを WAN ネットワークを作成する 1 つの方法として使用できます。
neutron net-create network-name --router:external=True --provider:network_type vlan --provider:physical_network network-name --provider:segmentation_id segment-id
neutron subnet-create network-name address --name subnetwork-name --enable_dhcp=False --allocation-pool start=start-address,end=end-address --gateway=gateway-address
例えば:
neutron net-create OSP_PROVIDER_1500 --router:external=True --provider:network_type vlan --provider:physical_network physnet1 --provider:segmentation_id 1500
neutron subnet-create OSP_PROVIDER_1500 11.0.2.0/24 --name OSP_PROVIDER_1500_SUBNET --enable_dhcp=False --allocation-pool start=11.0.2.10,end=11.0.2.100 --gateway=11.0.2.254
SR-IOV では、これらのコマンドを WAN ネットワークを作成する 1 つの方法として使用できます。
neutron net-create network-name --router:external=True --provider:network_type vlan --provider:physical_network network-name
neutron subnet-create network-name address --name subnetwork-name --enable_dhcp=False --allocation-pool start=start-address,end=end-address --gateway=gateway-address
例えば:
neutron net-create OSP_PROVIDER_SRIOV --router:external=True --provider:network_type vlan --provider:physical_network physnet2
neutron subnet-create OSP_PROVIDER_SRIOV 12.0.2.0/24 --name OSP_PROVIDER_SRIOV_SUBNET --enable_dhcp=False --allocation-pool start=12.0.2.10,end=12.0.2.100 --gateway=12.0.2.254
コントローラ ノードの準備
ネットワークを管理するためのコントローラ ノードvMX
コントローラ ノードを準備するには、次の方法に当たって行います。
virtio Interfaces 向けコントローラ ノードの設定
virtio インターフェイスを設定するには、次の手順に示します。
SR-IOVインターフェイスのコントローラ ノードの設定
複数の SR-IOV インターフェイスを使用している場合は、追加の SR-IOV インターフェイスごとに 1 つの専用の物理 10G インターフェイスが必要です。
SRIOV モードでは、VLAN プロバイダ OVS ネットワーク上の virtio インターフェイスを使用して、ルーティング エンジン(RE)とパケット転送エンジン間の通信が有効になります。この理由から、特定の物理インターフェイスを VirtIO ネットワークと SR-IOV ネットワークの両方の一部にすることはできません。
SR-IOV インターフェイスを設定するには、次の手順に示します。
コンピューティング ノードの準備
コンピューティング ノードのvMX
config_drive_format=vfat
/etc/nova/nova.confファイルにパラメーターを含めてvMXインスタンスにメタデータを渡すコンピューティング ノードを設定する必要はなくなりました。
コンピューティング ノードを準備するには、以下の方法が必要です。
SR-IOV インターフェイスのコンピューティング ノードの設定
複数の SR-IOV インターフェイスを持つ場合は、追加の SR-IOV インターフェイスごとに 1 つのNIC 10G イーサネット カードが必要です。
SR-IOV インターフェイスを設定するには、次の手順に示します。
デバイスのvMX
OpenStack 環境の準備が終わると、VCP および VFP VM のノバス の種類と一見の画像を作成する必要があります。スクリプトは、スタートアップの設定ファイルで提供される情報に基づいて、さまざまな種類と画像を作成します。
vMX設定ファイルの設定
設定ファイルの設定にvMXパラメーターは、起動時の設定ファイルで定義されています。
設定ファイルを設定するには、以下の方法に当たって行います。
詳細については、
設定vMX パラメーターの指定
仮想ネットワークの設定に必要vMXパラメーターは、起動時の設定ファイル(スクリプト/vmx.conf)で定義されています。スタートアップ設定ファイルは、さまざまな種類の作成に使用されるファイルを生成します。異なるまたはパラメータを持つ新vcpus
しい種類をmemory-mb
作成するにはre-flavor-name
pfe-flavor-name
、対応するパラメータを変更してから新しい種類を作成する必要があります。
設定をカスタマイズするには、以下のタスクを実行します。
ホストの設定
ホストを設定するには、HOST に移動 し 、以下のパラメータを指定します。
virtualization-type
:動作モード、する必要がありますopenstack
。compute
—(オプション)カンマ区切りリストで vMX実行するコンピューティング ノードの名前。このパラメータが指定されている場合は、有効なコンピューティング ノードである必要があります。このパラメータが指定されている場合、vMXされたインスタンスは、指定されたコンピューティング ノードでのみ実行されます。このパラメータが指定されていない場合、nova hypervisor-listコマンドの出力は、これらのインスタンスを実行するコンピューティング ノードvMXします。
VCP VM の設定
VCP VM を設定するには、そのうえの名前を指定する必要があります。
OpenStack は同じ名前の複数 re-flavor-name
のエントリーを作成できるから、パラメーターには一意の値を推奨します。
VCP VM を設定するには、仮想 マシンに移動 CONTROL_PLANE、以下のパラメーターを指定します。
re-flavor-name
—ノバス フレーバーの名前。vcpus
—VCP の vCPU 数。最小は 1 です。メモ:この値を変更した場合、スクリプトを実行してさまざまな種類
re-flavor-name
を作成する前に値を変更する必要があります。memory-mb
—VCP のメモリ量。最小は 4 GB です。メモ:この値を変更した場合、スクリプトを実行してさまざまな種類
re-flavor-name
を作成する前に値を変更する必要があります。
VFP VM の設定
VFP VM を設定するには、そのうえの名前を指定する必要があります。要件に応じて、メモリと vCPU 数を変更できます。最小 ハードウェア要件については、「 最小 ハードウェア要件 」を参照してください。
VFP VM を設定するには、VFP VM に移動 FORWARDING_PLANE、以下のパラメーターを指定します。
pfe-flavor-name
—ノバス フレーバーの名前。memory-mb
—VFP のメモリ量。最小は 12 GB(パフォーマンス モード)および 4 GB(Lite モード)です。メモ:この値を変更した場合、スクリプトを実行してさまざまな種類
pfe-flavor-name
を作成する前に値を変更する必要があります。vcpus
—VFP の vCPU 数。最小は 7(パフォーマンス モード)および 3(lite モード)です。メモ:7 つ未満の vCPU を指定すると、VFP は自動的にライト モードに切り替わります。
メモ:この値を変更した場合、スクリプトを実行してさまざまな種類
pfe-flavor-name
を作成する前に値を変更する必要があります。
OpenStack の種類の作成
VCPとVFPの種類を作成するには、仮想マシンの起動設定ファイル(vmx.conf vMX上でスクリプトを実行する必要があります。
OpenStack を作成するには、以下の方法が必要です。
VCP vMX FP のファイル イメージのインストール
VCP および VFP vMX OpenStack の概要画像をインストールするには、スクリプトを実行 vmx_osp_images.sh
します。スクリプトにより、vCP イメージが qcow2 形式で追加され、VFP ファイルが vmdk 形式で追加されます。
VCP と VFP の画像をインストールするには、次の手順に示します。
たとえば、このコマンドは 、/var/tmp/junos-vmx-x84-17.1R1.8.qcow2 ファイルから再テストとして VCP イメージをインストールし、VFP イメージを /var/tmp/vFPC-20170117. ファイルから fpc-test としてインストールします。
sh vmx_osp_images.sh re-test /var/tmp/junos-vmx-x86-64-17.1R1.8.qcow2 fpc-test /var/tmp/vFPC-20170117.img
概要の画像を表示するには、 コマンドを使用 glance image-list
します。
インスタンスのvMX開始
vMXを開始するには、以下のタスクを実行します。
初期構成Junos OS変更
vMXインスタンスを起動すると、/package-locationopenstack/vmx-components/vms/vmx_baseline.confにあるJunos OS設定ファイルがロードされます。この設定を変更する必要がある場合は、デバイスを起動する前にこのファイルを変更vMX。
独自のファイルvmx_baseline.confを作成するか、ファイルを移動する場合は、/openstack/vmx-components/vms/re.yaml が正しいパスを参照していることを確認します。package-location
vMX インスタンスの起動
仮想インスタンスを作成してvMXするには、次のvMXします。
request system halt コマンドを使用vMXホスト サーバーを再起動する前に、すべてのインスタンスをシャット ダウンする必要があります。